ANTONELLA CORRADINI EPISTEMOLOGIA DELLE SCIENZE UMANE Un’introduzione al corso ANTONELLA CORRADINI EPISTEMOLOGIA DELLE SCIENZE UMANE Un’introduzione al corso Milano 2005 © 2005-2013 EDUCatt - Ente per il Diritto allo Studio Universitario dell’Università Cattolica Largo Gemelli 1, 20123 Milano - tel. 02.7234.22.35 - fax 02.80.53.215 e-mail: [email protected] (produzione); [email protected] (distribuzione) web: www.educatt.it/libri ISBN edizione cartacea: 978-88-8311-372-7 ISBN edizione elettronica: 978-88-6780-025-4 L’edizione cartacea di questo volume è stata stampata nel mese di settembre 2013 presso la Litografia Solari – Peschiera Borromeo (Milano); l’edizione elettronica è disponibile gratuitamente nell’area web EDUCatt dedicata al progetto FreeBook, all’indirizzo www.educatt.it/libri/freebook INDICE PREMESSA ..........................................................................................5 1 TEORIE............................................................................................6 1.1 Struttura generale delle teorie....................................................6 1.2 Simmetria vs. asimmetria tra spiegazione e giustificazione .........................................................................10 1.3 Conseguenze della asimmetria del nuovo metodo ..................18 Parte antologica ............................................................19 2 SPIEGAZIONE E PREVISIONE ..................................................31 2.1 La spiegazione secondo il modello deterministico..................32 2.2 La spiegazione probabilistica ..................................................33 2.2.1 Due nozioni di probabilità .............................................34 2.2.2 Probabilità epistemica vs. probabilità ontica .................35 2.2.3 Che cosa spiego con il modello I-S?..............................35 2.3 Spiegazione e previsione .........................................................37 Parte antologica ............................................................38 3 GIUSTIFICAZIONE......................................................................63 3.1 Neo-Positivismo ......................................................................63 3.1.1 Neo-Positivismo: prima fase..........................................63 3.1.2 Neo-Positivismo (seconda e terza fase) .........................64 3.2 Falsificazionismo popperiano .................................................67 3.2.1 Critica all’induttivismo..................................................67 3.2.2 Razionalismo .................................................................68 3.2.3 Falsificazione .................................................................69 3.2.4 Corroborazione e previsione razionale ..........................71 3.3 Epistemologia post-popperiana ...............................................74 3.3.1 T. Kuhn ..........................................................................75 3.3.2 P.K. Feyerabend.............................................................79 3 3.4 Riflessioni critiche sull’epistemologia contemporanea...............82 3.4.1 Una chiave di lettura dell’epistemologia contemporanea basata sul rapporto tra teoria e fatti empirici ..........................................................................85 3.4.1.1 Carico teorico dei concetti osservativi...............86 3.4.1.2 Carattere olistico della giustificazione...............88 3.4.1.3 Tesi della sottodeterminazione empirica delle teorie......................................................................90 3.4.1.4 Argomento della spiegazione migliore ..............91 Parte antologica ............................................................92 4 DINAMICA DELLA SCIENZA..................................................125 4.1 Il Neo-Positivismo.................................................................125 4.2 Il Falsificazionismo ...............................................................126 4.3 L’epistemologia post-popperiana ..........................................126 Parte antologica ..........................................................128 5 REALISMO E ANTIREALISMO NELLA SCIENZA ..............131 5.1 Che cos’è il realismo scientifico ...........................................131 5.2 Teoria della verosimilitudine in Popper ................................133 5.3 Il realismo circa gli inosservabili ..........................................135 Parte antologica ..........................................................136 6 SPIEGAZIONE E COMPRENSIONE ........................................153 6.1 La nascita del dibattito nell’Ottocento ..................................153 6.1.1 Il Positivismo ...............................................................154 6.1.2 Lo Storicismo...............................................................155 6.2 Prospettive contemporanee....................................................157 6.2.1 Neo-Positivismo: tesi dell’unità del metodo scientifico.....................................................................157 6.2.2 Popper ..........................................................................159 6.2.3 Wittgenstein e la psicologia.........................................162 6.2.4 G.H. von WRIGHT ........................................................162 Parte antologica ..........................................................165 4 PREMESSA La presente dispensa è destinata agli studenti del corso di Epistemologia delle Scienze Umane, attivato presso il corso di laurea in Scienze e Tecniche Psicologiche della Facoltà di Psicologia. Essa concerne gli argomenti delle prime due parti del corso, riguardanti rispettivamente l’epistemologia generale e l’epistemologia delle scienze umane. Nel redigere la dispensa, si è privilegiato il criterio dell’essenzialità e della sinteticità della trattazione, affidando alla ricca parte antologica le esemplificazioni e la contestualizzazione degli argomenti. La parte antologica offre inoltre agli studenti l’opportunità di venire a conoscenza del dibattito epistemologico contemporaneo dalla viva voce dei suoi protagonisti. 5 1 TEORIE 1.1 Struttura generale delle teorie: T = <L,U> T= Teoria = linguaggio che parla di un universo oggettuale U = Universo oggettuale o ambito o dominio di realtà: insieme di oggetti provvisti di proprietà e relazioni L = Linguaggio = insieme di proposizioni che parlano delle proprietà e delle relazioni tra gli oggetti costituenti il dominio oggettuale relativo 6 ESEMPI: FISICA LINGUAGGIO OGGETTI (1) Enunciati che descrivono i fenomeni fisici (movimento di corpi: le parabole degli oggetti che cadono); Corpi dotati di specifiche proprietà/relazioni come la massa, il movimento e la velocità (2) Enunciati che descrivono le regolarità dei fenomeni fisici (Leggi) MATEMATICA (ARITMETICA) (1) Enunciati dell’aritmetica: 1 + 2 = 3, Enti astratti 5 < 7; (2) Legge aritmetica: la somma (i numeri naturali, 0, 1, è commutativa: a + b = b + a 2, 3, …) TEORIA DEL COMPORTAMENTO PSICOPATOLOGICO TEORIA DELL’EVOLUZIONE (1) Enunciati che descrivono i comportamenti psicopatologici; (2) Leggi che presiedono ai meccanismi di difesa e che, perciò, spiegano tali comportamenti (1) Enunciati relativi alla differenziazione delle specie viventi (collocazione temporale delle specie animali viventi, loro nascita, loro estinzione…); (2) Leggi che descrivono i meccanismi di evoluzione delle specie viventi 7 Comportamenti psicopatologici (amnesie, lapsus, fobie, …) Le specie viventi TEORIE COME SISTEMI ORGANIZZATI DI ENUNCIATI T = <Assiomi di T, nesso di conseguenza logica ( )> Teorema = Conseguenza logica degli assiomi ASSIOMI ⇓ Teorema Conseguenza logica Se gli assiomi sono veri allora è vero il teorema ESEMPIO DELLA GEOMETRIA: ASSIOMI Assioma delle parallele: Per un punto esterno ad una retta data passa una e una sola retta ad essa parallela... ⇓ TEOREMA La somma degli angoli interni di un triangolo è di 180° Se è vero l’assioma delle parallele Conseguenza logica 8 allora è vero il teorema della somma del triangolo DUE ASPETTI DEL NESSO DI CONSEGUENZA LOGICA: (1) Momento esplicativo (SPIEGAZIONE) (2) Momento giustificativo (GIUSTIFICAZIONE) OGGETTO SPIEGAZIONE: riguarda un EVENTO = accadere o sussistere di un fatto GIUSTIFICAZIONE: riguarda una CREDENZA (CONVINZIONE) SPIEGARE UN EVENTO significa GIUSTIFICARE UNA CREDENZA significa TROVARE LA CAUSA DI TALE EVENTO = O FATTO TROVARE LA RAGIONE PER CUI VA = RITENUTA VERA TALE CREDENZA ESEMPIO: SPIEGARE IL FATTO CHE PIOVERÀ significa GIUSTIFICARE LA CREDENZA CHE PIOVERÀ significa TROVARE LA = CAUSA DI TALE FATTO È IN ATTO UN ABBASSAMENTO DELLA TEMPERATURA E IL CIELO È NUVOLOSO TROVARE LA RAGIONE PER = CUI VA RITENUTA VERA TALE CREDENZA RICONDURRE LA CREDENZA CHE PIOVERÀ ALL’ABBASSAMENTO DELLA COLONNA DI MERCURIO 9 1.2 Simmetria vs. asimmetria tra spiegazione e giustificazione Nella scienza antica (aristotelica) si dava una simmetria tra spiegazione e giustificazione, che si può evidenziare nei seguenti due schemi. SIMMETRIA DEL MODELLO ARISTOTELICO NELLE SCIENZE MATEMATICHE ASSIOMI EVIDENTI (risultato della intuizione delle essenze) Es. Assiomi della geometria Piano (aletico) della spiegazione Piano (epistemico) della giustificazione (È in gioco la verità) (È in gioco il grado di certezza) ⇓ Conseguenza logica I principi primi spiegano il risultato ⇓ I principi primi conferiscono certezza al risultato dato disciplinare (possibilmente non evidente) Es. Somma angoli triangolo = 180° 10 SIMMETRIA DEL MODELLO ARISTOTELICO NELLE SCIENZE EMPIRICHE ASSIOMI EVIDENTI (risultato della intuizione delle essenze) Es. Gli oggetti empirici tendono verso il loro luogo naturale Piano (aletico) della spiegazione Il luogo naturale degli oggetti materiali (pesanti) è la terra (È in gioco la verità) Piano (epistemico) della giustificazione (È in gioco il grado di certezza) ⇓ Lasciati liberi,gli oggetti materiali tendono a cadere verso la terra (in basso) ⇓ I principi primi spiegano il dato Questa pietra è materiale ed è lasciata libera I principi primi conferiscono certezza alla conoscenza del dato dato disciplinare Es. Questa pietra cade verso il basso 11 La nuova scienza empirica galileiana si caratterizza per l’asimmetria tra spiegazione e giustificazione, se non nelle scienze formali, per lo meno in riferimento alle scienze empiriche. TEORIE MATEMATICHE ASSIOMI Piano (aletico) della spiegazione (È in gioco la verità) ∼ ∼ ∼ Piano (epistemico) della giustificazione (È in gioco il grado di certezza) ⇓ ∼ conseguenza logica ∼ ⇓ Gli assiomi spiegano il teorema ∼ ∼ ∼ Gli assiomi conferiscono certezza al teorema teorema Nell’ambito delle scienze formali come la matematica, si riscontra una simmetria del rapporto tra spiegazione e giustificazione. In altri termini, gli assiomi non solo spiegano il teorema (cioè ne assicurano la verità), ma oltre a ciò giustificano la credenza nella sua correttezza. 12 ASIMMETRIA DEL RAPPORTO TRA SPIEGAZIONE E GIUSTIFICAZIONE NELLE SCIENZE EMPIRICHE Leggi Piano (aletico) della spiegazione (È in gioco la verità) ⇓ Gli assiomi spiegano il dato ∼ ∼ ∼ ∼ conseguenza logica ∼ ∼ ∼ ∼ Piano (epistemico) della giustificazione (È in gioco il grado di certezza) ⇑ Il dato conferma le ipotesi Il dato (Base empirica) Nelle scienze empiriche, a differenza delle matematiche, si ha un’asimmetria del rapporto tra spiegazione e giustificazione. In altri termini, le leggi generali spiegano il dato, ma è poi il dato a giustificare le leggi da cui viene dedotto. Approfondiamo la struttura delle teorie empiriche. 13 TEORIE EMPIRICHE 1. Componenti: (a) Base empirica (osservativa) = insieme di proposizioni che risultano vere in base all’esperienza = insieme delle proposizioni osservative vere = insieme delle proposizioni che descrivono fatti empirici = insieme delle proposizioni sperimentali (b) Parte teorica = leggi della teoria 2. Linguaggio L L = VO + VT VO = termini riguardanti entità osservabili, riguardo ai quali cioè è possibile decidere mediante osservazione (sperimentazione) se convengono o meno a un oggetto empirico. Esempio: termini riguardanti la lettura di strumenti di misurazione, mutamenti di colore, comportamenti esteriori… 14 VT = termini che riguardano inosservabili. Esempio: peso specifico (x) = p(x)/v(x); molecola, elettrone, quark, … Ragione della distinzione tra i vocabolari: Quando si fa scienza non ci si accontenta di una descrizione del fenomeno osservabile, bensì si ricerca una spiegazione di ciò che lo fa accadere: la scienza mira a comprendere la costituzione e le cause sottostanti e inosservabili dei fenomeni palesi (Kosso, Parte antologica). 3. Relazioni tra le parti T = < LEGGI, , Base empirica > ESEMPIO DELLA FISICA: Legge della gravitazione universale ⇓ Se è vera la legge della gravitazione universale Conseguenza logica Questa mela cade verso il basso allora si verifica che questa mela cade verso il basso 15 ESEMPIO DELLA METAPSICOLOGIA FREUDIANA: Se si danno le leggi che presiedono ai meccanismi di difesa Leggi dei meccanismi di difesa Es: Meccanismo di formazione reattiva: attitudine contraria ai propri reali sentimenti suscitata dall’angoscia generata da tali sentimenti ⇓ Es: Se sono vere le leggi che presiedono al meccanismo della formazione reattiva Conseguenza logica Omofobia allora si verifica il comportamento omofobico In conclusione, si può dire che nella scienza galileliana ha luogo una asimmetria tra il fondamento aletico e il fondamento epistemico delle scienze empiriche. Ciò che spiega (fondamento aletico) IPOTESI Ciò che è giustificato Piano (aletico) della spiegazione ⇓ Conseguenza logica Piano (epistemico) della giustificazione ⇑ Ciò che è spiegato Base empirica Ciò che giustifica (fondamento epistemico) 16 DIVERSITÀ TRA IL MODELLO ARISTOTELICO E IL MODELLO GALILEIANO DI SCIENZA: MODELLO ARISTOTELICO – Per Aristotele, scienza e filosofia non sono due attività distinte; – La scienza ha una struttura assiomatica, dimostrativa, deduttiva; – Tramite gli assiomi cogliamo l’essenza dei fenomeni, la loro natura profonda; – La conoscenza dell’essenza è una conoscenza certa, evidente, ossia autogiustificantesi; – Tale conoscenza è irrevedibile, non modificabile o falsificabile; ⇓ – Struttura aprioristica del sapere scientifico, l’esperienza gioca un ruolo trascurabile. MODELLO GALILEIANO – Formulazione di un criterio di demarcazione tra scienza e filosofia; – Passaggio dal metodo deduttivo al metodo ipotetico-deduttivo ⇓ – La conoscenza scientifica è per sua natura sempre revedibile, modificabile, falsificabile. 17 1.3 Conseguenze della asimmetria del nuovo metodo – Il carattere ipotetico delle teorie: “I concetti di teoria, ipotesi e legge descrivono lati diversi delle affermazioni scientifiche e non si escludono l’un l’altro” (Kosso, parte antologica). – distinzione tra contesto della scoperta e contesto della giustificazione Contesto oggettivo della spiegazione e della giustificazione Contesto della spiegazione: Contesto della giustificazione: Logica deduttiva Logica deduttiva + Logica induttiva (almeno per i neo-positivisti) 18 Contesto soggettivo della scoperta Psicologia PARTE ANTOLOGICA P. KOSSO, Leggere il libro della natura Bologna 1995, pp. 15-33 Ciò che le teorie non sono … Cominciamo a tentar di chiarire il concetto di scienza discutendo l’uso di un termine scientificio chiave: quello di «teoria». Spesso, sia gli addetti alla scienza sia i non addetti … usano il concetto in modo vagamente peggiorativo come quando si dice: «ma è solo una teoria!» Questo fa subito pensare a una situazione di distacco dalla realtà e di mancanza di dimostrazione, a un’assenza di buoni motivi per credere a un’affermazione la quale, appunto, è solo una teoria … Potrebbe anche darsi che ci siano buone ragioni per non credere ad affermazioni puramente teoriche … Ironia vuole che i maggiori risultati della scienza … sono tutti qualificabili come teorie. Pensiamo un attimo. I risultati della scienza? Per esempio è riuscita a capire il fenomeno della gravitazione universale, cioè che tutti gli oggetti dotati di massa, siano essi sulla terra e negli alti cieli, si attraggono fortemente l’un l’altro. Ciò descrive un ampio assortimento di eventi, dalla caduta intorno a noi di cose prive di sostegno ai movimenti dei pianeti e delle stelle, all’espansione dell’intero universo. Se si vuole essere commentatori della scienza moderni e informati, ci si deve insomma riferire alla teoria generale della relatività. Colla sua applicazione alle difficoltà del nostro confronto col mondo, la scienza ha anche un impatto pratico. Essa ha spiegato i meccanismi invisibili della trasmissione delle malattie. Chi non crede alla teoria dei germi? … Se invece si vuol sapere dove, quando e perché avvengono i terremoti, e si vuole una risposta scientifica, si consulterà la teoria degli strati tettonici. E così via. Quando non si parla più di teorie, si è smesso di parlare di scienza. Così, se essere scientifico, nella misura in cui si occupa dell’approccio metodologico alla verità sul mondo, è una cosa buona 19 e se le teorie sono il prodotto primario dell’impresa scientifica, allora non può essere che, proprio perché le teorie sono teorie, esse sono improbabili o comunque bisognose di dimostrazione scientifica, qualunque cosa ciò voglia dire. Essere teorico non è niente di cui ci si debba vergognare. È forse qualcosa di cui si debba andare orgogliosi? Se «teoria» non è un termine di biasimo, è forse un termine di lode, indicativo di una descrizione credibile ed esauriente di qualche aspetto del mondo? No, almeno se prestiamo attenzione a come il concetto viene usato nella scienza. Consideriamo due comuni riferimenti al concetto di teoria, la teoria del calorico e la teoria cinetica. Entrambe sono descrizioni del fenomeno del calore anche se esse descrivono il meccanismo soggiacente in modi molto differenti. La teoria del calorico dice che il calore è una sostanza (detta, appunto, calorico), in particolare un fluido sottile che penetra dentro e fuori le cose rendendole, rispettivamente, più calde e più fredde. Essere caldo è come essere bagnato; solo che il fluido è diverso: calorico invece di acqua. La teoria cinetica, al contrario, afferma che il calore non è un tipo speciale di sostanza bensì un tipo speciale di attività delle molecole delle sostanze calde. In una patata non si insinua niente che la renda calda: semplicemente, le molecole che la costituiscono vibrano più veloci. Non c’è alcuno scambio di materia e, in realtà, non esiste niente che sia il calorico. È chiaro che queste due teorie, come descrizioni accettabili del calore, sono tra loro in competizione. È probabile che una sia più vera dell’altra, ma nessuna è più teorica dell’altra. La probabilità di essere vera non è valutata sulla base di come ciascuna sia teorica. I criteri non sono nemmeno coincidenti. Per essere chiari, ha senso parlare di teorie vere così come ha senso parlare di teorie false. L’essere teorico è irrilevante rispetto all’essere vero. È irrilevante anche rispetto alla distinzione tra l’essere ben dimostrato e l’essere nuovo e ipotetico. La teoria speciale della relatività, col suo modo di riguardare il moto, la massa, l’energia e le loro interazioni nello spazio e nel tempo, ha superato molti test scientifici con un punteggio altissimo. È una teoria assodata. La si confronti con la teoria delle superstringhe, una proposta relativamente nuova sulla struttura dello spazio, del tempo e di tutto ciò che c’è in loro. Si tratta di una descrizione del mondo interessantissima ma non controllata, ed è, appunto, una teoria. La questione non è tanto che 20 queste due teorie sono in competizione tra loro (in effetti non lo sono), quanto che esse, sebbene differiscano in maniera significativa rispetto all’essere controllate o meno, stanno entrambe, comodamente, entro il concetto di teoria. Forse, se «teoria» non è elogiativo nel senso dell’essere probabile che sia vera, è però il riconoscimento, fatto sulla base della struttura stessa di un’affermazione, che quanto essa dice è una descrizione esauriente, completa, di una data parte del mondo. Per confezionare la descrizione, diciamo, di un elettrone, o di uno strato tettonico, ci possono volere svariati concetti interrelati ed è solo il pacco intero delle affermazioni, dei modelli e, perfino, dei procedimenti sperimentali a valere come teoria scientifica. Talvolta, in effetti, le teorie vengono considerate come entità complesse, sfaccettate ma è difficile dire esattamente cosa vi debba essere incluso per avere una teoria completa e per avere quindi un’unità di valutazione scientifica che sia adeguata in questo senso. E non è neanche necessario. Visto che il progetto è valutare la giustificazione delle affermazioni scientifiche, è meglio attenersi alla possibilità che l’essere giustificato o meno spetti alle parti di queste entità sfacettate, cioè alle singole affermazioni. Si vuole con ciò difendere l’interesse per quei concetti di teoria secondo i quali una teoria può anche essere un’affermazione singola, addirittura isolata, difendendo con ciò la legittimità di locuzioni del tipo «la teoria secondo la quale i raggi cosmici nascono da reazioni nucleari nello spazio esterno». Questo significa che si possono avere teorie sia generali sia speciali, teorie esaurienti oppure selettive … Si può avere una teoria generale della nascita della civiltà o una teoria del significato effettivo di Stonehenge. Si può avere la teoria che i dinosauri furono sterminati da catastrofici cambiamenti climatici. Si può avere la teoria che è il tizio della porta accanto quello che ci ruba il giornale la domenica. Per riassumere, nessuno di questi aspetti, ossia probabilità di essere vera, generalità o comprensività, delimita esattamente il concetto di ciò che è una teoria … Dire di qualcosa che è una teoria non è né un credito né un discredito. In termini di credibilità, possono esservi teorie sia buone sia cattive ma esse restano ciò nonostante teorie. Un modo per decidere se una certa affermazione autorizzi a credere a essa ci vuole di certo ma non serve rilevare semplicemente 21 che è una teoria. Si ha bisogno dell’informazione ulteriore che si tratti di una buona teoria. Fin qui si è parlato di … cosa non significa «teoria» ma il concetto ha di sicuro dei limiti. Che significa, allora, «teoria?» … Cosa sono le teorie Rispondendo a questa domanda conviene prestare attenzione all’osservazione, fatta prima, secondo la quale i prodotti primari dell’impresa scientifica sono le teorie. Qual è dunque lo scopo della scienza? In cosa consiste tale produzione? Ma la scienza mira, più in generale, a dar conto di ciò che accade dietro i fenomeni della nostra esperienza. Descrivendo oggetti ed eventi che non sono palesi, essa tenta di dar senso a quegli avvenimenti del mondo che invece lo sono. La scienza mira a comprendere la costituzione e le cause sottostanti dei fenomeni palesi e a dare, in tal modo, senso al mondo fenomenico in cui abitiamo … Questa capacità ha bisogno della comprensione delle cause, ossia di quei meccanismi non visti che determinano gli eventi della nostra esperienza … La scienza non vuole semplicemente descrivere, in maniera accurata e metodica, il mondo osservabile, non vuole essere solo una descrizione raffinata ed esatta dei fenomeni, la migliore raffigurazione possibile degli oggetti palesi con tanto di programma puntuale del loro andare e venire. Certamente, nella scienza, questo tipo di ritratto preciso e dettagliato del mondo palese è uno strumento necessario per la scoperta e il controllo. Scoperta e controllo di che? Di teorie. Le osservazioni precise servono a mostrare come la scienza descrive il mondo in quegli ambiti del reale che sono troppo piccoli, troppo distanti o troppo lontani nel passato per poterne fare esperienza. Se, per esempio, la scienza viene applicata ai fenomeni della pioggia acida e delle foreste e dei laghi che muiono, il risultato è qualcosa di più di una lista dettagliata degli effetti. In questo caso si vuole sapere esattamente cosa sta accadendo, ed è questo ciò che esattamente si ottiene. Un rapporto scientifico è utile e interessante nella misura in cui descrive i costituenti non visti del problema, gli acidi e i loro componenti chimici, e gli eventi fondamentali della loro produzione e della loro unione nell’atmosfera. È questa descrizione di ciò che accade al di là dell’immediatamente palese che costituisce il 22 prodotto della scienza, ed è questo il motivo per cui, se vogliamo comprendere e ricevere aiuto, ci rivolgiamo alla scienza … Le più fondamentali tra le dimostrazioni scientifiche che si fanno in classe, come quelle attraverso le quali si vuole insegnare cosa accade nella scienza, sono di questo tipo. La mia preferita prevede lo strofinamento di un palloncino sui capelli di qualcuno per poi far toccare al palloncino la parete. Il palloncino si attacca. Si comincia a fare scienza quando ci si chiede: qui che sta succedendo? Ma non si vuole una descrizione del fenomeno osservabile, bensì una spiegazione di ciò che lo fa accadere. C’è la questione della costituzione di base del palloncino, dei capelli e della parete, c’è la questione dell’evento dello strofinio che fa sì che il palloncino si attacchi. Forse, quando il palloncino è strofinato sui capelli, si gratta via una sottile pellicina di gomma vecchia e secca e si espone la gomma fresca e appiccicosa che sta sotto, e per questo resta attaccato alla parete. O, forse, l’azione più importante si svolge a una scala ancora più piccola, e lo strofinio gratta via dai capelli microparticelle di carica elettrica per cui il palloncino diventa elettricamente carico e quindi passibile di attrazione da parte delle particelle cariche della parete. È questo tipo di descrizione dei fattori che sono responsabili dei fenomeni e che non si percepiscono, è questo genere di resoconto del mondo da dietro le quinte, ciò che costituisce la realizzazione della scienza … Volendo comprendere la struttura della scienza e i suoi metodi di giustificazione, è utile distinguere due generi di affermazioni circa gli oggetti e gli eventi non osservabili … Un tipo di teoria sarà quello fatto solo di affermazioni sugli inosservabili, cioè di descrizioni degli abitanti e delle attività del mondo inosservabile senza alcuna menzione del loro impatto su quello osservabile. Per esempio, molte delle affermazioni che si trovano nella descrizione che i fisici danno delle particelle elementari non hanno alcun contatto con il mondo dell’esperienza. Tutti i barioni (per esempio i protoni) sono fatti di quark. Questo definisce due generi di entità inosservabili e la loro relazione di composizione. Ora, delle particelle, ne sappiamo ancora di più in base all’affermazione che le forze di interazione tra di esse, ad esempio quelle occorrenti nelle collisioni, sono causate dallo scambio di particelle ulteriori, le cosiddette particelle virtuali. Si tratta di una descrizione del micromondo interessante e forse addirittura esatta ma, a questo 23 livello, il mondo su cui la descrizione dà informazioni è isolato rispetto a quello della nostra esperienza. Lo stesso vale per le descrizioni di un passato lontano, per le ricostruzioni dell’aspetto di edifici e ceramiche, e del comportamento politico ed economico. Tutte le affermazioni di questo tipo descrivono solamente ciò di cui chi descrive non può avere esperienza. L’altro tipo di affermazione teorica è quello che serve a rompere questo isolamento. Ci vogliono, a questo scopo, affermazioni concernenti le interazioni tra i non osservabili e gli osservabili. Appartengono a questa seconda categoria le descrizioni di quegli eventi del passato che hanno influenzato i tratti salienti delle tracce ritrovate nel presente, siano esse testi superstiti, resti archeologici o evolute pratiche sociali. Altri esempi includono le descrizioni dell’impatto causale del micromondo sul macromondo (e viceversa). Un tale tipo di asserzione colma la lacuna tra ciò che esperiamo, l’immagine manifesta del mondo, e ciò che non possiamo esperire ma a cui siamo interessati, l’immagine scientifica. Chiaramente, affermazioni teoriche di questa sorta saranno di fondamentale importanza per la comprensione del materiale probatorio scientifico e del processo di controllo. Esempi di tali asserzioni sono facilmente localizzabili nelle attività sperimentali degli scienziati. Una particella carica, come un protone, quando passa accanto a degli atomi li ionizzerà e, in un vapore supersaturo come quello che si ottiene in una camera a nebbia, attorno agli ioni si formeranno delle bolle visibili. In tal modo la microparticella lascia il suo segno nel mondo dell’esperienza e, quindi, si possono avere informazioni su certi aspetti del suo comportamento. Dato che i buchi neri attraggono gravitazionalmente la luce, essi faranno curvare i raggi luminosi proprio come fa una lente e causeranno un’immagine visibilmente alterata delle stelle e delle galassie che si trovano vicine alla loro posizione nel cielo. Ciò che non si può vedere ha un’influenza notevole su ciò che invece si può. Un vaso di ceramica, usato, rotto e gettato via nell’antica Grecia, finisce inavvertitamente nel recinto degli animali tra il letame; assieme al letame i pezzi vengono sparpagliati nei campi solo per essere poi recuperati ed esaminati da un archeologo moderno che ha una teoria secondo la quale i cocci provenivano non da un vaso usato qui nel campo bensì da uno usato là nella fattoria. 24 Queste sono le teorie che forniscono immagini … le teorie di questo tipo assicurano che ciò che viene esperito, la traccia nella camera a nebbia o il coccio di vaso, è un’immagine informativa del suo precedessore causale, cioè della particella o del vaso … La nostra situazione rispetto al mondo inosservabile delle immagini scientifiche è quella che ci vede, in quanto percipienti, a uno dei due capi della catena causale. All’altro capo sta l’oggetto che ci interessa. Il vaso antico, attraverso una successione di interazioni causali comprendenti il riutilizzo culturale e l’erosione, produce un coccio in un campo, e tutto ciò che l’archeologo vede è l’ultimo passo, il coccio. Un protone causa ionizzazione, bolle e una traccia di vapore, e tutto ciò che il fisico vede è la traccia. Se il coccio o la traccia devono essere materiale probatorio di qualcosa, ci deve essere una teoria che descrive l’altro capo della catena causale come pure i passaggi intermedi. Così, entrambi i tipi di teoria, sia quello concernente soltanto gli inosservabili … sia quello concernente la relazione tra gli inosservabili e gli osservabili … sono usati per ricostruire la catena interattiva che va dall’oggetto dell’interesse scientifico all’immagine manifesta. Ipotesi e leggi … Come si è sottolineato prima, alcune teorie scientifiche sono state controllate in maniera esauriente e altre no. Le prime sono passate attraverso quello che costituisce la risposta al problema della giustificazione. Le altre, cioè quelle che non ci sono passate o sono ancora alle fasi preliminari del controllo, sono ipotesi. Dire di qualcosa che è un’ipotesi significa riferire circa il suo status di giustificazione, qualificandola come non controllata o controllata solo minimamente. … È chiaro che questo aspetto delle affermazioni scientifiche va per gradi. Si vedrà subito che la giustificazione si accumula senza mai raggiungere lo stadio della certezza. Per questo motivo, nella descrizione della scienza, è preferibile usare l’aggettivo «ipotetico» piuttosto che il nome «ipotesi» e pensare non a una dicotomia tra ciò che è e ciò che non è un’ipotesi ma a una misura della maggiore o minore ipoteticità di un’affermazione. La scienza, in quanto impresa responsabile verso il pubblico, vuole che i suoi prodotti, qualora siano provvisori e non controllati, portino come avvertimento l’etichetta di «ipotetico». È un etichetta che non si stacca in un colpo solo ma si 25 toglie un po’ alla volta. Lo status di ipoteticità di una teoria cambia e ciò indica che tale status non è una caratteristica intrinseca che descriva ciò di cui la teoria tratta o ciò che essa dice o la forma in cui lo dice: l’essere ipotetico è un riflesso della relazione storica che la teoria ha con le attività (o inattività) della comunità scientifica. Non è semplicemente guardandola che, di un’affermazione teorica, si può capire se è ipotetica. Bisogna proprio che ce lo dicano esplicitamente. … C’è un’altra importante variazione fra le teorie: il loro grado di generalità. Alcune teorie sono più generali e quindi più interessanti di altre. Le teorie possono essere generali nella misura in cui ignorano fattori quali la localizzazione spaziale (si applica ovunque), il tempo (vale sempre) o altri aspetti che siano irrilevanti per il processo descritto. Esse fanno questo specificando quali fattori sono rilevanti per quel particolare comportamento. Ad esempio, è vero che tutti gli oggetti privi di sostegni e molto vicini alla superficie terrestre, cadendo, aumentano di velocità. Questa cresce a un ritmo di 9,8 metri al secondo per ogni secondo in cui essi si trovano in caduta libera. Ciò vale a prescindere dal colore dell’oggetto, da come è stato fatto, da dove lo si è comprato, dal momento del giorno in cui lo si è fatto cadere e così via. Questi aspetti non sono pertinenti. Ciò che invece è pertinente è che l’oggetto abbia una massa (sebbene quanta ne abbia non lo sia), che sia privo di sostegni e che sia vicino alla superficie della terra. La teoria generalizza su tutti gli oggetti che abbiano queste proprietà. Ancora migliore, almeno nel senso di più generale, è l’affermazione che tutti gli oggetti dotati di massa, ovunque essi siano, si attraggono con una forza che è direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della distanza di separazione. Questa affermazione copre una più ampia classe di oggetti ed eventi, e specifica un minor numero di proprietà pertinenti necessarie per l’appartenenza a tale classe. Il suo contributo alla nostra comprensione del mondo è che essa identifica la proprietà delle cose (devono avere una certa massa) che è pertinente al fenomeno (la loro forza di attrazione e il moto risultante). Queste teorie, che generalizzano e descrivono generi di cose, sono leggi. Si parla della legge di caduta dei gravi, essa stessa un capitolo della legge di gravità. Vi sono tantissimi altri esempi. Per farne ancora uno, prendiamo la legge di Coulomb che afferma che ogni oggetto elettricamente carico esercita una forza su ogni altro oggetto 26 elettricamente carico. Il genere pertinente di cosa qui è tutto ciò che è elettricamente carico e viene collegato al fenomeno della forza. Diversamente dalla caratteristica di essere ipotetico, dovremmo poter dire se una teoria è legisimile o non lo è, semplicemente guardando il modo in cui è presentata. Essa (forse anche solo implicitamente) deve avere la forma di una generalizzazione: tutti gli A sono B. Questo uso del termine «legge» è, in un certo senso, molto simile a quello fatto nella società. Quando si dice che questa è la legge s’intende che essa vale per tutti. Chiaramente, vi sono molte discrepanze tra le leggi della natura e le leggi della società. Queste ultime sono la convenzione di un gruppo più o meno numeroso di persone e possono essere infrante o modificate a piacere. Di contro, le leggi della natura vogliono riflettere i modi in cui funziona il mondo, i quali, più che imposti, vengono scoperti e sono in massima parte inviolabili. Si dovrebbe poter riconoscere le asserzioni legisimili per via della loro generalità, ma non è così semplice. Come si distinguono le vere leggi dalle generalizzazioni puramente accidentali? Si considerino gli esempi seguenti. Il rame puro conduce elettricità. Si tratta di una legge di natura, una generalizzazione implicita concernente tutti i campioni di rame, che associa un genere di cosa (il rame) a un certo comportamento (condurre elettricità). Ma ecco un’altra generalizzazione che non è una legge: nessun campione di rame puro supera i cento milioni di chili di massa. È chiaramente generale perché descrive tutti i campioni di rame e afferma che sono sotto i cento milioni di chili. Ma questa caratteristica della massa è un attributo accidentale del rame perché, per quanto ne sappiamo, non c’è niente, nella sua natura, che ponga limiti alla grandezza dei campioni. Si consideri anche la generalizzazione secondo la quale ognuno, in questa stanza, ha più di dieci anni. Neanche questa è una legge. Essa identifica un certo genere di oggetti (le persone nella stanza), ma non è un genere naturale. Non ci sono caratteristiche esclusive di questo gruppo che siano importanti per come funziona il mondo, e non c’è alcuna connessione causale tra l’essere nella stanza e l’avere più di dieci anni come c’è invece tra l’essere elettricamente carico e l’esercitare una forza su altre cariche. Le cariche elettriche causano la forza, ma l’essere in questa stanza non causa il fatto che avete un’età. La generalizzazione sulle età delle persone nella stanza è molto 27 probabile che sia solo un’associazione accidentale. Non è una legge. Se fosse una legge essa dovrebbe consentirmi di fare predizioni del tipo: «la prossima persona che entra nella stanza avrà più di dieci anni». Una tale predizione, tuttavia, non è autorizzata perché l’avere più di dieci anni era solo una caratteristica circostanziale delle persone che attualmente sono in questa stanza. La legge di conduttività del rame, al contrario, autorizza la predizione che il prossimo pezzo di rame condurrà elettricità. Le leggi sostengono la predizione; le generalizzazioni accidentali no. Così, non si può valutare se un’affermazione è una legge semplicemente controllandone la forma. Dipenderà anche da altre cose che si sanno della situazione, cioè da altre teorie. Bisogna immaginarsi in anticipo ciò che è probabile che sia pertinente al fenomeno in questione. In tal modo la fisica atomica, e quella dello stato solido, indicano che la struttura atomica, cioè l’identità di un elemento come il rame, è un probabile fattore della conduttività elettrica, ma niente associa la natura del rame a una limitazione della massa di un campione. Nello stesso modo, niente della mia comprensione della stanza dice che aver più di dieci anni è pertinente allo starci dentro. La determinazione dell’essere legisimile, come è stata usata negli esempi precedenti e in generale, si usa nella descrizione della scienza, è sempre sensibile al contesto teorico in cui la decisione è presa. La caratteristica di essere legisimile è, almeno, relativamente stabile nel tempo. È un’etichetta che non si presume di togliere. Una volta che è legge, è legge per sempre, o quasi. In effetti, ciò che è stato valutato legge può cambiare quando cambia la descrizione teorica accettata del mondo. Se cambiano le teorie di sfondo, quello che una volta poteva essere stato valutato come una associazione accidentale potrebbe ora essere inteso come una connessione pertinente, di tipo legge. Ai tempi di Aristotele, ad esempio, generalizzare sui modi delle cose nel cielo e sulla terra voleva dire raggruppare due generi distinti di fenomeni e ogni similarità tra i due era vista come accidentale e non pertinente alla comprensione del moto. Dovevano esserci due insiemi di leggi, quelle del moto celeste e quelle del moto terrestre. Ma da Newton in poi, e dalla scoperta che ciò che è pertinente al moto non è la distinzione celeste/terrestre ma semplicemente la proprietà della massa, ha perfettamente senso generalizzare su tutti gli oggetti in movimento e riguardare tali 28 generalizzazioni come descriventi leggi della natura. Chiaramente, la lezione che se ne ricava è che, per spiegare un’associazione, si deve ricorrere alla nozione di accidente solo come ultima risorsa. Ma quello che qui è importante è proprio rendersi conto che nella scienza il concetto di legge è descrittivo della generalità e della portata di un’affermazione, ma non dello status di questa quanto a dimostrazione. Una legge non è un genere di affermazione indubitabile, irreprensibile, ultima parola in ogni disputa. Come ogni altra affermazione interessante della scienza, anche le leggi devono rispondere alla domanda della giustificazione. Teorie ipotetiche, leggi ipotetiche I tre concetti discussi finora, teoria, ipotesi e legge, descrivono lati diversi delle affermazioni scientifiche e non si escludono l’un l’altro. Essi rappresentano aspetti diversi delle affermazioni, proprio come grandezza, colore e forma rappresentano aspetti diversi di un oggetto fisico e, benché non abbia senso descrivere qualcosa come grande e piccolo o come quadrato e rotondo, ha invece perfettamente senso descriverlo come grande e rotondo. Nello stesso modo, non c’è niente di sciocco o di insensato nel parlare di una legge o di una teoria ipotetica. Non è una trasgressione della logica del linguaggio. Ecco in effetti un buon esempio di legge ipotetica, cioè di una teoria (affermazione su eventi che non sono palesi all’esperienza) che è sia legisimile (generalizzazione su un genere naturale di oggetto) sia ipotetica (non ben controllata): si tratta della censura cosmica. La teoria generale della relatività descrive la curvatura dello spaziotempo come associata alle forze gravitazionali: tanto più appuntita è la curvatura, tanto maggiore è la forza. Ai punti, chiamati singolarità, dove la curvatura è così appuntita che lo spazio-tempo, di fatto, si accartoccia, la forza è talmente elevata da spezzare le particelle elementari e da perpetuare eventi incompatibili con le nostre teorie del mondo normale. Secondo la teoria, una siffatta singolarità può occorrere in natura, ma potrebbe essere circondata da un orizzonte di eventi, uno scudo causale a senso unico che impedisce sia che noi vediamo queste alterazioni dell’ordine naturale, sia che esse abbiano qualche effetto sul mondo al di fuori. Tale è la situazione del buco nero. È anche possibile, almeno secondo la teoria generale della relatività, che vi siano singolarità prive di orizzonte degli eventi, singolarità nude. Così, i cosmologi hanno pensato bene di aggiungere, 29 all’attuale descrizione dell’universo, un’ulteriore affermazione: tutte le singolarità sono in effetti circondate da orizzonti degli eventi. Il principio della censura cosmica consiste, appunto, in questo orrore per la nudità, ma per ora è solo un suggerimento e ciò che, a questo stadio, viene richiesto non è la credenza istantanea ma un suggerimento ulteriore su come lo si possa controllare. È, in altre parole, una teoria ipotetica legisimile. … il punto, in questa discussione di teorie, leggi e ipotesi, è duplice. In primo luogo si ha che i tre concetti sono ortogonali: descrivono aspetti diversi delle affermazioni fatte dagli scienziati. Un’idea non deve affatto esser promossa dal grado di ipotesi a quello di teoria e poi ancora a quello di legge. Le leggi, quando si elaborano, sono ipotetiche e sono, ciò nondimeno (non di più) leggi via via che il controllo fa sbiadire l’etichetta di ipotetico. E, al tempo stesso, sono teorie. In secondo luogo, si ha che «teoria» almeno come è usato qui, è un termine amplissimo. Non è né elogiativo né peggiorativo. Dato che tantissime cose sono teorie, è chiaro che procurarsele, cioè scoprirle o crearle, è relativamente facile. Il difficile è giustificarle e, benché in giro ve ne possano essere un mucchio, non tutte sono teorie buone: non tutte autorizzano la nostra credenza. 30 2 SPIEGAZIONE E PREVISIONE Nel 1° capitolo abbiamo esaminato: I concetti di teoria, ipotesi, legge L’aspetto esplicativo e giustificativo del nesso di conseguenza logica ⇓ La dialettica tra questi due aspetti nel confronto tra scienze formali e scienze empiriche; tra scienza antica e scienza moderna Nel 2° capitolo esamineremo: I concetti della spiegazione e della previsione: 1. Spiegazione deterministica 2. Spiegazione probabilistica, ovvero induttivo-statistica 3. Spiegazione e previsione: la tesi di identità 31 2.1 La spiegazione secondo il modello deterministico (covering law model = modello di copertura) di Hempel MODELLO ND (NOMOLOGICO-DEDUTTIVO) DI HEMPEL ESEMPIO: Legge universale Condizione rilevante Altre condizioni rilevanti Conclusione Se un ago calamitato si trova nelle vicinanze di un conduttore elettrico percorso da una corrente elettrica, allora l’ago calamitato subisce uno spostamento Questo oggetto è un ago calamitato Si trova nelle vicinanze di un conduttore elettrico e attraverso di esso passa della corrente elettrica Dunque questo oggetto subisce uno spostamento FORMA LOGICA DELL’ESEMPIO: ∀x(Ax → Bx) Aa Ba Legge universale Condizione rilevante Conclusione (explanandum) SCHEMA GENERALE Leggi/principi generali L1 … Ln Condizioni (particolari) C1 … Cm Conclusione (conseguenza logica) A Explanans Explanandum 32 CONDIZIONI DI ADEGUATEZZA PER LA SPIEGAZIONE NOMOLOGICO-DEDUTTIVA Hempel indica quattro condizioni di adeguatezza della spiegazione N-D, suddivise in logiche ed empiriche. Condizioni logiche: C1 L’explanandum deve essere una conseguenza logica dell’explanans. C2 L’explanans deve contenere leggi generali, che devono essere essenziali per la derivazione dell’explanandum. C3 L’explanans deve avere contenuto empirico, ossia deve essere, almeno in linea di principio, controllabile empiricamente Condizione empirica: C4 Gli enunciati contenuti nell’explanans devono essere veri. 2.2 La spiegazione probabilistica Con il tempo Hempel si rende conto che non tutte le spiegazioni scientifiche possono seguire lo schema nomologico deduttivo. Ciò vale in particolare per le teorie che usano leggi probabilistiche, come ad esempio la fisica quantistica o la genetica. Ciò lo indusse a formulare schemi esplicativi non deduttivi, come ad esempio il modello induttivo statistico. MODELLO IS (INDUTTIVO-STATISTICO) DI HEMPEL Legge statistica Condizione Conclusione induttiva (non conseguenza logica deduttiva) ∀x(al 90%)(Ix → Ax) (Il 90% degli adulti appartenenti a società industrializzate sono alfabetizzati) Ig (Giovanni è un adulto appartenente a una società industrializzata) Ag Giovanni è alfabetizzato 33 La doppia linea tra le premesse e la conclusione sta a indicare che non si tratta di un nesso di conseguenza logica. Vale piuttosto che l’explanans deve rendere l’explanandum altamente probabile, condizione soddisfatta nell’esempio appena citato, in cui la probabilità che Giovanni sia alfabetizzato è del 90%. Quanto la spiegazione sia solida dipende dall’elevatezza della probabilità formulata nella legge dell’explanans. In che misura cambiano le condizioni di adeguatezza di I-S rispetto al modello N-D? C2 e C3 e C4 rimangono inalterate; in C1 al requisito della conseguenza logica subentra quello della probabilità induttiva. La diversità tra N-D e I-S emerge con maggiore chiarezza se esaminiamo le principali nozioni filosofiche di probabilità. 2.2.1 Due nozioni di probabilità 1. Probabilità soggettiva: la probabilità coincide con il grado di credenza o di aspettativa. “La probabilità che domani piova è pari a 0,7” significa secondo questa interpretazione: “Il grado in cui una persona X crede (è convinta), sulla base dei dati metereologici, che domani piova, è pari a 0,7”. p(a,b) = r significa “il grado di aspettativa di a a partire da b è r”. 2. Probabilità frequentistica o propensionale (entrambe oggettive): la probabilità coincide con la misura della propensione o frequenza a verificarsi di un evento. ⇓ A. Frequenza: la probabilità p(a,b) è data dalla frequenza dell’evento a nella sequenza di eventi b, ove la sequenza b è definita dalle condizioni che la generano. I lanci di una moneta, ad esempio, che costituiscono la sequenza degli esiti di testa o croce, sono definiti dalla condizione di essere lanci eseguiti con una moneta non truccata, su una superficie piana, in una situazione non turbolenta… 34 B. Propensione: la probabilità è data dalla propensione (disposizione, tendenza) a verificarsi di un evento in una situazione definita da determinate condizioni. In questo caso la probabilità è una proprietà nascosta, che tuttavia può diventare in certi casi manifesta come frequenza dell’evento nelle condizioni date. 2.2.2 Probabilità epistemica vs. probabilità ontica Probabilità epistemica: si dà perché non conosciamo tutte le condizioni sotto le quali si verificano gli eventi. Questi di per sé sono determinati, ovvero collegati da una catena di causa ed effetto. Se fossimo Dio potremmo conoscere ogni nesso di causa ed effetto e quindi, conoscendo esattamente le condizioni di un evento, potremmo determinare con un grado assoluto di certezza anche il verificarsi dell’effetto. In tal modo non ci sarebbe spazio per eventi casuali o parzialmente casuali. Probabilità ontica: l’indeterminazione è nella realtà, non dipende dalla nostra ignoranza. Si verificano eventi che accadono almeno parzialmente per caso. SCHEMA RIASSUNTIVO Probabilità soggettiva Probabilità oggettiva: frequentistica Probabilità oggettiva: propensionale Probabilità epistemica sì sì no Probabilità ontica no sì sì La probabilità soggettiva è epistemica e non ontica. La probabilità propensionale è ontica e non epistemica. La probabilità frequentistica può essere sia l’una sia l’altra. 2.2.3 Che cosa spiego con il modello I-S? 1. Modello I-S con interpretazione soggettiva della probabilità: 35 Spiego l’aspettativa di un soggetto razionale, pari al 90%, che Giovanni sia alfabetizzato, non spiego il fatto che Giovanni è alfabetizzato. 2. Modello I-S con interpretazione propensionale della probabilità: Spiego la propensione di Giovanni – presente al 90% – ad essere alfabetizzato, non spiego il fatto che Giovanni è alfabetizzato. 3. Modello I-S con interpretazione frequentistica della probabilità: Spiego la distribuzione statistica dei soggetti alfabetizzati nel campione (di cui Giovanni è un elemento generico), non il fatto che Giovanni è alfabetizzato. Giovanni ha un elevata probabilità di cadere nella classe degli adulti alfabetizzati, ma nulla di più. Non si può escludere che Giovanni appartenga al gruppo dei non alfabetizzati. Spiegare con una legge statistica che Giovanni è alfabetizzato non è equivalente a spiegare che Giovanni è alfabetizzato: questo non lo posso spiegare. ⇓ Diversità con il modello N-D “Ho sostenuto la tesi per cui è sbagliato rivolgersi alla fisica delle particelle per spiegare un singolo microevento, come, per esempio, la disintegrazione di un atomo di radon o la riflessione di un fotone: se è vero che il fotone è andato in una direzione piuttosto che in un’altra per puro caso, allora, il fatto che il fotone abbia preso una direzione piuttosto che un’altra è un evento che non può essere spiegato. Ciò che possiamo spiegare, grazie all’aiuto di una teoria indeterministica sulle particelle, è perché esisteva una certa probabilità oggettiva che il fotone prendesse la direzione che poi ha preso (J. Watkins, Science and Scepticism, p. 246). 36 2.3 Spiegazione e previsione “Secondo Hempel spiegazione e previsione sono due possibili usi dello schema nomologico-deduttivo: se conosciamo le leggi e le condizioni iniziali saremo in grado, deduttivamente, di predire l’evento. Se viceversa conosciamo già il verificarsi dell’evento ma vogliamo spiegarlo, dovremo cercare delle leggi e constatare il verificarsi di condizioni iniziali tali che insieme ci permettano di dedurre l’evento” (M. Alai, Filosofia della scienza nel Novecento, p. 26). La tesi appena formulata viene denominata “Tesi di identità strutturale” o “Tesi di simmetria” e, secondo Hempel, vale sia per le spiegazioni N-D sia per quelle I-S. Si è tuttavia obiettato che: (i) NON SEMPRE LA SPIEGAZIONE È PREVISIONE: Esempio: teoria dell’evoluzione (ii) NON SEMPRE LA PREVISIONE È ANCHE SPIEGAZIONE: Esempio: Si può prevedere il moto delle stelle o la successione giorno/notte senza saperli spiegare 37 PARTE ANTOLOGICA C.G. HEMPEL, Aspetti della spiegazione scientifica Milano 1986, pp. 23-26; 55-59; 70-74 La spiegazione nomologico-deduttiva Fondamenti: la spiegazione nomologico-deduttiva e il concetto di legge Nel suo libro, How We Think, John Dewey descrive un fenomeno osservato un giorno mentre lavava i piatti. Dopo aver tolto alcuni bicchieri di vetro dalla schiuma dell’acqua calda insaponata e averli capovolti su un piatto, egli osservò che dagli orli dei bicchieri fuoriuscivano delle bolle di sapone che aumentavano un po’ di volume, si arrestavano e quindi si ritraevano nei bicchieri. Perché accadeva ciò? Dewey delinea la seguente spiegazione: trasferendo i bicchieri sul piatto, egli aveva racchiuso in essi dell’aria fredda; l’aria era stata gradualmente riscaldata dal vetro, che inizialmente aveva la temperatura della schiuma dell’acqua calda insaponata. Ciò aveva prodotto un aumento del volume dell’aria racchiusa entro i bicchieri e quindi un’espansione del sottile strato di sapone formatosi tra il piatto e gli orli dei bicchieri. Il vetro si era, però, gradualmente raffreddato e così pure l’aria nei bicchieri, per cui le bolle di sapone si erano ritratte. Si può considerare la spiegazione qui delineata come un’argomentazione secondo cui ci si doveva aspettare il fenomeno da spiegare, il fenomeno explanandum, in virtù di certi fatti esplicativi. Questi si distinguono in due gruppi (I) fatti particolari e (II) uniformità esprimibili mediante leggi generali. Il primo gruppo include fatti quali: i bicchieri erano stati immersi nella schiuma a una temperatura considerevolmente più elevata di quella dell’aria circostante; erano stati messi, capovolti, su un piatto sul quale si era formata una poltiglia d’acqua insaponata che aveva creato un sottile strato di sapone fra il piatto e gli orli dei bicchieri, e così via. Il secondo gruppo è espresso dalle leggi sui gas e da altre leggi concernenti la trasmissione di calore fra due corpi a temperature diverse, il comportamento elastico delle bolle di sapone, e 38 così via. Sebbene alcune di queste leggi siano soltanto accennate mediante locuzioni come «il riscaldamento dell’aria racchiusa ha prodotto un aumento della sua pressione», e altre non siano nemmeno menzionate in questa maniera indiretta, esse sono chiaramente presupposte nell’affermazione che certe fasi del processo ne hanno prodotte altre come loro effetti. Se immaginiamo di enunciare in maniera completa le varie assunzioni esplicative, esplicite o tacite, si può allora considerare la spiegazione come un argomento deduttivo della forma seguente: C1, C2, …, Ck (N-D) L1, L2, …, Lr __________ E Qui, C1, C2, …, Ck sono enunciati descriventi i fatti particolari addotti; L1, L2, …, Lr sono le leggi generali sulle quali si basa la spiegazione. Insieme, si dice che questi enunciati formano l’explanans S, dove si può considerare alternativamente S come l’insieme degli enunciati esplicativi oppure come la loro congiunzione. La conclusione E dell’argomento è un enunciato descrivente il fenomeno-explanandum; chiamo E l’enunciatoexplanandum o asserto-explanandum; la parola «explanandum» da sola viene impiegata per designare o il fenomeno-explanandum o l’enunciato-explanandum; risulterà dal contesto quale dei due viene designato. Il tipo di spiegazione la cui struttura logica è indicata dallo schema (N-D) viene chiamata spiegazione nomologico-deduttiva o spiegazione N-D per brevità; in quanto essa effettua la sussunzione deduttiva dell’explanandum sotto principi aventi carattere di leggi generali. In tal modo, la spiegazione N-D risponde alla domanda «Perché si è verificato il fenomeno-explanandum?» mostrando che il fenomeno è derivato da certe particolari circostanze, specificate in C1, C2 …, Ck, in conformità con le leggi L1, L2, …, Lr. Indicando ciò, l’argomento mostra che, date le particolari circostanze e le leggi in questione, ci si doveva aspettare il verificarsi del fenomeno ed è in questo senso che la spiegazione ci mette in grado di comprendere perché il fenomeno si è verificato. 39 In una spiegazione N-D l’explanandum è, dunque, una conseguenza logica dell’explanans. Inoltre, il fatto di essere basata su leggi generali è un requisito essenziale per la spiegazione N-D; è in virtù di tali leggi che i fatti particolari menzionati nell’explanans acquistano una rilevanza esplicativa nei confronti del fenomenoexplanandum. Così, nel caso delle bolle di sapone di Dewey, il graduale riscaldarsi dell’aria fredda rinchiusa entro i bicchieri caldi costituirebbe un antecedente meramente accidentale, anziché un fattore esplicativo dello sviluppo delle bolle, se non ci fossero le leggi sui gas a connettere i due eventi. Ma che dire nel caso in cui l’enunciato-explanandum E di un argomento della forma (N-D) è una conseguenza logica dei soli enunciati C1, C2, …, Ck? È certo, allora, che non si richiede alcuna legge empirica per dedurre E dall’explanans, e che qualsiasi legge inclusa in quest’ultimo risulta una premessa gratuita, dispensabile; in questo caso, però, l’argomento non varrebbe come spiegazione. Ad esempio, è chiaro che l’argomento: Le bolle di sapone si sono dapprima dilatate e sono poi rientrate ----------------------------------------------------------------------------Le bolle di sapone dapprima si sono dilatate sebbene valido dal punto di vista deduttivo, non può valere come spiegazione del perché le bolle si sono dapprima dilatate. La stessa osservazione vale in tutti gli altri casi di questo tipo. Una spiegazione N-D deve contenere nel suo explanans alcune leggi generali che sono necessarie per la deduzione dell’explanandum – la cui obliterazione invaliderebbe cioè l’argomento. Se l’explanans di un dato argomento N-D è vero, se, cioè, la congiunzione dei suoi enunciati costitutivi è vera, diciamo che la spiegazione è vera; una spiegazione vera ha, naturalmente, anche un explanandum vero. Diciamo, poi, che una spiegazione N-D è più o meno fortemente sostenuta o confermata dall’evidenza data a seconda che il suo explanans sia più o meno fortemente confermato da tale evidenza … Intendiamo, infine, per spiegazione N-D potenziale qualsiasi argomento avente il carattere di una spiegazione N-D tranne che per il fatto che non è necessario che gli enunciati che costituiscono il suo explanans siano veri. In una spiegazione potenziale N-D, perciò, L1, L2, …, Lr, sono quelli che Goodman 40 chiama enunciati legisimili, cioè enunciati che sono simili a leggi tranne che per il fatto di poter essere falsi. Enunciati di questo genere verranno detti anche nomici o nomologici. Usiamo la nozione di spiegazione potenziale, ad esempio, quando ci domandiamo se una legge o una teoria non ancora controllata potrebbe fornire una spiegazione di qualche fenomeno empirico, o quando diciamo che la teoria del flogisto, sebbene sia ora respinta, offriva una spiegazione di certi caratteri della combustione. A rigore, soltanto gli enunciati legisimili veri possono valere come leggi – nessuno sarebbe disposto a parlare di leggi di natura false. Ma, per comodità, userò talvolta il termine «legge» senza per questo implicare che l’enunciato in questione è vero, come ho in effetti già fatto nell’enunciato precedente … La spiegazione come previsione potenziale È presumibile che, essendo basata essenzialmente su leggi e principi teorici, la spiegazione N-D manifesti una stretta affinità con la previsione scientifica; infatti, leggi e principi teorici, enunciando asserzioni generali, comprendono casi non ancora esaminati e contengono implicazioni definite per essi. L’affinità in questione è vividamente illustrata nella quarta giornata dei Discorsi e Dimostrazioni Matematiche intorno a Due Nuove Scienze. In quest’opera, Galileo formula le leggi sul moto dei proiettili e ne deduce il corollario che, se si sparano i proiettili dal medesimo punto con velocità iniziale uguale ma con angolazioni diverse, la gittata massima viene raggiunta quando l’angolazione è di 45°. Galileo fa allora osservare a Sagredo: «Già sapevo io, per fede prestata alle relazioni di più bombardieri, che di tutti i tiri di volata dell’artiglieria, o del mortaro, il massimo, cioè quello che in maggior lontananza caccia la palla, era il fatto all’elevazione di mezo angolo retto, che essi dicono del sesto punto della squadra; ma l’intender la cagione onde ciò avvenga, supera d’infinito intervallo la semplice notizia auta dalle altrui attestazioni, ed anco da molte replicate esperienze». Il ragionamento che fornisce questa comprensione si può esprimere facilmente nella forma N-D; essa consiste in una deduzione del corollario, effettuata con mezzi logici e matematici, da un insieme di premesse contenente (I) le leggi fondamentali della teoria del moto dei proiettili di Galileo e (II) enunciati particolari – che specificano che tutti i missili considerati vengono sparati dal medesimo punto con 41 uguale velocità iniziale. È chiaro, dunque, che si spiega e quindi si comprende in questo caso il fenomeno osservato dagli artiglieri mostrando che il suo verificarsi era prevedibile nelle circostanze specificate in considerazione di certe leggi generali incluse nella teoria di Galileo. E lo stesso Galileo richiama con evidente orgoglio l’attenzione sulle previsioni che si possono ottenere, in modo analogo, deducendole dalle sue leggi; queste ultime implicano «quello che forse per l’esperienza non è stato osservato: e questo è, che degli altri tiri, quelli sono tra di loro eguali, le elevazioni de i quali superano o mancano per angoli eguali dalla semiretta». In tal modo, 1a spiegazione fornita dalla teoria di Galileo «apre l’intelletto a ‘ntendere ed assicurarci d’altri effetti senza bisogno di ricorrere alle esperienze», ossia mediante la sussunzione deduttiva sotto le leggi sulle quali si basa la spiegazione. Il controllo delle previsioni così derivate dalle leggi generali o dai principi teorici addotti in una spiegazione è un modo rilevante di controllare tali generalizzazioni «di copertura», e un esito favorevole può conferire loro un forte sostegno. Consideriamo, ad esempio, la spiegazione data da Torricelli di un fatto che aveva lasciato perplesso il suo maestro Galileo, e cioè che una pompa che aspira acqua da un pozzo non solleva l’acqua a più di 13 metri circa sulla superficie del pozzo. Per rendere ragione di questo fenomeno, Torricelli avanzò l’idea che l’aria sopra l’acqua ha un peso e, quindi, esercita una pressione sull’acqua nel pozzo, spingendola in alto nel cilindro della pompa quando il pistone è sollevato, perché non c’è aria all’interno a bilanciare la pressione esterna. Secondo tale supposizione, l’acqua può innalzarsi soltanto fino al punto in cui la sua pressione sulla superficie del pozzo eguaglia la pressione dell’aria esterna su tale superficie, e quest’ultima è perciò uguale a quella di una colonna d’acqua alta approssimativamente 13 metri. La forza esplicativa di questo resoconto deriva dalla concezione che la terra è circondata da un «mare d’aria», concezione conforme alle leggi fondamentali che governano l’equilibrio dei liquidi nei vasi comunicanti. E poiché la spiegazione di Torricelli presupponeva tali leggi generali, produsse previsioni relative a fenomeni non ancora esaminati. Una di queste era che, se l’acqua fosse stata sostituita con mercurio, il cui peso specifico è all’incirca 14 volte quello dell’acqua, l’aria avrebbe dovuto controbilanciare una colonna di all’incirca m. 13/14, o di lunghezza un po’ inferiore ai m. 0,928. Questa previsione 42 fu confermata da Torricelli con il classico esperimento che porta il suo nome. Inoltre, la spiegazione proposta implica che, a altitudini crescenti sul livello del mare, la lunghezza della colonna di mercurio sostenuta dalla pressione dell’aria dovrebbe diminuire in quanto diminuisce il peso dell’aria che la controbilancia. Un’accurata verifica di questa previsione fu effettuata su suggerimento di Pascal soltanto alcuni anni dopo che Torricelli aveva presentato la sua spiegazione: il cognato di Pascal portò un barometro a mercurio (ossia, in sostanza, una colonna di mercurio controbilanciata dalla pressione dell’aria) sulla cima del Puy-de-Dòme, misurando la lunghezza della colonna a diverse altitudini nel corso della salita e della discesa; le registrazioni risultarono meravigliosamente conformi alla previsione. Le inferenze mediante le quali si ottengono tali previsioni hanno ancora una forma nomologico-deduttiva: le premesse includono le leggi esplicative in questione (nel nostro ultimo esempio, l’ipotesi di Torricelli in particolare) e certi enunciati su fatti particolari (ad esempio, che un barometro avente una struttura così e così viene portato sulla cima di una montagna). Designiamo gli argomenti predittivi della forma (N-D) come previsioni N-D. Nella scienza empirica, molti argomenti predittivi sono di questo tipo. Tra gli esempi più evidenti vi sono le previsioni, basate sui principi della meccanica celeste e dell’ottica, concernenti le posizioni relative del Sole, della Luna e dei pianeti in un dato istante, e le eclissi solari e lunari … Siccome nella spiegazione N-D, completamente enunciata, di un particolare evento l’explanans implica logicamente l’explanandum, possiamo dire che l’argomento esplicativo avrebbe potuto essere impiegato come previsione deduttiva dell’evento-explanandum se le leggi e i fatti particolari addotti nel suo explanans fossero stati noti e fossero stati presi in considerazione in un tempo anteriore appropriato. In questo senso, una spiegazione N-D è una previsione N-D potenziale. Questa tesi era già stata formulata in un articolo scritto da Oppenheim e da me, dove aggiungevamo che la spiegazione scientifica (nomologico-deduttiva) differisce dalla previsione scientifica non nella struttura logica, ma per certi aspetti pragmatici. Nel primo caso, è noto che l’evento descritto nella conclusione si è verificato, e vengono ricercate appropriate asserzioni di leggi generali 43 e di fatti particolari che rendano ragione di esso; nel secondo, tali asserzioni sono date e l’asserto circa l’evento in questione è da esse derivato in un tempo anteriore a quello del suo presunto verificarsi. Questa concezione, talvolta denominata tesi dell’identità strutturale (o della simmetria) di spiegazione e previsione, è stata recentemente messa in discussione … La spiegazione statistica Leggi di forma statistica. Passiamo ora ad esaminare le spiegazioni basate su asserti nomologici di un tipo che non abbiamo ancora considerato, le quali hanno finito per giocare un ruolo di crescente rilievo nella scienza empirica. Le indicherò qui come leggi o principi teorici di forma statistico-probabilistica, o, per brevità, come leggi statistiche. La maggior parte della nostra analisi verterà sull’uso esplicativo di leggi statistiche di un tipo molto semplice, che chiameremo leggi di forma statistica fondamentale. Si tratta di asserti affermanti che la probabilità statistica che un evento di tipo F sia anche di tipo G è r; ossia, per brevità: p (G, F)= r Questo enunciato asserisce, grosso modo, che a lungo andare la percentuale di esempi di F che sono anche esempi di G è approssimativamente r … Per esempio, l’asserto affermante che il lancio di un dado lievemente irregolare (evento di tipo F) fa uscire un asso (evento di tipo G) con una probabilità di 15, cioè nel 15 per cento circa di tutti i casi a lungo andare, ha questa forma statistica fondamentale. E così pure la legge che il tempo di dimezzamento del radon è di 3,8.2 giorni, cioè che la probabilità statistica che un atomo di radon si disintegri durante un qualsiasi periodo dato di 3,82 giorni è 1/2, il che significa, grosso modo, che pressoché la metà degli atomi presenti in un campione di radon contenente un gran numero di atomi decade entro 3,82 giorni. Le leggi di forma statistica fondamentale possono considerarsi come controparti meno rigorose delle leggi di forma condizionale universale (x) (Fx ⊃ Gx) 44 asserenti che qualsiasi esempio di F è un esempio di G, quale: «Ogni gas si espande quando viene riscaldato a pressione costante». In realtà, i due tipi di legge condividono un’importante proprietà che è sintomatica del loro carattere nomologico: entrambe fanno affermazioni generali circa una classe di casi che si potrebbe considerare potenzialmente infinita. Come abbiamo precedentemente osservato, un asserto che è logicamente equivalente a una congiunzione finita di enunciati singolari e che, in questo senso, fa un’affermazione relativa solo a una classe finita di casi, non si considera una legge ed è sprovvisto della forza esplicativa di un asserto nomologico. Gli enunciati legisimili, sia veri che falsi, non sono soltanto dei compendi opportunamente connessi di insiemi finiti di dati relativi a casi particolari. Ad esempio, la legge che i gas si espandono quando vengono riscaldati a pressione costante non equivale all’enunciato che in tutti gli esempi finora osservati, o forse in tutti gli esempi finora occorsi, un aumento della temperatura di un gas a pressione costante è stato accompagnato da un aumento di volume. Essa asserisce, piuttosto, che un aumento di volume è associato col riscaldamento di un gas a pressione costante in qualsiasi caso, passato, presente o futuro, indipendentemente dal fatto che lo si sia effettivamente osservato o meno. Essa implica anche condizionali controfattuali e condizionali congiuntivi affermanti che se una certa quantità di gas fosse stata riscaldata o dovesse essere riscaldata a pressione costante sarebbe aumentato, o aumenterebbe, anche il suo volume. Analogamente, le leggi probabilistiche della genetica e del decadimento radioattivo non equivalgono a resoconti descrittivi delle frequenze con le quali si constata che alcuni tipi di fenomeni occorrono entro una classe finita di casi osservati: esse affermano certe modalità peculiari, ossia probabilistiche, di connessione tra classi potenzialmente infinite di occorrenze. In una legge statistica di forma fondamentale, in quanto distinta da una descrizione statistica che specifica le frequenze relative in qualche insieme finito, non si assume che la «classe di riferimento» F sia finita. In effetti, potremmo dire che una legge della forma «p (G, F) = r» si riferisce non solo a tutti gli esempi effettivi di F, ma, per così dire, alla classe di tutti i suoi esempi potenziali. Supponiamo, ad esempio, di avere un tetraedro regolare omogeneo le cui facce siano contrassegnate da «I», «II», «III», «IV». Potremmo allora asserire che la probabilità di 45 ottenere un III, cioè la probabilità che il tetraedro si posi su quella faccia dopo esser stato lanciato da una scatola di dadi, è 1/4. Ma benché questa asserzione dica qualcosa sulla frequenza con la quale si ottiene un III come risultato del lancio del tetraedro, non la si può interpretare come se specificasse semplicemente quella frequenza per la classe di tutti i lanci che sono stati di fatto effettuati con il tetraedro. Potremmo, infatti, continuare a mantenere la nostra ipotesi anche se venissimo informati del fatto che il tetraedro è stato effettivamente lanciato soltanto poche volte in tutta la sua esistenza e, in tal caso, il nostro asserto di probabilità non sarebbe certamente inteso come l’asserzione che esattamente, o approssimativamente, un quarto di quei lanci produce il risultato III. Inolte, il nostro asserto risulterebbe perfettamente significante e potrebbe, in realtà, essere ben sostenuto (ad esempio, da risultati ottenuti con tetraedri analoghi o con altri corpi omogenei aventi forma di solidi regolari), anche se il tetraedro in questione venisse distrutto senza essere mai stato lanciato. Ciò che l’asserto di probabilità attribuisce al tetraedro non è, pertanto, la frequenza con cui si ottiene il risultato III nei lanci reali passati o futuri, ma una certa disposizione, cioè la disposizione a produrre, a lungo andare, il risultato III in circa un caso su quattro. Si potrebbe caratterizzare questa disposizione mediante un enunciato condizionale congiuntivo: se il tetraedro venisse lanciato un gran numero di volte, esso produrrebbe il risultato III in un quarto circa dei casi. Le implicazioni della forma di condizionali controfattuali e di condizionali congiuntivi sono dunque i segni distintivi di enunciati legisimili di forma sia strettamente universale che statistica. Per quanto riguarda la distinzione tra enunciati legisimili di forma strettamente universale e di forma probabilistica o statistica, si è talvolta pensato che gli enunciati che asseriscono connessioni strettamente universali, come la legge di Galileo o la legge della gravitazione di Newton, si basino, dopotutto, soltanto su un corpo finito, e quindi inevitabilmente incompleto, di evidenza e che, pertanto, potrebbero avere delle eccezioni non ancora scoperte e, di conseguenza, si dovrebbero anch’essi considerare come soltanto probabilistici. Ma questo argomento confonde l’asserzione fatta da un enunciato con l’evidenza disponibile a suo sostegno. A questo riguardo, tutti gli asserti empirici sono solo più o meno ben sostenuti dall’evidenza rilevante a nostra disposizione; oppure, per esprimerci nel gergo di alcuni teorici, essi hanno una probabilità logica o 46 induttiva più o meno alta conferita loro dall’evidenza in questione. Ma la distinzione tra asserti legisimili di forma strettamente universale e di forma probabilistica non riguarda il sostegno evidenziale degli asserti in questione, ma le asserzioni fatte da essi: parlando per approssimazione i primi attribuiscono (veracemente o falsamente) una certa caratteristica a tutti i membri di una certa classe; i secondi ad una proporzione specifica di essi. Anche se si dovesse finire per considerare tutte le presunte leggi universali della scienza empirica come riflessi delle sottostanti uniformità statistiche – interpretazione che, ad esempio, la teoria cinetica della materia attribuisce alle leggi classiche della termodinamica – anche allora non sarebbe cancellata la distinzione tra i due tipi di legge e le corrispondenti spiegazioni: essa è, di fatto, presupposta nella formulazione stessa della congettura. Né un enunciato di forma condizionale universale: (x) (F x ⊃ G) è logicamente equivalente al corrispondente enunciato di forma statistica fondamentale p(G, F) = 1 perché … quest’ultimo asserisce soltanto che è praticamente certo che, in un gran numero di esempi di F, quasi tutti sono esempi di G; quindi l’asserto di probabilità può esser vero anche se il corrispondente asserto di forma strettamente universale è falso. 47 C.G. HEMPEL, Filosofia delle scienze naturali Bologna, 1968, pp. 92-94 La spiegazione probabilistica e i suoi fondamenti Non tutte le spiegazioni scientifiche si fondano su leggi di forma strettamente universale. Così, i1 fatto che Giacomo abbia preso il morbillo potrebbe venir spiegato dicendo che egli ha preso la malattia da suo fratello, che alcuni giorni prima presentava un brutto caso di morbillo. Questa spiegazione collega a sua volta l’explanandum a un fatto precedente, al fatto che Giacomo si sia esposto al contagio; si dice che questo fatto fornisce una spiegazione, perché vi è una connessione fra l’esposizione al contagio e il fatto di prendere la malattia. Questa connessione non può venir espressa, comunque, mediante una legge di forma universale, perché non sempre l’esposizione al morbillo produce il contagio. Ciò che si può affermare è soltanto che le persone esposte al morbillo contrarranno la malattia con un alto grado di probabilità, cioè in un’alta percentuale di casi. Asserzioni generali di questo tipo, che tra poco prenderemo in esame più attentamente, verranno dette leggi di forma probabilistica o, per brevità, leggi probabilistiche. Nella nostra esemplificazione, allora, l’explanans consiste della legge probabilistica sopra citata e dell’asserzione che Giacomo fu esposto al morbillo. A differenza del caso della spiegazione nomologico-deduttiva, queste asserzioni che fungono da explanans non implicano deduttivamente l’explanandum che Giacomo prese il morbillo; infatti, nelle inferenze deduttive da premesse vere, la conclusione è invariabilmente vera, mentre nel nostro esempio è chiaramente possibile che l’explanans sia vero e, nondimeno, l’explanandum risulti falso. Diremo, per brevità che l’explanans implica l’explanandum, non con «certezza deduttiva», bensì soltanto con una quasi-certezza o con un alto grado di probabilità. L’argomento esplicativo risultante può venir schematizzato in questo modo: 48 La probabilità, per una persona che si esponga al morbillo, di prendere la malattia, è alta. Giacomo si espose alla malattia. ========================= [con alto grado di probabilità] Giacomo prese il morbillo. Nella presentazione usuale di un argomento deduttivo, quale quella usata, per esempio, nel precedente schema (D-N), la conclusione è separata dalle premesse da una sola linea, che sta a indicare che le premesse implicano logicamente la conclusione. S’intende che la doppia linea usata nel nostro ultimo schema indichi, in modo analogo, che le «premesse» (l’explanans) rendono la «conclusione» (l’explanandum) più o meno probabile; il grado di probabilità è suggerito dalla notazione fra parentesi quadre. Argomenti di questo genere verranno chiamati spiegazioni probabilistiche. Come la nostra discussione rivela, la spiegazione probabilistica di un evento particolare condivide certe caratteristiche fondamentali con il corrispondente tipo di spiegazione nomologico-deduttiva. In entrambi i casi, l’evento dato è spiegato facendo riferimento ad altri eventi, con i quali l’explanandum è connesso mediante leggi. Ma nell’un caso le leggi sono di forma universale, nell’altro hanno forma probabilistica. E, mentre una spiegazione deduttiva mostra che in base all’informazione contenuta nell’explanans, l’explanandum doveva aspettarsi con «certezza deduttiva», una spiegazione induttiva mostra soltanto che, in base all’informazione contenuta nell’explanans, ci si doveva aspettare l’explanandum con alto grado di probabilità e, forse, con «pratica certezza»; è in questo modo che l’ultimo argomento riferito soddisfa il requisito della rilevanza esplicativa. 49 M.C. GALAVOTTI, Probabilità Milano, 2000, pp. 3-7; 120-21 La nozione di probabilità Nell’accezione odierna, la probabilità è una nozione quantitativa, che si esprime con un valore numerico compreso fra 0 e l. Essa è sempre riferita a un’evidenza, che dovrà essere tale da consentirne la valutazione numerica. Gli inizi della teoria quantitativa della probabilità si fanno in genere risalire alla metà del Seicento e, in particolare, all’opera di Blaise Pascal, Pierre Fermat e Christiaan Huygens. Dapprima limitata ai giochi d’azzardo, la probabilità ben presto fu applicata a nuovi ambiti, fino a divenire una nozione essenziale in tutti i settori dell’attività umana e in tutte le branche della scienza. Il progressivo affinamento dei suoi aspetti matematici è stato affiancato da un vasto dibattito sulla sua interpretazione filosofica, che ha toccato il culmine nei primi decenni del nostro secolo ed è tuttora aperto. Oggi il confine fra gli aspetti matematici e quelli filosofici della probabilità è chiaro, ma essi si sono a lungo intrecciati, a volte in modo indissolubile. La probabilità è ormai considerata come lo strumento fondamentale con cui opera l’inferenza induttiva, ma, fino alla metà del secolo scorso, induzione e probabilità erano per lo più viste come nozioni separate, e l’induzione appariva come un metodo per analizzare i fatti dell’esperienza, tendente, però, non alla conoscenza probabile, ma alla certezza. Cenni storici sulla nozione di probabilità Gli inizi della storia della probabilità sono legati a un aneddoto. Si narra che un dotto animatore della vita parigina al tempo del Re Sole, amante delle lettere e cultore delle scienze, ma anche fervente giocatore d’azzardo, il cavaliere di Méré, ponesse a Blaise Pascal alcuni problemi riguardanti i giochi di dadi. L’episodio è confermato dall’autorevolezza di personaggi come il filosofo e matematico Gottfried Wilhelm von Leibniz e il matematico Simeon-Denis Poisson. Come scrive quest’ultimo … «un problema concernente i giochi d’azzardo proposto a un austero giansenista da un uomo di 50 mondo sta all’origine del calcolo delle probabilità» … I problemi posti a Pascal erano di questo tipo: «se gettiamo due dadi, quanti lanci sono necessari per avere almeno il 50% di probabilità di ottenere due sei almeno una volta?»; e «in che modo deve essere suddivisa la posta in una partita che viene interrotta dopo un certo numero di lanci?». Pascal coinvolse nell’analisi di questi problemi il matematico Pierre Fermat, con il quale intrattenne nel 1654 una corrispondenza che viene ritenuta il punto di avvio della letteratura sulla probabilità. Il contributo di Pascal compare alla fine del volume La logique ou l’art de penser (1662) dei filosofi di Port Royal Antoine Arnauld e Pierre Nicole. È qui che si parla per la prima volta di una nozione quantitativa di probabilità con riferimento allo studio, condotto con metodi matematici, dei fenomeni dall’esito incerto. Naturalmente, l’opera di Pascal e Fermat non sorgeva dal nulla, essendo stata preceduta da una notevole mole di studi che avevano portato a importanti risultati nel calcolo combinatorio, dovuti a matematici e scienziati come Luca Pacioli, Gerolamo Cardano, Niccolò Tartaglia, Galileo Galilei e molti altri. Si suole tuttavia associare l’inizio della letteratura sulla probabilità con l’opera di Pascal e Fermat perché prima di allora si erano più che altro ricercate soluzioni a problemi particolari, mentre solo con questi autori si giunse a una formulazione teorica astratta dei problemi, e iniziò la ricerca di regole universali. In sostanza, Pascal e Fermat prendevano spunto da problemi riguardanti i giochi d’azzardo per individuare i principi generali riguardanti i fenomeni regolati dal caso. In un importante volume del 1975 dal titolo L’emergenza della probabilità, l’epistemologo canadese Ian Hacking sottolinea come la nascita della probabilità si accompagni all’emergere di una nuova nozione di evidenza. In precedenza la probabiltà veniva prevalentemente associata all’attendibilità dell’opinione di esperti, che venivano chiamati a pronunciarsi su varie questioni. Tipico esempio al riguardo sono le dispute. su cui i tribunali dovevano decidere avvalendosi del parere di periti, la cui autorevolezza garantiva la maggiore o minore attendibilità dei pareri emessi. Questo uso della probabilità è analizzato nel volume di Edmund Byrne Probability and Opinion (1968). Nel passaggio dalla «preistoria» alla «storia» della probabilità quest’ultima cessa di essere associata all’opinione di esperti autorevoli per essere riferita a un’evidenza di tipo fattuale, sperimentale. Essa diventa così il grado di certezza che 51 si può attribuire a un evento dall’esito incerto, in base a un insieme di dati empirici. Nel 1655, durante un soggiorno a Parigi, lo scienziato olandese Christiaan Huygens, incontrò il cavaliere di Méré a una cena a casa del duca dl Róannez, animatore di un salotto dove si discuteva di lettere, arti e scienze. Huygens venne così a conoscenza dei problemi ai quali stavano lavorando Pascal e Fermat e, tornato in Olanda, si accinse a studiarli anche lui. Dopo due anni pubblicò il primo trattato sulla probabilità, De ratiociniis in ludo aleae (1657). La caratteristica più originale di quest’opera risiede nell’uso sistematico della nozione di «speranza matematica». Essa si basa sull’idea che il valore di un gioco dipenda tanto dal grado di probabilità di ottenere un certo risultato, quanto dal guadagno associato al suo verificarsi. Data l’importanza di questo concetto, è bene soffermarsi a considerarlo. Per servirci di un esempio, immaginiamo che un giocatore debba pagare una somma prefissata per tentare la sorte a un gioco che può fargli guadagnare somme diverse, a seconda dei risultati. Appare naturale ritenere che il prezzo equo di un simile gioco corrisponda alla somma che il giocatore può aspettarsi di vincere, in media, qualora il gioco sia ripetuto un certo numero di volte. Se, mettiamo, il gioco consistesse nel lanciare un dado a sei facce, e se il giocatore guadagnasse una somma in lire pari al numero corrispondente all’esito del lancio, moltiplicato per 10.000, il guadagno medio per ogni partita, o speranza matematica del gioco, sarebbe pari a 1/6 · 10.000 + 1/6 ⋅ 20.000 + 1/6 ⋅ 30.000+ 1/6 ⋅ 40.000 + 1/6 · 50.000 + 1/6 · 60.000 = 210.000/6 = 35.000. Questa somma rappresenta un prezzo equo per partecipare al gioco. Un giocatore che pagasse questo prezzo avrebbe, in una lunga successione di lanci, un guadagno molto prossimo a zero. L’idea di associare la probabilità con la speranza matematica del guadagno suggerisce immediatamente il metodo delle scommesse come possibile sistema per la valutazione della probabilità. L’idea generale è che la probabilità di un evento possa essere uguagliata al prezzo che il giocatore è tenuto a pagare per avere un guadagno unitario nel caso in cui l’evento si verifichi. Con l’opera di Huygens si inizia una tradizione che toccherà il culmine nel nostro secolo con l’affermarsi dell’interpretazione soggettiva della probabilità, nella quale si fa largo uso della nozione di speranza matematica. Va notato che l’adozione di un approccio basato sulla speranza matematica implica l’uso della nozione di 52 media, che Huygens applicò, fra l’altro, a un settore che andava assumendo crescente importanza, ossia l’analisi delle tavole di natalità e mortalità in vista del loro uso in problemi attuariali. Il settore aveva ricevuto grande impulso in seguito alla pubblicazione, nel 1662, dell’opera del commerciante londinese John Graunt Natural and Political Observations Made upon the Bills of Mortality e di un saggio dell’uomo politico olandese Jan de Witt sullo stesso tema. Huygens lavorò su questi problemi elaborando varie misure legate al calcolo della vita media e della speranza di vita. Con l’opera di Pascal, Fermat e Huygens, e con i risultati ottenuti negli stessi anni da Leibniz, intento ad applicare la teoria combinatoria ai problemi legali, lo studio della probabilità riceve nella seconda meta del Seicento enorme impulso. Verso la fine del secolo, la nozione ha già avuto una notevole elaborazione teorica ed è stata applicata a una vasta gamma di problemi. Sono nate le sue proprietà fondamentali, così come la nozione di speranza matematica; è già stata utilizzata a fini statistici, e già si profilano altre applicazioni a scienze come la fisica e l’astronomia. Un’importante caratteristica della probabilità è, fin dall’inizio, quella che Hacking chiama «dualità». Da una parte, infatti, la probabilità è relativa alle leggi stocastiche dei fenomeni casuali, configurandosi così come una nozione avente un referente empirico. Dall’altra, è relativa anche alla determinazione dei gradi di credenza in proposizioni che non hanno necessariamente carattere statistico, configurandosi così come una nozione avente un valore epistemico, cioè riguardante la nostra conoscenza dei fenomeni, non il loro oggettivo prodursi. Hacking sottolinea come questa dualità sia presente già nell’opera di Pascal, il quale non esita ad applicarla alle ragioni per credere nell’esistenza di Dio, oltre che ai problemi di natura stocastica relativi ai giochi d’azzardo … La dualità della nozione di probabilità è alla base del problema filosofico della sua interpretazione. A questo proposito si sono formate varie «scuole», e si è acceso un vasto dibattito … Il formarsi di posizioni diverse circa la natura della probabilità è dovuto alla convinzione che uno dei due significati – quello oggettivo o quello epistemico – vada privilegiato rispetto all’altro e debba ispirare la definizione stessa della probabilità. Questa tendenza prende forma verso la metà dell’Ottocento; prima di allora la «dottrina delle probabilità oggettive» e l’«arte della congettura» convivono 53 pacificamente nei trattati sulla probabilità. È bene, comunque, distinguere il problema dell’interpretazione della probabilità dai suoi aspetti matematici. Le proprietà matematiche della probabilità, infatti, valgono indipendentemente dal modo in cui essa viene interpretata; anzi, un’interpretazione è considerata adeguata solo se non entra in contrasto con le proprietà matematiche che sono contenute nel cosiddetto «calcolo delle probabilità». Mentre però oggi è ampiamente riconosciuta, nelle opere degli autori che scrivevano agli esordi della storia della probabilità questa distinzione non è altrettanto evidente, e i problemi matematici s’intrecciano con gli aspetti filosofici della nozione di probabilità, intesa ora nell’accezione oggettiva, ora in quella epistemica. [Il soggettivismo di de Finetti] … de Finetti sostenne vigorosamente la convinzione che l’interpretazione soggettiva della probabilità è l’unica ammissibile, e rifiutò come insensata l’idea che la probabilità possa ricevere un’interpretazione oggettiva. La filosofia della probabilità di de Finetti è affidata a due saggi, entrambi del 1931: Probabilismo, e Sul significato soggettivo della probabilità, in cui si afferma che “la probabilità oggettiva non esiste mai”. Questo concetto attraversa tutta la produzione dell’autore, il quale, circa cinquant’anni dopo, nella voce «Probabilità» dell’Enciclopedia Einaudi (1980) si chiede: «ma davvero “esiste” la probabilità? E cosa mai sarebbe? Io risponderei di no, che non esiste» (p. 1146). Allorché il suo trattato Teoria delle probabilità venne tradotto in lingua inglese, de Finetti volle che la frase “la probabilità non esiste” fosse stampata a lettere maiuscole nella prefazione. E nella sua “ultima lezione” tenuta nel 1976 all’università di Roma e intitolata La probabilità: guardarsi dalle contraffazioni! ribadì che la probabilità esiste solo in quanto un agente, in condizioni di parziale ignoranza riguardo al corso degli eventi, se ne serve per fare previsioni. Attribuirle un’esistenza autonoma, indipendente dal soggetto che ne fa uso, “equivarrebbe a ritener possibile (senza essere Alice nel Paese delle meraviglie) che “il sorriso di un gatto” possa permanere e continuare ad essere visibile dopo che il gatto se ne è andato via (in La logica dell’incerto, p. 155). L’unico punto di vista accettabile è quello soggettivista, secondo il quale la probabilità è il grado di fiducia che un individuo, sulla base 54 delle conoscenze a lui disponibili, attribuisce a un evento o a un enunciato, la cui verità o falsità gli sono, per qualche motivo, sconosciute. Agli occhi di de Finetti, il vantaggio decisivo della concezione soggettivistica è quello di essere definibile in senso operativo. L’elaborazione di una simile definizione è affidata al già menzionato saggio Sul significato soggettivo della probabilità. La probabilità vi viene definita in termini di quote di scommessa. Il grado di probabilità assegnato da un individuo a un evento risulta pertanto misurabile in base alla quota alla quale egli sarebbe disposto ad accettare di scommettere una certa somma sul suo accadimento. 55 H. REICHENBACH, La nascita della filosofia scientifica Bologna, 1961, pp. 237-239 Si sarebbe portati a credere che la teoria della probabilità sia stata sempre coltivata dagli empiristi; ma la sua storia mostra che non è così. I razionalisti moderni, vedendo l’indispensabilità delle nozioni probabilistiche, hanno cercato di costruire una teoria razionalistica della probabilità. Il programma leibniziano di una logica delle probabilità come logica quantitativa per la misura di gradi di verità non rappresenta certo una soluzione empiristica del problema della probabilità … Secondo i seguaci del razionalismo un grado di probabilità è il prodotto della ragione in assenza di ragioni. Se getto una moneta, verrà testa o croce? Non ne so nulla né ho alcuna ragione di credere in un’alternativa piuttosto che in un’altra; pertanto considero le due possibilità egualmente probabili e attribuisco a ciascuna la probabilità di un mezzo. L’assenza di ragioni viene ritenuta una ragione per supporre l’identità delle probabilità. Questo è il principio dell’interpretazione razionalistica delle probabilità, il quale, noto con il nome di principio d’indifferenza, è considerato dal razionalista un postulato della logica, autoevidente come i principi logici … Il principio di indifferenza coinvolge il razionalismo in tutte le difficoltà note dalla storia della filosofia. Perché la natura deve seguire la ragione? Perché due eventi debbono essere parimenti probabili, se si hanno uguali cognizioni, molte o poche che siano, su di essi? La natura si conforma all’ignoranza umana? Per rispondere affermativamente a domande del genere, il filosofo dovrebbe credere in un’armonia fra ragione e natura … La concezione empiristica della probabilità è basata sull’interpretazione frequentistica. Le asserzioni probabilistiche esprimono frequenze relative di eventi ripetuti, cioè frequenze calcolate come percentuali rispetto a un totale. Esse sono derivate dalle frequenze osservate nel passato e coinvolgono l’assunzione che le stesse frequenze varranno approssimativamente per il futuro. Si giunge al loro stabilimento mediante un’inferenza induttiva. Se diciamo che in una serie di lanci di una moneta la probabilità che 56 venga testa è un mezzo, intendiamo affermare che, gettando ripetutamente la moneta, verrà testa nel cinquanta per cento dei casi. Sulla base di questa interpretazione si spiegano facilmente le regole delle scommesse: dire che cinquanta contro cinquanta è una scommessa giusta per il lancio di una moneta significa affermare che, attenendosi a queste regole, entrambe le parti finiranno per conseguire guadagni uguali. 57 K.R. POPPER, Un universo di propensioni Vallecchi, 1991, pp. 15-20 Fin circa al 1927 i fisici credevano che il mondo fosse un orologio smisurato e altamente preciso. Il grande filosofo, fisico e fisiologo francese Descartes descrisse l’orologio come un meccanismo: il rapporto di causa ed effetto era un rapporto d’urto. Questa fu la prima, e più chiara teoria della causalità. Più tardi, a partire all’incirca dall’inizio del nostro secolo, il mondo prese ad essere considerato come un orologio elettrico. Ma in entrambe queste concezioni il mondo era inteso come un orologio idealmente preciso. Nell’un caso erano le rotelline dell’ingranaggio a sospingersi a vicenda, nell’altro erano gli elettromagneti a respingersi o ad attirarsi, in entrambi i casi con precisione assoluta. In un mondo siffatto non c’era posto per le decisioni dell’uomo. Le nostre sensazioni di agire, di far programmi, di capirci a vicenda erano illusorie. Pochi furono i filosofi, con la grande eccezione di Peirce, che osarono mettere in dubbio questa concezione deterministica. Ma nel 1927, a partire da Werner Heisenberg, la fisica quantistica subì un profondo mutamento. Divenne chiaro che i processi microscopici rendevano l’orologio inesatto: esistevano indeterminazioni oggettive. La fisica teorica fu costretta ad introdurre la teoria della probabilità. Su questo punto mi trovai seriamente in dissenso con Heisenberg e con altri fisici, e anche con il mio eroe, Einstein: la maggior parte di loro era dell’opinione che la teoria della probabilità fosse dovuta alla mancanza di conoscenza; ciò li indusse a proporre una teoria soggettivistica della probabilità, in opposizione alla quale io intendevo proporre una teoria oggettivistica … Ora consentitemi di esporre brevemente l’interpretazione della probabilità come propensione. La teoria classica della probabilità ha costruito un sistema forte sulla base della definizione seguente: «La probabilità di un evento corrisponde al numero delle possibilità favorevoli diviso per il numero di tutte le possibilità». In tal modo la teoria classica riguarda le possibilità pure e semplici: la possibilità dell’evento croce sarebbe 1 diviso per 2, perché ci sono due possibilità equivalenti e una sola è 58 quella «favorevole» all’evento testa. L’altra possibilità non è favorevole all’evento testa … Ma che cosa succede con un dado o con una moneta truccati? In tal caso, secondo la teoria classica …, noi non possiamo più sostenere che le sei possibilità del dado o le due della moneta sono possibilità uguali. Di conseguenza, non essendoci in un caso del genere possibilità uguali, noi, semplicemente, non possiamo più parlare di probabilità nel senso numerico classico. Naturalmente Pascal sapeva che i dadi truccati erano stati inventati per barare al gioco. In effetti tutti sapevano che applicando in un dado di legno un frammento di piombo alla superficie con il numero 6, questo numero sarebbe uscito meno spesso che non in un dado non truccato e, che quindi, il numero della superficie opposta sarebbe uscito più frequentemente. Le possibilità sono sempre sei, ma esse non sono più possibilità uguali, essendo alcune caricate e altre pesate; possibilità che possono essere non uguali e la cui ineguaglianza o peso diverso possono essere stimati, possibilità che possono quindi essere valutate. È chiaro allora che una teoria generale della probabilità deve comprendere anche queste possibilità pesate. Ed è altresì chiaro che casi di possibilità uguali potrebbero e dovrebbero essere trattati come casi speciali di possibilità pesate … Così il concetto di possibilità pesate è fondamentale per una teoria più generale del gioco d’azzardo. Ma molto più importante è il fatto che esso è necessario a tutte le scienze, alla fisica, e alla biologia e anche per affrontare problemi come la probabilità di sopravvivenza per alcuni anni. Questi casi sono molto diversi e anche molto più generali di quelli del gioco d’azzardo con dadi, monete e con la roulette, meccanismi strettamente omogenei e costruiti simmetricamente. Ma questa generalizzazione non comporta difficoltà insuperabili: è facile vedere che anche in assenza di possibilità uguali noi siamo in grado di affermare che certe possibilità e probabilità sono maggiori o più pesanti di altre, come nel caso del dado truccato. Il problema principale è ora questo …: c’è un metodo che ci permetta di attribuire valori numerici a possibilità che non sono uguali? La risposta è ovviamente: sì, un metodo statistico; sì a patto che si possa ripetere la situazione che produce gli eventi probabilistici in 59 questione, come nel caso dei dadi; o a patto che gli eventi in questione possano ripetersi a loro piacimento senza la nostra interferenza, come nel caso della pioggia o del beltempo. Se il numero di queste ripetizioni è abbastanza alto, noi possiamo applicare la statistica come metodo per pesare le possibilità e per misurare il loro peso. In parole più esplicite, la maggiore o minor frequenza delle occorrenze può essere usata per verificare se un peso attribuito in via puramente ipotetica è un’ipotesi adeguata. In termini più grossolani, considerando la frequenza di occorrenze nella misurazione del peso della possibilità corrispondente, noi possiamo dire che la probabilità di una domenica piovosa a Brighton in giugno è di 1 a 5 se, e solo se, durante molti anni è stato provato che in giugno a Brighton piove mediamente una domenica su cinque. In questo modo noi usiamo le medie statistiche per valutare i pesi diversi delle varie possibilità. Se quanto ho detto è vero …, deve essere allora inerente alla struttura del lancio di quel dado (o di un altro dado molto simile) una tendenza o propensione a realizzare l’evento «esce il numero due» inferiore alla tendenza del dado regolare. Il mio primo punto importante è quindi che la tendenza o propensione verso la realizzazione di un evento è, in generale, inerente a ogni possibilità e a ogni singolo lancio, e che possiamo misurare la portata di questa tendenza o propensione ricorrendo alla frequenza relativa della realizzazione effettiva in un gran numero di lanci. Così, invece di parlare della possibilità che un evento avvenga, noi saremmo più esatti parlando di propensione intrinseca a produrre, con la ripetizione dell’evento, una certa media statistica. Ora ciò comporta che con la ripetizione, e con la ripetizione delle ripetizioni, le statistiche mostrano, a loro volta, una tendenza verso la stabilità, a patto che tutte le circostanze essenziali rimangano inalterate. Esattamente come spieghiamo la tendenza o propensione di un ago magnetico a puntare verso nord, quale che sia la sua posizione iniziale con a) la sua struttura interna, b) il campo invisibile di forze del nostro pianeta che agiscono su di lui, c) l’attrito, ecc. – in breve, con gli aspetti costanti della situazione fisica, allo stesso modo spieghiamo la tendenza o propensione di una sequenza di lanci di un dado verso frequenze statistiche stabili (a partire da qualsiasi sequenza iniziale) con a) la struttura interna del dado, b) l’invisibile campo di forze che su di lui agiscono da parte del nostro pianeta, c) 60 l’attrito, ecc. – in breve, con gli aspetti costanti della situazione fisica: il campo delle propensioni che influisce su ogni lancio. La tendenza delle medie statistiche a rimanere stabili a condizioni costanti è una delle caratteristiche più notevoli del nostro universo. Io ritengo che essa possa essere spiegata solo con la teoria della propensione; ossia con la teoria secondo la quale esistono possibilità pesate, che sono più di semplici possibilità, bensì tendenze o propensioni a diventare reali: tendenze o propensioni a realizzarsi, che sono, in vario grado, inerenti a tutte le possibilità e che rappresentano come delle forze che mantengono stabili le statistiche. Questa è una interpretazione oggettiva della teoria della probabilità. Il suo assunto è che le propensioni non siano semplici possibilità, bensì realtà fisiche, reali come le forze o come i campi di forze. 61 3 GIUSTIFICAZIONE 3.1 Neo-Positivismo Il Neo-positivismo o positivismo logico si sviluppa in tre fasi successive. 3.1.1 Neo-Positivismo: prima fase Il neo-positivismo sostiene una concezione scientifica del mondo, che viene caratterizzata attraverso due attributi fondamentali: – l’unica forma di conoscenza ammissibile è la conoscenza empirica, basata su dati sensibili immediati; – mediante il metodo dell’analisi logica, ogni concetto, a qualsiasi disciplina appartenga, deve poter ricondotto ai concetti facenti riferimento al dato empirico. È questo il progetto della teoria della costituzione, proposta da Rudolf Carnap ne La Costruzione logica del mondo, 1928: Sistema di costituzione: Oggetti delle scienze sociali ⇑ Psichico-altrui ⇑ Oggetti fisici ⇑ Psichico-proprio Base di costituzione: Psichico-proprio (= esperienze vissute coscienti di un soggetto) ⇒ 63 La base del sistema deve riferirsi a ciò che è immediatamente dato; ciò che è immediatamente dato è ciò che è esperito personalmente ⇒ base fenomenistica. In seguito, per ragioni di universalità e intersoggettività del linguaggio scientifico, Carnap ritenne che la base dovesse fare riferimento a oggetti fisici ⇒ base fisicalistica. In questa fase non si distingue quindi tra vocabolario osservativo e vocabolario teorico: il secondo deve poter essere ricondotto al primo. L’esistenza di un dato empirico comune è garanzia della scienza unificata. Il metodo di controllo è la verificabilità: deve essere possibile indicare in modo definitivo le condizioni sotto le quali un enunciato è vero o falso. Il metodo di controllo coincide con il metodo per stabilire la sensatezza di un enunciato: il significato di una proposizione è il metodo della sua verificazione. Gli enunciati che non soddisfano le condizioni di verificabilità sono empiricamente insensati e quindi vanno esclusi dall’ambito delle discipline scientifiche. Di questo tipo sono gli enunciati della metafisica. 3.1.2 Neo-Positivismo (seconda e terza fase) La seconda fase del neo-positivismo nasce tra l’altro dalla consapevolezza dell’inapplicabilità di un criterio di controllo così rigido come quello di verificabilità. Si ha così una revisione del metodo di controllo, guidata dall’ammissione che non è possibile ottenere una verifica definitiva o una definitiva confutazione di ogni enunciato dotato di senso. Avendo a disposizione un numero finito di esperimenti, non sarà mai possibile controllare in modo definitivo le leggi di natura. Queste hanno perciò sempre carattere ipotetico. Nella ricerca di un criterio di significanza più liberale della verificabilità, si introduce il concetto di confermabilità: “L’ipotesi è più o meno confermata o infirmata dall’evidenza”. 64 Alcuni esponenti del neo-positivismo introducono una misura quantitativa del grado di conferma, che coincide con il grado di probabilità di un’ipotesi h sulla base dell’evidenza empirica e. In questa fase si evidenzia l’importanza che per i neo-positivisti rivestono l’inferenza induttiva e la probabilità ai fini del controllo delle teorie. Come afferma Reichenbach (parte antologica): “L’inferenza induttiva serve non per scoprire teorie, bensì per giustificarle in termini dei dati d’osservazione”. “La conclusione induttiva è resa probabile, non certa, dalle sue premesse”. ESEMPIO del ruolo dell’inferenza induttiva: CARNAP/REICHENBACH Ciò che spiega (anche attraverso leggi probabilistiche) IPOTESI ⇓ Ciò che è spiegato Ciò che è giustificato (in maniera probabile, non certa) conseguenza logica ⇑ Logica induttiva Base empirica Ciò che giustifica La terza fase del neo-positivismo si caratterizza per un’ulteriore liberalizzazione dei criteri iniziali di scientificità proposti dal movimento. In questa fase, si rinuncia non solo alla completa verificabilità, ma anche all’idea che tutti i concetti scientifici debbano essere ricondotti a quelli osservativi. 65 Su questa base, si instaura la distinzione, a noi oggi famigliare, tra vocabolario osservativo e vocabolario teorico. Affinché quest’ultimo non si trasformi in un linguaggio “metafisico” è tuttavia necessario stabilire delle regole di interpretazione, in base alle quali i concetti teorici vengono ad acquisire significato empirico. ESEMPIO del rapporto tra concetti teorici e osservativi in Hempel (3. fase del neo-positivismo): Acqua = H20 H (atomo di idrogeno)= nucleo (protone + neutrone) + elettrone. O (atomo di ossigeno) = nucleo (otto protoni + otto neutroni) + otto elettroni disposti su due strati diversi: due in quello più interno e sei in quello esterno. Lo strato più interno è saturo; quello più esterno non è saturo e prende perciò due elettroni di idrogeno → H2O Struttura atomica ↓ H2O ↓ Acqua (Acqua = dotata di proprietà osservabili come evaporazione, congelamento, cristallizazione, reazioni chimiche sotto determinate condizioni) 66 3.2 Falsificazionismo popperiano 3.2.1 Critica all’induttivismo Il neopositivismo, pur passando dal verificazionismo alla confermabilità, ritiene che le leggi scientifiche si possano giustificare con l’induzione. Popper contesta questa convinzione: il metodo induttivo non è un metodo valido per giustificare le teorie scientifiche. Se l’induttivismo prende la forma del verificazionismo, Popper fa notare che le leggi di natura sono inverificabili. Esse hanno infatti la forma di enunciati universali e contemplano perciò un numero infinito di casi applicativi, mentre noi ai fini del controllo possiamo approntare solo un numero finito di osservazioni. Per esempio, l’enunciato “il rame conduce elettricità” non può venire verificato, perché la sua verificazione presupporrebbe che si controllasse tutto il rame nell’intero universo, cosa naturalmente esclusa. La situazione non migliora passando dalla teoria della verificazione alla teoria della conferma: secondo Popper, ogni ipotesi universale va al di là di qualsiasi evidenza empirica e così la sua probabilità resta pari a zero. Inoltre, l’inferenza induttiva si basa su un principio di induzione, ossia una regola generale in base alla quale l’inferenza deve essere realizzata. Il principio di induzione non può però essere fondato ⇒ Enunciato universale ⇑ Principio di induzione (universale): Ogniqualvolta ci troviamo in presenza di un numero sufficientemente ampio di esempi singolari… Enunciati singolari ⇑ Principio di induzione (di 2. ordine) Enunciati singolari ⇑ Enunciati singolari 67 Lo schema della pagina precedente mostra come il tentativo di formulare il principio di induzione conduce a un regresso all’infinito. 3.2.2 Razionalismo L’esperienza – secondo Popper – non costituisce nemmeno una base neutrale per la conoscenza: “L’ipotesi (o teoria…) precede l’osservazione … noi apprendiamo solo dalle nostre ipotesi che genere di osservazioni dovremmo fare”. Viene qui ad espressione l’elemento razionalistico della filosofia di Popper: l’esperienza è carica di teoria, vi è sempre una sovrabbondanza della ragione rispetto ai dati empirici. Il razionalismo popperiano si basa sul collegamento con l’epistemologia evoluzionistica: teoria ⇒ aspettative implicite ⇒ conoscenze istintive innate ⇒ fisiologia degli organi di senso ⇒ pre-categorizzazione dell’esperienza). L’esperienza mantiene tuttavia la funzione di controllo che le era stata assegnata dal neopositivismo ⇒ razionalismo critico, dove la critica viene dall’esperienza ⇒ carattere empirico della filosofia popperiana: i principi della scienza sono ipotesi, congetture, frutto della libera inventività dell’uomo, che devono però poi essere sottoposte al controllo empirico. “Ma io ammetterò certamente come empirico, o scientifico, soltanto un sistema che possa essere controllato dall’esperienza”. 68 3.2.3 Falsificazione Il metodo di controllo è ipotetico-deduttivo: la falsificazione. La falsificazione è criterio di demarcazione tra scienza e non scienza. La falsificazione non è però criterio di significanza ⇒ ruolo positivo riconosciuto alla metafisica per il progresso della scienza. ESEMPIO dello schema della falsificazione: Tutti i cigni sono bianchi ∀x (Cx → Bx) ⇓ Enunciato universale Nel luogo x e nel momento temporale t si dà un cigno che è bianco Enunciato singolare di carattere predittivo descrivente un esperimento possibile (protocollo) Nel luogo x e nel momento temporale t si osserva un cigno nero La teoria è falsificata Nel luogo x e nel momento temporale t si osserva un cigno bianco La teoria è corroborata Il controllo empirico avviene non in maniera induttiva, ma cercando di falsificare o confutare un’ipotesi (metodo per congetture e confutazioni). Il modo dell’inferenza falsificante è il modus tollens: T→p ¬p ------¬T 69 Se la teoria resiste alla falsificazione, essa è corroborata (Corroborazione = falsificazione mancata). Non si tratta però di un esito definitivo, perché non si può escludere che in futuro si scoprano delle istanze di controllo negative in grado di falsificare la teoria ⇒ Mentre un solo esempio negativo può falsificare la teoria, nessun numero anche alto di conferme dà diritto a ritenerla certa; nel caso dei cigni bisognerebbe esaminare tutti i cigni nel mondo non solo nel presente, ma anche nel futuro ⇒ Asimmetria tra verificazione e falsificazione. Le ipotesi di una teoria rimangono sempre ipotesi e mai verità irrefutabili. Che cosa cambia rispetto all’induttivismo? Si veda lo schema seguente: Ciò che spiega (anche attraverso leggi probabilistiche) IPOTESI Ciò che è giustificato (in maniera non definitiva, non certa) ⇓ conseguenza logica ⇑ Resistenza alla falsificazione Ciò che è spiegato Base empirica Ciò che giustifica 1. Le eventuali conferme (corroborazioni) non sono accumulabili induttivamente; 2. Cambia l’atteggiamento dello scienziato: non deve andare alla ricerca di conferme ma di falsificazioni della sua teoria, dunque di esperimenti cruciali che la possano mettere in difficoltà. La scoperta non segue un processo logico, tuttavia per Popper vale la regola che la teoria più interessante è quella più falsificabile, ovvero 70 quella che ha più contenuto empirico, ovvero la probabilità a priori (= antecedente al controllo) meno elevata. ⇒ ESEMPIO del criterio di scelta tra teorie Tutte le orbite dei pianeti sono cerchi o non sono cerchi ENUNCIATO PRIVO DI CONTENUTO NON FALSIFICABILE; PROBABILITÀ A PRIORI MASSIMA Tutte le orbite dei pianeti sono ellissi ENUNCIATO CON CONTENUTO FALSIFICABILE; PROBABILITÀ A PRIORI: 70% Tutte le orbite dei pianeti sono cerchi ENUNCIATO CON + CONTENUTO FALSIFICABILE; PROBABILITÀ A PRIORI: 50% 3.2.4 Corroborazione e previsione razionale La mancata falsificazione o corroborazione si differenzia dalle conferma tra l’altro perché i risultati della corroborazione non possono venire cumulati induttivamente. Problema: i risultati della scienza vengono utilizzati per la pratica quotidiana e per le applicazioni tecnologiche. Ma in base a quali criteri viene scelta ai fini dell’applicazione una teoria piuttosto di un’altra? L’induttivista sceglie la teoria che presenta il grado più elevato di probabilità di essere corretta. E il popperiano? Questi non può proiettare induttivamente il risultato della corroborazione. Dunque, su cosa fonda la sua scelta? Popper è consapevole del problema, tanto è vero che osserva: “… Ogni azione presuppone un insieme di aspettative; cioè di teorie riguardo il mondo. Quale teoria sceglierà l’uomo d’azione? Esiste qualcosa come una scelta razionale? 71 Questo ci porta ai problemi pragmatici dell’induzione: Pr1 Su quale teoria dovremmo fondarci per l’azione pratica da un punto di vista razionale? Pr2 Quale teoria dovremmo preferire per l’azione pratica da un punto di vista razionale? La mia risposta a Pr1 è: Da un punto di vista razionale, non dovremmo “fidarci” di alcuna teoria, perché nessuna teoria è stata dimostrata vera, o può essere dimostrata vera. La mia risposta a Pr2 è: Ma noi dovremmo preferire come base per l’azione la teoria meglio controllata. In altre parole, non vi è alcuna ‘affidabilità assoluta’; ma poiché dobbiamo scegliere, sarà razionale scegliere la teoria meglio controllata … la teoria meglio controllata è quella che, alla luce della nostra discussione critica, appare la migliore finora, e non conosco nulla di più razionale che una discussione critica ben condotta. … a dispetto della razionalità di scegliere la teoria meglio controllata come base per l’azione, questa scelta non è ‘razionale’ nel senso che è basata su buone ragioni per attendersi che sarà una scelta coronata da successo: non vi possono essere buone ragioni in questo senso e questo è esattamente il risultato di Hume” (Conoscenza oggettiva, pp. 42-3). Questa posizione di Popper ha sollevato molte critiche, tra le altre quelle di W.C. Salmon, che sottolinea come non sia possibile sostenere da un lato che la corroborazione non ha valore induttivo e dall’altro che essa giustifica la nostra preferenza ‘razionale’ per una teoria piuttosto che per un’altra. “Se prendiamo seriamente l’affermazione di Popper: ‘Consideravo (e ancora considero) il grado di corroborazione di una teoria semplicemente come un resoconto critico sulla qualità delle sue prestazioni passate’, è difficile comprendere come la corroborazione possa fornire una base razionale per preferire una teoria agli scopi della previsione pratica. A prescindere dalla correttezza o meno della mia critica alla posizione di Popper, la questione che pongo è di fondamentale 72 importanza. Se dovesse risultare che Popper non può fornire un resoconto plausibile della previsione razionale, allora, in considerazione dell’enfasi che egli pone ripetutamente sull’oggettività e la razionalità, non potremmo dare credito alla sua pretesa di avere risolto il problema dell’induzione … [Altrove Popper osserva] “I nostri enunciati di corroborazione non hanno valenza predittiva, sebbene essi motivino e giustifichino la nostra preferenza per una teoria rispetto a un’altra” … Poiché non mi sto occupando dei problemi psicologici dell’induzione, non metterò in questione la tesi che la corroborazione possa motivare la preferenza per una teoria su un’altra. Quello che voglio capire è come la corroborazione possa giustificare tale preferenza. A meno che non siamo in grado di trovare una risposta soddisfacente a tale questione, mi sembra che non abbiamo nessuna teoria valida della previsione razionale e nessuna soluzione adeguata al problema dell’induzione. … In questo lavoro, ho cercato di mostrare che il deduttivismo puro non può rendere conto del problema della previsione razionale nei contesti della decisione pratica … La scienza è inevitabilmente induttiva sia nelle questioni legate alla curiosità intellettuale, sia nella previsione pratica. Potrebbe essere possibile togliere tutti gli ingredienti induttivi dalla scienza, ma se l’operazione riuscisse, il paziente (la scienza), privato di tutta la sua valenza predittiva, morirebbe” (“Rational Prediction”, in A. Grünbaum and W.C. Salmon, eds. The Limitations of Deductivism, University of California Press, 1988). 73 3.3 Epistemologia post-popperiana Caratteri comuni dell’epistemologia neo-positivista e popperiana: – (i) Conta il contesto di giustificazione e non di scoperta – (ii) C’è un mondo esperienziale comune, che costituisce il terreno di confronto fra teorie rivali – (iii) Si dà progresso (o regresso) della scienza Caratteri comuni dell’epistemologia post-popperiana: – non (ii) Non esiste un mondo esperienziale comune; ogni teoria fa parte di una “visione del mondo”, che genera il significato dei termini scientifici e stabilisce i fatti che servono a confermare la teoria. Le teorie non possono essere confrontate tra loro, perché manca la base del confronto: le teorie sono tra loro incommensurabili. – non (iii) Se le teorie sono incommensurabili, non si ha progresso (o regresso scientifico). Cosa consente dunque di scegliere tra teorie? – non (i) Il contesto di scoperta: fattori storici, psicologici, sociologici, non logico-metodologici. 74 3.3.1 T. Kuhn L’opera principale di Thomas Kuhn, La struttura delle rivoluzioni scientifiche (SRS) contiene innanzitutto una teoria sullo sviluppo della scienza: Periodo pre-paradigmatico: in questo periodo si accumulano fatti in modo quasi casuale senza riferimento ad alcun piano o struttura teorica accettati ( si veda ad esempio l’opera di Plinio). Gradualmente un sistema teorico viene accettato da un numero sempre più vasto di persone ⇒ si stabilisce il paradigma della disciplina. PARADIGMA = “Con tale termine voglio indicare conquiste scientifiche universalmente riconosciute, le quali, per un certo periodo, forniscono un modello di problemi e soluzioni accettabili a coloro che praticano un certo campo di ricerca” (SRS, p. 10). Esempi di paradigmi sono l’astronomia tolemaica o quella copernicana, la dinamica aristotelica o quella newtoniana. Da che cosa è costituito esattamente un paradigma? Nel caso dell’astronomia tolemaica sono state individuate le seguenti componenti: – gli obiettivi della disciplina: la predizione dei moti apparenti dei pianeti; – i problemi che le spettava risolvere: descrivere e spiegare i moti retrogradi dei pianeti, le loro variazioni di velocità, luminosità, ecc.; – il metodo da seguire: la ricostruzione geometrica delle orbite; – degli esempi di soluzione: il modello geocentrico anzitutto, e poi gli epicicli, ecc.; – alcuni presupposti basilari indiscussi: l’immobilità della Terra, la finitezza dell’universo, ecc. – una metafisica di fondo: finalismo, animismo, perfezione dei moti circolari, ecc; – i significati dei termini: ‘pianeta’ significa corpo celeste in movimento; ‘Sole’ significa il pianeta luminoso; ecc.; 75 – uno schema concettuale e l’interpretazione implicita in ogni esperienza percettiva: ad esempio, la percezione dello spostamento relativo di Terra e Sole durante il giorno come moto di rivoluzione del Sole, e non come moto di rotazione della terra (da Alai, Filosofia della scienza del Novecento, p. 59). L’accettazione di un paradigma costituisce la comunità scientifica, che all’interno dei presupposti propri del paradigma pone in atto la scienza normale. Nei periodi di scienza normale domina un paradigma, così che una data teoria non è oggetto, ma fondamento della ricerca. Fare scienza normale significa risolvere rompicapi (puzzles), cioè problemi che emergono dall’interno del paradigma. Un fallimento nella soluzione del rompicapo non è percepito come un fallimento del paradigma, ma piuttosto del ricercatore, in quanto si presuppone che ci sia una soluzione, se non subito, un domani. La scienza normale è un’impresa altamente cumulativa: essa, proprio in quanto scienza normale “non ha per scopo quello di trovare novità di fatto o teoriche e, quando ha successo, non ne trova nessuna”(SRS, p. 75). Nella scienza normale, quando un problema non trova soluzione nonostante molti tentativi, si pensa che si tratti di un’anomalia: il problema non trova soluzione, ma questo aspetto problematico non è tale da far abbandonare il paradigma. Se tuttavia le anomalie sono troppo estese, si può giungere al punto di cambiare paradigma, cioè di trovarne uno in cui ciò che prima era anomalo diventa invece spiegabile ⇒ passaggio dalla scienza normale alla scienza straordinaria; passaggio da un paradigma all’altro ⇒ rivoluzione scientifica. Cosa cambia cambiando paradigma? Nel caso del passaggio dal paradigma tolemaico a quello copernicano cambiano tutti gli elementi enumerati in precedenza: 76 – gli obiettivi dell’astronomia: la descrizione della vera forma dell’universo, e non solo dei moti planetari apparenti; – i problemi da risolvere: la spiegazione delle numerose “coincidenze” solari che restavano inspiegate nel modello geocentrico; – i metodi: la costruzione di modelli realistici, e non di semplici elaborazioni geometriche; – le soluzioni proposte: il modello eliocentrico, la grande distanza delle stelle fisse, ecc. – i presupposti fisici: mobilità della terra, principio di relatività galileiana, ecc; – le concezioni metafisiche di base: esclusione del finalismo, maggior dignità del Sole rispetto alla terra, ecc.; – i significati dei termini: con ‘Sole’ s’intende una stella fissa, e non più un pianeta; – le esperienze percettive: l’astronomo copernicano non vede più il sole che ruota attorno alla terra, ma la terra che ruota sul proprio asse al cospetto del Sole (da Alai, Filosofia della scienza del Novecento, p. 60-61). Vi è un cambio del linguaggio scientifico, delle ipotesi di fondo, delle norme metodologiche. Il linguaggio osservativo è dipendente da quello teorico, quindi ogni paradigma ha i suoi fatti, i suoi dati di esperienza ⇒ viene meno la condizione di invarianza semantica propria della tradizione razionalistica. ⇒ i paradigmi in competizione sono inconfrontabili, ossia incommensurabili. Per quale ragione si cambia allora paradigma? “Proprio perché è un passaggio tra incommensurabili, il passaggio da un paradigma a uno opposto non può essere realizzato con un passo alla volta, né imposto dalla logica o da un’esperienza neutrale. Come il riorientamento gestaltico, esso deve compiersi tutto in una volta (sebbene non in un istante) oppure non si compirà affatto” (SRS, p. 182). “Il trasferimento della fiducia da un paradigma a un altro è un’esperienza di conversione che non può essere imposta con la forza”(SRS, p. 182). 77 Non vi è una razionalità scientifica che sia interparadigmatica: ciò che è razionale lo si decide solo all’interno di un paradigma. Il contesto di scoperta gioca un ruolo molto più importante di quello di giustificazione; i fattori che portano alla ‘conversione’ non sono né logici, né empirici, ma legati a elementi psicologici, storici, sociali, talvolta anche a casualità. “I singoli scienziati abbracciano un nuovo paradigma per ogni genere di ragioni, e di solito per parecchie ragioni allo stesso tempo. Alcune di queste ragioni – ad esempio, il culto del sole che contribuì a convertire Keplero al copernicanesimo – si trovano completamente al di fuori della sfera della scienza. Altre ragioni possono dipendere da idiosincrasie autobiografiche e personali. Persino la nazionalità o la precedente reputazione dell’innovatore e dei suoi maestri può talvolta svolgere una funzione importante … Probabilmente la pretesa più importante avanzata dai sostenitori di un nuovo paradigma è quella di essere in grado di risolvere i problemi che hanno portato il vecchio paradigma alla crisi. Questa pretesa, quando può venire avanzata legittimamente, costituisce spesso l’argomentazione a favore più efficace”(SRS, p. 185). Tuttavia, “nei dibattiti sui paradigmi, non si discutono realmente le relative capacità nel risolvere i problemi, sebbene, per buone ragioni, vengano adoperati di solito termini che vi si riferiscono. Il punto in discussione consiste invece nel decidere quale paradigma debba guidare la ricerca in futuro, su problemi molti dei quali nessuno dei due competitori può ancora pretendere di risolvere completamente. Bisogna decidere tra forme alternative di fare attività scientifica e, date le circostanze, una tale decisione deve essere basata più sulle promesse future che sulle conquiste passate. Colui che abbraccia un nuovo paradigma fin dall’inizio, lo fa spesso a dispetto delle prove fornite dalla soluzione di problemi. Egli deve, cioè, aver fiducia che il nuovo paradigma riuscirà in futuro a risolvere i molti vasti problemi che gli stanno davanti, sapendo soltanto che il vecchio paradigma non è riuscito a risolverne alcuni. Una decisione di tal genere può essere presa soltanto sulla base della fede”(SRS, p. 190). 78 3.3.2 P.K. Feyerabend Nella sua opera principale, Contro il metodo, Feyerabend sferra un attacco radicale alle regole metodologiche dall’epistemologia tradizionale, mettendo in discussione l’utilità delle regole metodologiche per lo sviluppo della scienza. Feyerabend è infatti sostenitore dell’anarchismo metodologico. “L’anarchismo pur non essendo forse la filosofia politica più attraente, è senza dubbio un’eccellente medicina per l’epistemologia e la filosofia della scienza. Non è difficile trovarne la ragione. “La storia in generale, la storia delle rivoluzioni in particolare, è sempre più ricca di contenuto, più varia, più multilaterale, più viva, più astuta, di quanto possono immaginare anche il migliore storico e il migliore metodologo. La storia è ricca di ‘casi e congiunture e curiose giustapposizioni di eventi’ e ci dimostra ‘la complessità del mutamento umano e il carattere impredicibile delle conseguenze ultime di ogni dato o decisione di esseri umani’. Dobbiamo credere veramente che le regole ingenue e semplicistiche che i metodologi prendono come loro guida possano rendere ragione di un tale ‘labirinto di interazioni’? E non è chiaro che può partecipare con successo a un processo di questo genere solo un opportunista senza scrupoli che non sia legato ad alcuna particolare filosofia e che adotti in ogni caso il procedimento che gli sembra più opportuno nella particolare circostanza?” (CM, pp. 15-6). “Il mondo che desideriamo esplorare è un’entità in gran parte sconosciuta. Dobbiamo perciò mantenere aperte tutte le nostre scelte e non dobbiamo fissarci limiti in anticipo. Taluni precetti epistemologici possono apparire meravigliosi quando vengono confrontati con altri precetti epistemologici, o con principi di carattere generale, ma chi può garantire che essi siano il modo migliore per scoprire non soltanto alcuni ‘fatti’ isolati, ma anche segreti di natura profondi? … Il desiderio di accrescere la libertà, di condurre a una vita piena e gratificante, e il corrispondente tentativo di scoprire i segreti della natura e dell’uomo, comportano quindi il rifiuto di ogni norma universale e di ogni tradizione rigida. (Essi comportano, naturalmente, anche il rifiuto di gran parte della scienza contemporanea)” (CM, pp. 17-8). 79 Le regole metodologiche ingabbiano la fantasia dello scienziato, quindi l’anarchismo, la pluralità dei metodi e dei criteri assicura il progresso della scienza più di quanto facciano le regole metodologiche. Il fatto che non ci sia un metodo privilegiato che contiene regole assolute è evidente quando ci si confronta con la storia della scienza. “Non c’è una singola norma, per quanto plausibile e per quanto saldamente radicata nell’epistemologia, che non sia stata violata in qualche circostanza. Diviene evidente anche che tali violazioni non sono eventi accidentali, che non sono il risultato di un sapere insufficiente o di disattenzioni che avrebbero potuto essere evitate. Al contrario, vediamo che tali violazioni sono necessarie per il progresso scientifico. In effetti, uno fra i caratteri che più colpiscono delle recenti discussioni sulla storia e la filosofia della scienza è la presa di coscienza del fatto che eventi e sviluppi come l’invenzione dell’atomismo nell’antichità, la rivoluzione copernicana, l’avvento della teoria atomica moderna (teoria cinetica; teoria della dispersione; stereochimica; teoria quantistica), il graduale emergere della teoria ondulatoria della luce si verificano solo perché alcuni pensatori o decisero di non lasciarsi vincolare da certe norme metodologiche ‘ovvie’ o perché involontariamente le violarono”(CM, p. 21). Questa libertà d’azione non è soltanto un fatto della storia della scienza, ma è necessaria per la crescita del sapere: “data una norma qualsiasi, per quanto “fondamentale” o “necessaria” essa sia per la scienza, ci sono sempre circostanze nelle quali è opportuno non solo ignorare la norma, ma adottare il suo opposto. Per esempio, ci sono circostanze nelle quali è consigliabile introdurre, elaborare e difendere ipotesi ad hoc, o ipotesi che contraddicano risultati sperimentali ben stabiliti e universalmente accettati, o ipotesi il cui contenuto sia minore rispetto a quello delle ipotesi alternative esistenti e adeguate empiricamente, oppure ancora ipotesi autocontraddittorie ecc. Ci sono addirittura circostanze – le quali si verificano anzi piuttosto spesso – in cui il ragionamento perde il suo aspetto orientato verso il futuro diventando addirittura un impaccio al progresso” (CM, pp. 21-22). 80 Le tesi di Feyerabend sono supportate da un caso storico, quello di Galilei. Tale caso mostrerebbe che la scienza non è un’impresa razionale: quando si produce un progresso teorico importante, le nuove idee, giudicate dal punto di vista del paradigma precedente, sono irrazionali. “Lo sviluppo del punto di vista copernicano da Galileo al XX secolo è un esempio perfetto della situazione che mi propongo di descrivere. Il punto di partenza è costituito da una forte convinzione che contrasta con la ragione e l’esperienza contemporanee. La convinzione si diffonde e trova sostegno in altre convinzioni, che sono altrettanto irragionevoli se non di più (la legge di inerzia, il telescopio). La ricerca viene ora deviata in altre direzioni, si costruiscono nuovi tipi di strumenti, i dati dell’osservazione e dell’esperimento vengono connessi a teorie in modi nuovi finché sorge un’ideologia abbastanza ricca da fornire argomentazioni indipendenti per ogni singolo dato e abbastanza mobile per trovare argomentazioni del genere ogni qualvolta esse sembrino richieste. Oggi possiamo dire che Galilei era sulla strada giusta poiché la sua tenace ricerca di quella che un tempo sembrava una stramba cosmologia ha creato oggi i materiali necessari per difenderla contro tutti coloro che sono disposti ad accettare un’opinione solo se essa viene espressa in un certo modo e che prestano fede ad essa solo se contiene certe frasi magiche, designate come protocolli o rapporti d’osservazione. E questa non è un’eccezione, bensì il caso normale: le teorie diventano chiare e ragionevoli solo dopo che parti incoerenti di esse sono state usate per molto tempo. Una tale anticipazione parziale, irragionevole, assurda, in violazione di ogni metodo, risulta quindi un presupposto inevitabile della chiarezza e del successo empirico” (CM, p. 24). Ci sono tanti metodi diversi e tutti hanno lo stesso valore: non solo la scienza occidentale, ma anche la magia, la mitologia, la religione sono valide nel loro contesto socioculturale, dove espletano un ruolo simile a quello che la scienza svolge nella nostra cultura. “È chiaro, quindi, che l’idea di un metodo fisso, o di una teoria fissa della razionalità, poggia su una visione troppo ingenua dell’uomo 81 e del suo ambiente sociale. Per coloro che non vogliono ignorare il ricco materiale fornito dalla storia, e che non si propongono di impoverirlo per compiacere ai loro istinti più bassi, alla loro brama di sicurezza intellettuale nella forma della chiarezza, della precisione, dell’‘obiettività’, della ‘verità’, diventerà chiaro che c’è un solo principio che possa essere difeso in tutte le circostanze e in tutte le fasi dello sviluppo umano. È il principio: qualsiasi cosa può andare bene” (CM, p. 25). Il richiamo di Feyerabend alla ‘metodologia pluralistica’suggerisce che il cambiamento scientifico non avvenga sulla base del confronto tra teoria e osservazione ma in virtù del confronto tra una teoria e un’altra teoria. “Uno scienziato che desideri massimizzare il contenuto empirico delle sue opinioni … deve mettere a confronto idee con altre idee anziché con l’‘esperienza’ … Il principio di autonomia afferma che i fatti che appartengono al contenuto empirico di una qualche teoria sono disponibili vengano o no prese in considerazione alternative a tale teoria. Ma: fatti e teorie sono connessi in modo molto più intimo di quanto non ammetta il principio di autonomia. Non soltanto la descrizione di ciascun fatto singolo dipende da qualche teoria (la quale potrebbe, ovviamente, essere molto diversa dalla teoria che dev’essere verificata), ma esistono anche fatti che non possono emergere se non con l’aiuto di alternative alla teoria che si tratta di verificare, e che cessano di essere disponibili non appena tali alternative siano escluse” (CM, p. 33). 3.4 Riflessioni critiche sull’epistemologia contemporanea L’epistemologia post-popperiana tende a confondere le considerazioni di filosofia della scienza con quelle di storia della scienza. Che cos’è la filosofia della scienza? È una dottrina del metodo scientifico e dunque una disciplina di tipo prescrittivo: prescrive quali regole seguire per attingere una conoscenza vera o plausibile. Che cos’è la storia della scienza? È una disciplina descrittiva, che si occupa delle modalità in cui, nel corso della storia, si è fatta scienza. 82 I post-popperiani tendono a mettere in discussione il metodo scientifico richiamandosi alla storia della scienza. Ciò comporta una violazione della legge di Hume, una legge logica che recita quanto segue: Non è possibile derivare logicamente proposizioni normative da proposizioni solo descrittive e viceversa A esemplificazione della legge si può portare questo esempio. Dall’enunciato ‘In Italia nessuno paga le tasse’ non è derivabile logicamente l’enunciato ‘È lecito non pagare le tasse’. Allo stesso modo, del fatto eventualmente accertato che uno scienziato non ha seguito le regole del metodo, non segue logicamente che ogni scienziato sia tenuto a non attenersi al metodo. La distinzione essere – dover-essere viene però relativizzata da Feyerabend: “La metodologia, si dice, si occupa di ciò che si dovrebbe fare e non può essere criticata in riferimento a ciò che è. Ma dobbiamo ovviamente essere certi del fatto che le nostre prescrizioni abbiano un punto di attacco nel materiale storico e dobbiamo anche esser certi che una loro applicazione esatta conduca a risultati desiderabili … Ancora una volta, si può progredire solo se la distinzione fra il si deve e l’è è considerata uno stratagemma temporaneo anziché una linea di demarcazione fondamentale” (CM, p. 137). L’esito naturale dell’epistemologia post-popperiana sembrerebbe dunque la trasformazione della filosofia della scienza in storia della scienza, sociologia della scienza o qualche altra disciplina di tipo descrittivo. Si pone perciò il problema: come rispettare la legge di Hume e la dicotomia fatti-valori, senza con questo negare l’esigenza di concretezza avanzata da Feyerabend e da altri epistemologi postpopperiani? Una possibile risposta consiste nell’accettare il metodo scientifico nella sua accezione tradizionale, ritenendolo valido nelle sue linee generali, ma sostenendo nello stesso tempo che la storia della scienza 83 mostra come la sua applicazione sia molto più complessa di quanto si potesse pensare in un primo momento ⇒ Ciò che si deve modificare non è tanto la concezione del metodo quanto la considerazione delle condizioni di applicabilità del metodo. Le condizioni di applicabilità hanno carattere descrittivo e vengono accertate in base a considerazioni di carattere storico, sociologico, psicologico … A questo sembra tendere anche Feyerabend, quando parla di un ‘punto d’attacco’ nel materiale storico: “Ce ne assicuriamo [dell’applicazione esatta delle nostre prescrizioni] considerando tendenze e leggi (storiche, sociologiche, fisiche, psicologiche, ecc.) le quali ci dicono che cosa è possibile e che cosa non è possibile nelle circostanze date e separano quindi le prescrizioni realizzabili da quelle destinate a condurre a vicoli ciechi” (CM, p. 137) Questa posizione è plausibile, ma per sostenerla non occorre diventare “post-popperiani”. È possibile rendere ragione di molte istanze avanzate dai post-popperiani rimanendo nell’alveo della concezione “tradizionale” del metodo. In effetti, in risposta alle critiche loro rivolte, gli epistemologi postpopperiani spesso rivedono in senso moderato molte loro posizioni ⇒ Questo, ad esempio, è il caso di Thomas Kuhn. Alla posizione di Kuhn sono state rivolte molte critiche, tra cui: – Il concetto di paradigma non è chiaro. Talvolta Kuhn intende il concetto in senso stretto, come teoria collegata a un insieme di casi paradigmatici e a un linguaggio teorico; talvolta intende il termine paradigma in un senso molto più vasto (cfr. Alai), includente in ultima analisi anche una visione del mondo. – Le tesi di Kuhn circa la storia della scienza sono eccessive. Molte asserzioni di Kuhn sono plausibili solo se si intende il termine paradigma in senso lato, ma allora i cambi di paradigma così intesi non sono così frequenti come i cambi di teoria. Ebbene, in considerazione di tali critiche, Kuhn modifica in seguito alcune delle tesi formulate in (SRS): – I paradigmi non sono equiparabili a visioni del mondo ⇒ si accetta un concetto ristretto di paradigma. 84 – I mutamenti di paradigma sono solo questioni di scala relativamente piccola ⇒ i fautori di paradigmi opposti possono trovare un linguaggio comune. – Il fatto che i paradigmi siano incommensurabili non significa che siano inconfrontabili; solo, non lo sono sulla base di un linguaggio neutrale e le regole di traduzione sono difficili. 3.4.1 Una chiave di lettura dell’epistemologia contemporanea basata sul rapporto tra teoria e fatti empirici Nel corso dell’evoluzione del metodo scientifico nel Novecento si è passati dal dogma positivistico del dato empirico come fondamento della scienza all’epistemologia post-popperiana che riconosce al dato empirico un ruolo metodologico minimale: Da: tutto dato empirico & niente teoria a: tutto teoria & niente dato empirico Volendo delineare più precisamente l’evoluzione del metodo nel Novecento, potremmo segnalare questi fondamentali punti di transizione: Neo-positivismo: 1. Fase: si danno solo concetti osservativi; 2. Fase: si danno anche concetti teorici interpretati empiricamente. Popper: I concetti osservativi sono carichi di teoria → priorità della teoria sull’esperienza. Epistemologia post-popperiana: I concetti teorici assumono il ruolo metodologico fondamentale, sino a minimizzare il ruolo dell’osservazione. Ciò avviene soprattutto in un autore come Feyerabend: “Il significato degli enunciati osservazionali dipende dalla teoria cui sono connessi. Le teorie sono significanti indipendentemente dalle osservazioni, mentre le asserzioni osservazionali non lo sono, a meno che siano poste in relazione con le 85 teorie … È quindi l’enunciato osservazionale che ha bisogno della teoria, e non viceversa (Feyerabend, I problemi dell’empirismo, p. 64). Nel prosieguo cercheremo di delineare una teoria epistemologica che tenga conto in debita misura di entrambi i fattori. A tal fine si impone un’analisi di alcuni concetti, che spesso si ritiene supportino gli esiti radicali dell’epistemologia post-popperiana. Si tratta in particolare del carico teorico dei concetti osservativi, del carattere olistico della giustificazione e della tesi della sottodeterminazione empirica delle teorie. Nel seguito si cercherà di mostrare che per ognuno di questi concetti si può formulare sia una tesi radicale (come nel caso dell’epistemologia post-popperiana) sia una tesi moderata, che non richiede l’abbandono dell’alveo razionalistico. Da ultimo si sosterrà che, quand’anche si diano casi di sottodeterminazione empirica, la scelta dello scienziato non è lasciata all’arbitrio, ma può far uso dell’argomento della spiegazione migliore. 3.4.1.1 Carico teorico dei concetti osservativi Esposizione della tesi Non esiste il puro dato d’esperienza, esiste il dato di esperienza interpretato. L’interpretazione viene fornita dalla teoria, ovvero dalla teoria osservativa competente. Teoria osservativa = teoria deputata a garantire l’affidabilità delle procedure sperimentali. Se ad esempio facciamo esperimenti usando il canocchiale, dobbiamo supporre che le leggi dell’ottica siano leggi valide, per lo meno per quanto riguarda quella parte di esse che ci serve ai fini del nostro esperimento. Una conseguenza che si può trarre dal carico teorico dei concetti osservativi è che anche il dato di esperienza non è irrefutabile, e, nel caso di contrasto tra teoria ed esperimento, può darsi che talvolta debba essere rigettata la risultanza empirica. Popper afferma ad esempio che anche gli asserti-base (protocolli) sono congetture sempre rivedibili in linea di principio. Come non 86 esiste una distinzione netta tra termini osservativi e termini teorici (tutti i termini sono teorici), così non si danno asserti congetturali e asserti non congetturali: tutti sono congetturali. Da ciò segue che l’accettazione della validità di certi asserti-base è frutto di una decisione ragionevole. A questo riguardo emerge l’elemento di convenzionalità presente nella posizione popperiana. Questa tesi, portata all’estremo, ha condotto a concezioni relativistiche del cambiamento scientifico, del tipo seguente: “ogni teoria ha la sua base empirica, influenzata dai suoi pregiudizi teorici; non c’è base comune di confronto, dunque il cambiamento di teoria non è legato a fattori scientifici, ma extrascientifici”. Interpretazione della tesi La circostanza che il dato empirico è carico di teoria non conduce necessariamente a esiti relativistici. L’antidoto consiste nell’assumere che le teorie osservative siano indipendenti da quelle che vengono controllate; in questo modo si garantisce la possibilità di un terreno comune di confronto. Il requisito appena formulato è noto come: Requisito di indipendenza del materiale probatorio ESEMPIO: “Per spiegare l’immagine formata da un microscopio ottico, si usano le teorie dell’ottica. Sapere come si comporta la luce nelle sue interazioni col campione sotto esame e con le lenti ci dice come si forma l’immagine e ci dice che l’immagine mostra, in modo affidabile, aspetti del campione. Se l’immagine è quella di un cromosoma, essa può servire da materiale probatorio di una qualche affermazione concernente la pertinenza della forma alla funzione dell’oggetto o concernente il numero relativo e le dimensioni dei cromosomi nei diversi organismi. Le affermazioni sull’ottica, che si usano per descrivere come si forma l’immagine e per sancirla, quindi, come una rappresentazione esatta del campione, sono indipendenti dalle affermazioni sulla biologia e sulla genetica per le quali 87 l’osservazione particolare serve come materiale probatorio. Non è sulla base del risultato di esperimenti biologici che le teorie ottiche acquistano o perdono credibilità. Le teorie osservative, in questo caso, sono chiaramente indipendenti dalle teorie che si devono controllare con le osservazioni” (P. Kosso, Leggere il libro della natura, pp. 165-166). 3.4.1.2 Carattere olistico della giustificazione Esposizione della tesi Le procedure di controllo delle teorie scientifiche sono alquanto complesse. Una teoria, infatti, non è costituita solo dalle ipotesi specifiche che la caratterizzano, ma anche da condizioni iniziali e da ipotesi ausiliarie. Quando si verifica una falsificazione, questa non colpisce una singola ipotesi, ma l’intero sistema teorico. Quindi, non è sempre possibile dire con sicurezza quale singola componente del sistema essa riguarda. Potrebbe riguardare l’ipotesi specifica, ma anche le condizioni o le ipotesi ausiliarie. ESEMPIO 1 (riguardante le condizioni iniziali): La teoria della gravità predice che, se due oggetti di peso diverso sono fatti cadere dalla stessa altezza simultaneamente, essi toccheranno il suolo nello stesso momento. Se si prova a fare l’esperimento, la predizione non si avvera. Perché? ⇓ Non è soddisfatta la condizione sperimentale (non ci deve essere la resistenza dell’aria). La teoria funziona solo se è data anche la condizione: 88 IPOTESI Se due oggetti di peso diverso sono fatti cadere dalla stessa altezza simultaneamente, e non c’è resistenza dell’aria, essi toccheranno il suolo nello stesso momento CONDIZIONE Non c’è resistenza dell’aria CONCLUSIONE I due oggetti… ESEMPIO 2 (riguardante le ipotesi ausiliarie): Nell’esempio, tratto come il precedente da Kosso, si tratta di mostrare come la fusione nucleare all’interno del sole possa essere fonte di energia solare. Per farlo, si deve però ricorrere a ipotesi ausiliarie, che possono essere anch’esse fonte di errori. All’interno del sole, è in atto la fusione nucleare IPOTESI IPOTESI AUSILIARIE ⇓ Se ciò è vero, deve essere possibile constatare empiricamente la presenza di neutrini solari. BASE EMPIRICA 89 1. La fusione crea neutrini. 2. I neutrini sono abbastanza sfuggenti da uscire dalle profondità solari e raggiungere la terra… Il carattere globalistico del controllo di una teoria (da qui il termine olismo) è venuto ad espressione nella: TESI DI DUHEM-QUINE: Quando una teoria viene falsificata, vi sono molte possibili componenti candidate alla falsificazione e la scelta è di carattere meramente convenzionalistico. ⇓ Esito tendenzialmente relativistico come nel caso del concetto di carico teorico. Interpretazione della tesi Il carattere olistico delle procedure giustificative non va sovrastimato. Popper, ad esempio, osserva che talvolta possiamo controllare solo un’ampia porzione di sistema teorico. Ciò non ci autorizza però ad affermare in linea di principio che sia impossibile trovare l’ipotesi responsabile della falsificazione, anche se la sua individuazione è frutto di un tentativo congetturale. 3.4.1.3 Tesi della sottodeterminazione empirica delle teorie Esposizione della teoria: Esistono teorie non equivalenti (con vocabolario teorico diverso) che sono empiricamente equivalenti, ossia hanno il medesimo contenuto empirico (ad esempio nell’Ottocento la teoria corpuscolare e la teoria ondulatoria della luce) ⇒ Ci sono certe ipotesi tra cui non si può decidere sperimentalmente. Come scegliere dunque tra teorie rivali, nel caso in cui queste siano sottodeterminate? Anche a questo riguardo vi è un possibile esito relativistico, che sostiene che la scelta sia arbitraria dal punto di vista scientifico. L’esito relativistico, tuttavia, non è il risultato obbligato nemmeno in questo caso, se si pone in atto l’argomento della spiegazione migliore ⇒ 90 3.4.1.4 Argomento della spiegazione migliore Quando l’evidenza empirica non è univoca, ossia quando le teorie sono sottodeterminate, lo scienziato non deve accontentarsi di una spiegazione qualsiasi: egli ha il compito di individuare quale sia la teoria che offre la spiegazione migliore. L’individuazione della teoria migliore riduce il numero delle possibili candidate a una sola. Cosa fa di una spiegazione la spiegazione migliore? “… bisogna che l’essere la [spiegazione] migliore sia un aspetto valutabile e non sia solo un espediente del tipo «se Dio ci viene a dire che è la migliore». Inoltre ci deve essere un’esplicita dimostrazione del fatto che essere la migliore, comunque lo si definisca, costituisce un aspetto facilitatore della verità. È chiaro che gli standard di questo essere migliore sono ampiamente, se non addirittura totalmente, interni. L’essere una spiegazione è una virtù esterna perché comporta il confronto con l’osservazione, ma essere la migliore tra date spiegazioni empiricamente equivalenti riguarda il fatto che la teoria è semplice, precisa e feconda e che essa è compatibile e cooperativa con altre teorie accettabili” (Kosso, Leggere il libro della natura, p. 110). Nemmeno nel caso in cui si diano fenomeni di sottodeterminazione è dunque necessario abbandonare la tesi moderata e abbracciare posizioni di tipo irrazionalistico. 91 PARTE ANTOLOGICA H. HAHN-O. NEURATH-R. CARNAP La concezione scientifica del mondo Bari, 1979, pp. 61-82 Molti affermano che il pensiero metafisico e teologizzante è oggi di nuovo in ascesa, non solo nella vita, ma anche nella scienza. Si tratta di un fenomeno generale o soltanto di un processo circoscritto a particolari gruppi? L’affermazione di cui sopra risulta agevolmente suffragata, se si considerano i temi dei corsi universitari e i titoli delle pubblicazioni filosofiche. Tuttavia, ai giorni nostri, anche l’opposto spirito illuministico e di ricerca positiva antimetafisica si va rafforzando, con sempre maggiore consapevolezza della propria natura e del proprio compito. In alcuni circoli, l’orientamento empiristico, avverso alla speculazione, appare più vitale che mai, rinvigorito proprio dall’antitesi venutasi a determinare. Nel lavoro di indagine in tutti i settori della scienza empirica è vivo questo spirito di una concezione scientifica del mondo. Esso, però, viene approfondito in modo sistematico e sostenuto a fondo unicamente da pochi autorevoli pensatori, i quali solo di rado sono nelle condizioni di poter riunire intorno a sé un gruppo di collaboratori aventi idee consimili. Si riscontrano tendenze antimetafisiche soprattutto in Gran Bretagna, dove la tradizione dei grandi empiristi è ancora rigogliosa: gli studi logici e l’analisi della realtà compiuti da Russell e da Whitehead hanno attinto rilievo internazionale. Negli Stati Uniti queste tendenze assumono le forme più varie; lo stesso James, in un certo senso, sarebbe da ricordare al riguardo. Anche la nuova Russia sta, di fatto, perseguendo una concezione scientifica del mondo, benché, in parte, faccia leva su dottrine materialistiche tutt’altro che recenti. Infine, nell’Europa continentale, specialmente a Berlino (Reichenbach, Petzold, Grelling, Dubislav) e a Vienna, va rilevata la convergenza di feconde iniziative tese a stabilire una concezione scientifica del mondo. Che Vienna costituisse un terreno particolarmente adatto per tale sviluppo è storicamente comprensibile. Ivi, durante la seconda metà 92 del XIX secolo, il liberalismo rappresentò l’orientamento politico a lungo preminente. Il suo patrimonio di idee appare originato dall’illuminismo, dall’empirismo, dall’utilitarismo, nonché dal movimento di libero scambio dell’Inghilterra … A Vienna, in una simile atmosfera liberale, visse Ernst Mach (nato nel 1838), dapprima come studente, quindi come libero docente (1861-1864). Egli fece poi ritorno nella capitale austriaca solo in età avanzata, quando vi fu istituita proprio per lui una cattedra di filosofia delle scienze induttive (1895). Suo intento principale era depurare la scienza empirica, soprattutto la fisica, da nozioni metafisiche. Basterà ricordare la sua critica dello spazio assoluto, mediante la quale egli anticipò idee di Einstein, la sua battaglia contro la metafisica della cosa in sé, nonché le sue indagini sulla formazione dei concetti scientifici a partire dai dati sensibili quali fattori elementari … L’impegno di fisici come Mach e Boltzmann nell’insegnamento filosofico attesta l’interesse allora dominante per i problemi gnoseologici e logici della fondazione della fisica. Da questa tematica fondazionale trasse origine anche l’esigenza di un rinnovamento della logica; tanto più che a Vienna, pur movendo da direzione affatto diversa, Franz Brentano (fra il 1874 e il 1880 professore dei filosofia nella facoltà teologica; nonché, più tardi docente della facoltà filosofica) aveva aperto la strada. In quanto sacerdote cattolico, Brentano, conoscendo bene la scolastica, ne riprese senz’altro le dottrine logiche, insieme con i contributi leibniziani per una riforma della stessa logica; mentre lasciò da parte Kant e i filosofi idealisti sistematici … Nel 1922, allorché Moritz Schlick venne chiamato da Kiel all’Università di Vienna, la sua attività s’inserì felicemente nell’atmosfera culturale viennese. Fisico d’origine, egli contribuì a rilanciare la tradizione instaurata nella capitale austriaca da Mach e da Boltzmann … Con l’andar degli anni, intorno a Schlick si costituì un Circolo, il quale unificò gli sforzi intesi a stabilire una concezione scientifica del mondo; da questa convergenza dei vari apporti derivò un fruttuoso stimolo reciproco … Nessuno [degli aderenti a tale Circolo] è un filosofo cosiddetto «puro»; anzi, tutti hanno lavorato in qualche particolare ambito scientifico. C’è di più: essi provengono da diversi rami della scienza e, in origine, da indirizzi filosofici distinti. Nel corso del tempo, però, si è delineato un indirizzo uniforme, ulteriore 93 conseguenza del peculiare orientamento scientifico addotto: «tutto ciò che può formularsi può formularsi chiaramente» (Wittgenstein); le divergenze d’opinione possono concludersi con un accordo, che va quindi perseguito. Via via, è risultato sempre più chiaro che intento comune era un atteggiamento non solo a-metafisco, bensì antimetafisico … La concezione scientifica del mondo è caratterizzata non tanto da tesi peculiari, quanto, piuttosto, dall’orientamento di fondo, dalla prospettiva, dall’indirizzo di ricerca. Essa si prefigge come scopo l’unificazione della scienza. Suo intento è di collegare e coordinare le acquisizioni dei singoli ricercatori nei vari ambiti scientifici. Da questo programma, derivano l’enfasi sul lavoro collettivo, sull’intersoggettività, nonché la ricerca di un sistema di formule neutrali, di un simbolismo libero dalle scorie delle lingue storiche, non meno che la ricerca di un sistema globale dei concetti. Precisione e chiarezza vengono perseguite, le oscure lontananze e le profondità impenetrabili respinte. Nella scienza non si dà «profondità» alcuna; ovunque è superficie: tutta l’esperienza costituisce un’intricata rete, talvolta imperscrutabile e spesso intelligibile solo in parte. Tutto è accessibile all’uomo e l’uomo è la misura di tutte le cose. In ciò si riscontra un’affinità con i sofisti, non con i platonici; con gli epicurei, non con i pitagorici; con tutti i fautori del mondano e del terreno. La concezione scientifica del mondo non conosce enigmi insolubili. Il chiarimento delle questioni filosofiche tradizionali conduce, in parte, a smascherarle quali pseudo-problemi; in parte, a convertirle in questioni empiriche, soggette, quindi, al giudizio della scienza sperimentale. Proprio tale chiarimento di questioni e asserti costituisce il compito dell’attività filosofica, che, comunque, non tende a stabilire specifici asserti «filosofici». Il metodo di questa chiarificazione è quello dell’analisi logica; a dire del Russell esso «si è sviluppato via via nel contesto delle indagini critiche dei matematici, segnando un progresso simile a quello promosso da Galileo nella fisica: la sostituzione di risultati particolari comprovabili, in luogo di tesi generali correnti non comprovabili, motivate in termini di mera fantasia». Siffatto metodo dell’analisi logica è ciò che distingue essenzialmente il nuovo empirismo e positivismo da quello anteriore, che era orientato in senso più biologico-psicologico. Se qualcuno afferma «esiste un dio», «il fondamento assoluto del mondo è 94 l’inconscio», «nell’essere vivente vi è un’entelechia come principio motore», noi non gli rispondiamo «quanto dici è falso», bensì a nostra volta gli poniamo un quesito: «che cosa intendi dire con i tuoi asserti?». Risulta chiaro, allora, che esiste un confine preciso fra due tipi di asserzioni. All’uno appartengono gli asserti formulati nella scienza empirica: il loro senso si può stabilire mediante l’analisi logica; più esattamente, col ridurli ad asserzioni elementari sui dati sensibili. Gli altri asserti, cui appartengono quelli citati sopra, si rivelano affatto privi di significato, assumendoli come li intende il metafisico. Spesso è possibile reinterpretarli quali asserti empirici; allora, però, essi perdono il proprio contenuto emotivo, che in genere è basilare per lo stesso metafisico. Il metafisico e il teologo credono, a torto, di asserire qualcosa, di rappresentare stati di fatto, mediante le loro proposizioni. Viceversa, l’analisi mostra che simili proposizioni non dicono nulla, esprimendo solo atteggiamenti emotivi. Espressioni del genere possono, certo, avere un ruolo pregnante nella vita; ma, al riguardo, lo strumento espressivo adeguato è l’arte, per esempio la lirica o la musica. Si sceglie, invece, la veste linguistica propria di una teoria, ingenerando un pericolo: quello di simulare un contenuto teorico inesistente. Se un metafisico o un teologo vogliono mantenere nel linguaggio la forma usuale, debbono consapevolmente e chiaramente ammettere di non fornire rappresentazioni, bensì espressioni; di non suggerire teorie, informazioni, bensì poesie o miti. Quando un mistico afferma di avere esperienze oltrepassanti tutti i concetti, non è possibile contestare la sua pretesa. Ma egli non è in grado di parlarne, poiché parlare significa ricorrere a concetti, ricondurre a stati di fatto delimitabili scientificamente. La concezione scientifica del mondo respinge la metafisica. Ma come spiegarne gli errori? La questione ammette profili differenti: psicologico, sociologico, logico. Le indagini psicologiche al riguardo appaiono ancora in uno stadio iniziale; i primi passi verso una comprensione più profonda sono forse reperibili nelle ricerche della psicoanalisi freudiana. Analoga è la situazione in ambito sociologico; basti menzionare la teoria della “sovrastruttura ideologica”. Qui il campo è ancora aperto per ulteriori approfondimenti. Più avanzata è la comprensione dell’origine logica degli errori metafisici, specialmente grazie ai lavori di Russell e di Wittgenstein. Nelle teorie metafisiche, addirittura già nelle formulazioni stesse dei quesiti metafisici, sono presenti due errori logici basilari: un’aderenza 95 troppo stretta alla struttura dei linguaggi tradizionali e un inadeguato intendimento della funzione logica del pensiero. La lingua comune, per esempio, usa la medesima forma grammaticale, cioè il sostantivo, per designare sia cose («mela»), sia qualità («durezza»), sia relazioni («amicizia»), sia processi («sonno»); in tal modo, essa induce erroneamente a intendere i concetti funzionali come concetti di cose (ipostatizzazione, sostanzializzazione). È possibile addurre esempi molteplici di simili travisamenti linguistici, che sono del pari risultati fatali per la f i l o s o f i a . Il secondo errore basilare della metafisica consiste nel ritenere che il pensiero possa, da solo, senza far leva su dati empirici, condurre alla conoscenza, o almeno sia in grado di ricavare per via d’inferenze da elementi fattuali noti nuove cognizioni. L’indagine logica, però, mostra che il pensiero, l’inferenza, consistono semplicemente nel passaggio da proposizioni ad altre proposizioni, le quali ultime non asseriscono alcunché che non sia già asserito nelle prime (trasformazione tautologica). Risulta, quindi, impossibile sviluppare una metafisica a partire dal «pensiero puro». Così, mediante l’analisi logica, viene superata non solo la metafisica nell’accezione stretta, classica, del termine, in particolare la metafisica scolastica e quella dei sistemi dell’idealismo tedesco, bensì anche la metafisica latente dell’apriorismo kantiano e moderno. Nella concezione scientifica del mondo non si danno conoscenze incondizionatamente valide derivanti dalla pura ragione, né «giudizi sintetici a priori», quali ricorrono alla base sia della gnoseologia di Kant, sia, ancor più, di tutte le ontologie e metafisiche pre- o postkantiane. I giudizi dell’aritmetica, della geometria, nonché certi princìpi fondamentali della fisica, addotti da Kant come esempi di conoscenza a priori, costituiscono oggetto di discorso successivo. Comunque, la tesi fondamentale dell’empirismo moderno consiste proprio nell’escludere la possibilità di una conoscenza sintetica a priori. La concezione scientifica del mondo riconosce solo le proposizioni empiriche su oggetti di ogni sorta e le proposizioni analitiche della logica e della matematica … Abbiamo caratterizzato la concezione scientifica del mondo essenzialmente con due attributi. Primo, essa è empiristica e positivistica: si dà solo conoscenza empirica, basata sui dati immediati. In ciò si ravvisa il limite dei contenuti della scienza genuina. Secondo, la concezione scientifica del mondo è 96 contraddistinta dall’applicazione di un preciso metodo, quello, cioè, dell’analisi logica. Il lavoro scientifico tende, quindi, a conseguire, come suo scopo, l’unità della scienza, applicando l’analisi logica al materiale empirico. Poiché il senso di ogni asserto scientifico deve risultare specificabile mediante riduzione ad asserti sul dato, anche il senso di ogni concetto, quale che sia il settore della scienza cui questo appartiene, deve potersi stabilire mediante riduzione graduale ad altri concetti, giù fino ai concetti di livello più basso, che concernono il dato medesimo. Se una simile analisi venisse attuata per tutti i concetti, essi finirebbero con l’apparire ordinati in un sistema riduttivo, o «sistema di costituzione». Le indagini dirette allo scopo, cioè la teoria della costituzione, formano così il quadro, entro cui l’analisi logica è applicata secondo la concezione scientifica del mondo. Comunque, lo sviluppo di tali indagini mostra ben presto l’assoluta insufficienza della logica tradizionale, aristotelico-scolastica. E con la moderna logica simbolica (logistica) che si riesce per la prima volta a conseguire il necessario rigore delle definizioni e degli asserti, nonché a formalizzare il processo inferenziale intuitivo proprio del pensiero comune, traducendolo in una forma controllata automaticamente mediante il meccanismo dei simboli. Le ricerche della teoria della costituzione mostrano che al livello più basso del sistema costitutivo si situano i concetti inerenti alle esperienze e alle qualità della propria mente; al livello successivo figurano gli oggetti fisici; quindi, sono costituiti sia le altre menti, sia, infine, gli oggetti delle scienze sociali. L’ordinamento dei concetti delle diverse branche della scienza all’interno del sistema costitutivo risulta oggi, nelle sue grandi linee, già accessibile, mentre resta ancora molto da fare per una più puntuale elaborazione. Stabilita la possibilità ed esibita la forma del sistema generale dei concetti, diventano parimenti rilevabili il riferimento di tutti gli asserti al dato e, con ciò, la struttura della scienza unificata. 97 R. CARNAP, Tolleranza e logica. Autobiografia intellettuale Milano, 1974, pp. 57-60 La semplicità e la coerenza del sistema delle conoscenze, come la maggior parte di noi al Circolo di Vienna lo concepiva, gli forniva una certa attrattiva e forza di fronte alle critiche; d’altra parte, queste caratteristiche causavano una certa rigidità, cosicché fummo costretti ad operare alcuni radicali cambiamenti per rendere giustizia al carattere aperto e all’inevitabile mancanza di certezza di ogni conoscenza fattuale. Secondo la concezione originaria, il sistema di conoscenza, pur divenendo costantemente più comprensivo, era considerato un sistema chiuso nel senso seguente: secondo noi vi era un minimo di conoscenza, la conoscenza dell’immediatamente dato, che era indubitabile; supponevamo che ogni altro tipo di conoscenza poggiasse saldamente su questa base e che si potesse perciò stabilire con altrettanta certezza. Questa era l’immagine che avevo fornito in Logische Aufbau, sotto influenza della dottrina machiana delle sensazioni come elementi di tutta la conoscenza, dell’atomismo logico di Russell e infine della tesi di Wittgenstein secondo cui tutte le proposizioni sono funzioni di verità delle proposizioni elementari. Questa concezione conduceva al principio wittgensteiniano della verificabilità che dice che in teoria è possibile ottenere o una verifica definitiva o una definitiva confutazione di ogni enunciato dotato di senso. Rivedendo questo punto di vista dalla nostra posizione attuale, devo ammettere che era difficile conciliarlo con certe altre concezioni che avevamo allora, specialmente sulla metodologia della scienza. Perciò lo sviluppo e la chiarificazione delle nostre concezioni metodologiche condussero inevitabilmente ad un abbandono della struttura rigida della nostra teoria della conoscenza. La caratteristica importante della nostra posizione metodologica era l’accentuazione del carattere ipotetico delle leggi di natura, in particolare delle teorie fisiche: tale punto di vista era influenzato da uomini come Poincaré e Duhem, e dal nostro studio del metodo assiomatico e della sua applicazione alle scienze empiriche con l’aiuto di definizioni o regole coordinative. Era chiaro che le leggi della fisica non potevano essere 98 del tutto verificate. Tale conclusione condusse Schlick, sotto l’influenza di Wittgenstein, alla concezione che le leggi fisiche non dovessero più essere considerate enunciati generali, ma piuttosto regole per la derivazione di enunciati singolari. Altri comunque cominciarono a mettere in dubbio l’adeguatezza del principio di verificabilità. Il passo successivo nello sviluppo della nostra concezione riguardò la natura della conoscenza dei singoli fatti del mondo fisico. Neurath aveva sempre rifiutato la presunta base assoluta della conoscenza; secondo lui la totalità di ciò che è conosciuto riguardo al mondo è sempre non certa e continuamente soggetta a correzione e a trasformazione: è come una nave che non ha un porto dove essere riparata e che quindi deve essere aggiustata e rifatta mentre naviga nel mare aperto. Nella stessa direzione agì l’influenza del libro di Karl Popper, Logik der Forschung. In tal modo alcuni di noi, specialmente Neurath, Hahn ed io, giungemmo alla conclusione che dovevamo cercare un criterio di significanza più liberale della verificabilità; il nostro gruppo era talora chiamato l’ala sinistra del Circolo rispetto all’ala destra più conservatrice, rappresentata principalmente da Schlick e Waismann, i quali rimasero personalmente in contatto con Wittgenstein disposti a conservarne le concezioni e le formulazioni. Sebbene avessimo abbandonato il principio di verificabilità, non vedevamo ancora chiaramente quale criterio di significanza potesse prenderne il posto, ma io mi resi conto almeno della direzione generale in cui avremmo dovuto muoverci. Nel dicembre 1932, tornando a Vienna in una delle mie frequenti visite da Praga, appresi che Neurath ed alcuni membri più giovani del Circolo lavoravano allo scopo di riformulare la teoria psicoanalitica di Freud secondo il nostro punto di vista: essi affrontavano questo impegno «fisicalizzando» enunciato per enunciato uno dei trattati freudiani, trasportando cioè ogni enunciato in un linguaggio comportamentistico. Io li misi in guardia contro questo procedimento, proponendo di analizzare i concetti piuttosto che i singoli enunciati. Pensavo che sarebbe stato possibile trovare per alcuni concetti definizioni comportamentistiche e quindi fisicalistiche; ma i più fondamentali concetti della teoria freudiana dovevano essere trattati come concetti ipotetici, introdotti cioè con l’aiuto di leggi ipotetiche e di regole coordinative, che permettessero la derivazione di enunciati intorno al comportamento 99 osservabile da enunciati implicanti i concetti fondamentali della teoria. Misi in evidenza l’analogia tra concetti come «ego», «id», «complesso» e i concetti fisici di campo: le mie osservazioni intendevano soltanto esprimere alcune idee che, come credevo, erano state generalmente accettate dall’ala sinistra e rimasi sorpreso per il fatto che venissero considerate come qualcosa di radicalmente nuovo. Credo comunque che la mia concezione si fosse sviluppata sulla base del nostro comune punto di vista riguardo alle ipotesi scientifiche e al metodo assiomatico, e che fosse influenzata dalle conversazioni che avevo avuto con Gödel e Popper. Lo sviluppo verso un criterio più liberale di significanza richiese un certo numero di anni e ne furono proposte varie forme … Durante gli anni trenta, mentre ero a Praga, iniziai una ricerca sistematica sulle relazioni logiche tra concetti scientifici e concetti di base, cioè le proprietà osservabili delle cose materiali, i cui risultati furono pubblicati nell’articolo «Testability and Meaning». Spiegherò adesso alcune di queste considerazioni. Le ipotesi intorno agli eventi non osservati del mondo fisico non possono mai essere completamente verificate dall’evidenza osservativa: suggerii perciò che noi abbandonassimo il concetto di verificazione e dicessimo invece che l’ipotesi è più o meno confermata o infirmata dall’evidenza. A quel tempo lasciai aperta la questione della possibile definizione di una misura quantitativa di conferma; successivamente introdussi il concetto quantitativo di grado di conferma o probabilità logica. Proposi di parlare di confermabilità invece che di verificabilità, in modo che un enunciato è considerato confermabile se gli enunciati osservativi possono contribuire positivamente o negativamente alla sua conferma … Dobbiamo abbandonare, oltre al requisito di una completa verificabilità, il precedente punto di vista secondo cui i concetti della scienza sono esplicitamente definibili sulla base di concetti osservativi: devono essere usati metodi più indiretti di riduzione. A questo scopo proposi una particolare forma di enunciati di riduzione; ma nel corso di ulteriori ricerche venne in chiaro che uno schema di questa semplice forma non può bastare a introdurre i concetti della scienza teorica. Tuttavia, la forma semplice di enunciati di riduzione allora proposta fu utile per il fatto che mostrò chiaramente il carattere aperto dei concetti scientifici, cioè che i loro significati non sono completamente fissati … 100 H. REICHENBACH, La nascita della filosofia scientifica Bologna, 1961, pp. 233-237 … Ciò che distingue l’inferenza induttiva da quella deduttiva è il fatto che la prima non è vuota, bensì contraddistinta da conclusioni non contenute nelle premesse. La conclusione che tutti i corvi sono neri non è contenuta logicamente nella premessa che tutti i corvi osservati finora risultano essere neri, tale conclusione potrebbe esser falsa nonostante la verità della premessa. L’induzione è lo strumento di un metodo scientifico che vuole scoprire qualcosa di nuovo, qualcosa di più che la sintesi delle osservazioni già fatte; l’inferenza induttiva è lo strumento della previsione. Fu Bacone a vedere con chiarezza l’indispensabilità delle inferenze induttive per il metodo scientifico, e il suo posto nella storia della filosofia è quello di un profeta dell’induzione. Ma Bacone vide anche i limiti di questo genere d’inferenza, la sua mancanza di necessità, la possibilità insita in essa di arrivare a conclusioni false. I suoi sforzi per migliorare l’induzione non ebbero molto successo; le inferenze induttive formulate nell’ambito del metodo ipoteticodeduttivo della scienza sono di gran lunga superiori alla semplice induzione baconiana. Tuttavia, neppure tale metodo è in grado di assicurare la necessità logica; le sue conclusioni possono risultare false, né la conoscenza induttiva riuscirà mai a raggiungere l’attendibilità della deduzione. Il metodo ipotetico-deduttivo, o induzione esplicativa, è stato largamente discusso dai filosofi e dagli scienziati, ma la sua natura logica è stata spesso fraintesa. Dato che l’inferenza dalla teoria ai fatti empirici di regola viene effettuata mediante metodi matematici, alcuni filosofi hanno creduto che la conferma delle teorie possa venir esplicata in termini di logica deduttiva. In effetti, questa concezione non è sostenibile, perché non è sull’inferenza dalla teoria ai fatti, bensì, al contrario, sull’inferenza dai fatti alla teoria che si basa l’accettazione di ogni teoria; e la seconda inferenza, anziché deduttiva, è induttiva. Ciò che è dato sono i risultati dell’osservazione, i quali costituiscono la conoscenza nei cui termini la teoria deve venire convalidata. 101 Inoltre, circa l’effettuazione di tale inferenza, alcuni filosofi appaiono vittime di un altro fraintendimento. Lo scienziato che scopre una nuova teoria di regola è guidato nella propria ricerca da congetture; egli non può dire con che metodo ha rinvenuta la teoria, può unicamente dire che essa gli è parsa plausibile, che gli è venuta l’idea giusta, che gli è riuscito d’intuire l’assunzione rispondente ai fatti. Non mancano filosofi che hanno preso questa descrizione psicologica della scoperta come una prova che non esiste relazione logica atta a condurre dai fatti alla teoria; e naturalmente gli stessi sostengono che nessuna interpretazione logica del metodo ipoteticodeduttivo è possibile. L’inferenza induttiva per loro non è che lavoro congetturale, inaccessibile all’analisi logica. Tali filosofi non si accorgono che lo scienziato che ha scoperto una teoria per mezzo di congetture non la presenta agli altri se non dopo aver accertato che le medesime sono giustificate dai fatti. È in questa pretesa di giustificazione che l’uomo di scienza ricorre all’inferenza induttiva, volendo mostrare non soltanto che i fatti sono derivabili dalla sua teoria, ma anche che essi la rendono probabile e la raccomandano per la previsione di altri fenomeni empirici. L’inferenza induttiva serve non per scoprire teorie, bensì per giustificarle in termini dei dati d’osservazione L’interpretazione mistica del metodo ipotetico deduttivo come irrazionale ricerca congetturale trae origine dalla confusione fra contesto della scoperta e contesto della giustificazione. L’atto della scoperta sfugge all’analisi logica; non vi sono regole logiche in termini delle quali si possa costruire una «macchina scopritrice» che assolva la funzione creativa del genio. D’altra parte, non tocca al logico chiarire la genesi delle scoperte scientifiche; tutto quello che egli può fare è analizzare la connessione tra i dati di fatto e le teorie avanzate per spiegare i medesimi. In altre parole, la logica si occupa soltanto del contesto della giustificazione. E la giustificazione di una teoria in termini dei dati d’osservazione è l’oggetto della dottrina dell’induzione … Se vogliamo comprendere la natura dell’inferenza induttiva, dobbiamo studiare la teoria della probabilità. Tale disciplina matematica ha sviluppato dei metodi per risolvere il problema generale della prova indiretta, problema di cui la convalida inferenziale delle teorie scientifiche non è che un caso particolare. Come illustrazione del problema generale si possono ricordare le inferenze compiute da un investigatore che cerchi 102 di scoprire il responsabile di un delitto. Vi sono alcuni dati, come un fazzoletto sporco di sangue, uno scalpello, e la scomparsa di una ricca vedova, e si prospettano diverse spiegazioni dell’accaduto. L’investigatore cerca di determinare la spiegazione più probabile. Le sue considerazioni seguono certe regole di probabilità; utilizzando tutti gli indizi di fatto e tutta la propria conoscenza della psicologia umana, egli cerca di giungere a delle conclusioni che successivamente controlla mediante ulteriori osservazioni effettuate proprio allo scopo. Ogni controllo, basato su nuovi dati, accresce o diminuisce la probabilità della spiegazione prescelta; ma questa non può mai venir ritenuta assolutamente certa. Tutti gli elementi logici necessari per analizzare il procedimento inferenziale dell’investigatore sono reperibili nel calcolo delle probabilità. Anche se nell’esempio riferito manca il materiale statistico per un computo esatto delle stesse, sarebbe possibile applicare almeno le formule del calcolo in senso qualitativo. Naturalmente, non si possono attingere risultati numericamente precisi se il materiale a disposizione consente soltanto valutazioni generiche della probabilità. I medesimi rilievi valgono per l’analisi della probabilità delle teorie scientifiche, le quali debbono anch’esse venir trascelte fra diverse possibili spiegazioni dei dati empirici. La scelta è effettuata in base a tutto il complesso delle conoscenze, nei cui confronti alcune spiegazioni appaiono più probabili delle altre. La probabilità finale è quindi il prodotto di una combinazione di diverse probabilità. Il calcolo delle probabilità offre una formula rispecchiante questo caso: la regola di Bayes, formula applicabile sia ai problemi statistici che alle inferenze dell’investigatore e a quelle dell’induzione scientifica. Perciò lo studio della logica induttiva conduce alla teoria della probabilità. La conclusione induttiva è resa probabile, non certa, dalle sue premesse, e l’induzione dev’essere concepita come un’operazione che rientra nel quadro del calcolo delle probabilità. Se si tiene presente lo sviluppo che ha trasformato le leggi causali in leggi probabilistiche, queste considerazioni chiariranno perché l’analisi della probabilità abbia tanta importanza per la comprensione della scienza moderna. La teoria della probabilità assicura sia lo strumento della previsione che la forma delle leggi naturali; il suo oggetto è il vero e proprio nerbo del metodo scientifico … 103 C.G. HEMPEL La formazione dei concetti e delle teorie nella scienza empirica Milano, 1976, pp. 30-31; 41-47 … La supposizione avanzata nel precedente paragrafo può ora venir riformulata così: tutti i termini delle scienze empiriche sono definibili mediante termini osservativi, ossia, è possibile effettuare una ricostruzione razionale del linguaggio della scienza in modo tale che tutti i primitivi siano termini osservativi e i restanti termini vengano definiti sulla loro base. Questa convinzione, tipica delle vecchie forme di positivismo ed empirismo, verrà qui denominata tesi ristretta dell’empirismo. Stando ad essa, ogni enunciato scientifico, per quanto astratto, potrebbe venir tradotto, mediante opportune definizioni dei suoi termini tecnici costitutivi, in un enunciato equivalente espresso in soli termini osservativi: la scienza si occuperebbe unicamente di osservabili. Nonostante la sua apparente plausibilità, la tesi ristretta dell’empirismo non regge a un’analisi approfondita. Vi sono infatti almeno due specie di termini a proposito delle quali essa presenta delle difficoltà: i termini disposizionali, nei cui confronti la correttezza della tesi è almeno problematica, e i termini quantitativi, nei cui riguardi tale correttezza è senz’altro esclusa … I concetti metrici, nel loro impiego teorico, appartengono alla più ampia classe dei costrutti teorici, ossia dei termini, spesso assai astratti, usati nelle fasi avanzate della formazione delle teorie scientifiche, termini quali ‘massa’, ‘punto-massa’, ‘corpo rigido’, ‘forza’, ecc., propri della meccanica classica; ‘temperatura assoluta’, ‘pressione’, ‘volume’, ‘ciclo di Carnot’, ecc., propri della termodinamica classica; ed ‘elettrone’, ‘protone’, ‘funzione Ψ’ ecc., propri della meccanica quantistica. Tali termini non sono introdotti mediante definizioni o catene riduttive sulla base di osservabili; di fatto, non vengono introdotti mediante operazioni distinte, con le quali sia assegnato un significato a ciascuno di essi. I costrutti usati in una teoria vengono piuttosto introdotti congiuntamente, cioè mediante l’elaborazione di un sistema teorico formulato nei loro stessi termini e interpretato empiricamente; il che assicura un significato empirico anche a tali costrutti. Consideriamo ora questa procedura con maggior attenzione. 104 Benché nella effettiva prassi scientifica la formulazione di una struttura teorica e la sua interpretazione non siano sempre chiaramente distinte, in quanto la seconda condiziona in modo tacito la prima, è possibile, e anzi desiderabile, per gli scopi dell’analisi logica, discriminare concettualmente i due processi. Un sistema teorico può quindi venir inteso come una teoria non interpretata e assiomatizzata, contraddistinta da (a) uno specifico insieme di termini primitivi, i quali nella teoria non sono definiti, ma servono a definire nominalmente tutti gli altri termini extra-logici in essa introdotti; e (b) un insieme di postulati, denominabili ipotesi primitive o basilari, dai quali sono ricavabili per deduzione logica gli altri enunciati della teoria. Come esempio di una fondamentale teoria scientifica rigorosamente assiomatizzata si consideri la geometria euclidea. Il suo sviluppo quale “geometria pura”, ossia quale sistema assiomatico non interpretato, è affatto indipendente, sotto l’aspetto logico, dalla sua interpretazione fisica e dalle sue applicazioni nautiche, topografiche, ecc. Nella assiomatizzazione hilbertiana i primitivi della teoria sono costituiti dai termini ‘punto’, ‘retta’, ‘piano’, ‘appartenente a’ (che designa una relazione fra un punto e una retta), ‘fra’ (che designa una relazione fra punti su una retta), ‘giacente su’ (che designa una relazione fra un punto e un piano), nonché due altri termini, che designano, rispettivamente, la congruenza fra segmenti di retta e fra angoli. Tutti i rimanenti termini, come ‘parallela’, ‘angolo’, ‘triangolo’, `circolo’, sono definiti mediante i primitivi; il termine parallela’, ad esempio, è introducibile per mezzo della seguente definizione contestuale: (7.3) x è parallela a y =Df x e y sono rette; esiste un piano sul quale x e y giacciono entrambe; ma non esiste alcun punto che appartenga sia a x che a y. I postulati sono proposizioni come: per ogni coppia di punti esiste almeno una, e soltanto una, retta cui entrambi appartengono; fra ogni coppia di punti appartenenti a una retta esiste un altro punto appartenente alla stessa retta; ecc. Da tali postulati le altre asserzioni della geometria euclidea sono attinte mediante deduzione logica, la quale, tuttavia, stabilisce i vari enunciati come teoremi di pura geometria matematica, senza garantirne la validità per l’uso nella teoria fisica e nelle sue applicazioni (determinazione d’intervalli fra enti fisici per mezzo della triangolazione, calcolo del volume di un oggetto sferico in base alla lunghezza del suo diametro, e simili). 105 Dato che nella geometria pura nessun significato specifico è attribuito ai primitivi, e quindi nemmeno ai termini definiti, tale teoria non esprime asserzioni sulle proprietà spaziali e sulle relazioni degli oggetti del mondo fisico. Una geometria fisica, cioè una teoria concernente gli aspetti spaziali dei fenomeni fisici, è ricavabile da un sistema di geometria pura con lo stabilire una specifica interpretazione dei primitivi in termini fisici. Così, ad esempio, per ottenere una geometria fisica corrispondente alla geometria pura euclidea si possono interpretare i punti, approssimativamente, come piccoli oggetti fisici, ossia oggetti le cui dimensioni sono trascurabili in rapporto alle loro reciproche distanze (punte di spillo, le intersezioni delle linee di un micrometro, ecc., o, per scopi astronomici, interi astri, o addirittura sistemi galattici); una linea retta è concepibile come la traiettoria di un raggio luminoso in un mezzo omogeneo; la congruenza d’intervalli come una relazione fisica caratterizzabile in termini di coincidenze di regoli rigidi; e così via. Un’interpretazione del genere trasforma i postulati e i teoremi della geometria pura in enunciati della fisica, e il problema della loro correttezza fattuale diviene suscettibile di – anzi senz’altro richiede – un controllo empirico. Questo fu tentato da Gauss, col misurare la somma degli angoli di un triangolo formato da raggi luminosi, al fine di stabilire se essa fosse uguale a due retti, come asserito dalla geometria fisica nella sua forma euclidea. Qualora le prove ottenute con opportuni metodi risultassero sfavorevoli, la geometria euclidea potrebbe venir rimpiazzata con una versione non euclidea meglio accordabile, unitamente alle altre parti della teoria fisica, con i dati sperimentali. Di fatto, ciò si è verificato nel caso della teoria generale della relatività. Ogni altra teoria scientifica è analogamente concepibile come l’insieme di un sistema non interpretato, sviluppato deduttivamente, e di una interpretazione conferente significato empirico ai termini e alle proposizioni di tale sistema. I termini ai quali l’interpretazione assegna direttamente un contenuto empirico possono essere o primitivi della teoria, come nell’illustrazione geometrica considerata, o termini definiti della stessa. Così, per esempio, in una ricostruzione logica della chimica i diversi elementi potrebbero venir definiti per mezzo di primitivi designanti particolari caratteristiche della loro struttura atomica; quindi, ai termini ‘idrogeno’, ‘elio’, ecc., definiti 106 nel modo indicato, sarebbe possibile dare un’interpretazione empirica facendo riferimento a loro tipiche caratteristiche macrofisiche e chimiche. Una volta interpretati in siffatta maniera alcuni termini definiti di un sistema, anche i primitivi di questo acquistano, per così dire, mediatamente un contenuto empirico, pur senza esser stati sottoposti a un’interpretazione empirica diretta. Si tratta di una procedura che appare adatta anche per l’assiomatizzazione della biologia operata da Woodger, assiomatizzazione nella quale taluni concetti definiti, come la divisione e la fusione cellulari, si prestino meglio dei primitivi a un’interpretazione empirica diretta, Un’interpretazione empirica adeguata trasforma un sistema teorico in una teoria suscettibile di prova: le ipotesi, i cui termini costitutivi sono stati interpretati, si rivelano provabili sulla base dei fenomeni osservabili. Spesso, le ipotesi interpretate appartenenti a una teoria sono quelle di natura derivativa, il che, tuttavia, non toglie che la loro conferma o invalidazione da parte degli elementi di fatto contribuisca mediatamente a rafforzare o a indebolire anche le ipotesi primitive dalle quali esse sono state dedotte. Così, per esempio, le ipotesi primitive della teoria cinetica del calore, concernendo il comportamento meccanico delle micro-particelle dei gas, non si prestano a un controllo empirico diretto; tuttavia, sono indirettamente provabili, poiché implicano ipotesi derivative, formulabili con l’ausilio di termini definiti interpretati mediante “osservabili macroscopici”, come la temperatura e la pressione di un gas. Tale duplice funzione dell’interpretazione dei termini definiti – cioè, di assicurare indirettamente un contenuto empirico ai primitivi di una teoria e di renderne le ipotesi basilari suscettibili di prova – è illustrata anche da quelle ipotesi della fisica e della chimica che fanno riferimento al valore di qualche grandezza in un punto spaziotemporale, come la velocità istantanea e l’accelerazione di una particella, o la densità, la pressione e la temperatura di una sostanza in un dato punto: nessuna di queste grandezze è direttamente osservabile e quindi nessuna delle ipotesi in questione può esser sottoposta a un controllo immediato. La connessione con i possibili dati sperimentali o empirici viene attuata col definire, avvalendosi della integrazione matematica, alcuni concetti derivati, come quelli di velocità media e di accelerazione in un dato intervallo di tempo, o di densità media in una determinata 107 regione spaziale, e con l’interpretare gli stessi in termini di fenomeni più o meno direttamente osservabili. Una teoria scientifica è pertanto paragonabile a una complessa rete sospesa nello spazio. I suoi termini sono rappresentati dai nodi, mentre i fili colleganti questi corrispondono, in parte, alle definizioni e, in parte, alle ipotesi fondamentali e derivative della teoria. L’intero sistema fluttua, per così dire, sul piano dell’osservazione, cui è ancorato mediante le regole interpretative. Queste possono venir concepite come fili non appartenenti alla rete, ma tali che ne connettono alcuni punti con determinate zone del piano di osservazione. Grazie a siffatte connessioni interpretative, la rete risulta utilizzabile come teoria scientifica: da certi dati empirici è possibile risalire, mediante un filo interpretativo, a qualche punto della rete teorica, e di qui procedere, attraverso definizioni e ipotesi, ad altri punti, dai quali, per mezzo di un altro filo interpretativo, si può infine ridiscendere al piano dell’osservazione. Così una teoria interpretata consente d’inferire il verificarsi di un fenomeno descrivibile in termini osservativi, ed eventualmente appartenente al passato o al futuro, sulla base di altri fenomeni osservabili già accertati. Ma l’apparato teorico che, con l’assicurare un ponte fra i dati di fatto acquisiti e i risultati empirici potenziali, permette di giungere a tali asserzioni su eventi futuri o passati, non è, in genere, formulabile in termini di soli osservabili. L’intera storia della scienza mostra che nel nostro mondo principi ampi, semplici e attendibili per spiegare e prevedere fenomeni osservabili non possono venir stabiliti unicamente ammassando e generalizzando induttivamente i risultati empirici. Occorre una procedura ipotetico-deduttivo-osservativa, la quale, naturalmente, è quella applicata nelle branche più avanzate della scienza empirica. Guidato dalla propria conoscenza dei dati empirici, lo scienziato deve inventare un insieme di concetti, i costrutti teorici, privi di significato empirico diretto, un sistema di ipotesi formulate in termini di questi, e un’interpretazione per la risultante rete teorica; e tutto ciò in una maniera che consenta di stabilire fra i dati dell’osservazione diretta connessioni feconde ai fini della spiegazione e della previsione. 108 K.R. POPPER, Logica della scoperta scientifica Torino 1970, pp. 5-13 Sguardo su alcuni problemi fondamentali Uno scienziato, teorico o sperimentatore, produce asserzioni o sistemi di asserzioni, e li controlla passo per passo. Nel campo delle scienze empiriche, piú in particolare, costruisce ipotesi, o sistemi di teorie e li controlla, confrontandoli con l’esperienza mediante l’osservazione e l’esperimento. Suggerisco che il compito della logica della scoperta scientifica, o logica della conoscenza, è quello di fornire un’analisi logica di questa procedura; cioè di analizzare il metodo delle scienze empiriche. Ma che cosa sono i «metodi delle scienze empiriche»? E che cosa chiamiamo «scienza empirica»? 1. Il problema dell’induzione Secondo un punto di vista largamente accettato – a cui mi opporrò in questo libro – le scienze empiriche possono essere caratterizzate dal fatto di usare i cosiddetti «metodi induttivi». Stando a questo punto di vista la logica della scoperta scientifica sarebbe identica alla logica induttiva, cioè all’analisi logica di questi metodi induttivi. Si è soliti dire che un’inferenza è «induttiva» quando procede da asserzioni singolari (qualche volta chiamate anche asserzioni «particolari») quali i resoconti dei risultati di osservazioni o di esperimenti, ad asserzioni universali, quali ipotesi o teorie. Ora, da un punto di vista logico, è tutt’altro che ovvio che si sia giustificati nell’inferire asserzioni universali da asserzioni singolari, per quanto numerose siano queste ultime; infatti qualsiasi conclusione tratta in questo modo può sempre rivelarsi falsa: per quanto numerosi siano i casi di cigni bianchi che possiamo aver osservato, ciò non giustifica la conclusione che tutti i cigni sono bianchi. La questione, se le inferenze induttive siano giustificate, o in quali condizioni lo siano, è nota come il problema dell’induzione. Il problema dell’induzione può anche essere formulato come il problema del modo per stabilire la verità di asserzioni universali 109 basate sull’esperienza, come le ipotesi e i sistemi di teorie delle scienze empiriche. Molti, infatti, credono che la verità di queste asserzioni universali sia «nota per esperienza»; tuttavia è chiaro, in primo luogo, che il resoconto di un’esperienza – di un’osservazione, o del risultato di un esperimento – può essere soltanto un’asserzione singolare e non un’asserzione universale. Di conseguenza, chi dice che conosciamo la verità di un’asserzione universale per mezzo dell’esperienza, intende di solito che la verità di quest’asserzione universale può essere ridotta in qualche modo alla verità di asserzioni singolari e che la verità di queste asserzioni singolari è nota per esperienza; ciò equivale a dire che l’asserzione universale è basata sull’inferenza induttiva. Dunque, chiedere se ci siano leggi naturali la cui verità è nota sembra soltanto un altro modo per chiedere se le inferenze induttive siano giustificate logicamente. Tuttavia, se vogliamo trovare un modo per giustificare le inferenze induttive, dobbiamo prima di tutto tentare di stabilire un principio di induzione. Un principio d’induzione sarebbe un’asserzione con l’aiuto della quale fosse possibile mettere le inferenze induttive in una forma logicamente accettabile. Agli occhi dei sostenitori della logica induttiva il principio d’induzione riveste un’estrema importanza per il metodo scientifico: «… questo principio – dice Reichenbach – determina la verità delle teorie scientifiche. Eliminarlo dalla scienza significherebbe nientemeno che privare la scienza del potere di decidere la verità o la falsità delle sue teorie. È chiaro che senza di esso la scienza non avrebbe piú il diritto di distinguere le sue teorie dalle creazioni fantastiche e arbitrarie della mente del poeta». Ora, questo principio di induzione non può essere una verità puramente logica, come una tautologia o un’asserzione analitica. In realtà, se esistesse qualcosa come un principio d’induzione puramente logico non ci sarebbe alcun problema dell’induzione, perché in questo caso tutte le inferenze induttive dovrebbero essere considerate come trasformazioni puramente logiche o tautologiche, proprio come le inferenze della logica deduttiva. Dunque il principio d’induzione dev’essere un’asserzione sintetica, cioè un’asserzione la cui negazione non è autocontraddittoria ma logicamente possibile. Sorge così la questione: perché un tale principio debba essere senz’altro accettato, e come sia possibile giustificare la sua accettazione su basi razionali. 110 Alcuni di coloro che credono nella logica induttiva sono ansiosi di mettere in evidenza, con Reichenbach, che «il principio d’induzione è accettato senza riserve da tutta quanta la scienza, e che anche nella vita di ogni giorno nessuno può metterlo seriamente in dubbio».Tuttavia, anche supponendo che ciò fosse vero – perché, dopo tutto, «tutta quanta la scienza» potrebbe sbagliare – io sosterrei ancora che il principio d’induzione è superfluo, e che non può non condurre a contraddizioni logiche. Già dall’opera di Hume si sarebbe dovuto vedere chiaramente che in relazione al principio d’induzione possono facilmente sorgere contraddizioni; e si sarebbe anche dovuto vedere che esse possono venire evitate, ammesso che lo possano, soltanto con difficoltà. Infatti il principio d’induzione dev’essere a sua volta un’asserzione universale. Dunque, se tentiamo di considerare la sua verità come nota per esperienza, risorgono esattamente gli stessi problemi che hanno dato occasione alla sua introduzione. Per giustificarlo, dovremmo impiegare inferenze induttive; e per giustificare queste ultime dovremmo assumere un principio induttivo di ordine superiore, e così via. In tal modo il tentativo di basare il principio d’induzione sull’esperienza fallisce, perché conduce necessariamente a un regresso infinito. Kant tentò di forzare la via d’uscita da questa difficoltà assumendo che il principio d’induzione (che egli formulò come «principio di causazione universale») fosse «valido a priori». Ma io non credo che il suo ingegnoso tentativo di fornire una giustificazione a priori dei giudizi sintetici abbia avuto successo. Per conto mio, ritengo che le varie difficoltà della logica induttiva qui delineate siano insormontabili. Cosí pure, temo, sono insormontabili quelle inerenti alla dottrina, oggi tanto di moda, che l’inferenza induttiva, pur non essendo «rigorosamente valida», possa raggiungere qualche grado di «credibilità» o di «probabilità». Secondo questa dottrina le inferenze induttive sono «inferenze probabili». «Abbiamo descritto – dice Reichenbach – il principio d’induzione come il mezzo grazie al quale la scienza decide sulla verità. Per essere piú esatti dovremmo dire che esso serve a decidere sulla probabilità. Infatti alla scienza non è dato di raggiungere la verità o la falsità … ma le asserzioni scientifiche possono soltanto raggiungere gradi continui di probabilità i cui limiti superiore e inferiore, peraltro irraggiungibili, sono la verità e la falsità». 111 A questo punto posso anche non tener conto del fatto che coloro i quali credono nella logica induttiva hanno un’idea della probabilità che invece io respingerò piú tardi come altamente inadatta per i loro stessi scopi. Posso farlo perché le difficoltà che ho menzionato non vengono neppure sfiorate dall’appello alla probabilità. Infatti, se alle asserzioni basate sull’inferenza induttiva si deve assegnare un certo grado di probabilità, questo dovrà essere giustificato invocando un nuovo principio d’induzione opportunamente modificato, e questo principio dovrà essere esso stesso giustificato, e cosí via. Per di più, se a sua volta si considera il principio d’induzione non come «vero», ma soltanto come «probabile», non si guadagna proprio nulla. In breve, come ogni altra forma di logica induttiva, la logica dell’inferenza probabile, o «logica della probabilità», conduce o a un regresso infinito o alla dottrina dell’apriorismo. La teoria che sarà sviluppata nelle pagine seguenti si oppone radicalmente a tutti i tentativi di operare con le idee della logica induttiva. Potrebbe essere descritta come la teoria del metodo deduttivo dei controlli, o come il punto di vista secondo cui un’ipotesi può essere soltanto controllata empiricamente, e soltanto dopo che è stata proposta. Prima di essere in grado di elaborare questo punto di vista (che potrebbe essere chiamato «deduttivismo» in contrapposizione a «induttivismo») devo anzitutto render chiara la distinzione tra la psicologia della conoscenza, che tratta di fatti empirici, e la logica della conoscenza, che prende in considerazione soltanto relazioni logiche. Infatti la credenza nella logica induttiva è dovuta, per la maggior parte, a una confusione tra problemi psicologici e problemi epistemologici. Vale forse la pena d’osservare, incidentalmente, che questa confusione reca disturbo non soltanto alla logica della conoscenza, ma anche alla psicologia della conoscenza. 2. Eliminazione dello psicologismo Nelle pagine precedenti ho detto che il lavoro dello scienziato consiste nel produrre teorie e nel metterle alla prova. Lo stadio iniziale, l’atto del concepire o dell’inventare una teoria, non mi sembra richiedere un’analisi logica né esserne suscettibile. La questione: come accada che a un uomo venga in mente un’idea nuova – un tema musicale, o un conflitto drammatico o una teoria scientifica – può rivestire un grande interesse per la psicologia empirica ma è 112 irrilevante per l’analisi logica della conoscenza scientifica. Quest’ultima prende in considerazione non già questioni di fatto (il quid facti? di Kant), ma soltanto questioni di giustificazione o validità (il quid juris? di Kant). Le sue questioni sono del tipo seguente. Può un’asserzione essere giustificata? E, se lo può, in che modo? È possibile sottoporla a controlli? È logicamente dipendente da certe altre asserzioni? O le contraddice? Perché un’asserzione possa essere esaminata logicamente in questo modo, dev’esserci già stata presentata; qualcuno deve averla formulata e sottoposta ad esame logico. Di conseguenza farò una netta distinzione tra il processo che consiste nel concepire una nuova idea, e i metodi e i risultati dell’esaminarla logicamente. Per quanto riguarda il compito della logica della conoscenza – in quanto distinta dalla psicologia della conoscenza – procederò basandomi sul presupposto che esso consista unicamente nell’investigare i metodi impiegati in quei controlli sistematici ai quali dev’essere sottoposta ogni nuova idea che si debba prendere seriamente in considerazione. Qualcuno potrebbe obbiettare che sarebbe piú rispondente allo scopo il considerare ufficio dell’epistemologia la produzione di quella che è stata chiamata la «ricostruzione razionale» dei passi che hanno condotto lo scienziato a scoprire – a trovare – qualche nuova verità. Ma la questione è: che cosa, precisamente, vogliamo ricostruire? Se ciò che si deve ricostruire sono i processi che entrano in giuoco quando si stimola o si dà sfogo a un’ispirazione, allora rifiuto di considerare questa ricostruzione come il compito della logica della conoscenza. I processi in parola interessano la psicologia empirica, non la logica. Se invece vogliamo ricostruire razionalmente i controlli successivi in seguito ai quali si può scoprire che l’ispirazione è una scoperta, o diventa noto che è una conoscenza, questa è un’altra faccenda. Siccome lo scienziato giudica criticamente, altera o respinge la propria ispirazione, possiamo, se proprio lo vogliamo, considerare l’analisi metodologica qui intrapresa come una specie di «ricostruzione razionale» dei processi di pensiero corrispondenti. Ma questa ricostruzione non riesce a descrivere tali processi come avvengono nel fatto: essa può soltanto fornire un’impalcatura logica della procedura dei controlli. Forse però coloro che parlano di una «ricostruzione razionale» dei modi in cui otteniamo le nostre conoscenze non intendono dire niente di più. 113 Accade cosí che le argomentazioni che espongo in questo libro siano del tutto indipendenti da questo problema. Comunque, il mio modo di vedere la cosa – per quello che vale – è che non esista nessun metodo logico per avere nuove idee, e nessuna ricostruzione logica di questo processo. Il mio punto di vista si può esprimere dicendo che ogni scoperta contiene un «elemento irrazionale» o «un’intuizione creativa» nel senso di Bergson. In modo analogo, Einstein parla della «ricerca di quelle leggi altamente universali … dalle quali possiamo ottenere un’immagine del mondo grazie alla pura deduzione. Non esiste alcuna via logica, egli dice, che conduca a queste … leggi. Esse possono essere raggiunte soltanto tramite l’intuizione, basata su un alcunché che possiamo chiamare immedesimazione (Einfühlung) cogli oggetti d’esperienza». 3. Controlli deduttivi delle teorie Secondo il punto di vista che sarà esposto qui, il metodo consistente nel sottoporre le teorie a controlli critici e nello scegliere secondo i risultati dei controlli, procede sempre lungo le linee seguenti. Da una nuova idea, avanzata per tentativi e non ancora giustificata in alcun modo – una anticipazione, un’ipotesi, un sistema di teorie, o qualunque cosa si preferisca – si traggono conclusioni per mezzo della deduzione logica. In un secondo tempo queste conclusioni vengono confrontate l’una con l’altra, e con altre asserzioni rilevanti, in modo da trovare quali relazioni logiche (come equivalenza, derivabilità, compatibilita o incompatibilità) esistano tra di esse. Volendo, possiamo distinguere quattro differenti linee lungo le quali si può eseguire il controllo di una teoria. Per primo viene il confronto logico delle conclusioni tra loro: confronto per mezzo del quale si controlla la coerenza interna del sistema. In secondo luogo viene l’indagine della forma logica della teoria, il cui scopo è di determinare se la teoria abbia carattere di teoria empirica o di teoria scientifica, o se sia, per esempio, tautologica. In terzo luogo viene il confronto con altre teorie, il cui scopo principale è quello di determinare se la teoria costituisca un progresso scientifico, nel caso che sopravviva ai vari controlli a cui l’abbiamo sottoposta. E infine c’e il controllo della teoria condotto mediante le applicazioni empiriche delle conclusioni che possono essere derivate da essa. 114 Scopo di quest’ultimo tipo di controllo è di scoprire fino a qual punto le nuove conseguenze della teoria – qualunque cosa di nuovo possa esserci in ciò che essa asserisce – vengano incontro alle richieste della pratica, sia a quelle sollevate da esperimenti puramente scientifici, sia a quelle che derivano da applicazioni tecnologiche pratiche. Anche qui la procedura dei controlli rivela il proprio carattere deduttivo. Con l’aiuto di altre asserzioni già accettate in precedenza si deducono dalla teoria certe asserzioni singolari che possiamo chiamare «predizioni»: in particolar modo predizioni che possano essere controllate o applicate con facilità. Tra queste asserzioni scegliamo quelle che non sono derivabili dalla teoria corrente, e, più in particolare, quelle che la teoria corrente contraddice. In seguito andiamo alla ricerca di una decisione riguardante queste (e altre) asserzioni derivate, confrontando queste ultime con i risultati delle applicazioni pratiche e degli esperimenti. Se questa decisione è positiva, cioè se le singole conclusioni si rivelano accettabili o verificate, la teoria ha temporaneamente superato il controllo: non abbiamo trovato alcuna ragione per scartarla. Ma se la decisione è negativa, o, in altre parole, se le conclusioni sono state falsificate, allora la loro falsificazione falsifica anche la teoria da cui le conclusioni sono state dedotte logicamente. È opportuno notare che una decisione positiva può sostenere la teoria soltanto temporaneamente, perché può sempre darsi che successive decisioni negative la scalzino. Finché una teoria affronta con successo controlli dettagliati e severi, e nel corso del progresso scientifico non è scalzata da un’altra teoria, possiamo dire che ha «provato il suo valore» o che è stata «corroborata» dall’esperienza passata. Nel procedimento delineato qui non compare nulla che somigli alla logica induttiva. Io non presuppongo mai che si possa concludere dalla verità delle asserzioni singolari alla verità delle teorie. Non presuppongo mai che le teorie possano essere provate «vere» o anche semplicemente «probabili» in forza di conclusioni «verificate». In questo libro intendo fornire un’analisi piú dettagliata dei metodi dei controlli deduttivi; e tenterò di mostrare che nell’ambito di quest’analisi si possono trattare tutti i problemi che di solito si chiamano «epistemologici». In particolare che si possono eliminare quei problemi a cui la logica induttiva da origine, senza farne sorgere dei nuovi al loro posto. 115 K.R. POPPER, Conoscenza oggettiva Roma 1975, pp. 343-351;450-453 Alcune considerazioni sui problemi e sullo sviluppo della conoscenza Passo ora alla prima parte della mia conferenza: alla teoria generale della conoscenza. La ragione per cui sento di dover cominciare con qualche commento sulla teoria della conoscenza è che sono a proposito in disaccordo quasi con tutti, tranne che forse con Charles Darwin e Albert Einstein, (Einstein, tra parentesi, illustrò il suo punto di vista su tali questioni nella sua Herbert Spencer Lecture nel 1933). Il punto principale in discussione è la relazione fra osservazione e teoria. Credo che la teoria – una teoria o una aspettativa almeno rudimentale – venga sempre per prima; che essa preceda sempre l’osservazione; e che il ruolo fondamentale dell’osservazione e dei controlli sperimentali sia mostrare che alcune delle nostre teorie siano false, e così stimolarci a produrne di migliori. Di conseguenza asserisco che noi non partiamo da osservazioni ma sempre da problemi – sia da problemi pratici sia da una teoria che si trovi in difficoltà. Una volta che ci troviamo difronte a un problema, possiamo cominciare a lavorarci su. Possiamo farlo con due specie di tentativi: possiamo procedere prima tentando di congetturare o supporre una soluzione al nostro problema; e possiamo quindi tentare di criticare la nostra supposizione di solito alquanto debole. Talvolta una supposizione o una congettura può resistere alle nostre critiche e ai nostri controlli sperimentali per qualche tempo. Ma, di regola, troviamo che le nostre congetture possono essere confutate, o che esse non risolvono il nostro problema, o che lo risolvono solo in parte; e troviamo che anche le migliori soluzioni – quelle che sono in grado di resistere alle critiche più severe delle menti più brillanti e ingegnose – danno subito luogo a nuove difficoltà, a nuovi problemi. Così possiamo dire che lo sviluppo della conoscenza procede da vecchi problemi a nuovi problemi, mediante congetture e confutazioni. Alcuni di voi, suppongo, saranno d’accordo che noi di solito partiamo da problemi; ma potete ancora pensare che i nostri problemi 116 devono essere il risultato dell’osservazione e dell’esperimento, dato che tutti voi avete familiarità con l’idea che non può esservi nulla nel nostro intelletto che non vi sia entrato attraverso i sensi. Ma è proprio questa venerabile idea quella che io combatto. Asserisco che ogni animale nasce con aspettative o anticipazioni, che potrebbero essere inquadrate come ipotesi; un certo tipo di conoscenza ipotetica. E asserisco che abbiamo, in questo senso, qualche grado di conoscenza innata da cui possiamo cominciare, anche se può essere del tutto priva di affidabilità. Questa conoscenza innata, queste aspettative innate creeranno, se deluse, i nostri primi problemi; e la crescita della conoscenza che ne deriva può perciò essere descritta come se fosse costituita interamente da correzioni e modificazioni della conoscenza precedente. Così ribalto la posizione di coloro che pensano che l’osservazione deve precedere aspettative e problemi; e asserisco anche che, per ragioni logiche, l’osservazione non può precedere tutti i problemi, anche se ovviamente sarà spesso anteriore ad alcuni problemi – per esempio a quei problemi che nascono da un’osservazione che delude qualche aspettativa o confuta qualche teoria. Il fatto che l’osservazione non può precedere tutti i problemi può essere illustrato da un semplice esperimento che desidero realizzare, con il vostro permesso, con voi stessi come soggetti sperimentali. Il mio esperimento consiste nel chiedervi di osservare, qui e ora. Spero che voi tutti cooperiate e osserviate! Tuttavia, temo che almeno alcuni di voi, invece di osservare, sentiranno fortemente l’impulso di chiedere: “Cosa vuole che osservi?” Se questa è la vostra risposta, allora il mio esperimento ha avuto successo. Infatti, ciò che cerco di illustrare è che, allo scopo di osservare, dobbiamo avere in mente un problema definito che potremmo essere in grado di decidere mediante osservazione. Darwin sapeva questo quando scriveva: “Come è strano che nessuno si accorga che qualsiasi osservazione deve essere pro o contro un punto di vista …” [Né “osserva!” (senza l’indicazione di che cosa) né “osserva questo ragno!” è un imperativo chiaro. Ma “osserva se questo ragno si arrampica in su o in giù, come mi aspetto che faccia!” sarebbe abbastanza chiaro]. Non posso ovviamente sperare di convincervi della verità della mia tesi che l’osservazione viene dopo l’aspettativa o l’ipotesi. Ma spero di avervi saputo mostrare che può esistere un’alternativa alla 117 venerabile dottrina che la conoscenza, e specialmente la conoscenza scientifica, parta sempre dall’osservazione. Consideriamo ora un po’ più da vicino questo metodo di congettura e confutazione che, secondo la mia tesi, è il metodo con cui la nostra conoscenza si sviluppa. Partiamo, dico, da un problema, una difficoltà. Può essere pratica o teorica. Qualunque cosa possa essere quando incontriamo per la prima volta il problema, non possiamo ovviamente saperne molto. Al massimo, abbiamo solo un’idea vaga di ciò in cui consiste il nostro problema. Come possiamo allora produrre una soluzione adeguata? Ovviamente, non possiamo. Dobbiamo anzitutto familiarizzarci meglio con il nostro problema. Ma come? La mia risposta è molto semplice: producendo una soluzione inadeguata, e criticandola. Solo in questo modo possiamo arrivare a comprendere il problema. Infatti, comprendere un problema significa comprenderne le difficoltà; e comprenderne le difficoltà significa comprendere perché esso non sia facilmente risolubile – perché le soluzioni più ovvie non funzionino. Dobbiamo perciò produrre queste soluzioni più ovvie; e dobbiamo criticarle, allo scopo di trovare perché esse non funzionino. In questo modo, ci familiarizziamo con il problema, e possiamo procedere da cattive soluzioni ad altre migliori – sempre purché abbiamo l’abilità creativa di produrre nuove congetture, e sempre nuove congetture. Questo penso sia ciò che si intende con “lavorare su un problema”. E se abbiamo lavorato abbastanza a lungo su un problema, e abbastanza intensamente, cominciamo a conoscerlo, a comprenderlo, nel senso che sappiamo che tipo di supposizione o congettura o ipotesi non funzionerà affatto, semplicemente perché perde di vista il punto del problema, e che tipo di requisiti deve soddisfare qualsiasi serio tentativo di risolverlo. In altre parole, cominciamo a vedere le ramificazioni del problema, i suoi sottoproblemi, e la sua connessione con altri problemi. (È solo a questo stadio che una soluzione nuova congetturata dovrebbe essere sottoposta alla critica di altri, e forse anche pubblicata). Se ora consideriamo quest’analisi, troviamo che si adatta alla nostra formula, che stabiliva che il progresso della conoscenza è da vecchi a nuovi problemi, mediante congetture e tentativi critici di confutarle. Infatti anche il processo di familiarizzarci sempre più con un problema procede in accordo con questa formula. 118 Allo stadio successivo il nostro tentativo di soluzione è discusso e criticato; ognuno tenta di trovare un errore in esso e di confutarlo, e qualunque possa essere il risultato di questi tentativi, certamente impareremo da essi. Se le critiche dei nostri amici o dei nostri oppositori avranno successo, avremo imparato molto riguardo al nostro problema: riguardo alle sue difficoltà inerenti sapremo più di quanto sapevamo prima. E se anche i nostri critici più acuti falliranno, se la nostra ipotesi saprà resistere alle loro critiche, allora di nuovo avremo imparato molto: sia riguardo al problema sia riguardo alla nostra ipotesi, alla sua adeguatezza e alle sue ramificazioni. E finché la nostra ipotesi sopravvive, almeno finché funziona meglio, alla luce delle critiche, che i suoi rivali, essa può, in via temporanea e di tentativo, essere accettata come parte dell’insegnamento scientifico corrente. Tutto ciò si può esprimere dicendo che lo sviluppo della nostra conoscenza è il risultato di un processo strettamente rassomigliante a quello chiamato da Darwin “selezione naturale”; cioè, la selezione naturale delle ipotesi: la nostra conoscenza consiste, in ogni momento, di quelle ipotesi che hanno dimostrato il loro (relativo) adattamento sopravvivendo fino ad ora nella lotta per l’esistenza; una lotta concorrenziale che elimina quelle ipotesi che sono inadatte. Questa interpretazione può essere applicata alla conoscenza animale, alla conoscenza prescientifica e a quella scientifica. Ciò che è peculiare alla conoscenza scientifica è questo: che la lotta per l’esistenza è resa più dura dalle critiche consapevoli e sistematiche delle nostre teorie. Così mentre la conoscenza animale e la conoscenza prescientifica si sviluppano per lo più attraverso l’eliminazione di coloro che sostengono le ipotesi inadatte, la critica scientifica spesso fa perire le nostre teorie al nostro posto, eliminando le nostre credenze errate prima che tali credenze portino alla nostra eliminazione. Questa descrizione della situazione è intesa a descrivere come la conoscenza si sviluppi realmente. Non è intesa in senso metaforico, sebbene ovviamente faccia uso di metafore. La teoria della conoscenza che desidero proporre è una teoria largamente darwiniana dello sviluppo della conoscenza. Dall’ameba a Einstein, lo sviluppo della conoscenza è sempre il medesimo: tentiamo di risolvere i nostri problemi, e di ottenere, con un processo di eliminazione, qualcosa che appaia più adeguato nei nostri tentativi di soluzione. 119 E tuttavia, qualcosa di nuovo è emerso a livello umano. Affinché ciò possa essere visto subito, sottolineerò le differenze fra l’albero dell’evoluzione e quello che potrebbe chiamarsi il crescente albero della conoscenza. L’albero dell’evoluzione si sviluppa da un tronco comune in sempre nuovi rami. È come un albero genealogico: il tronco comune è formato dai nostri antenati comuni unicellulari, gli antenati di tutti gli organismi. I rami rappresentano sviluppi successivi, molti dei quali si sono, per usare la terminologia di Spencer, “differenziati” in forme altamente specializzate ognuna delle quali è così “integrata” che può risolvere le sue difficoltà particolari, i suoi problemi di sopravvivenza. L’albero dell’evoluzione dei nostri utensili e strumenti appare molto simile. Probabilmente cominciò con una pietra e un bastone; ma, sotto l’influenza di problemi sempre più specializzati, si è diramato in un vasto numero di forme altamente specializzate. Ma se noi ora confrontiamo questi crescenti alberi evoluzionistici con la struttura dello sviluppo della nostra conoscenza, troviamo allora che l’albero crescente della conoscenza umana ha una struttura estremamente differente. In verità, lo sviluppo della conoscenza applicata è molto simile allo sviluppo degli utensili e altri strumenti: vi sono applicazioni sempre più differenti e specializzate. Ma la pura conoscenza (o la “ricerca fondamentale”, come talvolta viene chiamata) si sviluppa in modo molto diverso. Si sviluppa per lo più in direzione opposta a questa crescente specializzazione e differenziazione. Come notò Herbert Spencer, essa è largamente dominata da una tendenza verso una crescente integrazione in teorie unificate. Questa tendenza divenne del tutto ovvia quando Newton combinò la meccanica terrestre di Galileo con la teoria dei movimenti celesti di Keplero; ed è sempre rimasta viva da allora. Quando abbiamo parlato dell’albero dell’evoluzione abbiamo assunto naturalmente, che la direzione del tempo è verso l’alto – come si sviluppano gli alberi. Assumendo la stessa direzione del tempo verso l’alto, avremmo dovuto rappresentare l’albero della conoscenza come se spuntasse da innumerevoli radici che crescono nell’aria piuttosto che in basso e che alla fine in alto tendono a unirsi in un tronco comune. In altre parole, la struttura evoluzionistica dello sviluppo della conoscenza pura è quasi l’opposto di quella dell’albero 120 evoluzionistico degli organismi viventi, o degli strumenti umani o della conoscenza applicata. La crescita integrativa dell’albero della conoscenza pura deve ora essere spiegata. È il risultato del nostro scopo particolare nella nostra ricerca della conoscenza pura – lo scopo di soddisfare la nostra curiosità spiegando le cose. Ed è, inoltre, il risultato dell’esistenza di un linguaggio umano che non solo ci abilita a descrivere situazioni di fatto, ma anche ad argomentare intorno alla verità delle nostre descrizioni; cioè, a criticarle. Nella ricerca della conoscenza pura il nostro scopo è, molto semplicemente, di comprendere, di rispondere a questioni sul come e sul perché. Queste sono questioni cui si risponde dando una spiegazione. Così tutti i problemi di conoscenza pura sono problemi di spiegazione. Questi problemi possono ben originarsi in problemi pratici. Così il problema pratico, “Cosa si può fare per combattere la povertà?” ha condotto al problema puramente teorico, “Perché ci sono poveri?”, e di qui alla teoria dei salari e dei prezzi, e così via; in altre parole, alla teoria economica pura, che naturalmente crea costantemente i suoi propri problemi nuovi. In questo sviluppo i problemi trattati – e specialmente i problemi irrisolti – si moltiplicano, e si differenziano, come fanno sempre quando la nostra conoscenza si sviluppa. Tuttavia la teoria esplicativa stessa ha dimostrato quello sviluppo integrativo descritto per la prima volta da Spencer. Per prendere un esempio analogo dalla biologia, abbiamo l’assai urgente problema pratico di combattere epidemie come il vaiolo. Tuttavia dalla prassi dell’immunizzazione passiamo alla teoria dell’immunologia e di qui alla teoria della formazione degli anticorpi – un campo della biologia pura famoso per la profondità dei suoi problemi, e per la capacità di moltiplicarsi propria dei suoi problemi. I problemi di spiegazione sono risolti proponendo teorie esplicative; e una teoria esplicativa può essere criticata mostrando che essa è o in se stessa inconsistente o incompatibile con i fatti o incompatibile con qualche altra conoscenza. Tuttavia questa critica assume che ciò che desideriamo trovare sono teorie vere – teorie che concordino con i fatti. È, penso, questa idea di verità come corrispondenza con i fatti che rende possibile la critica razionale. Insieme con il fatto che la nostra curiosità, la nostra passione di spiegare mediante teorie unificate, è universale e illimitata, il nostro 121 scopo di approssimarci sempre più alla verità spiega lo sviluppo integrativo dell’albero della conoscenza. Sottolineando la differenza fra l’albero evoluzionistico degli strumenti e quello della conoscenza pura spero, incidentalmente, di offrire qualcosa come una confutazione del punto di vista ora così di moda per cui la conoscenza umana può essere compresa solo come uno strumento nella nostra lotta per la sopravvivenza. Tutto ciò può servire da avvertimento contro un’interpretazione troppo ristretta di ciò che ho detto intorno al metodo delle congetture e confutazioni, e alla sopravvivenza dell’ipotesi più adatta. Tuttavia non è in alcun modo in conflitto con ciò che ho detto. Infatti non ho stabilito che l’ipotesi più adatta è sempre quella che agevola la nostra sopravvivenza. Ho detto piuttosto che l’ipotesi più adatta è quella che meglio risolve il problema che era designata a risolvere, e che resiste alle critiche meglio delle ipotesi concorrenti. Se il nostro problema è puramente teorico – quello di trovare una spiegazione puramente teorica – allora le critiche saranno regolate dall’idea di verità, o di avvicinamento alla verità, piuttosto che dall’idea di aiutarci a sopravvivere. Parlando qui di verità, desidero chiarire che il nostro scopo è di trovare teorie vere o almeno teorie che sono più vicine alla verità piuttosto che le teorie che ci sono note al presente. Ciononostante questo non significa che possiamo conoscere per certo che una qualsiasi delle nostre teorie esplicative sia vera. Possiamo essere in grado di criticare una teoria esplicativa, e stabilirne la falsità. Ma una buona teoria esplicativa è sempre un’audace anticipazione delle cose future. Dovrebbe essere controllabile e criticabile, ma non potrà essere mostrata vera; e se prendiamo la parola “probabile” in uno dei tanti sensi che soddisfano il calcolo delle probabilità, allora non può mai essere mostrata “probabile” (cioè più probabile della sua negazione). Questo fatto è tutt’altro che sorprendente. Infatti, sebbene abbiamo acquistato l’arte della critica razionale, e l’idea regolativa che una spiegazione vera è una che corrisponde ai fatti, nient’altro è mutato; il procedimento fondamentale dello sviluppo della conoscenza rimane quello delle congetture e confutazioni, dell’eliminazione di spiegazioni inadatte; e dato che l’eliminazione di un numero finito di tali spiegazioni non può ridurre l’infinità delle spiegazioni possibili sopravvissute, Einstein può errare, precisamente come l’ameba. 122 Così non possiamo attribuire la verità o la probabilità alle nostre teorie. L’uso di standard come verità e approssimazione alla verità, giuoca un ruolo solo nell’ambito della nostra critica. Possiamo rigettare una teoria come non vera; e possiamo rigettare una teoria come meno approssimata alla verità di uno dei suoi predecessori o competitori. Posso forse mettere insieme ciò che ho detto sotto forma di due brevi tesi. (i) Siamo fallibili e soggetti all’errore; ma possiamo imparare dai nostri errori. (ii) Non possiamo giustificare le nostre teorie, ma possiamo razionalmente criticarle, e adottare in via di tentativo quelle che sembrano resistere meglio alle nostre critiche, e che hanno il maggiore potere esplicativo. Concludo così la prima parte della mia conferenza. [Due teorie della conoscenza] … Ad ogni istante del nostro sviluppo pre-scientifico o scientifico viviamo al centro di quello che io chiamo di solito un “orizzonte di aspettative”. Con questo intendo la somma totale delle nostre aspettative, sia che siano subconsce sia che siano consce, o forse anche stabilite esplicitamente in un linguaggio. Gli animali e gli infanti hanno anche i loro vari e differenti orizzonti di aspettative sebbene senza dubbio a un livello di consapevolezza più basso che, ad esempio, uno scienziato il cui orizzonte di aspettative consiste in misura considerevole di teorie o ipotesi formulate linguisticamente. I vari orizzonti di aspettative differiscono, ovviamente, non solo perché sono più o meno consci, ma anche nel loro contenuto. Tuttavia in tutti questi casi l’orizzonte di aspettative giuoca la parte di un quadro di riferimento: solo il loro disporsi in questo quadro conferisce senso o significato alle nostre esperienze, azioni e osservazioni. … Tutto questo si applica, più specificamente, alla formazione di ipotesi scientifiche. Infatti noi apprendiamo solo dalle nostre ipotesi che genere di osservazioni dovremmo fare: in che direzione dovremmo dirigere la nostra attenzione; a cosa interessarci. Così è l’ipotesi che diviene la nostra guida, e che ci conduce a nuovi risultati osservativi. Questa è la concezione che ho chiamato “teoria del faro” (in contapposizione alla “teoria del recipiente”). [Secondo la teoria del 123 faro, le osservazioni sono subordinate alle ipotesi]. Le osservazioni giocano tuttavia un ruolo importante come controlli cui un’ipotesi deve sottostare nel corso della sua analisi [critica]. Se l’ipotesi non supera l’esame, se essa è falsificata dalle nostre osservazioni, allora dobbiamo cercare una nuova ipotesi. In questo caso la nuova ipotesi verrà dopo quelle osservazioni che hanno portato alla falsificazione o al rigetto della vecchia ipotesi. Tuttavia ciò che ha reso le osservazioni interessanti e rilevanti e ha dato completo avvio ad esse all’inizio è stata la prima, vecchia [e ora rigettata] ipotesi. In questo modo la scienza appare chiaramente una prosecuzione diretta del lavoro prescientifico di riparazione dei nostri orizzonti di aspettative. La scienza non parte mai dal nulla; non può mai essere descritta come libera da assunzioni; infatti ad ogni istante essa presuppone un orizzonte di aspettative, per così dire. La scienza attuale è costruita su quella di ieri [e quindi è il risultato del faro di ieri]; e la scienza di ieri, a sua volta, è basata su quella dell’altro ieri. E le più antiche teorie scientifiche sono costruite su miti prescientifici, e questi, a loro volta, su aspettative ancora più antiche. Ontogeneticamente (cioè rispetto allo sviluppo dell’organismo individuale) regrediamo quindi allo stato delle aspettative di un neonato: filogeneticamente (rispetto all’evoluzione della specie, il philum) giungiamo fino allo stato delle aspettative degli organismi unicellulari. (Non vi è qui alcun pericolo di un regresso infinito vizioso – se non altro perché ogni organismo è nato con un orizzonte di aspettative). Vi è per così dire solo un passo dall’ameba ad Einstein. 124 4 DINAMICA DELLA SCIENZA 4.1 Il Neo-Positivismo Nell’ambito del neo-positivismo si condivideva una concezione cumulativa dello sviluppo del sapere scientifico: si riteneva che la nuova teoria non soppiantasse radicalmente la vecchia, ma ne costituisse un’estensione, di cui la vecchia teoria, se confermata, veniva a costituire un caso limite (modello “Matrioska” del progresso scientifico). Esempio: La teoria di Einstein comprende come caso-limite anche la teoria newtoniana del medio cosmo. Ciò implica che: – gli assiomi di T (vecchia teoria) possono essere dimostrati come teoremi di T’ (nuova teoria): condizione di coerenza; – i concetti primitivi di T sono definibili in termini di concetti primitivi di T’; esempio: i concetti di spazio e tempo della fisica newtoniana sono definibili nei termini delle nozioni di spazio e tempo della fisica einsteiniana: condizione di invarianza di significato. ⇓ Le teorie sono confrontabili e compatibili. 125 4.2 Il Falsificazionismo La modifica del criterio di controllo operata da Popper si riflette anche sulla sua concezione del rapporto che intercorre tra teorie. Come si è appena visto, per i neo-positivisti la dinamica della scienza si realizza attraverso l’accumulo di teorie che vengono confermate nella loro validità per ambiti sempre più vasti; per Popper, invece, il progresso scientifico si realizza innanzitutto grazie alla eliminazione di teorie falsificate. Ciò comporta che nell’ambito del falsificazionismo venga a cadere la condizione di coerenza tra teorie. Infatti: Anche per Popper le teorie sono tra loro confrontabili ⇒ vale la condizione di invarianza di significato. Ma: Ciò che si è rivelato falso al controllo empirico rimane tale e non può essere inglobato come caso-limite entro una teoria più vasta ⇒ Le teorie non sono tra loro compatibili ⇒ viene meno la condizione di coerenza: gli assiomi di T non possono essere dimostrati come teoremi di T’ ⇒ in alcune circostanze viene meno il concetto cumulativo del progresso scientifico. Tuttavia: nel caso di teorie o parti di teorie non falsificate, anche Popper ritiene che si possa intendere il progresso scientifico come un processo graduale, in cui la nuova teoria si raccomanda perché più generale, semplice, precisa rispetto alla precedente. Il progresso scientifico è, secondo Popper, un processo di sempre maggior avvicinamento alla verità ⇒ verosimiglianza (cfr. capitolo sul realismo). 4.3 L’epistemologia post-popperiana In riferimento alla dinamica della scienza, l’epistemologia postpopperiana rifiuta sia la condizione di coerenza, sia quella di invarianza di significato. Per Feyerabend, ad esempio, la pratica scientifica spesso le viola. “Si può trattare il caso della condizione di coerenza in poche parole: è risaputo … che la teoria di Newton è in contrasto con la legge di 126 Galileo sulla caduta dei gravi e con le leggi di Keplero; che la termodinamica statistica è in contrasto con la seconda legge della teoria fenomenologica; che l’ottica ondulatoria non è coerente con l’ottica geometrica, e così di seguito” (Feyerabend, Come essere un buon empirista, pp. 17-18). Anche la condizione di invarianza di significato cade sotto il fuoco della critica di Feyerabend: se la scienza ‘anarchica’ progredisce grazie alla dialettica tra teorie reciprocamente incompatibili, non è né necessario né opportuno ricorrere a definizioni o leggi-ponte che connettano i significati delle differenti teorie. In generale, anche se non sempre in modo coerente, l’epistemologia post-popperiana rifiuta lo stesso concetto di progresso scientifico. “È soltanto durante i periodi di scienza normale che il progresso sembra evidente e sicuro; durante i periodi di rivoluzione, quando le dottrine fondamentali di un campo sono ancora una volta in discussione, vengono ripetutamente avanzati dubbi sulla possibilità di una continuazione del progresso qualora venga adottato questo o quello dei paradigmi che si fronteggiano”(Kuhn, SRS, pp. 196-7). D’altronde, c’è bisogno della verità nella scienza? C’è bisogno di pensare che la scienza si avvicini progressivamente alla verità? “Ma è poi necessario che esista un tale scopo? Non è possibile render conto sia dell’esistenza della scienza che del suo successo in termini di evoluzione a partire dallo stato della conoscenza posseduta dalla comunità ad ogni dato periodo di tempo? È veramente d’aiuto immaginare che esista qualche completa, oggettiva, vera spiegazione della natura e che la misura appropriata della conquista scientifica è la misura in cui essa si avvicina a questo scopo finale? Se impareremo a sostituire l’evoluzione verso ciò che vogliamo conoscere con l’evoluzione a partire da ciò che conosciamo, nel corso di tale processo, un gran numero di problemi inquietanti può dissolversi”(SRS, pp. 205-6). 127 PARTE ANTOLOGICA C.G. HEMPEL, Aspetti della spiegazione scientifica Milano, 1986, pp. 32-34 Gli esempi che abbiamo finora considerato illustrano la spiegazione deduttiva di eventi particolari mediante leggi empiriche. Ma la scienza empirica solleva la domanda «Perché?» anche riguardo alle uniformità espresse da tali leggi e spesso risponde ad essa, nuovamente, per mezzo di una spiegazione nomologico-deduttiva, in cui l’uniformità in questione è sussunta sotto leggi più comprensive o sotto principi teorici. Per esempio, alla domanda sul perché i corpi in caduta libera si muovano in conformità con la legge di Galileo e perché il moto dei pianeti manifesti le uniformità espresse dalle leggi di Keplero, si risponde mostrando che queste leggi non sono altro che conseguenze particolari delle leggi newtoniane della gravitazione universale e del moto. Analogamente, si rende ragione delle uniformità espresse dalle leggi dell’ottica geometrica, come quelle della propagazione rettilinea della luce, della riflessione e della rifrazione, in base alla loro sussunzione sotto i principi dell’ottica ondulatoria. Per brevità, parleremo talvolta ellitticamente di spiegazione di una legge, anziché dell’uniformità da essa espressa. Si deve però osservare che, nelle illustrazioni menzionate, la teoria addotta non implica, a rigore, le presunte leggi generali che debbono essere spiegate; essa implica, invece, che quelle leggi sono valide soltanto entro un campo limitato, e anche qui in misura solo approssimativa. In questo senso, la legge della gravitazione universale di Newton implica che l’accelerazione di un corpo in caduta libera non è costante, come invece asserisce la legge di Galileo, ma subisce un aumento lievissimo, sebbene regolare, via via che il corpo si avvicina alla terra. Ma sebbene la legge di Newton contraddica, a rigore, quella di Galileo, essa mostra che quest’ultima è soddisfatta quasi esattamente nella caduta libera su brevi distanze. Più esattamente, potremmo dire che la teoria newtoniana della gravitazione universale e del moto implica delle sue proprie leggi 128 circa la caduta libera in varie condizioni. In base ad una di queste, l’accelerazione di un piccolo oggetto che cade liberamente su un corpo sferico omogeneo varia in proporzione inversa al quadrato della sua distanza dal centro della sfera e quindi aumenta nel corso della caduta, e l’uniformità espressa da questa legge viene spiegata in senso strettamente deduttivo in base alla teoria newtoniana. Ma, una volta connessa all’assunzione che la terra è una sfera omogenea di massa e raggio specificati, la legge in questione implica che, per quanto riguarda la caduta libera su brevi distanze in prossimità della superficie della terra, la legge di Galileo è valida con un alto grado di approssimazione; in questo senso, si potrebbe dire che la teoria fornisce una spiegazione N-D approssimativa della legge di Galileo. Ancora, nel caso del moto dei pianeti la teoria newtoniana implica che, dal momento che un pianeta è soggetto all’attrazione gravitazionale non soltanto da parte del sole ma anche da parte di altri pianeti, la sua orbita non sarà perfettamente ellittica, ma manifesterà certe deviazioni. Quindi, come ha osservato Duhem, la legge della gravitazione universale di Newton, ben lungi dall’essere una generalizzazione induttiva basata sulle leggi di Keplero, è invece, a rigore, incompatibile con esse. Una delle sue più importanti credenziali è costituita precisamente dal fatto che essa mette in grado l’astronomo di calcolare le deviazioni dei pianeti dalle orbite ellittiche assegnate loro da Keplero. Una relazione analoga sussiste fra i principi dell’ottica ondulatoria e le leggi dell’ottica geometrica. Ad esempio, la prima postula una «svolta» diffrattiva della luce attorno agli ostacoli – un fenomeno escluso dalla concezione secondo cui la luce è composta di raggi che viaggiano in linea retta. Ma, analogamente alla precedente esemplificazione, la spiegazione della teoria ondulatoria implica che le leggi della propagazione, della riflessione e della rifrazione rettilinee della luce, quali vengono formulate nella geometria ottica, sono soddisfatte con un alto grado di approssimazione entro un campo limitato di casi, inclusi quelli che hanno fornito una conferma sperimentale alle leggi nella loro formulazione originale. In generale, la spiegazione basata su principi teorici amplia e approfondisce la nostra comprensione dei fenomeni empirici considerati. Essa acquista un maggior respiro in quanto la teoria comprende solitamente un campo di eventi più vasto di quello delle leggi empiriche precedentemente stabilite. Ad esempio, la teoria della 129 gravitazione universale e del moto di Newton governa la caduta libera degli oggetti fisici non soltanto sulla terra, ma anche su altri corpi celesti, e non soltanto i moti dei pianeti, ma anche il moto relativo delle stelle doppie, le orbite delle comete e dei satelliti artificiali, le oscillazioni del pendolo, certe caratteristiche delle maree e molti altri fenomeni. Una spiegazione teorica approfondisce la nostra comprensione per almeno due ragioni. In primo luogo, essa presenta le diverse regolarità esibite da una svariata molteplicità di fenomeni, come quelli citati in riferimento alla teoria di Newton, come manifestazioni di alcune leggi fondamentali. In secondo luogo, come abbiamo osservato, le generalizzazioni precedentemente accettate come corrette enunciazioni di regolarità empiriche risultano solitamente soltanto delle approssimazioni di certi enunciati legisimili implicati dalla teoria esplicativa, e sono soddisfatte con un notevole grado di approssimazione soltanto entro un campo limitato. E fintantoché i controlli delle leggi nella loro primitiva formulazione vennero confinati ai casi inclusi in quel campo, la spiegazione teorica indica anche perché quelle leggi, sebbene non vere in generale, dovevano trovare conferma. Quando una teoria scientifica è soppiantata da un’altra nel senso in cui la meccanica e l’elettrodinamica sono state soppiantate dalla teoria speciale della relatività, la teoria che subentra ha generalmente un campo di spiegazione più vasto, includendo fenomeni di cui la teoria precedente non rendeva ragione, e di regola essa fornisce spiegazioni approssimative delle leggi empiriche implicate dalla teoria che la precedeva. In questo senso, la teoria speciale della relatività implica che le leggi della teoria della meccanica classica sono soddisfatte con un alto grado di approssimazione nei casi che presuppongono un moto soltanto a velocità piccole rispetto a quella della luce. 130 5 REALISMO E ANTIREALISMO NELLA SCIENZA 5.1 Che cos’è il realismo scientifico Il realismo scientifico è una tesi filosofica secondo la quale gli enti a cui si riferisce la scienza esistono in modo indipendente dalla conoscenza che ne abbiamo. A questa tesi di natura metafisica spesso se ne accompagna una di natura epistemica, concernente la natura della nostra conoscenza. Secondo tale tesi gli enunciati della scienza corrispondono a stati di cose del mondo e i termini usati nelle teorie scientifiche denotano oggetti del mondo. La tesi opposta al realismo è denominata costruttivismo o anche, nella sua forma radicale, idealismo e sostiene – a livello metafisico – che gli oggetti di cui si parla nella scienza non sono mind independent ma sono funzione delle credenze del soggetto. Dal punto di vista epistemico, afferma invece che la conoscenza non ha per oggetto la realtà ma i modi mediante i quali ci rappresentiamo la realtà. Realismo e costruttivismo sono posizioni che si fronteggiano non solo nella filosofia della scienza ma in molti altri ambiti filosofici. Negli schemi che seguono vengono illustrate le peculiarità del costruttivismo e di due forme di realismo, il realismo ingenuo e quello critico, senza riferimento specifico alla scienza. 131 Secondo il costruttivismo noi conosciamo le nostre rappresentazioni della realtà, non la realtà. A critica di questa posizione si è sostenuto che essa è frutto di un: Poiché il pregiudizio gnoseologistico implica lo scetticismo circa la natura del mondo esterno, alcuni pensatori hanno ritenuto che lo scetticismo potesse essere evitato sposando una posizione idealistica, che nega l’indipendenza della realtà rispetto al soggetto. Ciò non è però necessario, qualori si smascheri il pregiudizio gnoseologistico come tale e si opti per il realismo. 132 Secondo il realismo, la realtà è il polo intenzionale dell’atto conoscitivo. Il realismo critico, a differenza di quello ingenuo, ritiene che la conoscenza della realtà sia mediata dagli strumenti conoscitivi del soggetto. Ciò introduce una dimensione costruttiva anche nel punto di vista realistico. A un livello più profondo, alla base di realismo e costruttivismo vi sono concezioni diverse della realtà: Per il costruttivismo la realtà è una dimensione indeterminata, incompleta, al limite irrazionale, contraddittoria. Per il realismo la realtà è una dimensione determinata, completa, razionale, incontraddittoria. 5.2 Teoria della verosimilitudine in Popper Nella parte antologica, Popper spiega le ragioni della sua preferenza per il realismo e la connessione tra questo e la teoria della verosimilitudine. Secondo Popper, la verità è l’ideale regolativo perseguito dalla scienza ⇒ realismo scientifico. Noi però non abbiamo criteri per decidere in maniera definitiva quando una teoria sia vera o falsa. Si tratta allora di spiegare come una teoria possa essere più vera di un’altra e pur tuttavia falsa: questo è il ruolo della teoria della verosimilitudine. 133 Presupposti i concetti che seguono: Contenuto di verità o di falsità di una teoria = classe delle sue conseguenze logiche vere (false) Verosimilitudine = contenuto di verità – contenuto di falsità si avrà che: T1 più verosimile di T2 se e solo se il contenuto di verità, ma non quello di falsità, di T1 include il contenuto di verità di T2, oppure: Il contenuto di falsità, ma non quello di verità, di T2 include quello di T1. VEROSIMILITUDINE DI UNA TEORIA CV(T1) ⊇ Contenuto di verità di T1= insieme delle conseguenze logiche vere di T1 CV(T2) Contenuto di verità di T2= insieme delle conseguenze logiche vere di T2 + CF(T1) ⊆ Contenuto di falsità di T1 = insieme delle conseguenze logiche false di T1 CF(T2) Contenuto di falsità di T2 = insieme delle conseguenze logiche false di T2 = T1 ≥ è almeno verosimile quanto 134 T2 La teoria della verosimilitudine è fallita a causa della mancanza di una definizione formale corretta del concetto di verosimilitudine. Si è infatti dimostrato che, tra due teorie false, una non può essere più vera di un’altra. Popper ha riconosciuto il fallimento della sua teoria, definendolo “uno splendido insuccesso”. Rimane tuttavia l’idea intuitiva di verosimilitudine come approssimazione alla verità. 5.3 Il realismo circa gli inosservabili Nella filosofia della scienza, una delle tesi più controverse riguarda lo statuto ontologico degli enti descritti dai termini teorici. Atomi, quarks, campi di forza, ma anche la mente o il DNA, sono entità esistenti indipendentemente dalla nostra conoscenza di essi? Se sì, riesce la conoscenza scientifica a penetrare nella loro natura? P. Kosso, nel testo in antologia, difende il realismo circa gli inosservabili e lo contrappone a due forme di antirealismo: lo strumentalismo e l’empirismo. Il primo nega il realismo nella sua versione ontologica, il secondo, invece, non nega di principio la dimensione ontologica del realismo ma ne rifiuta quella epistemica. 135 PARTE ANTOLOGICA K.R. POPPER, Conoscenza oggettiva Roma, 1972, pp. 63-79 Realismo I1 realismo è essenziale al senso comune. Il senso comune, o senso comune illuminato distingue fra apparenza e realtà. (Ciò può essere illustrato da esempi come “oggi l’aria è così chiara che le montagne sembrano molto più vicine di quanto effettivamente siano”. O forse, “sembra che lo faccia senza sforzo, ma mi ha confessato che 1a tensione è quasi insopportabile”). Ma il senso comune si rende anche conto che le apparenze (come il riflesso in uno specchio) hanno una specie di realtà; in altre parole, che può esservi una realtà di superficie – cioè una apparenza – e una realtà di profondità. Inoltre vi sono molti generi di cose reali. Il genere più ovvio è quello dei generi alimentari (suppongo che essi producano la base del sentimento di realtà), o di oggetti più resistenti (“objectum” ciò che si oppone alla nostra azione), come pietre, alberi e esseri umani. Ma vi sono molti generi di realtà che sono del tutto differenti, come le nostre decodificazioni soggettive delle nostre esperienze di generi alimentari, pietre e alberi ed esseri umani. Il gusto e il peso degli alimenti e delle pietre è un altro genere di realtà ancora, così come le proprietà degli alberi e degli esseri umani. Esempi di altro genere in questo universo differenziato sono: un mal di denti, una parola, un linguaggio, un codice della strada, un romanzo, una decisione governativa; una prova valida o invalida; forse forze, campi di forze, propensioni, strutture; e regolarità. (Le mie annotazioni qui lasciano del tutto impregiudicato se e come queste molte specie di oggetti possano essere reciprocamente collegate). 136 Argomentazioni a favore del realismo La mia tesi è che il realismo non è né dimostrabile né confutabile. Il realismo, come qualsiasi altra cosa al di fuori della logica e dell’aritmetica finita non è dimostrabile; ma, mentre la scienza empirica presenta teorie confutabili, il realismo non è nemmeno confutabile. (Condivide questa inconfutabilità con molte teorie filosofiche o “metafisiche”, in particolare anche con l’idealismo). Ma esso si può discutere e il peso degli argomenti è in modo schiacciante a suo favore. Il senso comune è indiscutibilmente dalla parte del realismo; vi sono naturalmente, anche prima di Descartes – in effetti anche prima di Eraclito – alcuni accenni del dubbio se il nostro mondo ordinario non sia forse solo un nostro sogno. Ma anche Descartes e Locke erano realisti. Una teoria filosofica in competizione con il realismo non nacque seriamente prima di Berkeley, Hume e Kant … Nella sua forma più semplice l’idealismo dice: il mondo (che include i miei stessi ascoltatori) è solo un mio sogno. Ora è chiaro che questa teoria (sebbene sappiate che è falsa) non è confutabile: qualunque cosa voi, miei ascoltatori, possiate fare per convincermi della vostra realtà – parlarmi, scrivere una lettera, o forse darmi un calcio – non può mai assumere la forza di una confutazione; perché io continuerei a dire che sto sognando che mi parlate, o di aver ricevuto una lettera, o sentito un calcio. (Si potrebbe dire che queste risposte siano tutte, in diverse maniere, stratagemmi immunizzanti. È così, ed è un forte argomento contro l’idealismo. Ma di nuovo, il fatto che esso sia una teoria autoimmunizzantesi non lo confuta). Così l’idealismo è inconfutabile; e ciò significa, ovviamente, che il realismo è indimostrabile. Ma io sono pronto a concedere che il realismo non è solo indimostrabile ma, come l’idealismo, anche inconfutabile; che nessun evento descrivibile, e nessun’esperienza concepibile possono essere presi come confutazioni del realismo. Così non vi sarà su questa questione, come su tante, nessun argomento conclusivo. Ma vi sono argomenti a favore del realismo; o piuttosto contro l’idealismo. 1. Forse l’argomento più forte consiste nella combinazione dei due seguenti: (a) che il realismo è parte del senso comune, e (b) che tutti gli argomenti assunti contro di esso sono non solo filosofici nel senso più derogatorio del termine, ma sono al tempo stesso basati su una parte del senso comune accettata acriticamente; cioè, sulla parte errata 137 della teoria della conoscenza del senso comune che io ho chiamato la “teoria del recipiente mentale” … 2. Sebbene la scienza sia un po’ fuori moda oggi presso qualcuno per ragioni che sono purtroppo tutt’altro che trascurabili, noi non dovremmo ignorare la sua rilevanza per il realismo a dispetto del fatto che vi siano scienziati che non sono realisti, come Ernst Mach o, ai nostri tempi, Eugene P. Wigner; i loro argomenti cadono molto chiaramente nella categoria indicata proprio ora in (1). Ma tralasciamo qui l’argomento di Eugene P. Wigner sulla fisica atomica. Possiamo allora asserire che quasi tutte, se non tutte le teorie fisiche, chimiche o biologiche implicano il realismo, nel senso che se esse sono vere, anche il realismo deve essere vero. Questo è uno dei motivi per cui alcuni parlano di “realismo scientifico”. È una ragione assai valida. A causa della sua (apparente) mancanza di controllabilità, tendo però a preferire di chiamare il realismo “metafisico” piuttosto che “scientifico”. Per quanto uno possa fare attenzione a ciò, vi sono eccellenti ragioni per dire che ciò cui miriamo nella scienza è descrivere e (finché è possibile) spiegare la realtà. Facciamo questo con l’aiuto di teorie congetturali; e cioè di teorie che speriamo siano vere (o vicine al vero), ma che non possiamo stabilire come certe o anche come probabili (nel senso del calcolo delle probabilità), anche se sono le teorie migliori che sappiamo produrre, e possono perciò essere chiamate “probabili” finché il termine è tenuto libero da qualsiasi associazione con il calcolo delle probabilità. C’è un senso strettamente connesso ed eccellente in cui possiamo parlare di “realismo scientifico”: il procedimento che adottiamo implica (finché non viene a cadere, per esempio a causa di atteggiamenti irrazionalistici) il successo nel senso che le nostre teorie congetturali tendono progressivamente ad avvicinarsi alla verità; cioè a descrizioni vere di certi fatti o aspetti della realtà. 3. Ma anche se abbandoniamo qualsiasi argomento tratto dalla scienza, restano gli argomenti tratti dal linguaggio. Qualsiasi discussione del realismo, e specialmente tutti gli argomenti contro di esso, devono essere formulati in qualche linguaggio. Ma il linguaggio umano è essenzialmente descrittivo (e argomentativo), e una descrizione non ambigua è sempre realistica: è descrizione di qualcosa – di qualche stato di fatto che può essere reale o immaginario. Così se lo stato di fatto è immaginario, allora la 138 descrizione è semplicemente falsa e la sua negazione è una descrizione vera della realtà, nel senso di Tarski. Questo non confuta logicamente l’idealismo o il solipsismo; ma lo rende almeno irrilevante. La razionalità, il linguaggio, la descrizione, l’argomentazione, sono tutti intorno alla realtà e si rivolgono ad un pubblico. Tutto ciò presuppone il realismo. Naturalmente, questa argomentazione a favore del realismo non è logicamente più conclusiva di qualsiasi altra, perché potrei soltanto sognare che sto usando linguaggio descrittivo e argomenti; ma questa argomentazione a favore del realismo è comunque forte e razionale. È altrettanto forte quanto la ragione stessa. 4. Per me l’idealismo è assurdo, perché esso implica anche qualcosa del genere: è la mia mente che crea questo bel mondo. Ma io so che non ne sono il creatore. Dopo tutto, la famosa considerazione “la bellezza è negli occhi dell’osservatore”, sebbene forse non sia una considerazione troppo sciocca, non significa altro che: vi è un problema dell’apprezzamento della bellezza. Io so che la bellezza degli autoritratti di Rembrandt non è nei miei occhi, né quella della Passione di Bach nelle mie orecchie. Al contrario, posso stabilire con mia soddisfazione, aprendo e chiudendo i miei occhi e le mie orecchie, che essi non bastano ad afferrare tutta la bellezza che c’è. Inoltre, vi sono altre persone che sono giudici migliori – migliori di me nell’apprezzare la bellezza delle pitture e della musica. La negazione del realismo porta alla megalomania (la più diffusa malattia professionale del filosofo di professione). 5. Di molti altri importanti anche se inconclusivi argomenti desidero menzionare solo questo. Se il realismo è vero – più esattamente, se lo è qualcosa che si avvicina al realismo scientifico – allora la ragione della impossibilità di provarlo è ovvia. La ragione è che la nostra conoscenza soggettiva, anche percettiva, consiste di disposizioni ad agire, ed è quindi una specie di adattamento tentativo alla realtà; e che noi siamo al massimo ricercatori e in ogni caso fallibili. Non vi è garanzia contro l’errore. Nello stesso tempo, tutta la questione della verità e falsità delle nostre opinioni e teorie diviene chiaramente senza importanza se non vi è una realtà, ma solo sogni e illusioni. In sintesi, propongo di accettare il realismo come la sola ipotesi sensata – come una congettura cui non è stata opposta finora alcuna alternativa sensata. Non desidero essere dogmatico riguardo a questa 139 questione più che riguardo a qualsiasi altra. Ma credo di conoscere tutti gli argomenti epistemologici – sono per lo più soggettivisti – che sono stati formulati a favore di alternative al realismo, come il positivismo, il fenomenismo, la fenomenologia, e così via, e sebbene io non sia ostile alla discussione degli ismi in filosofia, considero tutti gli argomenti filosofici che, a mia conoscenza, sono stati formulati in favore della mia lista di ismi, chiaramente errati. La maggior parte di essi sono il risultato dell’erronea ricerca della certezza, o di fondamenta sicure su cui costruire. E tutti sono tipici errori filosofici nel senso peggiore del termine: derivano tutti da una teoria della conoscenza erronea sebbene propria del senso comune che non regge a nessuna critica seria … Concluderò questo paragrafo con l’opinione dei due uomini che considero i più grandi del nostro tempo: Albert Einstein e Winston Churchill. «Non vedo», scrive Einstein, «alcun ‘pericolo metafisico’ nella nostra accettazione delle cose – cioè degli oggetti fisici insieme con le strutture spazio-temporali ad essi relative». Questa era l’opinione di Einstein dopo un’accurata e amichevole analisi di un tentativo brillante di confutazione del realismo ingenuo dovuto a Bertrand Russell. Le vedute di Winston Churchill sono veramente caratteristiche e, penso, un commento assai giusto su una filosofia che da allora può aver cambiato aspetto, mutando radicalmente dall’idealismo al realismo, in apparenza, ma restando irrilevante come è sempre stata: “Alcuni miei cugini che avevano il grande vantaggio di una istruzione universitaria”, scrive Churchill, “usavano infastidirmi con argomenti per provare che null’altro esiste se non ciò che pensiamo …”. Egli continua: «Io sono sempre rimasto fermo al seguente argomento che concepii per mio conto molti anni fa … Ecco il gran sole che sussiste in apparenza su nessun fondamento migliore dei nostri sensi. Ma fortunatamente c’è un metodo, del tutto indipendente dai nostri sensi fisici, per controllare la realtà del sole … gli astronomi … predicono con [la matematica e] la pura ragione che una macchia nera attraverserà il sole in un certo giorno. Tu … guardi, e il tuo senso della vista ti dice immediatamente che i loro calcoli erano giusti … Abbiamo avuto ciò che nella compilazione di mappe militari si 140 chiama una “coincidenza”. Abbiamo ottenuto una testimonianza indipendente della realtà del sole. Quando i miei amici metafisici mi dicono che i dati su cui gli astronomi hanno fatto i loro calcoli furono necessariamente ottenuti in precedenza attraverso l’evidenza dei sensi, io dico “No”. Essi potrebbero, almeno in teoria, essere ottenuti da calcolatori automatici messi in moto dalla luce che cade su di essi senza che i sensi umani si intromettano in nessun momento … Io … riaffermo con enfasi … che il sole è reale, e anche che esso è caldo – in effetti caldo come l’inferno, e se i metafisici ne dubitano, dovrebbero andare a vedere». Posso forse aggiungere che considero l’argomento di Churchill, specialmente i passi importanti che ho messo in corsivo, non solo una critica valida degli argomenti idealistici e soggettivistici, ma come l’argomento più sano e ingegnoso filosoficamente contro l’epistemologia soggettivistica che io conosca. Non conosco filosofo che non abbia ignorato questo argomento (a parte qualcuno dei miei studenti di cui ho attirato l’attenzione su di esso). L’argomento è altamente originale; pubblicato per la prima volta nel 1930 è uno dei primi argomenti filosofici che facciano uso della possibilità di osservatori automatici e di macchine calcolatrici (con nel programma la teoria di Newton). E tuttavia, quarant’anni dopo la sua pubblicazione, Winston Churchill è ancora del tutto sconosciuto come epistemologo: il suo nome non appare in nessuna delle molte antologie sull’epistemologia, e manca anche nell’Encyclopedia of Philosophy. Naturalmente l’argomento di Churchill è semplicemente un’eccellente confutazione degli speciosi argomenti dei soggettivisti: non prova il realismo, perché l’idealista può sempre argomentare che egli o noi stiamo sognando la discussione, con le macchine calcolatrici e tutto il resto. Tuttavia considero sciocco quest’argomento, a causa della sua universale applicabilità. In ogni caso, tranne che qualche filosofo producesse qualche argomento del tutto nuovo, propongo che il soggettivismo sia d’ora in poi ignorato. Considerazioni sulla verità Il nostro interesse principale nella filosofia e nella scienza dovrebbe essere la ricerca della verità. La giustificazione non è uno scopo; e l’acume e l’intelligenza fine a se stessi sono noiosi. Dovremmo cercare di vedere o scoprire i problemi più urgenti, e 141 dovremmo tentare di risolverli proponendo teorie vere (o proposizioni vere, o enunciati veri; non vi è qui alcuna necessità di distinguere fra di essi); o in ogni caso proponendo teorie che si approssimano alla verità un po’ più di quelle dei nostri predecessori … Accetto la teoria propria del senso comune (difesa e perfezionata da Alfred Tarski) che la verità è corrispondenza con i fatti (o con la realtà); o, più esattamente, che una teoria è vera se e solo se corrisponde ai fatti … Questa, come sottolinea Tarski, è una nozione oggettivistica e assolutistica della verità. Ma non è assolutistica nel senso di permetterci di parlare con “assoluta certezza o sicurezza”, perché non ci fornisce un criterio di verità … Così l’idea di verità è assolutistica, ma non si può pretendere l’assoluta certezza: noi siamo cercatori di verità ma non siamo suoi possessori. Contenuto, contenuto di verità e contenuto di falsità Per chiarire cosa facciamo quando cerchiamo la verità, dobbiamo almeno in qualche caso saper fornire ragioni della pretesa intuitiva che ci siamo approssimati alla verità, o che qualche teoria T1 è superata da qualche teoria nuova, ad esempio T2, poiché T2 è più verosimile di T1. L’idea che una teoria T1 possa essere più lontana dal vero di una teoria T2, cosicché T2 è un’approssimazione migliore alla verità (o semplicemente una teoria migliore) che T1, è stata usata intuitivamente da molti filosofi, me compreso. E proprio come la nozione di verità è stata guardata con sospetto da molti filosofi … così lo è stata la nozione di migliore accostamento o approssimazione alla verità, o di maggiore vicinanza alla verità o (come l’ho chiamata) di maggiore “verisimiglianza”. Per alleviare questi sospetti, ho introdotto una nozione logica di verisimiglianza combinando due nozioni, ambedue introdotte per la prima volta da Tarski: (a) la nozione di verità, e (b) la nozione di contenuto (logico) di una proposizione; cioè, la classe di tutte le proposizioni logicamente implicate da essa … Ogni proposizione ha un contenuto o classe di conseguenza, la classe di tutte le proposizioni che seguono da essa. (Possiamo descrivere la classe di conseguenza delle proposizioni tautologiche, seguendo Tarski, come la classe zero, cosicché le proposizioni 142 tautologiche hanno contenuto zero). E ogni contenuto contiene un sottocontenuto che consiste della classe di tutte e solo le sue conseguenze vere. La classe di tutte le proposizioni vere che seguono da una proposizione vera (o che appartengono a un dato sistema deduttivo) e che non sono tautologiche può essere chiamata il suo contenuto di verità. Il contenuto di verità delle tautologie (o proposizioni logicamente vere) è zero: consiste solo di tautologie. Tutte le altre proposizioni, incluse tutte le proposizioni false, hanno un contenuto di verità diverso da zero. La classe delle proposizioni false implicate da una proposizione – la sottoclasse del suo contenuto che consiste esattamente di tutte quelle proposizioni che sono false – potrebbe essere chiamata … il suo “contenuto di falsità” … Considerazioni sulla verisimiglianza Con l’aiuto di queste idee possiamo ora spiegare più chiaramente cosa intendiamo intuitivamente per somiglianza alla verità o verisimiglianza. Parlando intuitivamente, una teoria T1 ha meno verisimiglianza di una teoria T2 se e solo se (a) i loro contenuti di verità e falsità (o le loro misure) sono confrontabili, e o (b) il contenuto di verità ma non il contenuto di falsità di Tl è più piccolo di quello di T2, ovvero (c) il contenuto di verità di T1 non è maggiore di quello di T2, ma il suo contenuto di falsità è maggiore. In breve, diciamo che T2 è più vicina alla verità, o è più simile alla verità, che T1, se e solo se seguono da essa più proposizioni vere, ma non più proposizioni false, o almeno altrettante proposizioni vere, ma meno proposizioni false … 143 P. KOSSO, Leggere il libro della natura Bologna, 1995, pp. 101-112 [Esaminando alcuni casi di sottodeterminazione empirica, Kosso affronta la questione della misura in cui questo fenomeno mina la credibilità del realismo scientifico]. Gli esperimenti di misurazione della lunghezza e della temperatura della sbarra dimostrano che il mondo sembra come se la teoria A fosse vera. Non c’è dubbio che le cose appaiano proprio così. Ma, se ci si basa sulle osservazioni, il tutto appare anche come se fosse vero B ed è evidente che queste teorie non possono essere entrambe giuste. Si è spinti, allora, a esaminare la questione dell’inferenza che va dal materiale probatorio alla teoria, cioè dell’inferenza dal «sembra come se» all’«è». Anche quando non si è immaginata nessuna teoria alternativa B, ci sono motivi per dubitare della mossa che va dal materiale probatorio che dice «il mondo è come se A» all’affermazione «il mondo è davvero A». Come comportarsi responsabilmente davanti a questo dubbio? Una soluzione è semplicemente quella di cassare del tutto l’inferenza proibendo alla scienza di fare affermazioni su come è il mondo non osservabile. La scienza, da questo punto di vista, svolge l’utile attività di descrivere il mondo come sembra. Essa ha ancora a che fare con teorie concernenti gli inosservabili e continua, con convinzione, ad affermare che in base a tutte le descrizioni sperimentali gli eventi nel mondo si comportano come se ci fossero atomi (così come, ogni domenica mattina, gli eventi sono come se il mio vicino mi rubasse il giornale). Gli scienziati s’impegnano sulla verità di queste affermazioni, di tipo «come se» ma questo non impone alcun impegno, sulla corrispondente affermazione di tipo «è». La scienza, in quest’ottica, non afferma che la sbarra di ottone si espande realmente in risposta lineare all’aumento di temperatura, ma afferma soltanto che alla sbarra accade come se questo valesse, proprio come alla sbarra accade come se valesse la teoria oscillatoria B. Ciò che conta nella scienza è trovare una teoria empiricamente adeguata e le nostre A, B e C vanno tutte egualmente bene. La verità circa il mondo non osservabile è una questione non pertinente. Dato che le teorie 144 empiricamente indistinguibili A, B; … servono solo agli scopi empirici di spiegare e predire e, a tali scopi, esse sono tutte ugualmente adeguate, è irrilevante quale sia quella adottata: nello sceglierne una rispetto alle altre non c’è alcuna urgente decisione da prendere. Questo tipo di reazione alla sottodeterminazione il quale, in proporzione al limitato contenuto informativo dell’esperienza, riduce i risultati responsabili e gli scopi della scienza, consta di due generi fondamentali. Ognuno di essi ammette, di per sé, interessanti variazioni ma, per ampliare la nostra idea della questione, questi due saranno sufficienti. Una scuola di pensiero è dell’opinione che la scienza non voglia (o non dovrebbe volere) che si pensi alle teorie come vere o false. La proprietà vero o falso non è un aspetto delle teorie: esse sono utili o no, applicabili o no, ma non sono vere o false. Questo punto di vista, che concepisce le teorie come utili strumenti intellettuali, è spesso chiamato «strumentalismo». In alternativa, si potrebbero concepire le teorie come autenticamente vere o false ma, data una teoria, la sottodeterminazione ci impedisce di venire a sapere quale dei due punteggi, vero o falso, essa meriti. Quando gli scienziati teorizzano gli atomi, essi intendono parlare veramente di cose reali. Essi vogliono dire la verità ma, alla luce della sottodeterminazione, la cosa responsabile da fare è evitare di impegnarsi in un senso o nell’altro. La teoria è vera o falsa, ma non sappiamo decidere. Tale è la posizione dell’empirista. Queste due concezioni della scienza e dello status delle teorie sono due generi di antirealismo. Insieme esse costituiscono un gruppo la cui omogeneità è definita dall’opposizione al realismo, concezione secondo la quale le teorie scientifiche sono in effetti vere o false del mondo o lo sono almeno approssimativamente, e secondo la quale, talvolta, di una teoria si può dire se è vera o se è falsa. Secondo il realista, in certi casi l’inferenza dal «sembra come se» all’«è» è giustificata. Chiaramente, al realista spetta l’onere di farci vedere com’è che questa inferenza funziona e di specificare i tipi di casi per i quali la si possa giustificare. Il realismo ha il dovere di affrontare il problema della sottodeterminazione. Per vedere come questo compito potrebbe essere svolto, bisognerà esaminare attentamente le due versioni dell’antirealismo e la risposta più convincente che il realismo dà loro. 145 Gli scopi responsabili della scienza La chiave dello strumentalismo è l’attenzione appuntata sui veri propositi che stanno dietro l’uso di una teoria scientifica e sulla domanda corretta da porre nel valutare le teorie. La vera domanda da porre su una teoria non è se essa sia vera o sia falsa; infatti, le teorie non hanno questa proprietà esattamente come non ce l’ha un martello. Il quale, come ogni altro strumento, andrà giudicato per la sua utilità e la sua applicabilità a un dato scopo particolare: ad esempio, per piantare chiodi, un martello è più utile di una patata. Per lo strumentalista, anche le teorie sono strumenti: strumenti intellettuali che servono per predire i fenomeni futuri e organizzare le osservazioni. Questo è il loro ruolo ufficiale nella scienza e, quindi, i criteri pertinenti di valutazione delle teorie scientifiche sono criteri di impiego, di utilità e di applicabilità piuttosto che di verità. Ciò a cui mira la teorizzazione è l’adeguatezza empirica: riuscire a organizzare efficientemente e a predire con successo i fenomeni. Nella mente dello strumentalista, non vi è alcun proposito, né alcun motivo, di spingere le teorie al di là dei loro mezzi tentando di usare l’adeguatezza empirica come prova per la loro verità. Le teorie che, dal punto di vista empirico, sono ugualmente adeguate saranno teorie ugualmente accettabili: così come non c’è un martello vero, non c’è neanche una teoria vera della gravità … Secondo lo strumentalista, questa interpretazione delle teorie scientifiche si applica, in generale, a tutte le teorie. La scienza ha dimostrato con esattezza che il mondo funziona come se ci fossero atomi, strati tettonici, geni, una civiltà minoica e così via, e ciò è quanto basta perché questo è il vero scopo della scienza e il compito è svolto con adeguatezza empirica. Il problema se le teorie sono vere o false, o se gli atomi ci sono davvero, non sussiste perché le teorie non vogliono essere né vere né false. Questo modo di concepire i veri scopi della scienza, questa rinuncia a ogni diritto sulla descrizione vera dell’inosservabile, trova la sua motivazione nel desiderio di separare la scienza dall’occulto. Se il ricorso a invisibili forze mistiche, quale si ha ad esempio in astrologia o nella psicocinesi, viene scartato in quanto costituisce un blaterare privo di senso, c’è allora da chiedersi in che modo la scienza dovrebbe essere diversa (cioè migliore), dal momento che anch’essa invoca invisibili entità mistiche come gli elettroni e i geni. Invece di rispondere a questa domanda, lo strumentalista la neutralizza: se la 146 scienza smette tout court di parlare di quelle cose, o smette almeno di considerare come vero il parlare di inosservabili (elettroni, geni ecc.), il problema scompare. Con questa mossa lo strumentalista ha acquistato sicurezza per l’impresa scientifica ma l’ha pagata con l’interesse. La scienza strumentalista non è più scienza interessante: essa rinuncia a quello che c’è di più apprezzabile nel fare scienza, cioè alla comprensione di quanto accade dietro le quinte nel regno degli inosservabili. Il mondo, infatti, sia nei suoi aspetti palesi sia in quelli lontani dall’esperienza, o è in un modo o è in un altro; e così per il passato: o è stato in un modo o è stato in un altro. Ci deve pur essere qualcosa che causa il mondo quale noi lo vediamo e gli oggetti osservabili devono pur essere costituiti di qualcosa. In tutti questi casi, noi vogliamo essere informati. Il traguardo della teorizzazione è, e dovrebbe essere, questo genere di conoscenza contraria allo strumentalismo. In altri termini, lo strumentalismo, chiedendoci di ignorare la nostra curiosità riguardo all’inosservabile, ci chiede troppo: dalla scienza ci si aspetta di più che andare alla deriva nelle secche dell’adeguatezza empirica. È chiaro come questo discorso severo sia del tutto a buon mercato. La vera grande domanda è se l’aspetto interessante della scienza, cioè le descrizioni reali del mondo inosservabile, sia recuperabile senza un’eccessiva perdita di sicurezza. Se ci si aspetta che le teorie debbano essere qualcosa di più che strumenti pedagogici e ausili per il calcolo, cioè se ci si aspetta che le teorie debbano essere vere o false, allora vale la domanda: la scienza ha la capacità di distinguere il vero dal falso? Le capacità responsabili della scienza Si conceda che la scienza abbia l’obbiettivo di produrre descrizioni vere sia dei fenomeni osservabili sia delle cause e dei costituenti inosservabili. Questo è quanto fa l’empirista il quale, però, prudentemente indica anche quali sono i problemi della sottodeterminazione: tutta la conferma, cioè tutto il processo di distinzione delle teorie che sono probabilmente vere da quelle che sono probabilmente false, è seriamente equivoco e il controllo a fronte del materiale probatorio è incapace di privilegiare una tra le infinite teorie empiricamente equivalenti. L’empirista indica anche quali sono i problemi della spiegazione: in generale, questa, a 147 giudicare dal contributo che essa dà alla comprensione delle cose, è un evento pragmatico e psicologico, privo di aspetti che siano chiaramente facilitatori della verità … Dato che, rispetto al materiale probatorio, una teoria è sottodeterminata, responsabilità vuole che verso gli inosservabili si tenga un atteggiamento di agnosticismo. Secondo un gruppo dominante di empiristi, le teorie devono realmente essere costruite come vere o false circa il mondo inosservabile ma, secondo questi standard empiristi, la credenza nell’esistenza o meno di entità inosservabili, e nella verità o meno delle teorie che le riguardano, va sospesa. L’idea non è quella di dire, ad esempio, che cose tipo i quark non ci sono, ma è piuttosto quella di dire che non si sa, e di fatto non possiamo sapere, se tali cose ci sono davvero. La teoria è, in effetti, o vera o falsa, solo che non lo si può decidere. Un’affermazione sui quark o sugli atomi, per esempio, va oltre i confini della giustificazione e quindi della conoscenza: benché vi siano buoni motivi per usare la teoria come se fosse vera, non c’e alcun buon motivo per credere che lo sia. È del tutto corretto classificare questa posizione come agnosticismo perché c’è una profonda analogia tra i problemi dell’esistenza delle entità inosservabili e il problema dell’esistenza di Dio. Infatti, ci si può chiedere se il parlare di Dio debba esser preso alla lettera oppure sia metaforico. Riferirsi a Dio è solo un modo metaforico di parlare della natura e di tutte le cose sorprendenti (e regolari) che accadono nel mondo? Parlare di Dio è solo un modo di trattare le questioni altrimenti schiaccianti della vita, della morte e della caducità? Se si pensa come se il progetto della nostra esistenza avesse un autore e come se vi fosse un giudice delle nostre azioni, allora un mucchio di cose acquistano senso e la vita ha uno scopo. Concedendo ciò, un ateo potrebbe affermare che, se il discorso su Dio è legittimo, questo dovrebbe però essere analizzato come discorso strumentale. Non c’è niente che sia Dio così come non c’è niente che siano molle attaccate agli atomi o linee di forza magnetica attorno alla terra. Se, per organizzare i propri affari, si vuol pensare in questi termini, d’accordo! Ci si renda conto, però, che Dio, linee di campo o quark sono solo delle invenzioni alle quali è utile riferirsi. È in questo senso che si riscontrano analogie tra ateismo e strumentalismo. L’agnostico, più prudentemente, direbbe che, se l’esistenza di Dio non può essere dimostrata, altrettanto vale per la non esistenza: non essendoci alcuna prova chiara che una tale entità vi sia o che non vi sia, entrambe le affermazioni, quella dell’ateo e quella del credente, 148 sono ingiustificate e, di fatto, ingiustificabili. Il problema va oltre i confini della giustificazione e l’atteggiamento corretto, cioè quello responsabile, è sospendere il giudizio; così, l’agnostico religioso ha gli stessi standard di giustificazione dell’empirista scientifico. Questo parallelo tra il ragionamento in religione e quello nella scienza va tenuto d’occhio. Dio e gli elettroni sono entrambi inosservabili. Si possono giustificare affermazioni sull’uno ma non sull’altro? Ammesso che si possa dimostrare che gli elettroni esistono, si potrebbe applicare lo stesso tipo di dimostrazione anche all’esistenza di Dio? Perché no? La questione del realismo scientifico si basa sulla distinzione tra l’adeguatezza empirica di una teoria e 1a sua verità. È chiaro che si tratta di aspetti distinti che significano cose distinte. La concezione realista della scienza dice, però, che le due cose sono legate e a lei spetta l’onere di provarlo. Non si sostiene certo che l’adeguatezza empirica, cioè qualcosa che è direttamente controllabile, diventa tout court il criterio della verità, la quale è, appunto, qualcosa di non direttamente controllabile; l’adeguatezza empirica non esaurisce la verità. Il realista afferma, piuttosto, che l’adeguatezza empirica è un sintomo della verità, intendendo con ciò dire che la compatibilità con le osservazioni è indicazione di una verità profonda, di una verità sugli inosservabili. La presentazione standard del legame tra adeguatezza empirica e verità è nota come l’inferenza della spiegazione migliore … Secondo la posizione realista, è possibile giustificare certe affermazioni sugli inosservabili vedendo se queste affermazioni funzionano nella spiegazione migliore dei fenomeni osservabili. In altri termini, essere inosservabile non pone automaticamente qualcosa al di là dei confini della conoscenza. Non si tratta, però, di assumere in generale la credenza nelle entità inosservabili della scienza. Alcune affermazioni sugli inosservabili, infatti, sono autorizzate mentre altre non lo sono. Inoltre, la giustificazione della credenza in una teoria può cambiare e la meccanica newtoniana ne è un esempio perfetto. Per molto tempo, il successo esplicativo e predittivo della teoria, assieme alla plausibilità interna di essa, ha giustificato la credenza che la teoria fosse vera in generale. Ma le valutazioni, sia interne sia esterne, cambiano e, oggi, la teoria è meno probabile che sia vera. Ciò non vuol dire che sia cambiato il suo valore di verità: essa o è sempre vera o è sempre falsa; ciò che cambia è l’autorizzazione a credere o 149 nell’uno o nell’altro senso. Una volta, sotto quelle date circostanze, era giustificabile credere alla teoria; le circostanze, però, cambiano e non c’è quindi alcuna garanzia che ciò che oggi è giustificato lo sia per sempre. Il dovere della scienza, comunque, è fare il meglio che si può … Nessuno, se non il realista più sconsiderato, direbbe che la spiegazione migliore è garantita per vera. L’inferenza si limita, in effetti, a concludere che la spiegazione causale più feconda, cioè quella che spiega più fenomeni con il minimo di bizzarrie teoriche e che s’inserisce in una più ampia rete di rapporti tra teorie, è più probabile che sia vera di una teoria che non fa niente di tutto ciò o lo fa solo in parte. È improbabile che una congettura falsa ma adeguata per la spiegazione di un fenomeno si accordi anche con altre teorie scientifiche e contribuisca alla spiegazione di altri fenomeni e altre teorie. L’esigenza della coerenza tra le teorie e l’obbiettivo della coerenza massimale limitano il numero delle possibili raffigurazioni teoriche del mondo e lo fanno nella direzione della verità. L’antirealista, col suo porre la conoscenza entro gli stretti confini dell’osservabilità, ignora tale aspetto della giustificazione e rende perfino inutile, date varie teorie degli inosservabili, la valutazione comparativa di quelli che hanno più probabilità d’essere veri. La portata intuitiva dell’inferenza della spiegazione (causale) migliore è la seguente: se le teorie non fossero vere, il loro successo esplicativo e predittivo sarebbe un autentico miracolo. Sarebbe infatti un miracolo che una descrizione fittizia quadrasse consistentemente con la realtà dell’osservazione, ma sembra proprio che nella scienza miracoli di questo genere accadano di continuo. Questo modo di leggere l’inferenza si dimostra particolarmente efficace nei casi in cui svariate teorie coincidano, in cui, cioè, si abbia una chiara coerenza tra esse. Si considerino i primi esperimenti che furono fatti per misurare il numero di Avogadro, ossia il numero delle molecole di una data sostanza contenute in una mole. Chiaramente, questo numero si basa su una teoria molecolare. Il mondo è come se ci fossero molecole, ma questo indica che le molecole ci sono realmente? In questo caso si è autorizzati a rispondere di sì. Il numero di molecole in una mole lo si può misurare in molti modi diversi e le predizioni del numero possono esser generate da molte teorie diverse: si possono usare tecniche chimiche, termodinamiche, elettriche, meccanico-microscopiche (moti browniani) e ancora altre. Da tutti questi esperimenti viene fuori lo stesso numero. Fra tutte queste diverse teorie 150 non ci sono particolari collusioni e, quindi, se non stessero misurando qualcosa di reale, cioè le reali molecole, la loro concordia sarebbe un miracolo sbalorditivo, un colpo di fortuna semplicemente pazzesco. Per spiegare una tale coerenza tra teorie sviluppate l’una indipendentemente dall’altra sembra proprio che si debba attribuire loro una base unitaria e basarla sulla verità. Se le molecole esistono veramente e la teoria molecolare dice la verità, allora ci si deve aspettare un accordo sul numero di molecole in una mole. C’è una forte analogia tra questo tipo di ragionamento e i metodi usati per tradurre linguaggi sconosciuti o per i quali non si dispone di alcun dizionario. Gli scienziati si trovano in una situazione simile a quella di chi cerca di penetrare un messaggio cifrato o di tradurre antichi testi scritti in linguaggi sconosciuti. L’obbiettivo, sia nel caso del traduttore, che ha a che fare con parole stampate, sia nel caso dello scienziato, che ha a che fare con osservazioni fondamentali dei fenomeni, è quello di cogliere il significato del racconto di come è il mondo. Uno strumentalista direbbe semplicemente che non c’è un unico significato del libro e, finché un’interpretazione resta compatibile con i segni sulla pagina, ossia con le osservazioni, essa vale come un’altra. Un empirista del genere che c’interessa direbbe che c’è un unico autentico significato, che la trama del racconto è in un senso o è in un altro ma che, senza la possibilità di incontrare l’autore e senza il dizionario definitivo, non si potrà mai sapere qual è. Il realista, come l’abbiamo caratterizzato sopra, è d’accordo che il libro abbia un unico vero significato ma ritiene, inoltre, che il traduttore può sperare di capirlo, così come la scienza può sperare di capire l’unica vera descrizione del modo in cui è il mondo. Alcune affermazioni sulla trama, alcune teorie, avranno più senso di altre e si armonizzeranno più facilmente e cooperativamente con le affermazioni concernenti altri aspetti di essa: sotto l’assunzione che il libro ha un senso globale, solo le teorie che s’inquadrano in una descrizione coerente è probabile che siano vere. Naturalmente, le letture coerenti sono molteplici e, quindi, vi sono molteplici possibili significati ma, via via che un numero sempre maggiore di parti del libro viene esaminato e un numero sempre maggiore di pezzi della trama viene alla luce dell’interpretazione teorizzata dove questi pezzi devono quadrare l’un l’altro, l’insistenza sulla coerenza potrà restringere la collezione delle letture possibili nella direzione della verità. 151 6 SPIEGAZIONE E COMPRENSIONE 6.1 La nascita del dibattito nell’Ottocento Nel corso dell’Ottocento le scienze umane (storiografia, psicologia, sociologia, economia, antropologia…) si autonomizzano dalla filosofia e spesso acquisiscono una dimensione sperimentale. ⇓ Si pone per la prima volta il problema del loro statuto metodologico e in particolare del loro rapporto con le scienze naturali. Su questo problema nell’Ottocento si contrappongono due punti di vista: MONISMO METODOLOGICO ⇒ POSITIVISMO PLURALISMO METODOLOGICO ⇒ STORICISMO 153 6.1.1 Il Positivismo Il termine fu coniato da Auguste Comte (1798-1857): La conoscenza scientifica e filosofica deve essere ricondotta al dato positivo, ai fatti di esperienza. Nel positivismo rivive progresso della scienza ⇒ l’ideale illuministico dell’illimitato LEGGE DEI TRE STADI: teologico, metafisico, positivo Le scienze umane, in particolare la sociologia, devono raggiungere anch’esse lo stadio positivo, il che implica l’uso dei metodi delle scienze empiriche. Non diversamente da Comte pensavano altri rappresentanti del positivismo, come J.S. Mill (1806-1873) e H. Spencer (1820-1903). 154 6.1.2 Lo Storicismo Nasce nel contesto culturale tedesco, come reazione al positivismo. Storicismo = l’esistenza del soggetto umano è caratterizzata dal suo essere nella storia. Le attività umane e i loro prodotti sono essenzialmente storici. Talvolta questa corrente viene denominata anche: Ermeneutica = l’esistenza del soggetto umano va compresa attraverso l’interpretazione delle condizioni del suo essere e agire. Principali rappresentanti: W. Windelband, H. Rickert, W. Dilthey, M. Weber. Gli storicisti sostengono il dualismo metodologico: Windelband Rickert Metodo scienze naturali Scienze nomotetiche Spiegazione (Erklären) Metodo scienze umane Scienze idiografiche Comprensione (Verstehen) Scienze nomotetiche = scienze che fanno uso di leggi generali e spiegano gli eventi naturali sussumendoli sotto leggi generali. Scienze idiografiche = scienze che cercano di descrivere e comprendere il singolare. Spiegazione = riguarda gli eventi naturali, che vengono spiegati tramite leggi. Comprensione = riguarda gli eventi storici, che vanno spiegati comprendendoli, ossia riconducendoli ai valori che esprimono. 155 ESEMPIO = Non posso spiegare la pratica sociale della difesa delle donne e dei deboli senza ricollegarmi ai valori che questa esprime (il codice d’onore della società cavalleresca). ⇓ RUOLO METODOLOGICO FONDAMENTALE ASSEGNATO AI VALORI NELLA COMPRENSIONE. WILHELM DILTHEY (1833-1911) Diversità dell’oggetto di studio tra scienze naturali e umane (scienze dello spirito). ⇓ SCIENZE NATURALI SCIENZE DELLO SPIRITO Natura = realtà esterna all’uomo ⇒ si coglie attraverso l’osservazione sensibile. Mondo storico-sociale = l’uomo vi appartiene ⇒ si coglie solo dall’interno, in modo immediato. ⇓ Categoria emotivo-conoscitiva fondamentale: ERLEBNIS (esperienza vissuta)= modalità di rapporto immediato con il mondo e l’individualità altrui. L’Erlebnis è strettamente connessa al comprendere: l’Erlebnis il momento più concreto che rimanda a quello più astratto del comprendere e viceversa. 156 6.2 Prospettive contemporanee UNITÀ METODOLOGICA: DUALISMO METODOLOGICO nella filosofia analitica: DUALISMO METODOLOGICO nella corrente ermeneutica: Neo-positivismo Popper Wittgenstein von Wright Heidegger Gadamer Ricoeur 6.2.1 Neo-Positivismo: tesi dell’unità del metodo scientifico 1. Unità giustificata dalla riduzione di tutti gli enunciati scientifici alla base fisicalistica. 2. Unità giustificata dall’uso di DN in tutte le scienze. Hempel: DN è applicabile anche alle scienze umane, in particolare alla storiografia. ⇒ C.G. Hempel, “The Function of General Laws in History”, The Journal of Philosophy, 39 (1942), pp. 35-48. ⇓ È un requisito generale della spiegazione che un evento (azione) per essere spiegato debba essere ricondotto a una legge generale 157 ESEMPIO: B. CROCE, Il carattere della filosofia europea, Laterza, Bari 1945, p. 96 “E poiché gli uomini non abbandonano il vecchio se non quando sorge il nuovo capace di sostituirlo e aborrono dall’anarchia come dal vuoto, e poiché allora davano smarrimento e paura lo spezzettarsi dell’Europa in chiese e sette contrastanti, e il traballante ordine sociale, e la sregolatezza del costume, e la minaccia alla cultura, il gesuitismo venne in soccorso e, col correggere, rinsaldare e riadattare gli istituti della chiesa di Roma, fece argine alla rovina e molte cose necessarie salvò, e questo servizio che rese alla civiltà europea gli acquistò autorità e potere”. SCHEMA DN NELLA SPIEGAZIONE STORICA Legge universale Gli uomini non abbandonano il vecchio se non quando sorge il nuovo capace di sostituirlo e aborrono dall’anarchia come dal vuoto. C1 Il gesuitismo venne in soccorso e, col correggere, rinsaldare e riadattare gli istituti della chiesa di Roma, fece argine alla rovina e molte cose necessarie salvò. C2 Allora davano smarrimento e paura lo spezzettarsi dell’Europa in chiese e sette contrastanti, e il traballante ordine sociale, e la sregolatezza del costume, e la minaccia alla cultura. Conclusione (Explanandum) Il gesuitismo acquistò autorità e potere 158 6.2.2 Popper Popper condivide la tesi dell’unità del metodo scientifico basata sull’uso di DN. Tuttavia Popper sottolinea “la banalità delle leggi universali molto usate nelle spiegazioni storiche: queste leggi sono di solito prive di interesse, per il semplice fatto che nel contesto sono aproblematiche”. E aggiunge: “Non consideravo questa particolare analisi [uso di DN] come di speciale importanza per la spiegazione storica, e quel che consideravo importante ebbe ancora bisogno di qualche anno per maturare. Era il problema della razionalità (o del principio di razionalità o del metodo zero o ancora della logica della situazione). Nelle mie più recenti formulazioni, questo metodo consiste nella costruzione di un modello della situazione sociale, inclusa in modo particolare la situazione istituzionale in cui un agente opera, in modo tale da spiegare la razionalità (il carattere zero) della sua azione. Questi modelli sono dunque ipotesi controllabili delle scienze sociali”. (K.R. Popper, La ricerca non ha fine, pp. 120-121) ⇓ Unità del metodo scientifico basato sull’uso di congetture e confutazioni Che cos’è la logica situazionale? “Per analisi situazionale intendo un certo tipo di spiegazione tentativa o congetturale di qualche azione umana che si riferisce alla situazione in cui l’agente si trova. Può essere una spiegazione storica: possiamo forse voler spiegare come e perché una certa struttura di idee sia stata creata. Bisogna riconoscere che nessuna azione creativa può mai essere pienamente spiegata. Tuttavia, possiamo tentare, congetturalmente, di dare una ricostruzione idealizzata della situazione problematica in cui l’agente si è trovato, e rendere in quella misura 159 l’azione “comprensibile”, cioè adeguata alla situazione come egli la vedeva. Questo metodo di analisi situazionale può essere descritto come un’applicazione del principio di razionalità. Sarebbe un compito per l’analisi situazionale distinguere fra la situazione come la vedeva l’agente e la situazione quale era (ambedue, ovviamente, congetturate). Così lo storico della scienza non solo tenta di spiegare con l’analisi situazionale la teoria proposta da uno scienziato come adeguata, ma può anche tentare di spiegare il fallimento dello scienziato. In altre parole, il nostro schema di soluzione dei problemi per congetture e confutazioni o uno schema simile può essere usato come una teoria esplicativa delle azioni umane, dato che possiamo intepretare un’azione come un tentativo di risolvere un problema. Così la teoria esplicativa dell’azione consisterà per lo più di una ricostruzione congetturale del problema e del suo sfondo. Una teoria di questo tipo può ben essere controllabile”. Ho tentato di rispondere alla domanda: “Come possiamo comprendere una teoria scientifica o migliorarne la nostra comprensione?” E ho suggerito che la mia risposta, in termini di problemi e situazioni problematiche, può essere applicata ben oltre le teorie scientifiche. Possiamo, almeno in alcuni casi, applicarla a opere d’arte: possiamo congetturare quale problema fosse quello dell’artista, e possiamo riuscire ad avvalorare questa congettura con evidenze indipendenti; e quest’analisi ci può aiutare a comprendere l’opera” (Conoscenza oggettiva, pp. 235-236). IN SINTESI: – L’analisi situazionale non necessita in quanto tale di leggi di copertura; – la comprensione dell’azione si basa su un principio di razionalità che non è una legge empirica, ma un postulato metodologico (di origine weberiana: azione razionale rispetto allo scopo); – falsificabile nel suo complesso è invece il modello situazionale; ⇒ 160 – la logica situazionale consente di comprendere le azioni degli agenti storico-sociali senza cadere nell’irrazionalismo e nel soggettivismo (rischio implicito nelle posizioni degli storicisti). “Collingwood dice chiaramente che la cosa essenziale nella comprensione storica non è l’analisi della situazione in sé, ma il processo mentale del rivivere dello storico, la ripetizione simpatetica dell’esperienza originaria … Il mio punto di vista è diametralmente opposto. Considero il processo psicologico del rivivere inessenziale … Ciò che considero essenziale non è il rivivere ma l’analisi situazionale. L’analisi della situazione da parte dello storico è la sua congettura storica … Il compito dello storico è perciò ricostruire la situazione problematica come appariva all’agente di modo che le azioni dell’agente divengano adeguate alla situazione. Questo assomiglia molto al metodo di Collingwood, ma elimina dalla teoria della comprensione e dal metodo storico precisamente l’elemento soggettivo … che per Collingwood e la maggior parte degli altri teorici della comprensione (ermeneutici) è il punto saliente” (Popper, Conoscenza oggettiva, pp. 244-5). 161 6.2.3 Wittgenstein e la psicologia Opere principali di Wittgenstein sulla filosofia della psicologia: Osservazioni sulla filosofia della psicologia, Adelphi, Milano 1990 Ricerche filosofiche, 2. parte. Wittgenstein rifiuta il modello causale della mente e delle proprietà psicologiche. Perché? Perché mette sullo stesso piano le spiegazioni solo in apparenza causali del senso comune con le vere spiegazioni causali che istituiscono connessioni nomiche tra eventi. Le spiegazioni di senso comune non sono causali, perché fanno piuttosto appello a motivi o a ragioni, che seguono una logica molto diversa da quella delle cause. ⇓ Secondo Wittgenstein le spiegazioni psicologiche non sono spiegazioni causali, ma spiegazioni teleologiche o finali. 6.2.4 G.H. von WRIGHT v. Wright, allievo di Wittgenstein, sviluppa le intuizioni del maestro formulando il modello pratico-inferenziale di spiegazione dell’azione. Questo si basa sullo schema, di origine aristotelica, dell’inferenza pratica. Inferenza pratica = modalità particolare di inferenza in base alla quale è possibile spiegare l’azione di un agente a partire dall’intenzionamento di determinati fini, cioè dal fatto che l’agente li riconosce come degni di esseri perseguiti e quindi aspira a realizzarli. La mediazione tra questi fini e l’azione avviene attraverso una serie di catene inferenziali, di cui ognuna porta alla scelta, in dipendenza dalle particolari condizioni in cui l’agente si trova ad operare, dei mezzi più opportuni per raggiungere quei fini. v.Wright asserisce: L’inferenza pratica è, rispetto alla spiegazione teleologica e alla spiegazione nella storia e nelle scienze sociali, ciò che il modello per sussunzione teorica è rispetto alla spiegazione causale e alla spiegazione nelle scienze naturali. 162 MODELLO PRATICO-INFERENZIALE È costituito da due elementi, l’IPI e l’IPR. INFERENZA PRATICA INTENZIONALE (IPI) Premessa intenzionale Premessa epistemica Il soggetto x vuole realizzare lo stato di cose p Il soggetto x è convinto che per realizzare p occorra preparare lo stato di cose q Conclusione intenzionale Il soggetto x vuole q INFERENZA PRATICA RISOLUTIVA (IPR) Premessa intenzionale Il soggetto x vuole realizzare lo stato di cose q Condizione di non impedimento Il soggetto x non è impedito a realizzare q Conclusione fattuale Il soggetto x fa q INFERENZA PRATICA = IPI + IPR Premessa intenzionale Il soggetto x vuole realizzare lo stato di cose p Premessa epistemica Il soggetto x è convinto che per realizzare p occorra preparare lo stato di cose q Conclusione intenzionale Il soggetto x vuole q Condizione di non impedimento Il soggetto x non è impedito a realizzare q Conclusione fattuale Il soggetto x fa q 163 ANALOGIE E DIFFERENZE TRA N-D E IPR Premessa maggiore N-D IPR Legge empirica universale Principio analitico (postulato di razionalità) Connessione tra antecedente e conseguente Tra causa ed effetto ⇒ Tra mezzo e fine intenzionato ⇒ Tra stato naturale e stato naturale Tra stato mentale e stato naturale ESEMPIO: N-D ∀x(Ax→Bx) Se uno studia viene promosso Ac Carlo studia Bc Carlo viene promosso IPR ∀x(V(x, essere promosso) e C(x, per essere promosso occorre studiare) e ◊(x, studiare) → studia x) V(c, essere promosso) C(c, per essere promosso occorre studiare) ◊(c, studiare) Carlo studia Nell’esempio concernente N-D, si spiega perché Carlo viene promosso: viene promosso perché se uno studia viene promosso e Carlo studia. Nell’esempio concernente IPR si spiega perché Carlo studia: perché Carlo vuole essere promosso, crede che per essere promossi occorra studiare e nessuno gli impedisce di farlo. La premessa maggiore dell’argomentazione non è una legge, ma un postulato generale che fa riferimento alla logica del volere e del credere e ai contenuti astratti che compaiono nello scopo degli operatori del volere e del credere. 164 PARTE ANTOLOGICA G.H. von WRIGHT, Spiegazione e comprensione Bologna, 1977, pp. 17-55 1. Si può dire che la ricerca scientifica, vista in una prospettiva molto ampia, presenta due aspetti principali. Uno è l’accertamento e la scoperta di fatti, l’altro è la costruzione di ipotesi e di teorie. Questi due aspetti dell’attività scientifica sono, talvolta, chiamati, rispettivamente, scienza descrittiva e scienza teorica. La costruzione di teorie serve a due scopi principali: prevedere l’accadimento di eventi o risultati di esperimenti, e cosí anticipare nuovi fatti, e spiegare, o rendere intelligibili, fatti che sono stati già registrati. Queste classificazioni sono utili in prima approssimazione, ma non devono essere intese troppo rigidamente. La scoperta e la descrizione di fatti non possono sempre essere concettualmente distinte da una teoria relativa a questi fatti, e costituiscono spesso un passo importante verso la comprensione della loro natura. Previsione e spiegazione, d’altra parte, sono, talvolta, considerate come processi fondamentalmente identici del pensiero scientifico, e differiscono soltanto, per cosí dire, nella prospettiva temporale … Alcuni problemi concernenti l’interrelazione dei vari concetti appena menzionati – descrizione, spiegazione, previsione e teoria – possono essere utilmente considerati alla luce della storia del pensiero. In questo campo, si possono distinguere due tradizioni principali, che differiscono circa il modo d’intendere le condizioni che una spiegazione deve soddisfare per essere scientificamente accettabile. Esse sono chiamate, da alcuni autori, tradizione aristotelica e tradizione galileiana. I nomi suggeriscono che la prima ha radici molto antiche nella storia intellettuale dell’uomo, mentre la seconda è di origine relativamente recente … Quanto alle concezioni della spiegazione scientifica, il contrasto fra le due tradizioni viene, usualmente, caratterizzato come 165 spiegazione causale versus spiegazione teleologica. Il primo tipo di spiegazione è detto anche meccanicistico, mentre il secondo è denominato finalistico. La tradizione galileiana, nella scienza, si diffonde parallelamente all’affermazione del punto di vista meccanicistico-causale, nei tentativi dell’uomo di spiegare e prevedere i fenomeni, mentre la tradizione aristotelica si diffonde parallelamente ai tentativi dell’uomo di rendere i fatti teleologicamente o finalisticamente comprensibili. Non tenterò di esaminare lo sviluppo delle due tradizioni dalle loro origini, né di valutarne la relativa importanza per l’avanzamento della scienza. Limiterò il mio aperçu al periodo che va, all’incirca, dalla metà del diciannovesimo secolo fino ai nostri giorni, con particolare riguardo agli sviluppi piú recenti. Inoltre, mi limiterò alla metodologia, intendendo con ciò la filosofia del metodo scientifico. 2. Il grande risveglio, o rivoluzione, nelle scienze naturali durante la fine del Rinascimento e l’età barocca fu, in certa misura, uguagliato, nel diciannovesimo secolo, dallo studio sistematico dell’uomo, della sua storia, dei suoi linguaggi, mores e istituzioni sociali … Dato che la scienza naturale era ormai concettualmente ben fondata e gli studi umanistici con intenti scientifici erano appena all’inizio, risultava naturale che una delle questioni primarie della metodologia e filosofia della scienza del diciannovesimo secolo concernesse la relazione tra questi due rami della ricerca empirica. Le posizioni piú salienti espresse riguardo a tale questione possono venir connesse con le due principali tradizioni che abbiamo distinto nel pensiero metodologico. Una posizione riguarda la filosofia della scienza rappresentata, soprattutto, da Auguste Comte e John Stuart Mill, e usualmente detta positivismo. Il nome fu coniato da Comte, ma, se usato con la dovuta cautela, è adeguato per indicare anche la posizione di Mill e un’intera tradizione di pensiero che va da Comte e Mill non solo fino ai nostri giorni, ma anche, risalendo all’indietro nel corso del tempo, fino a Hume e alla filosofia dell’Illuminismo. Una tesi fondamentale del positivismo è il monismo metodologico, o l’idea dell’unità del metodo scientifico rispetto alle diversità dell’oggetto della ricerca scientifica. Una seconda tesi è l’opinione che le scienze naturali esatte, in particolare la fisica matematica, forniscano un ideale o modello metodologico, in base al quale 166 misurare il grado di sviluppo e di perfezione di tutte le altre scienze, comprese quelle dell’uomo. Una terza tesi, infine, è una peculiare concezione della spiegazione scientifica. Si tratta di una spiegazione «causale» in senso lato. Più specificamente, essa consiste nella sussunzione di casi individuali sotto leggi generali di natura, comprese quelle relative alla «natura umana», assunte in via ipotetica. Nei confronti delle spiegazioni finalistiche, ossia dei tentativi di rendere conto dei fatti in termini di intenzioni, scopi, fini, la posizione del positivismo consiste, o nel loro rifiuto in quanto non scientifiche, o nel tentativo di mostrare che, se debitamente purificate dalle scorie «animistiche» o «vitalistiche», esse possono venir trasformate in spiegazioni causali. Per il rilievo attribuito all’unità metodologica, all’ideale matematico della scienza, e all’importanza delle leggi generali per la spiegazione, il positivismo si collega con quella più lunga e ramificata tradizione della storia delle idee che qui ho chiamato galileiana. 3. Un’altra posizione concernente il rapporto fra scienze della natura e scienze dell’uomo si configura come reazione al positivismo. La filosofia antipositivistica della scienza, che si affermò verso la fine del diciannovesimo secolo, esprime un orientamento molto più diversificato ed eterogeneo del positivismo. Il nome «idealismo», talvolta usato per caratterizzarlo, è appropriato solo per alcuni aspetti, mentre il nome ermeneutica mi sembra piú adeguato. Tra i rappresentanti di questa corrente di pensiero, vi sono alcuni eminenti filosofi, storici e scienziati sociali tedeschi. I più noti sono, forse, Droysen, Dilthey, Simmel e Max Weber. Vicini a questi sono Windelband e Rickert, della scuola neo-kantiana del Baden. Quanto all’italiano Croce e all’eminente filosofo inglese della storia e dell’arte Collingwood, si può dire che essi appartengono all’ala idealistica di questo orientamento antipositivistico in metodologia. Tutti questi pensatori respingono il monismo metodologico del positivismo e negano che il modello fornito dalle scienze naturali esatte costituisca l’unico e supremo ideale di comprensione razionale della realtà. Generalmente, essi mettono in rilievo una dicotomia fra quelle scienze che, come la fisica, la chimica o la fisiologia, hanno di mira generalizzazioni riguardo a fenomeni riproducibili e prevedibili, e quelle che, come la storia, intendono cogliere le caratteristiche individuali e uniche dei propri oggetti. Windelband coniò il termine 167 «nomotetico» per le scienze che ricercano leggi, e il termine “idiografico” per lo studio descrittivo dell’individualità. Gli antipositivisti attaccarono anche la concezione positivistica della spiegazione. Sembra sia stato lo storico e filosofo della storia tedesco Droysen ad aver introdotto, per primo, una dicotomia metodologica che ha avuto grande influenza, e che egli indicò con i termini spiegazione (explanation) e comprensione (understanding), in tedesco Erklären e Verstehen. Scopo delle scienze naturali è, secondo Droysen, spiegare; scopo della storia è, invece, comprendere i fenomeni che rientrano nel suo dominio. Queste idee metodologiche furono, poi, sviluppate sistematicamente da Wilhelm Dilthey. Per indicare l’intero dominio del metodo della comprensione, egli usò il nome Geisteswissenschaften. In italiano, esso viene tradotto con «scienze dello spirito»; in inglese, invece, non vi è un termine equivalente adeguato, ma si dovrebbe ricordare che, originariamente, quel nome fu coniato allo scopo di tradurre in tedesco il termine inglese moral science (scienza morale). Nel linguaggio comune, non è presente la distinzione netta fra i termini «spiegare» e «comprendere». In pratica, si può dire che ogni spiegazione, sia essa causale, o teleologica, o di qualche altro genere, accresce la nostra comprensione della realtà. «Comprensione», però, è circondata da un alone psicologico che «spiegazione» non possiede. Questo carattere psicologico fu messo in rilievo da numerosi metodologi antipositivisti del diciannovesimo secolo, forse con maggior forza da Simmel, il quale riteneva che la comprensione, in quanto metodo peculiare delle scienze umane, fosse una forma di empatia (ted. Einfühlung), o ri-creazione nella mente dello studioso dell’atmosfera intellettuale, dei pensieri, sentimenti e motivazioni propri degli oggetti del suo studio. Tuttavia, non è solo per questo carattere psicologico che la comprensione può venir distinta dalla spiegazione. A differenza della spiegazione, la comprensione è connessa anche con l’intenzionalità. Si comprendono le mete e gli scopi di un agente, il significato di un segno o di un simbolo, il senso culturale di un’istituzione sociale o di un rito religioso. Questa dimensione intenzionalistica, o, per così dire, semantica della comprensione svolge un ruolo di primo piano nelle discussioni metodologiche più recenti. Se si accetta una distinzione metodologica fondamentale fra le scienze naturali e le Geisteswissenschaften storiche, sorge, 168 immediatamente, la questione di quale posto occupino le scienze sociali e comportamentali. Queste scienze sono nate, in gran parte, sotto l’influenza contrastante delle tendenze positivistiche e antipositivistiche del secolo scorso. Pertanto, non deve sorprendere che esse siano diventate un campo di battaglia per i due opposti orientamenti nella filosofia del metodo scientifico. L’applicazione di metodi matematici all’economia politica e ad altre discipline sociali era un’eredità dell’Illuminismo settecentesco, che incontrò il favore dei positivisti dell’Ottocento. Lo stesso Comte coniò il termine “sociologia”, per indicare lo studio scientifico della società umana. Dei due grandi sociologi a cavallo del secolo, Emile Durkheim era essenzialmente un positivista, almeno per quanto concerne la sua metodologia, mentre in Max Weber una certa inclinazione positivistica coesiste con il rilievo accordato alla teleologia (zweckrationales Handeln) e alla comprensione empatetica (verstehende Soziologie) … 5. L’apogeo del positivismo, nella metà del diciannovesimo secolo, fu seguito da una reazione antipositivistica, negli anni che vanno dalla fine del secolo scorso all’inizio del nostro. Ma, tra le due guerre mondiali, il positivismo si affermò nuovamente, piú vigoroso che mai. Il nuovo movimento fu chiamato neo-positivismo, o positivismo logico e, in seguito, anche empirismo logico. L’attributo “logico” fu aggiunto per indicare la componente che il rinato positivismo aveva attinto dai nuovi sviluppi della logica formale … Il positivismo logico degli anni Venti e Trenta fu, per così dire, l’affluente principale, per quanto certamente non il solo, dal quale si è diramata la più ampia corrente di pensiero filosofico oggi comunemente nota come filosofia analitica. Sarebbe affatto scorretto indicare tutta la filosofia analitica come un ramo del positivismo. Si può, comunque, affermare che, fino agli anni piú recenti, i contributi della filosofia analitica alla metodologia e filosofia della scienza rientrano nello spirito del positivismo, se per “positivismo” s’intende una filosofia che sostiene il monismo metodologico, l’ideale matematico di perfezione e una concezione della spiegazione scientifica come sussunzione sotto teorie. A sostegno di questa affermazione si possono addurre molte ragioni. Una riguarda la biforcazione della filosofia analitica in due correnti principali. La prima è la corrente nota come filosofia linguistica o filosofia del linguaggio comune, che prese le mosse dalla filosofia dell’ultimo 169 Wittgenstein ed ebbe il suo centro propulsore nella Oxford degli anni Cinquanta. Per quanto riguarda questa corrente, si potrebbe dire che essa tende, per ragioni intrinseche, ad opporsi al positivismo, sebbene tale tendenza sia rimasta latente fino agli anni più recenti. Per ragioni facilmente intuibili, la filosofia del linguaggio ordinario si è interessata relativamente poco della filosofia della scienza. La seconda corrente rappresenta un caso completamente diverso. Essa è l’erede dell’atomismo di Russell, del primo Wittgenstein e del neopositivismo del Circolo di Vienna. Non v’è dubbio che questa corrente si sia occupata principalmente di filosofia della scienza; per la tradizione stessa cui si ricollega, essa è caratterizzata da un’inclinazione positivistica intrinseca. Con il positivismo ottocentesco essa condivide, inoltre, un’implicita fiducia nel progresso reso possibile dall’avanzamento della scienza, e un atteggiamento razionalistico di “ingegneria sociale” nei confronti dei problemi umani. I filosofi analitici della scienza, per molto tempo, si sono occupati, quasi esclusivamente, delle questioni relative ai fondamenti della matematica e alla metodologia delle scienze naturali esatte. Ciò si spiega, in parte, con l’incidenza avuta dalla logica (matematica) su questo tipo di filosofia. Gradualmente, tuttavia, i filosofi analitici hanno cominciato ad interessarsi alla metodologia delle scienze comportamentali e sociali e della storia, in seguito al sempre più massiccio impiego di metodi esatti in queste scienze. Con questo spostamento di interesse, la filosofia analitica della scienza ha fatto il suo ingresso nel tradizionale campo di battaglia tra metodologia positivistica e antipositivistica, e le vecchie controversie si sono riaccese nuovamente verso la metà del nostro secolo. La scintilla che riaccese il dibattito fu una versione moderna della vecchia teoria positivistica della spiegazione scientifica. 6. La discussione dei problemi riguardanti la spiegazione entro la tradizione della filosofia analitica ricevette una spinta decisiva dall’articolo, ormai classico, di Carl Gustav Hempel, The Function of General Laws in History, pubblicato nel “Journal of Philosophy” nel 1942. Esponenti del positivismo logico e altri filosofi analitici avevano già avanzato concezioni della spiegazione simili a quelle di Hempel. Essenzialmente, tutte queste concezioni sono varianti della teoria della spiegazione esposta dai classici del positivismo, in particolare da Mill. 170 Ad un esame retrospettivo, sembra quasi un’ironia della sorte che la formulazione piú completa e lucida della teoria positivistica della spiegazione sia stata enunciata in relazione alla disciplina, per l’analisi della quale tale teoria è, per ragioni ovvie, meno adeguata, ossia la storia. Tuttavia, è proprio per questo motivo che l’articolo di Hempel ha provocato tante discussioni e controversie. La teoria hempeliana della spiegazione è nota come Covering Law Model (or Theory) … Il modo fondamentale di controllare l’asserita validità universale della teoria della spiegazione per sussunzione consiste nell’accertare se il modello mediante leggi generali vale anche per le spiegazioni teleologiche. Si potrebbe dividere il dominio tradizionalmente rivendicato dalla teleologia in due sottodomini. Il primo riguarda le nozioni di funzione, tendenza a uno scopo e totalità organiche (“sistemi”); il secondo concerne, invece, le idee di proposito e intenzionalità. Funzione e tendenza a uno scopo figurano, prevalentemente, nelle scienze biologiche, mentre intenzionalità compare nelle scienze comportamentali e sociali e nella storiografia. Ma i domini della biologia e della scienza comportamentale coincidono per molti aspetti, e, ovviamente, lo stesso vale per i domini di funzione, tendenza, scopo e totalità, da una parte, e di proposito e intenzionalità, dall’altra. Distinguerli può, nondimeno, risultare utile. Nel 1943, un anno dopo la pubblicazione del saggio di Hempel, apparve un importante articolo di Rosenblueth, Wiener e Bigelow, dal titolo Behavior, Purpose, and Teleology. Esso rappresenta un’altra pietra miliare nella storia della teoria della spiegazione. Gli autori lo scrissero indipendentemente da Hempel, ma il loro contributo, visto in una prospettiva storica, dovrebbe essere considerato come un tentativo di estendere alla biologia e alla scienza comportamentale la concezione «causalistica» e, con essa, quella per sussunzione teorica, della spiegazione. Una nozione chiave nell’interpretazione “causale” della tendenza a uno scopo proposta dai tre autori dell’articolo è quella di retroazione (feedback) negativa. Un sistema, entro il quale un fattore-causa, per esempio un convettore termico, produce un effetto, per esempio l’aumento della temperatura in una stanza, può essere connesso con un altro sistema, tale che un “difetto” nel funzionamento del primo sistema, per esempio un abbassamento della temperatura al di sotto di un certo 171 grado, produce una «correzione» nell’attività del suo fattore-causa, per esempio incremento nell’attività dei convettori termici. Il fattore-effetto del secondo sistema conferisce cosí una “parvenza di teleologia” all’attività del fattore-causa del primo sistema. Eppure, entrambi i sistemi operano in conformità a leggi causali; in entrambi i sistemi gli effetti sono spiegati sulla base di “condizioni iniziali», costituite dai fattori-causa, mediante leggi generali che connettono le cause con i loro effetti. Gli autori dell’articolo avanzavano la tesi che la tendenza a uno scopo, in generale, può essere spiegata mediante una concatenazione siffatta di sistemi causali. Un sistema dotato di meccanismo di retroazione si dice omeostatico o autoregolantesi. Tali meccanismi sono caratteristici, soprattutto, degli organismi viventi. Per esempio, il controllo della temperatura nei vertebrati è un caso di «convettore termico” provvisto di termostato. L’analisi della teleologia proposta da Rosenblueth, Wiener e Bigelow sembra concordare con una concezione della spiegazione scientifica per sussunzione teorica … Lo studio generale del controllo dei sistemi e dei meccanismi di guida, di cui l’omeostasi è solo un esempio, è noto come cibernetica. Essa ha avuto un’influenza enorme, per non dire rivoluzionaria, sulla scienza moderna, particolarmente sulla biologia e sull’ingegneria. Il contributo che essa ha dato alla scienza degli anni Cinquanta è paragonato da alcuni, per l’incidenza che ha avuto, alla rivoluzione provocata, in fisica, dalle teorie della relatività e dei quanti nelle prime decadi del secolo. A mio avviso, l’importanza di tale contributo alla metodologia risiede nel fatto che ha determinato una cospicua affermazione, nello spirito della tradizione galileiana, del punto di vista “causalistico” e “meccanicistico”. Inoltre, esso ha rafforzato alcuni assunti principali della filosofia positivistica della scienza, in particolare la concezione unitaria del metodo e la teoria della spiegazione per sussunzione. Da parte antipositivistica si nega tutto questo, e si fanno rilevare le grandi differenze esistenti fra sistemi cibernetici e sistemi meccanicistici di tipo più tradizionale e più semplice. Indubbiamente, tali differenze esistono e sono ravvisabili, per esempio, nella differenza tra lo schema che spiega il funzionamento dei meccanismi cibernetici di guida e di controllo, e lo schematismo più elementare del modello hempeliano della spiegazione per sussunzione. Tuttavia, tali differenze riguardano essenzialmente, a mio avviso, il grado di complessità e di 172 sofisticatezza logica dei modelli, e non i principi basilari della spiegazione, o la concezione della natura delle leggi scientifiche … 9. Fino a che punto si spingono le spiegazioni cibernetiche nella sfera della teleologia? Si estendono al di 1à dei confini della biologia entro le scienze dell’uomo? Si potrebbe rispondere a quest’ultima domanda facendo rilevare la profonda influenza esercitata dal pensiero cibernetico sull’economia, la psicologia sociale, e anche sulla teoria del diritto. Ma questa risposta non sarebbe molto illuminante. Non ci dice, infatti, se l’impiego, in questi campi, di idee mutuate dalla cibernetica ci fornisce spiegazioni conformi al modello della sussunzione teorica. Quanto a me, presumo che, nel complesso, la risposta debba essere negativa. Se questo è vero, e se, come penso, le spiegazioni cibernetiche dei sistemi omeostatici, e simili, nella scienza biologica si conformano al modello della sussunzione teorica, allora la “cibernetica” della scienza sociale differisce da quella impiegata in biologia piú di quanto potrebbe suggerire l’assimilazione delle varie attività di ricerca sotto questa comune denominazione. Penso che le spiegazioni cibernetiche conformi al modello della spiegazione per sussunzione riguardino essenzialmente quegli aspetti della teleologia che sono privi di intenzionalità. Tra le cose cui si attribuisce intenzionalità, le azioni occupano un posto di primo piano. Il controllo decisivo della validità universale della teoria della spiegazione per sussunzione consiste nel mostrare che essa è in grado di rendere conto della spiegazione di azioni. Molti filosofi analitici, forse la maggioranza, ritengono che la teoria superi tale controllo. Le azioni sono suggerite da motivi; la forza dei motivi consiste nel fatto che gli agenti hanno la tendenza a seguire modelli caratteristici di comportamento; tali modelli (disposizioni) forniscono le “leggi” che connettono i motivi all’azione nel caso individuale. Questa è un’esposizione consapevolmente ipersemplificata di un’idea che, con varianti piú o meno sofisticate, continua a esercitare una forte attrattiva sull’immaginazione filosofica. Mi riferisco all’idea che le azioni abbiano cause, e, quindi, ad una posizione deterministica riguardante la vecchia questione della “libertà della volontà”. Tuttavia, tra i filosofi analitici vi è anche chi si oppone a questa idea della validità del modello di spiegazione dell’azione per sussunzione teorica. 173 Un fronte di opposizione è rappresentato dai filosofi (analitici) che si occupano di metodologia della storia … [Per Dray], la ragione per cui le spiegazioni storiche, normalmente, non fanno riferimento a leggi non risiede nel fatto che tali leggi sono così complesse e poco note che dobbiamo accontentarci di darne solo un abbozzo, e nemmeno nel fatto che sono troppo banali per essere menzionate. Secondo Dray, la ragione è semplicemente che le spiegazioni storiche non si basano in alcun modo su leggi generali. Si consideri, per esempio, l’asserzione che Luigi XIV morì impopolare, perché aveva perseguito indirizzi politici nocivi agli interessi nazionali della Francia. Come potrebbe un teorico della spiegazione per sussunzione sostenere che, nella spiegazione di questo fatto, deve essere implicita una legge? Una legge generale, asserente che tutti i governanti che … diventano impopolari, fornirebbe un modello di spiegazione per sussunzione del caso in questione, solo se ad essa fossero aggiunte condizioni limitative e qualificanti, in misura tale che, alla fine, essa risulterebbe equivalente all’asserzione che tutti i governanti che perseguono politiche esattamente identiche a quelle di Luigi XIV, in condizioni esattamente simili a quelle esistenti in Francia e negli altri paesi interessati dalle politiche di Luigi XIV, diventano impopolari. Se l’esatta similarità delle politiche e delle condizioni esistenti è specificata in termini non generici, questa asserzione non è in alcun modo una … “legge”, dato che necessariamente essa si riferisce a un solo caso, quello di Luigi XIV. Se le condizioni di similarità sono specificate – ciò che risulterebbe difficilmente possibile fare in pratica – avremmo una legge genuina, ma l’unico caso di questa legge sarebbe proprio quello che si suppone che essa “spieghi”. Pertanto, in entrambi i casi, l’asserzione della legge non sarebbe che una riaffermazione di ciò che è già stato affermato, ossia che la causa dell’impopolarità di Luigi XIV negli ultimi anni della sua vita fu la sua disastrosa politica estera. Le critiche mosse dal Dray al ruolo delle leggi generali nelle spiegazioni storiche conducono così a un completo rifiuto del modello mediante spiegazione per sussunzione … Per Dray, spiegare un’azione consiste nel mostrare che quell’azione era la cosa più appropriata o razionale da farsi nell’occasione considerata. Questo tipo di spiegazione viene chiamato da Dray spiegazione razionale … 174 L’opera di Elizabeth Anscombe, Intention, appare nello stesso anno del libro di Dray. Fu in quest’opera che la nozione di intenzionalità assunse quel ruolo di rilievo, che poi mantenne nei successivi dibattiti sulla filosofia dell’azione tra i filosofi analitici. Per quanto non si occupi direttamente della teoria della spiegazione, il libro della Anscombe ha fornito importanti contributi anche in questo campo … [In particolare], la Anscombe ha richiamato l’attenzione sul peculiare carattere logico del ragionamento, che, nella terminologia tradizionale, è chiamato sillogismo pratico. L’idea risale ad Aristotele, e, a detta della Anscombe, è una delle sue scoperte migliori, per quanto sia poi andata perduta nella filosofia posteriore, che la fece oggetto di continui fraintendimenti … Un modo per ricostruire l’idea principale contenuta nella nozione in esame è il seguente: il punto di partenza, o la premessa maggiore, del sillogismo menziona una cosa cui si aspira, o un fine dell’azione; la premessa minore collega un’azione con questa cosa, all’incirca in una relazione mezzo-fine; la conclusione, infine, consiste nell’uso di questo mezzo per ottenere quel fine. Così, come in un’inferenza teorica l’affermazione delle premesse conduce necessariamente all’affermazione della conclusione, in un’inferenza pratica l’accettazione delle premesse implica un’azione conforme ad esse … Il ragionamento pratico riveste enorme importanza per la spiegazione e la comprensione dell’azione. È un assunto del presente lavoro che il sillogismo pratico fornisca alle scienze dell’uomo una cosa di cui la loro metodologia è stata a lungo carente: un modello di spiegazione che, a buon diritto, costituisce un’alternativa ben precisa al modello per sussunzione teorica sotto una legge generale. In termini generali, il sillogismo pratico è, rispetto alla spiegazione teleologica e alla spiegazione nella storia e nelle scienze sociali, ciò che il modello per sussunzione teorica è rispetto alla spiegazione causale e alla spiegazione nelle scienze naturali. 175 EDUCatt Ente per il Diritto allo Studio Universitario dell’Università Cattolica Largo Gemelli 1, 20123 Milano - tel. 02.7234.22.35 - fax 02.80.53.215 e-mail: [email protected] (produzione); [email protected] (distribuzione) web: www.educatt.it/libri ISBN: 978-88-8311-372-7 ANTONELLA CORRADINI EPISTEMOLOGIA DELLE SCIENZE UMANE 9 788883 113727 > Euro 10,00