epistemologia delle scienze umane

annuncio pubblicitario
ANTONELLA CORRADINI
EPISTEMOLOGIA
DELLE SCIENZE UMANE
Un’introduzione al corso
ANTONELLA CORRADINI
EPISTEMOLOGIA
DELLE SCIENZE UMANE
Un’introduzione al corso
Milano 2005
© 2005-2013
EDUCatt - Ente per il Diritto allo Studio Universitario dell’Università Cattolica
Largo Gemelli 1, 20123 Milano - tel. 02.7234.22.35 - fax 02.80.53.215
e-mail: [email protected] (produzione); [email protected] (distribuzione)
web: www.educatt.it/libri
ISBN edizione cartacea: 978-88-8311-372-7
ISBN edizione elettronica: 978-88-6780-025-4
L’edizione cartacea di questo volume è stata stampata nel mese di settembre 2013
presso la Litografia Solari – Peschiera Borromeo (Milano); l’edizione elettronica è
disponibile gratuitamente nell’area web EDUCatt dedicata al progetto FreeBook,
all’indirizzo www.educatt.it/libri/freebook
INDICE
PREMESSA ..........................................................................................5
1 TEORIE............................................................................................6
1.1 Struttura generale delle teorie....................................................6
1.2 Simmetria vs. asimmetria tra spiegazione e
giustificazione .........................................................................10
1.3 Conseguenze della asimmetria del nuovo metodo ..................18
Parte antologica ............................................................19
2 SPIEGAZIONE E PREVISIONE ..................................................31
2.1 La spiegazione secondo il modello deterministico..................32
2.2 La spiegazione probabilistica ..................................................33
2.2.1 Due nozioni di probabilità .............................................34
2.2.2 Probabilità epistemica vs. probabilità ontica .................35
2.2.3 Che cosa spiego con il modello I-S?..............................35
2.3 Spiegazione e previsione .........................................................37
Parte antologica ............................................................38
3 GIUSTIFICAZIONE......................................................................63
3.1 Neo-Positivismo ......................................................................63
3.1.1 Neo-Positivismo: prima fase..........................................63
3.1.2 Neo-Positivismo (seconda e terza fase) .........................64
3.2 Falsificazionismo popperiano .................................................67
3.2.1 Critica all’induttivismo..................................................67
3.2.2 Razionalismo .................................................................68
3.2.3 Falsificazione .................................................................69
3.2.4 Corroborazione e previsione razionale ..........................71
3.3 Epistemologia post-popperiana ...............................................74
3.3.1 T. Kuhn ..........................................................................75
3.3.2 P.K. Feyerabend.............................................................79
3
3.4 Riflessioni critiche sull’epistemologia contemporanea...............82
3.4.1 Una chiave di lettura dell’epistemologia
contemporanea basata sul rapporto tra teoria e fatti
empirici ..........................................................................85
3.4.1.1 Carico teorico dei concetti osservativi...............86
3.4.1.2 Carattere olistico della giustificazione...............88
3.4.1.3 Tesi della sottodeterminazione empirica
delle teorie......................................................................90
3.4.1.4 Argomento della spiegazione migliore ..............91
Parte antologica ............................................................92
4 DINAMICA DELLA SCIENZA..................................................125
4.1 Il Neo-Positivismo.................................................................125
4.2 Il Falsificazionismo ...............................................................126
4.3 L’epistemologia post-popperiana ..........................................126
Parte antologica ..........................................................128
5 REALISMO E ANTIREALISMO NELLA SCIENZA ..............131
5.1 Che cos’è il realismo scientifico ...........................................131
5.2 Teoria della verosimilitudine in Popper ................................133
5.3 Il realismo circa gli inosservabili ..........................................135
Parte antologica ..........................................................136
6 SPIEGAZIONE E COMPRENSIONE ........................................153
6.1 La nascita del dibattito nell’Ottocento ..................................153
6.1.1 Il Positivismo ...............................................................154
6.1.2 Lo Storicismo...............................................................155
6.2 Prospettive contemporanee....................................................157
6.2.1 Neo-Positivismo: tesi dell’unità del metodo
scientifico.....................................................................157
6.2.2 Popper ..........................................................................159
6.2.3 Wittgenstein e la psicologia.........................................162
6.2.4 G.H. von WRIGHT ........................................................162
Parte antologica ..........................................................165
4
PREMESSA
La presente dispensa è destinata agli studenti del corso di
Epistemologia delle Scienze Umane, attivato presso il corso di laurea
in Scienze e Tecniche Psicologiche della Facoltà di Psicologia.
Essa concerne gli argomenti delle prime due parti del corso,
riguardanti rispettivamente l’epistemologia generale e l’epistemologia
delle scienze umane.
Nel redigere la dispensa, si è privilegiato il criterio dell’essenzialità
e della sinteticità della trattazione, affidando alla ricca parte antologica
le esemplificazioni e la contestualizzazione degli argomenti. La parte
antologica offre inoltre agli studenti l’opportunità di venire a
conoscenza del dibattito epistemologico contemporaneo dalla viva
voce dei suoi protagonisti.
5
1
TEORIE
1.1 Struttura generale delle teorie: T = <L,U>
T= Teoria = linguaggio che parla di un universo oggettuale
U = Universo oggettuale o ambito o dominio di realtà: insieme di
oggetti provvisti di proprietà e relazioni
L = Linguaggio = insieme di proposizioni che parlano delle
proprietà e delle relazioni tra gli oggetti costituenti il dominio
oggettuale relativo
6
ESEMPI:
FISICA
LINGUAGGIO
OGGETTI
(1) Enunciati che descrivono i
fenomeni fisici (movimento di corpi:
le parabole degli oggetti che cadono);
Corpi dotati di
specifiche
proprietà/relazioni
come la massa, il
movimento e la velocità
(2) Enunciati che descrivono le
regolarità dei fenomeni fisici (Leggi)
MATEMATICA
(ARITMETICA)
(1) Enunciati dell’aritmetica: 1 + 2 = 3, Enti astratti
5 < 7; (2) Legge aritmetica: la somma (i numeri naturali, 0, 1,
è commutativa: a + b = b + a
2, 3, …)
TEORIA DEL
COMPORTAMENTO
PSICOPATOLOGICO
TEORIA
DELL’EVOLUZIONE
(1) Enunciati che
descrivono i
comportamenti
psicopatologici; (2) Leggi
che presiedono ai
meccanismi di difesa e che,
perciò, spiegano tali
comportamenti
(1) Enunciati relativi alla
differenziazione delle
specie viventi (collocazione
temporale delle specie
animali viventi, loro
nascita, loro estinzione…);
(2) Leggi che descrivono i
meccanismi di evoluzione
delle specie viventi
7
Comportamenti
psicopatologici (amnesie,
lapsus, fobie, …)
Le specie viventi
TEORIE COME SISTEMI ORGANIZZATI DI ENUNCIATI
T = <Assiomi di T, nesso di conseguenza logica (
)>
Teorema = Conseguenza logica degli assiomi
ASSIOMI
⇓
Teorema
Conseguenza logica
Se gli assiomi sono veri
allora
è vero il teorema
ESEMPIO DELLA GEOMETRIA:
ASSIOMI
Assioma delle parallele:
Per un punto esterno ad una
retta data passa una e una
sola retta ad essa parallela...
⇓
TEOREMA
La somma degli angoli
interni di un triangolo è di
180°
Se è vero l’assioma delle
parallele
Conseguenza logica
8
allora
è vero il teorema della
somma del triangolo
DUE ASPETTI DEL NESSO DI CONSEGUENZA LOGICA:
(1) Momento esplicativo (SPIEGAZIONE)
(2) Momento giustificativo (GIUSTIFICAZIONE)
OGGETTO
SPIEGAZIONE: riguarda un
EVENTO = accadere o sussistere di un fatto
GIUSTIFICAZIONE: riguarda una
CREDENZA (CONVINZIONE)
SPIEGARE UN EVENTO
significa
GIUSTIFICARE UNA
CREDENZA
significa
TROVARE LA CAUSA DI TALE EVENTO
= O FATTO
TROVARE LA RAGIONE PER CUI VA
= RITENUTA VERA TALE CREDENZA
ESEMPIO:
SPIEGARE IL
FATTO CHE
PIOVERÀ
significa
GIUSTIFICARE
LA CREDENZA
CHE PIOVERÀ
significa
TROVARE LA
= CAUSA DI TALE
FATTO
È IN ATTO UN ABBASSAMENTO
DELLA TEMPERATURA E IL
CIELO È NUVOLOSO
TROVARE LA
RAGIONE PER
= CUI VA
RITENUTA VERA
TALE
CREDENZA
RICONDURRE LA CREDENZA
CHE PIOVERÀ
ALL’ABBASSAMENTO DELLA
COLONNA DI MERCURIO
9
1.2 Simmetria vs. asimmetria tra spiegazione e giustificazione
Nella scienza antica (aristotelica) si dava una simmetria tra
spiegazione e giustificazione, che si può evidenziare nei seguenti due
schemi.
SIMMETRIA DEL MODELLO ARISTOTELICO NELLE
SCIENZE MATEMATICHE
ASSIOMI EVIDENTI
(risultato della intuizione delle essenze)
Es. Assiomi della geometria
Piano (aletico) della
spiegazione
Piano (epistemico) della
giustificazione
(È in gioco la verità)
(È in gioco il grado di
certezza)
⇓
Conseguenza logica
I principi primi spiegano il
risultato
⇓
I principi primi
conferiscono certezza al
risultato
dato disciplinare
(possibilmente non
evidente)
Es. Somma angoli
triangolo = 180°
10
SIMMETRIA DEL MODELLO ARISTOTELICO NELLE
SCIENZE EMPIRICHE
ASSIOMI
EVIDENTI
(risultato della intuizione delle essenze)
Es. Gli oggetti empirici tendono verso il loro luogo naturale
Piano (aletico) della
spiegazione
Il luogo naturale degli
oggetti materiali (pesanti)
è la terra
(È in gioco la verità)
Piano (epistemico) della
giustificazione
(È in gioco il grado di
certezza)
⇓
Lasciati liberi,gli oggetti
materiali tendono a cadere
verso la terra (in basso)
⇓
I principi primi spiegano il
dato
Questa pietra è materiale
ed è lasciata libera
I principi primi
conferiscono certezza alla
conoscenza
del dato
dato disciplinare
Es. Questa pietra cade
verso il basso
11
La nuova scienza empirica galileiana si caratterizza per
l’asimmetria tra spiegazione e giustificazione, se non nelle scienze
formali, per lo meno in riferimento alle scienze empiriche.
TEORIE MATEMATICHE
ASSIOMI
Piano (aletico) della
spiegazione (È in gioco la
verità)
∼
∼
∼
Piano (epistemico) della
giustificazione (È in gioco
il grado di certezza)
⇓
∼
conseguenza logica
∼
⇓
Gli assiomi spiegano il
teorema
∼
∼
∼
Gli assiomi conferiscono
certezza al teorema
teorema
Nell’ambito delle scienze formali come la matematica, si riscontra
una simmetria del rapporto tra spiegazione e giustificazione. In altri
termini, gli assiomi non solo spiegano il teorema (cioè ne assicurano
la verità), ma oltre a ciò giustificano la credenza nella sua correttezza.
12
ASIMMETRIA DEL RAPPORTO TRA SPIEGAZIONE E
GIUSTIFICAZIONE NELLE SCIENZE EMPIRICHE
Leggi
Piano (aletico) della
spiegazione
(È in gioco la verità)
⇓
Gli assiomi
spiegano il dato
∼
∼
∼
∼
conseguenza
logica
∼
∼
∼
∼
Piano (epistemico) della
giustificazione
(È in gioco il grado di
certezza)
⇑
Il dato conferma le ipotesi
Il dato
(Base empirica)
Nelle scienze empiriche, a differenza delle matematiche, si ha
un’asimmetria del rapporto tra spiegazione e giustificazione. In altri
termini, le leggi generali spiegano il dato, ma è poi il dato a
giustificare le leggi da cui viene dedotto.
Approfondiamo la struttura delle teorie empiriche.
13
TEORIE EMPIRICHE
1. Componenti:
(a) Base empirica (osservativa) = insieme di proposizioni che
risultano vere in base all’esperienza = insieme delle proposizioni
osservative vere = insieme delle proposizioni che descrivono fatti
empirici = insieme delle proposizioni sperimentali
(b) Parte teorica = leggi della teoria
2. Linguaggio L
L = VO + VT
VO = termini riguardanti entità osservabili, riguardo ai quali cioè è
possibile decidere mediante osservazione (sperimentazione) se
convengono o meno a un oggetto empirico. Esempio: termini
riguardanti la lettura di strumenti di misurazione, mutamenti di colore,
comportamenti esteriori…
14
VT = termini che riguardano inosservabili. Esempio: peso specifico
(x) = p(x)/v(x); molecola, elettrone, quark, …
Ragione della distinzione tra i vocabolari:
Quando si fa scienza non ci si accontenta di una descrizione del
fenomeno osservabile, bensì si ricerca una spiegazione di ciò che lo fa
accadere: la scienza mira a comprendere la costituzione e le cause
sottostanti e inosservabili dei fenomeni palesi (Kosso, Parte antologica).
3. Relazioni tra le parti
T = < LEGGI,
, Base empirica >
ESEMPIO DELLA FISICA:
Legge della gravitazione
universale
⇓
Se è vera la legge della
gravitazione universale
Conseguenza logica
Questa mela cade verso il
basso
allora
si verifica che questa mela
cade verso il basso
15
ESEMPIO DELLA METAPSICOLOGIA FREUDIANA:
Se si danno le leggi che
presiedono ai meccanismi
di difesa
Leggi dei meccanismi di
difesa
Es: Meccanismo di
formazione reattiva:
attitudine contraria ai
propri reali sentimenti
suscitata dall’angoscia
generata da tali sentimenti
⇓
Es: Se sono vere le leggi
che presiedono al
meccanismo della
formazione reattiva
Conseguenza logica
Omofobia
allora
si verifica il
comportamento omofobico
In conclusione, si può dire che nella scienza galileliana ha luogo
una asimmetria tra il fondamento aletico e il fondamento epistemico
delle scienze empiriche.
Ciò che spiega
(fondamento aletico)
IPOTESI
Ciò che è giustificato
Piano (aletico) della
spiegazione
⇓
Conseguenza
logica
Piano (epistemico) della
giustificazione
⇑
Ciò che è spiegato
Base empirica
Ciò che giustifica
(fondamento epistemico)
16
DIVERSITÀ TRA IL MODELLO ARISTOTELICO E IL
MODELLO GALILEIANO DI SCIENZA:
MODELLO ARISTOTELICO
– Per Aristotele, scienza e filosofia non sono due attività distinte;
– La scienza ha una struttura assiomatica, dimostrativa, deduttiva;
– Tramite gli assiomi cogliamo l’essenza dei fenomeni, la loro natura
profonda;
– La conoscenza dell’essenza è una conoscenza certa, evidente, ossia
autogiustificantesi;
– Tale conoscenza è irrevedibile, non modificabile o falsificabile;
⇓
– Struttura aprioristica del sapere scientifico, l’esperienza gioca un
ruolo trascurabile.
MODELLO GALILEIANO
– Formulazione di un criterio di demarcazione tra scienza e filosofia;
– Passaggio dal metodo deduttivo al metodo ipotetico-deduttivo
⇓
– La conoscenza scientifica è per sua natura sempre revedibile,
modificabile, falsificabile.
17
1.3 Conseguenze della asimmetria del nuovo metodo
– Il carattere ipotetico delle teorie: “I concetti di teoria, ipotesi e
legge descrivono lati diversi delle affermazioni scientifiche e non si
escludono l’un l’altro” (Kosso, parte antologica).
– distinzione tra contesto della scoperta e contesto della
giustificazione
Contesto oggettivo della spiegazione e della
giustificazione
Contesto della spiegazione:
Contesto della
giustificazione:
Logica deduttiva
Logica deduttiva
+
Logica induttiva (almeno
per i neo-positivisti)
18
Contesto soggettivo della
scoperta
Psicologia
PARTE ANTOLOGICA
P. KOSSO, Leggere il libro della natura
Bologna 1995, pp. 15-33
Ciò che le teorie non sono
… Cominciamo a tentar di chiarire il concetto di scienza
discutendo l’uso di un termine scientificio chiave: quello di «teoria».
Spesso, sia gli addetti alla scienza sia i non addetti … usano il
concetto in modo vagamente peggiorativo come quando si dice: «ma
è solo una teoria!» Questo fa subito pensare a una situazione di
distacco dalla realtà e di mancanza di dimostrazione, a un’assenza di
buoni motivi per credere a un’affermazione la quale, appunto, è solo
una teoria … Potrebbe anche darsi che ci siano buone ragioni per non
credere ad affermazioni puramente teoriche …
Ironia vuole che i maggiori risultati della scienza … sono tutti
qualificabili come teorie. Pensiamo un attimo. I risultati della
scienza? Per esempio è riuscita a capire il fenomeno della
gravitazione universale, cioè che tutti gli oggetti dotati di massa,
siano essi sulla terra e negli alti cieli, si attraggono fortemente l’un
l’altro. Ciò descrive un ampio assortimento di eventi, dalla caduta
intorno a noi di cose prive di sostegno ai movimenti dei pianeti e
delle stelle, all’espansione dell’intero universo. Se si vuole essere
commentatori della scienza moderni e informati, ci si deve insomma
riferire alla teoria generale della relatività.
Colla sua applicazione alle difficoltà del nostro confronto col
mondo, la scienza ha anche un impatto pratico. Essa ha spiegato i
meccanismi invisibili della trasmissione delle malattie. Chi non crede
alla teoria dei germi? … Se invece si vuol sapere dove, quando e
perché avvengono i terremoti, e si vuole una risposta scientifica, si
consulterà la teoria degli strati tettonici. E così via.
Quando non si parla più di teorie, si è smesso di parlare di scienza.
Così, se essere scientifico, nella misura in cui si occupa
dell’approccio metodologico alla verità sul mondo, è una cosa buona
19
e se le teorie sono il prodotto primario dell’impresa scientifica, allora
non può essere che, proprio perché le teorie sono teorie, esse sono
improbabili o comunque bisognose di dimostrazione scientifica,
qualunque cosa ciò voglia dire. Essere teorico non è niente di cui ci si
debba vergognare.
È forse qualcosa di cui si debba andare orgogliosi? Se «teoria» non
è un termine di biasimo, è forse un termine di lode, indicativo di una
descrizione credibile ed esauriente di qualche aspetto del mondo? No,
almeno se prestiamo attenzione a come il concetto viene usato nella
scienza. Consideriamo due comuni riferimenti al concetto di teoria, la
teoria del calorico e la teoria cinetica. Entrambe sono descrizioni del
fenomeno del calore anche se esse descrivono il meccanismo
soggiacente in modi molto differenti. La teoria del calorico dice che il
calore è una sostanza (detta, appunto, calorico), in particolare un
fluido sottile che penetra dentro e fuori le cose rendendole,
rispettivamente, più calde e più fredde. Essere caldo è come essere
bagnato; solo che il fluido è diverso: calorico invece di acqua. La
teoria cinetica, al contrario, afferma che il calore non è un tipo
speciale di sostanza bensì un tipo speciale di attività delle molecole
delle sostanze calde. In una patata non si insinua niente che la renda
calda: semplicemente, le molecole che la costituiscono vibrano più
veloci. Non c’è alcuno scambio di materia e, in realtà, non esiste
niente che sia il calorico. È chiaro che queste due teorie, come
descrizioni accettabili del calore, sono tra loro in competizione. È
probabile che una sia più vera dell’altra, ma nessuna è più teorica
dell’altra. La probabilità di essere vera non è valutata sulla base di
come ciascuna sia teorica. I criteri non sono nemmeno coincidenti.
Per essere chiari, ha senso parlare di teorie vere così come ha senso
parlare di teorie false. L’essere teorico è irrilevante rispetto all’essere
vero.
È irrilevante anche rispetto alla distinzione tra l’essere ben
dimostrato e l’essere nuovo e ipotetico. La teoria speciale della
relatività, col suo modo di riguardare il moto, la massa, l’energia e le
loro interazioni nello spazio e nel tempo, ha superato molti test
scientifici con un punteggio altissimo. È una teoria assodata. La si
confronti con la teoria delle superstringhe, una proposta relativamente
nuova sulla struttura dello spazio, del tempo e di tutto ciò che c’è in
loro. Si tratta di una descrizione del mondo interessantissima ma non
controllata, ed è, appunto, una teoria. La questione non è tanto che
20
queste due teorie sono in competizione tra loro (in effetti non lo
sono), quanto che esse, sebbene differiscano in maniera significativa
rispetto all’essere controllate o meno, stanno entrambe,
comodamente, entro il concetto di teoria.
Forse, se «teoria» non è elogiativo nel senso dell’essere probabile
che sia vera, è però il riconoscimento, fatto sulla base della struttura
stessa di un’affermazione, che quanto essa dice è una descrizione
esauriente, completa, di una data parte del mondo. Per confezionare la
descrizione, diciamo, di un elettrone, o di uno strato tettonico, ci
possono volere svariati concetti interrelati ed è solo il pacco intero
delle affermazioni, dei modelli e, perfino, dei procedimenti
sperimentali a valere come teoria scientifica. Talvolta, in effetti, le
teorie vengono considerate come entità complesse, sfaccettate ma è
difficile dire esattamente cosa vi debba essere incluso per avere una
teoria completa e per avere quindi un’unità di valutazione scientifica
che sia adeguata in questo senso. E non è neanche necessario. Visto
che il progetto è valutare la giustificazione delle affermazioni
scientifiche, è meglio attenersi alla possibilità che l’essere giustificato
o meno spetti alle parti di queste entità sfacettate, cioè alle singole
affermazioni. Si vuole con ciò difendere l’interesse per quei concetti
di teoria secondo i quali una teoria può anche essere un’affermazione
singola, addirittura isolata, difendendo con ciò la legittimità di
locuzioni del tipo «la teoria secondo la quale i raggi cosmici nascono
da reazioni nucleari nello spazio esterno».
Questo significa che si possono avere teorie sia generali sia
speciali, teorie esaurienti oppure selettive … Si può avere una teoria
generale della nascita della civiltà o una teoria del significato
effettivo di Stonehenge. Si può avere la teoria che i dinosauri furono
sterminati da catastrofici cambiamenti climatici. Si può avere la teoria
che è il tizio della porta accanto quello che ci ruba il giornale la
domenica.
Per riassumere, nessuno di questi aspetti, ossia probabilità di
essere vera, generalità o comprensività, delimita esattamente il
concetto di ciò che è una teoria … Dire di qualcosa che è una teoria
non è né un credito né un discredito. In termini di credibilità, possono
esservi teorie sia buone sia cattive ma esse restano ciò nonostante
teorie. Un modo per decidere se una certa affermazione autorizzi a
credere a essa ci vuole di certo ma non serve rilevare semplicemente
21
che è una teoria. Si ha bisogno dell’informazione ulteriore che si tratti
di una buona teoria.
Fin qui si è parlato di … cosa non significa «teoria» ma il concetto
ha di sicuro dei limiti. Che significa, allora, «teoria?» …
Cosa sono le teorie
Rispondendo a questa domanda conviene prestare attenzione
all’osservazione, fatta prima, secondo la quale i prodotti primari
dell’impresa scientifica sono le teorie. Qual è dunque lo scopo della
scienza? In cosa consiste tale produzione? Ma la scienza mira, più in
generale, a dar conto di ciò che accade dietro i fenomeni della nostra
esperienza. Descrivendo oggetti ed eventi che non sono palesi, essa
tenta di dar senso a quegli avvenimenti del mondo che invece lo sono.
La scienza mira a comprendere la costituzione e le cause sottostanti
dei fenomeni palesi e a dare, in tal modo, senso al mondo fenomenico
in cui abitiamo … Questa capacità ha bisogno della comprensione
delle cause, ossia di quei meccanismi non visti che determinano gli
eventi della nostra esperienza …
La scienza non vuole semplicemente descrivere, in maniera
accurata e metodica, il mondo osservabile, non vuole essere solo una
descrizione raffinata ed esatta dei fenomeni, la migliore
raffigurazione possibile degli oggetti palesi con tanto di programma
puntuale del loro andare e venire. Certamente, nella scienza, questo
tipo di ritratto preciso e dettagliato del mondo palese è uno strumento
necessario per la scoperta e il controllo. Scoperta e controllo di che?
Di teorie. Le osservazioni precise servono a mostrare come la scienza
descrive il mondo in quegli ambiti del reale che sono troppo piccoli,
troppo distanti o troppo lontani nel passato per poterne fare
esperienza.
Se, per esempio, la scienza viene applicata ai fenomeni della
pioggia acida e delle foreste e dei laghi che muiono, il risultato è
qualcosa di più di una lista dettagliata degli effetti. In questo caso si
vuole sapere esattamente cosa sta accadendo, ed è questo ciò che
esattamente si ottiene. Un rapporto scientifico è utile e interessante
nella misura in cui descrive i costituenti non visti del problema, gli
acidi e i loro componenti chimici, e gli eventi fondamentali della loro
produzione e della loro unione nell’atmosfera. È questa descrizione di
ciò che accade al di là dell’immediatamente palese che costituisce il
22
prodotto della scienza, ed è questo il motivo per cui, se vogliamo
comprendere e ricevere aiuto, ci rivolgiamo alla scienza …
Le più fondamentali tra le dimostrazioni scientifiche che si fanno
in classe, come quelle attraverso le quali si vuole insegnare cosa
accade nella scienza, sono di questo tipo. La mia preferita prevede lo
strofinamento di un palloncino sui capelli di qualcuno per poi far
toccare al palloncino la parete. Il palloncino si attacca. Si comincia a
fare scienza quando ci si chiede: qui che sta succedendo? Ma non si
vuole una descrizione del fenomeno osservabile, bensì una
spiegazione di ciò che lo fa accadere. C’è la questione della
costituzione di base del palloncino, dei capelli e della parete, c’è la
questione dell’evento dello strofinio che fa sì che il palloncino si
attacchi. Forse, quando il palloncino è strofinato sui capelli, si gratta
via una sottile pellicina di gomma vecchia e secca e si espone la
gomma fresca e appiccicosa che sta sotto, e per questo resta attaccato
alla parete. O, forse, l’azione più importante si svolge a una scala
ancora più piccola, e lo strofinio gratta via dai capelli microparticelle
di carica elettrica per cui il palloncino diventa elettricamente carico e
quindi passibile di attrazione da parte delle particelle cariche della
parete. È questo tipo di descrizione dei fattori che sono responsabili
dei fenomeni e che non si percepiscono, è questo genere di resoconto
del mondo da dietro le quinte, ciò che costituisce la realizzazione
della scienza …
Volendo comprendere la struttura della scienza e i suoi metodi di
giustificazione, è utile distinguere due generi di affermazioni circa gli
oggetti e gli eventi non osservabili …
Un tipo di teoria sarà quello fatto solo di affermazioni sugli
inosservabili, cioè di descrizioni degli abitanti e delle attività del
mondo inosservabile senza alcuna menzione del loro impatto su
quello osservabile. Per esempio, molte delle affermazioni che si
trovano nella descrizione che i fisici danno delle particelle elementari
non hanno alcun contatto con il mondo dell’esperienza. Tutti i barioni
(per esempio i protoni) sono fatti di quark. Questo definisce due
generi di entità inosservabili e la loro relazione di composizione. Ora,
delle particelle, ne sappiamo ancora di più in base all’affermazione
che le forze di interazione tra di esse, ad esempio quelle occorrenti
nelle collisioni, sono causate dallo scambio di particelle ulteriori, le
cosiddette particelle virtuali. Si tratta di una descrizione del
micromondo interessante e forse addirittura esatta ma, a questo
23
livello, il mondo su cui la descrizione dà informazioni è isolato
rispetto a quello della nostra esperienza. Lo stesso vale per le
descrizioni di un passato lontano, per le ricostruzioni dell’aspetto di
edifici e ceramiche, e del comportamento politico ed economico.
Tutte le affermazioni di questo tipo descrivono solamente ciò di cui
chi descrive non può avere esperienza.
L’altro tipo di affermazione teorica è quello che serve a rompere
questo isolamento. Ci vogliono, a questo scopo, affermazioni
concernenti le interazioni tra i non osservabili e gli osservabili.
Appartengono a questa seconda categoria le descrizioni di quegli
eventi del passato che hanno influenzato i tratti salienti delle tracce
ritrovate nel presente, siano esse testi superstiti, resti archeologici o
evolute pratiche sociali. Altri esempi includono le descrizioni
dell’impatto causale del micromondo sul macromondo (e viceversa).
Un tale tipo di asserzione colma la lacuna tra ciò che esperiamo,
l’immagine manifesta del mondo, e ciò che non possiamo esperire ma
a cui siamo interessati, l’immagine scientifica. Chiaramente,
affermazioni teoriche di questa sorta saranno di fondamentale
importanza per la comprensione del materiale probatorio scientifico e
del processo di controllo.
Esempi di tali asserzioni sono facilmente localizzabili nelle attività
sperimentali degli scienziati. Una particella carica, come un protone,
quando passa accanto a degli atomi li ionizzerà e, in un vapore
supersaturo come quello che si ottiene in una camera a nebbia, attorno
agli ioni si formeranno delle bolle visibili. In tal modo la
microparticella lascia il suo segno nel mondo dell’esperienza e,
quindi, si possono avere informazioni su certi aspetti del suo
comportamento. Dato che i buchi neri attraggono gravitazionalmente
la luce, essi faranno curvare i raggi luminosi proprio come fa una
lente e causeranno un’immagine visibilmente alterata delle stelle e
delle galassie che si trovano vicine alla loro posizione nel cielo. Ciò
che non si può vedere ha un’influenza notevole su ciò che invece si
può. Un vaso di ceramica, usato, rotto e gettato via nell’antica Grecia,
finisce inavvertitamente nel recinto degli animali tra il letame;
assieme al letame i pezzi vengono sparpagliati nei campi solo per
essere poi recuperati ed esaminati da un archeologo moderno che ha
una teoria secondo la quale i cocci provenivano non da un vaso usato
qui nel campo bensì da uno usato là nella fattoria.
24
Queste sono le teorie che forniscono immagini … le teorie di
questo tipo assicurano che ciò che viene esperito, la traccia nella
camera a nebbia o il coccio di vaso, è un’immagine informativa del
suo precedessore causale, cioè della particella o del vaso …
La nostra situazione rispetto al mondo inosservabile delle
immagini scientifiche è quella che ci vede, in quanto percipienti, a
uno dei due capi della catena causale. All’altro capo sta l’oggetto che
ci interessa. Il vaso antico, attraverso una successione di interazioni
causali comprendenti il riutilizzo culturale e l’erosione, produce un
coccio in un campo, e tutto ciò che l’archeologo vede è l’ultimo
passo, il coccio. Un protone causa ionizzazione, bolle e una traccia di
vapore, e tutto ciò che il fisico vede è la traccia. Se il coccio o la
traccia devono essere materiale probatorio di qualcosa, ci deve essere
una teoria che descrive l’altro capo della catena causale come pure i
passaggi intermedi. Così, entrambi i tipi di teoria, sia quello
concernente soltanto gli inosservabili … sia quello concernente la
relazione tra gli inosservabili e gli osservabili … sono usati per
ricostruire la catena interattiva che va dall’oggetto dell’interesse
scientifico all’immagine manifesta.
Ipotesi e leggi
… Come si è sottolineato prima, alcune teorie scientifiche sono
state controllate in maniera esauriente e altre no. Le prime sono
passate attraverso quello che costituisce la risposta al problema della
giustificazione. Le altre, cioè quelle che non ci sono passate o sono
ancora alle fasi preliminari del controllo, sono ipotesi. Dire di
qualcosa che è un’ipotesi significa riferire circa il suo status di
giustificazione, qualificandola come non controllata o controllata solo
minimamente.
… È chiaro che questo aspetto delle affermazioni scientifiche va
per gradi. Si vedrà subito che la giustificazione si accumula senza mai
raggiungere lo stadio della certezza. Per questo motivo, nella
descrizione della scienza, è preferibile usare l’aggettivo «ipotetico»
piuttosto che il nome «ipotesi» e pensare non a una dicotomia tra ciò
che è e ciò che non è un’ipotesi ma a una misura della maggiore o
minore ipoteticità di un’affermazione. La scienza, in quanto impresa
responsabile verso il pubblico, vuole che i suoi prodotti, qualora siano
provvisori e non controllati, portino come avvertimento l’etichetta di
«ipotetico». È un etichetta che non si stacca in un colpo solo ma si
25
toglie un po’ alla volta. Lo status di ipoteticità di una teoria cambia e
ciò indica che tale status non è una caratteristica intrinseca che
descriva ciò di cui la teoria tratta o ciò che essa dice o la forma in cui
lo dice: l’essere ipotetico è un riflesso della relazione storica che la
teoria ha con le attività (o inattività) della comunità scientifica. Non è
semplicemente guardandola che, di un’affermazione teorica, si può
capire se è ipotetica. Bisogna proprio che ce lo dicano esplicitamente.
… C’è un’altra importante variazione fra le teorie: il loro grado di
generalità. Alcune teorie sono più generali e quindi più interessanti di
altre. Le teorie possono essere generali nella misura in cui ignorano
fattori quali la localizzazione spaziale (si applica ovunque), il tempo
(vale sempre) o altri aspetti che siano irrilevanti per il processo
descritto. Esse fanno questo specificando quali fattori sono rilevanti
per quel particolare comportamento. Ad esempio, è vero che tutti gli
oggetti privi di sostegni e molto vicini alla superficie terrestre,
cadendo, aumentano di velocità. Questa cresce a un ritmo di 9,8 metri
al secondo per ogni secondo in cui essi si trovano in caduta libera.
Ciò vale a prescindere dal colore dell’oggetto, da come è stato fatto,
da dove lo si è comprato, dal momento del giorno in cui lo si è fatto
cadere e così via. Questi aspetti non sono pertinenti. Ciò che invece è
pertinente è che l’oggetto abbia una massa (sebbene quanta ne abbia
non lo sia), che sia privo di sostegni e che sia vicino alla superficie
della terra. La teoria generalizza su tutti gli oggetti che abbiano queste
proprietà.
Ancora migliore, almeno nel senso di più generale, è
l’affermazione che tutti gli oggetti dotati di massa, ovunque essi
siano, si attraggono con una forza che è direttamente proporzionale al
prodotto delle loro masse e inversamente proporzionale al quadrato
della distanza di separazione. Questa affermazione copre una più
ampia classe di oggetti ed eventi, e specifica un minor numero di
proprietà pertinenti necessarie per l’appartenenza a tale classe. Il suo
contributo alla nostra comprensione del mondo è che essa identifica la
proprietà delle cose (devono avere una certa massa) che è pertinente
al fenomeno (la loro forza di attrazione e il moto risultante). Queste
teorie, che generalizzano e descrivono generi di cose, sono leggi. Si
parla della legge di caduta dei gravi, essa stessa un capitolo della
legge di gravità. Vi sono tantissimi altri esempi. Per farne ancora uno,
prendiamo la legge di Coulomb che afferma che ogni oggetto
elettricamente carico esercita una forza su ogni altro oggetto
26
elettricamente carico. Il genere pertinente di cosa qui è tutto ciò che è
elettricamente carico e viene collegato al fenomeno della forza.
Diversamente dalla caratteristica di essere ipotetico, dovremmo
poter dire se una teoria è legisimile o non lo è, semplicemente
guardando il modo in cui è presentata. Essa (forse anche solo
implicitamente) deve avere la forma di una generalizzazione: tutti gli
A sono B. Questo uso del termine «legge» è, in un certo senso, molto
simile a quello fatto nella società. Quando si dice che questa è la
legge s’intende che essa vale per tutti. Chiaramente, vi sono molte
discrepanze tra le leggi della natura e le leggi della società. Queste
ultime sono la convenzione di un gruppo più o meno numeroso di
persone e possono essere infrante o modificate a piacere. Di contro, le
leggi della natura vogliono riflettere i modi in cui funziona il mondo,
i quali, più che imposti, vengono scoperti e sono in massima parte
inviolabili.
Si dovrebbe poter riconoscere le asserzioni legisimili per via della
loro generalità, ma non è così semplice. Come si distinguono le vere
leggi dalle generalizzazioni puramente accidentali? Si considerino gli
esempi seguenti. Il rame puro conduce elettricità. Si tratta di una
legge di natura, una generalizzazione implicita concernente tutti i
campioni di rame, che associa un genere di cosa (il rame) a un certo
comportamento (condurre elettricità). Ma ecco un’altra
generalizzazione che non è una legge: nessun campione di rame puro
supera i cento milioni di chili di massa. È chiaramente generale
perché descrive tutti i campioni di rame e afferma che sono sotto i
cento milioni di chili. Ma questa caratteristica della massa è un
attributo accidentale del rame perché, per quanto ne sappiamo, non
c’è niente, nella sua natura, che ponga limiti alla grandezza dei
campioni.
Si consideri anche la generalizzazione secondo la quale ognuno, in
questa stanza, ha più di dieci anni. Neanche questa è una legge. Essa
identifica un certo genere di oggetti (le persone nella stanza), ma non
è un genere naturale. Non ci sono caratteristiche esclusive di questo
gruppo che siano importanti per come funziona il mondo, e non c’è
alcuna connessione causale tra l’essere nella stanza e l’avere più di
dieci anni come c’è invece tra l’essere elettricamente carico e
l’esercitare una forza su altre cariche. Le cariche elettriche causano la
forza, ma l’essere in questa stanza non causa il fatto che avete un’età.
La generalizzazione sulle età delle persone nella stanza è molto
27
probabile che sia solo un’associazione accidentale. Non è una legge.
Se fosse una legge essa dovrebbe consentirmi di fare predizioni del
tipo: «la prossima persona che entra nella stanza avrà più di dieci
anni». Una tale predizione, tuttavia, non è autorizzata perché l’avere
più di dieci anni era solo una caratteristica circostanziale delle
persone che attualmente sono in questa stanza. La legge di
conduttività del rame, al contrario, autorizza la predizione che il
prossimo pezzo di rame condurrà elettricità. Le leggi sostengono la
predizione; le generalizzazioni accidentali no.
Così, non si può valutare se un’affermazione è una legge
semplicemente controllandone la forma. Dipenderà anche da altre
cose che si sanno della situazione, cioè da altre teorie. Bisogna
immaginarsi in anticipo ciò che è probabile che sia pertinente al
fenomeno in questione. In tal modo la fisica atomica, e quella dello
stato solido, indicano che la struttura atomica, cioè l’identità di un
elemento come il rame, è un probabile fattore della conduttività
elettrica, ma niente associa la natura del rame a una limitazione della
massa di un campione. Nello stesso modo, niente della mia
comprensione della stanza dice che aver più di dieci anni è pertinente
allo starci dentro. La determinazione dell’essere legisimile, come è
stata usata negli esempi precedenti e in generale, si usa nella
descrizione della scienza, è sempre sensibile al contesto teorico in cui
la decisione è presa.
La caratteristica di essere legisimile è, almeno, relativamente
stabile nel tempo. È un’etichetta che non si presume di togliere. Una
volta che è legge, è legge per sempre, o quasi. In effetti, ciò che è
stato valutato legge può cambiare quando cambia la descrizione
teorica accettata del mondo. Se cambiano le teorie di sfondo, quello
che una volta poteva essere stato valutato come una associazione
accidentale potrebbe ora essere inteso come una connessione
pertinente, di tipo legge. Ai tempi di Aristotele, ad esempio,
generalizzare sui modi delle cose nel cielo e sulla terra voleva dire
raggruppare due generi distinti di fenomeni e ogni similarità tra i due
era vista come accidentale e non pertinente alla comprensione del
moto. Dovevano esserci due insiemi di leggi, quelle del moto celeste
e quelle del moto terrestre. Ma da Newton in poi, e dalla scoperta che
ciò che è pertinente al moto non è la distinzione celeste/terrestre ma
semplicemente la proprietà della massa, ha perfettamente senso
generalizzare su tutti gli oggetti in movimento e riguardare tali
28
generalizzazioni come descriventi leggi della natura. Chiaramente, la
lezione che se ne ricava è che, per spiegare un’associazione, si deve
ricorrere alla nozione di accidente solo come ultima risorsa. Ma
quello che qui è importante è proprio rendersi conto che nella scienza
il concetto di legge è descrittivo della generalità e della portata di
un’affermazione, ma non dello status di questa quanto a
dimostrazione. Una legge non è un genere di affermazione
indubitabile, irreprensibile, ultima parola in ogni disputa. Come ogni
altra affermazione interessante della scienza, anche le leggi devono
rispondere alla domanda della giustificazione.
Teorie ipotetiche, leggi ipotetiche
I tre concetti discussi finora, teoria, ipotesi e legge, descrivono lati
diversi delle affermazioni scientifiche e non si escludono l’un l’altro.
Essi rappresentano aspetti diversi delle affermazioni, proprio come
grandezza, colore e forma rappresentano aspetti diversi di un oggetto
fisico e, benché non abbia senso descrivere qualcosa come grande e
piccolo o come quadrato e rotondo, ha invece perfettamente senso
descriverlo come grande e rotondo. Nello stesso modo, non c’è niente
di sciocco o di insensato nel parlare di una legge o di una teoria
ipotetica. Non è una trasgressione della logica del linguaggio.
Ecco in effetti un buon esempio di legge ipotetica, cioè di una
teoria (affermazione su eventi che non sono palesi all’esperienza) che
è sia legisimile (generalizzazione su un genere naturale di oggetto) sia
ipotetica (non ben controllata): si tratta della censura cosmica. La
teoria generale della relatività descrive la curvatura dello spaziotempo come associata alle forze gravitazionali: tanto più appuntita è
la curvatura, tanto maggiore è la forza. Ai punti, chiamati singolarità,
dove la curvatura è così appuntita che lo spazio-tempo, di fatto, si
accartoccia, la forza è talmente elevata da spezzare le particelle
elementari e da perpetuare eventi incompatibili con le nostre teorie
del mondo normale. Secondo la teoria, una siffatta singolarità può
occorrere in natura, ma potrebbe essere circondata da un orizzonte di
eventi, uno scudo causale a senso unico che impedisce sia che noi
vediamo queste alterazioni dell’ordine naturale, sia che esse abbiano
qualche effetto sul mondo al di fuori. Tale è la situazione del buco
nero. È anche possibile, almeno secondo la teoria generale della
relatività, che vi siano singolarità prive di orizzonte degli eventi,
singolarità nude. Così, i cosmologi hanno pensato bene di aggiungere,
29
all’attuale descrizione dell’universo, un’ulteriore affermazione: tutte
le singolarità sono in effetti circondate da orizzonti degli eventi. Il
principio della censura cosmica consiste, appunto, in questo orrore
per la nudità, ma per ora è solo un suggerimento e ciò che, a questo
stadio, viene richiesto non è la credenza istantanea ma un
suggerimento ulteriore su come lo si possa controllare. È, in altre
parole, una teoria ipotetica legisimile.
… il punto, in questa discussione di teorie, leggi e ipotesi, è
duplice. In primo luogo si ha che i tre concetti sono ortogonali:
descrivono aspetti diversi delle affermazioni fatte dagli scienziati.
Un’idea non deve affatto esser promossa dal grado di ipotesi a quello
di teoria e poi ancora a quello di legge. Le leggi, quando si elaborano,
sono ipotetiche e sono, ciò nondimeno (non di più) leggi via via che il
controllo fa sbiadire l’etichetta di ipotetico. E, al tempo stesso, sono
teorie.
In secondo luogo, si ha che «teoria» almeno come è usato qui, è un
termine amplissimo. Non è né elogiativo né peggiorativo. Dato che
tantissime cose sono teorie, è chiaro che procurarsele, cioè scoprirle o
crearle, è relativamente facile. Il difficile è giustificarle e, benché in
giro ve ne possano essere un mucchio, non tutte sono teorie buone:
non tutte autorizzano la nostra credenza.
30
2
SPIEGAZIONE E PREVISIONE
Nel 1° capitolo abbiamo esaminato:
I concetti di teoria, ipotesi, legge
L’aspetto esplicativo e giustificativo del nesso di conseguenza logica
⇓
La dialettica tra questi due aspetti nel confronto tra scienze formali e
scienze empiriche; tra scienza antica e scienza moderna
Nel 2° capitolo esamineremo:
I concetti della spiegazione e della previsione:
1. Spiegazione deterministica
2. Spiegazione probabilistica, ovvero induttivo-statistica
3. Spiegazione e previsione: la tesi di identità
31
2.1 La spiegazione secondo il modello deterministico (covering
law model = modello di copertura) di Hempel
MODELLO ND (NOMOLOGICO-DEDUTTIVO) DI HEMPEL
ESEMPIO:
Legge universale
Condizione
rilevante
Altre condizioni
rilevanti
Conclusione
Se un ago calamitato si trova nelle vicinanze di un conduttore
elettrico percorso da una corrente elettrica, allora l’ago
calamitato subisce uno spostamento
Questo oggetto è un ago calamitato
Si trova nelle vicinanze di un conduttore elettrico e attraverso di
esso passa della corrente elettrica
Dunque questo oggetto subisce uno spostamento
FORMA LOGICA DELL’ESEMPIO:
∀x(Ax → Bx)
Aa
Ba
Legge universale
Condizione rilevante
Conclusione
(explanandum)
SCHEMA GENERALE
Leggi/principi generali
L1 … Ln
Condizioni (particolari)
C1 … Cm
Conclusione
(conseguenza logica)
A
Explanans
Explanandum
32
CONDIZIONI DI ADEGUATEZZA PER LA SPIEGAZIONE
NOMOLOGICO-DEDUTTIVA
Hempel indica quattro condizioni di adeguatezza della spiegazione
N-D, suddivise in logiche ed empiriche.
Condizioni logiche:
C1 L’explanandum deve essere una conseguenza logica
dell’explanans.
C2 L’explanans deve contenere leggi generali, che devono essere
essenziali per la derivazione dell’explanandum.
C3 L’explanans deve avere contenuto empirico, ossia deve essere,
almeno in linea di principio, controllabile empiricamente
Condizione empirica:
C4 Gli enunciati contenuti nell’explanans devono essere veri.
2.2 La spiegazione probabilistica
Con il tempo Hempel si rende conto che non tutte le spiegazioni
scientifiche possono seguire lo schema nomologico deduttivo. Ciò
vale in particolare per le teorie che usano leggi probabilistiche, come
ad esempio la fisica quantistica o la genetica. Ciò lo indusse a
formulare schemi esplicativi non deduttivi, come ad esempio il
modello induttivo statistico.
MODELLO IS (INDUTTIVO-STATISTICO) DI HEMPEL
Legge statistica
Condizione
Conclusione induttiva (non
conseguenza logica
deduttiva)
∀x(al 90%)(Ix → Ax)
(Il 90% degli adulti appartenenti a società industrializzate
sono alfabetizzati)
Ig
(Giovanni è un adulto appartenente a una società
industrializzata)
Ag
Giovanni è alfabetizzato
33
La doppia linea tra le premesse e la conclusione sta a indicare che
non si tratta di un nesso di conseguenza logica. Vale piuttosto che
l’explanans deve rendere l’explanandum altamente probabile,
condizione soddisfatta nell’esempio appena citato, in cui la probabilità
che Giovanni sia alfabetizzato è del 90%. Quanto la spiegazione sia
solida dipende dall’elevatezza della probabilità formulata nella legge
dell’explanans.
In che misura cambiano le condizioni di adeguatezza di I-S rispetto
al modello N-D? C2 e C3 e C4 rimangono inalterate; in C1 al
requisito della conseguenza logica subentra quello della probabilità
induttiva.
La diversità tra N-D e I-S emerge con maggiore chiarezza se
esaminiamo le principali nozioni filosofiche di probabilità.
2.2.1 Due nozioni di probabilità
1. Probabilità soggettiva: la probabilità coincide con il grado di
credenza o di aspettativa.
“La probabilità che domani piova è pari a 0,7” significa secondo
questa interpretazione:
“Il grado in cui una persona X crede (è convinta), sulla base dei dati
metereologici, che domani piova, è pari a 0,7”.
p(a,b) = r significa “il grado di aspettativa di a a partire da b è r”.
2. Probabilità frequentistica o propensionale (entrambe oggettive): la
probabilità coincide con la misura della propensione o frequenza a
verificarsi di un evento.
⇓
A. Frequenza: la probabilità p(a,b) è data dalla frequenza dell’evento
a nella sequenza di eventi b, ove la sequenza b è definita dalle
condizioni che la generano. I lanci di una moneta, ad esempio, che
costituiscono la sequenza degli esiti di testa o croce, sono definiti
dalla condizione di essere lanci eseguiti con una moneta non
truccata, su una superficie piana, in una situazione non turbolenta…
34
B. Propensione: la probabilità è data dalla propensione (disposizione,
tendenza) a verificarsi di un evento in una situazione definita da
determinate condizioni.
In questo caso la probabilità è una proprietà nascosta, che tuttavia
può diventare in certi casi manifesta come frequenza dell’evento nelle
condizioni date.
2.2.2 Probabilità epistemica vs. probabilità ontica
Probabilità epistemica: si dà perché non conosciamo tutte le
condizioni sotto le quali si verificano gli eventi. Questi di per sé sono
determinati, ovvero collegati da una catena di causa ed effetto. Se
fossimo Dio potremmo conoscere ogni nesso di causa ed effetto e
quindi, conoscendo esattamente le condizioni di un evento, potremmo
determinare con un grado assoluto di certezza anche il verificarsi
dell’effetto. In tal modo non ci sarebbe spazio per eventi casuali o
parzialmente casuali.
Probabilità ontica: l’indeterminazione è nella realtà, non dipende
dalla nostra ignoranza.
Si verificano eventi che accadono almeno parzialmente per caso.
SCHEMA RIASSUNTIVO
Probabilità soggettiva
Probabilità oggettiva:
frequentistica
Probabilità oggettiva:
propensionale
Probabilità epistemica
sì
sì
no
Probabilità ontica
no
sì
sì
La probabilità soggettiva è epistemica e non ontica.
La probabilità propensionale è ontica e non epistemica.
La probabilità frequentistica può essere sia l’una sia l’altra.
2.2.3 Che cosa spiego con il modello I-S?
1. Modello I-S con interpretazione soggettiva della probabilità:
35
Spiego l’aspettativa di un soggetto razionale, pari al 90%, che
Giovanni sia alfabetizzato, non spiego il fatto che Giovanni è
alfabetizzato.
2. Modello I-S con interpretazione propensionale della probabilità:
Spiego la propensione di Giovanni – presente al 90% – ad essere
alfabetizzato, non spiego il fatto che Giovanni è alfabetizzato.
3. Modello I-S con interpretazione frequentistica della probabilità:
Spiego la distribuzione statistica dei soggetti alfabetizzati nel
campione (di cui Giovanni è un elemento generico), non il fatto che
Giovanni è alfabetizzato.
Giovanni ha un elevata probabilità di cadere nella classe degli
adulti alfabetizzati, ma nulla di più. Non si può escludere che
Giovanni appartenga al gruppo dei non alfabetizzati.
Spiegare con una legge statistica che Giovanni è alfabetizzato
non è equivalente a spiegare che Giovanni è alfabetizzato: questo
non lo posso spiegare.
⇓
Diversità con il modello N-D
“Ho sostenuto la tesi per cui è sbagliato rivolgersi alla fisica delle
particelle per spiegare un singolo microevento, come, per esempio, la
disintegrazione di un atomo di radon o la riflessione di un fotone: se è
vero che il fotone è andato in una direzione piuttosto che in un’altra
per puro caso, allora, il fatto che il fotone abbia preso una direzione
piuttosto che un’altra è un evento che non può essere spiegato. Ciò che
possiamo spiegare, grazie all’aiuto di una teoria indeterministica sulle
particelle, è perché esisteva una certa probabilità oggettiva che il
fotone prendesse la direzione che poi ha preso (J. Watkins, Science
and Scepticism, p. 246).
36
2.3 Spiegazione e previsione
“Secondo Hempel spiegazione e previsione sono due possibili usi
dello schema nomologico-deduttivo: se conosciamo le leggi e le
condizioni iniziali saremo in grado, deduttivamente, di predire
l’evento. Se viceversa conosciamo già il verificarsi dell’evento ma
vogliamo spiegarlo, dovremo cercare delle leggi e constatare il
verificarsi di condizioni iniziali tali che insieme ci permettano di
dedurre l’evento” (M. Alai, Filosofia della scienza nel Novecento, p.
26).
La tesi appena formulata viene denominata “Tesi di identità
strutturale” o “Tesi di simmetria” e, secondo Hempel, vale sia per le
spiegazioni N-D sia per quelle I-S.
Si è tuttavia obiettato che:
(i) NON SEMPRE LA SPIEGAZIONE È PREVISIONE:
Esempio: teoria dell’evoluzione
(ii) NON SEMPRE LA PREVISIONE È ANCHE SPIEGAZIONE:
Esempio: Si può prevedere il moto delle stelle o la successione
giorno/notte senza saperli spiegare
37
PARTE ANTOLOGICA
C.G. HEMPEL, Aspetti della spiegazione scientifica
Milano 1986, pp. 23-26; 55-59; 70-74
La spiegazione nomologico-deduttiva
Fondamenti: la spiegazione nomologico-deduttiva e il concetto di legge
Nel suo libro, How We Think, John Dewey descrive un fenomeno
osservato un giorno mentre lavava i piatti. Dopo aver tolto alcuni
bicchieri di vetro dalla schiuma dell’acqua calda insaponata e averli
capovolti su un piatto, egli osservò che dagli orli dei bicchieri
fuoriuscivano delle bolle di sapone che aumentavano un po’ di
volume, si arrestavano e quindi si ritraevano nei bicchieri. Perché
accadeva ciò? Dewey delinea la seguente spiegazione: trasferendo i
bicchieri sul piatto, egli aveva racchiuso in essi dell’aria fredda; l’aria
era stata gradualmente riscaldata dal vetro, che inizialmente aveva la
temperatura della schiuma dell’acqua calda insaponata. Ciò aveva
prodotto un aumento del volume dell’aria racchiusa entro i bicchieri e
quindi un’espansione del sottile strato di sapone formatosi tra il piatto
e gli orli dei bicchieri. Il vetro si era, però, gradualmente raffreddato e
così pure l’aria nei bicchieri, per cui le bolle di sapone si erano
ritratte.
Si può considerare la spiegazione qui delineata come
un’argomentazione secondo cui ci si doveva aspettare il fenomeno da
spiegare, il fenomeno explanandum, in virtù di certi fatti esplicativi.
Questi si distinguono in due gruppi (I) fatti particolari e (II) uniformità
esprimibili mediante leggi generali. Il primo gruppo include fatti quali: i
bicchieri erano stati immersi nella schiuma a una temperatura
considerevolmente più elevata di quella dell’aria circostante; erano stati
messi, capovolti, su un piatto sul quale si era formata una poltiglia
d’acqua insaponata che aveva creato un sottile strato di sapone fra il piatto
e gli orli dei bicchieri, e così via. Il secondo gruppo è espresso dalle leggi
sui gas e da altre leggi concernenti la trasmissione di calore fra due corpi
a temperature diverse, il comportamento elastico delle bolle di sapone, e
38
così via. Sebbene alcune di queste leggi siano soltanto accennate
mediante locuzioni come «il riscaldamento dell’aria racchiusa ha prodotto
un aumento della sua pressione», e altre non siano nemmeno menzionate
in questa maniera indiretta, esse sono chiaramente presupposte
nell’affermazione che certe fasi del processo ne hanno prodotte altre
come loro effetti. Se immaginiamo di enunciare in maniera completa le
varie assunzioni esplicative, esplicite o tacite, si può allora considerare la
spiegazione come un argomento deduttivo della forma seguente:
C1, C2, …, Ck
(N-D)
L1, L2, …, Lr
__________
E
Qui, C1, C2, …, Ck sono enunciati descriventi i fatti particolari
addotti; L1, L2, …, Lr sono le leggi generali sulle quali si basa la
spiegazione. Insieme, si dice che questi enunciati formano
l’explanans S, dove si può considerare alternativamente S come
l’insieme degli enunciati esplicativi oppure come la loro
congiunzione. La conclusione E dell’argomento è un enunciato
descrivente il fenomeno-explanandum; chiamo E l’enunciatoexplanandum o asserto-explanandum; la parola «explanandum» da
sola viene impiegata per designare o il fenomeno-explanandum o
l’enunciato-explanandum; risulterà dal contesto quale dei due viene
designato.
Il tipo di spiegazione la cui struttura logica è indicata dallo schema
(N-D) viene chiamata spiegazione nomologico-deduttiva o
spiegazione N-D per brevità; in quanto essa effettua la sussunzione
deduttiva dell’explanandum sotto principi aventi carattere di leggi
generali. In tal modo, la spiegazione N-D risponde alla domanda
«Perché si è verificato il fenomeno-explanandum?» mostrando che il
fenomeno è derivato da certe particolari circostanze, specificate in C1,
C2 …, Ck, in conformità con le leggi L1, L2, …, Lr. Indicando ciò,
l’argomento mostra che, date le particolari circostanze e le leggi in
questione, ci si doveva aspettare il verificarsi del fenomeno ed è in
questo senso che la spiegazione ci mette in grado di comprendere
perché il fenomeno si è verificato.
39
In una spiegazione N-D l’explanandum è, dunque, una
conseguenza logica dell’explanans. Inoltre, il fatto di essere basata su
leggi generali è un requisito essenziale per la spiegazione N-D; è in
virtù di tali leggi che i fatti particolari menzionati nell’explanans
acquistano una rilevanza esplicativa nei confronti del fenomenoexplanandum. Così, nel caso delle bolle di sapone di Dewey, il
graduale riscaldarsi dell’aria fredda rinchiusa entro i bicchieri caldi
costituirebbe un antecedente meramente accidentale, anziché un
fattore esplicativo dello sviluppo delle bolle, se non ci fossero le leggi
sui gas a connettere i due eventi. Ma che dire nel caso in cui
l’enunciato-explanandum E di un argomento della forma (N-D) è una
conseguenza logica dei soli enunciati C1, C2, …, Ck? È certo, allora,
che non si richiede alcuna legge empirica per dedurre E
dall’explanans, e che qualsiasi legge inclusa in quest’ultimo risulta
una premessa gratuita, dispensabile; in questo caso, però, l’argomento
non varrebbe come spiegazione. Ad esempio, è chiaro che
l’argomento:
Le bolle di sapone si sono dapprima dilatate e sono poi rientrate
----------------------------------------------------------------------------Le bolle di sapone dapprima si sono dilatate
sebbene valido dal punto di vista deduttivo, non può valere come
spiegazione del perché le bolle si sono dapprima dilatate. La stessa
osservazione vale in tutti gli altri casi di questo tipo. Una spiegazione
N-D deve contenere nel suo explanans alcune leggi generali che sono
necessarie per la deduzione dell’explanandum – la cui obliterazione
invaliderebbe cioè l’argomento.
Se l’explanans di un dato argomento N-D è vero, se, cioè, la
congiunzione dei suoi enunciati costitutivi è vera, diciamo che la
spiegazione è vera; una spiegazione vera ha, naturalmente, anche un
explanandum vero. Diciamo, poi, che una spiegazione N-D è più o
meno fortemente sostenuta o confermata dall’evidenza data a seconda
che il suo explanans sia più o meno fortemente confermato da tale
evidenza … Intendiamo, infine, per spiegazione N-D potenziale
qualsiasi argomento avente il carattere di una spiegazione N-D tranne
che per il fatto che non è necessario che gli enunciati che
costituiscono il suo explanans siano veri. In una spiegazione
potenziale N-D, perciò, L1, L2, …, Lr, sono quelli che Goodman
40
chiama enunciati legisimili, cioè enunciati che sono simili a leggi
tranne che per il fatto di poter essere falsi. Enunciati di questo genere
verranno detti anche nomici o nomologici. Usiamo la nozione di
spiegazione potenziale, ad esempio, quando ci domandiamo se una
legge o una teoria non ancora controllata potrebbe fornire una
spiegazione di qualche fenomeno empirico, o quando diciamo che la
teoria del flogisto, sebbene sia ora respinta, offriva una spiegazione di
certi caratteri della combustione. A rigore, soltanto gli enunciati
legisimili veri possono valere come leggi – nessuno sarebbe disposto
a parlare di leggi di natura false. Ma, per comodità, userò talvolta il
termine «legge» senza per questo implicare che l’enunciato in
questione è vero, come ho in effetti già fatto nell’enunciato
precedente …
La spiegazione come previsione potenziale È presumibile che,
essendo basata essenzialmente su leggi e principi teorici, la
spiegazione N-D manifesti una stretta affinità con la previsione
scientifica; infatti, leggi e principi teorici, enunciando asserzioni
generali, comprendono casi non ancora esaminati e contengono
implicazioni definite per essi.
L’affinità in questione è vividamente illustrata nella quarta
giornata dei Discorsi e Dimostrazioni Matematiche intorno a Due
Nuove Scienze. In quest’opera, Galileo formula le leggi sul moto dei
proiettili e ne deduce il corollario che, se si sparano i proiettili dal
medesimo punto con velocità iniziale uguale ma con angolazioni
diverse, la gittata massima viene raggiunta quando l’angolazione è di
45°. Galileo fa allora osservare a Sagredo: «Già sapevo io, per fede
prestata alle relazioni di più bombardieri, che di tutti i tiri di volata
dell’artiglieria, o del mortaro, il massimo, cioè quello che in maggior
lontananza caccia la palla, era il fatto all’elevazione di mezo angolo
retto, che essi dicono del sesto punto della squadra; ma l’intender la
cagione onde ciò avvenga, supera d’infinito intervallo la semplice
notizia auta dalle altrui attestazioni, ed anco da molte replicate
esperienze».
Il ragionamento che fornisce questa comprensione si può
esprimere facilmente nella forma N-D; essa consiste in una deduzione
del corollario, effettuata con mezzi logici e matematici, da un insieme
di premesse contenente (I) le leggi fondamentali della teoria del moto
dei proiettili di Galileo e (II) enunciati particolari – che specificano
che tutti i missili considerati vengono sparati dal medesimo punto con
41
uguale velocità iniziale. È chiaro, dunque, che si spiega e quindi si
comprende in questo caso il fenomeno osservato dagli artiglieri
mostrando che il suo verificarsi era prevedibile nelle circostanze
specificate in considerazione di certe leggi generali incluse nella
teoria di Galileo. E lo stesso Galileo richiama con evidente orgoglio
l’attenzione sulle previsioni che si possono ottenere, in modo analogo,
deducendole dalle sue leggi; queste ultime implicano «quello che
forse per l’esperienza non è stato osservato: e questo è, che degli altri
tiri, quelli sono tra di loro eguali, le elevazioni de i quali superano o
mancano per angoli eguali dalla semiretta». In tal modo, 1a
spiegazione fornita dalla teoria di Galileo «apre l’intelletto a
‘ntendere ed assicurarci d’altri effetti senza bisogno di ricorrere alle
esperienze», ossia mediante la sussunzione deduttiva sotto le leggi
sulle quali si basa la spiegazione.
Il controllo delle previsioni così derivate dalle leggi generali o dai
principi teorici addotti in una spiegazione è un modo rilevante di
controllare tali generalizzazioni «di copertura», e un esito favorevole
può conferire loro un forte sostegno. Consideriamo, ad esempio, la
spiegazione data da Torricelli di un fatto che aveva lasciato perplesso
il suo maestro Galileo, e cioè che una pompa che aspira acqua da un
pozzo non solleva l’acqua a più di 13 metri circa sulla superficie del
pozzo. Per rendere ragione di questo fenomeno, Torricelli avanzò
l’idea che l’aria sopra l’acqua ha un peso e, quindi, esercita una
pressione sull’acqua nel pozzo, spingendola in alto nel cilindro della
pompa quando il pistone è sollevato, perché non c’è aria all’interno a
bilanciare la pressione esterna. Secondo tale supposizione, l’acqua
può innalzarsi soltanto fino al punto in cui la sua pressione sulla
superficie del pozzo eguaglia la pressione dell’aria esterna su tale
superficie, e quest’ultima è perciò uguale a quella di una colonna
d’acqua alta approssimativamente 13 metri.
La forza esplicativa di questo resoconto deriva dalla concezione
che la terra è circondata da un «mare d’aria», concezione conforme
alle leggi fondamentali che governano l’equilibrio dei liquidi nei vasi
comunicanti. E poiché la spiegazione di Torricelli presupponeva tali
leggi generali, produsse previsioni relative a fenomeni non ancora
esaminati. Una di queste era che, se l’acqua fosse stata sostituita con
mercurio, il cui peso specifico è all’incirca 14 volte quello dell’acqua,
l’aria avrebbe dovuto controbilanciare una colonna di all’incirca m.
13/14, o di lunghezza un po’ inferiore ai m. 0,928. Questa previsione
42
fu confermata da Torricelli con il classico esperimento che porta il
suo nome. Inoltre, la spiegazione proposta implica che, a altitudini
crescenti sul livello del mare, la lunghezza della colonna di mercurio
sostenuta dalla pressione dell’aria dovrebbe diminuire in quanto
diminuisce il peso dell’aria che la controbilancia. Un’accurata
verifica di questa previsione fu effettuata su suggerimento di Pascal
soltanto alcuni anni dopo che Torricelli aveva presentato la sua
spiegazione: il cognato di Pascal portò un barometro a mercurio
(ossia, in sostanza, una colonna di mercurio controbilanciata dalla
pressione dell’aria) sulla cima del Puy-de-Dòme, misurando la
lunghezza della colonna a diverse altitudini nel corso della salita e
della discesa; le registrazioni risultarono meravigliosamente conformi
alla previsione.
Le inferenze mediante le quali si ottengono tali previsioni hanno
ancora una forma nomologico-deduttiva: le premesse includono le
leggi esplicative in questione (nel nostro ultimo esempio, l’ipotesi di
Torricelli in particolare) e certi enunciati su fatti particolari (ad
esempio, che un barometro avente una struttura così e così viene
portato sulla cima di una montagna). Designiamo gli argomenti
predittivi della forma (N-D) come previsioni N-D. Nella scienza
empirica, molti argomenti predittivi sono di questo tipo. Tra gli
esempi più evidenti vi sono le previsioni, basate sui principi della
meccanica celeste e dell’ottica, concernenti le posizioni relative del
Sole, della Luna e dei pianeti in un dato istante, e le eclissi solari e
lunari …
Siccome nella spiegazione N-D, completamente enunciata, di un
particolare evento l’explanans implica logicamente l’explanandum,
possiamo dire che l’argomento esplicativo avrebbe potuto essere
impiegato come previsione deduttiva dell’evento-explanandum se le
leggi e i fatti particolari addotti nel suo explanans fossero stati noti e
fossero stati presi in considerazione in un tempo anteriore
appropriato. In questo senso, una spiegazione N-D è una previsione
N-D potenziale.
Questa tesi era già stata formulata in un articolo scritto da
Oppenheim e da me, dove aggiungevamo che la spiegazione
scientifica (nomologico-deduttiva) differisce dalla previsione
scientifica non nella struttura logica, ma per certi aspetti pragmatici.
Nel primo caso, è noto che l’evento descritto nella conclusione si è
verificato, e vengono ricercate appropriate asserzioni di leggi generali
43
e di fatti particolari che rendano ragione di esso; nel secondo, tali
asserzioni sono date e l’asserto circa l’evento in questione è da esse
derivato in un tempo anteriore a quello del suo presunto verificarsi.
Questa concezione, talvolta denominata tesi dell’identità strutturale
(o della simmetria) di spiegazione e previsione, è stata recentemente
messa in discussione …
La spiegazione statistica
Leggi di forma statistica. Passiamo ora ad esaminare le
spiegazioni basate su asserti nomologici di un tipo che non abbiamo
ancora considerato, le quali hanno finito per giocare un ruolo di
crescente rilievo nella scienza empirica. Le indicherò qui come leggi
o principi teorici di forma statistico-probabilistica, o, per brevità,
come leggi statistiche.
La maggior parte della nostra analisi verterà sull’uso esplicativo di
leggi statistiche di un tipo molto semplice, che chiameremo leggi di
forma statistica fondamentale. Si tratta di asserti affermanti che la
probabilità statistica che un evento di tipo F sia anche di tipo G è r;
ossia, per brevità:
p (G, F)= r
Questo enunciato asserisce, grosso modo, che a lungo andare la
percentuale di esempi di F che sono anche esempi di G è approssimativamente r …
Per esempio, l’asserto affermante che il lancio di un dado lievemente
irregolare (evento di tipo F) fa uscire un asso (evento di tipo G) con una
probabilità di 15, cioè nel 15 per cento circa di tutti i casi a lungo andare,
ha questa forma statistica fondamentale. E così pure la legge che il tempo
di dimezzamento del radon è di 3,8.2 giorni, cioè che la probabilità
statistica che un atomo di radon si disintegri durante un qualsiasi periodo
dato di 3,82 giorni è 1/2, il che significa, grosso modo, che pressoché la
metà degli atomi presenti in un campione di radon contenente un gran
numero di atomi decade entro 3,82 giorni.
Le leggi di forma statistica fondamentale possono considerarsi come
controparti meno rigorose delle leggi di forma condizionale universale
(x) (Fx ⊃ Gx)
44
asserenti che qualsiasi esempio di F è un esempio di G, quale: «Ogni
gas si espande quando viene riscaldato a pressione costante». In
realtà, i due tipi di legge condividono un’importante proprietà che è
sintomatica del loro carattere nomologico: entrambe fanno
affermazioni generali circa una classe di casi che si potrebbe
considerare potenzialmente infinita. Come abbiamo precedentemente
osservato, un asserto che è logicamente equivalente a una
congiunzione finita di enunciati singolari e che, in questo senso, fa
un’affermazione relativa solo a una classe finita di casi, non si
considera una legge ed è sprovvisto della forza esplicativa di un
asserto nomologico. Gli enunciati legisimili, sia veri che falsi, non
sono soltanto dei compendi opportunamente connessi di insiemi finiti
di dati relativi a casi particolari.
Ad esempio, la legge che i gas si espandono quando vengono
riscaldati a pressione costante non equivale all’enunciato che in tutti gli
esempi finora osservati, o forse in tutti gli esempi finora occorsi, un
aumento della temperatura di un gas a pressione costante è stato
accompagnato da un aumento di volume. Essa asserisce, piuttosto, che un
aumento di volume è associato col riscaldamento di un gas a pressione
costante in qualsiasi caso, passato, presente o futuro, indipendentemente
dal fatto che lo si sia effettivamente osservato o meno. Essa implica anche
condizionali controfattuali e condizionali congiuntivi affermanti che se
una certa quantità di gas fosse stata riscaldata o dovesse essere riscaldata
a pressione costante sarebbe aumentato, o aumenterebbe, anche il suo
volume.
Analogamente, le leggi probabilistiche della genetica e del
decadimento radioattivo non equivalgono a resoconti descrittivi delle
frequenze con le quali si constata che alcuni tipi di fenomeni
occorrono entro una classe finita di casi osservati: esse affermano
certe modalità peculiari, ossia probabilistiche, di connessione tra
classi potenzialmente infinite di occorrenze. In una legge statistica di
forma fondamentale, in quanto distinta da una descrizione statistica
che specifica le frequenze relative in qualche insieme finito, non si
assume che la «classe di riferimento» F sia finita. In effetti, potremmo
dire che una legge della forma «p (G, F) = r» si riferisce non solo a
tutti gli esempi effettivi di F, ma, per così dire, alla classe di tutti i
suoi esempi potenziali. Supponiamo, ad esempio, di avere un
tetraedro regolare omogeneo le cui facce siano contrassegnate da «I»,
«II», «III», «IV». Potremmo allora asserire che la probabilità di
45
ottenere un III, cioè la probabilità che il tetraedro si posi su quella
faccia dopo esser stato lanciato da una scatola di dadi, è 1/4. Ma
benché questa asserzione dica qualcosa sulla frequenza con la quale si
ottiene un III come risultato del lancio del tetraedro, non la si può
interpretare come se specificasse semplicemente quella frequenza per
la classe di tutti i lanci che sono stati di fatto effettuati con il
tetraedro. Potremmo, infatti, continuare a mantenere la nostra ipotesi
anche se venissimo informati del fatto che il tetraedro è stato
effettivamente lanciato soltanto poche volte in tutta la sua esistenza e,
in tal caso, il nostro asserto di probabilità non sarebbe certamente
inteso come l’asserzione che esattamente, o approssimativamente, un
quarto di quei lanci produce il risultato III. Inolte, il nostro asserto
risulterebbe perfettamente significante e potrebbe, in realtà, essere
ben sostenuto (ad esempio, da risultati ottenuti con tetraedri analoghi
o con altri corpi omogenei aventi forma di solidi regolari), anche se il
tetraedro in questione venisse distrutto senza essere mai stato
lanciato. Ciò che l’asserto di probabilità attribuisce al tetraedro non è,
pertanto, la frequenza con cui si ottiene il risultato III nei lanci reali
passati o futuri, ma una certa disposizione, cioè la disposizione a
produrre, a lungo andare, il risultato III in circa un caso su quattro. Si
potrebbe caratterizzare questa disposizione mediante un enunciato
condizionale congiuntivo: se il tetraedro venisse lanciato un gran
numero di volte, esso produrrebbe il risultato III in un quarto circa dei
casi. Le implicazioni della forma di condizionali controfattuali e di
condizionali congiuntivi sono dunque i segni distintivi di enunciati
legisimili di forma sia strettamente universale che statistica.
Per quanto riguarda la distinzione tra enunciati legisimili di forma
strettamente universale e di forma probabilistica o statistica, si è
talvolta pensato che gli enunciati che asseriscono connessioni
strettamente universali, come la legge di Galileo o la legge della
gravitazione di Newton, si basino, dopotutto, soltanto su un corpo
finito, e quindi inevitabilmente incompleto, di evidenza e che,
pertanto, potrebbero avere delle eccezioni non ancora scoperte e, di
conseguenza, si dovrebbero anch’essi considerare come soltanto
probabilistici. Ma questo argomento confonde l’asserzione fatta da un
enunciato con l’evidenza disponibile a suo sostegno. A questo
riguardo, tutti gli asserti empirici sono solo più o meno ben sostenuti
dall’evidenza rilevante a nostra disposizione; oppure, per esprimerci
nel gergo di alcuni teorici, essi hanno una probabilità logica o
46
induttiva più o meno alta conferita loro dall’evidenza in questione.
Ma la distinzione tra asserti legisimili di forma strettamente
universale e di forma probabilistica non riguarda il sostegno
evidenziale degli asserti in questione, ma le asserzioni fatte da essi:
parlando per approssimazione i primi attribuiscono (veracemente o
falsamente) una certa caratteristica a tutti i membri di una certa
classe; i secondi ad una proporzione specifica di essi.
Anche se si dovesse finire per considerare tutte le presunte leggi
universali della scienza empirica come riflessi delle sottostanti uniformità
statistiche – interpretazione che, ad esempio, la teoria cinetica della
materia attribuisce alle leggi classiche della termodinamica – anche allora
non sarebbe cancellata la distinzione tra i due tipi di legge e le
corrispondenti spiegazioni: essa è, di fatto, presupposta nella
formulazione stessa della congettura.
Né un enunciato di forma condizionale universale:
(x) (F x ⊃ G)
è logicamente equivalente al corrispondente enunciato di forma
statistica fondamentale
p(G, F) = 1
perché … quest’ultimo asserisce soltanto che è praticamente certo
che, in un gran numero di esempi di F, quasi tutti sono esempi di G;
quindi l’asserto di probabilità può esser vero anche se il
corrispondente asserto di forma strettamente universale è falso.
47
C.G. HEMPEL, Filosofia delle scienze naturali
Bologna, 1968, pp. 92-94
La spiegazione probabilistica e i suoi fondamenti
Non tutte le spiegazioni scientifiche si fondano su leggi di forma
strettamente universale. Così, i1 fatto che Giacomo abbia preso il
morbillo potrebbe venir spiegato dicendo che egli ha preso la malattia
da suo fratello, che alcuni giorni prima presentava un brutto caso di
morbillo. Questa spiegazione collega a sua volta l’explanandum a un
fatto precedente, al fatto che Giacomo si sia esposto al contagio; si
dice che questo fatto fornisce una spiegazione, perché vi è una
connessione fra l’esposizione al contagio e il fatto di prendere la
malattia. Questa connessione non può venir espressa, comunque,
mediante una legge di forma universale, perché non sempre
l’esposizione al morbillo produce il contagio. Ciò che si può
affermare è soltanto che le persone esposte al morbillo contrarranno
la malattia con un alto grado di probabilità, cioè in un’alta percentuale
di casi. Asserzioni generali di questo tipo, che tra poco prenderemo in
esame più attentamente, verranno dette leggi di forma probabilistica
o, per brevità, leggi probabilistiche.
Nella nostra esemplificazione, allora, l’explanans consiste della
legge probabilistica sopra citata e dell’asserzione che Giacomo fu
esposto al morbillo. A differenza del caso della spiegazione
nomologico-deduttiva, queste asserzioni che fungono da explanans
non implicano deduttivamente l’explanandum che Giacomo prese il
morbillo; infatti, nelle inferenze deduttive da premesse vere, la
conclusione è invariabilmente vera, mentre nel nostro esempio è
chiaramente possibile che l’explanans sia vero e, nondimeno,
l’explanandum risulti falso. Diremo, per brevità che l’explanans
implica l’explanandum, non con «certezza deduttiva», bensì soltanto
con una quasi-certezza o con un alto grado di probabilità.
L’argomento esplicativo risultante può venir schematizzato in
questo modo:
48
La probabilità, per una persona che si esponga al morbillo, di
prendere la malattia, è alta.
Giacomo si espose alla malattia.
========================= [con alto grado di probabilità]
Giacomo prese il morbillo.
Nella presentazione usuale di un argomento deduttivo, quale quella
usata, per esempio, nel precedente schema (D-N), la conclusione è
separata dalle premesse da una sola linea, che sta a indicare che le
premesse implicano logicamente la conclusione. S’intende che la doppia
linea usata nel nostro ultimo schema indichi, in modo analogo, che le
«premesse» (l’explanans) rendono la «conclusione» (l’explanandum) più
o meno probabile; il grado di probabilità è suggerito dalla notazione fra
parentesi quadre.
Argomenti di questo genere verranno chiamati spiegazioni probabilistiche. Come la nostra discussione rivela, la spiegazione probabilistica di
un evento particolare condivide certe caratteristiche fondamentali con il
corrispondente tipo di spiegazione nomologico-deduttiva. In entrambi i
casi, l’evento dato è spiegato facendo riferimento ad altri eventi, con i
quali l’explanandum è connesso mediante leggi. Ma nell’un caso le leggi
sono di forma universale, nell’altro hanno forma probabilistica. E, mentre
una spiegazione deduttiva mostra che in base all’informazione contenuta
nell’explanans, l’explanandum doveva aspettarsi con «certezza
deduttiva», una spiegazione induttiva mostra soltanto che, in base
all’informazione contenuta nell’explanans, ci si doveva aspettare
l’explanandum con alto grado di probabilità e, forse, con «pratica
certezza»; è in questo modo che l’ultimo argomento riferito soddisfa il
requisito della rilevanza esplicativa.
49
M.C. GALAVOTTI, Probabilità
Milano, 2000, pp. 3-7; 120-21
La nozione di probabilità
Nell’accezione odierna, la probabilità è una nozione quantitativa,
che si esprime con un valore numerico compreso fra 0 e l. Essa è
sempre riferita a un’evidenza, che dovrà essere tale da consentirne la
valutazione numerica. Gli inizi della teoria quantitativa della
probabilità si fanno in genere risalire alla metà del Seicento e, in
particolare, all’opera di Blaise Pascal, Pierre Fermat e Christiaan
Huygens. Dapprima limitata ai giochi d’azzardo, la probabilità ben
presto fu applicata a nuovi ambiti, fino a divenire una nozione
essenziale in tutti i settori dell’attività umana e in tutte le branche
della scienza. Il progressivo affinamento dei suoi aspetti matematici è
stato affiancato da un vasto dibattito sulla sua interpretazione
filosofica, che ha toccato il culmine nei primi decenni del nostro
secolo ed è tuttora aperto. Oggi il confine fra gli aspetti matematici e
quelli filosofici della probabilità è chiaro, ma essi si sono a lungo
intrecciati, a volte in modo indissolubile. La probabilità è ormai
considerata come lo strumento fondamentale con cui opera
l’inferenza induttiva, ma, fino alla metà del secolo scorso, induzione e
probabilità erano per lo più viste come nozioni separate, e l’induzione
appariva come un metodo per analizzare i fatti dell’esperienza,
tendente, però, non alla conoscenza probabile, ma alla certezza.
Cenni storici sulla nozione di probabilità
Gli inizi della storia della probabilità sono legati a un aneddoto. Si
narra che un dotto animatore della vita parigina al tempo del Re Sole,
amante delle lettere e cultore delle scienze, ma anche fervente
giocatore d’azzardo, il cavaliere di Méré, ponesse a Blaise Pascal
alcuni problemi riguardanti i giochi di dadi. L’episodio è confermato
dall’autorevolezza di personaggi come il filosofo e matematico
Gottfried Wilhelm von Leibniz e il matematico Simeon-Denis
Poisson. Come scrive quest’ultimo … «un problema concernente i
giochi d’azzardo proposto a un austero giansenista da un uomo di
50
mondo sta all’origine del calcolo delle probabilità» … I problemi
posti a Pascal erano di questo tipo: «se gettiamo due dadi, quanti lanci
sono necessari per avere almeno il 50% di probabilità di ottenere due
sei almeno una volta?»; e «in che modo deve essere suddivisa la posta
in una partita che viene interrotta dopo un certo numero di lanci?».
Pascal coinvolse nell’analisi di questi problemi il matematico Pierre
Fermat, con il quale intrattenne nel 1654 una corrispondenza che
viene ritenuta il punto di avvio della letteratura sulla probabilità. Il
contributo di Pascal compare alla fine del volume La logique ou l’art
de penser (1662) dei filosofi di Port Royal Antoine Arnauld e Pierre
Nicole. È qui che si parla per la prima volta di una nozione
quantitativa di probabilità con riferimento allo studio, condotto con
metodi matematici, dei fenomeni dall’esito incerto.
Naturalmente, l’opera di Pascal e Fermat non sorgeva dal nulla,
essendo stata preceduta da una notevole mole di studi che avevano
portato a importanti risultati nel calcolo combinatorio, dovuti a
matematici e scienziati come Luca Pacioli, Gerolamo Cardano,
Niccolò Tartaglia, Galileo Galilei e molti altri. Si suole tuttavia
associare l’inizio della letteratura sulla probabilità con l’opera di
Pascal e Fermat perché prima di allora si erano più che altro ricercate
soluzioni a problemi particolari, mentre solo con questi autori si
giunse a una formulazione teorica astratta dei problemi, e iniziò la
ricerca di regole universali. In sostanza, Pascal e Fermat prendevano
spunto da problemi riguardanti i giochi d’azzardo per individuare i
principi generali riguardanti i fenomeni regolati dal caso.
In un importante volume del 1975 dal titolo L’emergenza della
probabilità, l’epistemologo canadese Ian Hacking sottolinea come la
nascita della probabilità si accompagni all’emergere di una nuova
nozione di evidenza. In precedenza la probabiltà veniva
prevalentemente associata all’attendibilità dell’opinione di esperti,
che venivano chiamati a pronunciarsi su varie questioni. Tipico
esempio al riguardo sono le dispute. su cui i tribunali dovevano
decidere avvalendosi del parere di periti, la cui autorevolezza
garantiva la maggiore o minore attendibilità dei pareri emessi. Questo
uso della probabilità è analizzato nel volume di Edmund Byrne
Probability and Opinion (1968). Nel passaggio dalla «preistoria» alla
«storia» della probabilità quest’ultima cessa di essere associata
all’opinione di esperti autorevoli per essere riferita a un’evidenza di
tipo fattuale, sperimentale. Essa diventa così il grado di certezza che
51
si può attribuire a un evento dall’esito incerto, in base a un insieme di
dati empirici.
Nel 1655, durante un soggiorno a Parigi, lo scienziato olandese
Christiaan Huygens, incontrò il cavaliere di Méré a una cena a casa
del duca dl Róannez, animatore di un salotto dove si discuteva di
lettere, arti e scienze. Huygens venne così a conoscenza dei problemi
ai quali stavano lavorando Pascal e Fermat e, tornato in Olanda, si
accinse a studiarli anche lui. Dopo due anni pubblicò il primo trattato
sulla probabilità, De ratiociniis in ludo aleae (1657). La caratteristica
più originale di quest’opera risiede nell’uso sistematico della nozione
di «speranza matematica». Essa si basa sull’idea che il valore di un
gioco dipenda tanto dal grado di probabilità di ottenere un certo
risultato, quanto dal guadagno associato al suo verificarsi.
Data l’importanza di questo concetto, è bene soffermarsi a
considerarlo. Per servirci di un esempio, immaginiamo che un
giocatore debba pagare una somma prefissata per tentare la sorte a un
gioco che può fargli guadagnare somme diverse, a seconda dei
risultati. Appare naturale ritenere che il prezzo equo di un simile
gioco corrisponda alla somma che il giocatore può aspettarsi di
vincere, in media, qualora il gioco sia ripetuto un certo numero di
volte. Se, mettiamo, il gioco consistesse nel lanciare un dado a sei
facce, e se il giocatore guadagnasse una somma in lire pari al numero
corrispondente all’esito del lancio, moltiplicato per 10.000, il
guadagno medio per ogni partita, o speranza matematica del gioco,
sarebbe pari a 1/6 · 10.000 + 1/6 ⋅ 20.000 + 1/6 ⋅ 30.000+ 1/6 ⋅ 40.000
+ 1/6 · 50.000 + 1/6 · 60.000 = 210.000/6 = 35.000. Questa somma
rappresenta un prezzo equo per partecipare al gioco. Un giocatore che
pagasse questo prezzo avrebbe, in una lunga successione di lanci, un
guadagno molto prossimo a zero. L’idea di associare la probabilità
con la speranza matematica del guadagno suggerisce immediatamente
il metodo delle scommesse come possibile sistema per la valutazione
della probabilità. L’idea generale è che la probabilità di un evento
possa essere uguagliata al prezzo che il giocatore è tenuto a pagare
per avere un guadagno unitario nel caso in cui l’evento si verifichi.
Con l’opera di Huygens si inizia una tradizione che toccherà il
culmine nel nostro secolo con l’affermarsi dell’interpretazione
soggettiva della probabilità, nella quale si fa largo uso della nozione
di speranza matematica. Va notato che l’adozione di un approccio
basato sulla speranza matematica implica l’uso della nozione di
52
media, che Huygens applicò, fra l’altro, a un settore che andava
assumendo crescente importanza, ossia l’analisi delle tavole di
natalità e mortalità in vista del loro uso in problemi attuariali. Il
settore aveva ricevuto grande impulso in seguito alla pubblicazione,
nel 1662, dell’opera del commerciante londinese John Graunt Natural
and Political Observations Made upon the Bills of Mortality e di un
saggio dell’uomo politico olandese Jan de Witt sullo stesso tema.
Huygens lavorò su questi problemi elaborando varie misure legate al
calcolo della vita media e della speranza di vita.
Con l’opera di Pascal, Fermat e Huygens, e con i risultati ottenuti
negli stessi anni da Leibniz, intento ad applicare la teoria
combinatoria ai problemi legali, lo studio della probabilità riceve
nella seconda meta del Seicento enorme impulso. Verso la fine del
secolo, la nozione ha già avuto una notevole elaborazione teorica ed è
stata applicata a una vasta gamma di problemi. Sono nate le sue
proprietà fondamentali, così come la nozione di speranza matematica;
è già stata utilizzata a fini statistici, e già si profilano altre
applicazioni a scienze come la fisica e l’astronomia.
Un’importante caratteristica della probabilità è, fin dall’inizio,
quella che Hacking chiama «dualità». Da una parte, infatti, la
probabilità è relativa alle leggi stocastiche dei fenomeni casuali,
configurandosi così come una nozione avente un referente empirico.
Dall’altra, è relativa anche alla determinazione dei gradi di credenza
in proposizioni che non hanno necessariamente carattere statistico,
configurandosi così come una nozione avente un valore epistemico,
cioè riguardante la nostra conoscenza dei fenomeni, non il loro
oggettivo prodursi. Hacking sottolinea come questa dualità sia
presente già nell’opera di Pascal, il quale non esita ad applicarla alle
ragioni per credere nell’esistenza di Dio, oltre che ai problemi di
natura stocastica relativi ai giochi d’azzardo …
La dualità della nozione di probabilità è alla base del problema
filosofico della sua interpretazione. A questo proposito si sono
formate varie «scuole», e si è acceso un vasto dibattito … Il formarsi
di posizioni diverse circa la natura della probabilità è dovuto alla
convinzione che uno dei due significati – quello oggettivo o quello
epistemico – vada privilegiato rispetto all’altro e debba ispirare la
definizione stessa della probabilità. Questa tendenza prende forma
verso la metà dell’Ottocento; prima di allora la «dottrina delle
probabilità oggettive» e l’«arte della congettura» convivono
53
pacificamente nei trattati sulla probabilità. È bene, comunque,
distinguere il problema dell’interpretazione della probabilità dai suoi
aspetti matematici. Le proprietà matematiche della probabilità, infatti,
valgono indipendentemente dal modo in cui essa viene interpretata;
anzi, un’interpretazione è considerata adeguata solo se non entra in
contrasto con le proprietà matematiche che sono contenute nel
cosiddetto «calcolo delle probabilità». Mentre però oggi è
ampiamente riconosciuta, nelle opere degli autori che scrivevano agli
esordi della storia della probabilità questa distinzione non è altrettanto
evidente, e i problemi matematici s’intrecciano con gli aspetti
filosofici della nozione di probabilità, intesa ora nell’accezione
oggettiva, ora in quella epistemica.
[Il soggettivismo di de Finetti]
… de Finetti sostenne vigorosamente la convinzione che
l’interpretazione soggettiva della probabilità è l’unica ammissibile, e
rifiutò come insensata l’idea che la probabilità possa ricevere
un’interpretazione oggettiva. La filosofia della probabilità di de
Finetti è affidata a due saggi, entrambi del 1931: Probabilismo, e Sul
significato soggettivo della probabilità, in cui si afferma che “la
probabilità oggettiva non esiste mai”. Questo concetto attraversa tutta
la produzione dell’autore, il quale, circa cinquant’anni dopo, nella
voce «Probabilità» dell’Enciclopedia Einaudi (1980) si chiede: «ma
davvero “esiste” la probabilità? E cosa mai sarebbe? Io risponderei di
no, che non esiste» (p. 1146). Allorché il suo trattato Teoria delle
probabilità venne tradotto in lingua inglese, de Finetti volle che la
frase “la probabilità non esiste” fosse stampata a lettere maiuscole
nella prefazione. E nella sua “ultima lezione” tenuta nel 1976
all’università di Roma e intitolata La probabilità: guardarsi dalle
contraffazioni! ribadì che la probabilità esiste solo in quanto un
agente, in condizioni di parziale ignoranza riguardo al corso degli
eventi, se ne serve per fare previsioni. Attribuirle un’esistenza
autonoma, indipendente dal soggetto che ne fa uso, “equivarrebbe a
ritener possibile (senza essere Alice nel Paese delle meraviglie) che
“il sorriso di un gatto” possa permanere e continuare ad essere
visibile dopo che il gatto se ne è andato via (in La logica dell’incerto,
p. 155).
L’unico punto di vista accettabile è quello soggettivista, secondo il
quale la probabilità è il grado di fiducia che un individuo, sulla base
54
delle conoscenze a lui disponibili, attribuisce a un evento o a un
enunciato, la cui verità o falsità gli sono, per qualche motivo,
sconosciute. Agli occhi di de Finetti, il vantaggio decisivo della
concezione soggettivistica è quello di essere definibile in senso
operativo. L’elaborazione di una simile definizione è affidata al già
menzionato saggio Sul significato soggettivo della probabilità. La
probabilità vi viene definita in termini di quote di scommessa. Il
grado di probabilità assegnato da un individuo a un evento risulta
pertanto misurabile in base alla quota alla quale egli sarebbe disposto
ad accettare di scommettere una certa somma sul suo accadimento.
55
H. REICHENBACH, La nascita della filosofia scientifica
Bologna, 1961, pp. 237-239
Si sarebbe portati a credere che la teoria della probabilità sia stata
sempre coltivata dagli empiristi; ma la sua storia mostra che non è
così. I razionalisti moderni, vedendo l’indispensabilità delle nozioni
probabilistiche, hanno cercato di costruire una teoria razionalistica
della probabilità. Il programma leibniziano di una logica delle
probabilità come logica quantitativa per la misura di gradi di verità
non rappresenta certo una soluzione empiristica del problema della
probabilità …
Secondo i seguaci del razionalismo un grado di probabilità è il
prodotto della ragione in assenza di ragioni. Se getto una moneta,
verrà testa o croce? Non ne so nulla né ho alcuna ragione di credere in
un’alternativa piuttosto che in un’altra; pertanto considero le due
possibilità egualmente probabili e attribuisco a ciascuna la probabilità
di un mezzo. L’assenza di ragioni viene ritenuta una ragione per
supporre l’identità delle probabilità. Questo è il principio
dell’interpretazione razionalistica delle probabilità, il quale, noto con
il nome di principio d’indifferenza, è considerato dal razionalista un
postulato della logica, autoevidente come i principi logici …
Il principio di indifferenza coinvolge il razionalismo in tutte le
difficoltà note dalla storia della filosofia. Perché la natura deve
seguire la ragione? Perché due eventi debbono essere parimenti
probabili, se si hanno uguali cognizioni, molte o poche che siano, su
di essi? La natura si conforma all’ignoranza umana? Per rispondere
affermativamente a domande del genere, il filosofo dovrebbe credere
in un’armonia fra ragione e natura …
La concezione empiristica della probabilità è basata
sull’interpretazione frequentistica. Le asserzioni probabilistiche
esprimono frequenze relative di eventi ripetuti, cioè frequenze
calcolate come percentuali rispetto a un totale. Esse sono derivate
dalle frequenze osservate nel passato e coinvolgono l’assunzione che
le stesse frequenze varranno approssimativamente per il futuro. Si
giunge al loro stabilimento mediante un’inferenza induttiva. Se
diciamo che in una serie di lanci di una moneta la probabilità che
56
venga testa è un mezzo, intendiamo affermare che, gettando
ripetutamente la moneta, verrà testa nel cinquanta per cento dei casi.
Sulla base di questa interpretazione si spiegano facilmente le
regole delle scommesse: dire che cinquanta contro cinquanta è una
scommessa giusta per il lancio di una moneta significa affermare che,
attenendosi a queste regole, entrambe le parti finiranno per conseguire
guadagni uguali.
57
K.R. POPPER, Un universo di propensioni
Vallecchi, 1991, pp. 15-20
Fin circa al 1927 i fisici credevano che il mondo fosse un orologio
smisurato e altamente preciso. Il grande filosofo, fisico e fisiologo
francese Descartes descrisse l’orologio come un meccanismo: il
rapporto di causa ed effetto era un rapporto d’urto. Questa fu la
prima, e più chiara teoria della causalità. Più tardi, a partire all’incirca
dall’inizio del nostro secolo, il mondo prese ad essere considerato
come un orologio elettrico. Ma in entrambe queste concezioni il
mondo era inteso come un orologio idealmente preciso. Nell’un caso
erano le rotelline dell’ingranaggio a sospingersi a vicenda, nell’altro
erano gli elettromagneti a respingersi o ad attirarsi, in entrambi i casi
con precisione assoluta. In un mondo siffatto non c’era posto per le
decisioni dell’uomo. Le nostre sensazioni di agire, di far programmi,
di capirci a vicenda erano illusorie. Pochi furono i filosofi, con la
grande eccezione di Peirce, che osarono mettere in dubbio questa
concezione deterministica.
Ma nel 1927, a partire da Werner Heisenberg, la fisica quantistica
subì un profondo mutamento. Divenne chiaro che i processi
microscopici
rendevano
l’orologio
inesatto:
esistevano
indeterminazioni oggettive. La fisica teorica fu costretta ad introdurre
la teoria della probabilità.
Su questo punto mi trovai seriamente in dissenso con Heisenberg e
con altri fisici, e anche con il mio eroe, Einstein: la maggior parte di
loro era dell’opinione che la teoria della probabilità fosse dovuta alla
mancanza di conoscenza; ciò li indusse a proporre una teoria
soggettivistica della probabilità, in opposizione alla quale io
intendevo proporre una teoria oggettivistica …
Ora consentitemi di esporre brevemente l’interpretazione della
probabilità come propensione.
La teoria classica della probabilità ha costruito un sistema forte
sulla base della definizione seguente: «La probabilità di un evento
corrisponde al numero delle possibilità favorevoli diviso per il
numero di tutte le possibilità». In tal modo la teoria classica riguarda
le possibilità pure e semplici: la possibilità dell’evento croce sarebbe
1 diviso per 2, perché ci sono due possibilità equivalenti e una sola è
58
quella «favorevole» all’evento testa. L’altra possibilità non è
favorevole all’evento testa …
Ma che cosa succede con un dado o con una moneta truccati? In
tal caso, secondo la teoria classica …, noi non possiamo più sostenere
che le sei possibilità del dado o le due della moneta sono possibilità
uguali. Di conseguenza, non essendoci in un caso del genere
possibilità uguali, noi, semplicemente, non possiamo più parlare di
probabilità nel senso numerico classico.
Naturalmente Pascal sapeva che i dadi truccati erano stati inventati
per barare al gioco. In effetti tutti sapevano che applicando in un dado
di legno un frammento di piombo alla superficie con il numero 6,
questo numero sarebbe uscito meno spesso che non in un dado non
truccato e, che quindi, il numero della superficie opposta sarebbe
uscito più frequentemente. Le possibilità sono sempre sei, ma esse
non sono più possibilità uguali, essendo alcune caricate e altre
pesate; possibilità che possono essere non uguali e la cui
ineguaglianza o peso diverso possono essere stimati, possibilità che
possono quindi essere valutate.
È chiaro allora che una teoria generale della probabilità deve
comprendere anche queste possibilità pesate. Ed è altresì chiaro che
casi di possibilità uguali potrebbero e dovrebbero essere trattati come
casi speciali di possibilità pesate …
Così il concetto di possibilità pesate è fondamentale per una teoria
più generale del gioco d’azzardo. Ma molto più importante è il fatto
che esso è necessario a tutte le scienze, alla fisica, e alla biologia e
anche per affrontare problemi come la probabilità di sopravvivenza
per alcuni anni. Questi casi sono molto diversi e anche molto più
generali di quelli del gioco d’azzardo con dadi, monete e con la
roulette,
meccanismi
strettamente
omogenei
e costruiti
simmetricamente.
Ma questa generalizzazione non comporta difficoltà insuperabili: è
facile vedere che anche in assenza di possibilità uguali noi siamo in
grado di affermare che certe possibilità e probabilità sono maggiori o
più pesanti di altre, come nel caso del dado truccato.
Il problema principale è ora questo …: c’è un metodo che ci
permetta di attribuire valori numerici a possibilità che non sono
uguali?
La risposta è ovviamente: sì, un metodo statistico; sì a patto che si
possa ripetere la situazione che produce gli eventi probabilistici in
59
questione, come nel caso dei dadi; o a patto che gli eventi in
questione possano ripetersi a loro piacimento senza la nostra
interferenza, come nel caso della pioggia o del beltempo. Se il
numero di queste ripetizioni è abbastanza alto, noi possiamo applicare
la statistica come metodo per pesare le possibilità e per misurare il
loro peso. In parole più esplicite, la maggiore o minor frequenza delle
occorrenze può essere usata per verificare se un peso attribuito in via
puramente ipotetica è un’ipotesi adeguata. In termini più grossolani,
considerando la frequenza di occorrenze nella misurazione del peso
della possibilità corrispondente, noi possiamo dire che la probabilità
di una domenica piovosa a Brighton in giugno è di 1 a 5 se, e solo se,
durante molti anni è stato provato che in giugno a Brighton piove
mediamente una domenica su cinque. In questo modo noi usiamo le
medie statistiche per valutare i pesi diversi delle varie possibilità.
Se quanto ho detto è vero …, deve essere allora inerente alla
struttura del lancio di quel dado (o di un altro dado molto simile) una
tendenza o propensione a realizzare l’evento «esce il numero due»
inferiore alla tendenza del dado regolare. Il mio primo punto
importante è quindi che la tendenza o propensione verso la
realizzazione di un evento è, in generale, inerente a ogni possibilità e
a ogni singolo lancio, e che possiamo misurare la portata di questa
tendenza o propensione ricorrendo alla frequenza relativa della
realizzazione effettiva in un gran numero di lanci.
Così, invece di parlare della possibilità che un evento avvenga, noi
saremmo più esatti parlando di propensione intrinseca a produrre, con
la ripetizione dell’evento, una certa media statistica.
Ora ciò comporta che con la ripetizione, e con la ripetizione delle
ripetizioni, le statistiche mostrano, a loro volta, una tendenza verso la
stabilità, a patto che tutte le circostanze essenziali rimangano
inalterate.
Esattamente come spieghiamo la tendenza o propensione di un ago
magnetico a puntare verso nord, quale che sia la sua posizione iniziale
con a) la sua struttura interna, b) il campo invisibile di forze del
nostro pianeta che agiscono su di lui, c) l’attrito, ecc. – in breve, con
gli aspetti costanti della situazione fisica, allo stesso modo
spieghiamo la tendenza o propensione di una sequenza di lanci di un
dado verso frequenze statistiche stabili (a partire da qualsiasi
sequenza iniziale) con a) la struttura interna del dado, b) l’invisibile
campo di forze che su di lui agiscono da parte del nostro pianeta, c)
60
l’attrito, ecc. – in breve, con gli aspetti costanti della situazione fisica:
il campo delle propensioni che influisce su ogni lancio.
La tendenza delle medie statistiche a rimanere stabili a condizioni
costanti è una delle caratteristiche più notevoli del nostro universo. Io
ritengo che essa possa essere spiegata solo con la teoria della
propensione; ossia con la teoria secondo la quale esistono possibilità
pesate, che sono più di semplici possibilità, bensì tendenze o
propensioni a diventare reali: tendenze o propensioni a realizzarsi,
che sono, in vario grado, inerenti a tutte le possibilità e che
rappresentano come delle forze che mantengono stabili le statistiche.
Questa è una interpretazione oggettiva della teoria della
probabilità. Il suo assunto è che le propensioni non siano semplici
possibilità, bensì realtà fisiche, reali come le forze o come i campi di
forze.
61
3
GIUSTIFICAZIONE
3.1 Neo-Positivismo
Il Neo-positivismo o positivismo logico si sviluppa in tre fasi
successive.
3.1.1 Neo-Positivismo: prima fase
Il neo-positivismo sostiene una concezione scientifica del mondo,
che viene caratterizzata attraverso due attributi fondamentali:
– l’unica forma di conoscenza ammissibile è la conoscenza empirica,
basata su dati sensibili immediati;
– mediante il metodo dell’analisi logica, ogni concetto, a qualsiasi
disciplina appartenga, deve poter ricondotto ai concetti facenti
riferimento al dato empirico.
È questo il progetto della teoria della costituzione, proposta da
Rudolf Carnap ne La Costruzione logica del mondo, 1928:
Sistema di costituzione:
Oggetti delle scienze sociali
⇑
Psichico-altrui
⇑
Oggetti fisici
⇑
Psichico-proprio
Base di costituzione: Psichico-proprio (= esperienze vissute
coscienti di un soggetto) ⇒
63
La base del sistema deve riferirsi a ciò che è immediatamente dato;
ciò che è immediatamente dato è ciò che è esperito personalmente ⇒
base fenomenistica. In seguito, per ragioni di universalità e
intersoggettività del linguaggio scientifico, Carnap ritenne che la base
dovesse fare riferimento a oggetti fisici ⇒ base fisicalistica.
In questa fase non si distingue quindi tra vocabolario osservativo e
vocabolario teorico: il secondo deve poter essere ricondotto al primo.
L’esistenza di un dato empirico comune è garanzia della scienza
unificata.
Il metodo di controllo è la verificabilità: deve essere possibile
indicare in modo definitivo le condizioni sotto le quali un enunciato è
vero o falso.
Il metodo di controllo coincide con il metodo per stabilire la
sensatezza di un enunciato: il significato di una proposizione è il
metodo della sua verificazione.
Gli enunciati che non soddisfano le condizioni di verificabilità sono
empiricamente insensati e quindi vanno esclusi dall’ambito delle
discipline scientifiche. Di questo tipo sono gli enunciati della
metafisica.
3.1.2 Neo-Positivismo (seconda e terza fase)
La seconda fase del neo-positivismo nasce tra l’altro dalla
consapevolezza dell’inapplicabilità di un criterio di controllo così
rigido come quello di verificabilità.
Si ha così una revisione del metodo di controllo, guidata
dall’ammissione che non è possibile ottenere una verifica definitiva o
una definitiva confutazione di ogni enunciato dotato di senso. Avendo
a disposizione un numero finito di esperimenti, non sarà mai possibile
controllare in modo definitivo le leggi di natura. Queste hanno perciò
sempre carattere ipotetico.
Nella ricerca di un criterio di significanza più liberale della
verificabilità, si introduce il concetto di confermabilità: “L’ipotesi è
più o meno confermata o infirmata dall’evidenza”.
64
Alcuni esponenti del neo-positivismo introducono una misura
quantitativa del grado di conferma, che coincide con il grado di
probabilità di un’ipotesi h sulla base dell’evidenza empirica e.
In questa fase si evidenzia l’importanza che per i neo-positivisti
rivestono l’inferenza induttiva e la probabilità ai fini del controllo
delle teorie. Come afferma Reichenbach (parte antologica):
“L’inferenza induttiva serve non per scoprire teorie, bensì per
giustificarle in termini dei dati d’osservazione”.
“La conclusione induttiva è resa probabile, non certa, dalle sue
premesse”.
ESEMPIO del ruolo dell’inferenza induttiva:
CARNAP/REICHENBACH
Ciò che spiega
(anche attraverso leggi
probabilistiche)
IPOTESI
⇓
Ciò che è spiegato
Ciò che è giustificato
(in maniera probabile,
non certa)
conseguenza logica
⇑
Logica induttiva
Base empirica
Ciò che giustifica
La terza fase del neo-positivismo si caratterizza per un’ulteriore
liberalizzazione dei criteri iniziali di scientificità proposti dal
movimento. In questa fase, si rinuncia non solo alla completa
verificabilità, ma anche all’idea che tutti i concetti scientifici debbano
essere ricondotti a quelli osservativi.
65
Su questa base, si instaura la distinzione, a noi oggi famigliare, tra
vocabolario osservativo e vocabolario teorico.
Affinché quest’ultimo non si trasformi in un linguaggio
“metafisico” è tuttavia necessario stabilire delle regole di
interpretazione, in base alle quali i concetti teorici vengono ad
acquisire significato empirico.
ESEMPIO del rapporto tra concetti teorici e osservativi in
Hempel (3. fase del neo-positivismo):
Acqua = H20
H (atomo di idrogeno)= nucleo (protone + neutrone) + elettrone.
O (atomo di ossigeno) = nucleo (otto protoni + otto neutroni) + otto
elettroni disposti su due strati diversi: due in quello più interno e sei in
quello esterno.
Lo strato più interno è saturo; quello più esterno non è saturo e
prende perciò due elettroni di idrogeno → H2O
Struttura atomica
↓
H2O
↓
Acqua
(Acqua = dotata di proprietà osservabili come evaporazione,
congelamento, cristallizazione, reazioni chimiche sotto determinate
condizioni)
66
3.2 Falsificazionismo popperiano
3.2.1 Critica all’induttivismo
Il neopositivismo,
pur passando dal verificazionismo alla
confermabilità, ritiene che le leggi scientifiche si possano giustificare
con l’induzione. Popper contesta questa convinzione: il metodo
induttivo non è un metodo valido per giustificare le teorie scientifiche.
Se l’induttivismo prende la forma del verificazionismo, Popper fa
notare che le leggi di natura sono inverificabili. Esse hanno infatti la
forma di enunciati universali e contemplano perciò un numero infinito di
casi applicativi, mentre noi ai fini del controllo possiamo approntare solo
un numero finito di osservazioni.
Per esempio, l’enunciato “il rame conduce elettricità” non può venire
verificato, perché la sua verificazione presupporrebbe che si controllasse
tutto il rame nell’intero universo, cosa naturalmente esclusa.
La situazione non migliora passando dalla teoria della verificazione
alla teoria della conferma: secondo Popper, ogni ipotesi universale va al di
là di qualsiasi evidenza empirica e così la sua probabilità resta pari a zero.
Inoltre, l’inferenza induttiva si basa su un principio di induzione,
ossia una regola generale in base alla quale l’inferenza deve essere
realizzata.
Il principio di induzione non può però essere fondato ⇒
Enunciato universale
⇑
Principio di induzione
(universale):
Ogniqualvolta ci troviamo
in presenza di un numero
sufficientemente ampio di
esempi singolari…
Enunciati singolari
⇑
Principio di induzione
(di 2. ordine)
Enunciati singolari
⇑
Enunciati singolari
67
Lo schema della pagina precedente mostra come il tentativo di
formulare il principio di induzione conduce a un regresso all’infinito.
3.2.2 Razionalismo
L’esperienza – secondo Popper – non costituisce nemmeno una
base neutrale per la conoscenza: “L’ipotesi (o teoria…) precede
l’osservazione … noi apprendiamo solo dalle nostre ipotesi che genere
di osservazioni dovremmo fare”. Viene qui ad espressione l’elemento
razionalistico della filosofia di Popper: l’esperienza è carica di teoria,
vi è sempre una sovrabbondanza della ragione rispetto ai dati empirici.
Il razionalismo popperiano si basa sul collegamento con
l’epistemologia evoluzionistica:
teoria ⇒ aspettative implicite ⇒ conoscenze istintive innate ⇒
fisiologia degli organi di senso ⇒ pre-categorizzazione
dell’esperienza).
L’esperienza mantiene tuttavia la funzione di controllo che le era
stata assegnata dal neopositivismo ⇒ razionalismo critico, dove la
critica viene dall’esperienza ⇒ carattere empirico della filosofia
popperiana: i principi della scienza sono ipotesi, congetture, frutto
della libera inventività dell’uomo, che devono però poi essere
sottoposte al controllo empirico. “Ma io ammetterò certamente come
empirico, o scientifico, soltanto un sistema che possa essere
controllato dall’esperienza”.
68
3.2.3 Falsificazione
Il metodo di controllo è ipotetico-deduttivo: la falsificazione.
La falsificazione è criterio di demarcazione tra scienza e non scienza.
La falsificazione non è però criterio di significanza ⇒ ruolo
positivo riconosciuto alla metafisica per il progresso della scienza.
ESEMPIO dello schema della falsificazione:
Tutti i cigni sono bianchi
∀x (Cx → Bx)
⇓
Enunciato universale
Nel luogo x e nel momento temporale t si
dà un cigno che è bianco
Enunciato singolare di carattere predittivo
descrivente un esperimento possibile
(protocollo)
Nel luogo x e nel momento temporale t si
osserva un cigno nero
La teoria è falsificata
Nel luogo x e nel momento temporale t si
osserva un cigno bianco
La teoria è corroborata
Il controllo empirico avviene non in maniera induttiva, ma
cercando di falsificare o confutare un’ipotesi (metodo per congetture e
confutazioni).
Il modo dell’inferenza falsificante è il modus tollens:
T→p
¬p
------¬T
69
Se la teoria resiste alla falsificazione, essa è corroborata
(Corroborazione = falsificazione mancata).
Non si tratta però di un esito definitivo, perché non si può escludere
che in futuro si scoprano delle istanze di controllo negative in grado di
falsificare la teoria ⇒
Mentre un solo esempio negativo può falsificare la teoria, nessun
numero anche alto di conferme dà diritto a ritenerla certa; nel caso dei
cigni bisognerebbe esaminare tutti i cigni nel mondo non solo nel
presente, ma anche nel futuro ⇒
Asimmetria tra verificazione e falsificazione. Le ipotesi di una
teoria rimangono sempre ipotesi e mai verità irrefutabili.
Che cosa cambia rispetto all’induttivismo? Si veda lo schema
seguente:
Ciò che spiega
(anche attraverso leggi
probabilistiche)
IPOTESI
Ciò che è giustificato
(in maniera non definitiva,
non certa)
⇓
conseguenza
logica
⇑
Resistenza alla
falsificazione
Ciò che è spiegato
Base empirica
Ciò che giustifica
1. Le eventuali conferme (corroborazioni) non sono accumulabili
induttivamente;
2. Cambia l’atteggiamento dello scienziato: non deve andare alla
ricerca di conferme ma di falsificazioni della sua teoria, dunque di
esperimenti cruciali che la possano mettere in difficoltà.
La scoperta non segue un processo logico, tuttavia per Popper vale
la regola che la teoria più interessante è quella più falsificabile, ovvero
70
quella che ha più contenuto empirico, ovvero la probabilità a priori (=
antecedente al controllo) meno elevata. ⇒
ESEMPIO del criterio di scelta tra teorie
Tutte le orbite dei pianeti
sono cerchi o non sono
cerchi
ENUNCIATO PRIVO DI
CONTENUTO
NON FALSIFICABILE;
PROBABILITÀ A
PRIORI MASSIMA
Tutte le orbite dei pianeti
sono ellissi
ENUNCIATO CON
CONTENUTO
FALSIFICABILE;
PROBABILITÀ A
PRIORI: 70%
Tutte le orbite dei pianeti
sono cerchi
ENUNCIATO CON +
CONTENUTO
FALSIFICABILE;
PROBABILITÀ A
PRIORI: 50%
3.2.4 Corroborazione e previsione razionale
La mancata falsificazione o corroborazione si differenzia dalle
conferma tra l’altro perché i risultati della corroborazione non possono
venire cumulati induttivamente.
Problema: i risultati della scienza vengono utilizzati per la pratica
quotidiana e per le applicazioni tecnologiche. Ma in base a quali criteri
viene scelta ai fini dell’applicazione una teoria piuttosto di un’altra?
L’induttivista sceglie la teoria che presenta il grado più elevato di
probabilità di essere corretta. E il popperiano? Questi non può
proiettare induttivamente il risultato della corroborazione. Dunque, su
cosa fonda la sua scelta?
Popper è consapevole del problema, tanto è vero che osserva:
“… Ogni azione presuppone un insieme di aspettative; cioè di
teorie riguardo il mondo. Quale teoria sceglierà l’uomo d’azione?
Esiste qualcosa come una scelta razionale?
71
Questo ci porta ai problemi pragmatici dell’induzione:
Pr1 Su quale teoria dovremmo fondarci per l’azione pratica da un
punto di vista razionale?
Pr2 Quale teoria dovremmo preferire per l’azione pratica da un
punto di vista razionale?
La mia risposta a Pr1 è: Da un punto di vista razionale, non
dovremmo “fidarci” di alcuna teoria, perché nessuna teoria è stata
dimostrata vera, o può essere dimostrata vera.
La mia risposta a Pr2 è: Ma noi dovremmo preferire come base per
l’azione la teoria meglio controllata.
In altre parole, non vi è alcuna ‘affidabilità assoluta’; ma poiché
dobbiamo scegliere, sarà razionale scegliere la teoria meglio
controllata … la teoria meglio controllata è quella che, alla luce della
nostra discussione critica, appare la migliore finora, e non conosco
nulla di più razionale che una discussione critica ben condotta.
… a dispetto della razionalità di scegliere la teoria meglio
controllata come base per l’azione, questa scelta non è ‘razionale’ nel
senso che è basata su buone ragioni per attendersi che sarà una scelta
coronata da successo: non vi possono essere buone ragioni in questo
senso e questo è esattamente il risultato di Hume” (Conoscenza
oggettiva, pp. 42-3).
Questa posizione di Popper ha sollevato molte critiche, tra le altre
quelle di W.C. Salmon, che sottolinea come non sia possibile
sostenere da un lato che la corroborazione non ha valore induttivo e
dall’altro che essa giustifica la nostra preferenza ‘razionale’ per una
teoria piuttosto che per un’altra.
“Se prendiamo seriamente l’affermazione di Popper: ‘Consideravo
(e ancora considero) il grado di corroborazione di una teoria
semplicemente come un resoconto critico sulla qualità delle sue
prestazioni passate’, è difficile comprendere come la corroborazione
possa fornire una base razionale per preferire una teoria agli scopi
della previsione pratica.
A prescindere dalla correttezza o meno della mia critica alla
posizione di Popper, la questione che pongo è di fondamentale
72
importanza. Se dovesse risultare che Popper non può fornire un
resoconto plausibile della previsione razionale, allora, in
considerazione dell’enfasi che egli pone ripetutamente sull’oggettività
e la razionalità, non potremmo dare credito alla sua pretesa di avere
risolto il problema dell’induzione … [Altrove Popper osserva] “I
nostri enunciati di corroborazione non hanno valenza predittiva,
sebbene essi motivino e giustifichino la nostra preferenza per una
teoria rispetto a un’altra” … Poiché non mi sto occupando dei
problemi psicologici dell’induzione, non metterò in questione la tesi
che la corroborazione possa motivare la preferenza per una teoria su
un’altra. Quello che voglio capire è come la corroborazione possa
giustificare tale preferenza. A meno che non siamo in grado di trovare
una risposta soddisfacente a tale questione, mi sembra che non
abbiamo nessuna teoria valida della previsione razionale e nessuna
soluzione adeguata al problema dell’induzione.
… In questo lavoro, ho cercato di mostrare che il deduttivismo puro
non può rendere conto del problema della previsione razionale nei
contesti della decisione pratica … La scienza è inevitabilmente
induttiva sia nelle questioni legate alla curiosità intellettuale, sia nella
previsione pratica. Potrebbe essere possibile togliere tutti gli
ingredienti induttivi dalla scienza, ma se l’operazione riuscisse, il
paziente (la scienza), privato di tutta la sua valenza predittiva,
morirebbe” (“Rational Prediction”, in A. Grünbaum and W.C.
Salmon, eds. The Limitations of Deductivism, University of California
Press, 1988).
73
3.3 Epistemologia post-popperiana
Caratteri comuni dell’epistemologia neo-positivista e popperiana:
– (i) Conta il contesto di giustificazione e non di scoperta
– (ii) C’è un mondo esperienziale comune, che costituisce il
terreno di confronto fra teorie rivali
– (iii) Si dà progresso (o regresso) della scienza
Caratteri comuni dell’epistemologia post-popperiana:
– non (ii) Non esiste un mondo esperienziale comune; ogni teoria
fa parte di una “visione del mondo”, che genera il significato dei
termini scientifici e stabilisce i fatti che servono a confermare la
teoria. Le teorie non possono essere confrontate tra loro, perché
manca la base del confronto: le teorie sono tra loro
incommensurabili.
– non (iii) Se le teorie sono incommensurabili, non si ha progresso
(o regresso scientifico). Cosa consente dunque di scegliere tra
teorie?
– non (i) Il contesto di scoperta: fattori storici, psicologici,
sociologici, non logico-metodologici.
74
3.3.1 T. Kuhn
L’opera principale di Thomas Kuhn, La struttura delle rivoluzioni
scientifiche (SRS) contiene innanzitutto una teoria sullo sviluppo della
scienza:
Periodo pre-paradigmatico: in questo periodo si accumulano fatti in
modo quasi casuale senza riferimento ad alcun piano o struttura
teorica accettati ( si veda ad esempio l’opera di Plinio).
Gradualmente un sistema teorico viene accettato da un numero
sempre più vasto di persone ⇒ si stabilisce il paradigma della
disciplina.
PARADIGMA = “Con tale termine voglio indicare conquiste
scientifiche universalmente riconosciute, le quali, per un certo
periodo, forniscono un modello di problemi e soluzioni accettabili a
coloro che praticano un certo campo di ricerca” (SRS, p. 10).
Esempi di paradigmi sono l’astronomia tolemaica o quella
copernicana, la dinamica aristotelica o quella newtoniana.
Da che cosa è costituito esattamente un paradigma? Nel caso
dell’astronomia tolemaica sono state individuate le seguenti
componenti:
– gli obiettivi della disciplina: la predizione dei moti apparenti dei
pianeti;
– i problemi che le spettava risolvere: descrivere e spiegare i moti
retrogradi dei pianeti, le loro variazioni di velocità, luminosità, ecc.;
– il metodo da seguire: la ricostruzione geometrica delle orbite;
– degli esempi di soluzione: il modello geocentrico anzitutto, e poi gli
epicicli, ecc.;
– alcuni presupposti basilari indiscussi: l’immobilità della Terra, la
finitezza dell’universo, ecc.
– una metafisica di fondo: finalismo, animismo, perfezione dei moti
circolari, ecc;
– i significati dei termini: ‘pianeta’ significa corpo celeste in movimento;
‘Sole’ significa il pianeta luminoso; ecc.;
75
– uno schema concettuale e l’interpretazione implicita in ogni esperienza
percettiva: ad esempio, la percezione dello spostamento relativo di
Terra e Sole durante il giorno come moto di rivoluzione del Sole, e non
come moto di rotazione della terra (da Alai, Filosofia della scienza del
Novecento, p. 59).
L’accettazione di un paradigma costituisce la comunità scientifica,
che all’interno dei presupposti propri del paradigma pone in atto la
scienza normale.
Nei periodi di scienza normale domina un paradigma, così che una
data teoria non è oggetto, ma fondamento della ricerca. Fare scienza
normale significa risolvere rompicapi (puzzles), cioè problemi che
emergono dall’interno del paradigma. Un fallimento nella soluzione
del rompicapo non è percepito come un fallimento del paradigma, ma
piuttosto del ricercatore, in quanto si presuppone che ci sia una
soluzione, se non subito, un domani.
La scienza normale è un’impresa altamente cumulativa: essa,
proprio in quanto scienza normale “non ha per scopo quello di trovare
novità di fatto o teoriche e, quando ha successo, non ne trova
nessuna”(SRS, p. 75).
Nella scienza normale, quando un problema non trova soluzione
nonostante molti tentativi, si pensa che si tratti di un’anomalia: il
problema non trova soluzione, ma questo aspetto problematico non è
tale da far abbandonare il paradigma.
Se tuttavia le anomalie sono troppo estese, si può giungere al punto
di cambiare paradigma, cioè di trovarne uno in cui ciò che prima era
anomalo diventa invece spiegabile ⇒ passaggio dalla scienza normale
alla scienza straordinaria; passaggio da un paradigma all’altro ⇒
rivoluzione scientifica.
Cosa cambia cambiando paradigma? Nel caso del passaggio dal
paradigma tolemaico a quello copernicano cambiano tutti gli elementi
enumerati in precedenza:
76
– gli obiettivi dell’astronomia: la descrizione della vera forma
dell’universo, e non solo dei moti planetari apparenti;
– i problemi da risolvere: la spiegazione delle numerose “coincidenze”
solari che restavano inspiegate nel modello geocentrico;
– i metodi: la costruzione di modelli realistici, e non di semplici
elaborazioni geometriche;
– le soluzioni proposte: il modello eliocentrico, la grande distanza delle
stelle fisse, ecc.
– i presupposti fisici: mobilità della terra, principio di relatività
galileiana, ecc;
– le concezioni metafisiche di base: esclusione del finalismo, maggior
dignità del Sole rispetto alla terra, ecc.;
– i significati dei termini: con ‘Sole’ s’intende una stella fissa, e non più
un pianeta;
– le esperienze percettive: l’astronomo copernicano non vede più il sole
che ruota attorno alla terra, ma la terra che ruota sul proprio asse al
cospetto del Sole (da Alai, Filosofia della scienza del Novecento, p.
60-61).
Vi è un cambio del linguaggio scientifico, delle ipotesi di fondo, delle
norme metodologiche. Il linguaggio osservativo è dipendente da quello
teorico, quindi ogni paradigma ha i suoi fatti, i suoi dati di esperienza ⇒
viene meno la condizione di invarianza semantica propria della tradizione
razionalistica. ⇒ i paradigmi in competizione sono inconfrontabili, ossia
incommensurabili.
Per quale ragione si cambia allora paradigma? “Proprio perché è un
passaggio tra incommensurabili, il passaggio da un paradigma a uno
opposto non può essere realizzato con un passo alla volta, né imposto
dalla logica o da un’esperienza neutrale. Come il riorientamento
gestaltico, esso deve compiersi tutto in una volta (sebbene non in un
istante) oppure non si compirà affatto” (SRS, p. 182). “Il trasferimento
della fiducia da un paradigma a un altro è un’esperienza di
conversione che non può essere imposta con la forza”(SRS, p. 182).
77
Non vi è una razionalità scientifica che sia interparadigmatica: ciò
che è razionale lo si decide solo all’interno di un paradigma.
Il contesto di scoperta gioca un ruolo molto più importante di
quello di giustificazione; i fattori che portano alla ‘conversione’ non
sono né logici, né empirici, ma legati a elementi psicologici, storici,
sociali, talvolta anche a casualità. “I singoli scienziati abbracciano un
nuovo paradigma per ogni genere di ragioni, e di solito per parecchie
ragioni allo stesso tempo. Alcune di queste ragioni – ad esempio, il
culto del sole che contribuì a convertire Keplero al copernicanesimo –
si trovano completamente al di fuori della sfera della scienza. Altre
ragioni possono dipendere da idiosincrasie autobiografiche e
personali. Persino la nazionalità o la precedente reputazione
dell’innovatore e dei suoi maestri può talvolta svolgere una funzione
importante … Probabilmente la pretesa più importante avanzata dai
sostenitori di un nuovo paradigma è quella di essere in grado di
risolvere i problemi che hanno portato il vecchio paradigma alla crisi.
Questa pretesa, quando può venire avanzata legittimamente,
costituisce spesso l’argomentazione a favore più efficace”(SRS, p.
185). Tuttavia, “nei dibattiti sui paradigmi, non si discutono realmente
le relative capacità nel risolvere i problemi, sebbene, per buone
ragioni, vengano adoperati di solito termini che vi si riferiscono. Il
punto in discussione consiste invece nel decidere quale paradigma
debba guidare la ricerca in futuro, su problemi molti dei quali nessuno
dei due competitori può ancora pretendere di risolvere completamente.
Bisogna decidere tra forme alternative di fare attività scientifica e, date
le circostanze, una tale decisione deve essere basata più sulle promesse
future che sulle conquiste passate. Colui che abbraccia un nuovo
paradigma fin dall’inizio, lo fa spesso a dispetto delle prove fornite
dalla soluzione di problemi. Egli deve, cioè, aver fiducia che il nuovo
paradigma riuscirà in futuro a risolvere i molti vasti problemi che gli
stanno davanti, sapendo soltanto che il vecchio paradigma non è
riuscito a risolverne alcuni. Una decisione di tal genere può essere
presa soltanto sulla base della fede”(SRS, p. 190).
78
3.3.2 P.K. Feyerabend
Nella sua opera principale, Contro il metodo, Feyerabend sferra un
attacco radicale alle regole metodologiche dall’epistemologia tradizionale,
mettendo in discussione l’utilità delle regole metodologiche per lo
sviluppo della scienza. Feyerabend è infatti sostenitore dell’anarchismo
metodologico. “L’anarchismo pur non essendo forse la filosofia politica
più attraente, è senza dubbio un’eccellente medicina per l’epistemologia e
la filosofia della scienza. Non è difficile trovarne la ragione.
“La storia in generale, la storia delle rivoluzioni in particolare, è
sempre più ricca di contenuto, più varia, più multilaterale, più viva,
più astuta, di quanto possono immaginare anche il migliore storico e il
migliore metodologo. La storia è ricca di ‘casi e congiunture e curiose
giustapposizioni di eventi’ e ci dimostra ‘la complessità del
mutamento umano e il carattere impredicibile delle conseguenze
ultime di ogni dato o decisione di esseri umani’. Dobbiamo credere
veramente che le regole ingenue e semplicistiche che i metodologi
prendono come loro guida possano rendere ragione di un tale
‘labirinto di interazioni’? E non è chiaro che può partecipare con
successo a un processo di questo genere solo un opportunista senza
scrupoli che non sia legato ad alcuna particolare filosofia e che adotti
in ogni caso il procedimento che gli sembra più opportuno nella
particolare circostanza?” (CM, pp. 15-6).
“Il mondo che desideriamo esplorare è un’entità in gran parte
sconosciuta. Dobbiamo perciò mantenere aperte tutte le nostre scelte e
non dobbiamo fissarci limiti in anticipo. Taluni precetti epistemologici
possono apparire meravigliosi quando vengono confrontati con altri
precetti epistemologici, o con principi di carattere generale, ma chi può
garantire che essi siano il modo migliore per scoprire non soltanto
alcuni ‘fatti’ isolati, ma anche segreti di natura profondi? … Il desiderio
di accrescere la libertà, di condurre a una vita piena e gratificante, e il
corrispondente tentativo di scoprire i segreti della natura e dell’uomo,
comportano quindi il rifiuto di ogni norma universale e di ogni
tradizione rigida. (Essi comportano, naturalmente, anche il rifiuto di
gran parte della scienza contemporanea)” (CM, pp. 17-8).
79
Le regole metodologiche ingabbiano la fantasia dello scienziato,
quindi l’anarchismo, la pluralità dei metodi e dei criteri assicura il
progresso della scienza più di quanto facciano le regole
metodologiche.
Il fatto che non ci sia un metodo privilegiato che contiene regole
assolute è evidente quando ci si confronta con la storia della scienza.
“Non c’è una singola norma, per quanto plausibile e per quanto
saldamente radicata nell’epistemologia, che non sia stata violata in
qualche circostanza. Diviene evidente anche che tali violazioni non
sono eventi accidentali, che non sono il risultato di un sapere
insufficiente o di disattenzioni che avrebbero potuto essere evitate. Al
contrario, vediamo che tali violazioni sono necessarie per il progresso
scientifico. In effetti, uno fra i caratteri che più colpiscono delle
recenti discussioni sulla storia e la filosofia della scienza è la presa di
coscienza del fatto che eventi e sviluppi come l’invenzione
dell’atomismo nell’antichità, la rivoluzione copernicana, l’avvento
della teoria atomica moderna (teoria cinetica; teoria della dispersione;
stereochimica; teoria quantistica), il graduale emergere della teoria
ondulatoria della luce si verificano solo perché alcuni pensatori o
decisero di non lasciarsi vincolare da certe norme metodologiche
‘ovvie’ o perché involontariamente le violarono”(CM, p. 21).
Questa libertà d’azione non è soltanto un fatto della storia della
scienza, ma è necessaria per la crescita del sapere: “data una norma
qualsiasi, per quanto “fondamentale” o “necessaria” essa sia per la
scienza, ci sono sempre circostanze nelle quali è opportuno non solo
ignorare la norma, ma adottare il suo opposto. Per esempio, ci sono
circostanze nelle quali è consigliabile introdurre, elaborare e difendere
ipotesi ad hoc, o ipotesi che contraddicano risultati sperimentali ben
stabiliti e universalmente accettati, o ipotesi il cui contenuto sia
minore rispetto a quello delle ipotesi alternative esistenti e adeguate
empiricamente, oppure ancora ipotesi autocontraddittorie ecc. Ci sono
addirittura circostanze – le quali si verificano anzi piuttosto spesso –
in cui il ragionamento perde il suo aspetto orientato verso il futuro
diventando addirittura un impaccio al progresso” (CM, pp. 21-22).
80
Le tesi di Feyerabend sono supportate da un caso storico, quello di
Galilei. Tale caso mostrerebbe che la scienza non è un’impresa
razionale: quando si produce un progresso teorico importante, le
nuove idee, giudicate dal punto di vista del paradigma precedente,
sono irrazionali.
“Lo sviluppo del punto di vista copernicano da Galileo al XX
secolo è un esempio perfetto della situazione che mi propongo di
descrivere. Il punto di partenza è costituito da una forte convinzione
che contrasta con la ragione e l’esperienza contemporanee. La
convinzione si diffonde e trova sostegno in altre convinzioni, che sono
altrettanto irragionevoli se non di più (la legge di inerzia, il
telescopio). La ricerca viene ora deviata in altre direzioni, si
costruiscono nuovi tipi di strumenti, i dati dell’osservazione e
dell’esperimento vengono connessi a teorie in modi nuovi finché sorge
un’ideologia abbastanza ricca da fornire argomentazioni indipendenti
per ogni singolo dato e abbastanza mobile per trovare argomentazioni
del genere ogni qualvolta esse sembrino richieste. Oggi possiamo dire
che Galilei era sulla strada giusta poiché la sua tenace ricerca di quella
che un tempo sembrava una stramba cosmologia ha creato oggi i
materiali necessari per difenderla contro tutti coloro che sono disposti
ad accettare un’opinione solo se essa viene espressa in un certo modo
e che prestano fede ad essa solo se contiene certe frasi magiche,
designate come protocolli o rapporti d’osservazione.
E questa non è un’eccezione, bensì il caso normale: le teorie diventano
chiare e ragionevoli solo dopo che parti incoerenti di esse sono state usate
per molto tempo. Una tale anticipazione parziale, irragionevole, assurda,
in violazione di ogni metodo, risulta quindi un presupposto inevitabile
della chiarezza e del successo empirico” (CM, p. 24).
Ci sono tanti metodi diversi e tutti hanno lo stesso valore: non solo
la scienza occidentale, ma anche la magia, la mitologia, la religione
sono valide nel loro contesto socioculturale, dove espletano un ruolo
simile a quello che la scienza svolge nella nostra cultura.
“È chiaro, quindi, che l’idea di un metodo fisso, o di una teoria
fissa della razionalità, poggia su una visione troppo ingenua dell’uomo
81
e del suo ambiente sociale. Per coloro che non vogliono ignorare il
ricco materiale fornito dalla storia, e che non si propongono di
impoverirlo per compiacere ai loro istinti più bassi, alla loro brama di
sicurezza intellettuale nella forma della chiarezza, della precisione,
dell’‘obiettività’, della ‘verità’, diventerà chiaro che c’è un solo
principio che possa essere difeso in tutte le circostanze e in tutte le fasi
dello sviluppo umano. È il principio: qualsiasi cosa può andare bene”
(CM, p. 25).
Il richiamo di Feyerabend alla ‘metodologia pluralistica’suggerisce
che il cambiamento scientifico non avvenga sulla base del confronto
tra teoria e osservazione ma in virtù del confronto tra una teoria e
un’altra teoria. “Uno scienziato che desideri massimizzare il contenuto
empirico delle sue opinioni … deve mettere a confronto idee con altre
idee anziché con l’‘esperienza’ … Il principio di autonomia afferma
che i fatti che appartengono al contenuto empirico di una qualche
teoria sono disponibili vengano o no prese in considerazione
alternative a tale teoria. Ma: fatti e teorie sono connessi in modo molto
più intimo di quanto non ammetta il principio di autonomia. Non
soltanto la descrizione di ciascun fatto singolo dipende da qualche
teoria (la quale potrebbe, ovviamente, essere molto diversa dalla teoria
che dev’essere verificata), ma esistono anche fatti che non possono
emergere se non con l’aiuto di alternative alla teoria che si tratta di
verificare, e che cessano di essere disponibili non appena tali
alternative siano escluse” (CM, p. 33).
3.4 Riflessioni critiche sull’epistemologia contemporanea
L’epistemologia post-popperiana tende a confondere le considerazioni
di filosofia della scienza con quelle di storia della scienza.
Che cos’è la filosofia della scienza? È una dottrina del metodo
scientifico e dunque una disciplina di tipo prescrittivo: prescrive quali
regole seguire per attingere una conoscenza vera o plausibile.
Che cos’è la storia della scienza? È una disciplina descrittiva, che si
occupa delle modalità in cui, nel corso della storia, si è fatta scienza.
82
I post-popperiani tendono a mettere in discussione il metodo scientifico
richiamandosi alla storia della scienza. Ciò comporta una violazione della
legge di Hume, una legge logica che recita quanto segue:
Non è possibile derivare logicamente proposizioni normative da
proposizioni solo descrittive e viceversa
A esemplificazione della legge si può portare questo esempio.
Dall’enunciato ‘In Italia nessuno paga le tasse’ non è derivabile
logicamente l’enunciato ‘È lecito non pagare le tasse’. Allo stesso
modo, del fatto eventualmente accertato che uno scienziato non ha
seguito le regole del metodo, non segue logicamente che ogni
scienziato sia tenuto a non attenersi al metodo.
La distinzione essere – dover-essere viene però relativizzata da
Feyerabend:
“La metodologia, si dice, si occupa di ciò che si dovrebbe fare e
non può essere criticata in riferimento a ciò che è. Ma dobbiamo
ovviamente essere certi del fatto che le nostre prescrizioni abbiano un
punto di attacco nel materiale storico e dobbiamo anche esser certi che
una loro applicazione esatta conduca a risultati desiderabili … Ancora
una volta, si può progredire solo se la distinzione fra il si deve e l’è è
considerata uno stratagemma temporaneo anziché una linea di
demarcazione fondamentale” (CM, p. 137).
L’esito naturale dell’epistemologia post-popperiana sembrerebbe
dunque la trasformazione della filosofia della scienza in storia della
scienza, sociologia della scienza o qualche altra disciplina di tipo
descrittivo.
Si pone perciò il problema: come rispettare la legge di Hume e la
dicotomia fatti-valori, senza con questo negare l’esigenza di
concretezza avanzata da Feyerabend e da altri epistemologi postpopperiani?
Una possibile risposta consiste nell’accettare il metodo scientifico
nella sua accezione tradizionale, ritenendolo valido nelle sue linee
generali, ma sostenendo nello stesso tempo che la storia della scienza
83
mostra come la sua applicazione sia molto più complessa di quanto si
potesse pensare in un primo momento ⇒
Ciò che si deve modificare non è tanto la concezione del metodo
quanto la considerazione delle condizioni di applicabilità del metodo. Le
condizioni di applicabilità hanno carattere descrittivo e vengono accertate
in base a considerazioni di carattere storico, sociologico, psicologico …
A questo sembra tendere anche Feyerabend, quando parla di un
‘punto d’attacco’ nel materiale storico: “Ce ne assicuriamo
[dell’applicazione esatta delle nostre prescrizioni] considerando
tendenze e leggi (storiche, sociologiche, fisiche, psicologiche, ecc.) le
quali ci dicono che cosa è possibile e che cosa non è possibile nelle
circostanze date e separano quindi le prescrizioni realizzabili da quelle
destinate a condurre a vicoli ciechi” (CM, p. 137)
Questa posizione è plausibile, ma per sostenerla non occorre
diventare “post-popperiani”. È possibile rendere ragione di molte
istanze avanzate dai post-popperiani rimanendo nell’alveo della
concezione “tradizionale” del metodo.
In effetti, in risposta alle critiche loro rivolte, gli epistemologi postpopperiani spesso rivedono in senso moderato molte loro posizioni ⇒
Questo, ad esempio, è il caso di Thomas Kuhn.
Alla posizione di Kuhn sono state rivolte molte critiche, tra cui:
– Il concetto di paradigma non è chiaro. Talvolta Kuhn intende il
concetto in senso stretto, come teoria collegata a un insieme di casi
paradigmatici e a un linguaggio teorico; talvolta intende il termine
paradigma in un senso molto più vasto (cfr. Alai), includente in
ultima analisi anche una visione del mondo.
– Le tesi di Kuhn circa la storia della scienza sono eccessive. Molte
asserzioni di Kuhn sono plausibili solo se si intende il termine
paradigma in senso lato, ma allora i cambi di paradigma così intesi
non sono così frequenti come i cambi di teoria.
Ebbene, in considerazione di tali critiche, Kuhn modifica in seguito
alcune delle tesi formulate in (SRS):
– I paradigmi non sono equiparabili a visioni del mondo ⇒ si accetta
un concetto ristretto di paradigma.
84
– I mutamenti di paradigma sono solo questioni di scala
relativamente piccola ⇒ i fautori di paradigmi opposti possono
trovare un linguaggio comune.
– Il fatto che i paradigmi siano incommensurabili non significa che
siano inconfrontabili; solo, non lo sono sulla base di un linguaggio
neutrale e le regole di traduzione sono difficili.
3.4.1 Una chiave di lettura dell’epistemologia contemporanea
basata sul rapporto tra teoria e fatti empirici
Nel corso dell’evoluzione del metodo scientifico nel Novecento si è
passati dal dogma positivistico del dato empirico come fondamento
della scienza all’epistemologia post-popperiana che riconosce al dato
empirico un ruolo metodologico minimale:
Da: tutto dato empirico & niente teoria
a: tutto teoria & niente dato empirico
Volendo delineare più precisamente l’evoluzione del metodo nel
Novecento, potremmo segnalare questi fondamentali punti di transizione:
Neo-positivismo:
1. Fase: si danno solo concetti osservativi;
2. Fase: si danno anche concetti teorici interpretati empiricamente.
Popper:
I concetti osservativi sono carichi di teoria → priorità della teoria
sull’esperienza.
Epistemologia post-popperiana:
I concetti teorici assumono il ruolo metodologico fondamentale, sino
a minimizzare il ruolo dell’osservazione. Ciò avviene soprattutto in un
autore come Feyerabend: “Il significato degli enunciati osservazionali
dipende dalla teoria cui sono connessi. Le teorie sono significanti
indipendentemente dalle osservazioni, mentre le asserzioni
osservazionali non lo sono, a meno che siano poste in relazione con le
85
teorie … È quindi l’enunciato osservazionale che ha bisogno della
teoria, e non viceversa (Feyerabend, I problemi dell’empirismo, p. 64).
Nel prosieguo cercheremo di delineare una teoria epistemologica
che tenga conto in debita misura di entrambi i fattori. A tal fine si
impone un’analisi di alcuni concetti, che spesso si ritiene supportino
gli esiti radicali dell’epistemologia post-popperiana. Si tratta in
particolare del carico teorico dei concetti osservativi, del carattere
olistico della giustificazione e della tesi della sottodeterminazione
empirica delle teorie. Nel seguito si cercherà di mostrare che per
ognuno di questi concetti si può formulare sia una tesi radicale (come
nel caso dell’epistemologia post-popperiana) sia una tesi moderata,
che non richiede l’abbandono dell’alveo razionalistico. Da ultimo si
sosterrà che, quand’anche si diano casi di sottodeterminazione
empirica, la scelta dello scienziato non è lasciata all’arbitrio, ma può
far uso dell’argomento della spiegazione migliore.
3.4.1.1 Carico teorico dei concetti osservativi
Esposizione della tesi
Non esiste il puro dato d’esperienza, esiste il dato di esperienza
interpretato.
L’interpretazione viene fornita dalla teoria, ovvero dalla teoria
osservativa competente.
Teoria osservativa = teoria deputata a garantire l’affidabilità delle
procedure sperimentali.
Se ad esempio facciamo esperimenti usando il canocchiale,
dobbiamo supporre che le leggi dell’ottica siano leggi valide, per lo
meno per quanto riguarda quella parte di esse che ci serve ai fini del
nostro esperimento.
Una conseguenza che si può trarre dal carico teorico dei concetti
osservativi è che anche il dato di esperienza non è irrefutabile, e, nel
caso di contrasto tra teoria ed esperimento, può darsi che talvolta
debba essere rigettata la risultanza empirica.
Popper afferma ad esempio che anche gli asserti-base (protocolli)
sono congetture sempre rivedibili in linea di principio. Come non
86
esiste una distinzione netta tra termini osservativi e termini teorici
(tutti i termini sono teorici), così non si danno asserti congetturali e
asserti non congetturali: tutti sono congetturali. Da ciò segue che
l’accettazione della validità di certi asserti-base è frutto di una
decisione ragionevole. A questo riguardo emerge l’elemento di
convenzionalità presente nella posizione popperiana.
Questa tesi, portata all’estremo, ha condotto a concezioni
relativistiche del cambiamento scientifico, del tipo seguente: “ogni
teoria ha la sua base empirica, influenzata dai suoi pregiudizi teorici;
non c’è base comune di confronto, dunque il cambiamento di teoria
non è legato a fattori scientifici, ma extrascientifici”.
Interpretazione della tesi
La circostanza che il dato empirico è carico di teoria non conduce
necessariamente a esiti relativistici.
L’antidoto consiste nell’assumere che le teorie osservative siano
indipendenti da quelle che vengono controllate; in questo modo si
garantisce la possibilità di un terreno comune di confronto. Il requisito
appena formulato è noto come:
Requisito di indipendenza del materiale probatorio
ESEMPIO:
“Per spiegare l’immagine formata da un microscopio ottico, si
usano le teorie dell’ottica. Sapere come si comporta la luce nelle sue
interazioni col campione sotto esame e con le lenti ci dice come si
forma l’immagine e ci dice che l’immagine mostra, in modo
affidabile, aspetti del campione. Se l’immagine è quella di un
cromosoma, essa può servire da materiale probatorio di una qualche
affermazione concernente la pertinenza della forma alla funzione
dell’oggetto o concernente il numero relativo e le dimensioni dei
cromosomi nei diversi organismi. Le affermazioni sull’ottica, che si
usano per descrivere come si forma l’immagine e per sancirla, quindi,
come una rappresentazione esatta del campione, sono indipendenti
dalle affermazioni sulla biologia e sulla genetica per le quali
87
l’osservazione particolare serve come materiale probatorio. Non è
sulla base del risultato di esperimenti biologici che le teorie ottiche
acquistano o perdono credibilità.
Le teorie osservative, in questo caso, sono chiaramente
indipendenti dalle teorie che si devono controllare con le
osservazioni” (P. Kosso, Leggere il libro della natura, pp. 165-166).
3.4.1.2 Carattere olistico della giustificazione
Esposizione della tesi
Le procedure di controllo delle teorie scientifiche sono alquanto
complesse.
Una teoria, infatti, non è costituita solo dalle ipotesi specifiche che
la caratterizzano, ma anche da condizioni iniziali e da ipotesi
ausiliarie.
Quando si verifica una falsificazione, questa non colpisce una
singola ipotesi, ma l’intero sistema teorico. Quindi, non è sempre
possibile dire con sicurezza quale singola componente del sistema essa
riguarda. Potrebbe riguardare l’ipotesi specifica, ma anche le
condizioni o le ipotesi ausiliarie.
ESEMPIO 1 (riguardante le condizioni iniziali):
La teoria della gravità predice che, se due oggetti di peso diverso
sono fatti cadere dalla stessa altezza simultaneamente, essi
toccheranno il suolo nello stesso momento.
Se si prova a fare l’esperimento, la predizione non si avvera.
Perché?
⇓
Non è soddisfatta la condizione sperimentale (non ci deve essere la
resistenza dell’aria).
La teoria funziona solo se è data anche la condizione:
88
IPOTESI
Se due oggetti di peso diverso sono fatti
cadere dalla stessa altezza
simultaneamente, e non c’è resistenza
dell’aria, essi toccheranno il suolo nello
stesso momento
CONDIZIONE
Non c’è resistenza dell’aria
CONCLUSIONE
I due oggetti…
ESEMPIO 2 (riguardante le ipotesi ausiliarie):
Nell’esempio, tratto come il precedente da Kosso, si tratta di
mostrare come la fusione nucleare all’interno del sole possa essere
fonte di energia solare. Per farlo, si deve però ricorrere a ipotesi
ausiliarie, che possono essere anch’esse fonte di errori.
All’interno del sole, è in
atto la fusione nucleare
IPOTESI
IPOTESI
AUSILIARIE
⇓
Se ciò è vero, deve essere
possibile constatare
empiricamente la presenza
di neutrini solari.
BASE
EMPIRICA
89
1. La fusione crea neutrini.
2. I neutrini sono
abbastanza sfuggenti da
uscire dalle profondità
solari e raggiungere la
terra…
Il carattere globalistico del controllo di una teoria (da qui il termine
olismo) è venuto ad espressione nella:
TESI DI DUHEM-QUINE:
Quando una teoria viene falsificata, vi sono molte possibili componenti candidate alla
falsificazione e la scelta è di carattere meramente convenzionalistico.
⇓
Esito tendenzialmente relativistico come nel caso del concetto di
carico teorico.
Interpretazione della tesi
Il carattere olistico delle procedure giustificative non va sovrastimato.
Popper, ad esempio, osserva che talvolta possiamo controllare solo
un’ampia porzione di sistema teorico. Ciò non ci autorizza però ad
affermare in linea di principio che sia impossibile trovare l’ipotesi
responsabile della falsificazione, anche se la sua individuazione è frutto di
un tentativo congetturale.
3.4.1.3 Tesi della sottodeterminazione empirica delle teorie
Esposizione della teoria:
Esistono teorie non equivalenti (con vocabolario teorico diverso)
che sono empiricamente equivalenti, ossia hanno il medesimo
contenuto empirico (ad esempio nell’Ottocento la teoria corpuscolare
e la teoria ondulatoria della luce) ⇒
Ci sono certe ipotesi tra cui non si può decidere sperimentalmente.
Come scegliere dunque tra teorie rivali, nel caso in cui queste siano
sottodeterminate?
Anche a questo riguardo vi è un possibile esito relativistico, che
sostiene che la scelta sia arbitraria dal punto di vista scientifico.
L’esito relativistico, tuttavia, non è il risultato obbligato nemmeno
in questo caso, se si pone in atto l’argomento della spiegazione
migliore ⇒
90
3.4.1.4 Argomento della spiegazione migliore
Quando l’evidenza empirica non è univoca, ossia quando le teorie
sono sottodeterminate, lo scienziato non deve accontentarsi di una
spiegazione qualsiasi: egli ha il compito di individuare quale sia la
teoria che offre la spiegazione migliore.
L’individuazione della teoria migliore riduce il numero delle
possibili candidate a una sola.
Cosa fa di una spiegazione la spiegazione migliore?
“… bisogna che l’essere la [spiegazione] migliore sia un aspetto
valutabile e non sia solo un espediente del tipo «se Dio ci viene a dire
che è la migliore». Inoltre ci deve essere un’esplicita dimostrazione
del fatto che essere la migliore, comunque lo si definisca, costituisce
un aspetto facilitatore della verità. È chiaro che gli standard di questo
essere migliore sono ampiamente, se non addirittura totalmente,
interni. L’essere una spiegazione è una virtù esterna perché comporta
il confronto con l’osservazione, ma essere la migliore tra date
spiegazioni empiricamente equivalenti riguarda il fatto che la teoria è
semplice, precisa e feconda e che essa è compatibile e cooperativa con
altre teorie accettabili” (Kosso, Leggere il libro della natura, p. 110).
Nemmeno nel caso in cui si diano fenomeni di sottodeterminazione
è dunque necessario abbandonare la tesi moderata e abbracciare
posizioni di tipo irrazionalistico.
91
PARTE ANTOLOGICA
H. HAHN-O. NEURATH-R. CARNAP
La concezione scientifica del mondo
Bari, 1979, pp. 61-82
Molti affermano che il pensiero metafisico e teologizzante è oggi
di nuovo in ascesa, non solo nella vita, ma anche nella scienza. Si
tratta di un fenomeno generale o soltanto di un processo circoscritto a
particolari gruppi? L’affermazione di cui sopra risulta agevolmente
suffragata, se si considerano i temi dei corsi universitari e i titoli delle
pubblicazioni filosofiche. Tuttavia, ai giorni nostri, anche l’opposto
spirito illuministico e di ricerca positiva antimetafisica si va
rafforzando, con sempre maggiore consapevolezza della propria
natura e del proprio compito. In alcuni circoli, l’orientamento
empiristico, avverso alla speculazione, appare più vitale che mai,
rinvigorito proprio dall’antitesi venutasi a determinare.
Nel lavoro di indagine in tutti i settori della scienza empirica è
vivo questo spirito di una concezione scientifica del mondo. Esso,
però, viene approfondito in modo sistematico e sostenuto a fondo
unicamente da pochi autorevoli pensatori, i quali solo di rado sono
nelle condizioni di poter riunire intorno a sé un gruppo di
collaboratori aventi idee consimili. Si riscontrano tendenze
antimetafisiche soprattutto in Gran Bretagna, dove la tradizione dei
grandi empiristi è ancora rigogliosa: gli studi logici e l’analisi della
realtà compiuti da Russell e da Whitehead hanno attinto rilievo
internazionale. Negli Stati Uniti queste tendenze assumono le forme
più varie; lo stesso James, in un certo senso, sarebbe da ricordare al
riguardo. Anche la nuova Russia sta, di fatto, perseguendo una
concezione scientifica del mondo, benché, in parte, faccia leva su
dottrine materialistiche tutt’altro che recenti. Infine, nell’Europa
continentale, specialmente a Berlino (Reichenbach, Petzold, Grelling,
Dubislav) e a Vienna, va rilevata la convergenza di feconde iniziative
tese a stabilire una concezione scientifica del mondo.
Che Vienna costituisse un terreno particolarmente adatto per tale
sviluppo è storicamente comprensibile. Ivi, durante la seconda metà
92
del XIX secolo, il liberalismo rappresentò l’orientamento politico a
lungo preminente. Il suo patrimonio di idee appare originato
dall’illuminismo, dall’empirismo, dall’utilitarismo, nonché dal
movimento di libero scambio dell’Inghilterra …
A Vienna, in una simile atmosfera liberale, visse Ernst Mach (nato
nel 1838), dapprima come studente, quindi come libero docente
(1861-1864). Egli fece poi ritorno nella capitale austriaca solo in età
avanzata, quando vi fu istituita proprio per lui una cattedra di filosofia
delle scienze induttive (1895). Suo intento principale era depurare la
scienza empirica, soprattutto la fisica, da nozioni metafisiche. Basterà
ricordare la sua critica dello spazio assoluto, mediante la quale egli
anticipò idee di Einstein, la sua battaglia contro la metafisica della
cosa in sé, nonché le sue indagini sulla formazione dei concetti
scientifici a partire dai dati sensibili quali fattori elementari …
L’impegno di fisici come Mach e Boltzmann nell’insegnamento
filosofico attesta l’interesse allora dominante per i problemi
gnoseologici e logici della fondazione della fisica. Da questa tematica
fondazionale trasse origine anche l’esigenza di un rinnovamento della
logica; tanto più che a Vienna, pur movendo da direzione affatto
diversa, Franz Brentano (fra il 1874 e il 1880 professore dei filosofia
nella facoltà teologica; nonché, più tardi docente della facoltà
filosofica) aveva aperto la strada. In quanto sacerdote cattolico,
Brentano, conoscendo bene la scolastica, ne riprese senz’altro le
dottrine logiche, insieme con i contributi leibniziani per una riforma
della stessa logica; mentre lasciò da parte Kant e i filosofi idealisti
sistematici …
Nel 1922, allorché Moritz Schlick venne chiamato da Kiel
all’Università di Vienna, la sua attività s’inserì felicemente
nell’atmosfera culturale viennese. Fisico d’origine, egli contribuì a
rilanciare la tradizione instaurata nella capitale austriaca da Mach e da
Boltzmann …
Con l’andar degli anni, intorno a Schlick si costituì un Circolo, il
quale unificò gli sforzi intesi a stabilire una concezione scientifica del
mondo; da questa convergenza dei vari apporti derivò un fruttuoso
stimolo reciproco … Nessuno [degli aderenti a tale Circolo] è un
filosofo cosiddetto «puro»; anzi, tutti hanno lavorato in qualche
particolare ambito scientifico. C’è di più: essi provengono da diversi
rami della scienza e, in origine, da indirizzi filosofici distinti. Nel
corso del tempo, però, si è delineato un indirizzo uniforme, ulteriore
93
conseguenza del peculiare orientamento scientifico addotto: «tutto ciò
che può formularsi può formularsi chiaramente» (Wittgenstein); le
divergenze d’opinione possono concludersi con un accordo, che va
quindi perseguito. Via via, è risultato sempre più chiaro che intento
comune era un atteggiamento non solo a-metafisco, bensì antimetafisico …
La concezione scientifica del mondo è caratterizzata non tanto da
tesi peculiari, quanto, piuttosto, dall’orientamento di fondo, dalla
prospettiva, dall’indirizzo di ricerca. Essa si prefigge come scopo
l’unificazione della scienza. Suo intento è di collegare e coordinare le
acquisizioni dei singoli ricercatori nei vari ambiti scientifici. Da
questo programma, derivano l’enfasi sul lavoro collettivo,
sull’intersoggettività, nonché la ricerca di un sistema di formule
neutrali, di un simbolismo libero dalle scorie delle lingue storiche,
non meno che la ricerca di un sistema globale dei concetti. Precisione
e chiarezza vengono perseguite, le oscure lontananze e le profondità
impenetrabili respinte. Nella scienza non si dà «profondità» alcuna;
ovunque è superficie: tutta l’esperienza costituisce un’intricata rete,
talvolta imperscrutabile e spesso intelligibile solo in parte. Tutto è
accessibile all’uomo e l’uomo è la misura di tutte le cose. In ciò si
riscontra un’affinità con i sofisti, non con i platonici; con gli epicurei,
non con i pitagorici; con tutti i fautori del mondano e del terreno. La
concezione scientifica del mondo non conosce enigmi insolubili. Il
chiarimento delle questioni filosofiche tradizionali conduce, in parte,
a smascherarle quali pseudo-problemi; in parte, a convertirle in
questioni empiriche, soggette, quindi, al giudizio della scienza
sperimentale. Proprio tale chiarimento di questioni e asserti
costituisce il compito dell’attività filosofica, che, comunque, non
tende a stabilire specifici asserti «filosofici». Il metodo di questa
chiarificazione è quello dell’analisi logica; a dire del Russell esso «si
è sviluppato via via nel contesto delle indagini critiche dei
matematici, segnando un progresso simile a quello promosso da
Galileo nella fisica: la sostituzione di risultati particolari comprovabili,
in luogo di tesi generali correnti non comprovabili, motivate in
termini di mera fantasia».
Siffatto metodo dell’analisi logica è ciò che distingue
essenzialmente il nuovo empirismo e positivismo da quello anteriore,
che era orientato in senso più biologico-psicologico. Se qualcuno
afferma «esiste un dio», «il fondamento assoluto del mondo è
94
l’inconscio», «nell’essere vivente vi è un’entelechia come principio
motore», noi non gli rispondiamo «quanto dici è falso», bensì a nostra
volta gli poniamo un quesito: «che cosa intendi dire con i tuoi
asserti?». Risulta chiaro, allora, che esiste un confine preciso fra due
tipi di asserzioni. All’uno appartengono gli asserti formulati nella
scienza empirica: il loro senso si può stabilire mediante l’analisi
logica; più esattamente, col ridurli ad asserzioni elementari sui dati
sensibili. Gli altri asserti, cui appartengono quelli citati sopra, si
rivelano affatto privi di significato, assumendoli come li intende il
metafisico. Spesso è possibile reinterpretarli quali asserti empirici;
allora, però, essi perdono il proprio contenuto emotivo, che in genere
è basilare per lo stesso metafisico. Il metafisico e il teologo credono, a
torto, di asserire qualcosa, di rappresentare stati di fatto, mediante le
loro proposizioni. Viceversa, l’analisi mostra che simili proposizioni
non dicono nulla, esprimendo solo atteggiamenti emotivi. Espressioni
del genere possono, certo, avere un ruolo pregnante nella vita; ma, al
riguardo, lo strumento espressivo adeguato è l’arte, per esempio la
lirica o la musica. Si sceglie, invece, la veste linguistica propria di
una teoria, ingenerando un pericolo: quello di simulare un contenuto
teorico inesistente. Se un metafisico o un teologo vogliono mantenere
nel linguaggio la forma usuale, debbono consapevolmente e
chiaramente ammettere di non fornire rappresentazioni, bensì
espressioni; di non suggerire teorie, informazioni, bensì poesie o miti.
Quando un mistico afferma di avere esperienze oltrepassanti tutti i
concetti, non è possibile contestare la sua pretesa. Ma egli non è in
grado di parlarne, poiché parlare significa ricorrere a concetti,
ricondurre a stati di fatto delimitabili scientificamente.
La concezione scientifica del mondo respinge la metafisica. Ma
come spiegarne gli errori? La questione ammette profili differenti:
psicologico, sociologico, logico. Le indagini psicologiche al riguardo
appaiono ancora in uno stadio iniziale; i primi passi verso una
comprensione più profonda sono forse reperibili nelle ricerche della
psicoanalisi freudiana. Analoga è la situazione in ambito sociologico;
basti menzionare la teoria della “sovrastruttura ideologica”. Qui il
campo è ancora aperto per ulteriori approfondimenti.
Più avanzata è la comprensione dell’origine logica degli errori
metafisici, specialmente grazie ai lavori di Russell e di Wittgenstein.
Nelle teorie metafisiche, addirittura già nelle formulazioni stesse dei
quesiti metafisici, sono presenti due errori logici basilari: un’aderenza
95
troppo stretta alla struttura dei linguaggi tradizionali e un inadeguato
intendimento della funzione logica del pensiero. La lingua comune,
per esempio, usa la medesima forma grammaticale, cioè il sostantivo,
per designare sia cose («mela»), sia qualità («durezza»), sia relazioni
(«amicizia»), sia processi («sonno»); in tal modo, essa induce
erroneamente a intendere i concetti funzionali come concetti di cose
(ipostatizzazione, sostanzializzazione). È possibile addurre esempi
molteplici di simili travisamenti linguistici, che sono del pari risultati
fatali per la f i l o s o f i a .
Il secondo errore basilare della metafisica consiste nel ritenere che
il pensiero possa, da solo, senza far leva su dati empirici, condurre
alla conoscenza, o almeno sia in grado di ricavare per via d’inferenze
da elementi fattuali noti nuove cognizioni. L’indagine logica, però,
mostra che il pensiero, l’inferenza, consistono semplicemente nel
passaggio da proposizioni ad altre proposizioni, le quali ultime non
asseriscono alcunché che non sia già asserito nelle prime
(trasformazione tautologica). Risulta, quindi, impossibile sviluppare
una metafisica a partire dal «pensiero puro».
Così, mediante l’analisi logica, viene superata non solo la
metafisica nell’accezione stretta, classica, del termine, in particolare la
metafisica scolastica e quella dei sistemi dell’idealismo tedesco, bensì
anche la metafisica latente dell’apriorismo kantiano e moderno.
Nella concezione scientifica del mondo non si danno conoscenze
incondizionatamente valide derivanti dalla pura ragione, né «giudizi
sintetici a priori», quali ricorrono alla base sia della gnoseologia di
Kant, sia, ancor più, di tutte le ontologie e metafisiche pre- o postkantiane. I giudizi dell’aritmetica, della geometria, nonché certi
princìpi fondamentali della fisica, addotti da Kant come esempi di
conoscenza a priori, costituiscono oggetto di discorso successivo.
Comunque, la tesi fondamentale dell’empirismo moderno consiste
proprio nell’escludere la possibilità di una conoscenza sintetica a
priori. La concezione scientifica del mondo riconosce solo le
proposizioni empiriche su oggetti di ogni sorta e le proposizioni
analitiche della logica e della matematica …
Abbiamo caratterizzato la concezione scientifica del mondo
essenzialmente con due attributi. Primo, essa è empiristica e
positivistica: si dà solo conoscenza empirica, basata sui dati
immediati. In ciò si ravvisa il limite dei contenuti della scienza
genuina. Secondo, la concezione scientifica del mondo è
96
contraddistinta dall’applicazione di un preciso metodo, quello, cioè,
dell’analisi logica. Il lavoro scientifico tende, quindi, a conseguire,
come suo scopo, l’unità della scienza, applicando l’analisi logica al
materiale empirico. Poiché il senso di ogni asserto scientifico deve
risultare specificabile mediante riduzione ad asserti sul dato, anche il
senso di ogni concetto, quale che sia il settore della scienza cui questo
appartiene, deve potersi stabilire mediante riduzione graduale ad altri
concetti, giù fino ai concetti di livello più basso, che concernono il
dato medesimo. Se una simile analisi venisse attuata per tutti i concetti,
essi finirebbero con l’apparire ordinati in un sistema riduttivo, o
«sistema di costituzione». Le indagini dirette allo scopo, cioè la teoria
della costituzione, formano così il quadro, entro cui l’analisi logica è
applicata secondo la concezione scientifica del mondo. Comunque, lo
sviluppo di tali indagini mostra ben presto l’assoluta insufficienza della
logica tradizionale, aristotelico-scolastica. E con la moderna logica
simbolica (logistica) che si riesce per la prima volta a conseguire il
necessario rigore delle definizioni e degli asserti, nonché a
formalizzare il processo inferenziale intuitivo proprio del pensiero
comune, traducendolo in una forma controllata automaticamente
mediante il meccanismo dei simboli. Le ricerche della teoria della
costituzione mostrano che al livello più basso del sistema costitutivo si
situano i concetti inerenti alle esperienze e alle qualità della propria
mente; al livello successivo figurano gli oggetti fisici; quindi, sono
costituiti sia le altre menti, sia, infine, gli oggetti delle scienze sociali.
L’ordinamento dei concetti delle diverse branche della scienza
all’interno del sistema costitutivo risulta oggi, nelle sue grandi linee,
già accessibile, mentre resta ancora molto da fare per una più puntuale
elaborazione. Stabilita la possibilità ed esibita la forma del sistema
generale dei concetti, diventano parimenti rilevabili il riferimento di
tutti gli asserti al dato e, con ciò, la struttura della scienza unificata.
97
R. CARNAP, Tolleranza e logica. Autobiografia intellettuale
Milano, 1974, pp. 57-60
La semplicità e la coerenza del sistema delle conoscenze,
come la maggior parte di noi al Circolo di Vienna lo concepiva, gli
forniva una certa attrattiva e forza di fronte alle critiche; d’altra
parte, queste caratteristiche causavano una certa rigidità, cosicché
fummo costretti ad operare alcuni radicali cambiamenti per
rendere giustizia al carattere aperto e all’inevitabile mancanza di
certezza di ogni conoscenza fattuale.
Secondo la concezione originaria, il sistema di conoscenza, pur
divenendo costantemente più comprensivo, era considerato un
sistema chiuso nel senso seguente: secondo noi vi era un minimo di
conoscenza, la conoscenza dell’immediatamente dato, che era
indubitabile; supponevamo che ogni altro tipo di conoscenza
poggiasse saldamente su questa base e che si potesse perciò stabilire
con altrettanta certezza. Questa era l’immagine che avevo fornito in
Logische Aufbau, sotto influenza della dottrina machiana delle
sensazioni come elementi di tutta la conoscenza, dell’atomismo
logico di Russell e infine della tesi di Wittgenstein secondo cui tutte
le proposizioni sono funzioni di verità delle proposizioni elementari.
Questa concezione conduceva al principio wittgensteiniano della
verificabilità che dice che in teoria è possibile ottenere o una verifica
definitiva o una definitiva confutazione di ogni enunciato dotato di
senso.
Rivedendo questo punto di vista dalla nostra posizione attuale,
devo ammettere che era difficile conciliarlo con certe altre concezioni
che avevamo allora, specialmente sulla metodologia della scienza.
Perciò lo sviluppo e la chiarificazione delle nostre concezioni
metodologiche condussero inevitabilmente ad un abbandono della
struttura rigida della nostra teoria della conoscenza. La caratteristica
importante della nostra posizione metodologica era l’accentuazione
del carattere ipotetico delle leggi di natura, in particolare delle teorie
fisiche: tale punto di vista era influenzato da uomini come Poincaré e
Duhem, e dal nostro studio del metodo assiomatico e della sua
applicazione alle scienze empiriche con l’aiuto di definizioni o regole
coordinative. Era chiaro che le leggi della fisica non potevano essere
98
del tutto verificate. Tale conclusione condusse Schlick, sotto
l’influenza di Wittgenstein, alla concezione che le leggi fisiche non
dovessero più essere considerate enunciati generali, ma piuttosto
regole per la derivazione di enunciati singolari. Altri comunque
cominciarono a mettere in dubbio l’adeguatezza del principio di
verificabilità.
Il passo successivo nello sviluppo della nostra concezione riguardò
la natura della conoscenza dei singoli fatti del mondo fisico. Neurath
aveva sempre rifiutato la presunta base assoluta della conoscenza;
secondo lui la totalità di ciò che è conosciuto riguardo al mondo è
sempre non certa e continuamente soggetta a correzione e a
trasformazione: è come una nave che non ha un porto dove essere
riparata e che quindi deve essere aggiustata e rifatta mentre naviga nel
mare aperto. Nella stessa direzione agì l’influenza del libro di Karl
Popper, Logik der Forschung. In tal modo alcuni di noi, specialmente
Neurath, Hahn ed io, giungemmo alla conclusione che dovevamo
cercare un criterio di significanza più liberale della verificabilità; il
nostro gruppo era talora chiamato l’ala sinistra del Circolo rispetto
all’ala destra più conservatrice, rappresentata principalmente da Schlick
e Waismann, i quali rimasero personalmente in contatto con
Wittgenstein disposti a conservarne le concezioni e le formulazioni.
Sebbene avessimo abbandonato il principio di verificabilità, non
vedevamo ancora chiaramente quale criterio di significanza potesse
prenderne il posto, ma io mi resi conto almeno della direzione
generale in cui avremmo dovuto muoverci.
Nel dicembre 1932, tornando a Vienna in una delle mie frequenti
visite da Praga, appresi che Neurath ed alcuni membri più giovani del
Circolo lavoravano allo scopo di riformulare la teoria psicoanalitica
di Freud secondo il nostro punto di vista: essi affrontavano questo
impegno «fisicalizzando» enunciato per enunciato uno dei trattati
freudiani, trasportando cioè ogni enunciato in un linguaggio
comportamentistico. Io li misi in guardia contro questo
procedimento, proponendo di analizzare i concetti piuttosto che i
singoli enunciati. Pensavo che sarebbe stato possibile trovare per
alcuni concetti definizioni comportamentistiche e quindi
fisicalistiche; ma i più fondamentali concetti della teoria freudiana
dovevano essere trattati come concetti ipotetici, introdotti cioè con
l’aiuto di leggi ipotetiche e di regole coordinative, che
permettessero la derivazione di enunciati intorno al comportamento
99
osservabile da enunciati implicanti i concetti fondamentali della
teoria. Misi in evidenza l’analogia tra concetti come «ego», «id»,
«complesso» e i concetti fisici di campo: le mie osservazioni
intendevano soltanto esprimere alcune idee che, come credevo,
erano state generalmente accettate dall’ala sinistra e rimasi sorpreso
per il fatto che venissero considerate come qualcosa di radicalmente
nuovo. Credo comunque che la mia concezione si fosse sviluppata
sulla base del nostro comune punto di vista riguardo alle ipotesi
scientifiche e al metodo assiomatico, e che fosse influenzata dalle
conversazioni che avevo avuto con Gödel e Popper.
Lo sviluppo verso un criterio più liberale di significanza richiese
un certo numero di anni e ne furono proposte varie forme …
Durante gli anni trenta, mentre ero a Praga, iniziai una ricerca
sistematica sulle relazioni logiche tra concetti scientifici e concetti
di base, cioè le proprietà osservabili delle cose materiali, i cui
risultati furono pubblicati nell’articolo «Testability and Meaning».
Spiegherò adesso alcune di queste considerazioni.
Le ipotesi intorno agli eventi non osservati del mondo fisico non
possono mai essere completamente verificate dall’evidenza
osservativa: suggerii perciò che noi abbandonassimo il concetto di
verificazione e dicessimo invece che l’ipotesi è più o meno
confermata o infirmata dall’evidenza. A quel tempo lasciai aperta la
questione della possibile definizione di una misura quantitativa di
conferma; successivamente introdussi il concetto quantitativo di
grado di conferma o probabilità logica. Proposi di parlare di
confermabilità invece che di verificabilità, in modo che un enunciato
è considerato confermabile se gli enunciati osservativi possono
contribuire positivamente o negativamente alla sua conferma …
Dobbiamo abbandonare, oltre al requisito di una completa
verificabilità, il precedente punto di vista secondo cui i concetti della
scienza sono esplicitamente definibili sulla base di concetti
osservativi: devono essere usati metodi più indiretti di riduzione. A
questo scopo proposi una particolare forma di enunciati di riduzione;
ma nel corso di ulteriori ricerche venne in chiaro che uno schema di
questa semplice forma non può bastare a introdurre i concetti della
scienza teorica. Tuttavia, la forma semplice di enunciati di riduzione
allora proposta fu utile per il fatto che mostrò chiaramente il carattere
aperto dei concetti scientifici, cioè che i loro significati non sono
completamente fissati …
100
H. REICHENBACH, La nascita della filosofia scientifica
Bologna, 1961, pp. 233-237
… Ciò che distingue l’inferenza induttiva da quella deduttiva è il
fatto che la prima non è vuota, bensì contraddistinta da conclusioni
non contenute nelle premesse. La conclusione che tutti i corvi sono
neri non è contenuta logicamente nella premessa che tutti i corvi
osservati finora risultano essere neri, tale conclusione potrebbe esser
falsa nonostante la verità della premessa. L’induzione è lo strumento di
un metodo scientifico che vuole scoprire qualcosa di nuovo, qualcosa
di più che la sintesi delle osservazioni già fatte; l’inferenza induttiva è
lo strumento della previsione.
Fu Bacone a vedere con chiarezza l’indispensabilità delle
inferenze induttive per il metodo scientifico, e il suo posto nella storia
della filosofia è quello di un profeta dell’induzione. Ma Bacone vide
anche i limiti di questo genere d’inferenza, la sua mancanza di
necessità, la possibilità insita in essa di arrivare a conclusioni false. I
suoi sforzi per migliorare l’induzione non ebbero molto successo; le
inferenze induttive formulate nell’ambito del metodo ipoteticodeduttivo della scienza sono di gran lunga superiori alla semplice
induzione baconiana. Tuttavia, neppure tale metodo è in grado di
assicurare la necessità logica; le sue conclusioni possono risultare
false, né la conoscenza induttiva riuscirà mai a raggiungere
l’attendibilità della deduzione.
Il metodo ipotetico-deduttivo, o induzione esplicativa, è stato
largamente discusso dai filosofi e dagli scienziati, ma la sua natura
logica è stata spesso fraintesa. Dato che l’inferenza dalla teoria ai fatti
empirici di regola viene effettuata mediante metodi matematici,
alcuni filosofi hanno creduto che la conferma delle teorie possa
venir esplicata in termini di logica deduttiva. In effetti, questa
concezione non è sostenibile, perché non è sull’inferenza dalla
teoria ai fatti, bensì, al contrario, sull’inferenza dai fatti alla teoria
che si basa l’accettazione di ogni teoria; e la seconda inferenza,
anziché deduttiva, è induttiva. Ciò che è dato sono i risultati
dell’osservazione, i quali costituiscono la conoscenza nei cui
termini la teoria deve venire convalidata.
101
Inoltre, circa l’effettuazione di tale inferenza, alcuni filosofi
appaiono vittime di un altro fraintendimento. Lo scienziato che
scopre una nuova teoria di regola è guidato nella propria ricerca da
congetture; egli non può dire con che metodo ha rinvenuta la teoria,
può unicamente dire che essa gli è parsa plausibile, che gli è venuta
l’idea giusta, che gli è riuscito d’intuire l’assunzione rispondente ai
fatti. Non mancano filosofi che hanno preso questa descrizione
psicologica della scoperta come una prova che non esiste relazione
logica atta a condurre dai fatti alla teoria; e naturalmente gli stessi
sostengono che nessuna interpretazione logica del metodo ipoteticodeduttivo è possibile. L’inferenza induttiva per loro non è che lavoro
congetturale, inaccessibile all’analisi logica. Tali filosofi non si
accorgono che lo scienziato che ha scoperto una teoria per mezzo di
congetture non la presenta agli altri se non dopo aver accertato che
le medesime sono giustificate dai fatti. È in questa pretesa di
giustificazione che l’uomo di scienza ricorre all’inferenza induttiva,
volendo mostrare non soltanto che i fatti sono derivabili dalla sua
teoria, ma anche che essi la rendono probabile e la raccomandano
per la previsione di altri fenomeni empirici. L’inferenza induttiva
serve non per scoprire teorie, bensì per giustificarle in termini dei
dati d’osservazione
L’interpretazione mistica del metodo ipotetico deduttivo come
irrazionale ricerca congetturale trae origine dalla confusione fra
contesto della scoperta e contesto della giustificazione. L’atto della
scoperta sfugge all’analisi logica; non vi sono regole logiche in
termini delle quali si possa costruire una «macchina scopritrice» che
assolva la funzione creativa del genio. D’altra parte, non tocca al
logico chiarire la genesi delle scoperte scientifiche; tutto quello che
egli può fare è analizzare la connessione tra i dati di fatto e le teorie
avanzate per spiegare i medesimi. In altre parole, la logica si occupa
soltanto del contesto della giustificazione. E la giustificazione di
una teoria in termini dei dati d’osservazione è l’oggetto della
dottrina dell’induzione …
Se vogliamo comprendere la natura dell’inferenza induttiva,
dobbiamo studiare la teoria della probabilità. Tale disciplina matematica
ha sviluppato dei metodi per risolvere il problema generale della prova
indiretta, problema di cui la convalida inferenziale delle teorie scientifiche
non è che un caso particolare. Come illustrazione del problema generale
si possono ricordare le inferenze compiute da un investigatore che cerchi
102
di scoprire il responsabile di un delitto. Vi sono alcuni dati, come un
fazzoletto sporco di sangue, uno scalpello, e la scomparsa di una ricca
vedova, e si prospettano diverse spiegazioni dell’accaduto.
L’investigatore cerca di determinare la spiegazione più probabile. Le sue
considerazioni seguono certe regole di probabilità; utilizzando tutti gli
indizi di fatto e tutta la propria conoscenza della psicologia umana, egli
cerca di giungere a delle conclusioni che successivamente controlla
mediante ulteriori osservazioni effettuate proprio allo scopo. Ogni
controllo, basato su nuovi dati, accresce o diminuisce la probabilità della
spiegazione prescelta; ma questa non può mai venir ritenuta
assolutamente certa. Tutti gli elementi logici necessari per analizzare il
procedimento inferenziale dell’investigatore sono reperibili nel calcolo
delle probabilità. Anche se nell’esempio riferito manca il materiale
statistico per un computo esatto delle stesse, sarebbe possibile applicare
almeno le formule del calcolo in senso qualitativo. Naturalmente, non si
possono attingere risultati numericamente precisi se il materiale a
disposizione consente soltanto valutazioni generiche della probabilità.
I medesimi rilievi valgono per l’analisi della probabilità delle teorie
scientifiche, le quali debbono anch’esse venir trascelte fra diverse
possibili spiegazioni dei dati empirici. La scelta è effettuata in base a tutto
il complesso delle conoscenze, nei cui confronti alcune spiegazioni
appaiono più probabili delle altre. La probabilità finale è quindi il
prodotto di una combinazione di diverse probabilità. Il calcolo delle
probabilità offre una formula rispecchiante questo caso: la regola di
Bayes, formula applicabile sia ai problemi statistici che alle inferenze
dell’investigatore e a quelle dell’induzione scientifica.
Perciò lo studio della logica induttiva conduce alla teoria della
probabilità. La conclusione induttiva è resa probabile, non certa, dalle sue
premesse, e l’induzione dev’essere concepita come un’operazione che
rientra nel quadro del calcolo delle probabilità. Se si tiene presente lo
sviluppo che ha trasformato le leggi causali in leggi probabilistiche,
queste considerazioni chiariranno perché l’analisi della probabilità abbia
tanta importanza per la comprensione della scienza moderna. La teoria
della probabilità assicura sia lo strumento della previsione che la forma
delle leggi naturali; il suo oggetto è il vero e proprio nerbo del metodo
scientifico …
103
C.G. HEMPEL
La formazione dei concetti e delle teorie nella scienza empirica
Milano, 1976, pp. 30-31; 41-47
… La supposizione avanzata nel precedente paragrafo può ora venir
riformulata così: tutti i termini delle scienze empiriche sono definibili
mediante termini osservativi, ossia, è possibile effettuare una
ricostruzione razionale del linguaggio della scienza in modo tale che tutti
i primitivi siano termini osservativi e i restanti termini vengano definiti
sulla loro base. Questa convinzione, tipica delle vecchie forme di
positivismo ed empirismo, verrà qui denominata tesi ristretta
dell’empirismo. Stando ad essa, ogni enunciato scientifico, per quanto
astratto, potrebbe venir tradotto, mediante opportune definizioni dei suoi
termini tecnici costitutivi, in un enunciato equivalente espresso in soli
termini osservativi: la scienza si occuperebbe unicamente di osservabili.
Nonostante la sua apparente plausibilità, la tesi ristretta
dell’empirismo non regge a un’analisi approfondita. Vi sono infatti
almeno due specie di termini a proposito delle quali essa presenta delle
difficoltà: i termini disposizionali, nei cui confronti la correttezza della
tesi è almeno problematica, e i termini quantitativi, nei cui riguardi tale
correttezza è senz’altro esclusa …
I concetti metrici, nel loro impiego teorico, appartengono alla più
ampia classe dei costrutti teorici, ossia dei termini, spesso assai astratti,
usati nelle fasi avanzate della formazione delle teorie scientifiche, termini
quali ‘massa’, ‘punto-massa’, ‘corpo rigido’, ‘forza’, ecc., propri della
meccanica classica; ‘temperatura assoluta’, ‘pressione’, ‘volume’, ‘ciclo
di Carnot’, ecc., propri della termodinamica classica; ed ‘elettrone’,
‘protone’, ‘funzione Ψ’ ecc., propri della meccanica quantistica. Tali
termini non sono introdotti mediante definizioni o catene riduttive sulla
base di osservabili; di fatto, non vengono introdotti mediante operazioni
distinte, con le quali sia assegnato un significato a ciascuno di essi. I
costrutti usati in una teoria vengono piuttosto introdotti congiuntamente,
cioè mediante l’elaborazione di un sistema teorico formulato nei loro
stessi termini e interpretato empiricamente; il che assicura un significato
empirico anche a tali costrutti. Consideriamo ora questa procedura con
maggior attenzione.
104
Benché nella effettiva prassi scientifica la formulazione di una
struttura teorica e la sua interpretazione non siano sempre chiaramente
distinte, in quanto la seconda condiziona in modo tacito la prima, è
possibile, e anzi desiderabile, per gli scopi dell’analisi logica,
discriminare concettualmente i due processi.
Un sistema teorico può quindi venir inteso come una teoria non
interpretata e assiomatizzata, contraddistinta da (a) uno specifico insieme
di termini primitivi, i quali nella teoria non sono definiti, ma servono a
definire nominalmente tutti gli altri termini extra-logici in essa introdotti;
e (b) un insieme di postulati, denominabili ipotesi primitive o basilari, dai
quali sono ricavabili per deduzione logica gli altri enunciati della teoria.
Come esempio di una fondamentale teoria scientifica rigorosamente
assiomatizzata si consideri la geometria euclidea. Il suo sviluppo quale
“geometria pura”, ossia quale sistema assiomatico non interpretato, è
affatto indipendente, sotto l’aspetto logico, dalla sua interpretazione fisica
e dalle sue applicazioni nautiche, topografiche, ecc. Nella
assiomatizzazione hilbertiana i primitivi della teoria sono costituiti dai
termini ‘punto’, ‘retta’, ‘piano’, ‘appartenente a’ (che designa una
relazione fra un punto e una retta), ‘fra’ (che designa una relazione fra
punti su una retta), ‘giacente su’ (che designa una relazione fra un punto e
un piano), nonché due altri termini, che designano, rispettivamente, la
congruenza fra segmenti di retta e fra angoli. Tutti i rimanenti termini,
come ‘parallela’, ‘angolo’, ‘triangolo’, `circolo’, sono definiti mediante i
primitivi; il termine parallela’, ad esempio, è introducibile per mezzo
della seguente definizione contestuale:
(7.3) x è parallela a y =Df x e y sono rette; esiste un piano sul quale x e
y giacciono entrambe; ma non esiste alcun punto che appartenga sia a
x che a y.
I postulati sono proposizioni come: per ogni coppia di punti esiste
almeno una, e soltanto una, retta cui entrambi appartengono; fra ogni
coppia di punti appartenenti a una retta esiste un altro punto
appartenente alla stessa retta; ecc. Da tali postulati le altre
asserzioni della geometria euclidea sono attinte mediante deduzione
logica, la quale, tuttavia, stabilisce i vari enunciati come teoremi di
pura geometria matematica, senza garantirne la validità per l’uso nella
teoria fisica e nelle sue applicazioni (determinazione d’intervalli fra
enti fisici per mezzo della triangolazione, calcolo del volume di un
oggetto sferico in base alla lunghezza del suo diametro, e simili).
105
Dato che nella geometria pura nessun significato specifico è attribuito
ai primitivi, e quindi nemmeno ai termini definiti, tale teoria non
esprime asserzioni sulle proprietà spaziali e sulle relazioni degli
oggetti del mondo fisico.
Una geometria fisica, cioè una teoria concernente gli aspetti
spaziali dei fenomeni fisici, è ricavabile da un sistema di geometria
pura con lo stabilire una specifica interpretazione dei primitivi in
termini fisici. Così, ad esempio, per ottenere una geometria fisica
corrispondente alla geometria pura euclidea si possono interpretare i
punti, approssimativamente, come piccoli oggetti fisici, ossia
oggetti le cui dimensioni sono trascurabili in rapporto alle loro
reciproche distanze (punte di spillo, le intersezioni delle linee di
un micrometro, ecc., o, per scopi astronomici, interi astri, o
addirittura sistemi galattici); una linea retta è concepibile come la
traiettoria di un raggio luminoso in un mezzo omogeneo; la
congruenza d’intervalli come una relazione fisica caratterizzabile in
termini di coincidenze di regoli rigidi; e così via. Un’interpretazione
del genere trasforma i postulati e i teoremi della geometria pura in
enunciati della fisica, e il problema della loro correttezza fattuale
diviene suscettibile di – anzi senz’altro richiede – un controllo
empirico. Questo fu tentato da Gauss, col misurare la somma degli
angoli di un triangolo formato da raggi luminosi, al fine di stabilire se
essa fosse uguale a due retti, come asserito dalla geometria fisica
nella sua forma euclidea. Qualora le prove ottenute con opportuni
metodi risultassero sfavorevoli, la geometria euclidea potrebbe venir
rimpiazzata con una versione non euclidea meglio accordabile,
unitamente alle altre parti della teoria fisica, con i dati sperimentali.
Di fatto, ciò si è verificato nel caso della teoria generale della
relatività.
Ogni altra teoria scientifica è analogamente concepibile come
l’insieme di un sistema non interpretato, sviluppato deduttivamente, e
di una interpretazione conferente significato empirico ai termini e alle
proposizioni di tale sistema. I termini ai quali l’interpretazione
assegna direttamente un contenuto empirico possono essere o
primitivi della teoria, come nell’illustrazione geometrica considerata,
o termini definiti della stessa. Così, per esempio, in una ricostruzione
logica della chimica i diversi elementi potrebbero venir definiti per
mezzo di primitivi designanti particolari caratteristiche della loro
struttura atomica; quindi, ai termini ‘idrogeno’, ‘elio’, ecc., definiti
106
nel modo indicato, sarebbe possibile dare un’interpretazione empirica
facendo riferimento a loro tipiche caratteristiche macrofisiche e
chimiche. Una volta interpretati in siffatta maniera alcuni termini
definiti di un sistema, anche i primitivi di questo acquistano, per così
dire, mediatamente un contenuto empirico, pur senza esser stati
sottoposti a un’interpretazione empirica diretta. Si tratta di una
procedura che appare adatta anche per l’assiomatizzazione della
biologia operata da Woodger, assiomatizzazione nella quale taluni
concetti definiti, come la divisione e la fusione cellulari, si prestino
meglio dei primitivi a un’interpretazione empirica diretta,
Un’interpretazione empirica adeguata trasforma un sistema teorico
in una teoria suscettibile di prova: le ipotesi, i cui termini costitutivi
sono stati interpretati, si rivelano provabili sulla base dei fenomeni
osservabili. Spesso, le ipotesi interpretate appartenenti a una teoria
sono quelle di natura derivativa, il che, tuttavia, non toglie che la loro
conferma o invalidazione da parte degli elementi di fatto contribuisca
mediatamente a rafforzare o a indebolire anche le ipotesi primitive
dalle quali esse sono state dedotte. Così, per esempio, le ipotesi
primitive della teoria cinetica del calore, concernendo il
comportamento meccanico delle micro-particelle dei gas, non si
prestano a un controllo empirico diretto; tuttavia, sono indirettamente
provabili, poiché implicano ipotesi derivative, formulabili con
l’ausilio di termini definiti interpretati mediante “osservabili
macroscopici”, come la temperatura e la pressione di un gas.
Tale duplice funzione dell’interpretazione dei termini definiti
– cioè, di assicurare indirettamente un contenuto empirico ai primitivi
di una teoria e di renderne le ipotesi basilari suscettibili di prova – è
illustrata anche da quelle ipotesi della fisica e della chimica che
fanno riferimento al valore di qualche grandezza in un punto spaziotemporale, come la velocità istantanea e l’accelerazione di una
particella, o la densità, la pressione e la temperatura di una sostanza
in un dato punto: nessuna di queste grandezze è direttamente
osservabile e quindi nessuna delle ipotesi in questione può esser
sottoposta a un controllo immediato. La connessione con i possibili
dati sperimentali o empirici viene attuata col definire,
avvalendosi della integrazione matematica, alcuni concetti
derivati, come quelli di velocità media e di accelerazione in un
dato intervallo di tempo, o di densità media in una determinata
107
regione spaziale, e con l’interpretare gli stessi in termini di
fenomeni più o meno direttamente osservabili.
Una teoria scientifica è pertanto paragonabile a una
complessa rete sospesa nello spazio. I suoi termini sono rappresentati
dai nodi, mentre i fili colleganti questi corrispondono, in parte,
alle definizioni e, in parte, alle ipotesi fondamentali e derivative
della teoria. L’intero sistema fluttua, per così dire, sul piano
dell’osservazione, cui è ancorato mediante le regole
interpretative. Queste possono venir concepite come fili non
appartenenti alla rete, ma tali che ne connettono alcuni punti con
determinate zone del piano di osservazione. Grazie a siffatte
connessioni interpretative, la rete risulta utilizzabile come teoria
scientifica: da certi dati empirici è possibile risalire, mediante
un filo interpretativo, a qualche punto della rete teorica, e di qui
procedere, attraverso definizioni e ipotesi, ad altri punti, dai
quali, per mezzo di un altro filo interpretativo, si può infine
ridiscendere al piano dell’osservazione.
Così una teoria interpretata consente d’inferire il verificarsi di un
fenomeno descrivibile in termini osservativi, ed eventualmente
appartenente al passato o al futuro, sulla base di altri fenomeni
osservabili già accertati. Ma l’apparato teorico che, con
l’assicurare un ponte fra i dati di fatto acquisiti e i risultati
empirici potenziali, permette di giungere a tali asserzioni su
eventi futuri o passati, non è, in genere, formulabile in termini di
soli osservabili. L’intera storia della scienza mostra che nel nostro
mondo principi ampi, semplici e attendibili per spiegare e
prevedere fenomeni osservabili non possono venir stabiliti
unicamente ammassando e generalizzando induttivamente i risultati
empirici. Occorre una procedura ipotetico-deduttivo-osservativa, la
quale, naturalmente, è quella applicata nelle branche più avanzate
della scienza empirica. Guidato dalla propria conoscenza dei dati
empirici, lo scienziato deve inventare un insieme di concetti, i
costrutti teorici, privi di significato empirico diretto, un sistema di
ipotesi formulate in termini di questi, e un’interpretazione per la
risultante rete teorica; e tutto ciò in una maniera che consenta di
stabilire fra i dati dell’osservazione diretta connessioni feconde ai fini
della spiegazione e della previsione.
108
K.R. POPPER, Logica della scoperta scientifica
Torino 1970, pp. 5-13
Sguardo su alcuni problemi fondamentali
Uno scienziato, teorico o sperimentatore, produce asserzioni o
sistemi di asserzioni, e li controlla passo per passo. Nel campo delle
scienze empiriche, piú in particolare, costruisce ipotesi, o sistemi di
teorie e li controlla, confrontandoli con l’esperienza mediante
l’osservazione e l’esperimento.
Suggerisco che il compito della logica della scoperta scientifica, o
logica della conoscenza, è quello di fornire un’analisi logica di questa
procedura; cioè di analizzare il metodo delle scienze empiriche.
Ma che cosa sono i «metodi delle scienze empiriche»? E che cosa
chiamiamo «scienza empirica»?
1. Il problema dell’induzione
Secondo un punto di vista largamente accettato – a cui mi opporrò
in questo libro – le scienze empiriche possono essere caratterizzate
dal fatto di usare i cosiddetti «metodi induttivi». Stando a questo
punto di vista la logica della scoperta scientifica sarebbe identica alla
logica induttiva, cioè all’analisi logica di questi metodi induttivi.
Si è soliti dire che un’inferenza è «induttiva» quando procede da
asserzioni singolari (qualche volta chiamate anche asserzioni
«particolari») quali i resoconti dei risultati di osservazioni o di
esperimenti, ad asserzioni universali, quali ipotesi o teorie.
Ora, da un punto di vista logico, è tutt’altro che ovvio che si sia
giustificati nell’inferire asserzioni universali da asserzioni singolari,
per quanto numerose siano queste ultime; infatti qualsiasi conclusione
tratta in questo modo può sempre rivelarsi falsa: per quanto numerosi
siano i casi di cigni bianchi che possiamo aver osservato, ciò non
giustifica la conclusione che tutti i cigni sono bianchi.
La questione, se le inferenze induttive siano giustificate, o in quali
condizioni lo siano, è nota come il problema dell’induzione.
Il problema dell’induzione può anche essere formulato come il
problema del modo per stabilire la verità di asserzioni universali
109
basate sull’esperienza, come le ipotesi e i sistemi di teorie delle
scienze empiriche. Molti, infatti, credono che la verità di queste
asserzioni universali sia «nota per esperienza»; tuttavia è chiaro, in
primo luogo, che il resoconto di un’esperienza – di un’osservazione, o
del risultato di un esperimento – può essere soltanto un’asserzione
singolare e non un’asserzione universale. Di conseguenza, chi dice
che conosciamo la verità di un’asserzione universale per mezzo
dell’esperienza, intende di solito che la verità di quest’asserzione
universale può essere ridotta in qualche modo alla verità di asserzioni
singolari e che la verità di queste asserzioni singolari è nota per
esperienza; ciò equivale a dire che l’asserzione universale è basata
sull’inferenza induttiva. Dunque, chiedere se ci siano leggi naturali la
cui verità è nota sembra soltanto un altro modo per chiedere se le
inferenze induttive siano giustificate logicamente.
Tuttavia, se vogliamo trovare un modo per giustificare le inferenze
induttive, dobbiamo prima di tutto tentare di stabilire un principio di
induzione. Un principio d’induzione sarebbe un’asserzione con
l’aiuto della quale fosse possibile mettere le inferenze induttive in una
forma logicamente accettabile. Agli occhi dei sostenitori della logica
induttiva il principio d’induzione riveste un’estrema importanza per il
metodo scientifico: «… questo principio – dice Reichenbach –
determina la verità delle teorie scientifiche. Eliminarlo dalla scienza
significherebbe nientemeno che privare la scienza del potere di
decidere la verità o la falsità delle sue teorie. È chiaro che senza di
esso la scienza non avrebbe piú il diritto di distinguere le sue teorie
dalle creazioni fantastiche e arbitrarie della mente del poeta».
Ora, questo principio di induzione non può essere una verità
puramente logica, come una tautologia o un’asserzione analitica. In
realtà, se esistesse qualcosa come un principio d’induzione puramente
logico non ci sarebbe alcun problema dell’induzione, perché in questo
caso tutte le inferenze induttive dovrebbero essere considerate come
trasformazioni puramente logiche o tautologiche, proprio come le
inferenze della logica deduttiva. Dunque il principio d’induzione
dev’essere un’asserzione sintetica, cioè un’asserzione la cui
negazione non è autocontraddittoria ma logicamente possibile. Sorge
così la questione: perché un tale principio debba essere senz’altro
accettato, e come sia possibile giustificare la sua accettazione su basi
razionali.
110
Alcuni di coloro che credono nella logica induttiva sono ansiosi di
mettere in evidenza, con Reichenbach, che «il principio d’induzione è
accettato senza riserve da tutta quanta la scienza, e che anche nella
vita di ogni giorno nessuno può metterlo seriamente in
dubbio».Tuttavia, anche supponendo che ciò fosse vero – perché,
dopo tutto, «tutta quanta la scienza» potrebbe sbagliare – io sosterrei
ancora che il principio d’induzione è superfluo, e che non può non
condurre a contraddizioni logiche.
Già dall’opera di Hume si sarebbe dovuto vedere chiaramente che
in relazione al principio d’induzione possono facilmente sorgere
contraddizioni; e si sarebbe anche dovuto vedere che esse possono
venire evitate, ammesso che lo possano, soltanto con difficoltà. Infatti
il principio d’induzione dev’essere a sua volta un’asserzione
universale. Dunque, se tentiamo di considerare la sua verità come
nota per esperienza, risorgono esattamente gli stessi problemi che
hanno dato occasione alla sua introduzione. Per giustificarlo,
dovremmo impiegare inferenze induttive; e per giustificare queste
ultime dovremmo assumere un principio induttivo di ordine
superiore, e così via. In tal modo il tentativo di basare il principio
d’induzione sull’esperienza fallisce, perché conduce necessariamente
a un regresso infinito.
Kant tentò di forzare la via d’uscita da questa difficoltà assumendo
che il principio d’induzione (che egli formulò come «principio di
causazione universale») fosse «valido a priori». Ma io non credo che
il suo ingegnoso tentativo di fornire una giustificazione a priori dei
giudizi sintetici abbia avuto successo.
Per conto mio, ritengo che le varie difficoltà della logica induttiva
qui delineate siano insormontabili. Cosí pure, temo, sono
insormontabili quelle inerenti alla dottrina, oggi tanto di moda, che
l’inferenza induttiva, pur non essendo «rigorosamente valida», possa
raggiungere qualche grado di «credibilità» o di «probabilità».
Secondo questa dottrina le inferenze induttive sono «inferenze
probabili». «Abbiamo descritto – dice Reichenbach – il principio
d’induzione come il mezzo grazie al quale la scienza decide sulla
verità. Per essere piú esatti dovremmo dire che esso serve a decidere
sulla probabilità. Infatti alla scienza non è dato di raggiungere la
verità o la falsità … ma le asserzioni scientifiche possono soltanto
raggiungere gradi continui di probabilità i cui limiti superiore e
inferiore, peraltro irraggiungibili, sono la verità e la falsità».
111
A questo punto posso anche non tener conto del fatto che coloro i
quali credono nella logica induttiva hanno un’idea della probabilità
che invece io respingerò piú tardi come altamente inadatta per i loro
stessi scopi. Posso farlo perché le difficoltà che ho menzionato non
vengono neppure sfiorate dall’appello alla probabilità. Infatti, se alle
asserzioni basate sull’inferenza induttiva si deve assegnare un certo
grado di probabilità, questo dovrà essere giustificato invocando un
nuovo principio d’induzione opportunamente modificato, e questo
principio dovrà essere esso stesso giustificato, e cosí via. Per di più,
se a sua volta si considera il principio d’induzione non come «vero»,
ma soltanto come «probabile», non si guadagna proprio nulla. In
breve, come ogni altra forma di logica induttiva, la logica
dell’inferenza probabile, o «logica della probabilità», conduce o a un
regresso infinito o alla dottrina dell’apriorismo.
La teoria che sarà sviluppata nelle pagine seguenti si oppone
radicalmente a tutti i tentativi di operare con le idee della logica
induttiva. Potrebbe essere descritta come la teoria del metodo
deduttivo dei controlli, o come il punto di vista secondo cui un’ipotesi
può essere soltanto controllata empiricamente, e soltanto dopo che è
stata proposta.
Prima di essere in grado di elaborare questo punto di vista (che
potrebbe essere chiamato «deduttivismo» in contrapposizione a
«induttivismo») devo anzitutto render chiara la distinzione tra la
psicologia della conoscenza, che tratta di fatti empirici, e la logica
della conoscenza, che prende in considerazione soltanto relazioni
logiche. Infatti la credenza nella logica induttiva è dovuta, per la
maggior parte, a una confusione tra problemi psicologici e problemi
epistemologici. Vale forse la pena d’osservare, incidentalmente, che
questa confusione reca disturbo non soltanto alla logica della
conoscenza, ma anche alla psicologia della conoscenza.
2. Eliminazione dello psicologismo
Nelle pagine precedenti ho detto che il lavoro dello scienziato
consiste nel produrre teorie e nel metterle alla prova.
Lo stadio iniziale, l’atto del concepire o dell’inventare una teoria,
non mi sembra richiedere un’analisi logica né esserne suscettibile. La
questione: come accada che a un uomo venga in mente un’idea nuova
– un tema musicale, o un conflitto drammatico o una teoria scientifica
– può rivestire un grande interesse per la psicologia empirica ma è
112
irrilevante per l’analisi logica della conoscenza scientifica.
Quest’ultima prende in considerazione non già questioni di fatto (il
quid facti? di Kant), ma soltanto questioni di giustificazione o validità
(il quid juris? di Kant). Le sue questioni sono del tipo seguente. Può
un’asserzione essere giustificata? E, se lo può, in che modo? È
possibile sottoporla a controlli? È logicamente dipendente da certe
altre asserzioni? O le contraddice? Perché un’asserzione possa essere
esaminata logicamente in questo modo, dev’esserci già stata
presentata; qualcuno deve averla formulata e sottoposta ad esame
logico.
Di conseguenza farò una netta distinzione tra il processo che
consiste nel concepire una nuova idea, e i metodi e i risultati
dell’esaminarla logicamente. Per quanto riguarda il compito della
logica della conoscenza – in quanto distinta dalla psicologia della
conoscenza – procederò basandomi sul presupposto che esso consista
unicamente nell’investigare i metodi impiegati in quei controlli
sistematici ai quali dev’essere sottoposta ogni nuova idea che si debba
prendere seriamente in considerazione.
Qualcuno potrebbe obbiettare che sarebbe piú rispondente allo
scopo il considerare ufficio dell’epistemologia la produzione di quella
che è stata chiamata la «ricostruzione razionale» dei passi che hanno
condotto lo scienziato a scoprire – a trovare – qualche nuova verità.
Ma la questione è: che cosa, precisamente, vogliamo ricostruire? Se
ciò che si deve ricostruire sono i processi che entrano in giuoco
quando si stimola o si dà sfogo a un’ispirazione, allora rifiuto di
considerare questa ricostruzione come il compito della logica della
conoscenza. I processi in parola interessano la psicologia empirica,
non la logica. Se invece vogliamo ricostruire razionalmente i controlli
successivi in seguito ai quali si può scoprire che l’ispirazione è una
scoperta, o diventa noto che è una conoscenza, questa è un’altra
faccenda. Siccome lo scienziato giudica criticamente, altera o
respinge la propria ispirazione, possiamo, se proprio lo vogliamo,
considerare l’analisi metodologica qui intrapresa come una specie di
«ricostruzione razionale» dei processi di pensiero corrispondenti. Ma
questa ricostruzione non riesce a descrivere tali processi come
avvengono nel fatto: essa può soltanto fornire un’impalcatura logica
della procedura dei controlli. Forse però coloro che parlano di una
«ricostruzione razionale» dei modi in cui otteniamo le nostre
conoscenze non intendono dire niente di più.
113
Accade cosí che le argomentazioni che espongo in questo libro
siano del tutto indipendenti da questo problema. Comunque, il mio
modo di vedere la cosa – per quello che vale – è che non esista nessun
metodo logico per avere nuove idee, e nessuna ricostruzione logica di
questo processo. Il mio punto di vista si può esprimere dicendo che
ogni scoperta contiene un «elemento irrazionale» o «un’intuizione
creativa» nel senso di Bergson. In modo analogo, Einstein parla della
«ricerca di quelle leggi altamente universali … dalle quali possiamo
ottenere un’immagine del mondo grazie alla pura deduzione. Non
esiste alcuna via logica, egli dice, che conduca a queste … leggi. Esse
possono essere raggiunte soltanto tramite l’intuizione, basata su un
alcunché che possiamo chiamare immedesimazione (Einfühlung)
cogli oggetti d’esperienza».
3. Controlli deduttivi delle teorie
Secondo il punto di vista che sarà esposto qui, il metodo
consistente nel sottoporre le teorie a controlli critici e nello scegliere
secondo i risultati dei controlli, procede sempre lungo le linee
seguenti. Da una nuova idea, avanzata per tentativi e non ancora
giustificata in alcun modo – una anticipazione, un’ipotesi, un sistema
di teorie, o qualunque cosa si preferisca – si traggono conclusioni per
mezzo della deduzione logica. In un secondo tempo queste
conclusioni vengono confrontate l’una con l’altra, e con altre
asserzioni rilevanti, in modo da trovare quali relazioni logiche (come
equivalenza, derivabilità, compatibilita o incompatibilità) esistano tra
di esse.
Volendo, possiamo distinguere quattro differenti linee lungo le
quali si può eseguire il controllo di una teoria. Per primo viene il
confronto logico delle conclusioni tra loro: confronto per mezzo del
quale si controlla la coerenza interna del sistema. In secondo luogo
viene l’indagine della forma logica della teoria, il cui scopo è di
determinare se la teoria abbia carattere di teoria empirica o di teoria
scientifica, o se sia, per esempio, tautologica. In terzo luogo viene il
confronto con altre teorie, il cui scopo principale è quello di
determinare se la teoria costituisca un progresso scientifico, nel caso
che sopravviva ai vari controlli a cui l’abbiamo sottoposta. E infine
c’e il controllo della teoria condotto mediante le applicazioni
empiriche delle conclusioni che possono essere derivate da essa.
114
Scopo di quest’ultimo tipo di controllo è di scoprire fino a qual
punto le nuove conseguenze della teoria – qualunque cosa di nuovo
possa esserci in ciò che essa asserisce – vengano incontro alle
richieste della pratica, sia a quelle sollevate da esperimenti puramente
scientifici, sia a quelle che derivano da applicazioni tecnologiche
pratiche. Anche qui la procedura dei controlli rivela il proprio
carattere deduttivo. Con l’aiuto di altre asserzioni già accettate in
precedenza si deducono dalla teoria certe asserzioni singolari che
possiamo chiamare «predizioni»: in particolar modo predizioni che
possano essere controllate o applicate con facilità. Tra queste
asserzioni scegliamo quelle che non sono derivabili dalla teoria
corrente, e, più in particolare, quelle che la teoria corrente
contraddice. In seguito andiamo alla ricerca di una decisione
riguardante queste (e altre) asserzioni derivate, confrontando queste
ultime con i risultati delle applicazioni pratiche e degli esperimenti.
Se questa decisione è positiva, cioè se le singole conclusioni si
rivelano accettabili o verificate, la teoria ha temporaneamente
superato il controllo: non abbiamo trovato alcuna ragione per
scartarla. Ma se la decisione è negativa, o, in altre parole, se le
conclusioni sono state falsificate, allora la loro falsificazione falsifica
anche la teoria da cui le conclusioni sono state dedotte logicamente.
È opportuno notare che una decisione positiva può sostenere la
teoria soltanto temporaneamente, perché può sempre darsi che
successive decisioni negative la scalzino. Finché una teoria affronta
con successo controlli dettagliati e severi, e nel corso del progresso
scientifico non è scalzata da un’altra teoria, possiamo dire che ha
«provato il suo valore» o che è stata «corroborata» dall’esperienza
passata.
Nel procedimento delineato qui non compare nulla che somigli
alla logica induttiva. Io non presuppongo mai che si possa concludere
dalla verità delle asserzioni singolari alla verità delle teorie. Non
presuppongo mai che le teorie possano essere provate «vere» o anche
semplicemente «probabili» in forza di conclusioni «verificate».
In questo libro intendo fornire un’analisi piú dettagliata dei metodi
dei controlli deduttivi; e tenterò di mostrare che nell’ambito di
quest’analisi si possono trattare tutti i problemi che di solito si
chiamano «epistemologici». In particolare che si possono eliminare
quei problemi a cui la logica induttiva da origine, senza farne sorgere
dei nuovi al loro posto.
115
K.R. POPPER, Conoscenza oggettiva
Roma 1975, pp. 343-351;450-453
Alcune considerazioni sui problemi e sullo sviluppo della conoscenza
Passo ora alla prima parte della mia conferenza: alla teoria
generale della conoscenza.
La ragione per cui sento di dover cominciare con qualche
commento sulla teoria della conoscenza è che sono a proposito in
disaccordo quasi con tutti, tranne che forse con Charles Darwin e
Albert Einstein, (Einstein, tra parentesi, illustrò il suo punto di vista
su tali questioni nella sua Herbert Spencer Lecture nel 1933). Il punto
principale in discussione è la relazione fra osservazione e teoria.
Credo che la teoria – una teoria o una aspettativa almeno rudimentale
– venga sempre per prima; che essa preceda sempre l’osservazione; e
che il ruolo fondamentale dell’osservazione e dei controlli
sperimentali sia mostrare che alcune delle nostre teorie siano false, e
così stimolarci a produrne di migliori.
Di conseguenza asserisco che noi non partiamo da osservazioni ma
sempre da problemi – sia da problemi pratici sia da una teoria che si
trovi in difficoltà. Una volta che ci troviamo difronte a un problema,
possiamo cominciare a lavorarci su. Possiamo farlo con due specie di
tentativi: possiamo procedere prima tentando di congetturare o
supporre una soluzione al nostro problema; e possiamo quindi tentare
di criticare la nostra supposizione di solito alquanto debole. Talvolta
una supposizione o una congettura può resistere alle nostre critiche e
ai nostri controlli sperimentali per qualche tempo. Ma, di regola,
troviamo che le nostre congetture possono essere confutate, o che esse
non risolvono il nostro problema, o che lo risolvono solo in parte; e
troviamo che anche le migliori soluzioni – quelle che sono in grado di
resistere alle critiche più severe delle menti più brillanti e ingegnose –
danno subito luogo a nuove difficoltà, a nuovi problemi. Così
possiamo dire che lo sviluppo della conoscenza procede da vecchi
problemi a nuovi problemi, mediante congetture e confutazioni.
Alcuni di voi, suppongo, saranno d’accordo che noi di solito
partiamo da problemi; ma potete ancora pensare che i nostri problemi
116
devono essere il risultato dell’osservazione e dell’esperimento, dato
che tutti voi avete familiarità con l’idea che non può esservi nulla nel
nostro intelletto che non vi sia entrato attraverso i sensi.
Ma è proprio questa venerabile idea quella che io combatto.
Asserisco che ogni animale nasce con aspettative o anticipazioni, che
potrebbero essere inquadrate come ipotesi; un certo tipo di
conoscenza ipotetica. E asserisco che abbiamo, in questo senso,
qualche grado di conoscenza innata da cui possiamo cominciare,
anche se può essere del tutto priva di affidabilità. Questa conoscenza
innata, queste aspettative innate creeranno, se deluse, i nostri primi
problemi; e la crescita della conoscenza che ne deriva può perciò
essere descritta come se fosse costituita interamente da correzioni e
modificazioni della conoscenza precedente.
Così ribalto la posizione di coloro che pensano che l’osservazione
deve precedere aspettative e problemi; e asserisco anche che, per
ragioni logiche, l’osservazione non può precedere tutti i problemi,
anche se ovviamente sarà spesso anteriore ad alcuni problemi – per
esempio a quei problemi che nascono da un’osservazione che delude
qualche aspettativa o confuta qualche teoria. Il fatto che
l’osservazione non può precedere tutti i problemi può essere illustrato
da un semplice esperimento che desidero realizzare, con il vostro
permesso, con voi stessi come soggetti sperimentali.
Il mio esperimento consiste nel chiedervi di osservare, qui e ora.
Spero che voi tutti cooperiate e osserviate! Tuttavia, temo che almeno
alcuni di voi, invece di osservare, sentiranno fortemente l’impulso di
chiedere: “Cosa vuole che osservi?”
Se questa è la vostra risposta, allora il mio esperimento ha avuto
successo. Infatti, ciò che cerco di illustrare è che, allo scopo di
osservare, dobbiamo avere in mente un problema definito che
potremmo essere in grado di decidere mediante osservazione. Darwin
sapeva questo quando scriveva: “Come è strano che nessuno si
accorga che qualsiasi osservazione deve essere pro o contro un punto
di vista …” [Né “osserva!” (senza l’indicazione di che cosa) né
“osserva questo ragno!” è un imperativo chiaro. Ma “osserva se
questo ragno si arrampica in su o in giù, come mi aspetto che faccia!”
sarebbe abbastanza chiaro].
Non posso ovviamente sperare di convincervi della verità della
mia tesi che l’osservazione viene dopo l’aspettativa o l’ipotesi. Ma
spero di avervi saputo mostrare che può esistere un’alternativa alla
117
venerabile dottrina che la conoscenza, e specialmente la conoscenza
scientifica, parta sempre dall’osservazione.
Consideriamo ora un po’ più da vicino questo metodo di
congettura e confutazione che, secondo la mia tesi, è il metodo con
cui la nostra conoscenza si sviluppa.
Partiamo, dico, da un problema, una difficoltà. Può essere pratica
o teorica. Qualunque cosa possa essere quando incontriamo per la
prima volta il problema, non possiamo ovviamente saperne molto. Al
massimo, abbiamo solo un’idea vaga di ciò in cui consiste il nostro
problema. Come possiamo allora produrre una soluzione adeguata?
Ovviamente, non possiamo. Dobbiamo anzitutto familiarizzarci
meglio con il nostro problema. Ma come?
La mia risposta è molto semplice: producendo una soluzione
inadeguata, e criticandola. Solo in questo modo possiamo arrivare a
comprendere il problema. Infatti, comprendere un problema significa
comprenderne le difficoltà; e comprenderne le difficoltà significa
comprendere perché esso non sia facilmente risolubile – perché le
soluzioni più ovvie non funzionino. Dobbiamo perciò produrre queste
soluzioni più ovvie; e dobbiamo criticarle, allo scopo di trovare
perché esse non funzionino. In questo modo, ci familiarizziamo con il
problema, e possiamo procedere da cattive soluzioni ad altre migliori
– sempre purché abbiamo l’abilità creativa di produrre nuove
congetture, e sempre nuove congetture.
Questo penso sia ciò che si intende con “lavorare su un problema”.
E se abbiamo lavorato abbastanza a lungo su un problema, e
abbastanza intensamente, cominciamo a conoscerlo, a comprenderlo,
nel senso che sappiamo che tipo di supposizione o congettura o
ipotesi non funzionerà affatto, semplicemente perché perde di vista il
punto del problema, e che tipo di requisiti deve soddisfare qualsiasi
serio tentativo di risolverlo. In altre parole, cominciamo a vedere le
ramificazioni del problema, i suoi sottoproblemi, e la sua connessione
con altri problemi. (È solo a questo stadio che una soluzione nuova
congetturata dovrebbe essere sottoposta alla critica di altri, e forse
anche pubblicata).
Se ora consideriamo quest’analisi, troviamo che si adatta alla
nostra formula, che stabiliva che il progresso della conoscenza è da
vecchi a nuovi problemi, mediante congetture e tentativi critici di
confutarle. Infatti anche il processo di familiarizzarci sempre più con
un problema procede in accordo con questa formula.
118
Allo stadio successivo il nostro tentativo di soluzione è discusso e
criticato; ognuno tenta di trovare un errore in esso e di confutarlo, e
qualunque possa essere il risultato di questi tentativi, certamente
impareremo da essi. Se le critiche dei nostri amici o dei nostri
oppositori avranno successo, avremo imparato molto riguardo al
nostro problema: riguardo alle sue difficoltà inerenti sapremo più di
quanto sapevamo prima. E se anche i nostri critici più acuti falliranno,
se la nostra ipotesi saprà resistere alle loro critiche, allora di nuovo
avremo imparato molto: sia riguardo al problema sia riguardo alla
nostra ipotesi, alla sua adeguatezza e alle sue ramificazioni. E finché
la nostra ipotesi sopravvive, almeno finché funziona meglio, alla luce
delle critiche, che i suoi rivali, essa può, in via temporanea e di
tentativo, essere accettata come parte dell’insegnamento scientifico
corrente.
Tutto ciò si può esprimere dicendo che lo sviluppo della nostra
conoscenza è il risultato di un processo strettamente rassomigliante a
quello chiamato da Darwin “selezione naturale”; cioè, la selezione
naturale delle ipotesi: la nostra conoscenza consiste, in ogni
momento, di quelle ipotesi che hanno dimostrato il loro (relativo)
adattamento sopravvivendo fino ad ora nella lotta per l’esistenza; una
lotta concorrenziale che elimina quelle ipotesi che sono inadatte.
Questa interpretazione può essere applicata alla conoscenza
animale, alla conoscenza prescientifica e a quella scientifica. Ciò che
è peculiare alla conoscenza scientifica è questo: che la lotta per
l’esistenza è resa più dura dalle critiche consapevoli e sistematiche
delle nostre teorie. Così mentre la conoscenza animale e la
conoscenza prescientifica si sviluppano per lo più attraverso
l’eliminazione di coloro che sostengono le ipotesi inadatte, la critica
scientifica spesso fa perire le nostre teorie al nostro posto, eliminando
le nostre credenze errate prima che tali credenze portino alla nostra
eliminazione.
Questa descrizione della situazione è intesa a descrivere come la
conoscenza si sviluppi realmente. Non è intesa in senso metaforico,
sebbene ovviamente faccia uso di metafore. La teoria della
conoscenza che desidero proporre è una teoria largamente darwiniana
dello sviluppo della conoscenza. Dall’ameba a Einstein, lo sviluppo
della conoscenza è sempre il medesimo: tentiamo di risolvere i nostri
problemi, e di ottenere, con un processo di eliminazione, qualcosa che
appaia più adeguato nei nostri tentativi di soluzione.
119
E tuttavia, qualcosa di nuovo è emerso a livello umano. Affinché
ciò possa essere visto subito, sottolineerò le differenze fra l’albero
dell’evoluzione e quello che potrebbe chiamarsi il crescente albero
della conoscenza.
L’albero dell’evoluzione si sviluppa da un tronco comune in
sempre nuovi rami. È come un albero genealogico: il tronco comune è
formato dai nostri antenati comuni unicellulari, gli antenati di tutti gli
organismi. I rami rappresentano sviluppi successivi, molti dei quali si
sono, per usare la terminologia di Spencer, “differenziati” in forme
altamente specializzate ognuna delle quali è così “integrata” che può
risolvere le sue difficoltà particolari, i suoi problemi di
sopravvivenza.
L’albero dell’evoluzione dei nostri utensili e strumenti appare
molto simile. Probabilmente cominciò con una pietra e un bastone;
ma, sotto l’influenza di problemi sempre più specializzati, si è
diramato in un vasto numero di forme altamente specializzate.
Ma se noi ora confrontiamo questi crescenti alberi evoluzionistici
con la struttura dello sviluppo della nostra conoscenza, troviamo
allora che l’albero crescente della conoscenza umana ha una struttura
estremamente differente. In verità, lo sviluppo della conoscenza
applicata è molto simile allo sviluppo degli utensili e altri strumenti:
vi sono applicazioni sempre più differenti e specializzate. Ma la pura
conoscenza (o la “ricerca fondamentale”, come talvolta viene
chiamata) si sviluppa in modo molto diverso. Si sviluppa per lo più in
direzione opposta a questa crescente specializzazione e
differenziazione. Come notò Herbert Spencer, essa è largamente
dominata da una tendenza verso una crescente integrazione in teorie
unificate. Questa tendenza divenne del tutto ovvia quando Newton
combinò la meccanica terrestre di Galileo con la teoria dei movimenti
celesti di Keplero; ed è sempre rimasta viva da allora.
Quando abbiamo parlato dell’albero dell’evoluzione abbiamo
assunto naturalmente, che la direzione del tempo è verso l’alto –
come si sviluppano gli alberi. Assumendo la stessa direzione del
tempo verso l’alto, avremmo dovuto rappresentare l’albero della
conoscenza come se spuntasse da innumerevoli radici che crescono
nell’aria piuttosto che in basso e che alla fine in alto tendono a unirsi
in un tronco comune. In altre parole, la struttura evoluzionistica dello
sviluppo della conoscenza pura è quasi l’opposto di quella dell’albero
120
evoluzionistico degli organismi viventi, o degli strumenti umani o
della conoscenza applicata.
La crescita integrativa dell’albero della conoscenza pura deve ora
essere spiegata. È il risultato del nostro scopo particolare nella nostra
ricerca della conoscenza pura – lo scopo di soddisfare la nostra
curiosità spiegando le cose. Ed è, inoltre, il risultato dell’esistenza di
un linguaggio umano che non solo ci abilita a descrivere situazioni di
fatto, ma anche ad argomentare intorno alla verità delle nostre
descrizioni; cioè, a criticarle.
Nella ricerca della conoscenza pura il nostro scopo è, molto
semplicemente, di comprendere, di rispondere a questioni sul come e
sul perché. Queste sono questioni cui si risponde dando una
spiegazione. Così tutti i problemi di conoscenza pura sono problemi
di spiegazione.
Questi problemi possono ben originarsi in problemi pratici. Così il
problema pratico, “Cosa si può fare per combattere la povertà?” ha
condotto al problema puramente teorico, “Perché ci sono poveri?”, e
di qui alla teoria dei salari e dei prezzi, e così via; in altre parole, alla
teoria economica pura, che naturalmente crea costantemente i suoi
propri problemi nuovi. In questo sviluppo i problemi trattati – e
specialmente i problemi irrisolti – si moltiplicano, e si differenziano,
come fanno sempre quando la nostra conoscenza si sviluppa. Tuttavia
la teoria esplicativa stessa ha dimostrato quello sviluppo integrativo
descritto per la prima volta da Spencer.
Per prendere un esempio analogo dalla biologia, abbiamo l’assai
urgente problema pratico di combattere epidemie come il vaiolo.
Tuttavia dalla prassi dell’immunizzazione passiamo alla teoria
dell’immunologia e di qui alla teoria della formazione degli anticorpi
– un campo della biologia pura famoso per la profondità dei suoi
problemi, e per la capacità di moltiplicarsi propria dei suoi problemi.
I problemi di spiegazione sono risolti proponendo teorie
esplicative; e una teoria esplicativa può essere criticata mostrando che
essa è o in se stessa inconsistente o incompatibile con i fatti o
incompatibile con qualche altra conoscenza. Tuttavia questa critica
assume che ciò che desideriamo trovare sono teorie vere – teorie che
concordino con i fatti. È, penso, questa idea di verità come
corrispondenza con i fatti che rende possibile la critica razionale.
Insieme con il fatto che la nostra curiosità, la nostra passione di
spiegare mediante teorie unificate, è universale e illimitata, il nostro
121
scopo di approssimarci sempre più alla verità spiega lo sviluppo
integrativo dell’albero della conoscenza.
Sottolineando la differenza fra l’albero evoluzionistico degli
strumenti e quello della conoscenza pura spero, incidentalmente, di
offrire qualcosa come una confutazione del punto di vista ora così di
moda per cui la conoscenza umana può essere compresa solo come
uno strumento nella nostra lotta per la sopravvivenza. Tutto ciò può
servire da avvertimento contro un’interpretazione troppo ristretta di
ciò che ho detto intorno al metodo delle congetture e confutazioni, e
alla sopravvivenza dell’ipotesi più adatta. Tuttavia non è in alcun
modo in conflitto con ciò che ho detto. Infatti non ho stabilito che
l’ipotesi più adatta è sempre quella che agevola la nostra
sopravvivenza. Ho detto piuttosto che l’ipotesi più adatta è quella che
meglio risolve il problema che era designata a risolvere, e che resiste
alle critiche meglio delle ipotesi concorrenti. Se il nostro problema è
puramente teorico – quello di trovare una spiegazione puramente
teorica – allora le critiche saranno regolate dall’idea di verità, o di
avvicinamento alla verità, piuttosto che dall’idea di aiutarci a
sopravvivere.
Parlando qui di verità, desidero chiarire che il nostro scopo è di
trovare teorie vere o almeno teorie che sono più vicine alla verità
piuttosto che le teorie che ci sono note al presente. Ciononostante
questo non significa che possiamo conoscere per certo che una
qualsiasi delle nostre teorie esplicative sia vera. Possiamo essere in
grado di criticare una teoria esplicativa, e stabilirne la falsità. Ma una
buona teoria esplicativa è sempre un’audace anticipazione delle cose
future. Dovrebbe essere controllabile e criticabile, ma non potrà
essere mostrata vera; e se prendiamo la parola “probabile” in uno dei
tanti sensi che soddisfano il calcolo delle probabilità, allora non può
mai essere mostrata “probabile” (cioè più probabile della sua
negazione).
Questo fatto è tutt’altro che sorprendente. Infatti, sebbene abbiamo
acquistato l’arte della critica razionale, e l’idea regolativa che una
spiegazione vera è una che corrisponde ai fatti, nient’altro è mutato; il
procedimento fondamentale dello sviluppo della conoscenza rimane
quello delle congetture e confutazioni, dell’eliminazione di
spiegazioni inadatte; e dato che l’eliminazione di un numero finito di
tali spiegazioni non può ridurre l’infinità delle spiegazioni possibili
sopravvissute, Einstein può errare, precisamente come l’ameba.
122
Così non possiamo attribuire la verità o la probabilità alle nostre
teorie. L’uso di standard come verità e approssimazione alla verità,
giuoca un ruolo solo nell’ambito della nostra critica. Possiamo
rigettare una teoria come non vera; e possiamo rigettare una teoria
come meno approssimata alla verità di uno dei suoi predecessori o
competitori.
Posso forse mettere insieme ciò che ho detto sotto forma di due
brevi tesi.
(i) Siamo fallibili e soggetti all’errore; ma possiamo imparare dai
nostri errori.
(ii) Non possiamo giustificare le nostre teorie, ma possiamo
razionalmente criticarle, e adottare in via di tentativo quelle che
sembrano resistere meglio alle nostre critiche, e che hanno il
maggiore potere esplicativo. Concludo così la prima parte della mia
conferenza.
[Due teorie della conoscenza]
… Ad ogni istante del nostro sviluppo pre-scientifico o scientifico
viviamo al centro di quello che io chiamo di solito un “orizzonte di
aspettative”. Con questo intendo la somma totale delle nostre
aspettative, sia che siano subconsce sia che siano consce, o forse
anche stabilite esplicitamente in un linguaggio. Gli animali e gli
infanti hanno anche i loro vari e differenti orizzonti di aspettative
sebbene senza dubbio a un livello di consapevolezza più basso che, ad
esempio, uno scienziato il cui orizzonte di aspettative consiste in
misura considerevole di teorie o ipotesi formulate linguisticamente.
I vari orizzonti di aspettative differiscono, ovviamente, non solo
perché sono più o meno consci, ma anche nel loro contenuto. Tuttavia
in tutti questi casi l’orizzonte di aspettative giuoca la parte di un
quadro di riferimento: solo il loro disporsi in questo quadro conferisce
senso o significato alle nostre esperienze, azioni e osservazioni.
… Tutto questo si applica, più specificamente, alla formazione di
ipotesi scientifiche. Infatti noi apprendiamo solo dalle nostre ipotesi
che genere di osservazioni dovremmo fare: in che direzione
dovremmo dirigere la nostra attenzione; a cosa interessarci. Così è
l’ipotesi che diviene la nostra guida, e che ci conduce a nuovi risultati
osservativi.
Questa è la concezione che ho chiamato “teoria del faro” (in
contapposizione alla “teoria del recipiente”). [Secondo la teoria del
123
faro, le osservazioni sono subordinate alle ipotesi]. Le osservazioni
giocano tuttavia un ruolo importante come controlli cui un’ipotesi
deve sottostare nel corso della sua analisi [critica]. Se l’ipotesi non
supera l’esame, se essa è falsificata dalle nostre osservazioni, allora
dobbiamo cercare una nuova ipotesi. In questo caso la nuova ipotesi
verrà dopo quelle osservazioni che hanno portato alla falsificazione o
al rigetto della vecchia ipotesi. Tuttavia ciò che ha reso le
osservazioni interessanti e rilevanti e ha dato completo avvio ad esse
all’inizio è stata la prima, vecchia [e ora rigettata] ipotesi.
In questo modo la scienza appare chiaramente una prosecuzione
diretta del lavoro prescientifico di riparazione dei nostri orizzonti di
aspettative. La scienza non parte mai dal nulla; non può mai essere
descritta come libera da assunzioni; infatti ad ogni istante essa
presuppone un orizzonte di aspettative, per così dire. La scienza
attuale è costruita su quella di ieri [e quindi è il risultato del faro di
ieri]; e la scienza di ieri, a sua volta, è basata su quella dell’altro ieri.
E le più antiche teorie scientifiche sono costruite su miti
prescientifici, e questi, a loro volta, su aspettative ancora più antiche.
Ontogeneticamente (cioè rispetto allo sviluppo dell’organismo
individuale) regrediamo quindi allo stato delle aspettative di un
neonato: filogeneticamente (rispetto all’evoluzione della specie, il
philum) giungiamo fino allo stato delle aspettative degli organismi
unicellulari. (Non vi è qui alcun pericolo di un regresso infinito
vizioso – se non altro perché ogni organismo è nato con un orizzonte
di aspettative). Vi è per così dire solo un passo dall’ameba ad
Einstein.
124
4
DINAMICA DELLA SCIENZA
4.1 Il Neo-Positivismo
Nell’ambito del neo-positivismo si condivideva una concezione
cumulativa dello sviluppo del sapere scientifico: si riteneva che la
nuova teoria non soppiantasse radicalmente la vecchia, ma ne
costituisse un’estensione, di cui la vecchia teoria, se confermata,
veniva a costituire un caso limite (modello “Matrioska” del progresso
scientifico).
Esempio: La teoria di Einstein comprende come caso-limite anche
la teoria newtoniana del medio cosmo.
Ciò implica che:
– gli assiomi di T (vecchia teoria) possono essere dimostrati come
teoremi di T’ (nuova teoria): condizione di coerenza;
– i concetti primitivi di T sono definibili in termini di concetti primitivi
di T’; esempio: i concetti di spazio e tempo della fisica newtoniana
sono definibili nei termini delle nozioni di spazio e tempo della fisica
einsteiniana: condizione di invarianza di significato.
⇓
Le teorie sono confrontabili e compatibili.
125
4.2 Il Falsificazionismo
La modifica del criterio di controllo operata da Popper si riflette
anche sulla sua concezione del rapporto che intercorre tra teorie. Come
si è appena visto, per i neo-positivisti la dinamica della scienza si
realizza attraverso l’accumulo di teorie che vengono confermate nella
loro validità per ambiti sempre più vasti; per Popper, invece, il
progresso scientifico si realizza innanzitutto grazie alla eliminazione
di teorie falsificate.
Ciò comporta che nell’ambito del falsificazionismo venga a cadere
la condizione di coerenza tra teorie. Infatti:
Anche per Popper le teorie sono tra loro confrontabili ⇒ vale la
condizione di invarianza di significato. Ma:
Ciò che si è rivelato falso al controllo empirico rimane tale e non
può essere inglobato come caso-limite entro una teoria più vasta ⇒ Le
teorie non sono tra loro compatibili ⇒ viene meno la condizione di
coerenza: gli assiomi di T non possono essere dimostrati come teoremi
di T’ ⇒ in alcune circostanze viene meno il concetto cumulativo del
progresso scientifico.
Tuttavia: nel caso di teorie o parti di teorie non falsificate, anche
Popper ritiene che si possa intendere il progresso scientifico come un
processo graduale, in cui la nuova teoria si raccomanda perché più
generale, semplice, precisa rispetto alla precedente. Il progresso
scientifico è, secondo Popper, un processo di sempre maggior
avvicinamento alla verità ⇒ verosimiglianza (cfr. capitolo sul
realismo).
4.3 L’epistemologia post-popperiana
In riferimento alla dinamica della scienza, l’epistemologia postpopperiana rifiuta sia la condizione di coerenza, sia quella di
invarianza di significato.
Per Feyerabend, ad esempio, la pratica scientifica spesso le viola.
“Si può trattare il caso della condizione di coerenza in poche parole: è
risaputo … che la teoria di Newton è in contrasto con la legge di
126
Galileo sulla caduta dei gravi e con le leggi di Keplero; che la
termodinamica statistica è in contrasto con la seconda legge della
teoria fenomenologica; che l’ottica ondulatoria non è coerente con
l’ottica geometrica, e così di seguito” (Feyerabend, Come essere un
buon empirista, pp. 17-18).
Anche la condizione di invarianza di significato cade sotto il fuoco
della critica di Feyerabend: se la scienza ‘anarchica’ progredisce
grazie alla dialettica tra teorie reciprocamente incompatibili, non è né
necessario né opportuno ricorrere a definizioni o leggi-ponte che
connettano i significati delle differenti teorie.
In generale, anche se non sempre in modo coerente, l’epistemologia
post-popperiana rifiuta lo stesso concetto di progresso scientifico.
“È soltanto durante i periodi di scienza normale che il progresso
sembra evidente e sicuro; durante i periodi di rivoluzione, quando le
dottrine fondamentali di un campo sono ancora una volta in
discussione, vengono ripetutamente avanzati dubbi sulla possibilità di
una continuazione del progresso qualora venga adottato questo o
quello dei paradigmi che si fronteggiano”(Kuhn, SRS, pp. 196-7).
D’altronde, c’è bisogno della verità nella scienza? C’è bisogno di
pensare che la scienza si avvicini progressivamente alla verità?
“Ma è poi necessario che esista un tale scopo? Non è possibile
render conto sia dell’esistenza della scienza che del suo successo in
termini di evoluzione a partire dallo stato della conoscenza posseduta
dalla comunità ad ogni dato periodo di tempo?
È veramente d’aiuto immaginare che esista qualche completa,
oggettiva, vera spiegazione della natura e che la misura appropriata
della conquista scientifica è la misura in cui essa si avvicina a questo
scopo finale? Se impareremo a sostituire l’evoluzione verso ciò che
vogliamo conoscere con l’evoluzione a partire da ciò che conosciamo,
nel corso di tale processo, un gran numero di problemi inquietanti può
dissolversi”(SRS, pp. 205-6).
127
PARTE ANTOLOGICA
C.G. HEMPEL, Aspetti della spiegazione scientifica
Milano, 1986, pp. 32-34
Gli esempi che abbiamo finora considerato illustrano la
spiegazione deduttiva di eventi particolari mediante leggi empiriche.
Ma la scienza empirica solleva la domanda «Perché?» anche riguardo
alle uniformità espresse da tali leggi e spesso risponde ad essa,
nuovamente, per mezzo di una spiegazione nomologico-deduttiva, in
cui l’uniformità in questione è sussunta sotto leggi più comprensive o
sotto principi teorici. Per esempio, alla domanda sul perché i corpi in
caduta libera si muovano in conformità con la legge di Galileo e
perché il moto dei pianeti manifesti le uniformità espresse dalle leggi
di Keplero, si risponde mostrando che queste leggi non sono altro che
conseguenze particolari delle leggi newtoniane della gravitazione
universale e del moto. Analogamente, si rende ragione delle
uniformità espresse dalle leggi dell’ottica geometrica, come quelle
della propagazione rettilinea della luce, della riflessione e della
rifrazione, in base alla loro sussunzione sotto i principi dell’ottica
ondulatoria. Per brevità, parleremo talvolta ellitticamente di
spiegazione di una legge, anziché dell’uniformità da essa espressa.
Si deve però osservare che, nelle illustrazioni menzionate, la teoria
addotta non implica, a rigore, le presunte leggi generali che debbono
essere spiegate; essa implica, invece, che quelle leggi sono valide
soltanto entro un campo limitato, e anche qui in misura solo
approssimativa. In questo senso, la legge della gravitazione universale
di Newton implica che l’accelerazione di un corpo in caduta libera
non è costante, come invece asserisce la legge di Galileo, ma subisce
un aumento lievissimo, sebbene regolare, via via che il corpo si
avvicina alla terra. Ma sebbene la legge di Newton contraddica, a
rigore, quella di Galileo, essa mostra che quest’ultima è soddisfatta
quasi esattamente nella caduta libera su brevi distanze. Più
esattamente, potremmo dire che la teoria newtoniana della
gravitazione universale e del moto implica delle sue proprie leggi
128
circa la caduta libera in varie condizioni. In base ad una di queste,
l’accelerazione di un piccolo oggetto che cade liberamente su un
corpo sferico omogeneo varia in proporzione inversa al quadrato della
sua distanza dal centro della sfera e quindi aumenta nel corso della
caduta, e l’uniformità espressa da questa legge viene spiegata in senso
strettamente deduttivo in base alla teoria newtoniana. Ma, una volta
connessa all’assunzione che la terra è una sfera omogenea di massa e
raggio specificati, la legge in questione implica che, per quanto
riguarda la caduta libera su brevi distanze in prossimità della
superficie della terra, la legge di Galileo è valida con un alto grado di
approssimazione; in questo senso, si potrebbe dire che la teoria
fornisce una spiegazione N-D approssimativa della legge di Galileo.
Ancora, nel caso del moto dei pianeti la teoria newtoniana implica
che, dal momento che un pianeta è soggetto all’attrazione
gravitazionale non soltanto da parte del sole ma anche da parte di altri
pianeti, la sua orbita non sarà perfettamente ellittica, ma manifesterà
certe deviazioni. Quindi, come ha osservato Duhem, la legge della
gravitazione universale di Newton, ben lungi dall’essere una
generalizzazione induttiva basata sulle leggi di Keplero, è invece, a
rigore, incompatibile con esse. Una delle sue più importanti
credenziali è costituita precisamente dal fatto che essa mette in grado
l’astronomo di calcolare le deviazioni dei pianeti dalle orbite ellittiche
assegnate loro da Keplero.
Una relazione analoga sussiste fra i principi dell’ottica ondulatoria
e le leggi dell’ottica geometrica. Ad esempio, la prima postula una
«svolta» diffrattiva della luce attorno agli ostacoli – un fenomeno
escluso dalla concezione secondo cui la luce è composta di raggi che
viaggiano in linea retta. Ma, analogamente alla precedente
esemplificazione, la spiegazione della teoria ondulatoria implica che
le leggi della propagazione, della riflessione e della rifrazione
rettilinee della luce, quali vengono formulate nella geometria ottica,
sono soddisfatte con un alto grado di approssimazione entro un
campo limitato di casi, inclusi quelli che hanno fornito una conferma
sperimentale alle leggi nella loro formulazione originale.
In generale, la spiegazione basata su principi teorici amplia e
approfondisce la nostra comprensione dei fenomeni empirici
considerati. Essa acquista un maggior respiro in quanto la teoria
comprende solitamente un campo di eventi più vasto di quello delle
leggi empiriche precedentemente stabilite. Ad esempio, la teoria della
129
gravitazione universale e del moto di Newton governa la caduta libera
degli oggetti fisici non soltanto sulla terra, ma anche su altri corpi
celesti, e non soltanto i moti dei pianeti, ma anche il moto relativo
delle stelle doppie, le orbite delle comete e dei satelliti artificiali, le
oscillazioni del pendolo, certe caratteristiche delle maree e molti altri
fenomeni. Una spiegazione teorica approfondisce la nostra
comprensione per almeno due ragioni. In primo luogo, essa presenta
le diverse regolarità esibite da una svariata molteplicità di fenomeni,
come quelli citati in riferimento alla teoria di Newton, come
manifestazioni di alcune leggi fondamentali. In secondo luogo, come
abbiamo osservato, le generalizzazioni precedentemente accettate
come corrette enunciazioni di regolarità empiriche risultano
solitamente soltanto delle approssimazioni di certi enunciati legisimili
implicati dalla teoria esplicativa, e sono soddisfatte con un notevole
grado di approssimazione soltanto entro un campo limitato. E
fintantoché i controlli delle leggi nella loro primitiva formulazione
vennero confinati ai casi inclusi in quel campo, la spiegazione teorica
indica anche perché quelle leggi, sebbene non vere in generale,
dovevano trovare conferma.
Quando una teoria scientifica è soppiantata da un’altra nel senso in
cui la meccanica e l’elettrodinamica sono state soppiantate dalla
teoria speciale della relatività, la teoria che subentra ha generalmente
un campo di spiegazione più vasto, includendo fenomeni di cui la
teoria precedente non rendeva ragione, e di regola essa fornisce
spiegazioni approssimative delle leggi empiriche implicate dalla
teoria che la precedeva. In questo senso, la teoria speciale della
relatività implica che le leggi della teoria della meccanica classica
sono soddisfatte con un alto grado di approssimazione nei casi che
presuppongono un moto soltanto a velocità piccole rispetto a quella
della luce.
130
5
REALISMO E ANTIREALISMO
NELLA SCIENZA
5.1 Che cos’è il realismo scientifico
Il realismo scientifico è una tesi filosofica secondo la quale gli enti
a cui si riferisce la scienza esistono in modo indipendente dalla
conoscenza che ne abbiamo.
A questa tesi di natura metafisica spesso se ne accompagna una di
natura epistemica, concernente la natura della nostra conoscenza.
Secondo tale tesi gli enunciati della scienza corrispondono a stati di
cose del mondo e i termini usati nelle teorie scientifiche denotano
oggetti del mondo.
La tesi opposta al realismo è denominata costruttivismo o anche,
nella sua forma radicale, idealismo e sostiene – a livello metafisico –
che gli oggetti di cui si parla nella scienza non sono mind independent
ma sono funzione delle credenze del soggetto. Dal punto di vista
epistemico, afferma invece che la conoscenza non ha per oggetto la
realtà ma i modi mediante i quali ci rappresentiamo la realtà.
Realismo e costruttivismo sono posizioni che si fronteggiano non
solo nella filosofia della scienza ma in molti altri ambiti filosofici.
Negli schemi che seguono vengono illustrate le peculiarità del
costruttivismo e di due forme di realismo, il realismo ingenuo e quello
critico, senza riferimento specifico alla scienza.
131
Secondo il costruttivismo noi conosciamo le nostre rappresentazioni della realtà, non la
realtà. A critica di questa posizione si è sostenuto che essa è frutto di un:
Poiché il pregiudizio gnoseologistico implica lo scetticismo circa la natura del mondo
esterno, alcuni pensatori hanno ritenuto che lo scetticismo potesse essere evitato sposando
una posizione idealistica, che nega l’indipendenza della realtà rispetto al soggetto. Ciò
non è però necessario, qualori si smascheri il pregiudizio gnoseologistico come tale e si
opti per il realismo.
132
Secondo il realismo, la realtà è il polo intenzionale dell’atto conoscitivo. Il realismo
critico, a differenza di quello ingenuo, ritiene che la conoscenza della realtà sia mediata
dagli strumenti conoscitivi del soggetto. Ciò introduce una dimensione costruttiva anche
nel punto di vista realistico.
A un livello più profondo, alla base di realismo e costruttivismo vi
sono concezioni diverse della realtà:
Per il costruttivismo la realtà è una dimensione indeterminata,
incompleta, al limite irrazionale, contraddittoria.
Per il realismo la realtà è una dimensione determinata, completa,
razionale, incontraddittoria.
5.2 Teoria della verosimilitudine in Popper
Nella parte antologica, Popper spiega le ragioni della sua preferenza per il realismo e la connessione tra questo e la teoria della
verosimilitudine.
Secondo Popper, la verità è l’ideale regolativo perseguito dalla
scienza ⇒ realismo scientifico.
Noi però non abbiamo criteri per decidere in maniera definitiva
quando una teoria sia vera o falsa.
Si tratta allora di spiegare come una teoria possa essere più vera di
un’altra e pur tuttavia falsa: questo è il ruolo della teoria della
verosimilitudine.
133
Presupposti i concetti che seguono:
Contenuto di verità o di falsità di una teoria = classe delle sue
conseguenze logiche vere (false)
Verosimilitudine = contenuto di verità – contenuto di falsità
si avrà che:
T1 più verosimile di T2 se e solo se il contenuto di verità, ma non
quello di falsità, di T1 include il contenuto di verità di T2, oppure:
Il contenuto di falsità, ma non quello di verità, di T2 include quello
di T1.
VEROSIMILITUDINE DI UNA TEORIA
CV(T1)
⊇
Contenuto di verità di T1=
insieme delle conseguenze
logiche vere di T1
CV(T2)
Contenuto di verità di T2=
insieme delle conseguenze
logiche vere di T2
+
CF(T1)
⊆
Contenuto di falsità di T1 =
insieme delle conseguenze
logiche false di T1
CF(T2)
Contenuto di falsità di T2 =
insieme delle conseguenze
logiche false di T2
=
T1
≥
è almeno verosimile quanto
134
T2
La teoria della verosimilitudine è fallita a causa della mancanza di una
definizione formale corretta del concetto di verosimilitudine. Si è infatti
dimostrato che, tra due teorie false, una non può essere più vera di
un’altra. Popper ha riconosciuto il fallimento della sua teoria, definendolo
“uno splendido insuccesso”. Rimane tuttavia l’idea intuitiva di
verosimilitudine come approssimazione alla verità.
5.3 Il realismo circa gli inosservabili
Nella filosofia della scienza, una delle tesi più controverse riguarda
lo statuto ontologico degli enti descritti dai termini teorici. Atomi,
quarks, campi di forza, ma anche la mente o il DNA, sono entità
esistenti indipendentemente dalla nostra conoscenza di essi? Se sì,
riesce la conoscenza scientifica a penetrare nella loro natura?
P. Kosso, nel testo in antologia, difende il realismo circa gli
inosservabili e lo contrappone a due forme di antirealismo: lo
strumentalismo e l’empirismo. Il primo nega il realismo nella sua versione
ontologica, il secondo, invece, non nega di principio la dimensione
ontologica del realismo ma ne rifiuta quella epistemica.
135
PARTE ANTOLOGICA
K.R. POPPER, Conoscenza oggettiva
Roma, 1972, pp. 63-79
Realismo
I1 realismo è essenziale al senso comune. Il senso comune, o senso
comune illuminato distingue fra apparenza e realtà. (Ciò può essere
illustrato da esempi come “oggi l’aria è così chiara che le montagne
sembrano molto più vicine di quanto effettivamente siano”. O forse,
“sembra che lo faccia senza sforzo, ma mi ha confessato che 1a
tensione è quasi insopportabile”). Ma il senso comune si rende anche
conto che le apparenze (come il riflesso in uno specchio) hanno una
specie di realtà; in altre parole, che può esservi una realtà di
superficie – cioè una apparenza – e una realtà di profondità. Inoltre vi
sono molti generi di cose reali. Il genere più ovvio è quello dei generi
alimentari (suppongo che essi producano la base del sentimento di
realtà), o di oggetti più resistenti (“objectum” ciò che si oppone alla
nostra azione), come pietre, alberi e esseri umani. Ma vi sono molti
generi di realtà che sono del tutto differenti, come le nostre
decodificazioni soggettive delle nostre esperienze di generi
alimentari, pietre e alberi ed esseri umani. Il gusto e il peso degli
alimenti e delle pietre è un altro genere di realtà ancora, così come le
proprietà degli alberi e degli esseri umani. Esempi di altro genere in
questo universo differenziato sono: un mal di denti, una parola, un
linguaggio, un codice della strada, un romanzo, una decisione
governativa; una prova valida o invalida; forse forze, campi di forze,
propensioni, strutture; e regolarità. (Le mie annotazioni qui lasciano
del tutto impregiudicato se e come queste molte specie di oggetti
possano essere reciprocamente collegate).
136
Argomentazioni a favore del realismo
La mia tesi è che il realismo non è né dimostrabile né confutabile.
Il realismo, come qualsiasi altra cosa al di fuori della logica e
dell’aritmetica finita non è dimostrabile; ma, mentre la scienza
empirica presenta teorie confutabili, il realismo non è nemmeno
confutabile. (Condivide questa inconfutabilità con molte teorie
filosofiche o “metafisiche”, in particolare anche con l’idealismo). Ma
esso si può discutere e il peso degli argomenti è in modo schiacciante
a suo favore.
Il senso comune è indiscutibilmente dalla parte del realismo; vi
sono naturalmente, anche prima di Descartes – in effetti anche prima
di Eraclito – alcuni accenni del dubbio se il nostro mondo ordinario
non sia forse solo un nostro sogno. Ma anche Descartes e Locke
erano realisti. Una teoria filosofica in competizione con il realismo
non nacque seriamente prima di Berkeley, Hume e Kant …
Nella sua forma più semplice l’idealismo dice: il mondo (che
include i miei stessi ascoltatori) è solo un mio sogno. Ora è chiaro che
questa teoria (sebbene sappiate che è falsa) non è confutabile:
qualunque cosa voi, miei ascoltatori, possiate fare per convincermi
della vostra realtà – parlarmi, scrivere una lettera, o forse darmi un
calcio – non può mai assumere la forza di una confutazione; perché io
continuerei a dire che sto sognando che mi parlate, o di aver ricevuto
una lettera, o sentito un calcio. (Si potrebbe dire che queste risposte
siano tutte, in diverse maniere, stratagemmi immunizzanti. È così, ed
è un forte argomento contro l’idealismo. Ma di nuovo, il fatto che
esso sia una teoria autoimmunizzantesi non lo confuta).
Così l’idealismo è inconfutabile; e ciò significa, ovviamente, che il
realismo è indimostrabile. Ma io sono pronto a concedere che il
realismo non è solo indimostrabile ma, come l’idealismo, anche
inconfutabile; che nessun evento descrivibile, e nessun’esperienza
concepibile possono essere presi come confutazioni del realismo.
Così non vi sarà su questa questione, come su tante, nessun
argomento conclusivo. Ma vi sono argomenti a favore del realismo; o
piuttosto contro l’idealismo.
1. Forse l’argomento più forte consiste nella combinazione dei due
seguenti: (a) che il realismo è parte del senso comune, e (b) che tutti
gli argomenti assunti contro di esso sono non solo filosofici nel senso
più derogatorio del termine, ma sono al tempo stesso basati su una
parte del senso comune accettata acriticamente; cioè, sulla parte errata
137
della teoria della conoscenza del senso comune che io ho chiamato la
“teoria del recipiente mentale” …
2. Sebbene la scienza sia un po’ fuori moda oggi presso qualcuno
per ragioni che sono purtroppo tutt’altro che trascurabili, noi non
dovremmo ignorare la sua rilevanza per il realismo a dispetto del fatto
che vi siano scienziati che non sono realisti, come Ernst Mach o, ai
nostri tempi, Eugene P. Wigner; i loro argomenti cadono molto
chiaramente nella categoria indicata proprio ora in (1). Ma
tralasciamo qui l’argomento di Eugene P. Wigner sulla fisica atomica.
Possiamo allora asserire che quasi tutte, se non tutte le teorie fisiche,
chimiche o biologiche implicano il realismo, nel senso che se esse
sono vere, anche il realismo deve essere vero. Questo è uno dei
motivi per cui alcuni parlano di “realismo scientifico”. È una ragione
assai valida. A causa della sua (apparente) mancanza di
controllabilità, tendo però a preferire di chiamare il realismo
“metafisico” piuttosto che “scientifico”.
Per quanto uno possa fare attenzione a ciò, vi sono eccellenti
ragioni per dire che ciò cui miriamo nella scienza è descrivere e
(finché è possibile) spiegare la realtà. Facciamo questo con l’aiuto di
teorie congetturali; e cioè di teorie che speriamo siano vere (o vicine
al vero), ma che non possiamo stabilire come certe o anche come
probabili (nel senso del calcolo delle probabilità), anche se sono le
teorie migliori che sappiamo produrre, e possono perciò essere
chiamate “probabili” finché il termine è tenuto libero da qualsiasi
associazione con il calcolo delle probabilità.
C’è un senso strettamente connesso ed eccellente in cui possiamo
parlare di “realismo scientifico”: il procedimento che adottiamo
implica (finché non viene a cadere, per esempio a causa di
atteggiamenti irrazionalistici) il successo nel senso che le nostre
teorie congetturali tendono progressivamente ad avvicinarsi alla
verità; cioè a descrizioni vere di certi fatti o aspetti della realtà.
3. Ma anche se abbandoniamo qualsiasi argomento tratto dalla
scienza, restano gli argomenti tratti dal linguaggio. Qualsiasi
discussione del realismo, e specialmente tutti gli argomenti contro di
esso, devono essere formulati in qualche linguaggio. Ma il linguaggio
umano è essenzialmente descrittivo (e argomentativo), e una
descrizione non ambigua è sempre realistica: è descrizione di
qualcosa – di qualche stato di fatto che può essere reale o
immaginario. Così se lo stato di fatto è immaginario, allora la
138
descrizione è semplicemente falsa e la sua negazione è una
descrizione vera della realtà, nel senso di Tarski. Questo non confuta
logicamente l’idealismo o il solipsismo; ma lo rende almeno
irrilevante. La razionalità, il linguaggio, la descrizione,
l’argomentazione, sono tutti intorno alla realtà e si rivolgono ad un
pubblico. Tutto ciò presuppone il realismo. Naturalmente, questa
argomentazione a favore del realismo non è logicamente più
conclusiva di qualsiasi altra, perché potrei soltanto sognare che sto
usando linguaggio descrittivo e argomenti; ma questa argomentazione
a favore del realismo è comunque forte e razionale. È altrettanto forte
quanto la ragione stessa.
4. Per me l’idealismo è assurdo, perché esso implica anche
qualcosa del genere: è la mia mente che crea questo bel mondo. Ma io
so che non ne sono il creatore. Dopo tutto, la famosa considerazione
“la bellezza è negli occhi dell’osservatore”, sebbene forse non sia una
considerazione troppo sciocca, non significa altro che: vi è un
problema dell’apprezzamento della bellezza. Io so che la bellezza
degli autoritratti di Rembrandt non è nei miei occhi, né quella della
Passione di Bach nelle mie orecchie. Al contrario, posso stabilire con
mia soddisfazione, aprendo e chiudendo i miei occhi e le mie
orecchie, che essi non bastano ad afferrare tutta la bellezza che c’è.
Inoltre, vi sono altre persone che sono giudici migliori – migliori di
me nell’apprezzare la bellezza delle pitture e della musica. La
negazione del realismo porta alla megalomania (la più diffusa
malattia professionale del filosofo di professione).
5. Di molti altri importanti anche se inconclusivi argomenti
desidero menzionare solo questo. Se il realismo è vero – più
esattamente, se lo è qualcosa che si avvicina al realismo scientifico –
allora la ragione della impossibilità di provarlo è ovvia. La ragione è
che la nostra conoscenza soggettiva, anche percettiva, consiste di
disposizioni ad agire, ed è quindi una specie di adattamento tentativo
alla realtà; e che noi siamo al massimo ricercatori e in ogni caso
fallibili. Non vi è garanzia contro l’errore. Nello stesso tempo, tutta la
questione della verità e falsità delle nostre opinioni e teorie diviene
chiaramente senza importanza se non vi è una realtà, ma solo sogni e
illusioni.
In sintesi, propongo di accettare il realismo come la sola ipotesi
sensata – come una congettura cui non è stata opposta finora alcuna
alternativa sensata. Non desidero essere dogmatico riguardo a questa
139
questione più che riguardo a qualsiasi altra. Ma credo di conoscere
tutti gli argomenti epistemologici – sono per lo più soggettivisti – che
sono stati formulati a favore di alternative al realismo, come il
positivismo, il fenomenismo, la fenomenologia, e così via, e sebbene
io non sia ostile alla discussione degli ismi in filosofia, considero tutti
gli argomenti filosofici che, a mia conoscenza, sono stati formulati in
favore della mia lista di ismi, chiaramente errati. La maggior parte di
essi sono il risultato dell’erronea ricerca della certezza, o di
fondamenta sicure su cui costruire. E tutti sono tipici errori filosofici
nel senso peggiore del termine: derivano tutti da una teoria della
conoscenza erronea sebbene propria del senso comune che non regge
a nessuna critica seria …
Concluderò questo paragrafo con l’opinione dei due uomini che
considero i più grandi del nostro tempo: Albert Einstein e Winston
Churchill.
«Non vedo», scrive Einstein, «alcun ‘pericolo metafisico’ nella
nostra accettazione delle cose – cioè degli oggetti fisici insieme con le
strutture spazio-temporali ad essi relative».
Questa era l’opinione di Einstein dopo un’accurata e amichevole
analisi di un tentativo brillante di confutazione del realismo ingenuo
dovuto a Bertrand Russell.
Le vedute di Winston Churchill sono veramente caratteristiche e,
penso, un commento assai giusto su una filosofia che da allora può
aver cambiato aspetto, mutando radicalmente dall’idealismo al
realismo, in apparenza, ma restando irrilevante come è sempre stata:
“Alcuni miei cugini che avevano il grande vantaggio di una istruzione
universitaria”, scrive Churchill, “usavano infastidirmi con argomenti
per provare che null’altro esiste se non ciò che pensiamo …”. Egli
continua:
«Io sono sempre rimasto fermo al seguente argomento che
concepii per mio conto molti anni fa … Ecco il gran sole che sussiste
in apparenza su nessun fondamento migliore dei nostri sensi. Ma
fortunatamente c’è un metodo, del tutto indipendente dai nostri sensi
fisici, per controllare la realtà del sole … gli astronomi … predicono
con [la matematica e] la pura ragione che una macchia nera
attraverserà il sole in un certo giorno. Tu … guardi, e il tuo senso
della vista ti dice immediatamente che i loro calcoli erano giusti …
Abbiamo avuto ciò che nella compilazione di mappe militari si
140
chiama una “coincidenza”. Abbiamo ottenuto una testimonianza
indipendente della realtà del sole. Quando i miei amici metafisici mi
dicono che i dati su cui gli astronomi hanno fatto i loro calcoli furono
necessariamente ottenuti in precedenza attraverso l’evidenza dei
sensi, io dico “No”. Essi potrebbero, almeno in teoria, essere ottenuti
da calcolatori automatici messi in moto dalla luce che cade su di essi
senza che i sensi umani si intromettano in nessun momento … Io …
riaffermo con enfasi … che il sole è reale, e anche che esso è caldo –
in effetti caldo come l’inferno, e se i metafisici ne dubitano,
dovrebbero andare a vedere».
Posso forse aggiungere che considero l’argomento di Churchill,
specialmente i passi importanti che ho messo in corsivo, non solo una
critica valida degli argomenti idealistici e soggettivistici, ma come
l’argomento più sano e ingegnoso filosoficamente contro
l’epistemologia soggettivistica che io conosca. Non conosco filosofo
che non abbia ignorato questo argomento (a parte qualcuno dei miei
studenti di cui ho attirato l’attenzione su di esso). L’argomento è
altamente originale; pubblicato per la prima volta nel 1930 è uno dei
primi argomenti filosofici che facciano uso della possibilità di
osservatori automatici e di macchine calcolatrici (con nel programma
la teoria di Newton). E tuttavia, quarant’anni dopo la sua
pubblicazione, Winston Churchill è ancora del tutto sconosciuto come
epistemologo: il suo nome non appare in nessuna delle molte
antologie sull’epistemologia, e manca anche nell’Encyclopedia of
Philosophy.
Naturalmente l’argomento di Churchill è semplicemente
un’eccellente confutazione degli speciosi argomenti dei soggettivisti:
non prova il realismo, perché l’idealista può sempre argomentare che
egli o noi stiamo sognando la discussione, con le macchine
calcolatrici e tutto il resto. Tuttavia considero sciocco
quest’argomento, a causa della sua universale applicabilità. In ogni
caso, tranne che qualche filosofo producesse qualche argomento del
tutto nuovo, propongo che il soggettivismo sia d’ora in poi ignorato.
Considerazioni sulla verità
Il nostro interesse principale nella filosofia e nella scienza
dovrebbe essere la ricerca della verità. La giustificazione non è uno
scopo; e l’acume e l’intelligenza fine a se stessi sono noiosi.
Dovremmo cercare di vedere o scoprire i problemi più urgenti, e
141
dovremmo tentare di risolverli proponendo teorie vere (o proposizioni
vere, o enunciati veri; non vi è qui alcuna necessità di distinguere fra
di essi); o in ogni caso proponendo teorie che si approssimano alla
verità un po’ più di quelle dei nostri predecessori …
Accetto la teoria propria del senso comune (difesa e perfezionata
da Alfred Tarski) che la verità è corrispondenza con i fatti (o con la
realtà); o, più esattamente, che una teoria è vera se e solo se
corrisponde ai fatti …
Questa, come sottolinea Tarski, è una nozione oggettivistica e
assolutistica della verità. Ma non è assolutistica nel senso di
permetterci di parlare con “assoluta certezza o sicurezza”, perché non
ci fornisce un criterio di verità …
Così l’idea di verità è assolutistica, ma non si può pretendere
l’assoluta certezza: noi siamo cercatori di verità ma non siamo suoi
possessori.
Contenuto, contenuto di verità e contenuto di falsità
Per chiarire cosa facciamo quando cerchiamo la verità, dobbiamo
almeno in qualche caso saper fornire ragioni della pretesa intuitiva
che ci siamo approssimati alla verità, o che qualche teoria T1 è
superata da qualche teoria nuova, ad esempio T2, poiché T2 è più
verosimile di T1.
L’idea che una teoria T1 possa essere più lontana dal vero di una
teoria T2, cosicché T2 è un’approssimazione migliore alla verità (o
semplicemente una teoria migliore) che T1, è stata usata
intuitivamente da molti filosofi, me compreso. E proprio come la
nozione di verità è stata guardata con sospetto da molti filosofi …
così lo è stata la nozione di migliore accostamento o approssimazione
alla verità, o di maggiore vicinanza alla verità o (come l’ho chiamata)
di maggiore “verisimiglianza”.
Per alleviare questi sospetti, ho introdotto una nozione logica di
verisimiglianza combinando due nozioni, ambedue introdotte per la
prima volta da Tarski: (a) la nozione di verità, e (b) la nozione di
contenuto (logico) di una proposizione; cioè, la classe di tutte le
proposizioni logicamente implicate da essa …
Ogni proposizione ha un contenuto o classe di conseguenza, la
classe di tutte le proposizioni che seguono da essa. (Possiamo
descrivere la classe di conseguenza delle proposizioni tautologiche,
seguendo Tarski, come la classe zero, cosicché le proposizioni
142
tautologiche hanno contenuto zero). E ogni contenuto contiene un
sottocontenuto che consiste della classe di tutte e solo le sue
conseguenze vere.
La classe di tutte le proposizioni vere che seguono da una
proposizione vera (o che appartengono a un dato sistema deduttivo) e che
non sono tautologiche può essere chiamata il suo contenuto di verità.
Il contenuto di verità delle tautologie (o proposizioni logicamente
vere) è zero: consiste solo di tautologie. Tutte le altre proposizioni,
incluse tutte le proposizioni false, hanno un contenuto di verità
diverso da zero.
La classe delle proposizioni false implicate da una proposizione –
la sottoclasse del suo contenuto che consiste esattamente di tutte
quelle proposizioni che sono false – potrebbe essere chiamata … il
suo “contenuto di falsità” …
Considerazioni sulla verisimiglianza
Con l’aiuto di queste idee possiamo ora spiegare più chiaramente
cosa intendiamo intuitivamente per somiglianza alla verità o
verisimiglianza. Parlando intuitivamente, una teoria T1 ha meno
verisimiglianza di una teoria T2 se e solo se (a) i loro contenuti di
verità e falsità (o le loro misure) sono confrontabili, e o (b) il
contenuto di verità ma non il contenuto di falsità di Tl è più piccolo di
quello di T2, ovvero (c) il contenuto di verità di T1 non è maggiore di
quello di T2, ma il suo contenuto di falsità è maggiore. In breve,
diciamo che T2 è più vicina alla verità, o è più simile alla verità, che
T1, se e solo se seguono da essa più proposizioni vere, ma non più
proposizioni false, o almeno altrettante proposizioni vere, ma meno
proposizioni false …
143
P. KOSSO, Leggere il libro della natura
Bologna, 1995, pp. 101-112
[Esaminando alcuni casi di sottodeterminazione empirica, Kosso
affronta la questione della misura in cui questo fenomeno mina la
credibilità del realismo scientifico].
Gli esperimenti di misurazione della lunghezza e della temperatura
della sbarra dimostrano che il mondo sembra come se la teoria A
fosse vera. Non c’è dubbio che le cose appaiano proprio così. Ma, se
ci si basa sulle osservazioni, il tutto appare anche come se fosse vero
B ed è evidente che queste teorie non possono essere entrambe giuste.
Si è spinti, allora, a esaminare la questione dell’inferenza che va dal
materiale probatorio alla teoria, cioè dell’inferenza dal «sembra come
se» all’«è». Anche quando non si è immaginata nessuna teoria
alternativa B, ci sono motivi per dubitare della mossa che va dal
materiale probatorio che dice «il mondo è come se A»
all’affermazione «il mondo è davvero A».
Come comportarsi responsabilmente davanti a questo dubbio? Una
soluzione è semplicemente quella di cassare del tutto l’inferenza
proibendo alla scienza di fare affermazioni su come è il mondo non
osservabile. La scienza, da questo punto di vista, svolge l’utile attività
di descrivere il mondo come sembra. Essa ha ancora a che fare con
teorie concernenti gli inosservabili e continua, con convinzione, ad
affermare che in base a tutte le descrizioni sperimentali gli eventi nel
mondo si comportano come se ci fossero atomi (così come, ogni
domenica mattina, gli eventi sono come se il mio vicino mi rubasse il
giornale). Gli scienziati s’impegnano sulla verità di queste
affermazioni, di tipo «come se» ma questo non impone alcun impegno,
sulla corrispondente affermazione di tipo «è». La scienza, in
quest’ottica, non afferma che la sbarra di ottone si espande realmente in
risposta lineare all’aumento di temperatura, ma afferma soltanto che
alla sbarra accade come se questo valesse, proprio come alla sbarra
accade come se valesse la teoria oscillatoria B. Ciò che conta nella
scienza è trovare una teoria empiricamente adeguata e le nostre A, B e
C vanno tutte egualmente bene. La verità circa il mondo non
osservabile è una questione non pertinente. Dato che le teorie
144
empiricamente indistinguibili A, B; … servono solo agli scopi empirici
di spiegare e predire e, a tali scopi, esse sono tutte ugualmente
adeguate, è irrilevante quale sia quella adottata: nello sceglierne una
rispetto alle altre non c’è alcuna urgente decisione da prendere.
Questo tipo di reazione alla sottodeterminazione il quale, in
proporzione al limitato contenuto informativo dell’esperienza, riduce
i risultati responsabili e gli scopi della scienza, consta di due generi
fondamentali. Ognuno di essi ammette, di per sé, interessanti
variazioni ma, per ampliare la nostra idea della questione, questi due
saranno sufficienti. Una scuola di pensiero è dell’opinione che la
scienza non voglia (o non dovrebbe volere) che si pensi alle teorie
come vere o false. La proprietà vero o falso non è un aspetto delle
teorie: esse sono utili o no, applicabili o no, ma non sono vere o false.
Questo punto di vista, che concepisce le teorie come utili strumenti
intellettuali, è spesso chiamato «strumentalismo».
In alternativa, si potrebbero concepire le teorie come autenticamente
vere o false ma, data una teoria, la sottodeterminazione ci impedisce di
venire a sapere quale dei due punteggi, vero o falso, essa meriti. Quando
gli scienziati teorizzano gli atomi, essi intendono parlare veramente di
cose reali. Essi vogliono dire la verità ma, alla luce della
sottodeterminazione, la cosa responsabile da fare è evitare di impegnarsi
in un senso o nell’altro. La teoria è vera o falsa, ma non sappiamo
decidere. Tale è la posizione dell’empirista.
Queste due concezioni della scienza e dello status delle teorie sono
due generi di antirealismo. Insieme esse costituiscono un gruppo la
cui omogeneità è definita dall’opposizione al realismo, concezione
secondo la quale le teorie scientifiche sono in effetti vere o false del
mondo o lo sono almeno approssimativamente, e secondo la quale,
talvolta, di una teoria si può dire se è vera o se è falsa. Secondo il
realista, in certi casi l’inferenza dal «sembra come se» all’«è» è
giustificata. Chiaramente, al realista spetta l’onere di farci vedere
com’è che questa inferenza funziona e di specificare i tipi di casi per i
quali la si possa giustificare. Il realismo ha il dovere di affrontare il
problema della sottodeterminazione. Per vedere come questo compito
potrebbe essere svolto, bisognerà esaminare attentamente le due
versioni dell’antirealismo e la risposta più convincente che il realismo
dà loro.
145
Gli scopi responsabili della scienza
La chiave dello strumentalismo è l’attenzione appuntata sui veri
propositi che stanno dietro l’uso di una teoria scientifica e sulla
domanda corretta da porre nel valutare le teorie. La vera domanda da
porre su una teoria non è se essa sia vera o sia falsa; infatti, le teorie
non hanno questa proprietà esattamente come non ce l’ha un martello.
Il quale, come ogni altro strumento, andrà giudicato per la sua utilità e
la sua applicabilità a un dato scopo particolare: ad esempio, per
piantare chiodi, un martello è più utile di una patata.
Per lo strumentalista, anche le teorie sono strumenti: strumenti
intellettuali che servono per predire i fenomeni futuri e organizzare le
osservazioni. Questo è il loro ruolo ufficiale nella scienza e, quindi, i
criteri pertinenti di valutazione delle teorie scientifiche sono criteri di
impiego, di utilità e di applicabilità piuttosto che di verità. Ciò a cui
mira la teorizzazione è l’adeguatezza empirica: riuscire a organizzare
efficientemente e a predire con successo i fenomeni. Nella mente
dello strumentalista, non vi è alcun proposito, né alcun motivo, di
spingere le teorie al di là dei loro mezzi tentando di usare
l’adeguatezza empirica come prova per la loro verità. Le teorie che,
dal punto di vista empirico, sono ugualmente adeguate saranno teorie
ugualmente accettabili: così come non c’è un martello vero, non c’è
neanche una teoria vera della gravità …
Secondo lo strumentalista, questa interpretazione delle teorie
scientifiche si applica, in generale, a tutte le teorie. La scienza ha
dimostrato con esattezza che il mondo funziona come se ci fossero
atomi, strati tettonici, geni, una civiltà minoica e così via, e ciò è
quanto basta perché questo è il vero scopo della scienza e il compito è
svolto con adeguatezza empirica. Il problema se le teorie sono vere o
false, o se gli atomi ci sono davvero, non sussiste perché le teorie non
vogliono essere né vere né false.
Questo modo di concepire i veri scopi della scienza, questa
rinuncia a ogni diritto sulla descrizione vera dell’inosservabile, trova
la sua motivazione nel desiderio di separare la scienza dall’occulto.
Se il ricorso a invisibili forze mistiche, quale si ha ad esempio in
astrologia o nella psicocinesi, viene scartato in quanto costituisce un
blaterare privo di senso, c’è allora da chiedersi in che modo la scienza
dovrebbe essere diversa (cioè migliore), dal momento che anch’essa
invoca invisibili entità mistiche come gli elettroni e i geni. Invece di
rispondere a questa domanda, lo strumentalista la neutralizza: se la
146
scienza smette tout court di parlare di quelle cose, o smette almeno di
considerare come vero il parlare di inosservabili (elettroni, geni ecc.),
il problema scompare.
Con questa mossa lo strumentalista ha acquistato sicurezza per
l’impresa scientifica ma l’ha pagata con l’interesse. La scienza
strumentalista non è più scienza interessante: essa rinuncia a quello
che c’è di più apprezzabile nel fare scienza, cioè alla comprensione di
quanto accade dietro le quinte nel regno degli inosservabili. Il mondo,
infatti, sia nei suoi aspetti palesi sia in quelli lontani dall’esperienza, o
è in un modo o è in un altro; e così per il passato: o è stato in un modo
o è stato in un altro. Ci deve pur essere qualcosa che causa il mondo
quale noi lo vediamo e gli oggetti osservabili devono pur essere
costituiti di qualcosa. In tutti questi casi, noi vogliamo essere
informati. Il traguardo della teorizzazione è, e dovrebbe essere, questo
genere di conoscenza contraria allo strumentalismo.
In altri termini, lo strumentalismo, chiedendoci di ignorare la
nostra curiosità riguardo all’inosservabile, ci chiede troppo: dalla
scienza ci si aspetta di più che andare alla deriva nelle secche
dell’adeguatezza empirica.
È chiaro come questo discorso severo sia del tutto a buon mercato.
La vera grande domanda è se l’aspetto interessante della scienza, cioè
le descrizioni reali del mondo inosservabile, sia recuperabile senza
un’eccessiva perdita di sicurezza. Se ci si aspetta che le teorie
debbano essere qualcosa di più che strumenti pedagogici e ausili per il
calcolo, cioè se ci si aspetta che le teorie debbano essere vere o false,
allora vale la domanda: la scienza ha la capacità di distinguere il vero
dal falso?
Le capacità responsabili della scienza
Si conceda che la scienza abbia l’obbiettivo di produrre
descrizioni vere sia dei fenomeni osservabili sia delle cause e dei
costituenti inosservabili. Questo è quanto fa l’empirista il quale, però,
prudentemente indica anche quali sono i problemi della
sottodeterminazione: tutta la conferma, cioè tutto il processo di
distinzione delle teorie che sono probabilmente vere da quelle che
sono probabilmente false, è seriamente equivoco e il controllo a
fronte del materiale probatorio è incapace di privilegiare una tra le
infinite teorie empiricamente equivalenti. L’empirista indica anche
quali sono i problemi della spiegazione: in generale, questa, a
147
giudicare dal contributo che essa dà alla comprensione delle cose, è
un evento pragmatico e psicologico, privo di aspetti che siano
chiaramente facilitatori della verità …
Dato che, rispetto al materiale probatorio, una teoria è
sottodeterminata, responsabilità vuole che verso gli inosservabili si tenga
un atteggiamento di agnosticismo. Secondo un gruppo dominante di
empiristi, le teorie devono realmente essere costruite come vere o false
circa il mondo inosservabile ma, secondo questi standard empiristi, la
credenza nell’esistenza o meno di entità inosservabili, e nella verità o
meno delle teorie che le riguardano, va sospesa. L’idea non è quella di
dire, ad esempio, che cose tipo i quark non ci sono, ma è piuttosto quella
di dire che non si sa, e di fatto non possiamo sapere, se tali cose ci sono
davvero. La teoria è, in effetti, o vera o falsa, solo che non lo si può
decidere. Un’affermazione sui quark o sugli atomi, per esempio, va oltre i
confini della giustificazione e quindi della conoscenza: benché vi siano
buoni motivi per usare la teoria come se fosse vera, non c’e alcun buon
motivo per credere che lo sia.
È del tutto corretto classificare questa posizione come agnosticismo
perché c’è una profonda analogia tra i problemi dell’esistenza delle entità
inosservabili e il problema dell’esistenza di Dio. Infatti, ci si può chiedere
se il parlare di Dio debba esser preso alla lettera oppure sia metaforico.
Riferirsi a Dio è solo un modo metaforico di parlare della natura e di tutte
le cose sorprendenti (e regolari) che accadono nel mondo? Parlare di Dio
è solo un modo di trattare le questioni altrimenti schiaccianti della vita,
della morte e della caducità? Se si pensa come se il progetto della nostra
esistenza avesse un autore e come se vi fosse un giudice delle nostre
azioni, allora un mucchio di cose acquistano senso e la vita ha uno scopo.
Concedendo ciò, un ateo potrebbe affermare che, se il discorso su Dio è
legittimo, questo dovrebbe però essere analizzato come discorso
strumentale. Non c’è niente che sia Dio così come non c’è niente che
siano molle attaccate agli atomi o linee di forza magnetica attorno alla
terra. Se, per organizzare i propri affari, si vuol pensare in questi termini,
d’accordo! Ci si renda conto, però, che Dio, linee di campo o quark sono
solo delle invenzioni alle quali è utile riferirsi. È in questo senso che si
riscontrano analogie tra ateismo e strumentalismo.
L’agnostico, più prudentemente, direbbe che, se l’esistenza di Dio
non può essere dimostrata, altrettanto vale per la non esistenza: non
essendoci alcuna prova chiara che una tale entità vi sia o che non vi
sia, entrambe le affermazioni, quella dell’ateo e quella del credente,
148
sono ingiustificate e, di fatto, ingiustificabili. Il problema va oltre i
confini della giustificazione e l’atteggiamento corretto, cioè quello
responsabile, è sospendere il giudizio; così, l’agnostico religioso ha
gli stessi standard di giustificazione dell’empirista scientifico.
Questo parallelo tra il ragionamento in religione e quello nella
scienza va tenuto d’occhio. Dio e gli elettroni sono entrambi
inosservabili. Si possono giustificare affermazioni sull’uno ma non
sull’altro? Ammesso che si possa dimostrare che gli elettroni
esistono, si potrebbe applicare lo stesso tipo di dimostrazione anche
all’esistenza di Dio? Perché no?
La questione del realismo scientifico si basa sulla distinzione tra
l’adeguatezza empirica di una teoria e 1a sua verità. È chiaro che si
tratta di aspetti distinti che significano cose distinte. La concezione
realista della scienza dice, però, che le due cose sono legate e a lei
spetta l’onere di provarlo. Non si sostiene certo che l’adeguatezza
empirica, cioè qualcosa che è direttamente controllabile, diventa tout
court il criterio della verità, la quale è, appunto, qualcosa di non
direttamente controllabile; l’adeguatezza empirica non esaurisce la
verità. Il realista afferma, piuttosto, che l’adeguatezza empirica è un
sintomo della verità, intendendo con ciò dire che la compatibilità con
le osservazioni è indicazione di una verità profonda, di una verità
sugli inosservabili.
La presentazione standard del legame tra adeguatezza empirica e
verità è nota come l’inferenza della spiegazione migliore …
Secondo la posizione realista, è possibile giustificare certe
affermazioni sugli inosservabili vedendo se queste affermazioni
funzionano nella spiegazione migliore dei fenomeni osservabili. In
altri termini, essere inosservabile non pone automaticamente qualcosa
al di là dei confini della conoscenza. Non si tratta, però, di assumere
in generale la credenza nelle entità inosservabili della scienza. Alcune
affermazioni sugli inosservabili, infatti, sono autorizzate mentre altre
non lo sono. Inoltre, la giustificazione della credenza in una teoria
può cambiare e la meccanica newtoniana ne è un esempio perfetto.
Per molto tempo, il successo esplicativo e predittivo della teoria,
assieme alla plausibilità interna di essa, ha giustificato la credenza
che la teoria fosse vera in generale. Ma le valutazioni, sia interne sia
esterne, cambiano e, oggi, la teoria è meno probabile che sia vera. Ciò
non vuol dire che sia cambiato il suo valore di verità: essa o è sempre
vera o è sempre falsa; ciò che cambia è l’autorizzazione a credere o
149
nell’uno o nell’altro senso. Una volta, sotto quelle date circostanze,
era giustificabile credere alla teoria; le circostanze, però, cambiano e
non c’è quindi alcuna garanzia che ciò che oggi è giustificato lo sia
per sempre. Il dovere della scienza, comunque, è fare il meglio che si
può …
Nessuno, se non il realista più sconsiderato, direbbe che la
spiegazione migliore è garantita per vera. L’inferenza si limita, in
effetti, a concludere che la spiegazione causale più feconda, cioè
quella che spiega più fenomeni con il minimo di bizzarrie teoriche e
che s’inserisce in una più ampia rete di rapporti tra teorie, è più
probabile che sia vera di una teoria che non fa niente di tutto ciò o lo
fa solo in parte. È improbabile che una congettura falsa ma adeguata
per la spiegazione di un fenomeno si accordi anche con altre teorie
scientifiche e contribuisca alla spiegazione di altri fenomeni e altre
teorie. L’esigenza della coerenza tra le teorie e l’obbiettivo della
coerenza massimale limitano il numero delle possibili raffigurazioni
teoriche del mondo e lo fanno nella direzione della verità.
L’antirealista, col suo porre la conoscenza entro gli stretti confini
dell’osservabilità, ignora tale aspetto della giustificazione e rende
perfino inutile, date varie teorie degli inosservabili, la valutazione
comparativa di quelli che hanno più probabilità d’essere veri.
La portata intuitiva dell’inferenza della spiegazione (causale) migliore
è la seguente: se le teorie non fossero vere, il loro successo esplicativo e
predittivo sarebbe un autentico miracolo. Sarebbe infatti un miracolo che
una descrizione fittizia quadrasse consistentemente con la realtà
dell’osservazione, ma sembra proprio che nella scienza miracoli di questo
genere accadano di continuo. Questo modo di leggere l’inferenza si
dimostra particolarmente efficace nei casi in cui svariate teorie
coincidano, in cui, cioè, si abbia una chiara coerenza tra esse. Si
considerino i primi esperimenti che furono fatti per misurare il numero di
Avogadro, ossia il numero delle molecole di una data sostanza contenute
in una mole. Chiaramente, questo numero si basa su una teoria
molecolare. Il mondo è come se ci fossero molecole, ma questo indica che
le molecole ci sono realmente? In questo caso si è autorizzati a rispondere
di sì. Il numero di molecole in una mole lo si può misurare in molti modi
diversi e le predizioni del numero possono esser generate da molte teorie
diverse: si possono usare tecniche chimiche, termodinamiche, elettriche,
meccanico-microscopiche (moti browniani) e ancora altre. Da tutti questi
esperimenti viene fuori lo stesso numero. Fra tutte queste diverse teorie
150
non ci sono particolari collusioni e, quindi, se non stessero misurando
qualcosa di reale, cioè le reali molecole, la loro concordia sarebbe un
miracolo sbalorditivo, un colpo di fortuna semplicemente pazzesco. Per
spiegare una tale coerenza tra teorie sviluppate l’una indipendentemente
dall’altra sembra proprio che si debba attribuire loro una base unitaria e
basarla sulla verità. Se le molecole esistono veramente e la teoria
molecolare dice la verità, allora ci si deve aspettare un accordo sul
numero di molecole in una mole.
C’è una forte analogia tra questo tipo di ragionamento e i metodi usati
per tradurre linguaggi sconosciuti o per i quali non si dispone di alcun
dizionario. Gli scienziati si trovano in una situazione simile a quella di chi
cerca di penetrare un messaggio cifrato o di tradurre antichi testi scritti in
linguaggi sconosciuti. L’obbiettivo, sia nel caso del traduttore, che ha a
che fare con parole stampate, sia nel caso dello scienziato, che ha a che
fare con osservazioni fondamentali dei fenomeni, è quello di cogliere il
significato del racconto di come è il mondo. Uno strumentalista direbbe
semplicemente che non c’è un unico significato del libro e, finché
un’interpretazione resta compatibile con i segni sulla pagina, ossia con le
osservazioni, essa vale come un’altra. Un empirista del genere che
c’interessa direbbe che c’è un unico autentico significato, che la trama del
racconto è in un senso o è in un altro ma che, senza la possibilità di
incontrare l’autore e senza il dizionario definitivo, non si potrà mai sapere
qual è. Il realista, come l’abbiamo caratterizzato sopra, è d’accordo che il
libro abbia un unico vero significato ma ritiene, inoltre, che il traduttore
può sperare di capirlo, così come la scienza può sperare di capire l’unica
vera descrizione del modo in cui è il mondo. Alcune affermazioni sulla
trama, alcune teorie, avranno più senso di altre e si armonizzeranno più
facilmente e cooperativamente con le affermazioni concernenti altri
aspetti di essa: sotto l’assunzione che il libro ha un senso globale, solo le
teorie che s’inquadrano in una descrizione coerente è probabile che siano
vere. Naturalmente, le letture coerenti sono molteplici e, quindi, vi sono
molteplici possibili significati ma, via via che un numero sempre
maggiore di parti del libro viene esaminato e un numero sempre maggiore
di pezzi della trama viene alla luce dell’interpretazione teorizzata dove
questi pezzi devono quadrare l’un l’altro, l’insistenza sulla coerenza potrà
restringere la collezione delle letture possibili nella direzione della verità.
151
6
SPIEGAZIONE E COMPRENSIONE
6.1 La nascita del dibattito nell’Ottocento
Nel corso dell’Ottocento le scienze umane (storiografia, psicologia, sociologia,
economia, antropologia…) si autonomizzano dalla filosofia e spesso acquisiscono una
dimensione sperimentale.
⇓
Si pone per la prima volta il problema del loro statuto metodologico e in particolare del
loro rapporto con le scienze naturali.
Su questo problema nell’Ottocento si contrappongono due punti di
vista:
MONISMO METODOLOGICO ⇒
POSITIVISMO
PLURALISMO METODOLOGICO ⇒
STORICISMO
153
6.1.1 Il Positivismo
Il termine fu coniato da Auguste Comte (1798-1857):
La conoscenza scientifica e filosofica deve essere ricondotta al dato positivo, ai fatti di
esperienza.
Nel positivismo rivive
progresso della scienza ⇒
l’ideale
illuministico
dell’illimitato
LEGGE DEI TRE STADI:
teologico, metafisico, positivo
Le scienze umane, in particolare la sociologia, devono raggiungere
anch’esse lo stadio positivo, il che implica l’uso dei metodi delle
scienze empiriche.
Non diversamente da Comte pensavano altri rappresentanti del
positivismo, come J.S. Mill (1806-1873) e H. Spencer (1820-1903).
154
6.1.2 Lo Storicismo
Nasce nel contesto culturale tedesco, come reazione al positivismo.
Storicismo = l’esistenza del soggetto umano è caratterizzata dal suo essere nella storia.
Le attività umane e i loro prodotti sono essenzialmente storici.
Talvolta questa corrente viene denominata anche:
Ermeneutica = l’esistenza del soggetto umano va compresa attraverso l’interpretazione
delle condizioni del suo essere e agire.
Principali rappresentanti:
W. Windelband, H. Rickert, W. Dilthey, M. Weber.
Gli storicisti sostengono il dualismo metodologico:
Windelband
Rickert
Metodo scienze naturali
Scienze nomotetiche
Spiegazione
(Erklären)
Metodo scienze umane
Scienze idiografiche
Comprensione
(Verstehen)
Scienze nomotetiche = scienze che fanno uso di leggi generali e
spiegano gli eventi naturali sussumendoli sotto leggi generali.
Scienze idiografiche = scienze che cercano di descrivere e
comprendere il singolare.
Spiegazione = riguarda gli eventi naturali, che vengono spiegati
tramite leggi.
Comprensione = riguarda gli eventi storici, che vanno spiegati
comprendendoli, ossia riconducendoli ai valori che esprimono.
155
ESEMPIO = Non posso spiegare la pratica sociale della difesa
delle donne e dei deboli senza ricollegarmi ai valori che questa
esprime (il codice d’onore della società cavalleresca).
⇓
RUOLO METODOLOGICO FONDAMENTALE ASSEGNATO
AI VALORI NELLA COMPRENSIONE.
WILHELM DILTHEY (1833-1911)
Diversità dell’oggetto di studio tra scienze naturali e umane
(scienze dello spirito).
⇓
SCIENZE NATURALI
SCIENZE DELLO
SPIRITO
Natura = realtà esterna all’uomo ⇒
si coglie attraverso l’osservazione sensibile.
Mondo storico-sociale = l’uomo vi appartiene ⇒
si coglie solo dall’interno, in modo immediato.
⇓
Categoria emotivo-conoscitiva fondamentale:
ERLEBNIS
(esperienza vissuta)= modalità di rapporto immediato con il mondo e
l’individualità altrui.
L’Erlebnis è strettamente connessa al comprendere: l’Erlebnis il
momento più concreto che rimanda a quello più astratto del
comprendere e viceversa.
156
6.2 Prospettive contemporanee
UNITÀ METODOLOGICA:
DUALISMO METODOLOGICO nella filosofia
analitica:
DUALISMO METODOLOGICO nella corrente
ermeneutica:
Neo-positivismo
Popper
Wittgenstein
von Wright
Heidegger
Gadamer
Ricoeur
6.2.1 Neo-Positivismo: tesi dell’unità del metodo scientifico
1. Unità giustificata dalla riduzione di tutti gli enunciati scientifici alla base fisicalistica.
2. Unità giustificata dall’uso di DN in tutte le scienze.
Hempel: DN è applicabile anche alle scienze umane, in particolare
alla storiografia. ⇒
C.G. Hempel, “The Function of General Laws in History”, The
Journal of Philosophy, 39 (1942), pp. 35-48.
⇓
È un requisito generale della spiegazione che un evento (azione) per essere spiegato
debba essere ricondotto a una legge generale
157
ESEMPIO:
B. CROCE, Il carattere della filosofia europea, Laterza, Bari 1945, p. 96
“E poiché gli uomini non abbandonano il vecchio se non quando
sorge il nuovo capace di sostituirlo e aborrono dall’anarchia come dal
vuoto, e poiché allora davano smarrimento e paura lo spezzettarsi
dell’Europa in chiese e sette contrastanti, e il traballante ordine
sociale, e la sregolatezza del costume, e la minaccia alla cultura, il
gesuitismo venne in soccorso e, col correggere, rinsaldare e riadattare
gli istituti della chiesa di Roma, fece argine alla rovina e molte cose
necessarie salvò, e questo servizio che rese alla civiltà europea gli
acquistò autorità e potere”.
SCHEMA DN NELLA SPIEGAZIONE STORICA
Legge universale
Gli uomini non abbandonano il vecchio se non quando sorge il
nuovo capace di sostituirlo e aborrono dall’anarchia come dal
vuoto.
C1
Il gesuitismo venne in soccorso e, col correggere, rinsaldare e
riadattare gli istituti della chiesa di Roma, fece argine alla rovina
e molte cose necessarie salvò.
C2
Allora davano smarrimento e paura lo spezzettarsi dell’Europa in
chiese e sette contrastanti, e il traballante ordine sociale, e la
sregolatezza del costume, e la minaccia alla cultura.
Conclusione
(Explanandum)
Il gesuitismo acquistò autorità e potere
158
6.2.2 Popper
Popper condivide la tesi dell’unità del metodo scientifico basata
sull’uso di DN.
Tuttavia Popper sottolinea
“la banalità delle leggi universali molto usate nelle spiegazioni
storiche: queste leggi sono di solito prive di interesse, per il semplice
fatto che nel contesto sono aproblematiche”.
E aggiunge:
“Non consideravo questa particolare analisi [uso di DN] come di
speciale importanza per la spiegazione storica, e quel che consideravo
importante ebbe ancora bisogno di qualche anno per maturare. Era il
problema della razionalità (o del principio di razionalità o del metodo
zero o ancora della logica della situazione).
Nelle mie più recenti formulazioni, questo metodo consiste nella
costruzione di un modello della situazione sociale, inclusa in modo
particolare la situazione istituzionale in cui un agente opera, in modo
tale da spiegare la razionalità (il carattere zero) della sua azione.
Questi modelli sono dunque ipotesi controllabili delle scienze sociali”.
(K.R. Popper, La ricerca non ha fine, pp. 120-121)
⇓
Unità del metodo scientifico basato sull’uso di congetture e
confutazioni
Che cos’è la logica situazionale?
“Per analisi situazionale intendo un certo tipo di spiegazione
tentativa o congetturale di qualche azione umana che si riferisce alla
situazione in cui l’agente si trova. Può essere una spiegazione storica:
possiamo forse voler spiegare come e perché una certa struttura di idee
sia stata creata. Bisogna riconoscere che nessuna azione creativa può
mai essere pienamente spiegata. Tuttavia, possiamo tentare,
congetturalmente, di dare una ricostruzione idealizzata della situazione
problematica in cui l’agente si è trovato, e rendere in quella misura
159
l’azione “comprensibile”, cioè adeguata alla situazione come egli la
vedeva. Questo metodo di analisi situazionale può essere descritto
come un’applicazione del principio di razionalità.
Sarebbe un compito per l’analisi situazionale distinguere fra la
situazione come la vedeva l’agente e la situazione quale era (ambedue,
ovviamente, congetturate). Così lo storico della scienza non solo tenta
di spiegare con l’analisi situazionale la teoria proposta da uno
scienziato come adeguata, ma può anche tentare di spiegare il
fallimento dello scienziato.
In altre parole, il nostro schema di soluzione dei problemi per
congetture e confutazioni o uno schema simile può essere usato come
una teoria esplicativa delle azioni umane, dato che possiamo
intepretare un’azione come un tentativo di risolvere un problema. Così
la teoria esplicativa dell’azione consisterà per lo più di una
ricostruzione congetturale del problema e del suo sfondo. Una teoria
di questo tipo può ben essere controllabile”.
Ho tentato di rispondere alla domanda: “Come possiamo
comprendere una teoria scientifica o migliorarne la nostra
comprensione?” E ho suggerito che la mia risposta, in termini di
problemi e situazioni problematiche, può essere applicata ben oltre le
teorie scientifiche. Possiamo, almeno in alcuni casi, applicarla a opere
d’arte: possiamo congetturare quale problema fosse quello dell’artista,
e possiamo riuscire ad avvalorare questa congettura con evidenze
indipendenti; e quest’analisi ci può aiutare a comprendere l’opera”
(Conoscenza oggettiva, pp. 235-236).
IN SINTESI:
– L’analisi situazionale non necessita in quanto tale di leggi di
copertura;
– la comprensione dell’azione si basa su un principio di razionalità
che non è una legge empirica, ma un postulato metodologico (di
origine weberiana: azione razionale rispetto allo scopo);
– falsificabile nel suo complesso è invece il modello situazionale; ⇒
160
– la logica situazionale consente di comprendere le azioni degli
agenti storico-sociali senza cadere nell’irrazionalismo e nel
soggettivismo (rischio implicito nelle posizioni degli storicisti).
“Collingwood dice chiaramente che la cosa essenziale nella
comprensione storica non è l’analisi della situazione in sé, ma il
processo mentale del rivivere dello storico, la ripetizione simpatetica
dell’esperienza originaria … Il mio punto di vista è diametralmente
opposto.
Considero il processo psicologico del rivivere inessenziale … Ciò
che considero essenziale non è il rivivere ma l’analisi situazionale.
L’analisi della situazione da parte dello storico è la sua congettura
storica …
Il compito dello storico è perciò ricostruire la situazione
problematica come appariva all’agente di modo che le azioni
dell’agente divengano adeguate alla situazione.
Questo assomiglia molto al metodo di Collingwood, ma elimina
dalla teoria della comprensione e dal metodo storico precisamente
l’elemento soggettivo … che per Collingwood e la maggior parte degli
altri teorici della comprensione (ermeneutici) è il punto saliente”
(Popper, Conoscenza oggettiva, pp. 244-5).
161
6.2.3 Wittgenstein e la psicologia
Opere principali di Wittgenstein sulla filosofia della psicologia:
Osservazioni sulla filosofia della psicologia, Adelphi, Milano 1990
Ricerche filosofiche, 2. parte.
Wittgenstein rifiuta il modello causale della mente e delle proprietà
psicologiche.
Perché?
Perché mette sullo stesso piano le spiegazioni solo in apparenza
causali del senso comune con le vere spiegazioni causali che
istituiscono connessioni nomiche tra eventi.
Le spiegazioni di senso comune non sono causali, perché fanno
piuttosto appello a motivi o a ragioni, che seguono una logica molto
diversa da quella delle cause.
⇓
Secondo Wittgenstein le spiegazioni psicologiche non sono
spiegazioni causali, ma spiegazioni teleologiche o finali.
6.2.4 G.H. von WRIGHT
v. Wright, allievo di Wittgenstein, sviluppa le intuizioni del maestro
formulando il modello pratico-inferenziale di spiegazione dell’azione.
Questo si basa sullo schema, di origine aristotelica, dell’inferenza
pratica.
Inferenza pratica = modalità particolare di inferenza in base alla quale
è possibile spiegare l’azione di un agente a partire dall’intenzionamento di
determinati fini, cioè dal fatto che l’agente li riconosce come degni di
esseri perseguiti e quindi aspira a realizzarli.
La mediazione tra questi fini e l’azione avviene attraverso una serie di
catene inferenziali, di cui ognuna porta alla scelta, in dipendenza dalle
particolari condizioni in cui l’agente si trova ad operare, dei mezzi più
opportuni per raggiungere quei fini.
v.Wright asserisce:
L’inferenza pratica è, rispetto alla spiegazione teleologica e alla spiegazione
nella storia e nelle scienze sociali, ciò che il modello per sussunzione teorica
è rispetto alla spiegazione causale e alla spiegazione nelle scienze naturali.
162
MODELLO PRATICO-INFERENZIALE
È costituito da due elementi, l’IPI e l’IPR.
INFERENZA PRATICA INTENZIONALE (IPI)
Premessa intenzionale
Premessa epistemica
Il soggetto x vuole realizzare lo stato di cose p
Il soggetto x è convinto che per realizzare p occorra
preparare lo stato di cose q
Conclusione intenzionale
Il soggetto x vuole q
INFERENZA PRATICA RISOLUTIVA (IPR)
Premessa intenzionale
Il soggetto x vuole realizzare lo stato di cose q
Condizione di non impedimento
Il soggetto x non è impedito a realizzare q
Conclusione fattuale
Il soggetto x fa q
INFERENZA PRATICA = IPI + IPR
Premessa intenzionale
Il soggetto x vuole realizzare lo stato di cose p
Premessa epistemica
Il soggetto x è convinto che per realizzare p
occorra preparare lo stato di cose q
Conclusione intenzionale
Il soggetto x vuole q
Condizione di non impedimento
Il soggetto x non è impedito a realizzare q
Conclusione fattuale
Il soggetto x fa q
163
ANALOGIE E DIFFERENZE TRA N-D E IPR
Premessa maggiore
N-D
IPR
Legge empirica
universale
Principio analitico
(postulato di
razionalità)
Connessione tra
antecedente e
conseguente
Tra causa ed
effetto ⇒
Tra mezzo e fine
intenzionato
⇒
Tra stato naturale e
stato naturale
Tra stato mentale e
stato naturale
ESEMPIO:
N-D
∀x(Ax→Bx)
Se uno studia viene promosso
Ac
Carlo studia
Bc
Carlo viene promosso
IPR
∀x(V(x, essere promosso) e C(x, per
essere promosso occorre studiare) e ◊(x,
studiare) → studia x)
V(c, essere promosso)
C(c, per essere promosso occorre studiare)
◊(c, studiare)
Carlo studia
Nell’esempio concernente N-D, si spiega perché Carlo viene
promosso: viene promosso perché se uno studia viene promosso e
Carlo studia.
Nell’esempio concernente IPR si spiega perché Carlo studia: perché
Carlo vuole essere promosso, crede che per essere promossi occorra
studiare e nessuno gli impedisce di farlo. La premessa maggiore
dell’argomentazione non è una legge, ma un postulato generale che fa
riferimento alla logica del volere e del credere e ai contenuti astratti
che compaiono nello scopo degli operatori del volere e del credere.
164
PARTE ANTOLOGICA
G.H. von WRIGHT, Spiegazione e comprensione
Bologna, 1977, pp. 17-55
1. Si può dire che la ricerca scientifica, vista in una prospettiva
molto ampia, presenta due aspetti principali. Uno è l’accertamento e
la scoperta di fatti, l’altro è la costruzione di ipotesi e di teorie. Questi
due aspetti dell’attività scientifica sono, talvolta, chiamati,
rispettivamente, scienza descrittiva e scienza teorica.
La costruzione di teorie serve a due scopi principali: prevedere
l’accadimento di eventi o risultati di esperimenti, e cosí anticipare
nuovi fatti, e spiegare, o rendere intelligibili, fatti che sono stati già
registrati.
Queste classificazioni sono utili in prima approssimazione, ma non
devono essere intese troppo rigidamente. La scoperta e la descrizione
di fatti non possono sempre essere concettualmente distinte da una
teoria relativa a questi fatti, e costituiscono spesso un passo
importante verso la comprensione della loro natura. Previsione e
spiegazione, d’altra parte, sono, talvolta, considerate come processi
fondamentalmente identici del pensiero scientifico, e differiscono
soltanto, per cosí dire, nella prospettiva temporale …
Alcuni problemi concernenti l’interrelazione dei vari concetti
appena menzionati – descrizione, spiegazione, previsione e teoria –
possono essere utilmente considerati alla luce della storia del
pensiero.
In questo campo, si possono distinguere due tradizioni principali,
che differiscono circa il modo d’intendere le condizioni che una
spiegazione deve soddisfare per essere scientificamente accettabile.
Esse sono chiamate, da alcuni autori, tradizione aristotelica e
tradizione galileiana. I nomi suggeriscono che la prima ha radici
molto antiche nella storia intellettuale dell’uomo, mentre la seconda è
di origine relativamente recente …
Quanto alle concezioni della spiegazione scientifica, il contrasto
fra le due tradizioni viene, usualmente, caratterizzato come
165
spiegazione causale versus spiegazione teleologica. Il primo tipo di
spiegazione è detto anche meccanicistico, mentre il secondo è
denominato finalistico. La tradizione galileiana, nella scienza, si
diffonde parallelamente all’affermazione del punto di vista
meccanicistico-causale, nei tentativi dell’uomo di spiegare e
prevedere i fenomeni, mentre la tradizione aristotelica si diffonde
parallelamente ai tentativi dell’uomo di rendere i fatti
teleologicamente o finalisticamente comprensibili.
Non tenterò di esaminare lo sviluppo delle due tradizioni dalle loro
origini, né di valutarne la relativa importanza per l’avanzamento della
scienza. Limiterò il mio aperçu al periodo che va, all’incirca, dalla
metà del diciannovesimo secolo fino ai nostri giorni, con particolare
riguardo agli sviluppi piú recenti. Inoltre, mi limiterò alla
metodologia, intendendo con ciò la filosofia del metodo scientifico.
2. Il grande risveglio, o rivoluzione, nelle scienze naturali durante
la fine del Rinascimento e l’età barocca fu, in certa misura,
uguagliato, nel diciannovesimo secolo, dallo studio sistematico
dell’uomo, della sua storia, dei suoi linguaggi, mores e istituzioni
sociali …
Dato che la scienza naturale era ormai concettualmente ben
fondata e gli studi umanistici con intenti scientifici erano appena
all’inizio, risultava naturale che una delle questioni primarie della
metodologia e filosofia della scienza del diciannovesimo secolo
concernesse la relazione tra questi due rami della ricerca empirica. Le
posizioni piú salienti espresse riguardo a tale questione possono venir
connesse con le due principali tradizioni che abbiamo distinto nel
pensiero metodologico.
Una posizione riguarda la filosofia della scienza rappresentata,
soprattutto, da Auguste Comte e John Stuart Mill, e usualmente detta
positivismo. Il nome fu coniato da Comte, ma, se usato con la dovuta
cautela, è adeguato per indicare anche la posizione di Mill e un’intera
tradizione di pensiero che va da Comte e Mill non solo fino ai nostri
giorni, ma anche, risalendo all’indietro nel corso del tempo, fino a
Hume e alla filosofia dell’Illuminismo.
Una tesi fondamentale del positivismo è il monismo metodologico,
o l’idea dell’unità del metodo scientifico rispetto alle diversità
dell’oggetto della ricerca scientifica. Una seconda tesi è l’opinione
che le scienze naturali esatte, in particolare la fisica matematica,
forniscano un ideale o modello metodologico, in base al quale
166
misurare il grado di sviluppo e di perfezione di tutte le altre scienze,
comprese quelle dell’uomo. Una terza tesi, infine, è una peculiare
concezione della spiegazione scientifica. Si tratta di una spiegazione
«causale» in senso lato. Più specificamente, essa consiste nella
sussunzione di casi individuali sotto leggi generali di natura,
comprese quelle relative alla «natura umana», assunte in via ipotetica.
Nei confronti delle spiegazioni finalistiche, ossia dei tentativi di
rendere conto dei fatti in termini di intenzioni, scopi, fini, la posizione
del positivismo consiste, o nel loro rifiuto in quanto non scientifiche,
o nel tentativo di mostrare che, se debitamente purificate dalle scorie
«animistiche» o «vitalistiche», esse possono venir trasformate in
spiegazioni causali.
Per il rilievo attribuito all’unità metodologica, all’ideale
matematico della scienza, e all’importanza delle leggi generali per la
spiegazione, il positivismo si collega con quella più lunga e
ramificata tradizione della storia delle idee che qui ho chiamato
galileiana.
3. Un’altra posizione concernente il rapporto fra scienze della
natura e scienze dell’uomo si configura come reazione al positivismo.
La filosofia antipositivistica della scienza, che si affermò verso la fine
del diciannovesimo secolo, esprime un orientamento molto più
diversificato ed eterogeneo del positivismo. Il nome «idealismo»,
talvolta usato per caratterizzarlo, è appropriato solo per alcuni aspetti,
mentre il nome ermeneutica mi sembra piú adeguato. Tra i
rappresentanti di questa corrente di pensiero, vi sono alcuni eminenti
filosofi, storici e scienziati sociali tedeschi. I più noti sono, forse,
Droysen, Dilthey, Simmel e Max Weber. Vicini a questi sono
Windelband e Rickert, della scuola neo-kantiana del Baden. Quanto
all’italiano Croce e all’eminente filosofo inglese della storia e
dell’arte Collingwood, si può dire che essi appartengono all’ala
idealistica di questo orientamento antipositivistico in metodologia.
Tutti questi pensatori respingono il monismo metodologico del
positivismo e negano che il modello fornito dalle scienze naturali
esatte costituisca l’unico e supremo ideale di comprensione razionale
della realtà. Generalmente, essi mettono in rilievo una dicotomia fra
quelle scienze che, come la fisica, la chimica o la fisiologia, hanno di
mira generalizzazioni riguardo a fenomeni riproducibili e prevedibili,
e quelle che, come la storia, intendono cogliere le caratteristiche
individuali e uniche dei propri oggetti. Windelband coniò il termine
167
«nomotetico» per le scienze che ricercano leggi, e il termine
“idiografico” per lo studio descrittivo dell’individualità.
Gli antipositivisti attaccarono anche la concezione positivistica
della spiegazione. Sembra sia stato lo storico e filosofo della storia
tedesco Droysen ad aver introdotto, per primo, una dicotomia
metodologica che ha avuto grande influenza, e che egli indicò con i
termini spiegazione (explanation) e comprensione (understanding), in
tedesco Erklären e Verstehen. Scopo delle scienze naturali è, secondo
Droysen, spiegare; scopo della storia è, invece, comprendere i
fenomeni che rientrano nel suo dominio. Queste idee metodologiche
furono, poi, sviluppate sistematicamente da Wilhelm Dilthey. Per
indicare l’intero dominio del metodo della comprensione, egli usò il
nome Geisteswissenschaften. In italiano, esso viene tradotto con
«scienze dello spirito»; in inglese, invece, non vi è un termine
equivalente adeguato, ma si dovrebbe ricordare che, originariamente,
quel nome fu coniato allo scopo di tradurre in tedesco il termine
inglese moral science (scienza morale).
Nel linguaggio comune, non è presente la distinzione netta fra i
termini «spiegare» e «comprendere». In pratica, si può dire che ogni
spiegazione, sia essa causale, o teleologica, o di qualche altro genere,
accresce la nostra comprensione della realtà. «Comprensione», però, è
circondata da un alone psicologico che «spiegazione» non possiede.
Questo carattere psicologico fu messo in rilievo da numerosi
metodologi antipositivisti del diciannovesimo secolo, forse con
maggior forza da Simmel, il quale riteneva che la comprensione, in
quanto metodo peculiare delle scienze umane, fosse una forma di
empatia (ted. Einfühlung), o ri-creazione nella mente dello studioso
dell’atmosfera intellettuale, dei pensieri, sentimenti e motivazioni
propri degli oggetti del suo studio.
Tuttavia, non è solo per questo carattere psicologico che la
comprensione può venir distinta dalla spiegazione. A differenza della
spiegazione, la comprensione è connessa anche con l’intenzionalità.
Si comprendono le mete e gli scopi di un agente, il significato di un
segno o di un simbolo, il senso culturale di un’istituzione sociale o di
un rito religioso. Questa dimensione intenzionalistica, o, per così dire,
semantica della comprensione svolge un ruolo di primo piano nelle
discussioni metodologiche più recenti.
Se si accetta una distinzione metodologica fondamentale fra le
scienze naturali e le Geisteswissenschaften storiche, sorge,
168
immediatamente, la questione di quale posto occupino le scienze
sociali e comportamentali. Queste scienze sono nate, in gran parte,
sotto l’influenza contrastante delle tendenze positivistiche e
antipositivistiche del secolo scorso. Pertanto, non deve sorprendere
che esse siano diventate un campo di battaglia per i due opposti
orientamenti nella filosofia del metodo scientifico. L’applicazione di
metodi matematici all’economia politica e ad altre discipline sociali
era un’eredità dell’Illuminismo settecentesco, che incontrò il favore
dei positivisti dell’Ottocento. Lo stesso Comte coniò il termine
“sociologia”, per indicare lo studio scientifico della società umana.
Dei due grandi sociologi a cavallo del secolo, Emile Durkheim era
essenzialmente un positivista, almeno per quanto concerne la sua
metodologia, mentre in Max Weber una certa inclinazione
positivistica coesiste con il rilievo accordato alla teleologia
(zweckrationales Handeln) e alla comprensione empatetica
(verstehende Soziologie) …
5. L’apogeo del positivismo, nella metà del diciannovesimo
secolo, fu seguito da una reazione antipositivistica, negli anni che
vanno dalla fine del secolo scorso all’inizio del nostro. Ma, tra le due
guerre mondiali, il positivismo si affermò nuovamente, piú vigoroso
che mai. Il nuovo movimento fu chiamato neo-positivismo, o
positivismo logico e, in seguito, anche empirismo logico. L’attributo
“logico” fu aggiunto per indicare la componente che il rinato
positivismo aveva attinto dai nuovi sviluppi della logica formale …
Il positivismo logico degli anni Venti e Trenta fu, per così dire,
l’affluente principale, per quanto certamente non il solo, dal quale si è
diramata la più ampia corrente di pensiero filosofico oggi
comunemente nota come filosofia analitica. Sarebbe affatto scorretto
indicare tutta la filosofia analitica come un ramo del positivismo. Si
può, comunque, affermare che, fino agli anni piú recenti, i contributi
della filosofia analitica alla metodologia e filosofia della scienza
rientrano nello spirito del positivismo, se per “positivismo” s’intende
una filosofia che sostiene il monismo metodologico, l’ideale
matematico di perfezione e una concezione della spiegazione
scientifica come sussunzione sotto teorie. A sostegno di questa
affermazione si possono addurre molte ragioni. Una riguarda la
biforcazione della filosofia analitica in due correnti principali.
La prima è la corrente nota come filosofia linguistica o filosofia
del linguaggio comune, che prese le mosse dalla filosofia dell’ultimo
169
Wittgenstein ed ebbe il suo centro propulsore nella Oxford degli anni
Cinquanta. Per quanto riguarda questa corrente, si potrebbe dire che
essa tende, per ragioni intrinseche, ad opporsi al positivismo, sebbene
tale tendenza sia rimasta latente fino agli anni più recenti. Per ragioni
facilmente intuibili, la filosofia del linguaggio ordinario si è
interessata relativamente poco della filosofia della scienza.
La seconda corrente rappresenta un caso completamente diverso.
Essa è l’erede dell’atomismo di Russell, del primo Wittgenstein e del
neopositivismo del Circolo di Vienna. Non v’è dubbio che questa
corrente si sia occupata principalmente di filosofia della scienza; per
la tradizione stessa cui si ricollega, essa è caratterizzata da
un’inclinazione positivistica intrinseca. Con il positivismo
ottocentesco essa condivide, inoltre, un’implicita fiducia nel
progresso reso possibile dall’avanzamento della scienza, e un
atteggiamento razionalistico di “ingegneria sociale” nei confronti dei
problemi umani.
I filosofi analitici della scienza, per molto tempo, si sono occupati,
quasi esclusivamente, delle questioni relative ai fondamenti della
matematica e alla metodologia delle scienze naturali esatte. Ciò si
spiega, in parte, con l’incidenza avuta dalla logica (matematica) su
questo tipo di filosofia. Gradualmente, tuttavia, i filosofi analitici
hanno cominciato ad interessarsi alla metodologia delle scienze
comportamentali e sociali e della storia, in seguito al sempre più
massiccio impiego di metodi esatti in queste scienze. Con questo
spostamento di interesse, la filosofia analitica della scienza ha fatto il
suo ingresso nel tradizionale campo di battaglia tra metodologia
positivistica e antipositivistica, e le vecchie controversie si sono
riaccese nuovamente verso la metà del nostro secolo. La scintilla che
riaccese il dibattito fu una versione moderna della vecchia teoria
positivistica della spiegazione scientifica.
6. La discussione dei problemi riguardanti la spiegazione entro la
tradizione della filosofia analitica ricevette una spinta decisiva
dall’articolo, ormai classico, di Carl Gustav Hempel, The Function of
General Laws in History, pubblicato nel “Journal of Philosophy” nel
1942. Esponenti del positivismo logico e altri filosofi analitici
avevano già avanzato concezioni della spiegazione simili a quelle di
Hempel. Essenzialmente, tutte queste concezioni sono varianti della
teoria della spiegazione esposta dai classici del positivismo, in
particolare da Mill.
170
Ad un esame retrospettivo, sembra quasi un’ironia della sorte che
la formulazione piú completa e lucida della teoria positivistica della
spiegazione sia stata enunciata in relazione alla disciplina, per
l’analisi della quale tale teoria è, per ragioni ovvie, meno adeguata,
ossia la storia. Tuttavia, è proprio per questo motivo che l’articolo di
Hempel ha provocato tante discussioni e controversie.
La teoria hempeliana della spiegazione è nota come Covering Law
Model (or Theory) …
Il modo fondamentale di controllare l’asserita validità universale
della teoria della spiegazione per sussunzione consiste nell’accertare
se il modello mediante leggi generali vale anche per le spiegazioni
teleologiche.
Si potrebbe dividere il dominio tradizionalmente rivendicato dalla
teleologia in due sottodomini. Il primo riguarda le nozioni di
funzione, tendenza a uno scopo e totalità organiche (“sistemi”); il
secondo concerne, invece, le idee di proposito e intenzionalità.
Funzione e tendenza a uno scopo figurano, prevalentemente, nelle
scienze biologiche, mentre intenzionalità compare nelle scienze
comportamentali e sociali e nella storiografia. Ma i domini della
biologia e della scienza comportamentale coincidono per molti
aspetti, e, ovviamente, lo stesso vale per i domini di funzione,
tendenza, scopo e totalità, da una parte, e di proposito e intenzionalità,
dall’altra. Distinguerli può, nondimeno, risultare utile.
Nel 1943, un anno dopo la pubblicazione del saggio di Hempel,
apparve un importante articolo di Rosenblueth, Wiener e Bigelow, dal
titolo Behavior, Purpose, and Teleology. Esso rappresenta un’altra
pietra miliare nella storia della teoria della spiegazione. Gli autori lo
scrissero indipendentemente da Hempel, ma il loro contributo, visto
in una prospettiva storica, dovrebbe essere considerato come un
tentativo di estendere alla biologia e alla scienza comportamentale la
concezione «causalistica» e, con essa, quella per sussunzione teorica,
della spiegazione.
Una nozione chiave nell’interpretazione “causale” della tendenza a
uno scopo proposta dai tre autori dell’articolo è quella di retroazione
(feedback) negativa. Un sistema, entro il quale un fattore-causa, per
esempio un convettore termico, produce un effetto, per esempio
l’aumento della temperatura in una stanza, può essere connesso con un
altro sistema, tale che un “difetto” nel funzionamento del primo sistema,
per esempio un abbassamento della temperatura al di sotto di un certo
171
grado, produce una «correzione» nell’attività del suo fattore-causa, per
esempio incremento nell’attività dei convettori termici. Il fattore-effetto
del secondo sistema conferisce cosí una “parvenza di teleologia”
all’attività del fattore-causa del primo sistema. Eppure, entrambi i sistemi
operano in conformità a leggi causali; in entrambi i sistemi gli effetti sono
spiegati sulla base di “condizioni iniziali», costituite dai fattori-causa,
mediante leggi generali che connettono le cause con i loro effetti.
Gli autori dell’articolo avanzavano la tesi che la tendenza a uno
scopo, in generale, può essere spiegata mediante una concatenazione
siffatta di sistemi causali. Un sistema dotato di meccanismo di
retroazione si dice omeostatico o autoregolantesi. Tali meccanismi
sono caratteristici, soprattutto, degli organismi viventi. Per esempio,
il controllo della temperatura nei vertebrati è un caso di «convettore
termico” provvisto di termostato.
L’analisi della teleologia proposta da Rosenblueth, Wiener e
Bigelow sembra concordare con una concezione della spiegazione
scientifica per sussunzione teorica …
Lo studio generale del controllo dei sistemi e dei meccanismi di
guida, di cui l’omeostasi è solo un esempio, è noto come cibernetica.
Essa ha avuto un’influenza enorme, per non dire rivoluzionaria, sulla
scienza moderna, particolarmente sulla biologia e sull’ingegneria. Il
contributo che essa ha dato alla scienza degli anni Cinquanta è
paragonato da alcuni, per l’incidenza che ha avuto, alla rivoluzione
provocata, in fisica, dalle teorie della relatività e dei quanti nelle
prime decadi del secolo. A mio avviso, l’importanza di tale contributo
alla metodologia risiede nel fatto che ha determinato una cospicua
affermazione, nello spirito della tradizione galileiana, del punto di
vista “causalistico” e “meccanicistico”. Inoltre, esso ha rafforzato
alcuni assunti principali della filosofia positivistica della scienza, in
particolare la concezione unitaria del metodo e la teoria della
spiegazione per sussunzione. Da parte antipositivistica si nega tutto
questo, e si fanno rilevare le grandi differenze esistenti fra sistemi
cibernetici e sistemi meccanicistici di tipo più tradizionale e più
semplice. Indubbiamente, tali differenze esistono e sono ravvisabili,
per esempio, nella differenza tra lo schema che spiega il
funzionamento dei meccanismi cibernetici di guida e di controllo, e lo
schematismo più elementare del modello hempeliano della
spiegazione per sussunzione. Tuttavia, tali differenze riguardano
essenzialmente, a mio avviso, il grado di complessità e di
172
sofisticatezza logica dei modelli, e non i principi basilari della
spiegazione, o la concezione della natura delle leggi scientifiche …
9. Fino a che punto si spingono le spiegazioni cibernetiche nella
sfera della teleologia? Si estendono al di 1à dei confini della biologia
entro le scienze dell’uomo? Si potrebbe rispondere a quest’ultima
domanda facendo rilevare la profonda influenza esercitata dal
pensiero cibernetico sull’economia, la psicologia sociale, e anche
sulla teoria del diritto. Ma questa risposta non sarebbe molto
illuminante. Non ci dice, infatti, se l’impiego, in questi campi, di idee
mutuate dalla cibernetica ci fornisce spiegazioni conformi al modello
della sussunzione teorica. Quanto a me, presumo che, nel complesso,
la risposta debba essere negativa. Se questo è vero, e se, come penso,
le spiegazioni cibernetiche dei sistemi omeostatici, e simili, nella
scienza biologica si conformano al modello della sussunzione teorica,
allora la “cibernetica” della scienza sociale differisce da quella
impiegata in biologia piú di quanto potrebbe suggerire l’assimilazione
delle varie attività di ricerca sotto questa comune denominazione.
Penso che le spiegazioni cibernetiche conformi al modello della
spiegazione per sussunzione riguardino essenzialmente quegli aspetti
della teleologia che sono privi di intenzionalità. Tra le cose cui si
attribuisce intenzionalità, le azioni occupano un posto di primo piano.
Il controllo decisivo della validità universale della teoria della
spiegazione per sussunzione consiste nel mostrare che essa è in grado
di rendere conto della spiegazione di azioni.
Molti filosofi analitici, forse la maggioranza, ritengono che la
teoria superi tale controllo. Le azioni sono suggerite da motivi; la
forza dei motivi consiste nel fatto che gli agenti hanno la tendenza a
seguire modelli caratteristici di comportamento; tali modelli
(disposizioni) forniscono le “leggi” che connettono i motivi all’azione
nel caso individuale. Questa è un’esposizione consapevolmente
ipersemplificata di un’idea che, con varianti piú o meno sofisticate,
continua a esercitare una forte attrattiva sull’immaginazione
filosofica. Mi riferisco all’idea che le azioni abbiano cause, e, quindi,
ad una posizione deterministica riguardante la vecchia questione della
“libertà della volontà”.
Tuttavia, tra i filosofi analitici vi è anche chi si oppone a questa
idea della validità del modello di spiegazione dell’azione per
sussunzione teorica.
173
Un fronte di opposizione è rappresentato dai filosofi (analitici) che
si occupano di metodologia della storia …
[Per Dray], la ragione per cui le spiegazioni storiche,
normalmente, non fanno riferimento a leggi non risiede nel fatto che
tali leggi sono così complesse e poco note che dobbiamo
accontentarci di darne solo un abbozzo, e nemmeno nel fatto che sono
troppo banali per essere menzionate. Secondo Dray, la ragione è
semplicemente che le spiegazioni storiche non si basano in alcun
modo su leggi generali.
Si consideri, per esempio, l’asserzione che Luigi XIV morì
impopolare, perché aveva perseguito indirizzi politici nocivi agli
interessi nazionali della Francia. Come potrebbe un teorico della
spiegazione per sussunzione sostenere che, nella spiegazione di questo
fatto, deve essere implicita una legge? Una legge generale, asserente
che tutti i governanti che … diventano impopolari, fornirebbe un
modello di spiegazione per sussunzione del caso in questione, solo se
ad essa fossero aggiunte condizioni limitative e qualificanti, in misura
tale che, alla fine, essa risulterebbe equivalente all’asserzione che tutti i
governanti che perseguono politiche esattamente identiche a quelle di
Luigi XIV, in condizioni esattamente simili a quelle esistenti in Francia
e negli altri paesi interessati dalle politiche di Luigi XIV, diventano
impopolari. Se l’esatta similarità delle politiche e delle condizioni
esistenti è specificata in termini non generici, questa asserzione non è in
alcun modo una … “legge”, dato che necessariamente essa si riferisce a
un solo caso, quello di Luigi XIV. Se le condizioni di similarità sono
specificate – ciò che risulterebbe difficilmente possibile fare in pratica –
avremmo una legge genuina, ma l’unico caso di questa legge sarebbe
proprio quello che si suppone che essa “spieghi”. Pertanto, in entrambi i
casi, l’asserzione della legge non sarebbe che una riaffermazione di ciò
che è già stato affermato, ossia che la causa dell’impopolarità di Luigi
XIV negli ultimi anni della sua vita fu la sua disastrosa politica estera.
Le critiche mosse dal Dray al ruolo delle leggi generali nelle
spiegazioni storiche conducono così a un completo rifiuto del modello
mediante spiegazione per sussunzione …
Per Dray, spiegare un’azione consiste nel mostrare che
quell’azione era la cosa più appropriata o razionale da farsi
nell’occasione considerata. Questo tipo di spiegazione viene chiamato
da Dray spiegazione razionale …
174
L’opera di Elizabeth Anscombe, Intention, appare nello stesso
anno del libro di Dray. Fu in quest’opera che la nozione di
intenzionalità assunse quel ruolo di rilievo, che poi mantenne nei
successivi dibattiti sulla filosofia dell’azione tra i filosofi analitici.
Per quanto non si occupi direttamente della teoria della
spiegazione, il libro della Anscombe ha fornito importanti contributi
anche in questo campo …
[In particolare], la Anscombe ha richiamato l’attenzione sul
peculiare carattere logico del ragionamento, che, nella terminologia
tradizionale, è chiamato sillogismo pratico.
L’idea risale ad Aristotele, e, a detta della Anscombe, è una delle
sue scoperte migliori, per quanto sia poi andata perduta nella filosofia
posteriore, che la fece oggetto di continui fraintendimenti … Un
modo per ricostruire l’idea principale contenuta nella nozione in
esame è il seguente: il punto di partenza, o la premessa maggiore, del
sillogismo menziona una cosa cui si aspira, o un fine dell’azione; la
premessa minore collega un’azione con questa cosa, all’incirca in una
relazione mezzo-fine; la conclusione, infine, consiste nell’uso di
questo mezzo per ottenere quel fine. Così, come in un’inferenza
teorica l’affermazione delle premesse conduce necessariamente
all’affermazione della conclusione, in un’inferenza pratica
l’accettazione delle premesse implica un’azione conforme ad esse …
Il ragionamento pratico riveste enorme importanza per la
spiegazione e la comprensione dell’azione. È un assunto del presente
lavoro che il sillogismo pratico fornisca alle scienze dell’uomo una
cosa di cui la loro metodologia è stata a lungo carente: un modello di
spiegazione che, a buon diritto, costituisce un’alternativa ben precisa
al modello per sussunzione teorica sotto una legge generale. In
termini generali, il sillogismo pratico è, rispetto alla spiegazione
teleologica e alla spiegazione nella storia e nelle scienze sociali, ciò
che il modello per sussunzione teorica è rispetto alla spiegazione
causale e alla spiegazione nelle scienze naturali.
175
EDUCatt
Ente per il Diritto allo Studio Universitario dell’Università Cattolica
Largo Gemelli 1, 20123 Milano - tel. 02.7234.22.35 - fax 02.80.53.215
e-mail: [email protected] (produzione); [email protected] (distribuzione)
web: www.educatt.it/libri
ISBN: 978-88-8311-372-7
ANTONELLA CORRADINI
EPISTEMOLOGIA
DELLE SCIENZE UMANE
9 788883 113727 >
Euro 10,00
Scarica