Marco Messeri LA FILOSOFIA DELLA SCIENZA NEL NOVECENTO

annuncio pubblicitario
Marco Messeri
LA FILOSOFIA DELLA SCIENZA NEL NOVECENTO
Sebbene tutta la storia della filosofia sia costellata da riflessioni intorno al legame che si
stabilisce tra esperienza e teoria nel corso dell’indagine scientifica, la filosofia delle scienze
empiriche propriamente detta si organizza come disciplina filosofica essenzialmente nel XIX
secolo. L’obiettivo è quello di ricostruire la struttura del metodo scientifico. Ci sono dei punti
che sono ritenuti assodati. Tutti coloro che partecipano al dibattito sanno bene che del metodo
scientifico fanno parte sia la costruzione di teorie sia la ricerca empirica. Tutti sanno che il
cuore della ricerca empirica è dato dalla produzione consapevole di dati osservativi attraverso
la realizzazione di esperimenti, esperienze artificiali provocate appositamente per rispondere a
questioni poste dalla riflessione teorica. Danno per acquisito che i dati osservativi prodotti
dalla ricerca empirica sono il criterio ultimo di controllo per la validità delle teorie
scientifiche. Tutti concordano che nessuna teoria scientifica può vantare una certezza a priori
e che le teorie scientifiche, prima di potere essere considerate certe, definitive conoscenze,
vivono a lungo come semplici ipotesi, magari altamente confermate dai dati osservativi, ma in
linea di principio rivedibili o suscettibili di posteriore confutazione.
Queste convinzioni condivise sono, però, ben lungi da risolvere ogni questione circa la
struttura del metodo scientifico. Molte domande restano senza precisa risposta. Una dopo
l’altra entreranno nella discussione dei filosofi della scienza. Eccone alcune:
•
C’è un modo per distinguere i veri dati osservativi dalle loro interpretazioni fuorviate
da pregiudizi teorici?
•
C’è una procedura basata sui dati osservativi capace di guidarci nella costruzione di
spiegazioni teoriche almeno plausibili (induzione)?
•
Ci sono dei principi noti relativi alla struttura generale della natura (certezze di filosofia
della natura, p.es. il meccanicismo) suscettibili di limitare la libertà d’invenzione di
teorie che vogliano essere plausibili?
•
L’apparato matematico e simbolico della teoria deve avere un’interpretazione
all’interno di qualche teoria più generale capace di fornire un’immagine complessiva
della natura o può essere autosufficiente nella descrizione del proprio campo d’indagine
particolare?
1
•
L’apparato matematico e simbolico della teoria deve avere un’interpretazione completa
o è sufficiente che l’abbiano le sue proposizioni suscettibili di controllo attraverso i dati
osservativi?
•
C’è una procedura di controllo basata sui dati osservativi capace di provare la verità di
una teoria?
•
C’è una procedura di controllo basata sui dati osservativi capace di provare la falsità di
una teoria?
•
Una teoria confutata deve essere abbandonata?
•
Ci sono delle procedure di controllo capaci di trasformare ipotesi teoriche confermate
sufficientemente a lungo in vere e proprie conoscenze (certezze) scientifiche?
La storia della filosofia della scienza comincia nel XIX secolo, soprattutto quando si
propone con chiarezza l’alternativa tra l’induttivismo e la teoria del metodo ipoteticodeduttivo. La prima posizione epistemologica si caratterizza per la convinzione che sia
possibile delineare una procedura metodica (l’induzione) attraverso la quale ricavare una
conclusione teorica intorno alle cause o alla spiegazione di un determinato fenomeno dai dati
registrati empiricamente circa il fenomeno stesso. La seconda posizione invece si caratterizza
per l’idea che la teoria intorno alle cause del fenomeno, o che comunque cerca di spiegare il
fenomeno, non giunge al termine del processo d’indagine come conclusione, ma viene sempre
formulata nel suo corso, o magari all’inizio, come ipotesi, e che tutta l’indagine ulteriore
consiste appunto nel tentativo di provare, confermare, o viceversa confutare l’ipotesi stessa,
raccogliendo dati intorno al fenomeno, per stabire se essi risultino concordanti o discordanti
con le conseguenze deducibili dall’ipotesi.
L’induttivismo di Mill
Economista e filosofo inglese, John Stuart Mill (1806-1873) è figlio di James Mill, tra i
principali discepoli di Bentham e i maggiori protagonisti dell'utilitarismo britannico. Compie
studi scientifici in Francia e poi giuridici in Inghilterra. Lavora per la Compagnia delle Indie
fino al 1858, quando essa viene sciolta. Con il Sistema di logica deduttiva e induttiva (1843),
ripensando sotto l'influenza di Comte la tradizione empirista inglese, egli è il massimo
campione dell'induttivismo nel XIX secolo.
Mill si riallaccia alle teorizzazioni secentesche di Bacone e di Boyle intorno al metodo
scientifico. Egli rifiuta innanzitutto ogni valore euristico al ragionamento deduttivo. Ri2
prendendo un'antica critica, che risale almeno a Sesto Empirico, nega che il sillogismo possa
accrescere la nostra conoscenza. Come può infatti essere certo delle premesse di un sillogismo
(p.es. del fatto che tutti gli uomini siano mortali) chi è ancora incerto della sua conclusione
(p.es. del fatto che il duca di Wellington sia mortale)? Il punto è che la conoscenza della
verità delle premesse del sillogismo presuppone la conoscenza della verità della sua
conclusione. Non può avere un valore euristico dunque l'inferenza deduttiva dal generale al
particolare, ma solo quella «transduttiva» o «associativa» dal particolare al particolare: la sola
giustificazione che abbiamo per attenderci un particolare evento futuro è rappresentata dai
particolari eventi passati che abbiamo osservato. La legge generale è soltanto un espediente
linguistico per conservare in maniera economica la memoria di un insieme di dati di fatto
particolari ed esprimere l'attesa di altrettanto particolari casi futuri. L'induzione non è altro
che il procedimento di costruzione di questa legge generale. Mill ritiene di potere indicare
quattro schemi di inferenza induttiva: quello della concordanza, quello della differenza, quello
delle variazioni concomitanti, e quello dei residui:
CONCORDANZA
caso circostanze antecedenti
fenomeni
1
ABEF
abe
2
ABC
acd
3
ABCE
afg
quindi A è probabilmente la causa di a
DIFFERENZA
caso
circostanze antecedenti
fenomeni
1
ABC
a
2
BC
-
quindi A è parte indispensabile della causa di a
VARIAZIONI CONCOMITANTI
caso circostanze antecedenti
fenomeni
1
A+ BC
a+ b
2
A° BC
a° b
3
3
A– BC
a– b
quindi A è probabilmente la causa di a
RESIDUI
caso circostanze antecedenti
1
fenomeni
ABC
abc
ma B è la causa di b, e C è la causa di c
quindi A è la causa di a
Mill sostiene inoltre che la possibilità dell'induzione si fonda sulla validità del principio
di «uniformità della natura», e, rifiutando ogni giustificazione aprioristica di questo, afferma
che la nostra conoscenza dell'uniformità della natura si basa essa stessa su di una generalissima induzione. Questo principio è infatti, per lui, il risultato di un’induzione che presuppone il buon esito di un gran numero di induzioni antecedenti: così come dalla
constatazione del verificarsi di un certo fenomeno in alcuni casi di un determinato genere, noi
siamo autorizzati a concludere che quel fenomeno si deve verificare in tutti i casi di quel
genere, altrettanto dalla constatazione del fatto che il comportamento della natura è risultato
uniforme in alcuni casi, scoperti appunto con induzioni particolari antecedenti, noi siamo
autorizzati a concludere che il comportamento della natura è in generale uniforme. Per Mill, il
rapporto che sussiste tra il principio dell'uniformità della natura, le premesse di un'induzione e
la conclusione di questa, è dunque paragonabile al rapporto che sussiste tra la premessa
maggiore di un sillogismo, la minore e la conclusione di tale sillogismo:
a) come la verità della premessa maggiore del sillogismo non può essere scoperta se non
si è prima scoperto che l'inferenza dalla premessa minore alla conclusione del sillogismo è
legittima, così la verità del principio dell'uniformità della natura non può essere scoperta se
prima non si è scoperto che è legittima l'induzione da una selezione di casi essenzialmente
simili alla totalità dei casi essenzialmente simili dello stesso genere;
b) d'altra parte, come la verità della premessa maggiore del sillogismo è condizione
necessaria per la validità dell'inferenza dalla premessa minore alla conclusione, così la verità
del principio dell'uniformità della natura è condizione necessaria per la validità di una
qualsiasi induzione.
4
Se Mill è senza dubbio l'esponente dell'empirismo inglese del XIX secolo più nettamente schierato in difesa del metodo induttivo, non va d'altra parte dimenticato che anch'egli
si trova costretto a riconoscere un qualche spazio al metodo ipotetico-deduttivo: nel caso dei
fenomeni dipendenti dal concorso di una molteplicità di cause, Mill infatti ammette che
nessuno degli schemi dell'inferenza induttiva è capace di determinare la spiegazione cercata, e
deve concludere che lo scienziato non ha altro mezzo che quello di formulare delle ipotesi e
sottoporle poi al controllo sperimentale.
La teoria del metodo ipotetico-deduttivo
L'importanza e la stessa possibilità di un ragionamento induttivo erano già contestate
nell'epistemologia del XIX secolo, e perfino nell'epistemologia di ascendenza più
schiettamente empiristica. In particolare, già il maggiore filosofo della scienza dei primi
decenni del XIX secolo, l’astronomo, matematico e chimico inglese John Herschel (17921871), pur assumendo anch'egli la filosofia di Bacone come principale punto di riferimento,
aveva sostenuto che il ragionamento induttivo è solo una delle vie che conducono alla
scoperta delle leggi naturali, e non la più importante. Egli osservava che se la legge di Boyle
relativa ai rapporti tra volume, pressione e temperatura dei gas è stata scoperta grazie alla
generalizzazione di dati osservativi, la gran parte delle leggi naturali è stata scoperta invece
attraverso un diverso percorso metodico: non grazie all'induzione, ma grazie all'elaborazione
di ipotesi e al loro successivo controllo per mezzo dell'esperienza. Non sempre, cioè, né
perlopiù, gli scienziati partono dall'osservazione. Più spesso essi immaginano le loro ipotesi di
spiegazione: partono dunque dalle idee. Non c'è, d'altra parte, secondo Herschel, un metodo
per elaborare ipotesi: elaborare ipotesi è un'attività creativa non disciplinabile tramite regole.
Suscettibile di regolamentazione metodica, per Herschel, non è infatti la scoperta, ma la
giustificazione dei risultati scientifici: non la produzione dell'ipotesi, ma la valutazione della
sua accettabilità. A suo giudizio, l'accordo con le osservazioni è il più importante criterio di
accettabilità delle ipotesi scientifiche, e alcune istanze di conferma hanno maggior significato
di altre: la conferma dell'ipotesi nei casi estremi, la conferma nei casi inattesi, la conferma in
un esperimento cruciale, e cioè, secondo la terminologia baconiana, in un esperimento capace
di discriminare tra ipotesi alternative.
Su posizioni non lontane, quasi negli stessi anni, era stato William Whewell (17941866), scienziato inglese dai vasti interessi. Egli aveva usato largamente il termine induzione,
5
ma, al pari di Herschel, non credeva che il lavoro scientifico potesse essere regolamentato da
un metodo. Ciò che egli chiamava induzione infatti era la sovrapposizione di un particolare
modello concettuale alle osservazioni preliminari compiute intorno al fenomeno studiato:
precisamente la creazione di un'ipotesi capace di spiegare il fenomeno. E, come Herschel,
Whewell negava che la creazione di un'ipotesi potesse essere disciplinata da regole. A suo
avviso l'ipotesi non può, in particolare, essere ricavata dalle osservazioni. Essa, invece, può e
deve essere controllata sulla base delle osservazioni. Epistemologi come Herschel e Whewell
propongono dunque, in sostanza, proprio il metodo che, col nome di ipotetico-deduttivo, nel
XX secolo sarebbe stato contrapposto al metodo induttivo: la procedura consistente
nell'elaborare liberamente e creativamente una ipotesi di spiegazione per il fenomeno naturale
indagato, nel ricavarne poi deduttivamente delle previsioni suscettibili di essere controllate
sulla base dell'esperienza, e quindi, infine, nel realizzare sperimentalmente i controlli
immaginati, confutando o confermando l'ipotesi.
A maggior ragione posizioni schiettamente induttivistiche come quelle espresse da Mill
non restano incontestate nella filosofia della scienza della seconda metà del secolo. In
Inghilterra il logico ed economista William Stanley Jevons (1835-1882) polemizza
esplicitamente con Mill, e, contro la pretesa di questi di codificare un ragionamento induttivo
capace di condurre alla scoperta delle leggi della natura, ripropone il metodo ipoteticodeduttivo di Herschel e di Whewell. In Francia il fisiologo Claude Bernard (1813-1878)
afferma che il solo metodo scientifico è quello sperimentale, ma, in consonanza con le
posizioni di Jevons, insiste sul fatto che l'esperimento presuppone la precedente elaborazione
di un'ipotesi, e nega che l'elaborazione di ipotesi possa mai essere codificata attraverso regole
e sottratta alla creatività della fantasia umana. In America il filosofo Charles Sanders Peirce
(1839-1914) riconosce che la parte più significativa delle ricerche scientifiche non può
avvalersi né del metodo deduttivo né del metodo induttivo, bensì del procedimento della
«abduzione» consistente appunto nel passaggio dal dato all’ipotesi che ne dà la spiegazione
più soddisfacente. Il suo prodotto è un’ipotesi: un assunto cioè che non pretende la certezza,
come fa la conclusione deduttiva; ma che, a differenza di questa, può trascendere quanto è
contenuto nel mero dato, pretendere un valore predittivo, e dunque un interesse pratico.
La vittoria del metodo ipotetico-deduttivo sarà indiscutibile. Nessun filosofo nel XX
secolo riterrà seriamente possibile escogitare un meccanismo inferenziale capace di estrarre
una conoscenza delle leggi generali della natura dalla constatazione dei casi particolari
6
appresi per mezzo dell'osservazione. Ne è prova il fatto che i filosofi che riterranno ancora
legittimo parlare di induzione, come in particolare gli empiristi logici, impiegheranno il
concetto di induzione in un senso sostanzialmente nuovo: nessuno di essi riterrà comunque
possibile una scoperta induttiva delle leggi naturali.
La sfida pragmatista e convenzionalista
Non tutta la filosofia della scienza condivide però una visione realista della funzione
delle teorie, e non la condivide neppure tutta la filosofia empiristica contemporanea. Tra la
fine del XIX secolo e l'inizio del XX, anche per effetto del generale discredito che investe
l'idea di un meccanismo induttivo per la scoperta delle leggi naturali, si fa sempre più viva la
consapevolezza del fatto che le teorie scientifiche non si risolvono in un insieme di dati
osservativi, che esse includono una componente creativa, e che tale componente creativa trae
il suo valore dall'importanza pragmatica che dimostra, ovvero dalla sua capacità di facilitare
le nostre operazioni. Per alcuni pensatori, sulla scia di Darwin e delle sue stesse osservazioni
epitemologiche, l'importanza pragmatica delle teorie si identifica col loro potere di
incrementare la nostra generale capacità di sopravvivenza e di dominio della natura; per altri,
più limitatamente, col potere di migliorare la nostra capacità di manipolare e organizzare gli
stessi dati osservativi in maniera economica.
La convinzione che il valore conoscitivo delle teorie scientifiche si identifichi con la
capacità che esse ci danno di operare nel mondo è al centro della proposta filosofica di quella
corrente originariamente americana dell'empirismo che si è autodefinita attraverso l'etichetta
di pragmatismo. Peirce ne è l'iniziatore. Ricevuta una solida formazione matematica e
scientifica, si dedica agli studi di filosofici, rivolgendo il suo interesse soprattutto alla logica.
Ha solo incarichi annuali di logica e di filosofia della scienza presso la John Hopkins
University di Baltimora, il Lowell Istitute di Boston e l'Università di Harvard, ma esercita una
decisiva influenza sulla filosofia e sulla cultura americane. Ne Il fissarsi della credenza
(1877) e Del modo di chiarire le nostre idee (1878), Peirce affronta il problema filosofico
della conoscenza a partire dalla condizione dell'uomo in quanto essere caratterizzato da
bisogni e impegnato in un costante tentativo di adattarsi all'ambiente esterno e di adattare
questo alle proprie esigenze. La ricerca di conoscenza muove per lui da una situazione iniziale
di «dubbio», che è come tale una situazione di insoddisfazione, e mira al conseguimento di
una situazione di «credenza» la più stabile, rassicurante e soddisfacente possibile. Spiegare il
7
ruolo della conoscenza nella vita umana, secondo il punto di vista di Peirce, non è chiarire il
rapporto tra la mente umana e la verità, come ha cercato di fare tutta la tradizione della
metafisica, bensì descrivere le diverse modalità di «fissazione della credenza»: non
impegnarsi nel tentativo disperato di chiarire la relazione tra un soggetto sovrasensibile e una
realtà assoluta ultrafenomenica, ma descrivere le diverse forme di adattamento mentale di un
essere corporeo intelligente al suo ambiente naturale e artificiale. Una tale impresa si risolve
in una analisi della vita umana, condotta dal punto di vista che Kant aveva chiamato
«pragmatico» in contrapposizione al punto di vista «pratico», e cioè dal punto di vista
adattivo e privo di presupposizioni etiche dell'interesse per la sopravvivenza e la crescente
sicurezza. Ciò che Peirce battezza «pragmatismo» è appunto la scelta filosofica di concentrare
la ricerca epistemologica sul valore pragmatico delle idee, allo scopo di permettere una
comprensione concreta del loro significato, accantonando gli approcci metafisici, che con la
loro pretesa di afferrare un significato delle idee più profondo di quello pragmatico, si
arrestano viceversa alla mera veste verbale delle idee stesse e generano solo una pseudocomprensione.
Peirce indica quattro metodi di fissazione della credenza e li ordina secondo le loro
possibilità di successo pragmatico: il rudimentale «metodo della tenacia», consistente nel
tenersi saldi alle credenze acquisite qualunque cosa accada, che evidentemente espone l'uomo
al pericolo dell'azione inefficace o addirittura controproducente; il «metodo dell'autorità»,
consistente nella imposizione delle proprie credenze agli altri, metodo che ha consentito in
passato a grandi religioni di conservarsi a lungo, ma non ha potuto e non potrà mai garantire
una stabilità definitiva; il «metodo dell'a priori», consistente nel rafforzamento delle credenze
per mezzo della pura argomentazione intellettuale, tipico della metafisica e, come la storia di
questa dimostra, incapace di fornire quel consenso generale che è condizione necessaria per la
piena stabilizzazione di una credenza; il «metodo scientifico», e cioè, come si è visto, per
Peirce, il metodo ipotetico-deduttivo, che consente la maggiore stabilità e continuità possibile
al pensiero umano, precisamente grazie al fatto di non irrigidirlo in particolari teorie, ma di
lasciarlo aperto alla revisione permanente sulla base del confronto con i fatti empirici.
Le scelte filosofiche di Peirce trovano in America e poi anche in Europa, soprattutto in
Italia, numerosi seguaci. L'orientamento pragmatista tuttavia va presto incontro a
differenziazioni e finisce col dividersi sulla stessa interpretazione dei propri assunti basilari.
Una prima importante differenza appare con lo statunitense William James (1842-1910).
8
Professore all'Università di Harvard, è tra i promotori della psicologia sperimentale negli
USA. Ad essa dedica i suoi autorevoli Principi di psicologia (1890). Come è evidente
soprattutto da La volontà di credere (1897), Pragmatismo (1907) e Il significato della verità
(1909), James intende il pragmatismo come una specifica concezione della verità: lo identifica
con la tesi che la verità di una credenza coincide con la capacità di operare con successo che
questa credenza assicura al suo portatore, e ne trae esplicitamente il corollario che la verità
non è una proprietà permanente della credenza, bensì un carattere altrettanto transitorio del
successo operativo stesso. L'impostazione di James suscita le obiezioni di numerosi filosofi,
che, persuasi della perfetta concepibilità di idee vere, ma incapaci di produrre conseguenze
operative, e di idee false, ma praticamente utilizzabili in specifici contesti operativi, accusano
tale impostazione di risolversi nella introduzione di un nuovo concetto di verità, piuttosto che
nel chiarimento del concetto consueto, e suscita il dissenso di alcuni tra gli stessi pragmatisti.
Tra questi deve essere ricordato in special modo l’italiano Giovanni Vailati (1863-1909), che
alla lettura del pragmatismo come nuova teoria della verità contrappone l'interpretazione del
pragmatismo come metodo filosofico finalizzato al dissolvimento delle questioni insolubili e
sterili: per Vailati il pragmatista non è colui che afferma la coincidenza di verità e utilità,
bensì colui che rifiuta di attribuire un diverso significato alle idee che hanno identici corollari
operativi e di misurarsi con domande pragmaticamente indecidibili.
In America il pragmatismo acquisirà nella prima metà del XX secolo una vera e propria
egemonia filosofica soprattutto grazie all'influenza di John Dewey (1859-1952). Muovendo
dal punto di vista di Peirce, infatti, Dewey elabora una generale concezione «strumentalistica»
dei compiti del sapere che rigetta il dogmatismo caratteristico di buona parte della tradizione
filosofica, individua nel metodo ipotetico-deduttivo della scienza la più rilevante alternativa a
tale dogmatismo filosofico e legge nella democrazia la traduzione dello spirito antidogmatico
della scienza nel campo della politica.
Al diffondersi della concezione strumentalista in Europa contribuisce, oltre che il
pragmatismo americano, perlomeno anche un'altra fonte. Si tratta del pensiero del tedesco
Friedrich Nietzsche (1844-1900). Nietzsche infatti, negli stessi anni in cui Peirce affronta il
problema della fissazione delle credenze, sviluppa una aggressiva polemica contro il culto
positivistico per i fatti empiricamente accertati. Il positivista chiede di restare ai fatti perché
desidera raggiungere una visione imparziale: condanna la sovrapposizione delle
interpretazioni ai dati oggettivi. Nietzsche ribatte che «non ci sono fatti, bensì solo
9
interpretazioni». Le constatazioni passive infatti non contengono indicazioni sul corso futuro
degli eventi e sono dunque sterili. Le idee che abbiano una importanza non possono perciò
risolversi in constatazioni. Esse sono viceversa sempre interpretazioni dei fatti constatati alla
luce del nostro interesse vitale per il rafforzamento della nostra esistenza: consideriamo
credibili quelle che favoriscono il nostro controllo sugli eventi, errate quelle che lo
ostacolano. La verità assoluta, al di là dei nostri interessi vitali, è solo una chimera della
metafisica.
Su posizioni radicali è anche il tedesco Hans Vaihinger (1852-1933), che, nel suo
Filosofia del 'come se' (1911), sulla scorta di Nietzsche, interpreta la scienza come un sistema
di «finzioni» convenzionali accettabili solo in ragione del successo operativo che ci
consentono, e dunque perché agiscono come se fossero vere, e non perché siano vere in
qualche senso metafisico. Vaihinger definisce la propria filosofia del «come se» un
«idealismo positivistico». Su posizioni radicali è anche, in Italia, il filosofo, storico e critico
letterario Benedetto Croce (1866-1952), che descrive le nozioni teoriche della scienza
naturale come «pseudo-concetti» astratti dotati di un valore solo «economico» e utilitario.
Croce trae da questa visione delle nozioni scientifiche il rifiuto del valore conoscitivo delle
scienze naturali. Se ne serve per giustificare la concezione dichiaratamente neohegeliana
dell'esclusivo valore conoscitivo del concetto filosofico, concetto che, in quanto «universale
concreto» non distinguibile dalla comprensione dell'individuo, a suo avviso viene peraltro a
identificarsi col giudizio storico.
In una versione complessivamente meno estrema l'idea del valore pragmatico delle
teorie si diffonde anche in Francia. È vero che Edouard Le Roy (1870-1954) in Scienza e
filosofia (1899-1900) si spinge fino a sostenere che le teorie scientifiche hanno un carattere
convenzionale: che esse dunque valgono come un reticolo di definizioni implicite dei concetti
che introducono, e non come un insieme di enunciati intorno alla realtà; che la verità attribuita
loro dalle scienze è una semplice verità per convenzione decisa alla luce della utilità che le
teorie rivelano. Il punto, per Le Roy, è che i fatti stessi che la teoria spiega sono strutturati dai
concetti di questa e dipendono dunque dalle sue convenzioni.
Le posizioni di Le Roy vengono tuttavia fatte oggetto di una contestazione puntuale e
acuta da parte del filosofo e matematico francese Henri Poincaré (1854-1912). In La scienza e
l'ipotesi (1902), Il valore della scienza (1905) e Scienza e metodo (1909), Poincaré riconosce
senz'altro la presenza nelle teorie scientifiche di una componente convenzionale, ma nega che
10
possa essere giudicata convenzionale la scienza nel suo insieme, e che possa essere giudicata
convenzionale la verità dei fatti con cui la scienza si confronta. Egli riflette in particolare sul
significato dell'emergere delle geometrie non-euclidee. La geometria non è una scienza
empirica. Essa non tratta dei «solidi naturali» che troviamo nel mondo materiale intorno a noi
e che l’esperienza ci mostra più o meno perfettamente. Essa tratta di «solidi ideali»
creativamente immaginati dalla mente umana e rigorosamente, ma anche convenzionalmente,
definiti da un preciso insieme di assunti fondamentali, che possono essere deduttivamente
sviluppati in una serie di teoremi. Alle scienze naturali riesce comodo prevedere l’aspetto e il
comportamento dei corpi reali, sia pure in maniera approssimativa, come se essi si
identificassero con i solidi ideali della geometria. E per questa operazione semplificatrice
possono servirsi sia della tradizionale geometria euclidea sia di una nuova geometria noneuclidea. Ma la geometria prescelta non è «vera» o «falsa», ma solo più o meno «comoda»
per la semplificazione del lavoro scientifico. Tutte le geometrie esistenti sono cornici
compatibili con i fatti fisici, nessuna è resa obbligatoria dai dati e nessuna è da essi proibita.
Una geometria dunque è effettivamente solo un insieme di «convenzioni», da valutarsi
pragmaticamente per l’idoneità maggiore o minore ad affrontare e organizzare i dati empirici
disponibili. Tuttavia, secondo Poincaré, vi sono dei dati ed essi preesistono alle convenzioni
della scienza. È vero, come afferma Le Roy, che gli scienziati parlano dei fatti all'interno delle
maglie del loro proprio sistema concettuale, e che questo sistema incorpora sempre delle
convenzioni. Ma ciò significa solo che i «fatti bruti» che preesistono a ogni convenzione
scientifica sono sempre riformulati alla luce di specifiche convenzioni teoriche, e che solo
grazie a questa riformulazione divengono «fatti scientifici», ovvero fatti incorporati nella
pratica scientifica. Non significa che i fatti si risolvano nel reticolo linguistico convenzionale
adottato per parlarne. Lo scienziato non crea i fatti.
Su posizioni moderate, analoghe a quelle di Poincaré, è un altro importante pensatore
francese, Pierre Duhem (1861-1916), che, da storico della scienza prima ancora che da
filosofo, dedica al ruolo che la teoria svolge nella scienza il suo La teoria fisica (1904-6).
Duhem rifiuta l'idea che la teoria fisica abbia la funzione di spiegare le regolarità empiriche
constatate, rivelandoci la realtà soggiacente al mero ordine fenomenico. La teoria fisica è
piuttosto un sistema concettuale convenzionale che serve per organizzare nella maniera più
comoda e semplice la nostra conoscenza delle regolarità empiriche stesse. Sono sempre
possibili più organizzazioni concettuali diverse dei medesimi dati osservativi. La scelta
11
dell'una o dell'altra contiene sempre un elemento arbitrario. Ma il criterio ultimo è pur sempre
rappresentato dai fatti che constatiamo. Duhem fa notare d'altronde che il controllo empirico
di una teoria è comunque impresa ineliminabilmente complessa. Nessuna teoria è sufficiente
da sola per ricavare conseguenze osservative e nessuna dunque può essere controllata
separatamente. Una teoria fisica può essere messa a confronto con i fatti solo presupponendo
la validità di un insieme variamente ampio di altre teorie: teorie geometriche sulla struttura
dello spazio, criteri di conguenza che correlino i valori geometrici delle lunghezze a precise
operazioni di misura effettuate con regoli materiali, teorie ottiche o meccaniche che
giustifichino i nostri assunti sul funzionamento degli strumenti di osservazione e di misura, e
ci garantiscano la correttezza dei dati che ricaviamo da essi, altre teorie dinamiche che ci
permettano di calcolare l'effetto dei fattori di disturbo, degli attriti, della resistenza del mezzo,
etc. Non è quindi mai corretto dire che una determinata esperienza contrasta in particolare con
una determinata teoria, ma solo che essa contrasta con una delle teorie che sono state
impiegate nella interpretazione dell'esperienza stessa. L'esperienza quindi è il criterio ultimo,
ma essa non ci insegna mai come dobbiamo modificare le nostre teorie, e neppure quale delle
nostre teorie noi dobbiamo più determinatamente modificare.
Nel mondo di lingua tedesca, non lontano da questa visione convenzionalistica
moderata della teoria scientifica è l’austriaco Ernst Mach (1838-1916). Fisico, filosofo e
storico della scienza, nella Storia critica dello sviluppo della meccanica (1883) elabora una
critica dei fondamenti metafisici della fisica classica, influenzando la formazione del punto di
vista scientifico che avrebbe poi condotto Einstein a costruire la teoria della relatività. Egli
insiste sulle convenzioni che reggono la codificazione newtoniana della fisica, e sostiene che
la maturazione della scienza naturale conduce ad accantonare progressivamente concetti
metafisici come quelli di causa e di sostanza, segnati dalla pretesa di spiegare la realtà
fenomenica, scoprendone il presunto fondamento soggiacente, a beneficio del meno
impegnativo concetto di «funzione», che ci consente di registrare puramente e semplicemente
le interdipendenze constatabili tra le grandezze empiriche. Non lontano da Poincaré e Duhem,
in Analisi delle sensazioni (1886) e in Conoscenza ed errore (1905), Mach afferma che lo
scopo della teoria non sia quello di spiegare i fatti constatati, bensì quello di organizzare nella
maniera più comoda e semplice i dati stessi, e afferma che scopo della scienza è di
«economizzare esperienze mediante la riproduzione e l'anticipazione di fatti nel pensiero».
12
Le posizioni di Mach intorno allo scopo della teoria fisica sono accolte dall’austriaco
Ludwig Wittgenstein (1889-1951) nel Tractatus logico-philosophicus (1921-22). Secondo il
Tractatus le leggi generali a priori della fisica, a differenza delle leggi particolari, che sono
meri compendi di osservazioni, hanno un valore convenzionale: proposizioni come la legge di
causalità, il principio di minima azione, gli assiomi della meccanica non sono infatti veri
enunciati dotati di un significato autonomo - solo le proposizioni che enunciano fatti lo sono -,
bensì regole che ci consentono di raccogliere i fenomeni fisici nella maniera più consona alle
nostre esigenze pragmatiche. Tali proposizioni sono come il reticolo di cui ci serviamo per
indicare le parti di una certa superficie. Le maglie del reticolo potrebbero avere forme diverse,
a seconda delle nostre esigenze: è comunque chiaro che la forma delle maglie non cambia
l'aspetto della superficie che noi ci proponiamo di descrivere, ma solo rende più o meno
agevole la descrizione. Allo stesso modo le teorie non devono essere interpretate come
generalissime descrizioni della realtà, bensì come strumenti deduttivi per inferire dalle
osservazioni passate le previsioni circa il futuro.
Intanto, nuove formidabili domande vengono sollecitate dagli sviluppi della ricerca
fisica generati dallo studio dei fenomeni elettromagnetici. È lo stesso quadro d’insieme
rappresentato dai principi di Newton e dalla geometria di Euclide che risulta scosso e da
rivedere. La stessa «fisica classica», come si comincia ora a chiamarla, pare superata.
La crisi della fisica classica
Il britannico Thomas Young (1773-1829), nel 1801, e poi il francese Augustin Fresnel
(1788-1827), nel 1815, studiano i fenomeni di interferenza luminosa ricorrendo all’ipotesi
ondulatoria. Per la scienza successiva è un fatto acquisito che la luce è costituita non da
corpuscoli, come aveva ipotizzato Isaac Newton (1642-1727), ma da onde, come aveva invece
ipotizzato Christiaan Huygens (1629-1695). In coerenza con l’ipotesi, gli scienziati
introducono il concetto di «etere luminoso» per indicare il mezzo elastico nel quale si
propagherebbero le onde luminose.
Intanto è diventato chiaro come elettricità e magnetismo siano solo due aspetti del
medesimo fenomeno. Il danese Hans Christian Oersted (1777-1851) nel 1820 nota che un ago
magnetizzato viene deviato dal filo attraversato da corrente elettrica posto nelle vicinanze. Nel
1821 il britannico Michael Faraday (1791-1867) pubblica una memoria in cui mostra come
una corrente elettrica posta sotto l’azione di un magnete riesca a generare un movimento di
13
rotazione. Infine, nel 1825 il britannico William Sturgeon (1783-1850) costruisce la prima
elettrocalamita. È Faraday nel 1851 il primo a interpretare le linee di forza generate dalle
forze elettromagnetiche come realtà fisiche, aprendo così la strada al concetto di campo: una
realtà non materiale capace di occupare con continuità lo spazio vuoto di materia e di
esercitare delle forze esattamente come potrebbe fare la materia stessa. Si comincia a parlare
di «etere elettromagnetico» per indicare il mezzo non materiale portatore del campo.
Nel 1865 il fisico scozzese James Clerk Maxwell (1831-1879) pubblica le quattro
equazioni che descrivono il campo elettromagnetico. La sua teoria richiede che il campo
elettromagnetico si propaghi per mezzo di onde e permette di ricavare la velocità costante con
cui tale onde si dovrebbero propagare (c): circa 300 mila km al secondo. Data la concordanza
con le misure intorno alla velocità della luce, ipotizza che le onde luminose siano appunto
onde elettromagnetiche e identifica etere luminoso ed etere elettromagnetico. Nel 1886 il
tedesco Heinrich Rudolf Hertz (1857-1894) conferma la teoria, producendo con mezzi
elettromagnetici delle onde che si comportano secondo le previsoni di Maxwell.
Comincia la ricerca intorno all’etere elettromagnetico. La teoria afferma che le onde
elettromagnetiche, e in particolare quelle luminose, si propagano con velocità costante c solo
rispetto all’etere elettromagnetico. Misurata rispetto ad altri sistemi di riferimento la velocità
di propagazione dovrebbe risultare sensibilmente diversa. Così, tale etere elettromagnetico
pare un buon candidato per incarnare la realtà fisica “davvero in quiete”, costituente il sistema
di riferimento “naturale” e “privilegiato” per descrivere i fenomeni naturali: lo «spazio
assoluto» postulato da Newton. Attraverso la misurazione della velocità della luce in direzioni
diverse dovrebbe essere possibile evidenziare il moto della Terra rispetto all’etere in quiete
assoluta (o, in altri termini, l’apparente «vento d’etere» che si immagina sembrerebbe soffiare
contro la Terra, a causa del moto assoluto di quest’ultima rispetto all’etere stesso).
Nel 1887 i fisici statunitensi Albert Michelson (1852-1931) e Edward Morley (18381923) tentano di evidenziare il moto della Terra rispetto all’etere attraverso un interferometro
a bracci ortogonali: se la luce si propaga con velocità diverse rispetto a un sistema di
coordinate solidale con la Terra, quando viaggia in direzioni diverse, il fatto risulterà dal
comparire di un fenomeno di interferenza tra raggi che hanno viaggiato in direzioni tra loro
perpendicolari. Il fenomeno di interferenza, tuttavia, non compare affatto, comunque
l’apparato venga orientato. Il «vento d’etere» non sembra esistere. Tutto si verifica proprio
come se la Terra fosse in quiete rispetto all’«oceano d’etere».
14
Il risultato sconcerta la comunità scientifica. Per spiegare il sorprendente risultato
l’irlandese George FitzGerald (1851-1901) nel 1889 e poi l’olandese Hendrik Lorentz (18531928) nel 1892 ipotizzano che l’etere esista effettivamente, ma che il moto rispetto a esso non
possa essere rilevato perché i corpi materiali (e quindi anche i bracci dell’interferometro di
Michelson e Morley) si contraggono di un fattore
nella direzione del moto, quando si
muovono con velocità v rispetto all’etere. L’ipotesi suscita, tuttavia, scetticismo perché pare
artificiosa e poco comprensibile.
Nel 1905 il tedesco Albert Einstein (1879-1955) pubblica la «teoria della relatività
ristretta», per mezzo della quale propone una spiegazione dei risultati di Michelson e Morley
tanto semplice ed elegante quanto rivoluzionaria: non è la natura della materia in moto a
essere diversa da ciò che gli scienziati hanno ipotizzato, bensì la natura di spazio e tempo.
Einstein suppone che tutte le leggi naturali (comprese le equazioni di Maxwell) siano
invarianti rispetto alla scelta tra diversi sistemi inerziali di coordinate spazio-temporali e che
sia una legge di natura anche la costanza della velocità delle onde elettromagnetiche rispetto a
qualsiasi sistema di riferimento inerziale. Le conseguenze di tali assunti sono sorprendenti: le
trasformazioni “galeleiane” tra sistemi di coordinate non sono valide e vanno sostituite con le
trasformazioni di Lorentz, sebbene per una ragione diversa da quella ipotizzata dal fisico
olandese, nelle quali ha un ruolo cruciale il fattore
; eventi che sono simultanei, se
misurati entro un sistema di riferimento inerziale, non sono simultanei se misurati entro un
diverso sistema di riferimento inerziale in moto rispetto al primo; la lunghezza dei corpi rigidi
non è invariante, ma dipende dal sistema inerziale assunto per effettuare la misura, e, se il
sistema è il moto rispetto al corpo da misurare, essa risulta più corta che se è in quiete
(contrazione dello spazio); la durata dei processi fisici non è invariante, ma dipende dal
sistema inerziale assunto per effettuare la misura, e, se il sistema è il moto rispetto al corpo da
misurare, essa risulta più lunga che se è in quiete (dilatazione del tempo); la massa di un
corpo non è invariante, ma dipende dal sistema inerziale assunto per effettuare la misura, e, se
il sistema è il moto rispetto al corpo da misurare, essa risulta maggiore che se è in quiete
(aumento della massa); un corpo contiene energia per il solo fatto di avere una certa massa a
riposo (inerzia dell’energia), energia che entra nel bilancio complessivo della conservazione
dell’energia totale, e che, in opportune condizioni fisiche, può essere trasformata in altre
15
forme di energia, come in particolare l’energia cinetica (ci possono essere fenomeni fisici di
perdita di energia cinetica e potenziale con acquisto di massa, e viceversa).
Le prime conferme della relatività ristretta verranno nel 1932, quando lo statunitense
Carl David Anderson (1905-1991) osserverà nei raggi cosmici il positrone, l’antiparticella
dell’elettrone, prodotto in coppia con quest’ultimo attraverso la conversione di energia in
massa, secondo la previsione dell’inglese Paul Dirac (1902-1984). Lo stesso anno l’irlandese
Ernest Walton (1903-1995) e il britannico John Cockcroft (1897-1967) realizzeranno per
primi artificialmente la fissione nucleare, che produce energia attraverso la scomparsa di
massa. Solo più tardi viene confermata la dilatazione relativistica del tempo. Nel 1941
l’italiano Bruno Rossi spiega con la relatività il tempo singolarmente lungo di decadimento
dei muoni nei raggi cosmici. Nel 1971 gli statunitensi Joseph Hafele e Richard Keating
confermano la dilatazione del tempo confrontando la durata del viaggio di un aereo che fa il
giro del mondo, quando viene misurata da terra e quando è misurata sull’aereo stesso. Nel
1975 gli italiani Luigi Briatore e Sigfrido Leschiutta confermano la dilatazione del tempo con
orologi posti a quote diverse.
Intanto nel 1916 Einstein ha pubblicato un’estensione della relatività ristretta, nota
come «teoria della relatività generale». Con essa vengono presi in considerazione anche
sistemi di riferimento non inerziali e viene studiata la gravitazione, ancora con un’ipotesi
rivoluzionaria circa la natura di spazio e tempo. La nuova ipotesi di Einstein mira a spiegare il
fatto, constatato ma non spiegato dalla fisica classica, dell’uguaglianza di massa inerziale e
massa gravitazionale. Einstein ipotizza che i fenomeni gravitazionali siano dovuti non alla
natura della materia, ma alla struttura geometrica stessa dello spazio-tempo, che non sarebbe
euclidea, bensì conforme alla geometria ellittica di Riemann: lo spazio-tempo sarebbe infatti
un sistema quadridimensionale curvo immerso in uno spazio con un numero maggiore di
dimensioni, un po’ come è curva la superficie di una sfera o di un ellissoide posti entro lo
spazio tridimensionale euclideo. Le linee seguite nello spazio-tempo dai corpi soggetti a un
campo gravitazionale non sarebbero altro che le linee più brevi in tale struttura curva, così
come nella fisica classica le più brevi sono le linee seguite solo dai corpi non soggetti a forze:
la gravitazione non sarebbe perciò una forza che si esercita nello spazio e nel tempo, ma un
aspetto della struttura geometrica stessa di spazio e tempo. Il campo gravitazionale, poi, non è
uniforme, ma presenta dei centri d’irradiazione di massa diversa, perché la curvatura
medesima dello spazio-tempo non è uniforme: le diverse concentrazioni di materia si
16
riducono esse stesse alle irregolarità della geometria di quello. La relatività generale prevede
fenomeni di dilatazione del tempo dovuti alla struttura geometrica gravitazionale dello spaziotempo.
La relatività generale permette ad Einstein di spiegare fino dal 1916 la già nota, ma fino
ad allora inesplicabile, difformità dell’orbita di Mercurio dall’ellisse. Nel 1919 poi l’inglese
Arthur Eddington (1882-1944) conferma la deviazione dei raggi luminosi in prossimità del
Sole, prevista dalla teoria di Einstein. Nel 1925 lo statunitense Walter Adams (1876-1956)
rileva uno spostamento verso il rosso delle righe spettrali della radiazione delle nane bianche,
attribuibile a un effetto gravitazionale previsto dalla relatività generale.
Frattanto un seconda serie di rivoluzionarie trasformazioni teoriche è stata suscitata
anch’essa dall’approfondimento dei fenomeni elettromagnetici. È risultato che l’elettricità
consiste in un flusso di corpuscoli, «atomi di elettricità», «elettroni», analoghi agli atomi di
materia che nel 1803 l’inglese John Dalton (1766-1844) aveva riproposto per spiegare la
differenza degli elementi chimici e che nel 1870 il russo Dmitrij Mendeleev (1834-1907)
aveva posto alla base della loro classificazione. Nel 1887 Hertz scopre infatti l’effetto
fotoelettrico e nel 1897 l’inglese Joseph Thomson (1856-1940) misura carica e massa
dell’elettrone.
Fanno discutere il fenomeno fotoelettrico e il problema della radiazione del corpo nero,
l’oggetto ideale capace di assorbire onde luminose di tutte le lunghezze d’onda. Le
simulazioni su sistemi sufficientemente simili al modello ideale mostrano un fenomeno
inatteso, la cosiddetta «catastrofe ultravioletta»: l’intensità della radiazione emessa per
lunghezze d’onda molto piccole (ultraviolette) non è alta, come la teoria corrente basata sulle
equazioni di Maxwell prevederebbe, ma molto bassa e tende a zero con il decrescere della
lunghezza d’onda. Quanto all’effetto fotoelettrico, la teoria di Maxwell prevede che si
manifesti solo se l’onda elettromagnetica che colpisce la lastra metallica ha un’intensità
sufficientemente elevata e che l’energia cinetica degli elettroni emessi dipenda da tale
intensità. Invece, dai dati sperimentali risulta che l’effetto si manifesta indipendentemente
dall’intensità dell’onda elettromagnetica, purché la sua frequenza sia sufficientemente elevata
e che l’energia cinetica degli elettroni emessi dipende dalla frequenza e non dall’intensità
dell’onda.
Nel 1900 il fisico teorico tedesco Max Planck (1858-1947) spiega la radiazione del
corpo nero proponendo l’«ipotesi dei quanti»: l’energia non viene assorbita o irradiata dagli
17
atomi in quantità suscettibili di variare con continuità, ma in pacchetti, «quanti di energia», di
precisa grandezza. Essa varia dunque in maniera discreta. Come la materia, anche l’energia
pare avere i suoi indivisibili. Nel 1905 Einstein spiega l’effetto fotoelettrico proprio
ricorrendo all’ipotesi di Planck e ipotizza che la radiazione luminosa sia costituita da
«fotoni», quanti di luce, corpuscoli luminosi: l’ipotesi corpuscolare newtoniana pare
recuperare credibilità. Già Einstein connette l’intensità dell’onda in un punto dello spazio e
del tempo alla probabilità di trovare il fotone in tale punto stesso.
L’ipotesi attrae i fisici impegnati nella ricerca sulla struttura dell’atomo. Nel 1901 il
francese Jean-Baptiste Perrin (1870-1942) per primo ha ipotizzato che l’atomo sia un sistema
solare in miniatura, con elettroni che orbitano attorno a un nucleo carico positivamente, e nel
1911 il britannico Ernest Rutherford (1871–1937) ricorre al modello planetario per spiegare le
deviazioni dei raggi alfa che attraversano una lamina di metallo. L’ipotesi dei quanti entra in
gioco nel 1913, quando il danese Niels Bohr (1885-1962) elabora la versione quantistica del
modello atomico planetario: gli elettroni non orbitano attorno al nucleo a distanze qualsiasi,
ma solo a certe precise distanze associate a precisi livelli di energia, e, pur essendo carichi
elettricamente, non irradiano sempre, ma solo quando si spostano da un livello energetico a un
altro, emettendo radiazione di energia corrispondente alla differenza tra i livelli e con
lunghezza d’onda conforme all’ipotesi di Planck.
Una nuova proposta rivoluzionaria compare inoltre nel 1924, quando il francese Louis
de Broglie (1892-1987) formula l’ipotesi delle «onde materiali»: come, secondo la
spiegazione einsteiniana dell’effetto fotoelettrico, all’onda elettromagnetica è associato un
corpuscolo, così alla materia e ai suoi corpuscoli è associata un’onda, delle quali le equazioni
di de Broglie permettono di calcolare la lunghezza. L’ipotesi di de Broglie mira a spiegare la
quantizzazione del raggio orbitale riconosciuta da Bohr: le sole orbite possibili per l’elettrone
devono essere quelle in cui l’onda elettronica è stazionaria, dunque quelle in cui la lunghezza
dell’orbita è un multiplo della lunghezza d’onda dell’elettrone. Nel 1927 l’ipotesi di de
Broglie riceve una impressionante conferma sperimentale, quando gli statunitensi Clinton
Davisson (1881-1958) e Lester Germer (1896-1971) producono in laboratorio la diffrazione
dell’elettrone. È per affrontare questa singolare situazione osservata negli esperimenti che
nello stesso anno Bohr enuncia il suo «principio di complementarità»: tutti gli oggetti
microfisici presentano sia aspetti ondulatori sia aspetti corpuscolari, non devono essere
concepiti solo come onde o solo come corpuscoli. Il principio tuttavia suona misterioso: se la
18
luce e anche la materia possono essere interpretate come onde, che natura ha il mezzo
oscillante in cui si propagano tali onde? come è possibile che una particella dotata di massa e
che occupa una parte finita e discreta di spazio coincida con un’onda, che per sua natura nello
spazio si distribuisce con continuità?
Un primo tentativo di risposta viene dall’austriaco Erwin Schrödinger (1887-1961):
ogni ente fisico è in realtà un’onda; la particella è un «pacchetto d’onda», una
sovrapposizione di onde interferenti tra loro che non si annullano a vicenda solo in una
determinata estensione spaziale; quelle che appaiono abitualmente come le dimensioni della
particella dotata di massa, coincidono in realtà con l’estensione del pacchetto d’onda; la
velocità di ciò che appare abitualmente una particella dotata di massa è in realtà la velocità di
gruppo del pacchetto d’onda. L’ipotesi di Schrödinger si scontra tuttavia con una difficoltà: la
teoria dei fenomeni ondulatori prevede che il movimento del pacchetto d’onda immaginato
dall’austriaco dovrebbe dare luogo a un fenomeno di sparpagliamento, che i dati empirici,
invece, non confermano affatto.
Nel 1925 il fisico teorico tedesco Werner Heisenberg (1901-1976) accantona del tutto
tali domande, sceglie di mettere al centro della teoria un aspetto chiaramente osservabile e
misurabile degli stati dell’atomo di Bohr, la probabilità con la quale si verifica la transizione
dall’uno all’altro, associa le grandezze fisiche fondamentali a matrici che esprimono il sistema
di tali probabilità e esprime i dati noti relativi ai fenomeni microfisici nel formalismo
algebrico della «meccanica delle matrici». Nel 1926, poi, Schrödinger stesso fonda la
«meccanica ondulatoria», al centro della quale c’è un’importante equazione differenziale che
ha come soluzione la «funzione d’onda»: la funzione d’onda rappresenta lo stato d’insieme
del sistema microfisico e incorpora tutti i dati prevedibili riguardo alle grandezze fisiche
consuete, come energia, posizione e impulso; l’equazione di Schrödinger descrive
l’evoluzione temporale della funzione d’onda. Schrödinger dimostra inoltre l’equivalenza tra
la propria meccanica ondulatoria e la meccanica delle matrici di Heisenberg, le quali, infatti,
da allora saranno presentate in una formulazione integrata, detta abitualmente meccanica
quantistica.
Nel 1927, poi, Heisenberg ricava una sorprendente conseguenza della meccanica
quantistica, il «principio di indeterminazione»: l’errore minimo che si può compiere
misurando la posizione spaziale di un oggetto quantistico moltiplicato per l’errore minimo che
si può compiere misurando la sua quantità di moto non può mai essere inferiore a un certo
19
valore costante (così come non può esserlo il prodotto degli errori minimi compiuti
misurandone l’energia e la posizione temporale): quanto più esatto risulta il valore di una
grandezza, tanto meno lo è quello dell’altra. Per Heisenberg, nella fisica quantistica, lo stato
del sistema descritto dalla sua funzione d’onda è sempre dato per una certa grandezza da un
insieme di valori diversi associati a una peculiare probabilità. La misurazione altera la
funzione d’onda facendola collassare su un diverso insieme, in cui un dato valore della
grandezza viene ad avere probabilità 1 e gli altri probabilità 0, ma anche con l’effetto di
rendere più indeterminata la distribuzione delle probabilità per la grandezza che il principio
d’indeterminazione correla a quella misurata.
Ancora nel 1927 il tedesco Max Born (1882-1970) elabora una nuova ipotesi circa la
natura dei fenomeni quantistici. L’onda descritta dalla meccanica quantistica non deve essere
interpretata come una vera oscillazione. Piuttosto, essa è “onda” solo in un senso traslato, in
virtù dell’analogia formale e matematica che risulta esserci tra i veri fenomeni ondulatori e lo
stato dell’oggetto quantistico. Secondo Born, inoltre, il quadrato del modulo della funzione
d’onda che descrive lo stato dell’oggetto quantistico deve essere inteso come la densità di
probabilità di trovare l’oggetto in quello stato, se lo si sottopone a un processo di misura;
p.es., la densità di probabilità di trovare la particella in un certo punto dello spazio, se si
sottopone la particella a un processo di misura della sua posizione. Diversi fisici accettano
l’ipotesi di Born semplicemente come un nuovo assioma della meccanica quantistica da
accettarsi come tale, arrestando ogni ulteriore speculazione ontologica. Non Schrödinger, che
per parte sua cercherà invece sempre di elaborare la propria ipotesi sulla riduzione di ogni
ente fisico a onda, in modo da rendere tale ipotesi stessa conciliabile con i dati sperimentali.
Tutti comprendono comunque che è necessario abbandonare il modello planetario
dell’atomo. Le proprietà dell’atomo devono essere ricavate esclusivamente a partire dalla
funzione d’onda dell’elettrone: nella nuova concezione di atomo non esiste nulla di simile a
un orbita per gli elettroni; anzi, non viene avanzata alcuna ipotesi su come l’elettrone si
muova all’interno dell’atomo. C’è piuttosto l’«orbitale», una distribuzione nello spazio della
probabilità di trovare l’elettrone, se si sottopone l’elettrone a un processo di misura della sua
posizione, e questa è l’unica specificazione circa la struttura interna dell’atomo che lo
scienziato possa consentirsi.
Nello stesso 1927 al V Congresso Solvay di Fisica a Bruxelles, prevedibilmente, la
discussione intorno alla fisica quantistica si colora di filosofia. Da un lato si pone
20
l’«interpretazione di Copenaghen» proposta da Bohr, da Dirac, da Heisenberg e da Born.
Secondo loro la fisica quantistica è già solidamente fondata sulla coerenza del suo formalismo
matematico e sulla conferma delle sue predizioni osservative; chiedersi che cosa siano
davvero gli oggetti microfisici, al di là di ciò che afferma di loro la teoria nella sua
espressione formale, se essi siano cioè onde o corpuscoli, è avviarsi sulla strada di
speculazioni gratuite e uscire dai binari della scienza vera e propria. Dice Born: gli scienziati
non devono spiegare la natura dei quanti, ma solo imparare a usarli; non devono farsi
imprigionare da concetti superati di spazio, tempo, materia, composizione interna. Contro
l’interpretazione di Copenaghen, invece, si schierano de Broglie e Schrödinger, che inclinano
verso un’interpretazione più realistica del carattere ondulatorio dei fenomeni microfisici. E si
schiera soprattutto Einstein che giudica estraneo allo spirito scientifico accettare come fatti
definitivi l’indeterminazione e il carattere probabilistico della meccanica quantistica nella
formulazione dovuta a Heisenberg e a Schrödinger. Per lui, «Dio non gioca a dadi con
l’universo». È convinto che il probabilismo della meccanica quantistica sia dovuto alla nostra
incompleta conoscenza della natura e che il futuro permetterà di individuare i «parametri
nascosti», conosciuti i quali anche la microfisica assumerà la forma deterministica che la
scienza richiede.
Il dibattito tra i filosofi della scienza non può non accettare i termini della discussione
filosofica imposta dagli scienziati stessi. Il Circolo di Vienna sarà il principale luogo
intellettuale per la ricezione schiettamente filosofica di tale discussione.
Le origini dell’empirismo logico
Il Circolo di Vienna si forma intorno al tedesco Moritz Schlick (1882-1936). Allievo di
Planck, dal 1922 presso l'Università di Vienna è titolare della cattedra di filosofia delle
scienze induttive, che era stata di Mach e di Boltzmann. Le sue prime pubblicazioni sono
dedicate alla discussione del valore filosofico della teoria della relatività. Sostiene, in pieno
accordo con il tedesco Hans Reichenbach (1891-1953), che la teoria einsteiniana confuta in
modo definitivo la tesi della conoscenza sintetica a priori difesa da neokantiani come Ernst
Cassirer (1874-1945) e dai seguaci di Edmund Husserl (1859-1938). Comincia a interessarsi
di filosofia del linguaggio sotto la suggestione del Tractatus logico-philosophicus di Wittgenstein. Dell'opera lo colpiscono soprattutto la tesi del carattere analitico di tutta quanta la
logica, che, secondo il punto di vista «logicista» dei matematici Gottlob Frege (1848-1925) e
21
Bertrand Russell (1872-1970), include la matematica stessa, la tesi della natura non-referenziale delle verità analitiche, e la tesi della assenza di significato dell'intera problematica
metafisica. Sono esse, prese insieme con la classica tesi empiristica del carattere
necessariamente empirico della conoscenza fattuale, a costituire la base teorica comune dell'orientamento filosofico del quale Schlick diviene promotore, che sarà detto «empirismo
logico» (o, meno propriamente, «positivismo logico», «neopositivismo» e «neoempirismo»).
Intorno al seminario tenuto da Schlick si forma, a partire dal 1923, l'Associazione Ernst
Mach, indicata anche col nome di Circolo di Vienna. Ne fanno parte i filosofi Friedrich
Waismann (1896-1959) e Herbert Feigl (1902-1988), il matematico Hans Hahn (1879-1934),
il fisico Philipp Frank (1884-1966), lo storico Victor Kraft (1880-1975), il sociologo Otto
Neurath (1882-1945), il giurista Felix Kaufmann (1895-1949). Hanno contatti occasionali col
gruppo anche il giurista Hans Kelsen (1881-1973), nonché i logici Kurt Gödel (1906-1978) e
Alfred Tarski (1901-1983). Dal 1925 i membri del Circolo tengono delle riunioni settimanali
il giovedì sera. Nel 1926 entra a far parte del Circolo il tedesco Rudolf Carnap (1891-1970),
allievo del matematico Frege e da quell'anno istruttore di filosofia presso l'Università di
Vienna. Nel 1926 il Circolo studia e discute il Tractatus di Wittgenstein.
Il Circolo di Vienna stabilisce legami con i filosofi di analogo orientamento che formano la Scuola di Berlino, promossa da Reichenbach. Reichenbach ha studiato con Planck,
Hilbert, Einstein e Cassirer. Dal 1926 al 1933 è professore di filosofia della fisica presso l'Università di Berlino. Ne La filosofia dello spazio e del tempo (1928), sostiene che la teoria
einsteiniana della relatività rappresenta una confutazione definitiva delle tesi di Kant intorno
allo spazio e al tempo e difende la tesi realista dell'esistenza del mondo esterno, interpretandola d'altra parte non come una verità a priori, bensì semplicemente come una valida
ipotesi empirica. Profondamente interessato alla riflessione sulle tematiche della nuova fisica,
nei Fondamenti filosofici della meccanica quantistica (1944), sosterrà che la teoria dei quanti
richiede una logica non classica, avviando le ricerche sulla formalizzazione della logica
quantistica. L'opera che più di ogni altra riassume la sua complessiva visione della filosofia
della scienza è La nascita della filosofia scientifica (1951).
Nel 1928 Reichenbach raccoglie attorno a sé un circolo filosofico di cui fanno parte
Carl Gustav Hempel (1905-1997), suo allievo, e il matematico austriaco Richard von Mises
(1883-1953). Tra la Scuola di Berlino e il Circolo di Vienna si stabiliscono subito contatti
22
intellettuali, che culminano nel 1930 con la fondazione della rivista "Erkenntnis", diretta
insieme da Reichenbach e Carnap.
Altre personalità filosofiche dialogano con l’empirismo logico. Ha contatti col Circolo
di Vienna, sebbene resti su posizioni autonome, l'austriaco Karl Raimund Popper (19021994). Da ricordare infine che con Schlick, con Waismann, e più saltuariamente anche con
altri membri del Circolo di Vienna, tra il 1927 e il 1932, ha degli incontri lo stesso Wittgenstein. È in sintonia col Circolo di Vienna poi anche l'inglese Alfred J. Ayer (1910-1989),
ricercatore al Christ Church College di Oxford, autore di Linguaggio, verità e logica (1936),
che introduce nell’empirismo logico molti spunti tradizionali dell'empirismo inglese sei-settecentesco.
Nel 1929, viene pubblicata a firma di Neurath, Carnap e Hahn La concezione scientifica
del mondo, manifesto programmatico dell'empirismo logico. Il manifesto denuncia come
«privi di senso» gli enigmi insolubili della metafisica, si pronuncia a favore di una
«concezione scientifica del mondo» «empiristica e positivistica», elogia l'impiego dei concetti
formali elaborati dai logici matematici allo scopo di dissipare le oscurità del linguaggio
ordinario, propone la ridefinizione della filosofia come disciplina «fondazionale» volta non a
espandere il sapere, bensì a ottenere la sua chiarificazione per mezzo della «analisi logica» del
linguaggio, delinea l'obiettivo di una «scienza unificata» capace di soddisfare la vocazione
essenzialmente intersoggettiva dell'impresa scientifica. Il manifesto sottolinea inoltre la
continuità della concezione scientifica del mondo con la tradizione umanistica e illuministica,
prendendo posizione contro il vitalismo in biologia, contro lo spiritualismo nelle scienze
storico-sociali, e viceversa a favore del comportamentismo, dell'utilitarismo, dell'atteggiamento demistificatore caratteristico di Feuerbach e di Marx.
Schlick e il verificazionismo
La dottrina che l’empirismo logico deglle origini ritiene più cruciale è la concezione
verificazionista del significato: il senso dell'enunciato consiste nelle condizioni della sua
possibile verificazione, cioè è dato dalle possibili esperienze che proverebbero la sua verità.
Questa aveva trovato le prime embrionali formulazioni già negli scritti del francese Auguste
Comte (1798-1857) e dello statunitense Charles Sanders Peirce (1839-1914). Peirce in
particolare desume il verificazionismo dalla concezione pragmatistica che pone la funzione
del pensiero nella creazione di abiti di azione: hanno senso diverso tra loro solo gli enunciati
23
la cui eventuale verità comporta qualche differenza in rapporto al nostro agire; dunque solo
quelli la cui verità può essere accertata da noi empiricamente per mezzo di esperienze
distinguibili tra loro. Su analoghe posizioni sarà, nel quadro della complessiva egemonia
pragmatista che caratterizza la filosofia americana dei primi decenni del XX secolo, Percy
William Bridgman con l’«operazionismo» di La logica della fisica moderna (1927) e La
natura della teoria fisica (1936). Fisico in primo piano nella discussione intorno alla teoria
einsteiniana della relatività, Bridgman sostiene che tutti i concetti scientifici, e in particolare i
diversi concetti scientifici di lunghezza e di durata, ricevono il loro significato dalle
operazioni che ci consentono di effettuarne una applicazione corretta. Egli ritiene che molti
problemi filosofici siano privi di significato appunto per l'assenza di un significato operativo.
Secondo Bridgman, lo stesso concetto di esistenza equivale al concetto di operatività:
riconoscere una cosa come esistente non è altro che riconoscere il successo operativo della
sua idea.
Nell’ambito dell’empirismo logico è Schlick soprattutto a elaborare la spiegazione
verificazionista del significato. La espone in diversi scritti, tra i quali Positivismo e realismo
(1932). Per Schlick la verificabilità empirica non è solo un requisito per la produttività e la
affidabilità delle nostre asserzioni. È la condizione necessaria e sufficiente della loro significanza: dicono qualcosa solo gli enunciati empiricamente verificabili, e il loro significato è
dato precisamente dalle condizioni della loro possibile verifica, e cioè dalle esperienze
suscettibili di provare la loro verità. Coloro che asseriscono enunciati incapaci di verifica non
danno affatto un senso alle loro parole: le loro asserzioni sono letteralmente vuote, non dicono
nulla. Gli insegnamenti della scienza sono verificabili e hanno dunque un senso. Le
proposizioni della metafisica, della religione, dell'etica e dell'estetica non sono verificabili e
non hanno perciò alcun senso: esse possono manifestare le emozioni di chi le accetta, ma non
enunciano alcuno stato di cose. Non enunciano in particolare neppure il fatto che chi le fa sue
prova certe determinate emozioni. Un conto è infatti lasciare trasparire le emozioni, un conto
è descriverle: lasciare trasparire le emozioni è solo un esito involontario per pronunciamenti,
come quelli di gran parte della filosofia tradizionale, semanticamente vuoti. A partire dalla
concezione verificazionista Schlick sostiene in particolare il carattere metafisico, e perciò
privo di senso, della contrapposizione tra realismo e fenomenismo.
Schlick arriva a queste posizioni riflettendo sui presupposti teorici della concezione del
senso dell'enunciato che era stata elaborata da Frege e da Wittgenstein. Frege aveva distinto
24
tra il senso dell'espressione linguistica (il pensiero che ci guida nel suo impiego) e il suo
riferimento (la cosa che è indicata da essa). Egli aveva sostenuto che il senso dell'enunciato è
dato dalle sue condizioni di verità: hanno il medesimo senso gli enunciati che sarebbero veri
nelle medesime condizioni, nelle stesse situazioni. Il Tractatus di Wittgenstein aveva
esplicitato presupposti e conseguenze della concezione fregeana.
Schlick giunge alla concezione verificazionista, integrando l’idea che il senso
dell’enunciato sia dato dalle sue condizioni di verità con l’idea che il senso dell’enunciato è
qualcosa che le persone possono comprendere, comunicare e spiegare: deve sempre essere
possibile stabilire se l’enunciato è usato correttamente (cioè secondo il suo significato) o
scorrettamente (cioè in modo incompatibile col suo significato). Dunque deve sempre essere
possibile stabilire se l’impiego dell’enunciato è vero o falso: il sussistere delle condizioni di
verità deve essere accertabile; le condizioni di verità devono essere anche condizioni di
verificazione.
L’antimetafisica del Circolo di Vienna
A Wittgenstein i filosofi viennesi si sentono vicini anche per la tesi che le proposizioni
metafisiche siano prive di senso. Il tentativo di enunciare la struttura della realtà appartiene
alla metafisica e si condanna dunque automaticamente al non-senso; l'ontologia è in linea di
principio impossibile. I metafisici credono di parlare di qualcosa: in realtà essi parlano di
niente, perché non hanno assegnato alcun senso alle parole del loro linguaggio.
Ne Il superamento della metafisica mediante l'analisi del linguaggio (1931), Carnap in
particolare dichiara che la metafisica esprime il nostro atteggiamento nei confronti della vita,
ma non enuncia alcunché. Essa è più vicina all'arte che alla scienza: come l'arte infatti può
dare voce ai sentimenti, ma non allargare la conoscenza. L'arte però sa parlare a tutti gli
uomini, la metafisica invece si risolve in un esoterico rincorrersi di parole insensate o
combinate in maniera insensata. L'analisi rivela infatti che parole metafisiche come 'principio'
o 'Dio' sono state gradualmente private del loro originario significato empirico, senza tuttavia
che esse abbiano ricevuto alcuno specifico nuovo significato: nessuno saprebbe indicare quali
siano le condizioni empiriche di verità della loro applicazione, e, dunque, che cosa possa
renderle comprensibili. I metafisici sono solo «musicisti senza talento musicale».
I filosofi del Circolo di Vienna tuttavia non intendono la tesi che la metafisica è priva di
senso allo stesso modo di Wittgenstein. Sono assai lontani da lui sia nella giustificazione che
25
danno di tale tesi, sia nelle risonanze assiologiche di cui la investono, sia nelle conseguenze
che ne traggono riguardo ai compiti della filosofia. Essi infatti ritengono che la metafisica sia
priva di senso perché è in linea di principio inverificabile attraverso l'esperienza. Per loro, l'enunciato trae il suo senso dalle condizioni della sua possibile verifica empirica. Wittgenstein
invece ritiene che la metafisica sia priva di senso perché essa si propone di enunciare ciò che è
privo di alternative, dunque non determinabile per contrasto con niente altro, e di conseguenza
indicibile. Almeno originariamente, i filosofi viennesi non sono consapevoli di questa
divergenza di punti di vista: leggono nel Tractatus l'affermazione che il senso di un enunciato
dipende dal suo confronto con i fatti, e intendono questo confronto come esperienza
verificante o falsificante, laddove Wittgenstein lo intendeva in maniera più neutra come
possibilità dell'enunciato di accordarsi o non accordarsi con i fatti, e cioè di disporre di
alternative concepibili. Per essi, inoltre, il fatto che gli enunciati metafisici siano privi di senso
implica che essi sono privi di importanza. Per Wittgenstein invece la metafisica, con i suoi
interrogativi incapaci di risposta e con le sue ribellioni alla logica, è di vitale importanza: i
problemi insolubili della metafisica danno voce al disagio del nostro vivere. Wittgenstein non
sacralizza affatto ciò che è dicibile. I viennesi infine pensano che, accantonata la metafisica, la
filosofia debba dedicarsi al più produttivo compito di codificare la logica del linguaggio.
Wittgenstein pensa invece che non ci sia alcun modo di enunciare tale logica, e risolve tutto il
lavoro filosofico nell'impresa nichilistica di porre termine alla filosofia. Così, il filosofo
viennese che maggiormente comprende il Tractatus, è paradossalmente proprio Otto Neurath,
che rifiuta il pensiero di Wittgenstein perché ne afferra l'intimo coinvolgimento con la metafisica e l'incompatibilità col progetto di una filosofia scientifica.
Carnap: La costruzione logica del mondo
Allievo di Frege, Carnap viene già da studente a conoscenza delle ricerche di Russell. Si
laurea con una tesi di impostazione neokantiana intorno al concetto di spazio. Nel 1923 entra
in contatto con Reichenbach e, per suo tramite, con Schlick. La sua Costruzione logica del
mondo (1928) influenza largamente le posizioni iniziali del Circolo di Vienna. Nell'opera
Carnap spiega come l'intero edificio del sapere possa essere ridotto a enunciati esprimenti il
contenuto dell'esperienza immediata.
Carnap infatti sostiene che tutti i concetti di interesse scientifico grazie ai quali
conosciamo la realtà si lasciano risolvere in semplici rappresentazioni dell'esperienza imme-
26
diata. Egli sottolinea il fatto che i concetti impiegati entro un certo ambito scientifico possono
essere analizzati come «costruzioni logiche» di concetti appartenenti ad ambiti più elementari:
che i concetti più complessi, cioè, possono essere sostituiti da opportune combinazioni degli
altri, in modo tale che, senza la pretesa di riprodurre il senso dei primi, i secondi riproducano
almeno il loro riferimento, e cioè le cose che essi indicano. In particolare, per Carnap, i
concetti del «campo spirituale», usati dalle scienze sociologiche, possono essere riportati a
quelli psicologici del «campo psichico altrui»: i concetti relativi a collettivi di uomini possono
essere analizzati in termini di azioni e di condizioni psichiche dei singoli esseri umani che
fanno parte di essi. A loro volta, i concetti psicologici possono essere riportati a quelli
naturalistici del «campo fisico», interpretando comportamentisticamente ciascun fenomeno
mentale come la disposizione a realizzare un determinato tipo di atti. I concetti delle scienze
naturali, poi, possono essere definiti attraverso quelli del «campo psichico proprio»,
intendendo ogni espressione relativa a corpi come una costruzione logica di espressioni
relative a dati di senso. Noi infine possiamo classificare i dati di senso senza ulteriori mediazioni grazie all'esperienza del «riconoscimento di similarità».
Ora, d'altra parte, Carnap insiste sul fatto che una simile catena di procedimenti riduttivi
ha un puro valore convenzionale, e che non deve essere considerata come una ricostruzione
dei 'veri' rapporti sussistenti tra i 'livelli della realtà': essa infatti vale solo come una possibile
scelta «metodologica», utile soprattutto a esibire le basi empiriche che nei diversi campi
scientifici dovrebbero orientare le nostre assunzioni, e non come una teoria «ontologica»
riguardante la natura delle cose. Carnap non vuole affatto sostenere, con il fenomenismo di
Mach e di Russell, che i dati di senso siano i costituenti ultimi di tutta quanta la realtà. Ritiene
infatti che ogni teoria circa la struttura della realtà sia parimenti inverificabile e perciò priva
di senso. La metafisica fenomenista è dunque per lui altrettanto inconsistente della metafisica
materialista. Ciò che è legittimo, invece, è trattare il fenomenismo come una convenzione
concettuale utile in particolare ai fini della ricerca epistemologica, e assumerne il linguaggio,
senza preclusioni per eventuali opzioni alternative: Carnap insiste sul fatto che il linguaggio
materialista, che assume come primari i nomi di oggetti fisici, potrebbe essere altrettanto utile
in vista di ulteriori scopi.
Dalle considerazioni di Carnap molti esponenti dell'empirismo logico si fanno
convincere del fatto che un fenomenismo accettabile dovrebbe avere carattere metodologico e
non ontologico: primo tra tutti Schlick, che è il punto di riferimento riconosciuto della
27
corrente. Anche Schlick infatti accetta la natura puramente convenzionale del linguaggio
fenomenistico e riconosce come priva di senso l'intera controversia metafisica tra
fenomenismo e materialismo.
Il dibattito sul verificazionismo
In seno al Circolo di Vienna non regna una piatta unanimità. Già nei primi anni Trenta
le tesi verificazioniste di Schlick suscitano un importante dibattito filosofico. Con Schlick si
schiera Wittgenstein stesso, che, probabilmente anche sotto l'influenza del costruttivismo
matematico di Luitzen Brouwer (1881-1966), tra il 1929 e il 1930 rielabora le posizioni
originarie espresse nel Tractatus e si avvicina al verificazionismo.
Sono in molti però a ritenere opportuno un indebolimento del principio di verificazione.
Tutti sono d’accordo che se un enunciato sintetico non risultasse almeno indirettamente
controllabile sulla base dell’esperienza, esso dovrebbe essere ritenuto privo di senso. Ma in
molti sottolineano il fatto che anche buona parte degli enunciati sintetici apparentemente
dotati di senso, nella stessa scienza e non solo nei campi più speculativi della filosofia, sono
incapaci di sottostare un controllo empirico completo. Non sono dunque a stretti termini
verificabili.
Così pensa lo stesso Wittgenstein. Per un indebolimento del principio si pronuncia del
resto anche Ayer. Ayer osserva che ogni enunciato contiene più informazioni di quanta ne
contenga una particolare esperienza: nell'enunciato infatti il dato di senso viene classificato
per mezzo di termini universali e dunque messo in rapporto con i dati di altre esperienze. Egli
propone dunque di dichiarare significante solo l'enunciato che, in congiunzione con altri
enunciati, consente di dedurre delle conseguenze osservative che non potrebbero essere dedotte senza di esso. Ayer si pronuncia inoltre per una concezione non egocentrica della
verificabilità: l'enunciato non è verificabile solo se è verificabile adesso da parte nostra, ma se
è verificabile comunque per qualcuno in qualche tempo; ciò permette in particolare, secondo
Ayer, di rispondere alle sfide dello scetticismo circa le menti altrui e circa gli eventi passati.
Ayer si pronuncia infine a favore di una concezione fallibilista della verificabilità: tutte le
asserzioni sono fallibili, comprese quelle che fungono da resoconti osservativi; la verificazione va sempre intesa in senso relativo. Lo scetticismo quindi a rigore è nel giusto. Il
fatto è però, secondo Ayer, che esso è nel giusto su un punto scarsamente interessante: a noi
28
non preme infatti tanto sapere se le nostre asserzioni siano in assoluto affidabili, quanto
piuttosto sapere quali tra di esse siano più affidabili e quali meno.
Ma il più determinato avversario dell’originario verificazionismo è Karl Popper. Popper
contesta al principio di verificazione in primo luogo di essere esso stesso un principio
metafisico: l'affermazione che tutti gli enunciati dotati di senso sono verificabili empiricamente infatti non è a sua volta verificabile empiricamente. Contesta in secondo luogo al
principio di verificazione di finire per escludere la significanza della componente più
importante della scienza stessa, e cioè le leggi scientifiche: le leggi scientifiche infatti sono
enunciati «strettamente universali», ovvero enunciati universali che coprono una infinità di
possibili casi particolari; dunque nessuna serie di esperienze umanamente realizzabile
potrebbe verificarle. In risposta alle posizioni dell'empirismo logico, Popper insiste sul fatto
che, se non tutti gli asserti scientifici sono empiricamente verificabili, tutti sono
empiricamente «falsificabili»: anche le leggi, per rigettare la verità delle quali è sufficiente
una sola osservazione sfavorevole. Egli propone dunque di prendere la falsificabilità come
criterio di appartenenza al discorso scientifico.
Infine, anche Rudolf Carnap si pronuncia a favore di una liberalizzazione del criterio
verificazionistico di significanza. In Controllabilità e significato (1936-37) egli fa notare che
perfino molti enunciati singolari sono altrettanto poco verificabili di quelli universali: infatti
molti di essi non si limitano a enunciare i risultati delle esperienze realizzate di fatto, ma
comportano implicitamente anche un numero illimitato di assunzioni relative alle esperienze
potenziali. Ciò è chiaro in particolare se si considera il funzionamento dei «predicati
disposizionali», e cioè di quei termini, come 'fragile' e 'solido', esprimenti qualità che per
definizione anticipano il comportamento che la cosa osservata avrebbe per effetto di certe
sollecitazioni sperimentali. Dire p.es. che un oggetto è fragile non equivale affatto a dire che
esso sarà urtato violentemente e si romperà: non è dire che esso è destinato a rompersi; è
piuttosto dire che esso si romperebbe se venisse urtato, e che anzi si sarebbe rotto, se urtato,
anche durante tutto il tempo in cui di fatto l'oggetto non è stato toccato. Fare uso di un predicato disposizionale è dunque accettare un insieme di «condizionali controfattuali», e cioè di
enunciati relativi a ciò che sarebbe accaduto se le circostanze fossero state diverse da come
sono state di fatto: perciò effettuare asserzioni che per definizione vanno al di là di ogni
possibile verifica empirica. Carnap nota che la maggior parte dei concetti scientifici è
disposizionale e che quindi non è suscettibile di una definizione empirica completa: non è
29
«definibile» in termini osservativi; è solo «riducibile» a termini osservativi entro determinati
contesti di impiego. Del termine 'fragile', p.es., possiamo solo verificare parzialmente l'applicazione: precisamente nelle situazioni in cui siamo in grado di produrre un urto violento.
Carnap propone di rimpiazzare il criterio originario della verificabilità con quello meno
impegnativo della «confermabilità»: nella impossibilità di una completa verificazione,
affinché l'enunciato sintetico possa essere giudicato sensato, esso dovrà essere capace almeno
di essere smentito dall'osservazione o provvisoriamente confermato da essa.
Alle posizioni emerse nel corso del dibattito Schlick replica con Significato e
verificazione (1936) ribadendo solo in parte le proprie tesi. Egli ricorda in particolare che l'enunciato non trae il suo senso dal fatto di essere stato verificato, ma solo da quello di essere
verificabile almeno in linea di principio, e cioè dal fatto che una verifica è per esso almeno logicamente pensabile. Su altri punti Schlick invece conferma e precisa le proprie tesi iniziali.
Riguardo al problema delle leggi scientifiche, p.es., Schlick risponde facendo sua la posizione
radicale che era già stata del Tractatus wittgensteiniano e dell’inglese Frank Plumpton
Ramsey (1903-1930): le leggi scientifiche sono effettivamente prive di significato; il fatto è
che esse non sono propriamente degli enunciati generalissimi, bensì le regole che consentono
di ricavare dagli enunciati che compendiano le osservazioni compiute in passato altri enunciati che pronosticano i risultati delle osservazioni future.
Neurath e il dibattito sui protocolli
Un secondo terreno di contrasto riguarda il fenomenismo. Qui il dibattito è promosso da
Otto Neurath con i saggi Fisicalismo (1931), Sociologia e fisicalismo (1931), Enunciati
protocollari (1932), Scienza unificata e psicologia (1933) e Fisicalismo radicale e mondo
reale (1934). Austriaco, sociologo e filosofo, questi accetta le linee generali delle teorie di
Marx, proponendosi di inquadrarle in una complessiva visione comportamentistica dei
fenomeni umani.
Nei saggi dei primi anni trenta, proprio allo scopo di fare risultare in maniera
inequivocamente chiara la natura metodologica e non ontologica delle preoccupazioni dell'empirismo logico, Neurath suggerisce una ridefinizione dei termini della discussione. I
filosofi hanno discusso in passato dei dati elementari che stanno alla base dell'edificio della
nostra conoscenza: si sono chiesti se tali elementi di base siano dei dati di senso oppure degli
oggetti fisici. Neurath propone di rendere chiaro che la discussione verte sul linguaggio da as-
30
sumersi come primario e non sulla struttura della realtà, sostituendo al concetto di elemento
della realtà quello di «enunciato protocollare»: l'empirismo logico non si interroga infatti circa
la natura delle unità elementari che è possibile riscontrare analizzando la realtà, bensì circa la
natura degli enunciati per mezzo dei quali registriamo le nostre osservazioni e che fungono da
strumento per controllare empiricamente l'elaborazione delle teorie. L'empirismo logico si
chiede, secondo Neurath, se gli enunciati protocollari debbano adottare un vocabolario
fenomenistico oppure un vocabolario fisicalistico: se essi, cioè, debbano contenere parole
come 'io', 'adesso', 'impressione visiva di rosso', 'impressione tattile di solidità', etc. , ossia
termini esprimenti dati di senso, e avere dunque la forma 'io adesso ho l'esperienza vissuta . . .
'; oppure se debbano contenere parole come 'Otto Neurath', 'il giorno 31 marzo 1931',
'osservare', 'lancetta del manometro', 'indice del termometro', etc. , ossia nomi di cose,
persone, posizioni e tempi del mondo pubblicamente osservabile, e avere dunque la forma 'la
persona . . . nel momento . . . nel luogo . . . osserva lo stato di cose fisico . . . '.
Contro la predilezione di Schlick per il linguaggio fenomenistico, Neurath sostiene che
il linguaggio protocollare dovrebbe essere fisicalistico. Solo il linguaggio fisicalistico infatti
rende possibile l'intersoggettività che è necessaria alla ricerca scientifica. Il linguaggio
fenomenistico infatti è un linguaggio essenzialmente privato ed egocentrico: prevede cioè
enunciati che, se rivendicano il fatto di essere verificabili in maniera conclusiva, risultano
esserlo però solo da parte di un unico soggetto. Il linguaggio fisicalistico invece consta di
enunciati che non pretendono di esprimere un'evidenza immediata e irrevocabile, come non lo
pretende in generale ogni pronunciamento che ecceda la presunta sfera privata della
coscienza, ma che almeno sono pubblicamente controllabili. Il fenomenismo, anche il
fenomenismo metodologico, a parere di Neurath, è una scelta teorica incapace di far fronte
alle esigenze della concreta indagine scientifica.
Otto Neurath si pronuncia poi a favore di una interpretazione esplicitamente fallibilista
della scienza. Per Neurath, la scienza è un'impresa integralmente sviluppata all'interno del
linguaggio e non ha senso l'idea di un confronto tra linguaggio e realtà; ma il linguaggio
incorpora delle convenzioni ed è soggetto ad una scelta che ha una ineliminabile componente
pragmatica; dunque tutti gli enunciati, anche quelli protocollari con i quali lo scienziato
registra i fatti, possono successivamente essere rigettati come falsi. I protocolli sono considerati di norma più sicuri degli enunciati teorici, e possono fungere dunque da strumento di
controllo empirico per l'accettazione delle teorie, ma ciò non significa che essi siano
31
infallibili. Nella pratica scientifica, secondo Neurath, e più in generale nell'elaborazione delle
opinioni, quando si giudica vero un enunciato, si intende solo esprimere la sua coerenza con
l'insieme degli altri enunciati già incorporati nel nostro patrimonio linguistico. Neurath rigetta
così espressamente ogni impostazione fondazionale. Egli pensa che l'impresa conoscitiva non
possa essere resa certa attraverso qualche operazione di controllo esterna al linguaggio. Essa
può essere corretta, ma solo nel senso che, facendo perno su un risultato, si possono
correggere altri risultati, senza comunque poter uscire dal campo della fallibilità. Qualunque
revisione è necessariamente interna: paragona l’impresa conoscitiva al viaggio di una nave
costretta a riparare le proprie falle con i materiali imperfetti di cui si trova a disporre a bordo.
Il «dibattito sui protocolli» aperto dagli interventi di Neurath, divide profondamente
l'empirismo logico, e contribuisce alla dissoluzione dei circoli di Vienna e di Berlino, che ne
avevano rappresentato i centri originari di aggregazione. Carnap aderisce alle considerazioni
di Neurath e riconosce la superiorità del fisicalismo, insistendo d'altra parte sul fatto che la
scelta a favore del fisicalismo deve essere intesa, al pari della scelta fenomenista che aveva
precedentemente suggerito, come scelta metodologica e non ontologica, e che essa dunque
non equivale all'adesione a una metafisica materialistica. E anche Karl Popper, pur protestando contro le visioni strumentaliste della scienza e rigettando il coerentismo, nega che vi
sia una netta dicotomia tra enunciati teorici ed enunciati osservativi, riconosce che tutte le
affermazioni scientifiche, comprese le registrazioni di fatti, hanno un carattere ipotetico, e sostiene che un falsificazionismo non ingenuo deve coniugarsi col fallibilismo. È chiaro però
che il fallibilismo non si accorda facilmente con il rifiuto del coerentismo. Se ogni settore del
nostro sistema di credenze è in linea di principio disponibile alla revisione, nessuno è
privilegiato in assoluto e diviene difficile parlare della giustificazione se non in termini di rapporto tra le diverse componenti del sistema.
All'interno del Circolo di Vienna è soprattutto il suo stesso promotore, Moritz Schlick, a
schierarsi contro le tesi di Neurath. Nel saggio Sul fondamento della conoscenza (1934)
Schlick continua a difendere il fenomenismo metodologico: vede infatti nel fisicalismo di
Neurath una strategia filosofica gravida di pericoli; vi legge una rinuncia a commisurare la
teoria scientifica a evidenze immediate e indubitabili, e, con ciò, ad assicurare alla scienza un
fondamento incrollabile. Con la scelta fisicalistica, a giudizio di Schlick, Neurath finisce per
vanificare l'idea stessa della scienza come impresa conoscitiva. Di Neurath Schlick non
accetta il coerentismo e il fallibilismo, e rifiuta l'atteggiamento antifondazionale che li
32
sottende. Non accetta la concezione della verità come coerenza: sostiene infatti che un sistema
di enunciati può benissimo essere internamente coerente e tuttavia falso. E non accetta una
teoria della conoscenza che prescinda dall'idea di verità e accantoni completamente l'assunto
della certezza scientifica. D'altra parte, a suo avviso, perché si possa parlare di conoscenza,
bisogna che alla conoscenza stessa sia riconosciuto un fondamento. Schlick identifica tale
fondamento nella «constatazione»: l'accertamento immediato di un fatto, anteriore al livello
dell'espressione linguistica e solo successivamente registrato per mezzo di un protocollo, che
funge poi da strumento per controllare le proposizioni generali.
Schlick non si convertirà mai all'antifondazionalismo. Ma gli empiristi logici, ormai
sempre più orientati verso una convergenza col pragmatismo, riterranno che i suoi argomenti
siano metafisici e incapaci di trovare un'adeguata giustificazione empirica.
Il falsificazionismo di Popper
A partire dalla critica del verificazionismo, con La logica della ricerca (1934) (poi
ripubblicata col nuovo titolo La logica della scoperta scientifica, 1959) e con i saggi raccolti
in Congetture e confutazioni (1963), Karl Popper sviluppa un’epistemologia che ritiene
alternativa a quella dell’empirismo logico. Popper ritiene illegittime sia l’«induzione
enumerativa», e cioè la semplice generalizzazione dei dati osservativi, sia l’«induzione
eliminativa», e cioè la tecnica euristica che immagina di provare un'ipotesi scartando
successivamente tutte le alternative attraverso il confronto con i dati osservativi: infatti, a
causa del numero in linea di principio infinito di casi coperti da enunciati come le leggi
scientifiche, nessun insieme di osservazioni particolari può verificare conclusivamente una
ipotesi generale del tipo di quelle impiegate nelle scienze; e, inoltre, non può essere
logicamente legittima la pretesa di accertare un'ipotesi scientifica, scartando successivamente
tutte le alternative, perché c'è sempre una infinità di ipotesi possibili, e, quale che sia il
numero di ipotesi già scartate, non può mai essere trascurata la possibilità che le ipotesi
migliori non siano ancora state ideate. Nessuna teoria scientifica perciò ha mai uno statuto
epistemico diverso da quello della «congettura». Si tratta, come è chiaro, di obiezioni assai
fondate, dalle quali difficilmente può difendersi l'induttivismo, e che dunque sono fatali per
posizioni analoghe a quelle di Mill, ma certo non si tratta di obiezioni originali, eco come
sono delle posizioni dei teorici ottocenteschi del metodo ipotetico-deduttivo.
33
La visione del metodo scientifico che Popper contrappone all'induttivismo ha il suo
fondamento nell'asimmetria tra verificazione e falsificazione. A motivo dell'importanza che
attribuisce alla falsificazione e alla falsificabilità Popper stesso definirà «falsificazionismo» la
propria epistemologia. Egli fa notare che, se, come si è detto, stabilire la verità di un'ipotesi
scientifica è un'impresa impossibile, non è invece impossibile stabilire che un'ipotesi è falsa.
Per verificare l'ipotesi infatti sarebbe necessario un numero infinito di osservazioni favorevoli.
Ma per falsificare l'ipotesi basta una sola osservazione sfavorevole. Popper pensa, d'accordo
con l'empirismo logico, che la scienza si caratterizzi per il fatto di essere controllabile sul
piano empirico, ma rigetta il suggerimento di una parte dell'empirismo logico che tale
controllabilità si identifichi con la verificabilità empirica. Sulla base dell'asimmetria di
verificazione e falsificazione Popper sostiene che essa consista invece nella falsificabilità
empirica. Il valore di un'ipotesi scientifica dipende infatti dalla capacità di predire fatti
ulteriori, e dunque appunto anche di esporsi alla potenziale falsificazione da parte delle
osservazioni future. Una ipotesi è tanto più interessante quanto più coraggiosamente si
impegna nella previsione di fatti futuri e perciò quanto più è falsificabile: il suo interesse
cresce col numero delle esperienze previste dalla teoria che giocano il ruolo di «falsificatori
potenziali».
La metafisica non è falsificabile empiricamente e cade dunque fuori dei confini della
scienza. Cadono per Popper fuori dei confini della scienza anche teorie come il marxismo e la
psicoanalisi, che, con le loro pretese onniesplicative, rifiutano sistematicamente di
confrontarsi con le obiezioni critiche: per il teorico della psicanalisi chi rifiuta la psicanalisi
stessa viene immediatamente accusato di essere vittima di qualche inconfessabile stato di
frustrazione sessuale, così come per il marxista l’avversario del marxismo non è mai un
critico con le cui obiezioni confrontarsi, ma solo un ideologo asservito agli interessi del
capitale. Psicanalisi e marxismo non ammettono di poter ricevere obiezioni serie. Proprio per
questo rientrano piuttosto nella metafisica camuffata da scienza che non nella scienza
genuina.
Secondo Popper, d'altra parte, la falsificabilità è un «criterio di demarcazione», e non un
«criterio di significanza»: essa non serve infatti a distinguere l'impiego sensato del linguaggio
dall'insensato, bensì solo a delimitare il campo della scienza da quello della metafisica. Anche
teorie non scientifiche possono per lui avere un significato. Per Popper, in particolare, le
dottrine metafisiche hanno indiscutibilmente un significato: tanto è vero che sono
34
comprensibili e criticabili. Spesso anzi hanno grande importanza. Popper ritiene che molte di
esse, come l'atomismo, siano state decisive per lo sviluppo della stessa scienza. Ma alla
metafisica manca, secondo Popper, la forma particolare di criticabilità che definisce la
scienza: la falsificabilità sulla base dell'esperienza.
Popper insiste inoltre su alcune conseguenze che discendono dall'asimmetria tra verificazione e falsificazione. In primo luogo, egli sottolinea il fatto che non ci può essere un
metodo della scoperta. Le ipotesi hanno un numero imprecisabile di sorgenti diverse, dalla
riflessione alla fantasia e all'intuizione. Il processo di costruzione dell'ipotesi è dunque del
tutto imprevedibile e non disciplinabile. È un processo creativo. Questo processo creativo sa
alimentarsi anzi degli stessi pregiudizi e delle idee non empiricamente falsificabili. La scienza
infatti può esistere solo perché la mente non è una tabula rasa: una intelligenza vuota di idee
preconcette non potrebbe costruire ipotesi da verificare e sarebbe completamente incapace di
dare inizio all'impresa scientifica. Il solo metodo scientifico è invece quello che opera per
selezionare le teorie, e non per elaborarle: il metodo delle «audaci ipotesi» e dei «severi
controlli». L'ipotesi è tanto più interessante quanto più è audace, cioè quanto più è falsificabile. I severi controlli che caratterizzano l'impresa scientifica sono costanti «tentativi di
confutazione» delle ipotesi disponibili. Una ipotesi è «corroborata» quando ha superato il
confronto con una esperienza potenzialmente falsificante: non è verificata - potrebbe sempre
essere dimostrata falsa da successive prove sperimentali -, ma resta provvisoriamente in
campo, in attesa di ulteriori controlli empirici. Popper insiste anche sul fatto che questo
metodo di controllo per «congetture e confutazioni» è un prolungamento nel mondo della
cultura del meccanismo selettivo tipico dell'evoluzione biologica.
È chiaro che il metodo scientifico tratteggiato da Popper è in linea col metodo ipoteticodeduttivo già messo in evidenza dall'empirismo del XIX secolo. È da notare inoltre che
Popper tenta anche, sebbene senza ottenere risultati pienamente soddisfacenti, di definire una
misura quantitativa del «grado di corroborazione» dell'ipotesi, tentativo che, ad onta delle
dichiarazioni di Popper stesso, per ispirazione non è sostanzialmente lontano dalle ipotesi di
lavoro dei nuovi teorici dell'induzione appartenenti all'empirismo logico. Popper insiste sul
fatto che la misura della credibilità empirica dell'ipotesi dovrebbe crescere insieme con la
falsificabilità dell'ipotesi e col numero di esperienze potenzialmente falsificanti superate.
Popper ripropone poi con nettezza l’interpretazione «realista» della funzione della teoria
scientifica: egli riconosce cioè alla teoria scientifica l’obiettivo di rispecchiare la realtà. Il
35
realismo che egli propone vuole però non essere ingenuo. Popper in particolare non intende
confondersi con l’«essenzialismo»: non sostiene cioè che la teoria scientifica costituisca una
rappresentazione dell'essenza della realtà. L'essenzialismo infatti per lui è reso indifendibile
dall'assunto congetturalista della validità esclusivamente ipotetica di ogni teoria scientifica:
non saremo mai nella posizione di potere affermare di conoscere le leggi naturali; dunque non
è la rappresentazione dell'essenza della realtà che dà senso alla scienza. Ma non per ciò, ad
avviso di Popper, ha ragione lo «strumentalismo» che riduce le teorie scientifiche a meri
espedienti predittivi, cioè a strumenti di adattamento al corso delle cose, privi di autentico
valore conoscitivo. Secondo Popper, infatti, col crescere del grado di corroborazione la
scienza cresce anche in «verosimilitudine», e cioè migliora il rapporto tra il proprio
«contenuto di verità» (l'insieme degli enunciati veri della teoria) e il proprio «contenuto di
falsità» (l'insieme degli enunciati falsi della teoria). Noi non sappiamo, per Popper, quanta
parte delle nostre idee circa la realtà sia vera e quanta sia falsa, ma possiamo essere certi che
la parte del vero si viene estendendo, e che dunque le nostre teorie scientifiche si vengono
progressivamente, e senza fine, avvicinando alle reali leggi della natura.
Carnap: la Sintassi logica del linguaggio
L’empirismo logico non si considera sconfitto dalle obiezioni di Popper. L’evoluzione
del pensiero di Carnap è particolarmente rilevante per il destino ulteriore del movimento. Nel
1931 egli ottiene una cattedra di filosofia presso l'Università di Praga. Gli scritti dell'inizio
degli anni Trenta, Il linguaggio fisicalistico come linguaggio universale della scienza (1931),
La psicologia nel linguaggio fisicalistico (1932), Sintassi logica del linguaggio (1934),
segnano una prima svolta nel suo pensiero. Tali scritti sono rilevanti da più di un punto di
vista. Per un verso, infatti, generalizzando l'idea della metamatematica elaborata dal
matematico tedesco David Hilbert (1862-1943), Carnap sostiene che la filosofia si deve risolvere in una «sintassi logica» dei linguaggi scientifici. Con la sua metamatematica Hilbert
aveva descritto in un metalinguaggio il linguaggio-oggetto della matematica: specificandone
il vocabolario, le regole per la formazione dei termini e degli enunciati, gli assiomi, le regole
di inferenza. Egli aveva accantonato ogni preoccupazione circa la natura delle cose indicate
dai segni stessi, le cosiddette entità matematiche. La sintassi logica proposta da Carnap deve
fare lo stesso anche per il «calcolo» previsto nelle diverse scienze. Il calcolo è un
«linguaggio» preso insieme con un elenco di «assiomi». Un linguaggio è un complesso di
36
«simboli», definito da «regole di formazione» degli enunciati costruibili con tali simboli e da
«regole di trasformazione» o «di inferenza» che consentono di ricavare enunciati da altri
enunciati. Gli assiomi sono le proposizioni assunte dalla teoria come primitive, dalle quali poi
le regole di trasformazione consentono di ricavare tutti gli altri enunciati che sono accettati all'interno della teoria.
Carnap pensa che il filosofo possa occuparsi solo di sintassi logica e non di ontologia.
La filosofia può produrre chiarificazioni soltanto interne al linguaggio, e dunque, per come
Carnap vede originariamente la questione, chiarificazioni di genere esclusivamente sintattico:
ogni considerazione semantica è implicitamente metafisica, e dunque priva di senso.
La sintassi logica permette anzi di dissipare le confusioni della metafisica. Una cosa
infatti sono gli enunciati «sintattici» espressi in termini di categorie linguistiche, come p.es.
“Il termine 'gatto' è un nome”, e una diversa quelli «oggettuali» espressi in termini di categorie non linguistiche, come p.es. “Il gatto è un animale”. Ora, Carnap dice che gli enunciati
della metafisica, i quali mirano a classificare oggetti, proprietà e relazioni, e a descrivere la
struttura della realtà, sono enunciati «pseudo-oggettuali»: tali enunciati cioè presentano in
termini di categorie non linguistiche degli assunti che riguardano in effetti le categorie
linguistiche; essi sono enunciati sintattici travestiti da enunciati oggettuali. Un enunciato
pseudo-oggettuale come p.es. “Il gatto è un oggetto” equivale infatti a “Il termine 'gatto' è un
nome”; uno come “Il nero è una proprietà” a “Il termine 'nero' è un aggettivo”. Per eliminare
la metafisica bisogna dunque passare dal «modo di parlare contenutistico» che si esprime in
termini di enunciati oggettuali, al «modo di parlare formale» adottato dalla sintassi logica, che
si esprime in termini di enunciati sintattici.
Inoltre, contro il presupposto della possibilità di un linguaggio ideale, condiviso da
esponenti della tradizione analitica come Russell e Wittgenstein, Carnap enuncia il «principio
di tolleranza», che riconosce la scelta di una particolare sintassi come puramente
convenzionale e pragmatica. Carnap dichiara esplicitamente che nessun linguaggio deve
essere escluso in linea di principio come linguaggio di base: «in logica non c’è morale». Ogni
linguaggio formale può andare bene; la questione non è di verità o falsità, ma solo di vantaggi
o svantaggi pratici.
37
L’empirismo logico in America
La creazione del Terzo Reich nel 1933 e l'annessione dell'Austria nel 1938 creano anche
attorno agli empiristi logici, portatori di una visione razionalista e progressista, nonché in
molti casi di origine ebraica, un'atmosfera politica ostile. In forza dei contatti intellettuali
stabiliti fino dal 1929 con il mondo filosofico statunitense, gran parte di loro sceglie di
emigrare in America. Nel 1934, anno della morte di Hahn, Reichenbach si trasferisce prima in
Turchia e poi negli USA, dove è professore presso l'Università della California dal 1938 alla
morte, mentre Hempel emigra in Belgio e Neurath inizialmente in Olanda. Nel 1935 anche
Carnap si trasferisce negli USA. La minaccia d'altronde non è ipotetica. Nel 1936 infatti lo
stesso Schlick viene assassinato da un nazista e il regime tedesco esalta il suo atto. Dal 1938
nei paesi dominati dal nazionalsocialismo viene infine del tutto proibita la circolazione delle
opere degli empiristi logici.
Stabilitosi in Inghilterra, Neurath mantiene stretti legami con gli altri empiristi logici.
Insieme a Carnap e al pragmatista Charles W.Morris (1901-1979), avvia nel 1938 la
realizzazione del più ambizioso progetto del Circolo di Vienna, l'Enciclopedia Internazionale
della Scienza Unificata, una serie di monografie per mezzo delle quali dare corpo alla
dimensione intersoggettiva e interdisciplinare della scienza teorizzata dall'empirismo logico.
La serie ottiene la collaborazione di Bohr, Dewey, Reichenbach, Russell, Tarski, e altri.
Attraverso tale impresa si consolida la confluenza col pragmatismo, che caratterizza le fasi
ulteriori dello sviluppo dell'empirismo logico e che conduce a una liberalizzazione delle
dottrine originarie su diversi terreni teorici. Protagonista di questo sviluppo è di nuovo Rudolf
Carnap.
Carnap: la nuova teoria dell’induzione
Trasferitosi negli USA, dal 1936 al 1952 Carnap insegna all'Università di Chicago, poi
per due anni a Princeton, e, dal 1954 fino al termine della sua attività di docente nel 1961, a
Los Angeles presso l'Università della California. Soprattutto il contatto con il pragmatismo di
Morris lo spinge a una nuova revisione delle posizioni circa il metodo della scienza.
Un primo terreno sul quale si determina una decisiva liberalizzazione dell'empirismo
nella direzione del convenzionalismo e del pragmatismo è rappresentato dalla questione dell'induzione. Gli empiristi logici del Circolo di Vienna non sono induttivisti. Tutti quanti sono
chiaramente consapevoli della funzione puramente congetturale delle teorie scientifiche e si
38
pongono espressamente dalla parte del metodo ipotetico-deduttivo di elaborazione delle
teorie. Essi sono anzi i protagonisti principali del processo di ridefinizione del problema dell'induzione che segue la finale sconfitta dell'induttivismo milliano. Ciò che gli empiristi logici
chiamano metodo induttivo infatti non è un metodo di ricerca delle leggi della natura fondato
sulla generalizzazione dei dati osservativi, bensì un metodo per la valutazione della
probabilità delle ipotesi scientifiche sulla base dei dati osservativi.
La ricerca su questo tema è promossa inizialmente da Hans Reichenbach e Richard von
Mises. In Teoria della probabilità (1935) ed Esperienza e predizione (1938), Reichenbach
propone di reinterpretare l'induzione come metodo non per scoprire le leggi della natura, ma
per valutare la credibilità empirica delle ipotesi. Ma è di nuovo Carnap che conduce la ricerca
a conseguire i più significativi risultati con i Fondamenti logici della probabilità (1950) e poi
Il continuo dei metodi induttivi (1952). Carnap identifica appunto la probabilità di un evento
con la misura calcolabile del «grado di conferma» dell'ipotesi che l'evento si verifichi, tenuto
conto dell'evidenza osservativa disponibile. Nella teoria classica della probabilità, elaborata
da Pierre-Simon de Laplace all'inizio del XIX secolo, la probabilità di un evento era definita
come il rapporto tra il numero dei casi in cui l'evento si verifica e quello della totalità dei
casi equipossibili, dei casi cioè che hanno uguali ragioni per verificarsi. La riflessione
epistemologica intorno alla probabilità si era proposta essenzialmente di chiarire questo
concetto di «uguali ragioni». L'empirismo logico della stagione europea, con Reichenbach e
von Mises, si era pronunciato per la concezione frequentista (o empirica): proponeva di
intendere la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento
quando il numero totale dei casi tende all'infinito. Ma era emersa anche una concezione
diversa, logica, sostenuta da Wittgenstein, Ramsey e dall’economista inglese John Maynard
Keynes (1883-1946), che interpretava la probabilità dell'evento come il rapporto tra il numero
delle situazioni logicamente distinte in cui l'evento si verifica e il numero totale delle
situazioni distinte logicamente possibili.
Carnap intende la probabilità come grandezza relativa: probabilità di una certa ipotesi
in relazione a una certa evidenza. Egli tuttavia presenta la sua misura come una funzione
calcolabile, e in questo è appunto vicino alla concezione logica. Identifica poi la probabilità di
una previsione generale con la probabilità che la previsione sia confermata dal prossimo
controllo, riducendo dunque la probabilità dell'ipotesi circa una legge alla probabilità dell'ipotesi circa un fatto singolo. L'idea centrale della sua teoria è che non vi è ragione di
39
riconoscere un unico metodo induttivo di calcolo della probabilità: nel calcolare la probabilità dell'ipotesi che l'evento indagato si verifichi in un certo modo (p.es. che il prossimo
lancio del dado dia un cinque) posso tenere conto sia della frequenza degli eventi passati di
quel genere (1/4, se supponiamo che finora il cinque sia uscito dieci volte su quaranta) sia del
rapporto tra i casi in cui l'evento è del tipo ipotizzato e il numero dei casi logicamente possibili (1/6, poiché le facce del dado sono sei). Soprattutto, posso fare una scelta intermedia, che
tiene conto di entrambi i fattori: il «fattore frequenziale» e il «fattore logico». In generale,
nota Carnap, un metodo induttivo elaborerà una certa media dei valori che si otterrebbero con
metodi di calcolo estremi. Tale media sarà una media ponderata: attribuirà un certo peso al
fattore logico e il restante peso al fattore frequenziale. Il peso del fattore logico, λ, un numero
reale compreso tra zero e uno, individua ciascun particolare metodo induttivo in un
«continuo» compreso tra i due metodi estremi.
La prospettiva che Carnap assume è antifondazionale. Carnap riconosce infatti che la
scelta di un metodo induttivo ha un carattere pragmatico e non è soggetta a prescrizioni
aprioristiche. Si può dire solo che metodi induttivi con un alto peso del fattore logico saranno
più efficaci in mondi molto casuali, e che i metodi opposti saranno più efficaci in mondi più
regolari.
I paradossi della conferma
La chiarificazione dei metodi induttivi per il calcolo della probabilità delle ipotesi si
viene a scontrare tuttavia con i cosiddetti «paradossi della conferma». Il primo dei paradossi,
quello dei Corvi, è individuato nel 1945 da Carl Gustav Hempel. Si prenda l'ipotesi che tutti i
corvi siano neri. Qualunque sia il metodo induttivo prescelto e qualunque evidenza osservativa sia disponibile, il grado di conferma di tale ipotesi sarà uguale al grado di conferma
dell'ipotesi che tutte le cose che non sono nere non siano corvi: le due infatti sono equivalenti
nell'ambito della logica classica, e quindi saranno confermate dalla medesima evidenza. Ora,
la seconda ipotesi è confermata tutte le volte che osserviamo una cosa non nera diversa da un
corvo. Le stesse osservazioni dovrebbero dunque rafforzare anche la prima. Ciò significa
tuttavia che l'ipotesi che tutti i corvi siano neri dovrebbe essere via via rafforzata dalle
osservazioni di papaveri rossi e di orsi bruni: cosa ben poco verosimile intuitivamente.
Il secondo paradosso, quello degli Smeraldi, viene messo in luce nel 1946 dallo
statunitense Nelson Goodman (1906-1998), collaboratore di Quine e poi professore presso
40
l'Università di Harvard. Immaginiamo di chiamare 'blerde' ogni cosa risultata verde nelle
osservazioni compiute fino a ora e tutte le cose blu che troveremo da adesso in poi.
Immaginiamo inoltre di volere calcolare la probabilità induttiva delle ipotesi sul colore del
prossimo smeraldo osservato. Calcoliamo in particolare i gradi di conferma dell'ipotesi che il
prossimo smeraldo sia verde e di quella che sia blerde. Dato che tutti gli smeraldi finora osservati sono verdi, e dunque sono anche blerdi, con qualunque metodo induttivo effettuiamo il
calcolo, i due gradi di conferma saranno uguali. Ma uno smeraldo blerde futuro è uno
smeraldo blu. Ne segue il paradosso che, alla luce della teoria carnapiana dei metodi induttivi,
il fatto empirico che tutti gli smeraldi osservati in passato siano verdi e nessuno sia blu
conferma nello stesso grado, e con qualunque metodo induttivo, la previsione che gli smeraldi
futuri siano verdi e la previsione che essi siano blu.
I paradossi della conferma mostrano dunque che è necessaria una revisione della teoria
carnapiana dei metodi induttivi. Per fare fronte a questa esigenza Goodman in Fatti, ipotesi e
previsioni (1954) elabora una «teoria della proiettabilità». Goodman contesta un assunto che
accomuna gran parte della precedente filosofia della scienza: l'assunto che ogni ipotesi,
qualunque sia il sistema di concetti che impiega, goda di una uguale legittimità intrinseca,
cioè che ogni concetto sia ugualmente «proiettabile», ovvero utilizzabile nelle previsioni, e
che la validità dell'ipotesi dipenda solo dal suo riscontro nei fatti. Goodman suggerisce al
contrario che non tutti i concetti siano ugualmente proiettabili e che la loro diversa
proiettabilità dipenda dal grado di «incorporazione» che essi hanno nel linguaggio, cioè dalla
misura in cui essi si sono rivelati affidabili nelle previsioni effettuate in passato. La
proiettabilità p.es. è alta per un concetto come 'verde', nulla per un concetto come 'blerde'.
Sotto un aspetto decisivo il discorso di Goodman conferma comunque il punto di vista
di Carnap: la questione dell'induzione non ammette una soluzione aprioristica; essa infatti
implica elementi irriducibilmente pragmatici, e dunque inidonei a ricevere una trattazione
normativa. Lo sottolinea il finlandese Jaakko Hintikka (1929, vivente) che in Un continuo
bidimensionale dei metodi induttivi (1966) propone un perfezionamento della stessa teoria di
Carnap. Hintikka ritiene che i metodi induttivi debbano essere individuati, oltre che dal peso
del fattore logico carnapiano, anche da un ulteriore fattore che misura il grado di prudenza
che il metodo adotta nell'assegnare valori di probabilità a priori alle generalizzazioni
induttive. Tale ulteriore fattore infatti rappresenta il numero minimo di individui che devono
comporre un ipotetico universo finito perché le probabilità induttive delle ipotesi nel nostro
41
universo in linea di principio infinito possano essere considerate a priori uguali alle
probabilità induttive carnapiane calcolabili in esso. Per Hintikka dipendono da una decisione
pragmatica tanto la scelta di un peso per il fattore logico quanto l'assegnazione di un valore
per la grandezza che misura la prudenza induttiva.
Hempel: la teoria della legge di copertura
È durante la stagione americana dell’empirismo logico, inoltre, che Hempel formula
un’analisi del concetto di spiegazione scientifica che riceverà notevole attenzione: la «teoria
della legge di copertura». Emigrato in America all'avvento del nazionalsocialismo al potere,
egli insegna presso l'Università di Chicago, e poi a Yale e a Princeton. Prima nel saggio La
funzione delle leggi generali nella storia (1942) e poi sistematicamente in Aspetti della spiegazione scientifica (1965), propone la propria teoria della spiegazione scientifica.
Molti avevano sostenuto che la teoria scientifica, per avere un valore esplicativo, deve
illustrare il fenomeno che è suo oggetto attraverso una analogia con qualche fenomeno più
familiare: così, p.es., la teoria cinetica dei gas trae il suo valore esplicativo dal fatto di
permetterci di vedere il gas come uno sciame di particelle che si muovono e si urtano tra loro;
essa ci fa comprendere le leggi dei gas per analogia con quel modello familiare. Hempel
polemizza contro questa visione e formula un'analisi completamente diversa del potere
esplicativo della teoria. La proposta di Hempel muove dall'idea, suggerita peraltro anche da
Popper, che uno stato di cose è spiegato dalla teoria se e solo se questa indica un insieme di
altri stati di cose accertati e un insieme di regolarità nomiche, o leggi, che, presi assieme,
consentano di dedurre lo stato di cose da spiegare.
Il problema della spiegazione si riduce dunque a quello del potere deduttivo della
teoria: i modelli familiari sono irrilevanti. Per Hempel la questione è solo se la teoria «copra»
i fatti. Dispone della spiegazione di un fenomeno chi, non essendo a conoscenza del
fenomeno, avrebbe potuto predirlo. E poiché quando si spiega un fenomeno, il fenomeno è
evidentemente già noto, Hempel dice che spiegare è un po' come «retrodire», o 'predire all'indietro', i fenomeni che conosciamo.
È chiaro che una simile svalutazione del ruolo dei modelli familiari ha alle spalle le
scelte filosofiche dei fisici teorici impegnati a elaborare la meccanica quantistica tra le due
guerre mondiali, le discussioni a proposito della natura corpuscolare o ondulatoria degli
oggetti quantistici, lo strumentalismo dell’interpretazione di Copenaghen.
42
Carnap: la semantica delle teorie scientifiche
Le scoperte del logico polacco Alfred Tarski (1902-1983) esercitano inoltre una
profonda influenza sugli empiristi logici. Tarski ha indicato il modo in cui possono essere
definiti in un metalinguaggio sia il riferimento dei termini di un linguaggio-oggetto sia le
condizioni di verità dei suoi enunciati. Non si tratta di fare metafisica. Impossibile esplorare il
rapporto tra linguaggio e realtà in assoluto: è chiaro che non si può definire il significato
extralinguistico dell’apparato di un linguaggio, se non ancora impiegando un linguaggio.
Tarski del resto nel 1936 ha dimostrato un importante teorema che riguarda i linguaggi
formalizzati che abbiano un certo grado di complessità, come p.es. il linguaggio
dell’aritmetica: è impossibile definire le condizioni di verità per gli enunciati restando
all’interno di un linguaggio di questo tipo; le condizioni di verità possono essere definite solo
in un altro linguaggio più potente e impegnativo. Detto in altri termini, un linguaggio
abbastanza interessante non riesce a spiegare il proprio concetto di verità.
È soprattutto Carnap a trarne le conseguenze filosofiche. Adesso egli ritiene possibile
ritrattare il drastico rifiuto della problematica semantica che aveva caratterizzato la Sintassi
logica del linguaggio, senza per questo compromettersi con forme surrettizie di metafisica.
Generalizzando l'approccio di Tarski, in Introduzione alla semantica (1942) e in Formalizzazione della logica (1943), esplicita una maniera canonica per affrontare le questioni del
riferimento dei segni. Ora Carnap descrive la teoria di una scienza come un «calcolo» puramente formale al quale viene associata una «interpretazione» che rende la teoria suscettibile di
controllo empirico.
È chiaro che la correttezza delle proposizioni che possono essere dedotte dagli assiomi
della teoria è una correttezza semplicemente convenzionale: il calcolo è un sistema sintattico e
niente in esso chiama in causa la verità extra-linguistica. Riguardo al problema della
preferenza da accordarsi a un calcolo piuttosto che ad un altro, vale naturalmente il principio
di tolleranza: non c'è un calcolo che in assoluto sia migliore o più adeguato alla struttura della
nostra intelligenza. È l'eventuale interpretazione a precisare le condizioni di verità extralinguistiche degli enunciati del calcolo. Se associamo al calcolo un'interpretazione osservativa, tramite tale interpretazione noi possiamo controllare empiricamente la teoria.
Capovolgendo gli assunti originari dell'empirismo logico, d’altra parte, Carnap accetta
il fatto che le proposizioni di una scienza non si lasciano ridurre completamente a fatti os-
43
servati o osservabili: la teoria fisica in generale è suscettibile di interpretazione solo parziale,
e dunque anche che essa è suscettibile di un controllo solo incompleto. La libera scelta di una
convenzione formale, consigliata o sconsigliata da considerazioni di comodità, è dunque
vincolata dai dati di fatto, quando associamo a questa convenzione un significato osservativo,
ma il vincolo dell'interpretazione empirica non è stretto e non può mai obbligarci in modo
definitivo ad accettare una particolare teoria.
Contro la nuova prospettiva accolta da Carnap, Neurath si fa portavoce del punto di
vista originario dell’empirismo logico e rifiuta come in se stesso metafisico ogni pronunciamento semantico. In Empirismo, semantica e ontologia (1950) Carnap replica alle accuse di
Neurath distinguendo due generi differenti di questioni ontologiche: da un lato, le «questioni
interne», cioè quelle relative alle entità postulate all’interno della semantica dei nostri linguaggi; dall’altro, le «questioni esterne», cioè quelle relative all’adeguatezza dei nostri
linguaggi stessi considerati nel loro complesso, dunque con le loro strutture sintattiche e
insieme anche con i loro postulati semantici. È una questione di esistenza interna, p.es., se
entro l’aritmetica sia ammessa l’esistenza di numeri primi; o se entro il linguaggio cosale o
fisicalistico, che ammette solo ciò che è esprimibile in termini di oggetti pubblicamente
osservabili e di comportamenti fisici, si possa parlare di stati mentali come sensazioni o
sentimenti. Una questione di esistenza esterna, invece, p.es., se l’aritmetica sia una buona
teoria; se il linguaggio cosale sia altrettanto legittimo, o addirittura più legittimo, del
linguaggio dei semplici dati di senso. Secondo Carnap, discutere questioni ontologiche interne
a un certo linguaggio è perfettamente sensato e la teoria di Tarski mostra la via per farlo
correttamente: non compromette con la metafisica perché non obbliga a decidere se certe
pretese entità esistano davvero, ma solo se esse siano riconosciute dal linguaggio che analizziamo. È invece insensato e caratteristico della metafisica discutere questioni ontologiche
esterne. Le questioni esterne, correttamente intese, infatti, non sono materia di indagine
teoretica, come pretende la metafisica, bensì di decisione pragmatica: stabilire se un certo
sistema sintattico e semantico sia adeguato non è accertare se esso corrisponda alla realtà, ma
solo decidere se esso sia uno strumento adatto a soddisfare le nostre esigenze.
Quine: la liberalizzazione olistica del criterio di significanza empirica
Tra gli anni Cinquanta e gli anni Sessanta la riflessione sul problema della significanza
conduce gli empiristi logici infine a una ultima più radicale liberalizzazione. Fa da motore a
44
tale processo l'acquisizione del carattere olistico dei controlli empirici, anticipata dal
convenzionalista francese Duhem e sottolineata poi in particolare dallo statunitense Willard
V. O. Quine (1908-2000). Laureatosi in matematica sotto la guida di Whitehead, Quine negli
anni trenta aveva studiato in Europa, dove era venuto in contatto col Circolo di Vienna,
subendo in particolare l'influenza di Carnap. Tornato in America, era divenuto professore di
filosofia presso l'Università di Harvard. I suoi primi contributi avevano riguardano la logica,
e, in particolare, la teoria degli insiemi, cui aveva dedicato i Nuovi fondamenti della logica
matematica (1937), Logica matematica (1940), più tardi seguiti da Logica elementare (1965)
e Filosofia della logica (1970). Riprendendo la vecchia considerazione di Duhem, in Due
dogmi dell'empirismo (1951) prima, e poi più estesamente in Carnap e la verità logica (1954)
e Verità necessaria (1963), Quine rileva che nessuna ipotesi scientifica è sottoposta al controllo empirico isolatamente, bensì solo in connessione con una molteplicità di altre
assunzioni matematiche, logiche, fisiche, relative soprattutto al funzionamento degli strumenti
di misura, che sono necessarie per trarre delle conseguenze teoriche dai dati sperimentali
grezzi. Quine giunge alla conclusione che è impossibile attribuire al singolo enunciato un suo
autonomo significato empirico: «l’unità di misura della significanza empirica è tutta la
scienza nella sua globalità»; la tesi del carattere olistico dei controlli empirici conduce a una
liberalizzazione olistica della concezione del significato, e cioè al superamento della visione
«atomistica» tipica dell'empirismo logico delle origini, caratterizzata dall'idea che ogni
singolo enunciato sensato sia associabile a un insieme determinato di possibili conferme
empiriche e sia distinguibile dagli altri semanticamente in virtù della specificità di esse.
Secondo Quine, tuttavia, intesa correttamente, questa nuova liberalizzazione non
rappresenta solo un ridimensionamento dell'importanza del concetto di significato empirico,
ma produce conseguenze devastanti sull'intero patrimonio concettuale della semantica
filosofica. È vero che, per lui, la liberalizzazione olistica non intacca la nozione di significanza. Ma ciò solo perché nella sostanza essa è una nozione sintattica, e non semantica:
riconoscere una espressione come significante non comporta in realtà pensare che esista una
entità come il suo significato, ma, in maniera ontologicamente più sobria, solo trovare che
essa rispetta le regole sintattiche per la formazione di termini ed enunciati accettate nel
linguaggio di cui essa fa parte; per tracciare la distinzione tra sensato e non sensato non
abbiamo bisogno di confrontare il linguaggio con altro. La liberalizzazione della visione empiristica del significato intacca però i concetti specificamente semantici fino a distruggerli.
45
Infatti, dire che non può essere individuata nessuna unità di significato più piccola dell'intero
patrimonio linguistico preso nel suo complesso equivale a dire che nessuna unità di
significato può essere concretamente individuata: l'idea di significato perde ogni portata
empirica.
Quine mostra innanzitutto che la nozione di significato è interdefinibile con quella di
analiticità: significato è ciò che hanno in comune enunciati analiticamente equivalenti;
analiticamente equivalenti sono gli enunciati che hanno lo stesso significato. Egli osserva poi
che, accettato il carattere olistico dei controlli empirici, e dunque constatato che non è
possibile né collegare l'enunciato a un gruppo specifico di possibili esperienze confermanti né
parlare di enunciati immuni da revisione, perché veri solo in base alla definizione dei termini
che compaiono in essi, come erano concepiti gli enunciati analitici dalla tradizione filosofica,
il concetto di significato e quello di analiticità perdono del pari plausibilità agli occhi di un
empirista: l'empirista infatti vuole ammettere solo le distinzioni che possano essere applicate
empiricamente; ma la dinamica dell'enunciato all'interno del patrimonio linguistico non
consente in alcun modo di stabilire empiricamente quale sia il significato dell'enunciato e
neppure di riconoscere il preteso enunciato analitico. Le nozioni di significato e di analiticità
diventano incompatibili con la concezione empiristica della conoscenza, una volta che questa
sia stata liberalizzata in senso olistico. Se l'empirismo deve essere liberato dai suoi «dogmi
non empirici», bisogna rinunciare a tali idee. Il patrimonio linguistico è un tutto interconnesso
che risponde allo stimolo dell'esperienza solo con la mediazione di un complesso di
convenzioni pragmatiche così intrecciate col contenuto empirico da risultare inestricabili da
esso. Quine propone un «empirismo senza dogmi» libero dagli assunti della controllabilità
enunciato per enunciato e dell’analiticità. Questo obiettivo dell’empirismo senza dogmi lo
porterà tra l’altro a esprimere preferenze ontologiche molto più drasticamente restrittive di
quelle che erano emerse nella tradizione moderna dell’empirismo: giudicherà empiricamente
sconsigliabile ammettere l’esistenza di proprietà e relazioni, entità possibili, intensioni. E si
pronuncerà esplicitamente per il carattere relativo e pragmatico di ogni assunto ontologico.
Il relativismo ontologico, d'altra parte, come Quine sottolinea lucidamente, mina a sua
volta alla base l'intero programma fondazionalista che regge buona parte dell'epistemologia
contemporanea, rendendo manifesta l'impossibilità di misurare in assoluto la validità delle nostre pretese conoscitive. Da disciplina diretta a fondare la scienza naturale, quale essa aveva
inteso essere, per Quine l'epistemologia è obbligata a ridefinirsi essa stessa come una
46
semplice scienza naturale: si risolverà a suo avviso nella scienza naturale impegnata a
descrivere, senza potere valutarle, le attività umane di concettualizzazione. Quine esplicita le
ragioni del proprio naturalismo epistemologico in Epistemologia naturalizzata (1968) e in Le
radici del riferimento (1974).
Ne Il carattere metodologico dei concetti teorici (1956), Carnap stesso consente con il
punto di partenza olistico di Quine e ripropone la concezione debole della significanza
empirica che era stata di Ayer: è dotato di senso empirico solo l'enunciato che, in congiunzione con altri, consente di dedurre enunciati osservativi che non potrebbero essere
ricavati altrimenti. Egli si rende conto che il criterio di Ayer in effetti finisce per non negare
senso empirico ad alcun enunciato. Non vorrebbe però rifiutare del tutto, come Quine, l'idea
stessa di senso empirico: vorrebbe piuttosto renderla meno restrittiva. Ma è chiaro che la
massima liberalità semantica che Carnap introduce nella teoria empiristica all'atto pratico
risulta poco distinguibile dalla posizione scettica di Quine.
Come Carnap, anche Hempel in Problemi e mutamenti del criterio empiristico di significato (1950) si pronuncia per una liberalizzazione del criterio empiristico di significanza
che tenga conto del carattere olistico dei controlli empirici. In maniera conseguente Carnap e
Hempel rinunciano alla vecchia idea della filosofia come «analisi» dei concetti e la
sostituiscono con quella della filosofia come «esplicazione» dei concetti. Infatti, dato che l'idoneità e l'equivalenza semantiche non possono essere distinte dall'efficienza e dalla
sostituibilità pragmatiche, e dato che il mutamento di significato non può essere identificato
localmente per le espressioni determinate, a loro giudizio, il filosofo non dovrebbe proporsi di
tradurre in una notazione priva di ambiguità i concetti del linguaggio ordinario che rivestono
interesse per la scienza, salvando esattamente il significato - non vuol dire nulla “salvare
esattamente il significato” -, quanto piuttosto dovrebbe elaborare dei concetti rigorosi e pienamente dominabili, idonei a svolgere la medesima funzione dei concetti ordinari, ma in modo
ancora più rispondente alle nostre esigenze. Così, p.es. , il concetto ordinario di 'sostegno
empirico' potrà essere esplicato da quello, specificabile in termini rigorosi, di 'grado di
conferma', e il concetto ordinario di 'deduzione' da quello meno vago di 'derivazione'.
Le eresie relativiste del falsificazionismo: Kuhn
La svolta relativistica che ha segnato gli eredi dell’empirismo logico, coinvolge anche la
filosofia della scienza di ispirazione popperiana. Matura soprattutto grazie ai contributi di uno
47
storico della scienza, Kuhn, e di due filosofi della scienza, Lakatos e Feyerabend, in diverso
modo legati alla prospettiva teorica del falsificazionismo, e finisce per mettere in dubbio
anche l’idea della razionalità scientifica. Non stupisce del tutto che la critica più clamorosa di
tale idea emerga proprio dall'interno del filone falsificazionista. Negli anni Sessanta, infatti,
Karl Popper è il solo importante epistemologo che ritenga ancora possibile offrire una
caratterizzazione normativa della scienza. La filosofia sviluppata dall'empirismo logico,
invece, conquistata, per opera soprattutto di Quine, all'idea della scienza come impresa essenzialmente olistica, in quegli anni è già decisamente più cauta: essa ha ben chiaro che la
complessità olistica della scienza rende vacuo il progetto di distinguere in modo assoluto nella
scienza tra il fondato e l'infondato, tra il progressivo, l'erroneo e il superfluo.
La contestazione del razionalismo popperiano è stimolata inizialmente dall'opera di
Thomas S. Kuhn (1922-1996). Statunitense, passa dalla ricerca fisica alla storia della scienza
con La rivoluzione copernicana (1957) e La conservazione dell'energia come esempio di scoperta simultanea (1959). Anche la sua opera più importante, destinata a coinvolgerlo nel
dibattito propriamente filosofico, La struttura delle rivoluzioni scientifiche (1962), è
essenzialmente un libro di storia della scienza, anche se indirizzato al chiarimento di categorie
storiografiche generali piuttosto che alla ricostruzione di vicende particolari. In quest'opera
Kuhn esplicita la convinzione maturata tra il 1960 e il 1961 insieme a Feyerabend, come lui
professore presso l'Università di Berkeley, che lo sviluppo della scienza non abbia
l’andamento lineare, cumulativo e teleologico che i filosofi avevano per lo più ritenuto
assodata nelle discussioni della prima metà del secolo, e che al suo interno sia dato di incontrare sistemi concettuali tra loro «incommensurabili». Secondo Kuhn, la storia della
scienza è scandita da fratture epocali dagli sviluppi e dall'esito largamente imprevedibili (i
momenti di «scienza straordinaria»), che separano periodi nei quali l'indagine scientifica si
svolge invece con un andamento sostanzialmente cumulativo (i periodi di «scienza normale»).
Nei periodi di scienza normale la ricerca procede in maniera cumulativa perché vi è un
«paradigma» accolto dall'intera «comunità scientifica»: esiste, cioè, un patrimonio condiviso,
spesso condensato in testi considerati capitali, come la Fisica di Aristotele, l'Almagesto di
Tolomeo o i Principi di Newton, fatto di teorie accettate, esperimenti giudicati come basilari,
idee, abitudini di lavoro, preconcetti, patrimonio che fa da sfondo all'addestramento delle
nuove leve scientifiche e guida la ricerca. Kuhn contesta infatti l'immagine individualistica
della conoscenza, che ha accomunato gran parte della filosofia moderna, ivi compresa la
48
filosofia della scienza empirista: l'immagine dell'impresa scientifica come opera della mente
individuale messa a confronto con i dati osservativi. Egli insiste sul fatto che la scienza è invece un'opera essenzialmente collettiva.
Il lavoro scientifico viene paragonato da Kuhn al gioco del «rompicapo» (puzzlesolving, in inglese): nella scienza normale infatti gli elementi del problema sono già tutti dati
e si tratta solo di combinarli secondo una tecnica universalmente riconosciuta. Si determinano
periodi di scienza straordinaria, invece, quando la ricerca non può più limitarsi a un'attività di
routine, ma è forzata a reinventare i termini medesimi in cui viene posto il problema: un
genere di situazione critica che si presenta allorché le «anomalie» rispetto ai canoni sono tante
e tali da non potere più essere affrontate nei termini previsti dal paradigma, il paradigma
stesso diviene «sfocato», privo di valore euristico, e di conseguenza la comunità scientifica si
disorienta e va incontro a un processo di sfaldamento. Nei periodi di scienza strordinaria
emergono proposte che non si limitano ad abbattere teorie indiscusse per secoli, ma
trasformano lo stesso linguaggio osservativo, rovesciano le tecniche sperimentali note,
rigettano consolidati modelli di argomentazione. Tra i conservatori che si sforzano di salvare
a ogni costo le tradizioni scientifiche vigenti e i rivoluzionari iconoclasti, nota Kuhn, la
comunicazione si interrompe: gli uni e gli altri sono sordi alle proposte degli avversari e
praticamente incapaci di comprendere le loro ragioni. Da questa situazione bloccata non si
esce attraverso una dialettica razionale. Si esce piuttosto attraverso un processo fisiologico di
turn-over: i vecchi scienziati tradizionalisti progressivamente abbandonano la scena, i
rivoluzionari egemonizzano la formazione delle nuove leve della ricerca.
Dopo anni di discussioni e polemiche, nel Poscritto (1969) a La struttura delle
rivoluzioni scientifiche e poi nei saggi di La tensione essenziale (1977), Kuhn ha proposto di
sostituire al concetto di «paradigma», oggetto di vari fraintendimenti, quello di «matrice
disciplinare». Egli ha soprattutto insistito sul fatto di non avere mai inteso formulare una teoria circa la natura del linguaggio scientifico, ma solo una descrizione antropologica delle
forme di vita delle comunità scientifiche concretamente esistenti: di non avere preteso, cioè,
di fare filosofia della scienza, bensì esclusivamente storia della scienza. Kuhn ha parlato
inoltre della «tensione essenziale» tra paradigmi o matrici differenti, che ha stimolato lo
sviluppo della scienza moderna: in particolare della tensione tra gli schemi di pensiero delle
scienze matematizzate e quelli delle più empiriche scienze della vita, del calore, del
magnetismo, delle trasformazioni chimiche. Egli ha voluto mostrare, cioè, come, anche in un
49
medesimo periodo storico, elaborazione teorica, osservazione, esperimento, idealizzazione,
controllo attraverso verifiche mentali, etc. , possano avere ruoli e significati del tutto diversi.
Resta però il fatto, secondo Kuhn, che i nuovi quadri di pensiero si impongono, e che si
entra in un ulteriore periodo di scienza normale, senza che vi sia stata una vera e propria
dimostrazione della insostenibilità del precedente punto di vista. Così a suo avviso è avvenuto
per la vittoria del sistema copernicano su quello tolemaico, così nel caso della sostituzione
della fisica quantitativa di Galileo e di Newton a quella qualitativa di Aristotele. Kuhn sembra
suggerire, sulla scorta di considerazioni che egli stesso riconosce sostanzialmente anticipate
dallo scienziato e storico polacco della scienza Ludwik Fleck (1896-1961), che non vi siano, e
non vi possano essere, delle ragioni universalmente valide per preferire un paradigma a un
altro. Kuhn interpreta l'affermarsi di un paradigma a un «riorientamento gestaltico». Egli parla
di tale processo anche come di una specie di «conversione religiosa». Intuizione e fede hanno,
cioè, nella ricerca scientifica, un ruolo che apologeti della razionalità scientifica come Popper
ignorano sistematicamente. Il fatto decisivo, a giudizio di Kuhn, è che nella scienza
straordinaria vengono a mancare istanze di controllo capaci di decidere imparzialmente il
contrasto: i rivoluzionari e i tradizionalisti di solito non condividono più neppure un medesimo linguaggio osservativo e una medesima tecnica argomentativa; ciò che gli uni vedono
come prova decisiva, è agli occhi degli altri assurdo patente. È in questo senso che Kuhn parla
di una «incommensurabilità» dei paradigmi alternativi.
Bisogna osservare peraltro che Kuhn non ha mai considerato giustificata l'accusa di
irrazionalismo, proveniente da Popper e dai suoi più stretti seguaci. Kuhn sostiene infatti che
la scienza è fondamentalmente scienza normale, e che la scienza straordinaria è solo un
processo perturbatore in se stesso estraneo agli scopi dei ricercatori. Kuhn sostiene anzi che la
scienza è un'impresa essenzialmente razionale, proprio argomentando a partire dall'assunto
che una certa dose di conservatorismo, il conservatorismo della scienza normale, è parte integrante della razionalità: un'argomentazione che d'altra parte scandalizza ancora più i
popperiani, convinti viceversa che il conservatorismo sia il contrassegno dell'atteggiamento
antiscientifico e, più in generale, dell'irrazionalità.
Le eresie relativiste del falsificazionismo: Lakatos
Il punto di vista di Kuhn stimola comunque i popperiani alla revisione. Imre Lakatos
(1922-1974) in particolare riconosce la necessità di una più stretta collaborazione tra filosofi e
50
storici della scienza. Ungherese, il suo vero nome è Imre Lipschitz. Dopo essere stato
perseguitato dal nazionalsocialismo a causa delle sue origini ebraiche, milita nella resistenza
nelle file comuniste. Incarcerato e poi esiliato dal regime comunista dopo l'insurrezione del
1956, approda infine, nel 1960, alla London School of Economics, dove si lega a Popper. Si
occupa di filosofia della matematica, e, influenzato dal falsificazionismo popperiano, in
Dimostrazioni e confutazioni (1976), si propone di interpretare la matematica come sviluppo
conoscitivo progrediente per congetture e confutazioni. Nel 1965 organizza a Londra il
convegno su Critica e crescita della conoscenza dedicato alla discussione delle tesi di Kuhn.
Parafrasando Kant, Lakatos afferma infatti che «la filosofia della scienza senza storia della
scienza è vuota, la storia della scienza senza filosofia della scienza è cieca»: dalla storia della
scienza deve, cioè, essere estratto un insegnamento filosofico; ma, d'altra parte, la filosofia
della scienza deve mettere il proprio insegnamento a confronto con i dati storici perché questo
sia credibile. Sollecitato da tale convinzione, negli anni successivi, in La falsificazione e la
metodologia dei programmi di ricerca scientifici (1970) e La storia della scienza e le sue
ricostruzioni razionali (1971), egli elabora un progetto complessivo di «ricostruzione
razionale» della dinamica storica delle teorie, che battezza «metodologia dei programmi di
ricerca scientifici».
Almeno apparentemente, Lakatos rifiuta l'immagine della razionalità scientifica
proposta da Kuhn. Egli pensa che senza tenere fermi i principi del falsificazionismo sia
impossibile demarcare tra atteggiamento razionale e atteggiamento irrazionale. Il
falsificazionismo solido e credibile è tuttavia quello di Popper, e non quello semplificato e distorto di alcuni suoi seguaci: un «falsificazionismo sofisticato», non il «falsificazionismo
dogmatico», che immagina di potere disporre di una base osservativa infallibile per
controllare le ipotesi teoriche, non il «falsificazionismo ingenuo», che immagina che ciascuna
delle teorie in competizione possa essere controllata indipendentemente. Contro il falsificazionismo dogmatico, Lakatos ribadisce il fallibilismo popperiano: non ci sono dati
osservativi assolutamente certi e immuni dalla falsificazione. Contro il falsificazionismo ingenuo, egli sostiene che può essere razionale accettare più o meno a lungo anche teorie falsificate, se le teorie alternative si sono dimostrate comunque peggiori. L'accettazione o il
rigetto di una teoria, cioè, non dipende semplicemente dall'esito del suo confronto con i fatti,
bensì dal suo rapporto complesso con i fatti e con le altre teorie disponibili nello stesso
momento.
51
Della versione popperiana del falsificazionismo Lakatos rifiuta invece senza appello l'idea della verosimilitudine. Innanzitutto Popper cade in gravi incongruenze quando tenta di
fornire una misura quantitativa della verosimilitudine - Popper stesso lo ammetterà. Ma
soprattutto l'idea dell'avvicinamento alla verità per Lakatos si rivela gratuita entro il quadro
filosofico del falsificazionismo sofisticato. Egli fa notare infatti come questa idea sia
incompatibile col fallibilismo: se a falsificare o a corroborare le teorie sono dei controlli
empirici che sono a loro volta fallibili e falsificabili, non c'è nessuna garanzia che la scienza
vada gradualmente approssimandosi alla verità. Il falsificazionismo radicale di Lakatos
rinuncia dunque esplicitamente a ogni pretesa di porre la scienza in un qualsiasi rapporto con
la verità.
L'assunto fondamentale della metodologia dei programmi di ricerca scientifici, che
Lakatos propone come perfezionamento del falsificazionismo sofisticato, è che soggetti al
controllo empirico non siano il singolo asserto teorico e neppure la teoria nel suo insieme, ma
ciò che Lakatos chiama il «programma di ricerca scientifico», e cioè un complesso di ipotesi
teoriche che articolano una idea centrale, detta «nucleo» del programma, attraverso un
insieme di assunzioni secondarie, dette «cintura protettiva». L'identità del programma di
ricerca è definita dal nucleo: l'insieme di assunti che per «decisione metodologica» viene
sottratto alla falsificazione; l'idea centrale che si cerca di salvare ad ogni costo. Il programma
di ricerca infatti non cade di fronte a un singolo controllo falsificante. Con Duhem e con
Quine, Lakatos si rende conto che i risultati osservativi non falsificano nessuna idea teorica in
particolare: il controllo empirico ha una struttura olistica. Il nucleo del programma può
dunque essere sempre salvato modificando qualche ipotesi della cintura protettiva. Il lavoro
scientifico all'interno del programma di ricerca si compone così tanto di una «euristica
positiva», volta alla predizione di nuovi fatti, quanto di una «euristica negativa», finalizzata a
difendere il nucleo attraverso ristrutturazioni della cintura protettiva. Il programma subisce
uno «slittamento progressivo» quando l'euristica positiva prevale sulla negativa, uno
«slittamento regressivo» quando prevale l'euristica negativa, e il lavoro scientifico si risolve
in una serie di aggiustamenti sempre più esplicitamente ad hoc.
A giudizio di Lakatos, la storia della scienza insegna che la dialettica tra un programma
di ricerca interessato da uno slittamento progressivo e un programma soggetto a uno slittamento regressivo nel corso del tempo porta all'esaurimento ed infine all'abbandono del
secondo. Ma, se la dinamica delle teorie ha un percorso che, sul lungo periodo, è progressivo,
52
Lakatos insiste sul fatto che non c'è mai un momento in cui il programma di ricerca sia tanto
screditato da dovere essere abbandonato. La decisione di restare fedeli ad un programma di
ricerca non può dunque mai essere condannata come irrazionale. La razionalità della scienza,
ammonisce Lakatos, non è una «razionalità istantanea».
Le eresie relativiste del falsificazionismo: Feyerabend
L'interesse del pensiero dell’austriaco Paul K. Feyerabend (1924-1994) è dato dalla
lucidità con cui questi sa cogliere le conseguenze inattese della ricostruzione razionale
proposta da Lakatos. Trasferitosi negli Stati Uniti, insegna presso l'Università di Berkeley,
che poi lascia per quella di Zurigo. Si occupa inizialmente dei problemi epistemologici posti
dalla meccanica quantistica. Muovendo da un punto di vista falsificazionistico, difende in
questo campo la posizione di Einstein, polemizzando sia contro l'interpretazione di
Copenaghen, delineata da Bohr, sia contro la proposta di una logica microfisica diversa dalla
logica classica, ipotesi che a suo avviso mirano entrambe a immunizzare artificialmente la
teoria dalle difficoltà, sottraendola alle possibili confutazioni. Successivamente, con
Spiegazione, riduzione ed empirismo (1962), Problemi dell'empirismo (1965-70), e,
soprattutto, Contro il metodo (1975), Feyerabend mette in chiaro che la riformulazione
lakatosiana del falsificazionismo conduce al risultato sostanziale che l'idea stessa di un
metodo scientifico è insostenibile: essa finisce per rappresentare un suicidio del
falsificazionismo stesso. Agli occhi di Feyerabend, infatti, in definitiva, Lakatos ha mostrato
che il valore progressivo dell'impresa scientifica si è basato sul suo carattere «essenzialmente
anarchico»: la scienza è progredita perché essa ha capovolto tutte le regole ed ha
contravvenuto a tutti i principi; perché la sua sola regola è stata paradossalmente che «tutto
può andar bene». Il fatto è che dire che la razionalità della scienza non è «istantanea», e che
nessun criterio di razionalità può imporre l'abbandono di un programma di ricerca, non è
diverso da sostenere che tutto può andar bene: nel «liberale» Lakatos c'è un «anarchico
camuffato».
Portando alle estreme conseguenze la liberalizzazione lakatosiana, Feyerabend sostiene
che la scienza ha percorso sì talvolta la strada della induzione o della corroborazione delle
ipotesi, ma che altrettanto spesso, e soprattutto nei casi più importanti, essa ha percorso quella
della «controinduzione»: ha, cioè, accolto ipotesi confutate da risultati sperimentali ben
stabiliti. Feyerabend porta ad esempio il contrasto tra Galileo e i fisici aristotelici: Galileo so-
53
stiene una teoria confutata da fatti accertati entro il sistema concettuale della quiete assoluta e
del moto assoluto, sistema fino al suo tempo indiscusso. Le prove che egli porta, ottenute
grazie al telescopio, in assenza di una credibile meccanica e ottica degli strumenti di
osservazione, sono fragili. Galileo difende la sua posizione tramite ipotesi ad hoc, che di fatto
riducono la falsificabilità della teoria. Non ha dunque ragioni oggettivamente convincenti.
Vince storicamente solo perché, con l'eleganza e l'ironia della sua prosa, è migliore propagandista dei suoi avversari. Feyerabend suggerisce ironicamente che anche le pressioni politiche e
le minacce ideologiche possano contribuire al progresso scientifico.
Non è un puro paradosso. La conclusione che Feyerabend sostiene è infatti che non ci
sono ragioni oggettivamente e universalmente convincenti, perché teorie diverse spesso non
sono logicamente confrontabili tra loro. Come Kuhn, anche Feyerabend parla di una
«incommensurabilità» delle teorie organizzate da schemi concettuali diversi. Le ragioni che
Feyerabend propone a sostegno della tesi dell'incommensurabilità sono fondamentalmente
due. In primo luogo, egli, del resto in piena consonanza col pragmatismo che emerge dalla
maturazione dell'empirismo logico, nega che esista un linguaggio osservativo neutrale dal
punto di vista teorico: «i fatti sono costituiti da ideologie anteriori, e un conflitto tra fatti e
teorie non può essere una prova di progresso». Ogni grande sistema teorico costruisce un
proprio linguaggio per esprimere il contenuto delle osservazioni che seleziona come rilevanti.
Manca dunque la possibilità di mettere a confronto i meriti rispettivi di teorie molto lontane
tra loro facendo appello all'imparzialità dei dati osservativi. Per usare l’apologo inventato
dallo statunitense Norwood Russell Hanson (1924–1967), Tycho Brahe e Keplero, quando
assistono al sorgere del Sole, “vedono” cose diverse. Keplero, che è copernicano, “vede”
abbassarsi il piano dell’orizzonte terrestre in conseguenza del movimento del nostro pianeta,
mentre il Sole gli appare immobile. Invece, il geocentrico Tycho Brahe “vede” immobile la
Terra e l’astro solare in salita.
In secondo luogo, Feyerabend sostiene che l'attività teorica della scienza induce un
fenomeno generale di «variazione di significato» nel linguaggio scientifico: il significato di
ciascun termine scientifico è codeterminato dalla totalità degli enunciati accettati come veri in
cui il termine occorre; dunque, anche se teorie tra loro distinte paiono impiegare i medesimi
concetti e parlare delle medesime cose, ciascuna di esse in realtà attribuisce un significato
diverso e peculiare alle parole che impiega, e tratta di conseguenza di un proprio specifico
oggetto, inconfrontabile con quello delle altre teorie. L'argomento della variazione di
54
significato poggia evidentemente su di una circostanza sottolineata soprattutto da Quine e
largamente riconosciuta dalla filosofia del linguaggio contemporanea: la difficoltà, o
addirittura l'impossibilità, di fare dipendere il senso delle parole da un ben delimitato corpo di
enunciati di natura definitoria (gli enunciati analitici) e di liberare tutti gli altri (i sintetici) da
ogni importanza ai fini della determinazione del senso. Da questa circostanza, tuttavia, Quine
e Feyerabend traggono conseguenze ben diverse. Infatti, mentre Quine arriva alla conclusione
della oscurità e irrilevanza della nozione di senso, Feyerabend ne rivendica e anzi ne
radicalizza l'importanza: per Quine, i filosofi devono cessare di preoccuparsi della questione
del significato; per Feyerabend, devono considerarla così centrale da modificare gran parte
delle loro precedenti idee circa lo sviluppo della scienza.
Come Kuhn, neppure Feyerabend intende combattere la razionalità. Egli combatte
piuttosto ogni concezione restrittiva o normativa della razionalità. Per lui la razionalità si
riconosce esclusivamente a posteriori, sul lungo periodo. La stessa scienza inoltre è solo una
delle imprese umane razionali, accanto al mito, alla religione e ad altre diverse organizzazioni
della cultura. Essa è solo una contingente tradizione occidentale. In una «società libera»,
dunque, nessuna tradizione culturale dovrebbe essere posta in condizioni di privilegio,
neppure la scienza. Alla separazione tra stato e chiesa bisogna aggiungere, secondo il
Feyerabend di La scienza in una società libera (1978) e di Addio alla ragione (1990), quella
tra stato e scienza: egli sostiene che per le esigenze scolastiche, amministrative, sanitarie, i
cittadini dovrebbero essere liberi di fare riferimento alle tradizioni che preferiscono.
Feyerabend rivendica alla razionalità la «proliferazione delle teorie». Da «impertinente
dadaista», come si proclama, egli rivendica cioè alla razionalità l'esigenza di moltiplicare i
tentativi di pensiero e di scuotere ogni idea consolidata. È chiaro quindi che, malgrado la
polemica antiscientista, Feyerabend conserva un qualche legame con Popper: per entrambi il
pensiero resta progressivo e razionale solo finché è originale, inventivo, e immune da
resistenze conservatrici.
Il relativismo di Kuhn e di Feyerabend ha costituito un punto di non ritorno per la
filosofia contemporanea. Anche coloro che rifiutano l'allegria iconoclasta di Feyerabend o la
liquidazione della filosofia della scienza a beneficio della storia della scienza, proposta nella
sostanza da Kuhn, non hanno potuto che constatare la bancarotta della prospettiva normativa e
fondazionale.
55
Per una provvisoria conclusione
Come si è visto, la riflessione contemporanea intorno alla scienza è largamente
condizionata dall'egemonia intellettuale dell'empirismo. Solo l'empirismo infatti ha
concretamente mostrato una cornice filosofica sufficientemente elastica da rendere
comprensibili le grandi trasformazioni della scienza nell'età delle geometrie non-euclidee,
della fisica relativistica e quantistica, e della proliferazione delle logiche. Il fatto è che da un
lato i filoni neoidealisti e spiritualisti, legati ancora a una visione sapienziale della filosofia,
sono restati troppo lontani dalle motivazioni e dalla pratica della scienza, e non sono riusciti
dunque a concettualizzare in maniera accettabile i meccanismi effettivi del rapporto tra
osservazione e teoria. Si sono preclusi così una credibile analisi della scienza. Il filone neokantiano, dall'altro, è caratterizzato dall'idea dei presupposti a priori della conoscenza
empirica, e quindi, pur tentando di ridimensionare il campo dell'a priori stesso, per non farsi
coinvolgere in una battaglia di retroguardia in difesa della geometria euclidea e della fisica
newtoniana, finirà per apparire un quadro epistemologico comunque troppo rigido: la ricerca
contemporanea sembra insegnare che l'indagine scientifica presuppone una illimitata
flessibilità degli schemi concettuali.
La prevalenza storica dell'empirismo è dunque comprensibile. Ma quello della
contemporanea filosofia della scienza è tuttavia un “empirismo infelice”. La storia della
filosofia novecentesca della scienza è caratterizzata infatti da un progressivo svincolarsi del
suo stesso empirismo da una concezione acriticamente realista della funzione delle teorie
scientifiche e dall'assorbimento della parte più ragionevole delle istanze strumentaliste.
L'empirismo liberalizzato promosso negli ultimi decenni dai filosofi di Vienna e di Berlino,
nonché dai loro eredi americani, accantona come intrisa di metafisica la questione della
funzione delle teorie scientifiche, evitando in base a una precisa motivazione filosofica la
scelta tra realismo e strumentalismo. Esso tuttavia riconosce con chiarezza il ruolo delle
convenzioni nella scienza e ammette il peso dei fattori pragmatici tanto nella selezione delle
teorie quanto nella stessa elaborazione del linguaggio delle osservazioni.
Il punto è però che una simile liberalizzazione dell'empirismo non è senza effetti sul
progetto teorico d'insieme della filosofia della scienza. Infatti, posto anche che sia possibile
definire in termini procedurali il ruolo del fattore empirico, non è certo possibile definire in
termini procedurali il gioco di un numero imprecisato di fattori pragmatici: si chiamano
pragmatici appunto i fattori che reggono la dinamica della scienza piuttosto ispirando
56
l'intuizione degli scienziati che non concretizzandosi in espliciti meccanismi decisionali. Ciò
significa che non solo non risulta possibile caratterizzare la scienza tramite un qualche
particolare metodo di scoperta delle leggi della natura, ma che è impossibile anche
caratterizzarla tramite un qualche particolare metodo di giustificazione delle ipotesi teoriche.
Il valore filosofico dell'empirismo liberalizzato sta essenzialmente nel fatto di avere preso atto
lucidamente di tale situazione: esso conduce la filosofia della scienza a un consapevole
accantonamento dell'obiettivo di enucleare un unico e universale metodo scientifico, nonché
al generale abbandono della prospettiva normativa che aveva ancora dominato la riflessione
epistemologica negli anni compresi tra le due guerre mondiali. Le discussioni recenti intorno
alla relatività degli schemi teorici e all'andamento non cumulativo della scienza, che sfociano
in uno spostamento della problematica del funzionamento delle scienze dal campo della
filosofia in quello della storia, rappresentano dunque la logica conclusione del processo di
liberalizzazione dell'empirismo.
L'esito recente della filosofia della scienza mina lo stesso progetto fondante della
disciplina e getta una luce inquietante sul suo destino futuro. Non a caso uno dei più
significativi epistemologi degli ultimi decenni, Feyerabend, ha ironicamente parlato di essa
come di «una disciplina dal grande passato». Da un punto di vista intellettuale d'insieme la
filosofia della scienza è infatti più importante per le acquisizioni negative che ha comportato
che non per le sue acquisizioni positive: piuttosto che per il fatto di avere gettato luce su
senso, struttura e dinamica della ricerca scientifica, la filosofia della scienza è significativa per
il fatto di avere saputo, passo dopo passo, e in base a precise ragioni teoriche, disgregare il
complesso di pregiudizi filosofici che l'Illuminismo e il Positivismo avevano costruito attorno
alla scienza stessa.
57
Scarica