la crisi della razionalità scientifica

Guida al colloquio del nuovo Esame di stato
© Edizioni Bruno Mondadori 1999
P 34. LA CRISI DELLA RAZIONALITÀ SCIENTIFICA
L’Ottocento rappresentò, nella storia del pensiero scientifico, un tipico periodo di "scienza
normale", nel quale il paradigma materialistico-meccanicistico - canonizzato da Newton e
rafforzato da Laplace - raggiunse il culmine del successo e la comunità scientifica si
impegnò unanimemente nella ricerca dei dati sperimentali a suo favore e nel suo
allargamento a nuovi settori della conoscenza. Il trionfo del paradigma newtoniano si
associò all’affermazione di una visione rigidamente deterministica della natura e a una
concezione assolutistica della scienza come conoscenza universale e necessaria senza limiti
di principio, che trovò la sua massima espressione nel positivismo.
Proprio il suo grande sviluppo portò però la ricerca scientifica a scontrarsi con le prime
anomalie, cioè con dati sperimentali in contrasto con il modello scientifico newtoniano, che
- seppure momentaneamente neutralizzate con il ricorso ad ipotesi ausiliarie - verso la fine
del secolo, cominciarono a minare la fiducia degli scienziati nel paradigma meccanicistico.
Si aprì così, tra la fine dell’Ottocento e l’inizio del Novecento, un periodo di crisi e di
cambiamento dei modelli della razionalità scientifica che si svolse a 3 livelli, distinti ma
convergenti: quello delle scienze logico-matematiche, quello delle scienze umane e infine
quello della fisica.
Questo processo di trasformazione delle teorie e dei metodi scientifici è stato denominato
"seconda rivoluzione scientifica" poiché mutò radicalmente l’immagine della scienza
moderna nata dalla prima rivoluzione scientifica ad opera di Galilei e Newton, e impose
una nuova concezione della conoscenza scientifica, quella propria dell’epoca
contemporanea.
La crisi delle scienze matematiche
Da un punto di vista cronologico, il primo annuncio della crisi del modello scientifico
ottocentesco si ebbe nell’ambito delle scienze matematiche, e segnatamente della geometria,
con la scoperta delle geometrie non-euclidee. Intorno al 1826 Janos Bolyai (1802-1860) e
Nicolaj Lobacevskij (1793-1856), variando il quinto postulato di Euclide, elaborarono un
modello geometrico iperbolico in cui la somma degli angoli interni di un triangolo risulta
inferiore a 180 gradi e lo spazio assume la forma concava di una superficie "a sella".
Successivamente, nel 1854, Bernhard Riemann (1826-1866) costruì una geometria ellittica,
per la quale la somma degli angoli interni di un triangolo è superiore a 180 gradi e lo spazio
assume la forma convessa di una superficie sferica. La scoperta di geometrie non-euclidee
mise in discussione la certezza millenaria nell’unicità e nell’assolutezza dello spazio e
alimentò l’emergere di una nuova concezione, antintuitiva e convenzionalistica, delle scienze
matematiche, aprendone così la crisi.
 Vedi, sul manuale di filosofia, le parti relative alle geometrie non-euclidee e al
convenzionalismo epistemologico di Henri Poincaré (1854-1912).
Nell’immediato, la prima reazione alla crisi della geometria euclidea - fino allora considerata
fondamento indiscusso delle scienze matematiche - fu il tentativo di rifondare la matematica
sull’aritmetica. Tale tentativo implicava, a sua volta, la necessità di rifondare l’aritmetica.
Tra il 1870 e il 1880 Georg Cantor (1845-1918) elaborò a questo scopo la teoria degli
insiemi, definendo l’insieme come una “riunione M in un tutto di oggetti m (elementi di M)
della nostra intuizione o del nostro pensiero”. Cantor aprì così le porte al programma di
fondazione logica dell’aritmetica di Gottlob Frege (1848-1925), basato su due assiomi:
1. il principio di estensionalità, secondo cui se due concetti diversamente definiti
comprendono gli stessi elementi allora sono uguali;
2. il principio di astrazione o comprensione, per il quale ogni concetto circoscrive un
insieme o classe composto da tutti gli individui che corrispondono alle sue caratteristiche
definitorie.
Il programma di Frege fu ripreso e sviluppato da Alfred North Whitehead (1861-1947) e da
Bertrand Russell (1872-1970), i quali però scoprirono una contraddizione implicita
Percorso 9 - Danna e società nell’Ottocento
2
nell’assioma di astrazione. Si trattava dell’antinomia delle classi per la quale se R è la classe
di tutte le classi che non contengono se stesse come elemento ne deriva che R non può
contenere ma nemmeno non contenere se stessa: nel primo caso R conterrebbe una classe che
contiene se stessa, cioè avrebbe un elemento spurio, nel secondo escluderebbe una delle
classi che non contengono se stesse, cioè mancherebbe di un elemento proprio.
Per risolvere l’antinomia, Whitehead e Russell elaborarono la teoria dei tipi, secondo la
quale una classe non può appartenere a se stessa ma solo a un’altra classe superiore ad essa
per estensione. Ma per fondare la matematica sulla teoria dei tipi, essi furono costretti a
ammettere gli assiomi dell’infinito, di scelta e di riducibilità, che non risultavano
razionalmente evidenti.
 Vedi, a questo proposito, i Principia Mathematica (1910-1913) in cui Whitehead e
Russell cercano di salvare il programma di rifondazione logica della matematica
elaborando la teoria dei tipi.
Lo scacco del programma logicista aprì la strada, intorno al 1900, al programma formalista di
David Hilbert (1862-1943) che tentò di rifondare la matematica come un sistema
assiomatico-deduttivo, cioè come un insieme di teorie sintatticamente coerenti aventi tre
requisiti: la non-contraddittorietà, la completezza e l’indipendenza. Ma nel 1931 Kurt
Gödel (1906-1978) dimostrò due teoremi che colpivano alle radici il programma formalista.
Il primo affermava che in ogni sistema assiomatico-deduttivo è possibile costruire una
proposizione che il sistema non è in grado né di confermare né di smentire, il secondo che il
sistema non può dimostrare al suo interno la sua non-contraddittorietà.
I teoremi di Gödel, rimasti a tutt’oggi insuperati, favorirono nell’immediato un nuovo
tentativo di fondazione intuizionista della matematica, ma soprattutto sancirono nel lungo
periodo i limiti di principio di quella che era stata considerata fino a quel momento la scienza
"esatta" per eccellenza.
 Vedi sul manuale di filosofia la parte relativa ai teoremi di Gödel che dimostrano i
limiti di principio delle scienze matematiche.
La crisi nelle scienze umane
Uno degli indici più significativi del trionfo ottocentesco del paradigma newtoniano fu il
tentativo, in gran parte riuscito, di conquistare e di annettersi le discipline conoscitive che si
occupavano della realtà storico-sociale dell’uomo, tradizionalmente legate a modelli
conoscitivi di stampo metafisico o retorico antitetici a quelli delle scienze naturali. Nel corso
dell’Ottocento, infatti, sotto la spinta del positivismo, nacquero la sociologia, la storia e la
psicologia come scienze sperimentali, basate cioè sugli stessi presupposti e sullo stesso
metodo delle scienze naturali e in particolare della fisica meccanica. Il sintomo più
emblematico di questa impostazione fu la definizione della sociologia come “fisica sociale”
e la sua divisione in “statica” e “dinamica” ad opera di August Comte (1798-1857). Ma
anche in questo ambito, alla fine del secolo, il paradigma meccanicistico venne messo in
discussione sia dai progressi della ricerca sia dallo sviluppo della riflessione metodologica.
Nell’area delle discipline storico-sociali la reazione critica alla fisica sociale è rappresentata
dallo storicismo tedesco, e in particolare da Max Weber (1881-1961), il quale da un lato
accettò pienamente l’identità tra scienze della natura e scienze umane sul piano
logico-metodologico, dall’altro ne evidenziò i limiti elaborando un modello di scienza
decisamente divergente da quello della fisica newtoniana.
Guida al colloquio del nuovo Esame di stato
© Edizioni Bruno Mondadori 1999
Percorso 9 - Danna e società nell’Ottocento
3
Innanzitutto, per Weber, la scienza storico-sociale per principio non può indagare tutti i
fatti, ma deve selezionarli sulla base di criteri valutativi che sono del tutto soggettivi. Essa
mantiene una universalità-in quanto l’indagine deve essere condotta rispettando precise
regole logico-metodologiche-ma tale universalità è sempre limitata e prospettica. Dunque è
possibile una compresenza di più indagini scientifiche relative a una stessa realtà storica con
risultati diversi e perfino antitetici.
In secondo luogo, poiché i criteri di selezione del campo d’indagine sono valori storici
che cambiano nel tempo, la conoscenza storico-sociale non può mai essere definitiva, ma è
destinata a un perenne mutamento.
In terzo luogo, anche la regola fondamentale di tutte le scienze-la spiegazione
causale-per Weber deve essere ridefinita poiché non esistono fatti assolutamente oggettivi,
ma essi sono sempre connessi a una teoria. Di conseguenza il rapporto di causalità ha un
fondo interpretativo ineliminabile e non può essere concepito come una connessione
necessaria, ma solo come una possibilità oggettiva.
Su queste basi Weber giunse ad asserire che le stesse regole logico-metodologiche della
scienza sono relative a un determinato contesto storico-culturale e come tali sono destinate a
mutare nel tempo. In questo modo Weber, partendo da una riflessione critico-metodologica
sulle scienze storico-sociali, giunse a elaborare una concezione della scienza come sapere
limitato, probabilistico, pluralistico e in perenne evoluzione, molto vicina a quella cui
sarebbe pervenuto a metà del Novecento il dibattito epistemologico sulle scienze naturali.
 Vedi, sul manuale di filosofia, i saggi metodologici scritti tra il 1904 e il 1917,
raccolti in Il metodo delle scienze storico-sociali (1958). Qui Weber sostiene
l’inapplicabilità del paradigma newtoniano alla conoscenza della realtà
storico-sociale.
Ma ancora più dirompente fu l’effetto arrecato, nell’ambito delle discipline psicologiche,
dall’irruzione della psicanalisi di Sigmund Freud (1856-1939). L’affermazione del
paradigma meccanicistico in psicologia aveva portato gli scienziati a un riduzionismo
materialistico radicale, di cui fu emblema la tesi del positivista Kurt Vogt secondo cui il
pensiero è una secrezione del cervello come la bile del fegato. Certo Vogt costituiva un
caso-limite, ma l’indirizzo scientifico, largamente dominante in ambito psicologico, ne
condivideva completamente la concezione organicistica, secondo la quale ogni fenomeno
psichico doveva essere ricondotto a una causa fisica. Fin dai suoi primi studi sull’isteria,
Freud, che pure era un medico di formazione positivista, cominciò a rovesciare questo
assunto sostenendo una eziologia psichica dei disturbi della personalità e quindi l’autonomia
della sfera psichica rispetto a quella somatica. Ma la vera rivoluzione avvenne quando Freud
arrivò alla scoperta dell’inconscio come fondamento di tutta la psiche umana, facendo
crollare il presupposto secolare della psicologia secondo cui la sfera dello psichico si
identificava con quella della coscienza. Questa, inoltre, non solo veniva ridimensionata da
totalità a piccola parte della psiche, ma soprattutto era drasticamente depotenziata in quanto
epifenomeno dell’inconscio. In questo modo, la psicanalisi freudiana colpiva al cuore la
concezione tradizionale della razionalità sia relativamente al suo merito sia relativamente al
suo metodo, in quanto, da un lato, il primato dell’inconscio metteva in discussione
l’autonomia della ragione umana, dall’altro perché, mentre tutta la metodologia scientifica si
fondava sul presupposto della razionalità del proprio oggetto, la psicoanalisi si proponeva
come scienza di un oggetto in sé irrazionale. In questo senso il metodo scientifico messo a
punto da Freud, basato com’era sul presupposto del transfert personale del paziente verso lo
psicanalista e sull’interpretazione simbolica dei sogni, degli atti mancati e delle libere
associazioni, risultava decisamente eretico rispetto alla metodologia consolidata sia delle
scienze naturali sia delle scienze umane.
 Vedi sul manuale di filosofia l’opera L’interpretazione dei sogni (1900), di Freud,
in cui l’interpretazione simbolica, tradizionalmente considerata estranea alla
scienza, assurge al ruolo di metodo scientifico della psicologia del profondo.
Guida al colloquio del nuovo Esame di stato
© Edizioni Bruno Mondadori 1999
Percorso 9 - Danna e società nell’Ottocento
4
La crisi della fisica
Nel campo della fisica, la crisi del paradigma newtoniano cominciò nel 1873 con
l’elaborazione della teoria elettromagnetica da parte di James Clerk Maxwell (1831-1879).
Le equazioni con cui Maxwell descriveva e unificava i fenomeni elettromagnetici, infatti,
risultavano in contrasto con il principio classico della relatività galileiana: mentre per la
meccanica due osservatori in movimento l’uno rispetto all’altro "vedono" lo stesso
fenomeno-in quanto attraverso le formule delle trasformazioni galileiane è possibile
unificare la descrizione di un osservatore immobile con quella di un osservatore in moto
rettilineo uniforme-ciò non risultava valido per l’elettromagnetismo, le cui equazioni sono
modificate dalle trasformazioni galileiane rendendo impossibile l’unificazione delle
descrizioni di due diversi osservatori. Ne conseguiva il paradosso che un fenomeno elettrico,
a differenza di uno meccanico, doveva essere descritto in due modi diversi a seconda della
condizione dell’osservatore.
L’anomalia fu brillantemente risolta da Hendrik Antoon Lorentz (1853-1928), che
elaborò le nuove formule di trasformazione applicabili alle equazioni di Maxwell. Ma le
trasformazioni di Lorentz, ineccepibili dal punto di vista matematico, comportavano sul
piano fisico delle anomalie ben più gravi di quella che avevano risolto. Esse infatti implicano
che per un osservatore di un sistema in movimento la lunghezza dei corpi si contragga nella
direzione del moto e gli intervalli di tempo si dilatino.
Furono queste anomalie che nel 1905 spinsero Albert Einstein (1879-1955) alla
formulazione della prima teoria della relatività , detta ristretta o speciale perché valida solo
per il moto rettilineo uniforme. Einstein basò la sua teoria sul postulato della costanza della
velocità della luce per qualunque osservatore, scardinando il principio-fino allora
considerato autoevidente-secondo cui la velocità di un corpo varia a seconda che
l’osservatore si muova nella sua stessa direzione, in direzione contraria o stia fermo. Ne
derivava una rivoluzione nella concezione classica dello spazio e del tempo in quanto questi
non potevano più essere concepiti né come assoluti, in quanto variabili in relazione al
movimento, né come indipendenti uno dall’altro. Inoltre la legge che coronava la teoria della
2
relatività-E=mc -identificando materia ed energia, faceva venire meno una distinzione
fondamentale della fisica classica mettendone in crisi la concezione della materia. La
rivoluzione della relatività ristretta fu poi radicalizzata, nel 1916, dalla teoria della relatività
generale o allargata che, includendo anche il moto accelerato, rappresentava una nuova
teoria globale della gravitazione universale alternativa a quella newtoniana. Con essa
Einstein spiegava il movimento dei pianeti intorno al Sole non più come l’effetto di una forza
attrattiva bensì della curvatura dello spazio prodotta dalla massa. La nuova concezione di uno
spazio curvilineo legittimava pienamente anche dal punto di vista fisico le geometrie
non-euclidee, che divennero la geometria di riferimento della nuova fisica relativistica.
 Vedi sul manuale di filosofia e su quello di fisica le parti relative alla teoria della
relatività di Einstein, che divenne il nuovo paradigma scientifico nell’ambito della
fisica
macroscopica.
Mentre Einstein elaborava la sua rivoluzione scientifica a livello della fisica macroscopica,
una rivoluzione ancora più radicale si andava compiendo nella fisica microscopica. Essa
prese l’avvio da un’anomalia rispetto alle leggi della termodinamica classica mostrata dai
fenomeni di interazione tra la materia e le radiazioni. L’anomalia venne spiegata nel 1900 da
Max Planck (1858-1947) con l’elaborazione della teoria dei "quanti", secondo la quale
l’energia delle radiazioni non viene emessa o assorbita dalla materia per valori continui ma
solo per multipli interi di una certa quantità, data dal prodotto della frequenza della
radiazione per una costante, detta di Planck.
Guida al colloquio del nuovo Esame di stato
© Edizioni Bruno Mondadori 1999
Percorso 9 - Danna e società nell’Ottocento
5
La teoria quantistica fu applicata nel 1913 da Niels Bohr (1885-1962) alla descrizione dei
fenomeni subatomici e in particolare del movimento degli elettroni, scoperti nel 1897. Il
modello di Bohr si rivelò efficace ma al prezzo di sovvertire le leggi della meccanica classica,
dal momento che stabiliva che gli elettroni possono percorrere solo alcune orbite-dette
stazionarie-intorno al nucleo e che possono spostarsi da un’orbita stazionaria all’altra senza
però passare per le orbite intermedie. Era il cosiddetto "salto quantico" che fece crollare la
millenaria convinzione nella continuità dei fenomeni naturali.
Dopo le prime conferme sperimentali, tra il 1924 e il 1927 la comunità scientifica mise a
punto il nuovo paradigma scientifico della meccanica quantistica che comportava altre
radicali rotture con la meccanica classica. In primo luogo il comportamento degli elettroni
non risultava prevedibile in modo deterministico ma solo in termini probabilistici su basi
statistiche. L’irregolarità del movimento degli elettroni fu spiegata nel 1927 da Werner
Heisenberg (1901-1976) con il principio di indeterminazione, in base al quale non è
possibile stabilire contemporaneamente sia la posizione sia la velocità di un elettrone, in
quanto l’energia luminosa necessaria per rilevarle interagisce quantisticamente con
l’elettrone in modo tale che, se si vuole ridurre l’interferenza rispetto alla posizione, si
aumenta quella relativa alla velocità, e viceversa. Heisenberg negava la possibilità di
determinare il comportamento dell’elettrone, dal momento che per farlo occorre conoscerne
nello stesso tempo sia la velocità sia la posizione.
Ma non era ancora tutto. Sempre nel 1927, Bohr formulò il principio di complementarità,
secondo il quale il comportamento di un elettrone può essere descritto sia attraverso il
concetto di corpuscolo sia attraverso quello di onda, sebbene non nello stesso contesto
sperimentale. Il principio di Bohr rifletteva i risultati di numerosi esperimenti nei quali gli
elettroni avevano mostrato in alcuni casi caratteristiche corpuscolari e in altri caratteristiche
ondulatorie. Esso costituiva una radicale rottura con la concezione classica secondo cui
l’oggetto, in quanto materiale, aveva una natura stabile e univoca.
In questo modo la fisica quantistica sconvolse il modello di razionalità della scienza classica
in modo ben più radicale della fisica relativistica di Einstein. Questi infatti, nonostante le sue
forti innovazioni, non aveva mai abbandonato la convinzione in un ordine deterministico del
cosmo-espressa nella sua famosa sentenza “Dio non gioca a dadi”-e infatti spiegò le
anomalie della fisica quantistica come conseguenze dei difetti e dell’incompletezza della
teoria. La successiva ricerca però da un lato ha ulteriormente confermato la precisione della
teoria quantistica e dall’altro non è riuscita a elaborare una teoria capace di superare la
frattura tra i fenomeni macroscopici e quelli microscopici. Pertanto il risultato più clamoroso
della Seconda rivoluzione scientifica fu l’introduzione nella fisica di un dualismo di
paradigmi, dal momento che al paradigma newtoniano non si è sostituito un unico nuovo
paradigma, ma due paradigmi incompatibili tra loro, quello della relatività per la fisica delle
grandezze macroscopiche e quello quantistico per la fisica delle grandezze microscopiche.
 Vedi sul manuale di filosofia e su quello di fisica le parti relative alla teoria
quantistica, che divenne il nuovo paradigma scientifico della fisica delle particelle
subatomiche.
Conclusione
L’evoluzione della ricerca, al livello delle scienze matematiche, delle scienze umane e della fisica,
ebbe dunque un esito comune: quello di rovesciare il modello ottocentesco della razionalità
scientifica. Ad esso si è sostituito un nuovo modello, radicalmente diverso, che ha rimesso in
discussione la concezione stessa della materia, ha sostituito il determinismo con il probabilismo, ha
accettato la pluralità e la libertà dei metodi delle diverse scienze, ha ammesso la provvisorietà delle
teorie scientifiche e più in generale ha riconosciuto il carattere problematico e limitato della
conoscenza scientifica.
Guida al colloquio del nuovo Esame di stato
© Edizioni Bruno Mondadori 1999