INTRODUZIONE ALLA FILOSOFIA DELLA SCIENZA. UN

annuncio pubblicitario
INTRODUZIONE ALLA FILOSOFIA DELLA SCIENZA. UN APPROCCIO
STORICO
1. Che cos’è la filosofia della scienza?
1.Questioni terminologiche
Origine del termine “epistemologia”
Il termine al quale la filosofia della scienza viene assimilata è quello di
“epistemologia”.
Usato x la prima volta da Ferrier nell’800, indicava una delle 2 parti della
filosofia, la seconda coo estituita dall’ontologia. Il termine veniva inteso da
Ferrier come sinonimo di “teoria della conoscenza”, riferito alla “teoria della
conoscenza scientifica”.
Il significato di “epistemologia” nella filosofia francese ed italiana
In Italia l’epistemologia tende a collocarsi nel campo della riflessione sul
pensiero
scientifico,
viene
assimilata
alla
filosofia
della
scienza.
“EPISTEMOLOGIA” = “branca della teoria generale della conoscenza ke si
occupa di problemi quali i fondamenti, la natura, i limiti e le condizioni di
validità del sapere scientifico”. E’ concepita come “una teoria della scienza ke
riconosce l’esemplarità del sapere positivo e si propone di analizzarne metodi
e strutture”.
Il significato di “epistemologia” nella cultura anglosassone
Nella tradizione filos inglese l’epistemologia è assimilata alla “teoria della
conoscenza”.
Ne “La filosofia”, Rossi afferma di attenersi all’uso corrente nella letteratura
inglese
nel
“considerare
come
sinonimi
teoria
della
conoscenza,
epistemologia e gnoseologia”.
EPISTEMOLOGIA = “branca della filosofia ke concerne l’indagine nsulla
natura, le fonti e
la validità della conoscenza”. Anke in Polonia prevale qst modo di intendere
l’epistemologia: con Ajdukiewicz .
2. L’epistemologia come teoria della conoscenza
I quesiti dell’epistemologia tradizionale
Il problema centrale dell’epistemologia è definire i criteri e i caratteri ke
devono essere presi in considerazione x giungere alla conoscenza del reale.
Esso è articolato in qst
classici quesiti:
a)Ke cos’è la conoscenza?
La conoscenza è definibile come credenza vera giustificata: credenza, xkè
consiste in uno stato psicologico del soggetto ke possiede certe idee, di solito
espresse in forma proposizionale; vera, xkè tali credenze non possono
essere il mero frutto della fantasia, ma devono rispekkiare la realtà ke hanno
come oggetto; giustificata, in quanto non è sufficiente ke le nostre credenze
siano vere, ma è necessario esibire ragioni e motivi x ritenerle tali.
b)Come dovremmo arrivare ad essa?
E’ compito dei filosofi rispondere a qst quesito, concernente il quid juris, cioè
quali siano le regole ke bisogna seguire x pervenire alla conoscenza.
c)Come ci arriviamo?
Compete agli psicologi la risposta a questa domanda, concernente il quid
facti, cioè il modo in cui effettivamente si comportano gli individui nel
procurarsi le loro conoscenze.
d)I processi con cui ci arriviamo sono gli stessi di quelli con cui dovremmo
arrivarci?
E’ possibile fare una comparazione tra le risposte date alle domande b) e c),
x poter risp ondere anke alla domanda d).
E’ tipico dell’epistemologia tradizionale cercare di risp a tali quesiti “mediante
la riflessione su casi possibili. Gli epistemologi descrivono i casi possibili,
consultano le loro intuizioni x sapere se siano o no in presenza di una
conoscenza e decidono se il caso esaminato dimostri ke l’analisi proposta è
errata...il compito è portato avanti solo da un epistemologo seduto in
poltrona, senza l’aiuto della scienza”. L’epistemologia
rivendica una priorità concettuale e metodologica sulla scienza.
Carattere
normativo
dell’epistemologia
e
suo
attegiamento
“fondazionalistico”: la prima philosophia
L’epistemologia è una disciplina normativa: non si limita a descrivere i
processi conoscitivi effettivamente messi in atto, ma indica delle norme sul
modo in cui si debbono condurre le nostre attività cognitive allo scopo di
ottenere una conoscenza vera e giustificata. Ciò la porta a un compito
ambizioso: trovare il fondamento delle pretese di conoscenza avanzate
dall’umanità.
Questa
la
prospettiva
“fondazionalistica”:
compito
dell’epistemologia è fornire alla scienza una base sicura di credenze
indubitabili sulle quali costruire l’intera conoscenza scientifica. Il filosofo
ambisce alla fondazione della conoscenza scientifica, è lui solo in grado di
risolvere il problema della conoscenza; e ciò deve essere attuato facendo
ricorso solo alle proprie forze in uno sforzo teoretico ke trae argomentazioni e
tesi dalla generale capacità razionale umana.
L’orizzonte problematico dell’epistemologia è definito dalla necessità di risp
alla sfida scettica, dissipando l’ombra del dubbio dalle nostre conoscenze.
L’epistemologia viene intesa come una filosofia fondamentale,o prima
philosophia.
3. La filosofia della scienza come disciplina autonoma
Assimilazione della “epistemologia” alla filosofia della scienza e suo carattere
metadiscorsivo
“Scopo di tale disciplina non è tanto costruire un fondamento oppure
un’estensione delle scienze quanto affrontare o descrivere il proprio oggetto
dal punto di vista metodologico e critico”. La filosofia della scienza viene
considerata come un’attività “riflessa”: l’analisi dei concetti adoperati dalla
scienza e dei risultati cui essa perviene è il dato di partenza x arrivare a delle
considerazioni sul modo di procedere degli scienziati, sulla natura delle loro
asserzioni e sul metodo da essi adoperato.
La
rivendicazione
dell’autonomia
dell’epistemologia
rispetto
alla
gnoseologia
Tale piena autonomia è stata rivendicata x la prima volta nella filosofia
tedesca del 19 sec, ke ha introdotto la distinzione tra Wissenschaftlehre
(dottrina della scienza) e Erkentnisslehre (dottrina della conoscenza): la
prima indica l’epistemologia come metodologia o teoria della ricerca
scientifica,
mentre
la
seconda
indica
la
tradizionale
filosofia
della
conoscenza.
La svolta con il Circolo di Vienna
Con il circolo di Vienna, fondato da Schlick nel 1929, la filosofia della scienza
acquisisce una fisionomia autonoma. Nell’epistemologia si vede sempre +
non lo studio della conoscenza in generale, bensì di quel suo particolare tipo
ke viene incarnato nella scienza. Si assume ke la scienza sia la forma
conoscitiva x eccellenza, ke ha dato la prova concreta di sé nella spiegazione
e comprensione della natura, sikkè compito del filosofo è capirne la struttura
e il modus operandi, senza influenzarla nei suoi contenuti.
Vi era la speranza ke, una volta compreso l’arcano ke rende la scienza
conoscitivamente efficace, lo si potesse applicare agli altri campi dell’umana
attività pratico-teorica.
L’epistemologia intesa in modo antifondazionista nel neopositivismo
Il modo nuovo in cui viene intesa la “teoria della conoscenza” da coloro ke gli
hanno dato origine, fondandola su basi logico-linguistike segna una svolta
decisiva x liberare la filosofia della scienza dai caratteri posseduti dalla vekkia
epistemologia. Riceve forte impulso la tendenza a distinguere scienza e
metafisica, razionalità logico-analitica e razionalità storico-dialettica; vengono
posti in secondo piano gli aspetti fondazionistici ke gli pervenivano dalla
tradizione della vekkia gnoseologia.
Il continuum di normatività e descrittività
Se si propende x un approccio normativo al problema della conoscenza, ci si
pone nel campo della tradizionale epistemologia; se invece si opta x un
approccio descrittivo, allora si prende come punto di partenza la conoscenza
in atto e ci si pone sul piano della filosofia della scienza. Se si risp al dubbio
scettico attraverso argomentazioni di carattere filosofico, allora abbiamo a ke
fare con l’epistemologia nell’accezione criticata dagli antifondazionalisti; se
invce si ritiene qst dubbio assorbito dalla pratica della scienza, allora ci si
pone su di un piano non + fondativo, ma descrittivo. Non di rado è capitato ke
il filosofo della scienza, partendo da una prospettiva iniziale meramente
descrittivista, sia poi approdato a una posizione di tipo normativo. Dal fatto ke
la scienza applica un particolare metodo, si è passati alla norma ke impone a
tutte le indagini conoscitive di applicare il medesimo metodo, affinkè esse
possano conseguire lo stesso grado di certezza conoscitiva. Se la scienza è
conoscenza in quanto applica il metodo scientifico, allora ogni altra disciplina
deve applicarlo se vuole essere anke conoscenza. E’ un passaggio
dall’essere al dover essere, dal fatto alla norma.
4. Alle origini della filosofia della scienza
Il programma della “filosofia scientifica”
All’inizio del 900 divenne parola d’ordine x molti scienziati e filosofi, specie di
formazione scientifica, l’esigenza di rifondare la filosofia in modo da renderla
“scientifica”. Si forma un’insistente campagna in favore della “filosofia
scientifica”, il cui programma può assumere 3 diversi significati:
a) La scienza costituisce il fondamento della filosofia, la quale viene intesa
come una riflessione filosofica sulla scienza, ke si preoccupa di estendere i
risultati al di là del loro ambito specialistico.
b) La scienza è l’oggetto della filosofia ke non deve essere nient’altro ke
teoria della scienza, indagine sulle sue assunzioni, finalità, metodi.
c) La scienza deve costituire il modello della filosofia: filosofia scientifica in
senso stretto, avente un proprio oggetto diverso dalla scienza, e quindi in
grado di portare una conoscenza distinta da quella da essa fornitaci, ma
ottenuta imitandone il metodo e le procedure.
La formazione del primo nucleo del “Circolo di Vienna”
A partire dal 1907 cominciarono a riunirsi un gruppo di amici accomunati da
un comune modo di vedere la filosofia e la scienza. Qst gruppo di
discussione, x la cui formazione si era adoperato il matematico Hahn, era in
particolare interessato alla nuova immagine di scienza ke si andava
delineando in seguito al declino del paradigma meccanicistico ottocentesco e
ke faceva parlare di “crisi delle scienze”. Nasce come una riflessione di
studiosi di formazione scientifica. E’ all’interno di esso ke emerge l’esigenza
di discutere dei problemi della scienza anke con ki fosse maggiormente
fornito di competenza filosofica, con un “ filosofo autentico” ke avesse
familiarità in campo epistemologico. Il progetto verrà a realizzarsi solo dopo la
guerra, quando Hahn ritornerà da Bonn nel 1921 e rikamerà a Vienna il
filosofo Schlick.
Le conseguenze della prima guerra mondiale sulla filosofia scientifica
viennese
La prima guerra mondiale, con lo smembramento dell’impero asburgico e la
creazione di nuove entità nazionali, incise profondamente sullo sviluppo della
filosofia scientifica austriaca. Si smarrì quel terreno comune di dibattito ke
prima aveva caratterizzato la cultura della grande Vienna.
Schlick a Vienna nel dopoguerra e l’influenza di Wittgenstein
Gli studiosi ke si raccolsero nel Circolo di Vienna nella sua configurazione
matura, pur condividendo il programma generale di Brentano e riconoscendo
ad esso il merito di aver attirato l’attenzione sulla riflessione logica grazie alla
conoscenza della scolastica, lo innestarono con influenze ed esigenze ke ne
trasformarono i connotati, specie in direzione del rifiuto dello psicologismo. La
trasformazione + rilevante fu il progressivo abbandono del programma della
“filosofia scientifica” (scienza come modello della filosofia) in favore di una
concezione della filosofia intesa come metascienza, trasformata in filosofia
della scienza. Grazie all’opera di Wittgenstein la filosofia è giunta ad un
“punto di svolta”, sorgendo una sua “nuova epoca”: essa viene ormai intesa
non come un sistema di conoscenza ma di atti tesi a kiarire il senso degli
enunciati, laddove la verità di questi è demandata esclusivamente alla
scienza. Non esiste una filosofia come scienza sui generis, con un proprio
insieme di problemi, e il filosofo non è detentore di un particolare tipo di
conoscenza. La logica non è il metodo ke permette la scientifizzazione della
filosofia, ma lo strumento ke qst utilizza nella sua attività tesa a dissipare le
confusioni derivanti dalle parole e dal linguaggio, in modo ke i suoi problemi
possono
essere
risolti
sul
terreno
scientifico.
E’
la
dikiarazione
dell’abbandono della tesi ke esistano autentici problemi filosofici a segnare il
nuovo
periodo
del
pensiero
di
Schlick,
successivo
all’influenza
di
Wittgenstein: la filosofia non è conoscenza e quindi è assurdo pensare ke sia
possibile “scientificizzarla”. La “filosofia scientifica” è ormai ritenuta
impossibile. Non resta ke praticare, al suo posto una filosofia della scienza.
La filosofia della scienza si propone consapevolmente come teoria della
scienza, senza dimenticare mai del tutto l’ambizione rettificatrice nei confronti
della filosofia.
2. Le trasformazioni della scienza tra 800 e 900
1. Il mondo secondo Laplace
La sistemazione del newtonianismo con Laplace
La sistemazione della fisica classica aveva ricevuto una sua formulazione
esemplare con Laplace. Egli coltivò l’idea di scienza come conoscenza x
eccellenza,
contrapposta
alla
filosofia
tradizionale,
caratterizzata
x
l’applicazione del “metodo induttivo”. La sua opera consiste nell’elaborazione,
perfezionamento ed estensione della scienza newtioniana. Egli edifica un
“sistema del mondo” in cui ceca di coniugare visione meccanicisticodeterministica del reale e consapevolezza dei limiti della conoscenza umana.
La metafora della intelligenza divina
La visione del reale di Laplace è resa dalla metafora: “Raffiguriamoci lo stato
presente dell’universo come l’effetto del suo stato anteriore, e come la causa
di quello ke seguirà. Un’intelligenza ke x un dato istante conoscesse tutte le
forze da cui la natura è animata e la situaz rispettiva degli esseri ke la
compongono abbraccerebbe in un’unica e medesima formula i movimenti dei
+ grandi corpi dell’universo e quelli del + lieve atomo: niente sarebbe incerto
x essa. Lo spirito umano offre una pallida immagine di qst intelligenza”.
I caratteri della concezione di Laplace: unitarietà e semplicità
dell’universo, meccanicismo, riduzionismo e determinismo
V’è in Laplace l’idea dell’unitarietà e semplicità dell’universo. Tale unitarietà si
esprime nelle leggi ke ne governano il divenire e ke hanno natura meccanica,
si basano sull’applicabilità della dinamica settecentesca e sulla possibilità di
risolvere con equazioni differenziali ogni problema di calcolo. Alla base della
dinamica v’è la «tendenza a considerare ogni sistema reale come l’aggregato
di componenti elementari e l’evoluzione del sistema come il risultato
dell’interazione di qst unità elementari»; ne deriva la predilezione x un
approccio atomista alla natura. Qst’impostazione meccanicistica esprime una
concezione della scienza riduzionistica, esiste una scienza fondamentale i cui
concetti devono consentire di ottenere i concetti base delle altre scienze. Si
esprime anke una posizione determinista: la conoscenza esatta dello stato
iniziale di un certo sistema fisico è sufficiente x prevedere con certezza il suo
futuro, ogni sua componente elementare è soggetta ad una causa ke ne
determina in maniera univoca l’evoluzione. Alla base dell’impostazione
riduzionistica stava la convinzione ke il mondo microscopico fosse + semplice
di quello macroscopico: x comprendere qst’ultimo è sufficiente scomporre i
sistemi complessi x trovare le loro componenti semplici. Fatto ciò, si pensava
fosse possibile formulare un’espressione matematica (lagrangiana), con la
quale ricavare le equazioni dinamike ke descrivono il divenire del sistema.
Trovata la lagrangiana tutto era spiegato.
Il calcolo della probabilità come rimedio alla limitatezza della
conoscenza umana
L’ipotesi dell’Intelligenza infinita mette in luce il fatto ke l’ideale della perfetta
conoscenza non è realistico: l’uomo non potrà mai ottenere qst infinita
precisione delle misure. Conosciamo solo in modo inesatto lo stato di un
sistema. L’avvicinarsi al vero è un processo infinito e l’uomo resterà sempre
lontano
dalla
conoscenza
completa,
pur
allontanandosi
sempre
+
dall’ignoranza. Qst scarto sempre esistente tra la nostra conoscenza e la
verità giustifica x Laplace l’introduzione del calcolo delle probabilità.
Qst ragionamento si applica alla conoscenza della natura: l’impossibilità di
conoscere con esattezza lo stato di un sistema fisico in un dato momento non
ci consegna irrimediabilmente all’ignoranza, in quanto grazie alla teoria della
probabilità possimo gettare un ponte tra essa e la natura, in modo da
procedere ad un calcolo approssimato e probabilistico del suo divenire.
Negata all’uomo la possibilità dell’onniscienza, resta uno spazio enorme e
fruttuoso tra essa e l’ignoranza. La scienza diventa probabilistica senza
perdere il suo carattere meccanicistico e riduzionistico e l’uso del calcolo
delle probabilità diventa uno strumento indispensabile in fisica. Il modello
teorico proposto da Laplace segnò tutto l’800 ed ebbe un immenso successo
grazie alle sue applicazioni in molteplici campi.
2. Il calore e la termodinamica
La termodinamica di Fourier mette in crisi l’idea laplaciana di scienza
unitaria
Il fisico francese Fourier aveva dimostrato all’inizio dell’800 come fosse
possibile edificare una scienza dei fenomeni termici prescindendo da una
visione meccanicistica della realtà. Egli partiva da grandezze macroscopike e
quindi da fatti ‘generali’ che permettevano la previsione e la formulazione di
teoremi ed equazioni sulla propagazione del calore ke avevano altrettanta
validità e rigore matematico di quelli tipici della meccanica. La teoria del
calore di Fourier metteva in crisi la fisica laplaciana.
La
termodinamica
si
poteva
costituire
come
scienza
autonoma,
indipendentemente dalla meccanica e senza condividerne le ipotesi di fondo.
Il modello della fisica molecolare si rivelò inadeguato al compito ke Laplace
gli aveva assegnato, quello di riunificare la fisica. Gran parte della storia della
scienza dell’800 è storia del riconoscimento dei limiti sempre nuovi, sempre +
numerosi all’applicabilità del modello di Laplace al mondo empirico.
I fenomeni termici e la freccia del tempo
I fenomeni connessi alla propagazione del calore manifestavano un
comportamento ke contraddiceva alcuni dei principi basilari della dinamica
classica. E’ un’evidenza empirica il fatto ke il calore si trasmette secondo una
direzione: va sempre dal corpo + caldo a quello + freddo, mai avviene il
contrario. Qst comportamento metteva in luce la
circostanza ke certi
fenomeni naturali seguono spontaneamente una direzione temporale; si
evolvono solo in una direzione, diversamente dai fenomeni descritti dalla
meccanica, ke sono indifferenti rispetto al tempo e possono svolgersi in un
senso o in un altro. Al mondo senza tempo della meccanica si contrappone
un mondo ke segue la cosiddetta freccia del tempo.
Il secondo principio della termodinamica e l’entropia
Il solco tra i fenomeni descritti dalla termodinamica e la visione
meccanicistica sembrò approfondirsi quando venne scoperto da Clausius il
secondo principio della termodinamica, ke introdusse il concetto di entropia.
Qst nuova grandezza fisica stava ad indicare il processo necessario di
decadimento dell’energia derivante dal fatto ke, in un sistema kiuso, i corpi
prima o poi assumono la stessa temperatura, qualunque sia la loro differenza
iniziale. E’ un processo irreversibile, ke contrasta con il divenire della
meccanica, ke viene descritto sempre come reversibile. Essendo la
differenza tra temperature essenziale affinché si possa produrre lavoro ne
derivava ke un sistema in cui l’entropia giunge al suo massimo (tutte le sue
parti hanno la stessa temperatura) non è in grado di generare alcun lavoro;
diremo ke è inerte. L’universo tenderebbe ad evolvere nel senso di un
progressivo aumento dell’entropia. Il tempo non è ke un’espressione del
processo entropico. Diversamente dalla meccanica, x la quale il tempo era
indifferente, nei processi termodinamici esso è un elemento essenziale, ke
scorre nel senso dell’aumento progressivo ed inesorabile dell’entropia.
La morte termica dell’universo e le sue implicazioni filosofiche
Se si assume ke l’universo è un sistema kiuso e finito, prima o poi tutte le sue
parti avranno la stessa temperatura e in esso non sarà possibile + alcun tipo
di lavoro: andrà incontro alla morte termica. Qst la conclusione cui giunse
Thomson. Qst prospettiva della fine del mondo contrasta con la tesi,
sostenuta da materialisti e meccanicisti, di un universo infinito ed eterno, ke si
basava sull’idea della conservazione dell’energia formulata dal primo
principio della termodinamica (in nessun caso l’energia viene creata o
distrutta, ma viene continuamente scambiata fra i vari sistemi fisici sotto
forma di calore o lavoro). L’ammissione della morte termica dell’universo
dava fiato a coloro ke volevano combattere il materialismo ed il positivismo
col negare l’autonomia e l’eternità della natura e miravano ad introdurre la
necessità di un intervento esterno in grado di spiegarne la nascita e di
scongiurarne l’altrimenti inevitabile fine: l’ammissione dell’esistenza di Dio.
Non tutti accettavano una tale prospettiva. Spencer, rigettava l’ipotesi della
morte termica sostenendo l’idea ke il nostro universo fosse parte di un
universo + ampio ed infinito in grado di intervenire dall’esterno e di impedirne
il degrado entropico. E’ imp rilevare ke emerge una discrepanza, in seno
stesso alla termodinamica, tra il primo e il secondo principio.
Il primo principio sostiene la conservazione dell’energia e la persistente
capacità di lavoro; il secondo afferma il necessario degrado dell’energia e
l’impossibiltà di compiere lavoro una volta raggiunto l’equilibrio termico. Il
primo è del tutto in linea con una visione meccanicistica della natura; il
secondo, con la freccia del tempo e l’irreversibilità, è in palese contrasto con
la reversibilità propria della dinamica classica.
Maxwell e la formulazione della teoria cinetica dei gas
Maxwell formulò una convincente teoria cinetica dei gas. In essa il
comportamento delle molecole veniva trattato in modo probabilistico,
riuscendosi a calcolare sia il percorso medio da ciascuna effettuato nel suo
moto casuale prima di collidere con un’altra particella, sia la distribuzione
statistica della loro velocità, ke viene compresa entro certi valori con un
addensamento intorno a quelli medi (secondo la curva a campana di Gauss).
Maxwell rappresenta le molecole paragonandole a sfere di piccolissime
dimensioni, dure e elastike, ke si muovono caoticamente all’interno di un
recipiente, sikké possono occupare indifferentemente qualsiasi posizione:
tutte le direzioni e le posizioni da esse tenute sono pertanto equiprobabili.
Considerando ke le molecole hanno massa e velocità media – dunque una
certa energia cinetica – nel loro movimento caotico un certo numero di esse
finisce x urtare contro una delle pareti del recipiente, trasmettendole parte
della propria energia e quindi esercitando una certa spinta. Se si considera
ke qst avviene x milioni e milioni di molecole ke compongono il gas, sarà
facile immaginare come l’energia così trasmessa alle pareti non sia altro ke la
pressione,
una
delle
grandezze
macroscopike
fondamentali
della
termodinamica. Qst ragionamento permetteva a Maxwell di derivare una
grandezza macroscopica (la pressione) dal comportamento di grandezze
microscopike (le molecole), ke ubbidiscono solo alle leggi classike della
dinamica newtoniana. Il meccanicismo e l’idea laplaciana del reale sembrava
risorgere.
La teoria cinetica permette di superare il contrasto tra primo e secondo
principio della termodinamica
Maxwell è così in grado di fornire un’interpretazione della termodinamica ke
permette di superare il contrasto tra il primo e il secondo principio. L’energia
non si annulla, non scompare, solo si distribuisce in modo da risultare
inutilizzabile.
La spiegazione dell’entropia su base statistica: il diavoletto di Maxwell
E’ possibile spiegare con la teoria cinetica dei gas il contrasto tra la
reversibilità ke caratterizza i processi meccanici e l’irreversibilità dei fenomeni
termodinamici. La seconda legge della termodinamica è il risultato a livello
macroscopico di un comportamento statistico delle molecole ke compongono
il gas e ke ubbidiscono alle normali leggi della meccanica.
Boltzmann e la connessione tra probabilità ed ordine: l’entropia come
evoluzione verso il disordine
Boltzmann, fondatore della meccanica statistica, approfondì il significato della
distribuzione probabilistica delle molecole ke compongono un gas e interpretò
l’entropia come lo stato macroscopico + probabile verso il quale evolve il
sistema. La condizione di maggiore probabilità veniva ad essere identificata
con la condizione di maggior disordine del sistema e l’aumento dell’entropia
poteva essere considerato come l’evoluzione dall’ordine al disordine. Ogni
lavoro utile, ke presuppone la trasformazione dell’energia, necessariamente
produce entropia e aumenta il disordine complessivo del sistema. Affinké si
possa ancora produrre lavoro è necessario mettere in contatto il nostro
sistema con un altro sistema ke possa accollarsi l’entropia in eccesso e
fornire l’ordine mancante: un sistema dal quale il nostro gas possa trarre
“negaentropia”. Un es di una makkina del genere è fornito dal frigorifero ke
trae dall’esterno – energia elettrica + ambiente circostante – la negaentropia
ke gli permette di mantenere una temperatura interna bassa con l’espellere
entropia sotto forma di calore verso l’esterno.
La natura probabilistica e non assoluta del secondo principio della
termodinamica
Diventa ancora + evidente in in tal modo la natura non assoluta, ma
semplicemente probabilistica, della seconda legge della termodinamica e
nulla in linea di principio esclude ke il processo ke porta al “mescolamento”
delle molecole calde e fredde non possa essere invertito.
Discontinuità tra conoscenza del macroscopico e del microscopico
La meccanica statistica introduce nel modo di considerare la conoscenza
della natura una discontinuità tra la conoscenza sensibile dei suoi stati
macroscopici e la conoscenza concettuale di quelli microscopici: uno stato di
quiete empiricamente constatabile era il risultato di un moto di miliardi di
particelle, il cui comportamento non poteva essere direttamente osservato ma
solo ipotizzato grazie all’utilizzo di sofisticate tecnike matematike e
probabilistike. La trattazione statistica dei processi fisici segna un’imp svolta
nella fisica dell’800 xkè segna il passaggio dall’interpretazione causale
deterministica, propria delle leggi della meccanica, a un’interpretazione di tipo
probabilistico ke contribuisce a mettere in luce i nessi tra determinismo e
predicibilità.
3. L’elettromagnetismo e l’idea di campo
I problemi suscitati dallo studio dei fenomeni magnetici ed elettrici
Altro punto di crisi della concezione meccanica sorgeva nel campo dei
fenomeni magnetici ed elettrici. Oersted evidenziò come sia possibile
generare effetti magnetici mediante la corrente elettrica, mettendo in
relazione fenomeni diversi: magnetismo ed elettricità. Ancora + interessante
era il fatto ke l’esperimento ed il tipo di interazioni messo in luce tra elettricità
e magnetismo non seguiva le leggi della dinamica newtoniana. Sembrava ke
gli esperimenti di Oersted non fossero riconducibili ad interazioni tra particelle
di tipo newtoniano, ma fossero il sintomo di forze ke operavano in tutto lo
spazio circostante al conduttore, secondo delle traiettorie circolari. Ke
equivaleva ad ammettere una concezione della materia non + discontinua,
ipotizzata dalla fisica newtoniana, ma continua.
La Fisica cartesiana del continuo contro fisica newtoniana del
discontinuo
X Cartesio l’universo non può ammettere vuoti, esso è un plenum di materia:
anke dove sembra ke i corpi siano separati da una distanza priva di materia è
necessario ammettere l’esistenza di un mezzo continuo, un fluido etereo, nel
quale “nuotano” i corpi celesti. In un approccio meccanicistico come quello di
Cartesio la reciproca interazione è ammissibile solo mediante il contatto tra
materia, assicurato da qst fluido etereo. X Newton, al contrario, è ammissibile
il ricorso a forze ke si comunicano a distanza in modo istantaneo e senza
contatto meccanico tra materia, come avviene nei fenomeni gravitazionali; in
qst’ottica tutte le forze agenti in natura avrebbero dovuto essere ridotte alle
attrazioni e repulsioni istantanee e a distanza tra particelle, tra loro separate
dal vuoto.
Supremazia del programma newtoniano e il problema della azione a
distanza
Lasciava perplessi gli scienziati l’idea di un’azione a distanza ke sembrava far
rivivere passati tentativi di spiegazione dei fenomeni naturali facendo ricorso
a cause occulte.
Newton, consapevole delle difficoltà, aveva rifiutato di indagare sulla natura di
questa forza, affermando ke ad essere imp era determinare come essa
agisse, e a tal fine era sufficiente la legge matematica da lui fornita.
L’idea di “campo” e le linee di forza- La scoperta dell’induzione
elettromagnetica di Faraday era una nuova realtà fisica: quella di campo.
Faraday x spiegare i fenomeni di induzione elettromagnetica faceva uso di
linee di forza e di azioni x contatto, ke potevano essere ammesse solo se si
ipotizzava un continuo materiale, contraddicendo
la descrizione dualistica del mondo fisico fatta dai newtoniani. La materia
infatti era x
lui “ovunque”: un continuo dove non sussistono distinzioni tra gli atomi e
l’ipotetico
spazio intermedio e dove non risultavano + ammissibili l’azione a distanza e
la
propagazione istantanea di forze fisike. Si affacciava l’intuizione di un “campo
unificato
di forze”, ke risiederebbe nell’intero spazio e ke permetterebbe di spiegare in
maniera
unitaria i fenomeni elettrici, magnetici, kimici e gravitazionali.
Maxwell cerca di dare rigore matematico alle idee qualitative di Faraday
Concezioni qst ke sembravano ai fisici contemporanei troppo qualitative e
oscure: Faraday aveva cercato sì di descrivere il campo come un insieme di
linee di forza esten- dendosi nello spazio a partire dalle carike elettriche, ma
non era stato in grado di dare loro quell’elegante veste matematica ke invece
era caratteristica della scuola francese.
Maxwell darà vero e proprio statuto scientifico a qst idee.
Maxwell: dal meccanicismo alla formalizzazione matematica facente a
meno di modelli meccanici
Maxwell si preoccupa di sviluppare una teoria matematica dei fenomeni
elettromagnetici, in modo da ottenere una serie di equazioni da cui poi
derivare logicamente tutte le conseguenze ke erano state riscontrate
empiricamente nei numerosi esperimenti condotti da Faraday e da lui stesso.
Perde anke interesse x lui la costruzione di un’immagine visualizzabile
dell’etere, al cui posto subentra il desiderio di formulare le equazioni
differenziali ke regolano i fenomeni in esso verificantesi. Egli vuole costruire
una “teoria dinamica del campo elettromagnetico”. Egli ritiene ke modelli e
interpretazioni diventano irrilevanti quando si sono trovati le leggi generali in
grado di ordinare un certo ambito fenomenico.
Le “equazioni di Maxwell” e la loro importanza per la fisica successiva
Come affermano Einstein ed Infeld «la formulazione di qst equazioni
costituisce l’avvenimento + importante verificatosi in fisica dal tempo di
Newton». Sono leggi valide nell’intero spazio e non soltanto nei punti in cui
materia o carike elettrike sono presenti, com’è il caso x le leggi meccanike.
Rammentiamo come stanno le cose in meccanica. Conoscendo posizione e
velocità di una particella, in un dato istante, e conoscendo inoltre le forze
agenti su di essa, è possibile prevedere l’intero futuro percorso della
particella stessa. Nella teoria di Maxwell invece basta conoscere il campo in
un dato istante x poter dedurre dalle equazioni omonime in qual modo l’intero
campo varierà nello spazio e nel tempo. Le equazioni di Maxwell permettono
di seguire le vicende del campo, così come le equazioni della meccanica
consentono di seguire le vicende di particelle materiali. Grazie ad esse viene
fornito in forma matematicamente ineccepibile un quadro unitario nel quale
descrivere sia i fenomeni elettromagnetici sia quelli luminosi. E difatti negli
anni successivi si estese il vocabolario introdotto da Maxwell alla teoria
newtoniana della gravitazione, iniziandosi a parlare di “campo gravitazionale”.
L’azione istantanea a distanza viene definitivamente respinta in favore
dell’azione per contiguità anke nei fenomeni gravitazionali.
L’etere quale punto di unificazione tra meccanica ed elettromagnetismo
Il concetto di campo e le stesse equazioni ke lo descrivono sono in netto
contrasto con il concetto di particelle e le equazioni tipike della meccanica
classica. Ma nessun fisico ortodosso di fine 800 avrebbe mai accettato l’idea
di una scienza della natura divisa in 2 fisike diverse e inconciliabili. Avrebbe
piuttosto cercato di ricondurre la teoria elettromagnetica alla meccanica
classica, ipotizzando un supporto materiale del campo ke ne spiegasse
l’azione. Così vanno le cose e a venire in soccorso è l’analogia delle onde
elettromagnetike con le onde in un liquido: qst ultime possono avvenire xké
vè un mezzo elastico (x es l’acqua) nel quale si formano; analogamente le
onde descritte da Maxwell avvengono in un mezzo materiale ke ne
costituisce il supporto: è il vekkio concetto di etere a essere utile. Qst’etere
cosmico finisce x svolgere l’importante funzione di unificare 2 settori della
scienza fisica altrimenti inconciliabili: la teoria meccanica e il concetto di
campo.
Fiducia nella scienza ed ottimismo sul suo sviluppo futuro tra 800 e 900I grandi progressi nei campi della scienza facevano pensare ke la
conoscenza umana si fosse incamminata su binari sicuri e ke non restasse
ke applicare ed estendere a nuovi domini dell’esperienza umana i metodi e le
teorie note x accumulare nuove conoscenze e scoperte.
4. La teoria della relatività
Il rivolgimento + radicale della scienza del 900 si deve ad Einstein il cui nome
ben presto divenne un punto di riferimento x indicare una rivoluzione
scientifica paragonabile a quella operata a suo tempo da Copernico.
Il principio di relatività formulato da Galileo: l’esempio della nave
Punto di partenza di Einstein è la riflessione sul principio di relatività
galileiana. Qst principio era stato formulato da Galileo x sostenere la mobilità
della terra durante la controversia x l’affermazione del sistema copernicano.
Una
delle
obiezioni
fondamentali
mosse
dai
tolemaici
consisteva
nell’osservare ke, qualora la terra fosse in moto, un peso lasciato cadere da
una torre dovrebbe giungere al suolo non alla sua base, ma spostato di un
spazio corrispondente al moto nel contempo effettuato dalla terra. X risp a
tale obiezione Galileo aveva concepito un esperimento: immaginiamo di
essere rinkiusi nella stiva di una nave, sul pavimento della quale vi è un vaso
con una piccola apertura e sopra di esso un sekkio dal quale delle gocce
d’acqua si stakkino versandovisi; se la nave è ferma vedremo ke tutte le
gocce cadendo verticalmente si verseranno entro il vaso a terra. Facciamo
ora muover la nave a qualsivoglia velocità, ma con moto uniforme e non
fluttuante; non vedremo alcuna differenza nel comportamento delle gocce, ke
cadranno dal sekkio sempre in modo da centrare la bocca del vaso. Lo
stesso accadrà x ogni altro fenomeno fisico ke avviene nella stiva della nave,
a condizione però che il moto sia rettilineo e uniforme, ovvero non subisca
oscillazioni e fluttuazioni. Applicando il principio di relatività alla teoria di
Copernico, Galileo era così in grado di sostenere ke non è possibile con
esperienze di tipo meccanico affermare ke la Terra è ferma.
I sistemi inerziali e la ricerca del sistema di riferimento per eccellenza:
lo spazio assoluto
La velocità è una quantità relativa al sistema di riferimento rispetto al quale
viene effettuata la sua misura; nel caso della nave di Galileo qst sistema di
riferimento è rappresentato dalla terra. Quando il sistema di riferimento in cui
si trova l’osservatore si muove di moto rettilineo uniforme o sta in quiete si
dice ke è un sistema inerziale, un sistema x il quale vale il primo principio
della dinamica di Newton: «ogni corpo persiste nel suo stato di quiete o di
moto rettilineo uniforme finké forze esterne ad esso applicate non lo
costringano a mutare qst stato». Un sistema di coordinate spaziali inerziale è
detto sistema di coordinate galileiane. Newton sentì l’esigenza di assumere
come sistema di riferimento per eccellenza lo spazio assoluto, considerato il
contenitore immobile di tutti i corpi, cioè quel sistema inerziale di riferimento
privilegiato nel quale valgono tutte le leggi della meccanica e al quale devono
essere riferite tutte le nostre misure.
Equivalenza dei sistemi inerziali per le leggi della meccanica e
trasformazioni galileiane
La sostanza del principio di relatività meccanica è dunque l’idea secondo la
quale tutti i sistemi inerziali sono tra loro equivalenti, cioè i fenomeni
meccanici avvengono in modo identico sia entro un sistema in moto rettilineo
uniforme, sia in un sistema in quiete rispetto allo spazio assoluto. Tra i sistemi
in moto rettilineo uniforme non vi sono sistemi di riferimento privilegiati. 2
osservatori, uno in quiete e l’altro in moto rettilineo uniforme, vedono un
qualunque fenomeno meccanico ke avvenga nel proprio sistema nello stesso
modo dell’altro; x entrambi il comportamento meccanico dei corpi è identico.
Matematicamente qst proprietà si esprime dicendo ke le equazioni della
meccanica non cambiano, sono cioè invarianti, nei diversi sistemi di
riferimento inerziali. E’ sempre possibile “tradurre” la descrizione di un
fenomeno fisico effettuata da un osservatore a nel sistema fisico inerziale S
nella descrizione effettuata da un altro osservatore a’ appartenente ad un
altro sistema fisico inerziale S’, grazie alle cosiddette trasformazioni
galileiane.
Esempio del treno e applicazione delle trasformazioni galileiane
Le trasformazioni galileiane ci permettono di conoscere la posizione di un
corpo (il passeggero) rispetto a diversi sistemi di riferimento inerziali (quello
del passeggero e quello dello spettatore sul marciapiede).
Un corollario importante delle trasformazioni galileiane: la legge della
somma delle velocità
Nell’effettuare il passaggio da un sistema di riferimento all’altro, si effettua la
somma delle velocità tenute dal treno (rispetto al marciapiede) e del
viaggiatore (rispetto al treno). Ciò viene espresso nella meccanica classica
dalla cosiddetta legge della somma delle velocità.
L’esistenza dell’etere come sistema di riferimento privilegiato
Come stanno le cose quando passiamo dalle leggi della meccanica a quelle
dell’elettromagnetismo? Una delle conseguenze teorike + imp delle equazioni
di Maxwell e della sua teoria elettromagnetica è ke la velox di propagazione
della luce è costante, equivale a c (circa 300.000 Km al secondo nel vuoto),
indipendentemente da qualsiasi sistema di riferimento. Qual’è il sistema di
riferimento nel quale la velocità della luce è uguale a c? Era naturale
rispondere, con Newton: lo spazio assoluto, ke poi di fatto veniva ad essere
identificato con l’etere immobile. L’etere finisce x costituire un sistema di
riferimento privilegiato, ke ha la stessa funzione assunta dallo spazio assoluto
x le leggi della meccanica di Newton. Era qst una situazione assai strana: la
fisica si trovava ad ammettere una dualità di comportamenti: mentre x le leggi
della meccanica erano equivalenti tutti i sistemi inerziali, invece x quelle
dell’ottica e dell’elettromagnetismo ne era valido uno solo, quello definito
rispetto al solo sistema privilegiato, costituito dall’etere immobile. Tale
situazione porta ad un evidente ed insanabile contrasto col principio
fondamentale della relatività galileiana, ke sta alla base della meccanica
classica, x la quale vale la legge della somma delle velocità.
L’esempio del treno e la contraddizione tra teoria elettromagnetica e
meccanica classica
In base alla relatività galileiana, se dal centro di un treno in moto rettilineo
uniforme viaggiante alla velocità di 150 Kmh facciamo partire un raggio di
luce esso possiede x il viaggiatore a ke sta all’interno del treno la velocità c,
qualunque direzione si consideri.
Invece x lo spettatore a’ ke sta sul marciapiede, il raggio di luce ke va nella
stessa direzione del treno dovrebbe possedere la velocità di c+150 Kmh,
ovvero la velocità del treno sommata alla velocità della luce; quello ke va
invece in direzione opposta del treno dovrebbe avere invece la velocità di c150 Kmh, cioè la velocità della luce meno quella del treno. Qst è quanto si
deve evincere dalla legge della somma delle velocità.
Ma qst è proprio quanto viene negato dalla teoria elettromagnetica, x la quale
il raggio di luce ha la stessa velocità c sia x il passeggero, sia x l’osservatore
sul marciapiede della stazione: è come se la luce dentro il treno si muovesse
“ignorando” l’esistenza del treno e del suo moto e quindi percorresse
comunque 300.000 Kms, rispetto a qualsiasi sistema di riferimento inerziale.
2 delle teorie fondamentali della fisica classica – la meccanica e
l’elettromagnetismo – sono in contrasto tra di loro.
L’esperimento di Michelson e Morley
Era fondamentale poter accertare l’esistenza di qst etere. Michelson e Morley
fecero una serie di eperimenti aventi lo scopo di verificare se esistessero
delle differenze nella velocità di un raggio di luce viaggiante in 2 direzioni tra
loro perpendicolari, una delle quali in direzione del moto della terra. Si
riteneva ke, se la terra viaggia attraverso l’etere, un raggio luminoso
viaggiante nella direzione del moto orbitale avrebbe dovuto essere rallentato
dal “vento d’etere” ke le veniva incontro controcorrente, mentre un raggio ke
viaggia
in
direzione
opposta
avrebbe
dovuto
essere
accelerato;
analogamente a come avviene x il suono, la cui velocità dipende dal moto
dell’aria ke ne permette la trasmissione. Il risultato dell’esperimento non
faceva rilevare alcuna differenza nella velocità della luce e pertanto non
sembrava lasciar vie di scampo: era impossibile rilevare in alcun modo
l’esistenza dell’etere, in quanto gli effetti sulla velocità della luce non avevano
luogo.
Einstein: abbandono del concetto di etere e primo postulato della teoria
della relatività ristretta
Perchè non abbandonare tale concetto? Come conclude Einstein “tutti i
tentativi di fare dell’etere una realtà sono falliti”. Quando Einstein scrisse il
suo articolo del 1905 in cui propose x la prima volta la teoria della relatività
era motivato dalla necessità di risolvere il dissidio nel campo della fisica tra
elettromagnetismo e meccanica classica.
Era tale esigenza alla base della sua decisione di abbandonare il sistema di
riferimento privilegiato o assoluto costituito dall’etere e di accettare la validità
generale del principio di relatività galileiana, ke si applica non solo ai
fenomeni meccanici, ma anke a quelli elettromagnetici: non è possibile fare
alcuna distinzione tra due sistemi in moto rettilineo uniforme. È questo il
primo postulato fondamentale da cui parte Einstein x formulare la sua teoria:
le leggi della fisica hanno la stessa forma in tutti i sistemi di riferimento
inerziali. Con qst postulato si estende a tutta la fisica il principio di relatività
galileiana.
Il secondo postulato della teoria della relatività
Il secondo postulato consiste nel sostenere ke la velocità della luce è sempre
la stessa (uguale a c) in tutti i sistemi di riferimento inerziali, siano in moto o
in quiete. Ma l’accettazione di qst 2 principi porta a rigettare il presupposto ke
era alla base della meccanica classica, cioè la legge della somma della
velocità: qst non può più essere rigorosamente valida e di conseguenza si
impone la necessità di riformulare le trasformazioni galileiane. Einstein
dovette costruire una nuova fisica, della quale la vekkia fisica newtoniana
rappresenta un’approssimazione utile solo nel caso in cui si prendono in
considerazione velocità molto piccole rispetto a quella della luce.
Cambia anche il concetto di tempo: analisi della simultaneità
In qst nuova fisica viene sottoposto a radicale modifica non solo il concetto di
spazio ma anke quello di tempo. Ciò viene effettuato con l’analisi del concetto
di simultaneità di 2 eventi, ke porta Einstein a concludere ke in 2 diversi
sistemi inerziali eventi ke sono contemporanei x l’osservatore posto in uno di
essi non sono contemporanei x un osservatore posto nell’altro sistema di
riferimento. Ne concludiamo ke un orologio cambia il suo ritmo quando è in
moto e ke quanto + un sistema inerziale si muove ad una velocità vicina alla
luce, tanto + il tempo in esso scorre lentamente. Anke il tempo, oltre allo
spazio, non è assoluto e non scorre uniformemente in tutti i sistemi di
riferimento.
Il continuo quadridimensionale di Minkowski
La teoria di Einstein comportava una radicale modificazione dell’intera fisica e
dava l’avvio a una nuova fisica relativistica ke, lasciati cadere i concetti
assoluti di spazio e di tempo, considerava gli eventi fisici rispetto a spazi e
tempi relativi all’osservatore.
Veniva a crollare il quadro concettuale in cui era iscritto il grande e glorioso
universo-makkina newtoniano. Spazio e tempo sono strettamente correlati tra
loro in modo da formare un’unica entità kiamata spazio-tempo: è qst il
continuo quadridimensionale (o spaziotemporale) con il quale il matematico
Minkowski sintetizzò in elegante forma geometrica le conseguenze della
relatività speciale.
Le trasformazioni di Lorentz sostituiscono quelle di Galileo
Nasce il problema di trovare il modo x passare da un sistema di riferimento
all’altro.
Qst fu assicurato dalle trasformazioni di Lorentz, esse permettono di trovare
le coordinate di spazio e di tempo in un sistema se qst sono note nell’altro
sistema e se è nota anke la velocità relativa tra i 2 sistemi. La differenza
rispetto alle trasformazioni galileiane consiste nel fatto di considerare ora la
variabile tempo non più uguale in ogni sistema, ma diversa, dipendente dal
ritmo degli orologi, ke varia al variare della velocità del sistema al quale essi
appartengono. Tuttavia la discordanza tra i 2 tipi di trasformazioni è
avvertibile solo x velocità assai prossime a quella della luce, x velocità molto
piccole
le
trasformazioni
galileiane
rappresentano
una
buona
approssimazione.
L’importanza delle trasformazioni di Lorentz consiste nel fatto ke tutte le leggi
di natura sono invarianti rispetto ad esse. E’ possibile costruire una nuova
fisica: è qst quanto volle fare Einstein, unificando così le 2 branke della fisica,
la teoria meccanica e quella dei campi x mezzo del suo nuovo principio di
relatività ke assicura l’invarianza delle leggi di natura mediante le
trasformazioni di Lorentz.
La convertibilità tra massa ed energia
Altra imp conseguenza della teoria della relatività è consistita nell’unificazione
delle 2 leggi classike di conservazione accettate nel 19 secolo: la legge della
conservazione della massa e la legge di conservazione dell’energia. X il fisico
classico
massa
ed
energia
sono
entità
nettamente
distinte
sia
qualitativamente che quantitativamente: un corpo ke riceve energia non
cambia di massa; e viceversa l’energia può generare solo lavoro, ma non
massa. Invece grazie alla teoria della relatività Einstein dimostra ke l’energia
non è qualcosa di imponderabile, ma possiede una massa ben definita, anke
se estremamente piccola; ed a sua volta la massa ha un’energia. Non vi sono
2 principi di conservazione, ma solo uno, il principio di conservazione della
massa-energia, ke viene sintetizzato nella celebre formula E=mc2 cioè
l’energia è uguale alla massa del corpo moltiplicata x il quadrato della velocità
della luce.
La velocità della luce come limite insuperabile
Qst conseguenza deriva dal limite della velocità della luce. Se nessun corpo
può superare la velocità della luce, ciò significa ke non può essere
ulteriormente accelerato; ma qst avviene solo se al crescere della sua
velocità, e cioè della sua energia cinetica, cresce anke la sua massa
inerziale. Man mano ke il corpo si approssima alla velocità della luce la sua
massa aumenta sempre + rapidamente rikiedendo x la sua ulteriore
accelerazione una quantità di energia sempre maggiore; alla velocità della
luce, la sua massa diventerebbe infinita, in modo tale da rikiedere x la sua
accelerazione un’energia infinita. Il ke significa ke nessun corpo può
raggiungere la velocità della luce, a meno ke non sia privo di massa (come x i
fotoni). Ma se la massa varia al variare della velocità, allora l’energia cinetica
deve possedere una massa, x quanto piccola e trascurabile alle velocità cui
siamo normalmente abituati. E il rapporto tra massa ed energia cinetica è
dato dalla formula E=mc2, ke introduce il nuovo principio della conservazione
della massa-energia. Da come si evince dalla formula, x produrre una
grandezza estremamente piccola di massa occorre una grande quantità di
energia; ciò spiega xké nei normali fenomeni termici non si avverte nessun
cambiamento della massa quando a qst viene fornita energia: esso è così
piccolo da non poter esser rilevato neanke con le bilance più sensibili.
La relatività generale come estensione di quella speciale
La teoria presentata da Einstein nel 1905 era limitata ai sistemi in moto
inerziale (rettilineo e uniforme). Negli anni successivi Einstein affrontò il
problema di una fisica relativistica x i sistemi non inerziali, quei sistemi ke
subiscono una forza, la quale può derivare o dall’influsso del campo
gravitazionale, oppure dall’applicazione di un’accelerazione. «Le leggi della
fisica devono essere di natura tale che esse si possano applicare a sistemi di
riferimento comunque in moto. Seguendo questa via giungiamo a una
generalizzazione della teoria della relatività [ristretta]». Qst generalizzazione
fu appunto la teoria della relatività generale proposta nel 1916 da Einstein.
Il principio di equivalenza tra massa gravitazionale e massa inerziale
Il principio di equivalenza afferma ke qualunque sistema di riferimento posto
in un campo gravitazionale uniforme e costante nel tempo è del tutto
equivalente, x quanto riguarda i fenomeni fisici, ad un sistema sottoposto ad
una opportuna accelerazione costante e posto in una zona di spazio in cui il
campo gravitazionale è nullo. E’ sempre possibile scegliere un opportuno
sistema di riferimento in modo da simulare l’esistenza di un dato campo
gravitazionale uniforme o, reciprocamente, in modo da eliminare l’effetto della
forza di gravità costante. Un passeggero kiuso in un sistema isolato non ha la
possibilità di distinguere se la forza ke lo tiene attaccato al pavimento derivi
dalla forza gravitazionale ke lo attrae verso una data massa oppure sia
causata da una accelerazione del suo sistema in direzione opposta alla forza:
non è possibile distinguere in alcun modo una forza gravitazionale da una
forza inerziale, essendo gli effetti dell’una spiegabili come dovuti all’altra. Una
conseguenza di tale equivalenza è il fatto ke un raggio di luce dovrebbe
essere deviato da un campo gravitazionale, come se fosse costituito da
particelle dotate di massa e quindi di peso: viene gettato un ponte fra
gravitazione ed elettromagnetismo.
La curvatura dello spazio-tempo per effetto del campo gravitazionale
Einstein propose un’interpretazione geometrica della gravitazione, x la quale
lo spazio, sinora ritenuto come euclideo, in effetti non è “piatto”, ma curvo in
quanto “piegato” o “distorto” dalle masse gravitazionali in esso esistenti. Egli
pervenne alla conclusione ke la luce si propaga seguendo il cammino + breve
tra 2 punti, come previsto dalle leggi dell’ottica e dell’elettromagnetismo, ma
qst cammino non coincide con la retta euclidea se nello spazio è presente un
campo gravitazionale. Dal principio di equivalenza fra inerzia e gravitazione
Einstein trasse la conseguenza ke anke il tempo viene influenzato dal campo
gravitazionale: un orologio posto in un campo gravitazionale rallenta il suo
moto. Qst effetto è noto come “dilatazione gravitazionale dei tempi”. X
spiegare sia il rallentamento degli orologi ke la curvatura dello spazio Einstein
postula ke il campo gravitazionale renda non euclidea la struttura dell’intero
spazio-tempo, x cui abbiamo a ke fare con un unico fenomeno fisico: la
curvatura dello spazio-tempo dovuta al campo gravitazionale. In tal modo lo
spazio ed il tempo non solo non sono + assoluti, come riteneva Newton, e
non sono neanke indipendenti dai fenomeni ke in essi avvengono, i quali ne
definiscono la geometria attraverso la distribuzione di masse ed energia, ke
determina il campo gravitazionale.
Il significato filosofico della relatività: Einstein ‘filosofo implicito’
L’opera di Einstein ha comportato delle consequenze rilevanti sul piano
filosofico. Come ha sostenuto Reichenbach, sarebbe un errore credere ke la
teoria della relatività non sia anke una teoria filosofica; infatti, benké Einstein
sia rimasto sostanzialmente un «filosofo implicito» e non si sia addentrato in
un esame filosofico della sua teoria, tuttavia essa «ha conseguenze radicali
per la teoria della conoscenza». X Schlick, la teoria della relatività è
strettamente legata alla filosofia, da un duplice punto di vista: metodologico,
xkè Einstein rigettò l’ipotesi puramente fisica di Lorentz e Fitzgerald sulla
contrazione dei corpi in movimento sulla base di un principio puramente
epistemologico, e qst è un requisito filosofico, non una proposizione
sperimentale. X cui si può affermare ke la teoria della relatività tende x
propria natura verso la filosofia e cerca qui le sue basi e il suo compimento.
Ma la teoria della relatività ha anke conseguenze sulla filosofia, ed è qst il suo
secondo aspetto, quello materiale: essa può fornire contributi diretti alla
soluzione di vekki problemi filosofici e dare sostegno alla filosofia
dell’empirismo, come quella + adeguata x intenderne le caratteristike.
Un possibile equivoco: confondere relatività fisica e relativismo
filosofico
Occorre eliminare un possibile equivoco cui induce lo stesso termine di
“relatività”. Si potrebbe pensare ke tale teoria deponga a favore di una visione
relativistica della conoscenza, una sorta di scetticismo. Nulla di più errato.
«La “soggettività” di cui parla la teoria della relatività è una soggettività fisica,
ke esisterebbe anke se nel mondo non ci fosse proprio niente di simile ai
cervelli e ai sensi. Inoltre, si tratta di una soggettività limitata. La teoria non
dice ke tutto è relativo; al contrario mette a disposizione una tecnica x
distinguere quel ke è relativo da quel ke a buon diritto fa effettivamente parte
di un fenomeno fisico». Sachs commenta «secondo le idee di Einstein quello
che isogna considerare come relativo è il linguaggio ke il singolo osservatore
deve usare x esprimere delle leggi assolute della materia; qst sono invece
indipendenti da ogni sistema di riferimento. Cosikké la teoria della relatività è
da considerare in realtà una teoria degli assoluti; infatti concentra l’attenzione
sulle leggi della natura +ttosto ke sul linguaggio ke le esprime. Non ha niente
a ke fare col relativismo filosofico, contrariamente a ciò ke molti hanno voluto
credere».
L’incidenza filosofica della relatività: la crisi della concezione kantiana
di spazio e tempo e l’abbandono del senso comune
All’epoca in cui Einstein propose la relatività speciale, aveva un particolare
credito la concezione di Kant, x la quale lo spazio e il tempo costituivano
forme a priori dell’intuizione sensibile, preesistenti ai fenomeni: nulla si può
concepire se non nello spazio e nel tempo. Qst impostazione, ke si rifaceva
alle idee di Newton, finisce x concepire lo spazio secondo il modello euclideo
ed il tempo come qualcosa di universale e comune a tutti gli uomini. Come si
concilia la posizione di Kant con le nuove idee portate avanti da Einstein?
Mentre i seguaci del filosofo tedesco cercavano in qualke modo di conciliarne
le idee con quelle della nuova teoria, sul versante dei filosofi della scienza il
verdetto fu univoco: la relatività fa cadere il carattere a priori di spazio e
tempo, mostrando come la presunta loro naturalezza nasca solo da un
pregiudizio psicologico, dal fatto ke nella nostra esperienza quotidiana
abbiamo a ke fare con velocità assai distanti da quella della luce e con campi
gravitazionali deboli, circostanze nelle quali gli effetti relativistici non si fanno
notare. Assume sempre + consapevolezza, da una parte, il fatto ke è
pericoloso erigere i concetti derivanti dalla nostra esperienza quotidiana a
principi generali e ke le novità introdotte dalla relatività avrebbero finito x
ripercuotersi sul modo con cui sono stati concepiti i rapporti di causalità,
l’evoluzione, il tempo ecc, creando un nuovo senso comune; dall’altro, si
afferma l’idea ke la filosofia non può non tener conto delle nuove acquisizioni
ke vengono effettuate nel campo della scienza, ke sono direttamente rilevanti
x dare una risp non + metafisica a molti problemi tradizionali della storia del
pensiero.
5. La meccanica quantistica
Relatività e meccanica quantistica: la messa in discussione del
concetto di determinismo
La seconda grande rivoluzione della fisica del 900 è costituita dalla teoria dei
quanti. Si passa dalla fisica del macroscopio alla fisica del microscopio o
mocrofisica. Nasce la necessità di rivedere concetti e modi di pensare radicati
nella nostra intuizione e fatti propri anke dalla scienza fisica, in particolare
l’idea laplaciana ke la natura sia governata da leggi rigorose e deterministike
e ke siano solo i nostri limiti umani a non permetterci la conoscenza perfetta
della posizione e del moto di ogni oggetto esistente nel mondo. La rivoluzione
quantistica inizia con lo studio dell’assorbimento delle onde elettromagnetike,
nel corso del quale vengono evidenziati fatti sperimentali non spiegabili con i
metodi della fisica classica. Prosegue con lo studio dell’effetto fotoelettrico di
Einstein, dove ancora una volta si trattava di capire come mai i risultati
sperimentali non si accordassero con quanto sarebbe dovuto accadere in
base alle leggi dell’elettromagnetismo di Maxwell.
I quanti di Planck: le radiazioni vengono assorbite ed emesse per
quantità discrete
Planck fornì una formula in grado di accordarsi con i risultati sperimentali; a
tale scopo era però necessario supporre ke le radiazioni sono trasmesse o
assorbite da parte di un corpo non in maniera continua, ma x quantità
discrete, multiple di una quantità minima – detta quanto di Planck -, al di sotto
della quale non è possibile scendere. Tale quanto è indicato dalla relazione: E
= hv dove E indica l’energia, v (lettera graca equivalente alla n) indica la
frequenza ed h è la costante di Planck, ke ha un valore fisso corrispondente a
6,62618 x 10-34 Js. X Planck qst relazione rappresenta la minima quantità di
energia ke può essere scambiata; di essa si possono avere solo multipli
interi.
Le perplessità di Planck: i quanti artificio matematico o proprietà reali
del mondo?
Planck si mostrò incredulo e scettico circa la propria scoperta, ke non era
giustificabile in base a nessuna legge della fisica allora conosciuta ed
implicava la rinuncia alle leggi dell’elettrodinamica fondata da Maxwell. Cercò
a lungo di dedurre la sua formula dalla teoria classica della radiazione e solo
quando tutti i suoi tentativi fallirono si convinse ke l’interazione tra materia e
radiazione non avviene in modo continuo, come previsto dalla fisica classica.
Del resto l’idea da lui presentata sembrava così bizzarra ed in contrasto con
una radicata convinzione della scienza sin dai tempi di Aristotele – secondo la
quale natura non facit saltus, ovvero la natura cambia con gradualità, senza
salti – da risultare incredibile ai suoi contemporanei ke esistesse una
costante universale h ke segnasse il limite minimo di energia scambiabile.
Ciononostante la costante di Planck sarà destinata a divenire una delle +
feconde ed importanti scoperte teorike, ke entra in gioco ogni volta si studino
fenomeni del mondo microscopico.
Einstein e i quanti: i fotoni
Nel 1905 Einstein nel primo dei 3 articoli pubblicati quell’anno utilizza il
quanto allo scopo di spiegare l’effetto fotoelettrico, altro fenomeno ke non era
compreso nel quadro della fisica classica. Einstein ribaltò la concezione della
luce ke si era affermata con Maxwell (intesa come fenomeno ondulatorio) e,
facendo ricorso alla quantizzazione, ipotizzò ke la radiazione fosse
quantizzata non solo quando interagisce con la materia, ma anke quando
viaggia nel vuoto; ovvero l’energia raggiante avente una certa frequenza è
costituita da uno sciame di quanti di energia (i fotoni), ke viaggiano alla
velocità della luce ed aventi ognuno un’energia indivisibile pari a h v. Quanto
proposto da Einstein ingloba l’ipotesi di Planck: se infatti la radiazione
elettromagnetica è fatta di fotoni, ciascuno dei quali trasporta una quantità di
energia indivisibile, allora è evidente ke la materia può assorbire o cedere
energia solo in quantità discrete, equivalenti a multipli interi della quantità h v,
posseduta da ciascun fotone. Da osservare ke la quantità estremamente
piccola di energia quantizzata posseduta da un fotone fa sì ke il modello
proposto da Einstein non entri in contrasto con la teoria elettromagnetica di
Maxwell quando si tratti di studiare e spiegare i fenomeni su scala
macroscopica ordinaria: l’enorme quantità di fotoni posseduti da un fascio di
luce ordinario si comporta come un’onda, rivelando i fotoni la loro
“individualità” solo in particolari condizioni. Si arriva così alla conclusione ke
la luce si comporta come onda o corpuscolo a seconda del tipo di
esperimento svolto: nel caso dell’effetto fotoelettrico la radiazione presenta
un carattere corpuscolare; nel caso di fenomeni di interferenza e diffrazione,
essa ha invece carattere ondulatorio.
Bohr e la quantizzazione dell’atomo
Nell’arco di un decennio, agli inizi del 900, una serie di decisivi esperimenti
fece uscire l’atomo dalla scomo9da condizione di ipotesi utile solo x spiegare
certi fenomeni, ma priva di conferma sperimentale, x farlo diventare un
oggetto avente piena cittadinanza nella fisica, ke è possibile studiare e
descrivere. Fu Bohr a utilizzare nel 1913 l’idea della quantizzazione anke x
spiegare il comportamento degli atomi.
Il modello dell’atomo di Bohr e la rottura con la fisica classica
Bohr, pur consapevole delle limitazioni e delle difficoltà presenti nel modello
di atomo di Rutherford, lo riteneva troppo utile x rigettarlo del tutto. Propose di
abbandonare la fisica classica x la spiegazione dei fenomeni atomici in favore
di una nuova teoria, il cui punto di partenza è costituito dall’ammissione di 3
postulati:
a) il raggio delle orbite percorse dagli elettroni può avere solo certi valori
particolari, ke definiscono le cosiddette orbite stazionarie, sulle quali un
elettrone può ruotare senza emettere energia;
b) le orbite stazionarie sono caratterizzate dal fatto ke il momento angolare
dell’elettrone è pari ad un multiplo della costante di Planck, secondo la
formula mvr = n h/2 , con n = 1, 2, 3, kiamato numero quantico principale;
c) un elettrone può passare da un’orbita stazionaria ad un’altra avente
diverso livello energetico e questa transizione è accompagnata da emissioni
o assorbimenti di energia, determinati sempre secondo la costante di Planck.
I primi 2 postulati sono in netto contrasto con quanto ammesso dalla fisica
classica, x la quale è impossibile ke una carica elettrica possa ruotare senza
irraggiare. Inoltre non si capisce xkè sia proibita l’esistenza di un elettrone in
orbite diverse da quelle stazionarie e in ke modo avvenga il “salto” da
un’orbita stazionaria all’altra: l’elettrone, infatti, x uno dei postulati
fondamentali della teoria di Bohr, non può esistere nella orbite intermedie;
esso dovrebbe scomparire da un’orbita e riapparire in un’altra.
La “vecchia meccanica quantistica” e il principio di corrispondenza
Per spiegare il rapporto tra la nuova meccanica quantistica e la fisica
classica, Bohr propose il cosiddetto principio di corrispondenza. In base ad
esso, la meccanica classica è contenuta come caso limite della teoria
quantica, così come la dinamica newtioniana è contenuta nella teoria della
relatività x velocità molto distanti da quella della luce. Egli cercava di
garantire una certa continuità tra vekkia teoria e nuova teoria: la prima non
era completamente abbandonata a favore di quella nuova, ke non avrebbe +
nulla a ke fare con essa; la fisica classica non può essere considerata un
cumulo di errori se è vero ke ha spiegato con successo numerosi fenomeni. Il
principio di corrispondenza diveniva il cardine intorno a cui ruotavano i lavori
dei fisici ke hanno lavorato intorno alla cosiddetta “vecchia meccanica
quantistica”. Alla costruzione della nuova teoria si giunge attraverso 2 strade
diverse ke finiscono x edificare nel giro di poki anni 2 concezioni alternative
dei fenomeni macroscopici: la prima con De Broglie e Schrödinger, prende il
nome di meccanica ondulatoria; la seconda con Heisenberg, Born e Jordan è
la meccanica delle matrici.
La meccanica ondulatoria
Punto di partenza della meccanica ondulatoria è l’idea di De Broglie ke anke
la materia, come le radiazioni elettromagnetike, possiede sia natura
corpuscolare, sia natura ondulatoria. La relazione E = h v introdotta da
Planck vale anke x una particella materiale, come l’elettrone. Ad ogni
particella materiale avente quantità di moto p (uguale a mv, cioè massa x
velocità) deve essere associata un’onda avente lunghezza , secondo la
formula = h/p , la quale, grazie alla mediazione della costante di Planck h,
mette insieme grandezze caratteristike di un corpo materiale con la
grandezza tipica di un’onda. Nel 1927 la concezione di De Broglie viene
confermata sperimentalmente. Nel 1926 Schrödinger costruisce con
successo un modello ondulatorio dell’atomo, ottenendo un’equazione le cui
soluzioni, dette funzioni d’onda, coincidono con i valori postulati nel modello
atomico di Bohr. X lo studio della struttura intima della materia una meccanica
di tipo nuovo ha sostituito la meccanica classica: è la meccanica ondulatoria.
Tuttavia Schrödinger, pur consapevole della profonda inadeguatezza della
fisica classica x la spiegazione dei fenomeni della microfisica, pensava ke la
nuova meccanica dovesse mantenere uno stretto rapporto di continuità con la
vekkia, costituendone uno sviluppo organico, piuttosto ke una radicale
sostituzione.
La meccanica delle matrici
Heisenberg cercava di stabilire le basi della meccanica quantistica facendo
riferimento a grandezze sperimentalmente osservabili, le sole ke x lui hanno
significato fisico.
Secondo lui, le difficoltà incontrate derivavano dall’aver fatto uso di
grandezze ke non erano direttamente osservabili. X realizzare qst
programma egli fece uso del “calcolo matriciale”, poi sviluppato da Born,
Jordan e Heisenberg stesso, in un formalismo assai rigoroso ke gettò le basi
di una nuova meccanica quantistica matriciale. Era una teoria ke sembrava
ottenere lo scopo di contenere nelle proprie basi i postulati stessi della fisica
quantistica e permetteva inoltre di calcolare e spiegare gran parte degli
aspetti sconcertanti presentati dagli atomi. Diversamente dalla meccanica
ondulatoria, l’impostazione matriciale insisteva sugli elementi di discontinuità
tipici della teoria quantistica, come i salti quantici, dunque privilegiava il
carattere corpuscolare dell’elettrone. Nel 1926 Schrödinger mostrò ke la
meccanica delle matrici e quella ondulatoria, pur essendo diverse nella
forma, erano in realtà matematicamente equivalenti. Siccome il formalismo
della meccanica ondulatoria era molto + semplice e familiare ai fisici del
tempo, qst preferirono servirsi dell’equazione ondulatoria x risolvere gran
parte dei problemi.
Born e l’interpretazione probabilistica della funzione d’onda
Born si era posto il problema di capire cosa esattamente descrivesse la
funzione d’onda introdotta da Schrödinger. Il cardine dell’interpretazione di
Born sta nella interpretazione probabilistica della funzione d’onda ψ, x cui
questa fornisce soltanto la probabilità ke, ad es., un elettrone si trovi durante
un certo intervallo di tempo in un determinato volume. In tal modo l’elettrone
torna ad essere un corpuscolo, il cui movimento non è però descrivibile con
precisione assoluta, ma solo probabilisticamente:è una kiara sfida alla
concezione ondulatoria di Schrödinger e alle esigenze di interpretare la
funzione d’onda ψ come una entità fisica reale. Le probabilità calcolate a
partire da ψ sono le informazioni + dettagliate ke in linea di principio è
possibile avere sul sistema quantistico sotto esame; non è quindi ipotizzabile
alcun perfezionamento nelle nostre capacità di misura o di conoscenza ke
possa superare qst limite. Ne segue ke l’elettrone si muove non in base a
leggi deterministike, ma a leggi intrinsecamente indeterministike.
Heisenberg e il principio di indeterminazione
Heisenberg imboccò la strada dell’abbandono dei vekki concetti cinematici
giungendo nel 1927 alla formulazione del suo famoso principio di
indeterminazione. Qst stabilisce in generale l’impossibilità di conoscere
esattamente la posizione e la velocità di una particella atomica. +
esattamente, quanto + si aumenta la precisione con cui si conosce la quantità
di moto di una data particella, tanto meno si conosce la probabilità della
posizione da essa occupata; sikkè una determinazione assolutamente
precisa della quantità di moto dell’elettrone implica l’assoluta ignoranza
riguardo alla sua posizione, e viceversa. Dal punto di vista fisico, tale
indeterminazione è dovuta alla perturbazione introdotta dallo strumento di
misura sul processo osservato, in quanto ogni processo di misura deve far
uso di quantità di energia, sia pure piccole, ke modificano lo stato microfisico
alterandolo irreversibilmente.
Bohr e il principio di complementaritàNel 1927 Bohr introduce una nuova categoria logoca, alla quale è stato dato il
nome di complementarità. La complementarità ruota intorno all’idea ke la
complessità del reale non può essere colta con un solo sistema coerente di
concetti, ma ke dobbiamo far ricorso a loro coppie ke forniscono prospettive
reciprocamente inconsistenti, e tuttavia indispensabili x comprendere il reale.
Nello specifico il principio di complementarità ammette ke esistano aspetti
della realtà fisica ke sono tra loro complementari, nel senso ke ciascuno di
essi rende conto di certi fenomeni e non di altri, e ad un tempo incompatibili,
ovvero non presenti simultaneamente, sikkè ogni esperimento ke mostri
l’uno, al tempo stesso impedisce la possibilità di osservare l’altro.
Heisenberg, dopo una iniziale resistenza, finì x accettare qst prospettiva:
nasceva così la scuola di Copenaghen.
L’interpretazione della scuola di Copenaghen
La scuola di Copenaghen, sorta tra il 1920-30 intorno alla figura di Bohr,
costituisce il tentativo + riuscito di conciliare l’aspetto corpuscolare con quello
ondulatorio dei fenomeni. L’accettazione dell’interpretazione di Copenaghen
implica la messa in dubbio di principi ke avevano retto ogni indagine fisica e
scientifica del reale: il principio di casualità e il carattere deterministico della
natura, di impostazione laplaciana.
L’ammissione di una indeterminazione intrinseca nei processi della
microfisica faceva svanire l’esistenza di una connessione rigorosa tra cause
ed effetti. Non si tratta di una limitazione della conoscenza umana o di una
impossibilità dei metodi di misura, ma di una vera e propria impossibilità di
ordine concettuale. Inoltre, quanto affermano Born e Heisenberg circa
l’indissolubile implicazione tra oggetto osservato e soggetto osservatore, ha
dato luogo ad una serie di interpretazioni di tipo soggettivistico, x le quali il
fenomeno sembra perdere ogni oggettività x divenire o un mero formalismo
matematico oppure un puro fatto psicologico. Si è arrivati a sostenere con
Jordan non solo ke la misura disturba inevitabilmente ciò ke viene misurato,
ma addirittura lo produce. Diventa problematico parlare di un ”oggetto”
indipendente dal soggetto osservatore, avente una sua esistenza autonoma a
prescindere dall’atto osservativo.
Non tutti i fisici ke parteciparono allo sviluppo della meccanica quantistica
accettarono le concezioni della scuola di Copenaghen, ke portavano a
conseguenze così sconvolgenti. I cosìdetti “fisici berlinesi” (Einstein, Planck e
Schrödinger) concordavano nel rifiuto di una teoria acasuale e del principio di
complementarità, sostenendo la necessità di una spiegazione dei fenomeni in
termini di modelli spazio-temporali. Einstein criticava il concetto di
indeterminazione ed insisteva sulla necessità di mantenere il principio di
causalità rigorosa come strumento di intelligibilità della natura.
Schrödinger criticava in particolare la complementarità, ritenuta una mera
escogitazione linguistica: ”quando non si capisce una cosa si inventa un
nuovo termine e si crede di averla capita”. Planck difendeva sia il principio di
causalità, sia l’irrinunciabilità dell’esistenza di un metodo oggettivo del tutto
indipendente dall’attività conoscitiva. De Broglie si skierò dalla stessa
barricata. Le discussioni tra i protagonisti della rivoluzuine quantistica
mettono anke in luce come la meccanica quantistica abbia costituito un
deciso allontanamento dal dato concreto dell’intuizione sensibile. È quanto
mette in luce Heisenberg, quando sottolinea come col passaggio alla fisica
atomica i corpi vengono a perdere la possibilità di poter essere determinati in
uno spazio e in un tempo oggettivo.
L’incidenza filosofica della meccanica quantistica
I principali protagonisti furono influenzati dalle idee filosofike diffuse in
Germania dopo la prima guerra mondiale e lo stesso concetto di in
indeterminismo aveva avuto il terreno preparato sia dalla filosofia della
scienza di Poincarè, sia dalla filosofia di Kirkegaard. Qst background fece sì
ke essi meglio si rendessero conto della fondamentale importanza della
riflessione filosofica sui fondamenti della scienza ke praticavano, sikkè
pensavano fosse giunto finalmente il tempo di stabilire tra esse un nuovo
fecondo rapporto. Ad emergere vigorosa è la sempre + sentita esigenza, tra i
grandi fisici teorici dell’inizio del secolo, di un’apertura verso la filosofia. Il
bisogno di un ripensamento filosofico delle teorie scientifike nasce innanzi
tutto all’interno della scienza. Il + deciso sostenitore di qst reciproca
integrazione tra scienza e filosofia è stato proprio Heisenberg ke ha
dimostrato una notevole sensibilità e competenza filosofica. Avere una buona
filosofia è indispensabile x lo scienziato, in quanto una concezione ingenua e
arretrata del mondo, ke ritiene addirittura di poter fare a meno della filosofia,
porta a deprecabili errori nel campo stesso della teoria della particelle
elementari. Era dunque un clima nuovo ke veniva ad instaurarsi sempre +
nell’ambito della comunità degli scienziati, avvertito anke in Italia, dove Vailati
notava il nuova interesse x i problemi filosofici da parte degli scienziati. E’
giunto il tempo – afferma Schlick – ke tra filosofia e scienza cessi la reciproca
inimicizia iniziata nel XVIII secolo con nla filosofia idealistica di Schelling,
Fiche ed Hegel, quando qst si dikiarava superiore alla scienza xkè in
possesso di “una sorta di via regale ke portava ad una verità riservata solo ai
filosofi”. Ormai non è + concepibile uno scienziato ke non sia al tempo stesso
filosofo: “Lo scienziato deve essere un filosofo se vuole comprendere e
ulteriormente costruire appoggiandosi ai concetti di base della sua scienza”.
La filosofia non è + vista come un ostacolo affinkè si possa dispiegare la kiara
razionalità scientifica, ma è ritenuta indispensabile al suo sviluppo.
Il bisogno di nuovo modo di filosofare adeguato alla nuova fisica
Se la scienza riskiedeva la filosofia, a sua volta la filosofia non poteva + farsi
senza tener conto dei risultati della scienza: si trattava di 2 facce della stessa
medaglia, alla prima della quale erano in particolare sensibili gli scienziati,
alla seconda invece i pensatori aventi una formazione filosofica. La filosofia –
sostiene Russel – non può ignorare la scienza, in quanto molti dei suoi
problemi trovano soluzione in qst. I filosofi si trovano a riflettere sul portato
specifico delle nuove teorie scientifike, ed innanzi tutto su quella scissione nel
corpo della scienza ke vedeva da una parte la fisica classica con le sue leggi
deterministike , dall’altra il mondo del microscopico in cui non valgono + le
leggi clessike. È qst la situazione ke hanno di fronte i fondatori del Circolo di
Vienna e i filosofi della scienza dei primi decenni del 900. Essi si pongono il
compito di trovare x tale crisi nuovi strumenti concettuali ke meglio
permettano di comprenderne la natura e ke siano diversi da quelli forniti dalle
vekkie filosofie delle scuole. Si trattava come dice Frank, parafrasando una
parabola evangelica, di mettere il vino nuovo in otri nuovi, dove «gli otri
vecchi erano gli schemi della filosofia tradizionale, e il vino nuovo la scienza
del Novecento». E, una volta fatto il vino, bisogna trovare le botti filosofike
adatte, ke non ne rovinino il sapore. Alla costruzione di queste “botti” avevano
mirato le discussioni ke avevano luogo in quello ke abbiamo kiamato il “primo
Circolo di Vienna”.
Scarica