Storia della Fisica e del pensiero scientifico

48=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
!"#$%&'&()
È più importante il viaggio,
non la meta del viaggio
Vincenzo Pappalardo
"(#*,!0!#'-""(#2!0!*(#*"(00!*(#
9.1 La crisi del meccanicismo
La concezione del mondo che fu trasformata dalle scoperte della fisica moderna
era stata costruita sulla base del modello meccanicistico newtoniano dell'universo che
costituiva la struttura portante della fisica classica. Si trattava in effetti di una
fondazione veramente formidabile, che sorreggeva graniticamente tutta la scienza e che
per quasi tre secoli offrì una solida base alla filosofia naturale.
Lo scenario dell'universo newtoniano nel quale avevano luogo tutti i fenomeni
fisici era lo spazio tridimensionale della geometria euclidea classica: uno spazio
assoluto sempre immobile e immutabile. Secondo le parole di Newton: “Lo spazio
assoluto, per sua stessa natura senza relazione ad alcunché di esterno, rimane sempre
uguale e immobile”. Tutti i mutamenti che si verificano nel mondo fisico erano descritti
in funzione di una dimensione separata, chiamata tempo, anch'essa assoluta che non
aveva alcun legame con il mondo materiale e che fluiva uniformemente dal passato al
futuro, attraverso il presente. Sempre secondo le parole di Newton: “Il tempo assoluto,
vero, matematico, in sé e per sua natura senza relazione ad alcunché di esterno, scorre
uniformemente”. Gli elementi del mondo newtoniano che si muovevano in questo
spazio e in questo tempo assoluti erano le particelle materiali. Nelle equazioni
matematiche queste venivano trattate come punti materiali e Newton le considerava
oggetti piccoli, solidi e indistruttibili dei quali era costituita tutta la materia. Questo
modello era del tutto simile a quello degli atomisti greci. Tutti e due erano basati sulla
distinzione tra pieno e vuoto, tra materia e spazio, e in entrambi i modelli le particelle
rimanevano sempre identiche a se stesse in massa e forma; perciò la materia era sempre
conservata ed essenzialmente inerte. La differenza importante che c'e tra l'atomismo di
Democrito e quello di Newton è che quest’ultimo contiene una precisa descrizione della
forza che agisce tra le particelle materiali: si tratta di una forza molto semplice, che
dipende solo dalle masse e dalla reciproca distanza tra le particelle. Secondo Newton,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
484!
questa forza, cioè la forza di gravità, era strettamente connessa ai corpi sui quali agiva e
la sua azione si manifestava istantaneamente a qualsiasi distanza.
Sebbene quest'ultima fosse un'ipotesi abbastanza singolare, non fu indagata
ulteriormente. Si riteneva che le particelle e le forze che agivano tra esse fossero state
create da Dio, e che quindi non si potessero sottoporre a ulteriori analisi. Nella
meccanica di Newton, tutti gli eventi fisici sono ridotti al moto di punti materiali nello
spazio, moto causato dalla loro reciproca attrazione, cioè dalla forza di gravità. Per
esprimere in una forma matematica precisa l'effetto di questa forza su un punto
materiale, Newton dovette inventare concetti e tecniche matematiche completamente
nuovi, i concetti e le tecniche del calcolo differenziale. Questo fu un successo
intellettuale talmente straordinario da spingere Einstein ad affermare che esso è “forse il
più grande progresso nel pensiero che un singolo individuo sia mai stato capace di
compiere“.
Le equazioni di Newton relative al moto dei corpi sono la base della meccanica
classica; esse furono considerate le leggi immutabili secondo le quali si muovono i punti
materiali e si pensava quindi che potessero spiegare tutti i mutamenti osservati nel
mondo fisico. Secondo Newton, all'inizio Dio creò le particelle materiali, le forze che
agiscono tra esse e le leggi fondamentali del moto. In questo modo tutto l'universo fu
posto in movimento e da allora ha continuato a funzionare, come una macchina,
governato da leggi immutabili. La concezione meccanicistica della natura è quindi in
stretto rapporto con un determinismo rigoroso. La gigantesca macchina cosmica era
considerata completamente causale e determinata. Tutto ciò che avveniva aveva una
causa definita e dava luogo a un effetto definito e, in linea di principio, si sarebbe
potuto prevedere con assoluta certezza il futuro di una parte qualsiasi del sistema se si
fosse conosciuto in un qualsiasi istante il suo stato in tutti i suoi particolari.
La base filosofica di questo determinismo rigoroso era la fondamentale divisione
tra l'Io e il mondo introdotta da Cartesio. Come conseguenza di questa divisione, si
riteneva che il mondo potesse essere descritto oggettivamente, cioè senza tener mai
conto dell'osservatore umano e tale descrizione oggettiva del mondo divenne l'ideale di
tutta la scienza. Nel Settecento e nell'Ottocento si assiste a un enorme successo della
meccanica newtoniana. Newton stesso applicò la sua teoria al moto dei pianeti e riuscì a
spiegare le caratteristiche fondamentali del sistema solare. Tuttavia il suo modello
planetario era estremamente semplificato, vi era trascurata, per esempio, l'influenza
gravitazionale tra i pianeti, cosicché ne risultavano alcune irregolarità che Newton non
riusciva a spiegare. Egli risolse questo problema supponendo che Dio fosse sempre
presente nell'universo per correggere tali irregolarità.
Il grande matematico Laplace si propose l'ambizioso compito di affinare e
perfezionare i calcoli di Newton al fine di offrire una soluzione completa dell'enorme
problema di meccanica presentato dal sistema solare e portare la teoria a coincidere così
strettamente con l'osservazione che le equazioni empiriche non avrebbero più dovuto
trovare posto nelle tavole astronomiche, arrivando così alla conclusione che le leggi del
moto formulate da Newton assicuravano la stabilità del sistema solare e trattò
l'universo come una macchina capace di autoregolarsi perfettamente. Incoraggiati dal
brillante successo della meccanica newtoniana in astronomia, i fisici la applicarono
anche al moto continuo dei fluidi e alle vibrazioni dei corpi elastici, e ancora una volta
essa servì allo scopo. Infine, anche la teoria del calore fu ridotta alla meccanica quando
485!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
si capì che il calore è l'energia associata a un complicato moto di agitazione delle
molecole.
Lo straordinario successo della meccanica di Newton fece nascere nei fisici
dell'inizio dell'Ottocento la convinzione che l'universo fosse in realtà un enorme sistema
meccanico che funzionava secondo le leggi del moto di Newton. Queste leggi furono
viste come le leggi fondamentali della natura e la meccanica di Newton venne
considerata la teoria definitiva dei fenomeni naturali e generalmente considerata nel
XIX secolo epistème, sapere certo, costituito da proposizioni vere, indubitabili e
definitive, sia che si ritenga, come lo stesso Newton, che i suoi principi siano
“proposizioni ricavate per induzione dai fenomeni”, sia che li si consideri, come Kant,
proposizioni di cui “è chiara la [...] necessità, e pertanto la loro origine a priori”. Sulla
base di questa dominante convinzione, la meccanica viene posta a fondamento sicuro
dell'indagine scientifica del mondo. Si pensa, infatti, che se essa è epistème, se ci dà
un'immagine vera della realtà fisica, allora tutti i fenomeni fisici devono essere descritti
e spiegati in termini meccanici.
Il programma meccanicistico era riuscito a conseguire significativi risultati,
rafforzando la convinzione che la meccanica classica era il fondamento sicuro non solo
della fisica ma anche delle scienze naturali e che la via del completo disvelamento della
natura era ormai definitivamente imboccata. Einstein ha dato una vivida ed efficace
descrizione dell'atmosfera in cui si svolgeva la ricerca scientifica del XIX secolo: “In
materia di principi predominava una rigidezza dogmatica; in origine (se origine vi fu)
Dio creò le leggi del moto di Newton insieme con le masse e le forze necessarie. Questo è
tutto; ogni altra cosa risulta deduttivamente attraverso lo sviluppo di metodi
matematici appropriati. Ciò che il secolo XIX riuscì a fare basandosi solo su questo […]
non poteva non suscitare l’ammirazione di ogni persona intelligente. […] Però, ciò che
faceva più impressione non era tanto la costruzione della meccanica come scienza a sé,
o la soluzione di problemi complicati, quanto le conquiste della meccanica in campi che
apparentemente non avevano nulla a che fare con essa [...]. Questi risultati
confermavano che la meccanica costituiva [...] la base della fisica [...]. Non dobbiamo
quindi stupirci se tutti, o quasi tutti, i fisici del secolo scorso videro nella meccanica
classica la base sicura e definitiva di tutta la fisica, e anzi, addirittura di tutte le
scienze naturali”.
La crisi della fisica ha inizio quando il programma di ricerca meccanicistico
esaurita la sua capacità progressiva, si imbatte in difficoltà che sembrano insuperabili e
che portano ad abbandonare l'idea della meccanica come base unitaria della fisica,
nonché a ripensare in generale la natura e lo status epistemologico delle teorie
scientifiche. Questa presa di coscienza non si verificò improvvisamente, ma fu avviata
da avvenimenti che erano già iniziati nel diciannovesimo secolo e che prepararono la
strada alle rivoluzioni scientifiche del XX secolo.
Il primo di questi avvenimenti fu la scoperta dell’elettromagnetismo che non
poteva essere descritto adeguatamente dal modello meccanicistico, e comportavano
l'esistenza di un nuovo tipo di forza. Il passo importante fu compiuto da Faraday e da
Maxwell, i quali, invece di interpretare l'interazione tra una carica positiva e una
negativa dicendo semplicemente che le due cariche si attraggono tra loro come avviene
per due masse nella meccanica newtoniana, trovarono più appropriato dire che ogni
carica crea nello spazio circostante un campo, cioè una perturbazione o una condizione
tale che un'altra carica, se presente avverte una forza. Era un mutamento profondissimo
della concezione della realtà fisica da parte dell'uomo. Nella visione newtoniana, le
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
486!
forze erano rigidamente connesse ai corpi su quali agivano. Ora il concetto di forza
veniva sostituito da quello, molto più sottile, di campo, il quale aveva una sua propria
realtà e poteva essere studiato senza alcun riferimento ai corpi materiali. Il punto più
alto raggiunto da questa teoria (l’elettromagnetismo) fu la comprensione del fatto che la
luce non è altro che un campo elettromagnetico rapidamente alternante e che si sposta
nello spazio sotto forma di onda.
Quanto al secondo di questi avvenimenti, la termodinamica, progressi molto
brillanti erano stati compiuti interpretando temperatura, quantità di calore, pressione di
un gas all'interno della teoria cinetica della materia, ossia come effetti globali del moto
caotico delle miriadi di particelle materiali che costituiscono i gas (e in generale i corpi).
La meccanica statistica aveva permesso, mediante considerazioni probabilistiche
ingegnose e complesse, di definire le grandezze termodinamiche come somme o medie
di grandezze strettamente meccaniche riguardanti il moto di tali particelle, e di ricavare
anche le fondamentali leggi della termodinamica. Una difficoltà notevole era tuttavia
costituita dal secondo principio della termodinamica, che introduceva l’irreversibilità
dei fenomeni di cui non riusciva a ottenere la spiegazione utilizzando leggi e principi
della meccanica che sono tutti reversibili (ossia, che permettono di determinare lo stato
futuro di un sistema, ma anche il suo stato passato).
Alla fine di molti sforzi teorici e complessi calcoli matematici una via d’uscita fu
trovata e possiamo esprimerla, molto sommariamente, così: lo stato finale cui tende il
processo non è assolutamente irreversibile, ma soltanto quello di massima probabilità;
la reversibilità non è teoricamente impossibile, ma ha una probabilità talmente bassa
che può essere praticamente escluso il suo verificarsi. La riduzione della termodinamica
alla meccanica era in tal modo ottenuta, ma a un prezzo notevole, ossia l'introduzione
del punto di vista probabilistico nella scienza fisica, che intaccava il rigoroso
determinismo della fisica tradizionale, vera colonna portante del meccanicismo (le leggi
naturali non ammettono eccezioni, e se i risultati previsti non si verificano, è solo perchè
le condizioni di applicazione della legge non erano adeguatamente realizzate).
Notiamo che l’ingresso del punto di vista probabilistico precede la nascita della fisica
quantistica, che introdurrà un probabilismo di tipo diverso e più radicale rispetto a
quello della termodinamica classica, un probabilismo come legge di natura.
In definitiva, le due nuove branche della fisica ottocentesca, ossia
l'elettromagnetismo e la termodinamica, risultarono alla fine irriducibili a sottocapitoli
della meccanica. Nonostante questi mutamenti che aprivano nuovi orizzonti, la
meccanica newtoniana mantenne inizialmente la sua posizione come fondamento di
tutta la fisica.
Maxwell stesso cercò di dare una spiegazione meccanicistica ai propri risultati
interpretando il campo come stati di tensione meccanica in un mezzo molto leggero,
chiamato etere, che riempiva tutto lo spazio, e le onde elettromagnetiche come onde
elastiche di questo etere. Tuttavia, Maxwell fece uso contemporaneamente di diverse
interpretazioni meccaniche della sua teoria e manifestamente non ne prese alcuna in
seria considerazione. Egli doveva aver compreso intuitivamente, anche se non lo
espresse in maniera del tutto esplicita, che le entità fondamentali della sua teoria erano i
campi e non i modelli meccanici. Fu Einstein a riconoscere chiaramente questo fatto
cinquant'anni dopo, quando dichiarò che non esisteva alcun etere e che i campi
elettromagnetici erano vere e proprie entità fisiche, che potevano spostarsi attraverso lo
spazio vuoto e non potevano essere spiegate meccanicamente.
487!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
All'inizio del Novecento, dunque, i fisici disponevano di due teorie valide, capaci
di spiegare fenomeni differenti: la meccanica di Newton e l'elettrodinamica di Maxwell;
di conseguenza, il modello newtoniano non costituiva più la base di tutta la fisica.
9.2 Riflessioni critiche sul meccanicismo
Questi fatti si erano prodotti negli ultimi tre decenni dell'Ottocento e avevano
incrinato la fede nel meccanicismo non tanto presso il pubblico e la maggior parte degli
scienziati, quanto presso alcuni spiriti più attenti. Con l’abbandono dell’interpretazione
meccanicistica dei fenomeni, perdeva terreno l’idea di una gerarchia delle scienze, e in
conformità alla concezione fenomenistica della scienza, nello studio della natura non
può esserci altra verità all’infuori di ciò che si percepisce con i sensi, per cui, i veri
oggetti della fisica sono i colori, i suoni, le temperature, i moti, le pressioni, ecc. Scopo
della fisica è quindi quello di associare opportunamente, e in modi quanto più possibili
molteplici, tali dati elementari. Nasce così l’idea di una fisica fenomenologia da
contrapporre a quella meccanica, che da un lato, è vero che comporta una restrizione
del campo operativo, dall’altro però rappresentava un soffio vivificante, che liberava la
fisica dall’idea di sostanza, e dalla faticosa e deviante pretesa di interpretare
meccanicamente i fenomeni, a cui soggiacevano ancora grandi spiriti, come quello di
Maxwell. Protagonisti di questa riflessione critica furono Mach, Duhem e Poincarè.
Ernst Mach (1838-1916), in un primo tempo, è stato un convinto meccanicista:
“l’intera fisica non è altro che meccanica applicata”. L’affermazione secondo cui la
materia è costituita di atomi, anche se risulta un’ipotesi, è convinto di doverla accettare
tante sono le prove, sia pure indirette, che la convalidano; ammette però che esistano
due specie ben distinte di atomi, quelli corporei costituenti i corpi, e quelli eterei
costituenti l’etere: fra i primi agisce una forza attrattiva regolata dalla legge della
gravitazione, fra i secondi invece una forza repulsiva e, poiché ogni atomo corporeo è
circondato da vari atomi eterei, la forza repulsiva di questi ultimi sarà ciò che impedisce
ai primi di congiungersi fra loro. Scopo della scienza è di stabilire il maggior numero
possibile di leggi sperimentali, che il ricercatore dovrà poi ricondurre a pochi principi
generali. Anche se in taluni casi questi principi sono soltanto ipotetici, risulterà in
ultima istanza possibile, date due ipotesi antitetiche avanzate per spiegare il medesimo
fenomeno, scoprire qualche esperimento cruciale capace di escludere definitivamente
l’una a favore dell’altra.
Però ben presto Mach comincia a respingere i postulati generali del
meccanicismo, ed in particolare le critiche vengono rivolte ad Helmholtz, lo scienziato
dell’epoca che aveva dato maggiori contributi alla spiegazione fisica di parecchi
fenomeni sensitivi (in particolare del suono). Helmholtz viene accusato di non limitarsi
ad avanzare ipotesi per la spiegazione dei fenomeni, ma di voler elevare le teorie
scientifiche a criterio supremo per distinguere i fenomeni veri da quelli illusori, senza
tenere conto che esse mutano da un periodo all’altro, onde il presunto criterio
risulterebbe sempre qualcosa di provvisorio. In realtà il meccanicismo di Helmholtz ci
impedisce di guardare all’esperienza in tutta la sua ricchezza, ci allontana dai fatti
concreti, sostituisce ad essi dei presupposti speculativo-metafisici. Quello di Mach è, se
vogliamo, un atteggiamento che presenta qualche analogia con lo stato d’animo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
488!
diffusosi prima tra i romantici nei confronti della scienza illuministica. Con una
differenza radicale però, e cioè che Mach non intende collocarsi al di fuori del grande
filone della scienza moderna, ma soltanto rimuovere gli ostacoli metafisici che ne
impediscono lo sviluppo. Non intende, in particolare, rinunciare all’uso della
matematica, ma anzi avvalersi largamente e sistematicamente per misurare i fenomeni
e per determinare direttamente le relazioni che intercorrono tra essi, senza presumere di
poterle ricavare da una realtà, inafferrabile ai sensi, che costituirebbe la vera base
dell’esperienza. Non fa perciò ricorso a nessun genere di intuizione sovrasensibile, che
dovrebbe porci immediatamente a contatto col cuore della realtà, come pensavano i
romantici, ma si sforza di potenziare la nostra osservazione, liberandola dalle categorie
predeterminate in cui siamo soliti rinchiuderla per una malintesa fedeltà alla tradizione
scientifica. Mach non ha certo difficoltà a riconoscere che, nel Seicento e Settecento, il
meccanicismo fornì utilissimi strumenti per correlare i fatti; nega però che possa ancora
assolvere un’analoga funzione. L’utilità, che esso indubbiamente rivelò in passato,
dipende in realtà, come dimostra un’attenta analisi storica, dal fatto che le stesse
nozioni generali cui il meccanicismo faceva ricorso erano inconsapevolmente ricavate
dall’osservazione; la pretesa che le medesime nozioni risultino perennemente valide,
equivale all’affermazione, del tutto ingiustificata, che l’esperienza non potrà in alcun
modo subire arricchimenti tali da suggerirci nuove categorie, diverse da quelle
costituitesi in una fase antecedente della ricerca. L’interesse di Mach per la storia della
scienza trova proprio qui le sue radici, deriva cioè dalla capacità, insita in tale storia, di
mettere a nudo l’effettiva origine empirica delle nozioni che siamo soliti accogliere
come evidenti, assolute, immodificabili, e di farci quindi comprendere che abbiamo
pieno diritto di modificarle, correggerle, e anche abbandonarle. Così interpretata, essa
diventa quindi una nuova potentissima arma contro il meccanicismo; ci dimostra che
nessuna teoria scientifica, per quanto affermata e rispettabile come la meccanica, è
autorizzata a farci chiudere gli occhi di fronte a ciò che concretamente osserviamo; che
nessun dogma può venir invocato per nascondere o soffocare la ricchezza dei dati
empirici. È evidente il legame tra la polemica machiana contro il meccanicismo e quella
di Comte contro la metafisica, per cui a buon ragione Mach può essere considerato un
positivista. Non va però dimenticata una notevole differenza: mentre per Comte il puro
e semplice avvento della scienza segnava, in qualsiasi campo, la fine della metafisica,
per Mach invece il periodo metafisico è sempre presente, nascondendosi nelle pieghe
stesse delle più accredidate teorie scientifiche. La stessa meccanica classica galileianonewtoniana, è carica di presupposti metafisici, e se all’inizio essi non erano in grado di
arrecarle nessun danno, oggi invece sono pericolosissimi potendo frenare e distorcere lo
sviluppo di tutta la scienza. Di qui la necessità di snidarli, di combatterli, di eliminarli
con il più coraggioso spirito critico. L’istanza antimetafisica comtiana si trasforma così
in istanza metodologica interna alla scienza, diventando così uno degli sbocchi più
accettabili e fecondi dell’indirizzo positivistico.
Mach, che aveva una rilevante competenza nel campo delle scienze fisiche, è uno
dei filosofi che meglio comprendono certe radicali trasformazioni teoriche del sapere
scientifico dell'epoca. Nella Meccanica nel suo sviluppo storico-critico (1883) egli dà anzi un
importante contributo a tale trasformazione demolendo la fede dogmatica nella
meccanica quale fondamento ultimo e definitivo della fisica, compiendo un esame
rigoroso e completo dei concetti che stanno alla base della meccanica e che si erano
consolidati nel corso dei secoli, che gli consente di portare una luce veramente nuova
489!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
sui fondamenti e sul valore scientifico del maestoso edificio, aprendo definitivamente la
via a una nuova fase critica dell’intera fisica. E da non trascurare, la storicizzazione
delle pretese verità universali della scienza, delineando una concezione non più
assoluta ma funzionale (cioè relativa a determinati presupposti e contesti) della legge
scientifica. Con molta, e molto moderna, lucidità egli assegna al sapere il compito non
già di cogliere improbabili (e comunque meta-empiriche) essenze naturali, bensì di
comprendere le strutture e i comportamenti dei dati fenomenici.
In questa opera affronta uno dei problemi più interessanti sia dal punto di vista
storico sia da quello filosofico: lo svolgimento dei principi della dinamica in Galileo,
Huygens e Newton. Secondo Mach essi sono sostanzialmente quattro: 1)
generalizzazione del concetto di forza; 2) enunciazione del concetto di massa; 3)
formulazione precisa e generale del parallelogramma delle forze; 4) enunciazione del
principio dell’uguaglianza di azione e reazione. I due punti sui quali si accentra in
particolare la sua critica sono il concetto di massa e il principio di azione e reazione.
Mach dimostra facilmente che la definizione newtoniana della massa di un corpo come
“la sua quantità di materia misurata dal prodotto del suo volume per la densità”
contiene un manifesto circolo vizioso, dato che la densità non è altro che il rapporto tra
la massa e il volume. In realtà il concetto di massa proviene, secondo Mach, da un fatto
empiricamente accertabile: l’esistenza nei corpi di “una particolare caratteristica che
determina accelerazione”. Ne segue che il confronto tra le masse di due corpi dovrà
venire eseguito confrontando l’accelerazione che il primo comunica al secondo con
quella (inversa) che il secondo comunica al primo quando essi agiscono un o sull’altro; e
ciò dimostra l’inscindibile legame che connette tale concetto con il principio di azione e
reazione, sicchè Mach può concludere che i due “dipendono l’uno dall’altro, cioè l’uno
suppone l’altro”, e precisando ancora meglio, il principio di azione e reazione “è
incomprensibile se non si possiede un concetto corretto della massa; ma una volta che
questo concetto sia stato formulato in base a esperienze dinamiche, esso è inutile”. Oggi
tutti gli epistemologi concordano sull’impeccabilità di questa analisi. In modo analogo
Mach dimostra che il primo e il secondo principio della dinamica sono già contenuti
“nella definizione della forza, secondo la quale senza forza non si verifica
accelerazione, e quindi si verifica quiete o moto rettilineo uniforme”. Pericolosissima
risulta, secondo Mach, l’interpretazione dei principi della dinamica quali verità
assolute, in primo luogo perché nasconde gli effettivi loro legami con i fatti, in secondo
luogo perché li trasforma in dogmi intoccabili: “La ricerca storica sullo svolgimento
avuto da una scienza è indispensabile, se non si vuole che i principi che essa abbraccia
degenerino a poco a poco in un sistema di prescrizioni capite solo a metà, o addirittura
in un sistema di dogmi. L’indagine storica non soltanto fa comprendere meglio lo stato
attuale della scienza, ma, mostrando come essa sia in parte convenzionale e
accidentale, apre la strada al nuovo”. Alla meccanica, primogenita fra le scienze fisiche
moderne, non compete alcun privilegio intrinseco, ma soltanto un valore storico
contingente e perciò storicamente modificabile: “Lasciamoci condurre per mano dalla
storia. La storia ha fatto tutto, la storia può cambiare tutto”.
Di altre nozioni - lo spazio, il tempo, il movimento - Mach dà una nuova versione
in chiave empiristica, che eserciterà una notevole influenza su Einstein. Per Newton le
nozioni di spazio, tempo e moto assoluti traevano origine sia da ragioni fisiche
(giustificare il principio di inerzia e l'esistenza privilegiata di osservatori inerziali), sia
da ragioni metafisiche (giustificare la presenza e l’azione di Dio nello spazio e nel
tempo). Leibniz si era opposto a questa visione, essendo sostenitore di una “concezione
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
48:!
relazionale” che interpretava spazio e tempo solo in relazione agli oggetti fisici, ma lo
spazio assoluto di Newton, infinito, tridimensionale, omogeneo, indivisibile,
immutabile, vuoto che non offriva alcuna resistenza ai corpi che in esso si muovevano o
restavano a riposo divenne lo spazio accettato della fisica newtoniana e della
cosmologia. D'altra parte, gli effettivi progressi della meccanica tra il Settecento e
l’Ottocento furono scarsamente influenzati dalla nozione di spazio assoluto e tempo
assoluto. Mach non solo respinge come inutili e metafisici i concetti newtoniani di
tempo, spazio e movimento assoluti, ma cerca di porre in luce l’incontestabile contenuto
empirico effettivamente implicato da ogni nostra nozione al riguardo.
“Dire che una cosa A muta con il tempo significa semplicemente dire che gli
stati di A dipendono da quelli di un’altra cosa B. le oscillazioni di un pendolo
avvengono nel tempo, in quanto la sua escursione dipende dalla posizione della terra.
Dato però che non è necessario prendere in questa considerazione questa dipendenza, e
possiamo riferire il tempo a qualsiasi altra cosa i cui stati naturali dipendano dalla
posizione della terra, si crea l’impressione errata che tutte queste cose siano
inessenziali”. È indubbiamente vero che noi possiamo riferire le oscillazioni del pendolo
ai nostri stati psichici anziché a corpi esterni, onde scopriremo “che a ciascuna
posizione del pendolo corrispondono nostre sensazioni e pensieri diversi … Ma non
dobbiamo dimenticare che tutte le cose sono in dipendenza reciproca e che noi stessi,
con i nostri pensieri, siamo solo una parte della natura”. In altre parole, la
rappresentazione del tempo proviene da qualcosa di empirico, dalla constatazione della
reciproca dipendenza di tutte le cose (ivi inclusi le nostre sensazioni e i nostri pensieri);
voler parlare di un tempo in sé, che prescinda da tale dipendenza, è quindi
semplicemente illusorio, è il frutto di un’arbitraria ipostatizzazione. Ne segue che un
moto potrà dirsi uniforme “solo in rapporto ad un altro. Il problema se un moto sia
uniforme in sé è privo di significato”. E ancora la critica di Mach si incentra soprattutto
sui fatti che secondo Newton fornivano solide basi alle nozioni di spazio e moto
assoluto: “Consideriamo ora i fatti sui quali Newton ha creduto di fondare solidamente
la distinzione tra moto assoluto e moto relativo. Se la Terra si muove con moto
rotatorio assoluto attorno al suo asse, forze centrifughe si manifestano su di essa, il
globo terrestre si appiattisce, il piano del pendolo di Foucault ruota, ecc. Tutti questi
fenomeni scompaiono se la Terra è in quiete, e se i corpi celesti si muovono intorno ad
essa di moto assoluto, in modo che si verifichi ugualmente una rotazione relativa.
Rispondo che le cose stanno così solo se si accetta fin dall'inizio l'idea di uno spazio
assoluto. Se invece si resta sul terreno dei fatti, non si conosce altro che spazi e moti
relativi”.
Impostato così il problema, è chiaro che Mach dovrà affermare che anche la
quiete è relativa, ed inoltre che è relativa la stessa nozione di forza: ogni volta che noi
constatiamo l’esistenza di corpi che si muovono con velocità diverse, noi possiamo
parlare di forze, rispettivamente collegabili alla massa di ciascuno di tali corpi. Ma non
vi è motivo di non collegarle anche ai corpi in quiete, dato che è privo di significato
parlare di quiete assoluta. Noi non potremmo più introdurre il concetto di forza, solo se
tutti i corpi fossero in quiete, e cioè se l’esperienza non ci facesse constatare che di fatto
esistono copri i quali si muovono con velocità diverse. Il punto fondamentale, e anche
quello di partenza per tutte le considerazioni fatte, di Mach è quindi l’esclusione
dall'ambito della riflessione tutto quanto non può essere riportato alla diretta
esperienza empirica. Bisogna rinunciare "a rispondere a domande riconosciute prive di
senso" e il "senso" manca dove non è possibile mostrare i dati sensibili che potrebbero
49<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
confermare una determinata asserzione. Là dove i sensi non possono giungere non v'è
per Mach, propriamente parlando, nulla. In definitiva, secondo Mach, il tempo, lo
spazio e il moto assoluti sono soltanto “puri enti ideali, non conoscibili
sperimentalmente”.
Anche l'interpretazione data da Newton all'esperienza del secchio rotante, per
dimostrare l’esistenza di moti assoluti, è quindi criticabile: “L'esperimento newtoniano
del secchio d'acqua rotante semplicemente ci dà informazioni sul fatto che la rotazione
relativa dell'acqua rispetto alle pareti del secchio non produce forze centrifughe
percepibili, ma che tali forze sono prodotte dal suo moto relativo alla massa della Terra
e agli altri corpi celesti. Non ci insegna nulla di più. Nessuno può dire quale sarebbe
l'esito dell’esperimento se le pareti del secchio diventassero sempre più massicce, fino a
uno spessore di qualche miglio”.
La sottigliezza e il rigore di queste argomentazioni sono indiscutibili e
dimostrarono a tutti, anche a quelli meno persuasi, la necessità di riflettere criticamente
sulla dinamica newtoniana, non più accettabile ormai come qualcosa di acquisito una
volta per sempre. E con ciò apersero la via alla rivoluzione einsteiniana.
Tra le molte conclusioni che si possono trarre dalle critiche della meccanica
newtoniana, due sono particolarmente significative. La prima è che risulta sfatata in
maniera definitiva l’idea, largamente diffusa nel Settecento, che i principi della
dinamica rappresentassero delle verità assolute e evidenti, non bisognose di conferma
empirica, ma anzi capaci di garantire a priori la validità delle leggi scientifiche
particolari, dimostrabili entro il quadro della meccanica. La seconda è che la meccanica
deve rinunciare alla posizione privilegiata di cui godeva rispetto alle altre scienze,
cosicchè non si potrà più fare ricorso ad essa, come molti speravano, per realizzare, sia
pure in linea ideale, l’unificazione del sapere scientifico. Tale posizione privilegiata era
dovuta, secondo Mach, unicamente al fatto che la meccanica venne studiata con metodo
scientifico prima delle altre discipline, ma “la conoscenza più antica in ordine di tempo
non deve necessariamente restare il fondamento dell’intelligibilità di ciò che si è
scoperto più tardi”. Pertanto, l’evidenza di una legge o di una nozione scientifica non
proviene da una presunta capacità, insita in essa, di svelarci una realtà più profonda di
quella spettante al mondo empirico; tale evidenza proviene solo dall’abitudine, cosicchè
può accadere che una nozione venga pacificamente accolta come evidente in un’epoca
mentre in altre apparire quasi inaccettabile. Il vero compito dello scienziato non potrà
quindi essere quello di trascendere i fenomeni per scoprire al di sotto di essi qualcosa di
più essenziale, ma semplicemente quello di astrarre dal variopinto mondo
dell’esperienza alcune semplici relazioni che colleghino un certo gruppo di fenomeni ad
un altro: “Nella ricerca scientifica importa solo la conoscenza della connessione dei
fenomeni”.
Stando così le cose, quale potrà essere il criterio di base a cui lo scienziato
attribuirà maggiore importanza a certe connessioni rispetto a certe altre? In conformità
al principio dell'economicità della conoscenza (Occam) Mach aggiunge che le
connessioni più importanti sono quelle più semplici, più rapide e più controllabili. La
formulazione delle connessioni in esame risulterà senza dubbio opera dell’uomo, e
perciò avrà un carattere sostanzialmente convenzionale, magari avvalendosi del
linguaggio matematico per la sua ben nota esattezza e rigore; ma l’oggetto in esame di
cui si vuole formulare una legge, sarà sempre una connessione empirica, cioè qualcosa
che può venire confermata o smentita dall’osservazione dei fatti. Il lavoro dello
scienziato non può né limitarsi alla pura descrizione dell’esperienza, che è comunque
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
49;!
sempre incompleta, né aver di mira l’illusoria ricerca di principi forniti di una validità
logica, indipendente dall’esperienza; consiste invece nella formulazione di nessi che
l’esperienza è in grado di confermare o smentire parzialmente e che nel contempo si
estendono al di là delle esperienze già eseguite: “Le idee sono tanto più scientifiche
quanto più esteso è il dominio in cui hanno validità e più ricco è il modo con cui
completano l’esperienza. Nella ricerca si procede secondo il principio di continuità, che
solo può offrire una concezione utile ed economica dell’esperienza”. Mach non ritiene
fra loro incompatibili il carattere convenzionale delle leggi scientifiche e l’origine
empirica della loro validità. Così non ritiene che il parlare di economicità delle nostre
concezioni della natura significhi riconoscere implicitamente che esse sono qualcosa di
meramente soggettivo. È vero che siamo noi a qualificare una connessione fra fenomeni
con i caratteri di semplicità, rigore e larga applicabilità, ma è pur vero che spetta
all’esperienza e ad essa sola di provarci se effettivamente una data connessione gode
oppure no di tali caratteri. Parlare di economicità di un sistema di leggi non significa
relegare tale sistema al campo dell’utile, e quindi negargli ogni valore conoscitivo;
significa invece fare riferimento alla sua capacità essenzialmente conoscitiva, di fornirci
una visione unitaria del mondo fenomenico. In sostanza, il progresso della scienza
conduce alla restrizione, cioè alla determinazione e precisione crescente, delle nostre
attese del futuro. Certamente questa determinazione e precisione non può ottenersi se
non astraendo, semplificando, schematizzando i fatti fisici e costruendo elementi ideali
che, come tali, non si trovano mai in natura, come sono, ad esempio, i moti uniformi e
uniformemente accelerati, le correnti termiche ed elettriche stazionarie, le correnti di
intensità uniformemente crescente e decrescente: “Una proposizione scientifica non ha
mai altro significato che quello ipotetico [...]”. Pertanto, concetti, leggi e teorie non
hanno una portata ontologica di tipo metafisico, ma soltanto un valore “economico”,
come utili strumenti per organizzare le nostre percezioni sensibili e operare previsioni.
In tal senso sono convenzionali e rivedibili, e possono essere abbandonati e mutati, e
perciò non è possibile parlare di verità della conoscenza scientifica, e l’idea che la
meccanica sia la vera rappresentazione del mondo fisico e costituisce la base, il
fondamento della fisica, è un’idea che resta definitivamente assegnata alla sua natura di
semplice pregiudizio.
In quest’ordine di considerazioni si inquadrano due tesi fondamentali di Mach:
1) il suo antiatomismo; 2) la sua affermazione del carattere funzionale (non casuale)
delle leggi scientifiche.
La ragione dell’avversione alla concezione atomistica dei fisici meccanicisti a lui
contemporanei è dovuta al fatto che, secondo tali scienziati, l’atomo costituirebbe la
vera realtà della natura, realtà non afferrabile dall’osservazione ma dotata ciò malgrado
delle proprietà comunemente attribuite ai corpi effettivamente osservati, e capace, sulla
base di queste proprietà, di darci la ragione ultima dei fenomeni. Così inteso, l’atomo è
un ente di ragione, non di fatto; è un postulato metafisico, non un oggetto di ricerca
fisica. La sua accettazione non potrà che disturbare le nostre libere indagini
sull’esperienza; introdurrà nella fisica qualcosa di dogmatico, che non potrà non essere
di impedimento al suo sviluppo. Ma anche per quanto riguarda i corpi empirici (che
pure sembrerebbero oggetto di esperienza sensibile) bisogna evitare pericolosi
fraintendimenti, derivanti da presupposti realistici e fattualistici che Mach combatte con
ancor maggior radicalità. Considerati con rigore, i corpi empirici non esistono come tali,
non hanno alcuna consistenza di tipo sostanzialistico. Ciò che esiste è solo una serie di
sensazioni semplici, irriducibili, tra loro intimamente congiunte in una sorta di flusso
49=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
continuo. Spesso anche Mach preferisce chiamare queste sensazioni "elementi", per
cercare di non dare una connotazione soggettivo-psicologica al suo pensiero. La sua tesi
principale è, in ogni caso, che: "non sono i corpi che generano le sensazioni, ma sono i
complessi di sensazioni che formano i corpi … Le sensazioni non sono i simboli delle
cose. Piuttosto è la cosa un simbolo mentale per un complesso di sensazioni
relativamente stabili". E ancora: "Non le cose, ma i colori, i suoni, le pressioni, gli spazi,
i tempi (ciò che noi ordinariamente chiamiamo sensazioni), sono i veri elementi
dell'universo". E quindi, in linea con la sua posizione antiatomistica, gli atomi di data
forma e velocità, che noi pensiamo come veri costituenti dei corpi, non sono altro che
immagini che noi deriviamo dalla nostra effettiva esperienza, dagli elementi, attraverso
un procedimento intellettuale, astrattivo e, in fin dei conti, ipotetico. Non bisogna
peraltro interpretare queste tesi come ritorno puro e semplice a un vecchio sensismo
fenomenistico di tipo berkeleyano (esse est percipi: l’essere è l’essere percepito).
Nell'Analisi delle sensazioni (1886) lo stesso Mach, pur non tacendo la sua simpatia per
Berkeley (e per Hume), respinge esplicitamente un avvicinamento delle sue posizioni a
quelle del filosofo irlandese. In effetti egli considera la realtà come qualcosa di più
complesso che la mera risultante di un insieme di sensazioni: "devo osservare che
neppure per me il mondo è una semplice somma di sensazioni. Io parlo piuttosto,
espressamente, di relazioni funzionali degli elementi".
Analogo è il motivo per cui Mach si oppose alla pretesa che la scienza debba
cercare le cause dei fenomeni. Nel concetto di causa è sempre implicito un carattere di
necessità che dovrebbe determinare in un certo modo, ad esclusione di altri, la
produzione dell’effetto. Orbene, l’esperienza non ci pone mai in grado di constatare
questa necessità, per cui, parlando di causa, noi siamo spinti a trascendere il mondo dei
fatti osservati. Se vogliamo realmente limitarci a ciò che l’esperienza ci insegna,
dovremo semplicemente parlare di nessi funzionali, applicando alla fisica il concetto di
funzione, rivelatosi da tempo fondamentale in tutta la matematica. Questo ci
permetterà, fra l’altro, di enunciare in forma rigorosa anche dei tipi di connessione fra
fenomeni che non rientrano nei soliti schemi casuali (gli unici usati dalla fisica
meccanicistica). È fuori dubbio che la concezione così delineata basata sul più schietto
fenomenismo e sul principio di economia, porta non di rado Mach ad affermazioni che
sembrano improntate a un manifesto soggettivismo. Così per esempio quando egli
afferma, a proposito dell’ottica geometrica, che “nella natura non esiste la legge di
rifrazione, ma esistono solo molti casi di questo fenomeno. La legge di rifrazione è un
metodo di ricostruzione concisa, riassuntiva, fatta a nostro uso, e inoltre unicamente
relativa all’aspetto geometrico del fenomeno”. Non dobbiamo però dimenticare che con
queste affermazioni Mach ha soprattutto di mira un intento polemico, vuole sfatare
l’opinione che la legge in esame sia una relazione necessaria che obbliga i raggi a
comportarsi in un certo modo anziché in un altro, se di fatto i casi concreti del
fenomeno non rientrassero nella legge anzidetta, lo scienziato dovrebbe modificare la
legge, non già negare i dati osservativi. Qualunque legge scientifica è modellata su ciò
che noi abbiamo osservato in passato, e potrà sempre venire corretta in base a ciò che
osserveremo in futuro; è solo la metafisica che pretende di sottrarsi al costante controllo
dell’esperienza.
Lo sforzo machiano è di sottolineare il contenuto non meramente psicosoggettivo dei fenomeni costituenti il mondo. D'altronde anche la sensazione in sé e per
sé tende in Mach a sganciarsi da un troppo immediato riferimento all'io, al soggetto. La
sua oggettività è garantita dall'oggettività delle sue matrici fisiologiche e
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
494!
dall'elaborazione scientifica cui è sottoposta. In effetti, uno degli aspetti più significativi
del pensiero machiano è proprio il tentativo di autonomizzare i fenomeni, e la
riflessione su di essi, dalla soggettività. Non può, egli scrive, interpretare correttamente
il mondo chi "non è in grado di abbandonare l'idea dell'io considerato come una realtà
che sta alla base di tutto". La modernità del pensiero machiano sta, tra l'altro, proprio in
questa sua concezione di un mondo senza "base", senza fondamento; cioè un mondo
dove semplicemente avvengono certi fenomeni che si tratta di spiegare nel modo più
immediato e sobrio possibile, attraverso l'uso di quelle osservazioni empirico-sensoriali
e di quelle misurazioni fisico-matematiche che saranno di lì a poco privilegiate dai
neopositivisti. Un altro aspetto del pensiero di Mach sul quale occorre richiamare
l'attenzione è l'efficacia con cui si è saputo sbarazzare di tutta una serie di categorie e
principi gnoseologici (la sostanza, l'accidente, lo stesso assetto categoriale kantiano) che
apparivano non più attuali.
Per quanto riguarda la realtà del soggetto umano, Mach non riserva ad essa
alcun trattamento privilegiato. Così come le 'cose' sono solo insiemi di sensazioni (o di
"elementi"), anche l'io deve essere privato di qualsiasi particolare consistenza
ontologica. Esso è composto degli stessi "elementi" che si ritrovano sia nelle 'cose' che
negli altri soggetti: ciò consente, fra l'altro, di garantire la relazione io-mondo nonché la
comunicazione intersoggettiva. Certo, "non si può considerare esaurito l'io quando, in
modo del tutto provvisorio, si dice che consiste in una connessione peculiare degli
elementi". Occorre, in effetti, approfondire la natura di questa connessione, sollecitare
"psicologi, fisiologi e psichiatri" ad un'analisi più sistematica di questo ente. Ma
fondamentalmente Mach ribadisce il suo rifiuto di considerare l'io come qualcosa di
'consistente', di 'oggettivo', di 'sostanziale'. L'io, per lui, è solo un complesso di "ricordi,
disposizioni, sentimenti"; esso è "così poco persistente in assoluto, come i corpi". Non può
non colpire il fatto che questa radicale demitizzazione dell'io avvenga negli stessi anni
in cui tanti esponenti della cultura europea d'avanguardia, da Nietzsche a Freud,
andavano anch'essi 'de-costruendo' in più modi la soggettività umana.
Per completare l’indagine sul pensiero di Mach, ci resta da trattare il problema
dell’unità del sapere scientifico. Già sappiamo che lo scienziato meccanicista riteneva di
poter trovare nella meccanica il fondamento dell’unità delle scienze, in quanto tutte le
leggi scientifiche dovrebbero risultare, se indagate nelle loro ultime cause,
completamente riducibili a leggi meccaniche. Mach respinge per principio tale
riduzione, ma non per questo condanna il programma di unificare le scienze; ritiene
però che esso vada attuato attraverso la delineazione di una nuova fisica rigorosamente
aderente ai fenomeni e non avente più la pretesa di trascenderli, facendo appello agli
atomi o ad altre entità inosservabili, sottostanti all’esperienza. Tale fisica avrebbe
dovuto contenere come propria parte la meccanica, senza però ridursi ad essa. Egli
ritenne di scorgere nella termodinamica il nucleo della nuova scienza unitaria; i principi
della termodinamica, seppur legati a quelli della meccanica, posseggono infatti una
generalità molto maggiore e rivelano una maggiore aderenza all’esperienza, in
particolare il secondo principio che introduce la nozione di irreversibilità estranea alla
meccanica.
Fu il trionfale successo dell’atomistica a rivelare i limiti della fisica fenomenistica,
che pretendeva di ridurre l’oggetto della scienza ad una rapsodia di percezioni, di fare
della scienza il frutto delle impressioni che gli oggetti lasciano sui sensi, e non invece un
libero processo costruttivo della nostra attività teoretica, implicante vaste possibilità di
495!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
previsioni (il puro fenomenismo non ne chiarisce in alcun modo l’origine) a partire da
determinate strutture rappresentative, da coordinazioni logiche e concettuali.
Comunque, i due punti fondamentali della dottrina di Mach: l’interpretazione dei
concetti come segni, e quella delle leggi scientifiche come strumenti di previsione,
costituiscono i due cardini della fase critica della fisica che la teoria della relatività e la
meccanica quantistica porteranno a compimento.
Su una linea in larga parte convergente con quella di Mach, al quale
esplicitamente si richiama, si muove l'analisi critica della natura delle teorie fisiche, e
quindi anche della meccanica di Newton, sviluppata da Pierre Duhem (1861-1916). Le
tesi più originali di Duhem, esposte nell’opera La theorie physique (1906), sono
essenzialmente due.
La prima tesi: se le teorie fisiche avessero per oggetto la spiegazione delle leggi
sperimentali, la fisica teorica non sarebbe a giudizio di Duhem una scienza autonoma,
ma una scienza subordinata alla metafisica. Secondo lui, infatti, è facile scoprire, al di
sotto di ogni presunta spiegazione fisica, una postulazione metafisica sulla costituzione
della materia. Proprio per poter difendere l'autonomia della fisica nei confronti della
metafisica, si dovrà dunque ammettere che una teoria fisica non è una spiegazione, ma
soltanto “un sistema di proposizioni matematiche, dedotte da un ristretto numero di
principi, che hanno lo scopo di rappresentare nel modo più semplice, più completo e più
esatto, un insieme di leggi sperimentali”. Non è difficile comprendere l'importanza di
questa sostituzione della funzione del “rappresentare” a quella dello “spiegare”. Vale la
pena riferire alcune considerazioni con cui egli illustra tale importanza: “Così, una
teoria vera non dà una spiegazione delle apparenze fisiche conforme alla realtà; essa
rappresenta in modo soddisfacente un insieme di leggi sperimentali; una teoria falsa
non è un tentativo di spiegazione fondato su presupposizioni contrarie alla realtà, ma
un insieme di proposizioni che non concordano con le leggi sperimentali”. Ma quale
potrà essere l'utilità di una teoria fisica, se escludiamo che essa possa “spiegare le
apparenze fisiche conforme alla realtà”? In primo luogo sarà quella di realizzare
un'economia intellettuale; già la sostituzione di una legge sperimentale ai fatti concreti
ci procura una siffatta economia, ma un'economia ancora maggiore sarà procurata dalla
concentrazione di più leggi sperimentali in una teoria. In secondo luogo l'utilità di una
teoria fisica risiederà nel fatto che tale teoria è anche una classificazione delle leggi
sperimentali, cioè una ripartizione di esse su diversi piani, uno subordinato all'altro. E
Duhem, giunto a questa concezione positivista e pragmatica della natura, era
completamente d'accordo con Mach nel proclamare che la teoria fisica è innanzitutto
una 'economia di pensiero'. Per lui tutte le ipotesi basate su immagini sono transitorie e
instabili; solo le relazioni di natura algebrica che le teorie-sonda hanno individuato tra i
fenomeni possono durare imperturbabili.
La seconda tesi di Duhem riguarda la portata del metodo sperimentale, cioè del
metodo che la scienza moderna considera come lo strumento privilegiato per la
dimostrazione dei propri risultati. Le critiche che formula a proposito di tale metodo
possono essere riassunte in questi sei punti.
1. Che cosa è esattamente un'esperienza di fisica? Un'analisi sottilissima conduce
Duhem a fornire una risposta assai sorprendente, ma di cui è difficile negare la
fondatezza: “Un esperimento di fisica non consiste soltanto nell'osservazione di un
fenomeno, ma anche nella sua interpretazione teorica”. E come se ciò non bastasse,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
496!
Duhem ne ricava poi il seguente corollario: “La sola interpretazione teorica dei
fenomeni rende possibile l'uso degli strumenti”.
2. Il metodo sperimentale applicato nella fisica fa corrispondere ai fatti osservati una e
una sola legge? La risposta è decisamente negativa: ad uno stesso insieme di fatti si
può far corrispondere un'infinità di formule diverse, di leggi fisiche distinte;
ciascuna legge, per essere accettata, dovrà far corrispondere a ogni fatto non già il
simbolo del fatto, ma uno qualunque dei simboli—in numero infinito—in grado di
rappresentare quel fatto. Se ne ricava che: “Ogni legge fisica è una legge
approssimativa, e di conseguenza per il logico rigoroso essa non può essere né vera,
né falsa. Ogni altra legge rappresentante le stesse esperienze con la medesima
approssimazione può aspirare, tanto quanto la prima, al titolo di legge vera o, più
esattamente, di legge accettabile”.
3. Un esperimento di fisica non può mai condannare un'ipotesi isolata, ma soltanto
tutto un insieme teorico. Duhem sottolinea la novità di questa tesi in questi termini:
“Si pensa comunemente che ogni ipotesi di cui la fisica fa uso possa essere presa
isolatamente e sottoposta al controllo dell'esperienza, poi, quando prove svariate e
molteplici ne hanno constatato il valore, può essere collocata in modo definitivo nel
sistema della fisica. In realtà non è così. La fisica non è una macchina che si lasci
smontare; non si può verificare ogni pezzo isolatamente e attendere, per ripararlo,
che la solidità ne sia stata minuziosamente controllata. La scienza fisica è un
sistema che bisogna prendere nella sua interezza, è un organismo di cui non si può
far funzionare una parte senza che quelle più lontane entrino in gioco, le une di più,
le altre di meno, ma tutte in qualche misura”.
4. Questo punto riguarda la critica del cosiddetto experimentum crucis: “Supponente che
esistano soltanto due ipotesi, e cercate condizioni sperimentali tali che l'una
annunci la produzione di un fenomeno e l'altra la produzione di un fenomeno
completamente diverso; realizzate le condizioni e osservate cosa succede. A seconda
che osserviate il primo dei fenomeni previsti o il secondo, condannerete la seconda
ipotesi o la prima”. Ebbene, un procedimento del genere, mentre è perfettamente
lecito in matematica, non lo è in fisica: “Tra due teoremi di geometria tra loro
contraddittori non c'è posto per un terzo giudizio: se l'uno è falso, l'altro è
necessariamente vero. Due ipotesi di fisica costituiscono mai un dilemma
altrettanto rigoroso? Oseremo mai affermare che non è immaginabile nessun'altra
ipotesi?”
5. Il quinto punto consiste nella critica della pretesa di poter dimostrare direttamente,
mediante l'induzione, le ipotesi a partire dalle quali le teorie fisiche svolgono le loro
conclusioni. L'autorità dello scienziato a cui può venire fatta risalire tale pretesa è
Newton, e la conclusione che Duhem ne trae è che il metodo newtoniano di
dimostrare una a una le ipotesi delle teorie fisiche è assolutamente chimerico: “Il solo
controllo sperimentale della teoria fisica che non sia illogico consiste nel confrontare
l'intero sistema della teoria fisica con tutto l'insieme delle leggi sperimentali e nel
valutare se il secondo insieme è rappresentato dal primo in modo soddisfacente”.
6. Il sesto punto consiste nella risposta al quesito: ma quale sarà allora il metodo che il
fisico dovrà seguire per la scelta delle ipotesi da portare alla base delle sue teorie?
Certamente una scelta non gli può venire suggerita dalla logica, che si limita a
prescrivergli di evitare le contraddizioni. Né le ipotesi possono essere dedotte da
assiomi forniti dalla conoscenza comune. La risposta di Duhem al quesito è
497!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
sconcertante nella sua semplicità: “Il fisico non sceglie le ipotesi sulle quali fondare
una teoria”; tali ipotesi non sono infatti “il prodotto di un'ideazione improvvisa”, ma
sono “il risultato di una progressiva evoluzione”. Di qui l'importanza del metodo
storico nell'esposizione della fisica: “Soltanto la storia della scienza può
salvaguardare il fisico dalle folli ambizioni del dogmatismo, come anche dalle
disperazioni del pirronismo. Descrivendo la lunga serie degli errori ed esitazioni che
hanno preceduto la scoperta di ogni principio, essa lo mette in guardia contro le
false evidenze; ricordandogli le vicissitudini delle scuole cosmologiche [filosofiche],
facendo riemergere dall'oblio dove giacciono le dottrine che un tempo trionfarono,
essa lo costringe a ricordare che i sistemi più seducenti altro non sono che
rappresentazioni provvisorie e non già spiegazioni definitive. Illustrandogli la
tradizione continua secondo cui la scienza di ogni epoca si è nutrita con i sistemi
dei secoli passati e con cui è piena della fisica dell'avvenire, citandogli le profezie
formulate dalla teoria e realizzate dall'esperienza, essa crea e rafforza in lui la
convinzione che la teoria fisica non è un sistema puramente artificiale, oggi utile e
domani non più, che essa è vieppiù una classificazione naturale, un riflesso sempre
più chiaro della realtà con cui il metodo sperimentale non saprebbe confrontarsi”.
Ciò che le singole teorie fisiche non sono in grado di fornirci, ciò che il metodo
sperimentale è impotente a farci conseguire, ci viene invece suggerito da un attento e
approfondito studio dello sviluppo storico della fisica.
Duhem fu fisico teorico di indiscutibile valore, e si occupò soprattutto di
termodinamica, dedicandosi all’edificazione di una termodinamica generale capace di
unificare i fenomeni meccanici, che aborriva, termici, elettrici e magnetici, chimici. I suoi
sforzi in questa direzione culminarono nell’opera Traité d’énergétique générale (1911).
Convinto fautore della scuola dell'energetica, Duhem, però, non seppe rendersi conto
dell'autentico peso scientifico della rinascita della teoria atomica all'inizio del XX secolo,
né riuscì a intuire i prodigiosi sviluppi cui essa avrebbe dato luogo nel giro di pochi
decenni. È chiaro che dall'inizio del XX secolo le ricerche epistemologiche hanno
compiuto notevolissimi progressi, ora sviluppando e approfondendo le tesi di Duhem,
ora invece respingendole o comunque apportandovi sostanziali modifiche. Una cosa
sembra in ogni caso sicura: che le sottili e stimolanti analisi duhemiane dimostrano, al
di là di ogni dubbio, che l'esigenza di accrescere la nostra consapevolezza intorno alla
struttura della fisica e ai metodi da essa praticati non è soltanto il frutto di una
discutibile curiosità di certi filosofi, ma si radica nel lavoro stesso degli scienziati, o per
lo meno di quelli, fra essi, più provvisti di spirito critico, più attenti all'autentico
significato del progresso scientifico.
Anche l'analisi critica delle teorie fisiche sviluppata da Henri Poincarè (18541912) approda a un depotenziamento della concezione epistemica della scienza. Per lui
nessuna forma di sapere è in grado di farci conoscere la vera natura delle cose, neppure
la scienza: “quello che essa può cogliere non sono le cose stesse, come credono gli ingenui
dogmatici, bensì soltanto i rapporti tra le cose; all'infuori di questi rapporti non vi è
alcuna realtà conoscibile”. Perciò, i concetti delle teorie scientifiche sono: “semplici
immagini, sostituite agli oggetti reali che la natura ci nasconderà eternamente”; le
teorie “hanno un senso semplicemente metaforico”; la scienza, in quanto ci fa conoscere
i rapporti fra gli oggetti, è un sistema di relazioni, “sopra tutto una classificazione, una
maniera di avvicinare i fatti che le apparenze separano”: come tale è sì oggettiva,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
498!
perchè esprime relazioni che sono comuni a tutti gli esseri pensanti, ma non è vera,
poiché una classificazione “non può esser vera ma comoda”.
Allo sviluppo di questa fase critica portò un ulteriore contributo Hertz, autore
dei Principi di meccanica (1894) che costituiscono una prima revisione critica della
meccanica classica. Accettando la teoria di Mach dei concetti come segni, Hertz
modifica conseguentemente il concetto della descrizione come compito della scienza:
“Noi ci formiamo immagini o simboli degli oggetti esterni; e la forma che diamo ad essi
è tale che le conseguenze logicamente necessarie delle immagini sono invariabilmente le
immagini delle conseguenze necessarie degli oggetti corrispondenti”. Questa
corrispondenza, non tra simboli e cose, ma tra le relazioni tra i simboli e le relazioni tra
le cose, rende possibile la previsione degli eventi che è lo scopo fondamentale della
nostra conoscenza della natura. Essa basta inoltre a garantire la validità di tale
conoscenza; e, aggiunge Hertz: “noi non abbiamo mezzo di conoscere se i nostri concetti
delle cose si accordano con le cose stesse anche sotto qualche altro aspetto che non sia
questo fondamentale”. Ma Hertz vede pure che da questo punto di vista i principi della
scienza non sono imposti alla scienza stessa dalla loro evidenza ma sono scelti in vista
di render possibile l'organizzazione deduttiva della scienza stessa. “Variando la scelta
delle proposizioni che noi assumiamo come fondamentali, possiamo dare varie
rappresentazioni dei principi della meccanica. Possiamo così ottenere varie immagini
delle cose; e possiamo mettere a prova queste immagini e paragonarle l'una con l'altra
sulla base della loro permissibilità, correttezza e appropriatezza”. Hertz stesso si
avvalse di questa libertà, certamente non arbitraria, di scegliere i principi di una scienza
ricostruendo la meccanica sulla base delle nozioni di tempo, spazio e massa e mettendo
in secondo piano il concetto di forza. Il riconoscimento della natura convenzionale, per
quanto non arbitrario, dei principi della scienza è uno dei risultati dello sviluppo della
metodologia scientifica moderna.
Il declino del programma di ricerca meccanicistico e la discussione critica sullo
status epistemologico delle teorie scientifiche non rappresentano ancora il momento
culminante della crisi che investe la fisica classica. Infatti, benché la meccanica di
Newton non venga più posta a fondamento della fisica, non è tuttavia messa in
discussione la validità dei suoi principi; a sua volta, la critica sviluppata da Mach,
Duhem e Poincarè della pretesa che le teorie scientifiche siano sistemi di proposizioni
vere non segna la fine della convinzione dominante secondo cui la teoria di Newton è
episteme. Il profondo mutamento della situazione scientifico-epistemologica si ha invece
con le due grandi rivoluzioni scientifiche del novecento, la teoria della relatività di
Einstein e la meccanica quantistica, che mettono in discussione lo stesso nucleo
fondamentale della rappresentazione classica del mondo fisico, modificando le leggi
della meccanica newtoniana e indicandone i limiti di validità.
9.3 La nuova metafisica della natura
Se da una parte l'opera dei filosofi-scienziati conducevano la scienza e in
particolare la fisica verso quella svolta critica che doveva accentuarsi nel terzo decennio
del XX secolo, dall’altra parte non sono mancati, anche da parte di scienziati, i tentativi
di utilizzare la scienza per una metafisica della natura.
499!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Il chimico Wilhelm Ostwald (1853- 1932), che fu il fondatore della chimica fisica,
è il sostenitore dell'energetismo (tra i suoi scritti: L'energia e le sue trasformazioni, 1888; La
crisi del materialismo scientifico, 1895; Fondamenti della scienza dello spirito, 1909; La moderna
filosofia della natura, 1914), teoria che pose come punto di partenza di una nuova filosofia
monistica. Ostwald rileva che nuovi settori dell’indagine fisica, quali
l’elettromagnetismo, non possono essere interpretati in base alla meccanica. Ciò non
significa soltanto il fallimento del meccanicismo sul piano scientifico, ma anche il
superamento della concezione materialistica del mondo che si fonda sul meccanicismo.
Non è infatti la materia ma l’energia il substrato di tutti i fenomeni. Noi non
percepiamo direttamente coi sensi una sostanza materiale ma soltanto degli effetti
energetici. Anche l’impenetrabilità, che sembra costituire l’attributo fondamentale della
materia, è una semplice qualità sensoriale che è percepita quando vi è una differenza di
energia cinetica fra un oggetto ed il nostro organismo. La materia non è quindi che un
puro costrutto mentale e tutti i suoi aspetti possono essere risolti in energia: la massa
non è che la capacità dell’energia cinetica, l’occupare spazio è energia di volume, la
gravità non è che una particolare energia di posizione. In tal modo la materia non è
altro che un “gruppo spazialmente ordinato di diverse energie”. Ostwald sostiene
inoltre che il principio di conservazione dell’energia è la base del principio di casualità,
poiché ogni successione di causa ed effetto non è che una trasformazione di una forma
di energia in un'altra. Il secondo principio della termodinamica esprime poi in modo
assoluto la fatale irreversibilità dei fenomeni naturali e vani sono i tentativi dei
meccanicisti di ammettere una loro possibile reversibilità
Accettando l'idea fondamentale di Mach, Ostwald ritiene che la scienza non
abbia altro compito se non quello di prevedere gli avvenimenti futuri. Lo strumento di
questa previsione è il concetto, che riassume e conserva i caratteri generali e costanti
dell'esperienza passata e consente così di anticipare quella futura. Ma i concetti
scientifici sono il più delle volte concetti composti, che risultano da una scelta e da una
combinazione di elementi attinti dall'esperienza; sicché il compito della scienza si può
definire come quello di: “consentire di porre concetti arbitrari che, nelle condizioni
previste, possono trasformarsi in concetti sperimentali”. Questa concezione suppone
naturalmente che ci sia un certo determinismo negli eventi naturali, che questi eventi si
concatenino causalmente; ma poiché non conosciamo nella sua totalità la catena causale,
l'affermazione che tutto è determinato e l'affermazione opposta, che c'e nel mondo
qualcosa di non determinato e che lascia campo al libero arbitrio dell'uomo, portano in
pratica allo stesso risultato; possiamo e dobbiamo comportarci, in rapporto al mondo,
come se esso fosse solo parzialmente determinato. Queste idee coincidono
sostanzialmente con quelle di Mach. Ostwald deriva poi da Comte il principio di una
classificazione delle scienze ordinate, secondo il grado di astrazione che esse realizzano,
in tre gruppi: 1) Scienze formali, come la matematica, la geometria e la teoria del
movimento. 2) Scienze fisiche, come la meccanica, la fisica, la chimica. 3) Scienze
biologiche.
Il concetto più generale delle scienze formali è quello di coordinazione o di
funzione; mentre il concetto che domina sia le scienze fisiche sia le scienze biologiche è
quello di energia. E difatti gli esseri viventi possono procurarsi l'energia libera di cui
hanno bisogno per garantire la persistenza della vita solo dalla irradiazione solare.
L'energia libera è difatti quella che si sottrae alla degradazione dell'energia, prevista dal
secondo principio della termodinamica, ed essa sola è il fondamento della vita. Da ciò
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
49:!
deriva la necessità di amministrarla economicamente; e a questa economia dell'energia
libera serve l'organismo vivente, come servono i processi psichici della sensazione, del
pensiero e dell'azione, e l'organizzazione sociale. Da questo principio Ostwald deduce
anche la giustificazione della tendenza politico-sociale verso l'uguaglianza degli
uomini. La stessa scoperta del principio dell'energia non ha altro significato che quello
di economizzare una certa quantità di energia per tutte le generazioni future. Difatti
quel principio, mostrando che l'energia libera (in base al secondo principio della
termodinamica) non può che diminuire, comunica agli uomini l'esigenza e i mezzi di
risparmiarla quanto più è possibile.
Non una metafisica scientifica, ma una interpretazione metafisica della scienza è
presentata da Emile Meyerson (1859-1933), in libri sorretti da una vastissima cultura
scientifica e filosofica: Identità e realtà, 1908; La deduzione relativistica, 1925; La spiegazione
nelle scienze, 1927; Il cammino del pensiero, 1931. Secondo Meyerson, scienza e filosofia
hanno lo stesso punto di partenza, cioè il mondo della percezione e lo stesso punto di
arrivo, cioè l'acosmismo (il mondo non ha una realtà effettiva, s'identifica nell'unica
realtà di Dio) e adoperano lo stesso meccanismo fondamentale della ragione. Su questo
meccanismo vertono soprattutto le analisi di Meyerson. La sua tesi fondamentale è che
solo l'identità dell'essere con se stesso, quale fu concepita da Parmenide, è
perfettamente omogenea con la ragione e trasparente ad essa; e che perciò ogni
spiegazione razionale è una identificazione del diverso e consiste nel ricondurre
all'identità e all'immutabilità la molteplicità e il mutamento che sono dati
nell’esperienza.
Meyerson cerca di mostrare, con l'utilizzazione di un vastissimo materiale
scientifico, che tale è in primo luogo il procedimento che di fatto la ragione adopera sia
nel senso comune, sia nella scienza, sia nella filosofia; e in secondo luogo che tale deve
essere, in linea di diritto, non essendoci altro criterio o misura di intelligibilità. Il
concetto di cosa, di cui sia il senso comune sia la scienza hanno bisogno, è un caso
d'identificazione del diverso sensibile. Il concetto di causa è l'altro caso fondamentale:
giacché ogni spiegazione causale tende, secondo Meyerson, a identificare, al limite,
l'effetto con la causa. Spiegare causalmente un fenomeno significa dimostrare che in
qualche modo esso preesiste nella sua causa e cioè che v'è sostanzialmente identità tra
causa ed effetto. Nel rendere più facilmente possibile l'identificazione, consiste la
superiorità esplicativa dell’ipotesi meccanica, e delle teorie quantitative rispetto a quelle
qualitative della natura.
Il relativismo di Einstein, conducendo a risolvere la realtà fisica nello spazio
porta molto più in là dello stesso meccanismo il processo d'identificazione. Allo stesso
processo sono dovuti i principi fondamentali della fisica: quello d'inerzia e quelli di
conservazione della materia e dell'energia. Questi principi difatti non sono ammessi
sulla base della loro verifica sperimentale, che è solo imperfetta o parziale, ma perchè
sono espressioni del principio di causalità come identità delle cose nel tempo.
Tuttavia in questo processo d'identificazione la scienza incontra ostacoli o punti
di arresto che costituiscono veri e propri irrazionali. La riduzione dei fenomeni nello
schema dell'identificazione, implicando la negazione del tempo, porta a considerare i
fenomeni come reversibili; e tale infatti li considera la meccanica razionale. Ma il
secondo principio della termodinamica impedisce di ammettere questa reversibilità. Il
calore non passerà mai naturalmente da un corpo meno caldo a un corpo più caldo e ciò
stabilisce un ordine irreversibile dei fenomeni naturali. Ora il principio di Clausius è, a
4:<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
differenza degli altri principi della fisica, fondato esclusivamente su fatti
dell'esperienza; di qui la sua mancanza di plausibilità e il tentativo che è sempre stato
fatto di negarlo sostanzialmente e di ristabilire la reversibilità e l'identità dei fenomeni.
Ma questo tentativo è impossibile per la presenza di quegli irrazionali che la scienza
incontra ad ogni passo. Uno di essi è la sensazione nella sua natura di dato ultimo e
irriducibile. Altri sono l'azione reciproca dei corpi, gli stati iniziali da cui partono i
sistemi di energia, la dimensione assoluta delle molecole, ecc.
Lo schema d'identificazione è proprio della scienza perchè è proprio della
ragione umana: la filosofia stessa non può che seguirlo. La sola differenza tra scienza e
filosofia è che la filosofia tenta di raggiungere di colpo e in misura completa
quell'identità che la scienza realizza solo parzialmente e provvisoriamente. La filosofia
in altri termini non può riconoscere quegli irrazionali a cui la scienza si adatta: tale
riconoscimento sarebbe per essa un suicidio. Ma l'unità della scienza e della filosofia è
sostanziale e profonda. I filosofi devono tener conto non dei risultati della scienza, ma
dei suoi procedimenti e del suo atteggiamento nei confronti del mondo esterno; e gli
scienziati non possono non fare della metafisica appena si elevano ad una concezione
generale. L'unità della scienza e della filosofia è l'unità stessa della ragione come
procedimento o schema d'identificazione.
La dottrina di Meyerson si può considerare, più che un contributo alla nuova
metodologia, la critica o la riduzione all'assurdo della vecchia metodologia fondata
sulla spiegazione causale, intesa come spiegazione razionale, dei fenomeni. In realtà la
scienza contemporanea è contrassegnata dall'abbandono di questo ideale di spiegazione
e dal ricorso all'esigenza della semplice descrizione dei fenomeni quale fu affacciata da
Newton e dalla scienza settecentesca; e poi dal ricorso all'esigenza della previsione che
già abbiamo visto prevalere nelle concezioni di Mach e Hertz e che soppianterà
definitivamente le altre negli sviluppi più moderni della scienza stessa.
9.4 Lo studio degli inosservabili e la crisi dell’intuizione in fisica
Per comprendere le ragioni più profonde dell'adesione generalizzata al
meccanicismo nelle scienze bisogna tener conto del fatto che esso offriva una base
all'intuizione. I punti materiali e le onde della meccanica erano una sorta di immagine
idealizzata del granello di sabbia o delle onde che si producono in uno stagno in cui
cade un sasso e non era difficile immaginare che, all'interno dei corpi, ci fossero entità
di questo tipo molto minuscole, ma dotate delle medesime proprietà. A partire dagli
ultimi decenni dell'Ottocento, invece, la fisica in particolare, ma anche altre scienze,
diventano sempre più scienze dell'inosservabile e la cosa è diventata del tutto generale
nel Novecento.
La transizione dall’osservazione del macroscopico al microscopico è di
importanza fondamentale perché cambia profondamente il modo di interrogare la
natura e la sua comprensione. La fisica fino al termine dell'Ottocento studiava
sostanzialmente fenomeni dell'ordine di grandezza dell'esperienza ordinaria o, come si
dice talvolta, "macroscopici". Per comprendere e spiegare le loro proprietà si
introducevano concetti limite idealizzati e si postulavano anche costituenti
"microscopici" di questi corpi, costituenti tuttavia che non erano dotati di proprietà
diverse e il cui compito era esclusivamente quello di dar ragione dei fenomeni
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
4:;!
macroscopici studiati. Possiamo dire che questo era il mondo di oggetti della fisica
classica. Nella fisica moderna invece (che possiamo fare iniziare col Novecento, ma i cui
prodromi si verificano a fine Ottocento), sono gli enti microscopici stessi l'oggetto di
studio, ciò di cui si cerca di stabilire proprietà e leggi. Tutto questo mondo microscopico
non è osservabile nel senso tradizionale di essere accessibile alla percezione sensibile
(specialmente alla vista) e può esser considerato tale solo se si riconosce come
osservazione anche l'osservazione strumentale, la quale però coinvolge sempre più
l'accettazione di intere parti di teorie fisiche. Né vale obiettare che anche per trattare
degli inosservabili dobbiamo in ultima istanza affidarci a quanto si può direttamente
osservare dentro gli strumenti, poiché la sostanza del problema è un'altra: prima si
postulava il componente inosservabile come ipotesi per spiegare il comportamento dei
corpi osservabili, ora invece il comportamento dei corpi osservabili (per esempio degli
strumenti di osservazione e misura) viene utilizzato per scoprire le proprietà dei
componenti inosservabili. Quanto detto non vale soltanto riguardo all'infinitamente
piccolo, ma anche riguardo all'infinitamente grande, ossia a ciò che è lontanissimo nello
spazio e nel tempo (per esempio, negli studi di astrofisica e di cosmologia).
È chiaro che tutto questo è possibile grazie a un cospicuo lavoro di tipo teorico.
Tutte queste conoscenze sono possibili se non si ritiene che unica fonte legittima di
conoscenza sono le percezioni sensibili, ossia se si accorda all'intelletto una capacità di
conseguire vera conoscenza, anche quando non è più direttamente assistito
dall'esperienza sensibile. I positivisti, che erano propugnatori di un empirismo radicale,
non riuscivano ad ammettere un simile contributo dell'intelletto e pertanto si trovarono
completamente spiazzati quando la scienza incominciò a dover sempre più rinunciare a
quello che possiamo chiamare il requisito della visualizzabilità dei suoi oggetti, e la
posizione di Mach è proprio la migliore conferma di questo fatto. Avendo ridotto la
conoscenza autentica al puro contenuto delle percezioni sensibili e avendo ridotto i
prodotti dell'intelletto (concetti, leggi, teorie) a semplici espedienti economici per
ordinare e prevedere in certa misura le nostre percezioni, egli fu costretto a negare
l'esistenza fisica degli inosservabili e, per quanto stupefacente ciò possa apparire a noi
(che consideriamo atomi, molecole e particelle come costituenti normali del mondo
fisico), egli non credette all'esistenza delle molecole e degli atomi pur essendo morto nel
1916 (ossia dopo la rivoluzione relativistica e quantistica).
Le crisi del meccanicismo descritte in precedenza possono infatti esser
considerate, in sostanza, proprio come "crisi della visualizzabilità" degli enti della fisica,
nel momento in cui essi appaiono come degli inosservabili che si tenta di comprendere
mediante modelli intuitivi. Di fronte alle difficoltà emerse nella costruzione di tali
modelli si aprono sostanzialmente due strade: l'una consiste nel riconoscere che
l'intelletto è in grado di farci conoscere anche al di là di quanto è intuitivamente
modellabile, e allora si rimane in una concezione realista della scienza (ossia si ritiene
che la scienza ci faccia conoscere qualcosa della realtà); oppure si ritiene che là dove non
arriva la diretta percezione sensibile non c'è conoscenza, e allora si cade
nell'antirealismo.
L'empirismo radicale corrisponde a questa seconda scelta, ma è il caso di
sottolineare che, essendo la scienza naturale contemporanea quasi per intero una
scienza dell'inosservabile, questa opzione implica che si tolga la caratteristica di
conoscenza alla scienza, ossia a quella forma di sapere a cui la fisica classica aveva
attribuito quasi il monopolio della conoscenza.
4:=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
All’alba del Novecento si apre un nuovo universo di idee. Le avanguardie
artistiche inaugurano la rivoluzione modernista. Nascono l’architettura funzionale e il
design industriale come risposta alla civiltà delle macchine. Letteratura e teatro
disgregano relativisticamente il personaggio-uomo. La pittura rifiuta le immagini della
percezione ottica, per indagare la realtà mentale delle cose. La musica abbandona la
tonalità. Tutto l’universo ottocentesco è rimesso in discussione. Cambiano i costumi, i
modi di pensare , i criteri etici, mentre compaiono esperienze inedite che domineranno
il secolo, come la psicanalisi e il cinema.
Per la scienza si chiude un’epoca che durava dalla rivoluzione newtoniana. La
teoria della relatività di Einstein e la meccanica quantistica, che mettono in
discussione lo stesso nucleo fondamentale della rappresentazione classica del mondo
fisico, modificano le leggi della meccanica newtoniana indicandone i limiti di validità.
Sull’opera di Einstein e sulla meccanica quantistica sarà avviato anche un
dibattito filosofico estremamente impegnato, che vede intervenire molti nomi di spicco
della prima metà del Novecento, da Bergson a Cassirer, da Carnap e Reichenbach a
Meyerson e Whitehead fino a Popper. In tutti questi filosofi, e le correnti che
incarnano, occupa un posto centrale la riflessione sul significato e i fondamenti
dell’esperienza e sulla validità della scienza. I problemi posti dalla nuova fisica, oltre a
suscitare l’interesse dei filosofi, costringono i fisici, come Einstein, Bohr e Heisenberg, a
interessarsi delle implicazioni filosofiche delle loro teorie. Si pensi ai nuovi concetti di
spazio e tempo, al dibattito su casualità e leggi probabilistiche, o ancora alle discussioni
sul concetto di “complementarietà”.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
4:4!
!"#$%&'&()*!
Tutto è relativo.
Prendi un ultracentenario che rompe uno specchio:
sarà ben lieto di sapere che ha ancora sette anni di disgrazie
Einstein
"(#,!.%"/1!%&-#,-"()!.!0)!*(#
LA TEORIA DELLA
RELATIVITA’ RISTRETTA
10.1 Il percorso verso la teoria della relatività ristretta
Verso la fine del XIX secolo la maggior parte degli studiosi era convinta che le
leggi fondamentali della fisica fossero state ormai scoperte: “In fisica non c’è nulla di
nuovo da scoprire ormai” dichiarava Lord Kelvin nel 1900. Le equazioni della
meccanica newtoniana spiegavano con successo il moto degli oggetti sulla Terra e nei
cieli. L'interpretazione teorica dei principali aspetti fisici del mondo macroscopico era
poi completata dalle equazioni di Maxwell, che avevano riunito in un'unica teoria i
fenomeni elettrici e magnetici, e avevano consentito di riconoscere la natura
elettromagnetica della luce. In Maxwell, Einstein vedeva un teorico che si era liberato
dai pregiudizi dominanti, si era fatto condurre dalle melodie matematiche in territori
sconosciuti e aveva trovato un’armonia basata sulla bellezza e la semplicità della teoria
dei campi. Per tutta la vita Einstein fu affascinato dalle teorie dei campi, e descrisse lo
sviluppo del concetto in questi termini: “Un nuovo concetto, l’invenzione più
importante dal tempo di Newton in poi, s’introduce nella fisica e cioè il concetto di
campo. Occorreva una potente immaginazione scientifica per discernere che nella
descrizione dei fenomeni elettrici non sono né le cariche, né le particelle che
costituiscono l’essenziale, bensì lo spazio interposto fra cariche e particelle. Il concetto
di campo si dimostra fertilissimo e conduce alla formulazione delle equazioni di
Maxwell, descriventi la struttura del campo elettromagnetico”.
Però, nelle fondamenta della fisica classica avevano cominciato ad aprirsi delle
crepe, come è stato ampiamente discusso nel capitolo precedente e, in particolare, i due
gruppi di equazioni, quelle di Maxwell e di Newton, cominciavano a mostrare delle
4:5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
fondamentali contraddizioni. In primo luogo, nella meccanica newtoniana ogni mutua
azione si manifesta istantaneamente, qualunque sia la distanza fra i corpi interagenti,
mentre le forze elettromagnetiche descritte dalle equazioni di Maxwell si propagano
con una velocità finita, corrispondente a quella della luce. Proprio per questo, si
comprese ben presto la necessità di elaborare una teoria che riunisse sotto una stessa
logica i principi della meccanica e dell'elettromagnetismo. In secondo luogo, gli
scienziati, per quanto si sforzassero, non riuscivano a trovare nessuna prova del moto
della Terra attraverso l’ipotetico etere, introdotto da Maxwell, per spiegare la
propagazione delle onde elettromagnetiche nel vuoto. Per ultimo, lo studio della
radiazione, di come la luce e le altre onde elettromagnetiche vengono emesse dai corpi
fisici, sollevò un altro problema e cioè strane cose accadevano al confine dove la teoria
newtoniana, che descriveva la meccanica delle particelle discrete, interagivano con la
teoria dei campi, che descriveva tutti i fenomeni elettromagnetici. I tempi erano ormai
maturi per accogliere nella storia delle scienze le due teorie che hanno segnato la nascita
della fisica moderna, la relatività einsteiniana e la meccanica quantistica, che infransero
tutti i più importanti elementi della concezione newtoniana del mondo: la nozione di
spazio e di tempo assoluti e quella di particelle solide elementari, la natura strettamente
causale dei fenomeni fisici e l’ideale di una descrizione oggettiva della natura. Queste
teorie sono diventate la base della scienza della natura che, al di là delle loro
applicazioni tecnologiche che hanno consentito all’uomo di raggiungere livelli
tecnologici inaspettati, hanno influenzato profondamente la concezione che l’uomo ha
dell’universo e del proprio rapporto con esso.
La vita e l’opera di Einstein rifletterono tale sconvolgimento non solo in ambito
scientifico ma anche nell’ambito delle certezze sociali e degli assoluti morali all’inizio
del XX secolo. Einstein aveva l’esuberanza necessaria per rimuovere gli strati di
conoscenze acquisite che nascondevano le crepe aperte nelle fondamenta della fisica, e
la sua immaginazione visiva gli consentiva di compiere i salti concettuali che erano
fuori della portata di pensatori più tradizionali. Il nonconformismo era nell’aria,
Picasso, Joyce, Freud, Stravinskij, Schonberg e altri stavano infrangendo i vincoli
tradizionali nell’arte, nella letteratura, nella musica ed in altri ambiti dell’attività
intellettuale umana.
La storia della relatività comincia nel 1632, allorché Galileo formulò il principio
che le leggi del moto e della meccanica sono identiche in tutti i sistemi di riferimento
che si muovono a velocità costante. Per cui all’interno di una nave che si muove a
velocità costante, tutti i fenomeni che in essa avvengono, come la caduta di un sasso, il
propagarsi delle onde all’interno di un catino pieno d’acqua o il propagarsi delle onde
sonore, sono gli stessi e con le stesse modalità se la nave fosse ferma. In sostanza,
dall’analisi di questi fenomeni non siamo in grado di stabilire se la nave è ferma o è in
moto rettilineo uniforme. Tutto ciò portava ad una domanda per Einstein: la luce si
comporta nelle stesso modo? Newton aveva concepito la luce come un flusso di
particelle emesse dai corpi, ossia aveva attribuito alla luce una natura corpuscolare. Ma
ai tempi di Einstein la maggior parte degli scienziati aderiva, invece, alla teoria
ondulatoria proposta da Huygens, confermata da parecchi esperimenti. Maxwell aveva
contribuito a consacrare la teoria ondulatoria quando aveva ipotizzato con successo una
connessione tra luce, elettricità e magnetismo. Era così pervenuto a delle equazioni che
descrivono il comportamento dei campi elettrici e magnetici, e che quando venivano
combinate predicevano l’esistenza di onde elettromagnetiche. Maxwell aveva scoperto
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
4:6!
che le onde elettromagnetiche dovevano propagarsi ad una ben determinata velocità,
circa 300.000 km/s, che era proprio la velocità con cui si propagava la luce, per cui la
luce era proprio un’onda elettromagnetica.
Tutto ciò sollevava alcuni grandi interrogativi: qual era il mezzo che consentiva
la propagazione di queste onde? E la loro velocità di 300.000 km/s era una velocità
relativa a che cosa? Parve che la risposta dovesse essere che le onde luminose si
propagassero attraverso un mezzo, chiamato etere, e che la loro velocità era relativa
all’etere. In sostanza, l’etere era per le onde luminose qualcosa di simile a ciò che l’aria
era per le onde sonore, e l’idea dell’esistenza di questo mezzo universale penetrante
ovunque, così da riempire ogni spazio all’interno e all’esterno dei corpi materiali era
saldamente radicata nella fisica fino alla fine del XIX secolo.
Ma, nonostante il successo delle leggi sull’elettromagnetismo di Maxwell, i fisici
rimasero nell’impossibilità di descrivere le proprietà di questo misterioso mezzo
universale con gli stessi termini usati nella descrizione dei mezzi naturali più comuni,
come i gas, i solidi, i liquidi, e qualsiasi tentativo effettuato in questo senso portò a
risultati gravemente contraddittori. Infatti, l’etere, doveva avere molte proprietà
sconcertanti. Poiché la luce proveniente dalle stelle lontane è in grado di raggiungere la
Terra, l’etere doveva pervadere l’intero universo conosciuto e doveva essere così
impalpabile da non avere nessun effetto né sui pianeti e né su ciò che è presente su di
essi. Eppure, doveva essere abbastanza rigido da consentire a un’onda di propagarsi
vibrando attraverso di esso a una velocità costante. Infatti, il fenomeno della
polarizzazione della luce dimostrò, al di là di ogni dubbio, che ci troviamo di fronte a
vibrazioni trasversali nelle quali il mezzo è sottoposto a un movimento oscillatorio
perpendicolare alla direzione di propagazione. Tuttavia le vibrazioni trasversali
possono esistere solo nei solidi, i quali, diversamente dai liquidi e dai gas, hanno una
propria forma ben definita: il leggerissimo etere dovrebbe essere un solido, ma se così
fosse, se cioè l’etere riempisse tutto lo spazio che ci circonda, come potremmo correre e
camminare, come potrebbero i pianeti muoversi attorno al Sole per miliardi di anni
senza incontrare alcuna resistenza?
E’ davvero sorprendente che i grandi fisici del XIX secolo non siano arrivati a
pensare che se l’etere fosse esistito avrebbe dovuto possedere proprietà del tutto diverse
da quelle degli altri corpi a noi familiari. Tutto questo condusse alla grande caccia
all’etere. Se la luce era davvero un’onda che si propagava attraverso l’etere, si sarebbero
dovute vedere le onde procedere a una velocità maggiore quando ci si muoveva
attraverso l’etere verso la sorgente luminosa. Gli scienziati escogitarono ogni sorta di
ingegnosi dispositivi e di esperimenti per rilevare tali differenze.
L’esperimento più famoso fu progettato e condotto nel 1887 dal fisico americano
Albert Abraham Michelson (1852-1931; Premio Nobel) e dal suo assistente Edward
Williams Morley (1838- 1923), con il quale volevano dimostrare l’effetto del movimento
della Terra nello spazio sulla velocità della luce misurata alla superficie terrestre. Infatti,
la Terra si muove nello spazio intorno al Sole alla velocità di 30 km/s, dovrebbe, quindi,
esistere una sorta di vento dovuto all’etere cosmico sulla superficie terrestre o
addirittura attraverso anche la sua massa. Michelson e Morley si proposero, allora, di
misurare il tempo impiegato dalla luce per percorrere il suo cammino prestabilito in
due casi: nel caso in cui essa si propagava nella direzione in cui si prevedeva avvenisse
lo spostamento e nel caso in cui la propagazione fosse perpendicolare a tale direzione.
La disposizione sperimentale è illustrata in figura.
4:7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Il tutto fu montato su
una piattaforma di marmo
galleggiante in una vasca
contenente del mercurio, ciò
allo
scopo
di
poter
agevolmente
rotare
il
sistema attorno al suo asse
senza troppe scosse. Un
fascio di luce emesso dalla
lampada S veniva fatto
incidere su uno specchio
semiriflettente O posto al
centro della piattaforma:
circa la metà della luce incidente veniva riflessa sullo specchio B, mentre l’altra metà,
subìta una rifrazione nella lastra O, veniva riflessa dallo specchio A, posto alla stessa
distanza di B dal centro della piattaforma. Il raggio riflesso dallo specchio B, dopo aver
attraversato O, veniva raccolto in C da un cannocchiale, mentre quello riflesso da A,
attraversando O, subiva un’altra riflessione per essere raccolto anch’esso in C. Se non
soffiasse il vento d’etere questi due raggi giungerebbero in fase al cannocchiale e
darebbero luogo ad un fenomeno d’interferenza costruttiva, rinforzando notevolmente
l’intensità luminosa e producendo la massima illuminazione nel campo visivo del
cannocchiale; se, invece, il vento soffiasse, per esempio, da sinistra a destra, il raggio che
si propaga nella direzione opposta giungerebbe al cannocchiale in ritardo rispetto a
quello che si propaga nella stessa direzione e si dovrebbe osservare almeno una parziale
interferenza distruttiva.
I risultati furono negativi. Come mai? Era possibile che l’etere fosse trascinato
completamente dalla Terra nel suo movimento? La ripetizione dell’esperimento su un
pallone ad alta quota escluse tale possibilità, ed i fisici non riuscirono a trovare né una
soluzione né il minimo indizio che li conducesse sulla giusta via.
Tra il 1892 e 1904, il fisico olandese Hendrik Lorentz (1853-1928) elaborava una
teoria elettrodinamica dei corpi carichi in moto. In questa teoria si trovava la prima
articolata proposta di spiegazione del fallimento dell'esperimento di Michelson e
Morley. Secondo Lorentz, che credeva nell'etere, il vento d'etere (ossia il movimento
rispetto all'etere in quiete assoluta), oltre a modificare la velocità della luce, aveva anche
altre conseguenze di rilievo. Egli partì dalla teoria che rappresentava i corpi materiali
come composti da particelle dotate di cariche opposte e tenute insieme dalle forze
elettromagnetiche. Se queste forze sono propagate dall'etere, e quindi dipendono dal
vento d'etere (come d'altronde la propagazione della luce), allora la forma dei corpi
deve dipendere dal loro stato di moto rispetto all'etere. In base ad alcune assunzioni
abbastanza ragionevoli sulle forze elettromagnetiche, egli dimostra come il vento
d'etere doveva produrre un accorciamento dei corpi lungo la direzione del vento.
Questo accorciamento, già predetto qualitativamente da Francis Fitzgerald (1851-1901)
nel 1889, alterava i tempi di percorso della luce entro l'apparato di Michelson e Morley
in modo da nascondere completamente l'effetto cercato. L'etere possedeva dunque una
proprietà straordinaria, quella di rendersi completamente inosservabile.
Nel corso delle sue ricerche, Lorentz dimostrò come il vento d'etere doveva
anche alterare il ritmo degli orologi, e in realtà di qualunque sistema fisico dove
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
4:8!
operano interazioni elettromagnetiche, ivi inclusi i sistemi biologici. Se dunque spirava
il vento d'etere, le misure convenzionali di spazio e tempo risultavano sistematicamente
alterate ed erronee, in modo tale da simulare una realtà fisica in cui l'etere appariva
sempre immobile e la velocità della luce era ancora la stessa in tutte le direzioni. Questo
risultato di Lorentz va sotto il nome di Principio degli stati corrispondenti. In sostanza,
esso continua ad asserire l'esistenza dell'etere e di un sistema di riferimento privilegiato
ancorato all'etere anche se non rilevabile attraverso esperimenti di natura
elettromagnetica. Il principio degli stati corrispondenti è, quindi, idealmente in
contrasto con il principio di relatività galileiano, che non ammette sistemi privilegiati
(come lo è, del resto, la visione newtoniana dello spazio e del ternpo assoluti), ma in
pratica si conforma a esso in quanto nega la possibilità concreta di osservare il sistema
privilegiato. Il mondo reale è unico e dovrebbe essere sempre possibile stabilire una
forma di traduzione tra le misure effettuate da osservatori diversi attraverso le
trasformazioni di Galileo. Tuttavia, nella teoria elettrodinamica di Lorentz il moto
dell’etere induceva, per quanto detto, distorsioni nell'apparato di misura, per cui le
trasformazioni di Galileo andavano corrette. Da questa analisi Lorentz dedusse delle
nuove trasformazioni che tengono conto del moto rispetto all'etere. Queste
trasformazioni furono ampiamente studiate da Poincarè e da lui chiamate Trasformazioni
di Lorentz. La teoria di Lorentz, in particolare se unita ai contributi formali e concettuali
a essa dati da Poincare tra il 1898 e il 1905, contiene molti degli elementi essenziali della
relatività einsteniana.
Troppo spesso, però, la mente umana è condizionata dal pensiero
tradizionale e toccò al genio di Albert Einstein (1879-1955; Premio Nobel) di
gettare dalla finestra il vecchio e superato etere e di sostituirlo col concetto
più vasto di campo elettromagnetico, al quale egli attribuì una realtà fisica
identica a quella di ogni altro corpo materiale. Non solo, ma Einstein risolse
questo ed altri problemi apparentemente contraddittori ed in contrasto con
le leggi della fisica classica.
Nel 1905, a 26 anni, pubblicò sulla rivista scientifica tedesca Annalen der Physick,
tre articoli che scossero e sconvolsero l’ambiente scientifico di tutto il mondo, e che si
innalzano all’inizio del Novecento come imponenti monumenti intellettuali, piramidi
della civiltà moderna. Questi tre articoli riguardavano tre vastissimi campi della fisica: il
calore, l’elettricità e la luce. Uno di questi, conteneva la teoria particolareggiata del moto
browniano e fu di fondamentale importanza per l’interpretazione meccanica dei
fenomeni termici. Un altro interpretava l’effetto fotoelettrico sulla base della teoria dei
quanti, a quei tempi appena sviluppata, ed introduceva il concetto di pacchetti di
energia o fotoni. Il terzo, il più importante per gli sviluppi della fisica, recava il seguente
titolo: Sull’elettrodinamica dei corpi in movimento, ed era dedicato ai paradossi nati dagli
studi sulla misura della velocità della luce. Esso costituì il primo atto ufficiale della
teoria della relatività, ed una delle più profonde e sconvolgenti rivoluzioni nel mondo
della fisica e del pensiero umano.
4:9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
10.2 I postulati della relatività ristretta
Ma se non esiste un etere che riempia tutto l’Universo, non ci può essere un moto
assoluto, poiché non ha senso un movimento riferito al nulla. Così, affermò Einstein, si
può parlare solo di moti di un corpo materiale rispetto ad un altro o di un sistema di
riferimento rispetto ad un altro sistema di riferimento. Se è, dunque, vero che non esiste
un etere cosmico a garanzia dell’esistenza di un riferimento universale per qualsiasi
movimento nello spazio, non potrà neppure esistere alcun dispositivo sperimentale
capace di rivelare tali moti; ogni affermazione riguardante movimenti di questo tipo
deve essere bandita perché priva di significato fisico. Non deve, perciò, meravigliare
affatto che Michelson e Morley, misurando la velocità della luce nelle diverse direzioni
del loro laboratorio, non abbiano potuto capire se il loro laboratorio e la stessa Terra si
muovessero o meno nello spazio. Pertanto, senza guardare fuori dalla Terra, è
impossibile rilevare alcuna forma di movimento nello spazio dall’osservazione di
fenomeni elettromagnetici, come lo è parimenti dall’osservazione di quelli meccanici.
Alcune teorie scientifiche dipendono in modo essenziale dall’induzione, ed
Einstein apprezzava in maniera notevole le osservazioni sperimentali delle quali si
serviva per individuare certi punti fissi sui quali costruire una teoria. Altre dipendono
prevalentemente dalla deduzione, e in un articolo del 1919 intitolato Induzione e
deduzione in fisica, Einstein descriveva la propria preferenza per tale procedimento:
“L’immagine più semplice che ci si può fare della creazione di una scienza empirica è
quella di un procedimento che segue un metodo induttivo. I singoli fatti vengono
selezionati e raggruppati in modo da rendere evidenti le leggi che li connettono …
Tuttavia, i grandi progressi nella conoscenza scientifica soltanto in misura modesta si
sono prodotti in questo modo … I progressi veramente grandi nella nostra
comprensione della natura si sono determinati in un modo quasi diametralmente
opposto all’induzione. La conoscenza intuitiva degli elementi essenziali di un vasto
complesso di fatti porta lo scienziato a postulare in via ipotetica una o più leggi
fondamentali. Da queste leggi, egli deduce le sue conclusioni”. Popper rimase
profondamente colpito dal carattere fortemente immaginativo, addirittura speculativo,
non giustificato razionalmente né prodotto a rigore da alcuna osservazione o
esperimento isolato, della teoria della relatività, fondata in effetti non su un’ulteriore
generalizzazione empirica, ma su un rovesciamento e una sostituzione di quadri
concettuali.
All’inizio del 1905 Einstein aveva cominciato a fare affidamento sulla deduzione
più che sull’induzione nel suo tentativo di spiegare l’elettrodinamica: “A poco a poco
incominciai a disperare della possibilità di scoprire le vere leggi attraverso tentativi
basati su fatti noti. Quanto più a lungo e disperatamente provavo, tanto più mi
convincevo che solo la scoperta di un principio formale universale avrebbe potuto
portarci a risultati sicuri”. Ora che Einstein aveva deciso di costruire la sua teoria
procedendo per deduzione, dall’alto verso il basso, ossia deducendola da postulati
generali, bisognava fare una scelta: quali postulati assumere come assunti fondamentali
di principio per la teoria? I postulati che Einstein assunse come base per la sua Teoria
della relatività speciale o ristretta, valida nel caso di sistemi in moto rettilineo uniforme
l’uno rispetto all’altro, che spazzò via tutte le contraddizioni alle quali conduceva il
modo di ragionare della fisica classica, sono i seguenti:
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
4::!
PRIMO POSTULATO
Principio della relatività: Le leggi della fisica sono le stesse in tutti i sistemi di riferimento
inerziali
SECONDO POSTULATO
Costanza della velocità della luce: La velocità della luce è la stessa in tutti i sistemi di
riferimento inerziali, indipendentemente dal moto della sorgente rispetto all’osservatore.
Il primo enunciato rappresenta l’estensione del principio di relatività anche ai
fenomeni elettromagnetici, ed include tutte le leggi della fisica e quindi va oltre il
principio di relatività galileiano che riguarda solo le leggi della meccanica.
Il secondo postulato è coerente con il primo: le equazioni di Maxwell non
potrebbero avere la stessa forma in tutti i sistemi inerziali se la velocità della luce non
fosse una costante universale. Inoltre, se la costanza della velocità della luce non
dipende dallo stato di moto del corpo che la emette, l’introduzione di un etere
necessario per la sua propagazione è superflua.
Alla luce della relatività ristretta, le premesse dell’esperimento di Michelson e
Morley si rivelarono errate. La possibilità di misurare la velocità della Terra rispetto ad
un sistema di riferimento privilegiato è negata dal primo postulato. Coerentemente, il
secondo postulato esclude che il moto della Terra abbia influenza sulla velocità della
luce e conseguentemente sulla figura d’interferenza osservata nell’esperimento.
10.3 L’unione dello spazio e del tempo
Però, il postulato della luce sembrava incompatibile con il principio di relatività:
immaginiamo che un raggio di luce venga inviato da un faro lungo la banchina di una
linea ferroviaria. Un
uomo
fermo
sulla
banchina che misurasse
la velocità del raggio
mentre
gli
sfreccia
accanto troverebbe che
essa è di 300.000 km/s.
Ma ora immaginiamo
che il raggio di luce venga inviato da un faro di un treno che viaggi a 3000 km/s. Ci
aspetteremmo che l’uomo misuri per il raggio di luce una velocità di 303.000 km/s,
ossia una velocità superiore a quella precedente. Questo risultato, però, è in contrasto
con il principio di relatività; infatti, proprio nel rispetto di tale principio, come per ogni
altra legge generale della natura, la legge di propagazione della luce nel vuoto deve
essere uguale tanto per il vagone ferroviario assunto come sistema di riferimento
inerziale, quanto per la banchina, intesa anch’essa come sistema di riferimento inerziale.
In altre parole, le equazioni di Maxwell, che determinano la velocità con la quale la luce
si propaga, dovrebbero operare nello stesso modo nel vagone in movimento come sulla
banchina. Non dovrebbe esistere nessun esperimento, compresa la misurazione della
velocità della luce, che consenta di distinguere quale sistema di riferimento inerziale sia
in quiete e quale sia in moto con velocità costante.
5<<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Era una conclusione strana. L’uomo fermo sulla banchina dovrebbe vedere quel
raggio sfrecciarle accanto esattamente con la stessa velocità, sia che provenga dal treno
in movimento sia dal faro fermo sulla banchina. In generale, la velocità della luce
dovrebbe essere invariante qualunque sia il moto relativo tra l’uomo e la sorgente,
anche se la velocità relativa dell’uomo rispetto al treno varierebbe, a seconda che stesse
correndo verso di esso o in direzione opposta. Tutto ciò rendeva, secondo Einstein, i
due postulati apparentemente incompatibili.
Combinando il postulato della luce con il principio di relatività, ne derivava che
un osservatore, misurando la velocità della luce, troverebbe lo stesso valore sia che la
sorgente si muovesse verso di lui o in direzione opposta, sia che lui si muovesse verso
la sorgente o in direzione opposta, sia che si muovessero entrambi o nessuno dei due.
La velocità della luce sarebbe la stessa qualunque fosse il moto sia dell’osservatore sia
della sorgente. Come superare l’apparente incompatibilità? Einstein, attraverso uno dei
più eleganti ed audaci balzi di immaginazione della storia della fisica e della scienza in
generale, si accorse che bisognava modificare drasticamente le idee sullo spazio e sul
tempo che da secoli erano considerati due enti del tutto indipendenti e che nei suoi
Principia il grande Newton così scriveva:
!
!
Lo spazio assoluto, per sua natura, resta sempre tale e invariabile senza alcuna
relazione con l’esterno;
Il tempo assoluto, vero e matematico, per sua natura scorre allo stesso modo,
senza alcuna relazione con l’esterno.
Come la definizione dello spazio data da Newton implicava l’esistenza di un
sistema di riferimento assoluto per i movimenti che in esso avevano luogo, la
definizione del tempo implicava l’esistenza di un sistema assoluto per la misura del
tempo, come quello che si potrebbe avere disponendo in diversi punti dell’Universo un
gran numero di orologi sincronizzati.
La prova sperimentale della costanza della velocità della luce, così come fece
crollare la teoria dell’esistenza di uno spazio assoluto, provocò anche un crollo
inaspettato del sistema universale di riferimento del tempo. Più precisamente,
l’intuizione decisiva era che due eventi i quali sembrano essere simultanei a un
osservatore non appariranno tali a un altro osservatore che si muove rapidamente. E
non c’è modo di dire che uno degli osservatori ha realmente ragione. In altre parole non
c’è modo di dire che i due eventi sono veramente simultanei. Einstein spiegò questo
concetto servendosi di uno dei suoi famosi esperimenti mentali che potremmo così
descrivere: due fasci di luce emessi da
una sorgente posta al centro del vagone
raggiungono
le
due
estremità.
All’osservatore O’, che si trova sul
vagone (a), i due eventi appaiono
simultanei. Per l’osservatore O, a terra
(b), la coda del vagone è colpita dalla
luce prima della testa: infatti, mentre la
luce viaggia alla stessa velocità in
entrambe le direzioni, l’estremità
posteriore del vagone va incontro al fronte d’onda luminoso e quella anteriore se ne
allontana. Il principio di relatività afferma che non c’è modo di stabilire che
l’osservatore O a terra è in quiete e l’osservatore O’ sul treno è in moto, ma può
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5<;!
solamente stabilire che essi sono in moto relativo l’uno rispetto all’altro. Quindi, non c’è
alcun modo che consenta di affermare che due eventi sono in assoluto simultanei.
Perveniamo così al seguente importante risultato: due eventi simultanei verificatesi
in due punti diversi di un sistema non appariranno tali se osservati da un altro sistema in moto
rispetto ad esso. Si giunge, così, alla considerazione che lo spazio è, almeno parzialmente,
intercambiabile col tempo, per cui una semplice distanza spaziale di due eventi in un
sistema conduce ad una certa differenza di tempo tra loro quando vengono osservati da
un altro sistema in movimento.
Per esempio, consideriamo un viaggiatore seduto al tavolino di un vagone
ristorante di un treno in corsa: dapprima mangia la minestra (evento A), poi la carne
(evento B), poi il dolce (evento C). Questi eventi si verificano tutti nello stesso luogo
(tavolino), ma in istanti successivi. Per un osservatore solidale a terra il viaggiatore
consuma la minestra, la carne, il dolce a distanze diverse, ossia in luoghi diversi.
Questa conclusione, apparentemente insignificante, ci porta alla seguente
importante formulazione: eventi che si verificano per un sistema nello stesso luogo, ma in
istanti successivi, si verificano in luoghi diversi per un sistema in movimento rispetto al primo.
Se ora sostituiamo la parola “luogo” con la parola “istante” e viceversa, l’enunciato
precedente diventerà: eventi contemporanei accaduti in luoghi diversi per un sistema, si
verificano in istanti successivi quando vengono osservati da un sistema in movimento rispetto al
primo. Einstein aveva compreso che non esiste la “simultaneità assoluta”, cioè non esiste
un insieme di eventi nell’Universo che siano tutti esistenti “adesso”. Il nostro “adesso”
esiste solo qui. L’insieme degli eventi dell’Universo non si può descrivere correttamente
come una successione di presenti.
In definitiva:
Il concetto di simultaneità di due eventi è relativo, cioè dipende da chi osserva gli eventi.
È un’idea semplice, ma anche radicale e foriera di profondi sconvolgimenti
concettuali non solo scientifici ma anche filosofici. Significa che non esiste un tempo
assoluto. Al contrario, tutti i sistemi di riferimento in moto hanno un proprio tempo
relativo.
Il concetto di tempo assoluto, ossia di un tempo che esiste in realtà e scorre in
modo indipendente da qualsiasi osservazione, metteva a disagio lo stesso Newton che
osservava: “Il tempo assoluto non è un oggetto di percezione” e per uscire dall’impasse
non poteva che fare affidamento sulla presenza di Dio: “…dura sempre ed è presente
ovunque, ed esistendo sempre e ovunque, fonda la durata e lo spazio”. Secondo Mach la
nozione newtoniana di tempo assoluto era “inutile concetto metafisico” che “non può
essere commisurato all’esperienza”. Anche Poincarè rilevò la debolezza del concetto
newtoniano di tempo assoluto affermando che: “Non soltanto non abbiamo alcuna
intuizione diretta dell’eguaglianza di due intervalli di tempo, non ne abbiamo neppure
della simultaneità di due eventi che si verificano in luoghi diversi”. A quanto sembra,
sia Mach che Poincarè, fornirono una base alla grande svolta di Einstein. Ma questi
trasse ispirazione ancora maggiore dallo scetticismo di Hume nei confronti dei costrutti
mentali separati dalle osservazioni puramente fattuali.
La presa d’atto di un tempo relativo comportava il rovesciamento anche
dell’altro concetto newtoniano, ossia quello di spazio assoluto. Einstein dimostrava che
se il tempo è relativo, lo sono anche lo spazio e la distanza: “Se la persona che si trova
5<=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
sul vagone percorre in un’unità di tempo, misurata dal treno, l’intervallo w, non è
detto che questo intervallo, misurato dalla banchina, risulti anch’esso uguale a w”.
Einstein spiegava questo punto suggerendo di immaginare un’asta rigida che
abbia una certa lunghezza se misurata quando è in quiete rispetto all’osservatore. Ora si
immagini che l’asta sia in movimento. Quanto è lunga? Un modo per stabilirlo è quello
di muoversi insieme all’asta, alla medesima velocità, e di mettervi sopra un regolo di
misura. Ma quanto risulterebbe lunga l’asta se venisse misurata da qualcuno che non
fosse in moto insieme ad essa? In tal caso, un modo per misurare l’asta in movimento
sarebbe di determinare, in base a orologi stazionari sincronizzati, l’esatta ubicazione di
ciascuna delle estremità dell’asta in uno specifico istante, per poi utilizzare un regolo
stazionario per misurare la distanza tra questi due punti. Einstein dimostrava che questi
metodi portano a risultati differenti. Perché? Perché i due orologi stazionari sono stati
sincronizzati da un osservatore in quiete. Ma che accadrebbe se un osservatore che si
muove con la stessa velocità dell’asta tentasse di sincronizzare gli orologi? Li
sincronizzerebbe in modo diverso, perché avrebbe una differente percezione della
simultaneità. Come scriveva Einstein: “osservatori in moto insieme con l’asta
troverebbero allora che i due orologi non sono sincronizzati, laddove osservatori nel
sistema stazionario dichiarerebbero che essi lo sono”. Questo fenomeno è noto come
contrazione delle lunghezze.
Un’altra conseguenza della relatività ristretta è che una persona ferma sul
marciapiede vedrà il tempo scorrere più lentamente su un treno he gli passa accanto a
gran velocità.
Immaginiamo che sul treno ci sia un orologio formato da uno specchio sul
pavimento e uno sul soffitto e da un raggio di luce che rimbalza dall’uno all’altro. Dal
punto di vista di un passeggero sul treno, la luce viaggia verticalmente dal basso verso
l’alto e viceversa. Ma dal punto di vista di una persona ferma sul marciapiede, sembra
che la luce parta dal basso ma muovendosi in diagonale per raggiungere lo specchio
sul soffitto, che nel frattempo si è
spostato in avanti di un piccolissimo
tratto, e poi sia riflessa verso il basso
sempre in diagonale per raggiungere
lo specchio sul pavimento, che a sua
volta si è spostato di un piccolissimo
tratto in avanti. Per entrambi gli
osservatori la velocità della luce è la
stessa, grazie al secondo postulato, ma la persona sul marciapiede vede la distanza che
la luce deve percorrere più lunga di quanto non appaia al passeggero sul treno. Quindi,
dal punto di vista della persona sulla banchina, il tempo scorre più lentamente nel treno
in corsa.
Questo punto può essere illustrato in un altro modo ricorrendo alla nave di
Galileo. Immaginiamo un raggio di luce inviato dalla cima dell’albero verso la coperta
della nave. Per un osservatore che si trovi sulla nave, il raggio di luce percorrerà
esattamente la lunghezza dell’albero. Ma per un osservatore a terra il raggio di luce
percorrerà la lunghezza dell’albero aumentata della distanza che la nave ha percorso in
avanti nel tempo che la luce ha impiegato per andare dalla cima al piede dell’albero. Per
entrambi gli osservatori la velocità della luce è la stessa, ma per quello a terra, la luce ha
percorso un tratto più lungo prima di raggiungere la base dell’albero. In altre parole, il
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5<4!
medesimo evento è durato più a lungo se visto da una persona a terra che se visto da
una persona sulla nave.
Che cosa accade quando il treno si avvicina alla velocità della luce rispetto
all’osservatore sul marciapiede? Ci vorrebbe un tempo quasi infinito perché un raggio
di luce sia riflesso dal pavimento al soffitto in movimento e poi di nuovo verso il
pavimento in moto. Quindi il tempo sul treno sarebbe quasi fermo dal punto di vista di
un osservatore sul marciapiede. Come tutti i fenomeni relativistici, la dilatazione del
tempo è simmetrica rispetto a due sistemi mobili l’uno rispetto all’altro, ossia se
all’osservatore A appare in ritardo l’orologio dell’osservatore B, altrettanto potrà dire
l’osservatore B per l’orologio di A. Questo fenomeno è chiamato dilatazione del tempo.
In definitiva:
CONTRAZIONE DELLE LUNGHEZZE
DILATAZIONE DEL TEMPO
Un oggetto in moto diventa più corto
Gli orologi in moto battono il tempo più
lentamente
Il fenomeno della contrazione delle lunghezze e della dilatazione dei tempi
formalmente possono essere espressi nel seguente modo:
CONTRAZIONE DELLE LUNGHEZZE
DILATAZIONE DEI TEMPI
L = L0/γ
∆t = γ∆t0
L0 è la lunghezza propria (la lunghezza dell'oggetto
osservato nel suo sistema di riferimento)
L è la lunghezza misurata dall'osservatore in movimento
∆t0 è l’intervallo di tempo proprio (l’intervallo di tempo
osservato nel suo sistema di riferimento)
∆t è l’intervallo di tempo misurato dall'osservatore in
movimento
γ è il fattore di Lorentz (sempre maggiore di 1)
u è la velocità relativa tra l'osservatore e l'oggetto
c è la velocità della luce.
Queste trasformazioni, come abbiamo già detto, furono ricavate da Lorentz
subito dopo la pubblicazione dei risultati dell’esperimento di Michelson-Morley e
furono considerate dal loro stesso autore e dagli altri fisici dell’epoca più che altro un
divertente esercizio matematico. Ci volle Einstein per comprendere che le
trasformazioni di Lorentz corrispondono effettivamente alla realtà delle cose e che era
necessaria una drastica modifica dei vecchi concetti intuitivi a proposito dello spazio,
del tempo e del movimento.
Un’altra notevole conseguenza della meccanica relativistica è che la massa m0 di
una particella in movimento non rimane costante, come in meccanica classica, ma
aumenta con la velocità secondo la formula:
La massa di una particella in movimento non rimane costante:
m = γ⋅m0
Nel caso limite u = c, la massa m diventa infinita, cioè ci sarà una resistenza
infinitamente grande ad ulteriori accelerazioni.
5<5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Questo fatto mette in evidenza un altro aspetto della teoria della relatività:
Nessun corpo materiale può raggiungere una velocità superiore alla velocità della luce
Infatti, a causa dell’aumento di m (resistenza inerziale) con l’aumento della
velocità, l’energia che sarebbe necessario fornire ad un corpo materiale per accelerarlo
sino a farlo muovere alla velocità della luce diventa infinita.
Una delle spiegazioni più chiare sulla teoria della relatività la ritroviamo nelle
parole dello stesso Einstein: “La teoria della relatività può essere delineata in poche
parole. In contrasto con il fatto, noto fin dai tempi antichi, che il movimento è
percepibile soltanto come movimento relativo, la fisica si basava sulla nozione di
movimento assoluto. Lo studio delle onde luminose aveva preso il posto che un singolo
stato di movimento, quello dell’etere luminifero, fosse distinto da tutti gli altri. Tutti i
moti dei corpi erano considerati relativi all’etere luminifero che era l’incarnazione
della quiete assoluta. Ma dopo che i tentativi di rivelare lo stato di moto privilegiato di
questo ipotetico etere mediante gli esperimenti erano falliti, parve che il problema
dovesse essere riformulato. Questo è quanto fece la teoria della relatività. Essa assunse
che non vi siano stati fisici di moto privilegiati e si chiese quali conseguenze si potessero
trarre da ciò”.
L’idea di Einstein era che si debbano scartare i concetti che “non hanno legame
con l’esperienza” come quelli di simultaneità assoluta, di velocità assoluta, di tempo e
spazio assoluti. Questo non significa che “tutto è relativo”, nel senso che tutto è
soggettivo, ma significa piuttosto che “tutto dipende” dal moto dell’osservatore”. Ma
c’è una unione di spazio e tempo, il cosiddetto spaziotempo, la cui misura rimane
invariante in tutti i riferimenti inerziali. Per rendersi conto basta chiedersi quale
distanza percorrerebbe un raggio di luce in un dato periodo di tempo, ebbene la
distanza sarebbe data dal prodotto della velocità della luce per l’intervallo di tempo
durante il quale essa si è propagata. Se fossimo su un marciapiede e osservassimo il
percorso del raggio in un treno in corsa, il tempo trascorso ci apparirebbe più breve (il
tempo sembra scorrere più lentamente sul treno in moto), e la distanza apparirebbe
minore (le distanze appaiono contratte sul treno in moto). Ma c’è una relazione tra le
grandezze, ossia tra le misure di spazio e di tempo, che rimane invariante, qualunque
sia il nostro sistema di riferimento inerziale.
Hermann Minkowski (1864–1909), ex insegnante di Einstein al Politecnico di
Zurigo, decise di conferire una struttura matematica formale alla teoria della relatività.
La sua impostazione era la seguente: “Vi sono in realtà quattro dimensioni: tre sono
quelle che chiamiamo i tre piani dello spazio; la quarta è il tempo … Le concezioni dello
spazio e del tempo che intendo presentarvi hanno le loro radici nella fisica
sperimentale, e qui sta la loro forza. Sono concezioni drastiche: d’ora innanzi lo spazio
in sé e il tempo in sé sono condannati a dissolversi in nulla più che ombre, e solo una
specie di congiunzione dei due conserverà una realtà indipendente”.
Minkowski convertì tutti gli eventi (un evento è qualcosa che accade in un
particolare punto nello spazio e in un particolare tempo) in coordinate matematiche in
quattro dimensioni, con il tempo come quarta dimensione. Ciò permetteva che si
verificassero trasformazioni, ma le relazioni matematiche tra gli eventi rimanevano
invarianti. La scelta delle coordinate è arbitraria: si possono usare ogni volta un insieme
qualsiasi di tre coordinate spaziali ben definite e una qualsiasi misura di tempo. Nella
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5<6!
relatività non c'è alcuna distinzione reale fra le coordinate spaziali e la coordinata
temporale, così come non c'è alcuna reale differenza fra due coordinate spaziali quali si
vogliano. È spesso utile pensare le quattro coordinate di un evento come se ne
specificassero la posizione in uno spazio quadridimensionale, lo spaziotempo.
Einstein, avventurandosi in un ambito del tutto inesplorato, unificò la
misurazione dello spazio e quella del tempo per generare una nuova grandezza
invariante, una combinazione identica per tutti, un continuo quadridimensionale, lo
spaziotempo. L’unità di misura fondamentale dell’universo non è né il metro né il
secondo, bensì una loro particolare combinazione. Perciò, nella teoria della relatività
non si può parlare dello spazio senza parlare del tempo e viceversa. Né lo spazio né il
tempo hanno l’assolutezza che veniva loro attribuita dalla meccanica newtoniana, per
cui due osservatori in moto reciproco non potranno mai essere d’accordo sulla distanza
tra due punti o sul tempo trascorso tra due eventi. Infine, abbandonando lo spazio
assoluto, come scenario immutabile dei fenomeni fisici, e il tempo assoluto, essi
diventano soltanto elementi del linguaggio che un particolare osservatore usa per
descrivere i fenomeni del proprio punto di vista.
10.4 I paradossi e le verifiche sperimentali della relatività ristretta
Se il tempo, in certe condizioni di moto, scorre più lentamente, anche qualsiasi
altro processo temporale, sia esso biologico, chimico, atomico, ecc., considerato nelle
stesse condizioni cinematiche, dovrebbe presentare lo stesso fenomeno relativistico, per
cui il fenomeno della dilatazione dei tempi, così come quello della contrazione delle
lunghezze, conducono ad una serie di paradossi.
Cominciamo con il più noto, il paradosso
dei gemelli.
Se Romolo rimane sulla Terra mentre
Remo parte su un’astronave che percorre lunghe
distanze a una velocità prossima a quella della
luce, quando questo ritorna sarà più giovane di
Romolo. Ma poiché il moto è relativo, Remo
potrebbe pensare che sia suo fratello gemello
Romolo sulla Terra a viaggiare alla velocità
prossima a quella della luce, e quando si incontrano si aspetterebbe di vedere che sia
Romolo a essere invecchiato poco.
Sembra che siamo di fronte a un paradosso. Naturalmente no. I due punti di vista
sarebbero entrambi corretti solo se i due gemelli si trovassero sempre nelle stesse
condizioni di moto. In realtà, mentre Romolo, per tutto il tempo di volo del gemello,
non è soggetto a una forza risultante in quanto si trova in quiete in un sistema di
riferimento inerziale (la Terra può essere considerata approssimativamente tale), Remo,
per poter tornare al punto di partenza, deve necessariamente fermarsi, invertire la rotta
e ripartire: il suo moto è soggetto, cioè, ad accelerazioni, quindi a forze. Il problema,
perciò, non è simmetrico e, per trattarlo in maniera corretta, tenendo conto delle fasi di
accelerazione dell'astronave, è necessario ricorrere alla teoria della relatività generale
(che tratteremo più avanti). Comunque il risultato che si ottiene, tendo conto degli
5<7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
effetti della relatività generale, dà ragione a Romolo: è il gemello che ha viaggiato a
essere rimasto sorprendentemente più giovane.
Esaminiamo ora, sempre in termini paradossali, una
conseguenza concettuale del fenomeno della contrazione
delle lunghezze.
Supponiamo di avere un'automobile lunga 3 m e di
possedere un garage, lungo anch'esso 3 m, munito di due
porte automatiche, in grado di aprirsi quando la macchina
si avvicina e di chiudersi appena essa oltrepassa l'apertura.
Immaginiamo che la macchina, guidata dall'osservatore O'
(sistema dell'automobile), entri nel garage a una velocità
che si avvicina a quella della luce. Per un osservatore O
all'interno del locale (sistema del garage) l'automobile si contrae, diventando lunga per
esempio 2,5 m, e per qualche istante si trova entro il garage con entrambe le porte perfettamente chiuse (fig. a). Dal punto di vista dell'osservatore O', è invece il garage che si
è contratto diventando lungo 2,5 m. Per l'incosciente automobilista il veicolo sporge
pericolosamente da entrambe le estremità e, per fortuna, tutte e due le porte rimangono
contemporaneamente aperte (fig. b).
L'aspetto straordinario di questo paradosso è che entrambi gli osservatori hanno
ragione. Per la persona ferma nel garage la circostanza "macchina in garage" e la
circostanza "porte chiuse" si verificano contemporaneamente; per l'autista invece no.
Come si sa, d'altra parte, la simultaneità è un concetto relativo.
Dopo tutto questo parlare di tempo e distanze come grandezze relative che
dipendono dal moto dell’osservatore, nasce spontanea la domanda: quale osservatore
ha ragione? L’orologio di quale osservatore (Romolo o Remo) segna il tempo reale
trascorso? Qual è la lunghezza reale del garage e della macchina? Chi ha la corretta
nozione di simultaneità? Secondo la teoria della relatività ristretta, tutti i sistemi di
riferimento inerziali sono ugualmente validi. Non si tratta di stabilire se le lunghezze si
contraggono realmente e se il tempo rallenta effettivamente. Tutto quanto sappiamo è
che osservatori in differenti stati di moto otterranno misure diverse delle grandezze.
Da un punto di vista relativistico, non esiste un'unica realtà, ma soltanto delle realtà
individuali associate ai singoli osservatori, ognuna dedotta ed elaborata sulla base dei
postulati einsteiniani. E così come la teoria della relatività ristretta ci ha liberato
dall’etere, afferma anche che non c’è nessun sistema di riferimento definito in quiete che
sia privilegiato rispetto a qualsiasi altro.
A questo punto è doveroso indicare qualche verifica sperimentale a supporto
della teoria della relatività ristretta, per sgombrare il campo dall’idea che tale teoria sia
lontana dalla realtà fisica e sia solo il frutto di una mente fantasiosa.
La prima verifica, con orologi e persone concretamente viaggianti, del diverso
comportamento degli orologi in moto relativo, è stata fatta nel 1971 da J.C. Hafele e R.E.
Keating. Utilizzando orologi atomici al cesio, portati in volo intorno al mondo a bordo
di un aereo e confrontati con uguali orologi a terra i due ricercatori americani riuscirono
a fornire una diretta dimostrazione sperimentale del fenomeno della dilatazione del
tempo. Lo stesso risultato è stato anche confermato, con precisione maggiore, dai voli
nello spazio di alcuni satelliti militari americani, aventi a bordo sofisticati orologi
atomici.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5<8!
I raggi cosmici sono costituiti da particelle di elevata energia, soprattutto protoni,
che dallo spazio arrivano sulla Terra e, urtando contro i nuclei degli atomi presenti
negli strati superiori dell'atmosfera, danno origine a numerose altre particelle più
leggere, come i mesoni, una particella instabile che si disintegra in altre particelle
spontaneamente dopo un intervallo di tempo che, in media, se misurato in un sistema
in cui la particella è a riposo, è pari a 2,2·10-6 s. Questa durata rappresenta una proprietà
caratteristica del muone, la cosiddetta vita media, e può essere utilizzata come una specie
di orologio che misura l'esistenza della particella. Poiché dalla creazione fino al
decadimento, anche viaggiando alla velocità della luce, i mesoni potrebbero percorrere
una distanza media non più grande di circa 660 m, ben pochi riuscirebbero ad arrivare
sulla Terra. Invece si osserva che essi investono il nostro pianeta in gran numero. La
ragione è che queste particelle, prodotte nell'alta atmosfera con velocità prossime alla
velocità della luce, vivono, nel sistema di riferimento della Terra, un tempo più lungo di
2,2·10-6 s. L'orologio dei muoni scorre infatti più lentamente per tutti gli osservatori
terrestri che vedono le particelle in movimento. Conseguentemente queste possono
percorrere distanze maggiori, tanto da attraversare tutto lo spessore dell'atmosfera.
Fu il fisico italiano Bruno Rossi (1905-1993) il primo a verificare sperimentalmente che la vita media dei muoni, come previsto dalla teoria della relatività,
aumenta all'aumentare della loro velocità.
10.5 L’equazione più famosa della fisica
“Mi è venuta in mente anche un’ulteriore conseguenza dell’articolo
sull’elettrodinamica. E cioè che il principio di relatività, insieme alle equazioni di
Maxwell, richiede che la massa sia una misura diretta dell’energia contenuta in un
corpo. La luce trasferisce massa”.
Con queste parole, contenute nell’articolo del 1905 L’inerzia di un corpo dipende dal
suo contenuto di energia?, Einstein sviluppò una nuova e meravigliosa idea: i concetti di
spazio e di tempo sono talmente fondamentali per la descrizione dei fenomeni naturali
che una loro modificazione comporta una trasformazione dell’intero schema teorico di
cui ci serviamo per rappresentare la natura. La principale conseguenza di tale
trasformazione è che la massa non è altro che una forma di energia.
Negando il concetto di etere cosmico e restituendo allo spazio interstellare le sue
vecchie caratteristiche di spazio vuoto, Einstein dovette preoccuparsi di mantenere la
realtà fisica delle onde luminose e dei campi elettromagnetici in generale. Se l’etere non
esiste, che cosa circonda le cariche elettriche e i magneti e che cosa si propaga nel vuoto
trasportando fino a noi la luce del Sole e delle stelle? Ciò potrebbe accadere solo se si
pensa al campo elettromagnetico come a un mezzo materiale anche se con proprietà del
tutto diverse dalle comuni sostanze. In fisica l’aggettivo “materiale” è equivalente a
“ponderabile”, cioè è riferito a qualcosa dotato di peso o massa. Così le cariche
elettriche e i magneti devono essere circondati da qualche sostanza ponderabile,
relativamente molto densa nelle loro vicinanze e addirittura evanescente a distanze a
grandi distanze.
"
CONCEZIONE PRE-EINSTENIANA:
l’etere è uniformemente distribuito nello spazio e i
campi elettrici e magnetici sono considerati come l’effetto della sua deformazione
5<9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
"
CONCEZIONE POST-EINSTENIANA:
il nuovo materiale “etereo” esiste solo in presenza di
forze elettriche o magnetiche e non rappresenta il “trascinatore” di queste forze quanto le
forze materializzate stesse.
Ancora una volta, Einstein deduceva una teoria da principi e postulati, non
cercando di spiegare i dati empirici che i fisici sperimentali impegnati nello studio dei
raggi catodici avevano cominciato a raccogliere in merito alla relazione tra massa e
velocità delle particelle. Coniugando la teoria di Maxwell con la teoria della relatività,
iniziò con un esperimento mentale. Calcolò cioè le proprietà di due impulsi di luce
emessi in direzioni opposte da un copro in quiete. Quindi calcolò le proprietà di questi
impulsi di luce quando vengono osservati da un sistema di riferimento in moto. Di qui
pervenne alle equazioni che descrivono la relazione tra velocità e massa.
Il risultato era un’elegante conclusione: massa ed energia sono manifestazioni
diverse della medesima entità, come lo spazio e il tempo (spaziotempo) o il campo
elettrico e il campo magnetico (campo elettromagnetico). C’è una fondamentale
intercambiabilità tra esse. In altre parole: la massa di un corpo è una misura del suo
contenuto di energia.
La formula di cui si servì per descrivere questa relazione era a sua volta
sorprendentemente semplice, tale da diventare l’equazione più famosa della scienza:
EQUIVALENZA MASSA – ENERGIA
E = mc2
Questa legge assicura alla imponderabile energia radiante della fisica classica
una corrispondenza con la ordinaria materia ponderabile, e tale relazione tra massa ed
energia può essere estesa a tutti gli altri tipi di energia. Così, i campi generati da
conduttori carichi e da magneti diventano una realtà fisica ponderabile, anche se la
massa del campo elettrico generato da una sfera di rame di un metro di diametro
caricata al potenziale elettrico di 1000 V pesa circa 2· 10-22 grammi e l’energia termica
possiede una massa ponderabile per cui un litro d’acqua alla temperatura di 100 °C
pesa 10-20 grammi di più della stessa quantità di acqua
fredda.
Viceversa, 1 grammo di materia possiede un
potenziale contenuto di materia pari a 9·1013 J. In altri
termini, l’energia contenuta nella massa di qualche
grammo di materia soddisferebbe gran parte della
domanda giornaliera di elettricità della città di New York.
L’equivalenza massa-energia può essere verificata
in modo quantitativo nei decadimenti radioattivi, nella
fissione e fusione nucleare, ed in tanti altri fenomeni
riguardanti le particelle elementari. Per esempio, nella
fissione di un nucleo di uranio si creano molti frammenti
più leggeri, dotati di elevata energia cinetica, la cui massa
totale, però, è minore della massa del nucleo di partenza.
L’energia corrispondente alla perdita di massa è
esattamente uguale all’energia cinetica totale dei
frammenti. Così come la reazione di fusione deuterio-trizio produce un atomo di elio
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5<:!
più leggero dei reagenti e la mancanza di massa la ritroviamo sotto forma di eccesso di
energia.
È possibile osservare anche la
materializzazione dell’energia: un fotone
γ, particella priva di massa e di energia
E=hf, può trasformarsi in una coppia di
particelle composta da un elettrone (e-) e
un positrone (e+ antiparticella dell’elettrone = stesse proprietà dell’elettrone ma con
carica positiva): γ=e-+e+
In questo modo la teoria della relatività ha avuto una profonda influenza sulla
nostra idea di materia, obbligandoci a modificare in modo sostanziale il concetto di
particella. Nella fisica classica, la massa di un corpo era sempre stata associata a una
sostanza materiale indistruttibile della quale si pensava fossero fatte tutte le cose. La
teoria della relatività ha mostrato che la massa non ha nulla a che fare con una qualsiasi
sostanza, ma è una forma di energia. Quest'ultima, poi, è una quantità dinamica
associata ad attività o a processi. Il fatto che la massa di una particella sia equivalente a
una certa quantità di energia significa che la particella non può più essere considerata
un oggetto statico, ma va intesa come una configurazione dinamica, un processo
coinvolgente quell'energia che si manifesta come massa della particella stessa.
Poiché massa ed energia sono intercambiabili, i due principi classici di
conservazione di queste due grandezze (conservazione della massa e dell’energia), non
valgono più separatamente. Come la massa può essere distrutta e trasformata in
energia, così l’energia può essere distrutta e trasformata in massa.
In definitiva basta un unico principio di conservazione:
PRINCIPIO DI CONSERVAZIONE DELLA MASSA-ENERGIA
La somma complessiva di tutte le energie e di tutte le masse dell’universo deve
rimanere inalterata nel tempo.
Ma nemmeno Einstein poteva prevedere, nonostante la sua fervida
immaginazione, quali conseguenze avrebbe comportato l’utilizzo della sua famosa
equazione qualche decennio più tardi, e cioè la costruzione della bomba atomica, il suo
sganciamento su Hiroshima e Nagasaki e l’inizio della guerra fredda tra USA e URSS.
5;<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
LA TEORIA DELLA
RELATIVITA’ GENERALE
10.6 Equivalenza tra gravità ed accelerazione
Il 26 aprile 1914, nell’ultimo capoverso di un suo articolo, Sul principio di relatività,
viene formulata la seguente domanda: “La teoria della relatività ristretta delineata fin
qui è essenzialmente completa o rappresenta solo il primo passo di uno sviluppo
destinato ad andare oltre?”.
Dopo aver formulato la teoria della relatività ristretta nel 1905, Einstein si era
reso conto che era incompleta almeno sotto alcuni aspetti. In primo luogo, postulava
che nessuna interazione fisica potesse propagarsi a una velocità superiore a quella della
luce, e ciò era in contrasto con la teoria della gravitazione di Newton, la quale concepiva
la gravità come una forza che agisce istantaneamente tra corpi distanti. In secondo
luogo, valeva solo per moti con velocità costante e quindi non valeva per quelli
accelerati. Infine, non includeva la teoria della gravitazione di Newton.
La relatività generale, presentata nella sua forma definitiva il 4 novembre 1916
all'Accademia Prussiana, generalizza le teorie di Einstein, nel senso che estende le leggi
della relatività ristretta, valide solo per i sistemi in moto relativo rettilineo uniforme,
anche ai sistemi non inerziali. Come la relatività galileiana è un caso particolare della
relatività ristretta, quest'ultima rappresenta un caso particolare della relatività generale.
Il primo passo concettuale verso la generalizzazione della sua teoria della
relatività ristretta che lo spinse verso una teoria della gravitazione avvenne alla fine del
1907: “Ero seduto su una sedia all’ufficio brevetti di Berna quando d’improvviso mi
balenò in mente un pensiero. Se una persona è in caduta libera, non avverte il proprio
peso (…) Infatti, per un osservatore che cada liberamente dal tetto di una casa, non
esiste, almeno nelle vicinanza, alcun campo gavitazionale. In effetti, se l’osservatore
lascia cadere dei corpi, questi permangono in uno stato di quiete o di moto uniforme
rispetto a lui, indipendentemente dalla loro particolare natura chimica o fisica (in
questo genere di considerazioni, ovviamente si trascura la resistenza dell’aria).
L’osservatore di conseguenza ha il diritto di interpretare il proprio stato come uno
stato di quiete. Grazie a questa idea, quella singolarissima legge sperimentale secondo
cui, in un campo gravitazionale, tutti i corpi cadono con la stessa accelerazione, veniva
improvvisamente ad acquisire un significato fisico profondo. Precisamente, se vi fosse
anche un solo oggetto che cadesse nel campo gravitazionale in modo diverso da tutti gli
altri, allora, grazie ad esso, un osservatore potrebbe accorgersi di trovarsi in un campo
gravitazionale e di stare cadendo in esso. Se però un oggetto del genere non esiste, come
si è mostrato sperimentalmente con grande precisione, allora l’osservatore non dispone
di elementi oggettivi che gli consentano di stabilire che si trova in caduta libera in un
campo gravitazionale- piuttosto ha il diritto di considerare il proprio stato come uno
stato di quiete e il proprio spazio ambiente come libero da campi, almeno per quanto
riguarda la gravitazione. L’indipendenza dell’accelerazione di caduta dalla natura dei
corpi, ben nota sperimentalmente, è pertanto un solido argomento in favore
dell’estensione del postulato di relatività a sistemi di coordinate in moto non uniforme
l’uno relativamente all’altro”.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5;;!
La logica concettuale della relatività generale è fondamentalmente espressa dal
cosiddetto principio di equivalenza.
Per illustrare questo principio cominciamo con la constatazione che, come aveva
osservato Newton, poiché la massa inerziale (costante di proporzionalità fra la forza
applicata e accelerazione impressa a un corpo) e la massa gravitazionale (proprietà
posseduta dai corpi dalla quale traggono origine le forze gravitazionali) sono uguali,
sebbene le due grandezze siano definite in modo diverso, tutti i corpi, in un campo
gravitazionale uniforme, cadono con la stessa accelerazione. Perciò, in un laboratorio
collocato all'interno di un campo gravitazionale uniforme, il comportamento degli
oggetti materiali è identico al comportamento degli stessi oggetti quando si trovano, in
assenza di gravità, in un laboratorio sottoposto a un'accelerazione costante. In un dato
punto dello spazio, la gravità e un'opportuna accelerazione del riferimento producono
dunque effetti del tutto equivalenti.
Questa equivalenza tra massa inerziale e massa gravitazionale ovviamente era
qualcosa di più di una semplice coincidenza, ma nessuno ne aveva spiegato
esaurientemente la ragione. Insoddisfatto di una situazione in cui c’erano due
spiegazioni per quello che sembrava un unico fenomeno, Einstein cercò di approfondire
la questione servendosi di uno fra i più famosi esperimenti mentali einsteiniani
(gedankenexperiment).
Consideriamo un osservatore dentro un ascensore fermo
rispetto alla Terra. Ogni corpo, indipendentemente dalla sua
natura, è soggetto alla stessa accelerazione di gravità g.
Supponiamo che, a causa della rottura
del cavo di sostegno, l'ascensore precipiti in
caduta libera. Durante il volo lo
sperimentatore constata che tutti i corpi, e lui
stesso, galleggiano privi di peso.
Trasportato
da
un'astronave,
immaginiamo poi il nostro ascensore
localizzato nello spazio lontano da qualsiasi
corpo materiale. Anche in questo caso lo
sperimentatore non avverte il peso degli oggetti, né la reazione
del pavimento dell'ascensore sotto i suoi piedi. Egli non riesce a
distinguere questa situazione da quella precedente, nel senso che nessuna esperienza
fatta all'interno dell'ascensore gli permette di capire se sarà destinato a precipitare al
suolo o a galleggiare eternamente nello spazio.
Se, infine, l'ascensore, spinto dai motori
dell'astronave,
si
muove
verso
l'alto
con
un'accelerazione pari, in modulo, all'accelerazione
gravitazionale che si avverte sulla superficie della
Terra, l'osservatore stima di trovarsi nelle stesse
condizioni all’interno dell’ascensore fermo rispetto
alla Terra.
È l'ascensore che sta accelerando nello spazio, o
è un effetto gravitazionale? Nessuna esperienza
eseguita dentro l'ascensore può avvalorare una delle
due alternative a scapito dell'altra. Possiamo dunque
5;=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
affermare che, con un opportuno riferimento accelerato, è possibile eliminare o simulare
un campo gravitazionale reale. In sostanza, gli effetti locali della gravità e
dell’accelerazione sono equivalenti.
Perciò enunciamo il principio di equivalenza come segue:
PRINCIPIO DI EQUIVALENZA
Un campo gravitazione omogeneo è completamente equivalente ad un sistema di
riferimento uniformemente accelerato.
In altri termini, usando le parole dello stesso Einstein: “Gli effetti che ascriviamo
alla gravità e gli effetti che ascriviamo all’accelerazione sono entrambi prodotti da
un’identica struttura (campo inerzio-gravitazionale)”.
Questo principio divenne la base del suo tentativo di generalizzare la teoria della
relatività in modo che includesse anche i moti in sistemi non inerziali, cioè accelerati.
Ma questa analogia tra i fenomeni meccanici che si registrano all'interno di una
nave spaziale accelerata e nel campo gravitazionale prodotto dalla massa della Terra è
puramente casuale o ha una più profonda connessione con la natura delle forze
gravitazionali? Einstein era sicuro che si trattasse piuttosto della seconda ipotesi e si
domandò come si sarebbe comportato un raggio di luce entro una cabina accelerata.
In sostanza, i punti chiave del ragionamento di Einstein che lo portarono a tale
conclusione furono:
1. la gravità è equivalente all'accelerazione;
2. la caduta libera può essere definita come uno stato con accelerazione nulla;
3. un osservatore in caduta libera è equivalente a un osservatore in moto uniforme
(in assenza di campo gravitazionale), cosicché non deve essere in grado di
stabilire che sta cadendo;
4. la gravità deve esercitare sulla radiazione lo stesso effetto che esercita sulla
massa (altrimenti l'osservatore potrebbe sfruttare ingegnosamente la luce per
stabilire che sta cadendo); ciò significa che la luce segue una traiettoria curva in
presenza di gravità.
Supponiamo che un riflettore sia appeso alla
parete della cabina e invii un fascio di luce attraverso
il locale. Per osservare il passaggio del fascio
disponiamo sul percorso un gran numero di lastre di
vetro fluorescente tra di loro equidistanti. Se la cabina
non è accelerata i punti nei quali il fascio di luce attraverserà le lastre di vetro saranno allineati e sarà
pressoché impossibile stabilire se il razzo sia fermo
oppure si stia movendo rispetto alle stelle fisse. La
situazione sarà invece molto diversa nel caso in cui la
cabina si muova con accelerazione uniforme a. Il
tempo necessario perché la luce raggiunga la prima,
la seconda, la terza... lastra di vetro aumenterà infatti
in progressione aritmetica 1, 2, 3,... mentre lo
spostamento del razzo uniformemente accelerato
aumenta in progressione geometrica 1, 4, 9,... Le
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5;4!
tracce che il fascio di luce lascerà dunque sulle lastre fluorescenti formeranno una
parabola, cioè la stessa linea che è la traiettoria di un sasso lanciato orizzontalmente.
Se l'equivalenza tra l'accelerazione e la gravità si estende ai fenomeni
elettromagnetici i raggi luminosi devono dunque venire deviati dal campo
gravitazionale. A causa della elevata velocità della luce, la deviazione nel campo
gravitazionale terrestre di un raggio luminoso è troppo piccola per essere osservata
(5·10-12 cm).
Secondo Einstein ci si deve aspettare una deflessione notevole dei raggi luminosi
in prossimità del Sole (5·10-6 radianti, cioè dell’ordine di 1 secondo angolare). Per
verificare sperimentalmente quest’affermazione, il famoso astronomo inglese Sir
Arthur Eddington (1882-1944), nel 1919 in concomitanza di un’eclisse solare, organizzò
una spedizione scientifica in Africa per studiare effettivamente se la luce stellare, in
prossimità del Sole, veniva deviata. Ebbene, i risultati confermarono in pieno le
previsioni di Einstein.
Se il principio di equivalenza non riguarda solo i fenomeni meccanici, ma tutti i
fenomeni fisici, allora il principio di relatività può essere esteso a tutti i sistemi,
compresi quelli non inerziali, per cui:
PRINCIPIO DI RELATIVITA’ GENERALE
Le leggi della fisica hanno la stessa forma in tutti i sistemi di riferimento.
Ossia: se non c’è modo di differenziare i sistemi di riferimento in moto, allora in
ognuno di essi le leggi della fisica devono funzionare esattamente nello stesso modo.
Con la relatività generale Einstein superò il primo postulato della relatività
ristretta in quanto i sistemi di riferimento inerziali perdono il loro ruolo privilegiato e
tutti i sistemi assumono pari dignità.
Infine, poiché l’universo fisico descritto da un riferimento accelerato è
equivalente a un universo soggetto a un campo gravitazionale, la teoria della relatività
generale è al tempo stesso una teoria della gravitazione.
10.7 La gravitazione e la curvatura dello spaziotempo
Il principio di equivalenza ha una conseguenza veramente inaspettata: nella
logica relativistica non c'è più bisogno di una forza gravitazionale. La gravità diventa
una proprietà geometrica dello spaziotempo. La presenza di un oggetto dotato di massa
modifica le proprietà geometriche dello spazio quadridimensionale, nel senso che tende
a incurvarlo. Reciprocamente, una curvatura del cronotopo (spaziotempo) einsteiniano
sta a indicare la presenza di un campo la cui sorgente è la massa. Poiché nella relatività
generale la massa rappresenta una forma di energia, le proprietà geometriche dello
spaziotempo sono determinate, oltre che dalla materia ordinaria, dalla densità di
energia dell'universo; ogni forma di energia, come per esempio la radiazione, produce
cioè un campo gravitazionale, che si manifesta come una curvatura del cronotopo.
Poiché l’intera struttura dello spaziotempo dipende dalla distribuzione di materia
nell’universo, ciò significa che il tempo, inseparabile dallo spazio, scorre con ritmi
differenti in punti diversi dell’universo, e che il concetto di spazio vuoto perde di
5;5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
significato. Tale curvatura influenza sempre la dinamica
degli oggetti: ogni qualvolta un corpo penetra in un campo
gravitazionale, si muove come una particella libera lungo la
traiettoria più breve possibile, che chiamiamo con il termine
matematico di curva geodetica o semplicemente geodetica dello
spaziotempo.
Mentre in uno spazio euclideo le traiettorie descritte
da corpi non soggetti a forze sono linee rette, in uno spazio
curvo, per esempio sopra una superficie sferica, le
geodetiche sono archi di circonferenze massime, cioè archi
contenuti sui piani che passano per il centro della sfera .
La meccanica newtoniana concepisce uno spazio piano entro il quale i corpi
interagiscono mediante forze attrattive di natura gravitazionale. Nella relatività
einsteniana, invece, se consideriamo due masse puntiformi, nessuna delle due esercita
forze sull'altra. Entrambe, però, incurvano lo spazio e, se possono muoversi, seguono
due linee geodetiche: in pratica, le stesse traiettorie previste dalle forze gravitazionali
della meccanica classica. Poiché durante il moto, come si nota anche nella figura, la
distanza fra le due masse tende a decrescere, si ha l'impressione che agisca una forza
attrattiva. Questa invece non esiste: le traiettorie descritte dipendono solamente dalla
curvatura dello spaziotempo provocata dalle masse. Come afferma un grande esperto
delle teorie relativistiche, lo scienziato americano John A. Wheeler (1911): "la materia
dice allo spazio come incurvarsi e lo spazio dice alla materia come muoversi".
Consideriamo un foglio di gomma abbastanza esteso che possa essere deformato
da una causa esterna. Quando la
superficie del foglio è perfettamente
piana, essa può simulare lo spazio in
assenza di gravità. Se ora poniamo in
un punto del foglio un oggetto
materiale,
questo
provoca
una
depressione più o meno profonda e il
foglio diventa incurvato. La superficie
deformata del foglio è una rappresentazione degli effetti gravitazionali. Essi sono più
intensi dove la curvatura è più accentuata; diminuiscono dove il foglio, lontano
dall'oggetto deformante, tende ad assumere una configurazione piana. Supponiamo di
lanciare nell'universo einsteiniano, idealmente rappresentato dalla superficie incurvata,
alcune sferette con diversa velocità iniziale. Come rappresentato dalle linee tracciate in
rosso, le sferette rotolano descrivendo delle traiettorie simili a quelle seguite dai satelliti
intorno alla Terra o dai pianeti intorno al Sole.
Nota la distribuzione delle masse, la geometria dello spaziotempo può essere
determinata mediante procedimenti matematici molto complessi basati sulle cosiddette
equazioni di campo della gravitazione, che rappresentano la base teorica fondamentale
della relatività generale. Le loro soluzioni possono essere utilizzate per dedurre un
modello cosmico capace di svelare una larga parte della storia dell’universo.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5;6!
10.8 La geometria non euclidea
L’estensione della teoria della relatività speciale con l’inclusione della gravità non
avvenne in maniera semplice e diretta, soprattutto per il fatto che l’inclusione della
gravità richiedeva ulteriori strumenti matematici di cui Einstein non disponeva ancora.
Ma soprattutto, integrare la gravità nella teoria della relatività richiedeva il sacrificio di
un concetto che sembrava inattaccabile. La relatività speciale si fonda sulla premessa
che lo spazio sia piano, niente più che una scenografia dove si svolge l’azione,
identificata dalle coordinate spaziali; ed in più, su questo piano valgono le regole della
geometria euclidea. E invece non lo è. L’intuizione fondamentale e geniale di Einstein fu
che lo spazio non può essere relegato sullo sfondo, ma è un’entità in continuo
mutamento, dinamica e attiva come la materia e l’energia che si muovono al suo
interno. Non solo, ma questo spazio, insieme al tempo, interagiscono con la materia e
l’energia modificandosi a vicenda.
A questo punto, assodato che la presenza di massa o energia modifica lo
spaziotempo, si rendeva necessaria una nuova forma di geometria, in quanto il percorso
più breve attraverso una regione dello spazio che sia incurvata dalla gravità potrebbe
avere un aspetto del tutto diverso dalle linee rette della geometria euclidea.
Fino ad allora, il successo scientifico di Einstein si era basato sull’eccezionale
capacità di individuare i principi fisici fondamentali ed aveva lasciato ad altri il compito
di trovare le espressioni matematiche migliori di tali principi, come aveva fatto
Minkowski nel caso della relatività ristretta. Ma intorno al 1912 Einstein si era convinto
che la matematica poteva essere un potente strumento per scoprire, e non soltanto
descrivere, le leggi di natura. La matematica era il copione della natura. Come afferma il
fisico James Hartle: “L’idea centrale della relatività generale è che la gravità derivi
dalla curvatura dello spaziotempo. La gravità è geometria”.
La geometria euclidea descrive le superfici piane, ma non vale sulle superfici
curve. J. C. Friedrich Gauss (1777-1855) e altri avevano elaborato differenti tipi di
geometria che erano in grado di descrivere la superficie delle sfere e altre superfici
curve. Bernhard Riemann (1826-1866) si spinse ancora più in là, escogitando un modo
per descrivere una superficie in qualunque maniera cambiasse la sua geometria, anche
se variava da sferica a piana a iperbolica passando da un punto a quello contiguo. Andò
anche oltre la considerazione della curvatura di superfici semplicemente bidimensionali
e, estendendo i risultati di Gauss, esplorò i vari modi in cui la matematica poteva
descrivere la curvatura dello spazio tridimensionale e perfino di quello
quadridimensionale. Possiamo immaginare una linea curva o una superficie curva, ma
è difficile farci un’idea dell’aspetto che avrebbe uno spazio tridimensionale curvo, per
non parlare di uno quadridimensionale curvo. Ma se vogliamo estendere il concetto di
curvatura in un numero diverso di dimensioni, ciò comporta l’uso del concetto di
metrica, che specifica come calcolare la distanza tra due punti nello spazio curvo.
Su una superficie piana note le coordinate x e y di due punti, è facile calcolare la
loro distanza, basta utilizzare il teorema di Pitagora. Ma per calcolare la distanza tra
due punti situati su una superficie curva, Riemann utilizzò quello che si chiama tensore.
Nella geometria euclidea per descrivere un vettore abbiamo bisogno più di un unico
elemento, come la direzione o l’intensità. Nella geometria non euclidea, dove lo spazio è
curvo, occorre qualcosa di più generale, ossia di un oggetto con più componenti, ossia
5;7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
di un tensore. Basti pensare che per lo spazio quadridimensionale, ossia per lo
spaziotempo, il tensore metrico richiede dieci componenti indipendenti.
Riemann contribuì a elaborare questo concetto di tensore metrico, indicato con g
e avente sedici componenti di cui dieci indipendenti, che potevano essere usate per
definire e descrivere una distanza in uno spaziotempo quadridimensionale curvo.
L’aspetto utile di questo tensore è che è generalmente covariante, ed era una proprietà
importante per Einstein nel suo tentativo di generalizzare la teoria della relatività.
Significava che le relazioni tra le componenti rimanevano immutate anche quando
c’erano variazioni o rotazioni arbitrarie nel sistema di coordinate spaziotemporali. In
altre parole, l’informazione codificata in questi tensori poteva subire una varietà di
trasformazioni associate a un cambiamento del sistema di riferimento, ma le leggi
fondamentali che governavano la relazione reciproca tra le componenti rimanevano le
stesse.
µν
Lo scopo di Einstein nella costruzione della teoria della relatività generale era di
trovare le equazioni matematiche che descrivono due processi complementari:
! quello in cui un campo gravitazionale agisce sulla materia, dicendole come
muoversi;
! quello in cui la materia, a sua volta, genera i campi gravitazionali nello
spaziotempo, dicendogli come incurvarsi.
La sua sorprendente intuizione fu che la gravità poteva essere definita come la
curvatura dello spaziotempo, ossia una proprietà geometrica dello spaziotempo, e
quindi, come tale, poteva essere rappresentata da un tensore metrico. Qualunque
equazione del campo gravitazionale escogitasse, avrebbe dovuto soddisfare i seguenti
requisiti fisici:
1. Avrebbe dovuto ridursi alla teoria newtoniana nel caso particolare di campi
gravitazionali deboli e statici;
2. Avrebbe dovuto salvaguardare le leggi della fisica classica, in primo luogo la
conservazione dell’energia e della quantità di moto;
3. Avrebbe dovuto soddisfare il principio di equivalenza, ossia che le osservazioni
compiute da un osservatore in moto uniformemente accelerato sarebbero
equivalenti a quelle compiute da un osservatore in quiete in un campo
gravitazionale confrontabile.
Le equazioni di campo della gravitazione, che riuscì a formulare nel 1915, hanno
la seguente forma:
EQUAZIONI DI CAMPO DELLA GRAVITAZIONE
R µν −
1
gµνR = 8πTµν ⇒ Gµν = 8πTµν
2
G = tensore di Einstein; R = tensore di Ricci; g = tensore metrico; R = scalare di Ricci (traccia del tensore di Ricci).
µν
µν
"
µν
Il primo membro dell’equazione condensa in sé tutta l’informazione sul modo in
cui la geometria dello spaziotempo è deformata e incurvata dalla massa e
dall’energia;
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
"
5;8!
Il secondo membro descrive il movimento della materia (massa ed energia) nel
campo gravitazionale.
L’interazione tra i due membri mostra come massa ed energia curvano lo
spaziotempo e come, a sua volta, questa curvatura influenza i moti di massa ed energia.
Nelle parole del fisico Brian Green cogliamo l’essenza di questi concetti contenuti nelle
equazioni di campo: “Spazio e tempo diventano attori nell’evoluzione del cosmo, e
assumono per così dire vita propria. La materia presente qui causa una distorsione
dello spazio lì, la quale a sua volta muove la materia laggiù, il che provoca un’ulteriore
distorsione dello spazio, e così via. La relatività generale è, in sostanza, la coreografia
della danza cosmica che vede quali protagonisti spazio, tempo, materia ed energia”.
All'età di trentasei anni, Einstein aveva prodotto una delle più fantasiose e
spettacolari revisioni dei nostri concetti sull'universo che la storia ricordi. La teoria della
relatività generale non era soltanto l'interpretazione di alcuni dati sperimentali o la
scoperta di un insieme di leggi più precise. Era un modo interamente nuovo di
considerare la realtà. Newton aveva lasciato in eredita ad Einstein un universo in cui il
tempo aveva un'esistenza assoluta e scorreva ticchettando indipendentemente dai corpi
e dagli osservatori, e in cui anche lo spazio aveva un'esistenza assoluta. La gravità si
pensava fosse una forza che le masse esercitavano l'una sull'altra attraverso lo spazio
vuoto in un modo piuttosto misterioso. All'interno di questa cornice i corpi obbedivano
a leggi meccaniche che si erano dimostrate straordinariamente precise, diremmo quasi
perfette, nello spiegare ogni cosa, dalle orbite dei pianeti alla diffusione dei gas, fino ai
moti convulsi delle molecole e alla propagazione delle onde sonore (ma non della luce).
Con la teoria della relatività ristretta Einstein aveva mostrato che spazio e tempo
non avevano esistenze indipendenti, ma costituivano la struttura unica dello
spaziotempo. Ora, con la versione generale della teoria, la struttura dello spaziotempo
divenne qualcosa di più di un semplice contenitore di corpi ed eventi: un’entità dotata
di una propria dinamica, che era determinata dal moto dei corpi al suo interno, e a sua
volta contribuiva a determinare tale moto. Il curvarsi e incresparsi della struttura dello
spaziotempo spiegava la gravità, la sua equivalenza all'accelerazione e, a detta di
Einstein, giustificava la relatività generale di tutte le forme di moto.
Secondo Paul Dirac, uno dei pioniere della meccanica quantistica, la relatività
generale era: “probabilmente la massima scoperta scientifica mai fatta”. Un altro dei
giganti della fisica del XX secolo, Max Born, la definì: “la più grande impresa del
pensiero umano per la conoscenza della natura, la più ammirevole commistione di
acume filosofico, d'intuito fisico, e di abilità matematica”.
10.9 L’immagine del mondo di Einstein
Da Aristotele a Cartesio, cioè per due millenni, l’idea democritea di uno spazio
come entità diversa, separata dalle cose, non era mai stata accettata come ragionevole.
Per Aristotele, come per Cartesio, le cose sono estese, ma l’estensione è una proprietà
delle cose: non esiste estensione senza una cosa estesa. Se fra due cose non c’è nulla,
ragionava Aristotele, come fa ad esserci lo spazio? L’idea di uno spazio vuoto nel quale
si muovono gli atomi, posto alla base dell’immagine del mondo di Democrito, in bilico
tra “l’Essere” e il “Non Essere”, non brillava certo in chiarezza.
5;9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Newton era tornato all’idea di Democrito secondo cui i corpi si muovono nello
spazio di moto rettilineo uniforme fino a quando le loro traiettorie non vengono curvate
dall’azione di una forza. Newton aveva faticato non poco a superare la resistenza alla
sua idea di resuscitare la concezione democritea dello spazio. Solo l’efficacia
straordinaria delle sue equazioni, la loro capacità di predizione, aveva finito per tacitare
le critiche. Ma di cosa è fatto questo spazio contenitore del mondo? Che cos’è lo spazio?
Per Newton era il sensorium dei. Ma la spiegazione non sembrava per niente
convincente, e i dubbi dei filosofi sulla ragionevolezza della nozione newtoniana di
spazio persistevano, e Einstein, conoscitore della filosofia, ne era consapevole.
Einstein raccoglie dunque non uno, ma due problemi. Primo: come descrivere il
campo gravitazionale? Secondo: che cos’è lo spazio di Newton? E le risposte sono: le
equazioni del campo gravitazionale; lo spazio di Newton è il campo gravitazionale.
Quindi, il mondo è fatto solo di particelle e campi, e nient’altro. In questa immagine del
mondo non c’è posto per lo spazio come ingrediente addizionale.
A differenza dello spazio di
Newton, che è piatto e fisso e non
è influenzato dalla presenza dei
corpi, il campo gravitazionale è
incurvato
dalla
massa
e
dall’energia e, a sua volta,
influenza il moto della materia
(massa e energia). Lo spazio (o
meglio lo spaziotempo), ossia il
campo gravitazionale, non è più
qualcosa di diverso dalla materia. E’ una delle componenti “materiali” del mondo,
insieme al campo elettromagnetico. È un’entità reale che ondula e s’incurva, e costringe
i pianeti a ruotare intorno al Sole o al tempo di fermarsi in un buco nero. Lo
spaziotempo di Einstein, però, non è curvo nel senso che si curva dentro un altro spazio
più grande. E’ curvo nel senso che la sua geometria intrinseca, cioè la rete delle distanze
fra i suoi punti, non è la stessa di uno spazio piano. In sintesi è uno spazio in cui non
vale il teorema di Pitagora.
10.10 Le principali verifiche sperimentali della relatività generale
"
LA PRECESSIONE DELL’ORBITA DI MERCURIO
Fra i primi fatti sperimentali che hanno trovato
spiegazione grazie alla teoria della relatività generale, e che
pertanto rappresentano una conferma della teoria, sono le
anomalie, da tempo riscontrate, nel moto di alcuni pianeti
rispetto alle orbite previste dalle leggi newtoniane. Ci
riferiamo, in particolare, all'inspiegabile lenta rotazione, fra
una rivoluzione e la successiva, dell'asse dell'orbita del pianeta
Mercurio. Nel 1860 il matematico francese Urbain Le Verrier
(1811-1877), per giustificare la misteriosa traiettoria descritta
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5;:!
dal pianeta più vicino al Sole, ipotizzò la presenza di un altro pianeta che ne perturbava
le orbite. Nonostante le molte ricerche astronomiche, il presunto pianeta, già battezzato
Vulcano, non fu mai trovato.
Il comportamento di Mercurio appariva strano a causa dell'impossibilità di
calcolare con sufficiente precisione le sue orbite in base alla meccanica newtoniana. Solo
dopo aver applicato la fisica relativistica ogni anomalia scomparve definitivamente.
"
LA DEFLESSIONE DEI RAGGI LUMINOSI PER EFFETTO GRAVITAZIONALE
Una notevole conseguenza del principio di equivalenza riguarda la propagazione
della luce. Einstein indicò il Sole come sorgente di un campo gravitazionale
sufficientemente intenso da produrre effetti osservabili sulle traiettorie dei raggi di luce
che, emessi da stelle lontane, passano nelle sue vicinanze. A causa dell'interazione della
luce con la massa solare, la posizione apparente di una sorgente emittente deve
discostarsi dalla sua posizione reale. La verifica sperimentale di questo effetto è
ostacolata dal fatto che, in condizioni normali, non si riesce a osservare la direzione dei
raggi che passano vicino alla superficie solare, perché essi vengono mascherati
dall'intensa luminosità del Sole. L'unica soluzione è quella di osservare la luce di una
stella, di cui sia nota la posizione nella volta celeste, quando questa luce sfiora il Sole
durante un'eclisse totale.
Mediante le attuali tecnologie fotografiche e radiointerferometriche è infatti
possibile confrontare, durante la fase di oscurità provocata da un'eclisse solare, la
posizione di alcune stelle lontane visibili dietro al Sole con la posizione che le stesse
stelle hanno quando il Sole non si trova allineato con esse.
La prima verifica sperimentale degli effetti gravitazionali del Sole sui raggi
luminosi provenienti dalle stelle fu effettuata nel 1919. La Royal Astronomical Society
organizzò appositamente una spedizione, proposta e diretta dall'astrofisico inglese
Arthur Eddington, durante un'eclisse totale perfettamente visibile dall'isola di Principe,
isolotto portoghese situato al largo delle coste occidentali dell'Africa. Ancora una volta i
fatti dettero ragione a Einstein.
Un'altra probabile conferma della deflessione della luce è
rappresentata dalla scoperta delle cosiddette lenti gravitazionali.
Consideriamo un massiccio oggetto celeste, per esempio una
galassia G relativamente vicina alla Terra:
poiché la sua massa incurva la traiettoria dei
raggi che passano nelle sue vicinanze, essa si
comporta come una normale lente di vetro che
mette a fuoco o distorce un oggetto.
L'effetto, analogo alla deviazione rilevata da
Eddington dei raggi luminosi da parte del Sole,
è osservato con corpi celesti di natura tuttora misteriosa: i quasar. Scoperti intorno agli
5=<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
anni Ottanta, questi oggetti sono in grado di emettere segnali sia radio sia luminosi con
eccezionale intensità.
Alcuni quasar, osservati con potenti telescopi, appaiono sdoppiati e le due
immagini presentano esattamente le stesse caratteristiche e le stesse proprietà
astrofisiche. Ciò viene interpretato ipotizzando che fra il quasar e la Terra esista qualche
massiccio oggetto galattico che si comporta come una lente gravitazionale.
Un altro esempio è la cosiddetta “croce di Einstein”. Le quattro
macchie luminose esterne sono interpretate come immagini dello
stesso quasar prodotte, per effetto della deflessione gravitazionale
della luce, da una galassia visibile al centro. Se la galassia fosse
perfettamente simmetrica, l’immagine del quasar assume la forma
di anello.
"
LO SPOSTAMENTO DELLE RIGHE SPETTRALI NEI CAMPI GRAVITAZIONALI
In base alle teorie relativistiche, quando una radiazione elettromagnetica, per
esempio la luce, si allontana da un campo gravitazionale, specie se questo è
sufficientemente intenso, consuma, come un razzo che si allontana dalla Terra, parte
della sua energia. Poiché la radiazione deve continuare a muoversi alla velocità c delle
onde elettromagnetiche, la sua perdita di energia si manifesta attraverso una
diminuzione di frequenza, o, il che è lo stesso, con un aumento della lunghezza d'onda.
La variazione di frequenza può essere messa in evidenza misurando, mediante
tecniche spettroscopiche, il cosiddetto redshift (spostamento verso il rosso) delle righe
spettrali della radiazione quando si allontana dalla sorgente gravitazionale che la
emette. Questo spostamento verso il rosso viene detto “gravitazionale” per distinguerlo
da quello “cosmologico” dovuto al moto di espansione dell'universo.
In prima approssimazione la variazione di frequenza è tanto maggiore quanto più
grande è la massa del corpo che emette la radiazione e quanto più piccole sono le sue
dimensioni.
"
IL RALLENTAMENTO DEL RITMO DEGLI OROLOGI
La frequenza della luce, come vedremo nella meccanica quantistica, è determinata
da certi parametri energetici che caratterizzano gli atomi che la emettono. Essa può
essere pensata con una frequenza propria di vibrazione degli atomi e, da questo punto
di vista, scandisce il ritmo degli orologi atomici. Poiché la gravità perturba i costituenti
della materia responsabili dell’emissione luminosa, ci si aspetta che gli orologi marcino
con ritmi diversi a seconda dell'intensità del campo in cui sono immersi. Precisamente,
più intenso è il campo, più lenti, stando alle previsioni relativistiche, devono essere gli
orologi. Per esempio, la teoria prevede che un orologio posto sul Sole accumuli rispetto
a un identico orologio situato sulla Terra, un ritardo di un minuto all'anno. Su una stella
di neutroni, la cui densità può assumere valori dell'ordine di 1015 g/cm3, il ritardo in un
anno sarebbe di alcuni giorni. Inversamente, a grandi altezze dalla superficie terrestre, il
tempo dovrebbe scorrere più velocemente che a bassa quota, dove la gravità è più
intensa. Una delle prime verifiche di questa suggestiva previsione è stata fatta
dall’Istituto Elettrotecnico Galileo Ferraris di Torino in collaborazione con il Laboratorio
Cosmologico del C.N.R., confrontando due orologi atomici identici, uno a Torino e
l'altro a Plateau Rosa. Come rilevato dopo una lunga osservazione, il secondo orologio
aveva un ritmo più veloce del primo di circa 30 miliardesimi di secondo al giorno.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5=;!
Numerosi altri esperimenti, effettuati sia in altri laboratori, sia soprattutto su
satelliti artificiali, hanno confermato, in perfetto accordo con la logica relativistica,
queste lievi differenze temporali.
"
LA PROBABILE ESISTENZA DELLE ONDE GRAVITAZIONALI
Un altro fenomeno previsto dalla relatività generale, attualmente ancora al limite
della credibilità a causa di molteplici effetti perturbativi che ne ostacolano la verifica
sperimentale, è l'esistenza di onde gravitazionali provenienti da remote sorgenti dello
spazio cosmico. Come le cariche elettriche accelerate emettono onde elettromagnetiche,
anche una massa accelerata deve irraggiare, secondo la teoria einsteiniana, onde
gravitazionali che si propagano nello spaziotempo con la velocità della luce. In molti
laboratori sono in corso diversi esperimenti per tentare di captare i segnali di qualche
macroscopica increspatura generata da un violento e rapido spostamento di materia nel
tessuto geometrico dello spaziotempo.
Per molti aspetti la gravità resta ancora un argomento ricco di misteri, anche se
molti, dai tempi di Newton, sono stati risolti. I Principia della meccanica newtoniana
conservano comunque, anche dopo l'avvento della relatività generale, una loro validità
ogni qualvolta gli effetti gravitazionali non sono molto intensi, cioè quando il cronotopo
relativistico tende a diventare piano. Nell'ambito del sistema solare, per esempio, il
modello newtoniano riesce con sufficiente approssimazione a calcolare il moto dei
pianeti e gli effetti gravitazionali locali.
Quando, invece, gli oggetti stellari sono molto densi, o dotati di massa molto
grande, i fenomeni gravitazionali sono così intensi e talvolta così catastrofici che solo le
più alte leggi della relatività generale riescono a fornire un valido mezzo teorico per
comprenderli.
La teoria prevede la possibilità che si
verifichi
una
situazione
veramente
incredibile, rappresentata da un limite critico
del potenziale gravitazionale per cui ogni
dimensione si annulla, ogni orologio si ferma
e la velocità della luce tende a zero. Un
oggetto enormemente denso che raggiunge queste condizioni prende il nome di buco
nero. Si tratta di un aspirapolvere cosmico che ingoia tutto e che diventa invisibile perché luce e materia non riescono a uscire da esso.
Secondo i fisici, la presenza di un simile "vampiro" si manifesta attraverso le
intense forze gravitazionali che si estrinsecano sugli oggetti che vengono a trovarsi nelle
sue vicinanze. Esistono forti indizi della probabile esistenza di buchi neri all'interno di
molte galassie.
10.11 L’universo di Einstein
La cosmologia è lo studio dell’universo nel suo insieme, dalle sue dimensioni e
della sua forma, della sua storia e del suo destino, dall’inizio alla fine del tempo. Prima
che Einstein avanzasse la sua teoria della relatività generale, l’universo era concepito
5==!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
come un’isola di materia fluttuante in uno spazio infinito. E lo spazio era solo un ente di
ragione, ossia il non-essere considerato come possibilità di pervenire ad essere, se mai
una qualche materia giungesse un giorno ad occuparlo. Spazio infinito, perché, se lo si
considerasse finito, bisognerebbe chiedersi che cosa ci sarebbe al di là di codesto spazio.
Però l’universo doveva essere finito, poiché altrimenti, anche la materia dell’universo
sarebbe infinita e, di conseguenza, infinita sarebbe pure la forza gravitazionale, in
sintonia con la legge della gravitazione universale.
Con la relatività generale i costituenti del cosmo, materia ed energia, o meglio la
loro somma, dettano la forma, la curvatura complessiva, dell’universo stesso, per cui
con le equazioni di campo della teoria della relatività generale, Einstein gettò le basi
dello studio della natura dell’universo, divenendo così il principale fondatore della
cosmologia moderna. È possibile, infatti, formulare una descrizione relativistica
dell’universo che si accorda con le attuali osservazioni astronomiche, e che è in grado
da un lato di fare previsioni sull’evoluzione futura dell’universo, dall’altro di ricostruire
la sua storia passata ed, eventualmente, di darci delle informazioni sul processo di
nascita dell’universo stesso.
Ad aiutare Einstein in questa impresa, almeno nelle prime fasi, fu Karl
Schwarzschild (1873-1916), che intraprese il tentativo di applicare la teoria di Einstein ai
corpi nello spazio. I primi calcoli di Schwarzschild si concentravano sulla curvatura
dello spaziotempo all'esterno di una stella sferica non rotante e su che cosa sarebbe
accaduto all'interno della stella. In entrambi i casi sembrava possibile, anzi inevitabile,
qualcosa di singolare. Se tutta la massa di una stella (o di un qualsiasi corpo) veniva
compressa in una regione di spazio sufficientemente piccola, definita da quello che
divenne noto come raggio di Schwarzschild, tutti i calcoli sembravano perdere di senso.
Al centro lo spaziotempo si sarebbe incurvato su se stesso in misura infinita. Nel caso
del nostro Sole, accadrebbe se tutta la sua massa fosse compressa entro un raggio di
meno di tre chilometri. Nel caso della Terra, accadrebbe se tutta la sua massa fosse
concentrata entro un raggio di poco meno di un centimetro. Che cosa significherebbe?
Nei casi descritti, nulla che si trovasse entro il raggio di Schwarzschild potrebbe
sfuggire all'attrazione gravitazionale, neppure la luce o una qualsiasi altra forma di
radiazione. Anche il tempo parteciperebbe della curvatura dilatandosi fino ad
arrestarsi. In altre parole, un viaggiatore che si avvicinasse al raggio di Schwarzschild
sembrerebbe, a chi lo osservasse dall'esterno, irrigidirsi fino a un arresto totale.
Come gli scienziati avrebbero scoperto dopo la morte di Einstein, la strana teoria
di Schwarzschild era corretta. Le stelle potevano subire il collasso e generare tale
fenomeno, e in realtà lo facevano spesso. Wheeler chiamò quegli oggetti buchi neri, e da
allora essi sono diventati una branca della cosmologia. Dyson afferma: “Sono gli unici
luoghi dell'universo in cui la teoria della relatività di Einstein mostra tutta la sua
potenza e il suo splendore. Qui, e in nessun altro posto, lo spazio e il tempo perdono la
loro individualità e si fondono in una struttura quadridimensionale fortemente
incurvata, delineata con precisione dalle equazioni di Einstein”.
Nel 1917 Einstein pubblica una nuova idea sull’universo nell’articolo
Considerazioni cosmologiche sulla teoria della relatività generale, idea che a prima vista
sembrava folle: lo spazio non ha bordi perché la gravità lo fa incurvare su sé stesso. In
questo modo l’universo è finito ma privo di contorni. Le masse presenti nell'universo
fanno incurvare lo spazio e, su scala cosmica, fanno in modo che lo spazio (anzi, l’intera
struttura quadridimensionale dello spaziotempo) si curvi completamente richiudendosi
5=4!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
su se stesso. Il sistema è chiuso e finito, ma non ha un confine né un margine. Un tale
sistema viene descritto senza difficoltà in termini matematici dalle geometrie non
euclidee. In un simile universo curvo, un raggio di luce che comincia a propagarsi in
una qualsiasi direzione potrebbe percorrere quella che sembra una linea retta eppure
curvare tornando al punto di partenza.
Questa concezione del cosmo che Einstein dedusse dalla teoria della relatività
generale era elegante e magica. Ma sembrava esserci una difficoltà, un difetto cui si
doveva porre rimedio o che si doveva trovare il modo di eludere. La sua teoria indicava
che l'universo non sarebbe rimasto statico, ma avrebbe dovuto espandersi o contrarsi.
Secondo le sue equazioni di campo, un universo statico era impossibile perchè le forze
gravitazionali avrebbero raggrumato insieme tutta la materia. Ciò non si accordava con
quello che, a parere della maggior parte degli astronomi suggerivano le osservazioni.
Per quanto si sapeva, l'universo era formato soltanto dalla nostra galassia, la Via Lattea,
e sembrava piuttosto stabile e statico.
Einstein, credendo ciecamente in un universo statico, nonostante le implicazioni
delle sue equazioni che dimostravano il contrario, ossia un universo in evoluzione
dinamica, apportò quella che definì una “leggera modifica” alla sua teoria. Per
impedire alla materia dell'universo di implodere, introdusse una forza repulsiva, una
piccola aggiunta alle sue equazioni della relatività generale per controbilanciare la
gravità nell'ordine complessivo. Nelle sue equazioni rivedute, questa modifica era
indicata con la lettera greca lambda λ che veniva moltiplicata per il tensore metrico g in
un modo che produceva un universo stabile e statico. Einstein chiamò il termine
aggiunto “costante cosmologica”, ma la sua introduzione non aveva alcuna reale
motivazione fisica.
µν
Nel 1929 l’astronomo Edwin Hubble (1889-1953) scoprì che in realtà l'universo si
stava espandendo, esattamente come previsto nei modelli di universo elaborati da
Alexander Friedmann (1888-1925) e Georges Lemaitre (1894-1966) a partire dalle
equazioni originali di campo, ed Einstein, venuto a conoscenza della scoperta, avrebbe
definito la sua costante cosmologica il suo “più grosso sbaglio”.
ù
Ma come possiamo raffigurarci questa espansione alla luce della relatività
generale, con le sue implicazioni relative all’interazione della curvatura spaziotempo ed
il contenuto di massa ed energia? Immaginiamo di gonfiare un palloncino sul quale
abbiamo disegnato dei punti. Una volta gonfiato, qualunque punto scegliamo sul
palloncino, noteremo che tutti gli altri
punti si sono allontanati da esso.
Questo esperimento aiuta a mettere a
fuoco due aspetti essenziali per capire
l’espansione
dell’universo.
La
superficie del pallone rappresenta lo
spaziotempo e i punti sono le galassie.
Quando si gonfia il pallone, la sua area
superficiale aumenta, esattamente
come fa lo spaziotempo durante
l’espansione dell’universo. Non esiste
alcuna posizione speciale, ciò che si
osserva da ciascuna galassia è uguale a ciò che si vede da qualunque altra; ogni cosa
5=5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
sembra allontanarsi da voi, in qualunque luogo vi troviate, e quanto più essa è lontana
tanto più velocemente si allontana. Il limite dell’analogia è che il pallone ha un dentro e
un fuori, mentre per l’universo non esistono dentro e fuori, lo spaziotempo, cioè la
superficie del pallone, è tutto ciò che esiste. Inoltre, la forma complessiva dell’universo,
almeno per quanto riguarda la parte finora osservata, non è curva come la superficie del
pallone, ma piana.
Comunque oggi, in base all'evidenza che l'espansione dell'universo sta
accelerando, la costante cosmologica è stata ripresa in considerazione come un concetto
utile, se non necessario.
Le equazioni di Einstein ci forniscono le modalità dell’espansione dello
spaziotempo, specificando in dettaglio in che modo sia controllata dalla materia e
dall’energia esistenti nello spaziotempo stesso, per cui se riusciamo a scrivere la storia
dell’espansione dell’universo, possiamo ricostruire la sua composizione in ogni dato
momento. La relatività generale raggruppa i contenuti dell'universo in tre categorie
distinte, in funzione
della
loro
influenza
sull'evoluzione
dello
spaziotempo.
In primo luogo
abbiamo la materia, che
include sia la materia
normale
sia
quella
oscura, della quale non
sappiamo
ancora
la
natura, ossia ogni tipo di
materia
che
mostri
interazioni gravitazionali
normali. Tutto ciò che
ricade
in
questa
categoria, inoltre, non
deve propagarsi a velocità prossime a quella della luce e la maggior parte della sua
energia deve essere sotto forma di massa, non di moto. La seconda categoria è costituita
dall'energia radiante e comprende tutte le lunghezze d'onda della luce, ma anche le
particelle che si propagano ad altissima velocità, infatti, simili particelle si comportano
più come energia radiante che come materia. L'ultima categoria è costituita dall'energia
oscura, una strana forma di energia sconosciuta ed invisibile all’osservazione, che
costituisce oltre il 70% di ciò che è contenuto nell’universo.
Ognuno di questi tre tipi fondamentali, materia, radiazione ed energia oscura, ha
un impatto differente sulla storia dell'espansione dell'universo. Tale espansione è
iniziata per motivi ancora sconosciuti (big bang), ma le equazioni di Einstein descrivono
esattamente come si svolge in risposta al contenuto del cosmo.
Sia la materia sia l'energia radiante fanno sì che lo spaziotempo si incurvi e si
contragga, cosicché contribuiscono a frenare l'espansione cosmica. La radiazione, a cui è
associata una pressione, è un poco più efficace in questa azione di frenamento, ma il
meccanismo di base è lo stesso in entrambi i casi. La materia e la radiazione
dell’universo sono soggette all’attrazione gravitazionale di tutto il resto della materia e
della radiazione. Via via che l'universo si espande, la distanza tra gli aggregati di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5=6!
materia, come le galassie, aumenta, ma l'azione della gravità è opposta e tende ad
avvicinare nuovamente questi oggetti. Ne risulta un rallentamento dell'espansione dello
spazio. L'energia oscura è il pezzo che non combacia. Essa non rallenta l’espansione
dell'universo, ma anzi le dà ulteriore impulso e la fa accelerare. Nelle equazioni di
Einstein, una sostanza in grado di produrre una simile dilatazione dello spaziotempo
deve avere una pressione negativa. Tuttavia immaginare una sostanza cosmica dotata
di pressione negativa non è banale: la materia nell'universo ha una pressione
essenzialmente nulla e la radiazione è associata a una pressione positiva; pertanto,
quale che sia la natura dell'energia oscura, deve essere radicalmente diversa da ogni
sostanza nota.
Il destino ultimo di un universo che contenga solo materia è determinato dalla
quantità di quest'ultima. Se la sua densità è inferiore a un valore critico, dalla soluzione
delle equazioni di campo si ricava che lo spazio tridimensionale deve avere una
curvatura costante ma negativa, detta iperbolica (si pensi alla forma di una sella da
cavallo) e in questo caso l'espansione dell'universo continuerà per sempre, rallentando
all’infinito, a una velocità che diventerà sempre più bassa a causa dell'effetto di
frenamento della materia, ma che non si annullerà mai, finché lo spaziotempo non sarà
completamente vuoto e piatto.
Se la densità è invece superiore al
valore critico allora lo spazio tridimensionale
deve avere una curvatura costante e positiva
(come quella di una sfera) e ciò produrrà un
epilogo
drammatico:
l'autoattrazione
gravitazionale della materia comporterà una
decelerazione dell’espansione fino a fermarla.
Lo spaziotempo cesserà di dilatarsi e inizierà
invece a contrarsi a velocità sempre più
elevata, fino a che l'universo imploderà nel
processo opposto al Big Bang, e cioè il Big
Crunch.
Il caso limite in cui la densità è
esattamente quella critica corrisponde ad una
curvatura spaziale nulla e, ancora, ad
un’espansione che continua all’infinito.
La scoperta di una nuova componente,
rappresentata dall'energia oscura, nel bilancio energetico del cosmo non ci permette più
di prevedere il futuro dell'universo sulla base del suo contenuto, almeno finché non
avremo determinato esattamente che cos'è l'energia oscura. Se è realmente una costante
cosmologica, ossia il termine che rappresenta la densità d’energia del vuoto il cui valore
rimane costante nel tempo, l'universo continuerà ad accelerare la propria espansione,
fino a diventare un vuoto freddo e immobile, privo anche delle strutture più semplici.
Se invece non lo è, tutto diventa possibile. L'energia oscura potrebbe subire un
decadimento, riducendo la propria influenza fino a lasciare il sopravvento alla materia,
oppure potrebbe rafforzarsi e infine distruggere violentemente ogni oggetto
nell’universo: una catastrofe che è stata battezzata Big Rip (dall’inglese: grande
strappo).
5=7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Gli sforzi attuali degli astronomi ed astrofisici sono dunque concentrati nel
cercare di misurare, con metodi diretti ed indiretti, il valore della densità d'energia
totale dell’universo. Le più recenti misure sembrano indicare che la curvatura spaziale è
pressoché nulla e che la densità totale di energia è molto vicina a quella critica, e che
però, stranamente, l'universo attuale sta accelerando la sua fase di espansione, a
testimoniare il fatto che l’universo attualmente non è dominato dalla materia, bensì da
qualche sostanza di tipo esotico, che ci ricorda la quintessenza della filosofia aristotelica,
che potrebbe trovare spiegazione nell’energia oscura.
10.12 La teoria unificata dei campi
L'opera di Einstein si tradusse praticamente nella geometrizzazione di una vasta
parte della fisica: il tempo divenne un parente stretto delle tre coordinate spaziali e le
forze di gravità vennero attribuite alla curvatura di questo universo quadridimensionale. Ma le forze elettriche e magnetiche erano ancor fuori dal dominio della geometria e
Einstein, che pure era già arrivato tanto lontano, concentrò tutte le sue energie per
imbrigliare anche il campo elettromagnetico. Quale delle proprietà geometriche dello
spazio a quattro dimensioni ancora sconosciuta avrebbe potuto spiegare le interazioni
elettriche e magnetiche? Lo stesso Einstein e molti altri
cointeressati, tra i quali il famoso matematico tedesco
Hermann Weyl (1885-1955), fecero del loro meglio per dare al
campo elettromagnetico un'interpretazione puramente
geometrica, ma il campo elettromagnetico rifiutò di farsi
geometrizzare.
Per circa 40 anni, fino alla morte, avvenuta nel 1955,
Einstein lavorò attorno alla cosiddetta teoria unificata dei campi,
una teoria, cioè, che avrebbe dovuto unificare su una comune
base geometrica il campo elettromagnetico e quello
gravitazionale: “Una mente che aneli all’unificazione della
teoria non può essere paga del fatto che debbano esistere due
campi i quali, per loro natura, siano indipendenti tra loro. Si cerca una teoria del
campo, unificata sotto il profilo matematico, in cui il campo gravitazionale e il campo
elettromagnetico siano interpretati solo come componenti o manifestazioni diverse di
uno stesso campo uniforme”. Però, la teoria unitaria dei campi che Einstein cercava
aveva un significato differente da quello si ha oggi. Egli richiedeva a questa teoria di
essere rigorosamente causale, e si aspettava che le particelle della fisica scaturissero
come soluzioni particolari delle equazioni del campo, e che i postulati quantistici
risultassero come conseguenza delle equazioni generali del campo.
Ma col passare degli anni si capiva che tale lavoro era senza speranza: ogni tanto
Einstein tornava alla ribalta con un nuovo gruppo di formule destinate, secondo lui, a
risolvere finalmente il groviglio della teoria unificata dei campi e le prime pagine del
New York Times e di altri giornali di tutto il mondo erano invase da complicate
espressioni tensoriali. Ma prima o poi le nuove formule si rivelavano inadatte alla loro
funzione e tutto tornava nell'ombra fino alla successiva rivelazione. I fisici teorici,
vecchi e giovani, persero, a poco a poco, la fiducia nella possibilità di dare al campo
elettromagnetico un assetto puramente geometrico.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5=8!
Oggi è ampiamente riconosciuto che l’unificazione delle quattro forze
fondamentali (gravitazionale, elettromagnetica, nucleare forte, nucleare debole)
rappresenta uno dei compiti più importanti della fisica, forse il più importante di tutti.
E chissà se un giorno il sogno di Einstein di geometrizzare la fisica non possa avverarsi
attraverso la costruzione di una teoria che contempli come elemento veramente reale
della natura soltanto la geometria e che consideri tutti gli altri oggetti fisici osservati,
come le particelle, i campi, l'energia e via dicendo, semplicemente quali diverse
manifestazioni dell'unica realtà fisica soggiacente, cioè la geometria. La geometria,
quindi, intesa non come categoria, ovvero schema di pensiero per rendere intelligibile la
realtà, ma la realtà stessa. Tutto questo comporterebbe una evidente economia di
concetti se i campi e le particelle non risultassero oggetti estranei, vaganti nell'arena
spazio-temporale, ma fossero invece in qualche modo strutturati a partire da puro
spazio. Ossia il continuo metrico potrebbe essere un mezzo magico il quale ripiegato
qui in un dato modo rappresenta un campo gravitazionale, ondulato là in un altro
modo descrive un campo elettromagnetico e ritorto localmente descrive una perdurante
concentrazione di energia di massa. In altri termini, la fisica è fondamentalmente una
questione di geometria pura.
Infine, se Einstein ritornasse improvvisamente attraverso qualche magica
distorsione spaziotemporale, sarebbe senz’altro incuriosito dal ritorno in auge della sua
ripudiata costante cosmologica, ora utilizzata per spiegare l’espansione accelerata
dell’universo, sarebbe affascinato dalle moderne teorie fisiche, come la teoria delle
stringhe o la gravità quantistica a loop, tutti tentativi di unire la meccanica quantistica
con la relatività generale. E sarebbe sicuramente soddisfatto nel vedere come la fisica
stia tentando, come aveva fatto lui, di giungere a una visione coerente dell’universo, che
spieghi la natura dal livello subatomico a quello dell’intero cosmo.
“Alla luce delle conoscenze conseguite, ciò che si è felicemente raggiunto appare quasi
ovvio a qualsiasi studente intelligente… Ma gli anni di ansioso cercare nell’oscurità, la
tesa aspettativa, l’alternarsi di fiducia e stanchezza fino all’erompere finale verso la
verità, questo può capirlo solo chi lo ha vissuto di persona”.
10.13 Conclusioni
Vi sono momenti storici in cui una convergenza di forze causa un mutamento
della prospettiva dell’umanità. Accadde per l’arte, la filosofia e la scienza all’inizio del
Rinascimento, e di nuovo al principio dell’Illuminismo. Ora, all’inizio del XX secolo, il
modernismo nasceva grazie alla rottura dei vecchi vincoli e al crollo delle vecchie verità
grazie alle opere di Einstein, Picasso, Matisse, Stravinskj, Schonberg, Joyce, Eliot,
Proust, Freud, Diaghilev, Wittgenstein, e tanti altri innovatori che sembravano spezzare
i legami del pensiero classico. Einstein fu fonte di ispirazione per molti artisti e
pensatori moderni, anche quando questi non lo comprendevano. Proust scrisse ad un
amico: “Come mi piacerebbe parlarti di Einstein. Non capisco una sola parola delle sue
teorie … sembra che abbiamo modi analoghi di deformare il tempo”. Un momento
culminante della rivoluzione modernista si ebbe nel 1922, l’anno in cui fu annunciato il
premio Nobel di Einstein. L’Ulisse di Joyce fu pubblicato in quello stesso anno, così
come La terra desolata di Eliot. In maggio ci fu una cena di mezzanotte all’Hotel Majestic
di Parigi per l’esordio di Renard, composto da Stravinskij ed eseguito dai Ballets Russes
5=9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
di Diaghilev. Stravinskij e Diaghilev erano entrambi presenti, così come Picasso, Joyce e
Proust, e tutti stavano distruggendo le certezze letterarie, artistiche e musicali del XX
secolo con la stessa determinazione con cui Einstein stava rivoluzionando la fisica.
Per quasi trecento anni, l’universo meccanico di Newton, basato su leggi e
certezze assolute, con la sua fede nelle cause e negli effetti, nell’ordine e perfino nel
dovere, aveva costituito il fondamento psicologico dell’Illuminismo e dell’ordine
sociale. Ora si affermava, con la teoria della relatività, una concezione dell’universo in
cui spazio e tempo dipendevano dai sistemi di riferimento. L’apparente rifiuto delle
certezze, un abbandono della fede nell’assoluto, pareva ad alcuni eretico, e la relatività
venne associata ad un nuovo relativismo nei campi della morale, dell’arte e della
politica, più sulla spinta dei fraintendimenti dei profani che sulla base del pensiero di
Einstein. Ha scritto Paul Johnson nella sua vasta opera sul XX secolo, Modern Times:
“Esso costituì un coltello che contribuì a liberare la società dai suoi ormeggi
tradizionali”.
Quali che fossero le cause del nuovo relativismo e modernismo, il distacco del
mondo dai suoi ormeggi classici avrebbe presto prodotto echi e reazioni inquietanti. E
in nessun altro luogo quel clima fu più problematico che nella Germania degli anni ’20.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5=:!
!"#$%&'&())!
La ricerca della verità è
più preziosa del suo possesso
Einstein
"(#,!.%"/1!%&-#6/(&)!0)!*(#
11.1 Introduzione
Uno dei metodi da sempre adottati nelle sintesi di particolari periodi della storia
del sapere umano è quello che procede attraverso descrizioni complessive, e cioè
immagini efficaci che rendano immediatamente riconoscibili e classificabili movimenti e
situazioni anche complessi. Questo è avvenuto soprattutto per quel che riguarda le
epoche passate: il XVII secolo è passato alla storia come l'età della modernità, il XVIII
come quella dei Lumi, il XIX come quella delle macchine e dell’industrializzazione
mondiale.
Se volessimo applicare tale metodo anche al XX secolo, scopriremmo di trovarci
in un notevole imbarazzo: mai come nel '900 le direzioni di sviluppo della nostra civiltà
e del pensiero sono apparse difficili da individuare, labili, contraddittorie, evolute
secondo percorsi estremamente accidentati e tortuosi. Il compito sarebbe più facile e
interessante se ci si limitasse ad un'analisi condotta attraverso l'individuazione di
alcune parole chiave, intese come guide per posare lo sguardo sulla realtà. Una di
queste parole da usare come lente di ingrandimento, soprattutto per esplorare il campo
dello sviluppo della fisica, e, più in generale, della filosofia e della scienza, potrebbe
essere senz’altro il termine "crisi".
La storia della fisica e del pensiero scientifico e filosofico contemporaneo è infatti
segnata, già a partire dalla fine del XIX secolo, come abbiamo già visto, dalla
progressiva presa di coscienza di un lento ma inesorabile dileguarsi delle certezze, dei
fondamenti teorici e pratici del sapere. Una alla volta, tutte le categorie del pensare e
dell'agire scientifico e filosofico, idee e concetti ritenuti immutabili come il Tempo, lo
Spazio, il rapporto tra Causa ed Effetto, sono stati messi alla prova. Una delle prime
verità venute a galla in questa ricerca di nuove fondamenta del sapere non è stata
affatto confortante, anzi, ha rappresentato la conferma di una dolorosa intuizione: il
nostro secolo è caratterizzato dalla scoperta del fatto che la scienza non è onnisciente,
54<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
che la sua pretesa di conoscere il mondo senza errori è soltanto un mito, o al più una
confortante ipotesi di lavoro.
L'epoca contemporanea ha dovuto rinunciare al sogno della fisica classica di
conoscere il mondo in maniera completa a partire dalle componenti minime ed
elementari, quello che potremmo chiamare il "sogno di Cartesio". Gli sviluppi della
scienza hanno prodotto inoltre un lento ma inesorabile smascheramento della nostra
più fondata certezza: l'immagine di un mondo deterministico, un mondo, cioè, sui cui
eventi e fenomeni è sempre possibile operare previsioni da cui far derivare leggi
assolute. Insomma, il sogno galileiano è svanito, è sfumata la possibilità di prevedere
l'evoluzione futura di ciascun fenomeno a partire dalla conoscenza della legge che lo
regola e a vedere il mondo come un insieme di fenomeni semplici, le cui spiegazioni si
trovano nella riduzione della varietà e della molteplicità delle variabili in gioco entro
schemi generali e assoluti. Il sapere ereditato dall'età moderna, per poter sopravvivere,
deve mettere in discussione, uno dopo l'altro, tutti i suoi fondamenti, abbandonare il
bisogno di ritrovare confermati i propri schemi mentali, le proprie strutture teoriche
attraverso forme di comunicazione con la natura, nella convinzione che la natura possa
rispondere all’interrogazione sperimentale; interrogarsi proprio sulla legittimità e utilità
del ricercare leggi nella natura.
In conclusione, nel XX secolo è divenuto sempre più evidente il limite interno al
sistema creato dalla scienza moderna: questo gioco a due giocatori, osservatore e
fenomeno, più che liberare e svelare i segreti della natura, in realtà ha negato la capacità
di agire liberamente, di mettere in luce una molteplicità di aspetti spesso irriducibili alle
teorie dell'uomo, se non a costo di incongruenze. L'esperimento immaginato come
adeguamento della realtà ad una teoria, tipico di Galileo, lontano dall'essere un dialogo
rappresenta in questi termini piuttosto il tentativo di chiudere l'universo multiforme
entro un'angusta gabbia concettuale. Quindi, l'unità che la scienza contemporanea
ricerca e scopre sempre più non ha la forma di un elemento fondamentale o di una
sostanza, né atomo né formula generale. Non sarebbe più plausibile allora accettare il
fatto che non è poi così logico, così prevedibile ed evidente il gioco fra uomo e natura, la
quale, dal canto suo, non vuole comunicare con l'uomo, né farsi comprendere, ma
semplicemente si mostra, nella propria incoerenza, instabilità, caoticità?
Oltre che un problema di metodologia interna alla scienza, questa serie di
interrogativi sembra aprire il campo ad un'analisi filosofica ben più profonda: fino a che
punto si può andare avanti immaginando che le eventuali difficoltà di comprensione di
alcuni fenomeni dipendano soltanto da un grado di minore completezza delle nostre
informazioni sulla loro struttura?
11.2 Crisi del riduzionismo
Con la scoperta che il mondo lasciato in eredità da Keplero, Galileo, Newton,
fatto di sfere fredde e movimenti perpetui, ha ceduto il posto ad un universo in
continua espansione, dai fenomeni irreversibili, è nata, come abbiamo visto, l'esigenza
di una nuova scienza, capace di risolvere o quantomeno tentare di chiarire le proprie
contraddizioni con mezzi e concetti nuovi. Essa si è trovata anzitutto ad affrontare una
situazione assolutamente inedita, quella cioè di non essere più in grado di formulare
domande facili alla natura, di comprenderne le risposte, di elaborare schemi concettuali
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
54;!
rigidi per spiegarla. E questo diventa ancora più evidente nel caso della meccanica
quantistica.
La posizione della scienza contemporanea è evidentemente delle più scomode: in
primo luogo deve adattarsi ad operare su una realtà difficilmente riconducibile ai
vecchi modelli e strumenti di controllo; ma più di ogni altra cosa deve trovare una
collocazione nuova agli strumenti classici del suo pensiero: le coppie soggetto/oggetto,
causa/effetto, realtà/organizzazione. Deve insomma costruirsi una nuova filosofia.
Ricordiamo, infatti, che la scienza classica e quella dell'età moderna si erano basate
sull'assunto dell'obiettività della natura, sul fatto che l'universo fosse costituito da
oggetti isolati, governati nei loro fenomeni da leggi oggettivamente valide. Fare
esperienza di un fenomeno significava ricostruire in laboratorio un contesto in cui ogni
suo aspetto venisse ricondotto ai dati essenziali, semplificato, o per meglio dire,
purificato dalle possibili interferenze e perturbazioni. Sistemi isolati ed esperimenti
puri: con questa chiave di lettura, la scienza determinava la realtà isolandola e
scomponendola nelle sue parti elementari, con un approccio che definiremmo,
ovviamente, riduzionista.
Ma bastò svoltare il secolo XIX per accorgersi del carattere puramente illusorio di
tanta oggettività: le nuove teorie fisiche, in particolare la relatività generale di Einstein e
la meccanica quantistica, destarono l'attenzione sull'esistenza di componenti sempre più
piccole della materia, su fenomeni di interazione dalla natura ambigua. La crisi del
riduzionismo ebbe quindi origine dall'elaborazione di una nuova concezione
dell'atomo, divenuto un oggetto strano, apparentemente incoerente, incerto nella natura
delle sue componenti, corpuscoli o onde, sfuggente nei suoi movimenti interni di
elettroni e protoni, e in ultima analisi, indefinibile.
La risposta a questa crisi avvenne con un passaggio fondamentale, filosofico ed
epistemologico, della scienza del nostro tempo: il passaggio dal concetto di struttura a
quello di sistema, dall'idea di costituzione a quella di organizzazione. Si cominciano a
vedere sotto una luce diversa tutti gli oggetti chiave della fisica, atomi e molecole, e a
interpretarli come parti costituenti di sistemi.
Ma cos'e un sistema? È un insieme di unità in reciproca interazione, è cioè un
Tutto che funziona nella sua globalità solo in virtù delle caratteristiche delle singole
componenti in relazione fra loro. Il sistema è una totalità organizzata, composta di
elementi solidali che possono essere definiti soltanto gli uni in rapporto agli altri, in
funzione della loro collaborazione alla totalità. In questo senso, il crollo dell'immagine
del mondo tipica della scienza moderna, quella di Newton e Galileo, si rivela
inevitabile. Né la descrizione né tantomeno la spiegazione dei fenomeni di un sistema
fisico possono essere più affrontate agendo al livello delle singole parti, isolandole come
oggetti reali: dal momento che le caratteristiche fondamentali di un sistema sono la sua
organizzazione, le sue relazioni interne ed esterne, nello stesso istante in cui lo
scienziato frammenta il sistema nei suoi presunti componenti minimi, elementari e
oggettivati, si preclude la possibilità di comprensione dei fenomeni, poiché
l'organizzazione non può essere catturata dalla scomposizione.
È in questa direzione che la teoria dei sistemi, vera scienza della complessità,
analizzando i rapporti fra le parti e il tutto, ha tentato di reagire al riduzionismo. Una
prima risposta sembrava offerta dall'olismo, una teoria che potremmo sintetizzare
nell'affermazione secondo cui il Tutto è più importante della somma delle parti.
Analizziamola nel dettaglio. Una comprensione di tipo olistico di un fenomeno tende a
54=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
far ricoprire un ruolo assoluto al sistema, un'importanza esclusiva all'interazione fra le
sue parti: la descrizione di un fenomeno diventa, in chiave olistica, la descrizione di uno
dei possibili stati di un sistema globale, mentre la conoscenza delle singole componenti
ricopre, presa di per sé, un ruolo di importanza secondaria rispetto alla ricostruzione
dell'organizzazione totale.
Questo tipo di approccio si presta a contraddizioni molto forti, difficili da
chiarire. L'olismo preso letteralmente, presuppone infatti un riduzionismo alla rovescia:
mentre i discorsi riduzionistici negano che sia possibile la ricostruzione di un fenomeno
complesso a prescindere dalla scomposizione analitica delle sue parti, i discorsi
funzionalisti o olisti si rifiutano di considerare l'opportunità della scomposizione.
Entrambi i metodi pretendono di offrire una chiave di accesso semplice ed esclusiva alla
lettura del reale, e non colgono così la caratteristica peculiare di ogni organizzazione, la
sua inevitabile complessità.
11.3 Il crollo della visione classica del mondo
Ci accingiamo ora a percorrere l'affascinante cammino che ha portato, nel primo
quarto del XX secolo, all'elaborazione di quella rivoluzione scientifica rappresentata
dalla meccanica quantistica, lo schema concettuale che, assieme alla teoria della
relatività, ha mutato radicalmente le concezioni della fisica classica e che sta alla base di
tutta la moderna visione del mondo.
In primo luogo, essa distrugge la tradizionale nozione di causalità, nel senso che
le previsioni quantistiche non garantiscono certezze, ma, a differenza della meccanica
newtoniana, descrivono solo in maniera probabilistica le modalità con cui accadono gli
eventi. Ogni nozione, ogni conoscenza delle "cose" presenta certi limiti di natura
intrinseca: quando ne possediamo una parte, esiste qualche altra parte che ci sfugge.
Infine, termini come "particella", "stato", "traiettoria", "misura" mutano il loro significato
originario.
Raramente la nascita di una nuova teoria è stata altrettanto travagliata, ha
richiesto così rilevanti sforzi da parte di alcune delle più brillanti menti di tutti i tempi
e, pur avendo registrato un successo sul piano predittivo ineguagliato da ogni altro
schema teorico nella storia della scienza, ha suscitato un così vivace e appassionante
dibattito e controversie così accese circa il suo vero significato. Questi fatti non
risulteranno sorprendenti allorché avremo penetrato almeno in parte i segreti del
microcosmo che il nuovo schema concettuale ci andrà svelando. Questi segreti, le
incredibili prodezze di cui scopriremo capaci i sistemi microscopici, risultano di fatto
così innovativi e rivoluzionari rispetto alle concezioni classiche elaborate sulla base
della nostra esperienza con i sistemi macroscopici, che risulta quasi naturale che
l'elaborazione della nuova teoria sia stata tanto sofferta e che tuttora il dibattito sulle
sue implicazioni concettuali e filosofiche risulti notevolmente acceso.
Le origini della meccanica quantistica vanno ricercate proprio nella fondamentale
incapacità degli schemi concettuali classici di rendere conto di alcuni basilari fenomeni
fisici. L’assetto che alla fine dell’Ottocento aveva raggiunto la fisica classica, e cioè la
meccanica, la termodinamica e l’elettromagnetismo, sembrava definitivo; rimanevano
da sciogliere certe incongruenze, ma si pensava fossero dovute a limiti tecnologici e
problemi di calcolo, non certo a carenze concettuali delle teorie.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
544!
Il quadro concettuale verso la fine del XIX secolo era: va riconosciuta una
esistenza reale sia ai corpuscoli materiali discreti che ai campi continui. Questi enti fisici
evolvono in modo preciso nello spazio sotto l'influenza delle loro mutue interazioni
codificate dalle equazioni della meccanica e dell'elettromagnetismo le quali dovrebbero
consentire, almeno in linea di principio, la comprensione di tutti i processi del mondo
fisico. È facile immaginare la crisi che conseguì all'identificazione di alcuni semplici
processi
fisici
che
risultavano
assolutamente incomprensibili secondo le
teorie ora menzionate e che resistevano ad
ogni tentativo di ricondurli all'interno della
visione classica del mondo. Passiamo ad
analizzarne alcuni.
"
"
Le righe spettrali: gli atomi possono
emettere onde elettromagnetiche ma solo
in impulsi di frequenze discrete molto
specifiche, le righe spettrali. Le
frequenze che si osservano non hanno
alcuna base dal punto di vista della
teoria classica.
"
La dipendenza dalla temperatura del colore degli oggetti: è esperienza comune che
molti corpi, quali ad esempio una sbarra di ferro, cambiano colore al variare della
loro temperatura. Il processo in esame coinvolge effetti termodinamici i quali
comportano un aumento dell'agitazione termica dei costituenti del corpo materiale in
oggetto. Questi costituenti sono, come ben noto, particelle elettricamente cariche, e le
leggi dell'elettromagnetismo implicano che cariche in moto non uniforme emettano
radiazioni elettromagnetiche, che, se opportune condizioni sono verificate, ci
appaiono come luce. Quindi, anche se i processi in gioco risultano alquanto
complessi essi, in accordo con la discussione precedente, rientrano tutti nell’ambito
tipico della fisica classica e pertanto dovrebbe risultare perfettamente possibile
renderne conto all'interno di questo schema concettuale. Purtroppo, questa speranza
si rivelò infondata. Malgrado gli sforzi assidui della comunità scientifica non risultò
in alcun modo possibile spiegare un processo tanto comune quanto quello ora
descritto in termini delle leggi della meccanica e dell'elettromagnetismo classici.
Questo restò un mistero irrisolto fino a quando Max Planck non avanzò un'ipotesi
assolutamente rivoluzionaria che sconvolse tutte le idee classiche circa la luce, o, per
essere più precisi, circa le radiazioni elettromagnetiche.
Gli atomi e le loro proprietà: Alla fine del XIX secolo e agli inizi del XX, una serie di
interessanti ricerche, le più rilevanti delle quali erano state condotte da Rutherford,
avevano condotto a un modello dell'atomo molto simile a quello che oggi tutti
utilizziamo. Un atomo veniva concepito come un sistema planetario in miniatura con
un nucleo, carico positivamente, nel quale è concentrata quasi tutta la massa
dell'atomo stesso. Attorno al nucleo, vari elettroni carichi negativamente e il cui
numero è tale da neutralizzare la carica positiva del nucleo, ruotano come i pianeti
attorno al Sole. L'attrazione che, secondo la legge di Coulomb, si esercita tra cariche
di segno opposto fa sì che ogni elettrone venga attratto dal nucleo e sostituisce
l'attrazione gravitazionale tra Sole e pianeti. Risulterà perciò ancora una volta
545!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
alquanto sorprendente che questa analogia abbastanza naturale tra la struttura
atomica e quella di un sistema planetario risulti assolutamente insostenibile
all'interno dello schema classico per i seguenti motivi:
a) La costanza delle proprietà degli atomi - Viene naturale chiedersi come è
possibile che tutti gli atomi di uno stesso elemento, per esempio l'ossigeno,
esibiscano assolutamente le stesse proprietà fisiche comunque essi siano stati
prodotti, e come possono queste proprietà persistere, immutabili, anche allorché i
sistemi in questione sono sottoposti a processi notevolmente invasivi quali la
fusione, l’evaporazione e, successivamente, vengono riportati alle condizioni
iniziali? Un fatto analogo risulta del tutto impossibile per un sistema classico
quale un sistema planetario. Infatti le orbite dei pianeti, soprattutto in un sistema
a molti corpi, dipendono in modo assolutamente critico dalle condizioni iniziali.
Interazioni sia pure di piccolissima entità con altri sistemi determinano
cambiamenti rilevanti nell'evoluzione e alterano la struttura di un sistema
siffatto. Quindi, fissato il nucleo di un atomo e il corrispondente numero degli
elettroni che ruotano attorno ad esso, le effettive proprietà fisiche e chimiche del
sistema risultante dovrebbero mostrare una enorme variabilità. Si avrebbero così
tanti atomi con un nucleo uguale a quello dell'ossigeno, atomi che
corrisponderebbero ai diversi modi in cui il nucleo, per così dire, ha catturato i
suoi elettroni all'atto della sua formazione. Ma tutta la fenomenologia fisica e
chimica mostra che le proprietà di un elemento atomico risultano assolutamente
identiche, indipendentemente dalle condizioni di preparazione e dalle
trasformazioni che può aver subito.
b) Un altro fatto fondamentale genera un insanabile
conflitto tra la stabilità degli atomi e il modello
planetario all'interno dell'edificio concettuale della
fisica classica. Secondo le equazioni della dinamica
classica un sistema di cariche elettriche può stare in
equilibrio solo se le cariche sono in moto. Il fatto che
l'atomo abbia una estensione limitata comporta che le
cariche in esso presenti devono muoversi su orbite circolari o ellittiche (a
somiglianza del caso dei pianeti) e quindi possiedono un'accelerazione. Ma,
secondo le ben confermate leggi dell'elettromagnetismo (le equazioni di
Maxwell), una carica accelerata emette inevitabilmente onde elettromagnetiche,
cioè irraggia. Irraggiando essa perde energia e quindi la sua orbita si restringe
portando la particella a cadere, in tempi brevissimi, sul nucleo. Un calcolo
esplicito porta a concludere che ogni atomo dovrebbe avere una vita
estremamente effimera, cioè che esso potrebbe manifestare proprietà costanti
solo per periodi estremamente brevi (frazioni di secondo), il che contraddice
tutta fenomenologia di siffatti sistemi.
Iniziò così quella crisi che, grazie al lavoro di un gruppo assolutamente
eccezionale di geni come Planck, Einstein, Bohr, Schrodinger, Heisenberg e tanti altri,
scardinò alle fondamenta la visione classica del mondo, catapultando così il Novecento
all’interno di una rivoluzione non solo scientifica, ma anche culturale, che ancora oggi è
in atto.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
546!
11.4 L’inizio della fisica moderna: la scoperta dell’elettrone
L’idea di Democrito della natura discreta della materia, ossia dell’esistenza di
particelle non scomponibili, si concretizzò verso la fine del XIX secolo, quando i fisici
rivolsero la loro attenzione al passaggio dell'elettricità nei gas. Da molti decenni era
risaputo che i gas, i quali in condizioni ordinarie sono ottimi isolanti elettrici, possono
innescarsi per effetto di alte tensioni elettriche.
Sir Williams Crookes (1832–1919) dimostrò che il passaggio dell'elettricità in un
gas poteva aver luogo assai più facilmente a pressioni ben inferiori alla pressione
atmosferica. I tubi di Crookes emanavano una tenue luminosità, il cui colore dipendeva
dalla natura del gas. Crookes notò, inoltre, che avvicinando un magnete al tubo il fascio
luminoso deviava dalla sua traiettoria allo stesso modo di una corrente elettrica o di
uno sciame di particelle cariche negativamente. Pressoché contemporaneamente, il
francese Jean Perrin (1870–1942) scoprì che una lastra metallica interposta sul cammino
del fascio si elettrizzava acquistando una carica negativa.
Tutte queste indagini sembravano indicare il passaggio di particelle di carica
negativa attraverso un gas rarefatto, allo stesso modo in cui gli ioni di Faraday
attraversavano i liquidi nel processo
dell'elettrolisi. La differenza essenziale era
naturalmente che, mentre nell'elettrolisi gli
ioni dovevano farsi strada lentamente
attraverso
le
molecole
strettamente
compresse del liquido e raggiungevano
sempre, prima o poi, l'elettrodo opposto, i
raggi catodici, come furono chiamati,
procedevano nei gas rarefatti in linea retta
colpendo ogni ostacolo posto sul loro
cammino.
L'incarico di dimostrare che i raggi catodici erano fasci di particelle fu assegnato
a Joseph J. Thomson (1856–1940; Premio Nobel) che dirigeva il famoso Laboratorio
Cavendish, uno dei maggiori centri di ricerca dell'epoca. Thomson, supponendo che i
raggi catodici fossero particelle veloci, decise di misurarne la massa e la carica elettrica.
Mediante la famosa esperienza, Thomson riuscì a determinare il rapporto e/m tra la
carica elettrica e la massa (il cui valore, oggi accettato, è e/m = 1,759·1011 C/kg) di queste
particelle. Anche se non fu il primo a osservare i raggi catodici, la scoperta dell'elettrone
è generalmente attribuita a Thomson. Il suo merito, oltre ad aver eseguito accurate
misure dei parametri fisici di questa particella, è quello di avere considerato l'elettrone
come un costituente dell'atomo. Nella sua relazione On the existence oJ smaller than atoms,
presentata nel 1899 al Congresso di Fisica di Dover, definì i corpuscoli provenienti dal
catodo: "un nuovo stato della materia corrispondente ad una entità subatomica di un
edificio (l’atomo) sicuramente molto complesso". Secondo Thomson, un atomo era
costituito da una sfera di materiale ponderabile carica positivamente nella quale erano
sparpagliati casualmente gli elettroni. Il suo, come si suol dire, era un "modello statico",
cioè gli elettroni erano ritenuti in quiete all'interno dell'atomo in certe posizioni di
equilibrio determinate dall'uguaglianza tra le forze di repulsione elettrostatica fra gli
elettroni tutti carichi negativamente e le forze di attrazione elettrostatica fra gli stessi
547!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
elettroni ed il centro dell'atomo carico positivamente. La conferma sperimentale che
l'elettrone era effettivamente una frazione dell'atomo si ebbe con la misura della sua
carica e, che permise, noto il valore del rapporto e/m, di calcolarne la massa.
La prima misura diretta del valore di e, anche se piuttosto grossolana, fu fatta da
John S.E. Townsend (1868-1957), brillante studente di Thomson. Solo con la più raffinata
tecnologia dell'esperienza di Robert Millikan (1868-1953; Premio Nobel), la carica
dell'elettrone (oggi nota col valore e=1,602⋅10-19 C) fu determinata con maggiore
precisione. Il valore di e, combinato con quello di e/m, fornisce per la massa
dell’elettrone il valore m=9,11·10-31 kg, ed essendo circa 1800 volte minore della massa
dell'atomo più piccolo (idrogeno), il valore trovato dimostra che l'elettrone è solo una
piccola parte dell'atomo.
Un buon numero delle più importanti scoperte avvenute verso la fine del XIX
secolo, e che ebbero la funzione di trasformare rapidamente la fisica dalla sua forma
classica a quella moderna, furono del tutto casuali. Il 10 novembre 1895 il fisico tedesco
Konrad Rontgen (1845–1923), mentre eseguiva alcuni esperimenti sui raggi catodici con
un tubo di Crookes, notò che uno schermo fluorescente posto per caso nei pressi del
tavolo diventava intensamente luminoso quando la corrente elettrica attraversava il
tubo. Rontgen coprì il tubo con un pezzo di carta nera, ma la fluorescenza sullo schermo
non scomparve, mentre un foglio sottile di metallo la eliminava completamente.
Esisteva, quindi, una nuova radiazione, che chiamò raggi X, emessa dal tubo che poteva
facilmente attraversare materiali opachi alla radiazione visibile.
L'emissione dei raggi X è oggi interpretata come il risultato dell'urto degli
elettroni veloci, che costituiscono i raggi catodici, sul bersaglio posto sulla loro
traiettoria, al quale essi cedono la loro energia cinetica sotto forma di onde
elettromagnetiche di piccola lunghezza d'onda. I raggi X si manifestano come un
miscuglio con uno spettro continuo di lunghezze d'onda, chiamato radiazione di
Bremsstrahlung (Bremse=freno, Strahlung=radiazione).
Poiché i raggi X non venivano deflessi in un campo elettrico e magnetico, non
potevano trattarsi di particelle cariche, per cui Rontgen aveva supposto sin dall’inizio
che essi fossero vibrazioni simili alla luce ordinaria; ma se questa supposizione fosse
stata esatta, i raggi X avrebbero dovuto subire il fenomeno della diffrazione, che
Rontgen non aveva osservato, dato che i consueti metodi ottici non lo permettevano.
Dodici anni dopo la sua scoperta, Rontgen fu invitato dal giovane fisico teorico
Max von Laue (1879–1960) ad esaminare alcuni fotogrammi. A prima vista Rontgen
s'accorse che si trattava proprio di ciò che egli aveva cercato invano per anni, cioè delle
bellissime figure di diffrazione prodotte da raggi X passando attraverso un cristallo, il
quale, presentando una struttura cristallina nella quale i raggruppamenti atomici sono
regolarmente disposti a distanza dell’ordine di 10-10 m, fu utilizzato come reticolo di
diffrazione. Si stabilì così che i raggi X hanno una natura ondulatoria.
Successivamente si scoprì che, oltre alla radiazione continua di Bremsstrahlung, i
raggi X contenevano anche delle sequenze di righe nette simili a quelle degli spettri
ottici e prodotte da processi di transizioni di elettroni all'interno degli atomi.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
548!
11.5 La radiazione di corpo nero e l’ipotesi di Planck
Tutti i tentativi di spiegare lo spettro d’irraggiamento di un corpo al
variare della sua temperatura in termini delle teorie classiche erano
miseramente falliti.
Max Planck (1858-1947; Premio Nobel) mostrò che una soluzione del
problema poteva ottenersi ammettendo che gli scambi di energia tra radiazione e
materia avvenissero non in modo continuo, come implicato dal modello classico
secondo il quale, per esempio, il campo elettrico associato a un’onda investendo una
particella carica la fa oscillare cedendole così energia, ma che un campo potesse
scambiare energia con la materia solo in quantità fisse, ossia per “quanti” discreti.
L'ipotesi di Planck, che rappresenta certamente una delle tappe decisive nello
sviluppo della moderna concezione scientifica, non ottenne immediatamente il
consenso che meritava, proprio a causa della difficoltà di accettare la rottura che tale
ipotesi introduceva nella continuità dei fenomeni naturali, allora universalmente
accettata, e che rappresentava un ostacolo insormontabile per la concezione causale del
mondo insita nella fisica classica. Ma l’ipotesi dei quanti, all'inizio del secolo, sembrava
un'ipotesi irragionevole soprattutto in relazione al fatto che riproponeva in definitiva, i
corpuscoli di luce di Newton, e cioè la ricomparsa antistorica di una teoria considerata
ormai superata e screditata. Questa ipotesi apparve allo stesso Planck come un artificio
matematico, una costruzione astratta che non comportava direttamente la necessità di
un mutamento profondo nella concezione della realtà. Planck si vide, in un certo senso,
costretto ad introdurre l’ipotesi allorché si rese conto che non esistevano altre vie per
dare una base teorica ai fenomeni dell'irraggiamento.
Vediamo ora come, partendo dal problema dell'irraggiamento del corpo nero
(definito come un corpo in grado di assorbire tutte le radiazioni elettromagnetiche che
lo investono, siano esse infrarosse, visibili, ultraviolette o X), Planck arrivò a formulare
l'ipotesi dei quanti di energia.
La teoria classica del corpo nero, basata sui principi della termodinamica e sulle
leggi dell’elettromagnetismo, non era in grado di riprodurre la distribuzione spettrale
della radiazione emessa. Infatti Sir James Jeans (1877-1946), attraverso un esperimento
ideale, arrivò a dei risultati alquanto paradossali ed in contrasto con le leggi della fisica
allora conosciute.
Immaginiamo un oggetto che abbia una certa temperatura ben definita, con la
radiazione elettromagnetica in equilibrio con le particelle. Jeans aveva calcolato che
tutta l'energia sarebbe stata assorbita dal
campo senza limite. In questa situazione è
implicita un'assurdità fisica (la catastrofe
dell'ultravioletto: l'energia continua ad essere
assorbita dal campo, a frequenze sempre
maggiori, senza fine), mentre in realtà la
natura si comporta con maggiore prudenza.
Alle basse frequenze di oscillazione del
campo, l'energia è come aveva predetto
Jeans, ma all'estremo superiore, dove aveva
predetto la catastrofe, l'osservazione reale
mostrò che la distribuzione dell'energia non
549!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
aumenta senza limite, scendendo invece a zero all'aumentare delle frequenze. Il
massimo valore dell'energia si ha a una frequenza (ossia colore) molto specifica per una
temperatura data.
La curva blu rappresenta la distribuzione spettrale della radiazione di corpo
nero, come è ottenuta sperimentalmente a una data temperatura; quella verde mostra
l’andamento della distribuzione previsto in base alla teoria classica. L’andamento
previsto dalla teoria classica ha una conseguenza assurda: l’energia totale irraggiata, e
quindi l’energia contenuta nel corpo nero, dovrebbe essere infinita.
Il 14 dicembre del 1900 Planck presentò all'Accademia delle Scienze una
comunicazione con la quale propose, per la radianza spettrale R(f, T) del corpo nero in
funzione della frequenza e della temperatura assoluta, l'espressione:
RADIANZA SPETTRALE DEL CORPO NERO
R(f, T) =
2π
c2
hf 3
⋅
e
hf
kB T
−1
dove h è la costante di Planck, destinata a ricoprire un ruolo fondamentale nella fisica
quantistica.
La formula di Planck riproduceva lo spettro di emissione del corpo nero
correttamente per tutte le frequenze. A Planck fu presto chiaro che la sua formula,
ricavata empiricamente dai risultati sperimentali, senza però offrire nessuna
giustificazione reale per la sua proposta, aveva come fondamento teorico un'assunzione
del tutto nuova, riguardante la modalità di scambio dell'energia fra materia e
radiazione. Secondo la teoria di Maxwell, ogni carica elettrica oscillante emette energia
sotto forma di onde elettromagnetiche. Perciò ogni corpo irraggia a causa delle
oscillazioni delle cariche elettriche distribuite negli atomi che lo costituiscono. Nella
fisica classica, ognuno di questi microscopici oscillatori scambia energia con continuità,
in misura tanto maggiore quanto più ampia è l'oscillazione e indipendentemente dalla
sua frequenza. La distribuzione spettrale di Planck, invece, può essere dedotta matematicamente purché si supponga che ogni oscillatore emetta o assorba energia solo
per quantità discrete. Si deve ipotizzare, cioè, che ciascun oscillatore modifichi il suo
contenuto energetico scambiando "pacchetti" di energia di valore fissato, secondo la
seguente condizione:
CONDIZIONE DI QUANTIZZAZIONE DI PLANCK
Una carica elettrica oscillante può scambiare energia con la radiazione elettromagnetica solo
per quantità discrete ∆E, legate alla frequenza f di oscillazione da:
!! ! !!
Pertanto, poiché ogni variazione di energia si manifesta solo per salti, l'energia En
posseduta da un oscillatore di frequenza f deve essere un multiplo intero del valore
minimo h f:
En = nhf
con n = 1,2,3,…
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
54:!
L'energia viene a essere, dunque, una grandezza fisica quantizzata, che può
assumere solo valori discreti. A ciascun possibile valore En dell'energia di un oscillatore
è associato un diverso stato quantico, contrassegnato dal numero quantico n: quando
l'oscillatore cede un quanto di energia ∆E , compie una transizione dallo stato quantico
n-esimo allo stato quantico (n - 1)-esimo e la sua energia diventa En-1 = (n - 1)⋅h f
Planck, che era un uomo prudente e conservatore, nonostante la sua scoperta, si
rifiutò di credere che l’energia elettromagnetica potesse esistere ed essere scambiata
solo in piccole unità. A far sì che la radiazione saltasse fuori in quanti discreti, pensava,
doveva piuttosto essere qualcosa legato al modo in cui gli oggetti materiali emettono
energia. Negli anni seguenti, Planck combattè strenuamente, senza riuscirci, per trovare
una spiegazione accettabile del fatto che l’energia dovesse emergere così, a piccole
quantità.
11.6 La realtà dei quanti: l’effetto fotoelettrico e l’effetto Compton
L'introduzione del concetto di "atomicità" nel regno dell'energia, che inizialmente
sembrava imposta solo dalla necessità di risolvere un’inconsistenza nella descrizione
teorica dell'irraggiamento del corpo nero si rivelò presto una delle teorie fondamentali
per interpretare numerosi fenomeni, per i quali la fisica prequantistica non riusciva a
fornire una valida spiegazione.
Solo cinque anni dopo la prima ipotesi di Planck, il quanto venne riconosciuto,
per merito di Einstein, come un’entità fisica reale. Nel primo dei tre famosi articoli
pubblicati nel 1905, Einstein introdusse i quanti di luce, o fotoni, per sviluppare su basi
quantistiche l'interazione fra la radiazione e la materia. Mentre Planck aveva
quantizzato solo l'energia associata alla radiazione uscente dal corpo nero, per Einstein
la discontinuità insita nella dottrina dei quanti divenne un concetto fondamentale,
generalizzato a qualsiasi tipo di radiazione. Questa ipotesi, fra le altre conseguenze,
permise di interpretare le leggi sperimentali dell'effetto fotoelettrico.
Nel 1887 Hertz aveva casualmente scoperto che,
illuminando una placca metallica di zinco con una
radiazione ultravioletta, il metallo si caricava
elettricamente. Solo dopo che gli elettroni furono
riconosciuti, grazie alle misure di Thomson nel 1897,
come componenti elementari della materia, si capì che
il fenomeno, chiamato poi effetto fotoelettrico, era
dovuto all'emissione di elettroni provocata nel metallo
da radiazioni elettromagnetiche di frequenza
sufficientemente elevata (raggi X, raggi ultravioletti e
talvolta anche radiazioni luminose).
Però l’effetto fotoelettrico mostrava delle strane proprietà che non potevano
essere spiegate con la teoria elettromagnetica classica. Infatti, è ragionevole aspettarsi
che se l’energia della luce incidente è poca, il fenomeno non avvenga, e invece avvenga
in presenza di energia sufficiente. Invece ciò che succede è che il fenomeno dipende
dalla frequenza, ossia avviene solo se la frequenza della luce è alta. Allora Einstein,
ammettendo che la radiazione elettromagnetica fosse formata da pacchetti di energia, i
55<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
quanti del campo elettromagnetico, successivamente chiamati fotoni, che dipendono
appunto dalla frequenza, giunse alla seguente conclusione:
QUANTIZZAZIONE DELLA LUCE
Ogni radiazione elettromagnetica, come la luce, può essere considerata, indipendentemente
dalla sorgente, come una corrente di quanti (fotoni), ciascuno dei quali possiede l’energia:
E = hf
In questo modo il fenomeno dell’effetto fotoelettrico aveva la sua spiegazione.
Immaginando che la luce arrivi in maniera granulare, in grani di energia, un elettrone
viene sbalzato fuori dal suo atomo se il singolo grano che lo colpisce ha molta energia
(frequenza elevata) e non se ci sono tanti grani, ma di bassa energia (bassa frequenza).
Ossia luce molto intensa (energia elevata) ma costituita da fotoni di bassa energia (bassa
frequenza), non fa avvenire il fenomeno; mentre, anche un singolo fotone, purchè abbia
l’energia giusta (alta frequenza), può far avvenire il fenomeno. In definitiva, l’effetto
fotoelettrico è regolato dalle seguenti leggi:
1. Per un data frequenza della luce incidente, l’energia dei fotoelettroni emessi non
cambia, mentre il loro numero aumenta in modo direttamente proporzionale
all’intensità luminosa.
2. Al variare della frequenza f della luce incidente, dalle frequenze minori alle maggiori,
non avviene emissione di elettroni finché non si raggiunge una certa frequenza di
soglia f0, dipendente dal metallo. Per frequenze maggiori l’energia dei fotoelettroni
aumenta in modo direttamente proporzionale alla differenza tra la frequenza usata e la
frequenza di soglia:
1
me v2max = h(f − f0 )
2
La seconda legge può essere considerata come la prima equazione della teoria
quantistica dell’interazione fra radiazione e materia. Se un quanto di luce colpisce,
interagendo con un elettrone, la superficie di un metallo, esso cede tutta la sua energia a
quell'elettrone. Una maggiore intensità di luce incidente corrisponde ad un maggiore
numero di quanti di luce della stessa frequenza e quindi libera un maggior numero di
elettroni della stessa energia cinetica. La situazione è diversa quando invece aumenta la
frequenza della luce incidente. Ogni quanto di luce cede ora all'elettrone una maggiore
quantità d'energia e questo sarà espulso con una maggiore energia cinetica dal metallo.
Nell'attraversare la superficie del metallo, l'elettrone perde una certa frazione
dell'energia conferitagli dal quanto di luce, e tale quantità dipende dalla natura del
metallo ed è nota col nome di "lavoro di estrazione W'. L'energia del fotoelettrone
emesso è data dalla seguente relazione: E=hf-W. In questo modo Einstein, in un sol
colpo, spiegò agevolmente le leggi dell'effetto fotoelettrico e diede un vigoroso impulso
all'idea originale di Planck sui pacchetti d'energia radiante.
Secondo la teoria classica della diffusione, quando un'onda elettromagnetica
interagisce con una particella carica, la radiazione diffusa, qualunque sia la sua
direzione, deve avere la stessa lunghezza d'onda e , quindi la stessa frequenza della
radiazione incidente. Come invece mise in evidenza Arthur Compton (1892-1962;
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
55;!
Premio Nobel) nel 1922, la radiazione diffusa presenta una frequenza che dipende
dall'angolo di diffusione ed è comunque minore di quella incidente. Questo fenomeno,
noto come effetto Compton, rappresenta una delle più importanti prove sperimentali
della validità dell'interpretazione quantistica della radiazione elettromagnetica, nonché
una conferma delle leggi di conservazione dell'energia e della quantità di moto a livello
microscopico.
Consideriamo una radiazione monocromatica, per esempio un fascio di raggi X,
che attraversi una sottilissima lamina di grafite. Compton dimostrò che il processo di
diffusione può essere spiegato assumendo che i fotoni della radiazione incidente
interagiscano ciascuno con uno degli elettroni atomici della grafite. Poiché questi sono
legati molto debolmente, possono essere considerati praticamente liberi e l'interazione
fotone-elettrone può essere descritta come una specie di urto perfettamente elastico fra
due palle da biliardo. Come si osserva sperimentalmente, la maggior parte della
radiazione diffusa dalla lamina presenta una frequenza minore di quella del fascio
incidente e quindi una lunghezza d'onda maggiore. Lo spostamento della lunghezza
d'onda è una conseguenza della conservazione dell'energia e della quantità di moto
nell'urto. Se l'energia del fotone incidente è sufficientemente elevata, il quanto di
energia non viene completamente assorbito come accade nell'effetto fotoelettrico, bensì,
dopo aver espulso l'elettrone, mantiene una parte della sua energia e della sua quantità
di moto, continuando a propagarsi come radiazione di lunghezza d'onda maggiore.
Consideriamo un singolo fotone della
radiazione incidente, di lunghezza d'onda λ,
che urta una particella libera di massa mo,
inizialmente ferma. Se λ' è la lunghezza d'onda
del fotone diffuso, tenendo conto della
conservazione dell'energia e della quantità di
moto espresse in forma relativistica otteniamo
che la variazione ∆λ=λ’-λ della lunghezza
d'onda dipende dall'angolo di diffusione del
fotone, cioè dall'angolo formato dalla direzione
di incidenza e la direzione lungo la quale il fotone emerge dopo l'urto, nella forma seguente:
SPOSTAMENTO COMPTON DELLA LUNGHEZZA D’ONDA
Indicando con φ l’angolo di diffusione del fotone, la variazione della sua lunghezza d’onda è:
∆λ =
h
⋅ (1 − cos ϕ)
m0c
11.7 I primi modelli di atomo
L’esistenza degli atomi era stata argomento di intenso dibattito scientifico e
filosofico durante tutto il XIX secolo. Ma la loro realtà era stata accertata al di là di ogni
ragionevole dubbio dalle numerose prove scientifiche, tra le quali due decisive: la
55=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
spiegazione di Einstein del moto browniano e la scoperta di Rutherford della
trasformazione radioattiva degli elementi.
Le conoscenze acquisite con lo studio dei raggi catodici e le osservazioni condotte
sull'elettrolisi, l'effetto fotoelettrico, i raggi X, la radioattività, ecc., nonché le proprietà
degli spettri ottici di emissione e di assorbimento dei gas, avevano indotto i fisici a
considerare l'atomo come un sistema complesso dotato di una struttura interna. Era
quindi naturale cercare di elaborare un modello di atomo che potesse interpretare i fatti
sperimentali della fisica atomica. Logicamente, ogni rappresentazione modellistica
doveva tener conto di due fatti:
ogni elemento di materia in condizioni normali è elettricamente neutro, quindi un
atomo deve possedere una carica positiva uguale a quella negativa dei suoi elettroni;
2. la massa atomica è molto più grande di quella elettronica, per cui la carica positiva
deve essere associata alla quasi totalità della massa dell'atomo.
1.
Sulla base di queste considerazioni si presentò dapprima il problema di stabilire
il numero degli elettroni esistenti negli atomi degli elementi chimici conosciuti e di
vedere poi come le cariche, equamente bilanciate, erano distribuite nell'edificio atomico.
Nei primi anni del secolo XX furono ideati vari modelli che, pur riuscendo a
interpretare qualche risultato sperimentale, erano incompleti e approssimati,
soprattutto perchè fondati solo sulla cosiddetta fisica classica.
Un tentativo di dare un'immagine concreta alla struttura atomica fu fatto da
Thomson nel 1902. L'atomo veniva raffigurato come una sfera
materiale di raggio ≈1010m, nella quale la carica positiva era
distribuita uniformemente, mentre gli elettroni, in numero tale da
equilibrare la carica positiva dell'elemento considerato, erano
disseminati all’interno della materia. Gli elettroni rimanevano in
uno stato di equilibrio, in quanto erano soggetti sia a una forza
elettrostatica attrattiva verso il centro dell'atomo, centro di
simmetria della carica positiva, sia alle mutue forze di repulsione,
anch'esse di natura elettrostatica, agenti fra le cariche negative. Thomson immaginava
questi elettroni atomici disposti in un modo caratteristico in una serie di anelli
concentrici. E sosteneva che erano il diverso numero e la diversa distribuzione degli
elettroni negli atomi d’oro e di piombo, per esempio, a distinguere i metalli l’uno
dall’altro. Poiché tutta la massa di un atomo di Thomson era dovuta agli elettroni che
conteneva, ciò significava che ce n’erano migliaia anche negli atomi più leggeri.
Secondo il modello di Thomson, quando la materia acquista energia, gli atomi
vengono eccitati e gli elettroni cominciano a vibrare come tanti oscillatori, emettendo
onde elettromagnetiche di frequenza corrispondente alla frequenza di oscillazione.
Attraverso complicati calcoli basati solo sulla meccanica classica, Thomson e i suoi
allievi riuscirono a ricavare, anche se in modo approssimato, alcune frequenze delle
righe spettrali emesse dagli atomi energeticamente eccitati.
Ernest Rutherford (1871–1937; Premio Nobel) non era troppo convinto del
modello atomico di Thomson ed elaborò il cosiddetto modello planetario degli elettroni o
modello dell’atomo nucleare. L'esperimento che contribuì alla nascita del modello nucleare
dell'atomo consisteva nel bombardare una lamina sottile di metallo con particelle α
(alfa), che non sono altro che fasci di ioni di elio carichi positivamente ed emessi ad
altissima energia (≈107 m/s) da atomi instabili e capaci di attraversare sottili strati di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
554!
materia. Durante l’interazione con le particelle cariche dell'atomo, le particelle alfa
devono essere deviate dalla loro traiettoria originaria e la conseguente diffusione del
fascio deve fornire informazioni sulla distribuzione
delle cariche elettriche all'interno degli atomi.
Il risultato degli esperimenti fu che la
diffusione delle particelle alfa attraverso le lamine
metalliche era considerevole e, sebbene un gran
numero di particelle del fascio incidente mantenesse
la propria direzione originaria, almeno altrettante
venivano deflesse di molti gradi ed alcune erano
addirittura riflesse all'indietro. Questo risultato non
si adattava molto al modello atomico di Thomson,
secondo il quale le masse e le cariche elettriche
erano distribuite quasi uniformemente in tutto
l'atomo.
L'unica spiegazione accettabile era che l’atomo
fosse un sistema quasi del tutto vuoto, con una parte
impenetrabile,
molto
piccola
rispetto
alle
dimensioni atomiche, nella quale era concentrata la carica positiva e quasi totalità della
massa di un atomo. Al di fuori di questo nucleo, la maggior parte del volume
dell’atomo doveva costituire lo spazio in cui orbitavano gli elettroni ed essere pertanto
quasi privo di materia.
Per controllare se una tale ipotesi giustificasse
esattamente i risultati sperimentali ottenuti,
sarebbe stato necessario trattare il fenomeno
secondo le leggi della meccanica classica e ricavare
una formula che esprimesse la deflessione subita
dalle particelle che passano a varie distanze dal
centro di repulsione. La formula è la seguente:
2
 ze2 
dΩ
 ⋅
dN = nN 
2
 mv 
ϑ

 sin4
2
ed è in perfetto accordo con le curve di diffusione
osservate sperimentalmente. In questo modo nacque un quadro del tutto nuovo
dell’atomo, con un nucleo centrale piccolissimo ma dotato di una certa massa e
fortemente carico, che Rutherford chiamò nucleo atomico, ed uno sciame di elettroni
ruotanti attorno ad esso per attrazione coulombiana.
In seguito alcuni collaboratori di Rutherford, tra cui Hans W. Geiger (1882–1945),
scoprirono che la carica positiva di un nucleo atomico, è uguale al numero di posizione,
o numero atomico, dell'elemento in esame nel Sistema Periodico degli Elementi. Era nato
l'attuale quadro della struttura di un atomo.
555!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
11.8 L’atomo di Bohr e l’origine della meccanica quantistica
Un atomo con elettroni stazionari disposti intorno ad un nucleo positivo sarebbe
instabile, perché gli elettroni con la loro carica negativa sarebbero irresistibilmente
attratti verso il nucleo. E anche se si muovessero intorno al nucleo, come i pianeti
intorno al Sole, l’atomo ugualmente sarebbe destinato al collasso. Newton aveva
mostrato che qualunque corpo in moto circolare subisce un’accelerazione, e Maxwell
che tale corpo, se è una particella carica come l’elettrone, emette continuamente energia
sotto forma di radiazione elettromagnetica.
Pertanto, Niels Bohr (1885-1962; Premio Nobel), la prima difficoltà che
dovette superare era che, se fosse stata vera la teoria di Rutherford, gli atomi
sarebbero potuti esistere solo per una piccolissima frazione di secondo, cosa
che in realtà non avveniva. Si può facilmente dimostrare che gli elettroni
atomici si muoverebbero su traiettorie a spirale terminando la loro corsa nel
nucleo in un tempo dell'ordine di 10-8 sec. Mentre altri avevano interpretato questi
problemi di instabilità come prove schiaccianti contro l’atomo nucleare di Rutherford,
per Bohr essi erano sintomi delle limitazioni della fisica classica che ne prediceva il
collasso. Dal momento che la fisica di Newton e Maxwell era stata applicata in modo
impeccabile e prediceva che gli elettroni precipitassero nel nucleo, Bohr ammise che la
questione della stabilità dell’atomo doveva perciò essere trattata da un punto di vista
diverso. Comprendeva infatti che per salvare l’atomo di Rutherford era necessario un
mutamento radicale, e si rivolse al quanto introdotto da Planck nella sua equazione e
usato da Einstein per spiegare l’effetto fotoelettrico.
Bohr pensò che se l'energia radiante poteva esistere solo in certe quantità minime
o in multipli di queste quantità, perché non fare la stessa ipotesi sull’energia meccanica
degli elettroni ruotanti attorno al nucleo? In
questo caso il moto degli elettroni nello
stato
fondamentale
di
un
atomo
corrisponderebbe a queste minime quantità
d'energia, mentre gli stati eccitati
corrisponderebbero ad un maggior numero
di questi quanti di energia meccanica. Se il
moto degli elettroni atomici e la luce emessa da questi vengono entrambi quantizzati,
allora la transizione di un elettrone da un livello quantico più elevato ad uno più basso
all'interno di un atomo provoca l'emissione di un quanto di luce di energia E=hf uguale
alla differenza di energia tra i due livelli, tale da garantire la conservazione dell’energia
totale; inversamente, se l'energia hf di un quanto di luce incidente è uguale alla
differenza di energia tra lo stato fondamentale ed uno stato eccitato, il quanto sarà
assorbito da un elettrone, il quale subirà una transizione dal livello più basso ad uno
più alto:
hfij = Ei − E j
Da questi scambi energetici tra la materia e la radiazione possiamo ricavare
un’importante conclusione: se un quanto di luce di energia di energia hf32 può essere
emesso quando un elettrone passa da uno stato di energia E3 a uno di energia E2 e se la
transizione dallo stato di energia E2 a quello di energia E1 provoca l’emissione di un
quanto di luce di energia hf21, si dovrebbe osservare, almeno in alcuni casi, anche un
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
556!
quanto di luce di energia hf32+hf21 = h(f32+f21), cioè una transizione diretta dallo stato E3
allo stato E1. Analogamente l’emissione di un quanto di luce di energia hf31 e di uno di
energia hf32 indica la possibilità di emissione di un quanto di energia hf31–hf32 = h(f31f32). In sostanza si può affermare che:
PRINCIPIO DI COMBINAZIONE DI RYDBERG
Se in uno spettro compaiono due righe di emissione aventi certe frequenze, nello stesso
spettro devono comparire anche le righe corrispondenti alla somma delle due frequenze ed
alla loro differenza.
Questo principio fu scoperto empiricamente dallo spettroscopista tedesco
Johannes R. Rydberg (1854-1919) molto tempo prima della nascita della teoria dei
quanti. Per spiegare la stabilità dell’atomo e il fatto che l’elettrone, pur soggetto ad
accelerazione centripeta nel suo moto rotatorio intorno al nucleo, non irraggi energia,
Bohr confinò gli elettroni su orbite speciali in cui non potevano emettere con continuità
radiazioni né cadere a spirale nel nucleo, e così quantizzò le orbite elettroniche, ossia gli
elettroni, di tutte le orbite permesse dalla fisica classica poteva occuparne soltanto
alcune, i cosiddetti stati stazionari. Bohr arrivò così a formulare i seguenti due postulati:
POSTULATI PER LA QUANTIZZAZIONE DELLE ORBITE E DELL’ENERGIA
1. Un elettrone può descrivere intorno al nucleo solo una successione discreta di orbite,
nel senso che non tutte le orbite sono permesse.
2. Quando un elettrone percorre una data orbita non irraggia energia: il contenuto
energetico dell’atomo varia solo per effetto di una transizione da un’orbita a un’altra.
Tutti i fatti descritti non lasciavano alcun dubbio sulla correttezza dell'idea
formulata da Bohr sulla quantizzazione dell'energia meccanica ma restavano da
scoprire le regole di tale quantizzazione, in particolare occorreva stabilire un criterio per
determinare le orbite accessibili all’elettrone, in modo da ottenere una descrizione dello
spettro atomico consistente con la serie di J. J. Balmer (1825-1898), il quale, elaborando
una notevole mole di dati sperimentali raccolti da un gran numero di spettroscopista,
riuscì per primo a trovare una relazione tra la successione delle lunghezze d’onda delle
righe, situate nella regione del visibile, emesse dall’atomo di idrogeno:
1
1 
 1
= R ⋅ 2 − 2 
λ
n 
2
dove n è un numero positivo maggiore di 2 e R è la costante di Rydberg.
Bohr risolse il problema quantizzando il momento angolare dell’elettrone
secondo la seguente condizione:
CONDIZIONE DI QUANTIZZAZIONE DEL MOMENTO ANGOLARE
Il modulo L del momento angolare dell’elettrone rispetto al nucleo è un multiplo intero della
costante h di Planck, divisa per 2π:
L =n
h
2π
con n = 1,2,3,…2
557!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
In questo modo i valori dell’energia per gli stati stazionari permessi, ossia le
orbite sulle quali l’elettrone è libero di muoversi senza irradiare energia, sono dati da:
En = −
mee4
2
8ε0h
⋅
1
n2
con n = 1,2,3,…
e tali valori sono quantizzati e inversamente proporzionali al quadrato del numero
quantico n. I valori En dell’energia sono chiamati livelli di energia. Quello più basso, che
si ottiene per n=1, rappresenta il cosiddetto livello fondamentale e il corrispondente
stato quantico è lo stato fondamentale. Si dicono stati eccitati quelli con numero
quantico n>1 e livelli eccitati i corrispondenti valori di energia. Per l’atomo d’idrogeno
il livello fondamentale corrisponde a E1 = -13,6 eV, per cui le energie degli stati eccitati
si possono ricavare mediante la relazione:
En =
E1
n2
Dopo questi risultati si capì anche che
la formula di Balmer doveva essere
considerata un caso particolare di una
formula più generale:
1
1 
 1
= R⋅ 2 − 2 
λ
n 
 n'
dove n’ è un numero intero.
Da questa unica relazione si ottengono
tutte le serie spettroscopiche:
per n’ = 1 e n = 2,3,4,… serie di Lyman
nell’ultravioletto
per n’ = 2 e n = 3,4,5,… serie di Balmer
nel visibile
per n’ = 3 e n = 4,5,6,… serie di Paschen
nell’infrarosso
per n’ = 4 e n = 5,6,7,… serie di Brackett
nell’infrarosso
e così via per le atre serie situate nell’infrarosso più lontano.
Nonostante i limiti della teoria legati soprattutto all'introduzione di ipotesi ad
hoc e all'uso non perfettamente coerente di idee quantistiche in un contesto classico, il
modello di Bohr, per la sua relativa semplicità, deve essere considerato un geniale
contributo scientifico di importanza storica, nonché un'incomparabile sorgente di
ispirazione per ricerche teoriche e sperimentali successive. L’atomo quantistico, disse
Rutherford, fu “un trionfo della mente sulla materia”.
L’atomo di Bohr, però, incontrava difficoltà nel spiegare sistemi atomici con più
di un elettrone e la cosiddetta struttura fine, ossia lo sdoppiamento delle righe. Infatti,
se si osserva la materia eccitata mediante un spettroscopio dotato di un alto potere
risolutivo, in grado cioè di separare componenti cromatiche la cui lunghezza d'onda
differisce anche solo di pochi angstrom, alcune righe mostrano una configurazione a
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
558!
multipletti. Per esempio, la riga gialla emessa dal sodio è costituita da un doppietto le
cui componenti hanno lunghezze d'onda separate di circa 6 angstrom.
Arnold Sommerfeld (1868-1951) risolse il problema modificando il modello
atomico di Bohr. Per semplificare il suo modello, Bohr aveva imposto agli elettroni di
muoversi intorno al nucleo soltanto su orbite circolari. Sommerfeld decise di lasciar
cadere questa restrizione, permettendo agli elettroni di muoversi su orbite ellittiche.
Sapeva infatti che, da un punto di vista matematico, le circonferenze erano soltanto una
particolare classe di ellissi, e che pertanto le orbite elettroniche circolari non erano che
un sottoinsieme di tutte le possibili orbite ellittiche quantizzate. Il numero quantico n
nel modello di Bohr specificava uno stato stazionario, un’orbita elettronica circolare
permessa, e il corrispondente livello energetico. Il valore di n determinava anche il
raggio di una data orbita circolare. Viceversa, per definire la forma di un’ellisse sono
necessari due numeri, perciò Sommerfeld introdusse l, il numero quantico orbitale, per
quantizzare la forma di un’orbita ellittica. Di tutte le forme possibili per un’orbita
ellittica, l determinava quelle che erano permesse per un dato valore di n. Nel modello
modificato di Sommerfeld, il numero quantico principale n determinava i valori che l
poteva assumere: se n=1 allora l=1; n=2, l=1 e 2; n=3, l=1,2,3 e così via. Per un dato n, l è
uguale a ogni numero intero da 1 fino a n compreso. Quando n=l l’orbita è sempre
circolare. Viceversa se l<n, l’orbita è ellittica. Per esempio, quando n=1 e l=1, l’orbita è
circolare con un raggio r (raggio di Bohr). Quando n=2 e l=1, l’orbita è ellittica; ma per
n=2 e l=2 si ha un’orbita circolare con un raggio 4r. Perciò quando l’atomo di idrogeno è
nello stato quantico n=2, il suo unico elettrone può trovarsi sia nell’orbita l=1 sia
nell’orbita l=2. Nello stato n=3, l’elettrone può occupare una qualunque delle tre orbite:
n=3 e l=1, ellittica; n=3, l=2, ellittica; n=3, l=3, circolare. Mentre nel modello di Bohr n=3
corrispondeva a un’unica orbita circolare, nell’atomo quantistico modificato di
Sommerfeld c’erano tre orbite permesse. Questi ulteriori stati stazionari potevano
spiegare la suddivisione delle righe spettrali della serie di Balmer.
Per giustificare lo sdoppiamento delle righe spettrali, Sommerfeld fece ricorso
alla teoria della relatività: un
elettrone su un’orbita ellittica
quando si avvicina al nucleo
acquista velocità e la sua massa
aumenta.
Questo
aumento
relativistico della massa dà
origine a una piccolissima
variazione dell’energia. Gli stati
n=2, le due orbite l=1 e l=2, hanno energie differenti perché l=1 è ellittica e l=2 è
circolare. Questa modesta differenza di energia produce due livelli energetici che a loro
volta danno luogo a due righe spettrali dove il modello di Bohr ne prevedeva una sola.
Sommerfeld riuscì a spiegare anche l’effetto Zeeman, secondo il quale in un
campo magnetico una singola riga spettrale si scinde in un certo numero di righe
distinte, e che una volta annullato il campo magnetico la scissione scompare. La
soluzione di Sommerfeld era ingegnosa. Nell’atomo di Bohr-Sommerfeld le orbite erano
circolari o ellittiche e giacenti in un piano. Sommerfeld si rese conto che l’orientazione
di un’orbita era la soluzione per spiegare l’effetto Zeeman. In un campo magnetico un
elettrone può scegliere tra un maggior numero di orbite permesse orientate in varie
direzioni rispetto al campo, e Sommerfeld introdusse quello che chiamò numero
559!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
quantico magnetico m, per quantizzare l’orientazione di tali orbite. Per un dato numero
quantico principale n, m può avere solo valori compresi tra –n ed n. Se n=2, m=-2,1,0,1,2. L’orientazione delle orbite elettroniche, o quantizzazione spaziale, fu confermata
sperimentalmente nel 1921. Essa rendeva disponibili ulteriori stati energetici, ora
contrassegnati dai tre numeri quantici n,l,m, che un elettrone poteva occupare in
presenza di un campo magnetico esterno, e che conducevano all’effetto Zeeman.
Per diversi anni il modello atomico di Bohr-Sommerfeld rappresentò lo schema
fondamentale per interpretare i fatti sperimentali della fisica atomica. Tuttavia,
nonostante i brillanti successi, aveva lasciato spazio a molte perplessità. Da una lettera
di Rutherford leggiamo: "Caro dottor Bohr ... Le sue idee sull'origine dello spettro
dell'idrogeno sono molto ingegnose e sembrano funzionare bene; ma la mescolanza delle
idee di Planck con la vecchia meccanica consente molto difficilmente di fondarsi
un'idea fisica della base di tutto il discorso ... Come fa un elettrone a decidere con quale
frequenza deve vibrare quando passa da uno stato stazionario all'altro? Sembra che si
debba supporre che l'elettrone sappia in partenza dove andrà a finire". L'introduzione
dei postulati di quantizzazione sembrava in effetti del tutto arbitraria. Era difficile
riuscire a giustificare concettualmente il mancato irraggiamento degli elettroni atomici,
obbligati a ruotare solo lungo alcune particolari orbite. Ci si rese conto ben presto che
non era corretto estendere al mondo atomico le leggi del mondo macroscopico: gli
atomi, gli elettroni, i quanti di energia e le altre entità microscopiche non potevano
essere trattati come gli oggetti osservati nella realtà di ogni giorno.
Come la meccanica relativistica, nata dalla revisione di alcuni concetti
riguardanti lo spazio e il tempo, contiene la meccanica classica, così, da una sistematica
revisione del modello di Bohr, si sperava di costruire una nuova meccanica che potesse
dare risultati conformi all'esperienza nelle applicazioni ai domini microscopici e, nello
stesso tempo, tendesse alla fisica classica per quei fenomeni nei quali le discontinuità
quantistiche diventano trascurabili. In questo consiste il:
PRINCIPIO DI CORRISPONDENZA
Le previsioni della meccanica quantistica devono concordare con quelle della meccanica
classica man mano che il sistema quantistico si ingrandisce verso dimensioni macroscopiche. Quando, cioè, la meccanica quantistica è applicata al mondo macroscopico, essa deve
essere in grado di riprodurre le leggi classiche.
La via per arrivare a formulare una nuova fisica atomica iniziò verso il 1924 con
due diverse teorie elaborate quasi contemporaneamente: la meccanica ondulatoria di
Schrodinger e la meccanica delle matrici sviluppata da Heisenberg.
11.9 Dualità onda-corpuscolo nella materia
Come abbiamo visto precedentemente, per risolvere le difficoltà incontrate nei
riguardi dell'effetto fotoelettrico, all'inizio del 1900 si rese necessario attribuire alla
radiazione elettromagnetica proprietà corpuscolari, introducendo i cosiddetti quanti o
fotoni. Questa nuova concezione, proposta da Einstein, fu per molti un vero shock. I
fenomeni di interferenza e diffrazione della luce erano infatti manifestazioni in-
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
55:!
confutabili di una natura ondulatoria. D'altra parte, oltre all'effetto fotoelettrico, anche
altre esperienze, come la diffusione Compton della luce da parte di elettroni liberi, davano fondamento all'ipotesi corpuscolare. Si doveva quindi ammettere che la dualità
onda-corpuscolo fosse insita nella natura della luce. Ma le sorprese dovevano ancora
arrivare.
I due contraddittori aspetti della radiazione elettromagnetica non si erano mai
manifestati nella meccanica dei corpi materiali: un elemento di materia, per quanto
piccolo, era sempre e soltanto un'entità materiale, cioè un corpuscolo.
Nel 1924 Louise de Broglie (1892-1987; Premio Nobel) avanzò, nella sua tesi di
laurea, un'ipotesi che portò ulteriore sconcerto nel mondo della fisica classica. Partendo
dal presupposto che la dualità onda-corpuscolo dovesse riflettere una legge generale
della natura, egli pensò di estendere questa proprietà alle particelle. Se le radiazioni
luminose, che presentano così palesemente un aspetto ondulatorio, possono talvolta
comportarsi come particelle, perché un elettrone o un protone, che sono evidentemente
dei corpuscoli, non dovrebbero comportarsi in determinate circostanze come delle
onde? Per il fotone il modulo p della quantità di moto è legato alla frequenza f e alla
lunghezza d'onda mediante le relazioni: p=hf/c=h/λ e quindi λ=h/p. De Broglie
ammise che la lunghezza d'onda associata a una particella materiale dipendesse dalla
quantità di moto nella stessa forma. Essendo in tal caso p=mv, egli mise così in
relazione, tramite la costante h di Planck, due grandezze caratteristiche dei corpuscoli
materiali (la massa e la velocità) con una grandezza peculiare delle onde (la lunghezza
d'onda):
LUNGHEZZA D'ONDA DI DE BROGLIE
La lunghezza d'onda di un corpuscolo materiale di massa m e velocità v è espressa da:
λ=
h
h
=
mv p
Dal momento che λ è inversamente proporzionale a p, agli oggetti macroscopici
corrispondono lunghezze d'onda che sono praticamente nulle e che, quindi, non
generano alcun effetto osservabile. Invece, elettroni e altre particelle subatomiche hanno
lunghezze d'onda di de Broglie relativamente grandi (rispetto alle dimensioni degli
atomi) che ne determinano i comportamenti fisici.
Combinando l’ipotesi di Planck con l’equivalenza di Einstein si ottiene che:
hf = E = mc2
così, secondo la proposta di de Broglie, la dicotomia fra particelle e campi, che era stata
un elemento importante della teoria classica, non è rispettata dalla natura. Di fatto,
qualsiasi cosa oscilli con una qualche frequenza, può presentarsi solo in unità discrete
di massa m=hf/c2. In qualche modo, la natura riesce a costruire un mondo consistente
in cui particelle e oscillazioni di campo sono la stessa cosa. O, piuttosto, il mondo è
formato da una entità più sottile e ancora nascosta all’osservazione, di cui le particelle e
le onde riescono a dare immagini appropriate solo in parte.
La proposta di de Broglie:
56<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
a) ingloba la relazione di Planck per i fotoni E = hf;
b) permette di giustificare la condizione di quantizzazione di Bohr per l'atomo di
idrogeno.
Per quanto riguarda il punto (a), basta ricordare che la quantità di moto p di un
fotone è legata alla sua energia E dalla relazione p = E/c e che lunghezza d'onda e
frequenza sono inversamente proporzionali λ = c/f.
In relazione al punto (b), se un elettrone descrive indisturbato una certa orbita, a
esso deve essere associata un'onda stazionaria, cioè un'onda che permanga invariata
fino a che l'elettrone non cambia stato di moto. Ma,
come è mostrato in figura, un'onda stazionaria lungo
l'orbita dell'elettrone si deve «richiudere su sé stessa»:
ciò significa che la lunghezza dell'orbita non può
avere un valore arbitrario, ma deve essere un
multiplo della lunghezza d'onda λ associata
all'elettrone. In questo modo de Broglie riesce a
spiegare l’esatta collocazione delle orbite nell’atomo
quantistico di Bohr. Un elettrone può infatti occupare
soltanto quelle orbite in cui può trovare posto un numero intero di lunghezze d’onda
della sua onda stazionaria. Se considerato come un’onda stazionaria intorno al nucleo
invece che come una particella in orbita, un elettrone non è soggetto ad accelerazione e
quindi ad alcuna perdita continua di radiazione che lo obblighi a cadere sul nucleo
producendo il collasso dell’atomo.
Se indichiamo con rn il raggio dell'orbita, che deve avere lunghezza nλ, questa
affermazione può essere scritta nella forma:
2πrn = nλ
Introducendo l’ipotesi di de Broglie λ = h/p nella formula precedente e ponendo
p=mv, si ottiene allora:
2πmvrn = nh
Poiché per definizione il momento angolare di una particella su un’orbita circolare è
L=mvrn, l’espressione precedente diventa:
L =n
h
2π
che è proprio la condizione di quantizzazione di Bohr per un'orbita circolare dell'atomo
di idrogeno.
Bohr per impedire all’atomo di Rutherford di subire il collasso era stato costretto
ad imporre una condizione per la quale non aveva dato nessuna giustificazione: un
elettrone in un’orbita stazionaria intorno al nucleo non emette radiazione. L’idea di de
Broglie di trattare gli elettroni come onde stazionarie segnava un radicale
allontanamento dalla concezione degli elettroni come particelle in orbita intorno ad un
nucleo atomico. Quindi, secondo il modello di de Broglie, è la natura ondulatoria
dell'elettrone a determinare le proprietà degli atomi e, in particolare, la quantizzazione
della loro energia.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
56;!
Gli esperimenti di Compton avevano dimostrato che Einstein aveva ragione a
ritenere che la luce avesse una natura anche corpuscolare. Ora de Broglie stava
suggerendo lo stesso tipo di fusione, il dualismo onda-particella, anche per la materia.
Ma ciò era veramente possibile? De Broglie aveva immediatamente compreso che se la
materia ha proprietà ondulatorie, un fascio di elettroni dovrebbe “sparpagliarsi” come
un raggio di luce, ossia subire il fenomeno della diffrazione.
La prima verifica delle proprietà ondulatorie
delle particelle fu effettuata nel 1927 da Clinton
Davisson (1881-1958; Premio Nobel) e Lester Germer
(1896-1971; Premio Nobel) con un esperimento di
diffusione. I due fisici americani osservarono che un
fascio di elettroni, interagendo con un cristallo di
nichel, produceva una figura di diffrazione. Facendo
variare l'energia degli elettroni incidenti, le posizioni
dei massimi e dei minimi di diffrazione si spostavano
e, in tutti i casi, le lunghezze d'onda misurate erano in
accordo con la formula di de Broglie.
Nello stesso anno George P. Thomson (18921975; Premio Nobel), figlio di J. J. Thomson, lo scopritore della natura corpuscolare
degli elettroni, dimostrava la natura ondulatoria degli elettroni, facendo passare un
fascio di raggi catodici attraverso pellicole estremamente sottili di oro e di argento
produsse, impressionandole su lastre fotografiche, figure di diffrazione identiche a
quelle che si sarebbero ottenute con i raggi X.
Intorno al 1930, Otto Stern (1888-1969), ripetendo gli esperimenti di diffrazione
con atomi di sodio, dimostrò che anche corpuscoli più complessi come gli atomi
presentano proprietà ondulatorie: le onde di de Broglie diventarono un'indiscutibile
realtà fisica, sebbene nessuno capisse perfettamente che cosa fossero.
Nel 1931, Max Knoll (1897-1969) ed Ernst Ruska (1906-1988; Premio Nobel),
servendosi della natura ondulatoria dell’elettrone, inventano il microscopio elettronico.
Nessuna particella più piccola di circa mezza lunghezza d’onda della luce bianca può
assorbire o riflettere le onde luminose in modo da risultare visibile con un microscopio
ordinario. Viceversa le onde elettroniche, con lunghezze d’onda oltre 100.000 volte
minori di quella della luce, sono in grado di rendere visibili tali particelle.
11.10 Nascita della meccanica quantistica
La fisica atomica offriva un gran numero di risultati sperimentali ancora da
interpretare e certe manifestazioni della natura a livello microscopico sembravano
contraddirne altre e nessuno, fino a questo momento, aveva idea delle correlazioni che
potevano sussistere. Per superare i problemi che affliggevano la fisica atomica era
necessario porre fine alle ipotesi ad hoc introdotte ogni qualvolta gli esperimenti
fornivano dati in conflitto con la teoria esistente. Un simile modo di procedere poteva
soltanto nascondere i problemi senza mai condurre alla loro soluzione. Il metodo da
56=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
seguire doveva essere quello utilizzato da Einstein che lo aveva portato ad elaborare la
teoria della relatività, ossia stabilire i principi fisici e filosofici prima di passare a
sviluppare le minuzie matematiche formali necessarie per tenere insieme il complesso
edificio teorico. Per un quarto di secolo, gli sviluppi della fisica quantistica - dalla legge
della radiazione di corpo nero di Planck al quanto di luce di Einstein, dall’atomo
quantistico di Bohr-Sommerfeld al dualismo onda-particella per la materia di de Broglie
– erano stati il prodotto di un matrimonio infelice tra concetti quantistici e fisica classica.
I fisici dovevano liberarsi di cercare di far rientrare concetti quantistici nella cornice
rassicurante e familiare della fisica classica. Ciò che occorreva era una nuova teoria, una
nuova meccanica del mondo quantistico, appunto la meccanica quantistica.
Il primo a farlo fu Werner Heisenberg (1902-1976; Premio Nobel),
quando adottò in modo pragmatico il credo positivista secondo il quale la
scienza doveva basarsi su fatti osservabili, e tentò di costruire una teoria
basata esclusivamente sulle grandezze osservabili. Infatti l’idea di Heisenberg
era quella di separare ciò che era osservabile da ciò che non lo era. L’orbita di
un elettrone intorno al nucleo di un atomo di idrogeno non era osservabile, per cui
l’idea di elettroni in orbita doveva essere abbandonata, così come qualunque tentativo
di visualizzare ciò che accadeva all’interno di un atomo. Pertanto Heisenberg, nel suo
tentativo di costruzione di una teoria coerente ed unitaria, decise di ignorare tutto ciò
che era inosservabile e concentrando l’attenzione soltanto su quelle grandezze che
potevano essere misurate in laboratorio, come le frequenze e le intensità delle righe
spettrali associate con la luce emessa o assorbita quando un elettrone salta da un livello
energetico ad un altro. In qualsiasi calcolo erano ammissibili soltanto relazioni tra
grandezze osservabili, ossia quelle che potevano essere misurate in via di principio: “Si
è compiuto il tentativo di ottenere i fondamenti per una meccanica della teoria dei
quanti basata esclusivamente su relazioni tra quantità che in linea di principio sono
osservabili”. L’osservabilità era il promettente principio di questa nuova meccanica. Era
necessario smettere di cercare di rendere conto del comportamento degli elettroni in
modo diretto ed esprimere invece ciò che si voleva conoscere in funzione di ciò che si
poteva osservare. Heisenberg aveva conferito lo status di postulato all’osservabilità di
tutte le grandezze che comparivano nelle sue equazioni, e alla definitiva sostituzione
del concetto delle traiettorie orbitali in quanto non osservabili.
Nella ricerca di una nuova meccanica per il mondo quantizzato dell’atomo,
Heisenberg si concentrò sulle frequenze e le intensità relative delle righe spettrali
prodotte quando un elettrone saltava in modo istantaneo da un livello energetico ad un
altro. La scelta era obbligata: erano gli unici dati disponibili su ciò che accadeva
all’interno di un atomo. A dispetto delle immagini evocate da tutti i discorsi sui salti e i
balzi quantici, un elettrone, quando si spostava tra i livelli energetici, non saltava nello
spazio come quando si colpisce una pallina, semplicemente era in un posto e un istante
dopo spuntava fuori in un altro, senza essere stato in nessun punto intermedio.
Heisenberg ammise che tutte le osservabili, o qualunque altra cosa collegata con esse,
fossero associate con il mistero del salto quantico di un elettrone tra due livelli
energetici. Il consolante sistema solare in miniatura in cui ogni elettrone orbitava
intorno ad un sole nucleare era perduto per sempre. Heisenberg escogitò un metodo
contabile per seguire le tracce di tutti i possibili salti elettronici, o transizioni, che
potevano verificarsi tra i differenti livelli energetici dell’idrogeno. Il sistema che riuscì a
concepire per registrare ogni grandezza osservabile, associata con una coppia unica di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
564!
livelli energetici, fu il ricorso ad una tabella (una matrice in termini matematici) che
conteneva l’intero insieme delle frequenze possibili per le righe spettrali che potevano
teoricamente essere emesse da un elettrone quando saltava tra due differenti livelli
energetici.
La teoria così costruita esclusivamente con osservabili sembrava riprodurre ogni
evidenza sperimentale, ma sembrava funzionare soltanto con l’aiuto di una strano tipo
di moltiplicazione in cui ! ! ! ! ! ! !, ossia per le tabelle costruite non valeva la
commutatività tipica dei numeri. Qual era il significato della misteriosa regola della
moltiplicazione? Max Born (1882-1970; Premio Nobel) si rese conto che Heisenberg si
era imbattuto nel prodotto di matrici, per le quali non sempre vale la proprietà della
commutatività. A questo punto Born trovò rapidamente una formula matriciale che
connetteva la posizione q e la quantità di moto p: pq-qp=(ih/2̟)I dove I è la matrice
unitaria necessaria per scrivere il secondo membro dell’equazione sotto forma di una
matrice. Sulla base di questa equazione fondamentale, mediante i metodi della
matematica delle matrici, la cosiddetta meccanica delle matrici, fu costruita la prima
formulazione coerente dell’intera meccanica quantistica. Mentre Heisenberg, Born e
Jordan si erano concentrati sullo sviluppo della teoria, Pauli aveva applicato con
successo la meccanica delle matrici nella riproduzione dello spettro delle righe
dell’atomo d’idrogeno, nonché nella spiegazione dell’effetto Stark, ossia l’influsso di un
campo elettrico esterno sullo spettro. Pauli aveva fornito la prima convalida concreta
della nuova meccanica quantistica.
Le originali idee di de Broglie sulla natura ondulatoria della materia
acquistarono un soddisfacente formalismo matematico nel 1926 per opera del
viennese Erwin Schrodinger (1887-1961; Premio Nobel). La fisica di un’onda,
qualunque essa sia, è sempre descritta da un’equazione. Non ci possono
essere onde senza un’equazione d’onda. Quindi Schrodinger decise di trovare
l’equazione mancante per le onde materiali di de Broglie. Schrodinger sapeva
esattamente da dove partire e che cosa doveva fare. De Broglie aveva messo alla prova
la sua idea del dualismo onda-particella riproducendo le orbite elettroniche permesse
nell’atomo di Bohr come quelle in cui poteva trovare posto soltanto un numero intero di
lunghezza d’onda dell’onda elettronica stazionaria. Schrodinger sapeva che la
sfuggente equazione d’onda che cercava avrebbe dovuto riprodurre il modello
tridimensionale dell’atomo d’idrogeno con onde stazionarie anch’esse tridimensionali.
L’atomo d’idrogeno sarebbe stato il banco di prova dell’equazione d’onda che doveva
trovare. Dopo mesi di lavoro Schrodinger arrivò a formulare l’equazione che descriveva
le onde di materia, molto simile a quella che descrive la propagazione delle onde
meccaniche o elettromagnetiche:
EQUAZIONE D’ONDA DI SCHRODINGER
Tale equazione era stata costruita utilizzando la formula dell’onda-particella di
de Broglie, che connetteva la lunghezza d’onda associata a una particella con la sua
quantità di moto, oltre ad equazioni ben fondate della fisica classica. Ma prima dovette
565!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
dimostrare che era l’equazione d’onda giusta. Una volta applicata all’atomo d’idrogeno,
avrebbe generato i valori corretti per i livelli energetici? Schrodinger constatò che la sua
equazione d’onda riproduceva effettivamente la serie di livelli energetici dell’atomo di
idrogeno di Bohr-Sommerfeld. Più complicata delle onde stazionarie unidimensionali di
de Broglie che si inserivano nelle orbite circolari, la teoria di Schrodinger generava gli
analoghi tridimensionali di quelle onde, gli orbitali elettronici. Le energie associate a
questi ultimi erano anch’esse generate come parte integrante delle soluzioni accettabili
dell’equazione d’onda di Schrodinger. Bandite per sempre erano le condizioni
artificiose richieste dall’atomo quantistico di Bohr-Sommerfeld. Tutte le ipotesi ad hoc
finora introdotte nell’atomo quantistico per dar conto delle sue evidenze sperimentali,
adesso scaturivano in modo naturale dall’interno della struttura della nuova meccanica
di Schrodinger, la meccanica ondulatoria. Anche il misterioso salto quantico di un
elettrone tra le orbite sembrava venisse sostituito dalle transizioni graduali e continue
da un’onda elettronica stazionaria tridimensionale permessa a un’altra. L’articolo
intitolato Quantizzazione come problema agli autovalori (1926) presentava la versione di
Schrodinger della meccanica quantistica e la sua applicazione all’atomo di idrogeno.
In netto contrasto con la fredda e austera meccanica delle matrici, che metteva al
bando anche il minimo accenno di visualizzabilità, Schrodinger offriva un’alternativa
familiare e rassicurante che, rispetto alla formulazione altamente astratta di Heisenberg,
prometteva di spiegare il mondo dei quanti in termini più vicini alla fisica classica. In
luogo delle matrici, Schrodinger portava equazioni differenziali, che erano parte
essenziale del bagaglio matematico di un fisico. La meccanica delle matrici offriva salti
quantici e discontinuità e nulla da raffigurarsi mentalmente quando si cercava di farsi
un’idea dei meccanismi interni dell’atomo. Per Schrodinger, invece, non c’erano salti
quantici tra i differenti livelli energetici di un atomo, ma solo transizioni graduali,
continue, da un’onda stazionaria a un’altra. Schrodingerer era convinto che una
particella non fosse una minuscola palla da biliardo, bensì un pacchetto compatto di
onde che creava l’illusione di un oggetto discreto. Tutto, essenzialmente, si riduceva a
onde. In sintesi, era convinto che la meccanica ondulatoria consentisse il ripristino di
un’immagine classica, intuitiva, della realtà fisica, caratterizzata da continuità, causalità
e determinismo. Però, tutte queste convinzioni non discendevano direttamente dalla
sua equazione. E poi c’era una domanda alla quale non si era in grado di dare una
risposta: se la fisica doveva tornare a essere completamente continua, com’era possibile
spiegare l’effetto fotoelettrico e la diffusione Compton, che rappresentavano due
conferme sperimentali dirette dell’asserzione che la luce consiste di pacchetti discreti e
identificabili?
All’inizio del 1925 non c’era ancora una meccanica quantistica, una teoria che
rappresentasse per la fisica atomica ciò che la meccanica newtoniana aveva
rappresentato per la fisica classica. Un anno dopo c’erano due teorie in competizione,
che erano profondamente diverse tra loro, ma che entrambe fornivano le stesse
soluzioni quando venivano applicate ai medesimi problemi. Qual era, ammesso che ve
ne fosse una, la connessione tra meccanica delle matrici e meccanica ondulatoria? Fu lo
stesso Schrodinger a trovare la connessione. Le due teorie che sembravano così diverse
per forma e contenuto, l’una impiegando equazioni d’onda e l’altra algebra matriciale,
l’una descrivendo onde e l’altra particelle, erano matematicamente equivalenti. I
vantaggi di disporre di due formalismi quantomeccanici diversi divennero presto
evidenti. La meccanica ondulatoria di Schrodinger forniva la via più facile alla
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
566!
soluzione della maggior parte dei problemi con cui i fisici avevano a che fare. Ma per
altri, come quelli che coinvolgevano lo spin, era l’impostazione matriciale a risultare più
efficace.
Dato che ogni possibile disputa su quale delle due teorie fosse corretta era stata
soffocata ancor prima che potesse iniziare, l’attenzione si spostò dal formalismo
matematico all’interpretazione fisica. Le due teorie potevano anche essere tecnicamente
equivalenti, ma la natura della realtà fisica che stava oltre la matematica era del tutto
diversa: le onde e le continuità di Schrodinger contro le particelle e la discontinuità di
Heisenberg. Ciascuno dei due era convinto che la sua teoria cogliesse la vera natura
della realtà fisica. Non potevano avere entrambi ragione.
11.11 Il significato fisico della funzione d’onda
Schrodinger sapeva fin dal primo momento che c’era un problema connesso con
la sua versione della meccanica quantistica. Secondo le leggi di Newton, se si conosce la
posizione di un elettrone a un certo istante insieme alla sua velocità, è possibile in teoria
determinare esattamente dove esso si troverà in un istante successivo. Un’onda, a
differenza di una particella, non è localizzata in un singolo punto, ma è una
peturbazione che trasferisce energia attraverso un mezzo. Tutte le onde, quali che siano
le loro dimensioni e la loro forma, possono essere descritte da un’equazione che ne
rappresenta il moto matematicamente, proprio come fanno le equazioni di Newton per
una particella. La soluzione dell’equazione di Schrodinger, nota come funzione d'onda e
indicata con la lettera ψ, contiene tutte le informazioni circa l'evoluzione dell'ondaparticella nello spazio e nel tempo, ossia dalla cui conoscenza è possibile ricavare lo
stato della particella.
Ma c’era una domanda cui Schrodinger trovava difficile rispondere: che cos’era a
compiere l’oscillazione? Nel caso delle onde sonore, per esempio, sono le molecole
d’aria o il campo elettromagnetico nel caso delle onde elettromagnetiche. Schrodinger
credeva che le onde di materia fossero altrettanto reali quanto qualsiasi di queste onde.
Ma qual era il mezzo attraverso il quale si propagava un’onda elettronica? La domanda
equivaleva a chiedersi qual era, in termini di obiettive entità sperimentali, il significato
fisico della funzione d'onda. Schrodinger alla fine propose che la funzione d’onda, per
esempio, di un elettrone fosse intimamente connessa alla distribuzione a forma di nube
della sua carica elettrica mentre si muoveva attraverso lo spazio. Ma la funzione d’onda
era inosservabile, era qualcosa che non poteva essere misurato direttamente perché
espressa da un punto di vista matematico da un numero complesso. Ma il quadrato di
un numero complesso è un numero reale che è associato con qualcosa che può
effettivamente essere misurato in laboratorio. Schrodinger riteneva che il quadrato della
funzione d’onda di un elettrone fosse
una misura della densità di carica
spalmata nella posizione x al tempo t.
Nel contesto della sua interpretazione
della funzione d’onda, Schrodinger
introdusse il concetto di pacchetto
d’onde per rappresentare l’elettrone, mettendo nel contempo in discussione l’idea stessa
dell’esistenza delle particelle. La sua tesi era che un elettrone sembrasse soltanto
567!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
un’entità corpuscolare, ma non fosse realmente una particella. Schrodinger credeva che
l’elettrone corpuscolare fosse un’illusione. In realtà c’erano soltanto onde. Qualunque
manifestazione di un elettrone corpuscolare era dovuta a un gruppo di onde materiali
che venivano fatte sovrapporre in un pacchetto d’onde. Un elettrone in moto non
sarebbe nient’altro che un pacchetto d’onde in movimento. Un pacchetto d’onde per
avere l’aspetto di una particella doveva essere formato da un insieme di onde di
differenti lunghezze d’onda che interferivano tra loro in modo da annullarsi
reciprocamente al di fuori del pacchetto d’onde.
Ma presto tale interpretazione andò incontro a difficoltà in quanto fisicamente
insostenibili. In primo luogo, la rappresentazione dell’elettrone come pacchetto d’onde
cominciò ad andare in crisi quando si scoprì che le onde costituenti si sarebbero
disperse nello spazio in misura tale che avrebbero dovuto propagarsi più velocemente
della luce per poter essere connesse con la rivelazione di un elettrone corpuscolare in un
esperimento. In secondo luogo, quando furono compiuti dei tentativi di applicare
l’equazione d’onda all’elio ed altri atomi, la concezione della realtà di Schrodinger che
sottostava alla sua matematica si dissolse in uno spazio multidimensionale astratto che
era impossibile visualizzare. Le onde che occupavano questi spazi astratti non potevano
essere le onde fisiche reali che, nelle speranze di Schrodinger, avrebbero ripristinato la
continuità ed eliminato il salto quantico. L’interpretazione di Schrodinger non poteva
neppure rendere conto dell’effetto fotoelettrico e Compton. C’erano interrogativi senza
risposta: come poteva un pacchetto d’onde possedere carica elettrica? La meccanica
ondulatoria poteva incorporare lo spin quantistico? Se la funzione d’onda di
Schrodinger non rappresentava onde reali nello spazio tridimensionale quotidiano, di
che onde si trattava? Fu Born a fornire la risposta.
Convinto che le particelle non potessero essere semplicemente abolite, Born trovò
un modo per collegarle con le onde mediante la probabilità, nel contesto di una nuova
interpretazione della funzione d’onda. Mentre Schrodinger rinunciava all’esistenza
delle particelle, Born, nel tentativo di salvarle, proponeva un’interpretazione della
funzione d’onda che metteva in discussione un principio fondamentale della fisica
classica: il determinismo.
Nella meccanica classica lo
stato di un sistema, in linea di
principio,
è
completamente
determinato in ogni istante, grazie
alle leggi di Newton, se si
specificano posizione e velocità ad
un dato istante. La meccanica
quantistica
sostituisce
questa
immagine concreta dello stato di
un sistema fisico con un oggetto
matematico, che abbiamo chiamato
funzione d’onda o vettore di stato,
che non ha analogo fisico e non è
essa stessa qualcosa di osservabile,
ma esiste un procedimento matematico, a partire dall’equazione di Schrodinger, per
estrarre dalla funzione d’onda informazioni sulle quantità osservabili. Ma la differenza
sostanziale tra la meccanica quantistica e quella classica è che la funzione d’onda
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
568!
fornisce solo una probabilità sulle grandezze osservabili, cioè si possono dedurre solo le
probabilità che la particella si trovi in una determinata regione dello spazio e che abbia
una certa velocità. Bohr, nella sua interpretazione della meccanica quantistica
(interpretazione di Copenaghen), che tratteremo nel capitolo 13, sosterrà addirittura
che, finchè non viene effettuata un’osservazione o una misurazione, un oggetto
microscopico come un elettrone non esiste da nessuna parte. Tra una misurazione e la
successiva esso non ha alcun tipo di esistenza al di fuori delle possibilità astratte della
funzione d’onda. Soltanto quando viene compiuta un’osservazione o misurazione la
funzione d’onda subisce il collasso mentre uno dei possibili stati dell’elettrone diventa
lo stato effettivo e la probabilità di tutte le altre possibilità diventa nulla.
È molto importante notare che la probabilità di cui stiamo parlando è molto
diversa da quella che si incontra in altri campi della fisica. Per esempio, in sistemi (come
i gas) che contengono un gran numero di particelle è impossibile sia conoscere le
proprietà di tutte le componenti del sistema, sia calcolarne l'evoluzione. In tale contesto
si deve introdurre una probabilità da ignoranza: non sapendo fare di meglio, ci limitiamo
a calcolare, per esempio, la probabilità che, presa una molecola, essa abbia una certa
velocità. Ciò non toglie che, almeno in linea di principio, possedendo più informazioni e
capacità di calcolo rispetto a quelle che abbiamo, la soluzione esatta del problema
sarebbe possibile. La probabilità quantistica rappresentava, invece, una caratteristica
intrinseca della realtà atomica. Il fatto che fosse impossibile predire quando un singolo
atomo in un campione radioattivo sarebbe decaduto, non era dovuto ad una mancanza
di conoscenza ma era conseguenza della natura probabilistica delle leggi quantistiche
che governano il decadimento radioattivo.
Secondo Born, se si tenta di rivelare sperimentalmente in un certo istante t la
posizione (x, y, z) di un corpuscolo, la probabilità di trovare l'oggetto microscopico in
una piccola regione di volume ∆V contenente il punto (x, y, z) e in un piccolo intervallo
di tempo ∆t centrato intorno a t è proporzionale a:
DENSITA’ DI PROBABILITA’
2
ψ ∆V∆t
Il quadrato del modulo della funzione d'onda, chiamato densità di probabilità (a
indicare la probabilità per unità di volume e per unità di tempo) possiede così un
significato fisico reale:
1. La densità di probabilità non dice dove un fotone è in un dato istante, ma
semplicemente dove è probabile che sia.
2. La funzione d’onda rappresenta non come il sistema è, ma ciò che sappiamo del
sistema.
3. Uno stato descrive la condizione di un sistema fisico. In generale, l’ampiezza di
uno stato dà la probabilità dei vari possibili risultati di un’osservazione. Per
alcuni stati c’è un solo risultato possibile relativamente ad una data osservazione;
ossia lo stato non viene alterato dalla misura e misure ripetute daranno ogni
volta lo stesso risultato, e si chiamano stati stazionari o autostati.
Le probabilità calcolate a partire dalla ψ(x, y, z, t) sono le informazioni più
dettagliate che in via di principio è possibile avere sul sistema fisico quantistico in
569!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
esame. Non è che la meccanica quantistica sia inadeguata a predire l’esatta posizione
o la velocità della particella in un dato istante, è che una particella quantistica
semplicemente non possiede un insieme completo di attributi fisici con valori ben
precisi. In sintesi, questa interpretazione probabilistica di ψ è il principale strumento
per creare il legame tra le formule della fisica quantistica e l’osservazione
nell’esperimento. Tutti i risultati sperimentali sono in accordo con questa visione
probabilistica cosicché, alla luce delle conoscenze odierne, dobbiamo rinunciare al
determinismo che era tipico della fisica classica: in generale, non possiamo più pretendere di prevedere in dettaglio l'evoluzione di un sistema fisico, ossia la sua
traiettoria, o il risultato di una misura sperimentale. Dobbiamo «accontentarci» di
calcolare con quale probabilità avranno luogo le possibili evoluzioni di uno stesso
stato fisico, oppure con quali probabilità, eseguendo un esperimento, otterremo uno
dei risultati possibili piuttosto che un altro.
Questa funzione d’onda formalizza il fatto misterioso che sta alla base della
meccanica quantistica, la cosiddetta dualità onda-corpuscolo, ossia che tutte le particelle
si comportano come onde, e tutte le onde come particelle (la differenza tra una
particella e un’onda è che la prima è localizzata in un punto specifico, mentre la
seconda si estende in una certa regione spaziale). Dunque se si vuole descrivere una
particella, che è localizzata, con qualcosa che si comporta come un’onda non localizzata,
si fa per l’appunto ricorso alla funzione d’onda, che descrive non tanto la particella
quanto piuttosto la probabilità di trovarla in una data posizione a un dato istante. Se la
funzione, e dunque la probabilità di trovare la particella, è diversa da zero in molti
punti diversi, allora la particella si comporta come se fosse in molti punti diversi allo
stesso tempo. Se è la funzione d’onda ciò di cui le leggi della fisica quantistica
determinano il comportamento, allora l’equazione di Schrodinger ci dice che data la
funzione d’onda di una particella in certo istante, in linea di principio permette di
calcolare, in modo totalmente deterministico, la funzione d’onda in qualunque istante
successivo. Praticamente è come per le leggi di Newton che consentono di determinare
la traiettoria di un corpo, o le equazioni di Maxwell, che ci dicono come evolvono nel
tempo le onde elettromagnetiche. La differenza sostanziale, però, è che in meccanica
quantistica la grandezza che evolve nel tempo in maniera deterministica non è
direttamente osservabile, ma è piuttosto un’insieme di probabilità di ottenere certi
risultati facendo delle misure, come trovare, per esempio, la particella in una certa
posizione a un dato istante.
Infatti, nell’esperimento della doppia fenditura, che analizzeremo in seguito, si
parla di sovrapposizione delle due funzioni d’onda che si ottengono quando è aperta
ognuna delle due fenditure singolarmente, ma in questo caso non stiamo considerando
un’onda materiale, bensì, una assai astratta onda di probabilità.
PRINCIPIO DI SOVRAPPOSIZIONE
Se un sistema fisico ammette due ampiezze di probabilità ψa e ψb che descrivono due stati
del sistema, allora lo stesso sistema può essere descritto anche dall’ampiezza ψ somma
delle ampiezze ψa e ψb:
ψ = ψa + ψb
Si dice che il sistema fisico è descritto da una sovrapposizione di stati.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
56:!
Se ψa e ψb descrivono, rispettivamente, il caso in cui il fotone passa per la
fenditura A e quello in cui esso passa per la fenditura B, ψ descrive una situazione in
cui la fenditura attraverso cui il fotone, o qualsiasi altra particella, passa non è definita.
Dal punto di vista classico questa descrizione non ha significato, mentre dal punto di
vista delle onde di probabilità è del
tutto coerente. Tutto ciò che è
possibile calcolare è la probabilità
che un fotone passi attraverso una
determinata
fenditura.
Infatti,
prepariamo una successione di
fotoni, tutti descritti dall’ampiezza
di probabilità ψ, e posizioniamo
vicino alle fenditure degli appositi
rivelatori di fotoni, vedremo che
certe volte un fotone è segnalato dal rivelatore in A, altre dal rivelatore in B, ma non
sarà possibile sapere in anticipo da quale fenditura passerà un determinato fotone.
L’unica cosa che possiamo dire sul fotone è che esso si trova in una sovrapposizione di
entrambe le possibilità. Dopo che il fotone è stato segnalato in A o in B, non è più
descritto da ψ ma, a seconda di dove è passato, da ψa o ψb. Quindi la misura ha solo
due possibili risultati e quando avviene una delle due, lo stato quantistico collassa in ψa
o ψb, e l’altro stato sarà escluso. In generale una particella, prima della misura, si trova
in una sovrapposizione di tutti i diversi risultati che possiamo ottenere in un
esperimento. La misura ci darà uno dei possibili risultati dell’esperimento escludendo
tutti gli altri possibili prima della misura.
Un ulteriore esperimento che dà origine a una sovrapposizione di diversi stati di
posizione è l’effetto tunnel, in base al quale una particella, senza alcuna azione esterna,
riesce a creare una specie di canale per attraversare una barriera di potenziale, che
possiamo immaginare come una parete di un certo spessore. In generale, per una
particella soggetta a un campo di forze, una barriera di potenziale è una regione in cui
l'energia potenziale associata al campo supera l'energia totale della particella, per cui
essa, secondo la fisica classica, sarebbe destinata a rimanere confinata all'interno del
campo. Secondo la meccanica quantistica, invece, una particella può superare la
barriera-ostacolo e talvolta è possibile trovarla in una regione dello spazio classicamente
inaccessibile. Il problema di una particella confinata da una barriera di potenziale può
essere affrontato applicando il formalismo generale dell'equazione di Schrodinger.
Se la barriera ha larghezza e
altezza finite, si trova che la funzione
d'onda che risolve l'equazione non si
annulla sulla barriera, ma si prolunga
al suo esterno. Poiché il modulo
quadro
della
funzione
d'onda
rappresenta la densità di probabilità di
localizzare il corpuscolo materiale in un determinato punto, se la funzione d'onda è non
nulla all'esterno vuol dire che c'è una probabilità, per quanto piccola, di trovare il
corpuscolo oltre la barriera. Ancora una volta il processo ha prodotto una
sovrapposizione di stati spazialmente lontani.
57<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
L'effetto tunnel gioca un ruolo estremamente importante in alcuni fondamentali
processi nucleari quali la disintegrazione radioattiva, nonché in numerose e notevoli
applicazioni tecnologiche, fra cui il microscopio a scansione a effetto tunnel (STM), capace
di produrre immagini di superfici con una risoluzione confrontabile con le dimensioni
di un singolo atomo, e nella realizzazione dei chips per microprocessori.
E come cambia, con la meccanica ondulatoria, la descrizione degli stati stazionari
atomici? Abbandonato il concetto classico di traiettoria, gli stati
stazionari non sono più pensati come orbite circolari percorse da un
elettrone puntiforme, ma sono caratterizzati da funzioni d'onda che
definiscono, tramite il loro modulo quadro, la densità di probabilità
di trovare l'elettrone in un determinato punto intorno al nucleo. A
ogni stato stazionario è dunque assegnata una distribuzione di
probabilità, chiamata orbitale. Questo può essere visualizzato
mediante una "nuvola", più densa nei punti dove è più facile trovare l'elettrone, più
rarefatta dove l'elettrone si trova con minore probabilità. In figura è rappresentato il
primo orbitale dell'atomo di idrogeno, corrispondente allo stato fondamentale: la
distribuzione di probabilità ha simmetria sferica, con un massimo a una distanza dal
nucleo uguale al raggio della prima orbita di Bohr.
Per quanto riguarda lo stato fondamentale dell'atomo di idrogeno, la soluzione
stazionaria dell'equazione di Schrodinger indica
dunque che il raggio di Bohr, non più inteso come la
distanza fissa dal nucleo alla quale si muove
l'elettrone, mantiene comunque un significato.
Con la meccanica ondulatoria la descrizione
dell'atomo che Bohr aveva proposto, senza riuscire a
dame una spiegazione plausibile al di là
dell'accordo con l'esperienza, diventa più logica e
organica, conservando una sua validità.
Certo, non è facile farsi una ragione di questa
incertezza implicita nella natura. In fondo, la spesso citata frase di Einstein, "Non credo
che Dio giochi a dadi con l'universo", sicuramente esprime il disagio per avere
introdotto nella scienza una teoria i cui concetti sono piuttosto lontani dalla nostra vita
quotidiana.
Il fatto che gli esiti delle misure su sistemi quantistici risultano casuali, possiamo
asserire che, ove si assuma valida e completa la descrizione quantistica dei sistemi fisici,
le probabilità quantistiche risultano, nel linguaggio della filosofia della scienza, non
epistemiche, il che significa che non possono essere attribuite ad ignoranza, ad una
mancanza di informazione sul sistema che, se fosse disponibile, ci consentirebbe di
trasformare le asserzioni probabilistiche in asserzioni certe.
Di fatto, la domanda se i processi microscopici debbano considerarsi
fondamentalmente stocastici oppure se risulti possibile, con l’aggiunta di ulteriori
specificazioni nella descrizione degli stati del sistema, completare la teoria in senso
deterministico, è stata sollevata fin dagli inizi del vivace dibattito sulle implicazioni
della meccanica quantistica. Cerchiamo di rendere chiaro il significato di questa
irriducibile aleatorietà dei processi microscopici confrontando il caso in esame con altri
possibili, cioè con processi probabilistici nei quali tuttavia le probabilità risultano
epistemiche, vale a dire possono ritenersi dovute alla nostra ignoranza dello stato reale
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
57;!
del sistema fisico in esame. Questa analisi risulta particolarmente opportuna in un
momento quale l'attuale in cui la grande novità è rappresentata dalla scoperta del caos
deterministico.
Cominciamo con un banale esempio. Noi tutti sappiamo che risulta, di fatto,
impossibile prevedere l'esito del lancio di una moneta non truccata. Pertanto, per
descrivere un siffatto processo si ricorre alla teoria della probabilità che ci dice che i due
possibili esiti, testa o croce, si presentano in modo casuale ed hanno uguali probabilità
di verificarsi. Proviamo ad interrogarci sul tipo di aleatorietà implicato nel processo,
ponendoci dal punto di vista della meccanica classica. E' ovvio a tutti che se si assume
questa prospettiva le probabilità coinvolte nel processo risultano epistemiche, vale a
dire sono dovute all'ignoranza delle precise condizioni iniziali e di tutte le condizioni al
contorno del processo. In altre parole, se si assume che la caduta della moneta è
governata dalle leggi classiche, allora si può asserire che se conoscessimo con precisione
assoluta la rotazione che viene impressa inizialmente alla moneta, la precisa
distribuzione delle molecole dell'aria che essa urterà nella sua caduta, la struttura
dettagliata della superficie su cui cadrà e così via, potremmo, in linea di principio,
prevedere con certezza se il lancio avrà come esito "testa" o "croce". Ecco un esempio di
processo che alla luce della teoria che si suppone lo descriva correttamente, richiede, in
un certo senso solo per ragioni accidentali, vale a dire perchè risulta praticamente
impossibile tenere conto di tutti gli elementi che ne determinano l'esito (che, di fatto,
risulta perfettamente determinato), una descrizione probabilistica. La situazione ora
illustrata e la conseguente posizione nei confronti della struttura probabilistica della
descrizione del processo rispecchia perfettamente la posizione meccanicistica del
grande matematico francese Pierre Simon de Laplace che nel Settecento affermò che,
note le posizioni e le velocità di tutte le particelle dell'universo, sarebbe stato possibile
prevederne l'evoluzione futura per l'eternità. Egli nel 1776 scriveva: “Lo stato attuale del
sistema della natura consegue evidentemente da quello che esso era all'istante
precedente e se noi immaginassimo un'intelligenza che ad un istante dato comprendesse
tutte le relazioni fra le entità di questo universo, esso potrebbe conoscere le rispettive
posizioni, i moti e le disposizioni generali di tutte quelle entità in qualunque istante del
passato o del futuro.... Ma l'ignoranza delle diverse cause che concorrono alla
formazione degli eventi come pure la loro complessità, insieme coll'imperfezione
dell'analisi, ci impediscono di conseguire la stessa certezza rispetto alla grande
maggioranza dei fenomeni. Vi sono quindi cose che per noi sono incerte, cose più o
meno probabili, e noi cerchiamo di rimediare all'impossibilità di conoscerle
determinando i loro diversi gradi di verosimiglianza. Accade così che alla debolezza
della mente umana si debba una delle più fini e ingegnose fra le teorie matematiche, la
scienza del caso o della probabilità”.
Credo che risulti difficile trovare una più limpida enunciazione di una
concezione che configura l'apparire delle probabilità nella descrizione dei processi fisici
come accidentale, non fondamentale e, in principio, eludibile.
Ma anche la meccanica ha subìto un'evoluzione profonda che ha comportato, in
tempi recenti, alcune modifiche di estrema rilevanza concettuale alla posizione ora
enunciata. Di fatto, è risultato possibile identificare molti processi in cui si presenta
quella che viene spesso riferita come "l'estrema sensibilità alle condizioni iniziali" che
comporta l'emergere del cosiddetto "caos deterministico" e della complessità.
Tecnicamente si denotano come caotici quei moti estremamente complicati che
manifestano un'amplificazione incredibilmente rapida degli errori e che pertanto, a
57=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
dispetto del supposto determinismo perfetto che li regola, rendono praticamente
impossibili accurate previsioni a lungo termine. Di fatto questa posizione odierna era
già stata prefigurata dal grande matematico Poincarè agli inizi del XX secolo, il quale,
molto appropriatamente, ha introdotto una distinzione concettualmente rilevante tra
l'imprevedibilità che emerge dalla estrema complicazione dei fattori che entrano in
gioco e la estrema sensibilità, anche per sistemi relativamente semplici, alle condizioni
iniziali. Nel 1903 egli scriveva: “Una causa piccolissima che sfugga alla nostra
attenzione determina un effetto considerevole che non possiamo mancare di vedere, e
allora diciamo che l'effetto è dovuto al caso. Se conoscessimo esattamente le leggi della
natura e la situazione dell'universo all'istante iniziale, potremmo prevedere
esattamente la situazione dello stesso universo in un istante successivo. Ma se pure
accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso
potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci
permettesse di prevedere la situazione successiva con la stessa approssimazione non ci
occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto, che è governato
da leggi. Ma non sempre è così; può accadere che piccole differenze nelle condizioni
iniziali ne producano di grandissime nei fenomeni finali Un piccolo errore nelle prime
produce un errore enorme nei secondi. La previsione diviene impossibile e si ha un
fenomeno fortuito”.
Quale lezione si può trarre da questo? Che la previsione diviene impossibile e si
ha un fenomeno fortuito. Di fatto risulta relativamente facile dimostrare che esistono
sistemi deterministici con una tale sensibilità alle condizioni iniziali che la previsione
del loro comportamento anche dopo tempi brevi richiederebbe una tale massa di
informazioni, proprio perchè le imprecisioni iniziali si amplificano esponenzialmente,
che non potrebbero venire immagazzinate neppure in un computer che utilizzasse come
chips tutte le particelle dell'universo e potesse immagazzinare un bit in ogni chip. La
conclusione è che ci si è resi conto che non sono rare le situazioni in cui risulta di fatto
impossibile prevedere il comportamento di un sistema per un periodo di tempo anche
ragionevolmente breve.
Ho voluto addentrarmi in questa affascinante tematica soprattutto per consentire
al lettore di cogliere correttamente la differenza tra probabilità epistemiche e nonepistemiche. Questa differenza ha rilevanza concettuale, non pratica. Il fatto che se
anche tutto l'universo diventasse un calcolatore esso non risulterebbe abbastanza
potente da permetterci di immagazzinare le informazioni necessarie a prevedere per
più di qualche minuto l'evoluzione di un semplice sistema, non toglie nulla al fatto che
secondo lo schema teorico che si è assunto soggiacere alla dinamica del processo, la
necessità di ricorrere ad una descrizione probabilistica deriva dall'ignoranza circa le
precise condizioni iniziali.
Al contrario, nello schema quantomeccanico, non è il fatto che, per esempio,
un’osservabile (velocità o posizione) non sia mai determinabile con precisione assoluta
o che la dinamica potrebbe essere del tipo che amplifica esponenzialmente gli errori, a
imporre che ci si debba accontentare di previsioni probabilistiche circa gli esiti dei
processi di misura. L'aleatorietà degli esiti è incorporata nella struttura stessa del
formalismo che, se assunto come completo, non consente neppure di pensare che, in
generale, gli esiti siano, anche se in un modo a noi sconosciuto, predeterminati.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
574!
11.12 La natura delle onde quantistiche
Già Einstein, nel caso dei fotoni, parlava di onde fantasma. Supponiamo che una
sorgente piccolissima emetta onde di luce; queste naturalmente, partendo dalla
sorgente, si diffonderanno nello spazio in tutte le direzioni, con simmetria sferica.
L'intensità della luce può, però, essere così bassa che viene emesso solo un fotone ogni
tanto. Ciò significa che se installiamo da qualche parte un rivelatore, questo registrerà
un fotone molto raramente. Così, mentre l'onda si diffonde in tutto lo spazio, il fotone è
misurato solo in un punto singolo. Che cosa succede al resto dell'onda? Che senso ha
parlare di onda? Continuerà a diffondersi senza che esista un fotone?
Come già accennato, nel caso della fisica quantistica dobbiamo parlare di onde di
probabilità, e non di onde tridimensionali reali come le onde
sonore. Se un fotone viene emesso dalla sorgente, questo
corrisponde a un'onda di probabilità sferica, la cui intensità in
una certa posizione indica la probabilità di trovare la particella
in quel punto e in un dato istante. Con l'aumento della distanza
dalla sorgente, questa sfera diventa sempre più grande, e quindi
la sua intensità diminuisce in ogni punto. La probabilità
calcolata su tutta la sfera deve essere pari a P=1, perchè la
particella deve trovarsi in qualche punto della sfera stessa: non
può certo scomparire. Che cosa succede quando rileviamo la particella in un
determinato punto, cioè quando il rivelatore scatta? Se la particella viene rilevata in un
certo punto, non può certo essere un un altro punto. Quindi, dal momento in cui il
rivelatore scatta, la probabilità deve subito diventare zero in tutto il resto della sfera.
Come fece notare Einstein, in caso di distanze molto grandi siamo di fronte a un
potenziale problema. Nel momento in cui il fotone viene rilevato in una certa posizione,
in qualsiasi altro punto l'onda sferica scomparirà senza alcun ritardo, in modo
assolutamente istantaneo. È chiaro che questo aspetto attirò le critiche di Einstein, il
quale con la teoria della relatività aveva scoperto che niente può superare la velocità
della luce. Qui però sembra che l'informazione “il fotone è stato rilevato” si possa
effettivamente propagare a qualsiasi velocità, visto che l'onda scompare subito in tutto
lo spazio. Vediamo quindi che l'immagine così ingenua e realistica di un'onda che si
diffonde concretamente nello spazio provoca forti difficoltà concettuali. L'unica
possibilità di evitare questo problema consiste, allora, nel non vedere l'onda di
probabilità come un'onda vera e propria che si diffonde realmente nello spazio, ma
come un semplice strumento utile a calcolare la probabilità che un fotone sia rilevato in
un determinato punto e in un dato istante.
La meccanica quantistica, demolendo i concetti classici di oggetti solidi e di leggi
rigorosamente deterministiche della natura, fa sì che a livello subatomico, gli oggetti
materiali solidi della fisica classica si dissolvono in configurazioni di onde di probabilità
e queste configurazioni in definitiva non rappresentano probabilità di cose, ma
piuttosto probabilità di interconnessioni. Un'attenta analisi del processo di osservazione
in fisica atomica ha mostrato che le particelle subatomiche non hanno significato come
entità isolate, ma possono essere comprese soltanto come interconnessioni tra la fase di
preparazione di un esperimento e le successive misurazioni. Quindi è meglio
considerare l'onda di probabilità solo un aiuto per la comprensione, con cui in qualche
575!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
modo possiamo crearci delle immagini mentali. Per essere precisi, possiamo parlare
solo di risultati dell'osservazione, come lo scatto del rivelatore, e delle loro probabilità.
Questo vale anche nel caso di particelle dotate di massa, perché anche in questo
caso parliamo di un'onda di probabilità, l'onda di materia di de Broglie.
Abbiamo trovato così un’interpretazione secondo la quale non si parla più di
onde che si diffondono nello spazio, e neanche di particelle che seguono una certa
traiettoria, ma solo dei singoli fenomeni che vengono effettivamente osservati. Ciò
significa che non potremmo spiegare alcun altro fenomeno che non sia comunque
spiegabile con l’interpretazione probabilistica.
11.13 Il principio di indeterminazione di Heisenberg
Nel 1927, anno della scoperta del principio d’indeterminazione da parte di
Heisenberg, l’incertezza non era certo sconosciuta alla fisica. Ai risultati sperimentali
manca sempre qualcosa per essere pienamente d’accordo con le previsioni teoriche. Nel
continuo avanti e indietro tra esperimento e teoria, è l’incertezza a indicare allo
scienziato come procedere. Gli esperimenti indagano dettagli sempre più minuti e le
teorie subiscono modifiche e revisioni. L’incertezza, o dir si voglia, la discrepanza tra
teoria ed esperimento sono gli arnesi del mestiere di ogni disciplina che voglia definirsi
scientifica. Heisenberg, quindi, non introdusse l’incertezza nella scienza, ma ne
modificò, e in maniera profonda, la natura stessa e il significato.
L’incertezza era sempre sembrata un avversario conquistabile. A partire da
Copernico, Galileo e Keplero, e poi con Newton, la scienza moderna si è sviluppata con
il ragionamento logico a dati e fatti verificabili. Le teorie, espresse nel linguaggio
rigoroso della matematica, avevano lo scopo di essere analitiche e precise. Offrivano un
sistema, una struttura, una spiegazione approfondita che avrebbe rimpiazzato il mistero
e il caso con la ragione e la causa. Nell’universo scientifico, nulla accade a meno che
qualcosa non lo faccia accadere. La spontaneità, il fenomeno senza causa, non trovava
spazio in questo sistema. I fenomeni della natura, si pensava, possono essere
straordinariamente complicati, ma alla fine la scienza deve rivelare l’ordine e la
prevedibilità. I fatti sono fatti, le leggi sono leggi. Non possono esistere eccezioni. Per
un paio di secol il sogno di Laplace sembrò realizzarsi. Questa visione classica, che
scaturiva dalle scienze fisiche, nell’Ottocento divenne il modello predominante per le
scienze di ogni genere. È per questo motivo che il principio di Heisenberg si dimostrò
così sconvolgente. Metteva in luce un’insospettata debolezza nell’edificio della scienza,
in quella struttura, la predicibilità di un fenomeno a partire dalle cause, che appariva
stabile e sicura. Heisenberg non mise in discussione la perfettibilità delle leggi di
natura. Fu invece nei fatti stessi della natura che trovò alcune strane e preoccupanti
difficoltà. Il principio di incertezza riguardava l’azione scientifica più elementare: come
acquisiamo la conoscenza del mondo, quel genere di conoscenza che possiamo
sottoporre a un esame scientifico minuzioso? Il punto essenziale, in sostanza, era che i
fatti non sono semplici dati oggettivi come si supponeva. Nella visione classica del
mondo naturale come grande macchina, si era dato per scontato che fosse possibile
definire con precisione illimitata tutte le parti funzionanti della macchina e
comprendere esattamente tutte le loro interconnessioni. Per poter sperare di
comprendere l’universo, si doveva innanzitutto presumere di poter scoprire, un pezzo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
576!
alla volta, quali sono e che funzione hanno tutte le parti che compongono questa grande
macchina che è l’universo. Heisenberg, invece, affermava che non sempre possiamo
scoprire quel che vogliamo sapere, che anche la nostra capacità di descrivere il mondo
naturale è limitata. Se non possiamo descriverlo come desideriamo, come possiamo
sperare di scoprire le leggi con il ragionamento?
L’invenzione della camera a nebbia sembrava aver fornito ai fisici uno strumento
per osservare le traiettorie delle particelle emesse dalle sostanze radioattive. Ma la
meccanica quantistica non ammetteva l’esistenza di traiettorie delle particelle, e ciò
sembrava un problema insormontabile. Ma, secondo Heisenberg, doveva essere
possibile stabilire una connessione tra ciò che si osservava nella camera a nebbia e la
teoria quantistica. Ricordando una frase di Einstein “è la teoria a decidere che cosa
possiamo osservare”, Heisenberg cominciò a concentrarsi sull’esatta natura della traccia
lasciata dall’elettrone in una camera a nebbia, arrivando alla conclusione che in realtà si
trattava solamente di una serie di punti, discreti e mal definiti, attraverso i quali
l’elettrone era passato. Anzi, la camera a nebbia mostrava solo una serie di minuscole
gocce d’acqua più grandi dell’elettrone e nessuna traiettoria continua, ininterrotta.
Allora la domanda cruciale a cui bisognava dare una risposta era: la meccanica
quantistica è in grado di rappresentare il fatto che un elettrone si trova
approssimativamente in un punto dato e che si sposta approssimativamente a una
velocità data? La meccanica quantistica, a quanto pareva, poneva delle restrizioni su ciò
che si poteva conoscere e osservare. Ma in che modo la teoria decideva che cosa si
poteva o non si poteva osservare? La risposta fu il principio di indeterminazione.
Ogni grandezza fisica deve essere suscettibile di una definizione operativa, nel
senso che deve essere sempre possibile, mediante un'osservazione o un'esperienza,
misurarne il valore. Nella fisica classica si supponeva che la misura di una grandezza
potesse essere eseguita con precisione sempre maggiore, a condizione di utilizzare un
dispositivo sempre più qualificato e una tecnica sempre più razionale. In realtà ciò non
è esatto: misurare significa sempre perturbare il sistema e quindi anche le grandezze
che lo caratterizzano.
Immaginiamo di voler stabilire
la posizione di un oggetto in movimento. Per far ciò dobbiamo vederlo;
dobbiamo, cioè, per esempio, far
arrivare sul corpo un fascio di luce.
Fra l'oggetto e lo strumento di misura
si verifica dunque uno scambio
energetico, un'interazione che tende a
modificare
qualche
grandezza
dinamica dell'oggetto. Da questo discende in modo inequivocabile che "conoscere"
significa "misurare" e "misurare" significa "perturbare". Logicamente, l'andamento del
processo perturbativo dipende, oltre che dai metodi di osservazione, anche e
soprattutto dal tipo di sistema che si vuole studiare. Per esempio, facendo arrivare un
fascetto luminoso su una palla da biliardo in movimento, possiamo studiare il suo moto
senza che esso sia influenzato dalle grandezze, quantità di moto, energia, ecc., associate
alla radiazione. Queste sono infatti trascurabili rispetto ai valori delle corrispondenti
grandezze fisiche che caratterizzano l'oggetto. Non è lo stesso con un elettrone che, per
577!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
le ridotte dimensioni del corpuscolo, alcune
sue
grandezze
dinamiche
verranno
sensibilmente perturbate e i mutamenti
introdotti non potranno più essere trascurati.
Partendo da queste premesse, Heisenberg
introdusse un principio secondo il quale
affermò
l'impossibilità
di
valutare
simultaneamente in modo rigoroso e senza
alcun limite la posizione e la quantità di moto di
un oggetto, oppure l'istante di tempo in cui un
sistema si trova in un particolare stato e la
corrispondente energia del sistema. La posizione e la quantità di moto, così come il
tempo e l'energia, sono coppie di parametri usualmente indicati come grandezze coniugate. Questa indeterminazione era il prezzo imposto dalla natura per la conoscenza
esatta di una delle due grandezze coniugate. Si può guardare il mondo con l’occhio x o
con l’occhio p, ma se si aprono entrambi gli occhi si ha una visione confusa.
Per la completa descrizione meccanica, in senso classico, di un sistema, le
grandezze coniugate devono essere sempre note simultaneamente. La meccanica
quantistica introduce invece, con il seguente enunciato, un'indeterminazione intrinseca
in tali coppie di grandezze, o meglio, una correlazione fra le incertezze con cui i loro
valori possono essere determinati:
PRINCIPIO DI INDETERMINAZIONE DI HEISENBERG
Ogni qualvolta vogliamo determinare simultaneamente la posizione x di un corpuscolo lungo
una data direzione e la sua quantità di moto px lungo la stessa direzione, le incertezze ∆x e
∆px delle due grandezze sono legate dalla relazione:
∆x ⋅ ∆px ≥ !
Similmente, se misuriamo l'energia E di un corpuscolo mentre esso si trova in un
determinato stato, impiegando un intervallo di tempo ∆t per compiere tale osservazione,
l'incertezza ∆E sul valore dell'energia è tale che:
∆E ⋅ ∆t ≥ !
L'indeterminazione ∆px sulla quantità di moto risulta dunque tanto maggiore
quanto più esatta è la misura della posizione e viceversa. Per rendere minima la
perturbazione sul moto dell'elettrone, potremmo utilizzare una radiazione di lunghezza
d'onda molto grande; in tal caso, però, non saremmo più in grado di rivelare con
esattezza la posizione della particella.
Al limite, se potessimo conoscere perfettamente la quantità di moto di una
particella, essendo ∆px=0 avremmo ∆x=∞, e la posizione sarebbe perciò totalmente
indeterminata, cioè la particella può essere trovata con eguale probabilità ovunque.
Così come se la maggior parte delle particelle reali ha una massa a riposo e
quindi energia e un’esistenza di lungo periodo, le particelle virtuali che non hanno
energia iniziale possono solo per brevi periodi “prendendo in prestito” l’energia di cui
hanno bisogno per la loro massa a riposo sotto forma di fluttuazioni quantistiche.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
578!
In definitiva:
"
In generale, quanto più si cerca di migliorare la precisione della misura di una delle due
grandezze coniugate, tanto più aumenta l'imprecisione della conoscenza dell'altra.
"
L’indeterminazione nella conoscenza contemporanea dell’energia e del tempo, della
velocità e della posizione, non significa che la conoscenza dello stato fisico del sistema è
indeterminata, ossia dovuta a tecniche di misura insufficienti, ma che l’indeterminazione
è insita nello stato fisico del sistema.
Per la profonda coerenza della teoria quantistica, le relazioni di Heisenberg sono
valide per ogni fenomeno che avviene in natura e quindi anche per il moto di un
oggetto macroscopico. Solo che in questo caso l'indeterminazione quantistica è così
piccola che appare trascurabile di fronte all'incertezza che deriva dagli errori
sperimentali delle misure.
Il principio di Heisenberg è una diretta conseguenza dell'ambiguo dualismo
onda-corpuscolo che caratterizza gli oggetti del mondo microscopico. Infatti una
particella quantistica si trova "contemporaneamente" in ogni punto dell'onda a essa
associata; è distribuita, cioè, con differente probabilità locale, in tutto lo spazio in cui
l'onda è presente. D'altra parte la particella possiede una ben determinata velocità solo
quando questa grandezza è misurata; prima della misura la velocità può assumere
potenzialmente tutto un insieme di valori.
Tutte queste considerazioni ci inducono a rivedere il concetto di "oggetto fisico".
Seguendo il suggerimento di Born, conviene considerare come autentiche proprietà del
reale solo quelle entità che siano degli osservabili, cioè le grandezze che possono essere
sottoposte a un'operazione di misura. L'acuta osservazione di Born, che a prima vista
sembra ovvia, rappresenta invece uno dei capisaldi della nuova meccanica. Spesso
infatti, nella fisica prequantistica, venivano utilizzati alcuni concetti "intuitivi" ed
"evidenti" che in realtà non si potevano in alcun modo valutare operativamente: per
esempio il concetto di "traiettoria" o "orbita" di un elettrone, o quello ancora più comune
di "raggio luminoso che si propaga in linea retta". Concettualmente la traiettoria di una
particella rappresenta certo qualcosa che esiste; si tratta però di un'esistenza che si
concretizza, ossia diventa oggettiva, solo quando è misurata. Ma il presupposto necessario per definire una traiettoria è conoscere in un certo istante l'esatta posizione
della particella e la sua precisa velocità, e la possibilità di ottenere operativamente
queste informazioni è esclusa dal principio di indeterminazione. Anche il classico
concetto di raggio non può in alcun modo rappresentare una realtà fisica osservabile.
Benché si possa stabilire sia l'istante in cui un fotone luminoso viene emesso, sia quello
in cui esso viene assorbito da un atomo, è concettualmente impossibile osservare
sperimentalmente il fotone mentre si propaga in linea retta con la velocità della luce.
Osservarlo significa infatti interagire con il fotone, tramite un processo di diffusione o
di assorbimento. Dopo l'osservazione il fotone o è deviato o è addirittura scomparso:
nel campo atomico si deve rinunciare al tradizionale concetto di traiettoria, inteso come
linea matematica.
Grazie alla sua profonda analisi critica Heisenberg ha potuto concludere che
esiste un limite invalicabile alla precisione con cui possono misurarsi coppie di variabili
incompatibili. L'esistenza di questo limite, sempre qualora si accetti la teoria come vera,
non è dovuta a difficoltà pratiche ma ha un carattere fondamentale: essa è una diretta
ed inevitabile conseguenza della peculiare duplice natura corpuscolare ed ondulatoria
di tutti i processi fisici. Si potrebbe dire che l'analisi di Heisenberg rappresenta,
579!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
nell'ambito della nuova teoria, l’analogo dell'analisi di Einstein nel caso della teoria
della relatività. Einstein, partendo dall'ipotesi che la luce si propagasse con velocità
finita, ha riconsiderato in questa prospettiva come due osservatori potessero
sincronizzare i loro orologi, giungendo così alle rivoluzionarie innovazioni della teoria
della relatività. Heisenberg, partendo dall'ipotesi che ogni processo ha una duplice
natura ondulatoria e corpuscolare, riconsidera in questa prospettiva la possibilità di
determinare i valori di due specifiche grandezze, ed è condotto alla conclusione che
esiste un limite concettuale alla precisione con cui possono essere conosciute entrambe.
Non stupirà che le conclusioni di Heisenberg abbiano gettato ulteriore
scompiglio nella comunità scientifica e abbiano immediatamente destato l'interesse più
vivo di tutti i brillanti pensatori che erano attivamente impegnati a chiarire il senso dei
formalismi che erano stati elaborati da poco ma che, per la loro carica rivoluzionaria,
non erano ancora stati pienamente compresi.
11.14 La scoperta della casualità: esperimento delle due fenditure
Per mettere in evidenza la doppia natura della luce e della materia, nel senso che
la luce, che di solito immaginiamo come un'onda, mostra anche proprietà corpuscolari e
le particelle materiali, d'altro canto, sono caratterizzate anche da proprietà ondulatorie,
consideriamo il classico esperimento di Young: illuminando con luce monocromatica
due strette fenditure e raccogliendo su uno schermo la luce trasmessa, si osserva una
figura composta da frange luminose e frange oscure.
Attraversando una doppia
fenditura, un fascio di elettroni
aventi tutti la stessa lunghezza
d'onda di de Broglie (cioè
monocromatici) produce una
figura di interferenza con le
stesse caratteristiche.
Consideriamo indifferentemente una sorgente monocromatica di fotoni o di
elettroni che, regolata opportunamente, emetta una sola particella alla volta. Dall'altra
parte delle fenditure, a grande distanza, collochiamo uno schermo che ci permetta di
rilevare il numero e la posizione delle particelle che incidono su di esso. Se aspettiamo
un tempo sufficientemente lungo, le particelle, arrivando sullo schermo una alla volta
dopo aver interagito singolarmente con le fenditure, si addensano su
alcune strisce, producendo la stessa distribuzione interferenziale che si
formerebbe se l'esperimento fosse svolto con la radiazione luminosa
nelle condizioni ordinarie.
Ripetendo l'esperimento dopo aver chiuso
una delle due fenditure, in modo da essere sicuri
che il fotone o l'elettrone passino attraverso l'altra,
la figura interferenziale scompare. Sullo schermo
si osserva solo una piccola macchia luminosa allineata con l'asse della
fenditura rimasta aperta. La stessa cosa accade se apriamo la prima
fenditura e chiudiamo la seconda. In meccanica quantistica una
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
57:!
particella è come un’onda ed un’onda come una particella. Sia gli elettroni che la luce
esibiscono effetti d’interferenza, ma quando vengono osservati, si manifestano come dei
quanti, ciascuno in un sol luogo.
Quale conclusione possiamo trarre da questa esperienza? Poiché il processo
interferenziale è provocato da una successione di singoli fotoni o elettroni che arrivano
uno alla volta sulle fenditure, dobbiamo pensare che il carattere ondulatorio sia una
proprietà insita nella particella. In un certo senso ciascuna particella interagisce
simultaneamente con entrambe le fenditure, che in tal modo, per il principio di
Huygens, si comportano come due sorgenti coerenti di onde.
Per l'esperimento della doppia fenditura di Young si presenta ora il problema di
conciliare l'idea che la luce sia composta da singole particelle, i fotoni, con la
spiegazione della formazione delle bande come figure di interferenza delle onde passate
attraverso le due fenditure, cioè come possiamo interpretare la figura di interferenza,
cioè le bande chiare e scure, da un punto di vista corpuscolare ? Evidentemente i punti
scuri sono quelli in cui non arrivano particelle, mentre in quelli chiari ne arrivano molte.
Quindi le bande chiare e scure significano semplicemente che si alternano punti in cui
arrivano molte particelle e punti in cui ne arrivano poche, o nessuna. Ci possiamo porre
due domande, che portano a considerazioni interessanti: che strada percorre una
singola particella prima di arrivare sullo schermo? Cosa fa sì che una singola particella
arrivi in un determinato punto? Certo, sappiamo che le particelle non possono arrivare
nei punti in cui ci sono le bande scure, ma perchè una certa particella arriva proprio
nella banda chiara in cui la troviamo, e non in un'altra? Vedremo che entrambe le
domande sollevano vari problemi molto profondi, legati in ultima analisi anche a
importanti questioni filosofiche. E alla fine sarà inevitabile invocare un cambiamento
radicale nella nostra visione del mondo fisico. Resta solo da vedere come.
Per prima cosa chiediamoci quale traiettoria percorre una determinata particella.
Attraversa la prima fenditura o la seconda? Se manteniamo la concezione corpuscolare,
tendiamo agevolmente a supporre che il fotone passi da una e una sola delle due
fenditure. Supponiamo che passi dalla fenditura superiore. Naturalmente raggiungerà
poi lo schermo di osservazione in un determinato punto. L'aspetto interessante però è
questo: il fatto che la fenditura inferiore sia aperta o chiusa fa una grande differenza. In
particolare, se è aperta solo una fenditura la particella può arrivare ovunque sullo
schermo. Se però anche la seconda fenditura è aperta, ci sono punti, corrispondenti alle
bande scure, in cui una particella non può assolutamente arrivare. La domanda
fondamentale allora è questa: come fa la particella che passa dalla fenditura superiore a
sapere se la seconda fenditura è aperta o no? La particella infatti deve sapere, al più
tardi quando arriva allo schermo, se la seconda fenditura è aperta o no, visto che nel
primo caso deve evitare di cadere nelle zone scure.
Einstein sosteneva che per ogni singola particella si potesse determinare con
esattezza da quale delle due fenditure era passata, cioè il dilemma precedente viene in
questo modo espresso compiutamente: da un lato sappiamo da quale fenditura è
passata ogni singola particella, dall’altro vediamo la figura d’interferenza. Tuttavia,
coma ha dimostrato Bohr: non è possibile conoscere la traiettoria delle singole particelle
e contemporaneamente osservare anche la figura d’interferenza. Se si ottiene
un’informazione sulla traiettoria, la figura d’interferenza sparisce; viceversa, se
l’esperimento è eseguito in modo tale da non registrare l’informazione sulla traiettoria,
si ripresenta la figura d’interferenza. Questa alternativa tra informazioni sulla traiettoria
58<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
e figura di interferenza è un fatto fisico fondamentale: non è possibile ottenere le due
cose contemporaneamente.
Ora ci dobbiamo chiedere perché un determinato fotone arriva in un determinato
punto dello schermo di osservazione, cioè arrivi in una certa banda e non in un’altra? E
anche all’interno di una banda chiara, perché una determinata particella di luce si trova
proprio in un certo punto della banda e non in un altro? La fisica quantistica riesce a
calcolare con precisione quante particelle arriveranno in un certo punto, ma è
impossibile prevedere dove arriverà precisamente una determinata particella. Anzi, se
facciamo passare una sola particella, possiamo calcolare solo la probabilità di trovarla in
una certa zona dello schermo. Le zone scure sono quelle in cui è molto improbabile
trovare una particella, quelle chiare sono le zone in cui la probabilità è alta. La fisica non
dice altro: l’effettivo comportamento di una singola particella è lasciato al caso.
La casualità, ora, entra nella fisica con un ruolo fondamentale e inedito. Ma fino a
che punto? In fisica classica quando si parla di evento casuale non s’intende dire che è
impossibile trovare una causa ben definita per un certo fenomeno, ma semplicemente
che non si conoscono tutti gli elementi per descriverlo in maniera compiuta. Potrebbe
essere così anche in fisica quantistica? Potrebbe esistere una spiegazione più profonda
che definisce con la massima precisione anche il comportamento della singola
particella? Se esistesse una spiegazione di questo tipo, anche nella fisica quantistica il
caso sarebbe puramente soggettivo, dovuto alla nostra inconsapevolezza. Se però così
non fosse, ci troveremmo di fronte a qualcosa di assolutamente nuovo. Ciò
significherebbe che nella meccanica quantistica il singolo avvenimento non è
descrivibile, nemmeno in linea di principio, e quindi la particella non saprebbe perché
arriva in un determinato punto dello schermo. Un’alternativa è quella di ipotizzare
l’esistenza di proprietà, a noi sconosciute, che determinano precisamente la traiettoria
di ogni particella e il suo punto d’arrivo sullo schermo. Questa ipotesi, detta delle
variabili nascoste, ha abbastanza seguito presso alcuni fisici, che hanno tentato anche di
elaborare teorie fisiche che la prevedessero.
Esistono, però, altri motivi per supporre che il singolo avvenimento sia
oggettivamente casuale, cioè che non abbia una spiegazione nascosta. Questo aspetto è
legato all’informazione, che nella fisica quantistica riveste un ruolo del tutto nuovo
rispetto alla fisica classica. Di quante informazioni abbiamo bisogno per descrivere il
comportamento di un fotone, o di una particella? In altre parole, che rapporto c’è tra la
quantità di informazioni relative a un sistema e la grandezza del sistema stesso? È
evidente che un oggetto piccolo, come una particella, richiede meno informazioni
rispetto ad un oggetto grande per la sua descrizione. Ma questo che cosa significa per il
nostro esperimento della doppia fenditura? Significa che il quanto di luce che attraversa
la doppia fenditura può portare pochissime informazioni. Con queste informazioni
possiamo sapere o da quale fenditura passa la particella o se è presente una figura di
interferenza, e la scelta tra le alternative dipende dal modo in cui si imposta
l’esperimento. In entrambi i casi, però, la singola particella non può fornire anche
ulteriori informazioni sul punto dello schermo in cui arriverà. Quindi questo evento
deve avvenire in modo puramente casuale.
In base a questi ragionamenti, nella fisica quantistica il caso si presenta non
perché siamo incapaci di scoprire la causa del singolo avvenimento, ma semplicemente
perché l’avvenimento non ha alcuna causa, dato che la particella non può portare
informazioni sul punto dello schermo in cui arriverà.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
58;!
Grazie alla nuova visione della fisica quantistica come scienza dell’informazione,
ossia come scienza di ciò che in linea di principio si può sapere, il caso è una
componente molto naturale, nonché necessaria ed inevitabile, della quale non se ne può
fare a meno. Einstein, quando volle esprimere il suo disappunto per il nuovo ruolo della
casualità nella fisica quantistica affermò: “Dio non gioca a dadi” e Bohr, fautore della
nuova fisica, rispose di smettere di dare ordini al Signore. Da questa fondamentale
esperienza deduciamo che:
"
la dualità onda - corpuscolo rappresenta un aspetto universale; come la luce, così anche
gli oggetti materiali, elettroni, protoni, neutroni, nuclei..., tutti dotati di massa,
presentano potenzialmente una doppia natura.
"
Non è possibile osservare la figura di diffrazione della
contemporaneamente conoscere la traiettoria della particella.
"
Nella fisica quantistica il caso non è soggettivo, cioè non dipende dalle nostre scarse
conoscenze, ma è oggettivo, insito nella natura e nei comportamenti delle cose.
doppia
fenditura
e
Gli elettroni manifestano proprietà ondulatorie finché si concede ad essi la
possibilità di farlo. Quando, invece, si cerca di rivelare il loro percorso, nel caso
specifico di stabilire da quale fenditura siano passati, essi assumono il loro più consono
aspetto corpuscolare. Allo stesso modo la luce si comporta, a seconda delle condizioni
sotto cui è osservata, come un'onda o come un flusso di fotoni. Circostanza
fondamentale è che in nessun fenomeno è necessario far intervenire simultaneamente
l'aspetto corpuscolare e quello ondulatorio. Ogni esperienza capace di rivelare una
particella da un punto di vista corpuscolare esclude la possibilità di evidenziare il suo
aspetto ondulatorio, così come l’osservazione della particella provoca inevitabilmente
un disturbo così rilevante tale da escludere la possibilità di ottenere la figura di
diffrazione. È bene sottolineare che, a livello microscopico, le nostre osservazioni sono
sempre indirette, mediate cioè da procedure sperimentali appositamente progettate per
indagare particolari fenomeni. La "realtà" del mondo microscopico sta, in definitiva,
nelle interazioni che possiamo stabilire con esso, cioè nei risultati dei nostri esperimenti.
Questi esperimenti ci rivelano che il modello di onda e il modello di particella
(costruzioni concettuali che ci siamo formati osservando il mondo macroscopico: il
primo è adeguato per descrivere determinati risultati, il secondo per descriverne altri),
la traiettoria e la figura di diffrazione, sono complementari. Praticamente, se uno
sperimentatore vuole valutare la posizione di un elettrone, nessuna legge quantistica gli
vieta di ottenere una risposta ben precisa. Poiché con un'opportuna apparecchiatura
l'elettrone può essere localizzato in un punto dello spazio, egli conclude che l'elettrone è
una particella. Se invece vuole valutare la lunghezza d'onda dell'elettrone, utilizzando
un diverso dispositivo sperimentale può trovare anche in questo caso una risposta. Ciò
lo induce a concludere che l'elettrone non è una particella, bensì un'onda. Lo stesso
ragionamento può essere fatto per la traiettoria e la figura di diffrazione.
Forse, l'errore che si commette nell'interpretare la filosofia quantistica è quello di
supporre che il fotone, l'elettrone, ecc. abbiano una forma reale, che abbiano, cioè,
l'aspetto che il mondo macroscopico assegna a un'onda o a un corpuscolo. Soprattutto
nei riguardi di certi particolari fenomeni, sarebbe meglio considerare queste entità
microscopiche come intrinsecamente indefinite fino all'istante in cui, per effetto di un
intervento strumentale, vengono evidenziate o come onde o come corpuscoli.
58=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
11.15 Il principio di complementarità
Con riferimento alla discussione precedente si può capire lo sconcerto prodotto
dal nuovo formalismo che richieda di integrare, nella medesima immagine, aspetti fisici
inconciliabili tra loro, quali tipicamente quelli corpuscolari e quelli ondulatori.
Riflettendo su questi oscuri aspetti degli schemi teorici che andavano affermandosi
Bohr fece un'osservazione di grande rilevanza. Egli sottolineò che i procedimenti
sperimentali necessari per mettere in evidenza gli aspetti corpuscolari e gli aspetti
ondulatori dei processi fisici risultano, di fatto, impossibili da realizzare
simultaneamente. Ogni possibile apparecchio concepito per informarci sulla posizione
(con precisione arbitraria), necessariamente non ci informa con altrettanta precisione
sulla velocità e, in modo perfettamente analogo, ogni situazione sperimentale nella
quale si mettano in evidenza gli aspetti corpuscolari del processo non consente al tempo
stesso di metterne in evidenza gli aspetti ondulatori.
Per apprezzare pienamente questo fatto conviene
rifarsi all'esperimento di interferenza da due fenditure
analizzato in precedenza. In un esperimento siffatto, dice
Bohr, il formarsi della figura di interferenza sullo schermo
mette in evidenza che tra le fenditure e lo schermo gli
aspetti ondulatori del processo giocano un ruolo
importante. D'altra parte, come sottolineato più volte, la
rivelazione sullo schermo pone in evidenza gli aspetti
corpuscolari del processo. I due aspetti contraddittori non
emergono mai, per cosi dire, assieme. E, appropriatamente,
Bohr segnala che qualsiasi tentativo di evidenziare, oltre
agli aspetti ondulatori, anche quelli corpuscolari al passaggio attraverso le fenditure
(per esempio chiedendosi, tipica questione corpuscolare, attraverso quale fenditura la
particella è passata) inevitabilmente distrugge la figura di interferenza e quindi risulta
impossibile avere accesso, nello stesso esperimento ad entrambi gli aspetti
"complementari". In questa prospettiva chiedersi se la luce sia un’onda o una particella
è privo di senso. Nella meccanica quantistica non c’è modo di sapere che cosa la luce sia
in realtà. L’unica domanda che è lecito farsi è: la luce si comporta come una particella o
come un’onda? La risposta è che talvolta si comporta come una particella, altre volte
come un’onda, e questo lo stabilisce l’esperimento scelto.
Mentre Heisenberg attribuiva all’atto della misurazione l’origine della
perturbazione che precludeva una simultanea misura precisa di una delle grandezze
coniugate, Bohr assegnava un ruolo cruciale all’atto della scelta di quale esperimento
eseguire. Bohr conveniva che vi fosse una perturbazione fisica, ma che venisse prodotta
dall’atto di osservare i fenomeni nel mondo quantistico, ossia l’osservatore per
effettuare la misurazione dovesse scegliere una faccia del dualismo onda-particella.
L’osservazione di Bohr ha un notevole rilievo ed egli si entusiasmò a tal punto di
questa idea da proporla quasi come un paradigma di assoluta generalità valido anche al
di fuori dell'ambito dei processi microscopici. L’idea è che la natura sia estremamente
ricca di sfaccettature e misteriosa. A noi è concesso cogliere vari aspetti di questa
complessa realtà, ma non è dato di coglierli simultaneamente. Anzi, i procedimenti
necessari per avere accesso ad una delle molteplici facce del reale risultano
incompatibili con quelli per avere accesso ad altri aspetti complementari dei precedenti.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
584!
Bohr si spinse tanto avanti da ritenere valida questa idea anche in riferimento a
fenomeni profondamente diversi, per esempio ai procedimenti per accertare se
microrganismi o singole cellule risultassero viventi o inerti, asserendo che ogni
procedimento mirato ad evidenziare che una cellula è viva, inevitabilmente la uccide.
La complementarità fu assunta da Bohr come principio: non è possibile
soddisfare entrambe le condizioni (onda e corpuscolo, traiettoria e figura d’interferenza)
contemporaneamente e nello stesso esperimento. Per essere ancora più precisi: finché
da qualche parte, in qualsiasi luogo dell’universo, sono disponibili informazioni sulla
traiettoria della particella, la grandezza complementare, cioè la figura d’interferenza,
non può essere definita. Tale principio fu esposto per la prima volta nel 1927, e
rappresenta uno dei punti fondamentali della meccanica quantistica:
PRINCIPIO DI COMPLEMENTARITÀ
Se un esperimento permette di osservare un aspetto di un fenomeno fisico, esso impedisce
al tempo stesso di osservare l'aspetto complementare dello stesso fenomeno.
Nella logica di Bohr i concetti di corpuscolo e di onda, e di qualsiasi coppia di
grandezze fisiche complementari, non sono incompatibili; per cogliere appieno alcuni
aspetti del mondo microscopico occorrono entrambe le descrizioni, che singolarmente si
escludono, ma che insieme si completano.
La complementarietà per Bohr non era soltanto pura teoria o un principio, ma la
struttura concettuale ancora mancante necessaria per descrivere la strana natura del
mondo quantistico, e quindi lo strumento per superare il carattere paradossale del
dualismo onda-particella. la complementarietà evitava in modo semplice e chiaro le
difficoltà che derivavano dalla necessità di utilizzare due disparate rappresentazioni
classiche, onde e particelle, per descrivere un mondo non classico. Sia le particelle che le
onde erano, secondo Bohr, indispensabili per una descrizione completa della realtà
quantistica, ma entrambe le descrizioni erano di per sé solo parzialmente vere. I fotoni
dipingevano un quadro di luce, le onde un altro. Ma i due dipinti erano esposti l’uno
accanto all’altro. L’osservatore ne poteva guardare soltanto uno in ogni dato istante.
Nessun esperimento potrebbe mai mostrare una particella e un’onda nello stesso
momento, simultaneamente.
Mi sembrano opportuni alcuni commenti. Non v'e alcun dubbio che
l’osservazione circa l'impossibilità anche solo di immaginare esperimenti ideali nei
quali si possano mettere in evidenza quegli aspetti del reale che risultano a prima vista
contraddittori, ha una grande rilevanza concettuale. Le osservazioni più significative
circa la filosofia che sta sotto l'idea di complementarità sono state espresse da Bell:
“Bohr elaborò una filosofia di quello che sta dietro le ricette della teoria. Anziché essere
disturbato dall'ambiguità di principio, egli sembra trovarci ragioni di soddisfazione.
Egli sembra gioire della contraddizione, per esempio tra "onda" e "particella" che
emerge in ogni tentativo di superare una posizione pragmatica nei confronti della
teoria.... Non allo scopo di risolvere queste contraddizioni e ambiguità, ma nel
tentativo di farcele accettare egli formulò una filosofia, che chiamò "complementarità".
Pensava che la "complementarità" fosse importante non solo per la fisica, ma per tutta
la conoscenza umana. Il suo immenso prestigio ha portato quasi tutti i testi di
meccanica quantistica a menzionare la complementarietà, ma di solito in poche righe.
Nasce quasi il sospetto che gli autori non capiscano abbastanza la filosofia di Bohr per
585!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
trovarla utile. Einstein stesso incontrò grandi difficoltà nel cogliere con chiarezza il
senso di Bohr. Quale speranza resta allora per tutti noi? Io posso dire molto poco circa
la complementarietà, ma una cosa la voglio dire. Mi sembra che Bohr usi questo
termine nel senso opposto a quello usuale. Consideriamo per esempio un elefante. Dal
davanti esso ci appare come una testa, il tronco, e due gambe. Dal dietro esso è un
sedere, una coda e due gambe. Dai lati appare diverso e dall'alto e dal basso ancora
diverso. Queste varie visioni parziali risultano complementari nel senso usuale del
termine. Si completano una con l'altra, risultano mutuamente consistenti, e tutte
assieme sono incluse nel concetto unificante di elefante. Ho l’impressione che assumere
che Bohr usasse il termine complementare in questo senso usuale sarebbe stato
considerato da lui stesso come un non avere colto il punto e avere banalizzato il suo
pensiero. Lui sembra piuttosto insistere sul fatto che, nelle nostre analisi, si debbano
usare elementi che si contraddicono l'un l'altro, che non si sommano o non derivano da
un tutto. Con l'espressione complementarietà egli intendeva, mi pare, l'opposto:
contraddittorietà. Sembra che Bohr amasse aforismi del tipo: l'opposto di una profonda
verità rappresenta anch'esso una profonda verità; la verità e la chiarezza sono
complementari. Forse egli trovava una particolare soddisfazione nell'usare una parola
familiare a tutti attribuendogli un significato opposto a quello usuale. La concezione
basata sulla complementarietà è una di quelle che io chiamerei le visioni romantiche
del mondo ispirate dalla teoria quantistica”.
Il principio di complementarità portò a utilizzare un linguaggio tutto particolare
per descrivere il mondo atomico. Non tutta la logica della meccanica quantistica fu
pienamente condivisa dai grandi fisici del tempo.
La ricerca scientifica ci costringe a prendere in considerazione l'aleatorietà dei
processi fisici, l'indeterminismo, l'impossibilità di eseguire simultaneamente
procedimenti di misura che risultano perfettamente legittimi nel contesto classico, e che
rappresentano sfide affascinanti che vanno affrontate. Si deve trovare una via d’uscita.
Secondo Bell questa via d'uscita dovrà essere "non romantica" nel senso che richiederà
lavoro matematico da parte di fisici teorici più che interpretazioni di tipo filosofico, ma
è anche vero che il cambiamento del punto di vista sulla natura introdotto dalla nuova
fisica quantistica rispetto a quella classica ci costringe a interrogarci sulla vera realtà
della natura, ammesso che esista, anche da un punto di vista filosofico, ed obbliga i
filosofi a confrontarsi con temi assolutamente nuovi per i quali è richiesta una
conoscenza approfondita per poterli compenetrare appieno.
11.16 La meccanica quantistica dell’atomo
L'equazione di Schrodinger, a parte gli effetti relativistici, fornisce la più ampia
descrizione del comportamento di una particella quantistica. Per quanto riguarda in
particolare l'atomo di idrogeno, l'equazione permette di determinare non solo la forma
degli orbitali, ma anche il valore dei corrispondenti livelli di energia.
Possiamo dire che l'equazione di Schrodinger svolge nella fisica quantistica la
stessa funzione che la seconda legge di Newton svolge nella fisica classica.
Uno dei risultati fondamentali della meccanica ondulatoria è rappresentato dal
fatto che, essendo l'atomo di idrogeno un sistema tridimensionale, per descrivere gli
stati stazionari del suo elettrone sono necessari tre numeri quantici, ciascuno associato a
una particolare grandezza fisica e che può assumere un certo insieme di valori:
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
586!
SIMBOLO
NOME
ASSOCIATO A
VALORI AMMESSI
n
numero quantico
principale
energia
1,2,3,...
l
numero quantico orbitale
ml
numero quantico
magnetico
modulo del
momento angolare
direzione del
momento angolare
0, 1,2,... n - 1
-l... -2, - 1, 0, 1,2, ...l
Il primo numero quantico è quello introdotto da Bohr: chiamato numero quantico
principale, fornisce i livelli di energia En. Se si trascurano piccole interazioni magnetiche
all'interno dell'atomo, l'equazione di Schrodinger prevede che le energie permesse
abbiano esattamente la stessa espressione ottenuta da Bohr: En = E1/n2 dove E1 = -13,6
eV è l’energia dello stato fondamentale e n = 1,2,3,…
Qualsiasi sistema atomico possiede un momento angolare, che, al pari
dell’energia e della quantità di moto, si conserva. Con questa espressione si intende
asserire che esiste un asse privilegiato attorno al quale il sistema ruota come una
trottola. Ricordando che Bohr formulò le sue regole di quantizzazione precisando che
un elettrone, nel suo moto attorno al nucleo non può possedere arbitrari valori del
momento angolare, ma solo alcuni precisi valori, per cui solo alcune precise orbite
risultano accessibili all'elettrone, e gli stati dell'atomo risultano quantizzati, risulta che
una caratteristica del momento angolare consiste nel proprio fatto che esso risulta
quantizzato, sia per quanto concerne la sua grandezza L sia per le orientazioni che può
assumere nello spazio. Questo equivale, nell'analogia con un sistema classico, ad
asserire che, per esempio, una trottola non può ruotare con un'arbitraria velocità
angolare attorno al suo asse, ma solo con quelle che corrispondono ai valori tipici della
quantizzazione. Di fatto la rotazione spaziale può dare origine, secondo lo schema
quantistico, a n possibili valori di L, individuati dal numero quantico orbitale l, che è un
numero intero variabile fra zero e n-l. La soluzione dell'equazione di Schrodinger per L
ci dà l’espressione:
L = ℏ l(l + 1)
Non basta, oltre alla sua grandezza, anche
l'orientazione del momento angolare rispetto ad una
direzione prefissata risulta quantizzata: sarebbe come
se nel caso classico si asserisse che una trottola non
può ruotare in modo che il suo asse formi un angolo
arbitrario con la verticale ma che quest'angolo può
assumere solo alcuni valori fissati. Per questo, dal
punto di vista quantistico, il momento angolare è
descritto da due soli parametri: il modulo L e la
componente Lz lungo una direzione z fissata. Per un
dato numero quantico orbitale l, i valori permessi per Lz sono:
L z = ml ℏ
dove il numero quantico magnetico m, può assumere tutti i valori interi compresi fra -l e l,
incluso lo zero.
587!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Ancora una volta non possiamo non stupirci: la descrizione quantistica del
processo a noi familiare di una trottola classica che, via via che rallenta, aumenta
l'angolo che il suo asse forma colla verticale fino ad adagiarsi al suolo, comporta che la
trottola, di fatto, procede in modo che il suo asse faccia dei salti discontinui, per
esempio dal valore m=l ai valori l -1, l - 2 e cosi via fino ad assumere il valore m=0.
Le sole 5 possibili orientazioni rispetto all’asse verticale di un momento angolare nel
caso l=2, sono rappresentate in figura.
Se consideriamo l'atomo di idrogeno
nel suo stato fondamentale n=1, il numero
quantico orbitale deve essere l=0 e il
numero quantico magnetico ml=0: il
momento angolare è pertanto nullo (L=0 e
Lz=0). Lo stato eccitato n=2 può avere sia
l=0, sia l=1.
Nel primo caso ml può assumere
solo il valore zero; nel secondo sono possibili i tre valori ml=-1, 0, 1. Per n=2 si
individuano dunque quattro configurazioni che si distinguono almeno per un numero
quantico. Avendo lo stesso numero quantico principale, queste sono caratterizzate dalla
stessa energia, ma rappresentano quattro stati di moto differenti, cui corrispondono
altrettante funzioni d'onda distinte
L'insieme dei tre numeri quantici
(n,l,m) individua infatti una particolare
funzione d'onda, risultante dall'equazione
di Schrodinger. A ciascuna terna
corrisponde
quindi
una
diversa
distribuzione dell'elettrone nello spazio.
La quantizzazione spaziale, legata
al numero quantico magnetico, ci
permette di comprendere alcuni fatti
sperimentali, che nell'ambito del modello
di Bohr rimanevano senza spiegazione.
Se poniamo un atomo di idrogeno in un campo magnetico esterno, osserviamo
che le righe spettrali si scindono in un certo numero di componenti molto vicine fra
loro. Questa suddivisione, chiamata effetto Zeeman, dimostra sperimentalmente come
l'energia di uno stato dell'atomo, in presenza di un campo magnetico, non dipenda solo
dal numero quantico n, ma anche dal valore assunto dal numero quantico ml. Tale
dipendenza si può spiegare attribuendo all'elettrone un momento magnetico µ che,
risultando proporzionale al momento angolare l, può assumere 2l + 1 orientazioni
rispetto alla direzione z del campo magnetico applicato.
Per completare la descrizione degli stati atomici, oltre ai tre numeri quantici
esaminati, che derivano dalla teoria originale di Schrodinger, è necessario introdurne
un quarto: il numero quantico di spin. Se si osservano infatti le righe spettrali emesse dagli
atomi con uno spettroscopio ad alta risoluzione, si nota che esse si suddividono in più
righe separate da alcuni angstrom. Questa struttura fine non può essere in nessun modo
spiegata con i soli primi tre numeri quantici.
Per interpretare i risultati sperimentali, nel 1925 Wolfgang Pauli (1900-1958;
Premio Nobel) ipotizzò l'esistenza di un ulteriore numero quantico ms, che a differenza
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
588!
degli altri tre poteva assumere soltanto due valori: 1/2 e -1/2. Era questa bivalenza che
spiegava il motivo per cui in un guscio chiuso il numero degli elettroni era pari a 2n2 e
raddoppiava, quindi, il numero degli stati elettronici. Dove prima c’era un singolo stato
di energia con un insieme unico di tre numeri quantici n,l,m, ora c’erano due stati di
energia: n,l,m,A ed n,l,m,B. Questi stati aggiuntivi spiegavano l’enigmatica suddivisione
delle righe spettrali nell’effetto Zeeman anomalo. Poi il quarto numero quantico “a due
valori” portò Pauli al principio di esclusione, secondo il quale due elettroni in un atomo
non possono mai avere lo stesso insieme di quattro numeri quantici. Era il principio di
esclusione che governava l’occupazione dei gusci elettronici nel nuovo modello atomico
di Bohr e impediva che gli elementi si ammassassero tutti nel livello fondamentale. Il
principio forniva la spiegazione fondamentale della disposizione degli elementi nella
tavola periodica. Pertanto, le proprietà chimiche di un elemento, in questo modo, non
sono determinate dal numero totale degli elettroni presenti nel suo atomo, ma soltanto
dalla distribuzione dei suoi elettroni di valenza. Se tutti gli elettroni in un atomo
occupassero il livello energetico più basso, tutti gli elementi avrebbero le medesime
proprietà chimiche.
Perché fossero necessari quattro numeri, e non tre, per specificare la posizione
degli elettroni in un atomo era un mistero. Si era ammesso fin dal tempo delle originarie
ricerche di Bohr e Sommerfeld che un elettrone atomico in moto orbitale intorno ad un
nucleo si muovesse in tre dimensioni e quindi richiedesse tre numeri quantici per la sua
descrizione. Qual era la base fisica del quarto numero quantico di Pauli? Nel 1925
Samuel Goudsmit (1902-1978; Premio Nobel) e George Uhlenbeck (1900-1988; Premio
Nobel) compresero che la proprietà della bivalenza proposta da Pauli non era un altro
numero quantico. A differenza dei tre esistenti n,l,m che specificavano rispettivamente il
momento angolare dell’elettrone nella sua orbita, la forma di tale orbita e la sua
orientazione spaziale, la bivalenza era una proprietà intrinseca dell’elettrone, e quindi i
due giovani fisici suggerirono che tutti gli elettroni fossero dotati di un momento
angolare intrinseco, lo spin S, oltre al momento angolare orbitale L. In questo modo lo
spin risolveva alcuni dei problemi che ancora affliggevano la teoria della struttura
atomica e al tempo stesso forniva una limpida giustificazione fisica del principio di
esclusione. Certo la scelta del nome spin (giro vorticoso in inglese) non fu proprio felice
dal momento che il nome evoca immagini di oggetti in rotazione, mentre lo spin
dell’elettrone è un concetto puramente quantistico.
La grandezza fisica spin è considerata la più quantomeccanica di tutte le quantità
fisiche. Che cos'è lo spin? Essenzialmente, è una misura della rotazione di una
particella, ed indica il fatto che alcune particelle elementari, pur essendo puntiformi, si
comportano come microscopiche trottole. Lo spin è il momento angolare intrinseco
associato alle particelle, che diversamente dagli oggetti rotanti della meccanica classica,
che derivano il loro momento angolare dalla rotazione delle parti costituenti, lo spin
non è associato con alcuna massa interna. Lo spin risulta del tutto e per tutto analogo al
momento angolare a parte alcune significative differenze. Innanzi tutto esso può
assumere più valori che non il momento angolare. La formula che esprime la sua
grandezza risulta formalmente uguale alla precedente:
S = ! s(s + 1)
589!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Tuttavia nel caso dello spin l'analogo della quantità l che indicheremo come s
può assumere, oltre al valori 0,1,2, ... anche valori semi-interi positivi, vale a dire s=1/2,
3/2, 5/2 ... e così via. Un'altra importante differenza deriva dal fatto che il valore
assoluto dello spin è una caratteristica invariabile e caratteristica di ogni particella come
la sua massa o la sua carica. In altre parole, mentre un elettrone può ruotare attorno al
nucleo in modo da avere uno qualsiasi dei valori permessi per il suo momento angolare
L, esso "ruota su sé stesso" solo in un modo preciso che corrisponde a una proprietà
specifica e immutabile di questo tipo di particelle ed è solo la direzione dell'asse di tale
spin che può variare, e questo fatto è in forte contrasto con la situazione di un oggetto
macroscopico, come una palla da tennis, che può assumere rotazioni di quantità
diverse, a seconda di come viene colpita! Di fatto tutti gli elettroni, i protoni e i neutroni,
hanno invariabilmente s=½ , il che vuole dire che la grandezza del loro momento di
spin risulta:
S = ! s(s + 1) =
3
!
2
e implica che gli elettroni possono orientarsi rispetto a una direzione qualsiasi solo in
due modi corrispondenti a proiezioni eguali a + ! /2 e - ! /2 rispettivamente. Diremo
quindi che una particella di questo tipo può avere solo lo spin in su o in giù lungo la
direzione considerata. Questa quantità di momento angolare non sarebbe consentita per
un oggetto formato esclusivamente da un certo numero di particelle orbitanti nessuna
delle quali fosse dotata di spin; essa può presentarsi solo perchè lo spin è una proprietà
intrinseca della particella stessa, ossia perchè non deriva dal moto orbitale delle sue
parti attorno a qualche centro. Poiché la grandezza dello spin è
3
! , mentre le sue
2
proiezioni risultano avere i valori + ½ e – ½ , lo spin non si allinea mai perfettamente
con alcuna direzione fisicamente prefissata.
Pertanto, come il momento angolare orbitale, S è spazialmente
quantizzato e la sua componente z è:
Sz = ms ! = ±
1
!
2
Una particella con spin semintero, ossia multiplo di ! /2, si dice
fermione, e presenta una curiosa bizzarria nella descrizione
quantomeccanica: dopo una rotazione completa di 360° il suo vettore
di stato non torna uguale a sé stesso ma assume il segno meno! Molte
particelle naturali sono di fatto fermioni, come i componenti
dell’atomo: elettroni, protoni e neutroni. Le particelle con spin intero,
ossia multiplo pari di ! /2, si chiamano bosoni, come i fotoni. Dopo
una rotazione di 360° un vettore di stato di un bosone torna a sé stesso,
non al suo negativo.
In un primo momento fu ipotizzato che il momento angolare di spin fosse
associato alla rotazione dell'elettrone su sé stesso. Tuttavia, se l'elettrone non può essere
pensato come un oggetto localizzato, tanto meno è ammissibile immaginarlo in
rotazione. Lo spin deve piuttosto essere considerato come una proprietà intrinseca
dell'elettrone che si manifesta come un momento angolare.
Risulta rilevante anche il fatto che ad ogni momento angolare risulti sempre
associato un momento magnetico. Questo vuole dire che le minuscole trottole di cui ci
stiamo interessando si comportano, dal punto di vista delle loro interazioni con un
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
58:!
campo magnetico, come dei minuscoli aghi magnetici. Inoltre, in un atomo si hanno in
generale diversi momenti angolari dovuti ai moti orbitali degli elettroni e ai loro stati di
spin ed essi si combinano sommandosi come vettori, secondo la regola del
parallelogramma.
11.17 Il principio di esclusione di Pauli
Il modello di Bohr non è in grado di descrivere gli atomi complessi formati da
più elettroni, in quanto non tiene conto delle reciproche interazioni elettroniche.
Applicando la teoria quantistica a questi atomi, si trova che gli stati dei singoli elettroni
possono essere descritti dagli stessi numeri quantici n, l, ml, ms utilizzati per l'atomo di
idrogeno, con la differenza che i valori dei
corrispondenti livelli energetici dipendono, oltre
che dal numero quantico principale n, anche dal
numero quantico orbitale l. Gli altri numeri
quantici influiscono debolmente sul valore
dell'energia associata a un dato stato elettronico e,
in prima approssimazione, nel calcolo dei livelli
possono essere trascurati.
Fissato
n,
l'energia
è
crescente
all'aumentare di l e, fissato l, è crescente con n;
non necessariamente, però, i livelli con un dato n
hanno energia minore di tutti i livelli
corrispondenti a n + 1. Per esempio, come si può
vedere dalla figura, il livello con n=3 e l=2 ha
energia maggiore di quello con n=4 e l=0.
Stabiliti i numeri quantici che individuano i
possibili stati elettronici, nonché la forma delle corrispondenti funzioni d'onda e il
valore dell'energia associata a ciascuno stato, un fondamentale principio dovuto a Pauli
fissa il criterio con cui gli elettroni sono distribuiti negli stati permessi:
PRINCIPIO DI ESCLUSIONE DI PAULI
In un atomo non possono mai trovarsi due elettroni aventi la stessa quaterna di numeri
quantici.
Così se, per esempio, due elettroni di un atomo hanno i primi tre numeri quantici
n, l, ml uguali, il quarto numero quantico ms dell'uno deve essere opposto a quello
dell'altro, in modo che i due spin siano, come si usa dire, antiparalleli. La terna di numeri
quantici n, l, ml descrive completamente la forma della "nuvola elettronica", cioè
individua un ben preciso orbitale. Possiamo pertanto enunciare il principio di
esclusione anche dicendo che: ogni orbitale può essere occupato al massimo da due
elettroni, con diverso numero quantico di spin. Questo principio non solo permette di
interpretare in modo naturale la struttura del sistema periodico degli elementi, ma
rappresenta la chiave per capire una numerosa serie di fenomeni sperimentali, dalla fisica atomica a quella nucleare.
59<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Si dice che gli orbitali caratterizzati dallo stesso numero quantico principale n
appartengono allo stesso guscio, o anche allo stesso strato. Talvolta è anche usata una
notazione secondo la quale lo strato con n = 1 è indicato con la lettera K e gli strati
corrispondenti ai numeri successivi con L, M, N, O, ecc. Per un dato strato, l'insieme
degli orbitali caratterizzati dallo stesso numero quantico l (e differenziati dal diverso
valore del numero quantico ml) costituisce un sottostrato. Poiché, come abbiamo detto, i
livelli di energia degli elettroni atomici dipendono pressoché soltanto dai due numeri
quantici n e l, tutti gli stati elettronici appartenenti a un determinato sottostrato hanno
la stessa energia.
Una notazione spesso utilizzata in spettroscopia fa corrispondere a ogni valore di
l una lettera dell'alfabeto. Così lo strato K, caratterizzato da n = 1 (e, necessariamente, l =
0), viene detto strato 1s, il sottostrato con n = 3 ed l=2 è indicato come 3d, ecc.:
Numero quantico
orbitale l
0
1
2
3
4
5
Notazione
spettroscopica
s
p
d
f
g
h
…
…
l = 0 ml = 0
Poiché lo strato K contiene un solo orbitale (n=1, l=0, ml=0),

esso può ospitare al massimo 2 elettroni. Lo strato L, invece, è
ml = 1

formato da 4 orbitali, i cui numeri quantici sono specificati nello n = 2 l = 1 ml = 0


schema che segue:
ml = −1

Gli elettroni che può contenere sono, pertanto, non più di 8.
In modo analogo si vede che lo strato M contiene al massimo 18 elettroni, e così via. In
generale, l'n-esimo strato, cioè quello con numero quantico principale n, può ospitare 2
n2 elettroni.
All'interno di uno strato, il numero massimo di elettroni che può essere
contenuto in uno specifico sottostrato è indicato nella seguente tabella:
Sottostrato
s
p
d
f
g
h
…
Numero massimo di elettroni
2
6
10
14
18
22
…
In condizioni normali:
ogni elettrone tende a occupare, fra gli stati disponibili, quello di minima energia.
Tenendo conto di questa regola, cerchiamo ora di
"costruire" un atomo con numero atomico Z, contenente cioè
Z elettroni, partendo dal nucleo e inserendo negli orbitali un
elettrone alla volta. In figura è rappresentata la
configurazione dello stato fondamentale del carbonio (Z=6),
che in notazione spettroscopica può essere indicata come
1s22s22p2. Possiamo osservare che nell'atomo di carbonio i
due elettroni del sottostrato 2p non sono disposti nello stesso
orbitale con spin antiparalleli, ma in orbitali diversi con spin
paralleli. Questa è una regola generale (con qualche eccezione), che assicura all'edificio
atomico una condizione di minima energia complessiva.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
59;!
11.18 La meccanica quantistica relativistica
La meccanica ondulatoria era stata formulata da Schrodinger per il moto non
relativistico, ed i fisici si dibattevano nel tentativo di estenderla anche alle particelle
relativistiche, in modo da unificare le due grandi teorie, quella della relatività e quella
dei quanti. Inoltre l'equazione delle onde di Schrodinger considerava l'elettrone come
un punto e tutti i tentativi di applicarla all’elettrone che ruotasse su se stesso e si
comportava come un magnete elementare, furono infruttuosi.
Nel suo famoso articolo, pubblicato nel 1930, Paul
Dirac (1902-1984; Premio Nobel) formulò una nuova
equazione, la più bella della fisica, insieme a quella di
Einstien E=mc2. Tale equazione soddisfaceva a tutte le
condizioni relativistiche, è applicabile ad elettroni di
qualunque velocità e, nello stesso tempo, porta alla
conclusione che l'elettrone deve comportarsi come una piccola trottola rotante
magnetizzata.
Pur essendo veramente geniale come concezione, l'equazione di Dirac portò,
immediatamente, ad una seria complicazione, proprio perché riusciva ad unificare in
modo tanto limpido la teoria dei quanti e quella della relatività. La complicazione
nacque per il fatto che la meccanica quantistica relativistica ammetteva la possibilità
matematica dell'esistenza di due mondi, una simmetria tra il nostro mondo, fatto di
materia, ed uno strano mondo, fatto di antimateria. La simmetria tra materia e
antimateria implica che per ogni particella esista un’antiparticella con massa uguale e
carica opposta. Se l'energia a disposizione è sufficiente, possono crearsi coppie di
particelle e antiparticelle, che a loro volta si ritrasformano in energia pura nel processo
inverso di annichilazione. Questi processi di creazione e di annichilazione delle
particelle erano stati previsti dalla teoria di Dirac prima che fossero effettivamente
scoperti in natura. La creazione di particelle materiali da energia pura è certamente
l'effetto più spettacolare della teoria della relatività.
Prima della fisica relativistica delle particelle, i costituenti della materia erano
sempre stati considerati o come unità elementari indistruttibili e immutabili, oppure
come oggetti composti che potevano essere suddivisi nelle loro parti costituenti; e la
domanda fondamentale che ci si poneva era se fosse possibile continuare a dividere la
materia, o se infine si sarebbe giunti alle minime unità indivisibili. Dopo la scoperta di
Dirac, tutto il problema della divisibilità della materia apparve in una nuova luce.
Quando due particelle si urtano con energie elevate, di solito esse si frantumano in
parti, ma queste parti non sono più piccole delle particelle originarie. Sono ancora
particelle dello stesso tipo, e sono prodotte a spese dell'energia di moto (energia
cinetica) coinvolta nel processo d'urto. L'intero problema della divisibilità della materia
è quindi risolto in maniera inaspettata. L'unico modo per dividere ulteriormente le
particelle subatomiche è quello di farle interagire tra loro in processi d'urto ad alta
energia. Così facendo possiamo dividere la materia, ma non otteniamo mai pezzi più
piccoli, proprio perchè creiamo le particelle a spese dell'energia coinvolta nel processo.
Questo stato di cose è destinato a rimanere paradossale fino a quando
continuiamo ad assumere un punto di vista statico secondo cui la materia è formata da
mattoni elementari. Solo quando si assume un punto di vista dinamico, relativistico, il
paradosso scompare. Le particelle sono viste allora come configurazioni dinamiche, o
59=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
processi, che coinvolgono una certa quantità di energia, la quale si presenta a noi come
la loro massa. In un processo d'urto, l'energia delle due particelle che entrano in
collisione viene ridistribuita secondo una nuova configurazione, e se è stata aggiunta
una quantità sufficiente di energia cinetica, la nuova configurazione può comprendere
particelle ulteriori. La maggior parte delle particelle create in questi urti vivono solo per
un intervallo di tempo estremamente breve, molto meno di un milionesimo di secondo,
dopo il quale si disintegrano nuovamente in protoni, neutroni ed elettroni. Nonostante
la loro vita estremamente breve, non solo è possibile rivelare l'esistenza di queste
particelle e misurarne le proprietà, ma addirittura si può fare in modo che lascino delle
tracce, prodotte nelle cosiddette camere a bolle, che possono essere fotografate.
Nell'anno
1931,
il
fisico
americano Carl Andersson (19051991; Premio Nobel) studiò le tracce
prodotte in una camera a nebbia
dagli elettroni ad alta energia degli
sciami cosmici. Per misurare la
velocità di questi elettroni, circondò
la camera a nebbia con un intenso
campo magnetico e, con sua grande
sorpresa, le fotografie eseguite mostrarono che circa la metà degli elettroni era deviata
in una direzione per la presenza del campo magnetico, e l'altra metà in direzione
opposta: cioè il 50% erano elettroni negativi e il 50% elettroni positivi, chiamati positroni,
entrambi con la stessa massa. Gli esperimenti eseguiti sui positroni confermarono la
teoria di Dirac, che rappresenta uno degli esempi più sbalorditivi di anticipazione della
realtà. Una coppia di un elettrone positivo ed uno negativo veniva prodotta dalla
collisione di un quanto di luce ad alta energia (raggi γ o raggi cosmici) contro un nucleo
atomico e la probabilità di un evento di questo tipo coincideva esattamente con i valori
calcolati sulla base della teoria di Dirac. Si osservò, inoltre, che i positroni entrando in
collisione con gli ordinari elettroni si annichilano liberando come fotoni di energia
molto elevata l'energia equivalente alla loro massa (e++e=2 fotoni γ) e, anche in questo
caso, tutto avviene secondo le previsione teoriche.
Dopo la scoperta degli elettroni positivi, i fisici sognavano la possibilità di
scoprire i protoni negativi, i quali avrebbero dovuto trovarsi con i normali protoni nella
stessa relazione esistente tra gli elettroni positivi e quelli negativi. Però, dal momento
che i protoni sono circa 2000 volte più pesanti degli elettroni, la loro produzione
avrebbe richiesto energie dell'ordine del miliardo di elettronvolt. Questo fatto diede il
via ad un gran numero di ambiziosi progetti di costruzione di acceleratori di particelle
in grado di fornire una siffatta quantità d'energia ai proiettili nucleari e, negli Stati
Uniti, furono gettate le fondamenta di due superacceleratori: un bevatrone al
Laboratorio per le Radiazioni dell'Università di Berkeley ed un cosmotrone al
Laboratorio Nazionale Brookhaven. La gara fu vinta dai fisici della costa occidentale, e
Emilio Segrè (1905-1889; Premio Nobel) ed altri, nell'ottobre 1955, annunciarono
l'avvenuta scoperta di protoni negativi.
La conferma dell'esistenza dei protoni negativi rappresenta un eccellente esempio di
verifica sperimentale di una previsione teorica anche se, al tempo in cui fu enunciata,
tale teoria poteva apparire poco convincente. Alla fine del 1956 fu scoperto anche
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
594!
l'antineutrone; poiché però, in questo caso, la carica elettrica è assente, la differenza tra
neutroni ed antineutroni può essere osservata solo dalla loro mutua tendenza ad
annichilarsi.
Dopo la conferma della possibilità di elettroni, protoni e neutroni di esistere in
certi antistati, si può pensare seriamente ad un'antimateria formata da queste particelle.
Tutte le proprietà chimiche e fisiche dell'antimateria dovrebbero essere identiche a
quella della materia ordinaria ed il solo modo per rendersi conto della loro differenza è
attraverso i processi di annichilazione. La possibilità di esistenza dell'antimateria
propone pesanti problemi all'astronomia ed alla cosmologia. La materia dell'Universo è
tutta dello stesso tipo o esistono agglomerati di materia ed antimateria sparsi
irregolarmente nell'infinità dello spazio?
11.19 La statistica dei quanti
La teoria quantistica del movimento presenta una grave contraddizione con la
teoria cinetica. Infatti, se gli elettroni in moto all'interno dell'atomo possono avere solo
certi valori discreti dell'energia cinetica, lo stesso discorso dovrebbe valere per le
molecole di un gas mobili all'interno di un recipiente chiuso. Cioè, considerando la
distribuzione energetica delle molecole di un gas, non si può più supporre che esse
abbiano un valore qualsiasi dell'energia, come si faceva nella trattazione classica della
teoria di Boltzmann, Maxwell, Gibbs ed altri; ma dovrebbero, invece, esservi dei livelli
quantistici ben definiti e determinati dalle dimensioni del recipiente: nessun valore
dell'energia intermedio a due qualsiasi di questi livelli dovrebbe essere possibile.
La situazione è resa più
complessa dal fatto che alcune
particelle, come gli elettroni,
seguono il principio di Pauli,
mentre altre particelle non lo
seguono. Queste considerazioni
portarono alla formulazione di
due diversi tipi di statistica: la
statistica
di
Fermi-Dirac,
applicabile alle particelle che
seguono il principio di Pauli, e
la statistica di Bose-Einstein,
applicabile alle particelle che
non lo seguono.
Ciò che si può dire di
entrambe le statistiche è che
esse non differiscono dalla
statistica
classica
nelle
applicazioni ai fenomeni della nostra vita quotidiana, mentre ci si aspettano notevoli
scostamenti solo quando esse siano applicate allo studio di certi fenomeni come il gas di
elettroni nei metalli e nelle cosiddette "stelle bianche nane", dove vale la statistica di
Fermi - Dirac, mentre nei gas ordinari a temperatura molto vicina allo zero assoluto
prevale quella di Bose - Einstein.
595!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
11.20
campi
L’immagine del mondo della meccanica quantistica: la teoria dei
La concezione meccanicistica classica del mondo era basata sull'idea di particelle
solide e indistruttibili che si muovono nel vuoto. La fisica moderna ha prodotto un
cambiamento radicale di questa immagine, giungendo non solo a una nozione
completamente nuova di particella, ma trasformando anche profondamente il concetto
classico di vuoto. Questa trasformazione, che si realizzò nelle cosiddette teorie dei
campi, ebbe inizio con l'idea einsteiniana di associare il campo gravitazionale alla
geometria dello spazio, e divenne ancora più profonda quando la teoria dei quanti e la
teoria della relatività furono unite per descrivere i campi di forza delle particelle
subatomiche. In queste teorie quantistiche dei campi, la distinzione tra le particelle e lo
spazio che le circonda diviene sempre più sfumata e il vuoto è concepito come una
entità dinamica di importanza fondamentale.
Il concetto di campo venne introdotto nel XIX secolo da Faraday e da Maxwell
nella loro descrizione delle forze tra cariche elettriche e correnti. Un campo elettrico è
una condizione, nello spazio attorno a un corpo carico, che può produrre una forza su
una qualsiasi altra carica posta in quello spazio. I campi elettrici sono quindi creati da
corpi carichi e i loro effetti possono essere risentiti solo da altri corpi carichi. I campi
magnetici sono prodotti da cariche in moto, cioè da correnti elettriche, e le forze
magnetiche da essi generate possono essere risentite da altre cariche in moto.
Nell'elettrodinamica classica, cioè nella teoria costruita da Faraday e da Maxwell, i
campi sono entità fisiche primarie che possono essere studiate senza fare alcun
riferimento a corpi materiali. I campi elettrici e magnetici variabili possono propagarsi
attraverso lo spazio sotto forma di onde radio, di onde luminose, o di altri tipi di
radiazione elettromagnetica.
La teoria della relatività ha reso molto più elegante la struttura
dell'elettrodinamica unificando i concetti di carica e di corrente da una parte, di campo
elettrico e di campo magnetico dall'altra. Dato che ogni moto è relativo, ogni carica può
apparire anche come corrente, in un sistema di riferimento in cui essa si muove rispetto
all'osservatore, e di conseguenza il suo campo elettrico può anche manifestarsi come
campo magnetico. Nella formulazione relativistica dell'elettrodinamica, i due campi
sono così unificati in un unico campo elettromagnetico. Il concetto di campo è stato
associato non solo alla forza elettromagnetica, ma anche all'altra forza fondamentale
presente su larga scala nell'universo, la forza di gravità. I campi gravitazionali sono
creati e risentiti da tutte le masse, e le forze che ne derivano sono sempre attrattive, a
differenza dei campi elettromagnetici che sono risentiti solo dai corpi carichi e danno
luogo a forze sia attrattive che repulsive. La teoria dei campi adatta per il campo
gravitazionale è la teoria generale della relatività; in essa l'influenza di una massa sullo
spazio circostante ha una portata più vasta di quanto non lo sia la corrispondente
influenza di un corpo carico in elettrodinamica. Anche qui lo spazio attorno all'oggetto
è condizionato in modo tale che un altro oggetto può risentire una forza, ma questa
volta il condizionamento modifica la geometria, e quindi la struttura stessa dello spazio.
Materia e spazio vuoto, il pieno e il vuoto, furono i due concetti,
fondamentalmente distinti, sui quali si basò l'atomismo di Democrito e di Newton.
Nella relatività generale, questi due concetti non possono più rimanere separati.
Ovunque è presente una massa, sarà presente anche un campo gravitazionale, e questo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
596!
campo si manifesterà come una curvatura dello spazio che circonda quella massa. Non
dobbiamo pensare, tuttavia, che il campo riempia lo spazio e lo incurvi. Il campo e lo
spazio non possono essere distinti: il campo è lo spazio curvo. Nella relatività generale,
il campo gravitazionale e la struttura, o geometria, dello spazio sono identici. Essi sono
rappresentati nelle equazioni del campo di Einstein dalla medesima grandezza
matematica. Nella teoria di Einstein, quindi, la materia non può essere separata dal suo
campo di gravità, e il campo di gravita non può essere separato dallo spazio curvo.
Materia e spazio sono pertanto visti come parti inseparabili e interdipendenti di un
tutto unico. Gli oggetti materiali non solo determinano la struttura dello spazio
circostante, ma a loro volta sono influenzati in modo sostanziale dall'ambiente. Secondo
il fisico e filosofo Mach, l'inerzia di un oggetto materiale, ossia la resistenza che oppone
ad essere accelerato, non è una proprietà intrinseca alla materia, ma una misura della
sua interazione con tutto il resto dell'universo. Nella concezione di Mach, la materia
possiede inerzia solo perchè esiste altra materia nell'universo. Quindi la fisica moderna
ci mostra di nuovo, e questa volta a un livello macroscopico, che gli oggetti materiali
non sono entità distinte, ma sono legati in maniera inseparabile al loro ambiente; e che
le loro proprietà possono essere comprese solo nei termini della loro interazione con il
resto del mondo. L'unità fondamentale del cosmo si manifesta, perciò, non solo nel
mondo dell'infinitamente piccolo ma anche nel mondo dell'infinitamente grande.
L'unità e il rapporto reciproco tra un oggetto materiale e il suo ambiente, che è
evidente su scala macroscopica nella teoria generale della relatività, appare in una
forma ancora più sorprendente a livello subatomico. Qui, le idee della teoria classica del
campo si combinano con quelle della meccanica quantistica per descrivere le interazioni
tra particelle subatomiche. Una combinazione di questo tipo non è stata finora possibile
per l’interazione gravitazionale a causa della complicata forma matematica della teoria
della relatività di Einstein; ma l'altra teoria classica del campo, l’elettrodinamica, è stata
fusa con la meccanica quantistica in una teoria chiamata elettrodinamica quantistica che
descrive tutte le interazioni elettromagnetiche tra particelle subatomiche. Questa teoria
incorpora sia la teoria quantistica sia quella relativistica. Essa fu il primo modello
quantistico-relativistico della fisica modera ed è, a tutt'oggi, quello meglio riuscito.
La caratteristica nuova e sorprendente dell'elettrodinamica quantistica deriva
dalla combinazione di due concetti: quello di campo elettromagnetico e quello di fotoni
intesi come manifestazione corpuscolare delle onde elettromagnetiche. Poiché i fotoni
sono anche onde elettromagnetiche, e poiché queste onde sono campi variabili, i fotoni
devono essere manifestazioni dei campi elettromagnetici. Di qui il concetto di campo
quantistico, cioè di un campo che può assumere la forma di quanti, o particelle. Il
campo quantistico è un concetto completamente nuovo che è stato esteso ed applicato
alla descrizione di tutte le particelle subatomiche e delle loro interazioni, facendo
corrispondere a ciascun tipo di particella un diverso tipo di campo. In queste teorie
quantistiche dei campi, il contrasto della teoria classica tra le particelle solide e lo spazio
circostante è completamente superato. Il campo quantistico è visto come l’entità fisica
fondamentale: un mezzo continuo presente ovunque nello spazio. Le particelle sono
soltanto condensazioni locali del campo, concentrazioni di energia che vanno e vengono
e di conseguenza perdono il loro carattere individuale e si dissolvono nel campo
soggiacente ad esse. Così si esprimono Einstein e Weyl: “Noi possiamo perciò
considerare la materia come costituita dalle regioni dello spazio nelle quali il campo è
estremamente intenso... In questo nuovo tipo di fisica non c'è luogo insieme per campo e
materia poichè il campo è la sola realtà”. “Secondo questa teoria [la teoria della
597!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
materia come campo] una particella elementare, per esempio un elettrone, è soltanto
una piccola regione del campo elettrico in cui l'intensità assume valori estremamente
alti, a indicare che una porzione relativamente enorme dell'energia del campo è
concentrata in un piccolissimo spazio. Tale nodo di energia, che non è affatto
nettamente distinto dal resto del campo, si propaga attraverso lo spazio vuoto come
un'onda sulla superficie di un lago; non vi è nulla che possa considerarsi come un'unica
e stessa sostanza di cui l'elettrone consista in ogni istante”.
In definitiva, il mondo,
secondo
la
meccanica
quantistica, non è fatto di
campi e particelle, ma di uno
stesso tipo di oggetto, il
campo quantistico. Non più
particelle che si muovono
nello spazio al passare del
tempo, ma campi quantistici
in cui eventi elementari
esistono nello spaziotempo.
La concezione delle cose e dei fenomeni fisici come manifestazioni effimere di
una entità fondamentale soggiacente non è solo un elemento di fondo della teoria dei
campi, ma anche un elemento basilare della concezione orientale del mondo. Come
Einstein, i mistici orientali considerano questa entità soggiacente come la sola realtà:
tutte le sue manifestazioni fenomeniche sono viste come transitorie e illusorie.
Col concetto di campo quantistico, la fisica moderna ha trovato una risposta
inattesa alla vecchia domanda se la materia è costituita da atomi indivisibili o da un
continuum soggiacente ad essa. Il campo è un continuum che è presente dappertutto
nello spazio e tuttavia nel suo aspetto corpuscolare ha una struttura discontinua,
granulare. I due concetti apparentemente contraddittori sono quindi unificati e
interpretati semplicemente come differenti aspetti della stessa realtà. Come succede
sempre in una teoria relativistica, l'unificazione dei due concetti opposti avviene in
modo dinamico: i due aspetti della materia si trasformano perennemente l'uno
nell'altro. La fusione di questi concetti opposti in un tutto unico è stata espressa in un
sutra buddhista: “La forma è vuoto, e il vuoto è in realtà forma. Il vuoto non è diverso
dalla forma, la forma non è diversa dal vuoto. Ciò che è forma quello è vuoto, ciò che è
vuoto quello è forma”.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
598!
!"#$%&'&()*!
Non insegno mai nulla ai miei allievi.
Cerco solo di metterli in condizione
di poter imparare.
Einstein
!&)-,4,-)(1!%&!#-#*%&0-+/-&1-#
2!"%0%2!*7-#'-""(#)-%,!(#'-""(#
,-"()!.!)(3!
12.1 Le radici filosofiche di Einstein
Le letture di Einstein furono rivolte soprattutto a quei libri che indagavano
sull’interazione tra scienza e filosofia, in particolare i seguenti testi furono fondamentali
nella formazione di una propria filosofia della scienza: Trattato sulla natura umana di
Hume, L’analisi delle sensazioni e La meccanica nel suo sviluppo storico-critico di Mach,
l’Etica di Spinoza e La scienza e l’ipotesi di Poincarè.
Il più influente tra questi era stato Hume, che poneva come presupposto alla
propria filosofia lo scetticismo su qualsiasi conoscenza distinta da ciò che poteva essere
percepito direttamente dai sensi. Perfino le evidenti leggi della causalità erano sospette
ai suoi occhi, semplici abitudini della mente; una palla che ne colpiva un’altra poteva
comportarsi nel modo predetto dalle leggi di Newton innumerevoli volte, eppure, a
rigore, ciò non costituiva una ragione per credere che si sarebbe comportata nello stesso
modo la volta successiva. Einstein osservò: “Hume vide chiaramente che alcuni
concetti, come ad esempio quello di casualità, non si possono dedurre con metodi logici
dai dati dell’esperienza”. Hume aveva applicato il suo rigore scettico al concetto di
tempo, per cui non aveva senso parlare del tempo come se avesse un’esistenza assoluta,
indipendente dagli oggetti osservabili i cui movimenti ci permettevano di definirlo:
“Dal succedersi delle idee e impressioni ci formiamo l’idea di tempo, la quale, senza di
esse, non fa mai la sua apparizione nella mente”. Questo concetto che non esista nulla
di simile al tempo assoluto avrebbe trovato un’eco nella teoria della relatività di
Einstein. Anche Kant occupò la scena della filosofia di Einstein con un’idea che doveva
costituire un progresso rispetto ad Hume, e cioè che alcune verità rientrano in una
599!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
categoria di conoscenza assolutamente certa che è radicata nella ragione stessa. In altre
parole, Kant distingueva tra due tipi di verità: le proposizioni analitiche, che
discendono dalla logica e dalla ragione stessa, piuttosto che dall’osservazione del
mondo; le proposizioni sintetiche che sono basate sull’esperienza e sulle osservazioni.
Le proposizioni sintetiche potrebbero subire modifiche ad opera di nuovi dati empirici,
ma non così le proposizioni analitiche, nella cui categoria rientra la geometria e il
principio di casualità, che sono tipi di conoscenza a priori che non devono essere
preventivamente ricavati dai dati sensoriali.
Da principio Einstein trovò meraviglioso che certe verità potessero essere
scoperte mediante la sola ragione. Ma presto cominciò a mettere in discussione la rigida
distinzione tra verità analitiche e sintetiche: “Io sono convinto … che questa distinzione
sia erronea”. Una proposizione che sembra puramente analitica, come la somma degli
angoli di un triangolo è pari a 180°, poteva rivelarsi falsa in una geomeria non euclidea
o in uno spazio curvo.
L’empirismo di Hume fu spinto un passo più avanti dalla filosofia di Mach, la cui
essenza è contenuta nelle parole dello stesso Einstein: “I concetti hanno senso soltanto
se possiamo indicare gli oggetti a cui si riferiscono e le regole mediante le quali sono
riferiti a questi oggetti”. In altri termini, perché un concetto abbia senso ne occorre una
definizione operativa, che descriva come si osserverebbe il concetto in termini di
operazioni. Questa idea avrebbe dato i suoi frutti quando Einstein discusse su quale
osservazione avrebbe dato significato al concetto che due eventi si verificano
contemporaneamente. L’applicazione di questo punto di vista ai concetti newtoniani di
tempo assoluto e spazio assoluto comportò l’impossibilità di definire tali concetti in
termini di osservazioni che fosse possibile compiere. Pertanto, secondo Mach, essi erano
privi di significato: “una cosa puramente ideale che non può trovare riscontro
nell’esperienza”.
Anche Poincarè rilevò la debolezza del concetto newtoniano di tempo assoluto
affermando, in La scienza e l’ipotesi, che: “Non esiste un tempo assoluto; dire che due
intervalli di tempo hanno la stessa durata è un’asserzione di per sé priva di significato,
che può acquisirne uno solo in base a una convenzione (…) Non soltanto non abbiamo
alcuna intuizione diretta dell’eguaglianza di due intervalli di tempo, non ne abbiamo
neppure della simultaneità di due eventi che si verificano in luoghi diversi”. A quanto
sembra, sia Mach che Poincarè, fornirono una base alla grande svolta di Einstein.
L’ultimo eroe intellettuale era Spinoza, la cui influenza su Einstein fu
principalmente religiosa. Einstein fece proprio il suo concetto di un Dio amorfo che si
riflette nella bellezza che incute riverenza, nella razionalità e nell’unità delle leggi di
natura. Inoltre, Einstein trasse da Spinoza la fede nel determinismo, e cioè l’idea che le
leggi di natura, una volta che fossimo in grado di sondarle, stabiliscono cause ed effetti
immutabili, e che Dio non giochi a dadi consentendo a qualsiasi evento di essere casuale
o indeterminato.
12.2 Il significato filosofico del pensiero di Einstein
Non è facile parlare del pensiero filosofico di Einstein, dal momento che ci
troviamo di fronte a una specie di antinomia. Da un lato infatti tutti sono disposti a
riconoscere che dopo Einstein la filosofia non è più quella che era prima di Einstein;
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
59:!
eppure egli non è stato un filosofo nel senso tecnico del termine, né ha avuto un
pensiero filosofico sistematico e univoco, tanto è vero che il pensiero filosofico di
Einstein è stato interpretato in modi diversi, da alcuni come sostenitore di una filosofia
empiristica, in quanto la teoria della relatività dimostra che le più profonde categorie
del pensiero umano sono effettivamente legate all’esperienza, da altri, per come ha
trattato i problemi dello spazio, del tempo e della materia, come sostenitore di una
filosofia platonica. Einstein come Platone dunque? Non certo nel senso che egli sia un
platonico, ossia che ammetta delle forme immutabili nel mondo materiale, forme che
l'uomo dovrebbe contemplare intuitivamente; ma nel senso che egli rinnova il tipo di
problemi trattati dialetticamente da Platone. Purtroppo vi è un diffuso equivoco che è
quello di intendere il rapporto fra Platone ed Einstein nel significato proposto da
Eddington, secondo cui Einstein sarebbe platonico perché le sue teorie mostrerebbero
l'assoluta libertà della mente d'imporre i suoi schemi al mondo fisico. Tuttavia vi è
grande differenza tra la posizione di Einstein e quella di Eddington nel modo
d'intendere il convenzionalismo. Infatti Eddington crede che la necessità
dell'esperimento venga a cadere e ritiene che la teoreticità delle strutture fisiche riposi
su una pura scelta formale. Ma allora definire Einstein platonico nel significato di
Eddington significa sbagliare due volte, sia perché si attribuisce ad Einstein una forma
di convenzionalismo che in realtà egli non condivideva (ritenendo che una convenzione
scientifica necessitasse sempre di conferma sperimentale), sia perché si fraintende anche
quello che diceva Platone.
Invece il parallelo si deve svolgere ad un altro livello: Platone nel Timeo ha
affermato che per quanto la scienza possa portare avanti la spiegazione dei fatti come
conseguenza di una legge razionale, permane sempre una necessità, un dato puro, di
cui la scienza deve tener conto. “La mente persuade la necessità”, vuol dire proprio che
attraverso l'analisi del dato è possibile razionalizzarlo, ma vuol dire anche che la
spiegazione lascia sempre dietro di sé un residuo che non è ancora chiarito. Ebbene,
Einstein ha riassunto nella nostra cultura tutti i temi di una grande tradizione
matematica e li ha portati alle loro conseguenze filosofiche ed operative, senza ritenere
però che la realtà si esaurisse in essi. Egli può dunque essere considerato il Platone
moderno proprio perché ha tenuto sempre presente come il grande filosofo ateniese
l'esistenza di una realtà da spiegare, non costruita dalla mente ma da essa conoscibile.
In questo senso la sua opera ha un'importanza insostituibile ed inesauribile; essa è il più
grande edificio creato dalla scienza moderna, ed anche il più vero.
Comunque, al di là delle considerazioni che si possono fare sulla catalogazione
del pensiero di Einstein, egli fu filosofo almeno per due ragioni: primo perché ha
distrutto molte concezioni ritenute valide in sé (ad esempio quella tradizionale di
simultaneità e di distanza, quella di spazio assoluto, quella di forze gravitazionali) con
la semplice analisi logica di concetti in certi casi, con la capacità di ideare esperienze
mentali o con l'uso di teorie matematiche nuove in altri, ma ha sempre ricostruito in
forma nuova quello che ha distrutto; così i nuovi concetti di spazio-tempo, di campo, di
inerzia e di materia sono entrati a far parte del patrimonio teorico dei fisici moderni. E
le sue grandi idee direttrici, l'unità fra spazio e geometria, fra spazio e materia, la
semplicità delle leggi invarianti, sono diventate patrimonio di tutta la cultura, anche di
quella filosofica. Secondo, in quanto non ammise mai che la ricerca scientifica e la
riflessione generale sulla natura potessero svilupparsi secondo direzioni o programmi
divergenti, e sostenne, in varie occasioni, il valore oggettivo della conoscenza umana.
5:<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Respinse, costantemente, l'opinione che gli epistemologi avessero il dovere di indicare
alla scienza le strade da seguire o le norme cui ubbidire, così come criticò
l'atteggiamento di quegli scienziati che si mostravano scettici o indifferenti di fronte ai
quesiti generali che la ricerca scientifica suggeriva come produttrice di cultura. Ciò
spiega come mai egli abbia insistito, per decenni, nella polemica contro le
interpretazioni filosofiche dominanti della meccanica quantica, e come abbia colto molte
occasioni per mettere in luce l'esigenza di un rapporto positivo tra ricerca scientifica e
concezioni filosofiche. In età matura seppe descrivere questo atteggiamento affermando
che i rapporti tra scienza e filosofia dovevano essere analizzati con cura e con interesse,
poiché una teoria della conoscenza priva di correlazioni con l'impresa scientifica era
semplicemente uno “schema vuoto”, mentre la scienza priva di considerazioni
epistemologiche era “primitiva e informe”. Ma la necessità di rapporti fecondi non
doveva in alcun modo trasformarsi nell'accettazione, da parte dello scienziato, di rigidi
canoni metodologici: le condizioni della ricerca scientifica erano solamente dettate
dall'esperienza e dall'elaborazione concettuale per via matematica. Pertanto, osservava
Einstein, il vero scienziato appariva “all’epistemologo sistematico come una specie di
opportunista senza scrupoli”, in quanto agiva scegliendo liberamente una posizione
filosofica che poteva variare sull'intero spettro degli atteggiamenti possibili: realista,
quando voleva descrivere il mondo indipendentemente dagli atti della percezione
oppure idealista, quando sosteneva che le teorie non erano logicamente deducibili dai
dati empirici, oppure positivista, quando collocava i criteri di giustificazione degli
apparati teorici nella possibilità di dare una rappresentazione logica delle relazioni tra
le esperienze sensoriali.
Dopo questa ampia premessa, è lecito affermare che oggi non è più possibile fare
una seria ontologia o una seria filosofia della natura se non si tiene presente la fisica
teorica; il grande merito di Einstein è stato proprio quello di aver posto su basi nuove il
rapporto fra fisica e filosofia.
Einstein ha un atteggiamento realistico, come la maggior parte degli scienziati.
Egli pensa che la scienza ci fa comprendere il mondo, la realtà. Ciò non significa che
Einstein non si rendesse conto dell'esistenza di problemi filosofici molto grossi quando
si parla di realtà. Egli ragionava da scienziato, convinto di avere di fronte a sé una realtà
che deve essere elaborata attraverso i concetti scientifici. A questo proposito scrive una
frase che ha un valore filosofico molto grande: “La cosa più incomprensibile
dell'universo è la sua comprensibilità”. Egli tuttavia non si comporta da filosofo
speculativo, il quale si preoccuperebbe di ragionare sulla comprensibilità dell'universo,
sui perché di questa comprensibilità, sulle sue implicazioni, ma da filosofo scienziato, e
dà inizio a una generazione di filosofi-scienziati, che, pur rendendosi conto che esiste il
problema della comprensibilità dell’universo, si applica a esaminare i mezzi che
abbiamo a nostra disposizione per conoscerlo, cercando di renderli sempre più efficaci.
Questi strumenti sono sostanzialmente due. Uno è lo strumento dell'osservazione
sensibile, e su questo possiamo dire che Einstein è certamente influenzato da Mach, per
il quale i dati importanti erano quelli sensoriali; così per Einstein un concetto che non si
possa a un certo punto riferire a dei dati, a delle impressioni sensoriali, deve essere
respinto dalla scienza; in questo senso, Einstein è stato considerato uno dei padri del
neopositivismo. Accanto a quelle che Galileo avrebbe chiamato “sensate esperienze”,
Einstein introduce però dimostrazioni ed elaborazioni di carattere altamente
matematico, ed in questo si distacca decisamente da Mach: è vero che l'oggetto della
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5:;!
scienza è la coordinazione delle esperienze umane e la loro riduzione ad un sistema
logico coerente, ma i principi di questo sistema non possono essere ricavati totalmente
dall’esperienza, dice Einstein; mentre per Mach quei principi sono sostanzialmente
deducibili dall'esperienza. A questo proposito, Einstein dichiara di non credere
nell'induzione matematica; di non credere cioè che i concetti matematici siano ricavabili
dall'induzione empirica, ma che invece le formule ed i concetti matematici hanno nella
fisica un valore a posteriori. In sostanza questi concetti sono libere invenzioni della
mente umana, ed in questo senso Eddington ha potuto affermare che Einstein è un
platonico. Però, bisogna dire che tali concetti non hanno valore conoscitivo se non
possono essere messi al vaglio dell'esperienza proprio attraverso l’analisi operativa dei
concetti fisici. Esistono molte dichiarazioni di Einstein stesso a questo proposito, tra cui:
“Noi dobbiamo sempre essere pronti a modificare le nostre cognizioni fisiche per poter
considerare i fatti in modo sempre più perfetto”. “Le teorie fisiche non sono che
invenzioni dell'uomo, nel senso che non sono verità assolute a priori (qui è antikantiano)
ma sono sempre modificabili”. (Non derivano dall'esperienza, ma sono modificabili per
risultare in grado di aderire all'esperienza).
Ci accorgiamo che Einstein tende, da un lato, a difendere il realismo dello
scienziato, il quale è ben convinto che esiste una realtà da conoscere e che occorrono
duri sforzi per conoscerla almeno in parte, mentre d'altro canto pensa che questa realtà
non sia metafisicamente al di là della nostra conoscenza.
Anche se la maggior parte delle opere di Einstein fu scritta prima che il
neopositivismo si sviluppasse completamente, bisogna riconoscere che tutti i problemi
della più moderna epistemologia posti in luce da tale indirizzo sono già presenti nelle
opere einsteiniane. Tra questi troviamo, per esempio, il rapporto tra i principi e le
conseguenze delle teorie fisiche, il rapporto tra teoria ed osservabili, la rilevanza della
geometria per la fisica, ed altri. Certo manca il rigore dell'analisi di Carnap o di
Reichenbach, che analizzeremo in seguito, e così pure i termini del linguaggio filosofico
non sono precisi come quelli usati da questi filosofi della scienza, ma quello che
interessa è che un fisico di enorme notorietà come Einstein, dovendo trattare della sua
specialità in senso generale, si sia posto da solo nella direzione dell'epistemologia
moderna. Si può aggiungere che Einstein riuscì ad evitare due grossi errori, il secondo
dei quali sarà presente in parecchi neopositivisti. Infatti per un lato egli reagisce come i
migliori neopositivisti con un profondo impegno metodologico all'ondata di
irrazionalismo e di sfiducia nella scienza che le nuove teorie della fisica facevano
sorgere presso i meno preparati; per l'altro lato si tiene lontano dal metodologismo fine
a se stesso, pur nella consapevolezza critica che lo studio della fisica contribuisce a
svuotare di senso molti falsi problemi.
In definitiva Einstein non credeva all'intuizione priva di ogni controllo ma
riteneva che il fine della fisica fosse la costruzione di un modo nuovo di vedere il
mondo, ossia la ricerca di una moderna immagine del cosmo. Come egli stesso più volte
ripete, uno dei compiti essenziali della filosofia è quello di riflettere sopra la storia della
fisica e sulla sua funzione attuale. La filosofia ci può chiarire cos'è il metodo scientifico,
senza sostituirsi ad esso, e ci permette di conservare la coscienza del collegamento
esistente fra le teorie fisiche e il mondo quotidiano che ci circonda. Non solo: essa ci
deve rendere consapevoli dello stato di strumento delle costruzioni scientifiche, che non
sono delle verità immutabili ma possono essere sostituite e modificate nel corso del
tempo. Certo, l'edificio della scienza fisica non può più essere ritenuto un'unità coerente
nel senso ingenuo del meccanicismo; esso risulta però un'unità complessa e strutturata,
5:=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
della quale è sempre possibile recuperare il senso profondo. La ricerca di questo senso,
che è poi la ricerca di una visione del mondo radicata nella scienza, è presente in
Einstein soprattutto nel momento della relatività generale e delle teorie del campo
unificato.
Stabilito così questo canone del realismo, che potremmo chiamare realismo
critico di Einstein, non nel senso kantiano del termine, possiamo parlare di un altro
carattere fondamentale della scienza, che per Einstein è la semplicità. Tutti gli studiosi
del pensiero di Einstein sottolineano l'importanza da lui attribuita alla semplicità. C'è
una citazione di Einstein in cui si dice: “Le nostre esperienze ci permettono finora di
sentirci sicuri che nella natura si realizza l'ideale della semplicità matematica”.
Einstein pensa alla semplicità come a un criterio che ci permette di cogliere l'oggetto, la
natura stessa, perché la natura è semplice e questa semplicità della natura è anche una
dimostrazione della sua razionalità, e la semplicità della natura deve riflettersi in una
semplicità delle leggi scientifiche, a questo punto potremmo anche discutere se qui
lavori più da scienziato o più da filosofo, e sarebbe proprio questa semplicità a portare
Einstein a enunciare il principio della relatività ristretta e quello della relatività
generale. A questo proposito è interessante un confronto tra la formula della
gravitazione proposta da Newton e quella di Einstein. Newton scelse la sua legge tra
tutte le altre leggi possibili per il successo delle previsioni che essa permetteva. Al
contrario, la legge della gravitazione di Einstein fu trovata cercando per lo spaziotempo
la legge più semplice. In altri termini, non è il successo che ci fa scegliere la legge di
gravitazione di Einstein; ma Einstein arriva ad essa sulla base del criterio di semplicità,
cioè proprio perché è convinto che la semplicità sia in grado di riflettere la razionalità
della natura in modo diretto.
Mirare al semplice, però, non vuol dire semplificare; infatti, semplificare
vorrebbe dire trascurare certe differenze dichiarandole irrilevanti, e come è noto questo
tipo di semplificazione, che era presente nel sapere comune e in tutta la fisica
pregalileiana, non lo è nella scienza moderna. La fisica aristotelica in fondo era molto
semplice: distingueva i corpi in due categorie, quelli pesanti che vanno verso il basso e
quelli leggeri che vanno verso l'alto. La descrizione che Aristotele faceva dei fenomeni
naturali era molto semplice, ma non si trattava di semplicità bensì di semplificazione,
ciò che significa trascurare certe caratteristiche profonde esistenti in natura, e procedere
come se esse non esistessero. In questo modo, si fanno discorsi che sarebbero
condannati da Einstein, il quale ha cercato sempre la semplicità e non la
semplificazione.
Tutta l'opera di Einstein è permeata da questo acume critico, che di fatto gli viene
riconosciuto da tutti, e pur coltivando opinioni di stampo razionalista e realista
concernenti la conoscibilità del mondo e l'esistenza di quest'ultimo indipendentemente
dalla coscienza, e pur facendo spesso leva su tali opinioni nelle discussioni sullo stato
della teoria dei quanti, sia stato flessibile rispetto alle idee possibili in seno ad una
filosofia personale, e abbia piuttosto nutrito un profondo rispetto per le tortuosità
attraverso le quali la ragione deve passare per costruire un sapere oggettivo. Egli stesso,
parlando della relatività nel 1917, scrisse: “Condurrò il lettore lungo la strada che io
stesso ho percorso, una strada piuttosto aspra e tortuosa, perché altrimenti non posso
sperare che egli prenda molto interesse al risultato della fine del viaggio”.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5:4!
12.3 Il significato filosofico della relatività
L’influenza esercitata dal pensiero di Einstein non può essere completamente
recepita se si tiene presente solo la trasformazione portata nella fisica dalle sue idee; per
capirla a fondo bisogna infatti considerare anche il suo profondo significato filosofico. Il
significato filosofico della teoria della relatività è stato oggetto di opinioni contrastanti,
anche se, ed è indubitabile, i principi di tale teoria, per il loro carattere filosofico
ontologico, vale a dire che sono relativi all’oggetto della conoscenza scientifica
indipendentemente dai suoi rapporti con l’osservatore, hanno modificato
profondamente la filosofia moderna alterando radicalmente la concezione filosofica
dello spazio e del tempo e della loro relazione con la materia. Fra le tante
interpretazioni, tutte interessanti e che hanno contribuito a rendere tale teoria una delle
massime espressioni dell’intelletto umano, quella di Hans Reichenbach (1891-1953),
filosofo della scienza tedesco, ci sembra la più feconda e che è alla base delle idee
attuali. Infatti ricordiamo che già in un lucido saggio del 1921 sullo stato delle
discussioni filosofiche sulla relatività metteva in luce come il principale compito
epistemologico davanti all’opera di Einstein fosse quello di formulare le conseguenze
filosofiche della teoria e ritenerle come parte permanente della conoscenza filosofica.
L’analisi della rivoluzione einsteiniana permetteva a Reichenbach di concludere che il
significato filosofico più profondo da essa dato è che non esistevano concetti a priori,
per cui veniva superata la concezione kantiana che faceva dello spazio e del tempo delle
forme a priori dell’intuizione. Ma adesso riportiamo le considerazioni di Reichenbach
sulla portata filosofica della teoria della relatività di Einstein tratte dal libro Albert
Einstein: Filosofo-scienziato (1949).
Mentre molti scrittori hanno sottolineato le implicazioni filosofiche della teoria e
hanno perfino tentato d’interpretarla come una specie di sistema filosofico, altri hanno
negato l'esistenza di tali implicazioni e hanno sostenuto l'opinione secondo cui la teoria
di Einstein è semplicemente una teoria fisica, e ritengono che le idee filosofiche si
costruiscano con mezzi diversi dai metodi dello scienziato, e siano indipendenti dai
risultati della fisica. Ora, è ben vero che la cosiddetta filosofia della relatività
rappresenta in gran parte il risultato di travisamenti della teoria, piuttosto che del suo
contenuto fisico. I filosofi che considerano saggezza estrema il ritenere ogni cosa
relativa, sbagliano se credono che la teoria di Einstein costituisca una prova di una così
eccessiva generalizzazione; e il loro errore è ancor più grave se trasferiscono questa
relatività al campo dell'etica, pretendendo che la teoria di Einstein implichi un
relativismo dei diritti e dei doveri dell'uomo. La teoria della relatività si limita al campo
della conoscenza. Se le concezioni morali variano con le classi sociali e la struttura della
civiltà, questo è un fatto che non si può dedurre dalla teoria di Einstein; il parallelismo
fra la relatività dell'etica e quella dello spazio e del tempo è soltanto un'analogia
superficiale, che confonde le differenze logiche essenziali fra il campo della volontà e
quello della conoscenza. È ben comprensibile, allora, che chi era abituato alla precisione
dei metodi fisico-matematici desiderasse separare la fisica da queste efflorescenze della
speculazione filosofica.
Eppure, sarebbe un altro errore credere che la teoria di Einstein non sia una
teoria filosofica, soprattutto per le conseguenze radicali per la teoria della conoscenza: ci
costringe a prendere in esame certe concezioni tradizionali che hanno avuto una parte
importante nella storia della filosofia, e dà una soluzione a certe questioni, vecchie come
5:5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
la storia della filosofia, che prima non ammettevano nessuna risposta. Il tentativo di
Platone di risolvere i problemi della geometria con una teoria delle idee; il tentativo di
Kant di spiegare la natura dello spazio e del tempo con una intuizione pura e con una
filosofia trascendentale, sono altrettante soluzioni agli stessi interrogativi a cui la teoria
di Einstein ha dato poi una risposta differente. Se sono filosofiche le dottrine di Platone
e di Kant, anche la teoria della relatività di Einstein ha importanza filosofica, e non
semplicemente fisica. I problemi di cui essa tratta non sono di carattere secondario, ma
d'importanza primaria per la filosofia; e questo risulta evidentissimo dalla posizione
centrale che questi problemi occupano nei sistemi di Platone e di Kant. Questi sistemi
diventano insostenibili, se si mette la risposta di Einstein al posto di quelle date agli
stessi problemi dai loro autori; le loro basi sono scosse, se i concetti di spazio e di tempo
non possono più considerarsi rivelati da una visione del mondo delle idee, o generati
dalla ragion pura, come l’apriorismo filosofico pretendeva di aver stabilito.
L'analisi della conoscenza è sempre stata la questione fondamentale della
filosofia; e se la conoscenza è soggetta a revisione in un campo così fondamentale come
quello dello spazio e del tempo, le conseguenze di questa critica non possono non
interessare tutta la filosofia. Sostenere l'importanza filosofica della teoria di Einstein non
significa però fare di Einstein un filosofo; o, per lo meno, non significa che Einstein sia
soprattutto un filosofo. Gli interessi principali di Einstein sono tutti nell’ambito della
fisica. Ma egli capì che certi problemi fisici non potevano essere risolti se prima delle
soluzioni non si fosse fatta un’analisi logica dei concetti fondamentali di spazio e di
tempo, e capì anche che questa analisi, a sua volta, presupponeva una rielaborazione
filosofica di certe concezioni tradizionali della conoscenza. Il fisico che voleva capire
l'esperimento di Michelson doveva orientarsi verso una filosofia in cui il significato di
un'affermazione fosse riducibile alla sua verificabilità, cioè doveva adottare la teoria
della verificabilità del significato, se voleva sfuggire a un intrico di questioni ambigue e
di complicazioni gratuite. È questo orientamento positivistico, o per meglio dire
empiristico, che doveva determinare la posizione filosofica di Einstein. Ma a lui non era
necessario svilupparla oltre certi limiti: gli era sufficiente ricollegarsi alla linea di
pensiero caratterizzata, nella generazione di fisici che lo aveva preceduto, da nomi come
Kirchhoff, Hertz, Mach; e portare alle estreme conseguenze un indirizzo filosofico
individuato, ai suoi inizi, da principi come quello dell'induzione di Occam, o quello
della identità degli indiscernibili di Leibniz.
Einstein si è riferito a questa concezione del significato in molte sue osservazioni,
sebbene non abbia mai sentito la necessità di addentrarsi in una discussione sui principi
fondamentali di essa, o in un'analisi del suo significato filosofico. Nei suoi scritti non si
può certo trovare l'esposizione e l'approfondimento di una teoria filosofica. Di fatto, la
filosofia di Einstein non è tanto un sistema filosofico quanto un atteggiamento
filosofico; tranne qualche osservazione fatta incidentalmente, egli ha lasciato che fossero
altri a dire quale filosofia corrisponda alle sue equazioni, cosicché è rimasto, per così
dire, un filosofo implicito. Questa è la sua forza e la sua debolezza a un tempo: la sua
forza, perché ha reso tanto più concreta la sua fisica, la sua debolezza, perché ha lasciato
la sua teoria esposta ai travisamenti e alle interpretazioni sbagliate.
Il fatto che la fondazione di una nuova fisica preceda una nuova filosofia della
fisica sembra costituire una legge generale. L'analisi filosofica diventa più facile quando
si applica a scopi concreti, quando è condotta nell'ambito di una ricerca intesa a
un'interpretazione dei dati dell’osservazione. I risultati filosofici di questo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5:6!
procedimento si raggiungono spesso in uno stadio successivo; essi sono il frutto della
riflessione sui metodi impiegati nella soluzione dei problemi concreti. Ma quelli che
costruiscono la nuova fisica di solito non hanno tempo, o non considerano loro compito,
illustrare ed elaborare la filosofia implicita nelle loro costruzioni.
Non sono soltanto i limiti delle capacità umane a richiedere una divisione del
lavoro fra il fisico e il filosofo. La scoperta di relazioni generali che si prestino a una
verifica empirica richiede una mentalità differente da quella del filosofo, i cui metodi
hanno un carattere analitico e critico, più che ipotetico-deduttivo. Il fisico che persegue
nuove scoperte non deve essere troppo critico; negli stadi iniziali deve basarsi su ipotesi
di lavoro, e troverà la sua strada soltanto se sarà sorretto da determinate convinzioni
che servano di guida alle sue ipotesi. Ma un credo non è una filosofia. Il filosofo della
scienza non ha molto interesse per i procedimenti del pensiero che portano alle scoperte
scientifiche; egli persegue una analisi logica della teoria già completa, ivi comprese le
relazioni che stabiliscono la sua validità. Cioè, non si interessa al contesto della scoperta,
ma al contesto della sua giustificazione. Il filosofo non ha nulla da obiettare alle
convinzioni di un fisico, quando non si presentano sotto forma di filosofia. Egli sa che
una convinzione personale si giustifica come strumento di ricerca di una teoria fisica; e,
anzi, non è altro che una forma primitiva di ipotesi, destinata eventualmente a essere
sostituita dalla teoria già elaborata, e soggetta in ultima istanza alle stesse verifiche
empiriche a cui è soggetta la teoria. La filosofia della fisica, d'altra parte, non nasce da
un credo, ma dall'analisi. Per essa, le convinzioni del fisico appartengono alla psicologia
della scoperta; essa tenta di chiarire il significato delle teorie fisiche indipendentemente
dal modo in cui esse sono interpretate dai loro autori, e s'interessa delle sole relazioni
logiche. Da questo punto di vista, è sorprendente vedere fino a che punto l'analisi logica
della relatività coincida con l'interpretazione originaria del suo autore, quale si può
ricostruire dalle scarse osservazioni contenute nelle pubblicazioni di Einstein.
Contrariamente a ciò che avvenne per certi sviluppi della meccanica quantistica, lo
schema logico della teoria della relatività conserva una straordinaria corrispondenza al
programma che ne regolò la scoperta. Questa chiarezza filosofica distingue Einstein da
molti fisici, l'opera dei quali diede vita a una filosofia diversa dall'interpretazione data
dall'autore.
Dopo questa ampia premessa possiamo passare ad analizzare i risultati filosofici
della teoria di Einstein, che include implicitamente più filosofia di quanta ne sia
contenuta in molti sistemi filosofici.
La base logica della teoria della relatività è la scoperta che molte affermazioni, la
cui verità o falsità si riteneva dimostrabile, non sono che semplici definizioni
convenzionali. Questa formulazione sembra enunciare una scoperta tecnica poco
importante, e non mette in evidenza le conseguenze implicite, di enorme importanza,
che costituiscono il significato filosofico della teoria. Nondimeno essa è una
formulazione completa della parte logica della teoria. Consideriamo, ad esempio, il
problema della geometria. Che l'unità di misura sia una questione convenzionale, è cosa
nota, ma il fatto che anche il confronto delle distanze sia una questione convenzionale è
noto soltanto all'esperto della relatività. Lo stesso discorso si può fare per il tempo: il
fatto che la simultaneità degli eventi che si producono in luoghi distanti fosse una
questione convenzionale non era noto, prima che Einstein fondasse la sua teoria della
relatività ristretta su questa scoperta logica.
5:7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Nelle esposizioni della teoria della relatività, l'uso di definizioni convenzionali
diverse viene spesso esemplificato col riferirlo a osservatori diversi. Questo modo di
presentare le cose ha dato origine alla concezione erronea che la relatività delle
misurazioni spazio-temporali sia legata alla soggettività dell'osservatore, che
l'individualità del mondo della percezione sensoriale sia l'origine della relatività
sostenuta da Einstein. Tale interpretazione protagorea della relatività di Einstein è
completamente sbagliata. Il carattere convenzionale del concetto di simultaneità, per
esempio, non ha nulla a che vedere con le variazioni prospettiche relative a diversi
osservatori collocati in diversi sistemi di riferimento. Coordinare diverse definizioni di
simultaneità a osservatori diversi serve semplicemente a semplificare l'esposizione delle
relazioni logiche. Parlare di diversi osservatori è solo un espediente per esprimere la
pluralità dei sistemi convenzionali. In un'esposizione logica della teoria della relatività
l'osservatore potrebbe essere completamente eliminato.
Le definizioni sono arbitrarie; e in conseguenza del carattere convenzionale dei
concetti fondamentali si ha che, al cambiare delle loro definizioni, nascono vari sistemi
di descrizione. Ma questi sistemi sono equivalenti l'uno all'altro, ed è possibile passare
da ciascun sistema a un altro con un'opportuna trasformazione. In tal modo il carattere
convenzionale dei concetti fondamentali conduce a una pluralità di descrizioni
equivalenti. Tutte queste descrizioni rappresentano linguaggi diversi che esprimono la
stessa cosa: possiamo dire, quindi, che descrizioni equivalenti esprimono lo stesso
contenuto fisico. La teoria delle descrizioni equivalenti si può anche applicare ad altri
campi della fisica; ma il caso dello spazio e del tempo è diventato il modello di questa
teoria.
La parola "relatività" dovrebbe essere interpretata nel senso di "relativo a un
certo sistema di definizioni convenzionali". Che la relatività implichi la pluralità, deriva
dal fatto che la variazione delle definizioni porta alla pluralità delle descrizioni
equivalenti. Ma noi vediamo che questa pluralità implicita non è una pluralità di punti
di vista differenti, o di sistemi di contenuto contraddittorio; è soltanto una pluralità di
linguaggi equivalenti, e pertanto di forme di espressione che non si contraddicono le
une con le altre, ma hanno lo stesso contenuto. La relatività non significa un abbandono
della verità; significa soltanto che la verità può essere formulata in modi diversi. Le due
proposizioni “la stanza è lunga 4 metri" e "la stanza è lunga 400 centimetri" sono
descrizioni equivalenti; esse affermano la stessa cosa. Il fatto che la semplice verità così
enunciata possa essere formulata in questi due modi non elimina il concetto di verità,
ma dimostra semplicemente che il numero che caratterizza una lunghezza è relativo
all'unità di misura. Tutte le relatività della teoria di Einstein sono di questo tipo. Per
esempio, la trasformazione di Lorentz ricollega descrizioni diverse di relazioni spaziotemporali fra di loro equivalenti nello stesso senso in cui lo sono una lunghezza di 4
metri e una lunghezza di 400 centimetri.
Una certa confusione è nata dalle considerazioni che si riferiscono alla proprietà
di semplicità. Un sistema descrittivo può essere più semplice di un altro ; ma ciò non lo
rende "più vero" dell'altro. Soltanto nell'ambito di considerazioni induttive la semplicità
può essere un criterio di verità; per esempio, la curva più semplice fra i dati
dell'osservazione rappresentati in un diagramma si considera "più vera", cioè più
probabile, di altre curve che colleghino gli stessi dati. Questa semplicità induttiva, però,
si riferisce a descrizioni non equivalenti, e non riguarda la teoria della relatività in cui si
confrontano soltanto descrizioni equivalenti. La semplicità delle descrizioni usate nella
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5:8!
teoria di Einstein è quindi sempre una semplicità descrittiva. Per esempio, il fatto che la
geometria non euclidea spesso fornisca una descrizione dello spazio fisico più semplice
di quella della geometria euclidea non rende "più vera" la descrizione non euclidea.
Di un'altra confusione è responsabile la teoria del convenzionalismo, che risale a
Poincarè. Secondo questa teoria, la geometria ha un carattere convenzionale, e non si
può attribuire alcun significato empirico a una proposizione sulla geometria dello
spazio fisico. Ora è vero che lo spazio fisico può essere descritto sia da una geometria
euclidea che da una geometria non euclidea; ma dire che una proposizione sulla
struttura geometrica dello spazio fisico sia priva di senso sarebbe interpretare male
questa relatività della geometria. La scelta di una geometria è arbitraria soltanto finché
non si fissa una definizione di congruenza. Quando questa definizione è data, stabilire
quale geometria valga per uno spazio fisico diventa una questione empirica. Invece di
parlare di convenzionalismo, quindi, noi parleremo della relatività della geometria. La
geometria è relativa esattamente nello stesso senso degli altri concetti relativi. L'essenza
della teoria della relatività sta nel fatto che anche i concetti fondamentali di spazio e
tempo sono considerati dello stesso tipo.
La relatività della geometria deriva dalla possibilità di rappresentare l'una
sull'altra geometrie diverse, con una corrispondenza biunivoca . Per alcuni sistemi
geometrici, però, la rappresentazione non sarà continua dappertutto, e in certi punti o
linee si manifesteranno delle singolarità. Per esempio, una sfera non può essere
proiettata su un piano senza una singolarità in almeno un punto; nelle solite proiezioni,
il polo nord della sfera corrisponde all'infinito del piano. Questa particolarità comporta
certe limitazioni per la relatività della geometria. Supponiamo che in una descrizione
geometrica, fondata ad esempio su uno spazio sferico, si abbia una causalità normale
per tutti gli avvenimenti fisici; allora una trasformazione in certe altre geometrie,
inclusa la geometria euclidea, porterà a violazioni del principio di causalità, ad
anomalie causali. Un segnale luminoso che andasse da un punto A ad un punto B
attraverso il polo nord, in un tempo finito, sarebbe rappresentato, in un'interpretazione
euclidea di questo spazio, come se si movesse da A in una certa direzione verso
l'infinito e ritornasse dalla parte opposta verso B, passando così attraverso una distanza
infinita in un tempo finito. Anomalie causali ancora più complicate risultano da altre
trasformazioni. Se il principio della causalità normale, cioè una diffusione continua
dalla causa all'effetto in un tempo finito, o azione per contatto, è posto come condizione
preliminare necessaria per la descrizione della natura, certi mondi non possono essere
interpretati con certe geometrie. Può darsi benissimo che la geometria così esclusa
debba essere la geometria euclidea; se l'ipotesi di Einstein di un universo chiuso è
corretta, una descrizione euclidea dell'universo dovrebbe essere esclusa per tutti coloro
che ammettono una causalità normale.
È questo fatto che rappresenta la confutazione più forte della concezione
kantiana dello spazio. La relatività della geometria è stata usata dai neokantiani come
una porta di servizio per introdurre l'apriorismo della geometria euclidea nella teoria di
Einstein: se è sempre possibile scegliere una geometria euclidea per la descrizione
dell'universo, i kantiani affermano che si dovrebbe sempre usare questa descrizione,
perchè la geometria euclidea, per un kantiano, è la sola che possa essere rappresentata
visivamente. Abbiamo visto che questa regola può condurre a violazioni del principio
di causalità; e poiché la causalità, per un kantiano, è anch'essa un principio a priori
come la geometria euclidea, la sua regola può costringere il kantiano ad una
5:9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
contraddizione profonda. Non c'è difesa per il kantiano, se le proposizioni della
geometria del mondo fisico sono formulate in un modo completo, comprensivo di tutte
le loro implicazioni fisiche; poiché in questo modo le proposizioni sono verificabili
empiricamente e derivano la loro verità dalla natura del mondo fisico.
Sebbene noi ora possediamo, con la teoria di Einstein, una formulazione
completa della relatività dello spazio e del tempo, non dobbiamo dimenticare che
questo è il risultato di un lungo sviluppo storico. In particolare Leibniz, applicando il
suo principio dell'identità degli indiscernibili al problema del moto, arrivò alla relatività
del moto su basi logiche e andò tanto oltre da riconoscere la relazione fra ordine causale
e ordine temporale. Questa concezione della relatività fu in seguito sviluppata da Mach,
il cui contributo alla discussione consiste essenzialmente nell'importantissima idea che
una relatività del moto rotatorio implichi una estensione del relativismo al concetto di
forma inerziale. Einstein ha sempre riconosciuto in Mach un precursore della sua teoria.
Un'altra linea di sviluppo, che ha trovato anch'essa il suo completamento nella
teoria di Einstein, è data dalla storia della geometria. La scoperta di geometrie non
euclidee da parte di Gauss, Bolyai e Lobacevskij, fu associata all'idea che la geometria
fisica potesse essere non euclidea. Ma l'uomo a cui dobbiamo la chiarificazione
filosofica del problema della geometria è Helmholtz. Egli vide che la geometria fisica
dipendeva dalla definizione di congruenza per mezzo dei corpi solidi, e arrivò così a
una chiara definizione della natura della geometria fisica, superiore per profondità
logica al convenzionalismo di Poincarè. Non è colpa di Helmholtz se non riuscì a
dissuadere i filosofi contemporanei da un apriorismo kantiano sullo spazio e sul tempo.
Le sue vedute filosofiche erano conosciute solo in un piccolo gruppo di esperti.
Quando, con la teoria di Einstein, l'interesse pubblico si rivolse a questi problemi, i
filosofi incominciarono ad abbandonare l'apriorismo kantiano.
Sebbene esista un'evoluzione storica dei concetti di spazio e di moto, questa linea
di sviluppo non trova il suo analogo per il concetto di tempo. Il primo a parlare di una
relatività della misura del tempo, cioè di quello che si chiama lo scorrere uniforme del
tempo, fu Mach. Tuttavia, l'idea einsteiniana di una relatività della simultaneità non ha
precursori. Forse questa scoperta non avrebbe potuto esser fatta prima del
perfezionamento dei metodi sperimentali della fisica. La relatività della simultaneità di
Einstein è strettamente associata all'ipotesi che la luce sia il segnale più rapido; idea che
non poteva essere concepita prima del risultato negativo di esperienze come quella di
Michelson. Fu la combinazione della relatività del tempo e del moto che rese così
efficace la teoria di Einstein e portò a risultati ben superiori a quelli ottenuti dalle teorie
precedenti. La scoperta della teoria della relatività particolare, a cui nessuno dei
precursori di Einstein aveva mai pensato, divenne così la chiave di una teoria generale
dello spazio e del tempo, che comprese tutte le idee di Leibniz, Gauss, Riemann,
Helmholtz e Mach, e aggiunse ad esse alcune scoperte fondamentali che non potevano
essere anticipate in uno stadio anteriore. In particolare mi riferisco alla concezione di
Einstein secondo cui la geometria dello spazio fisico è una funzione della distribuzione
delle masse, idea completamente nuova nella storia della geometria. Tutte le
considerazioni precedenti mostrano che l'evoluzione delle idee filosofiche sono guidate
dall'evoluzione delle teorie fisiche. La filosofia dello spazio e del tempo non è opera del
filosofo che sta nella sua torre d'avorio. È stata costruita da uomini che tentarono di
combinare i dati delle osservazioni con l'analisi matematica . La grande sintesi delle
varie linee di sviluppo, che dobbiamo ad Einstein, è una testimonianza del fatto che la
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
5::!
filosofia della scienza ha assunto una funzione che i sistemi filosofici non potevano
assolvere.
La questione di ciò che siano lo spazio e il tempo ha sempre affascinato gli autori
dei sistemi filosofici. Platone la risolse inventando un mondo di realtà "più elevate", il
mondo delle idee, che comprende lo spazio e il tempo fra i suoi oggetti ideali e rivela le
loro relazioni al matematico capace di compiere lo sforzo necessario a vederle. Per
Spinoza lo spazio era un attributo di Dio. Kant, a sua volta, negò la realtà dello spazio e
del tempo e considerò queste due categorie concettuali come forme di rappresentazione
visiva, cioè come costruzioni della mente umana per mezzo delle quali l'osservatore
umano combina le sue percezioni in modo da collegarle in un sistema ordinato. La
soluzione che noi possiamo dare al problema sulla base della teoria di Einstein è assai
differente dalle soluzioni di questi filosofi. La teoria della relatività mostra che lo spazio
e il tempo non sono né oggetti ideali, né forme ordinatrici necessarie alla mente umana.
Esse costituiscono un sistema di relazioni che esprime certe caratteristiche generali degli
oggetti fisici, e pertanto sono capaci di descrivere il mondo fisico.
Cerchiamo di render chiaro questo fatto. È ben vero che, come tutti i concetti, lo
spazio e il tempo sono invenzioni della mente umana. Ma non tutte le invenzioni della
mente umana sono adatte a descrivere il mondo fisico. Con quest'ultima frase
intendiamo dire che i concetti si riferiscono a certi oggetti e li differenziano dagli altri.
Per esempio, il concetto di "centauro " è vuoto, mentre il concetto di "orso" si riferisce a
certi oggetti fisici e li distingue dagli altri. Il concetto di "cosa", d'altra parte, sebbene
non sia vuoto, è tanto generale che non stabilisce differenze tra gli oggetti. I nostri
esempi riguardano predicati semplici, ma la stessa distinzione si applica a predicati più
complessi. La relazione "telepatia" è vuota, mentre la relazione "padre" non lo è. Se noi
diciamo che predicati semplici e non vuoti, come "orso", descrivono oggetti reali
dobbiamo anche dire che predicati non vuoti e più complessi, come “padre”,
descrivono relazioni reali. È in questo senso che la teoria della relatività sostiene la
realtà dello spazio e del tempo. Questi sistemi concettuali descrivono relazioni che
valgono fra oggetti fisici, cioè corpi solidi, raggi luminosi e orologi. Inoltre queste
relazioni formulano leggi fisiche di grande generalità, determinando alcune
caratteristiche fondamentali del mondo fisico. Lo spazio e il tempo hanno tanta realtà
quanta ne hanno, ad esempio, la relazione "padre" e le forze newtoniane di attrazione.
La considerazione seguente può costituire un'ulteriore spiegazione del perché la
geometria descriva la realtà fisica. Finché si conosceva una sola geometria, la geometria
euclidea, il fatto che questa geometria potesse essere usata per una descrizione del
mondo fisico rappresentava un problema per il filosofo; e la filosofia di Kant deve
essere intesa come un tentativo di spiegare perché un sistema strutturale derivato dalla
mente umana potesse dar conto delle relazioni osservate. Con la scoperta di una
pluralità di geometrie, la situazione cambiò completamente. La mente umana si
dimostrò capace di inventare ogni tipo di sistema geometrico, e la questione di quale
fosse il sistema adatto a descrivere la realtà fisica si trasformò in una questione
empirica, cioè la sua soluzione fu lasciata in definitiva ai dati dell'esperienza. Ma, se le
proposizioni sulla geometria del mondo fisico sono empiriche, la geometria descrive
una proprietà del mondo fisico nello stesso senso in cui, ad esempio, la temperatura o il
peso descrivono certe proprietà degli oggetti fisici. Quando parliamo della realtà dello
spazio fisico, intendiamo appunto questo.
6<<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
L'importanza che hanno i raggi luminosi nella teoria della relatività deriva dal
fatto che la luce è il segnale più rapido, cioè rappresenta la forma più rapida di catena
causale. Si può dimostrare che il concetto di catena causale è il concetto fondamentale
su cui si erige la struttura dello spazio e del tempo. L'ordine spazio-temporale deve
essere quindi considerato come l'espressione dell'ordine causale del mondo fisico. La
stretta connessione fra spazio e tempo da una parte, e causalità dall'altra, è forse la
caratteristica più pronunciata della teoria di Einstein, sebbene questa caratteristica non
sia sempre stata riconosciuta nel suo profondo significato. L'ordine temporale, l'ordine
del prima e del dopo, è riducibile all'ordine causale; la causa è sempre anteriore
all'effetto, e questa relazione non può essere invertita. Che la teoria di Einstein ammetta
un'inversione dell'ordine temporale per certi eventi, risultato ben noto per la relatività
della simultaneità, è semplicemente una conseguenza di questo fatto fondamentale.
Poiché la velocità della trasmissione causale è limitata, esistono eventi di natura tale che
nessuno di essi può essere causa o effetto dell'altro. Per eventi di questa natura un
ordine temporale non è definito, e ciascuno di essi può essere considerato anteriore o
posteriore all'altro.
In definitiva, anche l'ordine spaziale è riducibile a ordine causale; un punto
spaziale B è considerato più vicino ad A di un punto spaziale C, se un segnale luminoso
diretto, cioè una catena causale rapidissima, passa da A a C attraverso B. La
connessione fra ordine temporale e causale porta alla questione della direzione del
tempo. La relazione fra causa ed effetto è una relazione asimmetrica; se P è la causa di
Q, allora Q non è la causa di P. Questo fatto fondamentale è essenziale per l'ordine
temporale, perché riduce il tempo a una relazione seriale. Per relazione seriale
intendiamo una relazione che ordina i suoi elementi in una disposizione lineare; tale
relazione è sempre asimmetrica e transitiva. Il tempo della teoria di Einstein ha queste
proprietà; ed è necessario che le abbia, perché altrimenti non si potrebbe usare per la
costruzione di un ordine seriale. Tuttavia ciò che chiamiamo direzione del tempo deve
essere distinta dal carattere asimmetrico dei concetti "prima" e "dopo". Una relazione
può essere asimmetrica e transitiva senza distinguere una direzione da quella opposta.
Per esempio, i punti di una linea retta sono ordinati mediante una relazione seriale che
possiamo esprimere con le parole "prima" e "dopo". Se A è prima di B, allora B non è
prima di A, e se A è prima di B e B è prima di C, allora A è prima di C. Ma quale
direzione della linea dobbiamo chiamare "prima" e quale "dopo", non è indicato dalla
natura della linea; questa definizione si può dare soltanto compiendo una scelta
arbitraria, per esempio indicando una direzione e chiamandola direzione del "prima". In
altre parole le relazioni "prima" e "dopo" sono strutturalmente indistinguibili, e quindi
intercambiabili; dire che il punto A viene prima del punto B, o dire che viene dopo,
dipende da una definizione arbitraria.
Il problema della relazione temporale è di vedere se sia unidirezionale. La
relazione "prima di" che usiamo nella vita comune è strutturalmente diversa dalla
relazione "dopo di". Il fisico formula questa direzione come irreversibilità del tempo: il
tempo scorre in una sola direzione, e il flusso del tempo non può essere invertito.
Vediamo quindi che, nel linguaggio della teoria delle relazioni, la questione della
irreversibilità del tempo è espressa non dalla questione se il tempo sia una relazione
asimmetrica, ma dalla questione se sia una relazione unidirezionale. Per la teoria della
relatività, il tempo è certamente una relazione asimmetrica, perché altrimenti la
relazione temporale non stabilirebbe un ordine seriale; ma non è unidirezionale. In altri
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6<;!
termini l'irreversibilità del tempo non trova un'espressione nella teoria della relatività.
Non dobbiamo però concludere che questa sia l'ultima parola che il fisico può dire sul
tempo. Possiamo dire soltanto che, per quanto riguarda la teoria della relatività, non
dobbiamo dare una distinzione qualitativa fra le due direzioni del tempo, fra il "prima"
e il "dopo". Una teoria fisica può ben fare astrazione da certe proprietà del mondo fisico;
ma ciò non significa che queste proprietà non esistano. L'irreversibilità del tempo,
finora, è stata trattata soltanto in termodinamica, dove è concepita come qualcosa di
carattere essenzialmente statistico, non applicabile ai processi elementari. Questa
concezione non è soddisfacente, soprattutto se si considera che ha portato a certi
paradossi. Ma la fisica quantistica, finora, non offre soluzioni migliori. Qualche
spiraglio sulla direzionalità del tempo, se non addirittura su una sua possibile assenza,
può venire da una teoria che unifichi relatività e meccanica quantistica (teoria delle
stringhe o gravità quantistica a loop: capitolo 18).
È sorprendente constatare che la trattazione fisico-matematica del concetto di
tempo, formulata nella teoria di Einstein, ha condotto a una chiarificazione che l'analisi
filosofica non avrebbe potuto ottenere. Per il filosofo, certi concetti come ordine
temporale e simultaneità erano nozioni primitive, inaccessibili a un'analisi più
dettagliata. Ma la pretesa che un dato concetto non ammetta di essere analizzato spesso
nasce semplicemente dall'incapacità di comprenderne il significato. Con la riduzione
del concetto di tempo a quello di causalità e la generalizzazione dell'ordine temporale a
una relatività della simultaneità, Einstein non ha soltanto cambiato le nostre concezioni
del tempo, egli ha anche chiarito il significato del concetto classico di tempo che aveva
preceduto le sue scoperte. In altri termini, noi ora conosciamo il significato del tempo
assoluto meglio di qualsiasi fautore della concezione classica del tempo. La simultaneità
assoluta varrebbe in un mondo in cui non esistesse un limite massimo alla velocità dei
segnali, cioè a una trasmissione causale. Un mondo di questo tipo è immaginabile tanto
quanto il mondo di Einstein. Dire a quale tipo appartenga il nostro mondo è una
questione empirica: l'esperienza ha deciso a favore della concezione di Einstein. Come
nel caso della geometria, la mente umana è capace di costruire varie forme di schemi
temporali; la questione dello schema più adatto al mondo fisico, cioè più vero, può
essere risolta soltanto riferendosi ai dati dell'osservazione. Il contributo della mente
umana al problema del tempo non può essere un ordine temporale ben definito, ma una
pluralità di possibili ordini temporali, e la scelta di un ordine temporale che possa
considerarsi reale è lasciata all'osservazione empirica. Il tempo è l'ordine delle catene
causali; questo è il risultato più alto delle scoperte di Einstein. Il solo filosofo che
anticipò questo risultato fu Leibniz; anche se, naturalmente, ai suoi tempi sarebbe stato
impossibile concepire una relatività della simultaneità. E Leibniz era tanto un
matematico quanto un filosofo. La soluzione del problema del tempo e dello spazio
pare sia riservata ai filosofi che, come Leibniz, sono matematici, o ai matematici che
come Einstein, sono filosofi.
Dal tempo di Kant, la storia della filosofia presenta una frattura sempre più
grande fra i sistemi filosofici e la filosofia della scienza. Il sistema di Kant fu costruito
con l'intenzione di provare che la conoscenza è il risultato di due componenti, quella
dell'intelletto e quella dell'osservazione; e si considerò che la componente intellettuale
fosse data dalle leggi della ragion pura, concependola come un elemento sintetico
differente dalle operazioni puramente analitiche della logica. Il concetto di sintetico a
priori definisce la posizione kantiana; una parte della conoscenza è sintetica a priori,
6<=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
cioè vi sono proposizioni non vuote, assolutamente necessarie. Fra questi principi della
conoscenza Kant include le leggi della geometria euclidea, del tempo assoluto, della
causalità e della conservazione della massa. I suoi seguaci, nel diciannovesimo secolo,
ripresero questa concezione, apportandole molte varianti. Lo sviluppo della scienza,
d'altra parte, ci ha allontanati dalla metafisica kantiana. La verità dei principi che Kant
considera sintetici a priori fu riconosciuta discutibile, altri principi, in contraddizione
con essi, furono sviluppati e usati per la costruzione della conoscenza. Questi nuovi
principi non furono proposti come verità assoluta, ma come tentativi di trovare una
descrizione nella natura che si adattasse ai dati materiali dell'osservazione. Fra la
pluralità dei sistemi possibili, quello che corrispondesse alla realtà fisica poteva essere
individuato soltanto dall'osservazione e dall'esperienza. In altri termini i principi
sintetici della conoscenza, che Kant aveva considerato a priori, furono riconosciuti come
principi a posteriori, verificabili soltanto con l'esperienza e validi nel senso ristretto di
ipotesi empiriche.
È in questo processo di dissoluzione del sintetico a priori che noi dobbiamo porre
la teoria della relatività, se vogliamo giudicarla dal punto di vista della storia della
filosofia. Una linea di sviluppo che incominciò con l'invenzione delle geometrie non
euclidee, 20 anni dopo la morte di Kant, si svolge ininterrottamente fino alla teoria di
Einstein dello spazio e del tempo. Le leggi della geometria, considerate per 2000 anni
come leggi della ragione, furono riconosciute come leggi empiriche, che si adattano al
mondo circostante all'uomo con una precisione estremamente elevata, ma che debbono
essere abbandonate per le dimensioni astronomiche. L'apparente autoevidenza di
queste leggi, che le faceva apparire come presupposti inoppugnabili di ogni
conoscenza, risultò essere un frutto dell'abitudine; attraverso la loro adattabilità a tutte
le esperienze della vita quotidiana, queste leggi avevano acquistato un grado di
sicurezza erroneamente interpretato come certezza assoluta. Helmholtz fu il primo a
sostenere l'idea che, se esseri umani vivessero in un mondo non euclideo, essi sarebbero
capaci di sviluppare una forma di rappresentazione visiva mediante la quale sarebbero
portati a considerare necessarie e di per sé evidenti le leggi della geometria non
euclidea, nello stesso modo in cui le leggi della geometria euclidea appaiono evidenti a
noi. Trasferendo quest'immagine alla concezione einsteiniana del tempo, potremmo
dire che, se vi fossero esseri umani a cui le esperienze quotidiane rendessero
apprezzabili gli effetti della velocità finita della luce, essi si abituerebbero alla relatività
della simultaneità e considererebbero le regole della trasformazione di Lorentz
necessarie e di per sé evidenti, proprio come noi consideriamo di per sé evidenti le
regole classiche del moto e della simultaneità. Ciò che i filosofi avevano considerato
come leggi della ragione si sono dimostrate essere un adattamento alle leggi fisiche
dell'ambiente circostante; e vi è ragione di credere che, in un ambiente diverso, un
adattamento corrispondente avrebbe portato l'uomo ad avere un'altra formazione
mentale.
Il processo di dissoluzione del sintetico a priori è una delle caratteristiche più
importanti della filosofia del nostro tempo. Noi non commetteremo l'errore di
considerare come un fallimento delle capacità umane il fatto che certi concetti, ritenuti
assolutamente veri, si siano dimostrati di validità limitata e, in certi campi della
conoscenza, debbano essere abbandonati. Al contrario, il fatto che noi siamo in grado di
superare queste concezioni e di sostituirle con altre migliori rivela capacità inaspettate
della mente umana, e una versatilità enormemente superiore al dogmatismo d'una
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6<4!
ragion pura che detta le sue leggi allo scienziato. Kant si illuse di possedere una prova
dell'asserzione che i principi sintetici a priori fossero verità necessarie; per lui questi
principi erano condizioni necessarie della conoscenza. Egli trascurò il fatto che una tale
prova può dimostrare la verità dei principi solo se si ammette che il sistema costruito da
questi stessi principi consenta sempre di arrivare alla conoscenza. Lo sviluppo della
teoria di Einstein dimostra appunto che la conoscenza, entro lo schema dei principi
kantiani, non è possibile. Per un kantiano, tale risultato può significare soltanto un
fallimento della scienza. Ma per fortuna Einstein non era un kantiano e, invece di
abbandonare i suoi tentativi di costruire la conoscenza, cercò il modo di cambiare i
cosiddetti principi a priori. Con la sua capacità di usare relazioni spazio-temporali
essenzialmente diverse dallo schema tradizionale della conoscenza, Einstein ha aperto
la strada a una filosofia superiore alla filosofia del sintetico a priori. La relatività di
Einstein appartiene quindi alla filosofia dell'empirismo. E l'empirismo di Einstein non è
quello di Bacone, il quale credeva che tutte le leggi della natura si potessero trovare con
semplici generalizzazioni induttive. L'empirismo di Einstein è quello del fisico teorico
moderno, l'empirismo della costruzione matematica, concepita in modo da connettere i
risultati dell'osservazione per mezzo di operazioni deduttive, e da permetterci di
prevedere nuovi risultati dell'osservazione. La fisica matematica resta sempre
empiristica, finché fonda sulla percezione dei sensi il criterio ultimo di verità. L'enorme
sviluppo del metodo deduttivo, in tale fisica, si può spiegare benissimo in funzione
delle operazioni analitiche. Oltre alle operazioni deduttive, la fisica delle ipotesi
matematiche comporta, naturalmente, un elemento induttivo; ma anche il principio
dell'induzione, l'ostacolo di gran lunga più difficile a un empirismo radicale, si può oggi
giustificare senza bisogno di credere in un sintetico a priori. Il metodo della scienza
moderna si può completamente spiegare nei termini di un empirismo che riconosce
soltanto la percezione dei sensi e i principi analitici della logica come sorgenti di
conoscenza. Nonostante il suo enorme edificio matematico, la teoria di Einstein dello
spazio e del tempo è un trionfo di tale empirismo radicale, in un campo che è sempre
stato considerato riservato alle scoperte della ragion pura.
Il processo di dissoluzione del sintetico a priori continua. All'abbandono dello
spazio e del tempo assoluto la fisica quantistica ha aggiunto quello della causalità;
inoltre, essa ha abbandonato il concetto classico di sostanza materiale e ha mostrato che
i costituenti della materia, le particelle atomiche, non possiedono la natura non ambigua
dei corpi solidi del mondo macroscopico. Se intendiamo per metafisica la fede in
principi che non siano analitici, ma che ciononostante derivino la loro validità dalla sola
ragione, la scienza moderna è antimetafisica. Essa ha rifiutato di riconoscere l'autorità
del filosofo che pretende di conoscere la verità attraverso l'intuizione, col penetrare,
cioè, in un mondo delle idee, o nella natura della ragione, o nei principi dell'essere, o in
qualsiasi altro modo che trascenda l'empirico. Anche per i filosofi, la via della verità non
può essere diversa. Il cammino dei filosofi è indicato da quello degli scienziati: tutto ciò
che il filosofo può fare è analizzare i risultati della scienza, trovarne il significato e
definirne i limiti di validità. La teoria della conoscenza è un'analisi della scienza.
Si è detto prima che Einstein è un filosofo implicito. Questo significa che il
compito del filosofo è di esplicitare le implicazioni filosofiche della teoria di Einstein.
Non dobbiamo dimenticare che le implicazioni deducibili dalla teoria della relatività
sono di enorme portata, e dobbiamo renderci conto che solo una fisica eminentemente
filosofica può prestarsi a tali deduzioni. Non capita molto spesso che ci si trovi di fronte
6<5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
a sistemi fisici di tale importanza filosofica; in questo senso, l'unico predecessore di
Einstein fu Newton. È un privilegio del XX secolo annoverare un fisico la cui opera
assurge alla stessa grandezza di quella dell'uomo che ha determinato la filosofia dello
spazio e del tempo per due secoli. Se i fisici presentano filosofie implicite di tale
eccellenza, è un piacere essere filosofi. La fama imperitura della filosofia della fisica
moderna andrà giustamente all'uomo che costruì la fisica, più che a coloro i quali si
sforzarono di trarne le conseguenze e di collocarle nella storia della filosofia. Molti
hanno contribuito alla filosofia della teoria di Einstein, ma vi è un solo Einstein.
12.4 Discussioni filosofiche scientifiche sulla teoria della relatività
Come mai una teoria scientifica che pure ha ottenuto numerose conferme
sperimentali e fa ormai parte integrante del corpo della scienza fisica ha potuto essere
interpretata così variamente? La risposta sta nel fatto che essa toccava i problemi dello
spazio e del tempo sui quali, nella filosofia occidentale, il dibattito era stato
estremamente vario e vivo. Anzi, lo spazio ed il tempo erano temi tradizionalmente
riservati ai filosofi o addirittura ai metafisici. Orbene, il fatto che Einstein partendo da
riflessioni fisiche sullo spazio e sul tempo arrivasse a parlare dell'oggetto materiale nelle
sue varie manifestazioni di massa, energia, velocità, potè far credere alla tradizione
ontologistica della filosofia che fosse prossima la possibilità di un discorso completo sul
mondo fisico, fuori dal quadro del meccanicismo tradizionale.
A partire dal 1910 fino ad oggi, non c’è stato un grande pensatore o filosofo che
non abbia cercato di capire quali siano state le direttrici del pensiero di Einstein e la loro
rilevanza per la filosofia, ciascuno servendosi delle categorie proprie della loro filosofia.
Poichè queste interpretazioni sono molto numerose e complesse, cercheremo di dare
un'idea del loro significato raggruppandole, in maniera schematica, in tre momenti
principali: il primo, che va dal 1920 al 1930 circa, è quello in cui compaiono le critiche
fondamentali neokantiane, machiane ed empiriocriticiste, oltre a quelle di Whitehead,
Schlick e Bergson. II secondo momento, che si può far giungere fino al 1950, è quello in
cui si sviluppano le critiche dei quantisti, dell'operazionismo di Bridgman e delle
tendenze neopositiviste. Il terzo momento riguarda gli orientamenti attuali della
discussione sulla teoria della relatività. Non verranno prese in considerazione le critiche
dei marxisti russi in quanto non hanno relazione di sorta e controparte con gli studi di
critica scientifica e filosofica nell'Europa occidentale e perché l'interesse che muove i
filosofi sovietici nei confronti delle teorie di Einstein è essenzialmente ideologico.
Le critiche del primo gruppo sono tutte dei tentativi di porre in relazione il
pensiero di Einstein con i problemi e le prospettive di una particolare filosofia, e cercano
di sottolineare come la teoria della relatività abbia confermato il kantismo. A differenza
di queste dopo il 1930, quando cioè si sviluppano le critiche del materialismo dialettico
e dei fondatori della meccanica quantistica, vediamo che non si tratta più di imporre
certe categorie filosofiche per spiegare il significato della relatività, ma piuttosto si tratta
di mostrarne i limiti e i difetti da certi punti di vista, in particolare da quello del valore
conoscitivo delle teorie. Sono cioè critiche a prevalente carattere metodologico. In
fondo, mentre nel periodo 1920-30 si tenta di spiegare filosoficamente la teoria della
relatività, dopo il 1930 le critiche sono volte alla valutazione della portata conoscitiva di
questa teoria. Infine gli studi apparsi intorno al 1960 svolgono quasi tutti un solo tema,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6<6!
che d'altronde è il più importante nel pensiero di Einstein, ossia quello dei rapporti fra
geometria e fisica.
Percorrendo le critiche alla teoria della relatività, troveremo come fatti rilevanti
l'opposizione permanente fra interpretazione operativa ed ontologica della teoria, il
ricorrente tentativo di far passare lo spazio-tempo o come una mera costruzione del
soggetto conoscente o come una sostanza entro la quale si svolgono gli eventi. Davanti
alla teoria della relatività risultarono insufficienti i vari convenzionalismi usciti dalla
crisi del positivismo, i quali non potevano ammettere che la teoria di Einstein avesse
una portata reale di trasformazione dei concetti. Le due tesi estreme del totale
ontologismo e del totale convenzionalismo escono battute net corso del dibattito, forse
perchè non possiedono gli strumenti sufficienti a capire l'origine storica delle idee di
Einstein e la loro possibilità di realizzazione. Infatti nel pensiero di Einstein è presente
tutta una tradizione, sorta nella Germania del XIX secolo, di geometrizzazione
dellafisica, e che risale a Riemann ed a Helmholtz. Questa tradizione non si pone il
problema della differenza fra ontologismo e convenzionalismo, poiché ritiene di
identificare la massima obiettività possibile della fisica con la più chiara ed
euristicamente perfetta forma geometrica. Ecco perché le spiegazioni estreme spesso
sono fallite nel giudicare la teoria della relatività, non contemplavano la possibilità di
una tradizione di questo tipo. Avranno allora ragione le critiche spiritualistiche?
Certamente no dal punto di vista metodologico, perchè insistono troppo sulla libera
creatività della mente umana. Le critiche più penetranti sono invece quelle che
distinguono tra teoria della relatività generale e speciale salvando la seconda e non
impegnandosi sul valore conoscitivo della prima. Infatti tali critiche sono quelle che
meglio servono agli scienziati impegnati nella ricerca. Ugualmente interessanti sono le
critiche che prendono le mosse dal rapporto tra fisica e geometria non già per affermate
che il legame posto da Einstein fra le due discipline sia quello più giusto, ma per far
capire che l'importante della teoria della relatività è la direzione di ricerca, il tipo di
indagine indicata, ossia la tradizione scientifica in essa presente.
Adesso andiamo ad esaminare nello specifico le varie interpretazioni ed
orientamenti intorno alla teoria della relatività secondo lo schema prima indicato.
Cominciamo con le interpretazioni convezionalistiche, machiane, kantiane,
spiritualistiche e neopositivistiche nel periodo 1918-30.
I filosofi seguaci di Hans Vaihinger (1852-1933), filosofo tedesco, vengono di
solito chiamati filosofi del « come se ». Secondo questa filosofia, che si presenta come un
movimento convenzionalista fondato su una particolare lettura di Kant, le teorie
scientifiche non hanno valore ontologico, ossia non riflettono in alcun modo delle
strutture reali. Esse sono delle costruzioni deduttive ma ipotetiche, il cui valore è quello
di un perfezionamento concettuale e astratto di realtà fittizie già presenti nella psiche.
L'iniziatore del movimento, Vaihinger, non si interessò direttamente della teoria della
relatività, ma alcuni suoi allievi, come Oskar Kraus (1872-1942) e Friedrich Lipsius
(1873-1934), si incaricarono di svolgere le critiche del come se alle teorie einsteiniane.
Questi filosofi tendono a distinguere fra le ipotesi scientifiche ed i concetti fittizi,
altrimenti detti “fantasie”. Il termine va preso in senso vaihingeriano come un
equivalente di strutture mentali non corrispondenti alla realtà, ma valide solo entro un
sistema finzionale. L'utilità della “fantasia” è di stimolare una razionalizzazione della
realtà, altrimenti troppo complessa e multiforme. Ipotesi e fantasia sono diverse tra loro
perché ogni ipotesi cerca di essere un'espressione adeguata di qualche realtà non ancora
6<7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
conosciuta, mentre la fantasia viene portata avanti con la coscienza che essa è una
maniera soggettiva e pittorica la cui coincidenza con la realtà è, dall'inizio, esclusa e che
non può essere successivamente verificata come noi pensiamo poter fare con l’ipotesi.
In base a questi presupposti, i filosofi del «come se» tracciano una distinzione tra ipotesi
einsteiniane e fantasie, tendendo a identificare queste ultime con gli esperimenti ideali
di cui Einstein fa uso nella teoria della relatività speciale e generale. Si può obiettare ai
critici del “come se” che, o essi dimostrano che le asserzioni di Einstein sono
empiricamente false, o rinunciano a criticarle considerandole soltanto ipotesi o meglio
fantasie. Infatti nella teoria della relatività non si fa uso di fantasie fine a se stesse, bensì
di ipotesi che acquistano valore di verità dopo una lunga catena di deduzioni che le
collegano alle osservabili. Oltre a queste distinzioni generali sulla teoria della relatività,
in particolare Kraus afferma che Einstein non può criticare ii concetto di simultaneità
analizzando gli effetti di un dato fenomeno fisico in più sistemi di riferimento in moto
relativo uniforme, perchè il concetto di simultaneità è un a priori dell'esperienza. Si nota
qui lo scopo della critica dei filosofi del «come se», che è quello di ridurre la teoria della
relatività non già ad una disamina dei concetti di spazio, tempo, materia ecc., ma dei
metodi di misurazione dello spazio, tempo, materia ecc. Se questo fosse vero, avrebbero
buon gioco quei filosofi nel dire che qualunque costruzione della fisica è in fondo un
insieme di ipotesi e di fantasie senza valore conoscitivo. Se si deve muovere una
obiezione a questi interpreti della relatività è proprio quella di non aver indagato più a
fondo sul valore strumentale delle fantasie. Se avessero fatto ciò, avrebbero
probabilmente raggiunto la conclusione che alcune fantasie possono servire a superare
un presupposto concetto a priori. Si può poi discutere l'affermazione di Kraus secondo
cui la teoria della relatività parlerebbe non del concetto di simultaneità ma delle misure
di esso. Dicendo che la teoria della relatività dà soltanto conferme empiriche e non
concettuali dei propri presupposti Kraus deve parlare di questi mezzi empirici di
misura e non può quindi dimostrare che non esistono conferme dirette della teoria della
relatività; può al massimo criticare questo uso degli strumenti di misura. Inoltre Kraus
si trova qui in una posizione prekantiana, pur volendo usare nella sua critica alcuni
concetti kantiani; Kant infatti aveva già richiesto che i principi a priori dovessero essere
dimostrati come condizioni necessarie all'esperienza. Kraus prende invece una evidenza
logica tradizionale, qual è quella di simultaneità valida ovunque, e vuole farne un a
priori di valore universale inattingibile all’esperienza, il che rappresenta una arbitraria
presupposizione.
Un secondo gruppo di critiche è quello influenzato da Mach il quale, tra l’altro,
benchè Einstein stesso si fosse richiamato a lui nella spiegazione dei fondamenti teorici
della relatività, si era dichiarato contrario alla teoria della relatività. Tra i seguaci di
Mach, Joseph Petzold (1862-1929), ha considerato la teoria della relatività come una
teoria fenomenistica del moto, ossia una teoria che si sforza di essere più vicina ai dati
immediatamente sensoriali quanto non lo sia la dinamica newtoniana. Petzold afferma
che il più grande contributo filosofico dato da Einstein è stato quello di fondare la
meccanica non su assiomi ma su coincidenze di eventi; cioè su qualche realtà
direttamente accessibile all'esperienza. Einstein, considerando come osservabili solo le
coincidenze tra eventi fisici e relazioni metriche come invarianti matematiche astratte,
avrebbe contribuito, da un punto di vista machiano, ad eliminare molta metafisica
contenuta negli schemi della meccanica classica. Einstein ha avuto il merito di rivedere i
fondamenti della meccanica e di superarne le forme tradizionali costruendo una fisica
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6<8!
capace di trascurare la nozione animistica di forza e fornendo gli strumenti adatti ad
una eliminazione dell'elemento antropomorfico della fisica in favore di una posizione
più apertamente convenzionalistica. Notiamo i meriti della critica di Petzold: egli
anticipa Whitehead nel sottolineare l'importanza del concetto di “evento” come
costituente fondamentale della nuova fisica di Einstein. Applica poi alla teoria della
relatività delle convenienti indagini epistemologiche sottolineando la raffinatezza della
teoria ed il suo distacco da ogni forma di presupposizione aprioristica. Per far questo
egli è spinto a sottolineare il carattere convenzionale della teoria e non riesce a mettere
abbastanza a fuoco la sua portata ontologica.
Si entra in una prospettiva diversa quando si parla della interpretazione kantiana
di Einstein, perchè questa interpretazione tocca la teoria della relatività proprio in uno
dei suoi punti principali ossia quello del rapporto fra spazio e tempo, che è anche uno
dei problemi centrali del criticismo. È bene tenere distinte, quando si parla di
interpretazione kantiana delta teoria della relatività, due posizioni diverse tra loro per
impostazione: quella di Cassirer, secondo cui la teoria einsteiniana completa e
perfeziona il pensiero di Kant, e quella degli altri kantiani (Ilse, Schneider, Edwald
Sellien e Leonore Ripke-Kuhn) per i quali nella teoria della relatività non si tratta di
concetti ma solo di misure (osserviamo la somiglianza di questa posizione con quella
dei filosofi del «come se» che tendevano a svalutare la portata conoscitiva della
relatività). Prima di esaminare le due posizioni, vediamo quali sono i problemi
principali avanzati dalla teoria della relatività alla filosofia di Kant. In primo luogo vi e
quello che vogliamo chiamare il problema dell'a priori: la relatività è resa possibile da
un insieme di giudizi sul comportamento dei corpi materiali e degli strumenti di
misura. Se questi giudizi non sono empirici ma a priori, allora la teoria della relatività
può venir considerata una categoria perenne della conoscenza. Per dimostrare che le
cose stanno cosi i filosofi kantiani devono far vedere in qualche modo che i giudizi fisici
su cui si fonda la teoria della relatività non sono in contraddizione con le tradizionali
idee di materia e di corporeità. II secondo problema e quello delle forme trascendentali
della conoscenza: lo spazio e il tempo. Gran parte della discussione sulla relatività nasce
appunto come proseguimento del dibattito fra gli interpreti di Kant sulla importanza
delle geometrie non euclidee. Mentre alcuni critici ritenevano che le geometrie non
euclidee non toccassero con la loro esistenza il nucleo dell'argomentazione kantiana
sullo spazio e sul tempo, che secondo loro manteneva intatto il suo valore in quanto
quelle geometrie erano pure variazioni dei concetti fondamentali già scoperti da Kant,
un altro gruppo di critici riteneva che la concezione kantiana dello spazio e del tempo
non fosse conciliabile con forme geometriche non omologhe a quelle che Kant aveva
conosciuto. La discussione sulla teoria della relatività è complicata, rispetto a quella
sulle geometrie non euclidee, perchè queste ultime sembravano riguardare soltanto i
giudizi formali della matematica, mentre la teoria della relatività conduce a risultati
profondamente diversi da quelli della fisica tradizionale nella determinazione di alcuni
concetti fondamentali, quali quelli di massa, energia e quantità di moto. La teoria di
Einstein colpisce con il fondamento stesso dell’a priori, cioè i giudizi spaziali e
temporali, anche l’idea di oggetto fisico tradizionale che, secondo Kant, si fondava su
quelle forme trascendentali. Davanti a questi problemi se si vuol dire che Einstein ha
perfezionato le forme pure della percezione dandoci una conoscenza più approfondita
di queste, pur facendo in qualche modo violenza a Kant, si considera la teoria della
relatività come non contraddittoria con l’estetica trascendentale. In tal caso si tratterà di
6<9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
dimostrare che Kant ha in qualche modo precorso le idee einsteniane. Oppure si può
dire che gli esperimenti della teoria della relatività sono convenzioni riguardanti gli
strumenti che non toccano i concetti.
Ernst Cassirer (1874-1945), che nel suo capolavoro Sostanza e Funzione (1910)
intende mostrare come la filosofia kantiana s'inserisca intrinsecamente nello sviluppo
della scienza moderna a partire da Galileo fino ad Einstein, assume la prima posizione
ponendosi il problema di sapere in quale misura la filosofia kantiana, che sorge come
sistemazione della scienza del Settecento, è coinvolta dai cambiamenti avvenuti nella
fisica classica. Ciò che vi è di veramente nuovo nella teoria della relatività è, per
Cassirer, il concetto di campo che, superando i vecchi schemi meccanicistici permette di
comprendere i legami fra fenomeni ottici ed elettromagnetici. Cassirer si chiede quale
ruolo abbiano avuto nella crisi dei concetti di spazio e di tempo newtoniani l'elemento
empirico e quello concettuale. La constatazione che il principio di relatività delle misure
di spazio e tempo e quello di costanza della velocità della luce sono incompatibili con i
postulati della meccanica classica, non è stata sufficiente a fondare la nuova fisica.
Occorreva che i due principi fossero assunti come postulati e posti alla base di un
sistema capace di sostituire quello antico. Risultato di questa assunzione fu la scoperta
di tutto un insieme di nuove invarianti. Ed il fatto che tale risultato sia stato reso
possibile non da un accumularsi di esperienze ma da una trasformazione di assiomi, fa
dire a Cassirer che nella teoria della relatività non è stato affatto abbandonato il concetto
generale di oggettività, ma quel concetto di tipo meccanicistico, per il quale l'identità
dei valori spaziali e temporali era il vero fondamento della realtà dell'oggetto, che
separava e distingueva questo dalle semplici sensazioni. La teoria della relatività
diventa per Cassirer la scoperta delle vere, nuove invarianti che contraddistinguono
l'oggetto come costruzione concettuale. Non il riferimento all’esperienza determina
allora il valore della teoria, ma la forma ideale che essa assume. Cassirer,
contrariamente ad ogni tendenza convenzionalistica sottolinea che l’importanza della
teoria della relatività è quella di liberare le leggi fisiche generali da ogni
connessione con il sistema di coordinate e di farne delle relazioni simboliche che
risolvono matematicamente i rapporti fra oggetti fisici (notiamo il risorgere di questo
ideale già presente in Helmholtz). Per Cassirer la relatività einsteiniana è una prova
della validità delle teorie kantiane perchè l’oggettività delle leggi fisiche viene collegata
in questa teoria non alle esperienze empiriche ma al loro comportamento invariante
rispetto a tutti i sistemi di riferimento. La teoria della relatività mostra così, per il critico
neokantiano, che i concetti fisici più avanzati non possono ridursi a copie di contenuti
percettivi. In definitiva Cassirer vede la teoria della relatività come completamento del
pensiero kantiano sia perché l’uso del concetto di spazio non euclideo ha il significato di
ricerca di un ordine di successione e di coesistenza come legalità dei fenomeni fisici
(significato che è kantiano perché considera spazio e tempo come leggi strutturali della
conoscenza) sia perché questa teoria rende valida quella kantiana dell’oggetto fisico
come qualcosa che non è dato direttamente, ma costituito dalle leggi fisiche.
Gli altri kantiani invece di insistere sul nuovo significato di oggettività della
teoria della relatività, cercano di far vedere che l’uso dei concetti di spazio e tempo è in
essa eminentemente soggettivistico (quando non riescono a dimostrare ciò riducono la
teoria ad un procedimento convenzionalistico). Inoltre i kantiani di stretta osservanza
tentano di difendere la concezione della fisica di Kant senza riuscire a dissociarla dalla
fisica ottocentesca a base newtoniana, alla quale la fisica kantiana è strettamente
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6<:!
collegata. Certamente la difesa delle posizioni kantiane davanti al terremoto della
relatività è possibile solo cercando di mostrare come Einstein realizzi di fatto certi ideali
kantiani e non già cercando una corrispondenza alla lettera nella filosofia kantiana. Si
corre altrimenti grave rischio di dover ridurre la relatività ad una convenzione senza
rilevanza reale, pur di difendere una filosofia del mondo naturale che è legata, come è
ben noto, ad una certa fisica settecentesca. La posizione di Cassirer, che non vuole
imporre Kant ma solo salvarne lo spirito, da un'idea della relatività che, per quanto
discutibile, aiuta a comprenderla come punto di arrivo della filosofia della natura
tedesca del XIX secolo, che ha sempre avuto l'opera di Kant come punto di riferimento
ideale.
Un'uguale carica interpretativa manca negli altri kantiani, ma è presente
piuttosto nel pensiero di Hermann Weyl (1885-1955), grande matematico che diede una
fondazione geometrica alla teoria della relatività generale. Secondo Weyl la teoria della
relatività è un tentativo di connettere la geometria, modello di scienza pura, con il
concetto di materia, intesa però come sostanza e non come realtà puramente meccanica.
Il concetto di campo è la categoria nuova che coinvolge concetti fisici, matematici e
filosofici. Ciò che è essenziale per Weyl nella relatività è la capacità di superare il
realismo ingenuo che era ancora presente nella fisica classica. Se si parte da questo
realismo ingenuo, si arriva, è vero, alla fondazione meccanicistica della fisica. Solo con
criticismo kantiano, che pone lo spazio come forma della percezione, si arriva più vicini
all'ideale della fisica, che è la geometrizzazione dei rapporti fra corpi. Il mondo fisico
per Weyl, che si richiama direttamente a Husserl, è un oggetto intenzionale che può
venir dispiegato in un insieme di atti logici di coscienza, cioè in un insieme di enunciati
geometrici. Egli però aggiunge: “Io non voglio con ciò suggerire in alcun modo che la
concezione, secondo cui gli eventi del mondo sono un puro gioco della coscienza
prodotto dall'Io, contenga un grado di realtà più alto del realismo ingenuo; soltanto si
deve capire chiaramente che i dati della coscienza sono il punto di partenza nel quale
dobbiamo metterci se vogliamo capire il significato della realtà”. In altre parole la fisica
dovrebbe servire a cogliere ii significato della inesauribile varietà del mondo materiale.
È importante ricordare che Weyl sviluppa sulla base di questa fenomenologia la sua
impostazione della teoria della relatività, discutendo dapprima il formarsi dello spazio
euclideo a partire dalle nostre sensazioni, poi l'amalgamarsi dello spazio e del tempo
nell'esperienza della fisica ed infine la teoria della relatività generale che corona con una
nuova teoria della gravitazione la categorializzazione dell'esperienza. Che dire di questi
tentativi di arrivare alla teoria della relatività come momento fenomenologico di un
vasto movimento della razionalizzazione dell'esperienza? Sottolineiamo i pregi, che
sono quelli di far capire che la relatività ha una notevolissima portata ontologica, ma
notiamo anche, come poi sarà fatto per l’interpretazione di Whitehead, che si corre ii
grosso rischio di impegnare il significato della teoria in una dimensione metafisica alla
quale forse Einstein non voleva arrivare. Ricordiamoci però che il contrasto fra
interpretazione operativa o convenzionalistica della relatività e interpretazione
sostanzialistica è il punto più importante della discussione svoltasi fra il 1920 ed il 1930.
A favore della prima interpretazione sono i filosofi del «come se», i machiani, i kantiani
di stretta osservanza; a favore della seconda, Cassirer, la fenomenologia weyliana e,
come vedremo, anche Whitehead.
6;<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Alfred North Whitehead (1861-1947) ha affrontato la teoria della relatività in due
modi: ha cercato di dare di questa, teoria un'interpretazione filosofica nuova che mette
in luce tutti quegli elementi del pensiero di Einstein che più si avvicinano ad un
relazionismo sostanzialistico, e ha dato una fondazione personale al problema del
rapporto fra fisica e geometria. L’interpretazione di Whitehead, tra le varie presentate, è
quella che ha meglio sviluppato la potenzialità filosofica della relatività, spiegandola
come teoria dell’insieme di eventi spazio-temporali. Per la fisica classica un ente
materiale occupa un volume definito di spazio ed è quindi possibile parlare di un
volume di spazio uguale per tutti gli osservatori. Invece quando si accetti che la
simultaneità fra le parti di un corpo spazialmente separate è relativa, cade l’idea di un
soggetto materiale definito. L’idea che due corpi siano separati spazialmente solo
quando fra di essi non intercorrono relazioni causali è di Whitehead, che l’ha applicata
alla teoria della relatività. Certo che il concetto di corpo non è nella sua filosofia quello
comune, e neppure quello usato dalla fisica, anche postrelativistica. Il corpo viene da
Whitehead definito come un insieme di «eventi» che non sono ne fisici ne psichici. Per
Whitehead è evento la cosa percepita ed il percipiente, e evento la loro relazione, e così
via. Raggruppamenti di eventi di un certo tipo costituiscono i corpi della fisica
tradizionale e la percezione di eventi è un evento a sua volta. Dove in filosofia di
Whitehead è nettamente influenzata dalle idee di Einstein è nell'affermazione che tutti
gli eventi sono in qualche modo riuniti nello spazio-tempo che è il mezzo nel quale gli
eventi si connettono, si sviluppano e vengono conosciuti. Solo dentro l'intelaiatura dello
spazio-tempo è possibile concretare gli oggetti, obiettivando determinati rapporti fra
eventi ed esprimendoli per mezzo di invarianti matematiche. Notiamo che queste
invarianti matematiche con le quali nella teoria della relatività si esprimono le forze che
intercorrono fra oggetti fisici, sono da Whitehead considerate come relazioni di tipo
logico-matematico valide assolutamente. Per quel che riguarda le idee di Whitehead
sulla fondazione del rapporto fra fisica e geometria, ricordiamo che il problema in
questione è della massima importanza perché riguarda il valore di tutta l’epistemologia
einsteiniana. La posizione di Whitehead sul problema non è conforme a quella che è
davvero servita ad Einstein per fondare la teoria della relatività. Il difetto dell’idea del
filosofo inglese è quello di confondere, nella fondazione della simultaneità, l’evento in
senso fisico e in senso percettivo (pare che Einstein stesso abbia sottolineato che, in base
alla teoria di Whitehead, sarebbe impossibile per due osservatori percepire lo stesso
evento, e ciò proprio per le modalità della percezione nella filosofia whiteheadiana).
Egli dice infatti, contrariamente al parere di Einstein, secondo il quale la geometria
adatta a spiegare il mondo fisico deve essere spazialmente e temporalmente variabile,
che per le descrizioni della fisica la geometria che serve è di tipo non variabile. Secondo
la concezione einsteiniana la metrica adatta a descrivere un certo tipo di spazio è
determinata dalla quantità di materia presente in quello spazio. Whitehead invece
pensa di poter descrivere la costituzione dello spazio a partire da semplici elementi
percettivi, e perciò deve rifiutare l'idea di variabilità della metrica. La filosofia di
Whitehead interpreta lo spazio-tempo ipostatizzandolo e considerando questo schema
astratto come una realtà concreta raggiungibile a partire da eventi sensoriali. In
definitiva ci troviamo davanti ad un tentativo di estremo interesse che sottolinea più gli
aspetti ontologici che quelli operativi del pensiero di Einstein.
Una particolare interpretazione data della relatività fu quella che si può
denominare spiritualistica. Lo spiritualismo è basato sulla convinzione che la scienza
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6;;!
moderna non riesce a cogliere l'aspetto più tipico della realtà umana: lo spirito. Più che
elaborare contenuti nuovi, lo spiritualismo ripropone, in polemica col positivismo, il
filone della tradizione filosofica che dal neoplatonismo e Agostino giunge a Pascal e a
Leibniz. Lo spirito sfugge al determinismo e al meccanicismo della realtà naturale, ossia
è libero, contingente, orientato a un fine, e totalità che non risulta dalla giustapposizione
o somma delle parti, ma è originaria e precede il costituirsi delle parti. Noi creiamo tutti
gli istanti della nostra vita con un solo e medesimo atto, presente e superiore a tutti i
nostri atti particolari. La scienza coglie invece solo un aspetto della realtà, quello più
esterno. Nel caso particolare della relatività, la concezione spiritualistica è caratterizzata
dallo sforzo di ricercare nella teoria della relatività significati profondi sulla fine della
concezione materialistica. I lineamenti fondamentali delle critiche spiritualistiche sono:
l’affermazione che con la relatività generale il concetto di materia viene messo in
secondo piano rispetto a quelli di regolarità delle leggi fisiche e teoreticità delle
strutture del mondo (in altre parole in materia viene considerata un effetto secondario
di queste strutture nascoste); l’affermazione che la relatività pur svelando le
caratteristiche più reali del mondo fisico, è in fondo solo uno dei possibili modi di
risolvere i fenomeni del mondo materiale in relazioni matematiche. Quindi gli
spiritualisti, tra cui Eddington, sottolineano il carattere di libera creazione della teoria
della relatività soprattutto nella sua seconda fase.
Arthur Eddington (1882-1944) afferma che lo studio del mondo esterno è più una
ricerca di strutture che un problema di sperimentazione. Una struttura può essere
rappresentata come un insieme di relazioni matematiche che riducano i fenomeni fisici
a puri rapporti numerici. La teoria della relatività per Eddington dovrebbe dunque
servire ad individuare alcune delle costanti fondamentali del mondo fisico. Egli dà
particolare importanza alla fondazione geometrica della relatività, e la considera basata
sulla misura degli intervalli spaziali e temporali che separano due eventi. In particolare
egli mostra come una notevolissima caratteristica della teoria della relatività sia quella
di eliminare, attraverso la scelta di un opportuno sistema di coordinate, le forze dal
quadro della fisica. Aggiunge che la scelta del calcolo tensoriale, che presenta le
equazioni fisiche in forma indipendente dalla scelta del sistema di coordinate, è il solo
mezzo possibile per esprimere i fenomeni in forma oggettiva. L'uso di questo strumento
di calcolo è, per Eddington, già di per sè un superamento del meccanicismo del XIX
secolo che si fondava sul calcolo differenziale. Esso ci dà una soddisfazione spirituale
maggiore del calcolo differenziale perché non è un semplice modus operandi ma spiega le
leggi della fisica come come combinazioni di leggi ancor più profonde, cioè quelle dello
spazio-tempo. Eddington sviluppa poi una sua dimostrazione della relatività come
teoria di un continuo a quattro dimensioni, inserendo delle costanti numeriche, il cui
valore ritiene di aver stabilito una volta per sempre. Come Whitehead anch'egli parla di
un legame tra geometria e fisica che la teoria della relatività metterebbe in luce. Si può
concludere dicendo che per Eddington la relatività, riconducendo tutta la scienza della
natura a scienza delle relazioni, mostrerebbe che nel mondo fisico l'importante è la
struttura e non la sostanza materiale. Per lui lo spirito umano, ricercando le permanenze
delle strutture, crea l'universo della fisica e riunisce le leggi della meccanica in un unico
schema logico che è segno della sua libera creatività, capace di riflettere in qualche
modo l’armonia più nascosta dell'universo. I gravi equivoci della posizione
spiritualistica sono proprio nel suo tentativo di interpretare la teoria della relatività
come una libera creazione dello spirito, che organizza in formule la realtà fisica una
6;=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
volta per tutte, senza tener mai conto di esperimenti o di imperfezioni della conoscenza.
Lo spiritualista definisce la relatività come convenzione, perchè ciò gli è comodo per
mostrare che essa è una libera creazione; insieme però la definisce come struttura reale
data una volta per tutte e vera a priori. In questa duplicità di prospettiva consiste
indubbiamente il più grosso difetto della critica spiritualistica.
Lo stesso difetto si può rilevare nella critica che Henry Bergson (1859-1941) ha
dedicato alla relatività, nel senso di aver dato maggior importanza al tempo personale e
coscienziale rispetto a quello misurabile ed osservabile. Secondo Bergson una critica
all'idea di simultaneità non può venir fatta che quando lo scienziato si ponga
idealmente in ciascuno dei due sistemi di riferimento in moto uniforme l'uno rispetto
all'altro. In questo sdoppiamento ideale Bergson vede la prova dell'astrattezza dei
concetti einsteiniani. Da un lato la sua critica riprende dunque alcune osservazioni dei
filosofi del «come se», dall'altro si serve di queste obiezioni per sottolineare la
differenza fra tempo vissuto e tempo astratto della fisica. Notiamo però che, mentre la
fisica di ispirazione relativistica tende a ridurre ii tempo allo spazio, almeno
matematicamente, Bergson presume sempre una primarietà della durata che darebbe
origine allo spazio in un suo momento di stanchezza. Bergson, a causa della sua idea di
tempo, insistendo su una temporalità anti-misura, non riesce ad afferrare il problema
più profondo della teoria della relatività, quello cioè della fondazione geometrica della
fisica. Poichè non vede questo, il filosofo svolge considerazioni inessenziali sul rapporto
tempo-coscienza e finisce, a nostro modo di vedere, per fraintendere la relatività,
interpretandola come una teoria del fluire temporale.
Gaston Bachelard (1884-1962) ha trattato la dialettica filosofica delle nozioni
della relatività prendendo posizione su quanto della relatività aveva scritto Meyerson.
Per Meyerson era essenziale stabilire il carattere spaziale delle spiegazioni della fisica
einsteiniana e porsi al centro della formulazione geometrica del sistema per dedurre in
seguito gli elementi e il carattere del reale. Bachelard giudica questa posizione di
Meyerson troppo preoccupata dell'applicazione e della verifica della relatività. A suo
parere invece è più importante insistere “sulle vie e i mezzi che portano al sistema, sulle
condizioni in cui il pensiero alternativamente cerca di unificarsi e di completarsi”. Alla
deduzione di Meyerson egli oppone la sua induzione e cerca di far vedere che la
dialettica filosofica delle nozioni relativistiche ha portato ad uno choc epistemologico
della meccanica classica risvegliandola dal suo sonno dogmatico. La funzione del
razionalismo einsteiniano, che fa crollare le nozioni fondamentali di spazio, tempo,
materia classici è quella di liberarci da un certo fantasticare falsamente profondo sullo
spazio e sul tempo e in particolare arrestare l’irrazionalismo che è legato all’idea di una
durata insondabile. È evidente che le tesi di Bachelard sulla relatività tengono presente
la storia interna della scienza fisica e ne sottolineano il procedere dialettico. È da notare
però che il razionalismo bachelardiano tende a trascurare tutto il momento
operazionistico della relatività, le sue applicazioni e cioè la prassi che può derivare da
una tale teoria.
Tra tutte le critiche del periodo 1920-30 la più ricca e profonda è quella di Moritz
Schlick (1882-1936), che si può collocare tra quella kantiana e quella neopositivistica.
Infatti Schlick da un lato è contro l’idea che la teoria della relatività sia un
proseguimento del pensiero kantiano, in quanto i concetti di spazio e tempo hanno a
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6;4!
suo parere una base empirica sempre mutevole, dall’altro riconosce che la relatività in
qualche modo contribuisce a dar ragione alla teoria kantiana che vuole spazio e tempo
come concetti a priori, perché distingue, più profondamente della fisica classica, tra
tempo e spazio percettivi e concettuali. Svolgendo la sua analisi dello spazio (analoga a
quella del tempo) Schlick afferma che questo termine nel linguaggio matematico e fisico
ha un significato non intuitivo. Nella relatività spazio e tempo sono considerati solo
come fenomeni oggettivi. Tuttavia la riflessione filosofica non può sottrarsi allo studio
dei rapporti che passano fra termini teorici e dati della sensibilità. Vediamo che questo è
un tipico problema neopositivistico, che in Schlick viene affrontato con analisi assai
interessanti sull'origine dei concetti di spazio e di tempo. È fuori dubbio che le nostre
esperienze spaziali hanno un'origine sensoriale che le rende indefinibili e non
quantificabili a livello di esperienza vissuta. Queste datità sensibili sono del tutto
diverse le une dalle altre poichè nulla connette tra loro esperienze tattili, visive,
psicocinetiche ecc. Come è possibile allora giungere allo spazio usato dalla fisica che è
unico, immutabile e indipendente da ogni condizione empirica? Schlick risponde che lo
spazio della fisica è una costruzione concettuale, che sostituisce in ogni occorrenza
linguistica le esperienze sensoriali. Secondo lui la relatività precisa e perfeziona l’idea
kantiana di soggettività dello spazio e del tempo, perché aiuta a capire che lo spazio
della fisica è una datità concettuale soggettiva con valore d’uso oggettivo che non si
confonde con lo spazio sensorialmente sperimentabile del quale, in un certo senso, non
si può parlare. Il legame tra lo spazio (o il tempo) vissuto e quello concettuale viene
dato, per Schlick, dalla prassi quotidiana attraverso concetti intermedi, quali corpo,
luogo, movimento. Alla base di questi concetti, inventati per sopperire alle esigenze
della vita pratica, c’è l’idea di trasformazione, cioè di possibilità di mutamento, di
localizzazione, e di funzione di un corpo. È chiaro che servendosi di quest’idea Schilick
interpreta la teoria della relatività come compimento concettuale di un sistema fondato
sull’idea di trasformazione, che va intesa anche nel suo significato matematico. Con la
trasformazione si fonda la misurazione in cui riappare, per così dire, il mondo delle
quantità fisiche concrete. Ecco perchè egli non ritiene che la relatività confermi
totalmente i concetti kantiani: lo spazio ed il tempo einsteiniani sono risultati di
operazioni di misura e di trasformazione di coordinate. Anche il concetto di campo di
cui Einstein fa uso nella relatività generale, è per Schlick il risultato di una concezione
della materia che non la considera come qualcosa di puramente rispecchiabile ed
osservabile, ma come un qualcosa da modificare attraverso l'azione. Il concetto di
campo nega quello di sostanza poichè non ammette nulla di permanente in sè, ma
considera gli effetti di ogni parte di materia sulle altre. (Questa concezione è assai
diversa da quelle sostanzialistiche che considerano il campo come la realtà più
profonda della materia.)
Per concludere questa breve rassegna sulle critiche degli anni venti, ripetiamo
che il dibattito di questo periodo è prevalentemente filosofico. Ogni critico inquadra la
teoria della relatività entro la propria posizione. Tuttavia le critiche fin qui esaminate si
dividono in due grandi gruppi: il gruppo che ritiene la relatività una convenzione
matematica che mostra la libertà creativa della mente umana o che non tocca le
conoscenze a priori; ed il gruppo che vede la relatività come un'ontologia vuoi della
sostanza spazio-temporale (Whitehead) vuoi delle strutture mentali dell’uomo
(Cassirer). A parte sta la posizione di Schlick che introduce i nuovi temi neopositivistici
6;5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
del legame tra osservabili e termini teorici e di intervento dello scienziato nel mondo
materiale, temi che vennero poi svolti negli anni 1940-50.
La critica dei principi della relatività svolta dai fisici quantistici quali Bohr, Born
e Pauli occupa il decennio 1930 e il 1940, ma non si esaurisce in esso. Contrariamente
alle critiche degli anni venti che, come si è visto, sono più filosofiche, queste degli anni
trenta cercano di far risaltare i difetti salienti della teoria della relatività, e rifiutano ogni
estrapolazione metafisica che ad essa si appoggi. Bisogna anzitutto sottolineare che la
critica dei quantisti è la più moderna anche fra quelle attuali proprio per le ragioni
epistemologiche che stanno alla base di essa. Oltretutto l'apporto dato dagli scienziati
che sostenevano l'indeterminismo ha contribuito all'avanzamento della fisica in misura
di gran lunga superiore a quella di ogni altra tendenza, e di ciò si deve tener conto se si
vuol capire l'estrema importanza della loro divergenza concettuale con la tesi
einsteiniana. I punti salienti della discussione tra Einstein ed i quantisti si possono
rintracciare negli articoli di Pauli e di Bohr che, fin dal 1926, si trovarono in opposizione
con i principi di Einstein. Questa opposizione si trasformò con l'andare del tempo in
una radicale differenza di idee sui metodi e sugli scopi della fisica. La loro critica ad
Einstein si svolge in una duplice direzione: da un lato essi accettano di servirsi della
relatività speciale senza la quale, come è noto, diventa impossibile lo studio del
comportamento di alcune particelle; dall'altro invece rifiutano la relatività generale
perchè essa non sa dare un'adeguata soluzione al problema dell'esistenza di numerose
nuove particelle. Partendo da questa parziale indifferenza per i metodi e i risultati della
relatività generale, i quantisti elaborarono altri tipi di dottrine fisiche entro le quali non
c'era più posto per la fisica geometrica che Einstein veniva sostenendo, soprattutto nella
terza fase della teoria della relatività. Born sostiene che il distacco fra Einstein e i
quantisti si deve attribuire all'abbandono da parte di Einstein del credo empirico della
sua giovinezza per vedute più sostanzialistiche. Infatti l'Einstein del 1916 scriveva che
compito del pensatore e quello di abolire quei concetti che, utili una volta, abbiano
“acquistato una tale autorità su di noi che ne dimentichiamo l'origine umana e li
accettiamo come invariabili. Non è quindi gioco inutile abituarsi ad analizzare le
nozioni correnti … così la loro esagerata autorità s’infrange”. Invece nel 1944 scriveva
in una lettera a Born diventata famosa: “Tu credi in un Dio che gioca a dadi ed io in
leggi perfette che regolano il mondo delle cose esistenti come oggetti reali, e che cerco
ansiosamente di afferrare con metodo speculativo”. Born sostiene che questo
mutamento spinse Einstein a ricercare una teoria generale del campo che conservasse la
rigida causalità della fisica classica. Secondo Bohr l'atteggiamento di Einstein era dettato
dal desiderio di non staccarsi completamente dagli ideali di continuità e causalità, e la
semplicità e regolarità nelle ipotesi erano segno di validità di una teoria. Per
concludere: Einstein, per i quantisti, restando fedele al concetto di realtà materiale della
fisica classica, dal cui punto di vista una descrizione della natura che ammetta singoli
avvenimenti non determinati da leggi sembra incompiuta, non ha saputo superare il
rimpianto per l'impossibilità di applicazione pratica del suo vecchio concetto di campo
fisico geometrizzato. Per i quantisti la teoria della relatività generale basata sulle
equazioni di campo, non raccogliendo nessuna sollecitazione dalle teorie
probabilistiche, non permette di capire che l'obiettività della fisica viene pienamente
conservata dalla meccanica quantistica, che ha però il merito di staccarsi completamente
da alcune idee aprioristiche della fisica tradizionale ed è molto più produttiva e
fruttuosa della fisica del campo.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6;6!
Sempre nel decennio 1930-40 va infine ricordata l’importante posizione di Percy
Bridgman (1881-1962), che partendo da una professione di empirismo radicale, sostiene
che l’atteggiamento del fisico deve essere un atteggiamento di puro empirismo. Egli
non deve ammettere alcun principio a priori che determini o limiti la possibilità di
nuove esperienze. L'esperienza è determinata soltanto dall'esperienza. Ora il solo modo
di fare dell'esperienza la guida di sé stessa è quello di ridurre il significato dei concetti
scientifici ad una certa operazione empirica o ad un insieme di tali operazioni. Pertanto
il contrasto principale è quello tra Bridgmann, che esamina le teorie di Einstein da un
punto di vista operativo nel libro Sulla natura della teoria fisica (1936), ed i sostenitori
delle idee einsteniane sulla geometrizzabilità della fisica. Bridgman aveva preso in
considerazione la teoria della relatività molti anni prima, nel 1929, con lo scopo
dichiarato di portare tutta la fisica al livello di chiarezza concettuale e operativa della
relatività speciale. Egli sostiene che Einstein “non ottenne nella sua teoria della
relatività generale la profondità e gli insegnamenti ch'egli stesso ci aveva dato con la
sua teoria particolare”. Per lui infatti Einstein che nell'elaborare la relatività speciale
aveva riconosciuto la necessità di ricercare il significato di un termine nelle operazioni
che si compiono quando esso viene applicato (e così infatti si comportò per determinare
il senso dei termini “lunghezza” e “simultaneità”), nella relatività generale introdusse
solo coordinate e funzioni di coordinate senza determinare il modo in cui le coordinate
si possono applicare a casi concreti. Non solo, mentre nella relatività speciale curò che
ogni formulazione matematica fosse significante in relazione ad un sistema di
riferimento, nella relatività generale usò coordinate generalizzate facendo perdere
importanza al sistema di riferimento. Einstein, secondo Bridgman, si era trovato davanti
ad un edificio scientifico provvisto di leggi, procedimenti sperimentali e apparati di
verificazione che, malgrado fossero ordinati in una teoria armonica, non riuscivano a
superare certe contraddizioni. L’atteggiamento di Einstein era stato allora quello di
chiedersi come erano stati ottenuti quei concetti; senza inventare nulla di nuovo, ma
analizzando attentamente le operazioni fisiche usate per determinare i concetti della
teoria tradizionale, aveva messo in luce aspetti in precedenza trascurati, che erano però
di fondamentale importanza. Divenne, per esempio, possibile ammettere dopo le sue
analisi che la lunghezza di un corpo in quiete può non essere eguale alla sua lunghezza
in movimento. I fisici acquisirono, dopo la relatività speciale, un nuovo ordine di idee,
che consiste nell'ammettere che le operazioni convenzionali della fisica possono
comprendere certi particolari di cui essi non sono generalmente consapevoli a causa
della loro apparente futilità, ma che diventano importantissimi quando si passa a nuovi
campi di indagine. I criteri della relatività speciale comportano una nuova metodologia
perchè, se fino ad Einstein i concetti della fisica erano stati definiti in termini di
proprietà, dopo di lui essi devono venir definiti in termini di operazioni.
Passando invece alla relatività generale, Bridgman nota che in essa sono
contenute solo coordinate e funzioni di coordinate. Le equazioni matematiche non
indicano il modo in cui le coordinate possono venir ridotte a casi concreti. Alla base di
tutta la relatività generale è l’idea che l’intervallo infinitesimale ds sia fisicamente reale.
Ma per Bridgman “in un mondo fisico il ds non è dato ma va trovato mediante
operazioni fisiche”, ed è ciò che Einstein non fa. L’uso delle coordinate generalizzate,
fondato sull’idea che un fenomeno fisico descritto in un dato sistema di coordinate
possa esser descritto ugualmente bene da un altro sistema di coordinate cui si può
giungere mediante operazioni di trasformazione, fa perdere importanza ai sistemi di
6;7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
riferimento e presuppone che esistano eventi identicamente osservabili prima di aver
detto da chi o come siano osservabili. Lo stesso evento potrebbe venir descritto in modo
diverso da vari osservatori, e l’identità dei due fenomeni non è postulabile a priori.
Bridgman, pur criticando soprattutto gli aspetti matematici della relatività generale,
sostiene che Einstein si comporta come se fosse convinto dell'esistenza di una realtà già
data fuori della nostra mutevole esperienza. Sembrerebbe, dice Bridgman, che
nell'ammettere questa realtà trascendente Einstein si sforzi di venire incontro alla
richiesta di universalità del ragionamento, tipica della scienza, cioè che in qualche modo
tenti di tornare indietro ad un punto di vista newtoniano. Invece per Bridgman non è
possibile arrivare, seguendo la via scelta da Einstein, a quel tipo di oggettività, nè
trovare delle «leggi generali» sulla natura dei fenomeni che non siano quelle locali e
contingenti che la fisica consapevole, ossia quella operativa, scopre. La struttura
dell'esperienza è fondata sul particolare e sull’individuale e anche le nostre operazioni
fondamentali di descrizione e di misura non sono esenti da questa struttura. Einstein
pensando possibile da ogni sistema particolare di coordinate e col suo modo di
intendere l’evento come qualcosa di dato e primitivo ritorna ad un punto di vista preeinsteiniano.
Bridgman è tuttavia consapevole che la riduzione del significato del concetto ad
operazioni empiriche implica un certo solipsismo (credenza secondo cui tutto quello
che l'individuo percepisce venga creato dalla propria conoscenza), nel senso che le
operazioni di cui si parla sono sempre parti dell'esperienza cosciente di un certo
individuo. Ma si tratta di un solipsismo che non chiude il soggetto nel suo isolamento
giacché egli può affermare l'esistenza della cosa esterna (che è solo una parte della sua
diretta esperienza) se trova che gli altri reagiscono in un certo modo a questa
esperienza. In generale, la nozione stessa di esistenza ha significato operativo. “Nel mio
sforzo di risolvere il problema di adattarmi al mio ambiente, invento certi artifici,
alcuni di essi riescono ed io li uso nel mio pensiero. L'esistenza è un termine che
presuppone il successo di alcuni di questi artifici. I concetti di tavola, di nuvola, di
stella, hanno successo nel trattare con certi aspetti della mia esperienza: quindi essi
esistono”. Dal punto di vista di questo operativismo, la relatività della conoscenza
diventa una conclusione inevitabile e ovvia. Che “tutti i movimenti sono relativi”
significa che “non si sono trovate operazioni di misura del movimento che siano utili
per una descrizione semplice del comportamento della natura e che non siano
operazioni relative ad un certo osservatore”. Inoltre diventano prive di senso tutte le
questioni cui non si può dare una risposta mediante operazioni determinate.
L'operativismo non esclude l'uso dei costrutti cioè delle costruzioni concettuali che non
sono date dall'esperienza. Soltanto, deve rifiutare a tali costrutti realtà fisica; come nel
caso del campo elettrico la cui esistenza non si può ammettere indipendentemente dalle
operazioni introdotte dalla definizione di esso.
La critica di Bridgman resta essenziale come modello di interpretazione non
ontologica e antimetafisica della relatività ed è un po' il riassunto di tutte le critiche
convenzionalistiche ed operativistiche al pensiero di Einstein.
Concludiamo questa rassegna di interpretazioni filosofiche e scientifiche
analizzando gli orientamenti attuali sulla teoria della relatività. Oggi la problematica
delle critiche ad Einstein si muove su di un piano diverso, che da un lato prende a
prestito gli strumenti più sottili dell'analisi metodologica e dall'altro cerca di
comprendere la sua portata oggettiva. Non si cerca più la spiegazione filosofica della
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6;8!
teoria della relatività e neppure si tenta di mostrarne limiti di applicabilità. Piuttosto si
discutono le basi concettuali su cui Einstein si era appoggiato nel formulare la teoria. I
punti su cui si insiste sono, in fondo, due: la fondazione del rapporto fra fisica e
geometria nella relatività, e il problema del valore delle invarianti nella teoria generale e
nelle teorie del campo unificato che Einstein ha sviluppato come proseguimento della
teoria della relatività.
Per ciò che attiene al primo punto ricordiamo anzitutto che in passato la
discussione sul rapporto tra fisica e geometria si fondava sul presupposto di poter
trovare una risposta al problema di quale fosse la geometria vera. Chiaramente non è
più così oggi, proprio per la maggior consapevolezza critica sorta nell'ambito
matematico-geometrico a proposito dell’ambiguità del termine “vero”. Si può anzi dire
che oggi non interessa più sapere quale geometria sia “vera” fisicamente; semmai oggi
si vuole sapere quale impostazione fisico-matematica trova una maggiore e più ampia
conferma da parte della geometria. Si è discusso a lungo sul fatto che Einstein sia
riuscito o meno ad eliminare il concetto di spazio assoluto formulato da Newton. Anzi
da parte di alcuni è stato sostenuto che Einstein errò quando volle insistere sull'uso di
una geometria a curvatura variabile nella relatività generale. Per Whitehead, come
abbiamo visto, Einstein avrebbe dovuto usare una geometria uniforme la cui curvatura
doveva stabilirsi a partire da una base sensoriale. Orbene è interessante che Einstein
abbia proprio fatto il contrario di questo quando ha affermato la necessità di una
definizione sperimentale del coefficiente di curvatura della geometria; e si può dire che
su questo problema egli abbia preso una posizione assai moderna. Con ciò si capisce
che egli usava il termine geometria in un senso notevolmente diverso da quello
tradizionale vuoi convenzionalistica vuoi pseudo-materialistica. Egli denotava col
termine geometria tanto una teoria della meccanica quanto una teoria dei rapporti
spaziali. Secondo questa definizione einsteiniana la geometria non è dunque qualcosa di
riducibile ad un gruppo di teoremi, sia pure esposti con le tecniche più raffinate, ma è il
nome da dare a tutto un gruppo di ricerche fisico-matematiche. Qui interviene una
seconda concezione di Einstein sul rapporto tra fisica e geometria: per lui la geometria e
le proprietà inerziali dello spazio non hanno senso in uno spazio vuoto. Tuttavia questa
idea, che poi è quella che afferma che le proprietà fisiche dello spazio hanno la loro
origine nella materia in esso contenuta, non trovò un'espressione completa nella
relatività generale. Cosa significa questo? Che in un certo modo nella relatività generale
Einstein non è riuscito ad eliminare del tutto il concetto di spazio assoluto newtoniano.
Nella relatività generale, nota Adolf Grunbaum (1923), uno dei moderni critici della
teoria einsteiniana, il rapporto tra spazio e materia trova solo un'espressione limitata
perché anche se la curvatura spaziale è influenzata dalla distribuzione della massa, la
geometria che ne deriva non è unicamente specificata da questa distribuzione. Per
ovviare a questa permanenza dello spazio assoluto (sia pure nella forma del principio di
Mach secondo il quale l’inerzia nei sistemi in traslazione e rotazione è dipendente dalla
distribuzione e dal moto relativo della materia presente nell'universo) Einstein
introdusse fin dal 1916 la costante cosmologica che riguarda la densità della materia e la
sua distribuzione. Poco per volta egli abbandonò tuttavia il principio di Mach per
sostenere la tesi che la materia è solo una parte del campo e non la sua causa. Negli anni
settanta lo studio degli sviluppi della relatività è stato affrontato in particolare da
Wheeler, il quale attraverso un’indagine storica sulla formazione della relatività
generale si chiede se non si delinei fin d’ora un passaggio dal concetto di relatività delle
6;9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
descrizioni fisiche da parte di vari osservatori in moto qualunque gli uni rispetto agli
altri, a quello di mutabilità ossia di descrizione alternativa fornita da un osservatore in
base a costanti sperimentali che variano da zona a zona dell’universo e variano col
tempo. Tale idea viene a Wheeler dagli studi portati avanti dai più moderni cosmologi
sulla variazione delle cosiddette costanti fondamentali della fisica.
Un’altra direzione di studi è la geocronometria sviluppata sulla base di alcune
idee di Reichenbach, che è un tentativo di fondare in maniera logica la relatività speciale
e generale prescindendo dal momento sperimentale di questa teoria e rafforzando
invece il suo valore di teoria della conoscenza operativa dei concetti. La geocronometria
è un tentativo di assiomatizzare la relatività mostrandone i legami profondi con la
logica moderna dei gruppi e con la filosofia della scienza. Può sorgere a questo punto la
domanda se Einstein si sia preoccupato di dare una sistemazione assiomatica coerente
della teoria della relatività. Alcuni fisici lo negano perchè ritengono che per Einstein la
matematica sia sempre stata uno strumento, sia pure preziosissimo, ma nulla di più.
Einstein dà un’importanza enorme alla matematica, ma ciò non vuol dire affatto che
egli voglia presentare le sue teorie come un edificio perfetto e completo in ogni sua
parte. Secondo il fisico Feynman sarebbe giusto dire che Einstein si avvale della
matematica fin dove essa gli serve per sviluppare alcuni suoi concetti fisici ma non per
formulare un sistema di rapporti completi.
Il secondo centro di critiche è l’idea einsteiniana che la generalizzazione
matematica nella formulazione delle leggi fisiche sia simbolo di una realtà più profonda
di quella espressa nei casi particolari. Riconoscendo la grande importanza teorica e
pratica delle formulazioni invarianti molti hanno finito per confondere, aiutati forse
dall'atteggiamento di Einstein, invarianza ed oggettività, che hanno un valore ben
diverso in geometria ed in fisica, essendo coincidenti nella prima scienza ma non nella
seconda. Ecco che la critica più recente mette in guardia contro queste confusioni. Esiste
infatti, in generale, un numero indefinito di classi di trasformazioni che potrebbero
venire scelte per definire l’invarianza e non c’è ragione perché la classe impiegata nella
relatività generale sia intrinsecamente superiore alle altre. Bisogna perciò distinguere
metodologicamente fra profondità di una teoria e sua oggettività.
Per concludere queste discussioni riteniamo opportuno riportare le parole di
Einstein stesso, parole che lasciano aperto ii campo ad ulteriori dibattiti: lo scienziato
appare “come un realista poichè cerca di descrivere il mondo indipendentemente dagli
atti della percezione; come un idealista perchè considera i concetti e le teorie come
libere invenzioni dello spirito umano (non deducibili logicamente dal dato empirico);
come un positivista perchè ritiene che i suoi concetti e le sue teorie siano giustificati
soltanto nella misura in cui forniscono una rappresentazione logica delle relazioni fra
esperienze sensoriali. Può addirittura sembrare un platonico o un pitagoreo, in quanto
considera il criterio della semplicità logica come strumento indispensabile ed efficace
per la sua ricerca”.
12.5 Capire lo spaziotempo
La fisica moderna ha introdotto una rivoluzione non solo scientifica ma anche nel
linguaggio, peraltro ancora impreciso, per descrivere i fenomeni fisici, nel senso che
tutti i concetti che usiamo per descrivere la natura sono limitati; non sono aspetti della
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6;:!
realtà, come tendiamo a credere, ma creazioni della mente; sono parti della mappa, non
del territorio. Ogni volta che estendiamo il campo della nostra esperienza, i limiti della
nostra mente razionale diventano evidenti e siamo costretti a modificare, o persino ad
abbandonare, alcuni dei nostri concetti.
Le idee di spazio e di tempo hanno un posto preminente nella nostra mappa
della realtà. Esse servono a ordinare cose ed eventi nel nostro ambiente e sono quindi di
capitale importanza non solo nella vita quotidiana, ma anche nei nostri tentativi di
comprendere la natura attraverso la scienza e la filosofia. Non c'è legge della fisica che
per la sua formulazione non richieda l'uso dei concetti di spazio e di tempo. La
profonda modificazione di questi concetti fondamentali determinata dalla teoria della
relatività fu perciò una delle più grandi rivoluzioni nella storia della scienza.
La fisica classica era basata sull'idea sia di uno spazio assoluto, tridimensionale,
indipendente dagli oggetti materiali in esso contenuti e regolato dalle leggi della
geometria euclidea, sia di un tempo inteso come dimensione separata, anch'esso
assoluto, che scorre uniformemente e indipendentemente dal mondo materiale. In
Occidente, questi concetti di spazio e di tempo erano così profondamente radicati nella
mente di filosofi e scienziati che furono assunti come proprietà vere e indiscusse della
natura. La convinzione che la geometria, più che far parte della struttura che usiamo
per descrivere la natura, sia inerente a questa ha le sue origini nel pensiero greco. La
geometria assiomatica era l'aspetto principale della matematica greca ed ebbe una
profonda influenza sulla filosofia greca. Il suo metodo, che consisteva nel partire da
assiomi indiscussi per ricavarne dei teoremi mediante il ragionamento deduttivo,
divenne caratteristico del pensiero filosofico greco; la geometria fu perciò al centro di
tutte le attività intellettuali e costituì la base dell'educazione filosofica. I Greci
ritenevano che i loro teoremi matematici fossero espressioni di verità eterne ed esatte
riguardanti il mondo reale, e che le forme geometriche fossero manifestazioni della
bellezza assoluta e la geometria era considerata la combinazione perfetta della logica e
della bellezza e pertanto era ritenuta di origine divina. Di qui il detto di Platone “il dio è
geometra”. Poichè la geometria era vista come la rivelazione del dio, era ovvio per i
Greci ritenere che i cieli dovessero avere forme geometriche perfette; ciò volle dire che i
corpi celesti dovevano muoversi su orbite circolari. Nei secoli successivi, la geometria
greca continuò a esercitare una forte influenza sulla filosofia e sulla scienza
dell'Occidente. Gli Elementi di Euclide furono il libro di testo classico nelle scuole
europee fino all'inizio di questo secolo, e la geometria euclidea venne considerata la
vera natura dello spazio per più di duemila anni. Fu necessaria l'opera di Einstein
perchè scienziati e filosofi si rendessero conto che la geometria non è inerente alla
natura, ma è imposta a essa dalla nostra mente. Dice il fisico e filosofo Henry Margenau
(1901-1997): “Al centro della teoria della relatività c’è il riconoscimento che la
geometria... è una costruzione dell'intelletto. Solo accettando questa scoperta, la mente
può sentirsi libera di modificare le nozioni tradizionali di spazio e di tempo, di
riesaminare tutte le possibilità utilizzabili per definirle, e di scegliere quella
formulazione che più concorda con l’esperienza “.
La filosofia orientale, a differenza di quella greca, ha sempre sostenuto che lo
spazio e il tempo sono costruzioni della mente. I mistici orientali consideravano questi
concetti, come tutti gli altri concetti intellettuali, relativi, limitati e illusori. In un testo
buddhista, per esempio, troviamo le seguenti parole: “Il Buddha insegnava, o monaci,
che... il passato, il futuro, lo spazio fisico,... e le singole cose non fossero che nomi, forme
di pensiero, parole di uso comune, realtà puramente superficiali”
6=<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Gli antichi scienziati e filosofi orientali possedevano già l'atteggiamento, tanto
fondamentale per la teoria della relatività, secondo il quale le nostre nozioni di
geometria non sono proprietà assolute e immutabili della natura, bensì costruzioni
intellettuali. Secondo le parole di Asvaghosa (buddhista del II secolo d.C.), “Sia chiaro
che lo spazio non è altro che un modo di particolarizzazione che non ha esistenza reale
di per sé stesso.. Lo spazio esiste solo in relazione alla nostra coscienza che
particolarizza”
Queste stesse considerazioni valgono per la nostra idea di tempo. I mistici
orientali collegano entrambe le nozioni di spazio e di tempo a particolari stati di
coscienza. Essendo in grado, mediante la meditazione, di oltrepassare lo stato ordinario,
essi si sono resi conto che i concetti convenzionali di spazio e di tempo non sono la
verità ultima. La loro esperienza mistica porta a concetti di spazio e tempo più raffinati,
che per molti aspetti somigliano a quelli della fisica moderna così come sono presentati
dalla teoria della relatività. La teoria della relatività ha quindi dimostrato che tutte le
misure che implicano spazio e tempo perdono il loro significato assoluto e ci ha costretti
ad abbandonare i concetti classici di spazio e tempo assoluti.
L'importanza fondamentale di questa evoluzione è stata espressa chiaramente
dal fisico teorico Mendel Sachs (1927) con le seguenti parole: “L'effettiva rivoluzione
avvenuta con la teoria di Einstein... fu l'abbandono dell’idea secondo la quale il sistema
di coordinate spazio-temporali ha un significato obiettivo come entità fisica
indipendente. Al posto di questa idea, la teoria della relatività suggerisce che le
coordinate spazio e tempo sono soltanto elementi di un linguaggio che viene usato da
un osservatore per descrivere il suo ambiente”. Questa affermazione mostra che le
nozioni di spazio e tempo non sono altro che nomi, forme di pensiero, parole di uso
comune. Poiché spazio e tempo sono ora ridotti al ruolo soggettivo di elementi del
linguaggio usato da un particolare osservatore per descrivere i fenomeni naturali dal
suo punto di vista, ciascun osservatore descriverà quei fenomeni in modo diverso.
È importante comprendere che non ha alcun senso chiedersi quale sia la
lunghezza reale di un oggetto, proprio come nella vita quotidiana non ha senso
chiedersi quale sia la lunghezza reale dell'ombra di una persona. L'ombra e la
proiezione su un piano bidimensionale di un insieme di punti dello spazio
tridimensionale e la sua lunghezza e diversa a seconda dell'angolo di proiezione.
Analogamente, la lunghezza di un oggetto in moto e la proiezione, su uno spazio
tridimensionale, di un insieme di punti dello spaziotempo quadridimensionale; essa è
diversa in sistemi di riferimento diversi. Tutti questi effetti relativistici sembrano strani
soltanto perchè con i nostri sensi non possiamo fare alcuna esperienza diretta del
mondo quadridimensionale dello spaziotempo, ma possiamo osservarne soltanto le
immagini tridimensionali. Queste immagini hanno aspetti diversi in diversi sistemi di
riferimento; oggetti in moto appaiono diversi da oggetti fermi e orologi in moto
scandiscono il tempo con ritmo diverso. Questi effetti possono sembrare paradossali se
non comprendiamo che essi sono soltanto le proiezioni di fenomeni
quadridimensionali, proprio come le ombre sono proiezioni di oggetti tridimensionali.
Se potessimo visualizzare la realtà dello spaziotempo quadridimensionale, non ci
sarebbe nulla di paradossale.
Pertanto, nella fisica relativistica, si presenta una situazione nuova, perchè alle
tre coordinate spaziali si aggiunge il tempo come quarta dimensione. Poiché le
trasformazioni tra differenti sistemi di riferimento esprimono ciascuna coordinata di un
sistema come combinazione delle coordinate dell'altro, in generale una coordinata
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6=;!
spaziale in un sistema apparirà, in un altro sistema, come combinazione sia delle
coordinate spaziali sia di quella temporale. Ogni variazione del sistema di coordinate
ricombina spazio e tempo in un modo matematicamente ben definito. Pertanto i due
concetti non possono più essere separati, poiché ciò che è spazio per un osservatore sarà
combinazione di spazio e tempo per l'altro. La teoria della relatività ha dimostrato che
lo spazio non è tridimensionale e il tempo non è una entità separata. Entrambi sono
profondamente
e
inseparabilmente
connessi
e
formano
un
continuo
quadridimensionale chiamato spaziotempo.
I concetti di spazio e tempo sono talmente fondamentali per la descrizione dei
fenomeni naturali che la loro modificazione comporta un cambiamento dell'intero
schema teorico di cui ci serviamo in fisica per descrivere la natura. Nel nuovo schema,
spazio e tempo sono trattati sullo stesso piano e sono connessi in modo inseparabile:
nella fisica relativistica non possiamo mai parlare di spazio senza parlare di tempo, e
viceversa. Ogni volta che ci si occupa di fenomeni che comportano elevate velocità, si
deve usare questo nuovo schema di interpretazione.
In tutto il misticismo orientale sembra essere presente una profonda intuizione
del carattere spazio-temporale della realtà. Viene ribadito con insistenza che spazio e
tempo sono uniti in maniera inseparabile, e questa nozione intuitiva di spazio e tempo
ha trovato, forse, la sua esposizione più chiara e la sua elaborazione di più vasta portata
nel Buddhismo. Per usare le parole del monaco buddhista Daisetsu T. Suzuki (18701966): “Ci guardiamo intorno e sentiamo che... ogni oggetto è connesso con ogni altro
oggetto... non solo spazialmente, ma temporalmente.... Come realtà di pura esperienza,
non c'e spazio senza tempo, non c'e tempo senza spazio; essi si compenetrano”.
Difficilmente si potrebbe trovare un modo migliore per descrivere il concetto
relativistico di spaziotempo.
Secondo il fisico Fritjof Capra (1939), la particolare disposizione dell'intuito dei
mistici orientali a dare importanza al concetto di tempo è una delle ragioni principali
per cui, in genere, le loro idee sulla natura sembrano corrispondere molto più da vicino
alle concezioni scientifiche moderne di quanto non facciano quelle della maggior parte
dei filosofi greci. La filosofia della natura dei Greci era, nel suo insieme, essenzialmente
statica e in buona parte si basava su considerazioni geometriche. Si potrebbe dire che
era estremamente non-relativistica, e la sua profonda influenza sul pensiero occidentale
può essere certamente uno dei motivi per cui noi abbiamo difficoltà concettuali tanto
grandi di fronte ai modelli relativistici della fisica moderna. Le filosofie orientali,
viceversa, sono filosofie dello spaziotempo e quindi la loro intuizione spesso si avvicina
moltissimo alle concezioni della natura suggerite dalle nostre moderne teorie
relativistiche. Essendo basate sulla consapevolezza che spazio e tempo sono
intimamente connessi e compenetrati, le concezioni del mondo della fisica moderna e
del misticismo orientale sono entrambe intrinsecamente dinamiche e contengono il
tempo e il mutamento come propri elementi essenziali.
Nella teoria generale della relatività non solo sono relative tutte le misurazioni
riguardanti lo spazio e il tempo, poiché dipendono dallo stato di moto dell’osservatore,
ma l’intera struttura dello spaziotempo è inestricabilmente legata alla distribuzione
della materia. Lo spazio è curvo in misura diversa e il tempo scorre diversamente in
punti diversi dell’universo. Siamo quindi giunti a comprendere che le idee di spazio
euclideo tridimensionale e di tempo che scorre linearmente sono limitate alla nostra
6==!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
esperienza ordinaria del mondo fisico e devono essere completamente abbandonate
quando ampliamo questa esperienza.
Anche i saggi orientali parlano di ampliamento della loro esperienza del mondo
durante gli stati superiori di coscienza, e affermano che durante la meditazione vanno
al di là dell’ordinario spazio tridimensionale e trascendono l’ordinaria consapevolezza
del tempo. Invece di una successione lineare di istanti, essi percepiscono un presente
infinito, eterno, e tuttavia dinamico. Suzuki così si esprime a proposito di questo eterno
presente: “In questo mondo spirituale non ci sono suddivisioni di tempo come passato,
presente e futuro; esse si sono contratte in un singolo istante del presente nel quale la
vita freme nel suo vero senso… Il passato e il futuro sono entrambi racchiusi in questo
momento presente di illuminazione e questo momento presente non è qualcosa che sta
in quiete con tutto ciò che contiene, ma si muove incessantemente”.
Nella fisica relativistica, la
storia di un oggetto, per esempio di
una
particella,
può
essere
rappresentata in un cosiddetto
diagramma
spazio-tempo.
In
questi diagrammi, la direzione
orizzontale rappresenta lo spazio, e
la direzione verticale il tempo. La
traiettoria della particella nello
spazio-tempo si chiama la sua linea di universo. Anche quando è in quiete, la particella
si muove nel tempo e in tal caso la sua linea di universo è una retta verticale. Se la
particella si muove nello spazio, la sua linea di universo sarà inclinata, con
un'inclinazione tanto maggiore quanto più grande è la velocità della particella. Si noti
che le particelle possono muoversi solo in avanti nel tempo, ma sia in avanti che
indietro nello spazio. Le loro linee di universo possono avere inclinazioni diverse
rispetto all'orizzontale, ma non possono mai diventare perfettamente orizzontali, poiché
ciò significherebbe che una particella viaggia da un punto all'altro in un tempo nullo.
I diagrammi spazio-tempo sono usati
nella fisica relativistica per rappresentare le
interazioni tra varie particelle. Per ciascun
processo, possiamo tracciare un diagramma e
associare ad esso una espressione matematica
definita che ci dà la probabilità che si
verifichi il processo. Per esempio, l'urto, o
diffusione, tra un elettrone e un fotone può
essere rappresentato con il diagramma in
figura e dev'essere letto nel seguente modo (a
cominciare dal basso verso l'alto, secondo la
direzione del tempo): un elettrone urta un
fotone; il fotone è assorbito dall'elettrone che continua la sua traiettoria con velocità
diversa (e di conseguenza varia la pendenza della linea di universo); dopo un certo
tempo l'elettrone emette nuovamente il fotone e inverte la sua direzione di moto.
La teoria dei campi, che fornisce lo schema interpretativo di questi diagrammi, è
caratterizzata da due aspetti importanti: tutte le interazioni comportano la creazione e la
distruzione di particelle, come l'assorbimento e l'emissione del fotone nel nostro
diagramma, la presenza di una simmetria di fondo che esiste tra particelle e
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6=4!
antiparticelle. Coppie di elettroni e positroni possono essere create spontaneamente da
fotoni e possono ritrasformarsi in fotoni nel processo inverso di annichilazione.
I diagrammi spazio-tempo possono essere
notevolmente semplificati se si adotta il seguente
artificio. La freccia su una linea di universo non
viene più usata per indicare la direzione del moto
della particella, ma viene invece usata per
distinguere tra particelle e antiparticelle: se la freccia
punta verso l’alto, indica una particella, se punta
verso il basso, indica una antiparticella.
II formalismo matematico della teoria dei
campi suggerisce che queste linee possono essere
interpretate in due modi: o come positroni che si
muovono in avanti nel tempo, o come elettroni che si muovono all’indietro nel tempo.
Dal punto di vista matematico, le due interpretazioni sono identiche; la stessa
espressione descrive una antiparticella che si muove dal passato verso il futuro, oppure
una particella che si muove dal futuro verso il passato. Possiamo quindi vedere i nostri
due diagrammi come rappresentazioni dello
stesso processo che si evolve in direzioni diverse
nel tempo. Entrambi possono essere interpretati
come diffusione di elettroni e fotoni, ma in un
processo le particelle si muovono in avanti nel
tempo, nell'altro si muovono all'indietro.
La teoria relativistica delle interazioni tra
particelle presenta quindi una perfetta simmetria
rispetto alla direzione del tempo. Tutti i
diagrammi spaziotempo possono essere letti in
entrambe le direzioni. Per ogni processo, esiste un
processo equivalente in cui la direzione del tempo è invertita e le particelle sono
sostitute da antiparticelle.
I diagrammi spazio-tempo, comunque, non vanno letti come registrazioni
cronologiche delle traiettorie delle particelle nel tempo, ma piuttosto come figure
quadridimensionali nello spazio-tempo, che rappresentano una rete di eventi
interconnessi, ai quali non va attribuita alcuna direzione definita del tempo. Poiché tutte
le particelle possono muoversi in avanti e all'indietro nel tempo, proprio come possono
muoversi a destra e a sinistra nello spazio, non ha alcun senso imporre sui diagrammi
un flusso unidirezionale del tempo. Essi sono semplicemente mappe
quadridimensionali tracciate nello spazio-tempo in modo tale che non possiamo parlare
di sequenze temporali. Per usare le parole di de Broglie: “Nello spazio-tempo, tutto ciò
che per ciascuno di noi costituisce il passato, il presente e il futuro è dato in blocco...
Ciascun osservatore col passare del suo tempo scopre, per così dire, nuove porzioni dello
spazio-tempo, che gli appaiono come aspetti successivi del mondo materiale, sebbene in
realtà l'insieme degli eventi che costituiscono lo spazio-tempo esistesse già prima di
essere conosciuto”.
Questo, quindi, è il pieno significato dello spaziotempo nella fisica relativistica.
Spazio e tempo sono del tutto equivalenti, essi sono unificati in un continuo
quadridimensionale nel quale le interazioni tra le particelle possono estendersi in
qualsiasi direzione. Se vogliamo raffigurare queste interazioni, dobbiamo
6=5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
rappresentarle in una istantanea quadridimensionale che copra l'intero intervallo di
tempo come pure l'intera regione di spazio. Per ottenere la sensazione esatta del mondo
relativistico delle particelle, dobbiamo dimenticare il trascorrere del tempo.
Sebbene i fisici usino il loro formalismo matematico e i loro diagrammi per
rappresentare in blocco le interazioni nello spazio-tempo quadridimensionale, essi
dicono che nel mondo reale ogni osservatore può fare esperienza dei fenomeni solo in
una successione di sezioni dello spazio-tempo, cioè in una sequenza temporale. I
mistici, viceversa, sostengono di poter realmente percepire la pienezza di un intervallo
dello spazio-tempo nel quale il tempo non fluisce più. Ad esempio, il maestro zen
Dogen (1200-1253) dice: “La maggior parte delle persone crede che il tempo trascorra;
in realtà esso sta sempre là dov’è. Questa idea del trascorrere può essere chiamata
tempo, ma è un'idea inesatta; infatti, dato che lo si può vedere solo come un trascorrere,
non si può comprendere che esso sta proprio dov'è”.
Lo spazio-tempo della fisica relativistica è anch'esso uno spazio privo di tempo,
che appartiene a una dimensione superiore. In esso, tutti gli eventi sono interconnessi,
ma le connessioni non sono causali. Le interazioni tra particelle possono essere
interpretate in termini di causa ed effetto solo quando i diagrammi spazio-tempo sono
letti in una determinata direzione, per esempio dal basso verso l'alto. Quando vengono
considerati come figure quadridimensionali prive di una direzione definita del tempo,
non c'e un prima né un dopo, e quindi nessuna relazione di causalità.
In maniera analoga, i mistici orientali affermano che nel trascendere il tempo essi
trascendono anche il mondo della causa e dell'effetto. Come le nostre ordinarie nozioni
di spazio e tempo, la causalità è un'idea limitata a una certa esperienza del mondo e
deve essere abbandonata quando questa esperienza viene ampliata. Così si esprime
Swami Vivekananda (1863-1902), mistico indiano: “Tempo, spazio e causalità sono la
lente attraverso la quale si vede l'Assoluto ... Nell'Assoluto in sé stesso non ci sono né
tempo, né spazio, ne causalità”.
Pertanto, se il misticismo orientale è una liberazione dal tempo, in un certo senso
la stessa cosa si può dire della fisica relativistica.
12.6 Il tempo esiste?
In base al senso comune, basato sulla percezione dei sensi che avvertono il
mutare del mondo che ci circonda, è reale ciò che sta accadendo in questo momento. Per
quanto ricordiate il passato o anticipiate il futuro, vivete nel presente. In altre parole, si
ha l'impressione che il tempo fluisca, nel senso che il presente si aggiorna di continuo.
Abbiamo una profonda intuizione del fatto che il futuro sia aperto fino a quando non
diventa presente, e che il passato sia fisso. Con il fluire del tempo questa struttura di
passato fisso, presente immediato e futuro aperto viene trasportata nel tempo. Questa
struttura è parte integrante del nostro linguaggio, pensiero e comportamento. Questo
modo di pensare è naturale, ma in realtà non ha un fondamento scientifico. Le
equazioni della fisica non ci dicono quali eventi si stanno verificando proprio adesso. In
queste equazioni non esiste il momento attuale, e quindi nemmeno il fluire del tempo.
Inoltre, la teoria della relatività di Einstein suggerisce che non solo non c'è un singolo
presente speciale, ma anche che tutti i momenti sono ugualmente reali. In sostanza, il
futuro non è più aperto del passato.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6=6!
La differenza tra l'idea scientifica e la nostra idea quotidiana del tempo ha
appassionato pensatori di epoche diverse, e si è fatta sempre più grande via via che i
fisici hanno privato il tempo della maggior parte delle proprietà che gli attribuiamo.
Adesso il divario sta raggiungendo la sua conclusione logica, visto che ormai secondo
molti fisici teorici il tempo addirittura non esiste. L'idea di una realtà senza tempo è
tanto sbalorditiva che è difficile capire come possa essere coerente. Quello che facciamo,
lo facciamo nel tempo e il mondo è una serie di eventi collegati tra loro dal tempo.
Senza tempo, il mondo sarebbe immutabile. Una teoria che prescinda dal tempo deve
spiegare perché osserviamo il cambiamento, se invece il mondo non sta cambiando.
Alcune recenti ricerche cercano proprio di fornire questa spiegazione. A un livello
fondamentale il tempo può non esistere, ma può comparire a livelli superiori, come un
tavolo appare solido sebbene sia un insieme di particelle composto per la maggior parte
da spazio vuoto. La solidità è una proprietà collettiva, o emergente, delle particelle.
Anche il tempo potrebbe essere una proprietà emergente degli ingredienti basilari del
mondo quali che siano.
Questa idea di tempo emergente ha lo stesso potenziale rivoluzionario dello
sviluppo della teoria della relatività e della meccanica quantistica. Einstein aveva detto
che la riconcettualizzazione del tempo era stata fondamentale per lo sviluppo della
relatività. Oggi, mentre tentano di unificare relatività e meccanica quantistica, i fisici
ritengono che il tempo sia di nuovo centrale e senza una riflessione profonda sul tempo
potrebbe essere impossibile proseguire verso una teoria unificata.
Nel corso dei secoli, la ricca idea del tempo che ci viene dall'intuito si è
impoverita. Nella fisica, il tempo svolge diversi compiti, ma con il progredire di questa
scienza i compiti del tempo sono stati via via assegnati ad altro. Può non essere subito
ovvio, ma le leggi del moto di Newton richiedono che il tempo abbia molte
caratteristiche specifiche. In linea di principio tutti gli osservatori sono d'accordo
sull'ordine in cui si svolgono gli eventi. Indipendentemente da quando e dove si
verifichi un evento, la fisica classica assume che sia possibile dire oggettivamente se è
avvenuto prima, dopo o simultaneamente a un qualsiasi altro evento nell'universo. Il
tempo ordina quindi tutti gli eventi del mondo, la simultaneità è assoluta: è un fatto
indipendente dall'osservatore. Inoltre, per poter definire velocità e accelerazione il
tempo deve essere continuo. Per poter dire quanto sono lontani nel tempo due eventi, il
tempo classico deve avere anche un concetto di durata, quello che i fisici chiamano una
metrica. In sostanza, per Newton il mondo ha un orologio universale. L'orologio
ripartisce il mondo in istanti di tempo in modo unico e oggettivo, per cui il tempo
scorre fornendoci una freccia grazie a cui sappiamo qual è la direzione del futuro.
Queste caratteristiche aggiuntive però non sono strettamente necessarie per le leggi che
ha elaborato. Le sue numerose caratteristiche - ordine, continuità, durata, simultaneità,
flusso e freccia - sono separabili da un punto di vista logico, eppure si ritrovano tutte
insieme nell'orologio universale che Newton ha chiamato “tempo”. Questa unione di
caratteristiche ha avuto tanto successo da sopravvivere per quasi due secoli.
Poi sono arrivati gli attacchi della fine del XIX e dell'inizio dei XX secolo. Il primo
è stato il lavoro di Boltzmann, per il quale, visto che le leggi di Newton funzionano sia
avanti sia indietro nel tempo, il tempo non ha una freccia predefinita. In alternativa
Boltzmann aveva proposto che la distinzione tra passato e futuro non fosse intrinseca
nel tempo ma nascesse dalle asimmetrie nel modo in cui è organizzata la materia
nell'universo. In sostanza il tempo scorre nella direzione secondo la quale l’entropia
6=7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
aumenta. Anche se i dettagli della proposta sono ancora oggetto di discussione, senza
dubbio Boltzmann ha cassato una delle proprietà del tempo newtoniano.
Il secondo attacco è arrivato da Einstein, che ha eliminato l'idea di simultaneità
assoluta, in quanto, secondo la relatività ristretta, la simultaneità di due eventi dipende
dalla velocità a cui ci muoviamo, ossia è relativa all’osservatore. L'arena degli eventi
non è il tempo o lo spazio, ma la loro unione, lo spaziotempo. Due osservatori che si
muovono a velocità diverse sono in disaccordo su quando e dove si sia verificato un
evento, ma concordano sulla sua posizione nello spaziotempo. Spazio e tempo sono
concetti secondari destinati a sbiadire fino a diventare semplici ombre. Le cose sono
peggiorate nel 1915, con la teoria generale della relatività in cui la forza di gravità
deforma il tempo, quindi il trascorrere di un secondo in un due luoghi diversi può non
avere lo stesso significato. In generale non è possibile pensare al mondo come evolvesse
un istante dopo l'altro seguendo un unico parametro temporale. In situazioni estreme
può essere impossibile ripartire il mondo in istanti temporali. Allora diventa
impossibile dire se un evento si sia verificato prima o dopo un altro.
Ma allora a che serve il tempo? Si potrebbe dire che la differenza tra spazio e
tempo sia quasi sparita, e che la vera arena degli eventi in un universo relativistico sia
un grosso blocco quadridimensionale. Sembra che la relatività spazializzi il tempo
trasformandolo in un'ulteriore direzione all'interno del blocco.
Ma anche nella relatività generale il tempo ha una funzione distinta e importante:
distingue localmente tra direzioni di tipo tempo e di tipo spazio. Gli eventi con una
relazione di tipo tempo possono avere tra loro un nesso causale. Sono eventi per cui un
oggetto o un segnale può passare da uno all'altro, influenzando ciò che accade. Gli
eventi con una relazione di tipo spazio invece non sono collegati in modo causale.
Nessun oggetto o segnale può passare da un evento a un altro. Dal punto di vista
matematico c'è solo un segno meno che distingue le due direzioni, eppure questo segno
meno ha effetti enormi. Gli osservatori sono in disaccordo sulla successione degli eventi
di tipo spazio, ma tutti concordano sull'ordinamento degli eventi di tipo tempo. Se un
osservatore percepisce che un evento può causarne un altro, allora lo percepiscono tutti
gli osservatori.
Uno degli obiettivi più importanti della fisica è l'unione tra relatività generale e
meccanica quantistica, per avere un'unica teoria che tratti gli aspetti sia gravitazionali
sia quantistici della materia: una teoria quantistica della gravità. La meccanica
quantistica richiede però che il tempo abbia proprietà in contraddizione con quanto
scritto finora. La meccanica quantistica afferma che gli oggetti hanno un'insieme di
comportamenti molto più ricco rispetto a quello descritto da grandezze classiche come
posizione e velocità. La descrizione completa di un oggetto è data da una funzione
matematica, uno stato quantico, che evolve nel tempo. Grazie allo stato quantico i fisici
calcolano le probabilità di qualsiasi esito sperimentale in qualsiasi istante. Se facciamo
passare un elettrone in un apparecchio da cui verrà deviato in alto o in basso, la
meccanica quantistica potrebbe non dirci con certezza quale sarà l'esito. Lo stato
quantico può darci solo le probabilità dei vari esiti. Due sistemi descritti da stati
quantici identici possono evolvere diversamente. L'esito degli esperimenti è
probabilistico.
Le previsioni probabilistiche della teoria richiedono che il tempo abbia certe
caratteristiche. Un dado non può mostrare sulla stessa faccia allo stesso tempo 5 e 3, può
farlo solo in momenti diversi. Collegato a questa proprietà c'è il fatto che le probabilità
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6=8!
di avere come risultato ognuno dei sei numeri devono avere come somma il 100 per
cento, altrimenti il concetto di probabilità non avrebbe senso. Le probabilità si sommano
rispetto a uno stesso istante, non rispetto a uno stesso luogo. E questo è vero anche per
le probabilità di una data posizione o una data quantità di moto per le particelle
quantistiche. Inoltre, l’ordine temporale delle misurazioni quantistiche è essenziale.
Supponiamo di far passare un elettrone in un apparecchio che prima lo deflette lungo la
direzione verticale e poi lungo quella orizzontale. Quando riemerge, ne misuriamo il
momento angolare. Ripetiamo l'esperimento, questa volta deflettendo l'elettrone prima
orizzontalmente e poi verticalmente. I valori ottenuti saranno molto diversi. Infine, uno
stato quantico fornisce probabilità per tutto lo spazio in un dato istante. Se lo stato
riguarda una coppia di particelle, una misurazione istantanea di una della particelle ha
effetto sull'altra indipendentemente da dove si trovi, che porta alla inquietante azione a
distanza (entanglement) che tanto infastidiva Einstein perché se le particelle reagiscono
simultaneamente allora l'universo deve avere un orologio globale, proibito
esplicitamente dalla relatività.
Alcune questioni sono controverse, ma il tempo nella meccanica quantistica è un
ritorno al tempo nella meccanica newtoniana. I fisici sono turbati dall'assenza del tempo
nella relatività, forse però il ruolo centrale del tempo nella meccanica quantistica è un
problema peggiore, ed è il motivo per cui l’unificazione è tanto difficile.
Numerose aree di ricerca hanno provato a riconciliare relatività generale e
meccanica quantistica, come la teoria delle stringhe e la gravità quantistica a loop (che
esamineremo nel capitolo 18 “La fisica del futuro”). In linea di massima, i fisici si
dividono in due gruppi. I fisici che ritengono che la meccanica quantistica fornisca le
basi più solide e partono da un tempo allo stato puro. Quelli che credono che il miglior
punto di partenza sia la relatività generale in cui il tempo è già declassato, perciò sono
più aperti all'idea di una realtà senza tempo. In verità la distinzione tra questi due
approcci è sfumata. Per rendere l'idea dei problemi posti dal tempo riferiamoci alla
teoria della gravità quantistica a loop. La gravità quantistica canonica è stata sviluppata
negli anni cinquanta e sessanta, quando i fisici hanno riscritto le equazioni di Einstein
per la gravità nella stessa forma delle equazioni per l'elettromagnetismo, pensando di
applicare alla gravità le stesse idee usate per sviluppare una teoria quantistica
dell'elettromagnetismo. Alla fine degli anni sessanta Wheeler e DeWitt hanno messo in
pratica questa procedura, ottenendo un risultato molto strano. Nell'equazione
(chiamata equazione di Wheeler-DeWitt) mancava la variabile temporale. Per lungo
tempo i fisici sono rimasti disorientati. Come era possibile che il tempo sparisse? A
pensarci bene, il risultato non era sorprendente. Come già accennato, il tempo era quasi
scomparso dalla relatività generale prima che i fisici cercassero di unire la relatività con
la meccanica quantistica. Se si prende alla lettera il risultato, il tempo non esiste, e i fisici
Carlo Rovelli (1956) e Julian Barbour (1937), i più illustri sostenitori di questa idea,
hanno cercato di riscrivere la meccanica quantistica facendo a meno del tempo. Rovelli e
Barbour ritengono che questa impresa sia possibile perché, sebbene la relatività
generale sia priva di un tempo globale, riesce a descrivere il cambiamento correlando i
sistemi fisici tra loro invece che a un'idea astratta di tempo globale. Negli esperimenti
mentali di Einstein gli osservatori determinano i tempi degli eventi confrontando i
rispettivi orologi usando segnali luminosi. Possiamo, per esempio, descrivere le
variazioni nella posizione di un satellite in orbita attorno alla Terra in termini di
ticchettii di un orologio o viceversa. Quello che stiamo facendo è descrivere le
6=9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
correlazioni tra due oggetti senza usare un tempo globale come intermediario. Invece di
dire che una pallina accelera di 10 m/s2, possiamo descriverla in termini del mutamento
di un ghiacciaio. Il tempo diventa ridondante e il cambiamento può essere descritto
senza tempo.
Questa enorme rete di correlazioni è organizzata in modo ordinato, quindi
possiamo definire qualcosa chiamato “tempo” e riferire tutto a esso, senza tenere traccia
di tutte le relazioni dirette. I fisici sono in grado di sintetizzare il funzionamento
dell'universo in termini di leggi fisiche che si svolgono nel tempo. Ma questa comodità
non deve ingannarci, facendoci pensare che il tempo sia un componente fondamentale
della struttura dell'universo. Anche il denaro rende la vita molto più semplice rispetto
ai baratti, ma è un'etichetta inventata che assegniamo alle cose a cui attribuiamo un
valore, non qualcosa che per noi ha un valore di per sé. Analogamente, il tempo
permette di correlare sistemi fisici tra loro senza dover calcolare il rapporto tra un
ghiacciaio e una pallina. Ma anche il tempo è un'invenzione comoda, e non esiste in
natura più di quanta esista il denaro.
Sbarazzarsi del tempo ha il suo fascino, ma comporta numerosi danni collaterali.
Innanzitutto richiede un ripensamento completo della meccanica quantistica.
Consideriamo il famoso caso del gatto di Schrodinger. Il gatto è sospeso tra la vita e la
morte: il suo destino dipende dallo stato di una particella quantistica. In genere si dice
che il gatto è morto o vivo in funzione del risultato di una misurazione o di un processo
equivalente. Rovelli invece direbbe che lo stato del gatto non si risolve mai. L’animale
può essere morto rispetto a se stesso, vivo rispetto a un essere umano che si trova nella
stanza, morto rispetto a un secondo essere umano fuori dalla stanza e così via. Una cosa
è che il momento della morte del gatto dipenda dall'osservatore, come dice la relatività
ristretta; un'altra, ancora più sorprendente, è che il suo verificarsi o meno sia relativo,
come suggerisce Rovelli, seguendo lo spirito della relatività. Dato che il tempo è
fondamentale, bandirlo trasformerebbe il modo in cui i fisici vedono il mondo.
Il mondo è privo di tempo, e tuttavia sembra che il tempo faccia parte del
mondo. Spiegare perché il mondo sembra temporale è una questione pressante per
chiunque abbracci la gravità quantistica priva di tempo. Anche la relatività generale è
priva di un tempo newtoniano, ma almeno ha vari sostituti parziali che, presi insieme,
si comportano come il tempo newtoniano quando la gravità è debole e le velocità
relative sono basse. L'equazione di Wheeler-DeWitt è priva anche di questi sostituti.
Barbour e Rovelli hanno proposto idee sul modo in cui il tempo (o almeno l'illusione del
tempo) possa comparire dal nulla. Ma la gravità quantistica canonica già offre un'idea
più sviluppata.
Noto come tempo semiclassico, risale a un articolo del 1931 del fisico britannico
Nevill F. Mott (1905-1996) in cui era descritta la collisione tra un nucleo di elio e un
atomo più grande. Per ottenere un modello del sistema, Mott aveva applicato
un'equazione in cui non compare il tempo, e che di solito si applica solo a sistemi statici.
Poi aveva diviso il sistema in due sottosistemi e aveva usato il nucleo di elio come
“orologio” per l'atomo. Il risultato notevole è che l'atomo obbedisce, rispetto al nucleo,
alle equazioni della meccanica quantistica dipendenti dal tempo. Una funzione dello
spazio svolge il ruolo del tempo. Così, anche se il sistema nel suo complesso è privo di
tempo, le singole parti non lo sono. Nell'equazione priva del tempo relativa al sistema
totale è nascosto un tempo per sottosistema.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6=:!
Qualcosa di simile funziona per la gravità quantistica. L'universo può essere
privo di tempo, ma se lo dividiamo in varie parti alcune possono fare da orologio per le
altre. Il tempo emerge dall'assenza di tempo, percepiamo il tempo perché la nostra
natura è di essere una di quelle parti. Per quanto questa idea sia interessante e
sbalorditiva, vogliamo ancora di più. L'universo non può essere sempre diviso in pezzi
che facciano da orologi e, in questi casi la teoria non fa previsioni probabilistiche. Per
affrontare queste situazioni servirà una teoria quantistica completa della gravità e un
profondo ripensamento del tempo.
Dal punto di vista storico, i fisici sono partiti dal tempo altamente strutturato
dell'esperienza, il tempo con un passato fisso, un presente e un futuro aperto. Hanno
gradualmente smantellato questa struttura, di cui rimane poco o nulla. Ora devono
invertire questo procedimento e ricostruire il tempo dell'esperienza a partire dal tempo
della fisica non fondamentale, che a sua volta deve essere ricostruito a partire da una
rete di correlazioni tra le parti di un mondo statico fondamentale.
Il filosofo francese Maurice Merleau-Ponty (1908-1961) ha affermato che il tempo
in realtà non scorre di per sé, e che il suo scorrere apparente è un risultato del fatto che
“poniamo surrettiziamente nel fiume un testimone del suo corso”. Quindi la tendenza a
credere che il tempo scorra è dovuta al fatto che dimentichiamo di inserire nella
rappresentazione noi stessi e i nostri collegamenti con il mondo. Merleau-Ponty parlava
della nostra esperienza soggettiva del tempo, e fino a poco tempo fa nessuno avrebbe
immaginato che lo stesso tempo oggettivo si potesse spiegare come risultato di questi
collegamenti. Forse il tempo esiste solo dividendo il mondo in sottosistemi ed
esaminando che cosa li tiene insieme. In questa rappresentazione il tempo fisico emerge
perché ci consideriamo separati da ogni altra cosa.
64<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
!"#$%&'&()*!
I grandi spiriti hanno sempre incontrato
violenta opposizione da parte
delle menti mediocri.
Einstein
!&)-,4,-)(1!%&!#-#*%&0-+/-&1-#
2!"%0%2!*7-#'-""(#)-%,!(#
'-!#6/(&)!#
13.1 L’importanza delle diverse formulazioni di una stessa teoria scientifica
Le formulazioni di Schrodinger e Heisenberg della meccanica quantistica sono
profondamente diverse tra loro, ma entrambe forniscono le stesse soluzioni quando
vengono applicate ai medesimi problemi. Le due teorie che sembravano così diverse per
forma e contenuto, l’una impiegando equazioni d’onda e l’altra algebra matriciale, l’una
descrivendo onde e l’altra particelle, sono però matematicamente equivalenti. Questo
fatto apre un’interessante discussione sull’importanza delle varietà di formulazione
delle teorie scientifiche.
Che si possano avere diverse formulazioni di una stessa teoria è un dato di fatto.
Infatti, oltre a quello in questione, la storia della fisica ci offre molti esempi: basti
pensare ai formalismi lagrangiano o hamiltoniano per la meccanica classica, o alle
diverse versioni dell'elettrodinamica quantistica. Riflettendo su questo fatto Feynman,
nel ripercorrere i passi che l'avevano portato alla sua formulazione dell'elettrodinamica
quantistica, osservava: “Mi è sempre parso strano che le leggi fondamentali della fisica,
quando vengono scoperte, possano apparire in tante forme diverse che non sembrano
inizialmente le stesse, ma che poi, con un pò di manipolazione matematica, se ne possa
mostrare la relazione. (…) C’è sempre un altro modo di dire la stessa cosa che non
assomiglia affatto al modo in cui è stata detta prima”. La domanda è se ci sia una
ragione non banale per cui una stessa teoria possa essere formulata in modi diversi o, in
altri termini, se questa versatilità di descrizione corrisponda a una particolare
caratteristica della teoria. Per Feynman, perchè siano possibili più formulazioni rimane
un mistero. Ma questa possibilità, allo stesso tempo, è da lui vista come “una
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
64;!
rappresentazione della semplicità della natura”. “Una cosa è semplice se ne possiamo
dare una descrizione completa in vari modi senza essere immediatamente consapevoli
che si sta descrivendo la stessa cosa”. Nonostante l’interessante contributo di Feynman,
nel mondo della filosofia della scienza il dibattito è ancora aperto sul significato e la
validità della semplicità come caratteristica essenziale e peculiare di una teoria
scientifica.
Ma c’è anche un altro aspetto che bisogna sottolineare riguardo alla molteplicità
descrittiva nella fisica. Quanto è importante, per una teoria scientifica, il modo in cui è
formulata? Quanto, in altre parole, questo modo influisce anche su quello che, con
quella teoria, si vuole dire sull’ambito fisico considerato? Inoltre, al di là dell’evidente
possibilità di descrivere la teoria in modi diversi, queste formulazioni dicono davvero la
stessa cosa, o dicono anche, l’una, qualcosa che l’altra non dice? E, infine, quanto il
successo di una teoria può dipendere dalla formulazione scelta?
Il rapporto tra ciò che si vuole esprimere e il modo in cui lo si esprime, nel caso
delle teorie scientifiche assume particolare rilevanza e connotati specifici. Da una parte
c’è il collegamento naturale con la questione posta dall’esigenza di raggiungere la
massima chiarezza e assenza di ambiguità nell’esposizione delle teorie; dall’altra parte
c’è il fatto storico delle molteplici formulazioni teoriche, che a volte sono solo
parzialmente intertraducibili o addirittura alternative. È quanto avviene, per esempio,
nel caso delle descrizioni dell’elettrodinamica classica ottenute, rispettivamente, nei
termini di campi o dell’azione a distanza tra cariche. Una molteplicità di formulazioni,
come insegna bene la storia della fisica, è sia indice della ricchezza del campo
d’indagine sia componente essenziale del progresso scientifico.
La ricchezza di approcci e formulazioni è quindi preziosa, e la lezione da trarre è
di perseguirla il più possibile. Come già indicava Feynman, non bisogna mai seguire
una sola via, magari quella più di moda che può sembrare di maggior successo, perché
l’approccio vincente potrebbe trovarsi in un’altra direzione.
13.2 Oltre il linguaggio
L’idea che le teorie e i modelli scientifici siano tutti approssimati e che le loro
interpretazioni verbali risentano sempre delle imprecisioni del nostro linguaggio era già
comunemente accettata dagli scienziati dell’inizio del XX secolo, quando, con
l’elaborazione della teoria dei quanti, si verificò uno sviluppo nuovo e del tutto inatteso.
Lo studio del mondo degli atomi costrinse i fisici a rendersi conto che il
linguaggio comune è non solo impreciso, ma assolutamente inadeguato a descrivere la
realtà atomica e subatomica. Da un punto di vista filosofico, questo è senz’altro lo
sviluppo più interessante della fisica moderna. A questo proposito Heisenberg scrive:
“Il problema più difficile … concernente l’uso del linguaggio sorge nella teoria dei
quanti. In essa non abbiamo al principio la benché minima indicazione che ci aiuti a
mettere in rapporto i simboli matematici con i concetti del linguaggio ordinario.
L’unica cosa che sappiamo fin dall’inizio è che i nostri concetti comuni non possono
essere applicati alla struttura degli atomi”.
Per secoli gli scienziati sono andati alla ricerca delle leggi fondamentali della
natura soggiacenti alla grande varietà dei fenomeni naturali. Questi fenomeni facevano
parte dell’ambiente macroscopico degli scienziati e quindi erano direttamente
64=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
accessibili alla loro esperienza sensoriale. Le immagini e i concetti intellettuali del
linguaggio che essi usavano, dato che erano stati tratti da questa stessa esperienza
mediante un processo di astrazione, risultavano sufficienti e adeguati per descrivere i
fenomeni naturali.
Nella fisica classica, le domande sulla natura essenziale delle cose trovavano
risposta nel modello meccanicistico newtoniano dell'universo il quale, in modo molto
simile al modello di Democrito nell'antica Grecia, riduceva tutti i fenomeni al moto e
all'interazione di atomi duri e indistruttibili. Le proprietà di questi atomi furono
ricavate dalla nozione macroscopica di palle da biliardo e quindi dall'esperienza
sensoriale diretta. Non ci si chiedeva se questa nozione si potesse effettivamente
applicare al mondo atomico. In realtà, questo fatto non poteva essere indagato
sperimentalmente.
Nel Novecento, tuttavia, i fisici furono in grado di affrontare sperimentalmente il
problema della natura intima della materia. Con l'aiuto di una tecnologia raffinata, essi
riuscirono a esplorare la natura sempre più in profondità, scoprendo uno dopo l'altro i
vari strati della materia, alla ricerca dei suoi mattoni elementari. I delicati e complessi
strumenti della fisica sperimentale moderna penetrano in profondità nel mondo
submicroscopico, rivelando aspetti della natura del tutto estranei al nostro ambiente
macroscopico e rendono quel mondo accessibile ai nostri sensi, ma ciò che noi
“vediamo” o “sentiamo” non è mai direttamente il fenomeno che abbiamo indagato, ma
sempre soltanto qualcuna delle sue conseguenze. Il mondo atomico e subatomico sta al
di là delle nostre percezioni sensoriali.
Con l'aiuto delle moderne apparecchiature siamo dunque in grado di osservare
in maniera indiretta le proprietà degli atomi e dei loro costituenti, e quindi, sia pure
limitatamente, di esperire il mondo subatomico Non si tratta, tuttavia, di un'esperienza
ordinaria, confrontabile con quella dei nostro ambiente quotidiano. A questo livello, la
conoscenza della materia non è più ricavabile dall'esperienza sensoriale diretta e perciò
il nostro linguaggio ordinario, che trae le sue immagini dai mondo dei sensi, non è più
adeguato a descrivere i fenomeni osservati. A mano a mano che penetriamo più
profondamente nella natura, siamo costretti via via ad abbandonare le immagini e i
concetti dei linguaggio ordinario.
Esplorando l'interno dell'atomo e studiandone la struttura, la scienza oltrepassò i
limiti della nostra immaginazione sensoriale. Da questo punto in poi, essa non poteva
più affidarsi con assoluta certezza alla logica e al senso comune. La fisica atomica
consentì agli scienziati di dare un primo rapido sguardo nella natura essenziale delle
cose. Come i mistici, i fisici ora avevano a che fare con un'esperienza non sensoriale
della realtà e, come quelli, dovevano affrontare gli aspetti paradossali di questa
esperienza. Da quel momento in avanti, quindi, i modelli e le immagini della fisica
moderna divennero simili a quelli della filosofia orientale.
13.3 Paradosso di Einstein-Podolsky-Rosen (EPR)
Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento
ideale che dimostra come una misura eseguita su una parte di un sistema quantistico
può propagare istantaneamente un effetto sul risultato di un'altra misura, eseguita
successivamente su un’altra parte dello stesso sistema quantistico, indipendentemente
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
644!
dalla distanza che separa le due parti. Questo effetto è noto come "azione istantanea a
distanza" ed è incompatibile con il postulato alla base della relatività ristretta, che
considera la velocità della luce la velocità limite alla quale può viaggiare un qualunque
tipo d'informazione. Einstein, Podolsky e Rosen proposero questo esperimento ideale in
un articolo pubblicato nel 1935 intitolato La descrizione quantistica della realtà fisica può
ritenersi completa?, con l’intento di dimostrare che la meccanica quantistica non è una
teoria fisica completa, perché in contrasto con il principio di località che afferma che
processi fisici che avvengono in un posto non possono avere effetto immediato su
elementi fisici di realtà in un altro luogo, separato dal primo. Questo articolo, non solo
mise in agitazione il mondo dei fisici in quanto voleva dimostrare che la meccanica
quantistica è una manifestazione incompleta di una teoria più profonda nella quale è
possibile una descrizione in termini di realtà oggettiva, ma acquistò una grandissima
importanza anche nella discussione filosofica.
Ma come possiamo scoprire se una teoria è completa oppure no? I tre autori
suggerirono che dobbiamo osservare la realtà fisica. Einstein era un realista, per lui
l’esistenza di una realtà là fuori, indipendente da noi e indipendente dal fatto che la
stiamo o meno osservando, era un dogma irrinunciabile.
Nell’articolo pubblicato, EPR cominciavano distinguendo tra la realtà qual è e la
concezione che ne ha il fisico. “Ogni serio esame di una teoria fisica presuppone la
distinzione fra la realtà obiettiva, che è indipendente da qualsiasi teoria, e i concetti
fisici con cui la teoria stessa opera. Questi concetti si presuppone corrispondano alla
realtà obiettiva, e con essi noi ci rappresentiamo quella realtà”. Nella valutazione del
successo di una qualsiasi particolare teoria fisica, sostenevano EPR, si doveva
rispondere con un inequivocabile “Si” a due domande: “La teoria è completa?” e “La
descrizione fornita dalla teoria è completa?”. “La correttezza della teoria è giudicata in
base al grado di accordo fra le sue conclusioni e l’esperienza umana” argomentavano
EPR. Era un’affermazione che ogni fisico avrebbe accettato, in quanto l’esperienza in
fisica assume la forma di esperimenti e misure. Fino a quel momento non era emerso
alcun conflitto fra gli esperimenti effettuati e le predizioni teoriche della meccanica
quantistica. Sembrava che questa fosse una teoria corretta. Ma per Einstein non era
sufficiente che una teoria fosse corretta, in accordo con gli esperimenti; occorreva che
fosse anche completa. Quale che fosse il significato da attribuire al termine “completo”,
EPR imponevano una condizione necessaria per la completezza di una teoria fisica:
“ciascun elemento della realtà fisica deve avere una controparte nella teoria fisica”.
Questo criterio di completezza implicava che EPR, se dovevano portare a termine la
loro argomentazione, definissero un cosiddetto “elemento di realtà”. Einstein non
voleva impantanarsi nelle sabbie mobili delle disquisizioni filosofiche nel tentativo di
definire la “realtà”. Evitando una definizione esauriente di realtà in quanto non
necessaria per i loro scopi, EPR adottarono un criterio che giudicavano “sufficiente” e
“ragionevole” per individuare un “elemento di realtà”: “Se si è in grado di prevedere
con certezza (cioè con probabilità uguale a uno) il valore di una grandezza fisica senza
perturbare in alcun modo un sistema, allora esiste un elemento di realtà fisica
corrispondente a questa grandezza fisica”. Consideriamo, ad esempio, la posizione e la
quantità di moto di un elettrone. Se si sa come determinare l’una o l’altra proprietà
senza alterare in alcun modo il percorso o il comportamento successivo dell’elettrone, si
ha il diritto di affermare che la posizione, o la quantità di moto, dell’elettrone è un fatto
certo, un dato innegabile. In poche parole, un elemento della realtà fisica.
645!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Einstein voleva confutare la tesi di Bohr che la meccanica quantistica fosse una
teoria completa e fondamentale della natura, dimostrando che c’erano oggettivi
“elementi della realtà” che la teoria non coglieva, spostando così il centro del dibattito
dalla coerenza interna della meccanica quantistica alla natura della realtà e al ruolo
della teoria. EPR affermavano che perché una teoria fosse completa doveva esserci una
corrispondenza uno a uno tra un elemento della teoria e un elemento della realtà. Una
condizione sufficiente per la realtà di una grandezza fisica, quale una quantità di moto,
è la possibilità di predirne il valore con certezza senza perturbare il sistema. Se esisteva
un elemento di realtà fisica di cui la teoria non rendeva conto, la teoria era incompleta.
Secondo il principio di indeterminazione, una misura che fornisca un valore esatto per
la quantità di moto di un oggetto microfisico esclude la possibilità stessa di una misura
simultanea della sua posizione. La domanda cui Einstein voleva dare risposta era:
l’incapacità di misurarne in modo diretto la posizione esatta significa che l’elettrone non
ha una posizione definita? La risposta di Bohr era che in assenza di una misurazione
che ne determini la posizione, l’elettrone non ha una posizione. EPR si proponevano di
dimostrare che ci sono elementi della realtà fisica, come il fatto che un elettrone abbia
una posizione definita, che non possono trovare posto nella meccanica quantistica, la
quale è pertanto incompleta. Per dare sostegno alla loro argomentazione EPR tentarono
un esperimento mentale.
Nell’esperimento concettuale EPR si immaginava una coppia di particelle in cui il
problema consisteva nella misurazione della posizione e del momento: dalla
misurazione della posizione di una particella si poteva ricavare esattamente la
posizione dell’altra e, analogamente, dalla misurazione del momento della prima
particella si poteva ricavare esattamente il momento della seconda. Questi tipi di sistemi
quantistici composti da due o più particelle, legate tra loro in maniera particolare, sono
detti sistemi entangled. L'entanglement quantistico o correlazione quantistica è un
fenomeno quantistico, privo di analogo classico, in cui ogni stato quantico di un insieme
di due o più sistemi fisici dipende dagli stati di ciascuno dei sistemi che compongono
l'insieme, anche se questi sistemi sono separati spazialmente. Per esempio, è possibile
realizzare un sistema costituito da due particelle il cui stato quantico sia tale che –
qualunque sia il valore di una certa proprietà osservabile assunto da una delle due
particelle – il corrispondente valore assunto dall'altra particella sarà opposto al primo,
nonostante i postulati della meccanica quantistica, secondo cui predire il risultato di
queste misure sia impossibile. Di conseguenza in presenza di entanglement la misura
effettuata su un sistema sembra influenzare istantaneamente lo stato di un altro sistema:
in realtà, è facile mostrare che la misurazione non c'entra niente; quanto detto ha
significato solamente in relazione al risultato della misurazione, non all'atto del
misurare. Esiste un teorema (teorema di no-signalling quantistico) che sancisce
l'impossibilità di trasmettere, tramite questa proprietà, informazione ad una velocità
superiore a quella della luce. Per meglio dire, non è possibile sfruttare affatto questa
proprietà per nessun tipo di trasmissione, proprio perché è impossibile determinare
l'esito di una misura tramite l'atto del misurare.
Adesso andiamo a descrivere l’esperimento EPR più da vicino, e vediamo come
la non località in meccanica quantistica si manifesta in maniera particolarmente
spettacolare.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
646!
Due particelle, A e B,
interagiscono brevemente e
poi si allontanano in direzioni
opposte. Il principio di
indeterminazione vieta la
misura esatta, in un qualsiasi
istante dato, della posizione e
della quantità di moto di
ciascuna delle due particelle.
Tuttavia
consente
una
misurazione
esatta
e
simultanea della quantità di moto totale delle due particelle, A e B, e della loro distanza
relativa. Il punto essenziale dell’esperimento mentale di EPR consiste nel lasciare
indisturbata la particella B evitandone qualsiasi osservazione diretta. Anche se A e B
sono lontane anni luce l'una dall'altra, nulla nella struttura matematica della meccanica
quantistica proibisce una misurazione della quantità di moto di A, che fornisce
informazioni sulla quantità di moto esatta di B senza che B venga con ciò perturbata.
Quando la quantità di moto della particella A viene misurata con esattezza, tale
operazione consente di determinare con precisione in modo indiretto ma
simultaneamente, tramite il relativo principio di conservazione, la quantità di moto di
B. Pertanto secondo il criterio di realtà di EPR, la quantità di moto di B deve essere un
elemento della realtà fisica. In modo analogo, misurando la posizione esatta di A, è
possibile dedurre la posizione di B senza misurarla direttamente, dato che la distanza
fisica che separa A e B è nota. Quindi, secondo EPR, anch’essa deve essere un elemento
della realtà fisica. Sembrava che EPR avessero escogitato un modo per stabilire con
certezza i valori esatti o della quantità di moto o della posizione di B grazie a
misurazioni effettuate sulla particella A, senza la minima possibilità che la particella B
venisse fisicamente perturbata. Sulla base del loro criterio di realtà, EPR sostenevano di
aver così provato che sia la quantità di moto sia la posizione della particella B sono
«elementi di realtà», e che B può avere simultaneamente valori esatti della posizione e
della quantità di moto. Siccome la meccanica quantistica, tramite il principio di
indeterminazione, esclude qualunque possibilità che una particella possegga
simultaneamente entrambe queste proprietà, tali «elementi di realtà» non hanno
controparti nella teoria. Perciò la descrizione quantomeccanica della realtà fisica,
concludevano EPR, è incompleta.
L'esperimento mentale di Einstein non mirava a misurare simultaneamente la
posizione e la quantità di moto della particella B. Einstein infatti ammetteva che fosse
impossibile misurare l'una o l'altra di queste proprietà di una particella in modo diretto
senza causare una perturbazione fisica irriducibile. L'esperimento mentale delle due
particelle era costruito invece per mostrare che tali proprietà potevano avere
un'esistenza definita simultanea, che sia la posizione sia la quantità di moto di una
particella sono «elementi di realtà». Se queste proprietà della particella B possono essere
determinate senza che B venga osservata (misurata), allora queste proprietà di B devono
esistere come elementi di realtà fisica indipendentemente dal fatto di essere osservate
(misurate). La particella B ha una posizione che è reale e una quantità di moto che è
reale. EPR erano consapevoli della possibile controargomentazione secondo cui «due o
più grandezze fisiche si possono considerare elementi simultanei di realtà solo quando
647!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
le si può misurare o prevedere simultaneamente». Questo però faceva dipendere la
realtà della quantità di moto e della posizione della particella B dal procedimento di
misura condotto sulla particella A, che poteva essere ad anni luce di distanza e non
perturbava in alcun modo la particella B. “Nessuna definizione accettabile di realtà
potrebbe consentire ciò” concludevano EPR. Al centro dell’argomentazione EPR c’era il
presupposto di Einstein della località, l'idea cioè che non esista alcuna misteriosa azione
a distanza istantanea, che con ironia chiamava “spettrale azione a distanza”. La località
escludeva la possibilità che un evento in una certa regione dello spazio influenzasse
istantaneamente, con una velocità superiore a quella della luce un altro evento che si
svolgeva altrove. Per Einstein la velocità della luce era il limite invalicabile imposto
dalla natura alla rapidità con cui qualsiasi cosa può muoversi da un luogo all'altro. Per
lo scopritore della relatività era inconcepibile che una misurazione effettuata sulla
particella A influenzasse istantaneamente, a una certa distanza, gli elementi
indipendenti di realtà fisicà posseduti da una particella B.
Appena l’articolo EPR fu pubblicato, l’allarme si diffuse tra i principali pionieri
quantistici di tutta Europa, ed ancora una volta spettò a Bohr di arginare e respingere
l’attacco alla completezza della meccanica quantistica sferrato da Einstein. Ricorrendo
ad una tattica di discussione che aveva una storia lunga e illustre, iniziò la sua difesa
dell’interpretazione della meccanica quantistica (la cosiddetta interpretazione di
Copenaghen) semplicemente respingendo la componente principale dell’argomento di
Einstein in favore dell’incompletezza: il criterio di realtà fisica. Bohr credeva di aver
individuato un punto debole nella definizione di EPR: la necessità di condurre una
misurazione senza perturbare in alcun modo un sistema. Il fisico danese sperava di
sfruttare quella che descriveva come una “sostanziale ambiguità” del criterio di realtà
“quando viene applicato ai fenomeni quantistici”, ma questo richiedeva una dolorosa
rinuncia, e cioè che l’atto di misurazione produceva un’inevitabile perturbazione fisica.
Invece, ora Bohr metteva l’accento sul fatto che qualunque oggetto microfisico
sottoposto a misurazione e l'apparecchiatura che effettuava la misura formavano un
tutto indivisibile: il «fenomeno». Bohr non obiettava che EPR predicessero i risultati di
possibili misurazioni della particella B basandosi sulla conoscenza acquisita misurando
la particella A. Una volta che è stata misurata la quantità di moto della particella A, è
possibile predire con precisione ii risultato di un'analoga misurazione della quantità di
moto della particella B come indicato da EPR. Ma Bohr sosteneva che ciò non significa
che la quantità di moto sia un elemento indipendente della realtà di B. Soltanto quando
viene compiuta un'«effettiva» misurazione della quantità di moto su B si può dire che
questa particella possiede tale grandezza. La quantità di moto di una particella diventa
“reale” solamente quando interagisce con un dispositivo progettato per misurare tale
grandezza. Una particella non esiste in un qualche stato sconosciuto ma «reale» prima
di un atto di misurazione. In assenza della misurazione volta a determinare o la
posizione o la quantità di moto di una particella, secondo Bohr era privo di significato
asserire che essa possieda effettivamente l'una o l'altra. Per Bohr il ruolo del dispositivo
di misura era cruciale nella definizione degli elementi di realtà di EPR. Così, una volta
che un fisico ha predisposto l'apparecchiatura per misurare la posizione esatta della
particella A, dalla quale si può calcolare con certezza la posizione della particella B, ciò
esclude la possibilità di misurare la quantità di moto di A e quindi di dedurne la
quantità di moto di B. Se, come Bohr concedeva a EPR, non c’è nessuna perturbazione
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
648!
fisica diretta della particella B, allora i suoi “elementi di realtà fisica” devono essere
definiti dalla natura del dispositivo di misura e della misurazione effettuata su A.
Per EPR, se la quantità di moto di B è un elemento di realtà, una misura di
quantità di moto effettuata sulla particella A non può influenzare B. Consente
semplicemente il calcolo della quantità di moto che la particella B possiede
indipendentemente da qualsiasi misurazione. Il criterio di realtà di EPR presume che,
se le particelle A e B non esercitano forze fisiche l'una sull'altra, qualunque cosa accada
all'una non può «perturbare» l'altra. Invece, secondo Bohr, poichè A e B in passato
avevano interagito prima di separarsi, erano per sempre connesse (entangled) come
parti di un unico sistema e non potevano essere trattate individualmente come due
particelle isolate. Perciò, sottoporre A a una misurazione della quantità di moto era
praticamente identico a effettuare una misurazione diretta su B, che l'avrebbe portata
istantaneamente a possedere una ben definita quantità di moto. Bohr conveniva che non
c'era alcuna perturbazione “meccanica» della particella B dovuta a un'osservazione
della particella A. Come EPR, anche lui escludeva la possibilità di una qualsiasi forza
fisica, repulsiva o attrattiva, che agisse a distanza. Tuttavia, se la realtà della posizione o
della quantità di moto della particella B è determinata da misurazioni eseguite sulla
particella A, sembra che vi sia una qualche «influenza» istantanea a distanza. Questo
viola il criterio di località, secondo il quale ciò che accade ad A non può influenzare
istantaneamente B, e quello di separabilità, per cui A e B esistono l'una
indipendentemente dall'altra. Entrambi i concetti stanno al cuore dell'argomentazione
EPR e della concezione di Einstein di una realtà indipendente dall'osservatore.
Viceversa Bohr riteneva che una misurazione della particella A in qualche modo
«influenzi» istantaneamente la particella B, per cui ne deriva che EPR non possono
essere autorizzati a concludere che la meccanica quantistica sia incompleta.
Il dibattito sull'interpretazione della meccanica quantistica tra Bohr ed Einstein
era riconducibile alle loro diverse convinzioni filosofiche in merito allo status della
realtà. Esisteva? Bohr credeva che la meccanica quantistica fosse una teoria
fondamentale completa della natura e su questa base costruiva la sua concezione
filosofica del mondo che lo portava ad affermare: “Non esiste un mondo quantistico.
Esiste soltanto un’astratta descrizione quantomeccanica. È sbagliato pensare che
compito della fisica sia scoprire com'è fatta la natura. La fisica ha per oggetto ciò che
possiamo dire sulla natura”. Affermazione non tanto lontana da quella di Wittgenstein
nel Tractatus Logico-Philosophicus: “Su ciò di cui non si può parlare si deve tacere”.
Einstein, d'altro canto, sceglieva l'opzione alternativa, basando la sua valutazione della
meccanica quantistica sulla sua fede incrollabile nell'esistenza di una realtà causale e
indipendente dall'osservatore. “Ciò che chiamiamo scienza” affermava Einstein «ha
l'unico scopo di stabilire che cosa è.” Per Bohr veniva prima la teoria, poi la posizione
filosofica, l'interpretazione costruita per dare un senso a ciò che la teoria diceva sulla
realtà. Einstein sapeva che era pericoloso costruire una concezione filosofica del mondo
sulle basi di una qualsiasi teoria scientifica. Se la teoria risulta carente alla luce di nuovi
dati sperimentali, la posizione filosofica cui da sostegno crolla con essa. “È
fondamentale per la fisica presupporre un mondo reale che esista indipendentemente
da qualsiasi atto di percezione» diceva Einstein. “Ma di questo non abbiamo
conoscenza”.
649!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
13.4 La disuguaglianza di Bell
“Tu ritieni che Dio giochi a dadi con il mondo; io credo invece che tutto
ubbidisca a una legge, in un mondo di realtà obiettive che cerco di cogliere per via
furiosamente speculativa” scrisse Einstein a Born nel 1944. La maggior parte dei fisici
era troppo impegnata a servirsi della meccanica quantistica, che continuava a segnare
un successo dopo l’altro, per preoccuparsi delle sottigliezze scientifiche e filosofiche del
dibattito tra Einstein e Bohr sul suo significato e la sua interpretazione; dibattito che
verteva tanto sul tipo di fisica che era accettabile quanto sulla natura della realtà stessa.
Tranne, però, John S. Bell (1928-1990) che aveva scoperto ciò che non era riuscito ad
Einstein e Bohr: un teorema matematico in grado di decidere tra le loro opposte visioni
del mondo, che per Bohr consisteva in un’astratta descrizione quantomeccanica, mentre
Einstein credeva in una realtà indipendente dalla percezione. Ma andiamo per gradi.
Nel 1932 John von Neumann (1903-1957) aveva scritto un libro dal titolo I
fondamenti matematici della meccanica quantistica, in cui si chiedeva se la meccanica
quantistica potesse essere formulata come teoria deterministica introducendo variabili
nascoste, che, a differenza delle variabili ordinarie, sarebbero inaccessibili alla misura e
quindi non soggette alle restrizioni imposte dal principio di indeterminazione.
L’attrattiva delle variabili nascoste nella meccanica quantistica aveva le sue radici nella
tesi di Einstein che la teoria fosse incompleta. Poteva darsi che l’incompletezza fosse
dovuta al non essere riusciti a cogliere l’esistenza di uno strato sottostante della realtà.
Questo strato inutilizzato sotto forma di variabili nascoste (magari particelle o forze
nascoste, o qualcosa di completamente nuovo) avrebbe ripristinato una realtà oggettiva,
indipendente. Fenomeni che a un certo livello apparivano probabilistici si sarebbero
rivelati, grazie alle variabili nascoste, deterministici, e le particelle avrebbero così
posseduto velocità e posizione definite in ogni istante. Von Neumann sosteneva che
“l’attuale sistema della meccanica quantistica dovrebbe essere oggettivamente falso
perché fosse possibile un’altra descrizione dei processi elementari distinta da quella
statistica”. In altre parole la risposta era “No”, e ne veniva fornita una dimostrazione
matematica che metteva fuori causa l’impostazione delle variabili nascoste. Dal
momento che von Neumann era riconosciuto come uno dei massimi matematici di quel
periodo, la maggior parte dei fisici si limitò a dare per scontato, senza preoccuparsi di
verificarlo, che avesse messo al bando le variabili nascoste nella meccanica quantistica.
Invece von Neumann ammetteva che rimaneva una possibilità, per quanto piccola, che
la meccanica quantistica fosse sbagliata, cioè una teoria incompleta non in grado di dare
conto di ciò che succede in natura. Eppure, a fronte delle affermazioni di cautela di von
Neumann, la sua dimostrazione fu considerata indiscutibile. Praticamente tutti la
fraintesero come prova che nessuna teoria a variabili nascoste potesse riprodurre i
medesimi risultati sperimentali della meccanica quantistica. Sarebbe stato Bell a
dimostrare che uno dei presupposti adottati da von Neumann era infondato e che
quindi la sua prova di impossibilità era sbagliata.
Cominciò considerando una versione dell’esperimento mentale EPR escogitata
da David Bohm (1917-1992), che era più semplice di quella originale.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
64:!
Supponiamo che due
particelle, un elettrone ed un
positone, di spin ½, vengano
prodotte dal decadimento di
una singola particella di spin zero in posizione centrale, e che le due particelle prodotte
si allontanino velocemente da tale posizione in direzioni opposte. Per la conservazione
del momento angolare, gli spin dell’elettrone e del positone devono dare come somma
zero, poiché questo era il momento angolare della particella centrale iniziale. Questo
fatto ha l’implicazione che, quando misuriamo lo spin dell’elettrone in una qualche
direzione, qualsiasi direzione scegliamo il positone ruota ora nella direzione opposta.
Le due particelle potrebbero trovarsi a qualunque distanza tra di loro, ma la scelta
stessa di eseguire una misurazione su una particella sembra avere fissato
istantaneamente l’asse di spin dell’altra. Questo fatto in sé stesso non deve sorprendere,
perchè se le particelle divergono da un'origine comune ciascuna di esse avrà conservato
un'impronta dell'incontro. Secondo Bohr, finchè non viene compiuta una misurazione ,
nessuno dei due elettroni ha uno spin preesistente in nessuna direzione. Prima che
vengono osservati, gli elettroni esistono in una sovrapposizione di stati tale per cui sono
spin-su e spin-giù allo stesso tempo. Poiché i due elettroni sono entangled,
l’informazione relativa ai loro stati di spin è data da una funzione d’onda del tipo !=(A
spin-su e B spin-giù)+(A spin-giù e B spin-su). È la misurazione che provoca il collasso
della funzione d’onda e quindi che l’elettrone A assuma spin-su o spin-giù. Nello stesso
momento, l’elettrone entangled B acquista lo spin opposto, anche se si trova dall’altra
parte dell’universo. L’interpretazione di Bohr è non locale. Einstein avrebbe spiegato le
correlazioni affermando che entrambi gli elettroni possiedono valori definiti dello spin
quantistico, che vengano misurati o no. Einstein credeva in un realismo locale, cioè che
una particella non può essere influenzata in modo istantaneo da un evento lontano e
che le sue proprietà esistono indipendentemente da qualsiasi misurazione. Purtroppo,
l’ingegnosa rielaborazione di Bohm dell’esperimento EPR non era in grado di
distinguere tra le posizioni di Einstein e Bohr. Entrambi potevano giustificare i risultati
dell’esperimento. Il colpo di genio di Bell fu scoprire un modo per uscire dal vicolo
cieco cambiando l’orientamento relativo dei due rivelatori di spin, e quindi calcolare il
grado esatto di correlazione degli spin previsto dalla meccanica quantistica per un dato
orientamento dei rivelatori. Ma non era possibile effettuare un calcolo analogo usando
una teoria a variabili nascoste che preservasse la località. L'unica cosa che una simile
teoria avrebbe predetto era una corrispondenza tutt'altro che perfetta tra gli stati di spin
di A e di B. Ciò non era sufficiente per decidere tra la meccanica quantistica e una teoria
a variabili nascoste locale. Bell sapeva che qualsiasi esperimento reale che trovasse
correlazioni tra gli spin in accordo con le predizioni della meccanica quantistica poteva
facilmente essere contestato. Dopotutto, era possibile che in futuro qualcuno
sviluppasse una teoria a variabili nascoste capace di predire anch'essa con esattezza le
correlazioni di spin per differenti orientazioni dei rivelatori. A questo punto Bell fece
una scoperta sorprendente. Era possibile decidere tra le predizioni della meccanica
quantistica e quelle di qualunque teoria a variabili nascoste locale misurando le
correlazioni di coppie di elettroni per una data disposizione del rivelatori di spin e poi
ripetendo l'esperimento con una diversa orientazione. Ciò consentiva a Bell di calcolare
la correlazione totale per entrambi gli insiemi di orientazioni in termini dei singoli
risultati predetti da qualunque teoria a variabili nascoste locale. Poiché in qualunque
65<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
teoria del genere l’esito di una misurazione da parte di un rivelatore non può essere
influenzato da ciò che viene misurato dall'altro, è possibile distinguere tra variabili
nascoste e meccanica quantistica.
Bell riuscì a calcolare i limiti del grado di correlazione degli spin tra coppie di
elettroni entangled in un esperimento EPR modificato nel senso di Bohm. Trovò che nel
dominio del quanto, se vale la meccanica quantistica, c’è un livello di correlazione
maggiore che in qualsiasi mondo che dipenda da variabili nascoste e dalla località. Il
teorema di Bell affermava che nessuna teoria a variabili nascoste locale poteva
riprodurre il medesimo insieme di correlazioni della meccanica quantistica. Qualunque
teoria a variabili nascoste locale avrebbe condotto a correlazioni di spin che generavano
numeri, chiamati coefficienti di correlazione, comprese tra -2 e +2. Ma la meccanica
quantistica aveva superato ogni controllo a cui era stata sottoposta, per cui non c’era
alcun conflitto tra la teoria e l'esperimento. Per la grandissima maggioranza dei colleghi
di Bell, la disputa tra Einstein e Bohr sulla corretta interpretazione della meccanica
quantistica era di pertinenza della filosofia più che della fisica. Il teorema di Bell cambiò
questo stato di cose, consentendo di scegliere su una base sperimentale tra l'idea di
realtà locale sostenuta da Einstein, per cui il mondo quantistico esiste
indipendentemente dall'osservazione e gli effetti fisici non possono propagarsi a
velocità superiore a quella della luce, e l'interpretazione di Bohr sulla non esistenza di
un mondo quantistico ma solo sulla possibilità di una sua astratta descrizione
quantomeccanica. Bell aveva portato il dibattito Einstein-Bohr su un nuovo terreno,
quello della filosofia sperimentale. Se la disuguaglianza di Bell fosse risultata valida, la
tesi di Einstein che la meccanica quantistica fosse incompleta sarebbe stata giusta.
Viceversa, se la disuguaglianza fosse stata violata, ne sarebbe uscito vincitore Bohr.
Niente più esperimenti mentali: lo scontro tra Einstein e Bohr si era spostato in
laboratorio.
Passarono cinque anni prima che, nel 1969, Bell ricevesse una lettera da un
giovane fisico John Clauser (1942), che gli spiegava come lui e altri avessero escogitato
un esperimento per verificare la disuguaglianza. Invece di elettroni, Clauser nel suo
esperimento, aveva usato coppie di fotoni correlati, più facile da produrre in
laboratorio. Il cambiamento era possibile perchè i fotoni hanno una proprietà chiamata
polarizzazione che ai fini della verifica svolgeva lo stesso ruolo dello spin quantistico.
Sebbene questa sia una semplificazione, un fotone può essere considerato polarizzato
«su» o «giù». Proprio come nel caso degli elettroni e dello spin, se si misura la
polarizzazione di un fotone lungo la direzione x e questa risulta «su», allora quella
dell'altro risulterà «giù», dal momento che la combinazione delle polarizzazioni dei due
fotoni deve essere nulla. Dopo duecento ore di misurazioni si trovò che il livello delle
correlazioni tra i fotoni violava la disuguaglianza di Bell. Era un risultato in favore di
Bohr sull’interpretazione non locale della meccanica quantistica e contro la realtà locale
sostenuta da Einstein. Ma c'erano serie riserve sulla validità del risultato.
Come Clauser, Alain Aspect (1947), misurò la correlazione delle polarizzazioni di
coppie di fotoni entangled che si muovevano in direzioni opposte dopo essere stati
emessi simultaneamente dallo stesso atomo di calcio. Durato 8 anni e conclusosi nel
1982, l’esperimento ha rappresentato la realizzazione pratica dell’esperimento
concettuale EPR ed è stato la prima applicazione rigorosa e irrefutabile del teorema di
Bell. L’esperimento di Aspect mise in luce, per dirla con le sue parole, “la più rilevante
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
65;!
violazione della disuguaglianza di Bell mai ottenuta, e un eccellente accordo con la
meccanica quantistica”.
Bell aveva dedotto la disuguaglianza da due soli presupposti. Primo, esiste una
realtà indipendente dall'osservatore. Ciò si traduce nel fatto che una particella ha una
ben definita proprietà come lo spin prima di essere sottoposta a misurazione. Secondo,
è mantenuta la località. Non esiste alcuna interazione più veloce della luce, cosicchè ciò
che accade qui non può in alcun modo influenzare istantaneamente ciò che accade
laggiù. I risultati di Aspect significano che uno di questi presupposti deve essere
abbandonato, ma quale? Bell era disposto a rinunciare alla località, perché diceva “uno
vuole poter avere una visione realistica del mondo, poter parlare del mondo come se
fosse veramente lì, anche quando non viene osservato”. Era convinto che la teoria
quantistica fosse solo un espediente temporaneo destinato a essere alla fine sostituito da
una teoria migliore; ma ammetteva che l’esperimento di Aspect aveva dimostrato che la
visione del mondo di Einstein, l’esistenza di una realtà locale, non è sostenibile.
La lezione impartita dagli esperimenti EPR è che i sistemi quantistici sono
fondamentalmente non locali. In linea di principio, tutte le particelle che abbiano mai
interagito appartengono a una singola funzione d'onda, una funzione d'onda globale
contenente un formidabile numero di correlazioni. Si potrebbe anche prendere in
considerazione (e alcuni fisici lo fanno) una funzione d'onda che descriva l'intero
universo. In tale schema il destino di una data particella è inscindibilmente legato al
destino del cosmo intero, non banalmente nel senso che essa può essere soggetta a forze
generate dall'ambiente circostante, ma perchè la sua stessa realtà si intreccia con quella
del resto dell'universo. Il paradosso EPR ha reso più profonda la comprensione della
meccanica quantistica mettendo in evidenza le caratteristiche fondamentalmente non
classiche del processo di misura. Prima della pubblicazione dell'articolo di EPR, una
misura era abitualmente vista come un processo fisico di perturbazione inflitto
direttamente al sistema sotto misura. Per esempio, se si fosse misurata la posizione di
un elettrone, immaginiamoci illuminandolo con luce, cioè con un fiotto di fotoni, l'urto
dei fotoni con l'elettrone, necessario per illuminarlo e "vedere" dov'è, avrebbe così
disturbato lo stato quantomeccanico dell'elettrone, per esempio, modificandone la
velocità, producendo così incertezza sulla velocità, esemplificando così
l'indeterminazione quantomeccanica su posizione e velocità, grandezze meccaniche
necessarie a determinare l'evoluzione dello stato meccanico. Tali spiegazioni, che ancora
si incontrano in esposizioni non specialistiche, scolastiche e divulgative della meccanica
quantistica, sono completamente demistificate dall'analisi di EPR, che mostra
chiaramente come possa effettuarsi una misura su una particella senza disturbarla
direttamente, eseguendo una misura su un'altra particella distante, ma entangled
(intrecciata) con la prima.
Sono state sviluppate e stanno progredendo tecnologie che si basano
sull'entanglement quantistico (intreccio di stati quantistici). Nella crittografia
quantistica, si usano particelle entangled per trasmettere segnali che non possono essere
intercettati senza lasciare traccia dell'intercettazione avvenuta. Nella computazione
quantistica, si usano stati quantistici intrecciati (entangled) per eseguire calcoli in
parallelo, che permettono elaborazioni con velocità che non si possono raggiungere con
i computer classici.
65=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Se i modelli a variabili nascoste locali hanno perso, e la teoria quantistica come è
enunciata oggi sembra così solida, significa che torna in favore l'ipotesi di velocità
maggiori della luce? Il problema può essere analizzato partendo da un ampliamento
dell'interpretazione della fisica quantistica e del problema della misura.
13.5 Interpretazioni della meccanica quantistica
Nel 1935 Schrodinger, per evidenziare le molte problematiche legate all'estrapolazione dei concetti dal mondo microscopico dei quanti al mondo reale,
propose un famoso esperimento concettuale, subito definito il paradosso del gatto di
Schrodinger. Un gatto viene messo in una stanza, completamente isolata dall'esterno,
dove si trova un sofisticato congegno azionato da un evento puramente casuale,
l'emissione spontanea di una particella da parte di una sostanza radioattiva. Per
disgrazia del gatto, quando il nucleo radioattivo libera la particella, questa mette in
movimento un sistema articolato in grado
di rompere un recipiente contenente una
dose letale di cianuro. Non ci sarebbe
nulla di paradossale se la sorte del gatto
fosse comunque oggettivamente definita.
Invece la meccanica classica e la meccanica quantistica danno due risposte
diverse nei riguardi dello stato di salute del gatto.
In un determinato istante, da un punto di vista classico, l'animale o è
completamente vivo o è completamente morto. Da un punto di vista quantistico, invece,
i due stati potenzialmente coesistono. Poiché nell'istante considerato c'è una certa
probabilità che la particella sia stata emessa e un'equivalente probabilità che nessuna
particella sia andata ad azionare il diabolico meccanismo, il gatto, con l’intero contenuto
della scatola, considerato come un unico sistema quantistico, si trova in una
sovrapposizione di due stati, ossia in uno stato rappresentato da una simultanea
combinazione di vita e di morte. In altri termini, fino a quando non viene osservato, il
gatto è metà vivo e metà morto. L'atto della misura trasforma così la probabilità in una
certezza selezionando un risultato specifico da una gamma di possibilità. Questa
selezione produce un'improvvisa alterazione nella forma della funzione d'onda,
chiamata “collasso della funzione d’onda”, la quale influisce in maniera drastica sulla
sua successiva evoluzione. Lo stato quantico è, per così dire, ridotto dall’osservazione,
ed è chiamato riduzione dello stato quantistico o anche problema della misura quantistica.
Pertanto, quando eseguiamo una misura di un sistema quantistico la nostra conoscenza
del sistema cambia, allora la funzione d’onda si modifica (collassa) per adattarsi a
questo cambiamento. D’altra parte, l’evoluzione della funzione d’onda determina le
relative probabilità dei risultati di misurazioni future, così che il collasso ha un effetto
sul comportamento successivo del sistema.
Un sistema quantistico evolve in maniera differente se si esegue una misura
invece di lasciarlo indisturbato. In verità, lo stesso vale per un sistema classico, solo che
in meccanica quantistica questo disturbo costituisce un aspetto fondamentale,
inevitabile, irriducibile e inconoscibile, in meccanica classica è semplicemente una
caratteristica accidentale che può essere ridotta a piacere. La misura quantistica è un
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
654!
chiaro esempio di casualità verso il basso, perché qualcosa che è significativo ad un
livello macroscopico produce un mutamento fondamentale nel comportamento di
un’entità a livello microscopico.
Il collasso della funzione d'onda è fonte di parecchia perplessità fra i fisici, per
questo motivo. Fino a che un sistema quantistico non viene osservato, la sua funzione
d'onda evolve in maniera deterministica, infatti
obbedisce all’equazione di
Schrodinger. D'altro canto, quando il sistema viene esaminato da un osservatore
esterno, la funzione d'onda subisce un salto improvviso, in aperta violazione
dell'equazione di Schrodinger. Il sistema è perciò in grado di mutare nel tempo in due
modi completamente diversi: quando nessuno lo sta guardando e quando viceversa
viene osservato.
La conclusione alquanto mistica che l'osservare un sistema quantistico
interferisce con il suo comportamento indusse von Neumann a costruire un modello
matematico di un processo di misura quantistico. Egli prese in considerazione un
sistema quantistico microscopico modello, ad esempio un elettrone, accoppiato a un
certo apparato di misura, anch'esso trattato come un sistema quantistico. Il sistema
complessivo, l'elettrone più l'apparato di misura, si comporta allora come un grande e
integrato sistema quantistico chiuso, il quale soddisfa una superequazione di
Schrodinger. Da un punto di vista matematico, il fatto che il sistema trattato come un
tutto unico soddisfi tale equazione assicura che la funzione d'onda che rappresenta
l'intero sistema deve comportarsi in maniera deterministica, qualunque cosa succeda
alla parte della funzione d'onda che rappresenta l'elettrone. Era intenzione di von
Neumann scoprire in che modo la dinamica quantistica del sistema complessivo
producesse il brusco collasso della funzione d'onda dell'elettrone. Ciò che scoprì fu che
il corretto accoppiamento dell'elettrone allo strumento di misura può effettivamente
causare un collasso in quella parte della funzione d'onda concernente la nostra
descrizione dell'elettrone, ma che la funzione d'onda rappresentante il sistema
complessivo non collassa. La conclusione di questa analisi è nota come “il problema
della misura”. Questa è problematica per la ragione seguente. Se un sistema quantistico
consiste di una sovrapposizione di stati, una realtà definita può essere osservata solo se
la funzione d'onda collassa su uno dei possibili stati osservabili. Se, avendo incluso
l'osservatore stesso nella descrizione del sistema quantistico, non si verifica alcun
collasso, la teoria sembra predire che non vi è un'unica realtà.
I tentativi fatti per risolvere il paradosso quantistico rappresentato dal gatto di
Schrodinger, così come per l’esperimento EPR, sono molteplici, e che rappresentano
anche le varie interpretazioni che si possono dare della meccanica quantistica. In
particolare, le varie interpretazioni devono dare le risposte alle seguenti domande: che
cosa succede effettivamente quando, tra le molte possibilità presenti in una
sovrapposizione se ne verifica concretamente una nell’esperimento? Perché durante una
misurazione si verifica proprio la possibilità osservata e non un’altra?
L'interpretazione della meccanica quantistica è il tentativo di definire un quadro
di riferimento coerente sulle informazioni che la meccanica quantistica fornisce
riguardo al mondo fisico elementare. Nonostante la meccanica quantistica sia stata
estensivamente verificata sperimentalmente, alcune sue proprietà lasciano spazio ad
interpretazioni differenti. Le diverse interpretazioni della meccanica quantistica si
differenziano in vari punti, con la concezione indeterministica che pare più plausibile di
quella deterministica quantunque il dibattito resti aperto. Anche i concetti di realtà, di
655!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
virtualità, di commutabilità, di non località continuano a contrapporre tesi tra loro
differenti e a volte inconciliabili. L'argomento è, ad oggi, di interesse particolare
soprattutto per i filosofi della fisica ma anche per la filosofia in generale, poiché sulle
nuove frontiere della fisica si gioca anche il concetto stesso di ontologia.
Dal punto di vista filosofico due interpretazioni della fisica quantistica si
oppongono strenuamente: l'interpretazione idealistica (reale è solo il pensiero, spinta
all'estremo questa visione affermerebbe che senza l'osservatore il mondo reale non
esisterebbe, è il solipsismo), e l'interpretazione materialistica (reali sono solo le cose, la
mente non ha alcuna importanza).
Secondo l'interpretazione idealistica al momento in cui un'impressione entra
nella nostra coscienza, essa altera la funzione d'onda che descrive lo stato quantico,
perché modifica la nostra valutazione delle probabilità, per quanto riguarda le altre
impressioni che ci aspettiamo di ricevere in futuro. La coscienza umana entra in modo
inevitabile e inalterabile nella teoria. La riduzione del pacchetto d'onda, il collasso dello
stato quantico, avviene solo nel momento in cui avviene la presa di
coscienza dell'osservazione.
Secondo la più votata interpretazione materialistica il mondo subatomico, il
mondo degli elettroni, delle particelle e tutto il resto, esistono tranquillamente anche se
noi non lo osserviamo, e si comporta esattamente come ci dice la fisica quantistica. A
livello quantistico la realtà fisica non può essere definita in termini classici come si era
tentato di fare con l'esperimento EPR. La realtà è quantistica, non classica, e deve fornire
una spiegazione plausibile dell'apparenza classica. L'esperienza comune nel mondo
classico è quindi solo una piccola parte di ciò che è la realtà. In questi termini la
riduzione del pacchetto d'onda si spiega come dovuta all'equazione di Schrödinger
dell'insieme "quanto + strumento di misura", la quale genera una evoluzione molto
veloce che lascia spazio a una sola delle possibilità contenute nella funzione d'onda.
Inoltre può essere lo strumento stesso ad operare la riduzione, il collasso nell'autostato,
poiché il carattere macroscopico dello strumento favorirebbe la scomparsa degli effetti
propriamente quantistici.
Ciascuna di queste due interpretazioni contiene al suo interno delle varianti che
adesso andiamo a descrivere.
La formulazione matematicamente precisa della meccanica quantistica,
successivamente al 1927, era ormai completata, soprattutto in relazione al fatto che
Schrodinger aveva dimostrato l’equivalenza tra la sua meccanica ondulatoria e la
meccanica delle matrici di Heisenberg, e la peculiarità del comportamento dei
microsistemi rappresentava un dato acquisito. In particolare esisteva un consenso
pressoché generale su alcuni punti:
!
!
!
!
La duplice natura ondulatoria e corpuscolare di tutti i sistemi fisici;
La discontinuità dei processi naturali;
La natura fondamentalmente aleatoria dei processi fisici;
Il principio di indeterminazione
Come ovvia conseguenza di questi fatti si riconosceva anche:
! La necessità di attribuire dignità scientifica ad una teoria che non consentiva in linea
di principio previsioni certe, una richiesta irrinunciabile dal punto di vista classico,
ma alla quale si poteva al più chiedere di fornire le probabilità dei possibili esiti dei
processi fisici.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
656!
Questa situazione, come naturale e prevedibile, aprì un dibattito vivacissimo sul
vero significato del formalismo, e spinse la comunità scientifica ad interrogarsi sugli
obiettivi dell'indagine scientifica, fino a giungere a sollevare seri interrogativi circa
l'oggetto stesso della scienza, vale a dire circa la realtà e l'oggettività dei fenomeni
naturali. Il dibattito acquistò presto connotazioni filosofiche e, come vedremo, molti
fisici, ben consci dei sempre maggiori successi che la nuova teoria andava registrando e
influenzati da posizioni filosofiche positiviste e strumentaliste, giunsero ad accettare
non solo che non si potesse costruire un quadro coerente dei processi naturali, ma
addirittura che non si dovesse neppure tentare questa impresa. L'esigenza appena
menzionata veniva considerata una pretesa metafisica, una sovrastruttura estranea allo
spirito della genuina ricerca scientifica. Infine, il ruolo peculiare che gioca il processo di
osservazione all'interno del formalismo divenne oggetto di accesi dibattiti e portò alcuni
scienziati a negare che sia possibile attribuire ai costituenti microscopici una qualsiasi
proprietà o perfino una realtà oggettiva, se non in dipendenza dai processi di
osservazione a cui essi possono venire sottoposti.
Vari scienziati assunsero posizioni alquanto diversificate circa questi
fondamentali problemi, dando origine a varie interpretazioni della teoria quantistica,
delle quali le più importanti sono:
INTERPRETAZIONE DI COPENAGHEN – E’ l'interpretazione più condivisa della meccanica
quantistica, formulata da Bohr e Heisenberg durante la loro collaborazione a
Copenaghen nel 1927, che estesero l'interpretazione probabilistica della funzione
d'onda, proposta da Born ed introdussero l’idea che le misurazioni non sono una
registrazione passiva di un mondo oggettivo, ma interazioni attive in cui l’oggetto
misurato e il modo in cui lo si misura contribuiscono inseparabilmente al risultato. La
reale novità di questa interpretazione non è il fatto, d’altronde noto, che una
misurazione comporta una perturbazione di ciò che viene misurato, ma che la
misurazione definisce ciò che viene misurato. Quello che si ottiene da una misurazione
non è solo il fatto che dipende da che cosa si è scelto di misurare, ma che misurare un
certo aspetto di un sistema chiude la porta a tutte le altre cose che si potranno scoprire e
quindi limita l’informazione che potrà produrre qualsiasi misurazione futura.
In questa interpretazione abbiamo a che fare con un fenomeno quantistico, inteso
come un’entità unica che comprende sia il sistema quantistico osservato sia l’apparato
di misura classico. Quindi non ha alcun senso parlare delle caratteristiche del sistema
quantistico in sé stesso, senza specificare esplicitamente gli strumenti di misura. E ha
ancora meno senso attribuire a un sistema quantistico variabili simultaneamente
complementari come posizione o momento, in quanto gli apparati necessari per
determinarli si escludono reciprocamente. Nell’interpretazione di Copenaghen, la
funzione d’onda è solo il nostro modo di rappresentarci quella parte della nostra
conoscenza della storia di un sistema, la quale è necessaria per calcolare future
probabilità di specifici risultati di misure. Pertanto, il processo di misura estrae
casualmente una tra le molte possibilità permesse dalla funzione d'onda che descrive lo
stato. Per conoscere in quale stato si trovi il gatto occorre "osservare", "misurare",
effettuare cioè la sola operazione che secondo la meccanica quantistica potrà stabilire la
buona o la cattiva sorte del gatto. In base a questa logica, il destino del gatto è
determinato solo nell'istante in cui l'osservatore decide di aprire la stanza, perché è
allora che o l'uno o l'altro dei due stati, prima entrambi potenzialmente presenti al 50%,
è reso reale.
657!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
INTERPRETAZIONE DI COPENAGHEN
Quando in un sistema fisico possono accadere cose diverse, allora per ognuna di esse ci
sarà un’ampiezza e lo stato totale del sistema sarà dato dalla somma, o sovrapposizione, di
tutte queste ampiezze. Quando viene effettuata un’osservazione, si troverà un valore
corrispondente ad una di queste ampiezze e le ampiezze escluse scompariranno.
In fisica classica non vi sono limitazioni di principio alla misurazione delle
caratteristiche di un sistema fisico: per esempio ad ogni istante possiamo misurare la
posizione di un certo oggetto in movimento, la sua velocità, la sua energia, eccetera.
Non è così nella meccanica quantistica: gli oggetti "quantistici" (atomi, elettroni, quanti
di luce, ecc.) si trovano in certi "stati" indefiniti, descritti da certe entità matematiche
(come la "funzione d'onda" di Schrödinger). Soltanto all'atto della misurazione fisica si
può ottenere un valore reale; ma finché la misura non viene effettuata, l'oggetto
quantistico rimane in uno stato che è "oggettivamente indefinito", sebbene sia
matematicamente definito: esso descrive solo una "potenzialità" dell'oggetto o del
sistema fisico in esame, ovvero contiene l'informazione relativa ad una "rosa" di valori
possibili, ciascuno con la sua probabilità di divenire reale ed oggettivo all'atto della
misura. Se la realtà non esiste in assenza dell’osservazione, un oggetto microfisico non
ha proprietà intrinseche, per cui un elettrone semplicemente non esiste da nessuna
parte finchè non viene effettuata una misurazione per localizzarlo. Poiché la meccanica
quantistica non dice nulla su una realtà fisica che esista indipendentemente dal
dispositivo di misura, soltanto nell’atto della misurazione l’elettrone diventa reale. Un
elettrone non osservato non esiste. Per Bohr lo scopo della fisica non è quello di scoprire
com’è fatta la natura, ma ciò che possiamo dire sulla natura. A differenza di Einstein,
secondo il quale lo scopo della fisica è quello di afferrare la realtà com’è
indipendentemente dall’osservazione, per Bohr il mondo microfisico è un mondo di
possibilità e di potenzialità piuttosto che un mondo di cose o di fatti. La transizione dal
possibile al reale ha luogo solo in seguito all’atto dell’osservazione. Non c’è nessuna
realtà quantistica sottostante che esiste indipendentemente dall’osservatore.
In definitiva: gli oggetti quantistici si trovano in certi stati che non sono sempre
dotati di valore definito delle osservabili prima della misura, infatti è l'osservatore che
costringe la natura a rivelarsi in uno dei possibili valori, e questo è determinato
dall'osservazione stessa, cioè non esiste prima che avvenga la misurazione.
Per introdurre una definizione apparentemente audace, le caratteristiche reali ed
oggettive del sistema fisico sono definite solo quando vengono misurate, e quindi sono
"create" in parte dall'atto dell'osservazione. Come dice Heisenberg: “Ciò che osserviamo
non è la natura in sé stessa ma la natura esposta ai nostri metodi di indagine”.
L’osservatore decide come predisporre il dispositivo di misura e la soluzione
adottata determina, almeno in parte, le proprietà dell’oggetto osservato. Se viene
modificato il dispositivo sperimentale, le proprietà dell’oggetto cambieranno a loro
volta. Nella fisica atomica, quindi, lo scienziato non può assumere il ruolo di
osservatore distaccato e obiettivo, ma viene coinvolto nel mondo che osserva fino al
punto di influire sulle proprietà degli oggetti osservati. Wheeler considera questo
coinvolgimento dell’osservatore come l’aspetto più importante della meccanica
quantistica e ha quindi suggerito di sostituire il termine “osservatore” con
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
658!
“partecipatore”, e pertanto, in un certo qual modo, l’universo è un universo
partecipatorio.
La meccanica quantistica, secondo l’interpretazione di Copenaghen, introduce
due elementi nuovi ed inaspettati rispetto alla fisica classica. Il primo elemento
inaspettato è la violazione dell'oggettività. Il secondo è l'indeterminazione, che
rappresenta un'inaspettata violazione della perfetta intelligibilità deterministica.
Entrambi gli elementi sono estranei alla mentalità della fisica classica, cioè rispetto a
quella concezione ideale (galileiana, newtoniana e perfino einsteiniana) che pretende
che l'universo sia perfettamente oggettivo ed intelligibile.
- Ogni teoria scientifica moderna richiede almeno una
descrizione strumentalista che ne correli il formalismo matematico alla pratica
sperimentale e alle predizioni. Nel caso della meccanica quantistica, la descrizione
strumentalista più comune è un'asserzione di regolarità statistica tra i processi di
preparazione dello stato e i processi di misura. In sostanza, se una misura di una
quantità rappresentata da un numero reale è eseguita più volte, ogni volta partendo
dallo stesso stato iniziale, il risultato è una distribuzione di probabilità sui numeri reali;
inoltre, la meccanica quantistica fornisce uno strumento computazionale per
determinare le proprietà statistiche di questa distribuzione, ad esempio il suo valore
atteso. La mera descrizione strumentalista è talvolta definita, impropriamente, come
un'interpretazione. Questa accezione è però abbastanza fuorviante dal momento che lo
strumentalismo evita esplicitamente ogni scopo interpretativo, ovvero non tenta di
rispondere alla domanda su quale sia il significato della meccanica quantistica.
INTERPRETAZIONE STRUMENTALISTA
– E’ un'interpretazione che può essere definita minimalista,
ovvero che fa uso del minimo numero di elementi da associare al formalismo
matematico. In sostanza, è un'estensione dell'interpretazione statistica di Born.
L'interpretazione afferma che la funzione d'onda non si applica ad un sistema
individuale, ad esempio una singola particella, ma è un valore matematico astratto, di
natura statistica, applicabile ad un insieme di sistemi o particelle. Probabilmente, il più
importante sostenitore di questa interpretazione fu Einstein: “Il tentativo di concepire
INTERPRETAZIONE STATISTICA
la descrizione quantistica teorica come la descrizione completa dei sistemi individuali
porta a interpretazioni teoriche innaturali, che diventano immediatamente non
necessarie se si accetta che l'interpretazione si riferisca ad insiemi di sistemi e non a
sistemi individuali”.
– Secondo questa interpretazione, proposta da Eugene
Wigner (1902-1995; Premio Nobel), la coscienza, o la mente, dell’osservatore (o del
gatto?) del fenomeno sarebbe all'origine del collasso della funzione d'onda: “E’
COSCIENZA CAUSA DEL COLLASSO
l’ingresso di un’impressione nella nostra coscienza che altera la funzione d’onda … la
coscienza entra nella teoria in maniera inevitabile e inalterabile”
In una derivata di questa interpretazione, ad esempio, la coscienza e gli oggetti
sono in entanglement e non possono essere considerati distinti. La teoria può essere
considerata come un'appendice speculativa alla maggior parte delle interpretazioni.
Molti fisici la considerano non-scientifica, affermando che non sarebbe verificabile e che
introdurrebbe nella fisica elementi non necessari, mentre i fautori della teoria replicano
che la questione se la mente in fisica sia o meno necessaria rimane aperta.
DELLE STORIE QUANTISTICHE CONSISTENTI - Generalizza la convenzionale
interpretazione di Copenaghen e tenta di fornire un'interpretazione naturale della
TEORIA
659!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
cosmologia quantistica. La teoria è basata su un criterio di consistenza che permette
quindi di descrivere un sistema in modo che le probabilità di ciascuna storia
obbediscano al terzo assioma (di additività) del calcolo delle probabilità. Secondo
questa interpretazione, lo scopo di una teoria in meccanica quantistica è il predire le
probabilità relative alle diverse storie.
- Differiscono dall'interpretazione di Copenaghen nel
considerare sia la funzione d'onda sia il processo del collasso come ontologicamente
oggettivi. Nelle teorie oggettive, il collasso avviene casualmente (localizzazione
spontanea) o quando vengono raggiunte alcune soglie fisiche, mentre gli osservatori non
hanno un ruolo particolare. Sono quindi teorie realiste, non deterministiche e prive di
variabili nascoste. Il procedimento del collasso non è normalmente specificato dalla
meccanica quantistica, che necessiterebbe di essere estesa se questo approccio fosse
corretto; l'entità oggettiva del collasso è quindi più una teoria che un'interpretazione.
Tra i fautori di questa teoria vi è Penrose.
TEORIE OGGETTIVE DEL COLLASSO
- In questa interpretazione tutte le ramificazioni della
funzione d’onda esistono nello stesso tempo, motivo per cui viene asserito che non
avviene alcun collasso della funzione d’onda, per cui viene rifiutato l'irreversibile e non
deterministico collasso della funzione d'onda associato all'operazione di misura
nell'interpretazione di Copenaghen, in favore di una descrizione in termini di
entanglement quantistico e di un'evoluzione reversibile degli stati.
I fenomeni associati alla misura sono descritti dalla decoerenza quantistica che si
verifica quando un sistema interagisce con l'ambiente in cui si trova, o qualsiasi altro
sistema complesso esterno, in un modo termodinamicamente irreversibile tale che i
differenti elementi nella funzione d'onda di sistema e ambiente non possano più
interferire tra loro. Secondo questa interpretazione, tutti i mondi quantici sovrapposti
sono ugualmente reali. L’atto della misura fa sì che l’intero universo si scinda nelle
varie possibilità quantiche (gatto vivo e gatto morto). Queste realtà parallele coesistono,
ciascuna di esse abitata da una diversa copia dell’osservatore cosciente.
Questa interpretazione, dovuta a Hugh
Everett (1930-1982), presuppone, quindi, che lo stato
quantistico sia sempre una rappresentazione
completa della realtà, e che in una misurazione
niente vada perduto, il gatto è sia vivo che morto, e
quindi ciascuna possibilità si realizza comunque, nel
proprio universo, quando si esegue la misurazione.
Così, con ogni misurazione, con ogni osservazione,
l’universo si divide in più universi, e in ognuno di questi si realizza una delle possibilità
previste dalla fisica quantistica. Secondo questa interpretazione, quando l’universo si
divide in due copie (gatto vivo e gatto morto, particella attraverso la fenditura A e B), in
ognuna delle quali avviene uno dei due eventi, questo accade anche alla nostra
coscienza, che in un universo una copia constaterà il gatto vivo o la particella attraverso
A, e nell’altro universo la seconda copia constaterà il gatto morto o la particella
attraverso la fenditura B. Il concreto “io”, la mia consapevolezza, è hic et nunc in uno
stato ben definito e quindi può essere trovato in una certa ramificazione dell’universo,
in quello in cui solo uno, vale a dire uno particolare dei possibili risultati di uno
specifico processo di misura individuale può essere realizzato.
INTERPRETAZIONE A MOLTI MONDI
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
65:!
L'interpretazione a molti mondi consentiva di aggirare un problema per il quale
l'interpretazione di Copenaghen non aveva alcuna soluzione: quale atto di osservazione
poteva mai causare il collasso della funzione d'onda dell'intero universo?
L'interpretazione di Copenaghen richiede che vi sia un osservatore all'esterno
dell'universo, ma siccome non ce ne sono, la-sciando da parte Dio, l'universo non
dovrebbe mai cominciare a esistere, ma dovrebbe rimanere per sempre in una
sovrapposizione di molte possibilità. L'equazione di Schrodinger che descrive la realtà
quantistica come una sovrapposizione di possibilità, e assegna un ventaglio di
probabilità a ogni possibilità, non include l'atto della misurazione. Non ci sono
osservatori nella matematica della meccanica quantistica. La teoria non dice nulla sul
collasso della funzione d'onda, l'improvviso e discontinuo cambiamento dello stato di
un sistema quantistico che segue a un osservazione o a una misurazione, quando il
possibile diventa reale. Nell'interpretazione a molti mondi di Everett non c'era alcun
bisogno di un'osservazione o una misurazione per determinare il collasso della
funzione d'onda, dal momento che ogni possibilità quantistica, nessuna esclusa, coesiste
come una realtà effettiva in una gamma di universi paralleli.
L’interpretazione dei molti mondi è tuttavia fondamentalmente incapace di
prevedere in quale ramificazione posso fare esperienza di ritrovarmi. L’asserzione che
l’osservatore coesiste in molti stati differenti è intrinsecamente non verificabile. La più
seria critica che si può avanzare deriva dall’adozione del principio noto come il rasoio
di Occam: "entia non sunt multiplicanda sine necessitate" (Non bisogna aumentare senza
necessità gli elementi della questione), o "pluralitas non est ponenda praeter necessitatem"
(non si deve imporre la pluralità oltre il necessario). E, nell’interpretazione in esame, la
moltiplicazione degli enti risulta addirittura infinita. Va riconosciuto che in anni recenti
questa interpretazione ha suscitato l’interesse di grandi fisici come Stephen Hawking e
Murray Gell-Mann. L’idea dei molti mondi, per quanto peculiare e strana possa
sembrare, ha una sua logica ed un suo fascino, che deriva anche dai molti esempi
letterari in cui una visione di questo tipo è stata adombrata. Uno degli esempi più belli è
costituito dal racconto Il giardino dei sentieri che si biforcano di Borges.
- Non spiega il collasso della funzione d'onda, piuttosto spiega
le evidenze del collasso. La natura quantistica del sistema è semplicemente dispersa
nell'ambiente in modo che continui ad esistere una totale sovrapposizione della
funzione d'onda, ma che rimanga al di là di ciò che è misurabile. La decoerenza quindi,
come interpretazione filosofica, equivale a qualcosa di simile alla interpretazione a
molti mondi, ma possiede il vantaggio di essere supportata da un dettagliato e
plausibile contesto matematico, l’approccio è quindi uno dei più condivisi tra i fisici
odierni.
DECOERENZA QUANTISTICA
– E’ stata elaborata da
David. Z. Albert e Barry Loewer, ed estende
l'interpretazione a molti mondi, proponendo che la
distinzione tra i mondi debba essere compiuta al livello
della mente di un osservatore individuale. L'idea può,
molto schematicamente, esprimersi dicendo che anziché
un'infinità di mondi e quindi un'infinità di copie di ogni
osservatore cosciente, si considera un solo mondo e un
solo esempio di ogni osservatore, ma lo si dota di un'infinità di menti (o una mente
strutturata in infiniti fogli), ciascuna delle quali percepisce uno diverso degli esiti di
INTERPRETAZIONE A MOLTE MENTI
66<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
ogni processo in cui possono darsi esiti percettivamente diversi. Ossia, ciascuno dei
termini della funzione d’onda che corrisponde a una situazione percettivamente diversa
si correli ad un diverso strato percettivo nella mente di tutti noi. Con riferimento a
questo schema potrebbe dirsi che mentre nell'interpretazione a molti mondi si danno
tutti gli eventi possibili in quella a molte menti si danno tutte le percezioni possibili.
Ovviamente, per garantire l'accordo intrasoggettivo, si dovrà ammettere che i vari fogli
delle menti di tutti gli esseri percepienti siano in qualche modo sincronizzati così che se
due persone assistono allo stesso processo fisico associato a stati percettivamente
diversi (per esempio alla sovrapposizione dello stato "gatto vivo" e “gatto morto”, allora
la "mente"), allora la mente di quello dei due che acquista coscienza di aver percepito il
"gatto vivo” deve essere sincronizzata (cioè nello stesso termine della sovrapposizione)
con quella dell'altro osservatore.
– E’ un'interpretazione postulata da D. Bohm nella quale
l'esistenza di una funzione d'onda universale e non locale permette a particelle lontane
di interagire istantaneamente. L'interpretazione generalizza la teoria di de Broglie del
1927 che afferma che sia l'onda sia la particella sono reali. La funzione d'onda guida il
moto della particella ed evolve in base all'equazione di Schrödinger. L'interpretazione
assume un singolo universo, che non si dirama come nell'interpretazione a molti mondi,
ed è deterministico, a differenza di quanto previsto dall'interpretazione di Copenaghen.
L'interpretazione di Bohm asserisce che lo stato dell'universo evolve linearmente nel
tempo, senza prevedere il collasso delle funzioni d'onda all'atto di una misurazione,
previsto invece dall'interpretazione di Copenaghen. In questa interpretazione, si
assume comunque l'esistenza di un certo numero di variabili nascoste, rappresentanti le
posizioni di tutte le particelle nell'universo le quali, come le probabilità in altre
interpretazioni, non possono mai essere misurate direttamente. Una teoria
deterministica a variabili nascoste, quindi, è semplicemente un modo per superare la
natura aleatoria della fisica quantistica. E l’idea di base è che ogni particella abbia una
serie di proprietà supplementari che determinano davvero la direzione in cui va, come
si comporta quando incontra un polarizzatore, se fa scattare o mneo un rilevatore.
Queste proprietà addizionali sono chiamate variabili nascoste, perché assumiamo di
non poterle osservare direttamente. Esse decrivono il comportamento di un sistema di
molte particelle, e quindi possiamo solo osservare le conseguenze indirette della loro
esistenza. In altre parole, se prendessimo un insieme numeroso di particelle che
provengono dalla sorgente, i valori delle variabili nascoste potrebbero essere distribuiti
in questo gruppo in molti modi diversi, tuttavia il comportamento di ogni singola
particella sarebbe ben definito dalla sua specifica variabile nascosta.
INTERPRETAZIONE DI BOHM
– Mentre l’interpretazione a molti mondi
considera fondamentale la sovrapposizione quantistica e afferma che tutti i rami di una
sovrapposizione esistono sempre, quella di Bohm assume una posizione opposta, cioè
tutte queste sovrapposizioni non esistono. Ci sono anche teorie, come quella della
riduzione spontanea dello stato quantistico, che accettano l’esistenza delle
sovrapposizioni, limitandole, però, al mondo microscopico. In questo caso è necessario
introdurre un meccanismo, la decoerenza, che avviene quando il sistema porta
nell’ambiente informazioni sullo stato in cui si trova, che spieghi le sovrapposizioni per
il mondo quantistico e che scompaiano per i sistemi macroscopici (vedi il gatto).
Nel caso del gatto le fonti di decoerenza sono numerose, come gli scambi di
calore con l’ambiente esterno, che provocano la rottura della coerenza per i suoi stati
RIDUZIONE SPONTANEA DELLO STATO QUANTISTICO
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
66;!
quantistici. Come si può arrivare a escludere per principio le sovrapposizioni nei
sistemi macroscopici, quando la teoria quantistica non autorizza, in linea di principio,
sovrapposizioni solo per i sistemi microscopici e particelle elementari? La teoria della
riduzione spontanea dello stato quantistico, proposta da Ghirardi-Rimini-Weber, (teoria
GRW), cerca di dare una risposta, ipotizzando che le onde di probabilità, di tanto in
tanto, spariscano da sole anche senza osservazione. Dopo questa riduzione spontanea a
uno stato definito, una particella non si potrà più trovare dappertutto, ma solo in uno
spazio preciso. A questo punto, però, può ricomparire un’onda di probabilità, e il
processo si ripete.
L'idea di fondo, in sostanza, che caratterizza questa proposta può esprimersi
sinteticamente in questi termini: si assume che tutti i costituenti elementari del mondo
fisico dotati di massa (per intenderci, tutti i protoni, neutroni, elettroni e così via) oltre
ad ubbidire alla dinamica lineare di Schrodinger appropriata per il problema in esame
(e quindi che tiene conto delle forze che agiscono su di esse) subiscano, a tempi a caso e
con una certa frequenza media, dei processi spontanei di localizzazione spaziale. Questi
processi vanno intesi come fondamentali processi naturali che non sono dovuti a
interazioni con altri sistemi fisici o ad azioni deliberate da parte di osservatori coscienti.
Al contrario, l’idea è che lo spaziotempo nel quale si svolgono i processi fisici esibisca
alcuni aspetti fondamentalmente stocastici, casuali, che si traducono appunto in
localizzazioni spontanee dei microscopici costituenti dell'universo. Per spiegare i dati
sperimentali, in questa teoria si postula, senza ulteriori prove, che tale riduzione
spontanea sia tanto più frequente quanto più grosso è il sistema osservato, per cui, il
gatto di Schrodinger non potremmo mai vederlo in uno stato di sovrapposizione,
mentre per una singola particella elementare la riduzione spontanea è così rara che non
si presenta praticamente mai per tutta la durata dell’universo.
- L'idea è, seguendo la linea tracciata dalla relatività
ristretta, che differenti osservatori potrebbero dare differenti descrizioni della stessa
serie di eventi: ad esempio, ad un osservatore in un dato punto nel tempo, un sistema
può apparire in un singolo autostato, la quale funzione d'onda è collassata, mentre per
un altro osservatore, allo stesso tempo, il sistema potrebbe trovarsi in una
sovrapposizione di due o più stati. Di conseguenza, se la meccanica quantistica deve
essere una teoria completa, l'interpretazione relazionale sostiene che il concetto di stato
non sia dato dal sistema osservato in sé, ma dalla relazione tra il sistema e il suo
osservatore (o i suoi osservatori). Il vettore di stato della meccanica quantistica
convenzionale diventa quindi una descrizione della correlazione di alcuni gradi di
libertà nell'osservatore rispetto al sistema osservato. Ad ogni modo, questa
interpretazione sostiene che ciò vada applicato a tutti gli oggetti fisici, che siano o meno
coscienti o macroscopici. Ogni evento di misura è definito semplicemente come una
normale interazione fisica, ovvero l'instaurazione del tipo di relazione descritto prima.
Il significato fisico della teoria non riguarda quindi gli oggetti in sé, ma le relazioni tra
di essi.
MECCANICA QUANTISTICA RELAZIONALE
Negli anni ’40 Richard Feynman (1918-1988; Premio Nobel) ebbe
l’intuizione sorprendente riguardo alla differenza tra mondo newtoniano e mondo
quantistico. Al centro del suo interesse c’era la questione di come si forma la figura
d’interferenza nell’esperimento delle due fenditure. Secondo la fisica newtoniana ogni
particella segue un unico percorso ben definito dalla sorgente allo schermo. Viceversa,
secondo il modello quantistico, la particella non ha una posizione definita nell’intervallo
SOMMA SULLE STORIE –
66=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
di tempo in cui si trova tra il punto di partenza e quello di arrivo. Feynman si rese conto
che non è necessario interpretare questo stato di cose nel senso che le particelle non
percorrono nessuna traiettoria nel loro viaggio tra sorgente e schermo. Potrebbe invece
significare che le particelle seguono ogni possibile traiettoria che connette quei due
punti, e tutte percorse simultaneamente. In questo modo le particelle acquisiscono
informazioni su quali fenditure siano aperte: se una di esse è aperta, la particella segue
delle traiettorie che vi passano. Quando entrambe le fenditure sono aperte, le traiettorie
in cui la particella passa da una fenditura possono interagire con le traiettorie in cui essa
passa dall’altra, generando la figura d’interferenza. Feynman propose una formulazione
matematica (l’integrale sui cammini o somma sulle storie) che riflette ques’idea e
riproduce tutte le leggi della fisica quantistica. Una particella quantistica che deve
andare da A a B prova ogni percorso che connette questi due punti, e ad ogni percorso
viene associato un numero chiamato fase1. Questa fase si può rappresentare
intuitivamente come una freccia di lunghezza fissa, che si può tradurre in una
probabilità, ma che può essere orientata in qualunque direzione. Il metodo di Feynman
per il calcolo della probabilità che una particella inizialmente in A arrivi in B, prevede
che si sommino le fasi, cioè le frecce associate a ogni traiettoria che va da A a B, e il
risultato finale è una freccia risultante trasformata in probabilità.
Più in generale, l’interpretazione di Feynman ci consente di predire la probabile
evoluzione dell’intero universo. Tra lo stato iniziale e le successive misurazioni delle
sue proprietà, tali proprietà evolvono in un certo modo, che i fisici chiamano la storia
dell’universo. Così come la storia della particella è semplicemente la sua traiettoria e la
probabilità di osservare la particella arrivare in un qualsiasi punto dipende da tutte le
traiettorie che potrebbero averla portata là, così per un sistema fisico generico, o l’intero
universo, la probabilità di una qualsiasi osservazione è determinata da tutte le possibili
storie che potrebbero aver condotto a tale osservazione. L’universo, pertanto, non ha
un’unica storia, ma tutte le storie possibili, ciascuna con la propria probabilità; ha
infiniti modi di accadere che avvengono tutti contemporaneamente, ma con differenti
probabilità. Per questa ragione si parla di somma sulle storie o storie alternative.
Infine, tenendo presente il principio quantistico secondo il quale osservare (cioè
misurare) un sistema fisico comporta inevitabilmente l’alterazione del suo corso, le
nostre osservazioni sullo stato attuale dell’universo influenzano il suo passato e
determinano le sue differenti storie.
Nonostante le molte interpretazioni della meccanica quantistica, sembra tuttavia
che l’interconnessione universale delle cose e degli eventi sia una caratteristica
fondamentale della realtà atomica, e che l’universo non va visto come una collezione di
oggetti fisici separati, bensì come una complicata rete di relazioni tra le varie parti di un
tutto unificato.
1
La fase rappresenta la posizione nel ciclo di un’onda, cioè indica se l’onda è a un massimo o a un minimo o in una
qualche precisa posizione intermedia. La regola matematica di Feynman per il calcolo della fase fa sì che quando si
sommano le onde di tutte le traiettorie si ottenga l’ampiezza di probabilità che la particella, partendo da A, arrivi in
B. Il quadrato dell’ampiezza di probabilità fornisce poi l’effettiva probabilità che la particella arrivi in B.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
664!
13.6 La filosofia di fronte alla nuova fisica
Che ai fisici piacesse o meno, i filosofi professionisti non potevano certo fare a
meno di notare le strane idee introdotte nella fisica dai pionieri della meccanica
quantistica. Il prindipio d’indeterminazione entrò nella fisica in un periodo di notevole
incertezza tra i filosofi, i quali, anche nei confronti della nuova fisica, ed in particolare
nei confronti del principio di Heisenberg, avevano posizioni diverse.
Pur essendo dalla parte dei perdenti nella battaglia sulla realtà degli atomi, il
pensiero positivista sopravviveva e di fatto divenne più ambizioso nella corrente
filosofica nota come positivismo logico, che si sviluppò negli anni Venti nel circolo di
Vienna. I positivisti logici proposero di costruire una sorta di calcolo filosofico per la
scienza stessa. Partendo dai dati e dai fatti empirici, il loro sisterna avrebbe mostrato
come creare teorie rigorosamente fondate in grado di resistere all’analisi filosofica più
severa. Se la scienza si fosse potuta rendere logicamente infallibile, la sua credibilità
sarebbe stata indiscutibile. Mach e i vecchi positivisti erano convinti che le teorie fossero
solo sistemi di relazioni quantitative tra fenomeni misurabili; non indicarono la strada
verso qualche verità segreta relativa alla natura. I positivisti logici, in generale,
condividevano tale convinzione, però sostenevano che se la scienza non poteva aspirare
al significato profondo, poteva almeno sperare di diventare attendibile. E ciò significava
che il linguaggio della scienza andava scritto in termini di logica pura, verificabile. Le
opere dei positivisti di quest'epoca sono incredibilmente piene di formule della logica
simbolica e di equazioni probabilistiche, destinate a convincere il lettore che esiste un
calcolo per stabilire l’attendibilità di una teoria. Ma tale procedura non si è dimostrata
infallibile come avevano sperato i suoi autori. Infatti, Carl Hempel (1905-1997), un
membro del circolo di Vienna, per dimostrare i limiti del procedimento logico induttivo
(l’acquisizione di un nuovo riscontro empirico di una teoria renda più probabile che
questa teoria sia vera), prese ad esempio la teoria che tutti i corvi siano neri per trarne
conclusioni di paradosso. Esaminando ad uno ad uno un milione di corvi, notiamo
infallibilmente ed invariabilmente che essi sono tutti neri. Dopo ogni osservazione,
perciò, la teoria che tutti i corvi siano neri diviene ai nostri occhi sempre più
probabilmente vera, coerentemente col principio induttivo. Pare ogni volta sempre più
corretto registrare l'assunto come probabilmente vero: tutti i corvi sono neri. Ma
l'assunto "i corvi sono tutti neri" è logicamente equivalente all'assunto "tutte le cose che
non sono nere, non sono corvi". In base al principio induttivo, d'altra parte, questo
secondo enunciato diventerebbe più probabilmente vero in seguito all'osservazione di
una mela rossa: osserveremmo, infatti, una cosa non nera che non è un corvo. Perciò,
l'osservazione di una mela rossa renderebbe più probabilmente vero anche l'assunto che
"tutti i corvi sono neri". Può darsi che sia logicamente inevitabile, ma non somiglia
neanche lontanamente al modo di procedere della scienza.
Il progetto del positivismo logico, in un certo senso un’applicazione del pensiero
deterministico dell’Ottocento, prese l’avvio proprio quando i fisici si stavano
sbarazzando del determinismo nel proprio settore. Alcuni filosofi, già convinti che la
ricerca di un resoconto oggettivo della natura fosse un'illusione, interpretarono il
principio di Heisenberg come una prova del fatto che la scienza stessa ora aveva
confermato i loro sospetti. Non aveva più senso, quindi, discutere del significato delle
teorie scientifiche in funzione della loro relazione con qualche presunto mondo di fatti.
La cosa interessante era invece riflettere su come gli scienziati arrivano a un accordo
665!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
sulle loro teorie, su quali convinzioni e pregiudizi li guidano, sul modo in cui la
comunità scientifica costringe sottilmente a rispettare l'opinione prevalente e così via. I
filosofi più tradizionali, d'altro canto, continuavano a essere convinti che una
descrizione razionale del mondo fisico non fosse un obiettivo tanto irragionevole. Per
questi filosofi, il principio di indeterminazione fu davvero una brutta notizia. Karl
Popper, che prenderemo in considerazione nel capitolo 17, ne La logica della scoperta
scientifica (1934), diede il colpo di grazia al vivo desiderio del positivismo logico di poter
dimostrare la verità delle teorie e introdusse il concetto che è possibile soltanto
dimostrarne la falsità. Le teorie diventano via via più credibili, sostenne, a ogni prova
che superano, ma, indipendentemente da questi successi, possono sempre essere
confutate da qualche nuovo esperimento; non possono mai guadagnarsi una garanzia
di correttezza. La scienza costruisce un quadro della natura sempre più completo, ma
anche le più preziose leggi della scienza continuano a essere soggette a revoca, se le
prove dovessero richiederlo.
Data l'importanza che attribuiva alla capacità di verificare le teorie, Popper fu
obbligato ad affermare che gli esperimenti producono sempre risposte coerenti,
oggettivamente attendibili. Forse l'inattendibilità della teoria era inestirpabile, ma la
scienza empirica doveva essere assolutamente affidabile. E a questo proposito si
scontrò, uscendone sconfitto, con il principio di Heisenberg, secondo il quale la somma
di tutti i test immaginabili di un certo sistema quantistico non produce necessariamente
un insieme di risultati coerenti. Affinchè la sua analisi filosofica potesse funzionare,
Popper era convinto di aver bisogno della vecchia idea di casualità, ossia una certa
azione produce sempre, in un modo totalmente prevedibile, un certo risultato. La
risposta di Popper alla meccanica quantistica era semplice, producendo il risultato che
Heisenberg certamente era in errore. Nell'edizione originale tedesca de La logica della
scoperta scientifica, Popper fece la dubbia affermazione che la meccanica quantistica
poteva essere corretta anche se fosse stato possibile realizzare un esperimento per
confutare il principio di indeterminazione e descrisse un esperimento di sua invenzione.
Questo accadde un anno prima della pubblicazione dell'articolo EPR. La traduzione
inglese de La logica della scoperta scientifica fu pubblicata solo nel 1959; nelle appendici
era riportata una lettera scritta nientemeno che da Einstein, che, pur condividendo il
desiderio di eludere le sgradevoli implicazioni della meccanica quantistica, affermava
che l’esperimento proposto da Popper non sarebbe servito allo scopo.
Uno dei pochi filosofi contemporanei che presero sul serio le concezioni dei fisici
fu Moritz Schlick (1882-1936), che dopo aver conseguito un dottorato in fisica sotto la
guida di Max Planck era stato uno dei fondatori del circolo di Vienna. Schlick ebbe
un'intensa corrispondenza con Heisenberg per scoprire che cosa significasse realmente
il principio di indeterminazione e nel 1931 scrisse un saggio illuminante, Causality in
Contemporary Physics (La causalità nella fisica contemporanea), in cui sostenne che non
tutto era perduto. Analizzando nei dettagli il concetto classico di causalità, concluse che
si trattava non tanto di un principio logico preciso quanto di una direttiva o una
convinzione che gli scienziati usavano come guida nel costruire le teorie. Il significato
dell'incertezza, sostenne Schlick, e che disturba solo in parte la capacità dello scienziato
di formulare previsioni. Nella meccanica quantistica, un evento può portare a una gran
varietà di risultati distinguibili, ciascuno con una probabilità calcolabile. Ciò
nondimeno, la fisica consiste ancora di regole relative a sequenze di eventi: accade
qualcosa, che prepara la scena per qualcos' altro, poi, a seconda del risultato, entrano in
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
666!
gioco altre possibilità. Questo è uno scenario basato su connessioni causali, disse
Schlick, a parte il fatto che la casualità è diventata probabilistica. Il fatto che le cose
possano avvenire spontaneamente non significa che in ogni momento possa accadere
qualsiasi cosa. Vi sono ancora regole. La descrizione di Schlick offre una sorta di
compromesso filosofico affine per significato allo spirito di Copenaghen promosso da
Bohr. La forza dell'analisi di Schlick stava nel fatto che offriva un vago principio per
capire come avrebbe potuto continuare a funzionare la fisica.
Per la maggior parte dei filosofi, però, la vaghezza è inaccettabile. Al giorno
d'oggi, i filosofi che si avventurano a scrivere su questioni tecniche della meccanica
quantistica in generale sembrano voler far sparire l'interpretazione di Copenaghen e
mostrano invece una notevole simpatia per l'interpretazione di Bohm della meccanica
quantistica, che, come abbiamo già avuto modo di vedere, ristabilisce il determinismo
per mezzo delle cosiddette variabili nascoste che determinano in anticipo quale sarà il
risultato delle misurazioni. Certi filosofi dichiarano di trovare tale interpretazione molto
soddisfacente, anche se hanno difficoltà a spiegare perchè. Einstein, tra gli altri, non
rimase favorevolmente colpito dalla natura artificiosa della rielaborazione di Bohm
della meccanica quantistica, facendogli affermare che: “Mi sembra una soluzione troppo
a buon mercato”. In definitiva, pochi filosofi, nel frattempo, hanno seguito l'esempio di
Schlick cercando di prendere per vera l'interpretazione di Copenaghen in modo da
valutarne i meriti e le difficoltà.
13.7 Fondamento filosofico della meccanica quantistica
Perché ancora oggi fisici e filosofi sono così affascinati dalla meccanica
quantistica? La risposta sta nel fatto che questa nuova fisica prevede un comportamento
delle particelle a livello microscopico che contraddice il nostro modo comune di
interpretare la realtà, e i suoi "paradossi" sembrano mostrare i limiti della consueta
concezione oggettiva e materialistica dell'universo. Inoltre, ha introdotto una
sostanziale modificazione alla teoria epistemologica sulla relazione esistente fra
l’osservatore (lo sperimentatore) e l’oggetto della sua conoscenza scientifica.
La tradizione scientifica e filosofica, che si è fissata anche nel linguaggio comune,
ha determinato un certo tipo di spiegazione che è la spiegazione causale. Per essa, un
oggetto risulta spiegato qualora se ne può assegnare la causa. La risposta al perché di
un oggetto indica la causa dell'oggetto stesso. La causa è ciò che, se si verifica,
necessariamente si verifica l'oggetto di cui è causa. Essa è quindi il fattore di
quest’oggetto, nel senso che infallibilmente lo produce o lo pone in essere. Poiché, data
la causa, l’effetto segue necessariamente, il verificarsi dell'effetto è perfettamente
prevedibile. La spiegazione causale rende perciò infallibilmente prevedibili gli oggetti
ai quali si applica. La causa viene intesa, in tali spiegazioni, come una forza attiva che
produce immancabilmente l’oggetto sì che questo non può non verificarsi. Quindi, nella
fisica classica c'e, in accordo col senso comune, un mondo obiettivo esterno che evolve
in modo chiaro e deterministico, ed è governato da equazioni matematiche ben precise.
Questo vale per le teorie di Maxwell e di Einstein come per la meccanica di
Newton. Si ritiene, secondo questo schema d’indagine, che la realtà fisica esista
indipendentemente da noi, e come sia esattamente il mondo fisico non dipende dal
nostro criterio di osservazione. Inoltre, il nostro corpo e il nostro cervello fanno parte
667!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
anch'essi di tale mondo. Anch'essi si evolverebbero secondo le stesse equazioni
classiche precise e deterministiche. Tutte le nostre azioni devono essere fissate da queste
equazioni, per quanto noi possiamo pensare che il nostro comportamento sia
influenzato dalla nostra volontà cosciente.
Pertanto, la spiegazione causale poggia su due capisaldi ben precisi:
1. La causa è un fattore produttivo irresistibile, al quale l’effetto segue
necessariamente;
2. Per conseguenza, data la causa, l’effetto è infallibilmente prevedibile.
Questi due aspetti della spiegazione causale costituirono le caratteristiche
fondamentali della scienza fino alla fine del XIX secolo. Essi erano il fondamento di ciò
che si soleva chiamare “la necessità delle leggi di natura”. Un tale quadro sembrava
costituire lo sfondo delle argomentazioni filosofiche più serie sulla natura della realtà,
delle nostre percezioni coscienti e del nostro apparente libero arbitrio. Ma la fisica
quantistica, quel sistema fondamentale ma sconvolgente sorto nei primi decenni del XX
secolo, ha smentito l’ideale causale rimasto saldo per millenni, proponendo una scienza
che si occupa di corpi che non sembrano essere soggetti al determinismo e non
sembrano obbedire a leggi rigorose. La previsione infallibile non è possibile, non per
una imperfezione dei mezzi di osservazione e di calcolo in possesso dell’uomo, ma
perché questi stessi mezzi influiscono imprevedibilmente sui fatti osservati.
La teoria quantistica non è in grado di determinare con precisione il
comportamento di una particella atomica, per esempio di un elettrone; essa può
soltanto effettuare una previsione statistica circa il suo movimento in determinate
condizioni. L'elettrone sembra non essere soggetto a leggi rigorosamente
deterministiche, appare dotato di una sorta di "capacità di scelta" tra vari percorsi
possibili. Questa caduta del determinismo mise in difficoltà l'ideale di scienza che aveva
dominato sin da Aristotele, ideale secondo il quale la scienza è conoscenza
dell'universale e si esprime secondo leggi che non ammettono eccezioni; proprio per
questo motivo, grandi scienziati come Einstein, Planck e Schrodinger si rifiutarono di
ammettere che la nuova fisica fosse una teoria scientifica completa, definitiva, non
superabile da una ulteriore teoria atomistica che ripristinasse il determinismo degli
eventi naturali. Questi critici finirono però per essere tacitati dai crescenti successi della
meccanica quantistica e si affermò, dell'indeterminismo atomistico, un'interpretazione
che si fondava sulle concezioni di Heisenberg.
Per Heisenberg i gravi problemi interpretativi che si associavano alla meccanica
quantistica dipendevano dall'abitudine a usare immagini ricavate dal mondo
dell'esperienza macroscopica per rappresentare gli oggetti del mondo atomico, come
quando si rappresenta un elettrone rotante attorno a un nucleo atomico usando
l'analogia di un satellite che gira attorno a un pianeta. Che senso ha parlare allora di
grandezze delle orbite o di forma delle orbite quando queste sono al di là di ogni
esperienza possibile? Dal punto di vista scientifico, nessuno. Meglio allora rinunciare a
ogni visualizzazione, a ogni rappresentazione modellistica degli oggetti atomici per
limitarsi a trattare teoricamente solo di quei dati circa tali oggetti che l'esperienza ci
consente di raccogliere.
Dal punto di vista filosofico l'idea non è nuova; sostanzialmente era la
concezione della filosofia pragmatista che era stata posta a base della teoria della
relatività. Ma, assunta a fondamento della nuova meccanica, e spinta, fin dove era
possibile, alle conseguenze logiche, essa contribuì potentemente a far rivivere le teorie
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
668!
pragmatiche della conoscenza scientifica di Mach e di Ostwald, conquistando
rapidamente vive simpatie di moltissimi scienziati e filosofi. Come già i pragmatisti del
XX secolo si opposero alla teoria atomistica, considerandola una concezione rozza e
ingenua, così la nuova scuola dichiara che alla radice della crisi della fisica sta
l'immagine ingenua di rappresentarsi l'elettrone come un corpuscolo, come il punto
materiale della meccanica classica.
Heisenberg crede di superare il dissidio onda-corpuscolo attribuendo ai due
concetti soltanto il valore di analogia e accontentandosi di dire che “l'insieme dei
fenomeni atomici non è immediatamente descrivibile nella nostra lingua”. Dobbiamo
rinunciare al concetto di punto materiale esattamente localizzato nello spazio e nel
tempo. La fisica, spoglia di ogni attributo metafisico, può dare di un corpuscolo o
l'esatta posizione nello spazio e una completa indeterminazione nel tempo o un'esatta
posizione nel tempo e la completa indeterminazione nello spazio.
Più intuitivamente si suole dire che il principio fondamentale della meccanica
quantica, cioè il principio d’indeterminazione, parte dalla constatazione che ogni
strumento o metodo di misura altera la grandezza che si vuole misurare e la altera in un
modo non esattamente prevedibile. La verità che gli strumenti alterino la grandezza che
si vuole misurare era cosa notissima alla fisica classica, quasi banale. Ma si sapeva
anche che affinando gli strumenti l'errore si poteva diminuire e, quindi, al limite, si
poteva pensare, per le costruzioni teoriche, a una misura priva di errore. Ebbene, gli
indeterministi moderni negano la legittimità di codesto passaggio al limite. Noi non
possiamo dire che l'errore si può considerare nullo, se contemporaneamente non
diciamo quale o almeno quale potrebbe essere la via sperimentale per ottenere una
determinazione priva di errore. E siccome questa via sperimentale non c'e, noi, se
vogliamo attenerci ai fatti e non ai pregiudizi, dobbiamo dire che nessuna grandezza
fisica è esattamente misurabile , se non a scapito dell’assoluta indeterminazione di
un'altra grandezza a essa coniugata.
È il disturbo provocato dagli apparati di misura sulle particelle a impedire di
conoscere le coordinate canoniche, è l'interazione tra oggetto e apparato di osservazione
a generare un comportamento apparentemente indeterministico degli oggetti
microscopici. Difatti, l’energia impiegata nell’osservazione (per esempio un fotone) non
può scendere al di sotto di una certa quantità minima (il quanto di energia) e questa
basta già a modificare il fenomeno osservato. La quantizzazione dell'energia
rappresentava una brusca rottura con la millenaria convinzione circa la sostanziale
continuità dei processi naturali. L'antica massima secondo cui "la natura non fa salti" era
manifestamente violata dal comportamento dell'elettrone che, nel modello di Bohr,
mutava il proprio stato con repentine discontinuità, con salti quantici.
Così nella meccanica quantistica gli oggetti "quantistici" (atomi, elettroni, quanti
di luce, ecc.) si trovano in certi "stati" indefiniti, descritti da certe entità matematiche
(come la "funzione d'onda" di Schrödinger). Soltanto all'atto della misurazione fisica si
può ottenere un valore reale; ma finché la misura non viene effettuata, l'oggetto
quantistico rimane in uno stato che è "oggettivamente indefinito", sebbene sia
matematicamente definito: esso descrive solo una "potenzialità" dell'oggetto o del
sistema fisico in esame, ovvero contiene l'informazione relativa ad una "rosa" di valori
possibili, ciascuno con la sua probabilità di divenire reale ed oggettivo all'atto della
misura. E poiché ogni processo fisico non è separabile dallo strumento con cui è
669!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
misurato e dall’organo di senso con cui è percepito: l’osservato, gli strumenti
d’osservazione, l’osservatore costituiscono una totalità fisica.
La conseguenza del principio di indeterminazione è che le particelle atomiche non
possono essere considerate come “cose”, nel senso che a questa parola si attribuisce nel
mondo macroscopico. Il comportamento delle cose macroscopiche è infatti descrivibile
totalmente e quindi prevedibile in modo sicuro. La fisica quantistica ora parla dello
stato di un complesso atomico, altro non è che una determinazione matematica, una
funzione, la quale mentre riassume tutto ciò che è stato osservato intorno al complesso
atomico ad un dato istante, permette di calcolare la probabilità di trovare un
determinato risultato quando, ad un istante futuro, si eseguirà sul sistema un'altra
osservazione. Lo stato non somiglia quindi a nessuna cosa visibile tangibile e
descrivibile, ma è soltanto una determinazione matematica, esprimente, in un
determinato linguaggio analitico, i risultati delle osservazioni eseguite e il risultato
probabile delle osservazioni future.
In definitiva, gli oggetti quantistici si trovano in certi stati che non sono sempre
dotati di valore definito delle osservabili prima della misura: infatti è l'osservatore che
costringe la natura a rivelarsi in uno dei possibili valori, e questo è determinato
dall'osservazione stessa, cioè non esiste prima che avvenga la misurazione. Le
caratteristiche reali ed oggettive del sistema fisico sono definite solo quando vengono
misurate, e quindi sono "create" in parte dall'atto dell'osservazione.
Sarebbe però insensato, prosegue Heisenberg, porsi la questione di come si
comportino questi oggetti quando nessuno li osserva, quando nessuno strumento li
disturbi, e chiedersi se in realtà il loro comportamento è di tipo deterministico oppure
no, in quanto è evidente che lo scienziato non ha nulla da dire circa quello che fa la
natura allorquando nessuno la osserva. Limitandosi a quel che dicono le esperienze, la
scienza non può far altro che sottolineare come nel mondo atomico le esperienze non
consentono di misurare con precisione quei dati che sarebbero necessari per poter
effettuare una previsione deterministica e lasciare ad altri l'onere di discutere se la
natura sia o no "in sé stessa" intrinsecamente deterministica.
La natura dunque si sottrae a una precisa fissazione dei nostri concetti intuitivi,
per l'inevitabile perturbazione che è collegata con ogni osservazione. Mentre in origine
lo scopo di ogni indagine scientifica era quello di descrivere possibilmente la natura
come essa sarebbe di per sé, vale a dire senza il nostro intervento e senza la nostra
osservazione, ora noi comprendiamo che proprio questo scopo è irraggiungibile. Nella
fisica atomica non è possibile astrarre in alcuna maniera dalle modificazioni che ogni
osservazione produce sull'oggetto osservato. L'osservatore umano costituisce sempre
l'anello finale nella catena dei processi di osservazione e le proprietà di qualsiasi
oggetto atomico possono essere capite soltanto nei termini dell'interazione dell'oggetto
con l'osservatore. Ciò significa che l'ideale classico di una descrizione oggettiva della
natura non è più valido. Quando ci si occupa della materia a livello atomico, non si può
più operare la separazione cartesiana tra l'io e il mondo, tra l'osservatore e l'osservato.
Nella fisica atomica, non possiamo mai parlare della natura senza parlare, nello stesso
tempo, di noi stessi.
Su questa questione primordiale per la conoscenza scientifica della realtà in sé
avviene la vera insanabile frattura tra la filosofia della fisica contemporanea e la
filosofia della fisica classica. Heisenberg, Bohr, Born e forse la maggioranza dei fisici
contemporanei, accogliendo in pieno la tesi del neopositivismo, negano che abbia
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
66:!
significato fisico parlare di una realtà in sé, indipendente dall'osservatore, cioè non
esiste, come ammetteva la fisica dominante nel XIX secolo, un mondo reale a sé stante e
indipendente da noi, nascosto dietro il mondo sensibile. Un problema come questo è
privo di significato per i neopositivisti. Scopo della scienza non è la scoperta di
frammenti di verità assolute di un mondo esterno, ma la coordinazione razionale delle
molteplici esperienze umane. Ne discende che le leggi fisiche non sono leggi della
natura, nel senso classico, ma regole comode per riassumere economicamente il
succedersi delle nostre sensazioni; sono pure invenzioni, non scoperte, come diceva la
fisica classica. A questa interpretazione, che è quella che veramente sconvolge le
tradizionali idee della fisica classica, si opposero con pari fermezza i fautori della
concezione classica.
Con ciò il concetto stesso di “fatto scientifico” ha subìto, nella scienza
contemporanea, un mutamento radicale. Per la scienza dell'800 il fatto è una realtà
solida, massiccia, necessitante: per la scienza attuale il fatto è una semplice possibilità di
misura e di calcolo. Questo è forse il punto capitale, quello in cui meglio si capisce la
differenza tra il vecchio e il nuovo indirizzo della scienza. Esso risulta dalla risposta che
la scienza dava e dà alla domanda intorno al significato del predicato ontologico, cioè
della parola è o c'è.
Per la fisica classica un fatto fisico esiste sempre di suo pieno diritto e
l’osservazione scientifica vale solo a dimostrare il carattere e le manifestazioni. Per essa,
in altri termini, l’esistenza del fatto è presupposta come qualcosa di necessario. Per la
fisica moderna tale attribuzione preliminare di una realtà necessaria al fatto fisico è
completamente priva di senso. L’esistenza, la realtà di fatto, viene ricondotta a un’altra
categoria, cioè non è più a quella del necessario ma a quella del possibile. La possibilità
ulteriore dell’accertamento del controllo e del calcolo costituisce, nella fisica
contemporanea, il totale significato del predicato ontologico.
Il punto di vista instaurato dalla fisica quantistica segna quindi l’abbandono
della spiegazione casuale, della previsione infallibile, ed introduce l’idea che i risultati
di una osservazione futura non sono mai infallibilmente prevedibili, perciò non si può
più assumere che esiste una causa che immancabilmente li produca. Consideriamo
un’obiezione. Si può dire che la negazione della prevedibilità rigorosa nella fisica
quantistica dipende esclusivamente dall'osservazione: è infatti l'intervento attivo
dell'osservazione che modifica la condizione del sistema atomico osservato e introduce
in esso quell'indeterminazione per la quale o la velocità o la posizione delle particelle
del sistema risultano modificate. Si potrebbe quindi dire: se si prescinde
dall'osservazione, il corso dei fatti atomici è necessario (nel senso che manca di
indeterminazione). Ma è qui un altro dei punti fondamentali della fisica
contemporanea. Se si prescinde dall'osservazione, non si può dire assolutamente nulla
sullo stato di un sistema atomico. Senza l'osservazione questo stato, propriamente
parlando, non esiste cioè non ha caratteri o determinazioni riconoscibili e controllabili.
Affermare che i fatti atomici hanno una propria causalità necessaria, che viene
disturbata dall’osservazione, non ha senso. Non ha senso in primo luogo perchè, se
avessero una causalità veramente necessaria, non potrebbero essere disturbati
dall'osservazione. E in secondo luogo perchè la fisica contemporanea si rifiuta di
riconoscere fatti o realtà che non siano controllati o controllabili da osservazioni
effettivamente eseguite. In sostanza, perciò, la fisica contemporanea che è, tra tutte le
scienze della natura la più rigorosa e la più feconda di risultati, ha abbandonato la
67<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
spiegazione causale. Tutti i fisici indeterministi assumono questo atteggiamento. In
questo senso essi affermano che in natura non ci sono leggi rigorosamente esatte,
soggiacenti a un principio di causalità. Quelle che la fisica chiamava leggi della natura
sono invece semplicemente regole che hanno un grandissimo grado d'approssimazione,
ma mai l'assoluta certezza. La nuova fisica è così costretta a cercare in tutte le leggi
fisiche una radice statistica e a formularle in termini di probabilità. E come la relatività
aveva detronizzato le kantiane categorie a priori di spazio e tempo, la meccanica
quantica detronizza la categoria a priori della causalità. Al carattere a priori di codeste
categorie vengono sostituiti nuovi principi; alla causalità, in particolare, si sostituisce la
probabilità.
E’ chiaro in via preliminare, che se la fisica, cioè la disciplina scientifica sulla
quale tutte le altre cercano di modellarsi per acquistare rigore e precisione, ha
abbandonato un certo tipo di spiegazione, non c’è motivo di ritenere questo tipo di
spiegazione valido per le altre discipline e continuare a servirsi di esso anche là dove
appariva, anche prima, assai inadatto. In altri termini, sarebbe strano che la biologia, la
sociologia, la storiografia continuassero a invocare il principio causale che, nel loro
ambito si è mostrato sempre di assai dubbia e incerta applicazione, quando la fisica ha
per suo conto abbandonato questo principio.
La meccanica quantistica, quindi, introduce due elementi nuovi ed inaspettati
rispetto alla fisica classica: il primo elemento è la violazione dell'oggettività. Il secondo è
l'indeterminazione, che rappresenta un'inaspettata violazione della perfetta
intelligibilità deterministica. Entrambi gli elementi sono estranei alla mentalità della
fisica classica, cioè rispetto a quella concezione ideale (galileiana, newtoniana e perfino
einsteiniana) che pretende che l'universo sia perfettamente oggettivo ed intelligibile.
Questo rivela la strana situazione in cui gli scienziati si trovano nell'analisi dei sistemi
quantistici. Con la meccanica quantistica la scienza sembra essere arrivata a rivelare
quella misteriosa frontiera tra soggetto ed oggetto che in precedenza era stata del tutto
ignorata a causa del principio (nascosto e sottinteso) dell'oggettivazione: fino agli anni
‘20 la realtà poteva essere considerata del tutto "oggettiva" ed indipendente
dall'osservazione di eventuali esseri coscienti. Ma con la formulazione della meccanica
quantistica sembrò che si dovesse tener conto necessariamente della figura
dell'osservatore cosciente! Vi furono subito delle reazioni a tale concezione, poiché in
fisica era sottinteso da sempre che l'universo esiste oggettivamente, indipendentemente
dal fatto che noi lo osserviamo o meno. In effetti, la scienza ebbe il suo grandioso
sviluppo fin dal 1600 proprio grazie all'ipotesi dell'oggettivazione. Così i fisici degli
anni '20 e '30 cercarono delle soluzioni concettuali per sfuggire a tale insolita situazione
(che nella cornice dell'oggettivazione appare del tutto paradossale).
Le reazioni in questione furono numerose ed energiche, e misero a confronto le
convinzioni di grandissimi scienziati, come Einstein (che riteneva che la meccanica
quantistica fosse incompleta o comunque inaccettabile in questa forma) e come Bohr
(che sosteneva invece la validità della teoria in questione).
I paradossi quantistici sembrano evidenziare che la "consapevolezza"
dell'osservatore giochi un ruolo decisivo ai livelli fondamentali della realtà e si
accordano con la concezione di Berkeley, filosofo del secolo XVIII, secondo il quale "Esse
est percipi" (esistere significa essere percepito): si tratterebbe di una concezione
immateriale dell'universo, una sorta di "empirismo idealistico". In effetti sembra che la
meccanica quantistica dia un messaggio nuovo sulla struttura della realtà, e che
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
67;!
sancisca la fine del "realismo" oggettivo e materialistico a favore di una concezione
"idealistica", in cui gli oggetti esistono in uno stato "astratto" e "ideale" che rimane
teorico finché la percezione di un soggetto conoscente non lo rende reale. Il fisico Pagels
avverte: "La vecchia idea che il mondo esista effettivamente in uno stato definito non è
più sostenibile. La teoria quantistica svela un messaggio interamente nuovo: la realtà è
in parte creata dall'osservatore…La situazione si presenta paradossale al nostro
intuito, perché stiamo cercando di applicare al mondo reale un'idea dell'oggettività che
sta solo nelle nostre teste, una fantasia".
Noi dobbiamo in effetti affrontare la teoria quantistica se vogliamo analizzare in
profondità alcune fra le questioni più importanti della filosofia: come si comporta il
nostro mondo, e che cosa costituisce le menti, ossia di fatto noi stessi? Quindi è venuto il
momento di rivisitare l'intera storia della filosofia, o crearne una nuova, per vedere se vi
è qualche idea o qualche concezione che riesca a inquadrare adeguatamente i risultati
che emergono dalla fisica quantistica.
13.8 La realtà e l’informazione
La meccanica quantistica ci ha mostrato che il nostro mondo è governato da leggi
che comprendono stranezze come la casualità, la sovrapposizione e l'entanglement e che
siamo in difficoltà se tentiamo di conciliare queste affermazioni con il nostro cosiddetto
buon senso. Per fare questo, da un lato abbiamo bisogno di un'idea forte, un principio
primo su cui costruire la nostra teoria. Dall'altro dobbiamo rispondere a una domanda
che sorge subito spontanea e che alla fine si dimostra il vero nocciolo della questione:
che cosa significano le scoperte della fisica quantistica per la nostra concezione del
mondo? In altre parole: poiché la nostra visione del mondo, legata alla quotidianità, non
si trova d'accordo con la fisica quantistica, è forse possibile che il cosiddetto buon senso
non sia poi così buono, e che dobbiamo cambiare qualcosa nella nostra visione del
mondo?
Cominciamo col dedicarci alla prima domanda. Come può essere fatto un
principio primo, il più semplice possibile, su cui basare la fisica quantistica? Rispondere
a questa prima domanda ci aprirà automaticamente nuove possibilità di rispondere alla
seconda. La storia ci ha mostrato con sempre maggior chiarezza che al mondo esistono
poche idee fondamentali, incredibilmente semplici e razionali, sulle quali si può
costruire un intero edificio teorico. Questi principi sono così fondamentali che devono
valere sempre e dappertutto: se fossero confutati, l'intero edificio concettuale
crollerebbe. Naturalmente non è da escludere la possibilità che non riusciremo a trovare
alcun principio fondamentale. Forse il mondo è davvero troppo complesso perché la
mente umana possa afferrarlo in tutti i casi. Comunque è già di per sé stupefacente il
fatto che sia possibile scoprire dei principi e che il mondo si lascia in certi casi ridurre a
pochi principi fondamentali.
Sono molti gli scienziati che sospettano che il concetto di “informazione” possa
essere fondamentale per compiere nuovi passi avanti nella comprensione del mondo a
livello fondamentale. Wheeler sta riflettendo da tempo sul ruolo che potrebbe svolgere
l’informazione nella fisica, e in particolare nella fisica quantistica, al punto tale da dire:
“Domani impareremo come si può capire la fisica grazie al linguaggio
dell’informazione, e a esprimerla quindi con questo linguaggio”. Nel corso di tutta la
67=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
vita raccogliamo informazioni, in base alle quali abbiamo determinate reazioni. Questa
raccolta di informazioni può avvenire passivamente, se ci limitiamo a ricevere le
impressioni, oppure attivamente, se poniamo domande concrete alla natura. È chiaro,
comunque, che ogni essere vivente deve raccogliere continuamente informazioni, in
base alle quali prendere decisioni e regolare il proprio comportamento.
Ma cosa intendiamo per “informazione”? La nozione scientifica di informazione è
stata chiarita da Claude Shannon (1916-2001):
L’informazione è una misura del numero di alternative possibili per qualcosa
Per esempio, se lancio un dado ed esce una particolare faccia, poiché ci sono 6
possibilità alternative, ho una quantità di informazione N=6. Per indicare
l’informazione è più conveniente usare la seguente definizione: ! ! !"#! !. In questo
modo S=1 corrisponde a N=2 (!"#$!"!!"#! ! ! !!, cioè all’alternativa minima che
comprende due sole possibilità. Questa unità di misura, questo atomo di informazione,
è l’informazione fra due sole alternative, particelle elementari dell’informazione, ed è
chiamata “bit”. Un bit, dunque, può avere due valori, 0 oppure 1, che bastano a
esprimere matematicamente il valore di verità di un'affermazione. Una
rappresentazione di questo tipo è detta rappresentazione binaria.
Perché la nozione di informazione è forse fondamentale per capire il mondo?
Perché misura la possibilità dei sistemi fisici di comunicare tra loro. Democrito diceva
che gli atomi “si possono combinare in modi diversi, dando origine a commedie o
tragedie, storie ridicole oppure poemi epici”. Se gli atomi sono anche un alfabeto, chi
può leggere le frasi scritte in questo alfabeto? Il modo in cui gli atomi si dispongono
può essere correlato al modo in cui altri atomi si dispongono. Quindi, un insieme di
atomi può avere informazione su un altro insieme. La luce che arriva ai nostri occhi
porta informazione sugli oggetti da cui proviene. Il mondo, quindi, stando alla visione
democritea, non è solo una rete di atomi che si scontrano, ma è anche una rete di
correlazioni fra insiemi di atomi, una rete di reciproca informazione fra sistemi fisici. E’
stato Boltzmann a comprenderlo per primo. Il calore è il movimento microscopico
casuale delle molecole: tè caldo significa che le molecole si muovono velocemente. Ma
perché il tè si raffredda? Perché, secondo la geniale idea di Boltzmann, il numero di
possibili stati delle molecole che corrispondono al tè caldo e all’aria fredda con cui
interagisce (sistema fisico = tè caldo+aria fredda) è più grande del umero di quelli che
corrispondono al tè freddo e all’aria calda (sistema fisico = te freddo+aria calda).
Tradotto nei termini della nozione di informazione di Shannon, possiamo dire che: il tè
si raffredda perché l’informazione contenuta nel sistema fisico tè freddo+aria calda è
minore di quella contenuta nel sistema fisico tè caldo+aria fredda. E il tè non può
scaldarsi perché l’informazione non aumenta mai da sola. Chiariamo questo concetto.
Poiché le molecole del tè sono moltissime, noi non conosciamo il loro moto preciso.
Quindi ci manca dell’informazione. Questa informazione (in quanti diversi stati
possono essere le molecole del tè caldo), grazie a Boltzmann, si può calcolare. Se il tè si
raffredda, un po’ della sua energia passa all’aria; quindi, le molecole del tè si muovono
più piano, ma le molecole dell’aria si muovono più rapidamente. Se calcoliamo
l’informazione mancante, alla fine del processo si scopre che è aumentata. Se fosse
successo il contrario, cioè se il tè si fosse scaldato assorbendo calore dall’aria più fredda,
allora l’informazione sarebbe aumentata. Ma l’informazione non può aumentare da
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
674!
sola, perché quello che non sappiamo non lo sappiamo, e quindi il tè non si può
scaldare da solo stando a contatto con aria più fredda.
La formula di Boltzmann:
! ! !"#$%
esprime proprio l’informazione (mancante) come il logaritmo del numero di alternative,
cioè l’idea chiave di Shannon. E questa quantità, che abbiamo già incontrato, non è altro
che l’entropia, che per un sistema chiuso e isolato, aumenta sempre. L’entropia è
“informazione mancante”. L’entropia totale può solo crescere a cusa del fatto che
l’informazione può solo diminuire.
Che l’informazione possa essere usata come strumento concettuale per studiare il
calore è oggi unanimamente accettato dai fisici. Più audace è l’idea che tale concetto
possa condurre a comprendere gli aspetti ancora misteriosi della meccanica quantistica.
Però, non dimentichiamo, che l’informazione sia finita è una delle idee chiave della
meccanica quantistica. Infatti, il numero di risultati alternativi che possiamo ottenere
misurando un sistema fisico è finito. L’intera struttura della meccanica quantistica può
essere letta e compresa in termini di informazione nel modo seguente. Un sistema fisico
si manifesta solo e sempre interagendo con un altro. Qualunque descrizione dello stato
di un sistema fisico è sempre una descrizione dell’informazione che un sistema fisico ha
di un altro sistema fisico, cioè della correlazione fra sistemi. La descrizione di un
sistema non è altro che un modo di riassumere tutte le interazioni passate con quel
sistema e di cercare di organizzarle in maniera tale da poter prevedere quale possa
essere l’effetto di interazioni future. Sulla base di questa idea, l’intera struttura formale
della meccanica quantistica si può dedurre da due semplici postulati:
1. L’informazione rilevante in ogni sistema fisico è finita
2. Si può sempre ottenere nuova informazione su un sistema fisico
Il primo postulato caratterizza la granularità della meccanica quantistica: il fatto che
esista un numero finito di possibilità. Il secondo caratterizza l’indeterminazione nella
dinamica quantistica: il fatto che ci sia sempre qualcosa di imprevedibile che ci permette
di ottenere nuova informazione. Da questi due semplici postulati segue l’intera
struttura matematica della meccanica quantistica. Ciò significa che la teoria si presta a
essere espressa in termini di informazione.
Alla realtà, però, qualunque cosa essa sia, abbiamo solo un accesso indiretto. È
sempre qualcosa che costruiamo in base alle nostre idee ed esperienze. Nel caso della
fisica quantistica abbiamo già visto che con i nostri strumenti, in fondo poniamo
domande alla natura, che in un modo o nell'altro risponde. Quindi, se torniamo alla
questione del principio fondamentale, è chiaro che dobbiamo concedere un ruolo
importantissimo alla conoscenza del risultato dell'osservazione, cioè all'informazione.
Ciò forse significa che tutto è solo informazione? Addirittura che forse la realtà non
esiste? Non possiamo semplificare le cose fino a questo punto. Il fatto che la realtà non
sia accessibile direttamente non significa certo che non esista, ma la sua esistenza non
può essere dimostrata, sebbene ci siano quanto meno alcuni indizi della presenza di una
realtà indipendente da noi. In primo luogo bisogna citare il fatto che, nella stessa
situazione, tutti possano concordare di eseguire la stessa misurazione e dunque ottenere
gli stessi risultati. Ciò significa che evidentemente la misurazione del singolo individuo
675!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
non è importante nel complesso. Il secondo indizio dell'esistenza di una realtà
indipendente da noi è dato dalla casualità nei singoli processi quantistici. In particolare
il fatto che l'elemento caso sia oggettivo, non spiegabile con una causa più profonda e
quindi del tutto estraneo alla nostra influenza, indica che esiste qualcosa al di fuori di
noi. Tuttavia, come già accennato, non ne possiamo dare una dimostrazione logica
inconfutabile.
Evidentemente il nostro dilemma di fondo è che non possiamo distinguere, dal
punto di vista operativo e in modo comprensibile, l'informazione e la realtà. Le leggi
della natura devono quindi essere fatte in modo che queste differenze non abbiano
alcun effetto osservabile. Possiamo dunque formulare la condizione:
Le leggi della natura non possono fare alcuna differenza tra realtà e informazione
Evidentemente non ha senso parlare di una realtà su cui non si possono avere
informazioni. Ciò che si può sapere diventa il punto di partenza per fare ipotesi sulla
realtà. Nella visione consueta, affermata fino a oggi, è esattamente il contrario. Tutti
presupponiamo che il mondo, con le sue proprietà, esista a prescindere da noi. Secondo
la fisica classica, e anche secondo il senso comune, la realtà viene per prima e
l'informazione su questa realtà è invece qualcosa di derivato e di secondario. Ma forse
anche il contrario è vero. Tutto ciò che abbiamo sono le informazioni, le nostre
impressioni sensoriali, le risposte a domande che facciamo noi. La realtà viene dopo: è
derivata e dipendente dalle informazioni che riceviamo.
Possiamo così formulare la nostra idea di fondo in modo ancora più radicale.
Visto che evidentemente non ci può essere alcuna differenza tra la realtà e
l'informazione, affermiamo che:
L'informazione è la materia primordiale dell'universo
Vediamo di esplicitare meglio questo concetto, applicandolo a sistemi sia
macroscopici sia microscopici; in particolare vogliamo capire se questa nuova
prospettiva ci fa compiere qualche progresso nella comprensione dei fenomeni
quantistici.
Prendiamo un sistema macroscopico, il numero di domande necessarie per una
caratterizzazione completa di un siffatto sistema classico è incredibilmente grande,
quindi non è possibile caratterizzare in modo completo un sistema classico. Vediamo
ora che succede se si prendono oggetti e sistemi sempre più piccoli. Che cosa resta della
grande quantità di informazioni necessarie a caratterizzare completamente il sistema? È
ragionevole supporre che questa sia tanto minore quanto più piccolo è il sistema stesso.
Ma torniamo al nostro ragionamento originale: partiamo da un sistema
caratterizzato da molte affermazioni, cui corrispondono quindi molti bit di
informazione. Nel caso di un sistema classico, macroscopico, il numero dei bit necessari
corrisponde almeno al numero degli atomi che compongono il sistema, un numero
elevatissimo. Cominciamo allora a dividere il sistema a metà, poi un'altra volta a metà,
un'altra ancora e così via; è chiaro che per caratterizzare ognuno di questi sistemi
parziali abbiamo bisogno di sempre meno bit. Alla fine raggiungiamo un limite
semplice, chiaro e inevitabile quando arriviamo a un sistema così piccolo da poter
essere caratterizzato da un singolo bit, per il quale cioè basta il valore di verità di una
sola affermazione, quindi una sola risposta definitiva a una domanda. Una volta
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
676!
raggiunta questa condizione, abbiamo tra le mani il sistema più piccolo possibile, che
definiamo sistema elementare.
Torniamo al nostro mondo dei quanti. Anche loro sono unità minime, elementari,
inizialmente concepiti come i mattoncini costitutivi del mondo fisico. È naturale
identificare direttamente le due situazioni e far corrispondere al sistema quantistico
elementare un bit di informazione. Naturalmente, una particella elementare come
l’elettrone o il fotone, avranno varie proprietà come l’informazione sulla traiettoria,
sullo spin o sulla polarizzazione. Dobbiamo dunque fare una scelta a monte in un dato
esperimento, come quello della doppia fenditura: in un sistema elementare, che
corrisponde a un solo bit di informazione, ci limitiamo sempre a una domanda
specifica, che potrebbe riguardare per esempio l'informazione sulla traiettoria.
Il nostro presupposto fondamentale per la fisica quantistica è allora:
Il sistema elementare corrisponde a un bit di informazione
C’è da chiedersi allora se da questo semplice principio segua qualcosa di
interessante. Ebbene, senza entrare nel merito, le tre proprietà principali della fisica
quantistica (la casualità oggettiva, la complementarità e l'entanglement), trovano in
questo modo la propria spiegazione naturale.
Che legame esiste tra la nostra identificazione dell'informazione come concetto
fondamentale dell'universo e il fatto che il mondo appaia quantizzato? Se traduciamo il
sistema che osserviamo nella sua rappresentazione in forma di affermazioni logiche,
arriviamo a una situazione molto singolare: queste possono essere solo in numero
intero. Per il semplice motivo che possiamo porre domande alla natura, ottenendo
sempre come risposta si o no, un'ulteriore suddivisione non è possibile: non si può
rivolgere alla natura una domanda e mezza! Ciò significa che a qualche livello deve
esserci una struttura discreta, a grana fine, oltre la quale non si può scendere. Questa
struttura non solo è per principio inevitabile, ma anzi è una parte essenziale della teoria.
I fenomeni quantistici sono allora una conseguenza del fatto che il mondo rappresenta
le nostre affermazioni, che necessariamente si presentano, per l'appunto, quantizzate.
Alla domanda: perchè il mondo è quantizzato? La risposta è semplicemente questa:
perchè l'informazione sul mondo è quantizzata. Le affermazioni sono discrete, cioè si
possono contare esattamente come i numeri degli stati quantistici. Pertanto, tutto deve
essere rappresentato in termini di decisioni del tipo si o no.
Constatiamo a questo punto un fatto interessante: del tutto consciamente, ora
non chiediamo più che cosa sia in realtà un sistema elementare, ma parliamo solo di
informazioni. Quindi per noi un sistema elementare non è altro che ciò cui si riferiscono
le nostre informazioni, un concetto che ci costruiamo in base alle informazioni di cui
disponiamo. Allora, l'informazione è la materia primordiale dell'universo. Un punto, o
meglio una domanda, centrale rimane questo: se l'informazione è la chiave
dell'universo, perchè non è arbitraria? Perché osservatori diversi non hanno
informazioni diverse? Se consideriamo un determinato esperimento, gli osservatori
sono tutti d'accordo sul fatto che una certa proprietà di una particella elementare è stata
misurata, per cui è possibile che questa coincidenza tra osservazioni diverse significhi
che esiste un mondo. Un mondo fatto in modo tale che l'informazione che abbiamo, e
non abbiamo altro, esista chiaramente, in un certo qual modo, anche a prescindere
dall'osservatore. Ma in che modo è indipendente dall'osservatore? Probabilmente lo si
677!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
nota soprattutto nel singolo processo quantistico, nel quale per esempio un rivelatore
registra la particella, e l'altro no, in modo del tutto casuale. In questo caso tutti gli
osservatori concorderanno su quale sia questo rivelatore. Questa non influenzabilità del
singolo evento e l'accordo di tutti gli osservatori sul risultato sono probabilmente gli
indizi più convincenti dell'esistenza di un mondo indipendente da noi. Che cosa sono
però queste proprietà della realtà? Anzi, queste proprietà della realtà esistono? Che cosa
possiamo sapere su questa realtà? Che cosa significano queste domande in cui
l'informazione svolge un ruolo fondamentale? A questo punto, allora, è possibile fare
un'ipotesi radicale:
Realtà e informazione sono la stessa cosa
Ossia, considerare questi due concetti, realtà e informazione, che chiaramente
finora abbiamo sempre tenuto distinti, come due facce della stessa medaglia, proprio
come lo spazio e il tempo che, secondo la relatività di Einstein, sono a loro volta legati in
modo indissolubile. Noi vediamo queste due cose come un tutt'uno a causa del nostro
postulato secondo il quale nessuna legge della natura o descrizione della natura può
fare differenza tra realtà e informazione. Dovremmo allora coniare un nuovo termine
che comprenda sia la realtà sia l'informazione. Già il fatto che un termine del genere
non solo non esista, ma che sia difficile anche immaginarlo, ci fa capire quanto siano
complessi i problemi concettuali che emergono. La nostra affermazione precedente,
secondo la quale l'informazione è la materia primordiale dell'universo, è ora da
considerare anche nel senso di questa unità tra realtà e informazione.
Sembra, quindi, che dobbiamo eliminare la separazione tra informazione e realtà,
per cui, evidentemente, non ha senso parlare di una realtà se non si ha alcuna
informazione su di essa. E non ha senso parlare di informazione senza qualcosa cui
questa faccia riferimento. Quindi non sarà mai possibile arrivare all'essenza delle cose
con le nostre domande. Anzi, emerge un dubbio sensato: c'è da chiedersi se questa
essenza delle cose indipendente dall'informazione esista davvero. Visto che per
principio non può essere dimostrata, in fondo anche presupporre la sua esistenza
diventa superfluo.
La sensazione che emerge è che siamo entrati in una zona nella quale molte idee
non sono ancora chiare, in cui alcune domande molto importanti sono tuttora senza
risposta. Alcune di queste domande riguardano appunto la natura di questo concetto
che unisce la realtà all'informazione e all'essenza della conoscenza. Da tutto ciò emerge
infine un'altra domanda: qual è il nostro ruolo nel mondo?
C'è da sperare che, sicuramente anche grazie alla riflessione filosofica, si arrivi a
nuovi punti di vista o addirittura a cambiamenti rivoluzionari.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
678!
!"#$%&'&()*!
E' più facile spezzare un atomo
che un pregiudizio
Einstein
"(#2!0!*(#&/*"-(,-#
-#0/8&/*"-(,-#
14.1 La scoperta della radioattività e sue conseguenze
All'inizio del 1896, il fisico francese Henri Becquerel (1852–1908; Premio Nobel),
venuto a conoscenza degli studi di Rontgen sui raggi X decise di indagare se qualcosa
di simile ai raggi X venisse emesso dalle sostanze fluorescenti che, sotto l'azione della
luce, si coprono di una soffusa luminosità. Egli scelse per queste ricerche l'uranile
(solfato doppio di uranio e potassio), un minerale caratterizzato da un notevole potere
fluorescente. Poiché era convinto che l'illuminazione fosse il fattore responsabile della
radiazione emessa da tale cristallo, lo appoggiò su una lastra fotografica, avvolse il tutto
in carta nera e lo espose alla luce solare. Dopo qualche ora di esposizione, Becquerel
sviluppò la lastra fotografica e questa presentava una macchia scura in corrispondenza
della zona sulla quale era stato appoggiato il cristallo di uranile. Ripetuto l'esperimento
parecchie volte, la macchia scura ricompariva nella stessa posizione, qualunque fosse lo
spessore di carta usato per ricoprire la lastra fotografica. Per puro caso, durante i soliti
esperimenti, Becquerel si accorse che l'annerimento della lastra non aveva nulla a che
fare con l'esposizione del cristallo ai raggi solari. Si trattava, dunque, di una radiazione
penetrante simile ai raggi X, ma emessa spontaneamente, senza che fosse necessaria
alcuna eccitazione, presumibilmente dagli atomi dell'uranio contenuti nel cristallo di
uranile. Becquerel provò a riscaldare il cristallo, a raffreddarlo, a polverizzarlo, a
scioglierlo in acidi, insomma a sottoporlo a tutti i trattamenti possibili, ma l'intensità
della misteriosa radiazione restava costante.
Questa nuova proprietà della materia, battezzata col nome di radioattività, non
aveva nulla a che vedere col trattamento chimico o fisico cui era sottoposta, ma era una
proprietà intrinseca dell'atomo.
679!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Negli anni immediatamente successivi alla scoperta della radioattività, un gran
numero di fisici e chimici rivolsero la loro attenzione al nuovo fenomeno.
Marie Curie (1867–1934; Premio Nobel), nata in Polonia e moglie del fisico
francese Pierre Curie (1859–1906; Premio Nobel), sottopose tutti gli elementi chimici
allora noti ed i loro composti ad una meticolosa analisi per identificare l'eventuale
radioattività e scoprì che il torio emette radiazioni simili a quelle dell’uranio.
Confrontando la radioattività di minerali di uranio con quella dell'uranio metallico,
notò, inoltre, che i minerali erano cinque volte più radioattivi di quanto ci si sarebbe
aspettato per il loro contenuto di uranio; quindi era molto probabile la presenza nei
minerali di uranio di qualche altra sostanza molto più radioattiva dello stesso uranio,
che riuscì a scoprire e che chiamò polonio, in onore
della sua terra natale.
Poco tempo dopo fu isolata un'altra sostanza
simile al bario, circa due milioni di volte più
radioattiva dell'uranio, cui fu dato il nome di radio.
La scoperta del polonio e del radio fu ben presto
seguita da quella di molte altre sostanze radioattive,
tra le quali l'attinio, stretto parente dell'uranio da
fissione, il radiotorio ed il mesotorio.
La ricerca in questo nuovo ramo della fisica progredì rapidamente, orientandosi
verso lo studio delle proprietà della radiazione penetrante.
Al Cavendish Laboratori di Cambridge Thomson fece le prime accurate misure
sul potere ionizzante delle radiazioni emesse dagli elementi radioattivi e, nel 1899,
Rutherford scoprì che un preparato radioattivo può emettere almeno due specie di
radiazioni, inizialmente contraddistinte in base al loro potere penetrante nella materia:
la componente poco penetrante fu chiamata radiazione alfa e quella più penetrante
radiazione beta.
Qualche tempo dopo, il francese Paul Villard
(1860–1934) evidenziò un terzo tipo di radiazione
ancora più penetrante dei raggi beta e molto simile ai
raggi X, che egli chiamò radiazione gamma. In seguito
si riconobbe che i raggi α sono nuclei di elio con
doppia carica positiva, i raggi β sono elettroni, mentre
i raggi γ sono onde elettromagnetiche, cioè fotoni di
altissima energia, ancora più elevata di quella dei
raggi X.
Subito dopo la scoperta della radioattività,
Rutherford ed il suo collaboratore Frederick Soddy
(1877–1956; Premio Nobel), annunciarono che il fenomeno della radioattività era il
risultato di una trasformazione spontanea di un elemento in un altro tramite l’emissione
di radiazione. Non era più un sogno da alchimisti, ma un fatto scientifico, che tutti gli
elementi radioattivi si trasformassero spontaneamente in altri elementi. Anche gli
scettici più convinti dovettero abbandonare la radicata convinzione sull’immutabilità
della materia.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
67:!
L'emissione di una particella α ha come risultato la formazione di un elemento
spostato di due posti a sinistra nel Sistema Periodico ed il cui peso è inferiore di quattro
unità a quello dell’elemento di partenza. L'emissione di una particella β sposta
l’elemento di un posto a destra nel Sistema Periodico, mentre ne lascia invariato il peso
atomico. L'emissione di raggi γ è un processo secondario che accompagna l’emissione
delle particella α e β. Infatti, in seguito all’emissione di tali particelle il nucleo si porta in
uno stato eccitato e, nel ritorno allo stato fondamentale, emette raggi γ.
NATURA DELLE RADIAZIONI
Radiazione
ZX
A
2α
→
4
Z − 2Y
A−4
α
+ 2α4
= nuclei di elio
Radiazione
ZX
A
→
−1 β
Z + 1Y
0
A
+
β-
−1 β
Radiazione
0
= elettrone
υ = antineutri no
+υ
ZX
A
→
+1 β
Z + 1Y
0
A
+
β+
+1 β
Radiazione
0
= positrone
+υ
* A
ZX
γ
→ ZXA + γ
γ = fotone
υ = neutrino
X = nucleo dell’elemento radioattivo; Y = nucleo dell'elemento originario del decadimento;
A = numero di massa = numero totale dei nucleoni; Z = numero atomico Z*X = nucleo in uno stato eccitato.
In base alle leggi della meccanica quantistica il decadimento radioattivo di un
nucleo è un processo puramente casuale; da ciò discende che mentre è praticamente
impossibile determinare l'istante in cui un particolare nucleo si disintegra, si può invece
predire la probabilità che un certo numero di atomi di una data specie si disintegri in un
dato intervallo di tempo.
Pertanto, le radiazioni α, β e γ seguono la seguente legge:
LEGGE DEL DECADIMENTO RADIOATTIVO
N T = N0 e −λt
NT = numero di nuclei radioattivi non ancora decaduti presenti all’istante t; N0 = numero di nuclei radioattivi
presenti ali 'istante t = 0; λ = costante di decadimento
L'interpretazione del fenomeno della radioattività come un decadimento
spontaneo dei nuclei atomici non lasciava alcun dubbio che i nuclei fossero sistemi
meccanici complessi costituiti da molte particelle. Il fatto poi che i pesi atomici degli
isotopi di tutti gli elementi fossero ben rappresentati con numeri interi, indicava nei
protoni il principale costituenti del nucleo.
Quando Bohr parlò a Rutherford di questi fatti, essi decisero di comune accordo
che il solo modo per salvare la situazione, dal punto di vista quantistico, era di supporre
l’esistenza di protoni senza carica, che furono chiamati neutroni.
Verso il 1925 fu organizzato, presso il Laboratorio Cavendish, un intenso
programma di ricerca, allo scopo di espellere questi ipotetici neutroni dai nuclei di
qualche elemento leggero, per ottenere una conferma diretta della loro esistenza, ma i
risultati furono negativi. Il lavoro in quella direzione fu temporaneamente sospeso e la
scoperta dei neutroni fu ritardata di un certo numero di anni.
Nel 1930, Walther Bothe (1891–1957; Premio Nobel) e il suo allievo Becker,
osservarono che se le particelle alfa del polonio, dotate di grande energia, incidevano su
68<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
nuclei di elementi leggeri, specificatamente berillio, boro e litio, era prodotta una
radiazione particolarmente penetrante. In un primo momento si ritenne che potesse
trattarsi di radiazione gamma, sebbene si mostrasse più penetrante dei raggi gamma
allora conosciuti e i dettagli dei risultati sperimentali fossero difficili da interpretare in
tali termini.
Finalmente, all'inizio del 1932, il fisico James Chadwick (1891–1974; Premio
Nobel) eseguì una serie di misurazioni che mostrarono come l'ipotesi dei raggi gamma
fosse insufficiente a dare conto dei dati osservativi. Egli congetturò che la radiazione
penetrante del berillio consistesse in particelle neutre, chiamate appunto neutroni,
dotate di massa approssimativamente uguale a quella dei protoni, la cui esistenza era
stata congetturata più di un decennio prima, ma la cui ricerca sperimentale si era
rivelata fino ad allora infruttuosa. Nel 1914 Chadwick lavorava a Berlino sotto la guida
del fisico tedesco Geiger, ed il suo compito era lo studio degli spettri dei raggi beta
emessi da varie sostanze radioattive; tali spettri sembravano differire radicalmente dagli
spettri dei raggi alfa e gamma e le energie delle particelle beta variavano entro un
grande intervallo. Bohr, molto eccitato da questa strana situazione, giunse a suggerire
che il principio di conservazione dell'energia non fosse valido per le trasformazioni
radioattive β. Pauli, invece, suggerì un'alternativa che avrebbe equilibrato il rendiconto
energetico dei processi nucleari. Egli, infatti, prese in considerazione la possibilità che
l'emissione di una particella beta fosse sempre accompagnata dall'emissione di un'altra
particella instabile, che sfuggiva all'osservazione e che si portava appresso l'energia
necessaria all'equilibrio energetico. Se si suppone che queste particelle siano prive di
carica elettrica ed abbiano una massa molto minore di quella dell'elettrone, potrebbero
effettivamente sfuggire col loro carico d'energia ai più accurati tentativi d'osservazione
sperimentale.
Queste particelle, più tardi, furono chiamate neutrini da Fermi per distinguerle
dai neutroni, molto più grandi, scoperti da Chadwick.
Dobbiamo dire che queste particelle per molto tempo rimasero realmente
inosservabili ed i fisici dovettero accontentarsi di osservare i loro effetti. Soltanto nel
1955 Frederick Reines (1918–1998, Premio Nobel) e Clyde Cowan, del laboratorio di
ricerche di Los Alamos, riuscirono ad organizzare un esperimento per mettere in
evidenza il neutrino.
La più intensa sorgente di neutrini esistente è la pila atomica che viene
attraversata facilmente da queste particelle senza che vengano arrestati dagli spessori di
cemento che schermano le pile. Per rivelarli, Reines e Cowan disposero all'esterno della
schermatura un enorme contenitore pieno d'idrogeno ed un gran numero di contatori di
particelle di diverso tipo. Un neutrino veloce, urtando un protone crea un elettrone
positivo, trasformando il protone in un neutrone secondo il seguente schema:
p + υ → n + e+
Dal momento in cui si scoprì che il fenomeno della radioattività rappresentava
una trasformazione spontanea di un elemento chimico in un altro, Rutherford fu preso
dal desiderio di disintegrare il nucleo atomico di qualche elemento stabile per
trasformarlo in un altro. Poiché la barriera di repulsione coulombiana circostante il
nucleo atomico diventa sempre più alta mentre ci si sposta lungo il Sistema Periodico,
sarebbe stato molto conveniente bombardare i nuclei più leggeri; se poi si fossero usati
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
68;!
come proiettili le particelle alfa ad alta energia emesse da elementi radioattivi a rapido
decadimento, il compito sarebbe stato ulteriormente facilitato.
Le prime osservazioni di Rutherford furono eseguite col metodo della
scintillazione, ma ben presto lo studio delle trasformazioni nucleari fu enormemente
facilitato dalla brillante invenzione di Charles Wilson (1869-1959; Premio Nobel): la
camera a nebbia. Il funzionamento della camera a nebbia è basato sulla ionizzazione
prodotta sul percorso di una particella carica in aria, o in qualsiasi altro gas. Se l'aria,
attraverso la quale le particelle passano, è satura di vapor d'acqua, gli ioni prodotti
fungono da centri di condensazione per le piccolissime gocce d'acqua e si osservano
lunghe e sottili tracce di nebbia lungo le traiettorie delle particelle.
Nel 1939, George Gamow (1904-1968), calcolò, secondo la teoria delle barriere di
potenziale nucleare, che i protoni sarebbero stati proiettili nucleari molto più adatti
delle particelle alfa, sia per la loro minore massa sia per la loro minore carica elettrica. I
calcoli eseguiti dimostrarono, infatti, che protoni accelerati all'energia di l MeV, e quindi
con energia molto minore di quella delle particelle alfa, avrebbero dovuto produrre
facilmente la disintegrazione di nuclei leggeri. Rutherford chiese ai suoi allievi Walton e
Cockroft, di costruire un generatore di alta tensione in grado di produrre fasci di
protoni di quell'energia ed il primo "disintegratore atomico" entrò in funzione nel 1931.
La ricerca pionieristica di Walton e Cockroft diede
inizio alla costruzione e al perfezionamento di un numero
sempre crescente di acceleratori di particelle, basati sui più
vari ed ingegnosi principi. Uno di questi, il ciclotrone
ideato da Ernest Lawrence (1901–1958; Premio Nobel), fu il
più geniale. Il principio di funzionamento è quello di
sfruttare l'accelerazione successiva di particelle cariche
mobili su un'orbita circolare in un campo magnetico. Gli
ioni che si vogliono utilizzare come proiettili atomici
vengono iniettati al centro del ciclotrone e percorrono
traiettorie circolari per effetto del campo magnetico.
14.2 La fissione nucleare
Enrico Fermi (1901–1954; Premio Nobel) riunì nel famoso Istituto di
Fisica di via Panisperna un gruppo di giovani laureati: fra i teorici ricordiamo
B. Ferretti, E. Majorana, G. Wick; fra gli sperimentali M. Ageno, F. Rasetti, E.
Amaldi, B. Pontecorvo, E. Segrè. "I ragazzi di via Panisperna", come furono
chiamati i fisici che dal 1927 al 1938 lavorarono presso l'istituto romano,
riuscirono in pochi anni a portare la scuola di fisica italiana al livello dei più prestigiosi
centri di ricerca europei e americani.
Venuto a conoscenza degli esperimenti dei coniugi Curie, che facendo interagire
atomi di alluminio con particelle α giunsero nel 1934 alla scoperta della radioattività
artificiale, Fermi intuì che la radioattività potesse essere provocata utilizzando come
proiettili i neutroni. Poiché in natura non esistono sorgenti dirette di neutroni, egli si
procurò i proiettili utilizzando quella stessa reazione con la quale Chadwick aveva
68=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
scoperto il secondo componente fondamentale del nucleo. Con la collaborazione dei
suoi “ragazzi”, Fermi riuscì così, in circa un anno di intenso lavoro, a produrre e a
identificare una cinquantina di elementi radioattivi. Fra i molti elementi bombardati con
neutroni dal gruppo di fisici guidati da Fermi vi era l'uranio; dopo l'irraggiamento,
questo elemento pesante si comportava in maniera piuttosto anomala, in quanto la radioattività indotta nel bersaglio era notevolmente superiore a quella ottenuta in simili
condizioni con altri elementi. Sulla base delle conoscenze fino allora acquisite intorno
alle reazioni provocate dai neutroni, i fisici romani cercarono di identificare i
responsabili della marcata attività fra gli elementi con numero atomico di poco inferiore
a quello dell'uranio. Poiché le ricerche furono negative, ipotizzarono quindi la creazione
di un elemento transuranico, cioè che l'assorbimento di un neutrone da parte di un
nucleo di uranio portasse alla formazione di un elemento più pesante di quello di
partenza.
Il processo provocato dai "neutroni di via Panisperna" era però più
rivoluzionario di quanto allora si potesse supporre: non era infatti pensabile che un
neutrone, rallentato dal passaggio nell'acqua o nella paraffina, potesse frantumare un
nucleo, quando proiettili molto più energici ne erano incapaci.
La vera natura dell'interazione dei neutroni lenti con l'uranio fu scoperta da due
fisici-chimici tedeschi, Otto Hahn (1879–1968; Premio Nobel) e Fritz Strassmann (1902–
1980; Premio Nobel), mentre cercavano di valutare le proprietà degli ipotetici
transuranici. Dopo molte incertezze, molti errori e soprattutto molto lavoro, riuscirono a
dimostrare che un nucleo di uranio, colpito da un neutrone, può rompersi in due (o più)
frammenti. Si ottengono così due (o più) nuclei i cui numeri atomici corrispondono a
elementi situati verso la metà del sistema periodico (molto lontano quindi dal numero
atomico di partenza) e i cui numeri di massa sono in genere compresi fra 75 e 160.
Questo processo, chiamato fissione nucleare, avviene perché il neutrone fornisce al nucleo
di uranio, di per sé poco stabile, un eccesso di energia interna che aumenta l'agitazione
dei nucleoni. Il nucleo tende allora ad assumere una forma sempre più allungata, fino a
rompersi in due frammenti, che sfuggono in direzioni opposte con notevole energia.
Il 27 gennaio 1939 si svolgeva a Washington una conferenza di fisica teorica,
durante la quale Bohr ricevette una lettera che gli comunicava che Hahn e il suo
assistente Strassmann avevano scoperto la presenza di bario, cioè un elemento posto a
metà strada nella Tavola Periodica, bombardando uranio con neutroni. Subito si pensò
che potesse trattarsi di un caso di fissione. Fermi, che era tra i partecipanti alla
conferenza, andò alla lavagna e scrisse alcune formule relative al fenomeno della
fissione. Il corrispondente di un quotidiano, che era
presente alla conferenza, cominciò a prendere appunti
prima di essere allontanato. Ma ciò che il giornalista
aveva udito apparve sui giornali e, il giorno dopo, fu
contattato da parte di Robert Oppenheimer (1904–1967),
il futuro responsabile del progetto Manhattan per la
costruzione della bomba atomica, che chiedeva
spiegazioni. Questo fu l'inizio dell'era nucleare.
L'articolo sulla teoria della fissione nucleare di Bohr e
di Wheeler, pubblicato nel settembre del 1939 e che fu il
primo e ultimo articolo sull'argomento prima che fosse calato il sipario della sicurezza,
era basato sul modello a goccia del nucleo. Quando il nucleo, colpito da un neutrone,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
684!
comincia ad oscillare, assumendo una lunga successione di forme allungate, l'equilibrio
tra le forze di tensione superficiale e quelle elettrostatiche scompare: le prime tendono a
riportare il nucleo alla forma sferica originale, mentre le seconde tentano di allungarlo
ulteriormente. Se il rapporto tra l'asse maggiore e quello
minore dell'ellissoide supera un certo limite, si produce
una strozzatura lungo il piano equatoriale ed il nucleo si
spezza in due parti uguali.
Si scoprì ben presto che la fissione del nucleo di
uranio è seguita dalla contemporanea emissione di 2
neutroni i quali, a loro volta, possono colpire altri due
nuclei di uranio vicini e spezzarli, producendo altri
quattro neutroni che spezzano altri quattro nuclei e così
via. In questo modo si innesca una reazione a catena che
si propaga rapidamente in tutto il blocco di uranio,
provocando la liberazione di un'enorme quantità
d'energia nucleare, secondo la famosa equazione di
Einstein E = mc2
I metodi originali e definitivi per alimentare e
mantenere la reazione in uranio naturale furono ideati da
Fermi. La prima pila atomica a moderatore di carbonio
(blocchi di grafite), costruita da Fermi negli spogliatoi dello stadio dell'Università di
Chicago, entrò in funzione il 2 dicembre 1941.
La prospettiva di produrre la fissione nucleare su
larga scala era entusiasmante e sconvolgente.
Entusiasmante
perché
quella
nucleare
poteva
rappresentare una nuova forma di energia da aggiungere
in modo economicamente competitivo alle tradizionali
fonti energetiche, rappresentate dal carbone, dal petrolio,
ecc. Sconvolgente perché si rischiava di creare un
micidiale ordigno di guerra che non aveva riscontro in
tutti quelli realizzati fino allora dall'uomo; un mezzo
distruttivo che avrebbe potuto mettere in gioco il destino
stesso dell'umanità. Non bisogna infatti dimenticare il particolare momento politico sul
quale si affacciava la scoperta: si era all'inizio del 1939 e la seconda guerra mondiale era
alle porte.
14.3 La fusione nucleare
Per molti secoli gli scienziati si sono chiesti quale fosse la causa dello splendore
del Sole e delle altre stelle. Era evidente che l'energia sprigionata non poteva derivare
da processi chimici o, per esempio, dalla contrazione della massa solare; infatti, tali
processi non consentono di produrre energia, nemmeno lontanamente, per 4,5 miliardi
di anni, perché tale è l'età del Sole. Il solo modo per giustificare una tale longevità del
Sole è quello di supporre che esso riceva energia da qualche trasformazione nucleare:
nell'anno 1929 l'astronomo inglese Robert Atkinson (1898-1982) ed il fisico austriaco
Fritz Houtermans (1903–1966), cercarono in collaborazione di scoprire se ciò poteva
685!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
essere vero. Secondo questi due scienziati, le collisioni termiche tra gli atomi costituenti
la parte interna ad altissima temperatura della massa solare (20 milioni di gradi),
potevano provocare qualche reazione nucleare talmente veloce da fornire la quantità di
energia necessaria. Con l'aiuto della teoria della meccanica ondulatoria sulla
penetrazione attraverso le barriere di potenziale nucleare, nata solo un anno prima, i
due scienziati furono in grado di dimostrare che, con le temperature e le densità
esistenti all'interno del Sole, le reazioni termonucleari tra i nuclei d'idrogeno (protoni)
ed i nuclei di altri elementi leggeri, potevano liberare una quantità di energia sufficiente
a giustificare l'irraggiamento del Sole. Houtermans ed
Atkinson proposero, allora, l'esistenza di qualche nucleo
leggero capace di catturare i protoni e di imprigionarli
per un buon periodo di tempo. Dopo la cattura del
quarto protone si formava una particella alfa all'interno
del nucleo "trappola" e la sua successiva espulsione
avrebbe liberato una grande quantità di energia nucleare.
Nel 1938, quando si ebbe un numero sufficiente di
informazioni sulle trasformazioni dei nuclei leggeri
colpiti da un protone, Hans Bethe (1906 – 2005; Premio
Nobel) descrisse due serie di reazioni che, a partire
dall’idrogeno, portano alla sintesi dell’elio. L’effetto
complessivo della prima serie di reazioni, chiamata ciclo
dell’idrogeno, è la combinazione di quattro protoni a formare un nucleo di elio, con
l’emissione di due positroni, due neutrini e due fotoni gamma. La seconda serie di
reazioni, chiamata ciclo del carbonio, pur interessando nel processo di fusione il
carbonio, l’azoto e l’ossigeno, in definitiva converte idrogeno in elio, liberando
positroni, neutrini e fotoni, proprio come il ciclo dell’idrogeno.
14.4 Le particelle elementari e le loro interazioni
Uno degli aspetti caratteristici della visione relativistica è che la massa è
riconosciuta come una forma di energia, per cui non è più necessario che sia
indistruttibile; essa può trasformarsi in altre forme di energia. Ciò può verificarsi, ad
esempio, quando le particelle subatomiche si urtano tra loro. In questi urti, le particelle
possono essere distrutte e l'energia contenuta nelle loro masse può trasformarsi in
energia cinetica, e ridistribuirsi tra le altre particelle che partecipano all'urto.
Inversamente, quando le particelle si urtano a velocità estremamente alte, la loro
energia cinetica può essere utilizzata per formare la massa di nuove particelle. La
creazione e la distruzione di particelle materiali è una delle conseguenze più
impressionanti dell'equivalenza tra massa ed energia (E=mc2).
Nei processi d'urto della fisica delle alte energie, la massa non si conserva più.
Durante l'urto, le particelle possono distruggersi trasformando le loro masse in parte
nelle masse e in parte nell'energia cinetica delle particelle appena create. Quello che si
conserva è solo l'energia totale dell'intero processo, cioè l'energia cinetica complessiva
più l'energia contenuta in tutte le masse. Gli urti tra particelle subatomiche sono lo
strumento più importante che abbiamo per studiarne le proprietà e la relazione tra
massa ed energia è essenziale per la loro descrizione.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
686!
La scoperta che la massa non è altro che una forma di energia ha costretto gli
scienziati, ed i filosofi della scienza, a modificare in modo sostanziale il concetto di
particella. Nella fisica moderna, la massa non è più associata a una sostanza materiale, e
quindi le particelle non sono più viste come costituite da un qualche materiale
fondamentale, bensì sono viste come pacchetti di energia. Ma poiché l'energia è
associata ad attività e a processi, è implicito che la natura delle particelle subatomiche
sia intrinsecamente dinamica. Per comprendere meglio questo punto, dobbiamo
ricordare che queste particelle possono essere concepite solo in termini relativistici, cioè
nel contesto di una struttura nella quale spazio e tempo sono fusi in un continuo
quadridimensionale. Le particelle non devono essere rappresentate come oggetti
tridimensionali statici, come palle da biliardo o granelli di sabbia, ma piuttosto come
entità quadridimensionali nello spaziotempo. Le loro forme devono essere intese
dinamicamente, come forme nello spazio e nel tempo. Le particelle subatomiche sono
figure dinamiche che hanno un aspetto spaziale e un aspetto temporale. Il loro aspetto
spaziale le fa apparire come oggetti con una certa massa, il loro aspetto temporale come
processi ai quali prende parte l'energia equivalente della loro massa.
Queste figure dinamiche, o pacchetti di energia, formano le strutture stabili di
tipo nucleare, atomico e molecolare che costituiscono la materia e le conferiscono il suo
ben noto aspetto solido, macroscopico. Ciò porta a credere che essa sia costituita da
qualche sostanza materiale. A livello macroscopico, questa nozione di sostanza è
un'approssimazione utile, ma a livello atomico essa non ha più senso. Gli atomi sono
composti da particelle e queste particelle non sono fatte di un qualche materiale.
Quando le osserviamo, non vediamo mai nessuna sostanza, ma solo forme dinamiche
che si trasformano incessantemente l'una nell'altra, in una continua danza di energia.
La meccanica quantistica ha permesso di capire che queste particelle non sono
granelli isolati di materia, ma distribuzioni di probabilità, interconnessioni in una
inestricabile rete cosmica. La teoria della relatività ha poi reso vive, per così dire, le
particelle rivelandone il carattere intrinsecamente dinamico e facendo vedere che
l'attività della materia è la vera essenza del suo essere. Le particelle del mondo
subatomico non sono attive solo nel senso che si muovono con estrema velocità ma nel
senso che esse stesse sono processi. L'esistenza della materia e la sua attività non
possono essere separate: esse sono soltanto aspetti differenti della stessa realtà
spaziotemporali. I fisici devono tener conto dell'unificazione di spazio e tempo quando
studiano il mondo subatomico e, di conseguenza, essi vedono gli oggetti di quel mondo,
le particelle, non staticamente, ma dinamicamente, in termini di energia, attività e
processi.
I mistici orientali sembrano essere consapevoli a livello macroscopico della
compenetrazione di spazio e tempo e quindi vedono gli oggetti macroscopici in un
modo che è molto simile a come i fisici concepiscono le particelle subatomiche. Ciò è
particolarmente sorprendente nel Buddhismo. Uno dei principali insegnamenti del
Buddha era che “tutte le cose composte sono precarie”. Nella versione originale in
lingua Pali, il termine usato per “cose” è samkhara, una parola che significa anzitutto, un
evento, un avvenimento, o anche, un'azione, un atto, e solo come significato secondario,
una cosa esistente. Questo indica chiaramente che i Buddhisti hanno una concezione
dinamica delle cose come processi in continuo mutamento.
Come i fisici moderni, i Buddhisti vedono tutti gli oggetti come processi in un
flusso universale e negano l’esistenza di qualsiasi sostanza materiale Questa negazione
687!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
è uno dei tratti più caratteristici di tutte le scuole di filosofia buddhista ed è anche tipica
del pensiero cinese. Scrive lo storico della scienza Joseph Needham (1900-1995): “Mentre
la filosofia europea tendeva a trovare la realtà nella sostanza la filosofia cinese
tendeva a trovarla nella relazione”.
Prima della fisica relativistica delle particelle, i costituenti della materia erano
sempre stati considerati o come unità elementari indistruttibili e immutabili in senso
democriteo, oppure come oggetti composti che potevano essere suddivisi nelle loro
parti costituenti; e la domanda fondamentale che ci si poneva era se fosse possibile
continuare a dividere la materia, o se infine si sarebbe giunti alle minime unità
indivisibili. Dopo la scoperta di Dirac, tutto il problema della divisibilità della materia
apparve in una nuova luce. Quando due particelle si urtano con energie elevate, di
solito esse si frantumano in parti, ma queste parti non sono più piccole delle particelle
originarie. Sono ancora particelle dello stesso tipo, e sono prodotte a spese dell'energia
di moto (energia cinetica) coinvolta nel processo d'urto. L'intero problema della
divisibilità della materia è quindi risolto in maniera inaspettata. L'unico modo per
dividere ulteriormente le particelle subatomiche è quello di farle interagire tra loro in
processi d'urto ad alta energia. Così facendo possiamo dividere la materia, ma non
otteniamo mai pezzi più piccoli, proprio perchè creiamo le particelle a spese
dell'energia coinvolta nel processo.
Questo stato di cose è destinato a rimanere paradossale fino a quando
continuiamo ad assumere un punto di vista statico secondo cui la materia è formata da
mattoni elementari. Solo quando si assume un punto di vista dinamico, relativistico, il
paradosso scompare. Le particelle sono viste allora come configurazioni dinamiche, o
processi, che coinvolgono una certa quantità di energia, la quale si presenta a noi come
la loro massa. In un processo d'urto, l'energia delle due particelle che entrano in
collisione viene ridistribuita secondo una nuova configurazione, e se è stata aggiunta
una quantità sufficiente di energia cinetica, la nuova configurazione può comprendere
particelle ulteriori.
Secondo la nostra attuale conoscenza della materia, le sue forme basilari sono le
particelle subatomiche e la comprensione delle loro proprietà e delle loro interazioni è
lo scopo principale della moderna fisica fondamentale. Oggi, noi conosciamo più di
duecento particelle, la maggior parte delle quali vengono create artificialmente in
processi d'urto e vivono solo per un intervallo di tempo estremamente breve, dopo il
quale si disintegrano nuovamente in protoni, neutroni ed elettroni. È quindi del tutto
evidente che queste particelle dalla vita così breve rappresentano soltanto forme
transitorie di processi dinamici. Nonostante la loro vita estremamente breve, non solo è
possibile rivelare l'esistenza di queste particelle e misurarne le proprietà, ma addirittura
si può fare in modo che lascino delle tracce, prodotte nelle cosiddette camere a bolle,
che possono essere fotografate.
Le più importanti domande che ci poniamo nei confronti di queste forme, o
particelle, sono le seguenti. Quali sono i loro caratteri distintivi? Sono composte e, se lo
sono, da che cosa sono composte? In quale modo interagiscono l'una con l'altra, cioè
quali sono le forze che agiscono tra loro? Infine, se le particelle stesse sono processi, di
quali tipi di processi si tratta? Siamo diventati consapevoli che nella fisica delle
particelle tutte queste domande sono inscindibilmente connesse. Data la natura
relativistica delle particelle subatomiche, non possiamo comprenderne le proprietà
senza comprenderne anche le loro interazioni reciproche e, a causa della fondamentale
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
688!
interconnessione che caratterizza il mondo subatomico, non possiamo comprendere
alcuna particella prima di aver compreso tutte le altre. Sebbene ci manchi ancora una
teoria quantistico-relativistica completa del mondo subatomico, sono state elaborate
molte teorie e molti modelli parziali che descrivono con grande successo alcuni aspetti
di questo mondo.
Ogni volta che, nel corso degli anni, una microscopica entità materiale veniva
considerata corrispondente all'atomo di Democrito, nuove scoperte e nuove teorie
mostravano che l'oggetto ritenuto elementare in realtà era formato da qualche cosa
ancora più fondamentale e ancora più semplice.
Fin dall'inizio degli anni Trenta tutta la materia conosciuta poteva essere
descritta mediante quattro particelle considerate elementari e a simmetria sferica: il
protone, l'elettrone, il neutrone e il fotone. Questo schema, estremamente semplice e
attraente, cominciò lentamente a mutare con l'introduzione dello spin, con la teoria
della relatività e con le antiparticelle di Dirac. Lo spin, dapprima, fece perdere la perfetta
simmetria geometrica dei corpuscoli; la scoperta dell'antimateria fece poi mutare la
concezione materialistica della natura; la relatività, infine, fornì la possibilità teorica di
creare una particella dalle altre, a condizione di disporre di sufficiente energia.
La fiducia nell'apparente semplicità della materia fu scossa dalla scoperta,
effettuata da Andersson nel 1932, dell'elettrone positivo (positone) che confermava la
teoria di Dirac sulle antiparticelle, dai primi mesoni (1936) prodotti dai raggi cosmici,
dall'introduzione del neutrino (ufficialmente trovato nel 1953) e, soprattutto, dalla
comparsa di numerose altre particelle che hanno dilatato in modo non previsto la
famiglia delle prime particelle ritenute elementari.
La prima particella “piovuta dal cielo” è stato il positrone, primo esempio di
antimateria. Oltre all'antielettrone, dai raggi cosmici è arrivato il "fratello maggiore"
dell'elettrone: il muone osservato per la prima volta da S. Neddermayer e Andersson nel
1937.
La costruzione dei grandi acceleratori ha incrementato, infine, a tal punto il
numero delle particelle subnucleari che, allo stato attuale, i costituenti primari della
materia sono così numerosi e con evidenti tracce di struttura interna che non possono
più essere considerati sotto un aspetto elementare. Con gli acceleratori di particelle la
possibilità teorica ipotizzata dalla relatività di creare nuove particelle è diventata una
realtà. Dalla collisione ad altissima energia fra corpuscoli si possono ottenere, nel rispetto di alcune leggi di conservazione, altri corpuscoli, e non solo, per ogni tipo di
particella vi è un corpuscolo identico per quanto riguarda la massa e la vita media, ma
opposto per quanto riguarda alcune proprietà come per esempio la carica elettrica, che
noi indichiamo con il nome di antiparticella. L'accoppiamento simmetrico particellaantiparticella, introdotto inizialmente da un punto di vista teorico da Dirac per
collegare le due grandi teorie del ventesimo secolo (la relatività e la meccanica
quantistica) è stato sistematicamente verificato in tutti gli esperimenti ad alta energia.
Dal 1932, anno in cui Andersson scoprì il positrone, la lista delle antiparticelle si è
ingrandita di pari passo con la lista delle particelle.
Nel 1955, per merito di Segrè e Owen Chamberlain (1920–2006; Premio Nobel), è
stato scoperto l'antiprotone e l'anno successivo, sempre nel betatrone Lawrence Radiation
Laboratory di Berkeley, l'antineutrone. Tranne alcune particelle (il fotone, il pione neutro,
ecc.), la cui antiparticella corrisponde alla particella, tutte le altre sono distinte dalle
corrispondenti antiparticelle.
689!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Negli ultimi decenni, gli esperimenti di diffusione ad alta energia ci hanno
rivelato nel modo più straordinario la natura dinamica e continuamente mutevole del
mondo delle particelle; la materia si è dimostrata capace di trasformazione totale. Tutte
le particelle possono essere trasformate in altre particelle, possono essere create
dall'energia e possono scomparire in energia. In questo contesto, concetti classici come
particella elementare, sostanza materiale o oggetto isolato, hanno perso il loro
significato: l'intero universo appare come una rete dinamica di configurazioni di
energia non separabili. Non abbiamo ancora trovato fino a oggi una teoria completa per
descrivere questo mondo delle particelle subatomiche, ma disponiamo di diversi
modelli teorici che ne rappresentano piuttosto bene alcuni aspetti. Nessuno di questi
modelli è privo di difficoltà matematiche e ognuno di essi è in qualche modo in
contraddizione con gli altri, ma tutti riflettono l'unità fondamentale e il carattere
intrinsecamente dinamico della materia. Essi mostrano che le proprietà di una particella
possono essere capite solo in rapporto alla sua attività, alla sua interazione con
l'ambiente circostante, e che perciò la particella non può essere vista come un’entità
isolata, ma va intesa come una parte integrata del tutto.
Negli anni Trenta, per spiegare come i protoni potessero tranquillamente
convivere uno vicino all'altro nel limitato volume nucleare, malgrado la repulsione
elettrostatica dovuta alla loro carica positiva, si pensò che dovesse esistere una forza
capace, come una colla, di tenere uniti i protoni: una forza ancora più intensa di quella
di natura elettromagnetica agente fra le particelle cariche, in modo da prevalere su quest’ultima. Questa forza, oggi detta di interazione nucleare forte, si manifesta fra alcune
particelle chiamate adroni (dal greco adros, "forte"), come i protoni e i neutroni; il suo
raggio d'azione è dell'ordine delle dimensioni nucleari, cioè di 10-15 m.
Una grande varietà di fenomeni, come il decadimento beta, la disintegrazione di
molte particelle instabili, l'interazione, estremamente poco probabile, dei neutrini con la
materia, la cattura nucleare di alcune particelle, ecc., può essere spiegata in termini di
un'altra forza fondamentale, quella di interazione nucleare debole.
La teoria dell'interazione debole ha origine da un lavoro di Fermi del 1933.
Riprendendo un'ipotesi formulata qualche anno prima da Pauli, Fermi riuscì a
interpretare lo spettro continuo degli elettroni nell'emissione beta. Ciascuno di questi
elettroni è prodotto, insieme a un antineutrino, dal decadimento di un neutrone in un
protone. L'importanza della teoria di Fermi consiste nel fatto che, oltre a introdurre il
neutrino nel mondo delle particelle, stimolò una numerosa serie di ricerche e servì da
modello per interpretare il decadimento di molte particelle instabili. Per quanto
riguarda il raggio d'azione, tale forza ha effetto solamente a brevissima distanza, pari a
circa 10-18 m.
L'interazione gravitazionale, estremamente più debole delle interazioni di cui
sopra, può essere ignorata in tutti i problemi riguardanti entità microscopiche come le
particelle. Con molta probabilità, però, in un prossimo futuro che è già cominciato, la
forza gravitazionale potrebbe rappresentare la chiave per capire alcuni fra i molti
misteriosi problemi della fisica delle particelle.
La teoria della relatività ha modificato drasticamente non solo la nostra
concezione delle particelle, ma anche la nostra rappresentazione delle forze che
agiscono tra di esse. In una descrizione relativistica delle interazioni, la forza tra
particelle, vale a dire la loro mutua attrazione o repulsione, è rappresentata come
scambio di una particella intermedia, chiamata quanto mediatore o bosone vettore, la cui
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
68:!
massa è inversamente proporzionale al raggio d'azione della forza in gioco. Questa
regola, introdotta per la prima volta per spiegare le modalità dell'interazione
elettromagnetica e successivamente di quella forte, viene attualmente ritenuta valida
per tutte le classi d'interazione.
Questo concetto è molto difficile da visualizzare. Ciò è una conseguenza del
carattere quadridimensionale dello spaziotempo del mondo subatomico, e né la nostra
intuizione né il nostro linguaggio possono trattare in maniera adeguata questa idea, che
tuttavia è cruciale per una comprensione dei fenomeni subatomici. Essa permette di
collegare le forze tra i costituenti della materia alle proprietà di altri costituenti della
materia, e quindi unifica i due concetti, forza e materia, che erano sembrati così
fondamentalmente diversi fin dai tempi degli atomisti greci. Oggi si vede che forza e
materia hanno la loro comune origine nelle configurazioni dinamiche che chiamiamo
particelle. Il fatto che le particelle interagiscano attraverso forze che si manifestano
come scambio di altre particelle è una ragione ulteriore per cui il mondo subatomico
non può essere scomposto in parti costituenti.
Le teorie dei campi della fisica moderna non solo hanno portato a una nuova
concezione delle particelle subatomiche ma hanno anche modificato in maniera radicale
la nostra concezione delle forze che agiscono fra queste particelle. In origine, il concetto
di campo era legato a quello di forza, e anche nella teoria dei campi esso è ancora
associato alle forze tra particelle. Il campo elettromagnetico, per esempio, può
manifestarsi come campo libero sotto forma di onde/fotoni che si propagano, oppure
può avere la funzione di un campo di forze tra particelle cariche. In quest'ultimo caso, la
forza si manifesta come scambio di fotoni tra le particelle che interagiscono. La
repulsione elettrica tra due elettroni, per esempio, è mediata da questi scambi di fotoni,
ossia i quanti della forza elettromagnetica, il cui raggio d'azione è infinito, sono
rappresentati da particelle di massa nulla, i fotoni. L'interazione fra due cariche
elettriche non si esplica in modo diretto e istantaneo, bensì viene trasmessa con velocità
finita (quella della luce) per effetto dell'emissione e dell'assorbimento di fotoni da parte
delle cariche.
Questa nuova concezione della forza può sembrare difficile
da capire, ma essa diventa molto più chiara quando il processo di
scambio di un fotone è rappresentato in un diagramma spaziotempo. Nel diagramma sono rappresentati due elettroni che si
avvicinano tra loro; uno di essi emette il fotone γ nel punto A,
l'altro lo assorbe nel punto B. Dopo avere emesso il fotone, il
primo elettrone inverte la sua direzione e modifica la velocità
(come si può vedere dal cambiamento di direzione e
d'inclinazione della sua linea di universo), e così pure fa il
secondo elettrone quando assorbe il fotone. Infine, i due elettroni
si allontanano rapidamente, essendosi respinti l'un l'altro
attraverso lo scambio del fotone. L'interazione completa tra gli elettroni comporterà una
serie di scambi di fotoni, e come effetto finale gli elettroni sembreranno deviarsi l'un
l'altro lungo curve continue. In termini di fisica classica, si potrebbe dire che gli elettroni
esercitano l'uno sull'altro una forza repulsiva. Questo, tuttavia, è considerato oggi un
modo molto impreciso di descrivere la situazione. Nessuno dei due elettroni sente una
forza quando si avvicina all'altro: essi semplicemente interagiscono mediante lo
scambio di fotoni, e la forza non è altro che l'effetto macroscopico collettivo di questi
69<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
ripetuti scambi di fotoni. Il concetto di forza perciò non ha più alcuna utilità nella fisica
subatomica: è un concetto classico che noi associamo all'idea newtoniana di forza che
agisce a distanza. Nel mondo subatomico non ci sono forze di questo tipo, ma solo
interazioni tra particelle, mediate attraverso campi, cioè, attraverso altre particelle.
Perciò, i fisici preferiscono parlare di interazioni piuttosto che di forze.
Secondo la teoria dei campi, tutte le interazioni
avvengono attraverso lo scambio di particelle, e in analogia
con la forza elettromagnetica, nel 1935 il fisico giapponese
Hideki Yukawa (1907–1981; Premio Nobel) intuì che anche la
forza nucleare forte dovesse essere trasmessa da un quanto
mediatore. Poiché in base a certe considerazioni teoriche
questa nuova particella avrebbe dovuto avere una massa
intermedia fra quella dell'elettrone e quella del protone,
Yukawa la chiamò mesone ("che sta nel mezzo"). Una decina
d'anni dopo la prima previsione di Yukawa, con un notevole travaglio dovuto ad
alcune errate interpretazioni, le particelle ritenute responsabili della trasmissione della
forza nucleare forte furono sperimentalmente scoperte nella radiazione cosmica: si
trattava dei mesoni π, detti anche pioni, i quali presentavano un marcato accoppiamento
con i nucleoni. In realtà, i mediatori delle interazioni forti sono certi oggetti chiamati
gluoni (dall'inglese glue, "colla"). Esistono molti tipi diversi di mesoni che possono essere
scambiati tra protoni e neutroni. Più i nucleoni sono vicini tra loro, più sono numerosi e
pesanti i mesoni che essi scambiano. Le interazioni tra nucleoni sono quindi connesse
alle proprietà dei mesoni scambiati e questi, a loro volta, interagiscono fra loro
attraverso lo scambio di altre particelle. Per questa ragione non saremo in grado di
capire la forza nucleare a un livello fondamentale prima di capire l'intero spettro delle
particelle subatomiche.
Nella teoria dei campi, tutte le interazioni tra particelle possono essere
rappresentate con diagrammi spaziotempo, e ciascun diagramma è associato a una
espressione matematica che permette di calcolare la probabilità che si verifichi il
corrispondente processo. L'esatta corrispondenza tra i diagrammi e le espressioni
matematiche fu stabilita nel 1949 Feynman, e perciò da allora i diagrammi sono noti
come diagrammi di Feynman. Un punto cruciale della teoria è la creazione e la
distruzione di particelle. Per esempio, nel diagramma precedente il fotone è creato nel
processo di emissione nel punto A, ed è distrutto quando viene assorbito nel punto B.
Un processo simile può essere concepito solo in una teoria relativistica nella quale le
particelle non sono viste come oggetti indistruttibili, ma piuttosto come figure
dinamiche che coinvolgono una certa quantità di energia, che può essere ridistribuita
quando si formano nuove figure.
La creazione di una particella dotata di massa è possibile solo quando viene
fornita l'energia corrispondente alla sua massa, per esempio in un processo d'urto. Nel
caso delle interazioni forti, questa energia non è sempre disponibile, come succede
quando due nucleoni interagiscono tra loro in un nucleo atomico. In tali casi, quindi,
non dovrebbero essere possibili scambi di mesoni dotati di massa; tuttavia essi si
verificano ugualmente. Per esempio, due protoni possono scambiare un mesone π, o
pione, la cui massa è circa un settimo di quella del protone. Le ragioni per le quali
possono avvenire processi di scambio di questo tipo, nonostante l'apparente mancanza
di energia per la creazione del mesone, devono essere cercate in un effetto quantistico
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
69;!
connesso con il principio di indeterminazione. Gli eventi subatomici che si verificano
entro un intervallo di tempo breve comportano un'incertezza nell'energia
proporzionalmente grande. Gli scambi di mesoni, cioè la loro creazione e la successiva
distruzione, sono eventi di questo tipo. Essi avvengono in un intervallo di tempo così
breve che l'incertezza nell'energia è sufficiente a permettere la
creazione dei mesoni stessi. Mesoni di questo tipo sono chiamati
particelle virtuali e sono diversi dai mesoni reali creati nei processi
d'urto, perchè possono esistere solo per l'intervallo di tempo
permesso dal principio di indeterminazione. Più sono pesanti, cioè
maggiore è l'energia richiesta per crearli, più è piccolo l'intervallo
di tempo permesso per il processo di scambio. Questa è la ragione
per la quale lo scambio di mesoni pesanti tra nucleoni può avvenire
solo quando questi sono molto vicini tra loro. Lo scambio di fotoni
virtuali, viceversa, può avvenire su distanze illimitate perchè i
fotoni, essendo privi di massa, possono essere creati con una
quantità di energia indefinitamente piccola.
Nella teoria dei campi, quindi, tutte le interazioni sono rappresentate come scambio
di particelle virtuali. Più forte è l'interazione, cioè più è intensa la forza risultante tra le
particelle, maggiore è la probabilità di questo processo di scambio, e più
frequentemente verranno scambiate particelle virtuali. Il ruolo delle particelle virtuali,
tuttavia, non è limitato a queste interazioni. Un solo nucleone, per esempio, può
benissimo emettere una particella virtuale e riassorbirla poco dopo. Purché il mesone
creato scompaia entro il tempo permesso dal principio di indeterminazione, non c'e
nulla che proibisca tale processo.
La probabilità di siffatti processi di autointerazione è molto alta per i nucleoni a
causa della loro forte interazione. Ciò significa che in realtà i nucleoni emettono e
assorbono di continuo particelle virtuali. Secondo la teoria dei campi, essi devono essere
considerati centri di attività continua e avvolti da nubi di particelle virtuali. I mesoni
virtuali devono scomparire in un tempo brevissimo dopo la loro creazione, il che
significa che essi non possono allontanarsi molto dal nucleone; di conseguenza, la
nuvola di mesoni è molto piccola. Le sue regioni più esterne sono popolate da mesoni
leggeri (soprattutto pioni), poiché i mesoni pesanti, dovendo essere assorbiti dopo un
tempo molto più breve, rimangono confinati nella parte interna della nube.
Ogni nucleone è circondato da questa nube di mesoni virtuali i quali vivono solo
per un periodo di tempo estremamente breve. Tuttavia, i mesoni virtuali possono
diventare mesoni reali in particolari circostanze. Quando un nucleone è colpito da
un'altra particella che si muove ad alta velocità, una parte dell'energia di moto di questa
particella può essere trasferita a un mesone virtuale per liberarlo dalla nube. Questo è il
modo in cui i mesoni reali sono creati negli urti ad alta energia. D'altra parte, quando
due nucleoni si avvicinano talmente l'uno all'altro che le loro nubi di mesoni si
sovrappongono, può accadere che alcune delle particelle virtuali non tornino indietro
per essere riassorbite dal nucleone che le ha create inizialmente, ma saltino dall'altra
parte e siano assorbite dall'altro nucleone. Così si realizzano i processi di scambio che
costituiscono le interazioni forti.
Questa rappresentazione mostra chiaramente che le interazioni tra particelle, e
quindi le forze tra di esse, sono determinate dalla composizione delle loro nubi virtuali.
Il raggio d'azione di una interazione, cioè la distanza tra le particelle alla quale avrà
69=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
inizio l'interazione, dipende dall'estensione delle nubi virtuali, e la forma particolare
dell'interazione dipenderà dalle proprietà delle particelle presenti nella nube. Quindi le
forze elettromagnetiche sono dovute alla presenza di fotoni virtuali entro le particelle
cariche, mentre le interazioni forti tra nucleoni hanno origine dalla presenza di pioni
virtuali e di altri mesoni entro i nucleoni. Nella teoria dei campi, le forze tra particelle
appaiono come proprietà intrinseche a queste ultime. Oggi dunque si vede che forza e
materia, i due concetti che erano cosi nettamente separati nell'atomismo greco e
newtoniano, hanno la loro origine comune nelle figure dinamiche che chiamiamo
particelle.
La teoria dei campi della fisica moderna ci costringe ad abbandonare la classica
distinzione tra particelle materiali e vuoto. La teoria del campo gravitazionale di
Einstein e la teoria dei campi mostrano entrambe che le particelle non possono essere
separate dallo spazio che le circonda. Da una parte, esse determinano la struttura di
questo spazio, mentre dall'altra non possono venire considerate come entità isolate, ma
devono essere viste come condensazioni di un campo continuo che è presente in tutto lo
spazio. Nella teoria dei campi, il campo è visto come la base di tutte le particelle e delle
loro interazioni reciproche. Il campo esiste sempre e dappertutto, non può mai essere
eliminato. Esso è il veicolo di tutti i fenomeni materiali. È il vuoto dal quale il protone
crea i mesoni π. L'esistere e il dissolversi delle particelle sono semplicemente forme di
moto del campo .
La distinzione tra materia e spazio vuoto dovette essere
abbandonata quando divenne evidente che le particelle virtuali
possono generarsi spontaneamente dal vuoto, e svanire
nuovamente in esso, senza che sia presente alcun nucleone o altra
particella a interazione forte. Nel diagramma vuoto-vuoto, tre
particelle, un protone, un antiprotone, e un pione, emergono dal
nulla e scompaiono nuovamente nel vuoto. Secondo la teoria dei
campi, eventi di questo tipo avvengono di continuo. Il vuoto è ben
lungi dall'essere vuoto. Al contrario, esso contiene un numero
illimitato di particelle che vengono generate e scompaiono in un
processo senza fine.
La relazione tra le particelle virtuali e il vuoto è una relazione essenzialmente
dinamica; il vuoto è certamente un “vuoto vivente”, pulsante in ritmi senza fine di
creazione e distruzione. La scoperta della qualità dinamica del vuoto è considerata da
molti fisici uno dei risultati più importanti della fisica moderna. Dall'avere una funzione
di vuoto contenitore dei fenomeni fisici, il vuoto è passato ad essere una quantità
dinamica della massima importanza.
È importante rendersi conto che tutti i processi rappresentati dai diagrammi
spaziotempo seguono le leggi della meccanica quantistica e quindi sono tendenze,
ovvero probabilità, piuttosto che realtà effettive.
Dopo i brillanti successi nello studio delle prime due forze fondamentali,
apparve subito logico estendere anche all'interazione debole l'ipotesi degli agenti
mediatori. Essendo il raggio di questa interazione ancora più piccolo di quello della
forza nucleare forte, la massa dei quanti doveva essere notevolmente grande. Creare in
laboratorio queste massicce particelle, chiamate bosoni W (da weak interaction) non è stata
cosa da poco; inseguite per circa un ventennio, solo nel 1983 un gruppo di ricercatori
diretto da Carlo Rubbia (1934; Premio Nobel) è riuscito nell'intento.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
694!
Nonostante le notevoli differenze fra la forza elettromagnetica e la forza debole,
la cosiddetta teoria elettrodebole ha messo in evidenza una stretta parentela fra di esse.
Questa affinità, convalidata dalla scoperta da parte dello stesso Rubbia del quanto
mediatore Z0, la cui esistenza e le cui proprietà, insieme a quelle dei bosoni W, erano
state previste dalla teoria, fa sì che ormai si considerino le due forze come appartenenti
a un'unica classe di interazione, chiamata interazione elettrodebole.
Come logica conclusione la forza gravitazionale dovrebbe essere trasmessa, per
giustificare il suo raggio d'azione infinito, da un quanto di massa nulla, già battezzato
con il nome di gravitone. In analogia con il fotone, questa ipotetica particella sarebbe un
luxone, cioè un oggetto che viaggia sempre alla velocità della luce. Purtroppo, il
mediatore delle azioni gravitazionali non è stato finora rivelato. A causa del carattere
della forza, di gran lunga la più debole fra quelle note all'uomo, i gravitoni, se esistono,
faranno certamente "disperare" i ricercatori ancora per molti anni.
Man mano che il numero delle particelle scoperte dai fisici aumentava, si cercò di
classificarle in gruppi omogenei aventi le stesse caratteristiche. La prima suddivisione,
basata sui valori delle masse, distribuì le particelle fra le tre classi dei leptoni (le più
leggere), dei barioni (le più pesanti) e dei mesoni (di massa intermedia). Questa
classificazione è, però, ormai superata; infatti, nel 1976, sono stati scoperti dei mesoni
più pesanti dei barioni e un nuovo leptone la cui massa è circa due volte quella del
protone.
Un criterio più razionale è quello di suddividere le particelle in base alle forze
fondamentali attraverso le quali interagiscono fra loro:
"
leptoni, interagenti attraverso la forza nucleare debole e comprendenti l'elettrone,
il muone, il tau, i tre tipi di neutrini e le corrispondenti antiparticelle;
"
adroni, interagenti attraverso l'interazione nucleare forte e suddivisi nel
sottogruppo dei mesoni, aventi spin zero o intero, e in quello dei barioni, di spin
semintero.
FORZA
Forte
Debole
Elettromagnetica
Gravitazionale
RAGGIO
D’AZIONE
10-15 m
10-18 m
infinito
infinito
INTENSITÀ
1
10-6
10-2
10-38
BOSONI
VETTORI
gluoni
W + , W -, Z 0
fotone
gravitone
SPIN
1
1
1
2
CARICA
ELETTRICA
0
+1, -1, 0
0
0
695!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
La maggior parte delle particelle, specie quelle scoperte nell'ultimo ventennio, è
instabile; infatti decadono per successivi stadi finché non si perviene alle componenti
stabili dell'universo. Come la massa, la carica e lo spin, la vita media è una caratteristica
peculiare delle particelle instabili e delle corrispondenti antiparticelle. Tutte le particelle
instabili tendono, attraverso due canali, a trasformarsi in protoni o in elettroni (con il
neutrino associato). La via che conduce al protone viene chiamata canale barionico,
poiché è percorsa dai barioni; quella che porta all'elettrone è chiamata canale leptonico,
essendo seguita dai leptoni.
Poiché, sulla base delle attuati conoscenze, da un barione può nascere solo un
barione e da un leptone solo una progenie leptonica, viene logico supporre che, durante
i processi di decadimento verso le particelle stabili, esista, oltre alle tradizionali
grandezze che si conservano nella fisica classica, qualche altro parametro che rimane
costante.
Per disciplinare i due canali di scorrimento, e soprattutto per tentare di
giustificare la stabilità del protone, dapprima Weyl ed Ernst Stuckelberg (1905-1984) e
successivamente Wigner introdussero, intorno agli anni Trenta, due nuovi numeri
quantici: quello relativo ai barioni, chiamato numero barionico B, e quello relativo ai
leptoni, chiamato numero leptonico L.
Questi parametri possono assumere solo valori interi: B è uguale a + 1 per i
barioni, -1 per gli antibarioni e 0 per tutte le altre particelle e, similmente, L è uguale a +
1 per i leptoni, -1 per gli antileptoni e 0 per le altre particelle.
La legge di conservazione associata a questi numeri di famiglia postula che:
PRINCIPIO CONSERVAZIONE NUMERO BARIONICO E LEPTONICO
in ogni processo fisico la somma dei numeri barionici e la somma dei numeri leptonici
devono sempre conservarsi.
Dal 1947 al 1953, la lista delle particelle elementari è stata notevolmente ampliata
con la scoperta dei mesoni K e degli iperoni, con massa maggiore dei nucleoni. Le
nuove particelle, quasi tutte individuate nella radiazione cosmica e successivamente
prodotte mediante le grandi macchine acceleratrici, si comportano in modo anomalo
rispetto ai tradizionali nucleoni, elettroni, pioni, ecc. In primo luogo, esse compaiono
sempre a coppie, inoltre, i mesoni K e gli iperoni, pur essendo creati, se l'energia è
sufficiente, da interazioni di tipo forte, decadono secondo tipici processi deboli, in tempi
lunghissimi rispetto alla loro genesi. Poiché tutto ciò era piuttosto inconsueto e sorprendente, inizialmente queste nuove particelle furono qualificate come "strane", e fu
necessario introdurre un ulteriore numero quantico, chiamato stranezza S.
Per spiegare il comportamento delle particelle strane, Murray Gell-Mann (1929;
Premio Nobel) e Kazuhiko Nishijima (1926-2009) introdussero dunque la stranezza S,
come un numero quantico conservato nelle sole interazioni forti. Il valore di S è zero per tutte
le "vecchie" particelle e diverso da zero per tutte le nuove. Una particella strana
interagisce fortemente solo se si trova in presenza di un'altra particella strana, come
avviene al momento della sua creazione, mentre quando decade, non avendo più
accanto un partner strano, è soggetta alla forza debole.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
696!
Nel 1964 Gell-Mann e indipendentemente George Zweig
(1937) considerarono ogni adrone, praticamente la maggior parte
delle particelle conosciute, come formato dalla combinazione di
tre unità di materia chiamate quark e indicate con i simboli u (up),
d (down), s (strange). Naturalmente la previsione teorica dei tre
quark implica quella dei tre antiquark. Le regole mediante le
quali si originano tutte le particelle adroniche sono le seguenti:
COMPOSIZIONE A QUARK DEGLI ADRONI
Ogni barione (antibarione) rappresenta uno stato legato formato dalla combinazione di tre
quark (antiquark); ogni mesone rappresenta uno stato legato formato dalla combinazione di
un quark e di un antiquark.
Ogni struttura realizzata mediante queste due norme deve portare a una
particella esistente in natura. Così è infatti: non solo tutte le possibili combinazioni
permesse corrispondono a un adrone noto, ma non esistono particelle mancanti. Mentre
la materia ordinaria che costituisce il nostro mondo è formata solo dai due quark più
leggeri u e d, il quark strano s si trova solo nelle particelle strane.
Il modello con soli tre quark fu messo in crisi dalla scoperta del mesone J/Ψ:
questa particella infatti non poteva essere formata dall'iniziale terzetto di quark, in
quanto tutte le possibili combinazioni corrispondevano ad altri adroni già noti. Per trovare un
posto al nuovo personaggio fu ampliato il modello,
aggiungendo un quarto quark, chiamato charm
(fascino) e indicato con la lettera c. Per far quadrare i
conti della teoria, ci sarebbero voluti tuttavia altri due
quark, battezzati con i nomi di bottom (basso) o anche
beauty (bellezza) e top (alto) e indicati rispettivamente
con i simboli b e t. Dopo la scoperta della particella Y,
la cui struttura indica chiaramente l'esistenza del quinto quark b, restava da trovare il
sesto e più sfuggente membro della famiglia dei quark. La caccia, condotta per lungo
tempo, si concluse nel 1994 con la scoperta del top, caratterizzato da una massa oltre 160
volte più grande di quella del protone.
Una delle più peculiari proprietà dei quark è la loro carica elettrica frazionaria,
derivante dal fatto che la carica elettrica di ciascuna particella adronica è data dalla
somma algebrica delle cariche dei quark costituenti. Un aspetto dei quark che ha creato
diversi problemi ai fisici teorici è stato lo spin. Per ottenere i corretti momenti angolari
degli adroni, ai quark deve essere attribuito uno spin pari a 1/2. Come tutte le particelle
con spin semintero finora conosciute, essi devono dunque essere soggetti al principio di
esclusione di Pauli. Ciò implica che in uno stesso stato non possono esistere due quark
con gli stessi numeri quantici. Invece, proprio gli oggetti più elementari sembravano
non comportarsi come i soliti fermioni.
Oscar Greenberg riuscì a risolvere questa apparente incoerenza assegnando ai
quark un numero quantico supplementare chiamato colore. Con l'aggiunta di questo
nuovo attributo, ogni quark di un dato tipo può mostrarsi in tre varietà distinte per il
colore, cioè B (blue, azzurro), G (green, verde) e R (red, rosso) senza mutare o perdere gli
697!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
altri aspetti. Agli antiquark corrispondono i tre anticolori. Ovviamente, si tratta solo di
far apparire uno stesso oggetto con qualche cosa di diverso: il colore o l'anticolore sono,
infatti, etichette che non hanno nulla a che vedere con la policromia del nostro mondo.
Con questa ipotesi, quando i quark si legano per formare una particella non si trovano,
anche se sono dello stesso tipo, nello stesso stato quantico, poiché si differenziano per il
colore. Anche se la teoria del colore non implica nessuna nuova particella, lo scotto da
pagare per l'etichetta cromatica prevede il triplicarsi del numero dei quark. I membri
della famiglia diventano diciotto (con altrettante antiparticelle), le unità fondamentali di
materia cominciano nuovamente a crescere e nuove norme condizionano la genesi delle
particelle fortemente interagenti.
Così, per spiegare il meccanismo di formazione degli adroni è necessario
aggiungere alle regole precedenti le seguenti:
COMBINAZIONI DI QUARK "COLORATI"
Ciascuno dei tre quark che compongono un barione deve avere
colore diverso; ogni mesone deve essere formato da un quark di un
colore e un antiquark del corrispondente anticolore.
Con queste norme ogni adrone nel suo complesso è per così dire incolore. La
sovrapposizione delle tre tinte origina sempre una particella che non mostra alcuna
traccia cromatica, nel senso che si presenta con carica di colore nulla. Lo stesso avviene
sovrapponendo un colore con il suo anticolore.
Nonostante qualche iniziale perplessità, questa "policromia", introdotta nel
modello a quark come una forzata ipotesi per non violare una legge (principio di
esclusione) valida senza eccezioni, ha ormai assunto un ruolo fondamentale nella
problematica adronica. Sotto molti aspetti esiste un'affinità semantica fra la carica
elettrica e la proprietà cromatica dei quark, per questo chiamata anche carica di colore.
Mentre la prima origina la forza elettromagnetica, che tiene insieme l'edificio atomico, la
seconda tiene uniti gli elementi primordiali di materia necessari per costruire gli adroni.
La teoria del campo di colore, sviluppata nell’arco degli ultimi venti anni per
interpretare le interazioni fra i quark, è chiamata cromodinamica quantistica (QCD).
L'interazione fra i diversi tipi di colore, o fra un colore e un anticolore, non è altro che la
forza nucleare forte che tiene legati i quark a formare le particelle. Questa forza è
trasmessa da una classe di esoteriche particelle dette gluoni. I gluoni, che si comportano
come robuste corde elastiche, servono per incollare fra loro i quark formando oggetti
osservabili, privi di carica di colore, come il protone e il neutrone.
Il metodo più appropriato per creare nuove particelle e quindi anche i quark, è
quello di far urtare violentemente l'uno contro l'altro gli adroni, portati a velocità
relativistica entro gli acceleratori di particelle. Come una monade leibnitziana, una
particella è potenzialmente formata da tutte le altre; infatti, presenta in sé tutte le
configurazioni possibili, nel senso che costituisce il centro primordiale della materia.
Per spiegare la difficoltà di trovare i quark allo stato libero, nel 1973 Franck
Wilczek (1951; Premio Nobel), a soli 22 anni sviluppò per primo il concetto di libertà
asintotica. La forza forte, che permette ai quark di convivere vicini per formare i
nucleoni, a differenza delle altre forze fondamentali, come per esempio quella
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
698!
elettromagnetica, aumenta d'intensità quando i quark tendono ad allontanarsi. È come
se le particelle fossero collegate fra loro da una corda elastica: quando la distanza
aumenta, l'interazione diventa più intensa. Si tratta di una proprietà piuttosto
sconcertante che obbliga i quark a rimanere confinati all'interno degli adroni. Poiché
l'ipotesi è stata confermata da trent’anni di esperimenti, si può ora spiegare la mancata
comparsa allo stato libero degli elementi primordiali della materia.
14.5 Il modello standard
Il modello standard delle particelle elementari è basato su due pilastri della fisica
del XX secolo, la meccanica quantistica e la relatività ristretta, e su un'ipotesi di lavoro,
quella che le particelle elementari, nel limite classico, siano oggetti puntiformi, cioè
privi di estensione spaziale. Queste ipotesi portano, in modo praticamente univoco, alla
descrizione delle particelle elementari tramite la cosiddetta teoria quantistica dei campi,
una teoria basata sul principio che qualunque campo di forze possa sempre risultare
misurabile in qualunque punto dello spazio e ad ogni un istante di tempo dati.
Il modello standard, costruito su queste basi, ha avuto un successo che va al di là
di ogni aspettativa e sono numerosissime ed importanti le sue predizioni teoriche
confermate sperimentalmente. Purtroppo, però, il modello standard delle particelle
riesce a descrivere in maniera unitaria e completa solo tre delle quattro forze
fondamentali che conosciamo in natura: la forza elettromagnetica, quella nucleare forte
e quella nucleare debole, mentre è incapace di inglobare la forza gravitazionale, che
invece è così importante per la cosmologia. In altre parole, il modello standard combina
in modo molto efficace meccanica quantistica e relatività ristretta, ma non meccanica
quantistica e relatività generale.
Il motivo fisico per cui è difficile riconciliare meccanica quantistica e relatività
generale è essenzialmente dovuto al famoso principio di indeterminazione di
Heisenberg. Infatti, anche la relatività generale è una teoria di campo locale, cioè basata
sull'assunzione che si possa misurare il campo gravitazionale in un dato punto dello
spazio e del tempo. Ma, come previsto dal principio di Heisenberg, una precisione
infinita nella posizione implica una indeterminazione completa nella velocità; ovvero,
se misuriamo un campo gravitazionale con molta precisione in un punto, abbiamo di
conseguenza una grossa imprecisione sulla sua energia. Queste enormi fluttuazioni di
energia, d'altra parte, causano necessariamente enormi fluttuazioni del campo
gravitazionale stesso, dato che, è proprio l'energia che agisce da sorgente per il campo
gravitazionale. Ecco perchè per la gravità, e solo per essa, sorgono problemi
insormontabili quando si cerca di combinare una teoria locale come la relatività
generale con la meccanica quantistica. Si possono pensare a varie soluzioni di questo
problema, compresa quella che la forza di gravità non debba essere quantizzata, ma
questa drastica alternativa porterebbe a varie difficoltà, di natura sia concettuale che
sperimentale.
Pertanto, il modello standard, non può essere considerato una teoria completa
delle interazioni fondamentali in quanto non comprende la gravità, per la quale non
esiste ad oggi una teoria quantistica coerente. Non prevede, inoltre, l'esistenza della
materia oscura e dell’energia oscura che costituiscono quasi tutto, circa il 95%, il
contenuto dell'universo.
699!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Nel modello standard le
particelle fondamentali sono
raggruppate in due categorie:
" le particelle costituenti la
materia, che risultano essere
tutti fermioni, ovvero i quark
ed i leptoni. Questi ultimi
comprendono i leptoni carichi
ed i neutrini.
le particelle mediatrici
delle forze, che risultano essere
tutte bosoni (il fotone per
l'interazione elettromagnetica, i
due bosoni carichi W+ e W-. ed
il bosone Z per l'interazione debole e i gluoni per l'interazione forte).
"
I fermioni possono essere raggruppati in base alle loro proprietà di interazione in
tre generazioni: la prima composta da elettroni, neutrini elettronici e dai quark up e down.
Tutta la materia ordinaria è costituita, come si è visto, da elettroni e dai quark up e down.
Infatti la materia è costituita da atomi che sono a loro volta composti da un nucleo ed
uno o più elettroni, che sono i più leggeri tra i leptoni carichi. Il nucleo è costituito a sua
volta da protoni e neutroni che sono composti ciascuno da tre quark. Le particelle delle
due generazioni successive hanno massa maggiore delle precedenti. A causa della loro
maggior massa, i leptoni ed i quark della seconda e terza famiglia (o le particelle da essi
costituite) possono decadere in particelle più leggere costituite da elementi della prima
famiglia. Per questo, queste particelle sono instabili e presentano una breve vita media.
Anche se nessuno ha idea del perché debbano esistere queste altre due famiglie
di particelle, è comunque necessario che la fisica teorica giustifichi la presenza di questi
fantasmi che nascono e rapidamente scompaiono e riesca a stabilire che non esistono
altre generazioni di particelle da aggiungere al Modello Standard e ad affermare in
modo assoluto che i quark e i leptoni non possono diventare delle strutture composte
da elementi ancora più fondamentali. Ciò non è affatto escluso e già da alcuni anni sono
cominciate ad arrivare alcune sofisticate teorie, come quella delle stringhe, prive
tuttavia di conferme sperimentali, che introducono nuovi corpuscoli più profondi dei
quark e dei leptoni.
Nel modello standard le particelle interagiscono fra loro con una, con due, o con
tutte e tre queste specie di forza. Rimane esclusa la quarta forza fondamentale della
natura, la gravità, che, come abbiamo detto, è ancora assente nel modello standard. Nel
Modello Standard è anche prevista la presenza di almeno un bosone di Higgs,
responsabile dell’esistenza della massa delle particelle, e la cui massa non viene prevista
dal Modello. Questo bosone (scoperto nel 2012 grazie all’acceleratore di particelle LHC,
Large Hadron Collider), che prende il nome dal fisico scozzese Peter Higgs (1929), il
quale per primo ne teorizzò l'esistenza fin dagli anni Sessanta, è sorgente di un campo
(il campo di Higgs) che pervade lo spazio vuoto rendendo "pesante" la materia. Tale
campo dovrebbe fornire la massa alle diverse particelle in quantità tanto maggiore
quanto più grande è l'intensità dell'interazione stabilita con esse. La massa non è quindi
un parametro fondamentale, ma deriva dall’interazione (meccanismo di Higgs) tra le
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
69:!
particelle e la particella di Higgs. Se la particella di Higgs non esistesse, tutti le particelle
avrebbero massa nulla e si muoverebbero alla velocità della luce come i fotoni. Ma chi
genera la massa della particella di Higgs? Un aspetto importante del meccanismo di
Higgs e della conseguente generazione della massa è che tutto ciò può avvenire solo se
il bosone di Higgs interagisce con se stesso, autogenerando la propria massa, ossia il
campo di Higgs è autointeragente. La particella di Higgs è instabile, ossia decade
immediatamente in altre
particelle, per cui ciò che è
stato osservato nel LHC
sono stati i prodotti di
questo decadimento. Al
momento
dell’annuncio
della scoperta (luglio 2012)
la massa del bosone di
Higgs è stata stimata
intorno a 126 Gev (oltre
120 volte la massa del
protone). Comunque i dati
relativi
alle
sue
caratteristiche sono ancora
incompleti.
Il LHC è stato spento all'inizio del 2013 a causa di importanti lavori ed è previsto
che ritorni in funzione nel 2015 quando raggiungerà la massima energia di 14 TeV.
Molti fisici teorici si aspettano grosse novità, in termini di conferme di modelli teorici,
come la Supersimmetria, o che una nuova fisica emerga oltre il Modello Standard alla
scala del TeV, a causa di alcune proprietà insoddisfacenti del modello stesso.
Il Modello Standard è un’eccellente descrizione di quello che avviene nel mondo
subatomico e ha dimostrato capacità predittive senza precedenti nella storia della
scienza. Ma se ci chiediamo perché il Modello Standard abbia le caratteristiche che
conosciamo, iniziano a emergere le difficoltà. Per esempio, se ci chiediamo perché ci
sono tre diversi tipi di leptoni, e non un altro numero, o perché l’elettrone ha la massa
che ha, il Modello Standard non lo spiega. Dobbiamo quindi studiare la natura a un
livello più profondo
per
scoprire
la
risposta.
La teoria della
Supersimmetria, che
ipotizza che a ogni
particella conosciuta
corrisponda una superpartner nascosta, dovrebbe dare le risposte che il Modello
Standard non da, oltre a gettare un po’ di luce sulla natura della materia oscura e
dell’energia oscura, che costituiscono rispettivamente il 23% e il 72%
dell’universo (l'energia e la materia visibili ne costituiscono solo il 5%).
La Supersimmetria, basandosi su ragionamenti simili a quelli di Dirac che mostrò
che le simmetrie dello spaziotempo implicano che ogni particella abbia una
corripsondente antiparticella, prevede che ci sia un’estensione quantistica dello
6:<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
spaziotempo chiamata superspazio e che le particelle immerse in questo superspazio
sarebbero simmetriche a quelle del Modello Standard.
I gravitoni, cioè i bosoni che si pensa possano mediare l'interazione
gravitazionale in una sua possibile formulazione quantistica, non sono considerati nel
Modello standard. La mancata presenza nel modello della forza più nota per i suoi
effetti quotidiani è dovuta a due motivi: il primo di ordine pratico, in quanto nel mondo
subnucleare la gravità rappresenta una forza del tutto trascurabile, almeno fino a
distanze dell'ordine di 10-18 m; il secondo di carattere più fondamentale, poiché non e
stato finora possibile costruire una teoria quantistica in grado di comprendere la
gravità.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6:;!
!"#$%&'&()*!
Esiste ciò che tocchiamo?
+"!#-&)!#2%&'($-&)("!#0%&%#,-("!9#
15.1
L’importanza del bosone di Higgs per la filosofia della scienza
Il bosone di Higgs e il meccanismo teorico a cui è associato, oltre ad avere un
ruolo centrale nella fisica fondamentale, è di grande interesse anche per i filosofi della
scienza. Si tratta di un caso esemplare per discutere tematiche di fondo
dell’epistemologia.
Come si scopre e come viene giustificata una teoria? La vicenda della “particella di
Dio”, come viene chiamato il bosone di Higgs, dà una risposta a questo interrogativo,
mettendo in luce, in particolare, la potenza del ruolo euristico delle analogie, sia tra
comportamenti fisici sia tra strutture matematiche. Rappresenta, inoltre, un esempio
dell’efficacia e tenuta delle costruzioni teoriche per raggiungere e risolvere precisi
quesiti anche in mancanza, per un lungo periodo, di diretta evidenza empirica. Allo
stesso tempo, per quanto riguarda il cosiddetto contesto della giustificazione, le
metodologie sviluppate al CERN per arrivare a interpretare i dati ottenuti come prove
dell’Higgs costituiscono una efficace illustrazione del ruolo che possono avere
determinati strumenti statistici nel trasformare osservazioni “cariche di teoria”, come
sono indubbiamente quelle compiute attraverso gli esperimenti ATLAS e CMS del
Large Hadron Collider (LHC) del CERN, in oggettive conferme sperimentali.
Come si conosce l’ontologia del mondo fisico, quali ne siano i costituenti ultimi?
Quale statuto ontologico attribuire a oggetti come l’Higgs, esempio illustre della
categoria delle entità teoriche, cioè introdotte in base a un determinato quadro teorico
senza un diretto riferimento empirico, su cui tanto hanno discusso e continuano a
discutere realisti e antirealisti scientifici? Se il quadro teorico viene a cambiare
radicalmente, e questo è successo spesso durante la storia della fisica, che succede
rispetto a queste entità, nonostante le apparenti prove sperimentali? Quali fattori ci
rassicurano sulla capacità della teoria (il modello standard in questo caso) di farci
conoscere il mondo nella sua essenza e “realtà”? Dal punto di vista di una
problematizzazione della nozione di oggetto fisico, l’identificazione dell’Higgs come
6:=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
una delle particelle fondamentali potrebbe essere considerata piuttosto dal punto di
vista di una concezione strutturale o costruttiva delle entità di cui parlano le teorie
fisiche (questo aspetto è stato approfondito nel paragrafo 13.9 del 13° capitolo).
Dunque, la vicenda dell’Higgs offre materiale prezioso, oltre alla fisica
fondamentale, anche alla filosofia della scienza.
15.2
Confronto tra atomismo democriteo e moderno
In che misura le nostre attuali concezioni sull’atomo possono confrontarsi con la
teoria atomistica di Democrito? Democrito era ben conscio del fatto che se gli atomi
dovevano, con il loro moto e il loro ordinamento, spiegare le qualità della materia
(colore, odore, gusto), non potevano avere essi stessi quelle proprietà. Perciò egli ha
privato l’atomo di quelle qualità, e il suo atomo risulta così un pezzo di materia
piuttosto astratto. Ma Democrito ha lasciato all’atomo, altrimenti non avrebbe avuto
senso la sua esistenza, la qualità di “essere”, della estensione nello spazio, della forma e
del movimento. D’altra parte, questo implica che il suo concetto dell’atomo non può
spiegare la geometria, l’estensione spaziale o l’esistenza, poichè non può ridurli a
qualche cosa di più fondamentale.
La concezione moderna della particella elementare sembra, riguardo a questo
punto, più consistente e più radicale. Se ci poniamo la domanda: che cosa è una
particella elementare, noi diciamo, ad esempio, semplicemente un neutrone, ma non
possiamo darne una raffigurazione ben definita né spiegare che cosa esattamente
intendiamo con questa parola. Possiamo usare varie raffigurazioni e descriverlo una
volta come una particella, una volta come un’onda. Ma sappiamo che nessuna di queste
descrizioni è precisa. Certo, il neutrone non ha colore né odore né sapore. Sotto questo
aspetto assomiglia all’atomo democriteo. Ma anche le altre qualità dell’atomo di
Democrito ritroviamo nella particella elementare, almeno in certa misura. I concetti
della geometria e della cinematica, come la forma o il moto nello spazio, non possono
esserle applicati in modo apprezzabile. Se si vuol dare una precisa descrizione della
particella elementare, l’unica cosa alla quale si può ricorrere è una funzione di
probabilità, per cui ci si accorge che neppure la qualità dell’essere appartiene a ciò che
viene descritto. Infatti dobbiamo parlare di una possibilità di essere, una tendenza ad
essere. Perciò la particella elementare della fisica moderna è ancora più astratta
dell’atomo democriteo e proprio questa qualità appare più consistente come guida atta
a spiegare il comportamento della materia.
Nella filosofia di Democrito tutti gli atomi consistono della stessa “sostanza”. Le
particelle elementari sono dotate di una massa nello stesso senso limitato in cui
posseggono le altre proprietà. Giacchè massa ed energia sono, secondo la teoria della
relatività, concetti essenzialmente identici, possiamo dire che tutte le particelle
elementari consistono di energia. Ciò potrebbe venire interpretato come una definizione
dell’energia quale sostanza prima, principio fondamentale, del mondo. Essa ha infatti la
proprietà essenziale implicita nel termine “sostanza”, quella di conservarsi.
Nella filosofia democritea gli atomi sono eterne ed indistruttibili unità di materia,
non possono trasformarsi gli uni negli altri. Nei riguardi di questo problema la fisica
moderna prende netta posizione contro il materialismo di Democrito e a favore della
concezione di Platone e dei Pitagorici. Le particelle elementari non sono certamente
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6:4!
eterne ed indistruttibili unità di materia, esse in realtà possono trasformarsi le une nelle
altre, come avviene nei fenomeni di decadimento o in seguito ad urti negli acceleratori
di particelle. Fenomeni del genere offrono la riprova migliore che tutte le particelle sono
fatte della stessa sostanza, l’energia. La rassomiglianza delle concezioni moderne con
quelle di Platone e dei Pitagorici può essere portata anche più oltre. Le particelle
elementari del Timeo di Platone non sono, in fondo, sostanza ma forme matematiche.
“Tutte le cose sono numeri” è una proposizione attribuita a Pitagora. Le sole forme
matematiche disponibili a quel tempo erano le forme geometriche dei solidi regolari o i
triangoli che formano la loro superficie. Anche nella moderna teoria quantistica si
troverà senza dubbio che le particelle elementari sono in definitiva delle forme
matematiche, ma di natura molto più complicata. I filosofi greci pensavano a delle
forme statiche e le trovavano nei solidi regolari (i cosiddetti solidi platonici). La fisica
moderna, invece, fin dai suoi principi nel XVI e XVII secolo è partita dal problema
dinamico, perciò le forme matematiche che rappresentano le particelle elementari
saranno le soluzioni di alcune leggi eterne del moto della materia. In realtà questo è un
problema ancora non risolto e la legge fondamentale che regge il movimento della
materia non è ancora conosciuta e perciò è impossibile derivare matematicamente le
proprietà delle particelle elementari da tale legge.
Dopo questo confronto delle concezioni della moderna fisica atomica con
l’atomismo greco, dobbiamo aggiungere di non fraintendere il confronto stesso. Può
sembrare a prima vista che i filosofi greci siano pervenuti alle stesse conclusioni o a
conclusioni molto simili a quelle raggiunte dalla fisica moderna dopo secoli di duro
lavoro sperimentale e teorico. C’è un’enorme differenza fra la scienza moderna e la
filosofia greca ed essa consiste proprio nell’atteggiamento empiristico della scienza
moderna. Dal tempo di Galilei e di Newton, la scienza moderna si è basata su uno
studio particolareggiato della natura e sul postulato che possono farsi solo quelle
asserzioni che sono
state verificate o che almeno possono essere verificate
dall’esperienza. L’idea che degli eventi naturali potessero venir individuati per mezzo
di un esperimento, per studiarne i particolari e scoprire la legge costante del mutamento
continuo, non venne mai in mente ai filosofi greci. Quando Platone afferma, ad
esempio, che le più piccole particelle di fuoco sono tetraedri, non è per niente facile
capire ciò che egli vuole realmente significare. Questa forma del tetraedro è solo
simbolicamente attinente all’elemento fuoco, oppure le più piccole particelle di fuoco si
comportano meccanicamente come tetraedri rigidi o elastici? E quale sarebbe la forza
che li potrebbe separare in triangoli equilateri, ecc.? La scienza moderna finirebbe
sempre col chiedere: come si può stabilire sperimentalmente che gli atomi del fuoco
sono tetraedri e non, per esempio, cubi? Perciò quando la fisica moderna afferma che il
protone rappresenta una certa soluzione di una equazione fondamentale della materia,
essa vuol dire che possiamo da questa soluzione dedurre matematicamente tutte le
possibili proprietà del protone e può controllare l’esattezza della soluzione attraverso
esperimenti mirati.
Questa possibilità di controllare la correttezza di una affermazione
sperimentalmente con altissima precisione dà un enorme peso alle asserzioni della fisica
moderna, peso che non sempre si potrebbe attribuire alle asserzioni della filosofia greca.
6:5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
15.3 Che cosa è reale?
La teoria quantistica dei campi fornisce le basi concettuali del modello standard
della fisica delle particelle, che descrive in modo unificato i costituenti fondamentali
della materia e le loro interazioni. Eppure, nonostante sia la teoria di maggior successo
nella storia della scienza in termini di precisione e previsione empirica, non si ha
nessuna certezza su cosa dica dica la teoria, di quale sia la sua ontologia, il quadro fisico
che delinea.
A prima vista il contenuto del modello standard pare ovvio. È composto da
gruppi di particelle elementari, come quark ed elettroni, e da quattro tipi di campi di
forza, che mediano le interazioni tra particelle. Ma per quanto possa apparire
convincente non soddisfa del tutto. Per cominciare, le due categorie, particelle e campi,
tendono a confondersi. La teoria quantistica dei campi assegna un campo a ogni tipo di
particella elementare, così esiste un
campo dell’elettrone con la stessa
certezza con cui esiste un elettrone.
Inoltre, i campi di forze sono
quantizzati e generano particelle
come il fotone, per cui la
distinzione tra campi e particelle
appare artificiale. In ultima analisi
la teoria quantistica dei campi
parla di particelle o campi? La
discussione è aperta tra i fisici e i filosofi. Entrambi i concetti sono ancora in uso, anche
se per la maggioranza dei fisici sono solo usati a fini illustrativi della teoria ma che non
corrispondono a quanto dice la teoria. Se le immagini mentali evocate dalle parole
“particella” e “campo” non corrispondono alla teoria, i fisici e i filosofi devono capire
che cosa mettere al loro posto. Alcuni filosofi della fisica hanno ipotizzato che i
costituenti basilari del mondo siano entità intangibili come relazioni o proprietà.
Un’idea particolarmente radicale è che tutto si possa ridurre a soli concetti intangibili,
senza alcun riferimento a singoli oggetti. È un’ipotesi controintuitiva e rivoluzionaria,
ma alcuni sostengono che sia la fisica stessa a portarci in questa direzione.
Quando pensiamo alla realtà subatomica immaginiamo particelle che si
comportano come palle da biliardo. Ma questa è un’idea che risale all’atomismo greco e
che ha trovato l’apice del successo nella teoria newtoniana. Nella teoria quantistica dei
campi le particelle non hanno questo comportamento. Come abbiamo ampiamente
discusso nei capitoli precedenti, il concetto classico di particella implica qualcosa che
esiste in una posizione precisa. Ma le particelle della teoria quantistica dei campi non
hanno posizioni definite. Un’osservatore che cercasse di misurarne la posizione ha una
probabilità piccola ma non nulla di rilevarla nei luoghi più remoti dell’universo. Le cose
peggiorano se le particelle sono anche relativistiche. In questo caso sono sfuggenti e non
si trovano in nessuna regione specifica dell’universo. Secondo, una particella può
ritenersi localizzata per un osservatore in quiete insieme alla particella ma delocalizzata
(diffusa per l’intero universo) per un osservatore in moto rispetto ad essa. Quindi, non
ha senso assumere particelle localizzate come entità base. Terzo, se sono le particelle che
formano la materia, allora un vuoto (stato di zero particelle) non dovrebbe mostrare
attività. Ma la teoria quantistica prevede che con un apposito strumento (per esempio
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6:6!
un contatore Geiger) è possibile rilevare presnza di attività (materia) nel vuoto. Quindi
la materia non può essere composta dagli oggetti che in genere chiamiamo “particelle”.
Quarto, per stabilire se qualcosa è reale, i fisici usano una semplice verifica: tutti gli
osservatori, qualunque sia il loro stato di moto, devono concordare sull’esistenza di
quella cosa. Ebbene, le “particelle” che i fisici osservano in natura non superano questo
test. Se un osservatore in quiete vede un vuoto, uno in accelerazione vede un gas caldo
di particelle. Quinto, una particella è qualcosa che ha una posizione specifica che varia
nel tempo quando si muove. Ma per la teoria quantistica, in base al principio
d’indeterminazione, la traiettoria è un concetto senza significato. Allora i “rilevatori di
particelle” cosa rilevano? La risposta è che le particelle sono sempre una deduzione.
Quello che registrano i rilevatori è un gran numero di eccitazioni distinte del materiale
dei sensori. L’insieme di queste eccitazioni, le tracce, sono solo una serie di eventi.
Infine, la teoria prevede che le particelle possano perdere la propria
individualità. Nel fenomeno dell’entanglement, le particelle possono essere assimilate in
un sistema più grande e rinunciare alle proprietà che le distinguono l’una dall’altra.
Quindi un osservatore è impossibilitato a distinguerle. A questo punto abbiamo ancora
due oggetti distinti e separati ciascuno con le proprie e specifiche proprietà? No. Il
sistema in entanglement si comporta come un tutto indivisibile, e il concetto di
particella perde di significato.
Sulla base di queste e altre scoperte dobbiamo concludere che il termine
“particella” sia una denominazione impropria, per cui sarebbe meglio abbandonare
questo concetto. Queste considerazioni, allora, giocherebbero un ruolo a favore di
un’interpretazione della teoria quantistica puramente orientata ai campi, dove le
particelle sarebbero delle increspature in un campo che riempie lo spazio come un
fluido invisibile. Ma, come vedremo, la teoria quantistica dei campi non si può
interpretare solo in termini di campi.
La teoria quantistica dei campi è la
versione quantistica dei campi classici, come
quello gravitazionale o elettromagnetico. Ma
mentre il campo classico è facilmente
visualizzabile (basti pensare alla limatura di
ferro attorno ad una calamita), del campo
quantistico è difficile darne un’immagine. Un
campo classico assegna una grandezza fisica,
come la temperatura o l’intensità di un
campo elettrico, a ogni punto dello spaziotempo. Ossia, ogni punto ha uno stato misurabile. Un campo quantistico assegna invece
entità matematiche, che rappresentano il tipo di misurazione che si potrebbero
effettuare invece del risultato che otterremmo. Ossia, invece di assegnare una specifica
grandezza fisica, assegna solo uno spettro di possibili grandezze. Il valore scelto
dipende da un oggetto matematico, il vettore di stato ψ, che non è assegnato a nessuna
posizione specifica, ma che abbraccia tutto lo spazio. Il bisogno di applicare il campo
quantistico al vettore di stato rende la teoria molto difficile da interpretare e da tradurre
in qualcosa di fisico che si può immaginare e manipolare con la mente. Il vettore di stato
è olistico; descrive il sistema come un tutto, e non si riferisce a nessun punto in
particolare. Il suo ruolo è in contrasto con la caratteristica alla base dei campi, che è
quella di essere diffusi in tutto lo spazio-tempo. Un campo classico ci permette di
6:7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
visualizzare fenomeni come la luce sotto forma di onde che si propagano nello spazio. Il
campo quantistico elimina questa immagine e ci
lascia senza un modo per dire come funziona il
mondo.
Quindi il quadro standard delle particelle
elementari e dei campi di forze non è un’ontologia
soddisfacente del mondo. Non è neppure chiaro che
cosa sia una particella o un campo. E non funziona
neanche
l’idea
di
vederli
come
aspetti
complementari della realtà. Per fortuna i punti di
vista di particelle e campi non esauriscono le
possibili ontologie per la teoria quantistica dei
campi.
Sempre più fisici e filosofi pensano che sono le relazioni in cui si trovano le cose a
essere importanti, non le cose stesse. Questo punto di vista contrasta con le concezioni
tradizionali atomiste in modo più netto di quanto possano fare le ontologie basate su
particelle e campi. Questa posizione, detta realismo strutturale, nella sua versione
moderata, nota come realismo strutturale epistemico, funziona così: è possibile che non
conosceremo mai la vera natura delle cose ma solo come sono correlate tra loro.
Vediamo la massa in sè? No. Vediamo solo le sue relazioni (interazione gravitazionale)
con altri enti (masse). Nuove teorie possono ribaltare la nostra idea dei costituenti del
mondo, ma tendono a conservare le strutture.
Adesso sorge la seguente domanda: qual è la ragione per cui possiamo conoscere
solo le relazioni fra le cose e non le cose stesse? La risposta più semplice è che non esiste
altro che le relazioni. Questo salto fa del realismo strutturale un approccio più radicale,
detto realismo strutturale ontico. Le innumerevoli simmetrie della fisica aggiungono
credibilità a questo approccio. Sia nella meccanica quantistica sia nella teoria della
relatività generale certi cambiamenti di configurazione del mondo, noti come
trasformazioni di simmetria, non hanno conseguenze empiriche. Queste trasformazioni
scambiano i singoli oggetti che compongono il mondo ma lasciano immutate le loro
relazioni. Uno specchio scambia la parte destra con quella sinistra, ma le posizioni
relative di tutti i tratti del viso rimangono identiche. Sono queste relazioni che
definiscono un volto, mentre etichette come “sinistra” e “destra” dipendono dal punto
di vista. Le cose che abbiamo chiamato “particelle” e “campi” hanno simmetrie più
astratte, ma l’idea è la stessa.
Pertanto, possiamo costruire una teoria valida ipotizzando l’esistenza di relazioni
specifiche senza ipotizzare anche quella degli oggetti. Quindi, per i seguaci del realismo
strutturale ontico possiamo fare a meno delle cose e supporre che il mondo sia fatto di
strutture, di reti di relazioni. Tra i tanti esempi di strutture che hanno la priorità sulle
loro realizzazioni materiali, possiamo considerare il Web: continua a funzionare anche
quando singoli computer vengono eliminati.
Una linea di pensiero correlata sfrutta l’entanglement quantistico per sostenere la
tesi che le strutture siano alla base della realtà. L’entanglement di due particelle
quantistiche è un effetto olistico. Le proprietà intrinseche delle due particelle, come lo
spin o la carica elettrica, insieme a quelle estrinseche, come la posizione, non bastano a
determinare lo stato del sistema costituito dalle due particelle. Il tutto (sistema delle due
particelle) è più della somma delle sue parti (particella1+particella2). La visione
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6:8!
atomistica del mondo, in cui tutto è determinato dalle proprietà dei costituenti più
elementari e dalle loro relazioni all’interno della spazio-tempo, viene meno. Le
particelle, secondo questa visione, non sono più enti primari, ma lo è l’entanglement.
Certo, è strano che siano possibili relazioni senza relati, cioè senza oggetti in
queste relazioni. Alcuni proponenti del realismo strutturale ontico cercano un
compromesso: non negano l’esistenza degli oggetti, ma affermano che le relazioni, o
strutture, abbiano ontologicamente la precedenza. In altre parole, gli oggetti non hanno
proprietà intrinseche, ma solo proprietà che derivano dalle loro relazioni con altri
oggetti. Ma questa posizione pare debole. Sul fatto che gli oggetti abbiano relazioni
sono tutti d’accordo; l’unica posizione nuova e interessante sarebbe che tutto emerga
dalle relazioni.
Analizziamo una seconda possibilità per il significato della teoria quantistica dei
campi. Anche se le interpretazioni in termini di particelle e campi sono ritenute diverse
tra loro, hanno in comune qualcosa di cruciale. In entrambe si assume che gli oggetti
fondamentali del mondo materiale siano entità individuali durature (particelle o punti
della spazio-tempo) a cui attribuire proprietà. Molti filosofi pensano che questa
distinzione tra oggetti e proprietà possa essere il motivo profondo per cui gli approcci
basati su particelle e campi hanno entrambi difficoltà. Le proprietà attribuite agli enti
sono l’unica e fondamentale categoria.
Tradizionalmente si ritiene che le proprietà non possono esistere
indipendentemente dagli oggetti (a dire il vero Platone le riteneva dotate di esistenza
indipendente ma solo in un mondo superiore, il mondo delle idee, non nel mondo che
esiste nello spazio e nel tempo). Ma possiamo capovolgere questo modo di pensare e
considerare le proprietà come dotate di esistenza, indipendentemente dagli oggetti che
le hanno. Le proprietà possono essere quello che i filosofi chiamano “particolari”: entità
concrete, individuali. Quello che chiamiamo “cosa” potrebbe essere solo un fascio di
proprietà: colore, forma, consistenza e così via. Dato che questa concezione delle
proprietà come particolari anziché come universali differisce dalla visione tradizionale,
i filosofi hanno introdotto il termine “tropi” (dal greco trasferisco) per descriverle. Ma
andiamo nei dettagli. Da neonati, quando vediamo e sperimentiamo per la prima volta
una palla, non percepiamo veramente una palla. Quello che percepiamo è una forma
rotonda, una sfumatore di colore, una certa consistenza elastica, ecc. Solo in seguito
associamo questo fascio di percezioni a un oggetto coerente di un certo tipo, la palla,
dimenticando tutto l’apparato concettuale coinvolto in questa percezione. Nel mondo le
cose non sono altro che fasci di proprietà. Non cominciamo da una palla per poi
attaccarle proprietà, ma abbiamo le proprietà e le chiamiamo “palla”. Una palla non è
altro che le sue proprietà.
Applicando questa idea alla teoria quantistica dei campi, quello che chiamiamo
un elettrone è in realtà un fascio di varie proprietà, o tropi: tre proprietà essenziali e
fisse (massa, carica, spin) e proprietà variabili e non essenziali (posizione e velocità).
Questa concenzione dei tropi ci aiuta a dare un senso alla teoria. Prendiamo il
comportamento del vuoto: il valore medio del numero di particelle è zero, eppure il
vuoto ribolle di attività. Avvengono continuamente tanti processi, che provocano la
creazione e la distruzione di particelle di tutti i tipi. In un’ontologia basata sulle
particelle questa attività è paradossale. Se le particelle sono fondamentali, come fanno a
materializzarsi? Da che cosa si materializzano? Nell’ontologia dei tropi la situazione è
6:9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
naturale: il vuoto, anche se privo di particelle, contiene proprietà; una particella è quello
che si ottiene quando queste proprietà si radunano insieme in un certo modo.
Come è possibile che ci siano dibattiti così fondamentali su una teoria che
empiricamente ha tanto successo, come la teoria quantistica dei campi? Anche se la
teoria ci dice cosa possiamo misurare, non chiarisce, o almeno, parla per enigmi,
quando affronta la natura di quali siano le entità da cui emergono le nostre
osservazioni. La teoria spiega le osservazioni in termini di quark, muoni, fotoni e campi
quantistici, ma non ci dice che cosa sia un fotone o un campo quantistico. Per molti fisici
questo è sufficiente, non è necessario porsi domande di natura metafisica. Adottano un
atteggiamento strumentalista: negano a priori che le teorie scientifiche debbano
rappresentare il mondo. Per loro sono soltanto strumenti per formulare previsioni
sperimentali.
Acquisire un quadro complessivo del mondo fisico richiede di mettere insieme
fisica e filosofia. Le due discipline sono complementari. La metafisica fornisce vari
modelli concorrenti per l’ontologia del mondo materiale, anche se al di là delle
questioni di coerenza interna non può optare per una di esse. La fisica, dal canto suo, è
priva di un trattamento coerente delle questioni fondamentali, come la definizione degli
oggetti, il ruolo dell’individualità, lo status delle proprietà, la relazione tra cose e
proprietà e il significato dello spazio e del tempo. L’unione delle due discipline è
importante in momenti in cui i fisici devono esaminare i fondamenti della loro
disciplina. Fu il pensiero metafisico a guidare Newton e Einstein nell’elaborazione delle
loro teorie, e oggi influenza molti scienziati che cercano di unificare la teoria quantistica
dei campi con la teoria della gravità einsteiniana. Le alternative alle concezioni abituali
in termini di particelle e campi possono ispirare i fisici nei loro sforzi per arrivare alla
grande unificazione.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
6::!
!"#$%&'&()*!
Due cose sono infinite:
l'universo e la stupidità umana,
ma riguardo l'universo ho ancora dei dubbi
Einstein
"(#*%0$%"%+!(#
16.1 La cosmologia come scienza
La cosmologia è stata una branca tradizionale della filosofia, costituitasi nel
Settecento all'interno di quella che veniva già chiamata "filosofia della natura", e aveva
come suo oggetto specifico la riflessione sull'universo considerato come un tutto. La
scienza naturale moderna, come si è visto, si era consapevolmente istituita come studio
di fenomeni delimitati, la cui conoscenza si riteneva conseguibile anche senza far
riferimento all'intero complesso dell'universo (il carattere di "località" dei fenomeni
fisici è stato attribuito fino a quando si è aperta in fisica quantistica un dibattito circa la
"non località"). Ciò non toglie che, occasionalmente, le riflessioni degli scienziati si
allargassero fino a considerare alcune caratteristiche complessive del mondo e già
Newton concludeva i suoi Principia con un capitolo dedicato "Sistema del mondo" in cui
mostrava come la sua teoria della gravitazione spiegasse la struttura e i moti del sistema
planetario solare.
Nella seconda metà del Settecento il termine cosmologia viene utilizzato con una
certa frequenza anche fuori dalla filosofia, per esempio, il fisico Maupertuis pubblicò
nel 1750 un Saggio di cosmologia, mentre Johan Heinrich Lambert (1728-l777) pubblicava
nel 1761 le Lettere cosmologiche nelle quali cercava di mostrare come la teoria
gravitazionale newtoniana fosse adeguata per spiegare lo stato attuale del mondo
astronomicamente descrivibile. Tuttavia la teoria cosmologica più nota è quella
conosciuta come "ipotesi cosmologica di Kant-Laplace" che riguarda l'origine e la
strutturazione del cosmo procedente da una iniziale nebulosa in rotazione, soggetta
unicamente alle forze e alle leggi stabilite dalla meccanica di Newton. Tale teoria (che
Kant aveva anticipato nel saggio del 1755, Storia naturale universale e teoria del cielo
riferendola a un qualsiasi sistema stellare, e Laplace aveva elaborato in modo
indipendente nel 1796 nella sua Esposizione del sistema del mondo, con riferimento al
sistema solare) è rimasta la dottrina comunemente accettata e insegnata praticamente
7<<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
fino alla metà del Novecento, ossia fino al sorgere della cosmologia contemporanea,
intesa come vera e propria disciplina scientifica autonoma.
Possiamo ancora aggiungere che una portata cosmologica venne attribuita
nell'Ottocento al secondo principio della termodinamica, il quale asserisce che in un
sistema chiuso l'energia "si degrada", tendendo irreversibilmente a trasformarsi nella
sua forma più elementare, ossia in calore; essendo l'universo, ovviamente, un sistema
chiuso, ne seguiva la cosiddetta "morte termica" dell'universo medesimo, ossia la
scomparsa di ogni forma di vita e di ogni organizzazione della materia (insomma,
invece che l'origine del mondo, si pretendeva di costruire lo scenario della fine del
mondo).
Quelle sin qui accennate non erano certamente né vere e proprie teorie
scientifiche, né ancor meno costituivano in senso proprio delle discipline specializzate;
si trattava piuttosto di estrapolazioni generalizzanti di teorie fisiche, costituenti modelli
concettuali più o meno plausibili e non empiricamente controllabili.
Nel Novecento, invece, sorge una vera e propria cosmologia con pretese
scientifiche; ciò si spiega col fatto che le sue origini e i suoi sviluppi si collocano
nell'ambito delle scienze fisiche, poiché essa trae tutto il suo bagaglio concettuale e
teorico dalle due teorie fondamentali della fisica contemporanea, la relatività generale e
la fisica quantistica. Anche in questo caso, come già in passato, l'interesse si è portato
sul problema dell'origine dell'universo, ma non tanto in seguito a una curiosità
filosofica, bensì perché le equazioni della teoria generale della relatività ammettono
soluzioni diverse, a ciascuna delle quali corrisponde un "modello di universo"
differente.
Einstein si era reso conto, per esempio, poco dopo la pubblicazione della
memoria del 1915 sulla teoria generale della relatività, che le sue equazioni avrebbero
comportato un collasso dell’universo, a meno che si fissasse un particolarissimo valore
molto esatto per una costante introdotta esplicitamente, la cosiddetta costante
cosmologica. Einstein condivideva allora la concezione di senso comune secondo cui
l’universo è statico ed eterno. Ma nel 1922 il matematico Friedmann e
indipendentemente da lui Lemaitre, abbandonarono tale concezione e trovarono che in
base alle equazioni della relatività generale l'universo ha avuto un origine in cui sarebbe
stato infinitamente denso e da allora sarebbe venuto continuamente espandendosi. Nel
1929 Hubble scopriva che le galassie si allontanano da noi con una velocità che è
proporzionale alla loro distanza, legge che si spiega supponendo che l'universo sia in
espansione. Sono questi i podromi della teoria del Big Bang che nei prossimi paragrafi
esamineremo in dettaglio.
Gli aspetti, per ora, più interessanti da rilevare derivano dal fatto che questa
disciplina, che viene ormai riconosciuta come una scienza, e per di più una scienza
fisica, può esser considerata tale soltanto allargando non poco gli abituali criteri di
scientificità delle scienze naturali. In primo luogo risulta difficile identificare l'oggetto
della cosmologia: che tipo di oggetto è l'universo? Non lo si può denotare
empiricamente come un ben definito sistema di cose e neppure lo si può caratterizzare
come un insieme strutturato di certi attributi o proprietà (come si fa nelle altre scienze).
Rispetto alle scienze naturali (al cui ambito essa vuole appartenere) la cosmologia non
soddisfa il requisito della controllabilità empirica, ossia la possibilità di sottoporre a
verifica le sue ipotesi teoriche. Non si pretende che si tratti di un controllo
specificamente sperimentale (ossia ottenuto grazie a esperimenti appositamente
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7<;!
costruiti), che è assente anche in altre scienze di osservazione, come l'astronomia.
Basterebbe che questa scienza potesse offrire delle previsioni controllabili (come
appunto è in grado di fare l'astronomia), ma essa non è in grado di farle e, al massimo,
può contare come sostegno dei suoi modelli su certe scoperte empiriche, come la legge
di Hubble o la scoperta della "radiazione di fondo" nello spazio cosmico che ben si
accordano con le sue ipotesi. Si potrebbe dire che essa è comunque in grado di fare delle
retrodizioni, come fanno certe scienze fisiche e come fanno, in un certo senso, le scienze
storiche. Ma anche questo non è del tutto vero; infatti una retrodizione conferma
un'ipotesi se questa dice qualcosa di inatteso rispetto al passato e, andando a vedere, si
hanno conferme indipendenti che l'evento retrodetto è realmente accaduto, ma le
retrodizioni della cosmologia circa origini e tappe di sviluppo dell'universo non sono
accessibili a un simile controllo. Ma la cosmologia se vuole essere una scienza altamente
teorica, utilizza di fatto le teorie fisiche più avanzate e ne elabora di proprie impiegando
anche strumenti matematici molto complessi. Le difficoltà di questo tipo si possono
superare riconoscendo che la cosmologia, proprio perché in sostanza si impegna a
ricostruire una storia dell'universo, ha il diritto di rivendicare quelle condizioni di
scientificità che vengono riconosciute, per esempio, alle scienze storiche.
Per fornire queste ultime la cosmologia attinge alle scienze fisiche e alle loro
teorie e leggi, per cui sembrerebbe che essa riesca ad adottare quel modello
"nomologico-deduttivo" della spiegazione scientifica che (almeno secondo
l'epistemologia corrente) caratterizza le scienze mature e la fisica in primo luogo.
Eppure non si può dire anche questo. Infatti le leggi delle teorie fisiche oggi accreditate
servono per spiegare fenomeni che hanno luogo dentro l'universo, ma non esistono
leggi per spiegare i fenomeni dell'universo preso nel suo insieme. Questo fatto taglia la
strada a una possibile soluzione di tipo analitico-riduzionista che consisterebbe nel far
vedere che le proprietà di un "tutto" risultano per composizione delle proprietà delle
sue parti, ossia che le leggi che governano le parti permettono di dedurre le leggi del
tutto. Il fatto, però, è che non esistono proprietà o leggi dell'universo nel suo insieme
che si possano stabilire con un minimo di esplicitezza, per passar poi a mostrare come
esse derivino dalle leggi della fisica.
Queste, che agli occhi di vari studiosi, rientrano fra le obiezioni che possono
rivolgere al riconoscimento della cosmologia come scienza, perdono in realtà quasi tutta
la loro forza se torniamo a sottolineare che le caratteristiche epistemologiche di questa
disciplina sono molto prossime a quelle delle scienze storiche, ossia costituiscono un
esempio significativo di una scienza naturale come la storiografia. Pertanto, come lo
storico "scientifico" può avvalersi di conoscenze settoriali relative a diversi ambiti della
storia umana in cui forse si possono rintracciare alcune "leggi" o per lo meno
"regolarità", senza con ciò esser costretto a riconoscere delle "leggi della storia" prese nel
suo insieme, così il cosmologo utilizza diversi apporti di teorie dotate di leggi relative
ad alcuni aspetti dell'evoluzione dell'universo, al fine di ricostruire le linee di una tale
evoluzione, di narrare una tale storia nel modo più oggettivo e rigoroso possibile.
Questa ricerca dell'oggettività e del rigore è già il contrassegno necessario e sufficiente
per qualificare come scientifica un'impresa conoscitiva (anche se, ovviamente, i suoi
risultati dovranno esser giudicati e valutati proprio alla luce dei requisiti di rigore e
oggettività effettivamente raggiunti).
Ciò che si è detto può essere già sufficiente per segnalare l'interesse e la
peculiarità di questa nuova scienza che, in particolare, ha potuto costituirsi grazie alla
7<=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
legittimazione del punto di vista olistico che caratterizza la scienza contemporanea, la
quale ha superato da ogni parte la ristrettezza della specializzazione a oltranza
dell’impostazione strettamente analitica. Osserviamo altresì che la cosmologia è una
scienza a carattere chiaramente interdisciplinare, nel senso che chiama a "collaborare"
non un ventaglio "diversificato" di molte discipline, bensì quelle poche discipline che
servono per davvero a indagare i problemi che essa si pone. In sostanza si tratta della
fisica, dell'astronomia, dell'astrofisica, della matematica. Non molto, in apparenza, ma
andando a vedere le cose un po' più a fondo constatiamo che essa utilizza
contemporaneamente due teorie fisiche fondamentali che, sino a oggi, non si è riusciti a
"unificare", ossia la teoria della relatività e quella dei quanti, solo che, e le utilizza
evitando le collisioni insuperabili, nel senso che la relatività serve essenzialmente per
determinare la scelta del "modello di universo" (per esempio, quello dell'universo in
espansione piuttosto che quello dello stato stazionario), mentre la fisica quantistica, fin
nelle sue parti più avanzate riguardanti le particelle elementari, serve per riempire il
modello e scrivere effettivamente i diversi capitoli della storia dell'universo.
Ovviamente, solo grazie a una sofisticata elaborazione matematica dei modelli prescelti
e utilizzando strumenti e risultati dell'astrofisica e dell'astronomia per assicurarsi quelle
poche ma significative scoperte empiriche su cui poggiare.
Chiarito che la cosmologia è una scienza a tutti gli effetti, essa, però, apre
l'orizzonte verso domande che vanno oltre le semplici ricostruzioni scientifiche. Una
scienza che è interdisciplinare per il fatto di chiamare a collaborare diverse discipline
scientifiche, e la stessa filosofia, per risolvere i propri problemi conoscitivi, non può,
quando giunge alla proprie frontiere, chiudersi e negare alla filosofia di aprire le sue
domande. Proprio questa è una delle ragioni del fascino della moderna cosmologia e un
indice di come la scienza possa continuare ad avere un impatto anche sulle dimensioni
più generali della cultura umana. Quindi, proprio i presupposti e le implicazioni
filosofiche, hanno consentito la costituzione delle teorie alla base della moderna
cosmologia.
Per esempio, Einstein era stato indotto a introdurre nelle sue equazioni
un'artificiosa "costante cosmologica" perchè era ancorato alla concezione filosofica di un
universo eterno e stabile. Abbandonata questa, si è eliminato l'artificio, accettando l'idea
che l'universo possa aver avuto un'origine e che non sia statico, bensì in espansione.
Solo dopo aver compiuto questo passo si è potuto procedere a costruire un'effettiva
teoria che sviluppasse scientificamente un simile punto di vista. Ma non è solo questa la
premessa filosofica implicita nella cosmologia, altre se ne potrebbero menzionare, come
quella dell'isotropia dello spaziotempo e della distribuzione della materia nell'universo.
Perfino qualcosa di molto simile al "tempo assoluto", eliminato dalla fisica in seguito
alla teoria della relatività, ricompare in cosmologia sotto il nome di "tempo cosmico" in
base al quale si può calcolare l'età dell'universo e datare gli eventi fondamentali della
sua storia. Riemergono pure questioni che sembrano appartenere a sterili dibattiti della
vecchia cosmologia filosofica, come la domanda se l'universo sia chiuso e finito, oppure
aperto e infinito, e non si tratta di una oziosa curiosità, poiché in cosmologia si dimostra
che la risposta a tale domanda dipende da quella che si deve dare a una questione
strettamente fisica, ossia se la densità media della materia nell'universo è minore o
uguale, oppure superiore, al valore della cosiddetta densità critica. Come si vede,
stiamo qui considerando proprietà che riguardano l'universo considerato come tutto,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7<4!
ossia ci collochiamo da quel punto di vista dell'intero che caratterizza la riflessione
filosofica. Come ultimo esempio menzioniamo il famoso principio antropico.
16.2 Il principio antropico
Le proprietà di ogni oggetto dell'Universo, da una molecola di DNA a una
galassia gigante, sono determinate, in ultima analisi, da una serie di cifre: le costanti di
natura. Fra tali costanti vi sono le masse delle particelle elementari, i parametri che
caratterizzano l'intensità delle quattro interazioni di base, la costante di Planck, la
velocità della luce, ecc. Questi numeri sono del tutto arbitrari o potrebbe forse darsi che
ci sia qualcosa di sistematico dietro questa serie di numeri apparentemente casuale?
A lungo i fisici delle particelle hanno congetturato che, in realtà, non ci fosse
scelta: che infine tutte le costanti di natura verranno ricavate in base a qualche teoria
fondamentale non ancora scoperta. Ora come ora, però, non c'è nulla che indichi che la
scelta delle costanti sia predeterminata, e il modello standard della fisica delle particelle
contiene venticinque costanti i cui valori sono determinati in base alle osservazioni.
Conteggiando anche la costante cosmologica scoperta di recente, abbiamo bisogno di
ventisei costanti di natura per descrivere il mondo fisico. La lista potrebbe allungarsi, se
venissero scoperte nuove particelle o trovati nuovi tipi di interazione.
Ricerche compiute in vari campi della fisica hanno mostrato che parecchie
caratteristiche essenziali dell'Universo sono sensibili ai valori esatti di alcune delle
costanti, per cui se qualcuna di esse avesse un valore leggermente diverso da quello
attuale, l'Universo sarebbe eccezionalmente differente e con ogni probabilità, né noi né
altre creature viventi saremmo qui ad ammirarlo. Per esempio, se la forza nucleare
forte, che lega tra loro le particelle che formano i nuclei atomici, fosse leggermente più
forte o più debole, le stelle avrebbero sintetizzato una quantità molto ridotta di carbonio
e degli altri elementi necessari alla formazione dei pianeti e degli esseri viventi. Una
diminuzione della massa del neutrone dello 0,2% darebbe vita ad un mondo di
neutroni, composto da nuclei neutronici isolati e da radiazione: un mondo che non ha
chimica, non possiede strutture complesse, né vita. Al contrario, un aumento dello 0,2%
della massa dei neutroni condurrebbe verso un mondo all'idrogeno, dove non può
esistere alcun elemento chimico fuori dell'idrogeno. Se il protone pesasse lo 0,2% in più
rispetto al valore misurato, l’idrogeno primordiale avrebbe sperimentato un
decadimento radioattivo quasi immediato e gli atomi non si sarebbero formati.
Questi esempi, fra i tanti che si possono citare, mostrano che le leggi fisiche, ed in
particolare le costanti naturali che rientrano in queste leggi, potrebbero sembrare
regolate su misura per rendere possibile la nostra esistenza nell’Universo, che dipende,
appunto, da un precario equilibrio fra tendenze diverse, un equilibrio che verrebbe
distrutto se le costanti di natura deviassero in maniera significativa dai loro valori
attuali. Quale significato attribuire a tale sintonizzazione fine delle costanti? Segno
dell'esistenza di un Creatore, che ha aggiustato con cura le costanti, in modo tale da
rendere possibili vita e vita intelligente? Forse. Ma c'e anche una spiegazione del tutto
diversa.
La teoria cosmologica più accreditata, proposta negli anni ottanta, ipotizza che il
nostro universo sia solo uno di una moltitudine di universi, ciascuno con proprie leggi
fisiche, che vengono generati incessantemente dal vuoto primordiale allo stesso modo
7<5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
in cui il nostro nacque nel big bang. Il cosmo dove ci troviamo non sarebbe che uno dei
molti universi contenuti in un multiverso più ampio. Le leggi fisiche della stragrande
maggioranza di questi universi potrebbero non consentire la formazione della materia a
noi nota, né di galassie, stelle, pianeti ed esseri viventi. Ma, considerando il numero
davvero enorme di possibilità, la probabilità che la natura sperimentasse almeno una
volta la giusta combinazione di leggi non è certo bassa.
Se c’è un enorme numero di universi, dotati di costanti che hanno valori
differenti e del tutto casuali, sicuramente tra questi ci sarà un universo perfettamente
sintonizzato sui giusti valori che rendono possibile la vita e lo sviluppo di esseri
intelligenti, che si meraviglieranno di trovarsi in un universo dove le costanti di natura
sono tali da permettere la loro esistenza. Tale linea argomentativa è nota come principio
antropico.
Il principio antropico venne enunciato in ambito fisico e cosmologico per
sottolineare che tutte le osservazioni scientifiche sono soggette ai vincoli dovuti alla
nostra esistenza di osservatori. Si è poi sviluppato come una teoria che cerca di spiegare
le attuali caratteristiche dell'universo. Il termine "principio antropico" venne coniato nel
1973 da Brandon Carter (1942), che notava: "Anche se la nostra situazione non è
necessariamente centrale, è inevitabilmente per certi versi privilegiata". Carter
intendeva mettere in guardia dall'uso eccessivo del principio copernicano da parte di
astronomi e cosmologi e si proponeva di riportare all'attenzione degli scienziati quella
che sembra un'ovvietà: l'universo e le sue leggi non possono essere incompatibili con la
nostra esistenza. Proposto inizialmente come metodo di ragionamento, il principio
antropico è stato nel tempo variamente interpretato. Carter formulò il principio come
segue:
PRINCIPIO ANTROPICO DEBOLE
Ciò che possiamo aspettarci di osservare deve limitarsi alle condizioni necessarie per la
nostra presenza in qualità di osservatori.
PRINCIPIO ANTROPICO FORTE
L'universo (e di conseguenza i parametri fondamentali che lo caratterizzano) deve essere
tale da permettere la creazione di osservatori all'interno di esso ad un dato stadio della sua
esistenza.
Il principio antropico è un criterio di selezione. Esso assume l'esistenza di una
serie di domini distanti dove le costanti di natura sono differenti. Tali domini possono
trovarsi in alcune parti remote dell'Universo, o possono appartenere ad altri spazitempi,
privi di connessioni con il nostro. Un insieme di domini dotato di una vasta gamma di
proprietà viene definito Multiverso. Se davvero esiste un multiverso, di qualsiasi tipo
esso sia, allora non sorprende che le costanti di natura abbiano valori adatti a consentire
la vita. Il principio antropico, quindi, vuole sottolineare che noi viviamo in un universo
che di fatto permette l'esistenza della vita come noi la conosciamo. Ad esempio se una o
più delle costanti fisiche fondamentali avessero avuto un valore differente alla nascita
dell'universo, allora non si sarebbero formate le stelle, né le galassie, né i pianeti e la vita
come la conosciamo non sarebbe stata possibile. Di conseguenza nel formulare teorie
scientifiche bisogna porre attenzione a che siano compatibili con la nostra esistenza
attuale. Il principio, semplice in sé, ma non banale, è stato variamente interpretato, sino
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7<6!
a venir impiegato per giustificare visioni di opposto significato. Sono stati scritti diversi
elaborati che sostengono che il principio antropico potrebbe spiegare costanti fisiche
quali la costante di struttura fine, il numero di dimensioni dell'universo, e la costante
cosmologica.
Nella formulazione datagli da Carter del principio antropico, le costanti di natura
e la nostra posizione nello spazio-tempo non devono impedire l'esistenza di osservatori.
In caso contrario, le nostre teorie sarebbero logicamente incoerenti. Se viene interpretato
in questo senso, come semplice requisito di coerenza, il principio antropico è,
ovviamente, incontrovertibile, sebbene non molto utile. Ma qualunque tentativo per
servirsene come spiegazione per la regolazione dell'Universo ha suscitato una reazione
avversa e insolitamente emotiva da parte della comunità dei fisici. Di fatto, tale
atteggiamento aveva le sue buone ragioni. Per spiegare la regolazione o sintonizzazione
fine, bisogna postulare l'esistenza di un Multiverso. Il problema, però, è che non c'è la
men che minima evidenza a sostegno di tale ipotesi. E ancor peggio: non sembra
possibile che essa trovi mai conferma né smentita. Stando alla filosofia di Popper, un
enunciato che non possa essere falsificato non è nemmeno scientifico. Tale criterio, che è
stato generalmente adottato dai fisici, sembra implicare la non scientificità di
spiegazioni antropiche della regolazione. Un'altra critica connessa a questa era che il
principio antropico può essere utilizzato solo per spiegare ciò che già sappiamo. Non
fornisce mai predizioni di alcunché, e perciò non può essere messo alla prova,
sottoposto cioè a controllo empirico.
John Barrow (1952) e Frank Tipler (1947) autori di un corposo libro The Anthropic
Cosmological Principle sul principio antropico, hanno proposto tre versioni dello stesso,
con qualche differenza rispetto a quelle di Carter:
"
"
"
Principio antropico debole: I valori osservati di tutte le quantità fisiche e
cosmologiche non sono equamente probabili ma assumono valori limitati dal
prerequisito che esistono luoghi dove la vita basata sul carbonio può evolvere e dal
prerequisito che l'universo sia abbastanza vecchio da aver già permesso ciò.
Principio antropico forte: L'universo deve avere quelle proprietà che permettono alla
vita di svilupparsi al suo interno ad un certo punto della sua storia.
Principio antropico ultimo: Deve necessariamente svilupparsi una elaborazione
intelligente dell'informazione nell'universo, e una volta apparsa, questa non si
estinguerà mai.
Barrow e Tipler derivano il principio antropico ultimo da quello forte,
considerando che non ha senso che un universo che ha la capacità di sviluppare la vita
intelligente non duri a sufficienza per svilupparla.
Il fisico Wheeler suggerì il principio antropico partecipatorio in alternativa del
principio antropico forte, aggiungendo che gli osservatori sono necessari all'esistenza
dell'universo, in quanto sono necessari alla sua conoscenza. Quindi gli osservatori di un
universo partecipano attivamente alla sua stessa esistenza.
Come è stato detto, i critici del principio antropico affermano, riferendosi in
particolare al principio antropico debole, che non si tratta di una teoria scientifica in
quanto non è in grado di fornire predizioni verificabili scientificamente. Tuttavia John
Leslie (1917-1981), un filosofo della scienza, formula alcune predizioni in base al
principio antropico forte, nella versione di Carter:
1. Gli sviluppi in campo fisico rafforzeranno l'idea che le prime transizioni di fase
avvennero probabilisticamente e non deterministicamente.
7<7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
2. Sopravviveranno alla investigazione teoretica vari metodi per la generazione di
universi multipli.
3. Le possibilità di un universo a taratura fine verranno accreditate.
4. I tentativi di scoprire forme di vita non basate sul carbonio falliranno.
5. Gli studi matematici sulla formazione delle galassie confermeranno che la loro
esistenza dipende criticamente dal tasso di espansione dell'universo.
Da un punto di vista prettamente scientifico ci attendiamo, in base al principio
antropico, che le costanti di natura che assumono valori "particolari"(prossimi a zero o
uno ad esempio) assumano valori che deviano dal valore particolare quel tanto che
basta a supportare la vita. Un esempio in questo senso è il valore piccolo (<10-120), ma
apparentemente non nullo della costante cosmologica.
La teoria delle stringhe prevede un intero insieme di universi possibili, il
multiverso, e tale previsione rafforza le basi del principio antropico. Solo gli universi
che sono in grado di supportare la vita sono conoscibili, tutti gli altri rimangono al di
fuori di qualsiasi possibilità di osservazione. A tale proposito S. Weinberg afferma che il
principio antropico, applicato alla teoria delle stringhe, "può spiegare come mai le
costanti di natura osservate assumono valori adatti alla vita, senza chiamare in causa
un universo a taratura fine ed un creatore."
Nel 2002, Nick Bostrom, un filosofo, si è chiesto: "È possibile riassumere l'essenza
degli effetti di selezione delle osservazioni in un enunciato semplice?". Egli concluse che
era possibile, ma che "Molti principi antropici sono semplicemente confusi. Alcuni,
specialmente quelli che traggono ispirazione dagli scritti seminali di Carter, sono
ragionevoli, ma... sono troppo deboli per svolgere un qualsiasi lavoro scientifico. In
particolare, sostengo che le metodologie esistenti non permettono di derivare qualsiasi
conseguenza osservazionale dalle teorie cosmologiche contemporanee, nonostante il
fatto che queste teorie possano essere, e sono, testate in modo empirico abbastanza
facilmente dagli astronomi. Ciò che occorre per colmare questo vuoto metodologico è
una formulazione più adeguata di come gli effetti della selezione delle osservazioni
debbano essere tenuti in conto." Il suo assunto è "che si deve pensare a sé stessi come ad
un osservatore casuale appartenente ad una classe di riferimento adeguata."
Egli espande quest'idea in un modello di pregiudizio antropico e ragionamento
antropico dovuto all'incertezza di non conoscere il proprio posto nel nostro universo, o
addirittura chi "noi" siamo. Questo può essere anche un modo di superare diversi limiti
dei pregiudizi cognitivi inerenti agli esseri umani che compiono le osservazioni e
condividono modelli del nostro universo usando la matematica, come suggerito nella
scienza cognitiva della matematica.
16.3 L’universo ha avuto un’origine? Dibattito tra scienza, filosofia e teologia
Generalmente si pensa che le cause precedano gli effetti. È quindi naturale
tentare di spiegare l'universo appellandosi alla situazione di epoche cosmiche
precedenti. Questa catena di cause ed effetti avrebbe mai fine? La sensazione che
qualcosa deve avere dato inizio a tutto ciò che osserviamo è profondamente radicata
nella cultura occidentale. Ed è diffusa l'assunzione che questo qualcosa non si trovi
nell'ambito della ricerca scientifica, ma debba essere in un certo senso soprannaturale.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7<8!
Gli scienziati, così procede l'argomentazione, possono anche spiegare tutto ciò che si
trova nell'ambito dell'universo fisico. Ma a un certo punto nella catena della spiegazione
si troveranno in un vicolo cieco, un punto oltre il quale la scienza non può penetrare.
Questo punto è la creazione dell'universo nel suo complesso, l'origine ultima del mondo
fisico. Questo cosiddetto argomento cosmologico è stato spesso usato nel corso dei
secoli, da teologi e filosofi, come prova dell'esistenza di Dio. La conclusione
dell'argomento cosmologico era difficile da criticare fino a pochi anni fa, quando venne
compiuto un serio tentativo di spiegare l'origine dell'universo nell'ambito della fisica.
Ogni discussione sull'origine dell'universo presuppone che l'universo abbia avuto
un'origine. La maggior parte delle culture antiche propendeva per un'idea del tempo in
cui il mondo non ha nessun inizio, ma piuttosto attraversa cicli che si ripetono senza
fine.
Anche la filosofia greca era impregnata del concetto dei cicli eterni, e la natura
ciclica del tempo nel sistema greco venne ereditata dagli arabi che rimasero i custodi
della cultura greca finché fu trasmessa alla Cristianità nel Medioevo. Gran parte della
visione attuale del mondo nelle culture europee può essere fatta risalire all'imponente
scontro tra la filosofia greca e la tradizione giudaico-cristiana. Naturalmente è
fondamentale, nella dottrina cristiana e giudaica, il principio secondo il quale Dio creò
l'universo in un momento specifico del passato, e gli eventi successivi hanno formato
una sequenza che si è svolta in modo unidirezionale. Così un'idea di progressione
storica pervade queste religioni, ed è in completo contrasto con la concezione greca
dell'eterno ritorno. Nella loro preoccupazione di aderire al tempo lineare, piuttosto che
a quello ciclico, i primi Padri della Chiesa denunciarono la visione ciclica del mondo dei
filosofi greci pagani, nonostante la loro generale ammirazione per tutto il pensiero
greco. Così troviamo Tommaso d'Aquino che riconosce la forza degli argomenti
filosofici di Aristotele secondo cui l'universo deve essere esistito sempre, ma che si
appella alla Bibbia per giustificare la credenza in un'origine cosmica.
Un aspetto chiave della dottrina giudaico-cristiana della creazione è che il
Creatore è completamente indipendente e separato dalla sua creazione; cioè, l'esistenza
di Dio non garantisce automaticamente l'esistenza dell'universo, come in alcuni schemi
pagani dove il mondo fisico scaturisce dal Creatore come un'estensione automatica del
suo essere. Piuttosto, l'universo ha avuto origine in un momento preciso del tempo
come un atto di deliberata creazione soprannaturale da parte di un essere già esistente.
Per quanto possa sembrare semplice, questo concetto di creazione causò per
secoli un'intensa disputa dottrinale, in parte dovuta al fatto che i testi antichi sono
estremamente vaghi in materia. La descrizione biblica della Genesi per esempio, che ha
attinto in modo cospicuo dagli antichi miti mediorientali della creazione, si dilunga
sugli aspetti poetici ma è concisa per quanto riguarda i dettagli fattuali. Non viene
chiarito se Dio si limiti a mettere ordine in un caos primordiale, oppure crei la materia e
la luce in un vuoto preesistente, oppure compia qualcosa di ancora più profondo. Gli
interrogativi difficili abbondano. Che cosa faceva Dio prima di creare l'universo? Per
quale motivo lo creò in quel particolare momento, piuttosto che in un altro? Se era
contento di esistere in eterno senza un universo, che cosa lo costrinse a decidersi e
crearne uno? La Bibbia lascia parecchio spazio al dibattito su questi argomenti. E il
dibattito c'è stato di sicuro. In effetti, gran parte della dottrina cristiana relativa alla
creazione venne sviluppata molto tempo dopo la stesura della Genesi e fu influenzata
dal pensiero greco tanto quanto da quello giudaico. Due questioni sono particolarmente
7<9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
interessanti dal punto di vista scientifico. La prima riguarda la relazione di Dio con il
tempo; la seconda la sua relazione con la materia.
Le principali religioni occidentali proclamano che Dio è eterno, ma la parola
eterno può avere due significati alquanto diversi. Da una parte può significare che Dio è
esistito per un periodo infinito di tempo nel passato e che continuerà a esistere per un
periodo infinito di tempo nel futuro; dall'altra che Dio è completamente fuori dal
tempo. Agostino optò per la seconda interpretazione quando affermò che Dio creò il
mondo “con il tempo e non nel tempo”. Considerando il tempo come universo fisico,
piuttosto che come qualcosa in cui ha luogo la creazione dell'universo, e ponendo Dio
completamente al di fuori di esso, Agostino evitò elegantemente il problema di cosa
facesse Dio prima della creazione. Questo vantaggio, comunque, è conseguito a un certo
prezzo. Tutti possono riconoscere la forza dell'argomento che qualcosa deve avere dato
inizio a tutto questo. Nel XVII secolo l'universo era considerato come una macchina
gigantesca che era stata azionata da Dio, il Primo Motore, la Causa Prima in una catena
causale cosmica. Ma cosa significa, per un Dio posto fuori del tempo, causare qualcosa?
In conseguenza di questa difficoltà, quanti credono in un Dio atemporale preferiscono
enfatizzare il suo ruolo nel mantenere e sostenere la creazione in tutti i momenti della
sua esistenza. Non viene fatta nessuna distinzione tra creazione e conservazione: agli
occhi del Dio atemporale entrambe rappresentano la medesima azione.
Il rapporto di Dio con la materia è stato allo stesso modo oggetto di difficoltà
dottrinali. Alcuni miti sulla creazione, come ad esempio la versione babilonese,
dipingono un'immagine del cosmo come qualcosa che emerge dal caos primordiale
(letteralmente cosmo significa ordine). Secondo questo punto di vista la materia è
anteriore a un atto soprannaturale creativo, ed è ordinata da esso. Una concezione
simile fu abbracciata nella Grecia classica. Il Demiurgo di Platone era limitato perché
doveva lavorare con la materia già esistente. Questo atteggiamento fu adottato anche
dai cristiani gnostici, che consideravano la materia corrotta, e quindi un prodotto del
diavolo più che di Dio.
La credenza in un essere divino che dà origine all'universo e poi si mette a
osservare gli eventi che si svolgono, senza prendervi direttamente parte, è nota come
deismo. In esso la natura di Dio è espressa dall'immagine del perfetto orologiaio, una
sorta di ingegnere cosmico, che progetta e costruisce un meccanismo elaborato e
immenso, e poi lo mette in moto. In antitesi con il deismo c'e il teismo, la credenza in un
Dio che è il creatore dell'universo, ma che rimane pure coinvolto direttamente nella
gestione quotidiana del mondo. Tanto nel deismo quanto nel teismo viene tracciata una
netta distinzione fra Dio e il mondo, fra il creatore e la creatura. Dio è considerato come
un essere completamente altro dall'universo fisico e oltre esso, benché ne sia ancora
responsabile. Nel sistema noto come panteismo, non viene fatta una tale distinzione tra
Dio e l'universo fisico. Pertanto Dio è identificato con la natura stessa: ogni cosa è parte
di Dio e Dio è in ogni cosa.
I miti pagani della creazione presuppongono l'esistenza sia della sostanza
materiale che di un essere divino, e sono quindi fondamentalmente dualistici. Di contro,
la prima Chiesa cristiana si assestò sulla dottrina della creazione ex nihilo, in cui solo Dio
è necessario. Secondo tale dottrina Egli ha creato l'intero universo dal nulla. L'origine di
tutte le cose visibili e invisibili compresa la materia, è perciò attribuita a un libero atto
creativo da parte di Dio. Una componente importante di questa dottrina è l'onnipotenza
di Dio: non c'e alcun limite al suo potere creativo, come era invece nel caso del
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7<:!
Demiurgo greco. Dio, infatti, non solo non è limitato dalla materia preesistente, ma
neppure dalle leggi fisiche preesistenti, giacché parte del suo atto creativo fu il dare vita
a quelle leggi e così stabilire l'ordine e l'armonia del cosmo. La credenza gnostica che la
materia sia corrotta viene rifiutata in quanto incompatibile con l'Incarnazione di Cristo.
D'altra parte, neanche la materia è divina, come negli schemi panteistici, dove tutta la
natura è infusa della presenza di Dio. L'universo fisico, creatura di Dio, è considerato
come qualcosa di distinto e separato dal suo creatore.
L'importanza della distinzione tra il creatore e la creatura in questo sistema è che
il mondo creato dipende in modo assoluto per la sua esistenza dal creatore. Se lo stesso
mondo fisico fosse divino, o in qualche modo emanato direttamente dal creatore,
condividerebbe allora l'esistenza necessaria del creatore. Ma poiché esso è stato creato
dal nulla, e poiché l'atto creativo è stato una libera scelta del creatore, l'universo non
deve necessariamente esistere. Agostino così scrive: “Tu hai creato qualcosa, e quel
qualcosa lo hai creato dal nulla. Hai fatto il cielo e la terra, non da te stesso, perché
allora sarebbero stati uguali al tuo Figlio Unigenito, e tramite Lui uguali a te”. La
differenza più ovvia tra il creatore e la creatura è che il creatore è eterno, mentre il
mondo creato ha un inizio. Il teologo cristiano Ireneo (II secolo) ha scritto: “Ma le cose
stabilite sono distinte da Colui che le ha stabilite, e ciò che è stato fatto da Colui che lo
ha fatto. Infatti è Egli stesso non creato, senza né inizio né fine, e a Lui nulla manca. È
Egli stesso sufficiente alla propria esistenza; ma le cose fatte da Lui hanno avuto un
inizio”.
Anche oggi rimangono differenze dottrinali all'interno dei principali rami della
Chiesa, e differenze ancora più grandi tra le varie religioni mondiali, riguardo al
significato della creazione. Ma tutti concordano che in un senso o nell'altro l'universo
fisico è in sé incompleto. Non è in grado di spiegare sé stesso. La sua esistenza in ultima
analisi richiede qualcosa di esterno, e può essere compresa solo in dipendenza da
qualche forma di influenza divina.
Quanto alla posizione della scienza sull'origine dell'universo, ci si potrebbe
interrogare ancora una volta su cosa provi che ci sia stata davvero un'origine. È senza
dubbio possibile concepire un universo di durata infinita, e per buona parte dell'era
scientifica, in seguito all' opera di Copernico, Galileo e Newton, gli scienziati hanno tutti
creduto in un cosmo eterno. C'erano, comunque, alcuni aspetti paradossali in questa
credenza. Newton era preoccupato delle conseguenze della sua legge della gravità,
secondo la quale qualsiasi massa materiale nell'universo attrae qualsiasi altra massa
materiale. Non riusciva a spiegarsi come mai l'intero universo non finisse col formare
un'unica grande massa. In che modo le stelle possono restare sospese per sempre, prive
di un sostegno, senza essere attratte le une verso le altre dalle reciproche forze
gravitazionali? Newton propose una soluzione ingegnosa. Perché l'universo cada verso
il proprio centro di gravità, ci deve essere un centro di gravità. Se, tuttavia, l'universo
fosse infinito nella sua estensione spaziale, e mediamente popolato dalle stelle in modo
uniforme, non esisterebbe nessun centro privilegiato verso il quale le stelle possano
cadere. Qualsiasi stella sarebbe ugualmente trascinata in ogni direzione, e non ci
sarebbe nessuna forza risultante in alcuna direzione data.
Questa soluzione non è davvero soddisfacente perché è matematicamente
ambigua: le varie forze in competizione sono tutte di grandezza infinita. Dunque il
mistero di come l'universo eviti il collasso continuò a ripresentarsi ed è continuato fino
al XX secolo. Anche Einstein cercò di risolverlo, e nella sua teoria generale della
relatività aggiunse la costante cosmologica nel tentativo di spiegare la stabilità del
7;<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
cosmo. Questo atto equilibratore risultò instabile, cosicché il più lieve mutamento
avrebbe fatto diventare dominante l'una o l'altra delle forze in contrasto, col risultato di
disperdere il cosmo in una corsa sfrenata verso l'esterno, oppure di spingerlo a crollare
verso l'interno.
In ogni caso, nessuna stella potrebbe continuare a bruciare in eterno. Resterebbe
senza carburante. Questo è utile a illustrare un principio molto generale: un universo
eterno è incompatibile con l'esistenza continuata di processi fisici irreversibili. Se i
sistemi fisici possono essere soggetti a mutamenti irreversibili a una velocità finita,
allora avranno completato tali mutamenti una quantità infinita di tempo addietro.
Quindi non potremmo ora assistere a tali mutamenti. L'universo fisico, in effetti
abbonda di processi irreversibili.
Questi problemi cominciarono a imporsi agli scienziati verso la metà del XIX
secolo. Fino ad allora, i fisici si erano occupati di leggi simmetriche nel tempo, non
mostrando nessuna preferenza tra passato e futuro. Poi lo studio dei processi
termodinamici cambiò definitivamente le cose. Al centro della termodinamica c'e la
seconda legge, che impedisce la propagazione spontanea del calore dai corpi freddi a
quelli caldi. Questa legge non è quindi reversibile: essa imprime sull'universo una
freccia del tempo, indicando la strada di un mutamento unidirezionale. Gli scienziati
giunsero rapidamente alla conclusione che l'universo è interessato da uno slittamento a
senso unico verso uno stato di equilibrio termodinamico. Questa tendenza
all'uniformità, in cui le temperature si livellano e l'universo si assesta in uno stato
stabile divenne nota come morte termica. Essa rappresenta uno stato di massimo
disordine molecolare, o entropia. Il fatto che l'universo non sia ancora morto, cioè che
sia ancora in uno stato di entropia meno che massima, implica che non può essere
durato per tutta l'eternità.
Negli anni Venti gli astronomi scoprirono che l'immagine tradizionale di un
universo statico era in ogni caso sbagliata: che l'universo sta effettivamente
espandendosi, con le galassie che vanno allontanandosi l'una dall'altra. Ciò costituisce il
fondamento della nota teoria del big bang, secondo la quale l'universo ebbe inizio
improvvisamente, 13,7 miliardi di anni fa. La scoperta del big bang è stata spesso
salutata come una conferma del racconto biblico della Genesi, tale da indurre, nel 1951,
papa Pio XII a fare un esplicito riferimento in un discorso all'Accademia Pontificia delle
Scienze. Naturalmente, lo scenario del big bang somiglia solo molto superficialmente a
quello della Genesi.
La teoria del big bang si sottrae automaticamente ai paradossi di un cosmo
eterno. Dal momento che l'universo ha un'età finita, non esiste nessun problema con i
processi irreversibili. La teoria risolve, tuttavia, una serie di problemi solo per
trovarsene di fronte altri, non ultimo quello di spiegare che cosa ha causato il big bang.
La teoria del big bang si basa sulla teoria della relatività di Einstein. Uno degli aspetti
principali della relatività generale e che ciò che riguarda la materia non può esser
separato da ciò che riguarda lo spazio e il tempo, ed è un collegamento che ha profonde
conseguenze per l'origine dell'universo. Se si immagina di far scorrere all'indietro il film
cosmico, allora le galassie si avvicinano sempre di più le une alle altre, fino a fondersi.
La materia galattica quindi si comprime sempre più, finché viene raggiunto uno stato di
densità enorme, un punto di compressione infinita chiamata singolarità.
Sebbene, per ragioni piuttosto elementari, si sia portati ad aspettarsi la presenza
di una singolarità all'origine dell'universo, ci volle un'indagine matematica molto
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7;;!
complessa per stabilire il risultato in modo rigoroso. Questa indagine fu dovuta
principalmente ai fisici matematici britannici Roger Penrose (1931) e Stephen Hawking
(1942). Con una serie di profondi teoremi, essi dimostrarono che una singolarità del big
bang è inevitabile finché la gravità resta una forza d'attrazione nelle condizioni estreme
dell'universo primordiale.
Ci fu molta resistenza da parte dei fisici e cosmologi all'idea di una singolarità
del big bang quando venne presentata per la prima volta. Uno dei motivi di questa
resistenza era il fatto che la materia, lo spazio e il tempo sono collegati nella teoria
generale della relatività, per cui se consideriamo il momento della compressione
infinita, lo spazio era infinitamente ristretto. Ma se lo spazio è infinitamente ristretto,
esso deve letteralmente sparire. E il fondamentale collegamento di spazio, tempo e
materia comporta inoltre che anche il tempo deve sparire. Non ci può essere tempo
senza spazio. Di conseguenza la singolarità della materia è anche una singolarità
spaziotemporale. Poiché tutte le nostre leggi della fisica sono formulate in termini di
spazio e tempo, tali leggi non possono rimanere valide oltre il punto in cui lo spazio e il
tempo cessano di esistere. Quindi le leggi della fisica devono venir meno nel punto di
singolarità.
L'immagine dell'origine dell'universo che otteniamo in tal modo è notevole. In un
istante finito del passato l'universo dello spazio, del tempo e della materia è limitato da
una singolarità spazio-temporale. L'origine dell'universo è quindi rappresentata non
solo dall'apparizione improvvisa della materia, ma anche dello spazio e del tempo.
Allora alla domanda: dove è avvenuto il big bang? L'esplosione non è affatto avvenuta
in un punto dello spazio. Lo spazio stesso ha avuto origine con il big bang. Una
difficoltà analoga si riscontra nella domanda: che cosa c'era prima del big bang? La
risposta è che non c'era nessun prima. Il tempo stesso ha avuto inizio col big bang.
Agostino affermava che il mondo era stato creato con il tempo e non nel tempo, e questa
è esattamente la posizione scientifica moderna. Non tutti gli scienziati sono stati tuttavia
disposti a condividerla. Pur accettando l'espansione dell'universo, alcuni cosmologi
hanno tentato di elaborare teorie che, nondimeno, evitassero una simile concezione
dell'origine dello spazio e del tempo.
Malgrado la forte tradizione occidentale a sostegno di un universo creato e di un
tempo lineare, il fascino esercitato dalla teoria dell'eterno ritorno è sempre vivo. Persino
nella moderna era del big bang ci sono stati dei tentativi di ripristinare una cosmologia
ciclica. Aleksander Friedmann (1888-1925) cominciò a studiare le equazioni di Einstein e
le loro implicazioni per la cosmologia. Trovò varie soluzioni interessanti, che
descrivono tutte un universo che si espande o si contrae. Un insieme di soluzioni
corrisponde a un universo che ha inizio con il big bang, si espande a una velocità
decrescente, e poi ricomincia a contrarsi. La fase di contrazione rispecchia la fase di
espansione, cosicché la contrazione diventa sempre più rapida fino a quando l'universo
scompare in un big crunch: una catastrofica implosione, come un big bang al contrario.
Questo ciclo di espansione e di contrazione può quindi essere seguito da un altro ciclo,
poi da un altro, e così via ad infinitum.
Le soluzioni di Friedmann non costringono l'universo a oscillare tra fasi alterne
di espansione e contrazione: esse ammettono anche la possibilità di un universo che
abbia inizio con un big bang e continui a espandersi per sempre. Quale fra queste
alternative prevalga dipende dalla quantità di materia esistente nell'universo stesso.
Fondamentalmente, se c'e sufficiente materia, la sua gravità arresterà alla fine la
7;=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
dispersione cosmica, e causerà un nuovo collasso. Se c'è materia sufficiente a causare la
ricontrazione, dobbiamo considerare la possibilità che l'universo possa pulsare.
Comunque, alla luce dell’espansione accelerata dell’universo scoperta alla fine degli
anni novanta del XX secolo, prodotta dalla possibile presenza di un’energia oscura i cui
effetti sono antigravitazionali, questi scenari vanno riconsiderati.
Un’altra possibilità che esclude un inizio per l’universo è che forse non ci fu
nessun inizio, neppure il big bang. Può darsi invece che l'universo abbia i mezzi per
rifornirsi in continuazione, in modo da andare avanti per sempre. L'aspetto centrale di
questa teoria, dovuta a Herman Bondi (1919-2005) e Thomas Gold (1920-2004) e
chiamata dello stato stazionario, è che non vi è stato alcun big bang in cui tutta la
materia sarebbe stata creata. Invece, mentre l'universo si espande, vengono di continuo
create nuove particelle di materia per colmare gli spazi vuoti, cosicché la densità media
della materia nell'universo rimane invariata. Ogni singola galassia attraverserà un ciclo
di evoluzione, che culminerà nella sua morte quando le stelle si spegneranno, ma nuove
galassie possono formarsi dalla materia creata nel processo. In ogni dato momento vi
sarà una mescolanza di galassie di diverse età, ma le galassie più vecchie saranno
distribuite in modo assai sparso perché l'universo si sarà esteso parecchio dal momento
della loro nascita. Bondi e Gold immaginarono che il tasso di espansione dell'universo
rimanesse costante e che il tasso di creazione della materia fosse tale da mantenere una
densità media anch'essa costante.
Lo stato stazionario dell'universo non ha un inizio o una fine, e appare
mediamente lo stesso in tutte le epoche cosmiche, nonostante l'espansione. Il modello
evita la morte termica perchè l'immissione di materia nuova immette anche entropia
negativa. Bondi e Gold non hanno fornito alcun meccanismo dettagliato che spiegasse
come la materia viene creata, ma lo ha fatto il loro collega Fred Hoyle (1915-2001) che ha
lavorato proprio su questo problema. Hoyle ha studiato la possibilità di un campo di
creazione il cui effetto sarebbe quello di produrre nuove particelle di materia. Poiché la
materia è una forma di energia, il meccanismo di Hoyle potrebbe essere interpretato
come una violazione della legge di conservazione dell'energia, ma le cose non stanno
necessariamente così. Il campo di creazione ha energia negativa ed è possibile che
l'energia positiva della materia creata sia controbilanciata esattamente dall'energia
negativa del campo di creazione. Da uno studio matematico di questa interazione,
Hoyle scoprì che il suo modello cosmologico tendeva automaticamente verso la
condizione di stato stazionario richiesta dalla teoria di Bondi e di Gold, e poi ci
rimaneva. Il lavoro di Hoyle offrì il necessario supporto teorico perché la teoria dello
stato stazionario fosse presa sul serio, e per un decennio o più si pensò che potesse
battersi ad armi pari con la teoria del big bang. Molti scienziati, compresi coloro che
diedero origine alla teoria dello stato stazionario, si resero conto che abolendo il big
bang avevano eliminato una volta per tutte il bisogno di qualunque tipo di spiegazione
soprannaturale dell'universo. In un universo senza un inizio non c'e alcuna necessità di
una creazione o di un creatore, e un universo con un campo di creazione fisico che gli
consente di ricaricarsi da sé non necessita di alcun intervento divino per continuare a
girare.
In realtà la conclusione è un non sequitur. Il fatto che l'universo potrebbe non
avere alcuna origine nel tempo non spiega la sua esistenza, né perché ha la forma che
ha. Di sicuro non spiega perché la natura possiede i campi pertinenti (come il campo di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7;4!
creazione) e i principi fisici che determinano la condizione dello stato stazionario. Per
ironia della sorte, alcuni teologi hanno salutato la teoria dello stato stazionario come un
modus operandi dell'attività creativa di Dio. Dopo tutto, un universo che vive in eterno,
evitando la morte termica, riveste un notevole interesse teologico. A cavallo del XX
secolo il matematico e filosofo Whitehead fondò la cosiddetta scuola teologica della
processualità. I teologi della processualità rifiutano il tradizionale concetto cristiano
della creazione dal nulla a favore di un universo che non ha avuto nessun inizio.
L'attività creativa di Dio si manifesta invece come un processo ancora in corso, un
progresso creativo nell'attività della natura, in sintonia con la teoria dello stato
stazionario.
Alla fine, la teoria dello stato stazionario perse consensi non per ragioni
filosofiche, ma perché venne smentita dalle osservazioni. La teoria fece la predizione
molto specifica che l'universo sarebbe dovuto apparire più o meno sempre uguale in
tutte le epoche, e l'avvento dei grandi telescopi radio consentì che tale predizione
venisse controllata. Dalla metà degli anni Sessanta del XX secolo divenne chiaro che
parecchi miliardi di anni fa l'universo sarebbe apparso molto diverso da come appare
oggi, in particolare rispetto al numero di tipi diversi di galassie.
Il colpo mortale alla teoria dello stato stazionario venne inferto nel 1965 con la
scoperta della radiazione cosmica di fondo, cioè che l'universo è immerso in una
radiazione termica a una temperatura di circa tre gradi sopra lo zero assoluto. Si ritiene
che questa radiazione sia un residuo diretto del big bang, una sorta di traccia
evanescente del calore primordiale che ha accompagnato la nascita del cosmo. Risulta
difficile comprendere come un tale bagno di radiazioni abbia potuto prodursi senza che
la materia cosmica sia stata un tempo molto compressa ed estremamente calda. Un
simile stato non è contemplato dalla teoria dello stato stazionario. Naturalmente, il fatto
che l'universo non sia in uno stato stazionario non significa che una continua creazione
di materia sia impossibile, ma la motivazione del campo della creazione di Hoyle risulta
fortemente indebolita una volta che si è stabilito che l'universo è in evoluzione.
Se si accetta l'idea che lo spazio, il tempo e la materia ebbero origine in una
singolarità che rappresenta un limite assoluto, nel passato, per l'universo fisico, ci
troviamo di fronte a un certo numero di rompicapi. C'è ancora il problema di che cosa
ha causato il big bang. Questo interrogativo deve, comunque, essere visto sotto una
nuova luce, perché non è possibile considerare il big bang come un effetto di qualche
cosa accaduta prima di esso, come generalmente succede nelle discussioni sui fenomeni
causali. Ciò significa forse che il big bang fu un evento senza una causa? Se le leggi della
fisica cessano di valere nel punto di singolarità, non ci può essere nessuna spiegazione
che si basi su queste leggi. Perciò, se si insiste su una ragione per il big bang, allora
questa deve trovarsi oltre la fisica.
Dopo l'abbandono della teoria dello stato stazionario, sembrò che gli scienziati si
trovassero di fronte a una rigida alternativa riguardo all'origine dell'universo. Si poteva
o credere che l'universo avesse un'età infinita, con tutti i paradossi fisici che ne
derivano, oppure assumere un inizio improvviso del tempo (e dello spazio), la cui
spiegazione sfuggisse all'ambito della scienza. Venne trascurata una terza possibilità:
che il tempo potesse essere limitato nel passato e, tuttavia, non aver avuto inizio
improvvisamente in una singolarità.
Prima di entrare nei particolari vorrei fare una considerazione di carattere
generale, ossia affermare che l'essenza del problema dell'origine è che il big bang
7;5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
appare come un evento senza una causa fisica. Ciò è in genere considerato in
contraddizione con le leggi della fisica. C'è, comunque, una scappatoia chiamata
meccanica quantistica. Ricordiamo che alla base della fisica quantistica c'è il principio di
indeterminazione di Heisenberg, secondo il quale tutte le quantità misurabili sono
soggette a impredicibili fluttuazioni di valore. Questa impredicibilità implica che il
microcosmo è indeterministico. Perciò gli eventi quantistici non sono determinati in
modo assoluto da cause precedenti e benché la probabilità di un dato evento sia fissata
dalla teoria, il risultato effettivo di un particolare processo quantistico non è conosciuto
e non può essere conosciuto, neppure in linea di principio.
Indebolendo il legame tra causa ed effetto, la meccanica quantistica fornisce un
modo sottile di aggirare il problema dell'origine dell'universo. Se si trovasse il modo di
consentire all'universo di aver origine dal nulla come risultato di una fluttuazione
quantistica, allora nessuna legge della fisica risulterebbe violata. In altre parole, dal
punto di vista di un fisico quantistico l'apparizione spontanea di un universo non è poi
una tale sorpresa, perché gli oggetti fisici appaiono di continuo in modo spontaneo,
senza cause ben definite, nel microcosmo quantistico. Il fisico quantistico non ha
bisogno di fare appello a un atto soprannaturale per spiegare l'origine dell'universo, più
di quanto ne abbia bisogno per spiegare perché un nucleo radioattivo è decaduto. Tutto
questo dipende, naturalmente, dalla validità della meccanica quantistica quando la si
applica all'universo nel suo complesso. E si tratta di una questione ancora non
perfettamente chiarita. A parte la straordinaria estrapolazione richiesta nell'applicare
una teoria delle particelle subatomiche all'intero cosmo, vi sono profonde questioni di
principio relative al significato da attribuire a certi oggetti matematici nella teoria. Ma
molti insigni fisici hanno sostenuto che si può far funzionare la teoria in maniera
soddisfacente anche in questa situazione, e così è nata la cosmologia quantistica.
La giustificazione della cosmologia quantistica è che, se il big bang viene preso
sul serio, ci deve essere stato un tempo in cui l'universo era ridotto dalla compressione a
dimensioni minute. In queste circostanze i processi quantistici devono essere stati
importanti. In particolare le fluttuazioni descritte dal principio di indeterminazione di
Heisenberg devono avere avuto un profondo effetto sulla struttura e sull'evoluzione del
cosmo nascente. Un semplice calcolo ci rivela di quale epoca si trattava. Gli effetti
quantistici erano importanti quando la densità della materia aveva uno sbalorditivo
valore di 1094 gm/cm3. Questo stato di cose esisteva prima di 10-43 secondi dal big bang,
quando l'universo era largo semplicemente 10-33 cm. Ci si riferisce a questi valori
rispettivamente, come alla densità, il tempo e la distanza di Planck.
La capacità delle fluttuazioni quantistiche di increspare il mondo fisico su scala
ultramicroscopica conduce a una predizione affascinante sulla natura dello
spaziotempo. I fisici possono osservare le fluttuazioni quantistiche in laboratorio fino
alla distanza di circa 10-16 cm e per un tempo di circa 10-26 secondi. Queste fluttuazioni
hanno luogo su uno sfondo spazio-temporale apparentemente fisso. Sulla scala molto
più piccola dei valori di Planck, tuttavia, le fluttuazioni interesserebbero anche lo stesso
spaziotempo. Nel contesto della cosmologia quantistica ci sono tre possibili scenari.
Il primo riguarda la comparsa dello stato iniziale dell’universo dal nulla come
prodotto spontaneo dal vuoto grazie all’effetto di tunnel quantistico. Il concetto di
universo che si materializza dal nulla è qualcosa di sconvolgente, ma l’effetto tunnel è
descritto dalle leggi della meccanica quantistica, grazie alle quali una particella,
rappresentata da un’onda, riesce a superare una barriera di energia anche se la sua
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7;6!
energia è insufficiente a superarla, per cui il nulla deve essere soggetto a tali leggi, e
quindi sede di attività frenetica. Come risultato dell’evento di tunneling, un universo di
dimensione finita emerge da nessun luogo, ovvero nuclea, e comincia immediatamente
a crescere in maniera inflazionaria. Se non c'era nulla prima che l'Universo comparisse,
cosa mai avrebbe potuto causare il tunneling? Può sbalordire, ma la risposta è che non è
richiesta alcuna causa. In fisica classica, la causalità detta ciò che accade da un momento
al successivo; in meccanica quantistica, invece, il comportamento degli oggetti fisici è
intrinsecamente impredicibile, e alcuni processi quantistici non hanno affatto causa.
La nascita dell'Universo
può
essere
rappresentata
graficamente
mediante
il
diagramma
spaziotemporale
illustrato in figura. L'emisfero
scuro in basso corrisponde al
tunneling, la superficie chiara
sopra di esso raffigura lo
spaziotempo
dell'universo
inflazionario. Il confine tra le
due regioni spaziotemporali rappresenta l'Universo nel momento della nucleazione.
Caratteristica notevolissima di questo spaziotempo è che non ha singolarità, in quanto
la regione sferica ha curvatura finita ovunque, a differenza dello spaziotempo di
Friedmann che ha inizio da un punto singolare di curvatura infinita, dove la
matematica delle equazioni einsteiniane cessa di valere. Prima del tunneling non
esistono né spazio né tempo, sicché la questione di cosa sia accaduto in precedenza è
priva di senso. Il nulla, uno stato senza materia, senza spazio e senza tempo, sembra
essere una soluzione soddisfacente per la creazione.
L’ Universo che emerge dall'effetto tunnel quantistico non deve per forza avere
forma perfettamente sferica. Può assumere una gran varietà di forme differenti, e come
di solito accade nella quantistica , non siamo in grado di dire quale di queste possibilità
si sia realizzata; tutto ciò che possiamo fare è calcolare le loro probabilità. Potrebbe darsi
che ci sia una molteplicità di altri universi che hanno avuto inizio in modo diverso dal
nostro? L'argomento è strettamente connesso alla spinosa questione di come si debbano
interpretare le probabilità quantistiche. Secondo l'interpretazione di Copenaghen, la
meccanica quantistica assegna una probabilità a ogni possibile esito di un esperimento,
ma solo uno di tali risultati si produce realmente. L'interpretazione di Everett, d'altra
parte, afferma che tutti i risultati possibili si realizzano in universi privi di connessioni
reciproche, universi "paralleli". Se adottiamo l'interpretazione di Copenaghen, la
creazione è stata un evento unico, in cui un singolo Universo è comparso dal nulla. Ciò,
però, comporta un problema. La cosa che ha maggiori probabilità di comparire dal
nulla è un Universo delle dimensioni della lunghezza di Planck, dove non potrebbe
prodursi alcun effetto tunnel: un Universo del genere ricollasserebbe scomparendo
immediatamente. La probabilità di tunneling a dimensioni maggiori è piccola, e
richiede perciò un gran numero di tentativi. Tale concezione sembra accordarsi
unicamente con l'interpretazione di Everett. Stando a quest'ultima, c'e un insieme di
universi con tutti i possibili stati iniziali. Per la maggior parte, si tratta di "barlumi
d'universo" delle dimensioni della lunghezza di Planck, dotati di un'esistenza
intermittente. Oltre a questi, ci sono alcuni universi che, per effetto tunnel, passano a
7;7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
dimensioni maggiori e crescono in maniera inflazionaria. Poiché non è possibile che nei
"barlumi d'universo" evolvano osservatori, solo universi di grandi dimensioni saranno
soggetti a osservazione, e quindi è probabile il nostro Universo abbia nucleato in tal
modo. Tutti gli universi che fanno parte di tale complesso sono assolutamente privi di
relazioni reciproche.
Un secondo scenario è quello proposto da
Hawking-Hartle. In questo modello, invece di
concentrarsi sui primi istanti della creazione, si pone il
problema di come calcolare la probabilità quantistica
affinché l’Universo si trovi in un certo stato. L’Universo
potrebbe seguire un gran numero di storie possibili
prima di raggiungere tale stato, e attraverso la meccanica
quantistica valutare il contributo di ogni singola storia a
tale probabilità. Il risultato probabilistico finale dipende
da quale insieme di storie venga preso in considerazione
nel calcolo. La proposta di Hartle e Hawking era di
comprendervi solo storie rappresentate da spaziotempi che non hanno confini nel
passato. Uno spazio senza limiti è facile da concepire: non è altro che un Universo
chiuso. Ma, secondo quanto richiedevano Hartle e Hawking, nemmeno lo spaziotempo
doveva avere confini nella direzione del tempo passato. Doveva essere chiuso in tutte e
quattro le dimensioni, eccetto per il bordo che corrisponde al momento presente. La
presenza di un confine nello spazio indicherebbe che c'è qualcosa al di là dell'Universo,
un limite nel tempo corrisponderebbe all'inizio dell'Universo, dove dovrebbero venire
specificate alcune condizioni iniziali. Secondo quanto proponevano Hartle e Hawking,
l'Universo non possiede tali confini, è del tutto autonomo e non subisce alcuna
influenza esterna . La conclusione è che, secondo Hartle e Hawking, non c'e nessuna
origine dell'universo. Tuttavia, questo non significa che l'universo abbia un'età infinita:
il tempo è limitato nel passato, ma come tale non ha un confine.
Così secoli di travaglio filosofico sui
paradossi del tempo infinito contro quello finito si
concludono con una soluzione elegante. Le
implicazioni dell'universo di Hartle-Hawking per
la teologia sono profonde, come osserva lo stesso
Hawking: “Finché l'Universo aveva un inizio,
potevamo supporre che avesse un creatore. Ma se
l'universo è completamente autosufficiente, senza
un confine o un margine, non ha né un principio
né una fine: semplicemente c'é. In tal caso, c'é
ancora posto per un creatore?” Secondo questo
argomento, dunque, dato che l'Universo non ha
un'origine singolare nel tempo, non c'e alcun
bisogno di appellarsi a un atto soprannaturale di
creazione.
Il terzo modello è basato sulla teoria delle
stringhe (che tratteremo più approfonditamente
nel capitolo La fisica del futuro), un modello fisico i
cui costituenti fondamentali sono oggetti ad una
dimensione (le stringhe) invece che di dimensione
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7;8!
nulla (i punti) caratteristici della fisica
del modello standard. Secondo questa
teoria il nostro spazio è una membrana a
tre dimensioni (brana), un universo
bolla che fa la sua comparsa in uno
spazio a più dimensioni. Noi viviamo in
una di queste bolle, che è una brana
tridimensionale sferica in espansione Per quel che ci riguarda, tale brana è l'unico
spazio esistente. Non possiamo uscirne e siamo ignari delle dimensioni extra. Seguendo
a ritroso nel tempo la storia del nostro universo bolla, giungiamo al momento della
enucleazione. Secondo la teoria delle stringhe, l’Universo esisteva prima del big bang
che, per la relatività generale segnò l’inizio dello spazio e del tempo. L’universo
potrebbe essere stato quasi vuoto e aver concentrato materia fino a quel momento, o
aver attraversato un ciclo di morte e rinascita. In ogni caso, l’epoca precedente il big
bang avrebbe influenzato l’epoca attuale.
16.4 L’origine dell’universo: il big bang
L’universo è grande sia nello spazio sia nel tempo, e per buona parte della storia
dell'umanità è rimasto fuori della portata dei nostri strumenti e delle nostre menti.
Questo stato di cose è completamente cambiato nel XX secolo. I progressi si sono avuti
sia grazie a idee potenti, dalla relatività generale a teorie sulle particelle elementari, sia
grazie a strumenti potenti, come il telescopio spaziale Hubble, che hanno permesso di
gettare lo sguardo non solo al di fuori della nostra galassia, la Via Lattea, ma fino al
momento della nascita delle galassie. Nel corso degli ulti vent'anni l'incedere della
conoscenza è accelerato con la conferma del fatto che la materia oscura non è composta
da atomi ordinari, con la scoperta dell'energia oscura e con la comparsa di idee ardite
quali l'inflazione cosmica e il multiverso.
L'universo di cent'anni fa era semplice: eterno, immutabile, composto da
un'unica galassia che conteneva qualche milione di stelle visibili. Il quadro odierno è
piu completo e molto più ricco. Il cosmo ha avuto inizio 13,7 miliardi di anni fa, con il
big bang. Una frazione di secondo dopo l'inizio l'universo era un brodo caldo e informe
composto dalle particelle più elementari, quark e leptoni. Via via che si espandeva e si
raffreddava si sviluppavano livelli successivi di struttura: neutroni e protoni, nuclei
atomici, atomi, stelle, galassie, ammassi di galassie e infine superammassi. Oggi la parte
osservabile dell'universo è popolata da 100 miliardi di galassie, ognuna contenente 100
miliardi di stelle e probabilmente un numero simile di pianeti. Le galassie stesse sono
tenute insieme dalla gravità della misteriosa materia oscura. L'universo continua a
espandersi, e questo avviene a una velocità che aumenta a causa dell'energia oscura,
una forma di energia ancora più misteriosa, la cui forza di gravità respinge anziché
attrarre.
Il tema generale nella storia del nostro universo è l'evoluzione dalla semplicità
del brodo di quark alla complessità che vediamo attualmente nelle galassie, nelle stelle,
nei pianeti e nella vita. Queste caratteristiche emersero una dopo l'altra nel corso di
miliardi di anni, guidate dalle leggi fondamentali della fisica. Nel loro percorso verso
l'origine della creazione, i cosmologi inizialmente viaggiano attraverso la storia ben
7;9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
conosciuta dell'universo fino al primo microsecondo; in seguito fino a 10-43 secondi
dall'origine, un momento su cui le idee sono ben sviluppate ma le prove non sono
ancora solide; e infine viaggiano fino ai primi istanti della creazione, su cui le nostre
idee sono ancora puramente ipotetiche. Anche se l'origine assoluta dell'universo si trova
ancora al di là della nostra portata, abbiamo congetture affascinanti, tra cui il concetto di
multiverso, secondo cui l'universo comprende un numero infinito di sottouniversi
sconnessi.
Nel 1924, Hubble mostrò che le indistinte nebulose erano galassie come la nostra,
e ingrandì di 100 miliardi di volte l'universo conosciuto. Qualche anno dopo mostrò che
le galassie si allontanano l'una dall'altra, e più lontane sono più si muovono
velocemente. È la legge di Hubble, applicata al passato, che indica un big bang 13,7
miliardi di anni fa.
La legge di Hubble
trovò
un'interpretazione
naturale all’interno della
relatività generale: lo spazio
stesso si espande, e le
galassie
vi
vengono
trascinate. Anche la luce
viene
deformata,
cioè
spostata verso il rosso: è un
fenomeno che toglie energia,
e quindi l'universo si
raffredda via via che si
espande.
L'espansione
cosmica fornisce il contesto
per capire come si arrivò
all'universo odierno. Quando i cosmologi immaginano di riportare indietro le lancette,
l'universo diventa più denso, più caldo, più estremo più semplice. Esplorando gli inizi
sondiamo anche i meccanismi della natura aiutandoci con un acceleratore più potente
rispetto a quelli costruiti sulla Terra: il big bang stesso.
Osservando lo spazio con i telescopi gli astronomi scrutano il passato, e più è
grande il telescopio più indietro nel tempo possono scrutare. La luce proveniente dalle
galassie lontane rivela un'era passata, e la misura dello spostamento verso il rosso
subìto da questa luce indica di quanto sia cresciuto l'universo negli anni intermedi.
L'attuale primatista ha uno spostamento verso il rosso di circa 8, che rappresenta un
momento in cui l'universo aveva un nono delle dimensioni attuali e aveva solo qualche
centinaio di milioni di anni. I telescopi del futuro ci porteranno al momento della
nascita delle primissime stelle e galassie.
Le simulazioni al computer dicono che quelle stelle e galassie si formarono
quando l'universo aveva circa 100 milioni di anni. Prima di allora l'universo attraversò
un periodo detto età oscura, in cui era quasi completamente buio. Lo spazio era pieno di
un brodo informe, composto da cinque parti di materia oscura e una parte di idrogeno
ed elio, che si diluì via via che l'universo si espandeva. La materia aveva una densità
leggermente disomogenea, e la gravità amplificò queste variazioni di densità: le regioni
più dense si espandevano più lentamente di quelle meno dense. Arrivati a 100 milioni
di anni, le regioni più dense non solo si espandevano più lentamente, ma cominciarono
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7;:!
addirittura a subire un collasso. Queste regioni contenevano, ciascuna, materiale pari a
circa un milione di volte la massa del Sole. Furono i primi oggetti del cosmo tenuti
insieme dalla gravità.
La materia oscura formava il grosso della loro massa ma, come suggerisce il
nome, non emetteva o assorbiva luce e così rimase sotto forma di una nube diffusa.
L'idrogeno e l'elio, invece, emettevano luce, perdevano energia e si concentravano al
centro della nube, che alla fine collassava fino a generare le stelle. Queste prime stelle
avevano una massa molto maggiore rispetto a quelle di oggi: centinaia di masse solari.
E avevano vite molto brevi prima di esplodere e lasciarsi dietro i primi elementi pesanti.
Nel corso del miliardo di anni successivo la forza di gravità aggregò nelle prime
galassie queste nubi da un milione di masse solari.
Dovrebbe essere possibile individuare la radiazione dalle nubi primordiali di
idrogeno, fortemente spostata verso il rosso a causa dell'espansione, usando schiere di
antenne radio con un'area di ricezione complessiva che raggiunge un chilometro
quadrato, e osserveranno come la prima generazione di stelle e galassie ionizzò
l'idrogeno, mettendo fine all'età oscura.
Dopo l'età oscura c'è la luminosità del caldo big bang, con uno spostamento verso
il rosso di 1100. Questa radiazione fu spostata dalla luce visibile (una luce rossoarancione) oltre l'infrarosso, fino alle microonde. Quello che vediamo di quell'epoca è
un muro di radiazioni nella frequenza delle microonde che riempie il cielo, la
radiazione cosmica di fondo a microonde (cosmic microwave background radiation, CMB),
scoperta nel 1964 da Penzias e Wilson. Ci permette di gettare uno sguardo sull’universo
alla tenera età di 380.000 anni, il periodo in cui si formarono gli atomi. Prima di allora
l'universo era un brodo quasi uniforme di nuclei atomici, elettroni e fotoni. Quando si
raffreddò a circa 3000 kelvin, i nuclei e gli elettroni si unirono a formare atomi. I fotoni
7=<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
cessarono di essere deflessi dagli elettroni e sfrecciarono senza ostacoli per lo spazio,
rivelando l'universo di un tempo più semplice, prima dell'esistenza di stelle e galassie.
Nel 1992 il satellite Cosmic Background Explorer (COBE) della NASA scoprì che
l'intensità della CMB ha lievi variazioni, dello 0,001 per cento circa, che riflettono
piccole increspature nella distribuzione della materia. Le increspature primordiali
avevano le dimensioni giuste per essere i semi di galassie e strutture più grandi che si
sarebbero formate per effetto della gravità. La disposizione nel cielo di queste variazioni
della radiazione di fondo descrive anche alcune proprietà fondamentali dell'universo,
come la sua densità e composizione complessiva, nonché indizi sui suoi primi istanti; lo
studio attento di queste variazioni ha rivelato molto sull'universo.
Proiettando a ritroso il film dell'evoluzione dell'universo prima di questo punto,
vediamo il plasma primordiale diventare sempre più caldo e denso. Prima di circa
100.000 anni la densità di energia della radiazione superava quella della materia,
impedendo alla materia di aggregarsi. Quindi questo momento indica l'inizio della
formazione gravitazionale di tutte le strutture che vediamo oggi nell'universo. Più
indietro, quando l'universo aveva meno di un secondo, i nuclei atomici dovevano
ancora formarsi; esistevano solo le loro particelle costituenti, cioè elettroni e protoni. I
nuclei comparvero quando l'universo aveva un'età di alcuni secondi e temperature e
densità erano quelle giuste per le reazioni nucleari. Questo fenomeno di nucleosintesi
del big bang produsse solo gli elementi più leggeri della tavola periodica: molto elio (in
massa, circa il 25% degli atomi dell'universo) e quantità minori di litio e degli isotopi
deuterio ed elio-3. Il resto del plasma (circa il 75% per cento) rimase in forma di protoni,
che sarebbero poi diventati atomi di idrogeno. Gli altri elementi della tavola periodica si
formarono miliardi di anni dopo nelle stelle e nelle esplosioni stellari.
Le previsioni della teoria della nucleosintesi concordano con le proporzioni dei
vari elementi misurate nei più antichi campioni di universo: le stelle più vecchie e le
nubi di gas con elevato spostamento verso il rosso. La proporzione di deuterio, molto
sensibile alla densità di atomi nell'universo, ha un ruolo speciale: il valore misurato
implica che la materia ordinaria ammonta al 4,5% della densità di energia totale, il resto
è materia oscura per il 24% ed energia oscura per il 71,1%. La stima concorda
esattamente con la composizione estrapolata analizzando la radiazione di fondo. E
questa corrispondenza è un grande successo. Che queste due misurazioni molto
diverse, una basata sulla fisica nucleare quando l'universo aveva un secondo e l'altra
basata sulla fisica atomica quando l'universo aveva 380.000 anni, concordino è una
conferma non solo del nostro modello di come si evolse l'universo ma di tutta la fisica.
Prima di un microsecondo non potevano esistere neppure i protoni e i neutroni, e
l'universo era un brodo composto dai componenti fondamentali della natura: i quark, i
leptoni e i portatori delle forze (fotoni, bosoni W e Z e gluoni). Siamo ragionevolmente
sicuri dell’esistenza del brodo di quark perché gli esperimenti con gli acceleratori hanno
ricreato, oggi sulla Terra, condizioni simili.
Per esplorare questo periodo i cosmologi non usano telescopi più grandi e
migliori, ma potenti idee della fisica delle particelle. Trent'anni fa, lo sviluppo del
modello standard della fisica delle particelle ha portato a congetture ardite su come
siano unificate le forze e particelle fondamentali apparentemente divise. Ne è emerso
che queste nuove idee hanno conseguenze per la cosmologia che sono importanti come
l'idea originale del big bang caldo. Suggeriscono collegamenti profondi e inaspettati tra
il mondo dell'infinitamente grande e quello dell'infinitamente piccolo. Cominciano a
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7=;!
emergere le risposte a tre domande chiave: natura della materia oscura, asimmetria tra
materia e antimateria e origine del brodo increspato di quark.
Ora sembra che l'inizio della fase del brodo di quark fosse la culla della materia
oscura. L'identità della materia oscura è ancora poco chiara, ma la sua esistenza è ormai
accertata. La nostra e tutte le altre galassie, nonché gli ammassi di galassie, sono tenuti
insieme dalla gravità dell'invisibile materia oscura. Qualunque cosa essa sia, deve
interagire debolmente con la materia ordinaria, altrimenti si sarebbe manifestata in altri
modi. I tentativi di trovare un quadro unificatore per le forze e le particelle della natura
hanno portato a prevedere particelle stabili o dotate di vita lunga che potrebbero
esserne i costituenti. Queste particelle sarebbero presenti oggi come resti della fase del
brodo di quark e si pensa che interagiscano molto debolmente con gli atomi.
La prima fase del brodo di quark racchiude probabilmente anche il segreto del
perché oggi l'universo contenga per lo più materia anziché materia e antimateria. I fisici
pensano che in origine l'universo contenesse uguali quantità di entrambe ma a un certo
punto abbia sviluppato un lieve eccesso di materia: circa un quark in più per ogni
miliardo di antiquark. Questo sbilanciamento permise a un numero sufficiente di quark
di sopravvivere all'annichilazione con gli antiquark mentre l'universo si espandeva e si
raffreddava. Più di quarant'anni fa, esperimenti con gli acceleratori hanno rivelato che
le leggi della fisica sono leggermente sbilanciate a favore della materia e questo leggero
vantaggio portò alla creazione della sovrabbondanza di quark.
Si ritiene che il brodo di quark sia comparso presto, forse 10-34 secondi dopo il big
bang, in una fase di espansione cosmica accelerata nota come inflazione, teoria
ipotizzata nel 1981 da Alan Guth (1947). Questo scatto, alimentato dall'energia di un
nuovo campo (analogo al campo elettromagnetico) chiamato inflatone, spiegherebbe
alcune proprietà del cosmo, come la sua complessiva omogeneità e le increspature da
cui nacquero galassie e altre strutture dell'universo. Via via che l'inflatone decadeva,
rilasciava energia sotto forma di quark e altre particelle, creando il calore del big bang e
il brodo di quark stesso.
L'inflazione porta a un nesso
profondo tra quark e cosmo: le
fluttuazioni quantistiche nel campo
inflatone a scala subatomica si
dilatano
fino
a
dimensioni
astrofisiche per via della rapida
espansione, e diventano basi per le
strutture che vediamo. In altre
parole la configurazione della CMB
che si vede nel cielo è un'immagine
gigantesca del mondo subatomico.
La prova più forte a sostegno della
teoria inflanzionaria è venuta dalla
rilevazione (marzo 2014), da parte dell’osservatorio BICEP in Antartide, degli effetti
diretti delle onde gravitazionali sulla radiazione cosmica di fondo.
Via via che i cosmologi cercano di andare ancora oltre nella comprensione degli
inizi dell'universo, le idee diventano meno solide. La relatività generale di Einstein ha
posto la base teorica per un secolo di progresso nella nostra comprensione
7==!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
dell'evoluzione dell'universo. Ma non è compatibile con un altro pilastro della fisica, la
meccanica quantistica, e il più importante compito della fisica di oggi consiste nel
riconciliarle. Solo con una teoria unificata, la cosiddetta gravità quantistica, saremo in
grado di svelare i primissimi istanti dell'universo, la cosiddetta era di Planck precedente
un'età di circa 10-43 secondi, quando stava prendendo forma lo spaziotempo stesso.
I tentativi di elaborare una teoria unificata hanno portato a ipotesi notevoli
riguardo i primi istanti. Tra le varie teorie all’interno della gravità quantistica, la teoria
delle stringhe, per esempio, prevede l'esistenza di dimensioni aggiuntive dello spazio e
la possibilità di altri universi in questo spazio più ampio. Quello che chiamiamo big
bang può essere stato la collisione del nostro universo con un altro. L'unione della teoria
delle stringhe con il concetto di inflazione ha portato forse all'idea più ardita emersa
finora, quella di un multiverso, cioè che l'universo contenga un numero infinito di parti
sconnesse, ognuna con le sue leggi della fisica.
Il concetto di multiverso,
che sta ancora muovendo i primi
passi,
si
basa
su
due
fondamentali scoperte teoriche.
Primo,
le
equazioni
che
descrivono
l'inflazione
suggeriscono che se l'inflazione è
avvenuta una volta dovrebbe
avvenire più volte, creando nel
corso del tempo un numero
infinito di regioni inflazionarie.
Nulla può passare dall'una
all'altra di queste regioni, e
quindi non hanno effetto l'una
sull'altra. Secondo, la teoria delle
stringhe suggerisce che queste
regioni abbiano parametri fisici
diversi come il numero di
dimensioni spaziali e i tipi di
particelle stabili.
Il concetto di multiverso
dà nuove risposte a due delle più
controverse
domande
della
scienza: che cosa accadde prima
del big bang e perchè le leggi
della fisica sono come sono. Il
multiverso rende irrilevante la domanda su prima del big bang, perché ci fu un numero
infinito di inizi con un big bang, ognuno attivato dalla propria inflazione. Per la
seconda, all'interno di un'infinità di universi sono state provate tutte le possibili leggi
fisiche, e quindi non c'e una ragione particolare per le leggi del nostro.
I cosmologi hanno idee contrastanti nei confronti del multiverso. Se i
sottouniversi sconnessi non possono comunicare, non possiamo sperare in prove
sperimentali della loro esistenza: sembrano al di là del dominio della scienza. D'altro
canto il multiverso risolve vari problemi concettuali.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7=4!
Se è corretto, l'allargamento di Hubble delle frontiere dell'universo e
l'allontanamento copernicano della Terra dal centro del cosmo sembreranno progressi
minuscoli nella conoscenza del nostro posto nel cosmo.
16.5 La fine dell’universo
La teoria dell'inflazione ci dice che l'Universo nella sua globalità continuerà per
sempre, ma la nostra regione locale, l'Universo osservabile, può senz'altro avere
termine. Questo tema è stato al centro della ricerca in cosmologia per buona parte del
XX secolo, e nel corso di tale processo la nostra concezione della fine del mondo è
cambiata più volte.
Dopo la condanna della costante cosmologica pronunciata da Einstein all'inizio
degli anni Trenta del Novecento, le predizioni dei modelli omogenei e isotropi di
Friedmann offrivano spiegazioni chiare e semplici: l'Universo collasserà in un Big
Crunch, se la sua densità sarà maggiore di quella critica; altrimenti, continuerà a
espandersi per sempre. Per determinare il destino dell'Universo non dovevamo far altro
che misurare accuratamente la
densità media di materia, e
controllare se superasse la
soglia critica. In tal caso,
l'espansione
dell'Universo
rallenterà gradualmente e sarà
seguita
da
contrazione.
Inizialmente
lenta,
la
contrazione è destinata ad
accelerare. Le galassie si
avvicineranno sempre più,
finché si uniranno in un enorme
agglomerato di stelle. Il cielo
diventerà più luminoso per
l'intensificarsi della radiazione
cosmica di fondo e lo riscalderà,
portandolo a temperature elevatissime, ciò che resta di stelle e di pianeti. Le stelle,
infine, si disintegreranno in collisioni reciproche, o evaporeranno per l'intenso calore
della radiazione. Il caldissimo globo di fuoco che risulterà da tale processo sarà simile a
quello dell'Universo primordiale, eccetto che ora si contrarrà anziché espandersi.
Un'altra differenza rispetto al Big Bang è che il globo di fuoco in contrazione è
piuttosto disomogeneo. Regioni più dense collassano dapprima a formare buchi neri,
che convergono poi in buchi neri di maggiori dimensioni, fino a fondersi tutti quanti
insieme all'istante del Big Crunch.
Nel caso opposto, con densità inferiore al livello critico, la spinta gravitazionale
della materia è troppo debole per invertire l'espansione. L'Universo si espanderà per
sempre. In meno di un trilione di anni tutte le stelle avranno esaurito il loro
combustibile nucleare. Le galassie si trasformeranno in sciami di freddi relitti stellari:
nane bianche, stelle di neutroni e buchi neri. L'Universo cadrà in una totale oscurità, con
galassie fantasma che si allontanano nel vuoto che si espande. Questo stato di cose
7=5!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
durerà almeno 1031 anni, finché i nucleoni che compongono i relitti stellari decadono,
trasformandosi in particelle più leggere: fotoni, elettroni e neutrini. Elettroni e positroni
si annichilano in fotoni, e le stelle morte cominciano lentamente a dissolversi.
Nemmeno i buchi neri durano per sempre. La celebre intuizione di Hawking che un
buco nero libera quanti di radiazione implica che esso perda gradualmente tutta la
propria massa, cioè evapori. In un modo o nell'altro, in meno di un google di anni (10100
anni), tutte le strutture dell'Universo a noi familiari vedranno la propria fine. Stelle,
galassie e ammassi scompariranno senza lasciare traccia, lasciandosi alle spalle un
miscuglio sempre più diluito di neutrini e radiazione.
Il destino dell'Universo è scritto in un parametro detto Omega, definito come la
densità media dell'Universo divisa per la densità critica. Se Omega è maggiore di 1,
l'Universo finirà nel fuoco e in un Big Crunch; se è minore di 1, possiamo prevedere una
fredda, lenta disintegrazione. Nel caso limite in cui Omega sia pari a 1, l'espansione
rallenta sempre più, ma non si arresta mai del tutto. L'Universo sfugge di un soffio al
Big Crunch, ma solo per diventare un cimitero di ghiaccio.
Le nostre opinioni circa la fine del mondo subirono una radicale trasformazione
nel corso degli anni Ottanta del Novecento, quando apparve sulla scena l'idea
dell'inflazione. Prima di allora, Big Crunch ed espansione illimitata sembravano scenari
equiprobabili, ma a quel punto la teoria dell'inflazione fece una predizione ben precisa.
Durante l'inflazione, la densità dell'Universo è spinta estremamente vicino alla densità
critica. A seconda delle fluttuazioni quantistiche del campo scalare, alcune regioni
hanno densità superiore e altre inferiore al livello critico, ma in media la densità si
attesta quasi esattamente su tale valore, pertanto la fine sarà lenta e ciò che rimarrà del
nostro Sole vagherà per miliardi di anni nello spazio, in attesa che tutti i suoi nucleoni
decadano.
Una caratteristica peculiare dell'Universo a densità critica è che il processo di
formazione delle strutture si distende su un enorme arco temporale, dove le strutture
più vaste impiegano un periodo più lungo per agglomerarsi. Le galassie si formano per
prime, si raggruppano quindi in ammassi, e in seguito gli ammassi si raggruppano in
superammassi. Se la densità media nella nostra regione osservabile è al di sopra del
valore critico, allora, in circa cento trilioni di anni, l'intera regione si trasformerà in un
ammasso dalle dimensioni favolose. A quell'epoca, tutte le stelle saranno già morte ma
la formazione delle strutture continuerà, estendendosi a scale via via maggiori. Si
fermerà solo con il disintegrarsi delle strutture cosmiche, risultato del decadimento
nucleare e dell'evaporazione dei buchi neri.
Un'altra trasformazione radicale introdotta dall'inflazione è che l'Universo, inteso
come un tutto, non avrà mai fine. L'inflazione è eterna e innumerevoli regioni simili alla
nostra si formeranno in altre parti dello spazio-tempo inflazionario.
La relazione di Friedmann tra la densità dell'Universo e il suo destino ultimo vale
solo se la densità di energia del vuoto (la costante cosmologica) è pari a zero. Era questa
l'assunzione standard prima del 1998; ma quando fu scoperta un'evidenza del contrario,
cioè che l’universo accelera, forse perché pervaso da un’energia oscura del vuoto
antigravitazionale, tutte le predizioni precedenti per il futuro dell'Universo dovettero
essere riviste. La predizione principale, secondo cui il mondo (localmente) sarebbe
terminato nel ghiaccio anziché nel fuoco, rimaneva immutata, ma non pochi dettagli
avrebbero dovuto subire delle modificazioni. L'espansione dell'Universo comincia ad
accelerare una volta che la densità di materia scenda al di sotto di quella del vuoto. In
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7=6!
quel momento, qualsiasi moto di raggruppamento gravitazionale si arresta. Ammassi di
galassie che sono già tenuti insieme dalla forza di gravita sopravvivono, ma i gruppi
sciolti vengono dispersi dalla gravità repulsiva del vuoto.
La nostra Via Lattea è legata al Gruppo Locale, che comprende la spirale gigante
di Andromeda e una ventina di galassie nane. Andromeda è in traiettoria di collisione
con la Via Lattea: esse si fonderanno tra circa cento miliardi di anni. Galassie che si
trovano al di là del Gruppo Locale si allontaneranno, movendosi sempre più
velocemente. Una a una, oltrepasseranno il nostro orizzonte e scompariranno dalla
nostra vista. Tale processo sarà completo fra qualche centinaio di miliardi di anni.
La nostra predizione circa l'evoluzione dell'Universo sarebbe ora completa se la
costante cosmologica fosse davvero una costante. Come sappiamo, ci sono buone
ragioni, però, per ritenere che la densità di energia del vuoto vari secondo uno spettro
di valori assai ampio, assumendo valori differenti in parti diverse del Cosmo. In alcune
regioni il suo valore è grande e positivo, in altre, grande è negativo e in altre è vicino
allo zero, come nel nostro caso. Comunque, nel tempo, il valore scenderà al di sotto
dello zero, a valori di densità di energia negativi. Un vuoto a energia negativa esercita
attrazione gravitazionale, sicché l'espansione cosmica terminerà con grande anticipo, e
avrà inizio la contrazione.
In base a uno scenario alternativo, suggerito dalla teoria delle stringhe, il nostro
vuoto può decadere per nucleazione di bolle. Bolle di vuoto a energia negativa
compariranno occasionalmente, espandendosi a una velocità che si avvicina
rapidamente a quella della luce. Potrebbe darsi che, in questo medesimo istante, una
muraglia di bolle avanzi minacciosa verso di noi. Non la vedremo arrivare: a causa
della velocità con cui procede il muro, la sua luce non lo precederà di molto. Una volta
che la parete ci abbia colpito, il nostro mondo verrà completamente annientato. Le
particelle che compongono le stelle, i pianeti e i nostri corpi neppure esisteranno nel
nuovo vuoto. Tutti gli oggetti a noi familiari verranno istantaneamente distrutti e si
trasformeranno in aggregati di una qualche forma di materia aliena.
In un modo o nell'altro, nella nostra regione locale l'energia dei vuoto diventerà
infine negativa. Allora, la regione comincerà a contrarsi e collasserà in un Big Crunch. È
difficile predire con esattezza il momento in cui ciò avverrà. Il ritmo di nucleazione
delle bolle può essere estremamente lento, e possono passare google di anni prima che
il luogo in cui viviamo sia colpito da una muraglia di bolle.
7=7!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
!"!"#!"!#$%!
Chiunque si pone come arbitro in
materia di conoscenza, è destinato
a naufragare nella risata degli dei.
Einstein
"(#&/%.(#-4!0)-$%"%+!(#
'-""(#0*!-&1(#
17.1 La fisica come conoscenza fallibile
Vari fattori, che siamo venuti presentando quasi in tappe progressive, hanno
contribuito a mutare profondamente il modo di concepire la fisica, e la scienza in
generale, concepita sin dagli inizi della cultura occidentale come sapere in senso pieno.
Sin dall’antica Grecia il sapere autentico era pensato come una conoscenza certa e
diversi criteri di scientificità via via proposti avevano il compito di assicurare delle
garanzie di certezza al conoscere, sia che si trattasse della certezza offerta dall'evidenza
immediata dei primi principi, sia che si trattasse di quella assicurata dalle rigorose
dimostrazioni logiche. La fisica classica non aveva per nulla rinunciato a una simile
caratteristica e, in particolare, la rivoluzione galileiana era consistita nel cercare di
assicurarla (nello studio della natura), mediante una rigida delimitazione del campo
d'indagine e l'adozione di appropriati strumenti metodologici. Anche Kant aveva
insistito nel riconoscere come caratteristica fondamentale della scientificità (ossia della
autenticità del conoscere) quella della certezza, assicurata, secondo lui, dall’intervento
delle forme trascendentali della ragione nella determinazione degli oggetti del
conoscere (purché ridotti alla sfera dei fenomeni sensibilmente accessibili). Il significato
storico dello scientismo positivista ottocentesco era quello di auspicare una progressiva
dilatazione del tipo di conoscenza scientifica alla totalità dei problemi umani, proprio
perché in tal modo si sarebbe potuta sfruttare la certezza dei risultati e dei metodi
scientifici non soltanto per conoscere il mondo e la società, ma anche per compiere in
modo sicuro scelte destinate ad assicurare il progresso dell'umanità e adottare le
strategie adatte a realizzarle.
Parlando della "crisi" delle scienze esatte manifestatasi già alla fine dell'Ottocento
abbiamo assistito a un inizio di sgretolamento di questa fiducia nella certezza del sapere
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7=8!
scientifico, crisi determinata in buona misura dal venir meno del sostegno della
intuizione intellettuale nel campo della scienza fisica, ormai obbligata a occuparsi
sempre più a fondo del mondo dell'inosservabile. L'autentico terremoto provocato dalla
comparsa quasi simultanea della fisica quantistica e della teoria della relatività agli inizi
del Novecento era stato interpretato come la prova che la fisica detta classica si era
dimostrata falsa, pur avendo goduto di due secoli interrotti di conferme sperimentali e
di trionfi interpretativi nei campi più disparati e pur avendo avuto il privilegio delle più
splendide formulazioni matematiche. Come si poteva, di fronte a un evento epocale di
tal genere, continuare a ritenere che la scienza offrisse un sapere certo? Che le teorie
scientifiche che stavano nascendo sarebbero state finalmente quelle vere? Infatti, come
si è gia visto, autori come Mach e, in senso non altrettanto forte, come Poincarè e vari
altri inclinarono verso una concezione della scienza che o le negava addirittura
un'autentica portata conoscitiva, oppure la limitava fortemente, sottolineando il
carattere sostanzialmente convenzionale e pragmaticamente utile delle sue costruzioni.
In altri termini, agli del Novecento la fisica moderna, in primis la teoria della relatività e
la meccanica quantistica, si distingueva da quella classica per il fatto di riconoscere
come sua caratteristica la fallibilità piuttosto che la certezza. In conseguenza della
cosiddetta “crisi dei fondamenti” della scienza e l’impatto di questi mutamenti radicali
ridefinirono la stessa filosofia della scienza o epistemologia, intesa come “ricostruzione
razionale” della scienza.
La consacrazione più nota di questa concezione è costituita dalla filosofia della
scienza di Karl Popper (1902-1994). L’idea di fondo di Popper è che la conoscenza
scientifica non è epistème, sapere certo, ma doxa, sapere congetturale, che lo scienziato è
cercatore non possessore della verità, e questa è la tesi del fallibilismo e il “fallibilismo
non è nient’altro che il non-sapere socratico”. Popper ritiene che l’antica intuizione di
Socrate, secondo cui “la saggezza consiste nella presa di coscienza dei propri limiti,
nella consapevolezza di questi limiti, e specialmente nella consapevolezza della propria
ignoranza”, lungi dall’essere un paradosso sia invece un’idea estremamente importante
e feconda. La teoria di Popper della conoscenza può perciò essere considerata come il
tentativo di rielaborare quella antica intuizione e di argomentare razionalmente a favore
di essa per mostrare che “il fallibilismo di Socrate continua ad essere dalla parte della
ragione” e ciò è importante perché il fallibilismo annulla la fede dogmatica nell’autorità
della scienza come di qualsiasi altra forma di sapere. Ebbene, Popper, in base ad
argomenti molto semplici di pura logica formale, che le ipotesi scientifiche non possono
mai essere riconosciute come "vere" in forza delle conferme sperimentali, poiché queste
ultime riguardano sempre e soltanto le loro ''conseguenze logiche" ed è ben noto che la
verità delle conseguenze non assicura in modo certo la verità delle premesse, mentre la
falsità di una conseguenza è sufficiente per asserire la falsità di almeno una delle
premesse da cui è stata dedotta. Ebbene, la scienza, secondo Popper, si caratterizza
rispetto ad altre imprese conoscitive proprio per il fatto di sottoporsi a questa procedura
di “falsificazione" che consiste, di fronte a un problema conoscitivo, nel formulare una
congettura capace di risolverlo ma, nello stesso tempo, di porsi alla ricerca di possibili
situazioni sperimentali che potrebbero "falsificare" la congettura stessa. Se questa resiste
a tali ripetuti sforzi, la si può ritenere "corroborata", ma mai definitivamente stabilita
con certezza. La scienza può soltanto accrescere il livello di "verosimiglianza" delle sue
conquiste conoscitive, ma non può mai fregiarsi del titolo di conoscenza vera e certa.
Presto o tardi (come del resto mostra la storia della scienza) ogni teoria scientifica viene
7=9!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
"refutata” e abbandonata e non v'e alcuna ragione per ritenere che questo modo di
avanzare debba arrestarsi a un certo punto: la ricerca non ha mai fine. La scienza è per
Popper solo un’ universo di ipotesi non ancora falsificate.
Queste tesi furono sviluppate da Popper nell’opera Logica della ricerca del 1934,
nella quale, appunto, sostituisce l'ideale della scoperta con quello della ricerca. Pertanto,
Popper ha sempre nutrito un profondo scetticismo nei confronti di tutte le proposte
mirate verso una logica della scoperta scientifica che pretenda di ricondurre
interamente i procedimenti di scoperta ai procedimenti di giustificazione, attribuendo al
ricercatore l'uso dei cosiddetti metodi induttivi. Questi metodi, secondo le tesi
neopositivistiche, sarebbero la chiave di quella razionalizzazione integrale del processo
di ricerca, ed è come, secondo Popper, fosse possibile mettere a punto una logica, quella
appunto che giustificherebbe l’induzione, che sia rigorosa e insieme in grado di
accrescere il contenuto delle asserzioni. Infatti le inferenze induttive sarebbero tali che, a
partire da un numero inevitabilmente finito di asserzioni singolari, porterebbero ad
altre asserzioni di carattere invece universale, e di contenuto infinito, quali le leggi
scientifiche.
Questa è dunque l’illusione razionalistica dei neopositivisti che è all'origine di
tutti i loro tentativi di logicizzare i procedimenti di scoperta. Per Popper invece l'unica
logica rigorosa, tautologica, che cioè non accresce il contenuto, è quella deduttiva. Essa
si limita a esplicitare le conseguenze interamente contenute in premesse date, per cui
qualsiasi tentativo di affermare qualcosa oltre tali premesse appare comunque
irriducibile a uno schema puramente logico, cioè deduttivo. E per Popper non vi
possono essere premesse fattuali, per quanto ampie e numerose, tali da giustificare
logicamente, cioè contenere analiticamente, teorie scientifiche universali. Pertanto ogni
tentativo di giustificare analiticamente l'induzione gli pare destinato al fallimento.
La rivoluzione scientifica einsteiniana ha rappresentato lo sfondo, se non
addirittura l’influenza dominante, su cui si è costituita la riflessione epistemologica di
Popper, come egli stesso scrive in La ricerca non ha fine (1974): “Se la teoria di Newton
che era stata controllata nel modo più rigoroso ed era stata confermata meglio di
quanto uno scienziato si sarebbe mai potuto sognare, era poi stata smascherata come
ipotesi malsicura e superabile, allora era cosa disperata l'aspettarsi che una qualsiasi
altra teoria fisica potesse raggiungere qualcosa di più che non lo stato di un'ipotesi”.
Infatti, è in relazione al padre della relatività che Popper formula i suoi problemi
teorici fondamentali, quello della demarcazione tra scienza e pseudoscienza e quello
della certezza del sapere scientifico, ed elabora il nucleo centrale del suo pensiero
epistemologico con le idee di fallibilismo e falsificabilità, ed imposta il suo programma
di ricerca come il tentativo di chiarire “che cosa significasse la rivoluzione einsteiniana
per la teoria della conoscenza”.
Vediamo innanzitutto in che cosa consiste l’influenza dominante di Einstein sulla
riflessione epistemologica popperiana. Ciò che colpisce particolarmente Popper è che
Einstein aveva formulato delle previsioni rischiose, come quelle sullo spaziotempo, tali
cioè che se non si fossero osservati gli accadimenti previsti la teoria si sarebbe dovuta
considerare confutata. Allora Popper si pone il problema di quali requisiti una teoria
scientifica debba avere per essere considerata tale. La soluzione che egli dà a questo
problema è segnata dalla dominante influenza di Einstein: “Se uno propone una teoria
scientifica, deve essere in grado di rispondere, come fece Einstein, alla domanda: sotto
quali condizioni dovrei ammettere che la mia teoria è insostenibile?”. In altre parole,
quali fatti concepibili accetterei come confutazioni, o falsificazioni, della mia teoria?
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
7=:!
Si tratta in sostanza del criterio di falsificabilità, secondo cui un sistema teorico è
scientifico solo se può risultare in conflitto con certi dati dell’esperienza, ossia una teoria
che non può essere confutata da alcun evento concepibile, non è scientifica.
L’inconfutabilità di una teoria diventa, perciò, non un pregio, bensì un difetto.
Un altro importante problema che Popper risolve grazie all’influenza dominante
di Einstein è quello della certezza o incertezza della conoscenza scientifica. Per tutto il
XIX secolo e fino al primo Novecento era convinzione pressoché universale che le teorie
scientifiche fossero sistemi di proposizioni vere, che la scienza fosse epistème. Afferma
Popper: “Io ero cresciuto in un’atmosfera in cui la meccanica di Newton e
l’elettrodinamica di Maxwell erano accettate fianco a fianco come verità indubitabili”.
Rispetto a questa situazione la conferma sperimentale di Eddington nel 1919
della teoria di Einstein sulla deflessione della luce in prossimità del Sole, costituisce una
conquista di enorme rilievo. Innanzitutto, una conquista sul piano strettamente
scientifico in quanto la teoria della relatività non è più soltanto una possibile alternativa
alla teoria di Newton, ma una alternativa reale confermata dall’esperienza, una nuova
teoria della gravitazione e una nuova cosmologia. In secondo luogo, una conquista sul
piano epistemologico. Infatti, con la teoria della relatività diventa chiaro che quello
newtoniano non è il solo possibile sistema di meccanica in grado di spiegare i fenomeni,
e ciò mette in discussione la credenza nella incontestabile verità della teoria di Newton,
aprendo così la questione del suo status epistemologico e chiudendo l’epoca
dell’autoritarismo della scienza.
È proprio in relazione a questa nuova situazione della fisica che Popper si pone il
problema generale dello status epistemologico delle teorie scientifiche. La soluzione che
dà a tale questione, come conseguenza naturale della rivoluzione einsteiniana, consiste
nella tesi secondi cui le teorie scientifiche restano sempre ipotesi o congetture, e la
conseguenza da trarre sul piano epistemologico dalla rivoluzione einsteiniana è dunque
che: “le nostre teorie sono fallibili e fallibili rimangono anche quando abbiamo ricevuto
conferme lampanti”. Formulata così l’idea fondamentale del fallibilismo, il programma
di ricerca di Popper si sviluppa come critica dell’ideale giustificazionista della scienza
come epistème, ossia come sapere, e critica sia l’induttivismo, come metodo per trovare
teorie vere o per accertare se una data ipotesi è vera, sia il punto di vista kantiano che
afferma la verità a priori delle proposizioni scientifiche. Scrive Popper: “Possiamo
sempre e soltanto osservare accadimenti ben determinati e sempre e soltanto un
numero limitato di tali accadimenti. Tuttavia le scienze empiriche, formulano
proposizioni generali, ovvero proposizioni che devono valere per un numero illimitato
di accadimenti. Con quale diritto possono essere enunciate proposizioni di questo
genere? Che cosa si intende propriamente con tali proposizioni? Queste questioni
determinano i confini del problema dell’induzione. Con il “problema dell’induzione”, si
designa la questione circa il valore o la fondazione delle proposizioni generali delle
scienze empiriche.” In questo passo tratto da I due problemi fondamentali delle teoria della
conoscenza (1979), Popper mette in luce i limiti di una scienza empirica, rifiutando la
possibilità di utilizzare come metodo di fondazione del sapere scientifico quello
dell’induzione di natura baconiana.
Da questa tesi è possibile trarre spunto per parlare di un altro aspetto del
filosofare popperiano qualificante e illuminante. In seguito alle critiche aspre che Hume
operò contro il metodo induttivo, Kant, accolte tali critiche che facilmente trasportavano
la speculazione nell’abisso dello scetticismo, trovò come soluzione al problema l’idea
delle forme pure a priori. Questa soluzione scomunicava la tesi degli empiristi, della
74<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
mente come una tabula rasa, proponendo l’idea di mente come griglia che attraverso
forme innate, eterogenee e assolute imponeva per così dire alla natura i suoi schemi. Ma
l’idea che spazio e tempo fossero forme pure a priori era stata scomunicata dalla
relatività einsteniana. A questo punto Popper riprendendo il percorso iniziato da Kant,
ovvero la tesi originaria, della mente che impone alla natura i suoi schemi, vi apportò
alcuni significativi cambiamenti. Innanzitutto le forme mentali attraverso le quali
osserviamo il mondo che per Kant erano assolute, per Popper sono semplici ipotesi che
la natura ha il potere di contraddire. Per il filosofo austriaco, poi, la mente non è una
tabula rasa e il metodo induttivo è errato per il semplice motivo che nel momento stesso
in cui osserviamo la natura la osserviamo secondo schemi mentali a priori che ci fanno
vedere qualcosa, anziché altro. Queste forme pure a priori per il falsificazionista sono
però soltanto semplici ipotesi. Lo scienziato secondo Popper, non è vero che osserva la
natura senza presupposti o ipotesi precostituite, la sua osservazione è carica di “teoria”.
Nasce da questa convinzione del filosofo l’idea di mente come faro che illumina
la realtà, l’idea di mente come un deposito di ipotesi consce ed inconsce. L’influenza di
Einstein si percepisce anche nella formulazione della teoria della mente come faro, lo
stesso scienziato più volte ammetterà che buona parte delle sue teorie erano legate a
semplici speculazioni teoriche su ipotesi e convinzioni molto spesso extra-scientifiche.
In definitiva è possibile dire che la rivoluzione epistemologica di Popper
rappresenti il riflesso, in filosofia, della rivoluzione scientifica effettuata da Einstein in
fisica. In altre parole, Popper sta ad Einstein, come Kant sta Newton.
Vale per altro la pena di osservare che la concezione del fallibilismo era stata
anticipata in modo molto significativo da un filosofo americano di notevole statura,
Charles Sander Peirce (1839-1914), il fondatore della corrente filosofica nota come
pragmatismo e autore di notevoli contributi nel campo della logica, della semiotica,
della filosofia della scienza. A lui, in particolare, si deve l'introduzione del termine
"fallibilismo" specificamente adottato a proposito della scienza ed esteso più in generale
a ogni impresa conoscitiva unicamente fondata sulla ragione. In un testo pubblicato
nella raccolta dei suoi scritti sotto il titolo L'atteggiamento scientifico e il fallibilismo
compare esplicitamente la dizione "dottrina del fallibilismo” che viene ampiamente
illustrata; una sua rapida caratterizzazione è la seguente: “Ci sono tre cose che non
possiamo mai sperare di raggiungere mediante la ragione, cioè, assoluta certezza,
assoluta esattezza, assoluta universalità [. . . ] e non esiste certamente altro mezzo
mediante cui si possano raggiungere".
Questa caratterizzazione viene applicata da Peirce non alla presentazione delle
scienze operata nei manuali e nelle sistemazioni istituzionalizzate, bensì all’attività della
ricerca scientifica in atto e movimento. Le ragioni addotte da Peirce a sostegno del
fallibilismo riposano sostanzialmente sul fatto che la conoscenza scientifica disponibile
in ogni momento può basarsi soltanto su un campione molto limitato di dati e teorie,
dal quale estraiamo generalizzazioni che non possono mai raggiungere la certezza della
loro indefinita validità rispetto all’immenso campo che in ogni disciplina rimane da
esplorare. Senza negare la validità di queste ragioni, possiamo menzionare altre ragioni
che venivano ad aggiungersi: in primo luogo la crisi del determinismo insita nella presa
di coscienza dei fenomeni complessi, che vanificava ogni pretesa di assoluta esattezza,
di previsioni certe di universalizzazioni garantite. Tutto ciò non determinava affatto
una paralisi della ragione, ma la costringeva a sviluppare nuovi atteggiamenti, nuovi
punti di vista, in cui il nuovo da scoprire non veniva più pensato come l’esplorazione di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
74;!
un medesimo territorio ancora sconosciuto nei dettagli ma idealmente affine a quello
già esplorato, bensì come la necessità di entrare in contatto con territori di tipo nuovo,
di correlare ambiti diversi, di cercare unità fatte di correlazioni piuttosto che di
riduzioni. È per l'appunto quanto la scienza del Novecento si accingeva a fare attraverso
la costruzione di discipline nuove. Vogliamo ora sottolineare un notevole aspetto della
scienza moderna, e della fisica in particolare, e cioè la sua “autonomizzazione” che
viene assumendo nel corso del Novecento e che, paradossalmente, condurrà nella
seconda metà del Novecento addirittura a porre in dubbio la sua capacità di assolvere a
quello che da sempre è apparso come il compito essenziale del sapere, ossia quello di
farci conoscere la realtà.
Dall'antichità fino al Rinascimento la scienza è in sostanza un conoscere che ha
per oggetto la Natura e, pertanto, accetta tacitamente come presupposto che questa
Natura esista e sia in sè stessa ben definita e invariabile: si tratta di scoprire "ciò che essa
è", ossia di coglierne l'essenza. In questa impresa l'uomo procede armato delle sue
capacità naturali di osservazione e di ragionamento e, al massimo può cimentare le
proprie affermazioni discutendole a confronto con quelle di altri uomini, senza ancora
pensare che si possa per davvero "porre domande alla Natura" e forzarla artificialmente
a rispondere. Su questo preciso punto, la "rivoluzione galileiana" rompe solo
parzialmente. È ben vero, infatti, che Galileo dichiara esplicitamente che, nel caso delle
"sustanze naturali", è impresa disperata cercar "speculando" di "tentar le essenze", e che
è più fruttuoso accontentarsi di conoscere soltanto "alcune loro affezioni". Tuttavia e
non meno vero che queste affezioni sono da lui considerate reali ("accidenti reali") e che
il compito dell'impresa scientifica permane quello di scoprire la "vera costituzione
dell'universo", costituzione che, secondo lui, si coglie concentrando appunto la ricerca
sugli accidenti matematizzabili. La diffidenza verso le qualità sensibili, già presente in
Galileo, viene poi accentuata dai successori e diviene un cavallo di battaglia di Cartesio,
cosicché prende corpo la convinzione che la vera sostanza della Natura è costituita da
un insieme di leggi matematiche, che si deve esser capaci di scoprire "dietro" i fenomeni
sensibili. Ma per giungere a ciò non basta (anzi, secondo alcuni, addirittura non serve)
l'osservazione: occorre passare all'esperimento, cioè a quella domanda artificiale posta
direttamente alla Natura, che la obbliga a svelarci quanto la semplice osservazione
sensibile, occultando la purezza della struttura matematica sottostante, non ci
permetterebbe mai di cogliere. Con ciò, non più i sensi, ma l’intelletto diviene il vero
strumento di conoscenza della Natura. Iniziava in tal modo un cammino i cui esiti sono
diventati sempre più palesi man mano che si procedeva verso la fisica moderna. Questa
(preparata in ciò dagli sviluppi della scienza ottocentesca) presenta un volto diverso:
essa non ha più per oggetto diretto la Natura, bensì quello spesso strato di mediazioni
che la fisica stessa è venuta costituendo, mediante la costruzione di modelli, mediante
complesse elaborazioni teoriche mediante il concorso di tecnologie sempre più raffinate
e artificiali. Se la fisica antica poteva considerarsi ispirata all'ideale dell'osservazione, e
quella classica all'ideale della scoperta, la fisica moderna viene significativamente
presentata come ricerca, vale a dire come un'attività che si innesta su quanto già la fisica
ha costruito, ma non già a titolo di patrimonio sicuramente acquisito, bensì come
insieme di costrutti rivedibili, criticabili, abbandonabili. La fisica si alimenta della fisica
stessa, si autocorregge, trova nell'interscambio tra una disciplina e l'altra gli strumenti, i
suggerimenti, i modelli per proseguire, o per cambiare radicalmente di impostazione. I
nuovi problemi nascono dalle stesse soluzioni date a problemi precedenti, le loro
74=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
soluzioni possono venire da fonti impensate, offerte da discipline che si ritenevano
lontane. Lo scienziato che si inizia alla ricerca non viene "posto a contatto con la
Natura", ma calato nel contesto di una disciplina, che diverrà ormai il suo campo di
ricerca. In altri termini, la fisica non avverte più il bisogno di uscire da sé stessa per
continuare a vivere e svilupparsi, e persino i problemi della sua "fondazione" vengono
sempre più affrontati e trattati al suo interno: essa stessa provvede a mutare i suoi
concetti, a delimitare la loro portata, a crearne di nuovi, incurante degli scandali del
senso comune e anche delle perplessità dei filosofi.
Quanto abbiamo detto equivale a riconoscere che la fisica, e la scienza in
generale, è ormai pervenuta a costituirsi come sistema autonomo, in quanto costruisce
per conto proprio il campo dei suoi oggetti.
17.2 Crisi del neopositivismo
Gli inizi del neopositivismo o positivismo logico si fanno risalire al 1910-1921,
quando un gruppo di intellettuali si riuniva in un caffè di Vienna per discutere della
filosofia della scienza di Mach. Ne facevano parte, fra gli altri, il matematico Hans Hahn
e i fisici Richard von Mises e Philipp Frank. I membri del Circolo avevano una grande
ammirazione per pensatori come Bertrand Russell e scienziati come Albert Einstein, e
furono in rapporti più o meno stretti con Kurt Gödel e altri personaggi di spicco del
mondo scientifico e filosofico della prima metà del secolo.
La più caratteristica affermazione del positivismo logico è che una proposizione
ha significato solo nella misura in cui essa è verificabile (Principio di verificazione). Ne
segue che sono dotate di significato solo due classi di proposizioni:
1. le proposizioni empiriche, come tutti i gravi cadono verso il centro della Terra,
che sono verificate per via di esperimenti; questa categoria include anche le
teorie scientifiche;
2. le verità analitiche, come la somma degli angoli interni di un quadrilatero
convesso è 360 gradi, che sono vere per definizione; questa categoria include le
proposizioni matematiche.
Tutte le altre proposizioni, incluse quelle di natura etica ed estetica, sull'esistenza
di Dio, e via dicendo, non sono quindi "dotate di significato", e appartengono alla
"metafisica". Le questioni metafisiche sono in effetti falsi problemi e non meritano
l'attenzione dei filosofi. Successivamente, il principio di verificazione andrà
indebolendosi approdando al principio della controllabilità che ha in sé, come casi
particolari, i principi di verificazione e di falsificazione (vedi Popper), che da soli
andavano incontro a svariati problemi anche logici.
All'interno della corrente neopositivista, Rudolph Carnap (1891-1970) occupa un
ruolo importante in relazione alla filosofia della scienza. Egli volle dimostrare che il
mondo fosse basato su una struttura di conoscenze fondate sull'esperienza empirica,
senza correre tuttavia il rischio di condurre al soggettivismo. Nella sua prima opera
principale Der logische Aufbau der Welt ("La costituzione logica del mondo" 1928) Carnap
teorizzò una ricostruzione empirista della conoscenza scientifica, indicando le basi del
suo modello concettuale e oggettuale della scienza, costituite dalla teoria delle relazioni
e dai dati elementari. Tentò di dimostrare che tutti i concetti che fanno riferimento al
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
744!
mondo fisico esterno (ma anche quelli riferibili ai processi psichici nelle menti degli
altri, e ai fenomeni socio-culturali) si basano su processi autopsichici, cioè su concetti
interni al flusso della coscienza dell'osservatore.
I "mattoni" da cui partire per la conoscenza sono i protocolli, proposizioni che non
hanno bisogno di essere giustificate, in quanto sono diretta conseguenza di
un'esperienza empirica. Carnap distingue le scienze in due gruppi:
1. scienze empiriche: i protocolli sono dei fatti verificati empiricamente ai quali
viene applicato il metodo sintetico a posteriori (vedi la fisica);
2. scienze formali: i protocolli sono rappresentazioni da astrazioni e il metodo è
quello analitico a priori, sono strumentali e autonome rispetto alle scienze
empiriche (vedi la matematica).
Carnap accusò i problemi tradizionali della metafisica di essere privi di senso,
basandosi su una semantica verificazionista. Le proposizioni metafisiche sarebbero da
considerare prive di senso, in quanto facenti uso di termini senza alcun riferimento
empirico.
All'inizio degli anni trenta, Carnap, si distanziò sempre più dall'idea di un
sistema costitutivo su pase autopsichica e sviluppò nel suo trattato Die physikalische
Sprache als Universalsprache der Wissenschaft ("Il linguaggio della fisica come linguaggio
universale della scienza" 1931) una concezione fisicalista del linguaggio, nella quale non
erano più i fenomeni autopsichici, ma oggetti fisici intersoggettivamente verificabili a
formare il riferimento fondamentale. In quest'opera pose una distinzione tra il
linguaggio sistematico (generale e leggi della natura) e il linguaggio dei protocolli
(contenuto dell'esperienza immediata). Carnap si soffermò sul concetto di solipsismo
metodico, in quanto ogni base di qualunque affermazione è il protocollo individuale che
però deve necessariamente sfociare in un linguaggio universale fisico, che inglobi anche
i fenomeni psichici e spirituali. Nella sua seconda opera principale Logische Syntax der
Sprache ("La sintassi logica del linguaggio" 1934) Carnap propose di rimpiazzare la
filosofia tradizionale con la logica scientifica, che deve però possedere alcune qualità
fondamentali quali la molteplicità e la relatività ed essere priva delle controversie
filosofiche.
Lo sfondo filosofico, o meglio ancora epistemologico della scienza, entro il quale
si muovono Kuhn, Lakatos e Feyerabend, i maggiori esponenti dell’epistemologia della
scienza post-positivistica, è quello della tradizione originata dal positivismo logico.
Carnap negli Stati Uniti, Popper in Gran Bretagna, sono stati fino agli Sessanta gli
esponenti più in vista di quella tradizione, e fin dall’origine, sono stati divisi da una
divergenza teorica di fondo relativa ai criteri di legittimazione dello status delle scienze:
per Carnap dovevano essere individuati nei processi di verificazione degli enunciati e
delle teorie scientifiche, mentre per Popper, nei processi di falsificazione.
Al di là di tali divisioni, però, una matrice teorica comune era sempre sussistita:
la valutazione della scienza quale attività conoscitiva per eccellenza. Proseguendo il
filone illuministico settecentesco e quello positivistico ottocentesco il movimento
neopositivistico o neoempiristico del XX secolo rivendicava alla scienza - e soltanto ad
essa - il compito essenziale di dirci come è fatto il mondo, come funziona, quali leggi ci
consentono di prevedere i fatti futuri. Questa era la convinzione di base di tutto il
movimento neopositivistico, la sua filosofia generale insieme empiristica e razionalistica
(la scienza, muovendo dalla esperienza, a questa ritorna con strumentazioni, procedure
745!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
e tecniche razionali). Carnap e Popper, al di là di divergenze spesso notevoli,
condividevano questa concezione filosofica di fondo.
Rispetto a queste linea filosofica i post-positivisti assumono posizioni
radicalmente critiche, se non addirittura fuori da questa concezione filosofica.
Fra i tratti salienti della nuova epistemologia della scienza troviamo: 1) l'antiempirismo e l’anti-fattualismo, ossia la convinzione che i "fatti" siano dati solo
all'interno di determinati quadri teorici o concettuali; 2) l'attenzione per la
configurazione storico del sapere scientifico (“la filosofia della scienza senza la storia
della scienza è vuota”, scrive Lakatos); 3) la messa in luce dei condizionamenti extrascientifici (sociali, pratici, metafisici, ecc.) cui è sottoposta la scienza, vista come attività
"impura", che non vive esclusivamente nei cieli cristallini della pura teoria; 4) la
tendenza relativistico-pragmatistica, ovvero la propensione a valutare le dottrine
scientifiche in termini di "efficacia" piu che di “verità"; 5) il rifiuto del mito della
Ragione e il ridimensionamento del valore conoscitivo ed esistenziale della scienza; 6) la
contestazione dell'epistemologia tradizionale e dei suoi classici interrogativi (Che cos'è
la Scienza?, qual è il suo metodo? quali sono i criteri per valutarne il Progresso?, ecc.).
17.3 Kuhn e la struttura delle rivoluzioni scientifiche
Lo storico e filosofo statunitense Thomas Kuhn (1922-1996) nella sua opera più
importante La struttura delle rivoluzioni scientifiche (1962), utilizzando le sue ricerche di
storico della scienza, ha elaborato una concezione epistemologica originale, secondo cui
le nuove dottrine non sorgono né dalle verificazioni né dalle falsificazioni, ma dalla
sostituzione del modello esplicativo vigente (o paradigma) con uno nuovo.
Kuhn, pertanto, rifiuta le interpretazioni prevalenti che considerano l’emergere
di nuove scoperte e teorie scientifiche come il risultato di un processo cumulativo, per
cui non sarebbero altro che “semplici aggiunte alla raccolta attuale delle conoscenze
scientifiche”. La sua tesi è che: “la scoperta e l'invenzione nelle scienze sono in generale
intrinsecamente rivoluzionarie”. Che cosa significa rivoluzionarie? Significa che
quando si verificano episodi di questo tipo “una comunità scientifica abbandona una
modalità di guardare al mondo e di esercitare la scienza un tempo affermata, in favore
di un qualche altro, usualmente incompatibile, approccio alla sua disciplina”.
Kuhn propone di usare il termine paradigma per designare l'insieme di teorie,
regole, procedure comunemente accettato e praticato da una comunita scientifica, e il
cui abbandono, mutamento e sostituzione rappresentano l'avvenuta rivoluzione. Qui
afferma con chiarezza che lo scienziato, o meglio il gruppo professionale che si
identifica in una disciplina scientifica, per poter assimilare nuove scoperte e invenzioni
“deve in generale risistemare l'attrezzatura intellettuale e manipolativa sulla quale ha
precedentemente contato”; deve cioè mutare paradigma.
Questa tesi di fondo, viene affiancata da un'altra tesi, altrettanto discussa,
secondo la quale la condizione normale della scienza non è affatto quella di fare
scoperte. Spetta alle rivoluzioni scientifiche l’ambito della scoperta e dell’invezione.
Quindi, secondo Kuhn, lo sviluppo storico della scienza si articola in periodi di “scienza
normale” e in periodi di “rotture rivoluzionarie”. I primi sono qualificati dal prevalere
di determinati paradigmi, ossia di complessi organizzati di teorie, di modelli di ricerca e
di pratiche sperimentali “ai quali una particolare comunità scientifica, per un certo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
746!
periodo di tempo, riconosce la capacità di costituire il fondamento della sua prassi
ulteriore”. L'astronomia tolemaica e quella copernicana, la dinamica di Aristotele e
quella di Newton, l'ottica corpuscolare e quella ondulatoria, ecc., sono altrettanti esempi
di paradigmi, che nel loro normale periodo di fioritura sono rappresentati da scienziati
protesi a consolidare, confermare e sviluppare il modello vigente tramite la soluzione
“di una quantità di complessi rompicapo strumentali, concettuali e matematici”.
Kuhn ritiene che la scienza normale entri in crisi per un sommarsi di anomalie,
ossia di eventi nuovi e insospettati, che gli scienziati del periodo ancora normale, portati
ad evitare il cambiamento e le novità sensazionali, cercano più o meno faticosamente di
incasellare nel vecchio modello esplicativo, forzando la natura entro le “caselle
prefabbricate e relativamente rigide” fornite dal paradigma vigente. Tant’è vero che
anziché falsificare quest'ultimo essi cercano piuttosto di riformularlo e di correggerlo.
Ma ciò fa sì che le crepe all'interno del vecchio sistema aumentino, sino a produrre una
vera e propria crisi rivoluzionaria. Crisi che comporta l'abbandono del vecchio
paradigma e l'accettazione di un nuovo sistema, che obbliga il ricercatore a guardare il
mondo in maniera completamente diversa. Il riadattamento non è una semplice
integrazione o aggiunta, ma è un riorientamento complessivo che porta a guardare in
maniera differente i fatti nuovi, che altrimenti non potrebbero rientrare nella categoria
di fatti scientifici: “Quando mutano i paradigmi, il mondo stesso cambia con essi.
Guidati da un nuovo paradigma, gli scienziati adottano nuovi strumenti e guardano in
nuove direzioni. Ma il fatto ancora più importante è che, durante le rivoluzioni, gli
scienziati vedono cose nuove e diverse anche guardando con gli strumenti tradizionali
nella stessa direzione in cui avevano guardato prima.”
L’analisi di rivoluzioni scientifiche come la teoria copernicana e la teoria della
relatività, confermano, secondo Kuhn, la complessità della situazione che ogni volta
viene a crearsi di fronte al pericolo rappresentato dalle nuove teorie per i vecchi
paradigmi. In questi casi, l’abbandono del vecchio paradigma e l’accettazione di uno
nuovo sono preceduti e accompagnati da una situazione di crisi. Il vecchio paradigma,
nel nostro caso la teoria tolemaica e la meccanica newtoniana, risulta incapace di
spiegare le anomalie presentatesi; questo fallimento provoca una proliferazione di
teorie che in maniera diversa tentano di dare una spiegazione soddisfacente; la teoria
vincente pone termine alla crisi e viene accettata come nuovo paradigma. Non è che il
vecchio paradigma si allarghi per poter accettare il nuovo; non avviene affatto un
processo cumulativo o aggiuntivo, nella situazione di crisi. Su questo punto Kuhn è
molto reciso. Le crisi riportano la scienza ad una condizione che somiglia a quella dei
periodi preparadigmatici, nei quali mancava un paradigma riconosciuto, e “si chiudono
con l'emergere di un nuovo candidato per il paradigma e con la conseguente battaglia
per la sua accettazione”. Questa transizione è tutt'altro che un processo cumulativo, che
si attui attraverso un'articolazione o un'estensione del vecchio paradigma. È piuttosto
una ricostruzione del campo su nuove basi. Quando la transizione è compiuta, gli
specialisti considereranno in modo diverso il loro campo, e avranno mutato i loro
metodi, ed i loro scopi. Avranno accettato, cioè, un nuovo paradigma, e a questo punto
la rivoluzione scientifica è compiuta.
Ora, si domanda Kuhn, c’è qualche criterio superiore, rispetto alle teorie rivali,
nelle rispettive situazioni di crisi? Esiste forse un criterio di verità per le scienze? La
risposta di Kuhn è decisamente negativa. Le teorie rivali non possono fare riferimento
ad alchunchè di esterno ad essi. La loro forza sta soltanto nella capacità di argomentare
e di persuadere, per cui l’unico criterio del loro successo è individuabile nel consenso
747!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
che riescono ad ottenere. Tesi che ha suscitato molte critiche, di relativismo, e
addirittura di ricorso alla psicologia delle folle.
Non la verità, quindi, non la ragione, ma la persuasività è la condizione
indispensabile perché una nuova teoria vinca e diventi il nuovo paradigma di una
nuova scienza normale. L'accento sulla persuasività e sulla conquista del consenso
viene collegato esplicitamente da parte di Kuhn alla critica della tradizione positivistico
e neopositivistica, considerata come la tradizione epistemologica dominante. Kuhn
rifiuta esplicitamente “l'idea della scienza come accumulazione” che in quella
epistemologia è connessa alla teoria secondo la quale “la conoscenza è una costruzione
che la mente innalza direttamente sulla rozza base dei dati sensibili”. Il carattere
cumulativo della scienza viene negato da Kuhn sia alla scienza normale, che ha come
compito quello di risolvere rompicapi, sia alla scienza rivoluzionaria, che rispetto alla
scienza normale, non ha anzi nessun rapporto, giacché per Kuhn c'è
incommensurabilità tra i due tipi di scienza.
Di conseguenza, i vari paradigmi che si succedono nella storia della scienza
rimandano, secondo Kuhn, a quadri concettuali completamente diversi, fra i quali vige
una sostanziale incommensurabilità: “Paradigmi successivi ci dicono cose differenti
sugli oggetti che popolano l’universo e sul comportamento di tali oggetti …”. Essi
producono un riorientamento gestaltico complessivo, con nuovo vocabolario, nuovi
concetti, nuovi metodi e regole, per cui “l'accoglimento di un nuovo paradigma spesso
richiede una nuova definizione di tutta la scienza corrispondente”; vecchi problemi
vengono trasferiti a un'altra scienza o dichiarati non scientifici, altri che
precedentemente non erano considerati scientifici lo diventano: “E col mutare dei
problemi spesso muta anche il criterio che distingue una soluzione realmente scientifica
da una mera speculazione metafisica ...”
Se c’è incompatibilità, incommensurabilità, incomunicabilità tra nuovi e vecchi
paradigmi, come è possibile il passaggio dai vecchi ai nuovi? Come si svolge il processo
di persuasione, di ricerca del consenso, che porta a compimento una rivoluzione
scientifica? La soluzione proposta è che a un certo punto della situazione di crisi
rivoluzionaria singoli scienziati o intere comunità scientifiche attuino una conversione
che fa loro accettare il nuovo paradigma. La situazione di crisi rivoluzionaria, come si è
visto, si verifica quando si prende coscienza della esistenza di importanti anomalie;
queste ultime, a differenza di Popper, non possono essere identificate con esperienze
falsificanti. Le teorie rivali che compaiono nella situazione di crisi propongono
paradigmi nuovi entro i quali risolvere quelle anomalie; ma quelle teorie sono
incomunicabili e fanno capo a gruppi di ricercatori in strenua concorrenza, che parlano
linguaggi diversi e usano vocabolari diversi. Come si esce, anzi come si è usciti, nella
storia della scienza, da questa impasse? È a questo punto che Kuhn propone la sua
spiegazione che accosta arditamente i concetti e le esperienze di incommensurabilità e
di conversione: “Prima che possano sperare di comunicare completamente, uno dei due
gruppi deve fare l'esperienza di quella conversione che abbiamo chiamato spostamento
di paradigma. Proprio perché un passaggio tra incommensurabili, il passaggio da un
paradigma ad uno opposto non può essere realizzato con un passo alla volta, né
imposto dalla logica o da un'esperienza neutrale. Come il riorientamento gestaltico, esso
deve compiersi tutto in una volta (sebbene non necessariamente in un istante) oppure
non si compirà affatto”.
Kuhn si rende conto della apparente irrazionalità di questa sua tesi. Il ricorso alla
esperienza storiografica delle rivoluzioni scientifiche lo rafforza però nelle sue
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
748!
conclusioni teoriche: singoli scienziati, e poi intere comunità scientifiche, hanno
accettato nuovi paradigmi, con esperienze di conversione motivate da ragioni tra le più
varie, e comunque convergenti nell'abbandono del vecchio e nell'accettazione del nuovo
paradigma. Conversioni che hanno richiesto spesso anni, e in media, afferma Kuhn, il
periodo di una generazione per le comunità scientifiche istituzionalizzate
disciplinarmente. Le rivoluzioni scientifiche sboccano sempre nella ricostituzione di
comunità scientifiche fondate su un nuovo paradigma.
L'ultimo problema teorico affrontato da Kuhn nella sua opera principale riguarda
il tema del progresso scientifico. Da alcuni accenni fatti alla critica nei confronti delle
teorie cumulative e accrescitive di orientamento neopositivistico risulta abbastanza
chiaro che le posizioni di Kuhn su questo tema non sono assimilabili a quelle della
tradizione vetero e neopositivistica. La nozione tradizionale di progresso scientifico,
secondo Kuhn, fa riferimento ad uno scopo, ad una meta, verso cui le scienze in
particolare, e la conoscenza in generale, tenderebbero: la rappresentazione vera della
realtà. Kuhn, è molto lontano da questa posizione teorica e in un certo senso, la
rovescia: il progresso è a partire da qualcosa, non progresso verso qualcosa. In questo
senso, ogni scienziato, normale o rivoluzionario, ritengono di arrecare contributi
progressivi alla loro specifica sfera di attività. Ma non è questa nozione di progresso che
interessa principalmente a Kuhn. Egli intende discutere e sostituire la nozione
tradizionale che connette il progresso scientifico e conoscitivo al raggiungimento della
verità: “possiamo vederci costretti ad abbandonare la convinzione, esplicita o implicita,
che mutamenti di paradigmi portino gli scienziati, e coloro che ne seguono gli
ammaestramenti, sempre più vicino alla verità”.
Ma è proprio necessario, si domanda Kuhn, fissare per la scienza e la conoscenza
uno scopo del genere? “Non è possibile render conto sia dell'esistenza della scienza che
del suo successo in termini di evoluzione a partire dallo stato delle conoscenze possedute
dalla comunità ad ogni dato periodo di tempo? E’ veramente d’aiuto immaginare che
esista qualche completa, oggettiva, vera spiegazione della natura e che la misura
appropriata della conquista scientifica è la misura in cui essa si avvicina a questo
scopo finale?”
E’ chiaro, da tutto il discorso di Kuhn, dove verrà trovata la risposta a queste
domande. Egli sostiene che molti problemi inquietanti, connessi con la tematica del
progresso, verranno accantonati, si dissolveranno, se sostituiamo “l’evoluzione verso ciò
che vogliamo conoscere con l’evoluzione a partire da ciò che conosciamo”.
Questa posizione teorica ha un precedente illustre nella teoria della selezione
naturale di Darwin. Tale teoria eliminava il provvidenzialismo e il teleologismo nella
considerazione della natura. Organi e organismi delle diverse specie, precedentemente
spiegati con il ricorso ad un supremo artefice divino e ad un piano da lui prestabilito,
vengono ricondotti da Darwin ad un insieme di processi naturali “che si era sviluppato
costantemente a partire da stadi primitivi, ma che non tendeva verso nessuno scopo”.
La stessa cosa, afferma Kuhn, si può dire per le teorie scientifiche e per i
paradigmi che si succedono l'uno all’altro in quella selezione naturale che ha il suo
corrispettivo nelle rivoluzioni scientifiche. C'è progresso non perchè ci si avvicina
sempre di più ad una meta (la verità) ma perchè ci si allontana sempre di più da stadi
primitivi di ricerca. Perché poi tale selezione naturale, nella forma di successive
rivoluzioni scientifiche, abbia luogo, questo è per Khun un problema ancora aperto.
749!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
17.4 Lakatos e la metodologia dei programmi di ricerca
Alla base del pensiero di Imre Lakatos (1922-1974), espresso nei suoi scritti
maggiori La falsificazione e la metodologia dei programmi di ricerca scientifici (1970) e La
storia della scienza e le sue ricostruzioni razionali (1972), sta un serrato confronto con Kuhn
e Popper, soprattutto in relazione ai problemi relativi alla definizione della scienza e
alla sua demarcazione rispetto a ciò che non è scienza, e quelli relativi al tema delle
rivoluzioni scientifiche.
Lakatos rifiuta in maniera netta qualsiasi definizione della scienza fondata sul
consenso della comunità scientifica che la pratica, giacché questa definizione ci
porterebbe ad accettare come scienze anche credenze assurde purché condivise dalla
comunità. La scienza non ha nulla a che vedere con il consenso, come sosteneva Kuhn.
Per Lakatos una teoria può addirittura avere un supremo valore scientifico anche se
nessuno la capisce e tanto meno crede che essa sia vera.
Per quanto concerne Popper, pur riconoscendo come il suo falsificazionismo non
sia rimasto ad uno stadio dogmatico, ma si sia evoluto in senso metodologico, Lakatos
rifiuta lo schema popperiano che definisce la scienza come un insieme di congetture e
confutazioni: “ossia lo schema per prova (mediante ipotesi) ed errore (rivelato
dall’esperimento), deve essere abbandonato: nessun esperimento è cruciale nel momento
in cui viene eseguito, e tanto meno prima (eccetto che, forse, dal punto di vista
psicologico)” affermando che una prospettiva scientifica entra in crisi e viene sostituita
non a causa di presunti esperimenti cruciali, ma grazie al presentarsi di una prospettiva
rivale. Di conseguenza, all'idea popperiana di una storia della scienza che procede per
congetture e confutazioni e che si nutre dello scontro fra singole e isolate teorie rivali,
oppure all'idea kuhniana di una storia della scienza che procede per improvvise svolte e
conversioni, Lakatos contrappone la concezione della storia della scienza come di una
serie di programmi di ricerca in razionale confronto fra loro. In sintesi: “la storia della
scienza confuta sia Popper sia Kuhn: a un esame accurato sia gli esperimenti cruciali
di Popper sia le rivoluzioni di Kuhn risultano essere dei miti: sicché di solito accade è
che un programma di ricerca progressivo ne rimpiazza un altro”.
Per programma di ricerca scientifico, nozione che sta al centro della riflessione
epistemologica di Lakatos, si intende una costellazione di teorie scientifiche coerenti fra
loro e obbedienti ad alcune regole metodologiche fissate da una determinata comunità
scientifica. In particolare, un programma di ricerca, che porta a considerare la scienza
non come una singola ipotesi o teoria ma come un insieme di esse, è costituito da un
nucleo ritenuto inconfutabile e tenacemente difeso da chi condivide il programma
stesso “in virtù di una decisione metodologica dei suoi sostenitori”. Attorno al nucleo
troviamo una cintura protettiva che serve a costituire uno schermo per la difesa del
nucleo. Tale cintura proteggente si specifica a sua volta in una euristica negativa (che
prescrive quali vie di ricerca evitare) e in una euristica positiva (che prescrive quali vie
di ricerca seguire e come cambiare le varianti confutabili del programma). Un
programma di ricerca è valido finché si mantiene progressivo, ovvero “fin quando
continua a predire fatti nuovi con un certo successo”. Viceversa, è regressivo o in
stagnazione se si limita ad inventare teorie “solo al fine di accogliere i fatti noti” o “si
limita a dare spiegazioni post hoc di scoperte casuali o di fatti anticipati, e scoperti,
nell'ambito di un programma rivale”. Una caratteristica comune dei programmi di
ricerca validi è che “predicono tutti fatti nuovi, fatti che o non erano sati neppure
immaginati o che erano addirittura stati contraddetti da programmi precedenti o
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
74:!
rivali”.
Di conseguenza, le rivoluzioni scientifiche non accadono in seguito ad
irrazionali mutamenti di prospettiva da parte degli scienziati ma in seguito a delle
razionali decisioni, da parte della comunità dei ricercatori, di sostituire programmi
ormai regressivi con programmi all'altezza della situazione.
I programmi di ricerca scientifici, pertanto, non sono validi perché condivisi da
una comunità scientifica (Kuhn) o perché non sono stati falsificati (Popper), ma perché
hanno una stretta relazione con i fatti, rappresentata dalla previsione sempre nuova di
questi e quindi dalla possibilità di un confronto fattuale tra previsioni e accadimenti. Sta
in questa caratteristica, previsione di fatti nuovi, la fondamentale differenza tra scienza
e pseudoscienza, o, in altri termini, tra programmi di ricerca progressivi e programmi di
ricerca regressivi: “Così, in un programma di ricerca progressivo la teoria conduce alla
scoperta di fatti nuovi finora sconosciuti. Nei programmi di ricerca regressivi, invece,
le teorie vengono inventate solo al fine di accogliere i fatti noti”.
Come opera, nella metodologia ed epistemologia di Lakatos, il programma di
ricerca? Il modello al quale pensa Lakatos non è solo quello dei programmi di ricerca
progressivi (per esempio teoria della gravitazione di Newton, teoria della relatività di
Einstein, meccanica quantistica) ma anche quello dei programmi di ricerca regressivi
(per esempio il freudismo). Essi operano tutti, infatti, secondo lo stesso schema, anche
se i risultati sono differenti e opposti ( i primi prevedono fatti nuovi, i secondi no). Lo
schema comune a tutti i programmi di ricerca scientifici prevede, come abbiamo già
detto, la presenza di un nucleo. Nel caso del programma di ricerca newtoniano il nucleo
è costituito, secondo l'analisi che ne fa Lakatos, dalle tre leggi della meccanica e dalla
legge di gravitazione: “ma questo nucleo è tenacemente protetto dalla confutazione
mediante una vasta cintura protettiva di ipotesi ausiliari. E, cosa ancor più
importante, il programma di ricerca ha anche un’euristica, ossia un potente apparato
per la soluzione di problemi che, con l'aiuto di sofisticate tecniche matematiche,
digerisce le anomalie e le trasforma in evidenza positiva. Per esempio, se un pianeta
non si muove esattamente come dovrebbe, lo scienziato newtoniano controlla le sue
congetture riguardanti la rifrazione atmosferica, la propagazione della luce nelle
tempeste magnetiche e centinaia di altre congetture che fanno tutte parte del
programma. Per spiegare l'anomalia può anche inventare un pianeta finora
sconosciuto e calcolare la sua posizione, la sua massa e la sua velocità”.
Quel che conta, nel programma e per il programma, oltre che per la sua validità,
è che riesca non solo a risolvere le anomalie ma a prevedere fatti nuovi; quel che conta è
che la teoria di quel programma sia sempre in anticipo sui fatti, e non dietro ad essi, che
tenda a prevedere, non a spiegare. Né il progresso empirico è rappresentato dalle
verificazioni (Carnap), né l'insuccesso empirico è rappresentato dalle cosiddette
confutazioni (Popper): “Quello che realmente conta sono le predizioni sorprendenti,
inattese e spettacolari”. È questo che fa di un programma di ricerca qualcosa di
progressivo e che, in presenza di programmi di ricerca rivali, costituisce la base della
preminenza dell'uno sugli altri: una base razionale, quindi, delle rivoluzioni
scientifiche, che non ha nulla a che fare con le conversioni di cui parla Kuhn.
Solo se così attrezzato un programma di ricerca scientifico diventa per Lakatos
scienza matura. In quest'ultima accezione viene coinvolto l’aspetto più propriamente
teorico della ricerca scientifica, la quale non si esaurisce nella pur essenziale funzione di
prevedere e predire fatti nuovi. La scienza matura risponde alle esigenze di unità ed
eleganza che la differenziano, avendo raggiunto l'autonomia della scienza teorica, dal
rozzo schema per tentativi ed errori.
75<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
La scienza matura ha potere euristico, osserva Lakatos, in quanto: “consiste di
programmi di ricerca in cui vengono anticipati non solo fatti nuovi, ma, in un senso
importante, anche nuove teorie ausiliari”. La conquista dell'autonomia teorica da parte
di un programma di ricerca, cioè l'avvenuto superamento del livello di scienza
immatura (consistente solo di una trama raffazzonata di tentativi ed errori), consente
inoltre, secondo Lakatos, quella che egli definisce la “ricostruzione razionale della
scienza”: la possibilità cioè di una storiografia della scienza che distingua fra storia
esterna empirica, di carattere socio-psicologico, e storia interna teorico-razionale.
Quest'ultima possiede una sua autonomia, che manca invece alla prima.
La storia interna, o ricostruzione razionale, della scienza, è primaria rispetto alla
storia esterna, perché “i più importanti problemi della storia esterna sono definiti dalla
storia interna”. La storia esterna fornisce una ricostruzione non razionale degli eventi
che accompagnano o definiscono gli sviluppi della scienza; solo la storia interna,
fondata sulla logica della scoperta, “rende pienamente conto dell'aspetto razionale della
crescita scientifica”. La metodologia dei programmi di ricerca scientifici, in questo
modo, può illuminare sia la filosofia della scienza sia la storia della scienza. E alla luce
della valutazione razionale dei diversi programmi di ricerca che è possibile una vera
storia della scienza che non sia cieca: una storia della scienza che possa spiegare
razionalmente e non misticamente le rivoluzioni scientifiche. Queste ultime avvengono,
nel quadro teorico e storico offerto da Lakatos, quando un programma di ricerca cessa
di essere progressivo, e viene allora superato o archiviato da un altro: “Un programma
di ricerca si dice progressivo fin quando la sua crescita teorica anticipa la sua crescita
empirica, ossia, fin quando continua a predire fatti nuovi con un certo successo; è in
stagnazione se la sua crescita teorica resta indietro rispetto alla sua crescita empirica,
ossia fin quando si limita a dare spiegazioni post hoc di scoperte casuali o di fatti
anticipati, e scoperti, nell'ambito di un programma rivale. Se un programma di ricerca
spiega in modo progressivo più di quanto è spiegato da un programma rivale, esso lo
supera e il programma rivale può essere eliminato (o, se si preferisce, archiviato)”.
Con la sua metodologia dei programmi di ricerca scientifici, estesa dal campo
della filosofia della scienza a quello della storia della scienza, Lakatos riteneva di aver
risposto costruttivamente alle domande derivanti, secondo le valutazioni da lui
proposte su Popper e Kuhn, dalle insufficienze teoriche di questi ultimi. In particolare,
riteneva di avere non solo confutato, ma anche superato, o archiviato, l'irrazionalismo
attribuito da lui a Kuhn, e di avere fornito una spiegazione teorica e storica razionale sia
della natura della scienza sia della natura delle rivoluzioni scientifiche. Sarebbe spettato
a un altro, irrequieto, ex-popperiano, Feyerabend, riprendere tematiche kuhniane,
estremizzandole e radicalizzandole, in funzione polemica esplicita sia nei confronti
dello stesso Kuhn sia nei confronti di Lakatos, entrambi suoi cari amici personali.
17.5 Fayerabend e l’anarchismo metodologico
Paul Feyerabend (1924 - 1994), è forse il pensatore più noto e discusso del gruppo
dei post positivisti. Le critiche all’empirismo e al razionalismo costituiscono il preludio
che lo porteranno a quell’anarchismo metodologico e all’abbandono della scienza e
della ragione come strumenti supremi d’indagine rispetto alle altre attività umane.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
75;!
Feyerabend muove dalla constatazione che l'empirismo, la convinzione cioè “che
la nostra conoscenza, o almeno gran parte di essa, inizi e dipenda in modo
considerevole dall'esperienza, è una delle credenze più comuni e diffuse della storia
dell'umanità”. È una specie di mito, che dà tranquillità e sicurezza, come tanti altri miti.
In particolare, tale mito o dogma, come lo definisce Feyerabend, sta alla base della
teoria della scienza moderna, prodotta dall'avvento dell'illuminismo rinascimentale e
postrinascimentale. La pratica di questa stessa scienza, però, contraddice quella teoria.
Da una parte, quindi, abbiamo nell'epoca moderna il fatto, pratico, che “la
scienza non ha più una fondazione: persino le osservazioni più sicure sono
occasionalmente messe da parte o contraddette, persino i principi della ragione più
evidenti sono violati e sostituiti da altri”; dall'altra il fatto, teorico, che “tale pratica è
accompagnata da una incrollabile fede nell'empirismo, cioè in una dottrina che usa una
fondazione della conoscenza definita e stabile”. Da una parte, cioè, abbiamo una pratica
liberale che inventa continuamente nuove prospettive, dall'altra una ideologia che per
Feyerabend è chiaro dogmatismo in quanto la fede nell'empirismo viene affermata e
conservata come un dogma, facendo leva non sulla fede ma sulla ragione.
Il positivismo logico nelle sue diverse denominazioni e ramificazioni, è per
Feyerabend, il nuovo nemico da combattere, in quanto non è affatto un movimento
filosofico di tipo progressivo, come sempre ha preteso di essere motivando in senso
antimetafisico le sue fondamenta empiristiche, ma è una corrente di pensiero che
ostacola il progresso e impone “una cristallizzazione dogmatica in nome
dell'esperienza”. Feyerabend fa appello, nella sua battaglia contro l'empirismo
dogmatico e razionalizzato in una precisa metodologia, alla reale pratica della ricerca
scientifica. Questa, come aveva rifiuta di assoggettarsi a metodi e teorie che abbiano una
qualche pretesa di essere rispettati sempre; opera, semmai, proprio “macinando”
metodi e teorie, criticandoli, sostituendoli, senza alcun rispetto per la loro fondazione o
autorità; lo scienziato nel suo lavoro reale è opportunista, usa quel che gli serve e se ne
libera quando non gli serve più. L'alternativa al dogmatismo, pertanto, viene
individuata nel pluralismo teorico, nella pratica metodologica, cioè, di costruire e usare
teorie e metodi alternativi e reciprocamente sostitutivi “invece che un solo punto di
vista o una singola visione ed esperienza”.
Questa pluralità di teorie, precisa Feyerabend: “non deve essere considerata come
uno stadio preliminare della conoscenza da sostituirsi nel futuro con l'Unica Vera
Teoria. Il pluralismo teorico viene qui assunto come fattore essenziale di ogni
conoscenza che si proclami oggettiva”. In quest'ultimo passo si preannuncia una delle
tesi più radicali di Feyerabend, quella secondo la quale la ricerca scientifica non mira a
creare teorie vere ma teorie efficaci. L'empirismo logico contemporaneo è dunque da
contrastare e da battere, se si vuole democratizzare la scienza liberandola dal
dogmatismo. Una filosofia della scienza, come quella dell'empirismo logico, che
incoraggi l'uniformità metodologica e teorica, è quindi fondata su un'illusione e non ha
nulla a che fare con la pratica della scienza: “L’unanimità di opinione può essere adatta
a una chiesa, alle vittime spaventate e avide di qualche mito (antico o modemo) o ai
seguaci deboli e consenzienti di un tiranno; la varietà di opinione è un elemento
necessario alla conoscenza oggettiva e un metodo che incoraggi la varietà è l'unico che
sia compatibile con una visione umanistica”.
Feyerabend è, dunque, contro ogni tipo di irrigidimento metodologico, anzi è
favorevole ad una relativizzazione di tutti i criteri, confermata abbondantemente,
secondo la sua interpretazione, dalla pratica scientifica reale, per cui è necessario
75=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
tornare alla posizione di Mach e Einstein e pervenire alla conclusione che: “è impossibile
una teoria della scienza. C'è soltanto il processo di ricerca e c'è ogni sorta di regole
empiriche che possono aiutarci a portarlo avanti”.
È abbastanza chiaro che questo relativismo assoluto, il pluralismo teorico e
metodologico radicale che sfocerà tra poco nell'anarchismo, non potevano accordarsi
con le posizioni teoriche innovative e critiche, nei confronti del positivismo logico, di
Kuhn e di Lakatos. Questi ultimi distinguevano nettamente tra ciò che è scienza e ciò
che non lo è (distinzione che Feyerabend si avvia a negare in maniera aperta), e
caratterizzavano la scienza in maniera differente ma attribuendole comunque qualità e
condizioni metodologiche abbastanza rigide. L'alternativa proposta da Feyerabend,
rispetto alla tradizione del positivismo logico che costituisce l'obiettivo polemico
comune, è ben diversa e rappresenta una via che porta completamente fuori dalla
filosofia della scienza, in quanto viene a mancare la materia di una tale filosofia: la
scienza stessa. È questo il dissenso di fondo rispetto a Kuhn e Lakatos, un dissenso che
mette in luce la radicalità della opposizione di Feyerabend non al solo positivismo
logico in tutte le sue versioni ma a tutta la filosofia della scienza.
Questa distruzione del concetto di scienza e, ad essa connesso, di quello di
ragione, quali criteri guida per la nostra conoscenza, sarà il risultato ultimo delle
argomentazioni teoriche contro il metodo (legge e ordine), per l’anarchia metodologica.
Argomentazioni che, secondo Feyerabend, favoriscono la liberazione dai dogmi legati
alla filosofia della scienza e promuovono un nuovo illuminismo.
La proposta di una epistemologia anarchica, fondata sulla convinzione secondo
cui non esiste alcun metodo scientifico o criterio di eccellenza, che stia alla base di ogni
progetto di ricerca e che lo renda scientifico e perciò fidato, è il nucleo teorico della sua
opera principale Contro il metodo (1970), ripreso e illustrato in La scienza in una società
libera (1978): “Nel libro Contro il metodo ho tentato di dimostrare che i procedimenti
della scienza non si conformano ad alcuno schema comune, che non sono "razionali" in
riferimento a nessuno schema del genere. Gli uomini intelligenti non si lasciano limitare
da norme, regole, metodi, neppure da metodi "razionali", ma sono opportunisti, ossia
utilizzano quei mezzi mentali e materiali che, all'interno di una determinata
situazione, si rivelano i più idonei al raggiungimento del proprio fine”.
L’epistemologia anarchica non è che la presa di coscienza del fatto storico che:
“non esiste neppure una regola, per quanto plausibile e logica possa sembrare, che non
sia stata spesso violata durante lo sviluppo delle singole scienze. Tali violazioni non
furono eventi accidentali o conseguenze evitabili dell'ignoranza e della disattenzione.
Esse erano necessarie perché, nelle condizioni date, si potesse conseguire il progresso [...]
o qualsiasi altro risultato desiderabile [...] eventi come l’invenzione della teoria atomica
nell'antichità (Leucippo), la rivoluzione copernicana, lo sviluppo dell'atomismo moderno
(Dalton: la teoria cinetica dei gas; la teoria quantistica), la graduale affermazione della
teoria ondulatoria della luce si verificarono solo perché alcuni ricercatori o si decisero
a non seguire certe regole "ovvie" o perché le violarono inconsciamente [...]”.
Difendere l'epistemologia anarchica e un conseguente pluralismo teorico e
metodologico non significa, dunque, distruggere regole o criteri nell'ambito della
pratica scientifica, ma farsi paladini della libera inventività della scienza al di là di
qualsiasi metodologia prefissata: “Io non raccomando alcuna "metodologia", ma al
contrario affermo che l'invenzione, la verifica, l'applicazione di regole e criteri
metodologici sono di competenza della ricerca scientifica concreta [...]”.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
754!
In conclusione, la lotta contro il Metodo vuole essere, di fatto, una lotta per la
libertà del metodo. Questa tesi implica la distruzione di ogni metodologia precostituita
e mette capo al principio polemico “anything goes” (tutto può andar bene).
Se qualsiasi cosa può andar bene, lo scienziato è autorizzato, e del resto la storia
ce ne dà numerose conferme, ad utilizzare nella sua pratica di ricerca tutto ciò che può
considerare utile: idee scientifiche del passato abbandonate da tempo, suggerimenti di
tipo metafisico, elementi addirittura tratti dal mito. Adotterà perciò: “una metodologia
pluralistica, confronterà teorie con altre teorie anzichè con l’esperienza, con dati o
fatti, e cercherà di perfezionare anzichè rifiutare le opinioni che appaiono uscire
sconfitte dalla competizione”.
Altro tema caratteristico di Feyerabend è la tesi (spinta sino al limite) secondo cui
i fatti non esistono nudi, ovvero al di fuori delle teorie, ma soltanto nell'ambito di
determinati quadri mentali, in quanto lo scienziato vede solo ciò che questi ultimi lo
inducono a vedere. Da ciò la pratica impossibilità di distinguere (neopositivisticamente)
fra termini di osservazione e termini teorici. Questa dottrina distanzia Feyerabend non
solo dai neopositivisti, ma anche da Popper, il quale, pur ammettendo che i fatti sono
“carichi di teoria", crede pur sempre, in omaggio ai principi del suo razionalismo
critico, che le teorie siano semplici congetture obbligate a "cozzare" contro i fatti. Del
resto, secondo Feyerabend, se i fatti esistono solo all'interno delle teorie e non possono
essere assunti a “banco di prova" dei nostri quadri mentali, non ha più senso parlare di
una falsificazione delle teorie per mezzo degli asserti-base, ma ogni teoria, in rapporto
al fatti, finisce in qualche modo per andare bene.
Un effetto della teoria dei "quadri" è che neppure le nozioni più semplici o
apparentemente "neutrali" della scienza possono venir considerate in modo universale e
oggettivo, in quanto i loro significati risultano intrinsecamente connessi ai differenti
contesti teorici entro i quali sono stati formulati (Feyerabend fa l'esempio del termine
massa, che assume accezioni diverse a seconda che si tratti della fisica di Newton o di
Einstein). Da ciò il recupero, in un contesto ancor più radicalizzato, della tesi di Kuhn,
respinta da Popper, circa l'incommensurabilità delle teorie (come si possono valutare
comparativamente delle teorie che sono sorte in momenti diversi; che non usano gli
stessi termini o li adoperano con significati diversi; che non parlano degli stessi fatti o
ne parlano in modo differente; che non hanno il medesimo fine o scopo, ecc.?) e il
parallelo rifiuto della visione della scienza come accumulazione progressiva di
conoscenze (positivisti e neopositivisti) o come "approssimazione" graduale alla verità
(Popper) e l'adesione ad una prospettiva che affida a criteri di tipo pragmatico
(l’efficacia, il successo, la capacità di persuasione, ecc.) la preferenza fra le teorie in
competizione.
La proliferazione di opinioni e teorie, non la rigorosa applicazione di qualche
ideologia o principio guida preferiti, costituisce pertanto la base della metodologia
pluralistica o dell'anarchismo metodologico. Lunghe analisi storiografiche, in
particolare sulle ricerche astronomiche da Copernico a Galileo, confermano secondo
Feyerabend queste sue tesi.
Le violazioni di norme, le deviazioni irrazionali e gli errori che accompagnano la
pratica scientifica, nella metodologia pluralistica e anarchica della proliferazione teorica
illustrata da Feyerabend, lungi dall'ostacolare il progresso conoscitivo lo promuovono e
ne costituiscono anzi il presupposto necessario: “Senza "caos" non c’è conoscenza. Senza
una frequente rinuncia alla ragione non c'è progresso. Idee che oggi formano la base
stessa della scienza esistono solo perchè ci furono cose come il pregiudizio, l'opinione, la
755!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
passione; perché queste cose si opposero alla ragione; e perché fu loro permesso di
operare a modo loro. Dobbiamo quindi concludere che, anche all'interno della scienza,
la ragione non può e non dovrebbe dominare tutto e che spesso dev'essere sconfitta, o
eliminata, a favore di altre istanze”.
L’esito più caratteristico dell’epistemologia di Feyerabend è la distruzione del
mito della Scienza: la scienza e la ragione non sono “sacrosante”. Infatti, denunciando
lo strapotere della scienza nel mondo d'oggi e battendosi per un ridimensionamento del
suo peso teorico e sociale, Feyerabend dichiara che essa: “è solo uno dei molti strumenti
inventati dall'uomo per far fronte al suo ambiente” e che, al di là della scienza,
“esistono miti, esistono i dogmi della teologia, esiste la metafisica, e ci sono molti altri
modi di costruire una concezione del mondo. È chiaro che uno scambio fecondo fra la
scienza e tali concezioni del mondo non scientifiche avrà bisogno dell'anarchismo
ancora più di quanto ne ha bisogno la scienza. L'anarchismo è quindi non soltanto
possibile, ma necessario tanto per il progresso interno della scienza quanto per lo
sviluppo della nostra cultura nel suo complesso”.
Lo strapotere della scienza nel mondo di oggi, per Feyerabend, non deriva affatto
da una sua pretesa autorità teorica, inesistente per le ragioni abbondantemente
illustrate, ma da una corposa autorità sociale che le viene dal fatto di essere sostenuta in
tutti i modi dai poteri statali e istituzionali. L'educazione pubblica inculca in tutti gli
stati moderni il culto della scienza presentata come la forma più alta della attività
razionale e come lo strumento più efficace per il perfezionamento e il progresso della
società. Il “nuovo illuminismo” deve combattere questo stato di cose. Si deve
ridimensionare il peso della scienza nella nostra società, poiché essa: “non ha
un'autorità maggiore di quanta ne abbia una qualsiasi altra forma di vita. I suoi
obiettivi non sono certamente più importanti delle finalità che guidano la vita in una
comunità religiosa o in una tribù unita da un mito”.
Si è combattuto per secoli, nel passato, per ottenere la separazione fra stato e
chiesa al fine di realizzare una maggiore libertà e tolleranza nella società; oggi si deve
combattere perchè quella separazione, ormai ottenuta, venga “integrata dalla
separazione fra stato e scienza”. Che cosa bisogna fare, secondo Feyerabend, per
favorire il distacco della scienza dallo stato e il suo conseguente ridimensionamento?
Bisogna favorire tutte le forme di attività solitamente rifiutate ed emarginate in quanto
non scientifiche, bisogna diffondere la consapevolezza del fatto che “la separazione di
scienza e non scienza è non soltanto artificiale ma anche dannosa per il progresso della
conoscenza”.
Con queste conclusioni, Feyerabend esce fuori dalla filosofia della scienza come
viene tradizionalmente intesa. Egli la liquida in maniera radicale, sciogliendo la scienza
nell'insieme vario e mutevole delle attività umane antiche e recenti, dirette a conoscere e
trasformare la realtà in cui viviamo.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
756!
!"#$%&'&()*!
La più bella e profonda emozione che possiamo
provare è il senso del mistero; sta qui il seme
di ogni arte, di ogni vera scienza
Einstein
"(#2!0!*(#'-"#2/)/,%#
18.1 Il Large Hadron Collider
Il 29 settembre 2004 il CERN, il più grande laboratorio internazionale di fisica
esistente sulla Terra, ha festeggiato i suoi primi cinquant’anni di operosa esistenza. Per
mezzo secolo i suoi apparati, primo fra tutti lo spettacolare acceleratore di particelle
Large Electron-Positron Collider (LEP), hanno permesso ai ricercatori di studiare,
attraverso la fisica delle particelle, la materia che costituisce il nostro mondo. Dal 2009 è
entrato in funzione il Large Hadron Collider (LHC), ancora più grande e potente del suo
predecessore. Il Large Hadron Collider (grande collisore di adroni) è un acceleratore di
particelle presso il CERN di Ginevra capace di accelerare protoni e ioni pesanti fino al
99,9999991% della velocità della luce e farli successivamente scontrare, e raggiungerà i
14 teravolt (1 TeV = mille miliardi di eV) nel 2015. Simili livelli di energia non erano
mai stati raggiunti fino ad ora in un laboratorio. È costruito all'interno di un tunnel
sotterraneo lungo 27 km situato al confine tra la Francia e la Svizzera. I componenti più
importanti dell'LHC sono gli oltre 1600 magneti superconduttori raffreddati alla
temperatura di 1,9 K (-271,25 °C) da elio
liquido superfluido che realizzano un
campo magnetico di circa 8 Tesla,
necessario a mantenere in orbita i protoni
all'energia prevista. L'entrata in funzione
del complesso è avvenuta il 10 settembre
2009 alle ore 9:45 locali, inizialmente ad
un'energia inferiore a 1 TeV.
I fasci di protoni e ioni pesanti di
piombo partiranno dagli acceleratori in p
e Pb. Continueranno il loro cammino nel
proto-sincrotrone (PS), nel super-proto-
757!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
sincrotrone (SPS) per arrivare nell'anello più esterno di 27 km. Durante il percorso si
trovano i quattro punti sperimentali ATLAS,CMS,LHCb,ALICE, nei quali avverranno i
principali esperimenti di fisica delle particelle. Nelle collisioni saranno prodotte, grazie
alla trasformazione di una parte dell'altissima energia in massa, numerosissime
particelle le cui proprietà saranno misurate dai rivelatori.
Che cosa ci si aspetta da questo acceleratore di particelle? Un importantissimo
risultato è stato già raggiunto, ossia la scoperta nel 2012 del bosone di Higgs, l’ultimo,
forse, decisivo tassello che consente di dire che il modello standard delle particelle
funziona. Infatti, anche se tutti i dati sperimentali oggi disponibili sono in ottimo
accordo con le previsioni del Modello Standard, mancava una particella fondamentale:
quella che "inventa" la materia, nel senso che fornisce e differenzia la massa delle
particelle, cioè il bosone di Higgs.
Ma il nuovo collisore permetterà soprattutto un balzo in avanti senza eguali nella
storia della fisica delle particelle, e non solo, e in questo nuovo mondo ci aspettiamo di
trovare nuove particelle mediatrici di forze che potrebbero condurre i fisici verso una
comprensione unificata di tutte le interazioni, produrre particelle che possano essere
candidati per la materia oscura e mettere alla prova quello che sappiamo della storia
dell’universo, capire che cosa distingue due delle forze fondamentali,
l’elettromagnetismo e l’interazione debole, il che ci consentirà di dare delle risposte a
problemi profondi: perché ci sono gli atomi e la chimica? Che cosa rende possibili
strutture stabili? O risposte ad altre domande come: perché la gravità è tanto più debole
delle altre forze fondamentali? Come si può spiegare l'asimmetria tra materia e
antimateria, cioè la quasi assenza di antimateria nell'universo? Esistono le particelle
supersimmetriche? Ancora più in profondità c’è la prospettiva di apprendere qualcosa
sulle diverse forme della materia, sull’unità delle varie categorie di particelle
apparentemente differenti, sulla natura dello spaziotempo, e perché no, cercare
dimensioni nascoste dello spaziotempo.
I fisici di tutto il mondo sperano che LHC possa dare tutte le risposte alle varie
questioni sollevate, che reputano fondamentali per continuare ad indagare sulla natura,
con lo stesso spirito di coloro che millenni fa si avvicinarono al grande spettacolo
dell’universo per conoscerne l’essenza ed il suo funzionamento, ma utilizzando una
tecnologia impensabile fino a qualche anno fa.
Riportiamo le parole con cui l'eminente fisico teorico Victor Weisskopf (19082002) riassumeva lo stato della fisica delle alte energie: "Stiamo esplorando modalità
sconosciute di comportamento della materia in condizioni del tutto nuove. Questo
campo della fisica dà tutta l'emozione delle nuove scoperte in una terra vergine, ricca
di tesori nascosti: i fatti sperimentali ci permetteranno finalmente di penetrare nella
struttura della materia. Occorrerà un certo tempo prima di riuscire a tracciare una
carta razionale di questa nuova terra".
18.2 La teoria del tutto
L'attuale teoria delle particelle elementari e delle forze, pur essendo priva di
incongruenze concettuali, non soddisfa pienamente i fisici, in quanto c’è un numero
crescente di fenomeni che non rientrano nel suo ambito, e nuove idee teoriche hanno
reso più ricco e completo quello che ci aspettiamo da una descrizione della realtà.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
758!
Infatti le domande che non hanno risposta sono tante: le particelle primordiali sono solo
quelle contemplate dal Modello Standard o, un giorno, potranno apparirne delle altre?
Perché le intensità delle quattro forze fondamentali hanno proprio quei valori? (Il nostro mondo sarebbe profondamente diverso se le forze fossero di poco differenti). Il
protone è immortale o, come la quasi totalità delle particelle, è destinato a disintegrarsi?
La gravità potrà un giorno essere unificata con le altre forze fondamentali? Come mai
l'esistenza dei monopoli magnetici, ora compresa dalle teorie di grande unificazione,
non è ancora stata verificata dopo 40 anni di ricerche? I problemi sollevati da tutte
queste domande (e molte altre potrebbero essere formulate) sono certamente più
numerosi delle risposte che la fisica può dare per svelare i misteri della natura. In un
certo senso, però, questo fa parte del progresso scientifico e della natura umana.
Molti fisici sono convinti che, in qualche modo, si arriverà a costruire una specie
di "legge onnicomprensiva" che riesca a spiegare ogni fenomeno naturale: una specie di
"teoria del tutto" che possa unificare, per esempio, tutte le interazioni fondamentali. Lo
stato di una teoria del tutto fisica è aperto al dibattito filosofico. Per esempio se il
fisicalismo fosse vero, una teoria del tutto fisica coinciderebbe con la teoria filosofica del
tutto. Alcuni filosofi (Aristotele, Platone, Hegel, e altri) hanno tentato di costruire
sistemi onnicomprensivi. Altri sono fortemente dubbiosi sulla realizzazione di un simile
esercizio, come Wheeler, secondo il quale non può esistere un'equazione universale o
una teoria del tutto, per il semplice motivo che ogni equazione e ogni teoria non
rappresentano principi naturali preesistenti, bensì un processo di elaborazione mentale,
legato allo schema con cui gli uomini di scienza costruiscono le domande da porre alla
natura.
In questi ultimi anni
sono state tentate diverse strade
per raggiungere l'obiettivo della
descrizione
unitaria
della
natura, già perseguito vanamente da Einstein. La
maggiore impresa teorica finora
compiuta è rappresentata dalla
teoria della grande unificazione
(Grand Unification Theory, GUT),
elaborata nel 1974 da Sheldon L.
Glashow
(1932)
e
poi
completata da Abdus Salam (1926-1996) e Steven Weinberg (1933), insigniti del Nobel
1979 per la fisica.
Questa teoria, che ha come matrice il modello del big bang, si basa sul
presupposto che le forze fondamentali appaiono diverse a causa della rottura di una
simmetria iniziale, cioè in conseguenza di una serie di transizioni di fase che le hanno
differenziate man mano che l'universo si raffreddava dopo la grande esplosione. Se si
potessero ripristinare le condizioni iniziali che hanno dato origine all'universo,
probabilmente sparirebbe ogni differenza fra le forze e fra le loro manifestazioni
materiali, e il mondo ritornerebbe in uno stato altamente simmetrico. Il risultato
sperimentale raggiunto da Rubbia con la scoperta dei bosoni W± e Z0, che ha verificato il
rapporto di parentela fra la forza elettromagnetica e quella debole, indica che le idee
della GUT sono esatte. Il vero problema per riuscire a sintetizzare la moltitudine dei
759!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
fenomeni e la varietà delle forze sembra essere puramente energetico. La grande
unificazione prevede infatti una perfetta simmetria fra le tre forze elettromagnetica,
debole e forte proprio a quei valori energetici (circa 1015 GeV ) che caratterizzavano
l'universo appena dopo la nascita.
Nella fascinosa ipotesi della teoria del tutto, anche la forza gravitazionale si
potrebbe unire alle altre. Tuttavia, già per verificare sperimentalmente la GUT le
energie che dovrebbero essere raggiunte sono al di fuori delle attuali possibilità
tecnologiche e forse anche al di fuori di quelle future. Basti pensare che il valore di 1015
GeV supera di oltre mille miliardi i limiti energetici dei più grandi acceleratori di
particelle, anche in fase di progetto. Inoltre, poiché con le attuali tecnologie il diametro
di un acceleratore è direttamente proporzionale all'energia conferita alle particelle, per
ottenere un'energia dell'ordine di 1015 GeV ci vorrebbe un diametro più o meno pari alle
dimensioni della nostra galassia.
Per verificare direttamente la GUT sarebbe necessario creare sulla Terra una
condizione da "principio del mondo", corrispondente a una temperatura dell'ordine di
1032 K, che sembra tecnologicamente impossibile. I fisici stanno perciò cercando qualche
prova indiretta per confermare la validità della teoria. La rivelazione del decadimento
del protone, un evento ritenuto fino a poco tempo fa assolutamente vietato dalla
costituzione che regola la vita delle particelle, fornirebbe una di queste prove.
Anche se la GUT rappresenta un passo avanti rispetto al Modello Standard, essa
non è ancora in grado di coinvolgere l'interazione gravitazionale.
Per andare oltre la GUT sono nati altri modelli, nell'intento di unificare tutte le
particelle di natura fermionica con tutte le colle (fotoni, gluoni, gravitoni) di natura
bosonica, cioè di riunire in un'unica logica tutti gli oggetti necessari per strutturare il
mondo della materia dal cuore dell'atomo ai confini dell'universo.
Ciò porta a postulare
l'esistenza di nuove leggi di
simmetria. Ci riferiamo, in
particolare, alla cosiddetta
supersimmetria, introdotta già
da alcuni anni dai fisici teorici
S. Ferrara, J. Wess e B.
Zumino. La supersimmetria
implica che a ogni particella
di materia di tipo fermionico
debba corrispondere un partner bosonico a spin intero, battezzato squark, selettrone,
sneutrino, ecc. (la fratellanza supersimmetrica è indicata dalla lettera s che precede il
nome della particella) e che, inoltre, a ogni quanto di forza di tipo bosonico debba
corrispondere l'esistenza di un partner supersimmetrico di tipo fermionico, chiamato
fotino, gluino, gravitino, ecc. (dove per indicare la presunta fratellanza è utilizzato il
suffisso -ino).
La ricerca di nuovi ospiti nella lunga lista delle particelle è dunque tuttora aperta;
nessuno, però, è riuscito ancora a scoprire un fratello supersimmetrico.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
75:!
18.3 La gravità quantistica: la teoria delle stringhe e la gravità quantistica a
loop
La teoria delle stringhe e la gravità quantistica a loop sono le due più apprezzate
teorie della gravità quantistica, quel campo della fisica teorica che tenta di unificare la
teoria dei campi (meccanica quantistica relativistica), che descrive tre delle forze
fondamentali della natura (elettromagnetica, debole e forte), con la teoria della relatività
generale, riguardante la quarta interazione fondamentale: la gravità. Lo scopo ultimo di
queste teorie è anche quello di ottenere una struttura unica per tutte e quattro le forze
fondamentali e quindi di realizzare una teoria del tutto. A partire dagli anni ottanta del
XX secolo, molti fisici teorici si sono concentrati sulla definizione di una teoria
quantistica che conciliasse la meccanica quantistica e la relatività generale e che
spiegasse in maniera chiara l'esistenza delle quattro famiglie di particelle, dei bosoni
intermedi e della gravità.
Molte delle difficoltà dell'unificazione di queste teorie derivano da presupposti
radicalmente differenti su come è strutturato l'universo. La teoria quantistica dei campi
dipende dai campi delle particelle inserite nello spazio-tempo piatto della relatività
ristretta. La relatività generale tratta la gravità come una curvatura intrinseca dello
spaziotempo che varia al movimento della massa, ma non ci dice nulla riguardo le
particelle mediatrici della forza gravitazionale, i cosiddetti gravitoni Il modo più
semplice per combinare le due teorie (come ad esempio trattare semplicemente la
gravità come un altro campo di particella) finisce rapidamente in quello che è
conosciuto come il problema della rinormalizzazione (la procedura matematica di
rimozione delle divergenze, ossia degli infiniti, che nascono quando si procede al
calcolo di quantità fisiche osservabili). Le particelle di gravità si attraggono
reciprocamente e concorrono tutte ai risultati delle interazioni, producendo valori
infiniti che non possono essere facilmente cancellati per produrre risultati finiti (e
sensati). Al contrario, in elettrodinamica quantistica le interazioni talvolta esprimono
risultati numericamente infiniti, ma questi sono rimuovibili per mezzo della
rinormalizzazione.
Un altro aspetto fondamentale che rende inconciliabile la relatività generale e la
meccanica quantistica è che per la prima non esiste uno sfondo spaziotemporale fisso
come invece è nella meccanica newtoniana e nella relatività speciale; la geometria dello
spaziotempo è dinamica. D'altra parte la meccanica quantistica è dipesa fin dal suo
inizio su una struttura di fondo non dinamica. In questa teoria è il tempo che viene dato
e non la dinamica, come nella meccanica newtoniana classica.
Vi sono altri tre punti di disaccordo tra la meccanica quantistica e la relatività
generale. Primo, la relatività generale predice il suo stesso collasso in singolarità e la
meccanica quantistica diviene priva di senso nelle vicinanze delle singolarità. Secondo,
non è chiaro come determinare il campo gravitazionale di una particella se, in
conseguenza del Principio di indeterminazione di Heisenberg della meccanica
quantistica, non è possibile conoscere con certezza la sua posizione nello spazio e la sua
velocità. Terzo, vi è un contrasto, ma non una contraddizione logica, tra la violazione
della disuguaglianza di Bell nella meccanica quantistica, che implica un'influenza
superluminale, e la velocità della luce come limite di velocità nella relatività.
Sfortunatamente, le energie e le condizioni alle quali la gravità quantistica agisce
sono attualmente al di fuori della portata degli esperimenti di laboratorio, pertanto non
76<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
vi sono dati sperimentali che possono fare luce su come si combinano le due teorie.
Comunque una tale teoria è necessaria per comprendere quei problemi che interessano
la combinazione di enormi masse o energie con dimensioni estremamente piccole di
spazio, come il comportamento dei buchi neri e l'origine dell'universo.
La teoria delle stringhe, quindi, nasce come superamento dell’inconciliabilità della
relatività generale con la meccanica quantistica, rinunciando al concetto di località, cioè
di misurabilità di un campo
in un punto. La teoria delle
stringhe è stata formulata
negli anni settanta, sulla base
di un modello proposto dal
fisico teorico italiano Gabriele
Veneziano
(1942),
per
descrivere le interazioni nucleari forti, e successivamente allargata, negli anni ottanta, in
modo da includere la supersimmetria, ed essere interpretata come teoria unificata di
tutte le interazioni. Questa teoria è ancora basata sulla meccanica quantistica e la
relatività, ma abbandona l'ipotesi che gli oggetti fondamentali sui quali costruire la
teoria abbiano una struttura puntiforme, in favore di una struttura cordiforme, cioè
unidimensionale, ossia
descrive le particelle elementari come stati eccitati di
sottilissime corde quantistiche, chiamate appunto stringhe. In sostanza, è una teoria che
ipotizza che la materia, l'energia e in alcuni casi lo spazio e il tempo siano in realtà la
manifestazione di entità fisiche sottostanti, appunto le stringhe.
Vi sono due tipi possibili di stringhe: quelle con due estremità, dette stringhe
aperte e quelle chiuse su se stesse, dette appunto chiuse. In entrambi i casi, gli oggetti
elementari della teoria sono estesi, e la misurabilità di un campo, sia esso elettrico,
magnetico o gravitazionale, in un punto diventa impossibile non solo in pratica, ma
addirittura in linea di principio. In questo modo spariscono tutte le difficoltà incontrate
dal modello standard nel trattare la forza gravitazionale a livello quantistico. Inoltre, la
teoria che si ottiene sostituendo i punti con le stringhe, non solo è compatibile con la
gravità, ma addirittura non potrebbe farne a meno; la teoria quantistica di una stringa,
infatti, prevede necessariamente l'esistenza dei quanti dell'interazione gravitazionale, i
cosiddetti gravitoni, e quindi anche della forza gravitazionale a livello classico. Le
equazioni per il campo gravitazionale che si ottengono dalle stringhe, però, sono un po'
diverse da quelle di Einstein.
Gli aspetti più caratteristici della teoria delle stringhe sono dunque legati al fatto
che la meccanica quantistica stessa, quando è applicata ad oggetti estesi, viene
addirittura in aiuto anziché creare problemi come nella teoria dei campi. In primo
luogo, la meccanica quantistica associa alle stringhe una lunghezza minima
caratteristica (l'analogo del raggio di Bohr, nel caso dell'atomo). Infatti, mentre
classicamente si può concepire una corda arbitrariamente piccola che permetterebbe, al
limite, una misura locale del campo, secondo la meccanica quantistica questo non è
possibile, come non è possibile, ad esempio, avere delle orbite stabili negli atomi con
l'elettrone troppo vicino al nucleo. Un altro aspetto importante è legato al fatto che le
stringhe non sono statiche: oltre a muoversi come un tutto attorno al proprio baricentro
(ed avere quindi una propria energia cinetica di traslazione), possono vibrare ed
oscillare come un corpo elastico. La meccanica quantistica, però, permette solo valori
discreti per l'energia e il momento angolare dei vari stati di oscillazione (in modo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
76;!
analogo a quello che succede per i livelli energetici dell'atomo). Questi stati discreti di
vibrazione della stringa corrispondono alle varie particelle elementari, così come le
diverse frequenze atomiche corrispondono alle diverse righe spettrali dei vari elementi.
Alcune di queste vibrazioni corrispondono a particelle senza massa ma dotate di
momento angolare intrinseco, che si possono associare al fotone e al gravitone, ovvero a
quelle fondamentali particelle che trasmettono, rispettivamente, la forza
elettromagnetica e gravitazionale. In modo simile, e grazie al fatto che la stringa vibra in
uno spazio multidimensionale, appaiono altre particelle meno leggere, che trasmettono
le forze nucleari forti e deboli. Tutte queste particelle non esistono nel limite in cui la
teoria delle stringhe è puramente classica, e quindi sono puri effetti quantistici. E grazie
a questo che la teoria delle stringhe fornisce una descrizione quantistica di tutte le forze
che conosciamo in natura, senza incorrere nei problemi di località come la teoria dei
campi.
Nel contesto della moderna teoria di stringa, ci sono molte dimensioni spaziali in
più, che devono aggiungersi al nostro universo tridimensionale per poter inglobare
nella geometria, oltre alle forze gravitazionali, anche quelle elettromagnetiche e
nucleari. Queste dimensioni extra non sono estese nello spazio come le altre tre
ordinarie, ma si suppone che siano arrotolate, o più propriamente compattificate, in
modo da occupare un volume estremamente ridotto.
La teoria delle stringhe contiene solo due costanti fondamentali, la velocità della
luce, che è finita per il principio di relatività, e la lunghezza di stringa che è necessaria
per la quantizzazione. Perfino la costante di Planck, in questo contesto, è una grandezza
derivata. Dove sono andate a finire, allora, tutte le altre costanti della natura, quelle che
determinano ad esempio la forza gravitazionale, quella elettrostatica o, ancora, le
dimensioni dell'atomo di idrogeno? La risposta a questa domanda illustra un altro
aspetto caratteristico della teoria delle stringhe: le costanti fondamentali della natura
non sono più, come nel modello standard delle particelle, numeri arbitrari il cui valore
viene fissato una volta per tutte dagli esperimenti. Esse diventano variabili dinamiche,
legate ai valori medi di alcuni campi fondamentali e dovrebbero essere calcolabili, nel
contesto di un modello teorico dato, una volta fissato lo stato attuale dell'universo.
Sempre secondo la teoria delle stringhe, l’universo esisteva prima del big bang
che, per la relatività generale segnò l’inizio dello spazio e del tempo. L’universo
potrebbe essere stato quasi vuoto e aver concentrato materia fino a quel momento, o
aver attraversato un ciclo di morte e rinascita. In ogni caso, l’epoca precedente il big
bang avrebbe influenzato l’epoca attuale.
Se da un lato questa teoria è in grado di spiegare certi processi ancora oscuri
legati alla struttura dell'universo, dall'altro non è ancora in grado di produrre alcuna
predizione sottoposta a verifica sperimentale, ossia non esistono conferme evidenti
della teoria. Infatti, il punto centrale di discussione è la presunta non controllabilità
sperimentale (o falsificabilità) della teoria: occupandosi di che cosa succede a scale di
energia paragonabili a quelle verificatesi nei primi istanti dell'universo, la teoria non
permetterebbe di compiere nuove predizioni di fatti osservabili con gli strumenti
realizzabili. La teoria, così, non sarebbe testabile in senso empirico, e quindi, secondo un
requisito metodologico, non sarebbe una buona teoria scientifica. Il rapporto tra teoria
(fisica) ed esperienza è un tema tradizionale e controverso della filosofia della scienza, e
l'atteggiamento che prevale tra i filosofi che discutono dello status della teoria è di
prendere per dato che, volendone difendere l'accettabilità come teoria scientifica allo
76=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
stato attuale delle possibilità sperimentali, bisogna cercare supporto in “virtù” che non
siano quelle legate al controllo sperimentale. Per esempio il potere di unificazione e
quindi di spiegazione, la fertilità teorica, la consistenza matematica e fisica, e infine
l'unicità (non esistono per ora teorie alternative con capacità paragonabili). La questione
diventa quindi se queste virtù sovraempiriche siano sufficienti per accettare la teoria
come programma di ricerca progressivo.
Ma davvero il programma di ricerca della teoria delle stringhe non è testabile? È
proprio necessario rinunciare, in questo caso, a un criterio tanto essenziale come quello
della controllabilità empirica? Non tutti i fisici la pensano così, e i filosofi dovrebbero
tenerne conto. Infatti, anche se non si volessero accettare come controlli empirici le
conferme indirette (ma fondamentali per la teoria) che potrebbero venire, per esempio,
dagli esperimenti previsti con la messa in funzione del Large Hadron Collider al CERN di
Ginevra, la teoria, per Veneziano, è comunque falsificabile, nel senso che permette di
derivare predizioni che potrebbero essere sottoposte a falsificazione da esperimenti
concepibili (per esempio in base alle sue implicazioni cosmologiche). La vera questione,
per Veneziano, ha invece a che fare con lo stato di sviluppo della teoria: anche se il
programma di ricerca centrato sulle stringhe ha ormai quasi quarant'anni, si tratta
tuttora di una teoria in divenire, e la risposta al perché non si sia ancora in grado di
avere predizioni controllabili va cercata nella necessità di un ulteriore raffinamento
teorico, invece che in invalicabili limiti sperimentali. D'altra parte, se si vuole dar
credito alla lezione della storia, la teoria ha già subito una falsificazione. La sua prima
versione, sviluppatasi tra la fine degli anni sessanta e la metà degli anni settanta come
una teoria delle interazioni forti alternativa alla teoria dei campi, dovette essere
abbandonata in quanto le previsioni a cui portava per le interazioni forti, come
l'esistenza di particelle a massa nulla di spin 2, non avevano riscontro sperimentale.
Pertanto, la teoria è rinata come teoria quantistica della gravità e quindi si è sviluppata
nell’attuale forma di teoria unificata di tutte le forme di interazione della materia.
La gravità quantistica a loop (LQG dal termine inglese Loop
Quantum Gravity) è stata proposta, anch’essa, quale teoria
quantistica dello spaziotempo che cerca di unificare le
apparentemente
incompatibili
teorie
della
meccanica
quantistica e della relatività generale. In parole semplici la LQG
è una teoria quantistica della gravità in cui il vero spaziotempo
in cui accadono tutti i fenomeni fisici è quantizzato, ossia, al
pari della materia, è costituito da atomi di spaziotempo, atomi
di volume che hanno una capacità finita di contenere materia ed
energia. Essa conserva gli aspetti fondamentali della relatività generale, come ad
esempio l'invarianza per trasformazioni di coordinate, ed allo stesso tempo utilizza la
quantizzazione dello spazio e del tempo alla scala di Planck (10-33 cm) caratteristica
della meccanica quantistica. In questo senso essa combina la relatività generale e la
meccanica quantistica.
Tuttavia la LQG non è una ipotetica Teoria del tutto, perché non affronta il
problema di dare una descrizione unificata di tutte le forze. La LQG è solo una teoria
che descrive le proprietà quantistiche della gravità, e descrive le proprietà quantistiche
dello spazio tempo, e non un tentativo di scrivere la teoria del mondo. I critici della
LQG fanno spesso riferimento al fatto che la teoria non predice l'esistenza di ulteriori
dimensioni dello spazio tempo (oltre alle 4 note), né la supersimmetria. La risposta dei
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
764!
fautori della LQG è che allo stato attuale, nonostante ripetute ricerche sperimentali, non
vi è alcuna evidenza sperimentale né di altre dimensioni, né di particelle
supersimmetriche; quindi sia le dimensioni addizionali dello spazio tempo, sia la
supersimmetria devono essere considerate ipotesi speculative non provate.
La teoria non ha finora prodotto alcuna predizione univoca che possa essere
sottoposta a verifica sperimentale, non esistono quindi conferme sperimentali della
teoria; inoltre è criticata dai fautori della teoria delle stringhe. La critica più forte si
rivolge al fatto che non esiste ancora una teoria efficace della LQG e quindi non è
possibile verificare che essa riproduca veramente la relatività generale a basse energie.
Dunque non è nemmeno chiaro che riesca a riprodurre i fenomeni già descritti dalla
teoria di Einstein.
18.4 Energia e materia oscura
Nella cosmologia basata sul Big Bang, l'energia oscura è un'ipotetica forma di
energia che si trova in tutto lo spazio ed ha una pressione negativa. L'introduzione
dell'energia oscura si è resa necessaria per spiegare le osservazioni d'un universo in
accelerazione come pure per colmare una significativa porzione di massa mancante
dell'universo (circa il 90%).
L'esatta natura dell'energia oscura, però, è ancora oggetto di ricerca. È conosciuta
per essere omogenea, non molto densa e non interagire fortemente attraverso alcuna
delle forze fondamentali, tranne la gravità. Dal momento che non è molto densa, circa
10!29 g/cm3, è difficile immaginare esperimenti per trovarla in laboratorio. L'energia
oscura può solo avere un impatto sull'universo, tale da costituire il 70% di tutte le
energie, poiché riempie uniformemente tutti gli spazi vuoti. Due forme proposte di
energia oscura sono la costante cosmologica, una densità d'energia costante che riempie
omogeneamente lo spazio, e la quintessenza, un campo dinamico la cui densità
d'energia varia nello spazio e nel tempo. Distinguere le possibilità richiede misure
accurate dell'espansione dell'universo per capire come la velocità d'espansione cambi
nel tempo.
L'accelerazione dell'universo venne confermata negli anni 90. Per spiegare questo
fenomeno, si ipotizzò una forza anti-gravitazionale, che permeasse tutto l'universo.
Einstein, vissuto in un'epoca dominata dalla teoria dello stato stazionario (modello
teorico di universo statico e finito) e credendo in questo modello, inserì nelle equazioni
di campo della teoria della relatività generale la famosa costante cosmologica, per
contrastare gli effetti della gravità. Quando Hubble scoprì che l'universo era in
espansione, Einstein ritrattò la sua idea, definendola "il mio più grande errore".
Secondo la teoria della relatività, l'effetto di una tale pressione negativa è simile,
qualitativamente, ad una forza antigravitazionale su larga scala.
Quando Feynman e altri svilupparono la teoria quantistica della materia, si
resero conto che anche il vuoto non è realmente vuoto e possiede una sua ben definita
energia. Infatti, dal vuoto appaiono coppie virtuali di particella-antiparticella, che si
propagano per brevi distanze per poi annichilirsi in brevissimo tempo. Tuttavia gli
effetti di queste coppie sono rilevanti, per cui dobbiamo considerare la possibilità che
queste particelle virtuali conferiscano allo spazio vuoto un’energia non nulla, che,
secondo la relatività generale, genera gravità, e la sua azione antigravitazionale fa
765!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
accelerare l'espansione dell'universo, come dimostrano accurate misure astronomiche
sulle supernove di tipo Ia, fatte nel 1998 da due diversi gruppi di ricerca. Pertanto, oggi,
la presenza di un termine cosmologico appare inevitabile per spiegare l’espansione
accelerata dell’universo, anche se la sua presenza non è dettata dalla relatività, che
governa la natura alle scale più grandi, ma dalla meccanica quantistica, la fisica delle
scale microscopiche.
Però, uno dei più grandi problemi non risolti della fisica è che la maggior parte
delle teorie quantistiche dei campi prevedono un valore enorme per la costante
dall'energia del vuoto quantico, che vanno da 55 a 120 ordini di grandezza in più
rispetto all’energia di tutta la materia e la radiazione nell’universo osservabile, e se la
densità di energia del vuoto fosse davvero così alta, tutta la materia nell’universo si
disgregherebbe istantaneamente. Nonostante questi problemi, la costante cosmologica è
per molti aspetti la soluzione più economica al problema dell'accelerazione cosmica.
Alternativamente, l'energia oscura potrebbe derivare dall'eccitazione di particelle
in alcuni tipi di campi dinamici, e chiamata quintessenza. Questa differisce dalla
costante cosmologica in quanto può variare nello spazio e nel tempo. Non ci sono prove
dell'esistenza della quintessenza adesso, ma non può essere eliminata a priori.
Generalmente prevede un'accelerazione minore dell'espansione dell'universo rispetto
alla costante cosmologica. Alcuni scienziati ritengono che la miglior prova della
quintessenza derivi dalla violazione del principio di equivalenza di Einstein e dalle
variazioni delle costanti fondamentali nello spazio e nel tempo.
Ovviamente non mancano altre ipotesi sull’energia oscura. Alcuni teorici
pensano che l'energia oscura e l'accelerazione cosmica siano prova d'un fallimento della
relatività generale su scale superiori a quelle dei superammassi di galassie. Uno dei
modelli alternativi sono le teorie MOND (MOdified Newton Dynamics, dinamica
newtoniana modificata). Altri teorici pensano invece che l'energia oscura e
l'accelerazione cosmica siano prova d'un fallimento del modello Standard del Big Bang,
dato che costringe ad ammettere la presenza di qualcosa di non (ancora) esperibile.
Altre idee sull'energia oscura derivano dalla teoria delle stringhe.
In ogni caso, la scoperta dell’accelerazione cosmica ha cambiato la nostra
concezione del futuro dell’universo. Il suo destino non è più legato alla geometria, cioè
alla presenza di materia e radiazione. Una volta ammessa l’esistenza dell’energia del
vuoto o di qualcosa di simile, tutto diventa possibile. Un universo piatto dominato da
una energia del vuoto positiva si espanderà per sempre a velocità crescente, mentre un
cosmo dominato da un’energia del vuoto negativa collasserà. E se l’energia oscura non
fosse energia del vuoto, il suo effetto sull’espansione cosmica sarebbe incerto. È
possibile che, al contrario di una costante cosmologica, la densità dell’energia oscura
possa crescere o diminuire nel tempo. Nel primo caso l’accelerazione cosmica
aumenterà, distruggendo, nell’ordine, galassie, stelle, pianeti, atomi, in un tempo finito.
Ma se la densità diminuisse, l’accelerazione potrebbe arrestarsi. E se la densità
diventasse negativa l’universo potrebbe collassate.
Il termine materia oscura indica quella componente di materia che si manifesta
attraverso i suoi effetti gravitazionali, ma non è direttamente osservabile, in quanto non
emette alcuna radiazione elettromagnetica. Il concetto di materia oscura ha senso solo
all'interno dell'attuale cosmologia basata sul Big Bang; infatti, non si sa altrimenti
spiegare come si siano potute formare le galassie e gli ammassi di galassie in un tempo
così breve come quello osservato. Non si spiega inoltre come le galassie, oltre a
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
766!
formarsi, si mantengano integre anche se la materia visibile non può sviluppare
abbastanza gravità per tale scopo. Anche da questa prospettiva il concetto di materia
oscura ha senso solo all'interno dell'attuale Modello Standard, che prevede come unica
forza cosmologica quella gravitazionale; se il Modello Standard risultasse errato, non si
avrebbe necessità di materia oscura, dato che non si ha alcuna evidenza sperimentale se
non le violazioni di un modello matematico.
Già nel 1933 l'astronomo Fritz Zwicky (1898-1974), studiando il moto di ammassi
di galassie lontani e di grande massa, ottenne una stima di massa dinamica che era 400
volte più grande della stima basata sulla luce delle galassie. Sebbene l'evidenza
sperimentale ci fosse già ai tempi di Zwicky, fu solo negli anni settanta che gli scienziati
iniziarono ad esplorare questa discrepanza in modo sistematico. Fu in quel periodo che
l'esistenza della materia oscura iniziò ad essere considerata; l'esistenza di tale materia
non avrebbe solo risolto la mancanza di massa negli ammassi di galassie, ma avrebbe
avuto conseguenze di ben più larga portata sulla capacità dell'uomo di predire
l'evoluzione e il destino dell'Universo stesso.
Il 21 agosto 2006 la NASA ha rilasciato un comunicato stampa secondo cui
Chandra (telescopio orbitale per l'osservazione del cielo nei raggi X) avrebbe trovato
prove dirette dell'esistenza della materia oscura, nello scontro tra due ammassi di
galassie. All'inizio del 2007 gli astronomi del Cosmic Evolution Survey e Hubble Space
Telescope, utilizzando le informazioni ottenute dal telescopio Hubble e da strumenti a
terra, hanno tracciato una mappa della materia oscura rilevando che questa permea
l'universo; ove si trova materia visibile deve essere presente anche grande quantità di
materia oscura, ma questa è presente anche in zone dove non si trova materia visibile.
Un'altra prova dell'esistenza della materia oscura è data dalle lenti gravitazionali.
La massa visibile risulta insufficiente per creare una lente gravitazionale, per cui si
prefigura la presenza di massicce quantità di materia oscura, ottenendo una massa
totale in grado di deviare il percorso della luce.
Attualmente ci sono varie teorie per spiegare la massa mancante legate a diversi
fenomeni. La massa oscura è divisa in barionica e non barionica: la materia oscura
barionica è quella composta da materia del tutto simile a quella che costituisce le stelle, i
pianeti, la polvere interstellare, ecc., che però non emette radiazioni; la materia oscura
non barionica è composta da materia intrinsecamente diversa: particelle
supersimmetriche, neutralini, neutrini massicci, assioni, soggetti solo alla forza
gravitazionale e all'interazione nucleare debole. Questo materiale è detto WIMP
(Weakly Interacting Massive Particles), particelle di grande massa unitaria debolmente
interagenti con la materia barionica, e quindi difficilmente rivelabili. Si pensa
attualmente che almeno il 90% della materia oscura sia non barionica.
La scoperta che il neutrino ha massa, seppur estremamente bassa, potrebbe in
parte spiegare l'eccesso di massa degli ammassi e superammassi di galassie, ma non
quello delle singole galassie, perché esso si muove a velocità prossima a quella della
luce, sfuggendo prima o poi all'attrazione gravitazionale e uscendo da esse.
Altri possibili costituenti della materia oscura sono stati indicati nei MACHO
(Massive Compact Halo Objects), oggetti compatti di grande massa dell'alone galattico, nei
buchi neri primordiali, nelle stelle di bosoni e nelle pepite di quark.
Una minoranza di ricercatori non considera soddisfacente l'ipotesi della materia
oscura come spiegazione degli effetti osservati. Tra questi, Mordehai Milgrom che ha
767!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
proposto la teoria MOND, acronimo di Modified Newtonian Dynamics (dinamica
newtoniana modificata). Essa prevede che sulle scale di accelerazione tipiche delle zone
esterne delle galassie la legge di gravitazione universale di Newton debba essere
leggermente modificata, in modo da tener conto degli effetti osservati senza fare ricorso
alla materia oscura. La teoria MOND è stata anche sostenuta e rielaborata dal pioniere
della termodinamica dei buchi neri, Jacob D. Bekenstein. La teoria MOND è
difficilmente compatibile con la relatività generale, ma rappresenta l'ambito di ricerca
meglio conosciuto realisticamente competitivo con il paradigma della materia oscura
nella spiegazione dei moti galattici.
18.5 Il computer quantistico
Le applicazioni di principi fisici alla tecnologia del futuro possono essere
molteplici, ma fra le tante applicazioni possibili vogliamo porre l’attenzione su una in
particolare, il computer quantistico, per le ovvie implicazioni che può avere sulla vita di
tutti i giorni.
Per lungo tempo non si è data molta importanza alle modalità fisiche secondo le
quali un dispositivo di calcolo viene realizzato. Soltanto recentemente, a seguito
dell'incessante progresso della tecnologia di realizzazione dei moderni computer, si è
cominciato a percepire che i principi fisici secondo cui una macchina di calcolo è
realizzata non possono non avere un impatto determinante sul suo funzionamento da
poter trasformare un problema insolubile in problema solubile. A questa seconda
possibilità cominciò subito a riflettere Feynman, tentando di concepire una macchina
funzionante sulla base dei principi della fisica quantistica e aprendo in tal modo un
nuovo promettente capitolo per l'informatica. Nel 1981, al Massachusetts Institute of
Technology (MIT) si tenne un convegno che sarebbe stato il primo sul rapporto che esiste
tra fisica e computazione. Feynman, presentò una memoria dal titolo Simulating Physics
with Computers. Feynman non vedeva nulla di particolarmente eclatante nelle
simulazioni approssimate della realtà fatte fino ad allora dai computer. Era, invece,
interessato alla possibilità di ottenere una simulazione esatta attraverso un computer
che potesse fare le stesse cose che fa la natura. Feynman già intuiva che la computazione
non era solo una disciplina matematica ma anche fisica.
La simulazione di un fenomeno sul computer classico richiede un mondo
prevedibile in modo deterministico. Non ci sono incertezze nel comportamento di
circuiti costituiti da miliardi di trilioni di atomi ed elettroni. "Ma un computer
tradizionale fino a che punto può emulare il mondo quantistico?" si domandava
Feynman. L'argomento, in una quarantina di anni di ricerche, ha prodotto in ambito
teorico notevoli risultati, per i quali si attendono nel prossimo futuro interessanti
riscontri sul piano delle applicazioni. Qui basterà dire che tutta la "Teoria della
Informazione classica " è in corso di revisione. La definizione tradizionale di unità di
informazione, il bit, che poggia inevitabilmente su assunti di tipo classico, avendo come
oggetto di riferimento un dispositivo a funzionamento classico quale un circuito
digitale, deve essere rivista ove si faccia riferimento a oggetti a funzionamento
quantistico, quali lo spin di un elettrone o la polarizzazione di un fotone. Accanto al bit,
basato su fenomeni di tipo classico, si deve collocare il qubit, la nuova unità di
informazione basata su fenomeni quantistici. Diventa essenziale il concetto di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
768!
informazione accessibile, ovvero della informazione che effettivamente si riesce a
estrarre da un sistema quantistico per effetto di un'operazione di misura, ma ciò che da
un punto di vista pratico è assai più importante, si comincia a valutare la possibilità
teorica di concepire sistemi fisici con i quali effettuare operazioni impensabili con le
tecniche classiche di computazione.
Alla base del funzionamento di processi di calcolo molto promettenti stanno
alcuni degli effetti quantistici. A questo proposito, però, varrà la pena di osservare che
l'interesse per il calcolo quantistico non sta nel ripetere procedimenti e calcoli che
possono essere eseguiti dai convenzionali computer a funzionamento classico, ma nel
fatto che, mediante questa nuova tecnologia, operazioni che risultano impossibili con la
tecnica tradizionale possono diventare possibili o, quanto meno, che operazioni
eseguibili con scarsa efficienza con il calcolatore classico possono diventare molto più
efficienti con la QC (Quantum Computing).
Fra i problemi non solubili con mezzi deterministici, ma possibili in termini
quantistici, si cita il problema della generazione di numeri veramente casuali, il
problema della fattorizzazione di numeri molto grandi, di altissimo interesse per la
crittografia, il problema della ricerca efficiente in database per la soluzione del
problema del commesso viaggiatore. Infine, tutta la simulazione di fenomeni
quantistici, così importante per l'esplorazione del mondo microscopico, preclusa in
forma classica, diventa possibile con la QC, come brillantemente presagito dal fisico
Feynman.
Ma vediamo più da vicino alcune classi di problemi che un computer quantistico
potrebbe affrontare.
Dal punto dei vista della computabilità un algoritmo è caratterizzato dal numero
di operazioni e dalla quantità di memoria richieste per un input di dimensioni x. Questa
caratterizzazione dell'algoritmo determina quella che viene definita la complessità
dell'algoritmo stesso. Tra i problemi considerati complessi ci sono certamente quelli che
crescono come la potenza di un numero. La funzione y=x2 cresce molto rapidamente.
Per valori di x molto elevati occorre eseguire moltiplicazioni sempre più laboriose.
Se la potenza cresce ulteriormente, per esempio y=x4 o y=x5 la difficoltà aumenta
ancora. Simili problemi, definiti polinomiali, sono oggi alla portata dei computer
classici. Ma esistono problemi che crescono molto più rapidamente di quelli
polinomiali. I problemi di tipo esponenziale aumentano di complessità più rapidamente
di quelli polinomiali: ex cresce molto più rapidamente di x3, x5, x 7, . . per valori crescenti
di x.
La distinzione oggi più utilizzata è quella tra problemi che possono essere risolti
in modo polinomiale (P ), e considerati trattabili, e quelli che invece non possono essere
risolti in modo polinomiale e che vengono generalmente considerati intrattabili e che
possono a loro volta far parte di classi diverse. Tra queste ultime la prima è la
cosiddetta classe NP. Semplificando, i problemi di tipo NP non possono, in generale,
essere risolti da algoritmi deterministici di tipo polinomiale e sono, quindi, in linea di
principio intrattabili. NP, infatti, sta a significare non-deterministic polynomial time. Non
deterministico significa che a un dato passo dell'algoritmo non si può stabilire in
maniera univoca quale possa essere il passo successivo. Un pò come nel gioco degli
scacchi: data una mossa dell'avversario non c'è al momento un algoritmo che possa, a
priori, determinare deterministicamente, in tempo ragionevole, quale debba essere la
mossa successiva. Esistono ulteriori problemi, definiti NP-completi, che fanno parte di
769!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
NP ma sono raggruppabili in gruppi tali che se si risolve un problema in tempo
polinomiale allora tutto il gruppo è risolubile. Tra questi problemi rientra il celebre
problema del commesso viaggiatore che debba visitare un certo numero di città,
ciascuna una volta sola e senza tornare mai indietro, attraverso un percorso che abbia la
lunghezza minima. Sebbene le classi di tipo NP non siano le più complesse esse
contengono comunque alcuni tra i problemi, al momento, di maggior interesse. Tra
questi il problema della fattorizzazione di un numero è intimamente connesso con la
possibilità di decrittare un sistema di crittografia, come per esempio il sistema RSA129
che utilizza chiavi costituite da 128 cifre. È stato valutato che, se per fattorizzare un
numero di 128 cifre nel 1994 sono stati necessari 5000 MIPS-anni (MIPS: milioni di
istruzioni al secondo), per fattorizzarne uno di 200 cifre occorrerebbero quasi 3 miliardi
di MIPS-anni.
Ed è proprio nell'area di simili problemi che entra in gioco il computer
quantistico. Si è recentemente scoperto, per esempio, che proprio la fattorizzazione in
fattori primi di numeri molto grandi può essere affrontata con successo da un ideale
computer quantistico, che usi principi base della meccanica quantistica, come la
sovrapposizione e l’entanglement.
Un altro problema per il quale l'impiego delle proprietà quantistiche sembra
schiudere promettenti orizzonti è quello relativo alla soluzione del cosiddetto problema
del corriere presente nei sistemi crittografici. Questo problema è relativo al fatto che
qualunque trasmissione crittografica protetta include l'inevitabile impiego di un
corriere per il trasporto della chiave. Il corriere è il punto debole di tutto il sistema (esso
stesso può "tradire ", o, essere sequestrato e costretto a tradire). Non giova pensare al
fatto che le due parti possano incontrarsi per lo scambio delle chiavi una volta per tutte,
preventivamente a qualsiasi collegamento, perché ovvie ragioni di sicurezza
consigliano di cambiare ad ogni collegamento la chiave. Dunque, alle due parti, se
vogliono comunicare standosene nella propria sede, non resta altro che affidarsi ad un
corriere.
È possibile dimostrare teoricamente che si possono ottenere messaggi
crittografati a ermeticità assoluta ove, a ogni sessione, si ricorra a chiavi realizzate con
sequenze casuali di dati, in modo da non fornire al crittoanalista della parte avversa
"dati storici "su cui poter lavorare. La tecnica di crittazione, con un procedimento
quantistico per realizzare scambio di chiavi, produce assoluta ermeticità.
Ma come può essere fisicamente costruito un computer quantistico?
La realizzabilità fisica di dispositivi per QC è fortemente condizionata da un fenomeno
noto come "decoerenza quantistica ", ossia l'inevitabile effetto dell'interscambio fra un
sistema quantistico e l'ambiente in cui esso è immerso. Lo stupefacente effetto della
sovrapposizione degli stati con la conseguente possibilità di ciò che è stato chiamato
parallelismo quantistico, viene messo in seria discussione dal fenomeno della
decoerenza. Comunque, molti progressi in questa direzione sono stati effettuati ed è da
ritenere che in prospettiva il fenomeno delle decoerenza possa essere in qualche modo
superato. Al momento non si sa se un programma quantistico possa essere eseguito per
il tempo necessario senza incorrere nel fenomeno della decoerenza.
Uno dei problemi più complessi da risolvere è quello di impedire che
l'interferenza dei vari calcoli si rifletta sul mondo macroscopico. Infatti, se un gruppo di
atomi o di molecole è sottoposto a un fenomeno di interferenza e interagisce al tempo
stesso con l'ambiente macroscopico non è più possibile rilevare l'interferenza con
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
76:!
misure che riguardano solo gli atomi del gruppo originario che così cessa di effettuare
un'attività di calcolo quantistico utile. Attualmente ci sono almeno tre tipi di problemi
che occorre risolvere:
il mantenimento dello stato di sovrapposizione quantistica dei vari elementi, e
quindi un effettivo isolamento dei circuiti quantistici dal mondo macroscopico che
li circonda;
2. la gestione degli errori che comunque si manifestano in un complesso circuitale
così delicato;
3. la sapienza costruttiva necessaria per realizzare le funzioni di calcolo che
attraverso sovrapposizione, entanglement e interferenza consentono di creare
risposte dalle domande e di correlare le prime alle seconde.
1.
La tecnologia della microfabbricazione e lo sviluppo dei materiali per la
microelettronica hanno portato e continueranno a portare ad un livello progressivo di
miniaturizzazione impressionante, esponenziale, dei componenti elettronici dei
calcolatori. Gli effetti quantistici, quindi, a prescindere dalla realizzazione del computer
quantistico, non possono non essere tenuti in considerazione se si vuole garantire un
corretto funzionamento dei microchips, quando questi vengono utilizzati in dispositivi
per manipolare informazione. Grazie alla miniaturizzazione in corso si avranno anche
dispositivi molecolari dove gli effetti quantistici saranno ancora più evidenti.
In conclusione, gli studi sulla realizzabilità del computer quantistico ci
consentiranno di studiare un’altra proprietà della fisica, a prima vista molto più astratta
dell’energia, che si direbbe appartenere piuttosto all'ambito della metafisica:
l'informazione.
Come le osservabili della fisica, l'informazione deve essere contenuta in oggetti
che possono essere del tutto diversi, le parole pronunciate sono convogliate dalle
variazioni di pressione dell'aria, quelle scritte dalla disposizione delle molecole di
inchiostro sulla carta, perfino i pensieri corrispondono a particolari configurazioni dei
neuroni, e soprattutto, come per le osservabili della fisica, l'informazione viene lasciata
immutata da certe trasformazioni. L'informazione si comporta in un qualche modo
come una grandezza fisica, che può essere conservata, trasformata, misurata e
dissipata.
Oggigiorno tutti conosciamo il computer come eccellente elaboratore di
informazioni. La facilità con cui l'informazione può essere manipolata automaticamente
nasce proprio dalla universalità, dal fatto che essa può essere espressa in maniere
diverse senza perdere la sua natura essenziale e che, come accade nella fisica, anche le
trasformazioni più complesse si possono realizzare con tante operazioni semplici. Non
c'è informazione senza un portatore fisico, ma per converso, l'informazione è
essenzialmente indipendente da come essa è espressa fisicamente e può essere
liberamente trasferita da una forma ad un'altra: è questo che fa dell'informazione un
candidato naturale ad un ruolo fondamentale nella fisica, esattamente come energia e
quantità di moto.
Storicamente gran parte della fisica di base ha avuto a che fare con il compito di
scoprire i costituenti fondamentali della materia e le leggi che descrivono e governano
le loro interazioni e la loro dinamica. Ora comincia ad emergere come ugualmente
importante e fondamentale il programma di scoprire in quali modi la natura permetta o
proibisca che l'informazione venga espressa, immagazzinata, manipolata e
trasmessa. L'ambizioso programma di riconsiderare i principi fondamentali della fisica
77<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
dal punto di vista della teoria della informazione è ancora nella sua infanzia, tuttavia
promette di dare frutti importanti: i concetti e i metodi della informazione e della
computazione quantistica sono i primi fra questi.
Dai tempi di Alan Turing (1912-1954), uno dei padri dell’informatica,
essenzialmente nessun cambiamento sostanziale ha avuto luogo nell'idea di che cosa sia
e come operi un computer, fino a che la meccanica quantistica non ha aperto la
possibilità di un cambiamento di paradigma. In effetti la logica aristotelica della
macchina di Turing mal si adatta alla razionalità umana (Vero e Falso sono concetti
sufficienti?). Forse un'altra logica è possibile, e questa potrebbe fornirla la meccanica
quantistica. L'idea che si possa immagazzinare informazione negli stati microscopici è
per i fisici una sfida senza precedenti, in quanto apre la prospettiva di usare la materia
stessa nella sua struttura fondamentale per fare calcolo. La possibilità della
realizzazione di questo programma è tanto affascinante quanto ardua.
18.6 Il teletrasporto quantistico
L’entanglement è uno dei fenomeni più interessanti e misteriosi della fisica
quantistica. E’ il fenomeno secondo cui due (o più) particelle (o sistemi fisici) possono
essere interconnessi tra loro in modo così
stretto che una misura effettuata su una delle
due cambia istantaneamente anche lo stato
dell’altra, non importa quando siano distanti.
Poiché lo stato di una particella contiene tutto
ciò che possiamo dire della particella stessa,
allora teletrasportare un fotone significa
teletrasporatare il suo stato quantistico. A
parte le implicazioni di natura filosofica che
un tale fenomeno solleva, molti scienziati sono certi che in futuro, l’entanglement, avrà
importanti applicazioni tecniche (per il momento lasciamo al mondo della fantascienza
il teletrasporto di cose o esseri viventi). Da questo punto di vista, un’idea fondamentale
consiste nello sfruttare gli stati entagled per collegare tra loro i futuri computer
quantistici. In generale, l’output dei computer quantistici è un qualche stato quantistico.
Supponiamo ora che un altro computer quantistico, posto a una certa distanza dal
primo, abbia bisogno di questo output in ingresso. La soluzione ideale consisterebbe nel
teletrasportare lo stato di output del primo computer all’ingresso del secondo.
18.7 L’immagine del mondo definitiva?
In questo lungo viaggio, dalle prime immagine del mondo di Anassimandro e
Democrito, passando per quella di Newton, Einstein e della meccanica quantistica,
abbiamo assistito, progressivamente, alla sparizione dello spazio, del tempo, delle
particelle classiche e perfino dei campi classici. Ma allora, di cosa è fatto il mondo? La
rsiposta, a questo punto, è semplice: le particelle sono quanti di campi quantistici; la
luce è formata dai fotoni, quanti del campo elettromagnetico; lo spazio non è che un
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
77;!
campo, anch’esso quantistico; e il tempo nasce dai processi di questo stesso campo. In
sintesi, il mondo è interamente fatto di campi quantistici.
Questi campi non vivono nello spaziotempo, ma sono campi uno sull’altro, ossia
campi su campi. I campi che vivono su stessi, senza bisogno di uno spaziotempo che
funga loro da sostrato, da supporto,
capaci di generare essi stessi lo
spaziotempo, sono chiamati campi
quantistici covarianti. Lo spazio e il
tempo che percepiamo a larga scala
sono
l’immagine
sfocata
e
approssimata di uno di questi campi
quantistici: il campo gravitazionale.
I campi quantistici covarianti
rappresentano la migliore descrizione
che abbiamo oggi dell’apeiron, la
sostanza primordiale che forma il
tutto, ipotizzata da Anassimandro. Le
particelle, l’energia, lo spazio, il
tempo, insomma il mondo, non sono altro che la manifestazione di un solo tipo di
entità: i campi quantistici covarianti. Il prezzo concettuale che è stato pagato è la
rinuncia all’idea di spazio e tempo come strutture generali entro cui inquadrare il
mondo. Spazio e tempo sono approssimazioni che emergono a larga scala. Kant aveva
forse ragione a sostenere che il soggetto della conoscenza e il suo oggetto sono
inseparabili, ma aveva torto quando pensava che lo spazio e tempo newtoniani
potessero essere forme a priori della conoscenza, parti di una grammatica
imprescindibile per comprendere il mondo.
18.8 I futuri premi Nobel
È sempre difficile indovinare gli intenti del comitato che assegna il Premio Nobel,
ed è ancora più difficile immaginare chi, in un campo così ampio come quello della
fisica, otterrà un premio per una particolare scoperta. Il comitato, inoltre, permette
spesso che considerazioni politiche o filosofiche interferiscano con la decisione su chi,
dei candidati meritevoli, verrà premiato. Hubble non ha mai avuto un Nobel, e il
premio ad Einstein, assegnato per la spiegazione dell'effetto fotoelettrico, venne
concesso nonostante la teoria della relatività. Solo due fatti sono sicuri: ciascun premio
può essere diviso al massimo fra tre scienziati, e non è ammessa l'assegnazione
postuma. Ecco le scoperte, gli studi o le teorie, che potrebbero assegnare quasi
sicuramente il premio Nobel:
La scoperta della materia oscura; la teoria inflazionaria; la scoperta di anisotropie
nel fondo cosmico di radiazione; la scoperta della massa del neutrino; la previsione
dello spettro dei neutrini solari; la soluzione del paradosso dei neutrini solari; la
scoperta dell'energia oscura; la misura della curvatura dell'universo; la predizione e la
scoperta delle particelle supersimmetriche; la creazione e lo studio del plasma di quark
e gluoni; la scoperta di una nuova particella pesante debolmente interagente che
77=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
contribuisca in maniera significativa alla materia oscura; l'analisi del decadimento
debole del mesone B e il completamento della matrice CKM; la scoperta del doppio
decadimento beta e la prova che la descrizione di Majorana (1906-1938) del neutrino è
corretta; la rilevazione diretta delle onde gravitazionali.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
774!
Un giorno le macchine riusciranno
a risolvere tutti i problemi,
ma mai nessuna di esse potrà porne uno
Einstein
!"#$%&'("#(!
Ho cercato di raccontare attraverso lo sviluppo delle idee, dall’antica Grecia, ai
giorni nostri, le varie immagini del mondo che l’uomo ha disegnato nella propria
mente. Siamo arrivati alla descrizione definitiva della realtà del mondo? No. Il
pensiero scientifico esplora e ridisegna il mondo in continuazione; è un’esplorazione
continua di forme di pensiero. La sua forza è la capacità visionaria di far crollare idee
preconcette, svelare territori nuovi del reale e costruire nuove e più efficaci immagini
del mondo. Ciò che l’universo realmente sia non lo sappiamo, ed è senza significato
cercarlo. Noi possiamo solo formarci rappresentazioni della natura che mutano con i
tempi e saranno sempre incomplete.
La consapevolezza dei limiti della nostra conoscenza è il cuore del pensiero
scientifico. E’ lo stimolo continuo che ci permette di non considerare mai definitiva
l’immagine del mondo che ci siamo costruiti, perché sono ombre proiettate sulla parete
della caverna di Platone. Per imparare qualcosa in più rispetto a quello che sappiamo,
bisogna avere il coraggio di mettere in discussione le conoscenze e le idee accumulate
dai nostri padri. Senza questo sentimento di ribellione scientifica, i vari Anassimandro,
Galileo, Copernico, Newon, Einstein, i fondatori della meccanica quantistica, non
avrebbero mai messo in discussione le idee e le concezioni dei loro predecessori. Se
nessuno di questi avesse sollevato dubbi e proposto nuove immagini del mondo,
staremmo ancora a pensare alla Terra come a un disco piatto oppure a una palla
attorno alla quale ruota l’intero universo.
La grande forza della scienza, ed è ciò che la disitingue dalle altre forme del
pensiero, è che attraverso ipotesi e ragionamenti, intuizioni e visioni, equazioni e
calcoli, possiamo stabilire se una teoria è giusta oppure no. Nella scienza non esistono
affermazioni che non possano essere messe in discussione e anche le certezze scientifiche
775!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
più radicate possono crollare davanti a nuove scoperte. Ma la scienza non consiste
solamente nei risultati delle osservazioni, altrimenti una qualsiasi collezione di esse
sarebbe
buona
quanto
un’altra.
E’
perché
la
scienza
ha
una
struttura
e
un’interpretazione teorica che consentono di avere i risultati delle osservazioni, li si
può correlare e farli coincidere in teorie.
Ma se la scienza non è sicura di ciò che afferma perché dobbiamo fare
affidamento su di essa? La risposta è semplice: la scienza è affidabile perché fornisce le
risposte migliori che abbiamo al momento presente. La scienza rispecchia il meglio che
sappiamo sui problemi che affronta. Quando Einstein ha mostrato che Newton
sbagliava, non ha messo in discussione l’affidabilità della scienza, ma ha semplicemente
dato delle risposte migliori alle domande che il mondo poneva. La natura del pensiero
scientifico è critica, ribelle, insofferente di ogni concezione a priori, a ogni verità
intoccabile. La scienza è alla ricerca delle risposte più affidabili, non delle risposte certe
e definitive. Fare scienza significa vivere con domande cui non sappiamo (forse non
sappiamo ancora, oppure non sapremo mai) dare risposta.
La curiosità di imparare, scoprire, voler assaggiare la mela della conoscenza è
ciò che ci rende umani, perché non siamo fatti “…. a viver come bruti, ma per seguir
virtute e canoscenza”.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
776!
!""#$%&'#!
8:;<=>?:@#
Archimede
Archimede di Siracusa (Siracusa, circa 287 a.C. – Siracusa, 212 a.C.) è stato
un matematico, astronomo, fisico. È stato uno dei massimi scienziati della
storia. Si hanno pochi dati certi sulla vita di Archimede. Tutte le fonti
concordano sul fatto che fosse siracusano e che sia stato ucciso durante il
sacco di Siracusa del 212 a.C. Tra le poche altre notizie certe vi è inoltre
quella, tramandata da Diodoro Siculo, che abbia trascorso un soggiorno in
Egitto, e che ad Alessandria d'Egitto strinse amicizia con il matematico e astronomo
Conone di Samo, come si evince dal rimpianto per la sua morte espresso in alcune
opere. Tornato a Siracusa, tenne corrispondenza con vari scienziati di Alessandria, tra i
quali Dositeo ed Eratostene, al quale dedicò il trattato Il metodo e rivolse il problema dei
buoi del sole. Secondo Plutarco era imparentato col monarca Gerone II, tesi controversa
che trova comunque riscontro nella stretta amicizia e stima che, anche secondo altri
autori, li legava. L'ipotesi che fosse figlio di un astronomo siracusano di nome Fidia
(altrimenti sconosciuto) è basata sulla ricostruzione del filologo Friedrich Blass di una
frase di Archimede, contenuta nell'Arenario, che nei manoscritti era giunta corrotta e
priva di senso. Se questa ipotesi fosse corretta, si può pensare che abbia ereditato dal
padre l'amore per le scienze esatte. Dalle opere conservate e dalle testimonianze si sa
che si occupò di tutte le branche delle scienze matematiche a lui contemporanee
(aritmetica, geometria piana e geometria solida, meccanica, ottica, idrostatica,
astronomia ecc.) e di varie applicazioni tecnologiche. Polibio, Tito Livio e Plutarco
riferiscono che durante la seconda guerra punica, su richiesta di Gerone II, si dedicò (a
detta di Plutarco con minore entusiasmo ma secondo tutti gli autori con non minori
successi) alla realizzazione di macchine belliche che potessero aiutare la sua città a
difendersi dall'attacco di Roma. Plutarco racconta che, contro le legioni e la potente
flotta di Roma, Siracusa non disponeva che di poche migliaia di uomini e del genio di
un vecchio; le macchine di Archimede avrebbero scagliato massi ciclopici e una
tempesta di ferro contro le sessanta imponenti quinquereme di Marco Claudio
Marcello. Nel 212 a.C. fu ucciso durante il sacco della città. Secondo la tradizione
777!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
l'uccisore sarebbe stato un soldato romano che, non avendolo riconosciuto, avrebbe
trasgredito l'ordine di catturarlo vivo.
Nell'immaginario collettivo il ricordo di Archimede è indissolubilmente legato a
due aneddoti leggendari. Vitruvio racconta che avrebbe iniziato ad occuparsi di
idrostatica perché il sovrano Gerone II gli aveva chiesto di determinare se una corona
fosse stata realizzata con oro puro oppure utilizzando all'interno altri metalli. Egli
avrebbe scoperto come risolvere il problema mentre faceva un bagno, notando che
immergendosi provocava un innalzamento del livello dell'acqua. Questa osservazione
l'avrebbe reso così felice che sarebbe uscito nudo dall'acqua esclamando (héureka!, ho
trovato!). Se non si avesse il trattato Sui corpi galleggianti non si potrebbe dedurre il
livello dell'idrostatica archimedea dal racconto vitruviano.
Un altro detto attribuito ad Archimede che ha avuto altrettanta fortuna è
connesso al suo interesse per la costruzione di macchine capaci di spostare grandi pesi
con piccole forze. Secondo una storia tramandata da Pappo di Alessandria e Simplicio,
lo scienziato, entusiasmatosi per le possibilità offerte dalla nuova meccanica, avrebbe
esclamato «datemi un punto d'appoggio e vi solleverò il mondo».
La leggenda ha tramandato ai posteri anche le ultime parole di Archimede,
rivolte al soldato romano che stava per ucciderlo: «noli, obsecro, istum disturbare» (non
rovinare, ti prego, questo disegno). Plutarco, dal canto suo, narra tre differenti versioni
della morte di Archimede. Nella prima afferma che un soldato romano avrebbe
intimato ad Archimede di seguirlo da Marcello; al suo rifiuto di farlo prima di aver
risolto il problema cui si stava applicando, il soldato lo avrebbe ucciso. Nella seconda
un soldato romano si sarebbe presentato per uccidere Archimede e quest'ultimo lo
avrebbe pregato invano di lasciargli terminare la dimostrazione nella quale era
impegnato. Nella terza, dei soldati avrebbero incontrato Archimede mentre portava a
Marcello alcuni strumenti scientifici, meridiane, sfere e squadre, in una cassetta; i
soldati, pensando che la cassetta contenesse oro, lo avrebbero ucciso per
impadronirsene.
Secondo Tito Livio e Plutarco, Marcello, che avrebbe conosciuto e apprezzato
l'immenso valore del genio di Archimede e forse avrebbe voluto utilizzarlo al servizio
della Repubblica, sarebbe stato profondamente addolorato per la sua morte. Questi
autori raccontano che fece dare onorevole sepoltura allo scienziato. Ciò non è però
riferito da Polibio, che è considerato fonte più autorevole sull'assedio e il saccheggio di
Siracusa. Cicerone racconta di avere scoperto egli stesso la tomba di Archimede grazie
ad una sfera inscritta in un cilindro, che vi sarebbe stata scolpita in ottemperanza alla
volontà dello scienziato.
La fama di Archimede nell'antichità fu affidata più ancora che alle sue opere, che
pochi erano in grado di leggere, al ricordo dei suoi straordinari ritrovati tecnologici.
Archimede, durante la difesa di Siracusa contro l'assedio romano durante la seconda
guerra punica, sempre secondo Polibio, Tito Livio e Plutarco, avrebbe inventato
macchine belliche, tra le quali la manus ferrea, un artiglio meccanico in grado di ribaltare
le imbarcazioni nemiche, e armi da getto da lui perfezionate. Secondo una tradizione
che ha avuto grande fortuna, ma che è attestata solo in autori tardi, avrebbe usato anche
gli specchi ustori, ovvero lamiere metalliche concave che riflettevano la luce solare
concentrandola sui nemici, incendiandone le imbarcazioni.
Moschione, in un'opera di cui Ateneo riporta ampi stralci, descrive una nave
immensa voluta dal re Gerone II e costruita da Archia di Corinto con la supervisione di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
778!
Archimede. L'imbarcazione, che era la più imponente dell'antichità, fu chiamata
Siracusia. Il nome fu poi cambiato in quello di Alessandria quando fu inviata in regalo al
re Tolomeo III d'Egitto assieme ad un carico di grano.
Un manoscritto arabo contiene la descrizione di un orologio ad acqua
particolarmente ingegnoso realizzato da Archimede. Ateneo, Plutarco e Proclo
raccontano che Archimede aveva progettato una macchina con la quale un solo uomo
poteva far muovere una nave completa di equipaggio e carico. Questi racconti
contengono indubbiamente dell'esagerazione, ma il fatto che Archimede avesse
realmente sviluppato la teoria meccanica che permetteva la costruzione di macchine con
elevato vantaggio meccanico assicura che fossero nati da una base reale. Secondo le
testimonianze di Ateneo e Diodoro Siculo egli aveva anche inventato quel meccanismo
per il pompaggio dell'acqua, impiegato per l'irrigazione dei campi coltivati, ancora noto
come vite di Archimede.
Una delle realizzazioni tecniche di Archimede più ammirata nell'antichità fu il
suo planetario. Le migliori informazioni su quest'oggetto sono fornite da Cicerone, il
quale scrive che nell'anno 212 a.C., quando Siracusa fu saccheggiata dalle truppe
romane, il console Marco Claudio Marcello portò a Roma un apparecchio costruito da
Archimede che riproduceva la volta del cielo su una sfera e un altro che prediceva il
moto apparente del sole, della luna e dei pianeti, equivalente quindi a un moderno
planetario.
Nel campo prettamente scientifico, ed in particolare nella geometria, nella
matematica e nella fisica, i risultati di Archimede sono straordinari. Citiamone solo
alcuni.
Nel breve lavoro La misura del cerchio viene dimostrato anzitutto che un cerchio è
equivalente a un triangolo con base eguale alla circonferenza e altezza eguale al raggio.
Tale risultato è ottenuto approssimando arbitrariamente il cerchio, dall'interno e
dall'esterno, con poligoni regolari inscritti e circoscritti. Con lo stesso procedimento
Archimede espone un metodo con il quale può approssimare arbitrariamente il
rapporto tra circonferenza e diametro di un cerchio dato, rapporto che oggi si indica con
!. Le stime esplicitamente ottenute limitano questo valore fra 22/7 (circa 3.1429) e
223/71 (circa 3.1408).
Sull'equilibrio dei piani ovvero: sui centri di gravità dei piani, opera in due volumi, è il
primo trattato di statica a noi pervenuto. Archimede vi enuncia un insieme di postulati
su cui basa la nuova scienza e dimostra la legge della leva. I postulati definiscono anche,
implicitamente, il concetto di baricentro, la cui posizione viene determinata nel caso di
diverse figure geometriche piane.
Ne Sulle spirali, che è tra le sue opere principali, Archimede definisce con un
metodo cinematico ciò che oggi è chiamata spirale di Archimede ed ottiene due risultati
di grande importanza. In primo luogo calcola l'area del primo giro della spirale, con un
metodo che anticipa l'integrazione di Riemann. Riesce poi a calcolare in ogni punto
della curva la direzione della tangente, anticipando metodi che saranno impiegati nella
geometria differenziale.
I principali risultati de Della sfera e del cilindro, opera in due libri, sono la
dimostrazione che la superficie della sfera è quadrupla del suo cerchio massimo e che il
suo volume è i due terzi di quello del cilindro circoscritto. Secondo una tradizione
trasmessa da Plutarco e Cicerone Archimede era così fiero di quest'ultimo risultato che
volle che fosse riprodotto come epitaffio sulla sua tomba.
779!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Con Sui conoidi e sferoidi Archimede definisce ellissoidi, paraboloidi e iperboloidi
di rotazione, ne considera segmenti ottenuti tagliando tali figure con piani e ne calcola i
volumi.
Sui corpi galleggianti è una delle principali opere di Archimede, nella quale viene
fondata la scienza dell'idrostatica. Nel primo dei due volumi dell'opera si enuncia un
postulato dal quale viene dedotto come teorema quello che oggi è impropriamente
chiamato il principio di Archimede. Oltre a calcolare le posizioni di equilibrio statico dei
galleggianti, si dimostra che l'acqua degli oceani, in condizioni di equilibrio, assume
una forma sferica. Sin dall'epoca di Parmenide gli astronomi greci sapevano che la Terra
fosse sferica, ma qui, per la prima volta, questa forma viene dedotta da principi fisici. Il
secondo libro studia la stabilità dell'equilibrio di segmenti di paraboloide galleggianti. Il
problema era stato certamente scelto per l'interesse delle sue applicazioni alla tecnologia
navale, ma la sua soluzione ha anche un grande interesse matematico. Archimede
studia la stabilità al variare di due parametri, un parametro di forma e la densità, e
determina valori di soglia di entrambi i parametri che separano le configurazioni stabili
da quelli instabili. Si tratta di risultati decisamente al di là del confine della matematica
classica.
In Arenario, dedicato a Gelone II, Archimede si propone di quantificare il numero
di granelli di sabbia che potrebbero riempire la sfera delle stelle fisse. Il problema
nasceva dal sistema greco di numerazione, che non permetteva di esprimere numeri
così grandi. L'opera, pur essendo la più semplice dal punto di vista delle tecniche
matematiche tra quelle di Archimede, ha vari motivi di interesse. Innanzitutto vi si
introduce un nuovo sistema numerico, che virtualmente permette di quantificare
numeri comunque grandi. Il contesto astronomico giustifica poi due importanti
digressioni. La prima riferisce la teoria eliocentrica di Aristarco ed è la principale fonte
sull'argomento. La seconda descrive un'accurata misura della grandezza apparente del
Sole, fornendo una rara illustrazione dell'antico metodo sperimentale.
Nel lavoro Il metodo, perduto almeno dal Medioevo, e ritrovato nel 1998, è
possibile penetrare nei procedimenti usati da Archimede nelle sue ricerche.
Rivolgendosi ad Eratostene, spiega di usare due diversi metodi nel suo lavoro. Una
volta individuato il risultato voluto, per dimostrarlo formalmente usava quello che poi
fu chiamato metodo di esaustione, del quale si hanno molti esempi in altre sue opere.
Tale metodo non forniva però una chiave per individuare i risultati. A tale scopo
Archimede si serviva di un "metodo meccanico", basato sulla sua statica e sull'idea di
dividere le figure in un numero infinito di parti infinitesime. Archimede considerava
questo secondo metodo non rigoroso ma, a vantaggio degli altri matematici, fornisce
esempi del suo valore euristico nel trovare aree e volumi; ad esempio, il metodo
meccanico è usato per individuare l'area di un segmento di parabola.
Lo Stomachion è un puzzle greco a cui Archimede dedicò un'opera perduta di cui
restano due frammenti. Recenti analisi hanno permesso di leggerne nuove porzioni, che
chiariscono che Archimede si proponeva di determinare in quanti modi le figure
componenti potevano essere assemblate nella forma di un quadrato. È un difficile
problema nel quale gli aspetti combinatori si intrecciano con quelli geometrici.
Il problema dei buoi è costituito da due manoscritti che presentano un epigramma
nel quale Archimede sfida i matematici alessandrini a calcolare il numero di buoi e
vacche degli Armenti del Sole risolvendo un sistema di otto equazioni lineari con due
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
77:!
condizioni quadratiche. Si tratta di un problema diofanteo espresso in termini semplici,
ma la sua soluzione più piccola è costituita da numeri con 206.545 cifre.
Archimede aveva scritto una Catottrica, ovvero un trattato sulla riflessione della
luce, sulla quale si hanno solo informazioni indirette. Apuleio sostiene che si trattava di
un'opera voluminosa che trattava, tra l'altro, dell'ingrandimento ottenuto con specchi
curvi, di specchi ustori e del fenomeno dell'arcobaleno. Secondo Olimpiodoro il
Giovane vi era studiato anche il fenomeno della rifrazione.
In un'opera perduta sulla quale fornisce informazioni Pappo, Archimede aveva
descritto la costruzione di tredici poliedri semiregolari che ancora sono detti poliedri
archimedea. La formula di Erone, che esprime l'area di un triangolo in funzione dei lati,
secondo la testimonianza di al-Biruni il suo vero autore sarebbe Archimede, che
l'avrebbe esposta in un'altra opera perduta. Un passo di Ipparco trasmesso da Tolomeo
in cui si citano determinazioni dei solstizi compiute da Archimede fa pensare che egli
avesse scritto anche opere di astronomia.
L'opera di Archimede rappresenta certamente il culmine della scienza antica. In
essa, la capacità di individuare insiemi di postulati utili a fondare nuove teorie si
coniuga con la potenza e originalità degli strumenti matematici introdotti, l'interesse
per questioni che oggi si definirebbero "fondazionali" con attenzione agli aspetti
applicativi. Archimede, più che essere matematico, fisico e ingegnere, è stato il massimo
esponente di una scienza che ignorava le divisioni che l'odierna terminologia spinge a
considerare inevitabili.
Archimede, almeno a giudicare dalle opere rimaste, non ebbe nell'antichità eredi
a lui confrontabili. La crisi che colpì la scienza rese poco comprensibili le sue opere che,
non a caso, anche quando si sono conservate sono state trasmesse da una tradizione
manoscritta estremamente esile. Per quello che riguarda la matematica e l'assoluto
disinteresse che ha mostrato la cultura romana per tale disciplina, il Boyer afferma in
modo più che pungente che la scoperta della tomba di Archimede da parte di Cicerone
è stato il maggior contributo dato dal mondo romano alla matematica, e forse l'unico.
Lo studio delle opere di Archimede, che impegnò a lungo gli studiosi della prima
età moderna (ad esempio Francesco Maurolico, Simone Stevino, Galileo Galilei) costituì
un importante stimolo alla rinascita scientifica moderna.
Leonardo
Leonardo da Vinci (Vinci, 15 aprile 1452 – Amboise, 2 maggio 1519) uomo
d'ingegno e talento universale del Rinascimento italiano, incarnò in pieno lo
spirito universalista della sua epoca, portandolo alle maggiori forme di
espressione nei più disparati campi dell'arte e della conoscenza. Fu pittore,
scultore, architetto, ingegnere, anatomista, letterato, musicista e inventore, ed
è considerato uno dei più grandi geni dell'umanità.
Leonardo fu figlio naturale di Caterina e del notaio ser Piero da Vinci, di cui non
è noto il casato; il nonno paterno Antonio, anch'egli notaio, scrisse in un suo registro:
«Nacque un mio nipote, figliolo di ser Piero mio figliolo a dì 15 aprile in sabato a ore 3
di notte [ attuali 22.30 ]. Ebbe nome Lionardo …». Nel registro non è indicato il luogo di
nascita di Leonardo, che si ritiene comunemente essere la casa che la famiglia di ser
78<!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
Piero possedeva, insieme con un podere, ad Anchiano, dove la madre di Leonardo
andrà ad abitare.
Quello stesso anno il padre Piero si sposò con Albiera Amadori, dalla quale non
avrà figli e Leonardo fu allevato molto presto, ma non sappiamo esattamente quando,
nella casa paterna di Vinci, come attestano le note dell'anno 1457 del catasto di Vinci,
ove si riporta che il detto Antonio aveva 85 anni e abitava nel popolo di Santa Croce,
marito di Lucia, di anni 64, e aveva per figli Francesco e Piero, d'anni 30, sposato ad
Albiera, ventunenne, e con loro convivente era «Lionardo figliuolo di detto ser Piero
non legiptimo nato di lui e della Chataria al presente donna d'Achattabriga di Piero del
Vacca da Vinci, d'anni 5».
Nel 1462, a dire del Vasari, il piccolo Leonardo era a Firenze con il padre Piero
che avrebbe mostrato all'amico Andrea del Verrocchio alcuni disegni di tale fattura che
avrebbero convinto il maestro a prendere Leonardo nella sua bottega già frequentata da
futuri artisti del calibro di Botticelli, Ghirlandaio, Perugino; in realtà, l'ingresso di
Leonardo nella bottega del Verrocchio fu posteriore.
La matrigna Albiera morì molto presto e il nonno Antonio morì novantaseienne
nel 1468: negli atti catastali di Vinci Leonardo, che ha 17 anni, risulta essere suo erede
insieme con la nonna Lucia, il padre Piero, la nuova matrigna Francesca Lanfredini, e
gli zii Francesco e Alessandra. L'anno dopo la famiglia del padre, divenuto notaio della
Signoria fiorentina, insieme con quella del fratello Francesco, che era iscritto nell'Arte
della seta, risulta domiciliata in una casa fiorentina, abbattuta già nel Cinquecento,
nell'attuale via dei Gondi. Nel 1469 o 1470 Leonardo fu apprendista nella bottega di
Verrocchio.
Il 5 agosto 1473 Leonardo data la sua prima opera certa, il disegno con una
veduta a volo d'uccello della valle dell'Arno, oggi agli Uffizi.
L'8 aprile 1476 venne presentata una denuncia anonima contro diverse persone,
tra le quali Leonardo, per sodomia consumata verso il diciassettenne Jacopo Saltarelli.
Anche se nella Firenze dell'epoca c'era una certa tolleranza verso l'omosessualità, la
pena prevista in questi casi era severissima, addirittura il rogo. Oltre a Leonardo, tra gli
altri inquisiti vi erano Bartolomeo di Pasquino e soprattutto Leonardo Tornabuoni,
giovane rampollo della potentissima famiglia fiorentina dei Tornabuoni, imparentata
con i Medici. Secondo certi studiosi fu proprio il coinvolgimento di quest'ultimo che
avrebbe giocato a favore degli accusati. Il 7 giugno, l'accusa venne archiviata e gli
imputati furono tutti assolti "cum conditione ut retumburentur", salvo che non vi siano
altre denunce in merito.
Ormai pittore indipendente, il 10 gennaio 1478 ricevette il primo incarico
pubblico, una pala per la cappella di San Bernardo nel palazzo della Signoria. Intanto,
almeno dal 1479 non viveva più nella famiglia del padre Piero, come attesta un
documento del catasto fiorentino.
Fra la primavera e l'estate del 1482 Leonardo si trovava a Milano, una delle poche
città in Europa a superare i centomila abitanti, al centro di una regione popolosa e
produttiva. Egli decise di recarsi a Milano perché si rese conto che le potenti signorie
avevano sempre più bisogno di nuove armi per le guerre interne, e riteneva i suoi
progetti in materia degni di nota da parte del ducato di Milano, già alleato coi Medici. È
a Milano che Leonardo scrisse la cosiddetta lettera d'impiego a Ludovico il Moro,
descrivendo innanzitutto i suoi progetti di apparati militari, di opere idrauliche, di
architettura, e solo alla fine, di pittura e scultura.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
78;!
A Milano Leonardo trascorse il periodo più lungo della sua vita, quasi 20 anni.
Sebbene all'inizio della sua permanenza egli debba aver incontrato diverse difficoltà con
la lingua parlata dal popolo (ai tempi la lingua italiana quale "toscano medio" non
esisteva, tutti parlavano solo il proprio dialetto), gli esperti ritrovano nei suoi scritti
risalenti alla fine di questo periodo addirittura dei "lombardismi".
Del 2 ottobre 1498 è l'atto notarile col quale Ludovico il Moro gli donò una vigna
tra i monasteri di Santa Maria delle Grazie e San Vittore. Nel marzo 1499 si sarebbe
recato a Genova insieme con Ludovico, sul quale si addensava la tempesta della guerra
che egli stesso aveva contribuito a provocare; mentre il Moro era a Innsbruck, cercando
invano di farsi alleato l'imperatore Massimiliano, Luigi XII conquistò Milano il 6 ottobre
1499. Il 14 dicembre Leonardo fece depositare 600 fiorini nello Spedale di Santa Maria
Nuova a Firenze e abbandonò Milano con il matematico Luca Pacioli.
Passato alle dipendenze di Cesare Borgia come architetto e ingegnere, lo seguì
nel 1502 nelle guerre portate da questi in Romagna; in agosto soggiornò a Pavia, e
ispezionò le fortezze lombarde del Borgia. Dal marzo 1503 fu nuovamente a Firenze,
dove iniziò La Gioconda.
Il 9 luglio 1504 morì il padre Piero; Leonardo annotò più volte la circostanza, in
apparente agitazione. Il padre non lo fece erede e, contro i fratelli che gli opponevano
l'illegittimità della sua nascita, Leonardo chiese invano il riconoscimento delle sue
ragioni: dopo la causa giudiziale da lui promossa, solo il 30 aprile 1506 avvenne la
liquidazione dell'eredità di Piero da Vinci, dalla quale Leonardo fu escluso.
Ritornò a Milano nel settembre 1508 abitando nei pressi di San Babila; ottenne
per quasi un anno una provvigione di 390 soldi e 200 franchi dal re di Francia. Il 28
aprile 1509 scrisse di aver risolto il problema della quadratura dell'angolo curvilineo e
l'anno dopo andò a studiare anatomia con Marcantonio della Torre, giovanissimo
professore dell'università di Pavia. Il 24 settembre 1514 partì per Roma ed essendo
intimo amico di Giuliano de' Medici, fratello del papa Leone X, ottenne di alloggiare
negli appartamenti del Belvedere al Vaticano. Non ottenne commissioni pubbliche e se
pure ebbe modo di rivedere Michelangelo, dal quale lo divideva un'antica inimicizia,
attese solo ai suoi studi di meccanica, di ottica e di geometria. A Roma cominciò anche a
lavorare a un vecchio progetto, quello degli specchi ustori che dovevano servire a
convogliare i raggi del sole per riscaldare una cisterna d'acqua, utile alla propulsione
delle macchine. Il progetto però incontrò diverse difficoltà soprattutto perché Leonardo
non andava d'accordo con i suoi lavoranti tedeschi, specialisti in specchi, che erano stati
fatti arrivare apposta dalla Germania. Contemporaneamente erano ripresi i suoi studi di
anatomia, già iniziati a Firenze e Milano, ma questa volta le cose si complicarono: una
lettera anonima, inviata probabilmente per vendetta dai due lavoranti tedeschi, lo
accusò di stregoneria. In assenza della protezione di Giuliano de' Medici e di fronte ad
una situazione fattasi pesante, Leonardo si trovò costretto, ancora una volta, ad
andarsene. Questa volta aveva deciso di lasciare l'Italia. Era anziano, aveva bisogno di
tranquillità e di qualcuno che lo apprezzasse e lo aiutasse.
Il 23 aprile 1519 redasse il testamento davanti al notaio Guglielmo Boreau:
dispose di voler essere sepolto nella chiesa di San Fiorentino. L'uomo che aveva passato
tutta la vita «vago di vedere la gran copia delle varie e strane forme fatte dalla
artifiziosa natura», da lui assimilata a una gran caverna, nella quale, «stupefatto e
ignorante» per la grande oscurità, aveva guardato con «paura e desiderio: paura per la
minacciante e scura spilonca, desiderio per vedere se là entro fusse alcuna miracolosa
78=!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
cosa», moriva il 2 maggio 1519. Il 12 agosto fu inumato nel chiostro della chiesa SaintFlorentin ad Amboise, in Francia. Cinquant'anni dopo, violata la tomba, le sue spoglie
andarono disperse nei disordini delle lotte religiose fra cattolici e ugonotti.
Anche se la pittura è per Leonardo l’arte suprema nella quale raggiunge vette
estreme, è del suo contributo alla scienza che ci vogliamo occupare.
Alla base della visione della scienza, per Leonardo, vi è l’esperienza diretta della
natura e l’osservazione dei fenomeni: «molto maggiore e più degna cosa a leggere» non
è allegare l'autorità di autori di libri ma allegare l'esperienza, che è la maestra di quegli
autori. Coloro che argomentano citando l'autorità di altri scrittori vanno gonfi «e
pomposi, vestiti e ornati, non delle loro, ma delle altrui fatiche; e le mie a me medesimo
non concedano; e se me inventore disprezzeranno, quanto maggiormente loro, non
inventori, ma trombetti e recitatori delle altrui opere, potranno essere biasimati». Se
l'esperienza fa conoscere la realtà delle cose, non dà però ancora la necessità razionale
dei fenomeni, la legge che è nascosta nelle manifestazioni delle cose: «la natura è
costretta dalla ragione della sua legge, che in lei infusamene vive» e «nessuno effetto è
in natura sanza ragione; intendi la ragione e non ti bisogna sperienza», nel senso che
una volta che si sia compresa la legge che regola quel fenomeno, non occorre più
ripeterne l'osservazione; l'intima verità del fenomeno è raggiunta.
Le leggi che regolano la natura si esprimono mediante la matematica: «Nissuna
umana investigazione si può dimandare vera scienza, s'essa non passa per le
matematiche dimostrazioni», restando fermo il principio per il quale «se tu dirai che le
scienze, che principiano e finiscano nella mente, abbiano verità, questo non si concede,
ma si niega, per molte ragioni; e prima, che in tali discorsi mentali non accade
sperienza, senza la quale nulla dà di sé certezza».
Il rifiuto della metafisica non poteva essere espresso in modo più netto. Anche la
sua concezione dell'anima consegue dall'approccio naturalistico delle sue ricerche: «E se
noi dubitiamo della certezza di ciascuna cosa che passa per i sensi, quanto
maggiormente dobbiamo noi dubitare delle cose ribelli ad essi sensi, come dell'essenza
di Dio e dell'anima e simili, per le quali sempre si disputa e contende. E veramente
accade che sempre dove manca la ragione suppliscono le grida, la qual cosa non accade
nelle cose certe».
Riconosce validità allo studio dell'alchimia, considerata non già un'arte magica
ma «ministratrice de' semplici prodotti della natura, il quale uffizio fatto esser non può
da essa natura, perché in lei non è strumenti organici, colli quali essa possa operare quel
che adopera l'omo mediante le mani», ossia scienza dalla quale l'uomo, partendo dagli
elementi semplici della natura, ne ricava dei composti, come un moderno chimico. È
invece aspramente censore della magia.
Leonardo si rivela un vero precursore, non solo nella pittura, ma anche in altri
campi, come nella geologia. È stato tra i primi, infatti, a capire che cos'erano i fossili, e
perché si trovavano fossili marini in cima alle montagne. Contrariamente a quanto si
riteneva fino a quel tempo, cioè che si trattasse della prova del diluvio universale,
l'evento biblico che avrebbe sommerso tutta la terra, monti compresi, Leonardo
immaginò la circolazione delle masse d'acqua sulla terra, alla stregua della circolazione
sanguigna, con un lento ma continuo ricambio, arrivando quindi alla conclusione che i
luoghi in cui affioravano i fossili, un tempo dovevano essere stati dei fondali marini.
Anche se con ragionamenti molto originali, la conclusione di Leonardo era
sorprendentemente esatta.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
784!
Il contributo di Leonardo a quasi tutte le discipline scientifiche, fu decisivo:
anche in astronomia ebbe intuizioni fondamentali, come sul calore del Sole, sullo
scintillio delle stelle, sulla Terra, sulla Luna, sulla centralità del Sole, che ancora per
tanti anni avrebbe suscitato contrasti ed opposizioni. Ma nei suoi scritti si trovano anche
esempi che mostrano la sua capacità di rendere in modo folgorante certi concetti
difficili; a quel tempo si era ben lontani dall'aver capito le leggi di gravitazione, ma
Leonardo già paragonava i pianeti a calamite che si attraggono vicendevolmente,
spiegando così molto bene il concetto di attrazione gravitazionale. In un altro suo
scritto, sempre su questo argomento, fece ricorso ad un'immagine veramente
suggestiva; dice Leonardo: immaginiamo di fare un buco nella terra, un buco che
l'attraversi da parte a parte passando per il centro, una specie di "pozzo senza fine"; se si
lancia un sasso in questo pozzo, il sasso oltrepasserebbe il centro della terra,
continuando per la sua strada risalendo dall'altra parte, poi tornerebbe indietro e dopo
aver superato nuovamente il centro, risalirebbe da questa parte. Questo avanti e
indietro durerebbe per molti anni, prima che il sasso si fermi definitivamente al centro
della Terra. Se questo spazio fosse vuoto, cioè totalmente privo d'aria, si tratterebbe, in
teoria, di un possibile, apparente, modello di moto perpetuo, la cui possibilità, del resto,
Leonardo nega, scrivendo che «nessuna cosa insensibile si moverà per sé, onde,
movendosi, fia mossa da disequale peso; e cessato il desiderio del primo motore, subito
cesserà il secondo».
Osservò anche l'eccentricità nel diametro dei tronchi, dovuta al maggior
accrescimento della parte in ombra. Soprattutto scoprì per primo il fenomeno della
risalita dell'acqua dalle radici ai tronchi per capillarità, anticipando il concetto di linfa
ascendente e discendente. Avendo studiato idraulica, Leonardo sapeva che per far salire
l'acqua bisognava compiere un lavoro, quindi anche nelle piante in cui l'acqua risale
attraverso le radici doveva compiersi una sorta di lavoro. Per comprendere il fenomeno,
quindi, tolse la terra mettendo la pianta direttamente in acqua, osservando che la pianta
riusciva a crescere, anche se più lentamente.
Si può trarre un conclusivo giudizio sulla posizione che spetti a Leonardo nella
storia della scienza dicendo che è vero che attinge dai Greci, dagli Arabi, da Giordano
Nemorario, da Biagio da Parma, da Alberto di Sassonia, da Buridano, dai dottori di
Oxford, ma attinge idee più o meno discutibili. È sua e nuova, invece, la curiosità per
ogni fenomeno naturale e la capacità di vedere a occhio nudo ciò che a stento si vede
con l'aiuto degli strumenti. Per questo suo spirito di osservazione potente ed esclusivo,
egli si differenzia dai predecessori ed anticipa, per qualche aspetto nel suo metodo
d’indagine, Galileo. I suoi scritti sono essenzialmente non ordinati e tentando di tradurli
in trattati della più pura scienza moderna, si snaturano, a differenza del rigore
scientifico di Galileo. Leonardo non è Galileo, non è uno scienziato-filosofo, ma
sicuramente è un grande curioso della natura. Dove Galileo scriverebbe un trattato,
Leonardo scrive cento aforismi o cento notazioni dal vero; guarda e nota senza
preoccuparsi troppo delle teorie e molte volte registra il fatto senza nemmeno tentare di
spiegarlo.
Nel campo delle invenzioni, Leonardo anticipa i secoli della modernità. Nel 1486
aveva espresso la sua fede nella possibilità del volo umano ed individua nel paracadute
il mezzo più semplice di volo. Dall'analogia col peso e l'apertura alare degli uccelli,
cerca di stabilire l'apertura alare che la macchina dovrebbe avere e quale forza dovrebbe
essere impiegata per muoverla e sostenerla.
785!
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!
I suoi appunti contengono numerose invenzioni in campo militare: gli scorpioni,
una macchina «la quale po' trarre sassi, dardi, sagitte» che può anche distruggere la
macchine nemiche; i cortaldi, cannoncini da usare contro le navi; le serpentine, adatte
contro le «galee sottili, per poter offendere il nimico di lontano. Vole gittare 4 libre di
piombo»; le zepate, zattere per incendiare