1
1 - Il travagliato parto della fisica moderna
1.1 – La realtà non è più quella di una volta
Verso la fine del XIX secolo, i fisici vivevano felici e
tranquilli in una sorta di “sazietà intellettuale”,
osservando
scaffali
ormai
stracolmi
di
scienza
galilaeana che “sembrava” perfettamente funzionante.
Spazio e tempo con dentro non solo la materia
dell’Universo annidata nell’etere cosmico ma, anche, i
campi, gravitazionale ed elettromagnetico, che in
quell’etere si propagavano come “cause” vaganti di
“effetti” che la materia subiva. La meccanica analitica
esibiva una tale perfezione assiomatico-deduttiva
(quasi fosse pura matematica) che non si sarebbe
2
potuto chiedere di più: era il determinismo predittivo
(cioè capace di calcolare gli esiti di qualunque azione
sui corpi intorno a noi, dunque il futuro del mondo) a
rendere felice chi capiva quel mondo. Gravitazione e
elettromagnetismo si somigliavano molto: campi a
raggio d’azione infinito cioè sensibili a distanze
comunque grandi, non fosse che di manifestazioni
della gravitazione ce ne era una sola, l’attrazione fra e
verso oggetti astronomici, dovuta alla proprietà che i
corpi hanno per essere tali, quella generica presenza di
“quantità di materia” che, da Isaac Newton (1642,1727)
in poi si denoterà con la misteriosa parola “massa”, sia
come sorgente di azioni gravitazionali sia come causa
della resistenza offerta a una accelerazione impressa.
Mentre campo elettrico e campo magnetico, scoperti
un po’ per volta e in fenomeni apparentemente diversi,
erano stati genialmente unificati da James Clerk
Maxwell (1831,1879)
in un solo campo, perciò
“elettromagnetico”, che si manifestava anche con
3
relative onde che promettevano tecnologie utili a iosa
(trasmissione di segnali a distanza) : del resto, era già
chiaro che la percezione umana della presenza dei
corpi materiali era tutta dovuta alle sorgenti di questo
campo più che alla azione gravitazionale (il peso,
determinato dall’attrazione gravitazionale del corpo
enorme su cui poggiamo i piedi, la Terra) della massa.
La percezione umana degli altri oggetti era però il
prodigio generato dalla presenza, nello spazio, delle
“cariche elettriche”, entità indistruttibili che potevano
addensarsi
movimento,
in grumi spaziali o in correnti in
con
risultati
diversi
(modello
idrodinamico delle sorgenti elettromagnetiche).
Pure, la matematica dei fisici-matematici ottocenteschi
era riuscita a creare un linguaggio adattabile alla realtà,
molto più controllabile del linguaggio comune pieno di
metafore fuorvianti. A grandezze molto intuitive e
comuni come quelle utili a precisare la posizione
relativa di due punti, P e P’ nello spazio, si era associato
4
un simbolo detto espressivamente vettore che oltre a
misurare la distanza tra P e P’ indicava in che direzione
muoversi e in che verso procedere per andare da P a P’.
Un vettore non era più un simbolo con un semplice
possibile valore numerico, ma un simbolo contenente
tre informazioni indipendenti (modulo, direzione e
verso) e perciò indicato con una lettera sormontata da
una freccina:
v,
oppure, per semplicità tipografica, all’uso anglosassone.
in “grassetto corsivo”: v
La velocità di un punto materiale è evidentemete
rappresentabile come un vettore associato a quel punto
e variabile istante per istante: ma anche il campo
elettrico e il campo magnetico sono vettori: E ed H.
Quando si vogliono rappresentare tutte le velocità che
potrebbe assumere un corpo in movimento si dice che
si parla di in campo velocità; e così per i campi E ed
H
5
prodotti da sorgenti (cariche elettriche o correnti di
cariche).
Questi due campi sembravano avere una parentela
stretta; ma solo Maxwell ebbe il coraggio di anticipare
che potessero essere le manifestazioni diverse di un
unico campo.
L’unificazione, la prima della storia, era stata poi
esplicitata in una prodigiosa matematica: il calcolo
tensoriale
di
Hermann
Minkowski
(1864,
1909)
(Heidemann (1972)), che rappresentava “a vista” tutte
le proprietà dei campi e delle sorgenti, da quelle dette
di invarianza a quelle dette di conservazione. Questo
calcolo tensoriale era nato come la matematica adatta a
rappresentare la fisica dei cristalli, le azioni e
deformazioni
su
oggetti
cristallini
portatori
di
regolarità geometriche evidenziabili nell’aspetto di loro
frammenti, Nacque ad opera di Woldemar Voigt
(Lipsia 1850 - Gottinga 1919), come generalizzazione del
calcolo vettoriale. Il problema confluì con un altro che
6
riguardava la “geometria degli spazi”, immaginato da
Bernhard Riemann (1826, 1866) nell’intento di dare
f0rma generale al trattamento degli spostamenti su
superfici (“spazi”) curve in un numero qualsiasi di
dimensioni (pensate agli spostamenti su una sfera, che
dipendono in modo non banale dal raggio e dalle
coordinate dette paralleli e meridiani). Hermann
Minkowski coronò la sua opera fabbricando una
matematica dei tensori che generalizzava quella dei
vettori:
regole
di
moltiplicazione,
regole
di
trasformazione, con particolare riguardo al problema
dell’invarianza rispetto a speciali trasformazioni. Cioè
della ricerca di trasormazioni rispetto alle quali una
grandezza costruita con quei tensori resta invariata
(come succede già ai vettori per la loro lunghezza modulo -
quando si esegue una traformazione che
rappresenta una rotazione rigida delle coordinate del
sistema di riferimento).
7
Russell McCormack scrisse (più tardi) un libro che
carpiva i pensieri sotto sforzo con questo titolo: Incubi
notturni
di
un
fisico
classico,
perché
alcuni
spregiudicati avevano rotto l’ordine raggiunto con la
relatività (per lo spazio-tempo) e con le anomalie del
corpo nero (per la termodinamica della radiazione). I
leaders degli “scontenti” dello “status quo ante” si
chiamavano Albert Einstein (1879, 1955) , e Max Planck
(1858,1947); e siamo al cambiamento di secolo dal XIX
al XX.
Ma il panico serpeggiante nelle accademie era generato
soprattutto dalla necessità di abbandonare alcune
percezioni radicate nella realtà di tutti i giorni che,
ancora oggi, infestano il pensiero dei non-scienziati.
Davvero è possibile che lo spazio sia vuoto e che le
onde, prese in prestito per imitazione da quelle del
mare o da quelle sonore, non abbiano bisogno di
scuotere un etere materiale per farlo vibrare e viaggino
8
in quello spazio “vuoto” (nel “nulla”) che faceva
inorridire Aristotele?
Il più grosso cambiamento nel modo di
“capire” le nuove teorie della fisica veniva da qualcosa
che Galilei aveva già anticipato (con la “relatività
galilaeana”) prima che Newton e Gottfried Wilhelm
Leibniz (Lipsia, 1º luglio 1646 – Hannover, 14 novembre
1716) non meno di lui introducessero quel “calcolo
infinitesimale” che permetteva di eseguire calcoli
predittivi con le”equazioni del moto”. Nel XIX secolo
era nata , ad opera di Felix Klein (Düsseldorf 1849 Gottinga 1925) e Sophus Lie (Nordfjordeid, 17 dicembre
1842 – Oslo, 18 febbraio 1899) una teoria dei gruppi di
trasformazioni che permetteva di prescrivere proprietà
generali delle teorie fisiche stesse per ogni tipo di
fenomeno che utilizzasse per esempio, una certa
rappresentazione dello spazio e del tempo. Dal fatto,
per esempio, che lo spazio e il tempo fossero omogenei
e
uniformi
si
ricavavano
importanti
leggi
di
9
conservazione (energia, quantità di moto, momento
angolare) per ogni sistema fisico isolato immerso in
quello spazio-tempo. Risultati generali al riguardo li
otterrà Amalia Emmy Noether (Erlangen, 23 marzo
1882 –
Bryn Mawr,
14 aprile 1935)
nel 1925.
(Bonolis,2010). Per completare l’elenco sommario
dobbiamo solo ricordare che più tardi, nel secondo
decennio del ‘900, due matematici italiani, Gregorio
Ricci Curbastro (Lugo 1853 - Bologna 1925) e Tullio Levi
Civita (Padova 1873 - Roma 1941) fornirono a Einstein
quel “calcolo differenziale assoluto che completava il
calcolo tensoriale indispensabile alla costruzione della
Relatività Generale come teoria
dello spazio tempo
appropriata alla gravitazione. La cosa era assai malvista
anche tra i matematici che avevano preso tutt’altra
strada rifiutando i tensori (senza alcun successo; cf.
Boggio, 1924).
In questo clima di radicale mutamento
del modo di “fare teoria” in fisica – che è già molto
10
complesso in fatto di significati di linguaggi simbolici –
si aggiungono, come già menzionato citando i nomi di
Einstein e Planck, la relatività speciale e il corpo nero.
Siamo al 1905, annus mirabilis, come poi lo si chiamerà.
Einstein si chiede se è vero che la luce ha a che fare con
l’etere cosmico e poi sostiene che l’etere è inutile e non
esiste affatto e che il vuoto è vuoto e basta. Se le
equazioni del moto dei corpi materiali soddisfano
all’invarianza di Galilei (relatività galilaeana) che vuole
che la velocità sia un concetto relativo (un corpo
materiale si muove solo rispetto a qualcos’altro e non
esiste una velocità assoluta nello spazio vuoto), le
equazioni di Maxwell per i campi elettromagnetici
sembrano soddisfare un diverso principio, sono
invarianti rispetto a trasformazioni dello spazio e del
tempo che si chiameranno “di Lorentz” (in onore del
grande
olandese Hendrick Antoon Lorentz (1853,
1928), che esplicitò la formula generale delle forze
elettromagnetiche su una carica puntiforme in moto in
11
un campo) . Le traformazioni di Lorentz si riducono a
quelle di Galilei per velocità dei corpi piccole rispetto a
quella della luce (c  3.108 m/s). Ma per grandi velocità
cambia la nozione elementare di velocità e la
“composizione” della velocità di un corpo con quella di
un osservatore in moto non è come ce la immaginiamo
camminando sui tapis roulant: Addirittura, la velocità
della luce resta c per qualunque osservatore e per
qualunque sorgente, fermi o in moto che siano. Su
questa strada, è il tempo stesso che cambia proprietà:
due eventi simultanei se osservati in un sistema di
riferimento non lo sono più se li osserviamo da un
riferimenro in moto. Nessun corpo materiale può
raggiungere velocità superiori a c. Bisogna aggiornare
la meccanica di Newton perché sia invariante rispetto
alle reasformazioni di Lorentz. E qui viene il colpo di
scena che Einstein stesso non si aspettava: la nuova
meccanica contiene in sé il risultato che un corpo di
12
massa M, anche da fermo, possiede una energia “di
riposo”
E = Mc2
Questa è forse, oggi, la formula più famosa (e meno
capìta) del mondo: l’ equivalenza massa-energia.
1.2 – Problemi con le onde elettromagnetiche.
La
teoria
di
Maxwell
delle
onde
elettromagnetiche è già di per sé invariante rispetto
alle trasformazion di Lorentz; ci mancherebbe che non
lo fosse! Allora, si salva? Il fatto è che, come Maxwell
già ben sapeva, anche le radiazioni elettomagnetiche
possiedono e portano in giro energia. Il nosto Sole
docet: oggi “energia solare” è un luogo comune; ma
anche i forni, i camini, i fiammiferi ecc. Viene una
legittima curiosità: che relazione c’è tra la temperatura
della sorgente e l’energia delle radiazioni emesse. Qui
incontriamo un esercito di giganti della fisica: Josef
13
Stefan (1835, 1893) e Ludwig Boltzmann (1844, 1906),
Wilhelm Wien (1864,1928), Otto Richard Lummer
(1860, 1924), Ernest Pringsheim (1859, 1917).
L’idea astuta, come si suol dire, fu quella
di ideare un campione riproducibile che consistesse in
una superficie che emette o assorbe luce senza
rifletterla nello spazio. Quei grandi ricercatori, adusi a
raffinatssime tecniche sperimentali (spettoscopia),
conclusero che un piccolo foro in una scatola peraltro
chiusa aveva la proprietà di assorbire tutta la
radiazione proveniente dall’esterno che lo colpisse e dopo avere vagato nella scatola e scambiato energia
con le pareti interne - avrebbe avuto probabilità piccola
a piacere di riuscirne. Quel poco che ne fosse tornata
nello spazio esterno sarebbe perciò stata “radiazione di
un corpo nero”, con una distribuzione di lunghezze
d’onda della radiazione determinata dalla temperatura,
facilmente misurabile, della scatola. Pensate a un firno
di un metrocubo con iun forellino da un centimetro
14
quadro. Stefan trovò che l’intensità totale emessa è
proporzionale alla quarta potenza della temperatura
assoluta T (Kelvin, pari alla Celsius + 273o )
I = T4
dove  è, appunto, la “costante di Stefan- Boltzmann”
perché Ludwig Boltzmann arrivò al risultato anche per
via teorica. Wien ebbe un gran ruolo (da cui il Nobel
nel 1911) nel capire che la distribuzione delle lunghezze
d’onda della radiazione di corpo nero misurata da
Lummer e Pringsheim aveva un massimo a una
lunghezza d’onda inversamente proporzionale alla
temperatura assoluta T:
max T = costante
per cui T prese la denominazione di “temperatura di
colore”, permettendo, per esempio, di giudicare dal
valore di max la temperatura superficiale delle stelle
lontane.
I risultati sperimentali sembravano tutti compatibili tra
loro e con le proprietà generali prescritte da Wien per
15
la compatibilità con la nozione di termodinamica
all’equilibrio tra corpi caldi dell’epoca. Ma la teoria
spingeva inesorabilmene a prevedere che al diminuire
della lunghezza d’onda (ovvero all’aumentare della
frequenza, perché il prodotto della frequenza f per la
lubghezza d’onda  delle radiazioni elettromagnetiche
nel buoto è pari alla velocità della luce: f = c) l’energia
della radiazione diventasse infinita: da cui il modo di
dire “catastrofe ultravioletta”. Wien mostrò che un
riduzione dell’energia emessa a grandi frequenze con
una legge esponenziale con esponente proporzionale al
rapporto frequenza/temperatura non era incompatibile
con la termodinamica. MaxPlanck partì da qui per
scrivere la sua legge della distribuzione dell’energia del
corpo nero. Ma per questo, bisognava che l’energia di
un raggio luminoso fosse proporzionale all sua
frequenza f e non alla ampiezza dll’onda. Il che
spingeva a pensare che la radiazione fosse sbriciolata in
una sorta di “aghi elettomagnetici” come li chiamò
16
Einstein; “quanti”, come li chiamò Planck. La storia
cambiò buscamente corso: non bastava la relatività.
Ora anche la quantizzazione della radiazione, con i
suoi peculiarissimi costituenti che di lì a poco si
sarebbero chiamati fotoni, come se fossero particelle. E
tali in effetti sembravano con le osservazioni di
Einstein sui dati dell’effetto fotoelettrico già raccolti
dai difensori razzisti della “fisica ariana” (ma questa è
una storia a parte). Che si comportassero esattamete
come particelle, questi fotoni, lo dimostrò, molti anni
dopo, con l’ “effetto Compton”, Arthur Holly Compton,
(1892, 1962). Una radiazione elettromagnetica, di una
certa intensità misurata dall’ampiezza dell’onda, era in
realtà una moltitudine di fotoni di cui l’intensità
nisurava il nimero; e la freqienza determinava l’energia
In un urto fotone-elettrone i due si scambiano energia
e quantità di moto come compete a due vere particelle
relativistiche di cui una addirittura di massa nulla (il
fotone) e l’altra di massa pari a quella di un costituente
17
della materia, l’elettrone. Massa - a quel punto della
storia - ormai ben nota (vedremo tra poco i valori
misurati e le unità di misura appropriate). E’ l’effetto
Compton a rivelare che la radiazione elettromagnetica,
incontrando una carica elettrica vagante, non si
comporta come un’onda che può essere assorbita
mettendo una carica in vibrazione sulla stessa
frequenza, ma come un flusso di corpuscoli che
possono essere deflessi da quella carica dal loro
percorso
rispettando
le
leggi
di
conservazione
dell’energia e della quantità di moto (“impulso”, di qui
in poi, secondo il gergo invalso); il che corrisponde a
una diminuzione di frequenza di ciascun fotone
diffuso. Ma le difficili misure di Compton, a cui si deve
la vera nascita del fotone, arrivano solo nel 1923, anche
se le congetture di Planck e Einstein risalivano a molti
anni prima (corpo nero ed effetto fotoelettrico). Ormai,
si può ben dire che una nuova e misteriosa costante,
detta “costante di Planck” e indicata di lì in poi con h, è
18
entrata
nella
fisica
arreaverso
la
relazione
“fotoelettrica” tra energia E e frequenza dei fotoni: E
=hf.
Siamo agli albori di una scienza nuova che
metterà
insieme
relatività
e
quantizzazione:
l’elettrodinamica quantistica (QED = Quantum Electro
Dynamics per gli anglosassoni). Già Maxwell sembrava
un prodigio, ma ora… Sta accadendo qualcosa di
veramente sconvolgente rispetto alle percezioni dei
nostri sensi: la radiazione elettromagnetica un po’ si
comporta come onde, come aveva capito Maxwell, un
po’ come cospuscoli, come avevano capito Einstein e
Compton. Corpuscoli che più relativistici non si può; di
massa nulla, che viaggiano tutti alla velocità della luce
c. Inaudito! Ma non finisce qui: nei vecchi laboratori
ottocenteschi fior di tecnici aiutano i loro capi
accademici a tirar fuori risultati sorprendenti dalle cose
che da sempre abbiamo sotto gli occhi. Già nel 1887,
l’nglese J.J.Thomson (1856, 1940) congettura la natura
corpuscolare dei raggi catodici : quei raggi emessi da
19
un catodo, un filamento incandescente di polarità
elettrica opportuna (appunto, catodo) messi in moto
da un campo elettrico, oggi diremmo come in un
comune vecchio televisore: finendo su uno schermo
fluorescente, marcano il punto di arrivo con un
puntino luminoso. Si può far muovere il puntino a
piacimento usando campi elettrici o magnetici esterni
al tubo a vuoto in cui la particella si muove senza
ostacoli.
Nel 1895, W.C. Roentgen (1845, 1923) scopre i raggi X e
la loro capacità di attraversare spessori di materiali
leggeri.
Nel 1896 A.H.Becquerel (1852, 1908), studioso della
fosforescenza, scopre, per caso, la radioattività di
minerali d’Uranio lasciati in un cassetto su lastre
fotografiche vergini.
Nel 1899
J.J. Thomson scopre che sono corpuscoli
carichi che costituiscono i raggi catodici : il rapporto
20
carica/massa è enorme rispetto a quello degli elettroliti
positivi, di segno opposto. Verranno chiamati elettroni.
Nel 1900 avvengono le prime determinazioni di vite
medie dei decadimenti casuali degli atomi radioattivi:
gli
atomi
emettendo
sembrano
raggi
trasmutare
rivelabili
di
spontaneamente
diverso
tipo,
comunemente classificati come , , e  (vedremo in
cosa differiscono).
Nel 1911, E. Rutherford (1871, 1937) propone il
modello nucleare detto planetario degli atomi :
particelle
di
carica
elettrica
positiva
(ioni
corrispondenti ai nuclei) attorno alle quali gli elettroni
si dispongono su orbite come i pianeti attorno al Sole.
Il 1912 è l’anno della rivelazione dei raggi cosmici
nell’alta atmosfera (sono tracce di particelle cariche
veloci)
Nei 1913, il raffinamento delle misure ottiche permette
di collezionare dati precisissimi sulla presenza, nella
luce emessa dagli elementi chimici, cioè dai cosiddetti
21
“spettri” atomici, di peculiari “righe” caratteristiche di
quell’elemento. Radiazioni corrispondenti a quelle
stesse “righe” saranno assorbite completamente se
presenti nella luce bianca che attraversi quell’elemento
lasciando
spazi
neri
(righe
di
assorbimento).
Coincidenze numeriche impressionanti portano alla
rideterminazione della costante h di Planck, un
parametro fondamentale e universale che dominerà la
fisica microscopica.
Nel 1914 si otterrà la prima misura della distribuzione
delle energie dei raggi beta (elettroni) del decadimento
radioattivo. Suscita una certa meraviglia il fatto che gli
elettroni du decadimento non siano tutti della stessa
energia; così infatti avrebbe dovuto essere, per le leggi
di conservazione, se il nucleo originario si fosse
disintegrato in un nucleo residuo più un elettrone,
entambi ben identificabili. Ma l’elettrone emesso
assumeva invece tutte le possibili energie fino a quella
attesa nel decadimento in due soli corpi. Con la
22
spregiudicatezza latente di quei tempi, si arrivò a
pensare che la conservazione dell’energia potesse
essere solo statisticamente vera!
Il cauto conservatorismo dei fisici ora si scatena in
pieno: salvare il salvabile aggiungendo nuove “regole
d’uso”: ogni interpretazione plausibile sarebbe stata
una grande scoperta. L’atomo di Niels Bohr e Arnold
Sommerfeld ne è una delle prove, ma non la sola.
L’idea di base è che una grandezza meccanica ben nota
ai fisici matematici (ma poco usata nella pratica
comune), l’azione, sia “discreta”: solo multipla della
costante di Planck h apparsa nello spettro del corpo
nero. La presenza di h sarà da lì in poi il “marchio di
fabbrica” della niova fisica, la fisica “quantistica”: se un
risultato teorico contiene h, inutile tentare di ottenerlo
anche con la fisica classica. Si capisce anche che
l’energia (da cui l’azione dipende) venga emessa o
assotbita dagli atomi per salti (i “salti quantici”) da un
valore dell’azione a un altro . Le azioni che
23
determinano i valori (momento angolare, energia,
p.es.) delle grandezze conservate in un sistema fisico
isolato (p.es. un atomo) definiscono lo “stato” in cui il
sistema si trova nel suo centro di massa. Un grande
successo viene dalla ricostruzione della “formula di
Balmer” (Johann, 1885, un insegnante svizzero) che
descrive alcune righe
dello spettro dell’idrogeno atomico con estrema
accuratezza. Le frequenze delle righe di Balmer si
ordinano nello spettro dell’idrogeno atomico come
differenze (“salti quantici”) di valori determinati da una
costante per l’inverso del quadrato di un numero
intero; e possono essere lette, a questo unto come
energie accessibili a elettroni atomici divise per la
costante h di Planck. L’aspetto più sonvolgente della
meccanica così ricostruita è che gli elettroni che girano
attorno al nucleo, lungi dal perdere energia con
continuità sino a piombare sul nucleo (come farebbero,
24
nella teoria di Maxwell, girando su orbite circolari in
un campo elettrico o magnetico o oscillando in una
antenna), girano senza irraggiare e formano stati stabili
(tra cui si distingue uno “stato fondamentale” , di più
bassa energia) e altri stati di più alta energia che
possono decadere nel fondamentale emettendo un
fotone di frequenza ben definita che si manifesterà in
una “riga spettrale”.Voila: ecco che tutti i fisici si
buttano a corpo morto sulla spettroscopia, la scienza
degli anni ’20.
C’è una prima particella elementare sicura: l’elettrone;
di lì a poco sarà raggiunto dal fotone che Einstein aveva
già in pectore dal 1905, con l’effetto fotoelettrico, ma si
manifesterà come una vera particella solo con l’ “effetto
Compton” (Arthur Holly, 1892, 1962), cioè in un urto
fotone-elettrone – come abbiamo già detto poche
pagine fa - in cui i due si scambiano energia e quantità
di moto come compete a due vere particelle
25
relativistiche di cui una di massa nulla (il fotone) e
l’altra di massa pari a quella di un elettrone.
E’ intorno a queste acquisizioni che scoppia il caso
della “ambiguità della natura”. Le entità microscopiche
si comportano a volte come corpuscoli a volte come
onde: è il “dualismo onda - corpuscolo”. Nessuno nega
che i fotoni producano figure di interferenza come
tutte le onde che si rispettino; né che gli elettroni
scambino energia e impulso con le altre particelle che
urtano. Ma la sorpresa, fu che se uno predispone un
rivelatore di onde vede onde; se predispone un
rivelatore
di
corpuscoli
vede
corpuscoli.
Come
Compton per i fotoni, Clinton Davisson (1881,1958) e
Lester Germer (1896, 1971) spararono per caso elettroni
contro un cristallo
uscenti
formavano
e videro che da lì le particelle
una
“figura
di
diffrazione”,
esattamente come un’onda che intercetta un cristallo o
una fenditura. Tra le prime reazioni, il conservatorismo
spinto portò a dire che le conoscenze teoriche erano
26
incomplete nel senso che non tutte le variabili erano
state identificate e prese in considerazione (“variabili
nascoste”). Einstein ci mise il suo peso e disse la famosa
frase “Dio non gioca a dadi”, che alimentò il
disorientamento derivante dalla perdita “di principio”
del determinismo. Siamo ormai all’anno 1925.
1.3 – Idee e scoperte.
I “fisici teorici” non sono semplicemente dei fisici che
sanno la matematica dei matematici; sono fisici che
sanno fare modelli calcolabili del comportamento di
un sistema osservabile del quale hanno identificato le
variabili che contano ed eliminato quelle che non
contano nulla: nel moto di una palla da tennis, il colore
della palla non conta nulla, il vettore velocità impressa
nel colpo è importantissimo. Dunque, i fisici teorici
27
sono manipolatori di simulacri dei sistemi reali ripuliti
del superfluo al fine di sapere come si comportano.
Questo porta al confronto sperimentale tra ciò che fa il
sistema reale e ciò che fa il simulacro: ora, se il sistema
reale si comporta a volte come onda a volte come
corpuscolo, l’ambiguità e il disorientamento sono
totali. La nozione di punto materiale con le sue precise
coordinate di posizione e la sua precisa velocità in quel
punto diventa molto problematica e genererà di lì a
poco, un “principio di indeterminaziome”. Proprio così
stavano le cose nel 1925! Giancarlo Wick (1909,1992),
uno dei grandi fisici teorici italiani, professore a
Padova, nel 1940 scrisse un breve saggio dal titolo
L’idea di probabilità nella fisica dei quanti (Wick, 1940) .
Nel saggio, si legge: “Possiamo dire che l’assurdo
28
descritto non viene di fatto presentato dalla Natura ma
dal nostro modo imperfetto di collegare tra loro
esperienze di natura diversa.” Una tale affermazione
richiedeva, ancora all’epoca, un notevole coraggio
intellettuale supportato da una cultura ancora in
ebollizione. Enrico Persico scriverà, per ridere al suo
modo arcaico e dotto dei “cannibali” che sarebbero i
conervatori a oltranza, per gli amici della scuola di
Roma che accettano le nuove idee:
Al di là dell’Appennino
Padre Enrico giunto è
Ed insegna altrui il cammino
Sulla strada della fè.
Incomincia la lezione
Col precetto elementare
Che è cattiva educazione
Carne umana divorare,
Narra poscia ch’oltre i monti
Vivon popoli fedel
Che del ver le sacre fonti
29
Ricevuto hanno dal Ciel:
Essi han d’h il sacro culto
Han nei quanti piena fè
E per loro è grave insulto
Dir che l’atomo non c’è.
Sono pur bestemmie orrende
Il negar che c’è la psi
Che valor non nullo prende
q x p
che dell’orbite ai momenti
s’addizionano gli spin
e elettroni equivalenti
son dettati dal destin.
Credon poi con fè profonda
Cui s’inchina la ragion
Che la luce è corpo ed onda
Onda e corpo è l’elettron.
Sono questi i dogmi santi
Ch’egli insegna agli infedel
Con esempi edificanti
Appoggiandosi al Vangel.
Padre Enrico (Persico) nella gerarchia ecclesiastica di via Panisperna era stato
designato come Cardinale di Propaganda Fide, dopo Fermi, il Papa (infallibile) e
Rasetti (il Cardinal Vicario). Il Vangelo era la “Fisica atomica” pubblicata da
Persico per Zanichelli. Il capo dei cannibali, ostinato difensore della fisica
classica, era l’ottico fiorentino Vasco Ronchi, peraltro scienziato coltissimo.
La psi di cui parla è la funzione d’onda  di Schrödinger; q e p sono le
incertezze sulla posizione e sul momento secondo il principio di
indeterminazione di Heisenberg
30
E’
forse
il
caso
di
dire
qui,
sottilineandone
l’importanza, che la nozione più utile a chi si occupa di
collisioni tra oggetti in moto è quella di sezione d’urto,
generalmente indicata con . Il nome è evocativo di
una rappresentazione mentale basata su particelle viste
come palline sferiche, ma forse non abbastanza:
nemmeno un giocatore di biliardo lo userebbe.
Quando si lanciano due oggetti solidi uno contro
l’altro, per avere idee sul loro incontro bisogna saper
valutare che cosa accade se vengono a contatto; allora,
conviene pensare che ciascuna pallina, nel suo moto
rettilineo indisturbato, invade un tubo cilindrico di
sezione circolare di raggio pari al suo. I tubi delle due
palline si incrocieranno a uno degli angoli possibili e
l’urto avverrà all’incrocio secondo la sovrapposizione
che regola il contatto tra le due . Se invece di essere
palline solide sono punti materiali che esercitano
qualche forza che influenza la loro traiettoria già a
distanza, può essere utile convertire il calcolo della
31
probabilità che schizzino una sull’altra, in direzioni
diverse da quelle iniziali, in aree equivalenti di
superfici di contatto che renderebbero intuibile
l’evento raffigurandoselo appunto, con palline (come in
un biliardo). Dopodiché, se si spara un fascio di
particelle (p.es. elettroni) su un bersaglio fatto di altre
particelle (p. es. nuclei) la conoscenza della sezione
d’urto - tenendo conto di 3 parametri dell’esperimento:
1)flusso dei “proiettili” (numero di elettroni che
arrivano per unità di area e di tempo), 2) spessore del
bersaglio attraversato, 3) densità dei nuclei nel
bersaglio - permetterà di sapere quanti elettroni
saranno rimossi dal fascio. In quel caso, si dirà che si
osserva la  totale. Se invece si misurano i soli elettroni
che escono avendo cambiato direzione di un angolo
dato entro un certo cono di larghezza prefissata
(“angolo solido”), si dirà che si misura la  differenziale
a quell’angolo. Questa  differenziale apparirà, nel caso
di onde, come una “figura di diffrazione” se raffigurata
32
in
funzione
dell’angolo
di
“scattering”
(si
usa
comunemente questo anglismo per le collisioni)
dell’elettrone. Ed ecco che l’immaginazione prende il
sopravvento: Louis De Broglie (1892,1987), nel 1923,
prende molto sul serio la relazione con cui Einstein ha
interpretato l’effetto fotoelettrico. L’energia  portata
da
un’onda
elettromagnetica
non
dipende
dall’ampiezza del campo ma è proporzionale alla
frequenza ; guarda caso, la costante di proporzionalità
è proprio quella costante di Planck, h, già spuntata
nello spettro del corpo nero. Allora E = h
sarà
l’energia di un fotone. Come abbiamo già detto, de
Broglie generalizza: anche gli elettroni sono “associati”
a “onde” di energia hf e di impulso h/, dove  è una
lunghezza d’onda. Ormai manca poco al grande passo:
di lì a poco, nel 1925, Werner Heisenberg (1901,1976) a
Lipsia e Erwin Schroedinger (1887,1961) a Dublino
(1926), presentano due “nuove meccaniche” che grazie
a Max Born (1882, 1970) saranno riconosciute come la
33
“rappresentazione
di
Heisenberg”
e
la
“rappresentazione di Schroedinger” di una stessa
meccanica quantistica, compatibile con “corpuscoli che
sono onde oppure onde che sono corpuscoli”. Lo
sconvolgimento
è
totale,
oltreché
duplice:
una
rappresentazione di Heisenberg e una di Schroedinger!
Naturalmente, c’era stato un passo intermedio,
dopo il suggerimento di DeBroglie sul tappoto tra
lunghezza d’onda e quantità di moto delle particelle: la
quantizzazione semiclassica di Niels Bohr (
,
) e
Arnold Sommerfeld ( , ) di cui abbiamo fatto cenno a
pg 17
34