STORIA DELLA FISICA DELLE PARTICELLE ELEMENTARI IV. La

annuncio pubblicitario
STORIA DELLA FISICA DELLE
PARTICELLE ELEMENTARI
IV. La rinormalizzazione dell’elettrodinamica quantistica
Prof. Attilio Maccari
Via Alfredo Casella 3
00013 Mentana RM
E-mail: [email protected]
1. Introduzione
Negli Anni Trenta si era diffusa la convinzione che gli infiniti che nascevano nello sviluppo
perturbativo dell’elettrodinamica quantistica (QED) fossero ineliminabili, perché erano il segnale dell’incapacità della teoria a descrivere le interazioni delle particelle ad alta energia.
Molti fisici (uno fra tutti, J. R. Oppenheimer che proprio in quegli anni stava assumendo il
ruolo di leader della ricerca teorica negli USA) credevano che fosse necessaria una teoria basata su nuove assunzioni fisiche [1-2]. La QED si era arenata sullo scoglio dell’autoenergia
dell’elettrone, della polarizzazione del vuoto e delle correzioni al vertice, tutte caratteristiche
degli ordini superiori al primo dello sviluppo perturbativo della teoria. (§ 2).
Tuttavia, nel campo della spettroscopia ottica, erano stati compiuti degli esperimenti che indicavano un probabile spostamento dei livelli energetici dell’idrogeno dai valori previsti dalla
teoria di Dirac (anche se altri davano invece risultati concordi con la teoria). Sorse allora un
acceso dibattito fra teorici e sperimentali che portò alla conclusione che tali esperimenti erano
sbagliati e che la teoria di Dirac descriveva correttamente lo spettro energetico dell’idrogeno
(§ 3).
La Seconda Guerra Mondiale portò al blocco totale della ricerca nel settore della fisica delle
particelle elementari, soprattutto per quanto riguarda l’organizzazione degli esperimenti. La
maggior parte dei fisici fu coinvolta o nel Progetto Manhattan, per la costruzione della bomba
atomica, o in altre ricerche connesse con lo sforzo bellico dei vari paesi belligeranti.
Con la fine delle ostilità, la ricerca ripresa nuovo slancio, grazie anche ai cospicui finanziamenti, che soprattutto negli Stati Uniti, venivano riservati alla fisica delle particelle elementari, vista la sua stretta contiguità con la fisica nucleare.
2
W. Lamb e R. Retherford nel 1947 determinarono per la prima volta lo spostamento del livello 22S1/2 dell’atomo di idrogeno, rispetto al valore previsto dalla teoria di Dirac (§ 4). Poco
tempo si svolse la conferenza di Shelter Island, dove vennero gettate le basi della rinormalizzazione della teoria (§ 5). J. Schwinger (§ 6) e R. P. Feynman (§ 7) elaborarono indipendentemente due metodi per la rinormalizzazione, presentati poi alla conferenza di Pocono in Pennsylvania. Poco tempo dopo, J. R. Oppenheimer venne a sapere che, durante la guerra, in
Giappone, S. Tomonaga aveva sviluppato in completo isolamento un programma di eliminazione degli infiniti (§ 8), sulla stessa linea del metodo seguito poi da Schwinger. Qualche anno dopo, F. Dyson (§ 9) dimostrerà l’equivalenza del metodo di Schwinger-Tomonaga con
quello di Feynman.
L’ultimo paragrafo sarà dedicato alle ricerche del barone E. C. G. Stueckelberg, che, a quanto
sembra, era giunto per primo ad elaborare una tecnica di rinormalizzazione, ma il cui lavoro
era stato praticamente ignorato (§ 10).
3
2. La lotta con gli infiniti
Nel 1930, J. R. Oppenheimer, all’epoca collaboratore di W. Pauli, in un articolo che conoscerà una notevole diffusione, dimostra che il termine che esprime l’interazione fra la corrente
elettronica ed il campo elettromagnetico è all’origine degli infiniti, comportando uno spostamento infinito dei livelli dell’atomo di idrogeno [3]. In particolare, Oppenheimer dimostra che
l’autointerazione dell’elettrone, calcolata considerando al secondo ordine i processi nei quali
l’elettrone emette e riassorbe un fotone virtuale, sommando su tutti i possibili stati intermedi,
provoca uno spostamento infinito (con divergenza quadratica) delle righe spettrali
dell’idrogeno. Poiché tale calcolo è precedente alla teoria di Dirac delle lacune, sono inclusi
anche gli stati dell’elettrone ad energia negativa. Un tale risultato convinse molti che
l’elettrodinamica quantistica era fondamentalmente sbagliata e che fosse necessaria una nuova
profonda modifica. Un risultato analogo verrà dimostrato da I. Waller, per il caso
dell’elettrone libero [4].
Importanti progressi, anche se apparentemente scoraggianti, vengono realizzati ancora di Dirac ed esposti al VII Congresso Solvay nell’ottobre 1933, a Parigi. Si tratta di un fenomeno tipico della QED, la polarizzazione del vuoto. In base al secondo principio di indeterminazione
di Heisenberg, il vuoto può produrre una coppia di elettroni e positoni (di energia complessiva
≈ 2mc 2 ), che possono vivere solamente per un tempo
T≈
2mc 2
.
(2.1)
Si può quindi ritenere che l’elettrone sia circondato da infinite coppie di tali particelle, dette
virtuali, perché violano il principio di conservazione dell’energia. Nel poco tempo che vivono, i positoni sono attratti verso l’elettrone, creando una asimmetria nella distribuzione com4
plessiva della carica. Se infatti si immagina di avvicinarsi sempre di più all’elettrone, la nube
virtuale, in prevalenza positiva, tenderà a ridurre la carica totale dell’elettrone. Il calcolo di
questo effetto porta ad un nuovo infinito, che si aggiunge a quello dell’autoenergia, del quale
abbiamo già parlato.
Dirac propose di sottrarre tra loro, in un modo che doveva essere relativisticamente consistente, i due infiniti: era nata la “fisica della sottrazione” (come, abbastanza ironicamente, venne
chiamata), che sarà poi elevata a metodo generale dalla tecnica della rinormalizzazione, grazie
ai lavori di Tomonaga, Schwinger e Feynman, dopo la Seconda Guerra Mondiale. Se alla carica ‘nuda’ dell’elettrone, resa infinita dall’autoenergia, togliamo la polarizzazione del vuoto,
deve rimanere la carica reale dell’elettrone. In realtà, nei calcoli di Dirac rimanevano ancora
altri infiniti, essenzialmente perché il calcolo non era del tutto invariante relativisticamente
[5].
Nello stesso periodo, J. R. Oppenheimer e W. Furry giungono alla conclusione che le difficoltà dell’autoenergia “si basano su una applicazione illegittima dei metodi della meccanica
quantistica al campo elettromagnetico” e che, quindi, le divergenze devono richiedere una
mutazione nelle concezioni dello spazio e del tempo. Le tesi sostenute in questo articolo sono
tipiche della fisica di questo periodo, perché si credeva che fossero ragioni di tipo fisico a portare agli infiniti, mentre invece, dopo la Seconda Guerra Mondiale, si vedrà che era sufficiente
un progresso tecnico, nella manipolazione dei calcoli, per riuscire ad eliminare consistentemente tutti gli infiniti a tutti gli ordini perturbativi. I due autori, inoltre, mostrano che una teoria quantistica dei campi riesce ad incorporare le antiparticelle, e quindi anche la creazione di
coppie particella-antiparticella, senza ricorrere al ‘mare di Dirac’ delle infinite soluzioni ad
energia negativa [6].
All’epoca, era opinione comune che, per giungere ad una teoria soddisfacente, bisognasse
prima spiegare il valore della costante di struttura fine (detta anche di Sommerfeld), α ,
5
α=
e2
1
≈
.
c 137
(2.1)
La costante α veniva considerata fondamentale perché riuniva in un’unica quantità adimensionale la meccanica quantistica, con la costante di Planck,
, la teoria della relatività, con la
velocità della luce, c, e l’elettromagnetismo, tramite la carica e dell’elettrone. L’ampiezza di
probabilità di un determinato processo, nella QED, viene sviluppata perturbativamente in potenza di α ,
A = a1α + a 2α 2 + .... ,
(2.2)
dove i coefficienti a1, a2,.., vanno calcolati di volta in volta, a seconda del processo considerato.
Tutti i tentativi di spiegare il valore della costante α sono falliti e quello che era considerato
il problema più importante della fisica teorica ha cessato di essere tale. La storia ha preso una
strada completamente diversa, perché la QED è stata rinormalizzata, migliorando la tecnica di
calcolo, ma senza introdurre alcun nuovo principio fisico.
Attualmente, è molto in voga fra i fisici ricercare teorie esteticamente attraenti, senza preoccuparsi eccessivamente della diretta applicabilità ai fenomeni, nella convinzione che bisogni
innanzitutto costruire delle teorie conformi a determinate proprietà matematiche, come
l’invarianza di gauge.
Il criterio estetico si può rivelare tuttavia molto pericoloso, perché soggetto alle mode dei
tempi. Per esempio, negli Anni Trenta, i criteri estetici dovevano essere molto diversi dagli attuali, se molti consideravano la QED una teoria matematicamente brutta, a causa degli infiniti,
dei calcoli complicati che comportava e, soprattutto, della scarsa traducibilità, in termini fisici
intuitivi, della sua struttura matematica.
6
Oggi, invece, la QED è diventata il prototipo di tutte le teorie fisiche, con la sua invarianza di
gauge, e sia la cromodinamica quantistica (teoria dell’interazione forte) che l’unificazione elettrodebole sono state modellate su di esse, con qualche modifica di ordine tecnico.
Dopo la conferenza di Parigi, Pauli diede incarico al suo nuovo collaboratore, V. Weisskopf,
di ricalcolare l’autoenergia, aggiornando il calcolo di Oppenheimer del 1930, tenendo conto
della polarizzazione del vuoto, cioè della creazione di coppie elettrone-positone.
Il risultato fu deprimente, si otteneva sempre un infinito. Dopo la pubblicazione dell’articolo,
nel 1934, Weisskopf ricevette una lettera di W. Furry che, gentilmente, gli mostrava la presenza di un errore di calcolo. Weisskopf scrisse rapidamente una rettifica e si accorse che ora
la divergenza c’era sempre, ma era solo logaritmica [7].
L’autoenergia dell’elettrone risulta essere
3e 2 mc 2
E=
log
+ 1+
hc
mca
mca
2
,
(2.3)
dove a è il raggio dell’elettrone ed m la sua massa.
Dall’esame della (2.3), si vede che la divergenza classica esiste solo nell’ipotesi assurda che il
raggio classico a dell’elettrone sia grande rispetto alla lunghezza d’onda Compton
Nell’ipotesi realistica a <<
mc
mc
.
, grazie al contributo delle antiparticelle negli stati intermedi,
la divergenza diventa logaritmica. Non esisteva quindi più la divergenza quadratica delle righe spettrali trovata da Oppenheimer.
Sempre nel 1934, Heisenberg arriva alla prima formulazione completa della QED, con le equazioni di campo quantizzate per l’elettrone, per il campo elettromagnetico e per la loro
l’interazione [8]. Anche con la tecnica delle sottrazioni, rimanevano gli infiniti e addirittura
sembrava nascere l’incapacità degli elettroni, circondati dalla nube ‘virtuale’, di interagire con
una qualunque altra particella. Interessante la seguente affermazione, che conferma quanto
7
abbiamo osservato prima, a proposito dell’articolo di Oppenheimer e Furry, “una fusione senza contraddizioni fra le condizioni della teoria quantistica e le corrispondenti previsioni della
teoria dei campi è possibile solo in una teoria che fornisca un determinato valore alla costante di Sommerfeld”.
Qualche anno dopo, nel 1938, Heisenberg sembra essersi convinto dell’impossibilità di eliminare gli infiniti, senza introdurre nuove ipotesi fisiche, perché abbozza una nuova teoria, introducendo una energia fondamentale, che porta ad una quantizzazione dello spazio e del
tempo, allo scopo di rendere l’elettrone non più puntiforme [9].
La teoria quantistica dei campi veniva riottenuta solo ad energie molto basse rispetto all’unità
fondamentale; ad energie molto alte dove sono presenti gli infiniti, molto semplicemente, la
QED non deve essere usata.
E’ interessante notare come Heisenberg, e con lui praticamente tutti i fisici degli Anni Trenta,
si muove ancora in quella cornice tradizionale, seconda la quale se le predizioni di una teoria
diventano infinite vuol dire che la teoria non funziona più e deve essere sostituita. Possiamo
dire, allora, che in quell’epoca si cercava una spiegazione fisica per il superamento degli infiniti nella teoria, mentre, dopo la Seconda Guerra Mondiale, si vedrà che era sufficiente una
spiegazione prettamente matematica.
Ancora Heisenberg nel 1943, riprendendo idee di Wheeler del 1937, formula la cosiddetta teoria della matrice S, importante per gli sviluppi futuri nella teoria delle interazioni delle particelle elementari [10]. Si parte dalla constatazione che non si può seguire in dettaglio quello
che accade in un urto o più in generale in una interazione fra particelle elementari. L’unica
cosa che si misura sono le proprietà dello stato iniziale (energia, quantità di moto, spin, ecc.),
e di quello finale. La teoria deve cercare di fornire la probabilità di transizione fra lo stato iniziale e quello finale, partendo da pochi principi fondamentali, che dovranno sostituire quelli
8
della teoria quantistica dei campi. Fra questi principi, il fatto che le probabilità devono essere
numeri reali, la conservazione della probabilità, la dipendenza regolare dall’energia, ecc.
La teoria di Heisenberg verrà ripresa negli Anni Cinquanta, soprattutto da G. Chew e collaboratori, nel tentativo di costruire una alternativa alla teoria quantistica dei campi, allo scopo di
modellizzare le interazioni forti, che apparivano intrattabili, per mezzo di uno sviluppo perturbativo, a causa del fatto che la costante di accoppiamento tipica di tali interazioni è circa
cento volte più grande di quella, (2.1), della QED.
Intanto qualcosa si muoveva anche sul lato sperimentale, perché alcuni esperimenti sembravano segnalare uno spostamento del livello 2S1/2 dell’elettrone dell’atomo d’idrogeno, rispetto
a quanto previsto dall’equazione di Dirac (di tali esperimenti si parlerà diffusamente nel paragrafo seguente).
Alcuni collaboratori di Oppenheimer, E. A. Uehling, [12], e R. Serber, [13], cercarono di vedere se tale effetto poteva essere spiegato dalla QED, ma trovarono un risultato troppo piccolo
e per di più nella direzione sbagliata. In particolare, il lavoro di Serber è importante, perché
compaiono i primi abbozzi della futura di rinormalizzazione. I vari termini, che compaiono
nello sviluppo perturbativo dell’ampiezza di probabilità di un determinato fenomeno, possono
essere formalmente conglobati in un unico termine, ridefinendo la carica dell’elettrone,
e f = e + a 2 e 3 + a 3 e 5 + .... .
(2.4)
In pratica, tutti i contributi di ordine superiore vengono tutti sostituiti dalla carica fisica ef.
Si noti che e è il parametro presente fin dall’inizio nella teoria, perché compare nella lagrangiana d’interazione, e che a2, a3,… sono tutti divergenti, mentre, d’altra parte, la carica ‘nuda’, e, non è misurabile. Se invertiamo lo sviluppo in serie, otteniamo
e = e f + a 2 e 3f + a 3 e 5f + ....
(2.5)
Se adesso l’ampiezza di probabilità, calcolata ad un certo ordine perturbativo, viene espressa
in termine di ef allo stesso ordine, può succedere che le divergenze che apparivano inizialmen9
te si cancellano con le nuove divergenze che provengono dall’espressione di e in termini di ef
. La teoria si dice rinormalizzabile se l’ampiezza di probabilità, espressa in termini dei parametri misurati, risulta finita.
Anche in altri lavori, compaiono delle interessanti considerazioni sulla fisica delle sottrazioni
[13]. Per esempio, H. Kramers si era convinto che la massa osservabile dell’elettrone fosse il
contributo di una massa ‘nuda’, che compare nella lagrangiana, e di quella dovuta
all’autoenergia, così come la carica è la differenza fra quella ‘nuda’ e quella dovuta alla polarizzazione del vuoto.
Un parziale successo venne conseguito nel 1937 da F. Bloch e A. Nordsieck, che risolsero i
vertici a bassa energia, perché dimostrarono che gli infiniti, dovuti alle divergenze infrarosse
associate ai fotoni a bassa energia, potevano essere eliminati [14]. A quanto sembra, Bloch e
Oppenheimer dissero a S. Dancoff, un borsista di Bloch, di fare i calcoli anche per i vertici ad
alta energia, ma Dancoff commise un errore e trovò un risultato infinito. Se lo avesse corretto,
avrebbe forse dimostrato per primo la rinormalizzazione della QED [15].
Nel 1939, in quello che può essere considerato l’ultimo articolo importante per la storia della
QED, prima dello scoppio della Seconda Guerra Mondiale, Weisskopf dimostra che
l’autointerazione dell’elettrone riduce tutte le divergenze rendendole logaritmiche. Inoltre,
Weisskopf stima, partendo da questo risultato, il raggio dell’elettrone che risulta essere 10-58
volte più piccolo del raggio classico dell’elettrone [16].
Intanto, Dirac stava imboccando una strada completamente nuova, lungo la quale, come vedremo, non sarebbe stato seguito dagli altri fisici. Dirac si convinse che bisognasse prima trovare una teoria classica, esente da infiniti, e solo dopo passare alla versione quantistica. In un
articolo del 1938, ‘Classical Theory of Radiating Electrons’, Dirac esamina attentamente pregi e difetti della teoria dell’elettrone di Lorentz. In particolare rifiuta l’idea dell’origine elettromagnetica della massa, che porta ad una massa sempre positiva, in contrasto proprio con
10
l’equazione di Dirac, dove masse positive e negative compaiono in modo completamente
simmetrico. Ancora una volta, come già sottolineato in Storia della Fisica delle Particelle Elementari, II. La Meccanica Quantistica Relativistica, si può osservare come Dirac fosse guidato da una motivazione di ordine fisico, nello scegliere la ricerca da intraprendere, e non da
un criterio di bellezza e coerenza matematica, come invece ha più volte affermato nei suoi
scritti.
Le sue ricerche, nelle quali è costretto ad ipotizzare delle probabilità negative ed a supporre
che un segnale si possa propagare più velocemente della luce dentro un elettrone, non lo portano a risultati concreti ed, anzi, finiranno per escluderlo dal corso principale della fisica teorica degli anni successivi [17].
11
3. La misura della costante di struttura fine e gli esperimenti sull’atomo di idrogeno
Per capire la discussione che sorse intorno alla determinazione della costante di struttura fine
e dello spettro energetico dell’atomo di idrogeno, bisogna prima di tutto tener presente che
l’equazione di Dirac predice che i due livelli energetici 22S1/2 e 22P1/2 siano degeneri, abbiano
cioè la stessa energia (abbiamo usato la notazione, comune in spettroscopia, che indica un livello energetico nella forma n2s+1LJ, dove n è il numero quantico principale, s è il numero
quantico di spin, sempre uguale ad 1/2 perché abbiamo solo un elettrone, L il numero quantico orbitale (S corrisponde a L=0, P a L=1, D a L=2, ecc.) ed, infine, J il numero quantico del
momento angolare totale).
Il famoso esperimento di Lamb e Retherford nel 1947 evidenzierà invece uno spostamento del
livello 2S1/2, rispetto alla previsione dell’equazione di Dirac (questo spostamento viene anche
chiamato Lamb shift). Come vedremo, l’elettrodinamica quantistica, dopo essere stata rinormalizzata, prevede in maniera corretta l’entità dello spostamento.
La storia non si è affatto svolta in maniera lineare, come potrebbe sembrare, sulla base di
quanto abbiamo appena detto, perché, durante tutti gli Anni Trenta, erano stati eseguiti alcuni
esperimenti, nel campo della spettroscopia ottica, che avrebbero potuto già dimostrare che la
formula di Dirac non era esatta, ma che invece, a seguito di una lunga storia di discussioni,
critiche, ripensamenti e ritrattazioni, che ora descriveremo, condussero ad una conferma completa della teoria di Dirac.
Un gruppo sperimentale del Caltech, in California, formato da F. Spedding, C. D. Shane, N.
Grace, nel 1933, eseguì una serie di misure dello spettro dell’idrogeno ed, assumendo per vera
la formula di Dirac, dedusse per α un valore di 1/138 che, con loro grande sorpresa, risultò
non compatibile con i risultati degli altri esperimenti, che collocavano il valore di α intorno
12
ad 1/137. Probabilmente, si resero conto che ciò poteva significare una insufficienza della teoria di Dirac, perché nell’articolo si trova la seguente frase, quasi profetica: “Questa differenza…. potrebbe essere una conseguenza di un’incompletezza della teoria della struttura fine”,
cioè appunto della teoria di Dirac [18].
Un risultato analogo venne raggiunto da due altri sperimentatori del Caltech, W. M. Houston
e Y. M. Hsieh, che osservarono uno spostamento delle righe spettrali rispetto ai valori teorici,
avanzando sospetti sulla teoria di Dirac. Houston e Hsieh dissero esplicitamente che la teoria
non era soddisfacente: “Una possibile spiegazione della differenza è che nel calcolo delle
frequenze è stato trascurato il contributo dell’interazione fra il campo di radiazione e
l’atomo”, ovvero dell’autoenergia dell’elettrone [19]. In Germania, risultati simili vengono
trovati da P. Kopf, rafforzando ulteriormente il sospetto di una incompletezza della teoria di
Dirac [20]. Anche R. C. Gibbs e R. C. Williams alla Cornell University a Ithaca (stato di New
York, USA) trovarono delle differenze con la teoria di circa il 6%. [21]. Essi si resero conto
che probabilmente la causa era lo spostamento verso l’alto del livello 2 2S1/2, ma ovviamente
non potevano addurre motivi teorici per spiegarlo.
I quattro gruppi che abbiamo citato usavano tutti quanti la stessa tecnica sperimentale, basata
sulla misura dell’intensità della luce mediante l’interferometro di Fabry-Perot.
Un gas d’idrogeno viene sottoposto ad una forte corrente elettrica, allo scopo di dissociare la
molecola d’idrogeno ed ottenere gli atomi separati. Aumentando l’intensità della corrente elettrica, aumenta anche lo splendore, cioè l’intensità della righe dello spettro, rendendo la misura più agevole, ma, contemporaneamente, diminuisce la definizione della riga, perché il gas
si riscalda e l’agitazione termica provoca un forte effetto Doppler, alterando le frequenza dello spettro e provocando un allargamento della riga.
Se si prova ad abbassare la temperatura, per diminuire l’entità dell’effetto Doppler, occorre
evidentemente una corrente minore, ma l’intensità della riga diminuisce, se si cerca di aumen13
tare il tempo di esposizione alla corrente, si possono verificare variazioni di temperatura, associate a vibrazioni del gas.
Si comprende, allora, che le misure compiute erano ai limiti della loro sensibilità sperimentale
e di difficile interpretazione. Senza entrare nei particolari, ricordiamo che venivano osservate
cinque righe (insieme formano la riga primaria della serie di Balmer), di intensità variabile,
abbastanza vicine fra di loro, da risultare parzialmente sovrapposte. Le cinque righe corrispondevano alle transizioni: A) da 32P1/2 o 32S1/2 (degeneri secondo l’equazione di Dirac) a
22P3/2; B) da 32D3/2 o 32P3/2 a 22P3/2; C) da 32D5/2 a 22P3/2; D) da 32P1/2 o 32S1/2 a 22P1/2 o
22S1/2; E) da 32D3/2 o 32P3/2 a 22P1/2 o 22S1/2.
A questo punto si otteneva una curva dell’intensità della luce in funzione della frequenza e bisognava riuscire a separare il contributo delle cinque righe, posizionandole correttamente
all’interno dello spettro complessivo. E’ evidente che l’analisi statistica diventava determinante e poteva influenzare pesantemente l’esito finale della misura.
Inizialmente, comunque, la situazione sperimentale sembrava essere abbastanza chiara, perché tre gruppi sperimentali erano concordi nella scoperta di deviazioni sperimentali dalle previsioni dell’equazione di Dirac, tanto che, proprio a causa di questi nuovi risultati sullo spettro
dell’idrogeno, Oppenheimer diede incarico ad un suo collaboratore, E. Uehling, di vedere se
tale differenza poteva essere spiegata dalla polarizzazione del vuoto [11]. Abbiamo già visto,
nel precedente paragrafo, che lo spostamento era presente, ma con il segno sbagliato, perché il
livello 22S1/2 si abbassava, invece di alzarsi, ed inoltre lo spostamento era in valore assoluto
dieci volte più piccolo di quanto richiesto.
Fu così che nel 1934 si diffuse la voce che nella QED qualcosa era sicuramente sbagliato, visto che, da una parte, l’equazione di Dirac non riusciva a spiegare i dati sperimentali, mentre,
dall’altra, la teoria quantistica dei campi produceva addirittura risultati infiniti. Fu anche sotto
la spinta di questa vicenda, che Oppenheimer crederà nell’inconsistenza della teoria quantisti14
ca dei campi, convinto che la QED cessasse di essere valida, per energie E dell’elettrone date
da
E≈
mc 2
α
≈ 70 MeV ,
(3.1)
dove mc2 = 0.511 MeV è la massa dell’elettrone. Tale supposizione nasceva dal fatto che,
proprio in quegli anni, come abbiamo già visto in un precedente lavoro, era stata evidenziata
la presenza nei raggi cosmici di una componente ‘dura’, ad alta energia, superiore alla (3.1),
in grado di penetrare metri di piombo [22]. Nell’ipotesi che la componente ‘dura’ fosse costituita da elettroni, si ottenevano delle incongruenze, perché la QED prevedeva una capacità di
penetrazione nella materia molto piccola, dato che gli elettroni perdono rapidamente la loro
energia per irraggiamento e conseguente produzione di coppie elettrone-positone. Si presentavano allora due possibilità: la QED è sbagliata alle altre energie superiori alla (3.1) oppure la
componente ‘dura’ non è formata da elettroni, ma di un nuovo tipo di particella.
La maggior parte dei fisici propendeva per la prima ipotesi e, solo nel 1937, ci si renderà conto che la componente ‘dura’ era da attribuirsi ad una nuova particella, il mesone, centinaia di
volte più pesante dell’elettrone, la cui perdita di energia nell’attraversamento di una sostanza
materiale avviene praticamente solo per ionizzazione, essendo trascurabile quella per irraggiamento.
Intanto, alla fine del 1934, un nuovo colpo di scena interviene a confondere ulteriormente le
già agitate acque della QED: Spedding, Shane e Grace ritrattano le loro precedenti affermazione. Cambiando il metodo di interpretazione dei dati sperimentali (questi ultimi erano praticamente restati immutati), affermano di ottenere per α il valore corretto di 1/137, [23]. Contemporaneamente, non esitano ad attaccare Gibbs e Williams sia per la loro imperizia statistica sia per la scarsa professionalità nell’esecuzione dell’esperimento. E’ interessante osservare
che non criticano i dati di Houston, probabilmente perché ottenuti nel loro stesso laboratorio,
15
al Caltech. Al convegno dell’American Physical Society, nel capodanno del 1935, si assistette
ad un violento scontro verbale fra Gibbs, [24], ed il gruppo del Caltech. Anche Houston interverrà successivamente nella discussione, [25].
Mentre, in Germania, si assiste ad un analogo voltafaccia da parte di Kopf, come si vede
nell’articolo scritto da una sua collaboratrice, M. Heyden, che aveva ripetuto l’esperimento ottenendo risultati in linea con la teoria di Dirac, [26], Gibbs e Williams continuano a sostenere
le loro ragioni, anche se Williams, dopo qualche anno, abbandonerà il settore, passando
all’astronomia.
Tutta la vicenda fece nascere la convinzione che dopotutto la teoria di Dirac probabilmente
era giusta e, quando nel 1938 Williams pubblica un ultimo articolo, dove viene affermata la
presenza di una discrepanza del 2,7% con la previsione di Dirac, [27], viene praticamente ignorato.
All’Imperial College di Londra, Sir Owen Richardson, Premio Nobel nel 1928, decise di rifare le misurazioni dello spettro dell’idrogeno, con un nuovo tipo di interferometro ideato da W.
E. Williams e con l’aiuto di un altro collaboratore, J. W. Drinkwater [28].
I risultati di Richardson e collaboratori chiusero definitivamente la discussione, escludendo
nel modo più categorico lo spostamento e confermando la teoria di Dirac. Nell’esame dei dati
sperimentali, Richardson sostiene che, anche se apparentemente i risultati grezzi ottenuti dal
suo apparato suggeriscono lo spostamento, tuttavia, dopo una loro accurata elaborazione, che
tiene conto del fatto che il gas d’idrogeno è comunque una mescolanza della forma monoatomica, H, e biatomica, H2, risulta che i livelli energetici si accordano con la previsione di Dirac. Secondo Richardson, infatti, è la forma biatomica dell’idrogeno che produce delle righe
secondarie, causa dell’apparente spostamento dei livelli energetici.
La vicenda della mancata scoperta del Lamb Shift rivela quanto sia complessa e non lineare
l’interazione fra teoria ed esperimento. Troppo semplicistica è l’idea secondo la quale gli e16
sperimenti decidono se una previsione teorica è giusta o sbagliata e, dal canto suo, la teoria
cerca di interpretare un dato sperimentale nuovo ed inatteso.
I risultati sperimentali sullo spettro dell’idrogeno sembrano invece seguire da vicino le convinzioni dei teorici: in un primo tempo lo sviluppo della teoria quantistica dei campi sembra
essere il superamento inevitabile dell’equazione di Dirac e, contemporaneamente, ben quattro
esperimenti avvalorano tale eventualità. Quando fra i teorici nascono i primi dubbi sulla consistenza della teoria e si dispera di venire a capo di tutti i suoi infiniti, anche gli sperimentali
cambiano parere e gli stessi dati sperimentali, che prima supportavano l’idea dello spostamento, ora, interpretati in maniera diversa, confermano la teoria di Dirac.
Non si pensi però ad una dipendenza dell’esperimento dalla teoria. In realtà, il discorso appena fatto può essere rovesciato, constatando come le previsioni dei teorici siano state influenzate dai risultati sperimentali. Dobbiamo quindi parlare di una stretta influenza reciproca: la teoria influenza l’esperimento che, con un forte feedback, retroagisce sulla teoria stessa. Esistono
dei momenti, comunque, in cui la teoria (per esempio, la teoria di Dirac con la previsione
dell’esistenza del positone) o l’esperimento (per esempio, la scoperta del Lamb Shift, di cui
parleremo nel prossimo paragrafo) assumono un ruolo predominante, determinando una vera
e propria svolta, con un evidente avanzamento conoscitivo.
In altri momenti, invece, teoria ed esperimento sono in qualche modo ugualmente indecisi,
senza sapere quale direzione prendere (per esempio, la vicenda della scoperta delle correnti
neutre, (1973), con la conseguente conferma della teoria di Glashow-Weinberg-Salam, che si
protrasse per qualche anno, fra conferme e ritrattazioni, all’interno della più generale competizione fra CERN e USA).
Negli Anni Trenta la dinamica dell’interazione teoria-esperimento raggiunse un punto
d’equilibrio costituito dalla conferma della teoria di Dirac, dopo la Seconda Guerra Mondiale,
il risultato finale sarà esattamente l’opposto.
17
4. Il Lamb shift
Willis E. Lamb, della Columbia University, un fisico che univa ad una buona conoscenza teorica della QED anche una non comune capacità sperimentale, durante la guerra si era occupato della progettazione dei magnetron, tubi elettronici per la produzione di microonde per
l’inseguimento radar. Finita la guerra, aveva avuto l’idea, nel 1945, di sfruttare queste conoscenze per determinare l’eventuale spostamento del livello 22S1/2.
Lamb pensava di spostare l’elettrone dal livello 22S1/2 (metastabile, perché la transizione diretta 22S1/2-12S1/2 è vietata nell’approssimazione di dipolo elettrico) al livello 22P1/2, mediante
le microonde del magnetron. A questo punto l’elettrone sarebbe rapidamente passato nel livello fondamentale 12S1/2.
L’esperimento, realizzato in collaborazione con lo studente Robert Retherford, riuscì il 26 aprile 1947. Una corrente rarefatta di H2 veniva soffiata in un piccolo forno a una temperatura
di circa 2000 0C. Il calore dissociava la molecola d’idrogeno e gli atomi così ottenuti uscivano
da una fenditura nel forno. Un fascio di elettroni li portava nello stato metastabile 22S1/2. Si
sapeva che il gas, quando si trova in uno stato metastabile e viene avvicinato ad un metallo,
provoca la fuoriuscita di un elettrone dal metallo stesso. Mediante una opportuna amplificazione, si ottiene quindi una corrente elettrica.
Se si invia un fascio di microonde a frequenza variabile sul gas, posso misurare per quale frequenza gli atomi passano allo stato 22P1/2, e quindi quasi istantaneamente in quello fondamentale, perché la corrente nel rivelatore dovrebbe calare bruscamente, dato che il gas d’idrogeno
non si viene più a trovare nello stato metastabile.
18
La frequenza delle microonde del magnetron venivano variate, mediante un campo magnetico
regolabile, e si scoprì che il calo si verificava alla frequenza di (1077,77 ± 0,01) MHz, la differenza fra i livelli 22S1/2 e 22P1/2. Lamb e Retherford misurarono anche la costante di struttura
di fine, trovando il valore 1/137,0365 ± 0,0012, [29].
Nello stesso periodo, P. Kusch eseguiva una accurata misura del momento magnetico
dell’elettrone alla Columbia University. Usando la tecnica dei raggi molecolari di I. I. Rabi,
per trovare i salti energetici indotti da radioonde ad alta frequenza in atomi di gallio e sodio,
scopriva che il momento magnetico dell’elettrone non è dato dal magnetone di Bohr,
µB =
e
,
2mc
(4.1)
come previsto da Dirac, bensì ne differisce leggermente, essendo uguale a (1,001146 ±
0,000012) µ B , [30]. Kusch e Lamb ricevettero il Premio Nobel nel 1955.
Per la prima volta ci si trovava di fronte chiaramente a dei risultati in contrasto con la teoria di
Dirac, a degli effetti piccoli ma misurabili, che dovevano essere spiegati dalla QED, se si voleva continuare ad usare questa teoria per le interazioni elettromagnetiche ad alta energia.
19
5. Il convegno di Shelter Island
Il convegno di Shelter Island, vicino a Long Island, (stato di New York, USA), svoltosi dal 2
al 4 giugno 1947, fu il punto di svolta decisivo per la QED. Gli sperimentali portarono le notizie sul Lamb shift e sul momento magnetico anomalo dell’elettrone, i teorici (fra i quali
Kramers, Oppenheimer, Schwinger, Weisskopf) discussero su come affrontare il problema di
rendere finite le predizioni della QED e giunsero alla conclusione che la teoria non era sbagliata, ma usata male. E’ evidente il ruolo decisivo giocato dai due risultati sperimentali, perché, fino a che nessun esperimento contraddiceva la teoria di Dirac, si poteva continuare a ritenere il problema degli infiniti solo di tipo teorico, ma, una volta appurata l’esistenza di piccole deviazioni dalla teoria di Dirac, si dovevano assolutamente rendere finite le predizioni
della QED, se non si voleva definitivamente abbandonare tale teoria.
In particolare, era chiaro che il primo era un effetto quasi del tutto non relativistico, mentre il
secondo era tipicamente relativistico. H. Bethe, subito dopo la fine del congresso, riuscì a calcolare il Lamb Shift, nell’approssimazione non relativistica, giungendo a spiegare il 95%
dell’effetto, [31]. Va notato il fatto che non vi erano state innovazioni concettuali, tali da giustificare la riuscita del calcolo, che in effetti avrebbe potuto essere eseguito anche negli Anni
Trenta. Già prima della guerra, Kramers aveva confrontato l’autoenergia dell’elettrone libero
(non osservabile perché parte della massa) con quello nello stato fondamentale dell’atomo
d’idrogeno, [13]. Bethe sottrae dall’espressione finale un temine linearmente divergente, sulla
base della rinormalizzazione della massa di Kramers, in maniera tale da far rimanere solo un
termine divergente logaritmicamente. Come si vedrà ben presto, tale termine scompare nel
calcolo corretto, relativisticamente invariante.
20
6. La rinormalizzazione: Tomonaga e Schwinger
In una conferenza alla Columbia University (29-31 gennaio 1948) ed in un’altra conferenza a
Pocono Manor, in Pennsylvania, il 30 marzo 1948, J. S. Schwinger mostra come ogni infinito
può essere fatto scomparire nella massa e nella carica dell’elettrone, mediante dei calcoli che
devono essere ad ogni passo relativisticamente invarianti [32]. Come racconta Dyson [2], la
reazione non fu molto entusiasta: sembrava più un’esibizione di bravura tecnica che non vera
fisica. Pauli avanzò delle critiche, Dirac disse che era solo un trucco notazionale e che il metodo di Schwinger era molto complicato e faticoso.
Schwinger prima calcola il momento magnetico anomalo dell’elettrone e successivamente il
Lamb Shift, confrontando le sue deduzioni con quelle di Feynman, che, come vedremo nel
prossimo paragrafo, aveva scoperto un’altra tecnica di rinormalizzazione.
Di ritorno da Pocono Manor, Oppenheimer riceve una lettera di S.-I. Tomonaga, dove viene
descritta una tecnica di rinormalizzazione, simile a quella di Schwinger, pubblicata già nel
1943 in giapponese, e poi nel 1946, su Progress of Theoretical Physics, una rivista giapponese, ma in lingua inglese. Oppenheimer farà da tramite per la pubblicazione su Physical Review
(1948), della scoperta di Tomonaga [33].
Vediamo di illustrare per sommi capi l’idea fondamentale della tecnica di rinormalizzazione
di Tomonaga e Schwinger. Un difetto della teoria quantistica dei campi è la mancanza di covarianza relativistica, sia nelle relazioni che collegano i campi ad istanti diversi sia nei commutatori dei campi che vengono assegnati a tempi uguali, quando è ben noto dalla relatività
ristretta che il concetto di simultaneità non è più assoluto.
La funzione di trasformazione che lega le coordinate a istanti diversi deve invece dipendere
da due sezioni tridimensionali di tipo spazio (cioè fra due punti qualunque di una sezione
21
l’intervallo è di tipo spazio), che sostituiscono le sezioni non covarianti assegnate a tempo costante. Anche i commutatori fra i campi possono essere assegnati su tali sezioni.
Si può quindi scrivere la riformulazione covariante dell’equazione di evoluzione per un campo, Ψ (σ ) , assegnato su una superficie σ di tipo spazio e specificato mediante un insieme di
osservabili di campo commutabili su tale superficie,
i c
δ Ψ(σ )
= H ( x )Ψ (σ ) ,
δσ ( x )
(6.1)
dove H(x) è la densità di energia di interazione dei campi in un punto x dello spazio-tempo e,
nel lato sinistro, compare la derivata funzionale di Ψ(σ ) rispetto ad una piccola variazione di
σ in prossimità di x.
La riformulazione covariante della QED permette di eliminare i vari infiniti, che per tanti anni
avevano afflitto i teorici, e di ottenere delle previsioni in spettacolare accordo con le misure.
22
7. La rinormalizzazione: Feynman
Anche R. P. Feynman, sicuramente uno dei fisici più brillanti del Novecento, riteneva inizialmente che la QED, e più in generale la teoria quantistica dei campi, fossero sbagliate e ci
fosse bisogno di nuove idee fisiche, per superare il punto morto nel quale ci si trovava. In un
primo tempo aveva pensato che gli infiniti fossero causati dagli infiniti gradi di libertà dei
campi e dalla richiesta che una particella possa agire su se stessa (autointerazione
dell’elettrone). Feynman aveva cercato, in collaborazione con Wheeler, di riformulare la QED
mediante le sole azioni a distanza fra le cariche, riprendendo la tradizione ottocentesca di
Ampere e Weber, senza introdurre il concetto di campo, e descrivendo il movimento delle cariche mediante un adeguato principio di azione.
Con una certa sorpresa, Feynman e Wheeler scoprono che il tentativo poteva riuscire, se si
tiene conto di una azione anticipata accanto a quella ritardata, con conseguente apparente violazione del principio di causalità. Per risolvere il problema, i due fisici ritenevano che
l’asimmetria nelle condizioni iniziali cosmologiche provocasse l’assenza delle azioni anticipate.
La teoria di Feynman-Wheeler costituisce quindi la generalizzazione più naturale della meccanica newtoniana all’elettromagnetismo e alla relatività, proprio perché non usa in alcun modo il concetto di campo. Un primo sunto di queste idee venne pubblicato nel 1941 e la versione definitiva nel 1945 [34].
Per meglio comprendere come Feynman sia giunto alla rinormalizzazione, bisogna ricordare
che la cosiddetta formulazione di Feynman della meccanica quantistica, equivalente a quella
standard, compare già nella tesi di dottorato del 1942. Essa può essere utilizzata anche per sistemi che non hanno hamiltoniana, perché sfrutta un principio di azione classico per calcolare
23
l’ampiezza di transizione far due eventi spazio-temporali A e B, senza ricorrere a vettori di
stato ed operatori nello spazio di Hilbert e senza dover risolvere l’equazione di Schrodinger
[35]. Il propagatore P, cioè l’ampiezza di transizione fra A e B, è la somma dei contributi,
Φ[x (t )] , derivanti da ciascun percorso x(t) che congiunge i due eventi,
K ( B, A) = ΣΦ[x (t )] ,
(7.1)
dove il contributo di ogni percorso ha una fase proporzionale all’azione S,
Φ[x (t )] = const .exp
i
S ( x (t )) ,
(7.2)
la costante della (7.2) è fissata da una opportuna normalizzazione e
tB
•
S = L( x, x, t )dt ,
(7.3)
tA
è l’azione classica.
L’idea di Feynman trae origine dagli articoli di Dirac dei primi Anni Trenta, in particolare
dove si mostra che la funzione di trasformazione che lega le coordinate a istanti diversi è proporzionale a
exp
i
tB
Ldt .
(7.4)
tA
Si arriva così all’invenzione dei celebri diagrammi di Feynman, oggi uno strumento indispensabile per la fisica delle particelle elementari, che permettono di formarsi una visualizzazione
per ogni data interazione. Come è ben noto, l’ampiezza di transizione si sviluppa in serie di α
e, ad ogni ordine perturbativo, si scopre che compaiono uno o più termini, ognuno dei quali
corrisponde ad un diagramma. Ogni termine si può scrivere come il prodotto di determinate
quantità ricorrenti, che possono essere associate ad un opportuno simbolo grafico. A questo
punto, si individuano i diagrammi pertinenti, che si ottengono assemblando tutti i simboli grafici di un termine dell’ampiezza di transizione, tenendo conto che ad ogni diagramma corri24
sponde un’ampiezza di probabilità. La somma dei contributi dei vari diagrammi, ad un fissato
ordine perturbativo, individua l’ampiezza di probabilità totale del processo in considerazione.
Va notato che tutta la tecnica di Feynman si basa sulla meccanica quantistica relativistica e
non sulla teoria quantistica dei campi (sarà F. Dyson a metterla in una forma più rigorosa).
Il metodo è molto più facile di quello di Schwinger, tanto è vero che negli anni seguenti quasi
tutti sceglieranno di usare la sua tecnica. Anche la presentazione di questo metodo suscita
qualche perplessità, soprattutto fra i fisici più anziani. Bohr osserva per esempio che le linee
che rappresentano le particelle, sono proibite dalla meccanica quantistica, che stabilisce che le
traiettorie non hanno senso. Va osservato, comunque, che le linee d’universo che compaiono
nei diagrammi non sono la traiettoria reale, ma solo trucchi mnemonici per tener conto delle
varie quantità che si incontrano nello sviluppo perturbativo di una data interazione.
Il Premio Nobel 1965 viene assegnato a Richard Feynman, Julian Schwinger e Sin-Itiro Tomonaga, in riconoscimento dei loro meriti, anche se, come vedremo nel § 9, sembra che non
siano stati loro i primi a rinormalizzare la QED.
25
8. L’equivalenza delle tecniche di rinormalizzazione
In due articoli, apparsi nel 1948-49, F. Dyson dimostra che le tecniche di TomonagaSchwinger e Feynman sono equivalenti, anche se, come vedremo, Dyson non si limita a dimostrare la sola equivalenza [36].
Partendo dalla formulazione di Tomonaga-Schwinger, si deve trovare una espansione perturbativa per l’operatore unitario S (matrice in una opportuna base) che descrive l’evoluzione
dallo stato iniziale a quello finale, in una data interazione fra particelle (l’idea dell’operatore S
risale ad Heisenberg (1943)). L’operatore S può essere scritto nella seguente forma,
S=
∞
n =0
i
−
c
n
+∞
+∞
1
d 4 x1 ... d 4 x n P (H I ( x1 ).....H I ( x n ) ) ,
n! −∞
−∞
(8.1)
dove H è l’hamiltoniano in rappresentazione di interazione e P è l’operatore di ordinamento
cronologico, che riscrive i fattori in parentesi nell’ordine temporale in cui si susseguono (G.
C. Wick dimostrerà, fra il 1950 ed il 1952, che questo sviluppo può essere messo in una forma
in cui tutti i processi virtuali compaiono esplicitamente, ciò che implica la possibilità di usare
i corrispondenti diagrammi di Feynman per il calcolo delle probabilità di transizione) [37].
Dyson, partendo dalla (8.1), dimostra che si potevano ricavare le regole di Feynman, mediante una corrispondenza biunivoca fra diagrammi di Feynman ed elementi di matrice
dell’operatore S.
La rinormalizzazione della QED e il trionfo della teoria quantistica dei campi lasceranno sul
terreno una vittima illustre: la spiegazione della costante di struttura fine. Quello che durante
gli Anni Trenta era stato il problema fondamentale della QED, dimostrare che
α=
e2
1
≈
,
c 137
improvvisamente sparisce letteralmente dalle riviste di fisica.
26
(8.2)
9. Stueckelberg ovvero colui che rinormalizzò per primo la QED
Il barone svizzero Ernst C. G. Stueckelberg, negli Anni Trenta libero docente all’Università di
Zurigo, fu probabilmente il primo ad individuare una corretta tecnica di rinormalizzazione.
In una serie di articoli, introduce da un punto di vista classico la possibilità di considerare i
positoni come particelle che si propagano indietro nel tempo. Si mostra infatti che l’equazione
di una carica +e, con i potenziali anticipati del campo elettromagnetico e che si muove verso
il passato con energia negativa, è equivalente a quella di una carica –e, con l’azione di potenziali ritardati che si muove verso il futuro. Addirittura, introduce una rappresentazione delle
interazioni, mediante i diagrammi di Feynman, prima di Feynman stesso [38].
Finalmente, si decide a mettere le sue idee in inglese e spedisce nel 1942 un articolo alla
Physical Review in cui delinea una procedura corretta e completa per la rinormalizzazione
della QED. Il ‘referee’ designato è G. Wentzel, noto esperto del settore ed autore fra l’altro,
nel 1943, di un famoso testo sulla teoria quantistica dei campi.
A questo punto, non si capisce molto bene quello che è realmente successo. L’articolo viene
rifiutato nel 1942, con la motivazione che si descriveva un programma, un progetto di ricerca,
senza però realizzarlo effettivamente. Il manoscritto misteriosamente scompare e non sarà mai
più recuperato. Alcune delle idee si possono, comunque, trovare in altri suoi articoli, ma soprattutto in quello di un suo collaboratore [39-40].
I contributi di Stueckelberg non terminano certo con la scoperta della tecnica di rinormalizzazione. Nel 1951, ad esempio, inventa il gruppo di rinormalizzazione, che si rivelerà di importanza fondamentale per gli sviluppi delle teorie di unificazione [41].
La vicenda di Stueckelberg offre lo spunto per riflettere sul fatto, abbastanza ricorrente in fisica, che spesso delle importanti scoperte o innovazioni concettuali vengano sottovalutate o ignorate, per essere poi recuperate o subito dopo, nei migliori dei casi, o anche dopo molti an27
ni. Qualche volta, addirittura, la nuova proposta o scoperta viene accettata solo quando è stata
riformulata da un altro fisico, molto spesso più noto ed affermato del precedente.
Per rimanere nel campo della fisica delle particelle elementari, vedremo, per esempio, che
l’ipotesi di una struttura degli adroni in termini di quark, avanzata, nel 1964, da un giovane fisico sconosciuto, G. Zweig, che usava il termine ace, asso, invece che quark, sarà completamente ignorata, per essere presa invece in seria considerazione poco dopo, quando un’analoga
proposta verrà avanzata da M. Gell-Mann, fisico già molto noto per i suoi lavori sulla simmetria SU(3) e sulla teoria V-A della corrente debole.
Una vicenda diversa ha visto protagonista H. Yukawa, la cui proposta di una particella come
mediatrice dell’interazione nucleare, nel 1935, è stata inizialmente ignorata, per poi trovare
ampia e meritata accettazione, dopo qualche anno, a seguito della scoperta del mesone nei
raggi cosmici.
Per quanto riguarda Stueckelberg, anche a prescindere dall’oscura vicenda dell’articolo smarrito nei meandri degli uffici della Physical Review, si può dire che emerge, abbastanza evidentemente anche in questo caso, che, per essere accettata, una proposta fortemente innovativa e
feconda di ampie ricadute, teoriche e sperimentali, non deve essere formulata da uno scienziato poco affermato e praticamente sconosciuto, o perché giovane o perché attivo in un’area
marginale.
D’altra parte, in certi casi, la comunità dei fisici si può bloccare per molti anni intorno ad un
tema di ricerca sterile od ad una proposta teorica infruttuosa. Per esempio, come abbiamo già
visto, per tutti gli Anni Trenta i fisici teorici furono incapaci di rinormalizzare la QED, essenzialmente per lo scarso peso che attribuivano alla necessità di formulare in maniera relativisticamente covariante il problema (e Dirac, l’unico che aveva indicato la strada giusta, si era poi
messo a studiare le divergenze dell’elettromagnetismo classico, tralasciando la QED).
28
Molte sono, comunque, le attenuanti che possono essere invocate per giustificare il comportamento della comunità dei fisici che ignorarono gli scritti si Stueckelberg: lo stile complicato
e faticoso, l’uso di una notazione personale ed anche il fatto di pubblicare presso una rivista
poco diffusa nel mondo, gli Helvetica Physica Acta. Si deve aggiungere, però, che Stueckelberg si era mantenuto in contatto con Pauli e Weisskopf, almeno fino a quando questi ultimi
non abbandonarono la Svizzera.
29
10. Una crisi durata vent’anni
La rinormalizzazione dell’elettrodinamica quantistica portò ad una rinnovata fiducia nella teoria quantistica dei campi e nella sua capacità di descrivere le interazioni fondamentali delle
particelle. Ben presto, tuttavia, ci si accorse che la tecnica di rinormalizzazione poteva essere
applicata solamente in una classe molto ristretta di teorie, nelle quali gli infiniti si presentavano solo in un numero limitato di modi. La teoria di Fermi dell’interazione debole, per esempio, non era rinormalizzabile.
D’altra parte, all’interazione forte non si poteva applicare la tecnica stessa dell’espansione
perturbativa, perché la costante di accoppiamento relativa era circa cento volte più grande di
quella dell’elettrodinamica quantistica.
Per tutti questi motivi, si assistette ben presto ad un proliferare di nuove idee alternative, che
cercavano in un modo o nell’altro di sostituire od integrare la teoria quantistica dei campi. La
più importante fra queste teorie alternative è senza dubbio la tecnica della matrice S, con
l’associata idea di ‘democrazia nucleare’, dovuta soprattutto a G. Chew, secondo la quale non
esistono dei costituenti fondamentali delle particelle, perché ogni particella si può considerare
come formata da tutte le altre. Fino ai primi Anni Settanta, le idee di Chew furono predominanti fra i fisici teorici, soprattutto nella East Coast americana e al CERN di Ginevra.
La Rivoluzione di Novembre, iniziata nel 1974 con la scoperta della J/ψ , e preannunciata
dalla scoperta delle correnti neutre nel 1973, sarà il colpo mortale per questa teoria e segnerà
il trionfo del Modello Standard, fondato sulla teoria quantistica dei campi dei quark e dei leptoni, visti come costituenti fondamentali e puntiformi della materia.
30
Bibliografia
[1] A. Maccari, Giornale di Fisica, 2005.
[2] F. J. Dyson, Disturbing the Universe, Harper & Row, New York, 1979 (tr. it. Turbare
l’Universo, Boringhieri, Torino, 1981); J. Mehra, H. Rechenberg, The Historical Development of Quantum Theory, Springer-Verlag, New York, 1982; L. M. Brown, L. Hoddeson (a
cura di), The Birth of Particle Physics, Cambridge University Press, New York, 1983: V. F.
Weisskopf, Physics in the Twentieth Century, MIT Press, Cambridge, Massachussetts, 1972;
S. S. Schweber, QED and the Men Who Made It, Princeton University Press, 1994.
[3] J. R. Oppenheimer, Physical Review 35, 461, 1930.
[4] I. Waller, Zeitschrift fur Physik, 62, 673, 1930.
[5] P. A. M. Dirac Proceedings of the Royal Society London 133, 60, 1931; P. A. M. Dirac,
Proceedings of the Royal Society London 136, 453, 1932; P. A. M. Dirac in Septiéme Conseil
de Physique Solvay: Structure et proprietes des noyaux atomiques, Conseil de Physique Solvay VII Rapports et Discussions, 22 – 29 October 1933, Gauthiers-Villars, Paris, 1934, p.
203; P. A. M. Dirac, Proceedings of the Cambridge Philosophical Society 30, 150, 1934.
[6] H. Bethe, W. Heitler, Proceedings of the Royal Society 146, 83, 1934; J. R. Oppenheimer,
W. Furry, Physical Review 45, 245, 1934.
[7] V. F. Weisskopf, Zeitschrift fur Physik 89, 27, 1934; V. F. Weisskopf, Zeitschrift fur
56wPhysik 90, 817, 1934.
[8] W. Heisenberg, Zeitschrift fur Physik 90, 231, 1934.
[9] W. Heisenberg, Annalen der Physik 32, 20, 1938.
[10] W. Heisenberg, Annalen der Physik , 1943.
[11] E. A. Uehling, Physical Review 48, 55, 1935.
[12] R. Serber, Physical Review 48, 49, 1935; R. Serber, Physical Review 49, 546, 1936.
31
[13] H. Kramers, Nuovo Cimento 15, 108, 1938; S. Pasternack, Physical Review 54, 1113,
1938.
[14] F. Bloch, A. Nordsieck, Physical Review 52, 54, 1937.
[15] S. Dancoff, Physical Review 55, 959, 1939.
[16] V. F. Weisskopf, Physical Review 55, 678, 1939; V. F. Weisskopf, Physical Review 56,
72, 1939.
[17] P. A. M. Dirac, Proceedings of the Royal Society 167, 148, 1938; P. A. M. Dirac, Annales de l’Institut Henri Poincaré 9, 13, 1939; P. A. M. Dirac, Communications of the Dublin
Institute for Advanced Studies 1A, 35, 1943, P. A. M. Dirac, Review of Modern Physics 17,
195, 1945.
[18] F. H. Spedding, C. D. Shane, N. S. Grace, Physical Review 44, 58, 1933.
[19] W. M. Houston, Y. M. Hsieh, Bulletin of the American Physical Society 8, 5, 1933; W.
M. Houston, Y. M. Hsieh, Physical Review 45, 30, 1934; W. M. Houston, Y. M. Hsieh, Physical Review 45, 263, 1934.
[20] H. Kopfermann, Naturwissenschaften 22, 218, 1934.
[21] R. C. Williams, R. C. Gibbs, Physical Review 44, 325, 1933; R. C. Williams, R. C.
Gibbs, Physical Review 44, 1016, 1933; R. C. Williams, R. C. Gibbs, Physical Review 45,
221, 1934; R. C. Williams, R. C. Gibbs, Physical Review 45, 475, 1934.
[22] A. Maccari, Giornale di Fisica, 2005.
[23] F. H. Spedding, C. D. Shane, N. S. Grace, Physical Review 47, 38, 1935.
[24] R. C. Williams, R. C. Gibbs, Physical Review 49, 416, 1936;
[25] W. M. Houston, Physical Review 51, 446, 1937.
[26] M. Heyden, Zeitschrift fur Physik 106, 499, 1937.
[27] R. C. Williams, Physical Review 54, 558, 1938.
32
[28] J. W. Drinkwater, O. Richardson, W. E. Williams, Proceedings of the Royal Society 174,
164, 1940.
[29] W. E. Lamb, R. C. Retherford, Physical Review 72, 241, 1947.
[30] H. M. Foley, P. Kusch, Physical Review 73, 412, 1948.
[31] H. A. Bethe, Physical Review 72, 339, 1947.
[32] J. Schwinger, Physical Review 73, 416, 1948; J. Schwinger, Physical Review 74, 1439,
1948; J. Schwinger, Physical Review 75, 651, 1949; J. Schwinger, Physical Review 76, 790,
1949.
[33] S. Tomonaga, Progress of Theoretical Physics 1, 27, 1946.
[34] J. A. Wheeler, R. P. Feynman, Physical Review 59, 682, 1941; J. A. Wheeler, R. P. Feynman, Review of Modern Physics 17, 157, 1945; J. A. Wheeler, R. P. Feynman, Review of
Modern Physics 21, 425, 1949.
[35] R. P. Feynman, Physical Review 76, 679, 1949; R. P. Feynman, Physical Review 76, 749,
1949; R. P. Feynman, Physical Review 76, 769, 1949.
[36] F. J. Dyson, Physical Review 75, 486, 1949.
[37] G. C. Wick, Physical Review 80, 268, 1950
[38] E. C. G. Stueckelberg, Helvetica Physica Acta 11, 221, 1938; E. C. G. Stueckelberg, J. F.
C. Patry, Helvetica Physica Acta 13, 167, 1940; E. C. G. Stueckelberg, Helvetica Physica Acta 14, 51, 1941.
[39] E. C. G. Stueckelberg, Helvetica Physica Acta 18, 21, 1945; E. C. G. Stueckelberg, Helvetica Physica Acta 19, 241, 1946.
[40] D. Rivier, Helvetica Physica Acta 22, 265, 1949.
[41] E. C. G. Stueckelberg, A. Petermann, Helvetica Physica Acta 24, 317, 1951; E. C. G.
Stueckelberg, Helvetica Physica Acta 26, 499, 1953.
33
Scarica