STORIA DELLA FISICA DELLE PARTICELLE ELEMENTARI IV. La rinormalizzazione dell’elettrodinamica quantistica Prof. Attilio Maccari Via Alfredo Casella 3 00013 Mentana RM E-mail: [email protected] 1. Introduzione Negli Anni Trenta si era diffusa la convinzione che gli infiniti che nascevano nello sviluppo perturbativo dell’elettrodinamica quantistica (QED) fossero ineliminabili, perché erano il segnale dell’incapacità della teoria a descrivere le interazioni delle particelle ad alta energia. Molti fisici (uno fra tutti, J. R. Oppenheimer che proprio in quegli anni stava assumendo il ruolo di leader della ricerca teorica negli USA) credevano che fosse necessaria una teoria basata su nuove assunzioni fisiche [1-2]. La QED si era arenata sullo scoglio dell’autoenergia dell’elettrone, della polarizzazione del vuoto e delle correzioni al vertice, tutte caratteristiche degli ordini superiori al primo dello sviluppo perturbativo della teoria. (§ 2). Tuttavia, nel campo della spettroscopia ottica, erano stati compiuti degli esperimenti che indicavano un probabile spostamento dei livelli energetici dell’idrogeno dai valori previsti dalla teoria di Dirac (anche se altri davano invece risultati concordi con la teoria). Sorse allora un acceso dibattito fra teorici e sperimentali che portò alla conclusione che tali esperimenti erano sbagliati e che la teoria di Dirac descriveva correttamente lo spettro energetico dell’idrogeno (§ 3). La Seconda Guerra Mondiale portò al blocco totale della ricerca nel settore della fisica delle particelle elementari, soprattutto per quanto riguarda l’organizzazione degli esperimenti. La maggior parte dei fisici fu coinvolta o nel Progetto Manhattan, per la costruzione della bomba atomica, o in altre ricerche connesse con lo sforzo bellico dei vari paesi belligeranti. Con la fine delle ostilità, la ricerca ripresa nuovo slancio, grazie anche ai cospicui finanziamenti, che soprattutto negli Stati Uniti, venivano riservati alla fisica delle particelle elementari, vista la sua stretta contiguità con la fisica nucleare. 2 W. Lamb e R. Retherford nel 1947 determinarono per la prima volta lo spostamento del livello 22S1/2 dell’atomo di idrogeno, rispetto al valore previsto dalla teoria di Dirac (§ 4). Poco tempo si svolse la conferenza di Shelter Island, dove vennero gettate le basi della rinormalizzazione della teoria (§ 5). J. Schwinger (§ 6) e R. P. Feynman (§ 7) elaborarono indipendentemente due metodi per la rinormalizzazione, presentati poi alla conferenza di Pocono in Pennsylvania. Poco tempo dopo, J. R. Oppenheimer venne a sapere che, durante la guerra, in Giappone, S. Tomonaga aveva sviluppato in completo isolamento un programma di eliminazione degli infiniti (§ 8), sulla stessa linea del metodo seguito poi da Schwinger. Qualche anno dopo, F. Dyson (§ 9) dimostrerà l’equivalenza del metodo di Schwinger-Tomonaga con quello di Feynman. L’ultimo paragrafo sarà dedicato alle ricerche del barone E. C. G. Stueckelberg, che, a quanto sembra, era giunto per primo ad elaborare una tecnica di rinormalizzazione, ma il cui lavoro era stato praticamente ignorato (§ 10). 3 2. La lotta con gli infiniti Nel 1930, J. R. Oppenheimer, all’epoca collaboratore di W. Pauli, in un articolo che conoscerà una notevole diffusione, dimostra che il termine che esprime l’interazione fra la corrente elettronica ed il campo elettromagnetico è all’origine degli infiniti, comportando uno spostamento infinito dei livelli dell’atomo di idrogeno [3]. In particolare, Oppenheimer dimostra che l’autointerazione dell’elettrone, calcolata considerando al secondo ordine i processi nei quali l’elettrone emette e riassorbe un fotone virtuale, sommando su tutti i possibili stati intermedi, provoca uno spostamento infinito (con divergenza quadratica) delle righe spettrali dell’idrogeno. Poiché tale calcolo è precedente alla teoria di Dirac delle lacune, sono inclusi anche gli stati dell’elettrone ad energia negativa. Un tale risultato convinse molti che l’elettrodinamica quantistica era fondamentalmente sbagliata e che fosse necessaria una nuova profonda modifica. Un risultato analogo verrà dimostrato da I. Waller, per il caso dell’elettrone libero [4]. Importanti progressi, anche se apparentemente scoraggianti, vengono realizzati ancora di Dirac ed esposti al VII Congresso Solvay nell’ottobre 1933, a Parigi. Si tratta di un fenomeno tipico della QED, la polarizzazione del vuoto. In base al secondo principio di indeterminazione di Heisenberg, il vuoto può produrre una coppia di elettroni e positoni (di energia complessiva ≈ 2mc 2 ), che possono vivere solamente per un tempo T≈ 2mc 2 . (2.1) Si può quindi ritenere che l’elettrone sia circondato da infinite coppie di tali particelle, dette virtuali, perché violano il principio di conservazione dell’energia. Nel poco tempo che vivono, i positoni sono attratti verso l’elettrone, creando una asimmetria nella distribuzione com4 plessiva della carica. Se infatti si immagina di avvicinarsi sempre di più all’elettrone, la nube virtuale, in prevalenza positiva, tenderà a ridurre la carica totale dell’elettrone. Il calcolo di questo effetto porta ad un nuovo infinito, che si aggiunge a quello dell’autoenergia, del quale abbiamo già parlato. Dirac propose di sottrarre tra loro, in un modo che doveva essere relativisticamente consistente, i due infiniti: era nata la “fisica della sottrazione” (come, abbastanza ironicamente, venne chiamata), che sarà poi elevata a metodo generale dalla tecnica della rinormalizzazione, grazie ai lavori di Tomonaga, Schwinger e Feynman, dopo la Seconda Guerra Mondiale. Se alla carica ‘nuda’ dell’elettrone, resa infinita dall’autoenergia, togliamo la polarizzazione del vuoto, deve rimanere la carica reale dell’elettrone. In realtà, nei calcoli di Dirac rimanevano ancora altri infiniti, essenzialmente perché il calcolo non era del tutto invariante relativisticamente [5]. Nello stesso periodo, J. R. Oppenheimer e W. Furry giungono alla conclusione che le difficoltà dell’autoenergia “si basano su una applicazione illegittima dei metodi della meccanica quantistica al campo elettromagnetico” e che, quindi, le divergenze devono richiedere una mutazione nelle concezioni dello spazio e del tempo. Le tesi sostenute in questo articolo sono tipiche della fisica di questo periodo, perché si credeva che fossero ragioni di tipo fisico a portare agli infiniti, mentre invece, dopo la Seconda Guerra Mondiale, si vedrà che era sufficiente un progresso tecnico, nella manipolazione dei calcoli, per riuscire ad eliminare consistentemente tutti gli infiniti a tutti gli ordini perturbativi. I due autori, inoltre, mostrano che una teoria quantistica dei campi riesce ad incorporare le antiparticelle, e quindi anche la creazione di coppie particella-antiparticella, senza ricorrere al ‘mare di Dirac’ delle infinite soluzioni ad energia negativa [6]. All’epoca, era opinione comune che, per giungere ad una teoria soddisfacente, bisognasse prima spiegare il valore della costante di struttura fine (detta anche di Sommerfeld), α , 5 α= e2 1 ≈ . c 137 (2.1) La costante α veniva considerata fondamentale perché riuniva in un’unica quantità adimensionale la meccanica quantistica, con la costante di Planck, , la teoria della relatività, con la velocità della luce, c, e l’elettromagnetismo, tramite la carica e dell’elettrone. L’ampiezza di probabilità di un determinato processo, nella QED, viene sviluppata perturbativamente in potenza di α , A = a1α + a 2α 2 + .... , (2.2) dove i coefficienti a1, a2,.., vanno calcolati di volta in volta, a seconda del processo considerato. Tutti i tentativi di spiegare il valore della costante α sono falliti e quello che era considerato il problema più importante della fisica teorica ha cessato di essere tale. La storia ha preso una strada completamente diversa, perché la QED è stata rinormalizzata, migliorando la tecnica di calcolo, ma senza introdurre alcun nuovo principio fisico. Attualmente, è molto in voga fra i fisici ricercare teorie esteticamente attraenti, senza preoccuparsi eccessivamente della diretta applicabilità ai fenomeni, nella convinzione che bisogni innanzitutto costruire delle teorie conformi a determinate proprietà matematiche, come l’invarianza di gauge. Il criterio estetico si può rivelare tuttavia molto pericoloso, perché soggetto alle mode dei tempi. Per esempio, negli Anni Trenta, i criteri estetici dovevano essere molto diversi dagli attuali, se molti consideravano la QED una teoria matematicamente brutta, a causa degli infiniti, dei calcoli complicati che comportava e, soprattutto, della scarsa traducibilità, in termini fisici intuitivi, della sua struttura matematica. 6 Oggi, invece, la QED è diventata il prototipo di tutte le teorie fisiche, con la sua invarianza di gauge, e sia la cromodinamica quantistica (teoria dell’interazione forte) che l’unificazione elettrodebole sono state modellate su di esse, con qualche modifica di ordine tecnico. Dopo la conferenza di Parigi, Pauli diede incarico al suo nuovo collaboratore, V. Weisskopf, di ricalcolare l’autoenergia, aggiornando il calcolo di Oppenheimer del 1930, tenendo conto della polarizzazione del vuoto, cioè della creazione di coppie elettrone-positone. Il risultato fu deprimente, si otteneva sempre un infinito. Dopo la pubblicazione dell’articolo, nel 1934, Weisskopf ricevette una lettera di W. Furry che, gentilmente, gli mostrava la presenza di un errore di calcolo. Weisskopf scrisse rapidamente una rettifica e si accorse che ora la divergenza c’era sempre, ma era solo logaritmica [7]. L’autoenergia dell’elettrone risulta essere 3e 2 mc 2 E= log + 1+ hc mca mca 2 , (2.3) dove a è il raggio dell’elettrone ed m la sua massa. Dall’esame della (2.3), si vede che la divergenza classica esiste solo nell’ipotesi assurda che il raggio classico a dell’elettrone sia grande rispetto alla lunghezza d’onda Compton Nell’ipotesi realistica a << mc mc . , grazie al contributo delle antiparticelle negli stati intermedi, la divergenza diventa logaritmica. Non esisteva quindi più la divergenza quadratica delle righe spettrali trovata da Oppenheimer. Sempre nel 1934, Heisenberg arriva alla prima formulazione completa della QED, con le equazioni di campo quantizzate per l’elettrone, per il campo elettromagnetico e per la loro l’interazione [8]. Anche con la tecnica delle sottrazioni, rimanevano gli infiniti e addirittura sembrava nascere l’incapacità degli elettroni, circondati dalla nube ‘virtuale’, di interagire con una qualunque altra particella. Interessante la seguente affermazione, che conferma quanto 7 abbiamo osservato prima, a proposito dell’articolo di Oppenheimer e Furry, “una fusione senza contraddizioni fra le condizioni della teoria quantistica e le corrispondenti previsioni della teoria dei campi è possibile solo in una teoria che fornisca un determinato valore alla costante di Sommerfeld”. Qualche anno dopo, nel 1938, Heisenberg sembra essersi convinto dell’impossibilità di eliminare gli infiniti, senza introdurre nuove ipotesi fisiche, perché abbozza una nuova teoria, introducendo una energia fondamentale, che porta ad una quantizzazione dello spazio e del tempo, allo scopo di rendere l’elettrone non più puntiforme [9]. La teoria quantistica dei campi veniva riottenuta solo ad energie molto basse rispetto all’unità fondamentale; ad energie molto alte dove sono presenti gli infiniti, molto semplicemente, la QED non deve essere usata. E’ interessante notare come Heisenberg, e con lui praticamente tutti i fisici degli Anni Trenta, si muove ancora in quella cornice tradizionale, seconda la quale se le predizioni di una teoria diventano infinite vuol dire che la teoria non funziona più e deve essere sostituita. Possiamo dire, allora, che in quell’epoca si cercava una spiegazione fisica per il superamento degli infiniti nella teoria, mentre, dopo la Seconda Guerra Mondiale, si vedrà che era sufficiente una spiegazione prettamente matematica. Ancora Heisenberg nel 1943, riprendendo idee di Wheeler del 1937, formula la cosiddetta teoria della matrice S, importante per gli sviluppi futuri nella teoria delle interazioni delle particelle elementari [10]. Si parte dalla constatazione che non si può seguire in dettaglio quello che accade in un urto o più in generale in una interazione fra particelle elementari. L’unica cosa che si misura sono le proprietà dello stato iniziale (energia, quantità di moto, spin, ecc.), e di quello finale. La teoria deve cercare di fornire la probabilità di transizione fra lo stato iniziale e quello finale, partendo da pochi principi fondamentali, che dovranno sostituire quelli 8 della teoria quantistica dei campi. Fra questi principi, il fatto che le probabilità devono essere numeri reali, la conservazione della probabilità, la dipendenza regolare dall’energia, ecc. La teoria di Heisenberg verrà ripresa negli Anni Cinquanta, soprattutto da G. Chew e collaboratori, nel tentativo di costruire una alternativa alla teoria quantistica dei campi, allo scopo di modellizzare le interazioni forti, che apparivano intrattabili, per mezzo di uno sviluppo perturbativo, a causa del fatto che la costante di accoppiamento tipica di tali interazioni è circa cento volte più grande di quella, (2.1), della QED. Intanto qualcosa si muoveva anche sul lato sperimentale, perché alcuni esperimenti sembravano segnalare uno spostamento del livello 2S1/2 dell’elettrone dell’atomo d’idrogeno, rispetto a quanto previsto dall’equazione di Dirac (di tali esperimenti si parlerà diffusamente nel paragrafo seguente). Alcuni collaboratori di Oppenheimer, E. A. Uehling, [12], e R. Serber, [13], cercarono di vedere se tale effetto poteva essere spiegato dalla QED, ma trovarono un risultato troppo piccolo e per di più nella direzione sbagliata. In particolare, il lavoro di Serber è importante, perché compaiono i primi abbozzi della futura di rinormalizzazione. I vari termini, che compaiono nello sviluppo perturbativo dell’ampiezza di probabilità di un determinato fenomeno, possono essere formalmente conglobati in un unico termine, ridefinendo la carica dell’elettrone, e f = e + a 2 e 3 + a 3 e 5 + .... . (2.4) In pratica, tutti i contributi di ordine superiore vengono tutti sostituiti dalla carica fisica ef. Si noti che e è il parametro presente fin dall’inizio nella teoria, perché compare nella lagrangiana d’interazione, e che a2, a3,… sono tutti divergenti, mentre, d’altra parte, la carica ‘nuda’, e, non è misurabile. Se invertiamo lo sviluppo in serie, otteniamo e = e f + a 2 e 3f + a 3 e 5f + .... (2.5) Se adesso l’ampiezza di probabilità, calcolata ad un certo ordine perturbativo, viene espressa in termine di ef allo stesso ordine, può succedere che le divergenze che apparivano inizialmen9 te si cancellano con le nuove divergenze che provengono dall’espressione di e in termini di ef . La teoria si dice rinormalizzabile se l’ampiezza di probabilità, espressa in termini dei parametri misurati, risulta finita. Anche in altri lavori, compaiono delle interessanti considerazioni sulla fisica delle sottrazioni [13]. Per esempio, H. Kramers si era convinto che la massa osservabile dell’elettrone fosse il contributo di una massa ‘nuda’, che compare nella lagrangiana, e di quella dovuta all’autoenergia, così come la carica è la differenza fra quella ‘nuda’ e quella dovuta alla polarizzazione del vuoto. Un parziale successo venne conseguito nel 1937 da F. Bloch e A. Nordsieck, che risolsero i vertici a bassa energia, perché dimostrarono che gli infiniti, dovuti alle divergenze infrarosse associate ai fotoni a bassa energia, potevano essere eliminati [14]. A quanto sembra, Bloch e Oppenheimer dissero a S. Dancoff, un borsista di Bloch, di fare i calcoli anche per i vertici ad alta energia, ma Dancoff commise un errore e trovò un risultato infinito. Se lo avesse corretto, avrebbe forse dimostrato per primo la rinormalizzazione della QED [15]. Nel 1939, in quello che può essere considerato l’ultimo articolo importante per la storia della QED, prima dello scoppio della Seconda Guerra Mondiale, Weisskopf dimostra che l’autointerazione dell’elettrone riduce tutte le divergenze rendendole logaritmiche. Inoltre, Weisskopf stima, partendo da questo risultato, il raggio dell’elettrone che risulta essere 10-58 volte più piccolo del raggio classico dell’elettrone [16]. Intanto, Dirac stava imboccando una strada completamente nuova, lungo la quale, come vedremo, non sarebbe stato seguito dagli altri fisici. Dirac si convinse che bisognasse prima trovare una teoria classica, esente da infiniti, e solo dopo passare alla versione quantistica. In un articolo del 1938, ‘Classical Theory of Radiating Electrons’, Dirac esamina attentamente pregi e difetti della teoria dell’elettrone di Lorentz. In particolare rifiuta l’idea dell’origine elettromagnetica della massa, che porta ad una massa sempre positiva, in contrasto proprio con 10 l’equazione di Dirac, dove masse positive e negative compaiono in modo completamente simmetrico. Ancora una volta, come già sottolineato in Storia della Fisica delle Particelle Elementari, II. La Meccanica Quantistica Relativistica, si può osservare come Dirac fosse guidato da una motivazione di ordine fisico, nello scegliere la ricerca da intraprendere, e non da un criterio di bellezza e coerenza matematica, come invece ha più volte affermato nei suoi scritti. Le sue ricerche, nelle quali è costretto ad ipotizzare delle probabilità negative ed a supporre che un segnale si possa propagare più velocemente della luce dentro un elettrone, non lo portano a risultati concreti ed, anzi, finiranno per escluderlo dal corso principale della fisica teorica degli anni successivi [17]. 11 3. La misura della costante di struttura fine e gli esperimenti sull’atomo di idrogeno Per capire la discussione che sorse intorno alla determinazione della costante di struttura fine e dello spettro energetico dell’atomo di idrogeno, bisogna prima di tutto tener presente che l’equazione di Dirac predice che i due livelli energetici 22S1/2 e 22P1/2 siano degeneri, abbiano cioè la stessa energia (abbiamo usato la notazione, comune in spettroscopia, che indica un livello energetico nella forma n2s+1LJ, dove n è il numero quantico principale, s è il numero quantico di spin, sempre uguale ad 1/2 perché abbiamo solo un elettrone, L il numero quantico orbitale (S corrisponde a L=0, P a L=1, D a L=2, ecc.) ed, infine, J il numero quantico del momento angolare totale). Il famoso esperimento di Lamb e Retherford nel 1947 evidenzierà invece uno spostamento del livello 2S1/2, rispetto alla previsione dell’equazione di Dirac (questo spostamento viene anche chiamato Lamb shift). Come vedremo, l’elettrodinamica quantistica, dopo essere stata rinormalizzata, prevede in maniera corretta l’entità dello spostamento. La storia non si è affatto svolta in maniera lineare, come potrebbe sembrare, sulla base di quanto abbiamo appena detto, perché, durante tutti gli Anni Trenta, erano stati eseguiti alcuni esperimenti, nel campo della spettroscopia ottica, che avrebbero potuto già dimostrare che la formula di Dirac non era esatta, ma che invece, a seguito di una lunga storia di discussioni, critiche, ripensamenti e ritrattazioni, che ora descriveremo, condussero ad una conferma completa della teoria di Dirac. Un gruppo sperimentale del Caltech, in California, formato da F. Spedding, C. D. Shane, N. Grace, nel 1933, eseguì una serie di misure dello spettro dell’idrogeno ed, assumendo per vera la formula di Dirac, dedusse per α un valore di 1/138 che, con loro grande sorpresa, risultò non compatibile con i risultati degli altri esperimenti, che collocavano il valore di α intorno 12 ad 1/137. Probabilmente, si resero conto che ciò poteva significare una insufficienza della teoria di Dirac, perché nell’articolo si trova la seguente frase, quasi profetica: “Questa differenza…. potrebbe essere una conseguenza di un’incompletezza della teoria della struttura fine”, cioè appunto della teoria di Dirac [18]. Un risultato analogo venne raggiunto da due altri sperimentatori del Caltech, W. M. Houston e Y. M. Hsieh, che osservarono uno spostamento delle righe spettrali rispetto ai valori teorici, avanzando sospetti sulla teoria di Dirac. Houston e Hsieh dissero esplicitamente che la teoria non era soddisfacente: “Una possibile spiegazione della differenza è che nel calcolo delle frequenze è stato trascurato il contributo dell’interazione fra il campo di radiazione e l’atomo”, ovvero dell’autoenergia dell’elettrone [19]. In Germania, risultati simili vengono trovati da P. Kopf, rafforzando ulteriormente il sospetto di una incompletezza della teoria di Dirac [20]. Anche R. C. Gibbs e R. C. Williams alla Cornell University a Ithaca (stato di New York, USA) trovarono delle differenze con la teoria di circa il 6%. [21]. Essi si resero conto che probabilmente la causa era lo spostamento verso l’alto del livello 2 2S1/2, ma ovviamente non potevano addurre motivi teorici per spiegarlo. I quattro gruppi che abbiamo citato usavano tutti quanti la stessa tecnica sperimentale, basata sulla misura dell’intensità della luce mediante l’interferometro di Fabry-Perot. Un gas d’idrogeno viene sottoposto ad una forte corrente elettrica, allo scopo di dissociare la molecola d’idrogeno ed ottenere gli atomi separati. Aumentando l’intensità della corrente elettrica, aumenta anche lo splendore, cioè l’intensità della righe dello spettro, rendendo la misura più agevole, ma, contemporaneamente, diminuisce la definizione della riga, perché il gas si riscalda e l’agitazione termica provoca un forte effetto Doppler, alterando le frequenza dello spettro e provocando un allargamento della riga. Se si prova ad abbassare la temperatura, per diminuire l’entità dell’effetto Doppler, occorre evidentemente una corrente minore, ma l’intensità della riga diminuisce, se si cerca di aumen13 tare il tempo di esposizione alla corrente, si possono verificare variazioni di temperatura, associate a vibrazioni del gas. Si comprende, allora, che le misure compiute erano ai limiti della loro sensibilità sperimentale e di difficile interpretazione. Senza entrare nei particolari, ricordiamo che venivano osservate cinque righe (insieme formano la riga primaria della serie di Balmer), di intensità variabile, abbastanza vicine fra di loro, da risultare parzialmente sovrapposte. Le cinque righe corrispondevano alle transizioni: A) da 32P1/2 o 32S1/2 (degeneri secondo l’equazione di Dirac) a 22P3/2; B) da 32D3/2 o 32P3/2 a 22P3/2; C) da 32D5/2 a 22P3/2; D) da 32P1/2 o 32S1/2 a 22P1/2 o 22S1/2; E) da 32D3/2 o 32P3/2 a 22P1/2 o 22S1/2. A questo punto si otteneva una curva dell’intensità della luce in funzione della frequenza e bisognava riuscire a separare il contributo delle cinque righe, posizionandole correttamente all’interno dello spettro complessivo. E’ evidente che l’analisi statistica diventava determinante e poteva influenzare pesantemente l’esito finale della misura. Inizialmente, comunque, la situazione sperimentale sembrava essere abbastanza chiara, perché tre gruppi sperimentali erano concordi nella scoperta di deviazioni sperimentali dalle previsioni dell’equazione di Dirac, tanto che, proprio a causa di questi nuovi risultati sullo spettro dell’idrogeno, Oppenheimer diede incarico ad un suo collaboratore, E. Uehling, di vedere se tale differenza poteva essere spiegata dalla polarizzazione del vuoto [11]. Abbiamo già visto, nel precedente paragrafo, che lo spostamento era presente, ma con il segno sbagliato, perché il livello 22S1/2 si abbassava, invece di alzarsi, ed inoltre lo spostamento era in valore assoluto dieci volte più piccolo di quanto richiesto. Fu così che nel 1934 si diffuse la voce che nella QED qualcosa era sicuramente sbagliato, visto che, da una parte, l’equazione di Dirac non riusciva a spiegare i dati sperimentali, mentre, dall’altra, la teoria quantistica dei campi produceva addirittura risultati infiniti. Fu anche sotto la spinta di questa vicenda, che Oppenheimer crederà nell’inconsistenza della teoria quantisti14 ca dei campi, convinto che la QED cessasse di essere valida, per energie E dell’elettrone date da E≈ mc 2 α ≈ 70 MeV , (3.1) dove mc2 = 0.511 MeV è la massa dell’elettrone. Tale supposizione nasceva dal fatto che, proprio in quegli anni, come abbiamo già visto in un precedente lavoro, era stata evidenziata la presenza nei raggi cosmici di una componente ‘dura’, ad alta energia, superiore alla (3.1), in grado di penetrare metri di piombo [22]. Nell’ipotesi che la componente ‘dura’ fosse costituita da elettroni, si ottenevano delle incongruenze, perché la QED prevedeva una capacità di penetrazione nella materia molto piccola, dato che gli elettroni perdono rapidamente la loro energia per irraggiamento e conseguente produzione di coppie elettrone-positone. Si presentavano allora due possibilità: la QED è sbagliata alle altre energie superiori alla (3.1) oppure la componente ‘dura’ non è formata da elettroni, ma di un nuovo tipo di particella. La maggior parte dei fisici propendeva per la prima ipotesi e, solo nel 1937, ci si renderà conto che la componente ‘dura’ era da attribuirsi ad una nuova particella, il mesone, centinaia di volte più pesante dell’elettrone, la cui perdita di energia nell’attraversamento di una sostanza materiale avviene praticamente solo per ionizzazione, essendo trascurabile quella per irraggiamento. Intanto, alla fine del 1934, un nuovo colpo di scena interviene a confondere ulteriormente le già agitate acque della QED: Spedding, Shane e Grace ritrattano le loro precedenti affermazione. Cambiando il metodo di interpretazione dei dati sperimentali (questi ultimi erano praticamente restati immutati), affermano di ottenere per α il valore corretto di 1/137, [23]. Contemporaneamente, non esitano ad attaccare Gibbs e Williams sia per la loro imperizia statistica sia per la scarsa professionalità nell’esecuzione dell’esperimento. E’ interessante osservare che non criticano i dati di Houston, probabilmente perché ottenuti nel loro stesso laboratorio, 15 al Caltech. Al convegno dell’American Physical Society, nel capodanno del 1935, si assistette ad un violento scontro verbale fra Gibbs, [24], ed il gruppo del Caltech. Anche Houston interverrà successivamente nella discussione, [25]. Mentre, in Germania, si assiste ad un analogo voltafaccia da parte di Kopf, come si vede nell’articolo scritto da una sua collaboratrice, M. Heyden, che aveva ripetuto l’esperimento ottenendo risultati in linea con la teoria di Dirac, [26], Gibbs e Williams continuano a sostenere le loro ragioni, anche se Williams, dopo qualche anno, abbandonerà il settore, passando all’astronomia. Tutta la vicenda fece nascere la convinzione che dopotutto la teoria di Dirac probabilmente era giusta e, quando nel 1938 Williams pubblica un ultimo articolo, dove viene affermata la presenza di una discrepanza del 2,7% con la previsione di Dirac, [27], viene praticamente ignorato. All’Imperial College di Londra, Sir Owen Richardson, Premio Nobel nel 1928, decise di rifare le misurazioni dello spettro dell’idrogeno, con un nuovo tipo di interferometro ideato da W. E. Williams e con l’aiuto di un altro collaboratore, J. W. Drinkwater [28]. I risultati di Richardson e collaboratori chiusero definitivamente la discussione, escludendo nel modo più categorico lo spostamento e confermando la teoria di Dirac. Nell’esame dei dati sperimentali, Richardson sostiene che, anche se apparentemente i risultati grezzi ottenuti dal suo apparato suggeriscono lo spostamento, tuttavia, dopo una loro accurata elaborazione, che tiene conto del fatto che il gas d’idrogeno è comunque una mescolanza della forma monoatomica, H, e biatomica, H2, risulta che i livelli energetici si accordano con la previsione di Dirac. Secondo Richardson, infatti, è la forma biatomica dell’idrogeno che produce delle righe secondarie, causa dell’apparente spostamento dei livelli energetici. La vicenda della mancata scoperta del Lamb Shift rivela quanto sia complessa e non lineare l’interazione fra teoria ed esperimento. Troppo semplicistica è l’idea secondo la quale gli e16 sperimenti decidono se una previsione teorica è giusta o sbagliata e, dal canto suo, la teoria cerca di interpretare un dato sperimentale nuovo ed inatteso. I risultati sperimentali sullo spettro dell’idrogeno sembrano invece seguire da vicino le convinzioni dei teorici: in un primo tempo lo sviluppo della teoria quantistica dei campi sembra essere il superamento inevitabile dell’equazione di Dirac e, contemporaneamente, ben quattro esperimenti avvalorano tale eventualità. Quando fra i teorici nascono i primi dubbi sulla consistenza della teoria e si dispera di venire a capo di tutti i suoi infiniti, anche gli sperimentali cambiano parere e gli stessi dati sperimentali, che prima supportavano l’idea dello spostamento, ora, interpretati in maniera diversa, confermano la teoria di Dirac. Non si pensi però ad una dipendenza dell’esperimento dalla teoria. In realtà, il discorso appena fatto può essere rovesciato, constatando come le previsioni dei teorici siano state influenzate dai risultati sperimentali. Dobbiamo quindi parlare di una stretta influenza reciproca: la teoria influenza l’esperimento che, con un forte feedback, retroagisce sulla teoria stessa. Esistono dei momenti, comunque, in cui la teoria (per esempio, la teoria di Dirac con la previsione dell’esistenza del positone) o l’esperimento (per esempio, la scoperta del Lamb Shift, di cui parleremo nel prossimo paragrafo) assumono un ruolo predominante, determinando una vera e propria svolta, con un evidente avanzamento conoscitivo. In altri momenti, invece, teoria ed esperimento sono in qualche modo ugualmente indecisi, senza sapere quale direzione prendere (per esempio, la vicenda della scoperta delle correnti neutre, (1973), con la conseguente conferma della teoria di Glashow-Weinberg-Salam, che si protrasse per qualche anno, fra conferme e ritrattazioni, all’interno della più generale competizione fra CERN e USA). Negli Anni Trenta la dinamica dell’interazione teoria-esperimento raggiunse un punto d’equilibrio costituito dalla conferma della teoria di Dirac, dopo la Seconda Guerra Mondiale, il risultato finale sarà esattamente l’opposto. 17 4. Il Lamb shift Willis E. Lamb, della Columbia University, un fisico che univa ad una buona conoscenza teorica della QED anche una non comune capacità sperimentale, durante la guerra si era occupato della progettazione dei magnetron, tubi elettronici per la produzione di microonde per l’inseguimento radar. Finita la guerra, aveva avuto l’idea, nel 1945, di sfruttare queste conoscenze per determinare l’eventuale spostamento del livello 22S1/2. Lamb pensava di spostare l’elettrone dal livello 22S1/2 (metastabile, perché la transizione diretta 22S1/2-12S1/2 è vietata nell’approssimazione di dipolo elettrico) al livello 22P1/2, mediante le microonde del magnetron. A questo punto l’elettrone sarebbe rapidamente passato nel livello fondamentale 12S1/2. L’esperimento, realizzato in collaborazione con lo studente Robert Retherford, riuscì il 26 aprile 1947. Una corrente rarefatta di H2 veniva soffiata in un piccolo forno a una temperatura di circa 2000 0C. Il calore dissociava la molecola d’idrogeno e gli atomi così ottenuti uscivano da una fenditura nel forno. Un fascio di elettroni li portava nello stato metastabile 22S1/2. Si sapeva che il gas, quando si trova in uno stato metastabile e viene avvicinato ad un metallo, provoca la fuoriuscita di un elettrone dal metallo stesso. Mediante una opportuna amplificazione, si ottiene quindi una corrente elettrica. Se si invia un fascio di microonde a frequenza variabile sul gas, posso misurare per quale frequenza gli atomi passano allo stato 22P1/2, e quindi quasi istantaneamente in quello fondamentale, perché la corrente nel rivelatore dovrebbe calare bruscamente, dato che il gas d’idrogeno non si viene più a trovare nello stato metastabile. 18 La frequenza delle microonde del magnetron venivano variate, mediante un campo magnetico regolabile, e si scoprì che il calo si verificava alla frequenza di (1077,77 ± 0,01) MHz, la differenza fra i livelli 22S1/2 e 22P1/2. Lamb e Retherford misurarono anche la costante di struttura di fine, trovando il valore 1/137,0365 ± 0,0012, [29]. Nello stesso periodo, P. Kusch eseguiva una accurata misura del momento magnetico dell’elettrone alla Columbia University. Usando la tecnica dei raggi molecolari di I. I. Rabi, per trovare i salti energetici indotti da radioonde ad alta frequenza in atomi di gallio e sodio, scopriva che il momento magnetico dell’elettrone non è dato dal magnetone di Bohr, µB = e , 2mc (4.1) come previsto da Dirac, bensì ne differisce leggermente, essendo uguale a (1,001146 ± 0,000012) µ B , [30]. Kusch e Lamb ricevettero il Premio Nobel nel 1955. Per la prima volta ci si trovava di fronte chiaramente a dei risultati in contrasto con la teoria di Dirac, a degli effetti piccoli ma misurabili, che dovevano essere spiegati dalla QED, se si voleva continuare ad usare questa teoria per le interazioni elettromagnetiche ad alta energia. 19 5. Il convegno di Shelter Island Il convegno di Shelter Island, vicino a Long Island, (stato di New York, USA), svoltosi dal 2 al 4 giugno 1947, fu il punto di svolta decisivo per la QED. Gli sperimentali portarono le notizie sul Lamb shift e sul momento magnetico anomalo dell’elettrone, i teorici (fra i quali Kramers, Oppenheimer, Schwinger, Weisskopf) discussero su come affrontare il problema di rendere finite le predizioni della QED e giunsero alla conclusione che la teoria non era sbagliata, ma usata male. E’ evidente il ruolo decisivo giocato dai due risultati sperimentali, perché, fino a che nessun esperimento contraddiceva la teoria di Dirac, si poteva continuare a ritenere il problema degli infiniti solo di tipo teorico, ma, una volta appurata l’esistenza di piccole deviazioni dalla teoria di Dirac, si dovevano assolutamente rendere finite le predizioni della QED, se non si voleva definitivamente abbandonare tale teoria. In particolare, era chiaro che il primo era un effetto quasi del tutto non relativistico, mentre il secondo era tipicamente relativistico. H. Bethe, subito dopo la fine del congresso, riuscì a calcolare il Lamb Shift, nell’approssimazione non relativistica, giungendo a spiegare il 95% dell’effetto, [31]. Va notato il fatto che non vi erano state innovazioni concettuali, tali da giustificare la riuscita del calcolo, che in effetti avrebbe potuto essere eseguito anche negli Anni Trenta. Già prima della guerra, Kramers aveva confrontato l’autoenergia dell’elettrone libero (non osservabile perché parte della massa) con quello nello stato fondamentale dell’atomo d’idrogeno, [13]. Bethe sottrae dall’espressione finale un temine linearmente divergente, sulla base della rinormalizzazione della massa di Kramers, in maniera tale da far rimanere solo un termine divergente logaritmicamente. Come si vedrà ben presto, tale termine scompare nel calcolo corretto, relativisticamente invariante. 20 6. La rinormalizzazione: Tomonaga e Schwinger In una conferenza alla Columbia University (29-31 gennaio 1948) ed in un’altra conferenza a Pocono Manor, in Pennsylvania, il 30 marzo 1948, J. S. Schwinger mostra come ogni infinito può essere fatto scomparire nella massa e nella carica dell’elettrone, mediante dei calcoli che devono essere ad ogni passo relativisticamente invarianti [32]. Come racconta Dyson [2], la reazione non fu molto entusiasta: sembrava più un’esibizione di bravura tecnica che non vera fisica. Pauli avanzò delle critiche, Dirac disse che era solo un trucco notazionale e che il metodo di Schwinger era molto complicato e faticoso. Schwinger prima calcola il momento magnetico anomalo dell’elettrone e successivamente il Lamb Shift, confrontando le sue deduzioni con quelle di Feynman, che, come vedremo nel prossimo paragrafo, aveva scoperto un’altra tecnica di rinormalizzazione. Di ritorno da Pocono Manor, Oppenheimer riceve una lettera di S.-I. Tomonaga, dove viene descritta una tecnica di rinormalizzazione, simile a quella di Schwinger, pubblicata già nel 1943 in giapponese, e poi nel 1946, su Progress of Theoretical Physics, una rivista giapponese, ma in lingua inglese. Oppenheimer farà da tramite per la pubblicazione su Physical Review (1948), della scoperta di Tomonaga [33]. Vediamo di illustrare per sommi capi l’idea fondamentale della tecnica di rinormalizzazione di Tomonaga e Schwinger. Un difetto della teoria quantistica dei campi è la mancanza di covarianza relativistica, sia nelle relazioni che collegano i campi ad istanti diversi sia nei commutatori dei campi che vengono assegnati a tempi uguali, quando è ben noto dalla relatività ristretta che il concetto di simultaneità non è più assoluto. La funzione di trasformazione che lega le coordinate a istanti diversi deve invece dipendere da due sezioni tridimensionali di tipo spazio (cioè fra due punti qualunque di una sezione 21 l’intervallo è di tipo spazio), che sostituiscono le sezioni non covarianti assegnate a tempo costante. Anche i commutatori fra i campi possono essere assegnati su tali sezioni. Si può quindi scrivere la riformulazione covariante dell’equazione di evoluzione per un campo, Ψ (σ ) , assegnato su una superficie σ di tipo spazio e specificato mediante un insieme di osservabili di campo commutabili su tale superficie, i c δ Ψ(σ ) = H ( x )Ψ (σ ) , δσ ( x ) (6.1) dove H(x) è la densità di energia di interazione dei campi in un punto x dello spazio-tempo e, nel lato sinistro, compare la derivata funzionale di Ψ(σ ) rispetto ad una piccola variazione di σ in prossimità di x. La riformulazione covariante della QED permette di eliminare i vari infiniti, che per tanti anni avevano afflitto i teorici, e di ottenere delle previsioni in spettacolare accordo con le misure. 22 7. La rinormalizzazione: Feynman Anche R. P. Feynman, sicuramente uno dei fisici più brillanti del Novecento, riteneva inizialmente che la QED, e più in generale la teoria quantistica dei campi, fossero sbagliate e ci fosse bisogno di nuove idee fisiche, per superare il punto morto nel quale ci si trovava. In un primo tempo aveva pensato che gli infiniti fossero causati dagli infiniti gradi di libertà dei campi e dalla richiesta che una particella possa agire su se stessa (autointerazione dell’elettrone). Feynman aveva cercato, in collaborazione con Wheeler, di riformulare la QED mediante le sole azioni a distanza fra le cariche, riprendendo la tradizione ottocentesca di Ampere e Weber, senza introdurre il concetto di campo, e descrivendo il movimento delle cariche mediante un adeguato principio di azione. Con una certa sorpresa, Feynman e Wheeler scoprono che il tentativo poteva riuscire, se si tiene conto di una azione anticipata accanto a quella ritardata, con conseguente apparente violazione del principio di causalità. Per risolvere il problema, i due fisici ritenevano che l’asimmetria nelle condizioni iniziali cosmologiche provocasse l’assenza delle azioni anticipate. La teoria di Feynman-Wheeler costituisce quindi la generalizzazione più naturale della meccanica newtoniana all’elettromagnetismo e alla relatività, proprio perché non usa in alcun modo il concetto di campo. Un primo sunto di queste idee venne pubblicato nel 1941 e la versione definitiva nel 1945 [34]. Per meglio comprendere come Feynman sia giunto alla rinormalizzazione, bisogna ricordare che la cosiddetta formulazione di Feynman della meccanica quantistica, equivalente a quella standard, compare già nella tesi di dottorato del 1942. Essa può essere utilizzata anche per sistemi che non hanno hamiltoniana, perché sfrutta un principio di azione classico per calcolare 23 l’ampiezza di transizione far due eventi spazio-temporali A e B, senza ricorrere a vettori di stato ed operatori nello spazio di Hilbert e senza dover risolvere l’equazione di Schrodinger [35]. Il propagatore P, cioè l’ampiezza di transizione fra A e B, è la somma dei contributi, Φ[x (t )] , derivanti da ciascun percorso x(t) che congiunge i due eventi, K ( B, A) = ΣΦ[x (t )] , (7.1) dove il contributo di ogni percorso ha una fase proporzionale all’azione S, Φ[x (t )] = const .exp i S ( x (t )) , (7.2) la costante della (7.2) è fissata da una opportuna normalizzazione e tB • S = L( x, x, t )dt , (7.3) tA è l’azione classica. L’idea di Feynman trae origine dagli articoli di Dirac dei primi Anni Trenta, in particolare dove si mostra che la funzione di trasformazione che lega le coordinate a istanti diversi è proporzionale a exp i tB Ldt . (7.4) tA Si arriva così all’invenzione dei celebri diagrammi di Feynman, oggi uno strumento indispensabile per la fisica delle particelle elementari, che permettono di formarsi una visualizzazione per ogni data interazione. Come è ben noto, l’ampiezza di transizione si sviluppa in serie di α e, ad ogni ordine perturbativo, si scopre che compaiono uno o più termini, ognuno dei quali corrisponde ad un diagramma. Ogni termine si può scrivere come il prodotto di determinate quantità ricorrenti, che possono essere associate ad un opportuno simbolo grafico. A questo punto, si individuano i diagrammi pertinenti, che si ottengono assemblando tutti i simboli grafici di un termine dell’ampiezza di transizione, tenendo conto che ad ogni diagramma corri24 sponde un’ampiezza di probabilità. La somma dei contributi dei vari diagrammi, ad un fissato ordine perturbativo, individua l’ampiezza di probabilità totale del processo in considerazione. Va notato che tutta la tecnica di Feynman si basa sulla meccanica quantistica relativistica e non sulla teoria quantistica dei campi (sarà F. Dyson a metterla in una forma più rigorosa). Il metodo è molto più facile di quello di Schwinger, tanto è vero che negli anni seguenti quasi tutti sceglieranno di usare la sua tecnica. Anche la presentazione di questo metodo suscita qualche perplessità, soprattutto fra i fisici più anziani. Bohr osserva per esempio che le linee che rappresentano le particelle, sono proibite dalla meccanica quantistica, che stabilisce che le traiettorie non hanno senso. Va osservato, comunque, che le linee d’universo che compaiono nei diagrammi non sono la traiettoria reale, ma solo trucchi mnemonici per tener conto delle varie quantità che si incontrano nello sviluppo perturbativo di una data interazione. Il Premio Nobel 1965 viene assegnato a Richard Feynman, Julian Schwinger e Sin-Itiro Tomonaga, in riconoscimento dei loro meriti, anche se, come vedremo nel § 9, sembra che non siano stati loro i primi a rinormalizzare la QED. 25 8. L’equivalenza delle tecniche di rinormalizzazione In due articoli, apparsi nel 1948-49, F. Dyson dimostra che le tecniche di TomonagaSchwinger e Feynman sono equivalenti, anche se, come vedremo, Dyson non si limita a dimostrare la sola equivalenza [36]. Partendo dalla formulazione di Tomonaga-Schwinger, si deve trovare una espansione perturbativa per l’operatore unitario S (matrice in una opportuna base) che descrive l’evoluzione dallo stato iniziale a quello finale, in una data interazione fra particelle (l’idea dell’operatore S risale ad Heisenberg (1943)). L’operatore S può essere scritto nella seguente forma, S= ∞ n =0 i − c n +∞ +∞ 1 d 4 x1 ... d 4 x n P (H I ( x1 ).....H I ( x n ) ) , n! −∞ −∞ (8.1) dove H è l’hamiltoniano in rappresentazione di interazione e P è l’operatore di ordinamento cronologico, che riscrive i fattori in parentesi nell’ordine temporale in cui si susseguono (G. C. Wick dimostrerà, fra il 1950 ed il 1952, che questo sviluppo può essere messo in una forma in cui tutti i processi virtuali compaiono esplicitamente, ciò che implica la possibilità di usare i corrispondenti diagrammi di Feynman per il calcolo delle probabilità di transizione) [37]. Dyson, partendo dalla (8.1), dimostra che si potevano ricavare le regole di Feynman, mediante una corrispondenza biunivoca fra diagrammi di Feynman ed elementi di matrice dell’operatore S. La rinormalizzazione della QED e il trionfo della teoria quantistica dei campi lasceranno sul terreno una vittima illustre: la spiegazione della costante di struttura fine. Quello che durante gli Anni Trenta era stato il problema fondamentale della QED, dimostrare che α= e2 1 ≈ , c 137 improvvisamente sparisce letteralmente dalle riviste di fisica. 26 (8.2) 9. Stueckelberg ovvero colui che rinormalizzò per primo la QED Il barone svizzero Ernst C. G. Stueckelberg, negli Anni Trenta libero docente all’Università di Zurigo, fu probabilmente il primo ad individuare una corretta tecnica di rinormalizzazione. In una serie di articoli, introduce da un punto di vista classico la possibilità di considerare i positoni come particelle che si propagano indietro nel tempo. Si mostra infatti che l’equazione di una carica +e, con i potenziali anticipati del campo elettromagnetico e che si muove verso il passato con energia negativa, è equivalente a quella di una carica –e, con l’azione di potenziali ritardati che si muove verso il futuro. Addirittura, introduce una rappresentazione delle interazioni, mediante i diagrammi di Feynman, prima di Feynman stesso [38]. Finalmente, si decide a mettere le sue idee in inglese e spedisce nel 1942 un articolo alla Physical Review in cui delinea una procedura corretta e completa per la rinormalizzazione della QED. Il ‘referee’ designato è G. Wentzel, noto esperto del settore ed autore fra l’altro, nel 1943, di un famoso testo sulla teoria quantistica dei campi. A questo punto, non si capisce molto bene quello che è realmente successo. L’articolo viene rifiutato nel 1942, con la motivazione che si descriveva un programma, un progetto di ricerca, senza però realizzarlo effettivamente. Il manoscritto misteriosamente scompare e non sarà mai più recuperato. Alcune delle idee si possono, comunque, trovare in altri suoi articoli, ma soprattutto in quello di un suo collaboratore [39-40]. I contributi di Stueckelberg non terminano certo con la scoperta della tecnica di rinormalizzazione. Nel 1951, ad esempio, inventa il gruppo di rinormalizzazione, che si rivelerà di importanza fondamentale per gli sviluppi delle teorie di unificazione [41]. La vicenda di Stueckelberg offre lo spunto per riflettere sul fatto, abbastanza ricorrente in fisica, che spesso delle importanti scoperte o innovazioni concettuali vengano sottovalutate o ignorate, per essere poi recuperate o subito dopo, nei migliori dei casi, o anche dopo molti an27 ni. Qualche volta, addirittura, la nuova proposta o scoperta viene accettata solo quando è stata riformulata da un altro fisico, molto spesso più noto ed affermato del precedente. Per rimanere nel campo della fisica delle particelle elementari, vedremo, per esempio, che l’ipotesi di una struttura degli adroni in termini di quark, avanzata, nel 1964, da un giovane fisico sconosciuto, G. Zweig, che usava il termine ace, asso, invece che quark, sarà completamente ignorata, per essere presa invece in seria considerazione poco dopo, quando un’analoga proposta verrà avanzata da M. Gell-Mann, fisico già molto noto per i suoi lavori sulla simmetria SU(3) e sulla teoria V-A della corrente debole. Una vicenda diversa ha visto protagonista H. Yukawa, la cui proposta di una particella come mediatrice dell’interazione nucleare, nel 1935, è stata inizialmente ignorata, per poi trovare ampia e meritata accettazione, dopo qualche anno, a seguito della scoperta del mesone nei raggi cosmici. Per quanto riguarda Stueckelberg, anche a prescindere dall’oscura vicenda dell’articolo smarrito nei meandri degli uffici della Physical Review, si può dire che emerge, abbastanza evidentemente anche in questo caso, che, per essere accettata, una proposta fortemente innovativa e feconda di ampie ricadute, teoriche e sperimentali, non deve essere formulata da uno scienziato poco affermato e praticamente sconosciuto, o perché giovane o perché attivo in un’area marginale. D’altra parte, in certi casi, la comunità dei fisici si può bloccare per molti anni intorno ad un tema di ricerca sterile od ad una proposta teorica infruttuosa. Per esempio, come abbiamo già visto, per tutti gli Anni Trenta i fisici teorici furono incapaci di rinormalizzare la QED, essenzialmente per lo scarso peso che attribuivano alla necessità di formulare in maniera relativisticamente covariante il problema (e Dirac, l’unico che aveva indicato la strada giusta, si era poi messo a studiare le divergenze dell’elettromagnetismo classico, tralasciando la QED). 28 Molte sono, comunque, le attenuanti che possono essere invocate per giustificare il comportamento della comunità dei fisici che ignorarono gli scritti si Stueckelberg: lo stile complicato e faticoso, l’uso di una notazione personale ed anche il fatto di pubblicare presso una rivista poco diffusa nel mondo, gli Helvetica Physica Acta. Si deve aggiungere, però, che Stueckelberg si era mantenuto in contatto con Pauli e Weisskopf, almeno fino a quando questi ultimi non abbandonarono la Svizzera. 29 10. Una crisi durata vent’anni La rinormalizzazione dell’elettrodinamica quantistica portò ad una rinnovata fiducia nella teoria quantistica dei campi e nella sua capacità di descrivere le interazioni fondamentali delle particelle. Ben presto, tuttavia, ci si accorse che la tecnica di rinormalizzazione poteva essere applicata solamente in una classe molto ristretta di teorie, nelle quali gli infiniti si presentavano solo in un numero limitato di modi. La teoria di Fermi dell’interazione debole, per esempio, non era rinormalizzabile. D’altra parte, all’interazione forte non si poteva applicare la tecnica stessa dell’espansione perturbativa, perché la costante di accoppiamento relativa era circa cento volte più grande di quella dell’elettrodinamica quantistica. Per tutti questi motivi, si assistette ben presto ad un proliferare di nuove idee alternative, che cercavano in un modo o nell’altro di sostituire od integrare la teoria quantistica dei campi. La più importante fra queste teorie alternative è senza dubbio la tecnica della matrice S, con l’associata idea di ‘democrazia nucleare’, dovuta soprattutto a G. Chew, secondo la quale non esistono dei costituenti fondamentali delle particelle, perché ogni particella si può considerare come formata da tutte le altre. Fino ai primi Anni Settanta, le idee di Chew furono predominanti fra i fisici teorici, soprattutto nella East Coast americana e al CERN di Ginevra. La Rivoluzione di Novembre, iniziata nel 1974 con la scoperta della J/ψ , e preannunciata dalla scoperta delle correnti neutre nel 1973, sarà il colpo mortale per questa teoria e segnerà il trionfo del Modello Standard, fondato sulla teoria quantistica dei campi dei quark e dei leptoni, visti come costituenti fondamentali e puntiformi della materia. 30 Bibliografia [1] A. Maccari, Giornale di Fisica, 2005. [2] F. J. Dyson, Disturbing the Universe, Harper & Row, New York, 1979 (tr. it. Turbare l’Universo, Boringhieri, Torino, 1981); J. Mehra, H. Rechenberg, The Historical Development of Quantum Theory, Springer-Verlag, New York, 1982; L. M. Brown, L. Hoddeson (a cura di), The Birth of Particle Physics, Cambridge University Press, New York, 1983: V. F. Weisskopf, Physics in the Twentieth Century, MIT Press, Cambridge, Massachussetts, 1972; S. S. Schweber, QED and the Men Who Made It, Princeton University Press, 1994. [3] J. R. Oppenheimer, Physical Review 35, 461, 1930. [4] I. Waller, Zeitschrift fur Physik, 62, 673, 1930. [5] P. A. M. Dirac Proceedings of the Royal Society London 133, 60, 1931; P. A. M. Dirac, Proceedings of the Royal Society London 136, 453, 1932; P. A. M. Dirac in Septiéme Conseil de Physique Solvay: Structure et proprietes des noyaux atomiques, Conseil de Physique Solvay VII Rapports et Discussions, 22 – 29 October 1933, Gauthiers-Villars, Paris, 1934, p. 203; P. A. M. Dirac, Proceedings of the Cambridge Philosophical Society 30, 150, 1934. [6] H. Bethe, W. Heitler, Proceedings of the Royal Society 146, 83, 1934; J. R. Oppenheimer, W. Furry, Physical Review 45, 245, 1934. [7] V. F. Weisskopf, Zeitschrift fur Physik 89, 27, 1934; V. F. Weisskopf, Zeitschrift fur 56wPhysik 90, 817, 1934. [8] W. Heisenberg, Zeitschrift fur Physik 90, 231, 1934. [9] W. Heisenberg, Annalen der Physik 32, 20, 1938. [10] W. Heisenberg, Annalen der Physik , 1943. [11] E. A. Uehling, Physical Review 48, 55, 1935. [12] R. Serber, Physical Review 48, 49, 1935; R. Serber, Physical Review 49, 546, 1936. 31 [13] H. Kramers, Nuovo Cimento 15, 108, 1938; S. Pasternack, Physical Review 54, 1113, 1938. [14] F. Bloch, A. Nordsieck, Physical Review 52, 54, 1937. [15] S. Dancoff, Physical Review 55, 959, 1939. [16] V. F. Weisskopf, Physical Review 55, 678, 1939; V. F. Weisskopf, Physical Review 56, 72, 1939. [17] P. A. M. Dirac, Proceedings of the Royal Society 167, 148, 1938; P. A. M. Dirac, Annales de l’Institut Henri Poincaré 9, 13, 1939; P. A. M. Dirac, Communications of the Dublin Institute for Advanced Studies 1A, 35, 1943, P. A. M. Dirac, Review of Modern Physics 17, 195, 1945. [18] F. H. Spedding, C. D. Shane, N. S. Grace, Physical Review 44, 58, 1933. [19] W. M. Houston, Y. M. Hsieh, Bulletin of the American Physical Society 8, 5, 1933; W. M. Houston, Y. M. Hsieh, Physical Review 45, 30, 1934; W. M. Houston, Y. M. Hsieh, Physical Review 45, 263, 1934. [20] H. Kopfermann, Naturwissenschaften 22, 218, 1934. [21] R. C. Williams, R. C. Gibbs, Physical Review 44, 325, 1933; R. C. Williams, R. C. Gibbs, Physical Review 44, 1016, 1933; R. C. Williams, R. C. Gibbs, Physical Review 45, 221, 1934; R. C. Williams, R. C. Gibbs, Physical Review 45, 475, 1934. [22] A. Maccari, Giornale di Fisica, 2005. [23] F. H. Spedding, C. D. Shane, N. S. Grace, Physical Review 47, 38, 1935. [24] R. C. Williams, R. C. Gibbs, Physical Review 49, 416, 1936; [25] W. M. Houston, Physical Review 51, 446, 1937. [26] M. Heyden, Zeitschrift fur Physik 106, 499, 1937. [27] R. C. Williams, Physical Review 54, 558, 1938. 32 [28] J. W. Drinkwater, O. Richardson, W. E. Williams, Proceedings of the Royal Society 174, 164, 1940. [29] W. E. Lamb, R. C. Retherford, Physical Review 72, 241, 1947. [30] H. M. Foley, P. Kusch, Physical Review 73, 412, 1948. [31] H. A. Bethe, Physical Review 72, 339, 1947. [32] J. Schwinger, Physical Review 73, 416, 1948; J. Schwinger, Physical Review 74, 1439, 1948; J. Schwinger, Physical Review 75, 651, 1949; J. Schwinger, Physical Review 76, 790, 1949. [33] S. Tomonaga, Progress of Theoretical Physics 1, 27, 1946. [34] J. A. Wheeler, R. P. Feynman, Physical Review 59, 682, 1941; J. A. Wheeler, R. P. Feynman, Review of Modern Physics 17, 157, 1945; J. A. Wheeler, R. P. Feynman, Review of Modern Physics 21, 425, 1949. [35] R. P. Feynman, Physical Review 76, 679, 1949; R. P. Feynman, Physical Review 76, 749, 1949; R. P. Feynman, Physical Review 76, 769, 1949. [36] F. J. Dyson, Physical Review 75, 486, 1949. [37] G. C. Wick, Physical Review 80, 268, 1950 [38] E. C. G. Stueckelberg, Helvetica Physica Acta 11, 221, 1938; E. C. G. Stueckelberg, J. F. C. Patry, Helvetica Physica Acta 13, 167, 1940; E. C. G. Stueckelberg, Helvetica Physica Acta 14, 51, 1941. [39] E. C. G. Stueckelberg, Helvetica Physica Acta 18, 21, 1945; E. C. G. Stueckelberg, Helvetica Physica Acta 19, 241, 1946. [40] D. Rivier, Helvetica Physica Acta 22, 265, 1949. [41] E. C. G. Stueckelberg, A. Petermann, Helvetica Physica Acta 24, 317, 1951; E. C. G. Stueckelberg, Helvetica Physica Acta 26, 499, 1953. 33