«L’immagine di Heisenberg e degli altri giovani del suo gruppo, riuniti a marciare in montagna alla
ricerca di ispirazione, cominciò ad assumere aspetti inquietanti. Ciò che mi affascinava di questa
nuova disciplina [la meccanica quantistica] era, in parte, il suo carattere peculiare, che la rendeva
simile a una pratica esoterica. Studiando a lungo e meditando a fondo si poteva sperare di riuscire a
cogliere la natura nascosta dell’universo» (p. xiii)
«L’esperienza del passaggio dalla fisica alla matematica fu simile, in un certo senso, a quando, da
bambino, mi trasferii dagli Stati Uniti alla Francia. La matematica e la fisica hanno linguaggi propri,
distinti tra loro e incompatibili. Finiscono spesso per discutere delle stesse cose in termini
reciprocamente incomprensibili. Le differenze tra le due discipline vanno ben oltre il semplice
linguaggio, e hanno a che fare con storie, culture, tradizioni e modi di pensare molto diversi tra di
loro. Proprio come quando ero bambino, scoprii che quando si fa un cambiamento del genere c’è
molto da imparare, ma che alla fine ci si ritrova in possesso di un punto di vista biculturale molto
interessante. Spero di riuscire a spiegare almeno in parte ciò che ho imparato sulla relazione
complessa e sempre mutevole tra gli argomenti studiati in fisica e matematica, e tra le rispettive
culture accademiche» (p. xv)
La teoria delle stringhe «non fa predizioni, nemmeno quelle sbagliate, ed è questa stessa mancanza
di falsificabilità ad aver permesso a tutto il settore di sopravvivere e prosperare. Una situazione del
genere solleva interrogativi importanti, che prenderemo in esame. Un argomento di studio può
essere considerato “scienza” se non fa alcuna predizione? Quando un filone di ricerca molto
speculativo entra a far parte della scienza, e quando no? Cosa capita quando la speculazione non
soggetta ai vincoli dell’esperimento si impadronisce del tutto di un settore scientifico?» (p. xvi)
[Notare forti analogie con crisi borse mondiali di troppe speculazioni non fondate su scambi reali e
in fondo lo stesso vale anche per la teologia se non è fondata sull’impegno di vita cristiana!]
Nel «redigere una breve storia della meccanica quantistica e della teoria delle particelle», la
prospettiva dell’autore «era diversa da quella della maggior parte degli esercizi di questo genere,
che tendono a ignorare il ruolo svolto dalla matematica nella storia in questione» «la tesi che mi
sento di sostenere è che, storicamente, una delle fonti di progresso principali della teoria delle
particelle è stata la scoperta, in natura, di nuovi gruppi di simmetria e di nuove rappresentazioni di
tali gruppi. Il fallimento del programma della teoria delle superstringhe può essere fatto risalire alla
sua mancanza di qualsiasi principio fondamentale di simmetria. In assenza di dati sperimentali
inattesi, un progresso sul piano teorico sarà possibile solo se gli studiosi smetteranno di concentrarsi
sul programma che ha fallito, per dedicarsi all’arduo compito di capire meglio le simmetrie del
mondo naturale» (p. xvii)
«Fin da quando cominciai a interessarmi alla scienza, uno dei suoi aspetti più affascinanti era per
me il fatto che la nozione di verità che essa implicava non faceva ricorso all’autorità. I giudizi sulla
verità scientifica dovrebbero basarsi sulla consistenza logica delle tesi e sulle prove sperimentali in
loro favore, non sull’eminenza di chi pretende di detenere la verità. L’assenza di tali prove
sperimentali è all’origine della situazione controversa in cui si trova la fisica e che verrà esaminata
in questo libro; le cose, tuttavia, sono state rese ancora peggiori dal conformismo, dal rifiuto di
mettere in discussione le opinioni convenzionali e dalla mancata volontà di valutare onestamente i
pro e i contro della teoria delle stringhe» (p. xix) [lo stesso mi pare valga per la teologia, ma in
generale più o meno per tutte le scienze].
Capitolo 1 – La fisica delle particelle all’inizio del nuovo millennio → Situazione agitata
«Einstein affermava il credo di Gross e della maggior parte dei fisici teorici: esiste un solo insieme
di semplici leggi fondamentali che descrivono come funziona l’universo, e queste leggi sono
determinate in modo univoco. Per determinare la teoria non c’è bisogno di parametri supplementari;
una volta che si è capito quali sono le leggi, per formularle non è necessario specificare altri
numeri». «L’abbandono del credo di Einstein tanto temuto da Gross si è materializzato nella
dichiarazione, fatta da vari teorici di primo piano, che la teoria delle stringhe è compatibile con un
numero incredibilmente grande di possibili descrizioni distinte del mondo, e che forse, quindi, le
uniche predizioni che può fare sono quelle derivanti dal principio antropico, che consiste
essenzialmente nell’idea che la nostra stessa esistenza metta dei vincoli alle leggi fisiche possibili.
Queste devono essere tali da consentire a degli esseri intelligenti come noi di evolversi» (p. 4) Così
attualmente la fisica si trova separata in due gruppi, filo-Gross e filo- Susskind, in cui il secondo
prende in giro gli appartenenti al primo, perché «speravano tutto che le costanti di natura potessero
essere derivate dalla simmetria meravigliosa di qualche teoria matematica […]. I fisici hanno voluto
sempre credere che la risposta fosse unica. Di sicuro la risposta aveva qualcosa di speciale, ma
penso che il mito dell’unicità sia una causa persa» (p. 5), mentre il secondo è accusato dal primo di
«essere vittime di un “rifiuto di natura psicologica” e di fare della “scienza basata sulla fede”» (p. 6)
Capitolo 2 – I mezzi di produzione → Cosa fornisce i dati per la fisica delle particelle
«Gli acceleratori e i rivelatori di particelle sono i “mezzi di produzione” utilizzati per creare la base
di dati sperimentali su cui si fondano tutte le elaborazioni teoriche relative alle particelle elementari.
Il continuo perfezionamento di questi strumenti è stato l’elemento che più ha contribuito al
progresso della teoria delle particelle per gran parte del secolo scorso [mahh, io direi che anche i
raggi cosmici hanno contribuito e non poco!!!]. In questo capitolo spiegherò i principi fondamentali
del funzionamento degli acceleratori, parlerò un po’ della loro storia e del loro stato attuale, e infine
esaminerò le prospettive per il loro futuro» (p. 7)
«Mentre la relatività ristretta mette in relazione il modo di misurare le dimensioni spaziali con
quello di misurare le dimensioni temporali, la meccanica quantistica lega tra loro le misure di
energia e di tempo. … due delle caratteristiche fondamentali della meccanica quantistica sono le
seguenti: 1. esiste un’entità matematica, detta vettore di stato, che descrive lo stato dell’universo a
un certo istante; 2. l’altra entità matematica fondamentale della teoria, oltra al vettore di stato, è
detta hamiltoniana. Si tratta di un operatore che agisce sui vettori di stato, il che vuol dire che
trasforma un dato vettore di stato in un altro
Fino ad anni ’20 radioattività naturale. Fino agli anni ’50 principalmente raggi cosmici, ma nel
frattempo sincrotroni e acceleratori che dagli anni ’50 sfondano. Dagli anni ’70 ecco i collider.
«Senza la comparsa inaspettata di qualche nuova tecnologia rivoluzionaria, gli acceleratori del XXI
secolo non avranno alcuna chance di continuare la crescita esponenziale che ha caratterizzato il
secolo precedente. Per i fisici delle particelle, i teorici e gli sperimentali è cominciata un’epoca in
cui dovranno imparare a convivere con questa nuova, dura realtà» (p. 29)
Capitolo 3 – La teoria dei quanti → nuova visione del mondo fisico e sua matematica
La teoria dei quanti e la sua storia. Riguardo alla struttura della meccanica quantistica «a seconda
del contesto, può essere utile pensare agli stati quantomeccanici come vettori astratti nello spazio di
Hilbert o come funzioni d’onda, ma i due punti di vista sono assolutamente equivalenti. La struttura
concettuale e matematica della meccanica quantistica è estremamente semplice, e ha due
componenti: 1) ad ogni istante, lo stato del mondo è descritto da un vettore nello spazio di Hilbert;
2) le quantità osservabili corrispondono ad operatori nello spazio di Hilbert» (p. 34). Va notato
«come tale struttura fondamentale non sia probabilistica, ma deterministica tanto quanto quella
della meccanica classica … La probabilità entra in gioco perché ciò che si misura direttamente non
è il vettore di stato, ma i valori di alcune osservabili classiche. … Gli unici stati associati a valori
ben definiti delle osservabili classiche sono degli stati speciali, detti autostati dell’operatore
corrispondente. … Quando si effettua una misura, non si misura direttamente lo stato del sistema,
ma si interagisce in qualche modo con quest’ultimo, proiettandolo in uno di quegli stati speciali
caratterizzati da un valore ben definito per la particolare osservabile classica che si sta misurando. È
qui che la probabilità entra in gioco, facendo sì che si possa solamente predire quali possano essere
le probabilità di trovare certi valori per le varie osservabili classiche possibili» (p. 34s).
Nel libro ricorrono spesso frasi simili alla seguente: «Questa disgiunzione tra le osservabili
classiche che vengono misurate e la struttura concettuale sottostante della teoria è la causa di tutti
quei risultati che vanno contro il nostro intuito, il quale invece si basa sulla fisica classica». «La
nuova teoria richiese uno sforzo di adattamento non indifferente, non essendo possibile giustificarla
attraverso l’intuizione fisica. Questa mancanza di Anschaulichkeit (“visualizzabilità”) preoccupava
molto i fondatori della teoria. D’altra parte, quest’ultima aveva un potere esplicativo straordinario,
poiché era in grado di predire con esattezza i dettagli di molte caratteristiche degli spettri atomici e
di una vasta schiera di altri fenomeni fisici che avevano resistito a tutti i tentativi di spiegazione
attraverso il linguaggio della meccanica e dell’elettrodinamica classica. Gli strumenti matematici
utilizzati erano una novità per i fisici, ma erano ben noti a Hilbert e a molti altri matematici che
lavoravano con Heisenberg a Gottinga» (p .35). Non si può poi non ricordare l’importante rapporto
tra Schrödinger e il matematico Weyl (cf p. 37).
Digressione matematica: i gruppi di simmetria e le rappresentazioni. «Quando ci sono delle
trasformazioni di un sistema fisico che non cambiano le leggi fisiche che governano il sistema, si
dice che quelle trasformazioni sono simmetrie del sistema fisico … Un insieme di trasformazioni di
simmetria è un esempio di una struttura astratta che i matematici chiamano gruppo» (p. 38).
«Dato un sistema fisico descritto mediante la meccanica quantistica, se il sistema possiede un
gruppo di trasformazioni di simmetria, allora lo spazio quantistico di Hilbert degli stati è un
esempio di una struttura matematica detta rappresentazione del gruppo. In parole povere, il gruppo
è l’insieme delle simmetrie, e la rappresentazione è ciò che è soggetto alle trasformazioni di
simmetria» (p. 38s).
«Tra il 1925 e il 1926, Weyl si stava occupando del lavoro forse più importante di tutta la sua
carriera: la formulazione di una parte significativa di quella che oggi è nota come la teoria delle
rappresentazioni dei gruppi di Lie». «Per un matematico, un gruppo non è altro che un insieme di
elementi astratti che possono essere manipolati moltiplicandoli tra di loro, con la caratteristica
fondamentale che esiste un elemento particolare, l’elemento identità, e che ad ogni elemento è
associato un elemento inverso. Sebbene questi gruppi astratti possano essere considerati come a sé
stanti, la parte più interessante dell’argomento è la teoria delle rappresentazioni, nella quale ogni
elemento astratto del gruppo viene rappresentato come trasformazione di qualcos’altro Le
trasformazioni in questione sono trasformazioni di simmetria; la trasformazione non cambia del
tutto le cose, ma lascia invariata qualche struttura che riveste un interesse particolare». «Quando si
ha la rappresentazione di un gruppo, si può pensare a quest’ultimo come a un gruppo di simmetria:
ognuno dei suoi elementi è una trasformazione di simmetria di qualcosa». «Un esempio semplice,
anche se non banale, consiste nel considerare un gruppo di due elementi, rappresentati come due
trasformazioni dello spazio tridimensionale. La prima trasformazione è quella banale: non cambiare
assolutamente nulla. È quella che viene detta trasformazione identità» (p. 39). «La seconda
trasformazione è quella non banale, ed è quella interessante. Consiste nel riflettere ogni cosa in uno
specchio. Due riflessioni speculari consecutive ci riportano esattamente alla situazione di partenza.
La matematica di un gruppo del genere è molto semplice: ci sono solo due elementi. … La
rappresentazione è molto più interessante del gruppo stesso, poiché introduce il concetto di spazio
tridimensionale insieme a una trasformazione interessante (la riflessione speculare) che può esservi
applicata». «Un gruppo di Lie è detto anche gruppo continuo, dato che è formato da un numero
infinito di elementi connessi tra di loro senza soluzione di continuità». «Un esempio semplice di
gruppo di Lie e di una sua rappresentazione è quello delle rotazioni nel piano bidimensionale», che
è possibile parametrizzare «in funzione di un unico numero, l’angolo di rotazione».
Se poi «si pensa al piano come al piano complesso (il piano in cui le due coordinate corrispondono
alla parte reale e alla parte immaginaria di un numero complesso), allora la rotazione può essere
pensata non più come funzione di un angolo, ma di un numero complesso di lunghezza unitaria» (p.
40). Il gruppo delle rotazioni nel piano complesso «viene spesso chiamato gruppo unitario delle
trasformazioni di una variabile complessa, e viene scritto così: U(1)». Ciò che poi è possibile
osservare è che «la trasformazione corrispondente alla rotazione secondo un angolo è formalmente
simile alla trasformazione di un’onda ottenuta variando la fase di quest’ultima» (p. 41). «A causa di
questa analogia, spesso le trasformazioni di simmetria U(1) sono chiamate anche trasformazioni di
fase». Le rotazioni di questo gruppo di Lie U(1) è un esempio «di trasformazioni commutative:
quando due di queste sono effettuate in sequenza, non importa quale viene realizzata prima».
«Aumentando il numero di dimensioni in gioco, le cose diventano immediatamente molto più
complicate, ma anche più interessanti. In tre dimensioni si può pensare sempre al gruppo di
rotazioni, rappresentate come rotazioni dello spazio tridimensionale … Se si effettuano due
rotazioni intorno a due assi differenti, la rotazione complessiva che si otterrà dipenderà dall’ordine
delle due rotazioni. Il gruppo delle rotazioni in tre dimensioni, quindi, è quello che si chiama un
gruppo non commutativo. Era sulla teoria delle rappresentazioni di questo genere di gruppi che
Weyl stava lavorando tra il 1925 e il 1926» (p. 42). «Due numeri complessi corrispondono a quattro
numeri reali (due parti reali e due parti immaginarie), e queste trasformazioni, dunque, avvengono
in quattro dimensioni (reali). A complicare ancora di più la visualizzazione interviene un’ulteriore
componente geometrica, che non esiste quando si ha a che fare solamente con dei numeri reali. Nel
piano complesso, moltiplicare per l’unità immaginaria (la radice quadrata di -1) corrisponde, da un
punto di vista geometrico, a una rotazione di 90 gradi in senso antiorario. In quattro dimensioni, non
c’è un solo asse di rotazione possibile, come nel caso bidimensionale, bensì un’infinità …
L’identificazione delle quattro dimensioni con due numeri complessi determina uno di questi assi».
«Nonostante questa mancanza di visualizzabilità, le trasformazioni di simmetria a più dimensioni
complesse possono essere formulate facilmente per via algebrica. Il formalismo utilizzato si serve di
matrici di numeri complessi; è il formalismo di cui Heisenberg non era tanto soddisfatto. In
generale, a partire da un numero arbitrario N di numeri complessi, è possibile definire il gruppo di
trasformazioni unitarie di N variabili (complesse) e indicarlo come U(N). Quello che si trova è che
conviene scomporre queste trasformazioni in due parti: la parte che si limita a moltiplicare tutti gli
N numeri complessi per lo stesso numero complesso unitario [una trasformazione U(1), come quella
vista prima], e il resto. Alla seconda parte, in cui si cela tutta la complessità, è stato dato il nome di
trasformazioni unitarie speciali di N variabili (complesse), SU(N)».
«Il gruppo di simmetria SU(2) ha un ruolo molto speciale, che lo portò alla ribalta fin dagli albori
della meccanica quantistica» (p. 43). Esso infatti «è legato strettamente al gruppo delle rotazioni in
tre dimensioni reali … e quindi i sistemi fisici possono costituire delle rappresentazioni di questo
gruppo. I matematici chiamano il gruppo delle rotazioni dello spazio tridimensionale con il nome di
gruppo delle trasformazioni ortogonali in tre variabili (reali), e lo indicano con SO(3)». Ora «ogni
rotazione in tre dimensioni corrisponde a due elementi distinti di SU(2), pertanto SU(2) è, in un
certo senso, una versione raddoppiata di SO(3). Ad ogni sistema fisico è possibile associare un
gruppo di simmetria … senza cambiare alcuna proprietà fisica». Ad esempio «le leggi che
governano l’atomo hanno una simmetria rotazionale, e il gruppo SO(3) delle rotazioni
tridimensionali è un gruppo di simmetria del sistema». Ora «in un sistema meccanico classico
dotato di simmetria si possono definire delle quantità conservate, combinazioni della posizione e
della quantità di moto che restano costanti mentre il sistema evolve nel tempo. Data la natura dello
spazio tridimensionale, i sistemi fisici hanno due tipi standard di simmetria. La prima è rispetto alle
traslazioni: si può spostare un sistema fisico in una qualunque delle tre direzioni possibili senza
cambiare le leggi della fisica. Le tre quantità conservate, in questo caso, sono le componenti del
vettore quantità di moto … La seconda simmetria standard è la simmetria rispetto al gruppo delle
rotazioni SO(3)» (p. 44), «le componenti del momento angolare totale di un sistema isolato
sottoposto a forze simmetriche rispetto alle rotazioni non cambiano». «Se si pensa nei termini della
relatività ristretta di Einstein … c’è un altro tipo di traslazione, la traslazione lungo l’asse
temporale. La quantità conservata corrispondente è l’energia». «L’esistenza di queste quantità
conservate, insieme alle leggi di conservazione corrispondenti che ne sanciscono l’invarianza, è una
delle caratteristiche più importanti di qualsiasi sistema fisico». «Il fatto che in meccanica classica
esistano tali leggi di conservazione come conseguenza delle simmetrie di un sistema è noto alla
maggior parte dei fisici come teorema di Noether» (p. 45).
«Nel 1926, dopo aver terminato il lavoro sulla teoria delle rappresentazioni dei gruppi di Lie, Weyl
rivolse la propria attenzione al problema di come utilizzare la teoria delle rappresentazioni come
strumento per formulare le implicazioni di vari gruppi di simmetria nell’ambito della meccanica
quantistica. Il suo libro sull’argomento, Gruppentheorie un Quantomechanik, fu pubblicato nel
1928, ed ebbe una grande influenza su matematici e fisici. Il formalismo della meccanica
quantistica viola il nostro intuito quotidiano ma si sposa perfettamente con la teoria delle
rappresentazioni dei gruppi. L’analisi delle implicazioni dell’esistenza di un gruppo di simmetria
per un sistema fisico è in realtà ben più semplice nella meccanica quantistica che nella meccanica
classica». Il problema però è che «negli anni Venti i linguaggi di fisica e della matematica avevano
già imboccato strade diverse, e molti fisici ebbero delle difficoltà a seguire lo stile della scrittura di
Weyl (p. 46), tanto che E. Wigner dovette scrivere un libro apposta, in cui «i gruppi e le
rappresentazioni vi venivano spiegati con un linguaggio più vicino a quello cui i fisici erano
abituati». «Dato un sistema fisico qualsiasi descritto dalla meccanica quantistica, se il sistema ha un
gruppo di simmetria allora lo spazio di Hilbert dei suoi stati corrisponde precisamente a quel tipo di
rappresentazione del gruppo di simmetria che Weyl stava studiando» In generale «nella meccanica
quantistica, la relazione tra le quantità conservate e le simmetrie è molto più diretta che nella
meccanica classica» (p. 47). «Al posto di una quantità conservata corrispondente a una
trasformazione di simmetria, c’è semplicemente l’operatore che realizza una trasformazione di
simmetria infinitesima sullo spazio di Hilbert dei vettori di stato» (p. 47s).
Un sistema quantistico «possiede una simmetria U(1) intrinseca. A questa simmetria corrisponde
una quantità conservata, la carica elettrica. In questo caso la legge di conservazione è il ben noto
principio di conservazione della carica elettrica. Un altro degli aspetti fondamentali della fisica,
dunque, la conservazione della carica, appare ora come il risultato di un semplice principio di
simmetria». «Tra tutte le simmetrie standard dei sistemi fisici, quella che richiede l’analisi
matematica meno banale è la simmetria rotazionale. Le rappresentazioni del gruppo di simmetria
rotazionale SO(3) possono essere costruite tutte, in un certo senso, a partire da un’unica
rappresentazione, la cosiddetta rappresentazione fondamentale: quella che si ottiene ruotando dei
vettori tridimensionali nello spazio tridimensionale». Ora dalle osservazioni fatte sugli elettroni,
Pauli notò che «molti aspetti degli spettri atomici avrebbero potuto essere capiti se l’elettrone
avesse avuto una caratteristica peculiare, basata su coppie di valori. Ragionando in termini di stati
quantizzati, sembrava che l’elettrone avesse il doppio degli stati che ci si aspettava. Una volta
capita la relazione tra meccanica quantistica e la teoria delle rappresentazioni, divenne chiaro che
ciò è dovuto al fatto che lo spazio di Hilbert per un elettrone non è una rappresentazione della
simmetria rotazionale SO(3), bensì del gruppo correlato SU(2). Non dimentichiamo che SU(2) è
una specie di versione raddoppiata di SO(3), e che si tratta del gruppo delle trasformazioni unitarie
speciali su due variabili complesse. La rappresentazioni di SU(2) che definisce il gruppo è questa
rappresentazione basata su insiemi di coppie di numeri complessi. Si tratta esattamente di ciò che
serve per descrivere un elettrone» (p. 48). «Le proprietà della trasformazione SU(2) di una particella
sono note come spin della particella. … Lo spin è un concetto tipicamente quantistico che si adatta
perfettamente alla teoria delle rappresentazioni del gruppo di simmetria SU(2), ma che non ha
un’interpretazione consistente in termini di fisica classica» (p. 49)
Capitolo 4 – La teoria quantistica dei campi → Applicazione di novità a campi EM (QED)
«Negli anni immediatamente successivi al 1925 la meccanica quantistica arrivò a spiegare il
comportamento di una gran varietà di sistemi fisici. Una delle prime estensioni fu l’applicazione al
campo elettromagnetico. Qui, i principi generali della meccanica quantistica poterono essere
utilizzati per giustificare la quantizzazione delle onde elettromagnetiche scoperta per la prima volta
da Planck e Einstein. Una teoria di campo classica (come l’elettromagnetismo) trattata secondo i
principi della meccanica quantistica prese il nome di teoria quantistica di campo. Le eccitazioni
quantizzate del campo elettromagnetico, che presero il nome di fotoni, avevano una proprietà che
era fonte di confusione: il dualismo onda-particella» (p. 51). «Verso la fine del 1927, Dirac scoprì
un’equazione speciale, che oggi porta il suo nome. L’equazione di Dirac è analoga all’equazione di
Shrödinger, ma è consistente con la relatività ristretta, e spiega in maniera automatica lo spin
dell’elettrone … e prediceva l’esistenza di una particella nuova, che sarebbe stata trovata di lì a
poco. Sorprendentemente, un elemento cruciale di tutta la vicenda fu la riscoperta, da parte di Dirac,
di un marchingegno algebrico noto come algebra di Clifford». La teoria di Dirac con «la sua
combinazione, di una grande semplicità, con idee nuove e sorprendenti, insieme alla capacità di
spiegare fenomeni ritenuti misteriosi fino a quel momento e di predirne di nuovi, ne fanno un
paradigma per qualsiasi teorico particolarmente versato per la matematica». Con il suo arrivo «il
lavoro su una teoria quantistica per il campo dell’elettrone poté cominciare seriamente» (p. 53).
«Alla fine del 1929, Jordan, Pauli e Heisenberg avevano già pubblicato una teoria quantistica di
campo completa per gli elettroni e il campo elettromagnetico. La teoria avrebbe preso il nome di
elettrodinamica quantistica, o, per utilizzare il suo acronimo, QED (dall’inglese Quantum
ElectroDynamics). Il 1929 segnò la fine del quadriennio più spettacolare di tutta la storia della
fisica» (p. 53s) Essa però poi si arrestò per almeno tre motivi: 1) La guerra incipiente; 2) Con i
primi acceleratori di particelle e le prime scoperte «i misteri e gli interrogativi da considerare
aumentavano. La QED, la nuova teoria quantistica di campo, sembrava non aver nulla da dire
sull’argomento»; 3) «La QED è una teoria di cui non si conosce ancora oggi una soluzione esatta. Il
principale metodo di calcolo disponibile è una cosa nota come espansione perturbativa (p. 54)
«Nell’approssimazione al prim’ordine alla QED reale appaiono molti fenomeni fisici interessanti, e
la teoria approssimata è in buon accordo con i risultati sperimentali. Fin qui tutto bene. Ben presto,
purtroppo, si scoprì che i calcoli del secondo e del terz’ordine della QED perturbativa sembravano
non avere alcun senso».
«La situazione era assolutamente scoraggiante, e si cominciò a pensare in maniera diffusa che nella
QED ci fosse qualcosa di fondamentalmente errato», «pochi altri continuarono a cercare di dare un
senso all’espansione perturbativa, e nel corso degli anni Trenta fu chiaro che l’origine del problema
era una cosa che si chiama rinormalizzazione» (p. 55). Terminata la guerra i lavori teorici di H.
Bethe, J. Schwinger, R. Feynman e Sin-itiro, che riuscirono «a portare a termine i calcoli in
un’espansione perturbativa della QED opportunamente rinormalizzata, e a dimostrare che, in linea
di principio, i calcoli potevano essere effettuati a qualsiasi ordine perturbativo» (p. 56) e poterono
essere usati per comprendere la misura del cosiddetto Lamb shift, la cui esistenza «fece capire ai
fisici teorici che gli effetti del QED di ordine superiore erano reale, e che andavano studiati». Gli
accordi che si raggiunsero «tra un numero osservato sperimentalmente e la predizione della QED
normalizzata è un’indicazione del successo evidente della QED come teoria fondamentale della
natura». Va però detto che «se la nascita della meccanica quantistica fu seguita da vicino dai
matematici del calibro di Hilbert, Weyl e altri ancora, per la teoria quantistica di campo le cose
andarono in tutt’altro modo» (p. 57). Così «tra gli anni Quaranta e gli anni Sessanta la fisica e la
matematica viaggiarono su strade separate. Fu un periodo in cui entrambi i campi fecero notevoli
progressi, ma entrarono in contatto molto raramente» (p. 59)
Capitolo 5 – La simmetria di gauge e la teoria di gauge → el. mat. importante per QED
«Ci sono molti tipi diversi di teorie quantistiche dei campi, ma quelle che si sono rivelate più
interessanti, sia sotto l’aspetto matematico che sotto quello fisico, sono quelle che chiamiamo teorie
di gauge. Le teorie di gauge hanno una simmetria, nota come simmetria di gauge, e ancora una volta
è Hermann Weyl ad aver giocato un ruolo importante in tutta la faccenda». «Uno dei principi guida
seguiti da Einstein nello sviluppare la teoria [della relatività generale] fu il principio di covarianza
generale, in base al quale la teoria doveva essere invariante per trasformazioni di simmetria che
corrispondevano a variazioni locali delle coordinate utilizzate per parametrizzare lo spazio e il
tempo». «Weyl notò che era possibile derivare le equazioni di Maxwell per il campo
elettromagnetico estendendo il principio di simmetria della covarianza generale attraverso un nuovo
principio di simmetria, che chiamò invarianza di gauge.» (p. 61) «Alla fine Weyl abbandonò la sua
teoria di gauge unificata della gravità e dell’elettromagnetismo, ma l’idea che le equazioni di
Maxwell potessero essere derivate dal principio di gauge restava allettante» (p. 62). «Schrödinger
osservò che se si fosse reinterpretato il principio di gauge di Weyl in modo da applicarlo non alle
dimensioni delle cose, ma alla fase di “qualcosa”, sarebbe stato possibile capire la condizione di
quantizzazione … La scoperta della meccanica ondulatoria ad opera di Schrödinger, nel 1925,
risolse il problema, dato che una funzione d’onda è una funzione complessa con una fase» (p. 63)
Così «nel 1929 Weyl ritornò sull’idea di simmetria di gauge in un articolo famoso, intitolato
L’elettrone e la gravitazione. In quell’articolo affermava che si poteva effettivamente dedurre la
teoria dell’elettromagnetismo dal principio di simmetria di gauge, il quale determina completamente
le modalità di interazione di una particella carica con un campo elettromagnetico. In quello stesso
articolo Weyl introdusse diverse altre idee. Mostrò come accoppiare in maniera consistente
l’equazione di Dirac con un campo gravitazionale, dimostrando come definire in uno spazio-tempo
curvo i cosiddetti campi spinoriali che costituiscono le soluzioni dell’equazione di Dirac» (p. 65).
«La simmetria di gauge è una delle caratteristiche più importanti della QED dal punto di vista
fisico, oltre ad essere una delle più attraenti sotto l’aspetto matematico … Allo stesso tempo, però,
la simmetria di gauge porta a difficoltà tecniche di prim’ordine. Tutte le tecniche di calcolo e di
approssimazione che potremmo essere tentati di usare sono inutilizzabili, poiché violano il principio
di simmetria di gauge. Fu questa una delle ragioni principali per cui dall’inizio degli anni Trenta si
dovette aspettare fino alla fine degli anni Quaranta per veder chiariti i dettagli della
rinormalizzazione della QED. Nel corso degli anni Trenta e Quaranta, mentre cominciavano a
studiare le cosiddette interazioni forti tra i protoni e i neutroni, i fisici capirono di trovarsi di fronte
a un gruppo di simmetrie familiare. Prendendo i campi che descrivono il protone e il neutrone e
unendoli in un unico campo descritto in ogni punto da due valori complessi, si scopre che le
interazioni forti sono invarianti rispetto allo stesso gruppo SU(2) che avevamo visto nel caso dello
spin. Dato che il fenomeno era stato osservato per la prima volta in fisica nucleare come relazione
tra isotopi nucleari differenti, venne chiamato isospin. Si dice allora che le interazioni forti tra i
nucleoni (protoni e neutroni) hanno una simmetria di isospin SU(2)» (p. 66) E «nel 1954 Chen Ning
Yang e Robert Mills pubblicarono un articolo su una possibile generalizzazione della QED che, a
loro avviso, avrebbe potuto essere utile come teoria quantistica di campo per la descrizione delle
interazioni forti», basata su di una simmetria di gauge locale diversa da quella della QED. «Questa
generalizzazione della simmetria di gauge ha preso il nome di simmetria di gauge di Yang-Mills, e
oggi la loro teoria è nota come teoria quantistica di campo SU(2) di Yang-Mills. Yang e Mills
scoprirono che la loro generalizzazione del principio di simmetria di gauge aveva caratteristiche
molto interessanti, ma che conduceva a una teoria di capo dalle proprietà bizzarre» e siccome
prediceva una tripletta di fotoni di massa nulla che «non era mai stata osservata, la teoria riscosse un
interesse limitato». «Un problema ulteriore stava nel fatto che, per la teoria di Yang-Mills, le
tecniche di rinormalizzazione che avevano permesso i calcoli di ordine superiore nella QED non
funzionavano. Sembrava dunque che Yang e Mills avessero prodotto una teoria che non
corrispondeva ad alcun fenomeno fisico conosciuto, e che probabilmente era anche inconsistente».
Nonostante ciò «era, per molti versi, un modo molto interessante di generalizzare la QED, e negli
anni seguenti diversi teorici lavorarono in maniera intermittente al problema di come calcolarne gli
ordini superiori in maniera adeguata» (p. 67).
Capitolo 6 – Il modello standard → Estensione QED a forza forte e debole
«La storia della fisica delle particelle, teorica e sperimentale, nel terzo quarto del XX secolo è una
vicenda complessa. … In retrospettiva, è chiaro che l’aspetto di gran lunga più importante di questa
storia fu la formulazione di qualcosa che finì col prendere il nome di Modello standard. Il nucleo
centrale di questo modello della fisica delle particelle vide la luce nel 1973 … Alla fine degli anni
’70, dopo aver ricevuto numerose conferme sperimentali, il Modello standard non aveva più
concorrenti». «Ma cos’è? … In forma semplificata, il Modello Standard parte dalla QED, che è una
teoria di gauge U(1), e la estende con due nuove teorie di gauge Yang-Mills. Una di queste si basa
sul gruppo SU(2) e descrive le interazioni deboli, l’altra usa SU(3) per descrivere le interazioni
forti. Oltre ai tre tipi di forze derivanti da queste tre teorie di gauge, l’altra componente
fondamentale del Modello standard è la descrizione delle particelle che a tali forze sono soggette»
(p. 69). «Queste particelle appartengono a tre famiglie quasi identiche, dette generazioni; particelle
corrispondenti di due generazioni diverse differiscono tra di loro per la massa. La generazione di
massa più piccola contiene tutte le particelle stabili che compongono il nostro mondo quotidiano:
l’elettrone, il neutrino elettronico e i quark up e down. C’è un aspetto del Modello standard che
resta ancora avvolto nel mistero: il vuoto non è simmetrico rispetto al gruppo di simmetria SU(2)
della teoria di gauge delle interazioni deboli» (p. 70)
Le interazioni deboli. Dopo che la QED «si era dimostrata capace di spiegare in maniera
promettente la fisica atomica e le forze elettromagnetiche», sorsero due altri tipi di forze «che
sembravano non aver assolutamente nulla a che fare con l’elettromagnetismo e la QED»: quella
“forte” (perché più forte di quella elettromagnetica) e «che lega tra di loro i protoni all’interno del
nucleo» e quella debole (perché più debole di quella elettromagnetica) «responsabile del
decadimento radioattivo di certi nuclei».
La teoria che spiegò la seconda forza «prese il nome di teoria V-A, con riferimento ai termini
“vettore” e “vettore assiale” che descrivono le proprietà dell’interazione rispetto alle operazioni di
simmetria di rotazione e di riflessione. La teoria V-A aveva una proprietà particolare: era chirale,
cioè distingueva la destra dalla sinistra. Ciò significa che la teoria non è simmetrica rispetto alla
trasformazione di inversione speculare» (p. 70), «fatto che ancora oggi resta alquanto misterioso»
(p. 71). Teoria di cui furono scoperte le analogie con la QED e che, passo dopo passo, portò al
«modello unificato delle interazioni elettrodeboli», «noto oggi in egual misura come modello di
Weinberg-Salam o di Glashow-Weinberg-Salam». T
eoria che fu rinormalizzata grazie al lavoro di Gerard ‘t Hooft che nel 1971 «riuscì a dimostrare che
le teorie di Yang-Mills erano rinormalizzabili» (p. 72) e così «la teoria di Yang-Mills SU(2)xU(1),
che costituiva il modello di Glashow-Weinberg-Salam, era una teoria quantistica di campo
rinormalizzabile, di cui, in teoria, sarebbe stato possibile calcolare in maniera consistente i termini
dell’espansione perturbativa a qualsiasi ordine» (p. 72s). Questa teoria si basa sull’idea nuova del
cosiddetto campo di Higgs, legata al problema della rottura spontanea di simmetria.
«Le trasformazioni di simmetria considerate fino ad ora sono quelle che garantiscono l’invarianza
delle leggi fisiche … una cosa non sempre evidente è che mentre la forma delle equazioni può
essere invariante rispetto a una trasformazione di simmetria, in generale le soluzioni delle equazioni
non lo saranno. Le leggi che governano l’evoluzione dello stato del mondo possono essere
simmetriche, ma lo stato reale del mondo, di solito, non lo è … La mancanza di simmetria può
valere per stati scelti a caso, ma in generale i fisici credevano che lo stato del vuoto fosse sempre
simmetrico, e che nessuna trasformazione di simmetria fosse in grado di alterarlo».
«Questa attitudine cominciò a cambiare nel corso degli anni Cinquanta, in gran parte sotto
l’influenza di idee provenienti da un campo che all’apparenza non aveva nulla a che spartire con la
fisica delle particelle, quello della fisica della materia condensata». I fisici di questo branca «non si
interessano alle particelle elementari e alle loro interazioni, ma al comportamento di insiemi di
molte particelle» (p. 73). Ora la teoria quantistica dei campi prevede un caso «in cui lo stato di
minima energia non è invariante rispetto alle simmetrie della teoria», fenomeno che «è stato
battezzato rottura spontanea di simmetria» (p. 74), ma ciò scoprirono di interessante i teorici delle
particelle è che «come regola generale, l’effetto della rottura spontanea di simmetria non era quello
di rendere approssimate delle simmetrie esatte … invece era la presenza di particelle di massa nulla
a spin zero» che «entrano in gioco perché si può usare l’esistenza di una trasformazione di
simmetria infinitesima che modifica uno stato di vuoto per definire un nuovo campo, descritto da
una teoria quantistica dei campi dotata di particelle di massa nulla», idea che «divenne nota come
teorema di Goldstone». Uno dei grandi successi di questa teoria fu «la teoria BCS della
superconduttività, formulata nel 1957 da John Bardeen, Leon Cooper e Robert Schrieffer» (p. 75).
Diversi fisici delle particelle elementari provarono a vedere se fosse possibile formulare teorie delle
particelle elementari dotate di simmetrie di gauge di Yang-Mills soggette a rottura spontanea, con
conseguente acquisto di massa da parte degli analoghi del fotone della teoria di Yang-Mills. Nel
1965, uno di questi fisici, lo scozzese Peter Higgs, propose una teoria del genere» e per farlo
«dovette introdurre un nuovo campo … tale da causare automaticamente la rottura spontanea della
simmetria di gauge della teoria, ed è attualmente conosciuto come campo di Higgs» (p. 76). «Ed è
proprio di quest’idea che Weinberg e Salam si servirono nel 1967» (p. 77).
Le interazioni forti. «La costruzione di acceleratori di particelle sempre più potenti, permettendo lo
studio delle collisioni tra nucleoni ad energie sempre più elevate, aveva portato alla produzione di
una quantità sconvolgente di nuove particelle», a cui ovviamente andava associato un campo. Si
provò così a generalizzare la simmetria SU(2) di isospin «e nel 1961 arrivarono i primi successi,
grazie a Yuval Ne’eman e Murray Gell-Mann» (p. 78)
Quest’ultimo «stava lavorando alla generalizzazione della simmetria SU(2) di isospin», ma solo
«alla fine del 1960, tornato al CalTech», si rivolse a un matematico «(Richard Block), e scoprì che
ciò a cui si stava applicando era un problema matematico ben noto, risolto da molto tempo» e così
nel 1961 «riuscì a dimostrare che le particelle osservate seguivano gli schemi che corrispondevano
ad alcune rappresentazioni di SU(3)» che lo portò a predire l’esistenza di una particella «quella
particella, la omega meno, venne scoperta nel 1964». «A partire da quel momento, il curriculum di
qualsiasi teorico delle particelle cominciò a includere qualche contatto con i gruppi di Lie e le loro
rappresentazioni» (p. 78). «Rimaneva ancora da capire come mai, tra le rappresentazioni utilizzate
per classificare le particelle soggette all’interazione forte, mancasse quella ovvia, quella che
interviene nella definizione del gruppo SU(3): la rappresentazione fondamentale basata su un
tripletto di numeri complessi. Qualsiasi rappresentazione di SU(3) può essere costruita a partire da
tripletti del genere, ma se questi corrispondessero a particelle dovrebbero avere cariche elettriche
frazionarie anziché intere, per la precisione multiple di un terzo della carica elettrica di un elettrone
o di un protone. Simili particelle dotate di carica frazionaria non erano mai state osservate. GellMann finì col pensare che la possibilità dell’esistenza di particelle del genere andasse presa sul
serio, e diede loro un nome: quark» (p. 79)
«Dopo essere riusciti con successo a classificare le particelle mediante la teoria delle
rappresentazioni si SU(3), i fisici si affrettarono a recuperare il tempo perduto, e si misero alla
ricerca di gruppi di simmetria più generali … uno dei candidati presi in considerazione fu il gruppo
di simmetria SU(6)». Però «nel 1967, dopo che Sidney Coleman e Jeffrey Mandula formularono
quello che oggi è noto come teorema di Coleman-Mandula, quel campo di ricerca si interruppe
quasi completamente».
«Nel corso degli anni Sessanta, la simmetria SU(3) di Gell-Mann venne sviluppata ed estesa
ulteriormente, servendosi di un insieme di concetti che, per ragioni troppo lunghe da spiegare,
presero il nome di algebra delle correnti. Un aspetto dell’idea dell’algebra delle correnti era che le
interazioni forti avrebbero dovuto avere non una, ma due simmetrie SU(3) differenti». La prima «è
la SU(3) originale di Gell-Mann, e lo stato di vuoto non viene modificato da trasformazioni di
simmetria SU(3) di questo genere. È la simmetria che porta alla classificazione delle particelle
secondo la rappresentazione di SU(3)» (p. 80). «L’altra SU(3), in un certo senso, cambia segno se si
effettua una riflessione speculare. Il vuoto non è un invariante rispetto a questa SU(3), che pertanto
è una simmetria rotta spontaneamente … Trattandosi di un esempio di rottura spontanea che non
riguarda una simmetria di gauge, vale il teorema di Goldstone. Pertanto dovrebbero esserci otto
particelle di Nambu-Goldstone, prive di massa, corrispondenti alle otto dimensioni di SU(3). Sono
stati trovati otto pioni con le proprietà giuste per essere le particelle di Nambu-Goldstone della
teoria, ma la loro massa non è nulla. D’altro canto, la massa di queste otto particelle è molto più
piccola di tutte le altre particelle soggette all’interazione forte, dunque il modello è almeno
approssimativamente corretto» (p. 80s). «Furono sviluppati vari metodi di calcolo, che consentirono
ai fisici di servirsi dell’algebra delle correnti per calcolare la proprietà dei pioni e delle loro
interazioni … l’incapacità di rendere conto di alcune situazioni con semplici ragionamenti di
simmetria venne battezzata anomalia chirale. Chirale perché «la simmetria in questione cambia di
segno rispetto alla riflessione speculare. Il termine anomali viene utilizzato quando, in certe teorie
quantistiche di campo, i ragionamenti di simmetria standard non funzionano come si vorrebbe».
Ora «a partire dal 1967 i fisici sperimentali che lavoravano al nuovo acceleratore lineare da 20 GeV
di SLAC cominciarono una serie di esperimenti il cui obiettivo era misurare la diffusione
(scattering) degli elettroni su un bersaglio di protoni», esperimenti che «diedero dei risultati
assolutamente inattesi». «Un’interpretazione dei dati osservati fu che il protone non era un oggetto
privo di struttura di dimensioni dell’ordine di 10-15 metri, come ci si aspettava, ma che invece era
formato da costituenti puntiformi» (p. 81). Il problema però è che «tra i prodotti delle collisioni di
SLAC non vi era traccia di nuove particelle puntiformi. La situazione divenne ancora più confusa
quando gli esperimenti fornirono dati di miglior qualità … non solo sembravano esserci costituenti
puntiformi all’interno del protone, ma questi si comportavano come particelle libere, capaci di
interagire solo debolmente. Sarebbe piaciuto a tutti poter identificare tali costituenti con i quark, ma
era ben noto che le forze che tenevano insieme i quark all’interno di un protone dovevano essere
molto intense, così intense che un singolo quark non avrebbe mai potuto essere isolato e osservato
separatamente».
«Verso la fine del 1972 David Gross e Sidney Coleman si erano imbarcati in un progetto il cui
scopo era dimostrare che i risultati di SLAC non potevano essere interpretati nell’ambito di una
teoria quantistica dei campi. La loro fonte di ispirazione era una nuova interpretazione di tutta la
questione della rinormalizzazione nella teoria quantistica dei campi, ad opera di Kenneth Wilson, il
quale aveva notato un’analogia stretta tra la rinormalizzazione e la teoria delle transizioni di fase
nella fisica della materia condensata. L’idea di Wilson era che in una teoria quantistica dei campi
l’intensità dell’interazione non dovesse essere considerata come un semplice numero, ma come
qualcosa che dipendeva dalla scala di distanze che si stava analizzando» (p. 82). Ora «nella QED,
l’intensità di interazione a grandi distanze è data dal parametro =1/137, dal quale dipendono anche
le dimensioni relative dei termini dell’espansione perturbativa. Se si prova a determinare quale
dovrebbe essere per la QED l’intensità di interazione a distanze più piccole, si scopre che al
diminuire della distanza l’intensità di interazione effettiva aumenta. A distanze piccolissime,
quando l’intensità di interazione è così grande da far sì che i termini superiori smettano di diventare
sempre più piccoli, l’espansione perturbativa diventa inutilizzabile». «Venne dimostrato che quasi
tutte le teorie quantistiche di campo si comportavano come la QED; ce ne era una, però, che
presentava dei calcoli particolarmente complicati. Era la teoria di Yang-Mills di cui ‘t Hooft e
Veltman avevano dimostrato da poco la rinormalizzabilità e la possibilità, almeno teorica, di
effetturarne i calcoli». Ad aiutare Gross e Coleman a Princeton arrivò Wilczek, come dottorando di
Gross, e che «cominciò a lavorare al calcolo dell’intensità di interazione effettiva di Yang-Mills»
(p. 83). Il risultato dei suoi calcoli, come quelli di un discepolo di Coleman, Politzer, fu che «nella
teoria di Yang-Mills, al diminuire della distanza, l’intensità di interazione effettiva diventa più
piccola, non più grande. A questa nuova proprietà venne dato il nome di libertà sintotica: a distanze
(asintoticamente) sempre più piccole, le particelle si comporano sempre di più come se si stessero
muovendo liberamente, e non come se stessero interagendo tra di loro. … Il contraltare della libertà
asintotica a corte distanze era il fatto che all’aumentare della distanza aumentava anche l’intensità
dell’interazione. Questo meccanismo, in cui una forza aumenta all’aumentare della distanza,
facendo sì che i quark siano sempre legati tra di loro, è detto talvolta “schiavitù infrarossa”».
«Finalmente era disponibile una teoria quantistica di campo delle interazioni forti. Si sapeva da un
po’ che, per trovare un accordo tra il modello a quark di Gell-Mann e i dati sperimentali, ognuno dei
tre quark originali di Gell-Mann doveva presentarsi in tre varietà differenti, e la proprietà che
distingueva tali varietà venne battezzata colore». «Trasformando la simmetria tra i tre colori in una
simmetria di gauge si otteneva una teoria di Yang-Mills SU(3), cu venne dato ben presto il nome di
cromodinamica quantistica», il cui acronimo è QCD (p. 84). La proprietà che distingue i tre tipi di
quark è chiamata sapore. I sapori dei tre quark «sono detti up (“su”), down (“giù”) e strange
(“strano”)». «La QCD ha una proprietà notevole, che nessun’altra teoria fisica possiede. Se si
ignorano le masse dei quark, c’è solo un parametro libero, quello che determina l’intensità
dell’interazione. L’approccio di Wilson alla rinormalizzazione, però, ci insegna che non si tratta
realmente di un parametro, ma che dipende dalla scala di distanze prescelta, e che se lo si fissa a un
certo valore a una data scala è possibile calcolare quanto varrà a tutte le altre. Nella QCD, quindi, la
scelta dell’unità di distanza e la scelta del parametro sono legate, e una determina l’altra. Un
comportamento del genere venne battezzato da Coleman trasmutazione dimensionale». Dunque
«senza le masse dei quark, la QCD è una teoria completamente determinata, priva di parametri che
possono essere fissati a piacere. Tale sorta di unicità è un obiettivo che i fisici teorici vorrebbero
raggiungere sempre … questa è una delle ragioni che la reso popolare così rapidamente» (p. 85).
Capitolo 7 – Il trionfo del Modello standard → Conferme e previsioni sperim. di ‘sto modello
Nella primavera del 1973 «l’insieme di idee necessarie per la realizzazione del Modello standard
era completo», «restava un grosso problema: affinché il modello di Glashow-Weinberg-Salam fosse
consistente con quello che si sapeva sui quark, Glashow (insieme a John Ilioupolos e Luciano
Maiani) aveva dimostrato nel 1970 che era necessario aggiungere un quarto sapore di quark ai tre di
Gell-Mann. Questo ipotetico quarto sapore venne chiamato charm (“incanto”), ma non c’era alcuna
prova sperimentale della sua esistenza. Dato che era sfuggito agli sperimentatori, ci si aspettava che
avesse una massa molto maggiore degli altri quark».
«A questo punto il Modello standard aveva, complessivamente, quattro sapori di quark (up, down,
strange e charm), ognuno dei quali si presentava in tre colori diversi, e quattro leptoni. I leptoni
erano le particelle prive di interazioni forti: l’elettrone, il neutrino elettronico, il muone e il neutrino
muonico. Veniva naturale organizzare queste particelle in due generazioni. La prima generazione è
quella formata dai quark up e down, dall’elettrone e dal neutrino elettronico. Sono le particelle con
la massa più piccola, e sono tutte quelle necessarie a formare i protoni, i neutroni e gli atomi, in
pratica l’intero mondo fisico di tutti i giorni. La seconda generazione di particelle (i quark strange e
charm, il muone e il neutrino muonico) è identica in tutto e per tutto alla prima, ad eccezione del
fatto che le particelle hanno una massa maggiore. Di conseguenza sono instabili, e quando vengono
prodotte decadono rapidamente nelle particelle della prima generazione, che sono invece più
leggere». (p. 87)
«Il primo grande successo del Modello standard fu la scoperta inaspettata, nel novembre 1974, di
una particella chiamata J/Psi. Questo evento e quelli che seguirono divennero noti come la
rivoluzione di novembre» (p. 88). «I teorici del Modello standard capirono presto che la risonanza
osservata dagli sperimentatori era uno stato legato di un quark charm e di un quark anticharm», così
«la scoperta della J/Psi, oltre a dare una nuova, impressionante conferma della QCD e della libertà
asintotica delle interazioni forti, fornì il quark charm che era stato predetto». «Dopo il 1974 le
conferme sperimentali della teoria furono numerose, e provenienti da esperimenti di varia natura
effettuati in tutto il mondo» (p. 89).
«A energie più elevate, la QCD prevede che quando un elettrone e un positrone collidono, verranno
prodotte tutte le varietà di quark possibili, in proporzioni calcolabili, e che tali quark (insieme ai
quanti del campo di Yang-Mills delle interazioni forti, i gluoni) daranno origine a dei getti di
particelle provenienti direttamente dalla regione di itnerazione. I getti furono osservati per la prima
volta nel 1979, anche in questo caso proprio come era stato previsto. L’osservazione di questi getti,
in un certo senso, equivale a osservare i quark, dato che all’origine di ogni getto c’è la produzione
di un singolo quark».
«La predizione più peculiare della teoria elettrodebole fu quella dell’esistenza degli equivalenti
massicci del fotone, i quanti del campo di Yang-Mills SU(2). Si tratta di tre particelle: una coppia
formata da una particella carica e dalla sua antiparticella (W+ e W-) e uno terza particella neutra (la
Z0). Tutte e tre queste particelle furono osservate per la prima volta nel 1983 al nuovo collider
protone-antiprotone del CERN, e anche qui esattamente con gli stessi valori di massa e gli stessi
canali di decadimento predetti dal Modello standard. … Ciò non significa che non esistono altre
particelle soggette ad interazioni elettrodeboli, ma che non sono mai state osservate, almeno fino a
una massa pari alla metà di quella della Z0 (45 GeV)».
«L’unica scoperta in qualche modo inaspettata di quegli anni fu quella dell’esistenza di una terza
generazione di particelle, di massa ancora più elevata. La prima ad essere osservata fu la particella
tau, un nuovo leptone che si comporta esattamente come un elettrone o un muone, ma ha una massa
ancora più grande» (p. 90). «Una volta scoperto il leptone di terza generazione, il Modello standard
prediceva che avrebbe dovuto esserci una coppia corrispondente di quark con due nuovi sapori: i
quark top (“alto”) e bottom (“basso”)». «Il quark bottom fu osservato per la prima volta nel 1977 al
Fermilab, e sempre qui, ma nel 1994, si ebbero i primi indizi dell’esistenza del quark top».
«Ognuna delle tre generazioni osservate fino ad ora hanno un neutrino, di massa nulla o molto
piccola. La misura della larghezza di risonanza della Z0 implica che se mai esistessero altre
generazioni oltre alle prime tre, queste dovrebbero essere almeno un po’ diverse dalle precedenti,
poiché dovrebbero avere un neutrino dotato di una massa maggiore di 45 GeV. Finora non esistono
indicazioni in tal senso».
Capitolo 8 – I problemi del Modello standard
«Il successo del Modello standard è stato così travolgente che la fisica delle particelle elementari si
trova ora nella situazione senza precedenti di non poter studiare alcun fenomeno sperimentale che
sia in disaccordo con il modello. Qualunque esperimento di fisica delle particelle che sia stato
concepito e portato a termine ha dato dei risultati in perfetto accordo con il Modello standard».
«Resta, comunque, un numero ristretto di interrogativi cui il Modello standard non dà risposta, ma
sui quali ci si aspetterebbe che una teoria davvero fondante abbia qualcosa da dire. I punti in
sospeso sono più o meno questi»:
- «Perché SU(3)xSU(2)xU(1)? … Inoltre, mentre la QCD [la parte SU(3)] possiede la
bellissima proprietà di non avere parametri liberi, l’introduzione dei due altri gruppi SU(2) e
U(1) porta con sé due parametri liberi, e sarebbe bello capire perché questi hanno il valore
che hanno … A questo problema si collega il fatto che la parte U(1) della teoria di gauge
non è asintoticamente libera, e dunque non può essere completamente consistente sul piano
matematico».
- «Perché i quark e i leptoni di ogni generazione seguono uno schema ben preciso? … Questo
interrogativo racchiude a sua volta quello sul motivo per cui il campo di gauge SU(2) delle
interazioni deboli agisce solo sulle particelle con una chiralità ben precisa».
- «Perché tre generazioni? Potrebbero essercene altre, con masse più elevate, che non
abbiamo ancora osservato?» (p. 93).
- «Perché lo stato di vuoto rompe la simmetria di gauge elettrodebole? Se all’origine c’è
realmente un campo di Higgs, allora servono almeno altri due parametri per descrivere
l’entità della rottura di simmetria e l’intensità dell’interazione del campo di Higgs con se
stesso. Perché tali parametri hanno proprio un certo valore? Uno dei parametri è determinato
dalle proprietà osservabili delle interazioni elettrodeboli, mentre non è stato ancora possibile
determinare l’altro per via sperimentale. Ecco perché il Modello standard predice l’esistenza
di una particella di Higgs ma non ne predice la massa. Per giunta, la descrizione del campo
di Higgs fornita dalla teoria quantistica dei campi standard non è asintoticamente libera, il
che, una volta di più, porta a interrogarsi sulla sua consistenza matematica».
- «Cosa determina nella teoria, le masse e gli angoli di mixing dei quark e dei leptoni? Le
masse delle particelle hanno una distribuzione dall’aspetto decisamente casuale, nove
numeri che la teoria non predice e che devono essere aggiunti a mano. Gli angoli di mixing
sono quattro ulteriori parametri che determinano con precisione in che modo le forze
elettrodeboli agiscono sulle particelle. Questi 13 parametri compaiono nel Modello standard,
mentre l’intensità dell’interazione del campo di Higgs con i quark e i leptoni è totalmente
arbitraria. Il problema è legato strettamente al precedente, dato che la nostra incapacità di
predire tali parametri è dovuta, con ogni probabilità, al fatto che ci sfugge la vera natura
della rottura della simmetria di gauge elettrodebole da parte del vuoto».
- «Perché il parametro q vale 0? Tale parametro determina la dimensione di un possibile
termine addizionale nella parte di QCD della teoria, un termine di cui gli esperimenti hanno
dimostrato l’assenza».
«Possiamo riassumere ciò che è insoddisfacente nel Modello standard in questo modo: restano da
spiegare 17 numeri non banali, e sarebbe bello capire perché un diciottesimo parametro vale zero.
Di quei 17, 15 compaiono nel Modello standard come parametri che determinano le proprietà del
campo di Higgs. Il grosso del nostro problema con il Modello standard, dunque, sta nel trovare un
modo per liberarsi del campo di Higgs o, in alternativa, nel capirne l’origine» (p. 94).
«Una complicazione che è stata ignorata fino ad ora riguarda i neutrini. Nella versione più semplice
del Modello standard, tutti i neutrini sono privi di massa. Di recente, alcuni esperimenti hanno
fornito prove convincenti che le cose non stanno così … la prova che i neutrini hanno una massa
viene dall’osservazione delle oscillazioni tra tipi diversi di neutrino». «Un’estensione semplice del
Modello standard che tenga conto delle masse dei neutrini è relativamente facile da ottenere. Ne
derivano sette nuovi parametri, analoghi alle masse e agli angoli di mixing dei quark. La situazione
è complicata leggermente dal fatto che il neutrino ha carica elettrica, il che porta a due termini di
massa distinti. Il meccanismo realmente responsabile delle masse e degli angoli di mixing rimane
un mistero, tanto per i neutrini quanto per i quark».
«Resta una parte importante della fisica che il Modello standard ignora completamente: la forza
gravitazionale, che è governata dalla teoria della relatività generale di Einstein e la cui intensità è
semplicemente proporzionale alla massa delle particelle» (p. 96). «La debolezza della forza
gravitazionale è tale che tutti i suoi effetti osservabili possono essere capiti e calcolati senza
ricorrere alla meccanica quantistica. Esiste comunque un campo gravitazionale, e, per consistenza
con il resto della fisica, sarebbe bello riuscire a trattarlo con la teoria quantistica dei campi». Però
«il suo quanto, il gravitone, interagirebbe così debolmente con qualsiasi altra cosa da essere
totalmente inosservabile a qualunque esperimento esistente o addirittura concepibile. Se si applica
alla relatività generale il metodo tradizionale di espansione perturbativa di una teoria quantistica dei
campi, si ottiene una teoria non rinormalizzabile». «È il problema della gravità quantistica: come si
fa a trovare una teoria di campo consistente di cui la relatività generale sia una buona
approssimazione nell’ambito della fisica classica? Ciò che rende il problema particolarmente ostico
è la mancanza di indicazioni sperimentali che guidino verso la soluzione, oltre all’impossibilità di
verificare l’insieme delle predizioni prodotte da una qualsiasi ipotetica teoria della gravità
quantistica» (p. 96).
Capitolo 9 – Al di là del Modello standard → Come risolvere ‘sti problemi?
«Quasi subito dopo l’avvento della QCD, i teorici delle particelle cominciarono a esplorare nuove
idee, nella speranza che da queste giungesse una risposta ai problemi lasciati aperti dal Modello
standard». Vediamo insieme i programmi di ricerca, che però brancolanno tutti un po’ nel buio.
Le teorie di grande unificazione. «Nel 1974 Glashow, insieme ad un post-doc di Harvard, Howard
Georgi, creò la prima di una classe di generalizzazioni del Modello standard che sarebbero
diventate note col nome di teorie di grande unificazione, o con l’acronimo GUT». «L’idea alla base
di questi modelli era di unire la QCD e la teoria elettrodebole in un’unica teoria di gauge ricorrendo
a un gruppo di simmetrie più vasto» SU(5) (p. 97). Pur non risolvendo il primo interrogativo
(perché SU(5)?), il modello «faceva balenare la possibilità di calcolare due dei parametri del
Modello standard, vale a dire quelli che fornivano le intensità relative delle tre forze corrispondenti
ai tre gruppi del Modello standard» e «invece del complicato sistema di rappresentazioni
SU(3)xSU(2)xU(1) per una generazione di leptoni e quark, Georgi e Glashow riuscirono a sistemare
le particelle di una generazione in due sole rappresentazioni del gruppo di simmetria SU(5)».
Però «il modello non era in grado di dire niente sul fatto che ci fossero tre generazioni». «Un’altra
cosa su cui la GUT SU(5) non aveva nulla da dire era a proposito della particella di Higgs o del
meccanismo di rottura di simmetria del vuoto; anzi, peggiorava notevolmente il problema».
«Tra le predizioni della GUT SU(5) ce n’è una che potrebbe essere verificata sperimentalmente.
Dato che la sua simmetria di gauge correla i quark e i leptoni, un quark all’interno di un protone
potrebbe trasformarsi in un leptone, portando alla disintegrazione del protone. La frequenza di un
simile decadimento è molto bassa … la teoria predice per la vita media di un protone un valore
dell’ordine di 10alla 29 anni» (p. 98). Partirono degli esperimenti verso la fine degli anni Ottanta
che «ben presto riuscirono a dimostrare che la teoria SU(5) doveva essere sbagliata. La vita media
del protone non può essere di 10alla29 anni: non può essere inferiore a 10alla31-10alla33 anni, a
seconda delle ipotesi scientifiche sui canali di decadimento. In un classico esempio di applicazione
del metodo scientifico, era stato dimostrato che la teoria SU(5) doveva essere sbagliata: una sua
predizione ben precisa era stata sottoposta a controllo sperimentale e si era rivelata sbagliata, e la
teoria ne era risultata falsificata». «La GUT SU(5) non fu che la prima di una grande classe di teorie
su cui lavorarono in molti dal 1974 in poi», però «il fatto che l’esperimento avesse smentito la più
semplice delle GUT e non avesse portato alcuna prova a favore di quelle più complicate indicava
chiaramente la necessità di nuove idee».
Il technicolor. «Buona parte dei problemi del Modello standard deriva dall’introduzione del campo
di Higgs e dalla relativa arbitrarietà del modo in cui interagisce con tutti gli altri campi elementari.
Dato che il campo di Higgs stesso non è mai stato osservato, la tentazione di trovare qualche altro
meccanismo che ne svolga il ruolo è molto forte» (p. 99).«Un altro modo possibile per arrivare a
questo risultato consiste nel trovare altre particelle e altre forze tali che lo stato di minima energia
rompa la simmetria SU(2). In questo caso la rottura spontanea di simmetria è detta dinamica, ed è
analoga a ciò che capita nel caso della superconduttività», infatti «in un superconduttore non c’è un
campo elementare che provoca la rottura di simmetria, ma è la dinamica dell’interazione tra gli
elettroni e il solido che questi attraversano a far sì che lo stato di minima energia non sia invariante
rispetto alla simmetria di gauge». Però «lo stato di vuoto standard di una teoria quantistica dei
campi, così come viene studiato in una teoria perturbativa, è invariante rispetto alle simmetrie della
teoria, e quindi nell’approssimazione perturbativa non c’è alcuna rottura dinamica di simmetria».
Ora «un tipo di forza non perturbativa in grado di produrre uno stato di vuoto non invariante è
l’interazione forte tra i quark della QCD … nella QCD ci sono le due simmetrie approssimate SU(3)
del sapore, una delle quali è rotta spontaneamente dalla dinamica forte della teoria». Nel 1978, in
maniera indipendente l’uno dall’altro, Steven Weinberg e Leonard Susskind proposero un modello
in grado di» realizzare la rottura dinamica della simmetria. «Quello che suggerivano era l’esistenza
di un’altra interazione forte sconosciuta, molto simile alla QCD, governata da una teoria di gauge
proprio come la QCD, ma con un gruppo di simmetria differente. Visto che le cariche della QCD
erano state chiamati colori, la teoria prese il nome di technicolor» (p. 100). Essi «dimostrarono che
se l’analoga della SU(3) rotta spontaneamente nell’algebra delle correnti veniva rotta nella teoria
del technicolor nello stesso modo della QCD, la simmetria di gauge delle interazioni deboli avrebbe
presentato una rottura di simmetria dinamica, e non ci sarebbe stato bisogno di un campo di Higgs. I
mesoni più leggeri della teoria del technicolor svolgerebbero il ruolo giocato dal campo di Higgs
nella teoria di gauge elettrodebole standard di Glashow-Weinberg-Salam» (p. 100s).
Il problema è che «poiché ci si aspetta che i quark e i leptoni acquisiscano la propria massa
dall’interazione con il campo di Higgs, se si toglie il campo di Higgs serve un nuovo meccanismo di
generazione delle masse. Affinché la cosa funzionasse con il technicolor, fu necessario introdurre
un ulteriore gruppo di forze e di relativi campi di gauge, cui venne dato il nome di technicolor
esteso». «A quel punto, la teoria proposta era diventata piuttosto complicata, e postulava l’esistenza
di un gran numero di particelle mai osservate. Tutte queste nuove particelle erano soggette
all’interazione forte, e quindi non c’era un modo affidabile di calcolare con precisione quali
sarebbero stati i loro effetti. La teoria, dunque, non era in grado di fare alcuna predizione accurata, e
sembrava aver bisogno di troppe aggiunte complicate».
«Se un’idea come quella del technicolor è vera, non appena le energie raggiunte dagli acceleratori
saranno abbastanza alte da vedere ciò che capita alla scala della rottura dinamica della simmetria
elettrodebole (250GeV), gli esperimenti dovrebbero essere in grado di evidenziare un
comportamento abbastanza diverso da quello previsto dal Modello standard con il campo di Higgs.
aL CERN, l’LHC dovrebbe avere un’energia sufficiente» (p. 101).
La supersimmetria e la supergravità. «Un paio d’anni prima del consolidamento del Modello
standard, due gruppi di fisici russi, a Mosca e a Kharkov, pubblicarono in maniera indipendente
degli articoli su un’idea per un nuovo genere di simmetria, cui presto venne dato il nome di
supersimmetria» (p. 101s). «Al lavoro di Evgeny Lichtman e di Yuri Golfand del 1971, e a quello
di Vladimir Akulov e Dmitri Volkov del 1972, si aggiunse nel 1973 un’ulteriore versione della
stessa idea, ad opera dei due fisici del CERN, Julius Wess e Bruno Zumino». Se il lavoro dei russi
passò largamente inosservato, quello «di Wess e Zumino, invece, ricevette molta attenzione, e trovò
terreno fertile, essendo apparso solo pochi mesi dopo la libertà asintotica, quando molta gente si era
messa alla ricerca di nuove idee su come andare oltre il Modello standard».
Per capirlo serve però un riassunto «si suppone che qualsiasi tipo di teoria quantistica abbia le
simmetrie spazio-temporali fondamentali corrispondenti alle traslazioni e alle rotazioni nello
spazio-tempo quadridimensionale. Ad ogni simmetria corrisponde un operatore quantistico sullo
spazio di Hilbert che determina gli effetti di una trasformazione di simmetria infinitesimale sullo
stato fisico». → «Le traslazioni nelle tre dimensioni spaziali corrispondono alle tre componenti
dell’operatore quantità di moto, e le traslazioni nel tempo corrispondono all’operatore energia. Le
rotazioni nello spazio tridimensionale corrispondono all’operatore momento angolare, anch’esso
dotato di tre componenti. Infine ci sono gli operatori di boost, associati alle trasformazioni che
mescolano le coordinate spaziali e temporali mantenendo invariante il cono-luce». → «Il gruppo di
simmetria che include tutte le simmetrie spazio-temporali è detto gruppo di Poincaré, dal nome del
matematico francese Henry Poincaré. In matematica, un’algebra è essenzialmente un insieme di
oggetti astratti con una regola per moltiplicarli e addizionarli in maniera consistente. Gli operatori
che generano simmetrie spazio-temporali infinitesimali formano un’algebra detta algebra di
Poincaré. A qualunque gruppo di Lie di trasformazioni di simmetria può essere associata
un’algebra di trasformazioni di simmetria infinitesimali, detta algebra di Lie, e l’algebra di Poincaré
non è altro che la l’algebra di Lie associata al gruppo di Poincaré» (p. 102).
«Quello che avevano scoperto i fisici russi era un modo consistente di estendere l’algebra di
Poincaré delle simmetrie spazio-temporali infinitesimali con l’aggiunta di nuovi operatori. La nuova
algebra estesa venne chiamata algebra di supersimmetria». Se si cerca di costruirne gli «operatori
nell’ambito di una teoria quantistica dei campi, si scopre che hanno la proprietà peculiare di mettere
in relazione tra di loro i bosoni e i fermioni». → I bosoni sono particelle che «se li si scambia tra di
loro lo stato quantico del sistema resta lo stesso». «È un dato fondamentale delle teorie quantistiche
dei campi, ed è stato dimostrato per la prima volta da Pauli, che le particelle con spin intero devono
essere bosoni. Le uniche particelle fondamentali osservate dotate di una natura bosonica sono i
quanti dei campi di gauge … il cui numero quantico di spin vale 1. Tra le particelle bosoniche di cui
si ipotizza l’esistenza, abbiamo la particella di Higgs (spin 0) e il gravitone (spin 2)». → I fermioni
invece «hanno la caratteristica che, se si scambiano due particelle fermioniche identiche, il loro
vettore di stato resta lo stesso, ad eccezione di un segno meno. Ciò implica che non si possono
mettere due fermioni identici nello stesso stato (poiché l’unico vettore di stato uguale al proprio
opposto è il vettore 0). Pauli dimostrò anche che in una teoria quantistica dei campi i fermioni
avranno spin smintero; tra gli esempi, abbiamo i quark e i leptoni conosciuti, tutti fermioni con spin
½». → I nuovi operatori che estendono l’algebra di Poincaré trasformano i bosoni in fermioni e
viceversa, e quindi in una teoria quantistica dei campi che ha questo nuovo tipo di simmetria i
bosoni e i fermioni vengono forzati ad essere correlati» (p. 103). Ora «se una teoria quantistica dei
campi è supersimmetrica, per ogni particella bosonica o fermionica esistente nella teoria deve
essercene un’altra di tipo opposto, con una differenza di spin di mezza unità»; quindi «la ragione
principale per cui nessuno si era interessato molto ai primi lavori dei russi era che in natura non
c’erano coppie di particelle che potessero essere collegate in maniera evidente a questo nuovo tipo
di simmetria». Ma «con l’accettazione generale del Modello standard, l’attenzione dei teorici si
volse alla ricerca di nuovi tipi di simmetria e di nuovi modi per mettere in relazione tra di loro
quelle parti del Modello standard che apparivano separate».
«Un’altra ragione per interessarsi alla supersimmetria era la speranza che potesse aiutare a risolvere
il problema della costruzione di una teoria quantistica della gravità. Uno dei principi generali della
relatività generale è la cosiddetta invarianza generale delle coordinate», che, in un certo senso, «è
una simmetria di gauge locale corrispondente alla simmetria globale delle traslazioni spaziotemporali. La speranza era che la supersimmetria permettesse, in un modo o nell’altro, di derivarne
una simmetria locale». Nel 1973 «Volkov cominciò a occuparsi conn Vyacheslav Soroka del
problema di trovare una versione di gauge della supersimmetria che potesse portare a una teoria
della gravitazione, e pubblicò dei risultati parziali. Lo sviluppo di quella che divenne nota come
supergravità si rivelò un compito complesso, e una versione completa della teoria venne formulata
solo nella primavera del 1976 da Daniel Freedman, Petr van Nieuwenhuizen e Sergio Ferrara. Negli
anni immediatamente successivi molti fisici contribuirono allo sviluppo di strumenti di calcolo
adatti alla teoria, e allo studio del problema della sua rinormalizzabilità» (p. 104). «A causa della
supersimmetria, la supergrvità doveva contenere, oltre al gravitone, che è un bosone di spin 2,
anche un fermione di spin 3/2, il gravitino. La speranza era che i contributi di calcolo della serie
perturbativa provenienti dal gravitone e del gravitino si cancellassero a vicenda, permettendo di
rinormalizzare la teoria standard della gravità quantistica. Venne dimostrato che ciò accadeva, ma
non in maniera completa». → «Oltre alla versione più semplice della supergravità, i fisici
cominciarono a studiare anche teorie più complesse, dette teorie di supergravità estese, che
presentavano simultaneamente più supersimmetrie … Si scoprì che era possibile definire in maniera
consistente teorie dotate di un massimo di otto supersimmetrie». «La teoria con otto supersimmetrie
venne chiamata supergravità estesa con N=8, e per un po’ godette di una certa popolarità». Poco
dopo il 1980 però «venne dimostrato che a un ordine sufficientemente elevato della serie
perturbativa era probabile che la supergravità estesa con N=8 continuasse ad avere gli stessi
problemi di non rinormalizzabilità della gravità ordinaria. Sembrava chiaro, inoltre, che anche con
tutte le particelle provenienti dalle otto supersimmetrie non ce n’erano abbastanza per produrre tutte
quelle del Modello standard» (p. 105).
«Un modo per costruire la teoria della supergravità estesa con N =8 consiste nel partire dalla
supergravità più semplice con un supersimmetria, ponendosi però in uno spazio a undici dimensioni.
Se si ipotizza che in realtà, per qualche ragione oscura, tutto dipenda da quattro delle undici
dimensioni, si può arrivare alla teoria estesa con N=8 per quelle quattro dimensioni». «L’idea di
arrivare a una teoria unificata pensando a teorie fisiche con più di quattro dimensioni spaziotemporali risale al 1919. A quel tempo, il matematico Thodor Kaluza scoprì di poter derivare una
teoria che comprendeva l’elettromagnetismo e la gravità partendo dalla teoria della relatività
generale di Einstein, che in quegli anni era una novità, assumendo però che le dimensioni spaziotemporali fossero cinque, e che una di queste fosse avvolta ovunque su stessa come un piccolissimo
cerchio. L’idea era che la dimensione extra fosse così piccola da non risultare visibile, se non
indirettamente, attraverso l’esistenza della forza elettromagnetica. Le teorie contenenti questo
genere di dimensioni aggiuntive erano diventate note come teorie di Kaluza-Klein, e venivano
studiate da molti anni con interesse intermittente». «L’applicazione dell’idea di Kaluza-Klein alla
supergravità consisteva nel cominciare dalla supergravità a undici dimensioni, per poi assumere che,
per qualche ragione misteriosa, sette delle undici dimensioni si arrotolassero su se stesse fino a
diventare piccolissime». «Ben presto venne dimostrato che l’idea era affetta da un problema
fondamentale: la teoria che si otterrà sarà sempre simmetrica rispetto alla riflessione speculare, e
quindi in questo modo non si otterrano mai le interazioni deboli, che non sono simmetriche rispetto
alla riflessione speculare. La teoria, inoltre, continua ad essere affetta dal problema della non
rinormalizzabilità». «Nonostante i suoi problemi, però, la teoria a undici dimensioni è stata
riproposta di recente in un altro contesto» che vedremo tra poco (p. 106).
Capitolo 10 – Nuove intuizioni nella teoria quantistica dei campi e nella matematica
Chi mostrò le debolezze del sistema della supergravità fu il fisico Edward Witten, che, insieme ad
altri, «migliorando la loro comprensione degli aspetti fisici della teoria quantistica dei campi, hanno
esplorato un gran numero di connessioni tra queste teorie e la matematica, spesso portando nuove
idee e prospettive emozionanti in aree della matematica già ben sviluppate» (p. 107).
Edward Witten nacque nel 1951, ma solo alla fine del 1973 entrò nel dipartimento di fisica di
Princeton, ma «senza neanche un diploma di fisica», imparò a «padroneggiare il soggetto in
brevissimo tempo», cominciando «rapidamente con un imponente lavoro di ricerca» e risolvendo i
problemi più che con tanti calcoli «facendo unicamente ricorso a principi primi». Ricevuto il
dottorato di ricerca a Princeton nel 1976, passò per un po’ ad Harvard, per poi tornarvi come
professore ordinario nel 1980 (p. 108) e spostarsi nel 1987 come professore all’Institute for
Advanced Study e come visiting professor al CalTech; «ha ricevuto una lunga lista di onorificenze,
incluso nel 1990 il più prestigioso premio per la matematica, la medaglia Fields. La strana
situazione per cui la persona con maggior talento nella fisica teorica ha ricevuto l’equivalente del
premio Nobel per la matematica, ma non un premio Nobel per la fisica, indica da un lato quanto sia
insolita la figura di Witten, dall’altro quanto sia diventato insolito il rapporto fra la matematica e la
fisica negli ultimi anni». I risultati da lui ottenuti, contenuti in una mole di lavori prodotti
incredibile, «sono assolutamente il frutto di una combinazione di un grande talento e una grossa
dose di duro lavoro. Tutti i suoi articoli sono modelli di chiarezza e profonda meditazione sui
problemi affrontati, a un livello elevato che pochi possono eguagliare» (p. 109).
Istantoni nelle teorie di Yang-Mills e in matematica. «Negli anni che hanno seguito la formulazione
finale del Modello standard, uno dei principali temi di ricerca della fisica delle particelle è il
continuo sforzo di sviluppare metodi di calcolo nella teoria quantistica dei campi in grado di
superare i limiti di quello legato all’espansione perturbativa».
«Nel 1975 quattro fisici russi (Alexander Belavin, Alexnader Poliakov, Albert Schwarz e Yuri
Tyupkin) stavano studiando le equazioni di Yang-Mills e trovarono un modo di ottenere almeno
alcune delle loro soluzioni, quelle che soddisfano la cosiddetta condizione di self-dualità. Tali
soluzioni divennero celebri con il nome di istantoni BPST. Il nome “istantone” fa riferimento al
fatto che queste soluzioni sono localizzate intorno a un punto nello spazio-tempo
quadridimensionale: un istante. Una questione tecnica importante è che queste sono soluzioni per la
cosiddetta versione euclidea delle equazioni di self-dualità, dove tempo e spazio sono trattati alla
stessa stregua, ignorando le caratteristiche distintive che in relatività speciale rendono il tempo
diverso» (p. 110). «Un aspetto importante di queste soluzioni istantoniche è il fatto che esse
forniscono diversi punti di partenza per il calcolo di un’espansione perturbativa» (p. 110s).
«L’espansione perturbativa ordinaria può essere pensata come valida per campi prossimi allo zero,
ma è possibile sviluppare una espansione partendo non da campi nulli, ma da campi che sono
soluzioni dell’equazione di self-dualità». «Questo tipo di calcoli, che utilizzano come punto di
partenza soluzioni non banali delle equazioni classiche di campo è detto semiclassico».
«Nel caso delle soluzioni classiche di istantoni BPST, questi calcoli furono eseguiti per la prima
volta da ‘t Hooft nel 1976 e subito dopo da molti altri gruppi di fisici», arrivando «a descrivere
nuovi fenomeni fisici che nell’espansione perturbativa standard intorno ai campi nulli non si
presentavano», come: la «predizione del decadimento del protone», di cui «il tasso di decadimento
predetto era molto più lento di quello predetto dalle teorie di grande unificazione»; «la non
esistenza di un nono bosone di Nambu-Goldstone».
«Durante gli anni immediatamente successivi, è stata eseguita una lunga serie di calcoli semiclassici
facendo uso si varie soluzioni sia delle teorie di Yang-Mills, sia di altre teorie fisiche», ma alla fine
sembra che essi «siano ancora troppo strettamente legati alla condizione di debolezza delle forze e,
come l’espansione perturbativa standard, non siano validi in regimi le cui forze nella QCD
diventano intense».
Se non ebbero molta rilevanza in fisica dunque «finirono per diventare di enorme importanza in
matematica» (p. 111). «Il teorema dell’indice di Atiyah-Singer [per cui entrambi vinsero il premio
Abel, l’equivalente del Nobel e istituito nel 2001, nel 2004] fornisce il numero di soluzioni di una
vasta classe di equazioni differenziali in termini puramente topologici. La topologia è quella parte
della matematica che si occupa degli aspetti degli oggetti geometrici che non cambiano quando gli
oggetti vengono deformati». «Il loro teorema asserisce che è possibile determinare il numero di
soluzioni di un’equazione differenziale trovando il numero di soluzioni dell’equazione di Dirac
associata; è proprio per queste equazioni di Dirac generalizzate che essi trovarono una bellissima
formula topologica per il numero di soluzioni». La collaborazione tra i due cominciò nel 1976 (p.
112) e dal 1977 Atiyah inziò con Witten una collaborazione scientifica che durò più di un secolo e
«che ha portato enormi progressi sia nel campo della matematica sia in quello della fisica», grazie al
profondo rapporto che venne instaurandosi tra «la matematica moderna, la supersimmetria e la
relazione fra le due». Così nel 1982 uno studente di Atiyah, Simon Donaldson «fu in grado di
provare una gran quantità di potenti e inaspettati teoremi relativi alla topologia dello spazio
quadridimensionale usando come tecnica di base lo studio delle soluzioni delle equazioni di selfdualità per la teoria di Yang-Mills». Una cosa che si scoprì già all’inizio degli anni Settanta è che
per gli spazi di cinque o più dimensioni «non c’è abbastanza libertà per deformare le cose in molti
modi, e, dati due spazi diversi, la questione se sia possibile deformarli l’uno fino a ottenere l’altro è
complicata ma può essere risolta. Il caso di tre e quello di quattro dimensioni si sono rivelati essere
decisamente più complicati, e il progresso nella loro comprensione è rallentato drasticamente» (p.
113). Ora «la classificazione degli spazi secondo la topologia dipende da quali tipi di deformazioni
sono permesse. Devono essere permesse tutte le deformazioni (sempre che non si eseguano strappi),
incluse quelle che sviluppano singolarità, o bisogna richiedere che lo spazio rimanga liscio (senza
singolarità) mentre viene deformato?», «ciò che Donaldson ha mostrato è che in quattro dimensioni
questi due tipi di deformazioni conducono a due schemi di classificazione completamente diversi. Il
fatto che egli abbia ottenuto questo risultato facendo uso delle teorie di gauge e di soluzioni di
equazioni differenziali (parti della matematica che i topologi ritenevano al di fuori delle loro
competenze) non fece che aumentare la sorpresa».
Teorie di gauge su reticolo. «Un altro approccio molto diverso chiamato teorie di gauge su reticolo
fu proposto indipendentemente da Kenneth Wilson e Alexander Polyakov nel 1974. L’idea alla base
delle teorie di gauge su reticolo è quella di rendere la teoria quantistica di Yang-Mills ben definita,
indipendentemente da ogni espansione perturbativa, costruendola non per ogni punto dello spazio e
del tempo, ma soltanto su un “reticolo” di punti regolare e finito. … Ciò che Wilson e Polyakov
dimostrarono è che si può facilmente eseguire questo tipo di discretizzazione della teoria in modo di
gauge-invariante se si associano i campi che descrivono i quark e i leptoni ai punti del reticolo e i
campi di Yang-Mills ai collegamenti fra i punti vicini sul reticolo» (p. 114).
«Esiste una tecnica generale (dovuta a Feynman) per definire teorie quantistiche dei campi
denominata tecnica degli integrali di cammino. Il nome è dovuto al fatto che usare questa tecnica
per definire la meccanica quantistica (invece della teoria quantistica dei campi) implica l’esecuzione
di integrali analoghi a quelli studiati dall’analisi matematica, ma sullo spazio infinitodimensionale
di tutti i cammini o traiettorie spazio-temporali delle particelle» (p. 114s). «Nelle teorie di gauge su
reticolo gli integrali diventano ben definiti grazie alla natura discreta del reticolo», perché «se si
restringe l’attenzione a un reticolo definito in una porzione finita dello spazio-tempo e costituito di
punti disposti fra loro a una distanza finita, allora il numero dei punti risulta limitato e tale è anche
la dimensione degli integrali da eseguire. Chiaramente, il calcolo che realmente si vorrebbe eseguire
richiede di considerare il limite in cui il passo reticolare tende a zero e di muoversi verso il caso di
un numero infinito di punti, ma Wilsone Polyakov sapevano, dallo studio di problemi simili nella
fisica della materia condensata, che c’era una speranza che questo potesse essere fatto con
successo». Ora però la maggior parte delle teorie di gauge su reticolo, usate dai fisici della materia
condensata, si basa su degli schemi la difficilmente applicabili a questa situazione particolare.
«L’eccezione è talvolta chiamata algoritmo Monte-Carlo, un metodo di calcolo probabilistico per
eseguire integrali di dimensione elevata di alcuni tipi particolari» (p. 115). «Questo tipo di calcoli
funziona abbastanza bene nelle teorie pure di Yang-Mills (senza campi fermionici), ma
l’intrduzione dei fermioni rende le cose molto difficili, specialmente se si tiene conto di effetti
dovuti alle coppie particella-antiparticella» (p. 115s). Così «i risultati dei calcoli eseguiti in QCD
con questo metodo sono consistenti con i risultati sperimentali relativi a particelle fortemente
interagenti» e quindi si è ancora alla ricerca di un metodo per «calcolare cose in QCD in un modo
che possa utilizzato per spiegare cosa sta succedendo» (p. 116)
Grandi N. «Un altro metodo per eseguire calcoli in QCD è stato proposto da ‘t Hooft nel 1974».
Esso «è basato sull’idea di generalizzare al QCD da una teoria di gauge SU(3) con tre colori a una
teoria il cui numero di colori sia qualche arbitrario “N” con corrispondente gruppo di simmetria
SU(N). L’idea di ‘t Hooft era incentrata sul fatto che la teoria in realtà potrebbe semplificarsi
quando il numero N aumenta, e si può sperare di risolvere esattamente la teoria del limite in cui N
tende all’infinito. A questo punto si può ancora sperare di costruire una nuova forma di espansione
perturbativa in cui il parametro di espansione è dato dall’inverso di N, 1/N. Questo approccio è
diventato celebre con il nome di tecnica di approssimazione 1/N o per grandi N». «Quest’idea può
essere utilizzata per studiare problemi semplificati, specialmente quelli in cui la teoria quantistica
dei campi è definita non nello spazio tempo quadridimensionale, ma piuttosto in due dimensioni
spazio-temporali» (p. 116). «In questi modelli semplificati o toy models, le dimensioni spaziali sono
rimpiazzate da un’unica dimensione spaziale» (p. 116s). «Witten si avvicinò al concetto di grandi N
nel 1978, e durante i pochi anni successivi riuscì a usarlo per fornire impressionanti argomentazioni
qualitative riguardo a come questo approccio poteva essere un modo promettente di pensare alla
QCD». «Il culmine di questo filone di lavoro si ebbe nel 1983, quando Witten mostrò che non
soltanto la fisica dei pioni poteva essere compresa per mezzo dell’algebra delle correnti, ma che
questo era possibile anche per le particelle fortemente interagenti di massa molto più elevata quali il
protone e il neutrone. Fare ciò richiese di considerare il protone e il neutrone come configurazioni
esotiche dei campi pionici portatori di topologia non banale … Per derivare il risultato, Witten fece
uso di un tour de force di combinazioni di argomentazioni a proposito del comportamento probabile
dell’approssimazione per grandi N, in combinazione con bellissime argomentazioni topologiche e
geometriche». Però «né Witten né nessun altro è ancora stato in grado di trovare un modo di usare
l’espansione per grandi N per risolvere la QCD. Il problema fondamentale è che nessuno sa come
ottenere la soluzione esatta della teoria di gauge SU(N) nel limite in cui N tende a infinito (p. 117).
Teorie quantistiche dei campi in due dimensioni. Le teorie in cui le tre dimensioni standard dello
spazio-tempo sono ridotte a una singola dimensione, come linea o circonferenza, «condividono
molte proprietà con le teorie dei campi a tre dimensioni spaziali, ma generalmente si rivelano
matematicamente più trattabili» e «sono generalmente indicate come 1+1 dimensionali o
bidimensionali», essendoci in gioco anche il tempo». «Teorie di questo tipo sono state utilizzate per
i primi studi sui calcoli semiclassici con istantoni, ma anche in calcoli per grandi N» e questa
esperienza «è stata impagabile nel fornire un’idea di ciò che può accadere nei reali calcoli dello
stesso genere in quattro dimensioni». «Durante gli anni Ottanta si è imparato molto di più su questi
modelli, in particolare su una loro sottoclasse, chiamati teorie dei campi conformi, per le quali è
possibile trovare soluzioni esatte che non dipendono da alcuno schema di approssimazione» (p.
118). Soprattutto grazie a Gauss e Riemann si è imparato a pensare in questi termini bidimensionali
per pensare poi «a una superficie come parametrizzata non da una coppia di numeri reali, ma da un
singolo numero complesso. Una superficie parametrizzata in questo modo è chiamata superficie di
Riemann», il cui studio «è uno degli argomenti fondamentali della matematica moderna, dal
momento che si colloca all’intersezione di numerosi campi di indagine differenti che includono la
topologia, la geometria, l’analisi e perfino la teoria dei numeri».
«Un concetto cruciale in questo ambito è quello di funzione analitica, concetto per il quale è
difficile dare una descrizione intuitiva», perché se ad es. una funzione reale a due variabili reali è
facile rappresentarla in «grafici che sono superfici bidimensionali in tre dimensioni», mettendo al
posto delle due variabili reali, due variabili complesse «l’abilità di visualizzare il grafico della
funzione si perde, visto che sarebbero necessarie quattro dimensioni per disegnarlo». Se però le due
variabili reali sono sostituite con una variabile complessa, «allora succede qualcosa di sensazionale.
Si può imporre una nuova condizione sulla funzione in grado di collegare fra loro la natura
complessa del dominio e il campo di variabilità della funzione»; moltiplicare per la radice quadra di
-1 infatti «non è altro che una rotazione di 90 gradi. La condizione per cui una funzione è analitica è
data dal fatto che una rotazione di 90 gradi nel dominio della funzione ha lo stesso effetto della
rotazione eseguita sul campo di variabilità della funzione» (p. 119). «Questa condizione è ancora
difficile da immaginare, ma è possibile mostrare che un altro modo di caratterizzare una funzione
analitica è il fatto che preserva gli angoli» (p. 119s). «In questo modo una funzione analitica
realizza quella che prende il nome di trasformazione conforme». « Queste trasformazioni conformi
formano un gruppo di trasformazioni di simmetria, e questo gruppo è infinitodimensionale in
quanto necessita di un numero infinito di parametri per descrivere tali trasformazioni».
«Se si ha una teoria quantistica dei campi in due dimensioni, ci si può chiedere come questa si
comporti sotto l’azione di tali trasformazioni conformi. Una teoria quantistica dei campi che sia
invariante o che si comporti in maniera semplice sotto l’azione di queste trasformazioni è chiamata
teoria dei campi conforme. Quindi le teorie dei campi conformi sono casi particolari di teorie dei
campi in due dimensioni che hanno un gruppo di simmetria infinitodimensionale di trasformazioni
che preservano gli angoli». Molte teorie vennero derivate, ma «un importante sviluppo si deve a
Witten, che nel 1983 scoprì quello che ora è conosciuto come modello di Wess-Zumino-Witten. La
sua costruzione di questo modello faceva uso di una versione bidimensionale del trucco topologico
che egli aveva già usato per ottenere i protoni dell’algebra delle correnti, e il risultato finale
possiede al suo interno una gran quantità di affascinanti strutture matematiche». Lavori successivi
mostrarono che una vasta classe di teorie dei campi conformi erano legati a questo modello
«essendo costruite a partire da questo con l’introduzione di differenti simmetrie di gauge» (p. 120).
«Mentre la teoria delle rappresentazioni dei gruppi finitodimensionali del tipo di quelli studiati da
«Weyl tra il 1925 e il 1926 era un settore ben sviluppato della matematica già dagli anni Settanta,
molto poco si conosceva a proposito delle rappresentazioni dei gruppi infinitodimensionali come il
gruppo delle trasformazioni conformi in due dimensioni» (p. 120s). «I matematici Victor Kac e
Robert Moody nel 1967 introdussero alcune nuove strutture che permettevano la costruzione di una
classe di gruppi infinitodimensionali conosciuti oggi come gruppi di Kac-Moody. Questi gruppi
hanno alcune delle stesse strutture di quelli finitodimensionali, abbastanza da permettere una
generalizzazione di alcune tecniche usate da Weyl e altri». → Weyl ricavò poi una formula
fondamentale «conosciuta oggi come formula di Weyl per i caratteri», perché «calcola i “caratteri”
di una rappresentazione». Essa così «è una funzione definita sul gruppo, vale a dire una regola che
fornisce un numero per ogni elemento del gruppo» e così «è possibile dire quale rappresentazione
del gruppo si stia guardando semplicemente calcolando questa funzione che pertanto caratterizza la
rappresentazione». «Per dire se due rappresentazioni costruite in modi molto diversi sono in realtà
la stessa, è sufficiente calcolarne le funzioni dei caratteri e vedere se queste sono identiche». →
«Nel 1974 Kac derivò una formula che generalizzava la formula di Weyl per i caratteri per il caso
dei suoi gruppi di Kac-Moody, e tale formula è oggi nota come formula di Kac-Weyl pr il caratteri.
Negli anni successivi l’interesse relativo a questi gruppi crebbe, e si ottennero costruzioni esplicite
per le loro rappresentazioni. I metodi utilizzati erano una combinazione di generalizzazioni del caso
finitodimensionali e tecniche mutuate dai fisici, compresa una tecnica che includeva un oggetto
chiamato operatore di vertice» (p. 121). Se in fisica l’uso di questi operatori è andato scemando, nel
campo della matematica ha condotto allo sviluppo della «algebra degli operatori di vertice. Questo
nuovo campo ha avuto applicazioni in numerose aree della matematica, comprese alcune molto
lontane dalla fisica. Probabilmente la più nota di queste applicazioni è stato lo studio delle
rappresentazioni di un oggetto noto come gruppo Monster» (p. 121s). Esso «è il più grande fra i
possibili componenti irriducibili di un gruppo finito, e il fatto che le sue rappresentazioni possano
essere comprese utilizzando tecniche in definitiva derivate dalla teoria quantistica dei campi è stata
una delle più inaspettate connessioni tra la matematica e la fisica che si sia manifestata negli ultimi
decenni». → Ma non è tutto qui! «La teoria quantistica dei campi di Weiss-Zumino-Witten si è
rivelata essere intimamamente legata alla teoria delle rappresentazioni dei gruppi di Kac-Moody»,
perché «il modello di Wess-Zumino-Witten è una rappresentazione non soltanto del gruppo di KacMoody, ma anche del gruppo delle trasformazioni conformi». Così «la teoria di Wess-ZuminoWitten ha avuto un’importanza enorme sia per i matematici, sia per i fisici. Per i matematici
fornisce simultaneamente una costruzione esplicita delle rappresentazioni di due gruppi
infinitodimensionali: il gruppo di Krac-Moody e il gruppo delle trasformazioni conformi. … Per i
fisici, questa è un’interessante teoria quantistica dei campi, una delle pochissime che può essere
risolta esattamente» (p. 122). «Lo studio delle implicazioni per la matematica e la fisica di questa e
altre teorie quantistiche dei campi strettamente connesse continua ancora» (p. 122s)
Anomalie e rottura quantistica di simmetria. Il modello Wess-Zumino-Witten è così chiamato
perché è un adattamento bidimensionale che Witten ha operato «di un modello in quattro
dimensioni considerato inizialmente da Julius Wess e Bruno Zemino. Wesse e Zumino stavano
studiando il modello per via della sua relazione con l’algebra delle correnti e la già descritta teoria
dei pioni come particelle di Nambu-Goldstone», così «lo studio delle rappresentazioni dei gruppi di
Kac-Moody è strettamene legato a questa versione bidimensionale dell’algebra delle correnti».
«Il lavoro iniziale sull’algebra delle correnti nel corso degli anni Sessanta portò alla luce un
problema, fonte di una certa confusione, denominato anomalia. La fonte della difficoltà era già stata
studiata da Schwinger nel 1951, pertanto divenne noto come il problema del termine di Schwinger
che naturalmente compariva in certi calcoli. Il termine di Schwinger portava lo spazio di Hilbert
dell’algebra delle correnti a non essere più una rappresentazione del gruppo di simmetria del
modello» (p. 123). «La ragione alla base del problema aveva a che fare con la necessità di usare
tecniche di rinormalizzazione per definire propriamente la teoria quantistica dell’algebra delle
correnti. … La rinormalizzzione introduceva una fase U(1) aggiuntiva nel problema, distruggendo
l’argomentazione classica secondo cui lo spazio di Hilbert della teoria quantistica deve costituire
una rappresentazione del gruppo di simmetria». → «Nelle teorie in due dimensioni è ora ben chiaro
come affrontare questo problema: in questo caso, le trasformazioni U(1) anomale possono essere
trattate semplicemente aggiungendo un fattore U(1) aggiuntivo all’originario gruppo di simmetria
infinitodimensionale della teoria», che «nel gruppo di simmetria appare in alcuni degli
infinitodimensionali gruppi di Kac-Moody. In questo modo in due dimensioni la fisica che conduce
all’anomalia e la matematica dei gruppi di Kac-Moody si adattano insieme in modo consistente».
«Nelle teorie quantistiche dei campi in quattro dimensioni, il problema dell’anomalia ovvero del
termine di Schwinger è molto più complicato. L’algebra delle correnti in quattro dimensioni ha
condotto a un significativo aumento della comprensione degli aspetti fisici del problema». «Una
delle prime conseguenze fisiche dell’anomalia ha a che fare con il tasso con cui i pioni neutri
decadono in due fotoni», Se si tiene conto del problema dell’anomalia «i calcoli dell’algebra delle
correnti concordano bene con l’esperimento. Questi calcoli dipendono dal numero di colori della
QCD, e il loro successo è stato uno dei primi contributi all’evidenza del fatto che i quark devono
presentarsi in tre colori». «Un’altra predizione fisica di successo legata all’anomalia» (p. 124) è
l’accordo tra previsione e realtà dei nove bosoni di Nambu-Goldstone: otto leggeri e uno pesante.
«Il fenomeno dell’anomalia è spesso chiamato rottura di simmetria quantistica», «in aggiunta al
fenomeno dell’anomalia di cui abbiamo appena parlato, che ha effetti sulle simmetrie globali
studiate nell’algebra delle correnti, può anche esserci un’anomalia nella simmetria di gauge di una
teoria. Questa è chiamata anomalia di gauge. Le anomalie di gauge sono comprese meno bene, ma
in definitiva interferiscono con i metodi ordinari usati per trattare la simmetria di gauge di una
teoria quantistica dei campi di Yang-Mills. Se si scartano i quark e si considera il Modello standard
unicamente con i leptoni, si trova che questa teoria ha un’anomalia di gauge che pregiudica la
comune rinormalizzazione della teoria quantistica», ma «reintroducendo i quark nella teoria si
ottiene un’anomalia uguale e opposta che cancella il contributo dei leptoni»: come mai questa
anomalia ci sia e come aggirarla resta però un problema.
«Dal punto di vista dei matematici, un aspetto dell’anomalia è il fatto che sia legata sia al teorema
dell’indice di Atiyah-Singer, sia a una generalizzazione nota come teorema dell’indice per
famiglie», che «ha a che fare con una intera classe o famiglia di equazioni in una volta sola. Una
famiglia di equazioni di Dirac si presenta in fisica quando si hanno differenti equazioni di Dirac per
ogni differente campo di Yang-Mills, e le possibili scelte dei campi di Yang-Mills parametrizzano
una famiglia di equazioni di Dirac» (p. 125). Quest’ultima «ha suggerito nuove versioni e relazioni
con altre parti della matematica» e «negli ultimi anni sono state trovate interessanti connessioni tra
la teoria delle rappresentazioni dei gruppi di Kac-Moody e la teoria dell’indice. Una versione di
questa connessione fu inizialmente scoperta dal fisico Erik Verlinde nel 1988. Questa scoperta portò
alla formulazione di quella che è chiamata algebra di Verlinde e ad un’associata formula di
Verlinde», che «fornisce il numero di soluzioni di una data equazione ed è strettamente legata alla
teoria dell’indice, estendendola a una nuova area matematica», ma «mentre molto si conosce
relativamente al caso bidimensionale, molto di quanto ha a che fare con il caso in quattro
dimensioni rimane un mistero», anche perché «per gruppi di simmetria in quattro dimensioni si sa
poco a proposito della teoria delle loro rappresentazioni.
Teorie quantistiche dei campi topologiche. D’importanza ancora maggiore, per la fisica, «è stato
l’insieme di idee che vanno sotto il nome di teorie quantistiche dei campi topologiche. Queste
ebbero inizio con la pubblicazione da parte di Witten nel 1982 di un articolo dal titolo
Supersimmetria e teoria di Morse» (p. 126). «La teoria di Morse è un metodo per studiare la
topologia di uno spazio che si rifà agli inizi dello studio di questa materia e al lavoro del
matematico Marston Morse del 1925»; nell’articolo egli mostrò «che, per un dato spazio di
dimensione qualunque, era possibile costruire un semplice modello quanto-meccanico con
supersimmetria che aveva uno spazio di Hilbert puramente dipendente dalla topologia. Questo
spazio di Hilbert era di dimensione finita e corrispondeva esattamente a qualcosa da tempo noto ai
matematici, la cosiddetta omologia di uno spazio. La sua costruzione sfruttava una versione della
teoria di Morse che, benché fosse stata studiata in passato da alcuni matematici, non era affatto ben
nota, neanche agli esperti». Ora l’omologia «è uno degli esempi più semplici di una classe generale
di costruzioni matematiche denominate invarianti topologici. Un invariante topologico è qualcosa
che non cambia quando si deforma uno spazio, e pertanto dipende unicamente dalla topologia. Un
buon invariante topologico permette a un topologo di dire se due spazi diversi possono essere
deformati l’uno nell’altro o se invece sono realmente distinti» (p. 127). «Un invariante topologico
associato a uno spazio può essere semplicemente un numero, ma può anche essere qualcosa di più
complicato» (p. 127s). «L’invariante topologico di cui Witten si stava occupando è un insieme di
numeri interi, che in certo senso dicono quanti buchi di diverse dimensioni uno spazio possiede».
«Gli invarianti topologici che Witten aveva trovato erano ben noti, ma i metodi quanto-meccanici
che usava erano diversi da qualunque altra cosa i matematici avessero mai considerato prima.
Apparve chiaro che Witten aveva avuto un’idea nuova e molto potente» che avrebbe avuto sviluppi.
Nel maggio 1987 Atiyah «descrisse nuovi invarianti topologici che il suo ex studente Donaldson
aveva da poco definito per spazi quadridimensionali, insieme a un altro nuovo lavoro di Andreas
Floer», che «riguardava gli invarianti topologici di spazi tridimensionali e aveva definito un nuovo
invariante, denominato omologia di Floer, facendo uso delle idee di Witten sulal teoria di Morse».
Egli poi «tracciò uno schizzo procedurale a proposito di come le idee di Floer e Donaldson
potessero raccordarsi insieme. L’idea di base richiedeva di pensare a uno spazio quadridimensionale
con un bordo tridimensionale» (p. 128). «Come analogia in una dimensione in meno si può pensare
a una palla tridimensionale, il cui bordo non è altro che la superficie bidimensionale della palla.
Atiyah mostrò che l’omologia di Floer dello spazio tridimensionale sul bordo era esattamente quella
che è necessario fissare per rendere sensati i nuovi invarianti di Donaldson nel caso di uno spazio
quadridimensionale con bordo. Questo collegava strettamente fra loro le due nuove aree della
matematica che Donaldson e Floer avevano creato, in un processo che suggeriva una gran quantità
di questioni nuove». → «Atiyah inoltre collegò l’intera idea al lavoro di Witten sulla
supersimmetria e la teoria di Morse, suggererendo che doveva esistere una teoria quantistica dei
campi quadridimensionale il cui spazio di Hilbert fosse l’omologia di Floer sul bordo
tridimensionale, e le cui quantità osservabili fossero i nuovi invarianti topologici di Donaldson».
Dopo un po’ di titubanza Witten raccolse la sfida e «trovò una teoria quantistica dei campi con le
proprietà che Atiyah stava cercando, e all’inizio del 1988 pubblicò un articolo in cui la descriveva,
intitolato Teorie quantistiche dei campi topologiche. Egli aveva trovato questa teoria partendo da
una teoria quantistica dei campi qaudrimensionale con simmetria». → «Occorre ricordare che la
supersimmetria è una simmetria che in un certo senso è la radice quadrata della simmetria
traslazionale. Gli spazi quadridimensionali generici, specialmente quelli che sono topologicamente
non banali, hanno una geometria complicata e curva, pertanto sicuramente non hanno una simmetria
globale per traslazioni, e quindi nemmeno una supersimmetria ordinaria» (p. 129). «Witten è stato
in grado di aggirare questo ostacolo con un trucco ingegnoso, introducendo ciò che egli ha chiamato
supersimmetria twistata, in modo tale che un certo tipo di supersimmetria esistesse ancora su uno
spazio quadridimensionale curvo. Questa supersimmetria rimanente gli permetteva di applicare le
sue idee a proposito della relazione fra teorie dei campi supersimmetriche e topologia, e alla fine di
giungere alla teoria corretta» (p. 129s). → L’unico caso in cui questa teoria quantistica non
funzionava «si aveva quando si calcolavano certe quantità indipendenti dalle deformazioni dello
spazio. Queste erano esattamente i nuovi invarianti introdotti da Donaldson, chiamati polinomi di
Donaldson», che però «sebbene Donaldson avesse definito questi oggetti matematici e avesse
dimostrato che possiedono certe proprietà, per uno spazio generico quadridimensionale questi erano
in realtà estremamente difficili da calcolare» e neanche Witten ci riuscì.
«Witten rapidamente passò ad applicare l’idea di teoria dei campi topologica a un gran numero di
altri casi, producendo una grande classe di nuove teorie quantistiche dei campi, per ciascuna delle
quali le quantità osservabili erano date da invarianti topologici. Uno di questi casi si rivelò
particolarmente interessante e sorprendente». → «Un sottocampo della topologia con una lunga
storia alle spalle è quello della teoria dei nodi. Per un topologo, un nodo è qualcosa come un pezzo
di filo con le sue estremità unite che si trova in una configurazione complicata nello spazio
tridimensionale» (p. 130). «Se si muove il filo, deformandolo nello spazio tridimensionale, alcuni
nodi possono essere sciolti, a differenza di altri che invece non possono. Uno degli obiettivi centrali
della teoria dei nodi è quello di trovare invarianti topologici da associare ad ogni nodo. Questi
devono rimanere invarianti se si deforma il nodo, ad esempio se si cerca di scioglierlo … Pertanto
per ogni nodo, per capire se può essere sciolto, tutto ciò che occorre fare è calcolarne l’invariante e
vedere se questo è lo stesso invariante del nodo sciolto» (p. 130s). → Ora esiste un polinomio, il
polinomio di Jones, che è «un invariante topologico al centro di molte ricerche da parte degli
studiosi della teoria dei nodi. Esso aveva anche fatto un’apparizione in qualche lavoro sulle teorie
quantistiche dei campi conformi. Spronato da Atiyah, Witten tentò di studiare come adattarlo
all’interno di una teoria quantistica dei campi, e alla fine realizzò come farlo nel corso di una
discussione durante una cena con Atiyah e un suo ex studente, Grame Segal, al ristorante “da
Annie”, nell’occasione di una conferenza tentutasi a Swansea nell’estate del 1988» → «Per
settembre Witten aveva prodotto una teoria dei campi topologica le cui quantità fisiche erano
precisamente i polinomi di Jones … costituita in termini dei campi di gauge di Yang-Mills, e il
nodo compariva come la traiettoria di una particella con una carica infinitamente grande che si
muove all’interno dello spazio tridimensionale. L’equazione per la cosiddetta funzione lagrangiana
che determina la dinamica della teoria aveva esattamente un termine in questo caso. Questo termine
è una fine quantità matematica ottenuta a partire dai campi di Yang-Mills della teoria di gauge,
chiamato termine di Chern-Simons» (p. 131). Così «la nuova teoria quantistica topologica di Witten
divenne rapidamente nota come teoria di Chern-Simons o Chern-Simons-Witten». Essa «può essere
definita per ogni spazio tridimensionale, cosicché fornisce non solo i polinomi di Jones per i nodi
nello spazio tridimensionale usuale, ma anche l’analogo per ogni altro spazio tridimensionale. La
parte più sorprendente della teoria era il suo spazio di Hilbert: questo era finitodimensionale con
dimensione data dalla formula di Verlinde», inoltre in essa «si trovavano incorporate sorprendenti e
inaspettate relazioni fra la topologia dei nodi e gli spazi tridimensionali, la teoria dei gruppi di MacMoody e le loro rappresentazioni, le teorie dei campi conformi, la teoria all’indice» e altro.
Molti matematici pensavano però che ciò Wittten «faceva poteva essere interessante, ma non poteva
realmente essere considerato matematica. Tra coloro che maggiormente si mostrarono scettici
c’erano i topologi che lavoravano su spazi di quattro dimensioni» (p. 132). «Witten continuò a
pensare in tutti i modi a come ottenere nuove informazioni sui polinomi di Donaldson a partire dalla
sua teoria quantistica dei campi topologica» e molti lo seguirono, tanto che «cominciò a svilupparsi
un attivo settore della teologia, conosciuto oggi come teoria di Donaldson. Ci fu un progresso
costante in questo tipo di matematica, ma i problemi tecnici presenti erano di tipo sostanziale,
pertanto tutto si mosse lentamente. Tutto ciò cambiò in modo radicale nell’autunno del 1994».
«Quando si considerano le equazioni di Maxwell per il solo campo elettromagnetico, ignorando le
particelle cariche elettricamente», oltre alle solite simmetrie, ce ne è una aggiuntiva, che «emerge
perché è possibile scambiare il ruolo del campo elettrico e di quello magnetico nelle equazioni
senza cambiarne la forma. In questo modo il campo elettrico e quello magnetico si dicono
reciprocamente duali, e questa simmetria è chiamata simmetria di dualità». → «Quando si
reintroducono le cariche elettriche nelle equazioni per ottenere la teoria complessa
dell’elettrodinamica quantistica, la simmetria di dualità risulta compromessa». → «Nel 1931 Dirac
realizzò che per recuperare la dualità nella teoria completa è necessario introdurre particelle
magneticamente cariche con proprietà particolari. Queste sono chiamate monopoli magnetici e
possono essere pensate come configurazioni topologicamente non banali del campo
elettromagnetico per cui questo diviene infinitamente grande in un punto. Mentre le cariche
elettriche sono debolmente accoppiate al campo elettromagnetico con intensità dell’accoppiamento
data dalla costante di struttura fine a=1/137, la simmetria di dualità inverte questo numero,
richiedendo che l’accoppiamento della carica magnetica al campo elettromagnetico sia forte con
intensità 1/a=137. Se il monopolo magnetico esiste, questo forte accoppiamento dovrebbe renderlo
facile da rivelare. Tutti gli esperimenti volti alla sua ricerca non hanno prodotto risultati» (p. 133).
→ Nel 1978 Witten, aiutato da David Olive e Claus Montonen, vide che era plausibile la ricerca
dell’analogo della simmetria di dualità elettromagnetica nel caso di una versione supersimmetrica
della teoria di Yang-Mills → Egli «a volte tornò su quest’idea, e nella primavera del 1994, in
collaborazione con Nathan Siberg, fu in grado di elaborare una soluzione esplicita della teoria
supersimmetrica di Yang-Mills che aveva una versione della dualità ipotizzata. Questo fu uno
sviluppo clamoroso perché finalmente forniva un esempio di teoria quantistica dei campi del tipo di
Yang-Mills in cui era possibile capire esplicitamente cosa stava accadendo quando l’accoppiamento
diventa intenso». Essa «prevedeva monopoli magnetici e campi di gauge che non erano i campi di
Yang-Mills, ma piuttosto aveva la semplice simmetria di gauge U(1), la stessa della QED». →
«Witten si rese conto del fatto che questa nuova soluzione aveva qualcosa a che fare con la teoria
quantistica dei campi topologica per i polinomi di Donaldson» (p. 134). Diffuse allora quest’idea e
Clifford Taubes, matematico di Harvard, «realizzò rapidamente che tutto ciò che lui e altri esperti
nella teoria di Donaldson avevano potuto ottenere lavorando duramente con le equazioni di selfdualità poteva essere ottenuto più o meno banalmente usando la nuova equazione di Witten» e ciò
ingenerò un’efficace ripresa, revisione e riestensione delle teorie di Donaldson. Così il 2 novembre
del 1994 Taubes «tenne ad Harvard un seminario intitolato “L’equazione magica di Witten”, e
annunciò la morte della teoria di Donaldson e la nascita di un nuovo campo che prese il nome di
teoria di Seiberg-Witten, basato sulla sostituzione delle equazioni di self-dualità con l’equazione di
Seiberg-Witten». Così «Witten aveva provocato la rivoluzione di un intero sottocampo della
matematica in poche settimane, semplicemente suggerendo agli esperti quale equazione prendere in
considerazione» (p. 135) e tutti gli specialisti della topologia quadridimensionale si convinsero
finalmente della bontà delle sue proposte.
«Oltre alla teoria di Chern-Simons e a quella topologica di Donaldson … Witten elaborò un terzo
tipo di teoria quantistica dei campi topologica all’inizio del 1988», che chiamò «modello sigma
topologico, con riferimento al cosiddetto modello sigma usanto nell’algebra delle correnti», per cui
«i campi associano a ogni punto dello spazio-tempo non un numero o un vettore, ma un punto in
uno spazio target, che è uno spazio curvo con una certa dimensione» e che «è proprio un gruppo».
«Per il gruppo U(1) esso è semplicemente la circonferenza e ha dimensione 1. Per il gruppo SU(2) è
la sfera tridimensionale, l’analogo della superficie bidimensionale di una sfera, ma con una
dimensione in più». → «Il modello sigma topologico di Witten era una teoria quantistica dei campi
bidimensionale corrispondente a un modello sigma il cui target aveva quella che è chiamata una
struttura complessa». «Si dice che uno spazio ha una struttura complessa se, per ogni punto dello
spazio, i punti vicini possono essere etichettati con coordinate che sono numeri complessi. … Quel
che risulta è che non tutti gli spazi hanno strutture complesse. Una cosa ovvia che lo spazio deve
soddisfare è che la sua dimensione deve essere un numero pari, dal momento che ogni coordinata
complessa corrisponde a una coppia di numeri reali» (p. 136). «Nel modello sigma topologico sia lo
spazio-tempo bidimensionale sia lo spazio target hanno una struttura complessa, pertanto si possono
imporre condizioni di analiticità sui campi, in modo analogo a quanto già discusso a proposito delle
trasformazioni conformi. Questa condizione in parole semplici asserisce che un campo è analitico se,
moltiplicando le coordinate o dello spazio-tempo o dello spazio-target per la radice quadrata di -1,
si ottiene lo stesso campo. Mentre in generale esiste un numero infinito di possibili configurazioni
di campi, il numero di quelli analitici è di gran lunga minore, alle volte addirittura zero o un numero
finito». «Le quantità osservabili del modello sigma topologico di Witten corrispondevano
essenzialmente al numero di queste configurazioni di campi analitici» che «era l’analogo dei
polinomi di Donaldson nella prima teoria quantistica dei campi topologica di Witten». → «Qui
risulta che il problema di calcolare questi numeri è parte di quel campo della matematica noto come
geometria algebrica … branca della matematica con una storia lunga e complicata, e che ha
raggiunto un alto grado di raffinatezza nel corso dell’ultima metà del xx secolo. In parole povere, la
geometria algebrica è lo studio delle soluzioni di insiemi di equazioni polinomiali … con più di un
polinomio e più di una variabile». Ora «l’intero soggetto si semplifica se si usano vairabili
complesse, e questo è ciò che spesso fanno i geometri algebrici». «Quando un insieme di equazioni
polinomiali ammette un numero infinito di soluzioni, si può pensare che queste siano i punti di un
nuovo spazio. Questi spazi i cui punti sono soluzioni di equazioni polinomiali possono essere
decisamente non banali, e sono l’oggetto principale di studio della geometria algebrica». «Quando
le equazioni polinomiali sono equazioni con variabili complesse, a questi spazi di soluzioni possono
essere date coordinate complesse. Tali spazi di soluzioni sono il tipo di spazi che possono costituire
lo spazio target per il modello sigma topologico di Witten, pertanto si può sperare che questa teoria
quantistica dei campi contenga nuove informazioni su di essi» (p. 137) e «per ogni spazio di
soluzioni» esso «fornisca un numero (il numero di campi analitici) e questo è una sorta di invariante
topologico. Dati due diversi spazi di soluzioni, un modo di dimostrare che essi sono realmente
distinti è quello di calcolare il numero di campi analitici e mostrare che questi numeri sono diversi».
→ «Nel corso degli anni immediatamente successivi, molti fisici studiarono il modello, e ciò che
essi impararono sul suo conto alla fine rese le cose molto interessanti per i matematici. Il modello
sigma topologico era una teoria quantistica dei campi supersimmetrica» conforme, di cui una cosa
era nota «data una teoria siffatta, esisteva una semplice trasformazione che era possibile eseguire
per ottenerne una nuova, diversa, ma comunque intimamente collegata. Se si eseguiva la
trasformazione due volte, si tornava indietro alla teoria originaria … mirror simmetry». Ora « se si
parte con un certo spazio target, poi si elabora il corrispondente modello sigma topologico (e quindi
una teoria conforme), quindi viene eseguita la riflessione mirror, cosa è possibile dire a proposito
della nuova teoria conforme? Si tratta forse di un altro modello sigma, ma per un diverso spazio
target? Se è così, il nuovo spazio target è chiamato spazio mirror di quello originario». → «Philip
Candelas con i suoi collaboratori all’Università del Texas ne studiò molti esempi a partire dal 1991»
e uno di questi «si rivelò di grande interesse per i geometri algebrici» (p. 138). «Esso prevedeva uno
spazio target noto a questi come quintica tridimensionale poiché era lo spazio delle soluzioni di
un’equazione polinomiale di quinto grado e aveva tre dimensioni complesse». Ora «il problema di
contare il numero di campi analitici per la quintica … già dal XIX secolo si sapeva che il numero di
questi campi di grado 1 è 2875, e il numero per il grado due era stato calcolato da Sheldon Katz nel
1986 e risultava essere 609250. Il calcolo per il grado 3 era in corso, ma i matematici non sapevano
come andare oltre. Non era neanche noto se dei campi analitici di grado 3 ne esistesse un numero
finito». «Il gruppo di Candelas fu in grado di … ottenere una formula che forniva il numero di
campi analitici di ogni grado in un colpo solo». I matematici verificarono per altre vie il risultato
(317206 375) e «questo impressionò molto i geometri algebrici, il cui campo della matematica
tradizionalmente non aveva avuto nulla o ben poco a che fare con la fisica». → «Nel corso
dell’ultimo decennio, il campo della mirror simmetry è stato molto attivo, con un continuo
interscambio tra matematici e fisici, ciascuno con le proprie prospettive» (p. 139). I matematici han
cercato «di formulare in un linguaggio preciso e dimostrare rigorosamente le congetture proposte
dai fisici usando il linguaggio della teoria quantistica dei campi»; «i fisici hanno esplorato una
vertiginosa serie di connessione fra i modelli sigma topologici (in particolare una variante nota
come stringa topologica), la versione di Witten della teoria di gauge Chern-Simons, i “modelli di
matrici” che prevedono integrali su gruppi come SU(N) per grandi valori di N, e molto altro
ancora». → «Molte nuove congetture che hanno a che fare con inaspettate relazioni tra diverse aree
della matematica continuano a emergere, aprendo la strada a nuovi ed emozionanti problemi da
esplorare, sia per i matematici sia per i fisici» (p. 140).
Capitolo 11 – Teoria delle stringhe: la storia
«Le idee di successo descritte qui in dettaglio sono state perseguite soltanto da un’esigua minoranza
di fisici, mentre la maggioranza dei loro colleghi seguiva programmi di ricerca molto diversi che
alla fine si sarebbero poi rivelati fallimentari. A partire da questo capitolo, l’attenzione si sposterà
sulla storia di alcune idee che non sono state coronate da successo, e sul modo in cui queste hanno
influenzato la fisica teorica fino ai giorni nostri» (p. 141).
Teoria della matrice s. Già a partire dagli anni Trenta, visto che «gli infiniti comparivano per via
delle interazioni dei campi a distanze molto piccole, era necessario fare a meno del concetto di
campo definito in ogni punto. L’idea era che a piccole distanze qualcosa di nuovo potesse
rimpiazzare il concetto di campo» (p. 141). «Molti dei primi pionieri della teoria quantistica
subivano la pesante influenza del positivismo logico della scuola di Vienna» (p. 141s) e così per
loro «un certo numero di concetti classici, come quello di particella con una posizione e un impulso
definiti, dovevano essere abbandonati. Questi concetti furono identificati come metafisici, e buona
parte della comunità dei fisici quantistici chiedeva a gran voce che se ne facesse a meno». «Un tale
approccio positivistico alla teoria delle particelle nacque con John Wheeler nel 1937, e fu
ulteriormente sviluppato da Heisenberg nel 1943. Divenne noto come filosofia della matrice s,
poiché l’idea era quella che si dovesse esprimere la teoria puramente nei termini della matrice di
diffusione [=scattering]». Essa «è la quantità matematica che indica cosa accade quando si hanno
due particelle, inizialmente lontane e separate, che vengono fatte collidere l’una contro l’altra».
«Una teoria quantistica può essere utilizzata per calcolare la matrice s, ma, intrinsecamente,
contiene una struttura ben più complicata di campi fra loro interagenti in ogni punto nello spazio e
nel tempo», essa infatti «è qualcosa che non ha nulla da dire su come vadano esattamente le cose
quando due particelle si avvicinano l’una all’altra e su come si evolva la loro interazione. Pauli era
molto scettico a proposito delle idee di Heisenberg sulla matrice s», perché non aveva fornito alcuna
legge o regola che la determinasse matematicamente (p. 142) e perché «non risolveva nessuno dei
problemi fisici che l’avevano motivata». «Il successo della QED rinormalizzata nel trattamento
degli infiniti eliminò una motivazione alla base filosofica della matrice s, ma questa rimase il più
popolare modo di pensare alle interazioni forti nel corso di tutti gli anni Cinquanta, Sessanta e agli
inizi dei Settanta, fino all’avvento della QCD. Sembrava chiaro a tutti che non vi era possibilità che
la teoria quantistica dei campi riuscisse a spiegare il grande numero, costantemente in aumento, di
particelle diverse fortemente interagenti».
Così negli anni Sessanta, Geoffrey Chew, aiutato da altri, eseguì «una versione della teoria della
matrice s chiamata matrice s analitica. Qui “analitica” significa che si impone una speciale
condizione sulla struttura della matrice s, una condizione di analiticità relativa a come la matrice
varia in funzione di come variano le energie e gli impulsi iniziali delle particelle interagenti. Questa
è la stessa condizione matematica già discussa in vari contesti, e richiede di lavorare con energie e
impulsi che assumono valori complessi. Tale proprietà di analiticità della matrice s si riflette su
certe equazioni chiamate relazioni di dispersione». «Chew e altri credevano che, insieme a un paio
di altri principi generali, la condizione di analiticità potesse essere sufficiente a determinare
unicamente la matrice s»: è la filosofia bootstrap, per cui grazie alla sola analiticità e l’intera teoria
«in qualche modo “andava avanti grazie alle sue proprie forze”». «Verso la metà degli anni
Sessanta Chew era anche solito caratterizzare l’idea del bootstrap come democrazia nucleare:
nessuna particella era elementare, ma tutte le particelle dovevano essere pensate come composte le
une delle altre. Questa democrazia andava considerata in opposizione all’aristocrazia della teoria
quantistica dei campi» (p. 143), ma perché essa fosse compresa si doveva aspettare l’invenzione di
tecniche di analisi molte innovative. Ora però «la teoria della matrice s non è nient’altro che una
caratterizzazione di alcune proprietà generali che la matrice s, calcolata a partire da una particolare
teoria dei campi, deve avere», ma «esistono molte teorie quantistiche dei campi consistenti, e in
particolare molte variazioni della QCD appaiono consistenti; pertanto esistono molte differenti
teorie fortemente interagenti, ognuna con una diversa matrice s. La speranza del programma del
bootstrap secondo cui in qualche modo esisterebbe un’unica consistente matrice s non era altro che
un’illusione» (p. 144). «Oltre a comprendere particelle fondamentali, il successo del modello a
quark fu in gran parte dovuto all’aver sfruttato la matematica del gruppo di simmetria SU(3) e le
sue rappresentazioni. I sostenitori della democrazia nucleare si trovavano a difendere una causa
persa non soltanto nei confronti dei campi elementari, ma anche con l’idea che la simmetria fosse
un principio fondamentale». Per Chew & co. «le leggi fondamentali erano le proprietà postulate
della matrice s che governavano la dinamica della teoria, e non avevano nulla a che fare con i
gruppi o le rappresentazioni». «La divisione in due fazioni che seguivano la simmetria e la dinamica
fu anche sottolineata da Feynman, che commentando la propensione dei teorici della matrice s per
le relazioni di dispersione, a quanto pare fece dello spirito: “Esistono due tipi di fisici delle
particelle: quelli che fanno gruppo e quelli che si disperdono”. Il dominio della teoria della matrice
s era internazionale, forse addirittura più forte nell’Unione Sovietica che nella “Repubblica
Popolare di Berkeley”» (p. 145). «Il programma della matrice s continuò ad essere seguito da Chew
e altri nel corso degli anni Settanta. Quando la sinistra politica a Berkeley andò in rovina, con il
risultato che molti si rivolsero alle religioni orientali e alla new age, anche i seguaci della matrice s
smisero di parlare di democrazia, e alcuni cominciarono a guardare a oriente» (p. 145s) «Il fisico
Fritjof Capra ricevette il dottorato nel 1966 lavorando a Vienna con Walter Thirring, ma agli inizi
degli anni Settanta si indirizzò verso la religione orientale, trovandovi profonde connessioni con la
teoria della matrice s. Il suo libro Il Tao della fisica fu pubblicato per la prima volta nel 1975, e in
esso Capra contrastava in maniera decisa le posizioni occidentali di simmetria con quanto aveva
visto delle idee orientali relative all’interrelazione dinamica fra tutte le cose». Per lui la ricerca di
simmetrie fondamentali nella fisica delle particelle appartiene alla nostra eredità ellenica, che è in
certa misura incompatibile con la visione del mondo che comincia ad emergere nella scienza
moderna e che è più in sintonia con la visione orientale del mondo, per cui la simmetria, come la
geometria, sono più una costruzione della mente che non una proprietà della natura (p. 146): così è
chiara per lui «l’inadeguatezza della teoria quantistica dei campi e le meraviglie della filosofia del
bootstrap». «Il Tao della fisica fu completato nel dicembre del 1974, e le implicazioni della
rivoluzione di novembre, avvenuta un mese prima … chiaramente non erano ancora state recepite
da Capra (così come da molti altri, a quel tempo). Quello che è difficile da capire è il fatto che del
libro sono state pubblicate numerose edizioni, e in ognuna Capra ha lasciato intatta una fisica ormai
datata, oltre ad aver incluso nuove introduzioni e postfazioni che impassibilmente negano quanto è
accaduto» e continua a dire che Chew “ha eseguito il terzo passo evolutivo nella fisica del XX
secolo. La sua teoria del bootstrap unifica la meccanica quantistica e la teoria della relatività in una
teoria che rappresenta una rottura radicale con l’intero approccio occidentale alla scienza
fondamentale” (p. 147). Così «la filosofia del bootstrap, a dispetto del suo completo fallimento
come teoria fisica, sopravvive come parte di un’imbarazzante culto new age, di cui Chew, che si
ostina a negare l’evidenza, è l’indiscusso “guru”. [Ok, tutto vero, certo però che ostinarsi a cercare
monopoli e gravitoni sembra strano: come integrare le due visioni?]
Le prime teorie delle stringhe. Si cercò di ottenere una matrice s eseguendo «calcoli utilizzando
l’espansione in serie perturbativa di una teoria quantistica dei campi per produrre una matrice s, che
fu quindi esaminata per vedere se si potevano astrarre alcune delle sue proprietà come condizioni
generali. Questa procedura non ha mai condotto a un metodo consistente per trattare la teoria al di
fuori del contesto dell’espansione perturbativa».
Però «nel 1968 il fisico Gabriele Veneziano notò che una funzione matematica, studiata per la
prima volta dal matematico Leonhard Euler nel XVIII secolo e chiamata funzione beta, aveva le
proprietà corrette per descrivere una matrice s analitica, piuttosto diversa da quelle ottenute con le
espansioni perturbative. Essa aveva una proprietà chiamata dualità, che in questo contesto
significava che, considerata in due modi diversi, era in grado di descrivere due diversi tipi di
comportamento delle particelle fortemente interagenti. Tale dualità non ha nulla a che fare con la
già discussa dualità fra i campi elettrici e magnetici. Dal 1968 in poi questa teoria della matrice s
duale divenne di gran moda, tanto che vi lavorava buona parte della comunità dei fisici teorici».
«Verso il 1970 tre fisici (Yochiro Nambu, Leonard Susskind e Bech Nielsen) trovarono una
semplice interpretazione fisica della formula di Veneziano; essi compresero che questa poteva
essere pensata come la matrice s per una teoria di un sistema quanto-meccanico in cui le particelle
erano rimpiazzate da stringhe» (p. 148). «Una stringa è da intendersi come un percorso
unidimensionale nello spazio, l’idealizzazione della posizione occupata da un pezzo di corda che
giace in una certa configurazione nello spazio tridimensionale. Queste stringhe possono essere
aperte, nel senso che possiedono due estremi, o chiuse, nel senso che i due estremi sono uniti. Se
sono necessari soltanto tre numeri per specificare la posizione di una particella nello spazio,
specificare la posizione di una stringa richiede invece una collezione infinita di numeri: tre per ogni
punto della stringa». → Dopo tante ricerche sul «come ottenere una teoria quantistica per la stringa»,
alla fine si arrivò, «per quanto questa presentasse due problemi piuttosto seri». «Il primo era che la
teoria funzionava realmente soltanto se il numero delle dimensioni dello spazio-tempo in cui la
stringa vive fosse ventisei, non quattro». «Il secondo problema era che la teoria conteneva un
tachione. Per un fisico teorico un tachione è una particella che si muove a velocità superiore a
quella della luce; se ciò avviene in una teoria quantistica dei campi, è un’indicazione ben precisa
che quest’ultima è una realtà inconsistente. Un aspetto problematico dei tachioni è che possono
trasmettere informazioni indietro nel tempo, violando così il principio di causalità … un paradosso
temporale che renderebbe la propria esistenza inconsistente. Inoltre, nelle teorie con tachioni
generalmente manca un vuoto stabile, dal momento che il vuoto può decadere proprio in stati
tachionici». → Un altro problema ovvio relativo alle teorie di stringa era dovuto al fatto che in esse
non erano presenti fermioni. … Per trovare un accordo con il mondo reale della fisica delle
interazioni forti, questo problema doveva essere risolto».
«La prima teoria di stringa con fermioni fu elaborata da Pierre Ramond nel 1970. Egli riuscì a
generalizzare l’equazione di Dirac dalla sua ben nota versione con tre variabili spaziali al caso del
numero infinito di variabili necessario per descrivere la stringa. Negli anni immediatamente
successivi molti fisici lavoravano alla teoria delle stringhe con fermioni, e si scoprì che questo tipo
di teoria poteva essere consistente in dieci dimensioni piuttosto che nelle ventisei della stringa
originaria. Questo non era ancora il numero “corretto” di quattro dimensioni, ma quantomeno gli si
avvicinava» (p. 149).
«Un’altra ricerca mostrò che era in uso una versione della supersimmetria, e che costituiva un
aspetto importante della teoria di stringa con i fermioni. È bene ricordare che negli anni fra il 1971 e
il 1973 molti gruppi elaborarono il concetto di supersimmetria per teorie quantistiche dei campi in
quattro dimensioni spazio-temporali, e che questa nuova simmetria in un certo senso corrispondeva
alla radice quadrata della simmetria per traslazioni. Se si considera la superficie descritta dal
movimento di una stringa si ottiene uno spazio bidimensionale chiamato foglio di mondo della
stringa. Un modo consistente di pensare a una teoria di stringa è proprio in termini di teorie
quantistiche dei campi bidimensionali definite su questi fogli di mondo. I primi stringhisti
scoprirono che le teorie di stringa con fermioni contenevano una versione della supersimmetria
analoga a quella in quattro dimensioni, definita però in due dimensioni sul foglio del mondo.
Questo in realtà fu proprio l’impulso per una delle scoperte indipendenti della supersimmetria
quadridimensionale, quella di Weiss e Zumino del 1973. Questo tipo di teoria di stringa è noto oggi
come teoria di superstringa, sebbene il termine sia entrato nell’uso comune solo molto tempo dopo
la sua formulazione. Questa prima teoria della superstringa fu la candidata principale come teoria
delle interazioni forti per un certo numero di anni». A partire dal 1973 con la scoperta della libertà
asintotica e visto il disaccordo crescente di questa teoria «con i risultati sperimentali sullo scattering
profondamente anelastico provenienti da SLAC … molti fisici smisero rapidamente di lavorare
sulla teoria delle stringhe e passarono a lavorare alla QCD».
«Una delle persone che continuò a lavorare sulle stringhe era John Schwarz, uno studente di Chew
che arrivò al CalTech nel 1972» (p. 150) e continuò perché “la teoria delle stringhe aveva una
struttura matematica troppo bella per essere completamente irrilevante per la natura”. Ora «uno dei
molti problemi che la teoria di superstringa presentava come teoria delle interazioni forti era dovuto
al fatto che essa prediceva l’esistenza di un’inosservata particella interagente fortemente priva di
massa e con spin pari a due. Nel 1974, in collaborazione con Joel Scherk, Schwarz propose
l’identificazione di questa particella con il gravitone, il quanto del campo gravitazionale … Verso il
1977 si capì che in una teoria di superstringa i modi vibrazionali di una superstringa che
corrispondevano ai bosoni potevano essere appaiati a quelli corrispondenti ai fermioni nell’ambito
del processo di eliminazione del tachione. Questo inoltre indicava che la superstringa era
supersimmetrica non soltanto sul foglio di mondo bidimensionale, ma aveva anche una diversa
supersimmetria in dieci dimensioni analoga a quella delle teorie quantistiche dei campi
supersimmetriche in quattro dimensioni». Intanto nel 1970 Schwarz aveva iniziato «una
collaborazione con il fisico inglese Michael Green», con cui «fece molti progressi nella
formulazione di una versione esplicita della teoria, riuscendo anche a eseguire dei calcoli».
La prima rivoluzione della teoria delle superstringhe. «Verso il 1983 Witten aveva cominciato a
dimostrare un crescente interesse per la teoria delle superstringhe» (p. 151), anche se «c’era un
potenziale problema della teoria che Witten avvertiva come molto serio. Ricordiamo che
un’anomali di gauge è un sottile effetto – dovuto al modo in cui sono definite le teorie quantistiche
di campo – che può pregiudicare la simmetria di gauge di una teoria. Questo significa quindi che i
metodi standard per comprendere la teoria non sono più validi. Nel corso del 1983 Witten si
interessò molto alle anomalie di gauge, e sospettava che a causa di queste la teoria delle
superstringhe potesse essere inconsistente. … Dei molti tipi diversi di teoria di superstringa esistenti,
quello per cui l’anomali di gauge si cancellava fu chiamato tipo II. In questa versione della teoria di
superstringa non c’era modo di incorporare i campi di Yang-Mills del Modello standard, ma
esisteva un’altra versione, chiamata tipo I, in cui ciò era possibile. La questione se anche la teoria di
tipo I avesse anomalia di gauge continuava a rimanere aperta».
Nel 1984 Green e Schwarz «riuscirono finalmente a trattare le anomalie nella teoria del tipo I.
Anche di questa esistono varie versioni … ce n’era una in cui le varie anomalie di gauge si
annullavano. Questo accadeva per la versione in cui il gruppo di simmetria era il gruppo SO(32)».
Lo spedirono a Dittene e alla rivista “Physics Letters B” «era il 10 settembre; il fermento che tutto
ciò stava per scatenare divenne in seguito noto fra i teorici delle stringhe come prima rivoluzione
delle superstringhe. La data reale di questa rivoluzione dovrebbe, comunque, essere fissata
all’incirca diciotto giorni dopo, il 28 settembre, quando il primo articolo di Witten sulla teoria delle
superstringhe giunse allo stesso giornale … la notizia che Witten ora stava dedicando tutte le sue
attenzioni a questo risultato dilagò rapidamente in tutta la comunità scientifica».
«A Princeton un gruppo di fisici (David Gross, Jeff Harvey, Emil Martinec e Ryan Rhom) trovò
immediatamente un altro esempio di teoria di superstringa in cui le anomalie di gauge si
cancellavano. Le fu dato il nome di teoria eterotica delle superstringhe, con un termine mutuato
dalla genetica che denota un ibrido … il loro articolo sulla superstringa eterotica giunse alla
redazione della rivista il 21 novembre». «Witten faceva parte di un altro “quartetto” che
rapidamente elaborò i dettagli per la proposta su come ottenere la fisica del Modello standard dalla
superstringa eterotica. L’articolo fu consegnato alla rivista il 2 gennaio». «Negli anni seguenti un
gran numero di fisici delle particelle cominciò a lavorare alla teoria delle superstringhe; molti di
loro avevano lavorato alla prima versione della teoria che aveva preceduto la QCD, quindi non
dovettero far altro che riprendere dove avevano lasciato una decina di anni prima. … Da allora il
lavoro sulle superstringhe ha completamente dominato il campo, situazione che è continuata in una
certa misura fino ai giorni nostri». «Molti fattori rendono conto del cambio spettacolarmente rapido
avvenuto nella ricerca nel campo della fisica delle particelle. Uno è sicuramente il fatto che verso il
1984 c’erano in giro poche buone idee non ancora provate» (p. 153). «Un altro è che la superstringa
non era del tutto nuova per molte persone … Ma il fattore di gran lunga più importante fu proprio
Witten stesso, che confermò così l’influenza che era in grado di esercitare sulla comunità fisica.
Egli credeva fermamente nella teoria, lavorò molto duramente per comprenderla e la promosse con
ogni sforzo».
Ma «che cos’era questa teoria della superstringa eterotica che aveva provocato tutta questa
eccitazione? Come tutte le teorie note di superstringa, si tratta di una teoria di stringhe in dieci
dimensioni spazio-temporali. Le variabili che descrivevano le stringhe possedevano un gruppo
aggiuntivo di simmetria consistente in due copie di quello che è chiamato E8». «Il gruppo E8 è un
gruppo di Lie molto simile a SU(2) e a tutti gli altri gruppi che avevano trovato un uso nella teoria
delle particelle, ma con alcune proprietà speciali. Mentre gli altri gruppi di Lie di cui si è già parlato
hanno un’interpretazione geometrica come gruppi di rotazioni di vettori con coordinate reali o
complesse, E8 è uno dei cinque gruppi di Lie eccezionali che non hanno una tale interpretazione. E8
è il più grande dei cinque gruppi di Lie eccezionali e corrisponde a uno spazio di dimensione 248 di
possibili trasformazioni di simmetria. Il numero elevato di dimensioni e la mancanza di una
definizione geometrica implicano che i calcoli che coinvolgono E8 devono essere eseguiti
attraverso metodi puramente algebrici piuttosto complicati. I gruppi eccezionali in generale, ed E8
in particolare, hanno fra i matematici la pessima fama di essere oggetti decisamente oscuri» (p. 154).
«E8 è un gruppo di simmetria tanto grande che … almeno in linea di principio, si può sperare di
arrangiare la teoria di stringa eterotica in modo da ottenere una teoria di grande unificazione come
limite di bassa energia».
«Un problema più complicato da affrontare è quello della differenza fra lo spazio-tempo in dieci
dimensioni in cui la teoria di superstringa deve essere formulata e lo spazio-tempo
quadridimensionale del mondo reale. Si potrebbe ipotizzare che per ogni punto dello spazio-tempo
quadridimensionale ci sia in realtà un piccolo spazio di dimensione sei non osservabile che rende
l’universo di dieci dimensioni, di cui soltanto quattro sufficientemente grandi per essere osservate».
«Ci sono diverse condizioni di consistenza che si vorrebbero soddisfatte dalla teoria». «Un
postulato fondamentale è che le predizioni della teoria di superstringa non devono dipendere dalle
trasformazioni conformi (cioè che preservano gli angoli) del fogli di mondo dibimensionale della
stringa» (p. 156). «Imponendo questa condizione, e richiedendo la supersimmetria della teoria, si
può mostrare che lo spazio di sei dimensioni deve poter essere descritto in ogni punto in termini di
tre coordinate complesse, e la sua curvatura deve soddisfare una certa condizione. Questa
condizione sulla curvatura è soddisfatta soltanto da alcuni spazi di sei dimensioni … spazi di
Calaibi-Yau». «Le previsioni della stringa eterotica dipendono molto da quale spazio di CalaibiYau si sceglie», ma non si sa neanche se il loro numero sia finito o infinito. «Durante tutta la fine
degli anni Ottanta e gli Novanta, molti sforzi dei fisici sono stati votati alla formulazione e alla
classificazione di nuove specie di spazi di Calabi-Yau. Questa ricerca ha condotto a significative
interazioni tra fisici e matematici, tra cui la più importante è incentrata sul già discusso argomento
della mirror simmetry. Questi anni inoltre hanno visto una gran mole di lavoro sulle teorie
quantistiche dei campi in due dimensioni, specialmente quelle conformi, dal momento che
compaiono nella formulazione delle teorie di superstringa» (p. 156).
La seconda rivoluzione delle superstringhe. «Verso l’inizio degli anni Novanta, l’interesse nei
confronti delle superstringhe stava cominciando a calare. Si conoscevano cinque tipi consistenti di
teorie di stringa: la teoria di tipo I SO(32) …; due varianti della teoria di superstringa di tipo II; la
teoria di stringa eterotica con due copie del gruppo di simmetria E8; una variante della teoria di
stringa eterotica con simmetria SO(32)». «Durante un seminario tenuto a una conferenza sulla teoria
delle stringhe alla University of Southern California nel marzo del 1995, Witten svelò una notevole
serie di ipotesi relative a come queste cinque teorie fossero correlate. Descrisse l’evidenza, che si
era accumulata nel corso degli anni precedenti, secondo cui esistevano diverse relazioni di dualità
fra queste cinque teorie. Inoltre fornì la prova di una sorta di relazione di dualità fra le teorie di
stringa e la teoria della supergravità in undici dimensioni».
«Un elemento cruciale della rete di Witten sulle nuove congetture era l’esistenza presunta di una
nuova teoria supersimmetrica in undici dimensioni. Questa teoria doveva essere tale da avere la
supergravità come limite di bassa energia, e da contenere ad alte energie nuovi oggetti che non
erano descrivibili da campi quantistici. Per avere le giuste proprietà per soddisfare la sua congettura,
la teoria doveva avere non stringhe unidimensionali, bensì p-brane di dimensione due e cinque».
«In questo contesto “p” è un certo numero intero non negativo, e una p-brana è uno spazio pdimensionale che si muove nello spazio di dimensione undici» (p. 157). «Una stringa è una 1-brana,
e una 2-brana è una superficie bidimensionale che si muove nello spazio a undici dimensioni».
Siccome i tentativi di definire teorie di membrane «per analogia con la teoria delle stringhe non
hanno avuto molto successo, e hanno anzi condotto a problemi di natura tecnica che sembrano
essere lontani da una possibile soluzione … si deve quindi sperare di trovare un tipo completamente
nuovo di teoria che per qualche sconosciuta ragione possa descrivere 2-brane e 5-brane. Witten la
battezzò teoria-M, con la spiegazione secondo cui “M sta per magia, mistero o membrana, a
seconda dei gusti”. A partire dal 1995 è stato fatto un notevole sforzo nel tentativo di individuare
cosa sia la teoria-M, ma con risultati decisamente insoddisfacenti». «Il tentativo più riuscito fa uso
di matrici infinitodimensionali: il nome matrix theory fornisce un’altra possibile versione di ciò che
la M potrebbe rappresentare. Il formalismo della matrix theory funziona unicamente per alcune
scelte particolari della geometria delle undici dimensioni e, in particolare, non funziona nel caso di
rilevanza fisica in cui quattro delle undici dimensioni sono grandi sette e sette meno piccole». «La
più grandiosa delle congetture di Witten del 1995 era quella secondo cui esiste una teoria
fondamentale che si riduce in sei diversi casi limiti speciali, le cinque teorie note di superstringhe e
la teoria-M; un ulteriore significato per la lettera M è ‘Madre’, nel senso di ‘Madre di tutte le
teorie’» (p. 158). «Al momento non esiste neanche una proposta relativa a cosa sia esattamente
questa teoria». Così il 1995 «è divenuto noto come la data di inizio della seconda rivoluzione delle
superstringhe», perché da questo momento in poi «coloro che lavorano in questo campo ora
sentono di studiare frammenti di una teoria più ampia che contiene non soltanto stringhe, ma anche
p-brane di dimensione maggiore».
Sviluppi recenti. Nel novembre 1977 «apparve un articolo di Juan Maldacena contenente una nuova
idea che da allora ha dominato la scena della ricerca recente nel campo della teoria delle stringhe.
All’idea si fa riferimento in modi diversi come congettura di Maldacena o congettura ads/CFT»,
che «postula una relazione di dualità tra due tipi molto diversi di teoria in dimensioni diverse».
«Una di queste teorie è una versione supersimmetrica della teoria quantistica dei campi di YangMills, quella con ‘N=4’, vale a dire con quatto differenti supersimmetrie … famosa da tempo per
essere una teoria dei campi piuttosto speciale, dal momento che aveva la proprietà di essere
invariante di scala. In altre parole, la teoria ha solo particelle non massive, quindi nulla che possa
fissare una scala di distanza o energia. Questa invarianza di scala implica anche un’invarianza
conforme, vale a dire invarianza per cambiamenti quadridimensionali di coordinate che lasciano
inalterati gli angoli» (p. 159). «Questa invarianza conforme rende la teoria una conformal field
theory, definizione che spiega l’acronimo ‘CFT’» (p. 159s).
L’altra teoria «è una teoria delle superstringhe, definita però in uno spazio particolare di cinque
dimensioni. Questo spazio (o perlomeno il suo analogo in quattro dimensioni) è noto a chi studia gli
spazi curvi della relatività generale come spazio anti-de Sitter», da qui «l’acronimo ‘ads’». «Lo
spazio anti-de Sitter è uno spazio infinitamente esteso di dimensione cinque … pertanto la dualità
presenta la caratteristica, difficile da capire, di mettere in relazione una teoria di stringhe in cinque
dimensioni e una teoria quantistica dei campi in quattro». «Questo tipo di dualità è spesso denotato
come olografico: proprio come un ologramma è un soggetto bidimensionale che codifica
informazioni su tre dimensioni, così una teoria quantistica dei campi in quattro dimensioni codifica
informazioni su cosa accade in una dimensione aggiuntiva (la quinta)».
«Coloro che lavorano alla congettura sperano che essa possa essere generalizzata, in particolare al
caso in cui la teoria quantistica dei campi quadridimensionale in esame non sia la teoria
supersimmetrica di Yang-Mills invariante conforme, ma magari la QCD, una teoria di Yang-Mills
non supersimmetrica» (p. 160). «A quel punto si spera che fare calcoli in questa teoria duale sarà
possibile e fornirà finalmente una reale comprensione del comportamento a grande distanza della
QCD». «La quantità di lavoro fatto negli ultimi sette anni sulla congettura ads/CFT è» notevole,
«nessuna altra specifica idea speculativa della fisica teorica che non sia ancora stata messa in
relazione con il mondo reale ha mai ricevuto neanche lontanamente questa quantità di attenzioni».
Dal 1998 «un altro argomento molto popolare fra i teorici sono quelli che vengono chiamati scenari
di brane-world», in cui alcune o tutte delle sei o sette dimensioni avanzanti rispetto alle quattro
sperimentabili «possono essere molto più grandi che nello schema originario, e si assume che esista
qualche meccanismo che mantiene i campi del Modello standard confinati nelle quattro dimensioni
osservate, impedendo loro di propagarsi nelle altre. Scegliendo appropriatamente l’estensione e le
proprietà di queste dimensioni aggiuntive, è possibile costruire modelli in cui sono presenti effetti
osservabili alle scale raggiungibili da acceleratori costruiti o concepibili».
«Negli ultimi anni molti teorici delle stringhe hanno smesso di lavorare in direzione di una migliore
comprensione delle teorie di stringa e si sono indirizzati al campo della cosmologia, creando un
nuovo campo denominato cosmologia di stringa» (p. 161), nella speranza «che la teoria delle
superstringhe possa essere utilizzata per capire ciò che è accaduto a scale di energia estremamente
alte che devono aver giocato un ruolo importante nell’universo primordiale» (p. 161s).
«Infine, lo sviluppo più recente della teoria delle superstringhe ruota attorno allo studio di quello
che è noto come il paesaggio del vasto numero di possibili soluzioni della teoria».
«Le congetture sulla dualità e la teoria-M della seconda rivoluzione delle superstringhe contengono
interessanti questioni relative alla geometria e alla topologia di spazi di dimensione elevata, e hanno
motivato alcune nuove idee in matematica. D’altro canto, gli scenari di brane-world, la cosmologia
di stringa e lo studio del paesaggio, che hanno giocato un ruolo tanto importante nella fisica teorica
nel corso degli ultimi anni, fanno tutti ricorso quasi esclusivamente a calcoli che si rifanno soltanto
alla tradizionalissima matematica delle equazioni differenziali». Così «la stretta e fruttuosa
collaborazione fra la matematica e la fisica teorica che ha caratterizzato gran parte degli anni
Ottanta e il periodo fra gli inizi e la metà degli anni Novanta continua, ma con intensità minore».
Capitolo 12 – Teoria delle stringhe e supersimmetria: una valutazione – È una teoria fisica?
«Come regola generale, il progresso scientifico è frutto di una complicata interazione di sviluppi
teorici e sperimentali … la teoria delle superstringhe non ha avuto alcuna connessione con gli
esperimenti perché non fa assolutamente nessuna predizione. Questo capitolo prenderà in
considerazione questa situazione piuttosto singolare, e tenterà di valutare i progressi fatti negli
ultimi vent’anni per rendere alla teoria delle superstringhe una teoria reale, in grado di spiegare
qualcosa della natura». «Dal momento che il limite di bassa energia della teoria delle superstringhe
si suppone sia una teoria quantistica di campo supersimmetrica, il capitolo comincerà con un esame
di ciò che è noto a proposito delle estensioni supersimmetriche del Modello standard». → «Seguirà
un tentativo di comprendere quali sono i motivi che impediscono alla teoria delle stringhe di essere
una teoria , e quali le prospettive di cambiamento in questa situazione» → «Il capitolo si concluderà
con un timido tentativo di valutazione dei successi della supersimmetria e della teoria delle
superstringhe in matematica, dove, a differenza della fisica, si sono ottenuti risultati reali» (p. 163).
Supersimmetria. In trent’anni «che cosa si è imparato, e quali risultati ci sono a fronte di una mole
tanto sterminata di lavoro su un’idea così speculativa», come quella della supersimmetria (p. 164)?
1) L’argomento «di carattere generale che continua ad essere considerato una delle due ragioni
principali per seguire quest’idea»: «Secondo l’argomento di Witten, qualunque tentativo di
estendere il Modello standard a una teoria di grande unificazione si scontrava con quello che era
chiamato problema della gerarchia. Questo significa che la teoria ha una gerarchia di due scale di
energia (ovvero di distanza) ed è molto difficile riuscire a mantenerle separate». «La prima è la
scala di energia della rottura spontanea della simmetria nella teoria elettrodebole, responsabile della
massa delle particelle W e Z, ed è approssimativamente dell’ordine di 100 GeV» (p. 165). «La
seconda è la scala di energia della rottura spontanea della simmetria più grande della teoria di
grande unificazione che, per evitare conflitti con i dati sperimentali , deve essere almeno di 10^15
GeV» (p. 165s). «Witten argomentò che se introducevamo campi elementari (i campi di Higgs) per
realizzare questa rottura di simmetria dello stato di vuoto, non esisteva alcun modo per assicurare
che una scala di massa fosse 10^13 volte più piccola dell’altra». → «Inoltre egli sostenne che la
supersimmetria poteva fornire un modo per uscire da questo problema. In effetti, mentre non esiste
alcun modo naturale per mantenere piccola la massa dei campi bosonici quali i campi di Higgs, i
fermioni, che non sono simmetrici sotto la riflessione per parità, hanno una simmetria chirale che
naturalmente mantiene nulla la loro massa». «In una teoria supersimmetrica, i fermioni e i bosoni
compaiono in coppie di uguale massa, pertanto la proposta di Witten fu di considerare il campo di
Higgs elettrodebole accoppiato, nell’ambito di una teoria supersimmetrica, a un fermione la cui
massa poteva essere naturalmente posta a zero». → «Questo argomento ebbe, e continua ad avere,
una grande influenza, ma si deve tenere a mente che fa uso di molte assunzioni. La prima è che c’è
una grande unificazione, rotta a una grande scala energetica per rottura spontanea di simmetria. La
seconda è che il meccanismo per la rottura spontanea di simmetria è il campo di Higgs elementare.
Una o entrambe di queste assunzioni possono essere sbagliate».
2) C’è poi «un secondo argomento per la supersimmetria che ha accresciuto la sua influenza nel
corso degli ultimi venti anni. Anche questo si basa sull’assunzione della grande unificazione». «Si
assume che la teoria di grande unificazione abbia soltanto un numero che caratterizza l’intensità
dell’interazione, mentre il Modello standard ne ha tre» (p. 166). Ora «quando si considera la grande
unificazione si devono estrapolare le intensità osservate delle interazioni fino alla scala della grande
unificazione», e attualmente «i punti estrapolati a cui le tre possibili coppie di intensità di
interazione si eguagliano corrispondono a tre diverse energie nell’intervallo 10^13-10^16 GeV».
«Se si considera il modo più comune per estendere il Modello standard a una teoria quantistica di
campo supersimmetrica e si riesegue il calcolo, la situazione migliora di molto, e si ottiene che le
tre intensità raggiungono lo stesso valore alla scala di circa 2x10^16 GeV». → «Ad ogni modo, per
dare un significato a questo risultato, è necessario fare almeno un’assunzione molto forte. Questa
assunzione richiede che nessun tipo di nuova fisica prenda il posto nell’enorme intervallo di energie
compreso tra ciò che è già stato studiato (fino a 10-1000 GeV) e la scala di 2x10^16 GeV. Una tale
assunzione è conosciuta come ipotesi del deserto». Inoltre «dal momento che non si conosce quale
sia il meccanismo di rottura della simmetria di grande unificazione, un’altra assunzione implicita è
il fatto che le tre intensità delle interazioni diventino uguali sia un aspetto necessario dello schema».
Altri poi sono stati gli argomenti a favore:
3) «Il fatto che la supersimmetria mette in relazione fermioni e bosoni, pertanto si può sperare che
possa fornire una descrizione unificata dai due tipi di particelle conosciuti. Sfortunatamente, ora si è
ben compreso che questo non funziona affatto, e tale argomento non ha alcun fondamento» (p. 167).
Il «disaccordo fra lo schema di simmetria che la supersimmetria predice e quelli osservati continua
ad essere presente anche per modelli maggiormente ipotizzati di grande unificazione, in cui le
particelle necessarie per la grande unificazione non possono essere messe in relazione fra loro dalla
supersimmetria».
4) È possibile che il limite di bassa energia di una teoria di superstringa sia una teoria quantistica di
campo supersimmetrica. Va da sé che questo argomento è basato sull’assunzione che ad alte energie
il mondo sia governato da una teoria di superstringa». Vedremo più avanti tutto ciò, ma fin d’ora è
chiaro che «le sorti della supersimmetria e della teoria delle stringhe sono collegati, nel senso che
queste idee o sono entrambe sbagliate o sono entrambe corrette».
5) La supersimmetria «conduce a una nuova affascinante teoria che generalizza il Modello standard
in un modo convincente». «La più semplice teoria supesimmetrica che generalizza il modello
standard prende il nome di Modello Standard Supersimmetrico Minimale o MSSM … le altre
possibilità realizzabili devono includere l’MSSM come parte della teoria». «Ci sono due problemi
fondamentali che rendono difficile elaborare un’estensione supersimmetrica semplice del Modello
standard». → «La prima è che, come già menzionato, dal momento che non c’è modo di far uso
della supersimmetria per mettere in relazione nessuna coppia di particelle conosciute, essa deve
mettere in relazione ogni particella nota con una sconosciuta … superpartner, e al momento esiste
anche una dettagliata nomenclatura per queste particelle» (p. 168). «In aggiunta, per il campo
bosonico di Higgs … è necessario postulare l’esistenza di un secondo insieme di campi di Higgs
con un secondo insieme di superpartner».
«Queste nuove particelle di cui si è postulata l’esistenza non possono avere la stessa massa delle
particelle di cui già si conosce l’esistenza, altrimenti sarebbero già state osservate. Per rimanere
coerenti con i dati sperimentali si deve assumere che tutte queste nuove particelle siano tanto
pesanti che possono non essere state riprodotte e quindi osservate negli odierni acceleratori di
particelle». «Ciò significa che la supersimmetria deve essere rotta spontaneamente», ma questo «è
un disastro per l’intero progetto della teoria quantistica di campo supersimmetrica»! Uno dei modi
migliori, per rendere possibile questa rottura, «richiede di cominciare con una teoria
supersimmetrica nascosta completamente nuova, sufficientemente diversa dal Modello standard da
essere in grado di rompere la sua supersimmetria dinamicamente. Le particelle e le forze di questa
nuova teoria “nascosta” non hanno nulla a che fare con le particelle e le forze note, pertanto si
hanno due teorie quantistiche di campo supersimmetriche completamente separate». Tipicamente
poi «si assume l’esistenza di un terza teoria “messaggera” con il suo proprio insieme di particelle
soggette sia alle forze note, sia a quelle nascoste. Le particelle di questo terzo tipo sono chiamate
particelle messaggere, ed esistono svariate proposte su quale tipo di teoria possa descriverle» (p.
169). → Questa intera struttura però «è altamente barocca, non molto plausibile e distrugge
completamente la capacità della teoria di predire alcunché» (p. 170s).
«Se i problemi di rottura della supersimmetria sono di gran lunga i più dannosi, l’MSSM ha alcune
altre caratteristiche indesiderate. Per evitare che i superpartner interagiscano con le particelle note in
un modo che non concorda con gli esperimenti, la teoria deve essere organizzata in modo da avere
una simmetria di R-parità», ma «anche con questo vincolo ad hoc sulla teoria, esistono ancora molti
modi in cui si corre il rischio di essere in disaccordo con gli esperimenti» (p. 170), perché
prevedono una classe di fenomeni che non trova riscontro sperimentale, esse includono: «correnti
neutre con cambio di sapore»; «processi in cui un tipo di leptoni si trasforma in un altro»; «grandi
violazioni della simmetria CP». → «Un altro potenziale problema dell’MSSM è chiamato problema
 (mu)», dove con  si identifica «il coefficiente del termine che nell’MSSM governa la massa
della particella di Higgs supersimmetrica. Questo problema è sostanzialmente il pericolo della
ricomparsa del problema della gerarchia che si suppone risolto dalla supersimmetria». Infatti perché
tutto funzioni «si è obbligati ad assumere che, per qualche ragione sconosciuta, qualunque cosa
accada alla scala della grande unificazione non possa rendere nullo , e dall’altro invocare la
presenza di altri campi per fornirgli un valore ragionevole» (p. 171).
«Problemi aggiuntivi compaiono se si cerca seriamente di incorporare l’MSSM in una teoria di
grande unificazione». Sull’eventuale uso di una teoria di grande unificazione SU(5) «il passaggio a
una teoria supersimmetrica fa aumentare un po’ la scala della grande unificazione, pertanto nella
versione supersimmetrica il processo responsabile del decadimento del protone risulta molto più
raro; ciò sembrerebbe mettere la teoria supersimmetrica al riparo dal disaccordo con gli esperimenti,
ma in realtà possono avvenire altri processi che concorrono al ripresentarsi di tale problema. Un
problema particolarmente pericoloso per la teoria è qualcosa che è chiamato problema della
separazione doppietto-tripletto» (p. 172).
Venendo, a vedere se le prime due caratteristiche (1 e 2) «contribuiscono a fornire una qualche
predizione sperimentale». La teoria «predice che le masse dei superpartner non possano essere
troppo diverse dalla scala della rottura spontanea di simmetria elettrodebole, di circa 200 GeV» e gli
esperimenti per il momento sono arrivati di poco sotto a questa soglia senza trovare alcunché. → La
seconda caratteristica ha poi «il merito di fare esattamente una predizione. Se le intensità dei tre tipi
di forze devono raggiungere lo stesso valore precisamente nello stesso punto, conoscerne due
permette di predire la terza», previsione che «è in accurata del 10-15 per cento e richiede di non
introdurre nuova fisica rilevante lungo la strada che porta alla scala delle teorie di grande
unificazione» (p. 173).
«Una possibile giustificazione per prendere sul serio l’MSSM nonostante i suoi problemi sarebbe di
natura estetica. Forse la teoria è davvero così bella da non poter fare null’altro che credere che
debba contenere qualcosa di vero», ma sono pochissimi a giudicarla come tale.
C’è però anche un altro motivo. «Ricordiamo che esistono teorie di supergravità che sono
supersimmetriche e includono anche la forza gravitazionale. Queste teorie hanno problemi di
rinormalizzabilità, ma ci possono essere ragioni per credere che questi problemi possano essere in
qualche modo superabili. Se si estende l’MSSM non soltanto a una teoria di grande unificazione
supersimmetrica, ma ance oltre per una teoria che includa la supergravità, allora in principio si
ottiene una teoria che descrive tutte le forze conosciute, una cosa cui tutti i fisici ambiscono.
Sfortunatamente, questa idea conduce a uno spettacolare disaccordo con le osservazioni» (p. 174).
Nella relatività di Einstein infatti «l’energia del vuoto ha effetti direttamente sulla curvatura dello
spazio-tempo, e compare come un termine nelle equazioni di Einstein che egli stesso chiamò
costante cosmologica». «Einstein inserì inizialmente questo termine nelle sue equazioni poiché
aveva osservato che se non fosse stato presente, da queste sarebbe seguita la predizione di un
universo in espansione. Quando le osservazioni astronomiche mostrarono che l’universo era
realmente in espansione, il termine poté essere posto a zero, e dimenticato», anche se recenti
osservazioni «hanno per la prima volta fornito indicazioni secondo cui la costante cosmologica
sembra essere non nulla». Ora «il valore della costante cosmologica può essere pensato come la
densità di energia del vuoto, o, in modo equivalente, come energia per unità di volume dello spaziotempo … gli astronomi ritengono che il suo valore sia dell’ordine di 10^-12eV^4 », mentre dalla
teoria supersimmetrice emerge un calore di circa «10^44eV^4». «Questa è sicuramente la peggior
previsione mai fatta da una teoria fisica che sia mai stata presa sul serio» (p. 175). «Le teorie
supersimmetrice di unificazione rendono la situazione addirittura peggiore». «Sono stati fatti molti
tentativi di ovviare al problema, ma finora nessuno di questi ha avuto successo. Negli ultimi anni il
tentativo più popolare consiste in un certo senso nel lavarsene le mani e sostenere che l’unico modo
per spiegare il valore della costante cosmologica consiste nel ricorrere al principio antropico».
Teoria delle superstringhe. «Dal momento che i fisici continuano a prendere sul serio l’idea di
un’estensione supersimmetrica del Modello standard, essi devono avere un motivo per credere che
sia possibile superare le grosse difficoltà esposte in dettaglio nella sezione precedente. La speranza
più diffusa è che la teoria delle superstringhe sia in grado di farcela. Questa speranza ha motivato
una quantità di lavoro senza precedenti … tuttavia dopo tutto questo tempo e sforzo l’intero
progetto rimane nient’altro che una speranza. Non una singola previsione sperimentale è stata fatta
e non esistono prospettive che lascino intendere che la situazione cambierà presto».
«La mancanza di qualunque previsione della teoria rende molti fisici dubbiosi sul fatto che possa
essere corretta» (p. 176). Lo stesso Feynman ebbe a dire che “Non mi piace che non calcolino nulla.
Non mi piace che non verifichino le loro idee. Non mi piace il fatto che per ogni cosa che è in
disaccordo con l’esperimento inventino una spiegazione” e che “I teorici delle stringhe non fanno
previsioni, essi forniscono giustificazioni”. Un altro avversario famoso è Sheldon Glashow (p. 177),
che a queste motivazioni aggiunge “E ciò che è peggio è che la teoria delle superstringhe non segue
come logica conseguenza da nessun affascinante complesso di ipotesi sulla natura. Perché, potreste
chiedervi, i teorici delle stringhe insistono nell’affermare che lo spazio ha nove dimensioni?
Semplicemente perché la teoria delle stringhe perde di significato in ogni altro tipo di spazio. Fino a
quando coloro che lavorano alla teoria delle stringhe non saranno in grado di interpretare qualche
proprietà del mondo reale, semplicemente non staranno facendo della fisica”. «La ragione
fondamentale per cui la teoria delle stringhe non fa alcuna previsione è che essa non è realmente
una teoria, quanto piuttosto un insieme di ragioni per sperare che una teoria esista davvero (p. 178).
«Per quale motivo la teoria delle stringhe, che è stata studiata a partire dagli anni Settanta, non è una
vera teoria? Per comprendere il problema, ricordiamo la discussione già fatta a proposito
dell’espansione perturbativa della QED». «Data una qualunque teoria quantistica di campo, si può
considerare la sua espansione perturbativa e (sempre che la teoria sia rinormalizzabile), per ogni
quantità che si voglia calcolare, questa espansione fornirà una sequenza infinita di termini.
Ciascuno di questi termini ha una rappresentazione grafica chiamata diagramma di Feynman». «Ci
sarà qualche parametro o ‘costante di accoppiamento’ che è tipicamente legato all’intensità delle
interazioni, e ogni volta che si procede considerando un ordine successivo nella serie perturbativa, i
termini acquisiscono un fattore aggiuntivo della costante d’accoppiamento Affinché l’espansione si
riveli utile, i termini devono diventare sempre più piccoli in maniera sufficientemente rapida
quando nei calcoli si considerano ordini perturbativi più alti … Se questo accade o no dipende dal
valore della costante di accoppiamento». «La situazione migliore è quella in cui l’espansione è
quella che viene chiamata una serie convergente. In questo caso quanto più si aggiungono termini di
ordine sempre più elevato, tanto più ci si avvicina all’espressione finita che rappresenta la soluzione
del problema» (p. 179).
«Sfortunatamente, questo non sembra essere il caso che si verifica per le espansioni perturbative
rinormalizzate di teorie quantistiche di campo non banali in quattro dimensioni spazio-temporali.
Nella migliore delle ipotesi l’espansione è invece una serie asintotica, vale a dire che si verificano
due condizioni. Prima la cattiva notizia: se si cercano di sommare tutti i termini non si otterrà la
risposta corretta, ma ‘infinito’. La buona notizia: se si somma soltanto un numero finito di termini,
si può ottenere qualcosa di molto vicino alla risposta corretta e, inoltre, ci si avvicina sempre più
alla risposta corretta quanto più è piccola la costante di accoppiamento. Questo è ciò che accade nel
caso della QED». «Sebbene il metodo dell’espansione perturbativa fallisca, la teoria quantistica di
campo di Yang-Mills è una teoria perfettamente ben definita dal momento che la si può definire
rigorosamente facendo uso dei metodi di reticolo menzionati nei capitoli precedenti».
«La situazione nella teoria delle superstringhe è tale per cui per ogni processo, ciò che la teoria
fornisce è il metodo per assegnare un numero ai possibili fogli di mondo bidimensionali descritti dal
movimento delle stringhe. Questi fogli di mondo possono essere organizzati topologicamente
contando il numero di buchi che possiedono. Un calcolo in teoria delle stringhe fornisce un numero
per il caso in cui il foglio di mondo non abbia nessun buco, un altro numero se ha un solo buco, un
altro ancora per due buchi e così via. La congettura fondamentale della teoria delle stringhe è che
questa sequenza infinita di numeri sia un qualche tipo di espansione perturbativa per qualche
sconosciuta e ben definita teoria», la teoria-M (p. 180). «Si può sperare che l’espansione del numero
di buchi sia in realtà una serie convergente … ci sono solidi argomenti secondo cui l’espansione
non sarebbe convergente, pertanto calcolare più e più termini fornirebbe un risultato che diventa
infinito». «Le caratteristiche principali di calcolo che i teorici delle superstringhe vorrebbero
mantenere sono quelle che mostrano che, nel limite di bassa energia, la teoria si comporta come una
teoria dei campi di Yang-Mills e gravitoni … ci sono un certo numero di caratteristiche del calcolo
che essi vorrebbero rifiutare in quanto caratteristiche che non dovrebbero essere presenti nella
sottostante teoria-M». Vediamole:
- «Una di queste caratteristiche è la supersimmetria del vuoto della teoria» (p. 181). Così
«qualunque cosa sia la teoria-M, si suppone che essa contenga una spiegazione dell’origine
della rottura spontanea della supersimmetria. Essa dovrebbe anche permettere il calcolo a
partire da principi primi dei 105 parametri aggiuntivi del Modello Standard
Supersimmetrico Minimale. Infine, essa dovrebbe risolvere tutti i problemi delle teorie
quantistiche si campo supersimmetriche descritti nella sezione precedente. Non esiste alcuna
prova di una teoria-M che sia in grado di fare tutto ciò» (p. 181s).
- «L’altra caratteristica dell’espansione in buchi di cui i teorici delle superstringhe vorrebbero
liberarsi nella teoria-M è la cosiddetta degenerazione del vuoto». «La teoria delle
superstringhe è una teoria dipendente dal background, vale a dire che affinché essa sia
correttamente definita è necessario scegliere uno spazio di dimensione dieci di background,
in cui la superstringa si muove. Esiste un numero infinito di scelte consistenti, ma soltanto
un esiguo numero di queste ha quattro dimensioni spazio-temporali grandi e sei piccole
dimensioni arrotolate su uno spazio di Calabi-Yau». «Il problema della degenerazione del
vuoto consiste nel fatto che ogni spazio di Calabi-Yau, qualunque sia la sua dimensione e
qualunque sia la sua forma, è ugualmente valido per quanto concerne l’espansione in buchi
della superstringa». «Ciò che i teorici delle superstringhe vorrebbero che la teoria-M facesse
è in qualche modo selezionare uno spazio di Calbi-Yau di una specifica dimensione e forma,
ma ancora una volta non esiste assolutamente alcuna prova dell’esistenza di una teoria-M
che sia in grado di farlo» (p. 182).
«Quando i teorici delle superstringhe cercano di spiegare per quale motivo la teoria delle
superstringhe non fa alcuna previsione, spesso fanno ricorso a due spiegazioni che sono piuttosto
delle scuse». «La prima è che risolvere la matematica della teoria è davvero troppo difficile. Come
abbiamo visto, in realtà non è questo il problema; il problema è piuttosto che nessuno sa quali siano
le equazioni da risolvere … pertanto nessuna previsione è possibile». «La seconda spiegazione
spesso usata è che la scala fondamentale di energia della teoria delle superstringhe è molto elevata,
tanto da rendere i fenomeni caratteristici delle superstringhe inosservabili e l’estrapolazione a bassa
energia difficile. Sì, va bene, ma la realtà delle cose è un’altra: dal momento che non esiste una vera
teoria, anche se esistesse un acceleratore di particelle in grado di raggiungere queste elevatissime
energie i teorici delle stringhe non sarebbero in grado di fare alcuna previsione dettagliata su ciò che
questo dovrebbe vedere». Ci sono però anche altri argomenti
Uno «usuale per la teoria delle superstringhe è che questa può predire cose come la dimensionalità
dello spazio-tempo (dieci) e il gruppo di grande unificazione (ad esempio E8xE8), semplicemente
richiedendo la cancellazione dell’anomalia. Il problema di questa affermazione è che queste
previsioni sono sbagliate, e per farle emergere nel modo corretto è necessaria la scelta arbitraria di
uno spazio di Calaibi-Yau o qualcosa di simile, pregiudicando il valore predittivo della teoria».
Un altro è che «i teorici delle stringhe sostengono la teoria per via del fatto che questa conduce a
una teoria supersimmetrica di grande unificazione» (p. 183), ma visto che «presenta molti problemi
e non fa una previsione … non è una motivazione molto convincente»
Spesso poi «si invocano argomenti non scientifici per progredire nella ricerca sulla teoria delle
superstringhe. Secondo il più comune, essa sarebbe ‘l’unica alternativa sulla piazza’», ma di ciò si
discuterà più avanti, o che «il solido supporto di Witten alla teoria delle stringhe sia di per sé una
validissima ragione per lavorare in questo campo». Se quest’ultimo argomento per l’autore «è di
gran lunga il miglior argomento a favorire la teoria delle superstringhe», «è bene tenere a mente la
storia di un altro genio che occupò la stessa posizione di Witten all’Institute for Advanced Study»:
Einstein. Egli infatti, dopo il 1915, «dedicò la maggior parte del resto della sua carriera a un
infruttuoso tentativo di unificare l’elettromagnetismo e la relatività usando il tipo di tecniche
geometriche che avevano funzionato nel caso della relatività generale», decidendo «di ignorare la
meccanica quantistica a dispetto del suo grande successo, sperando che in qualche modo si potesse
farne a meno». «Questo esempio mostra chiaramente come il genio non metta al riparo dal
commettere l’errore di dedicare alcuni decenni della propria vita a inseguire un’idea che non ha
alcuna speranza di successo».
«L’argomento di gran lunga più comune a favore della teoria delle superstringhe è una qualche
versione dell’affermazione per cui essa ‘è l’unica consistente teoria quantistica nota della gravità’»
(p. 184). Se infatti si cerca «di trattare la relatività generale con i metodi standard della teoria
quantistica dei campi», si arriva «a un’espansione perturbativa che non può essere rinormalizzata.
Se si calcolano termini di ordine elevato in questa espansione si ottengono degli infiniti che non
possono essere trattati». Invece «il calcolo di termini di ordine elevato nella teoria delle
superstringhe è abbastanza difficile, ma ci sono alcune ragioni per credere che i problemi che
rendono infiniti i termini della teoria quantistica dei campi non siano presenti nella teoria delle
superstringhe». «In breve, gli infiniti nella teoria quantistica dei campi sono originati dal
comportamento della teoria a piccole distanze, e sono legati al fatto che le interazioni fra due campi
si verificano precisamente nello stesso punto dello spazio-tempo. Questo non è il meccanismo con
cui funziona la teoria delle stringhe, pertanto questa sorgente di infiniti non è un problema».
«Esistono però altre sorgenti di infiniti di cui preoccuparsi: ad esempio, cosa accade quando la
stringa diventa infinitamente piccola?» Attualmente «si è provato che i termini con nessun buco, un
buco e due buchi sono finiti, e la speranza è che» lo siano anche i termini di ordine superiore.
Questo è il motivo «che porta i teorici delle superstringhe ad affermare che essa è una teoria
consistente della gravità, ma essi ignorano il fatto» se si tratti di una serie convergente o meno (p.
185). Ma in realtà ci sarebbero problemi «anche se l’espansione fosse convergente. In tal caso, i
teorici delle superstringhe non avrebbero soltanto una teoria perfettamente consistente, ma
un’infinità di teorie, tutte con caratteristiche radicalmente in disaccordo con l’esperimeno». →
L’altro aspetto problematico circa l’essere “l’unica teoria consistente” «è l’attributo ‘unica’. Ci sono
diverse altre proposte che sono state formulate nel corso degli anni per differenti modi di conciliare
la meccanica quantistica e la relatività generale, ma per nessuna di queste proposte è esistito nulla di
paragonabile all’analisi esaustiva che è stata fatta per la teoria delle superstringhe». «Un’altra
proposta ha attirato un considerevole gruppo di ricercatori, una proposta che passa sotto vari nomi,
uno dei quali è gravità quantistica ad anelli». I fisici che lavorano a questa proposta «hanno
ottenuto progressi negli anni nella direzione di ottenere una teoria quantistica consistente per la
gravità, sebbene se rimanga da valutare se la loro teoria è in grado di riprodurre la relatività
generale nel limite di bassa energia» (p. 186). Forse essa ha attirato meno attenzione, perché «essa è
decisamente molto meno ambiziosa. È puramente un tentativo di costruire una teoria quantistica
della gravità, e non si pone come ipotesi su come unificare la gravità con il Modello standard». →
«I teorici delle superstringhe hanno un altro motivo per credere che la teoria delle superstringhe
possa fornire una teoria quantistica consistente della gravità, un motivo che ha a che fare con calcoli
che coinvolgono i buchi neri». «Stephen Hawking fu il primo a mostrare che se si combina la teoria
quantistica dei campi con la relatività generale si osserva che i buchi neri non sono realmente neri,
ma emettono radiazione. La radiazione è emessa come se i buchi neri fossero oggetti che
obbediscono alle leggi della termodinamica, con una temperatura proporzionale alla loro area».
«Senza una vera teoria quantistica della gravità non è mai stato possibile controllare esattamente
come funzioni la radiazione di Hawking nel contesto di una teoria completamente consistente».
«Per alcuni specifici background di spazio-tempo che si possono interpretare come casi limite di
buchi neri, i teorici delle superstringhe sono stati in grado di dimostrare che la radiazione di
Hawking si presenta come previsto. Anche se per buchi neri realistici in quattro dimensioni spaziotemporali non possono essere eseguiti, questi calcoli forniscono la prova dell’esistenza di una teoria
quantistica consistente per la gravità come parte della teoria delle superstringhe».
Esistono però «molte teorie quantistiche consistenti, alcune contenenti campi e altre no, che
includono forze gravitazionali. Se il programma della gravità quantistica ad anelli avrà successo,
esso dovrà formulare una teoria quantistica del campo gravitazionale a cui sarà semplicemente
necessario aggiungere tutte le altre teorie quantistiche per gli altri campi» (p. 187). Sia chiaro però
che se anche la teoria-M fosse consistente grazie ad una corretta «scelta dello spazio-tempo di
background», «né la gravità quantistica ad anelli né la teoria-M esibiscono alcuna prova
dell’esistenza di un’unica teoria unificata della gravità e delle altre interazioni». E «anche se queste
teorie riuscissero nel loro intento di trovare una teoria quantistica consistente della gravità, se non
saranno in grado di dire nulla a proposito del Modello standard saranno del tutto insoddisfacenti
perché esiste un serio dubbio sul fatto che possano essere testate sperimentalmente. Effetti
quantistici gravitazionali caratteristici si verificano a scale di energia talmente alte da rendere
difficile immaginare come sia possibile misurarli. Forse alcuni fenomeni quantistici della gravità
avvenuti al momento del Big Bang possono avere effetti osservabili sui modelli cosmologici, ed
essere quindi verificabili, ma non è ancora del tutto chiaro».
«Un argomento conclusivo che si sente spesso a favore della teoria delle superstringhe è che la
teoria è semplicemente così ‘bella’ che deve essere vera in qualche modo. Questo argomento
solleva una moltitudine di questioni (compresa quella se la teoria sia davvero bella) e sarà
considerato in dettaglio nel prossimo capitolo».
«Molto del fascino della teoria delle superstringhe dunque non è affatto dovuto a quanto è noto
attualmente della teoria; piuttosto riflette le speranze e i sogni dei teorici che hanno dedicato anni
della loro vita a studiarla» (p. 188). Un crescente numero di fisici impegnati in essa però «sta
abbandonando la ricerca finalizzata ai tentativi di scoprire osa sia la teoria-M per lavorare su
soggetti come i brane-world e la cosmologia di stringa». «Una parte dei motivi risiede nel fatto che
c’è un desiderio di rispondere alle critiche, che si stanno facendo sempre più sentire nella comunità
fisica», anche di chi, come Daniel Friedan, è stato uno dei suoi fondatori, «che li accusano di
lavorare nel campo della matematica piuttosto che in quello della fisica. Un’altra parte dei motivi ha
a che fare con il fatto che semplicemente non ci sono idee promettenti su cosa possa essere la teoriaM». Altri invece si sono concentrati «in un’area molto più promettente, quella del tentativo di
trovare una teoria di superstringa duale alla QCD. La già descritta corrispondenza ads/CFT fornisce
qualche speranza che si possano fare progressi in questa direzione, e sembra anche offrire nuove
possibili intuizioni nella stessa teoria delle superstringhe» (p. 190).
Teoria delle stringhe, supersimmetria e matematica. «Mentre la supersimmetria e la teoria delle
stringhe si sono rivelate finora decisamente infruttuose nello spiegare alcunché di fisico, tuttavia
hanno portato una grande quantità di nuova e fiorente interazione tra i campi della fisica e della
matematica. In un certo senso è proprio questa mancanza di risultati fisici ad essere responsabile di»
ciò. «Tutta questa attività cambiò le menti di molti fisici che si erano sempre rivelati scettici verso
l’utilità della matematica nella fisica». Così Gell-Mann nel 1986 disse “La fisica teorica è stata
riunita alla matematica pura nel corso del decennio scorso in modo sensazionale, dopo un
allontanamento durato circa mezzo secolo; e la fisica teorica fondamentale è stata riunita con il
nucleo della matematica pura dove la geometria, l’analisi e l’algebra (nonché la teoria dei numeri) si
fondono” (p. 191) e questo perché i matematici “esaminano una scienza reale di per sé, con una
definizione elusiva, ma che in un certo senso ha a che fare con le regole per tutti i possibili sistemi o
strutture che la Natura può impiegare” (p. 192). A partire però «dalla metà degli anni Novanta i
problemi relativi alla teoria delle superstringhe avevano portato ad una forte reazione collettiva
contro l’uso della matematica nella fisica delle particelle. Alcuni fisici, piuttosto che mettere in luce
i problemi delle idee fisiche di base, ricondussero alla matematica astratta il fallimento della teoria
delle superstringhe, del tutto incapace di fare alcuna previsione reale» (p. 193), ad un «eccessivo
attaccamento all’eleganza della matematica la ragione di fondo della teoria delle superstringhe e
della teoria-M», attaccamento che si vedeva già, per altro, in Einstein. «I fisici dovrebbero forse
valutare se il commento decisamente pesante di Gorge Orwell sui pensieri politici della sinistra non
possa applicarsi altrettanto bene alla moderna fisica delle particelle: “Il pensiero politico,
specialmente quello di sinistra, è una sorta di fantasia onanista in cui la realtà di fatto ha scarsa
rilevanza”» (p. 194). «Negli ultimi anni, i matematici sono stati impegnati in un lento processo atto
a integrare ciò che hanno imparato dalla fisica nel corpus delle conoscenze matematiche» (p. 194s).
Ma «una volta trovata una versione precisa delle implicazioni puramente matematiche di una
congettura proveniente dalla fisica, essi devono tentare di trovare una dimostrazione che faccia uso
di rigorosi metodi matematici conosciuti. Questo significa che raramente essi sono in grado di
accedere al contenuto profondo dell’idea originale così come formulata nel linguaggio della teoria
quantistica dei campi. D’altro canto, essi spesso elaborano idee e congetture su oggetti matematici
di natura singolare in quanto provenienti da un ambito concettuale completamente diverso da quello
in cui erano stati inizialmente concepiti. Molti matematici sono spesso poco consapevoli dell’esatta
fonte fisica delle congetture che studiano» e così «una delle conseguenze di questa mancanza di
chiarezza nella comunità matematica, relativa a cosa sia originario della teoria delle stringhe e cosa
della teoria quantistica dei campi, ha fatto sì che i matematici fossero oltremodo impressionati
dall’intera idea della teoria delle superstringhe» (p. 195).
Capitolo 13 – Sulla bellezza e sulla difficoltà
«Il fatto che una porzione così grande del modo in cui il mondo funziona possa essere spiegata da
un semplice insieme di equazioni con l’uso del calcolo è indubbiamente parte di ciò che pensava
Leibniz quando descriveva il nostro mondo come, fa tutti i possibili, “il più semplice nelle ipotesi e
il più ricco in fenomeni”. La sostituzione della meccanica classica con le più nove teorie della
relatività e della meccanica quantistica ha soltanto reso più sensazionale la congruenza fra la
matematica e la realtà fisica. Mentre fa uso di una matematica più sofisticata della meccanica di
Newton, la meccanica quantistica spiega uno spettro più ampio di fenomeni fino al livello atomico,
e lo fa ancora utilizzando sostanzialmente una singola semplice equazione (l’equazione di
Shrödinger). La teoria della relatività generale riesce a descrivere accuratamente gli effetti della
forza gravitazionale su scale di distanza che vanno da quelle cosmologiche fino alle più piccole, per
cui possiamo misurare gli effetti della forza; e lo fa usando la sofisticata matematica della geometria
moderna, e in questo linguaggio la teoria può essere riassunta in un’equazione davvero semplice. La
fisica moderna ha rimpiazzato la fisica newtoniana con un intero nuovo insieme di concetti
fondamentali; ma questi, espressi nel linguaggio della matematica moderna, prevedono ipotesi
molto semplici e spiegano una gamma incredibilmente ricca di fenomeni». E come disse Wigner “il
miracolo dell’adeguatezza del linguaggio della matematica nella formulazione delle leggi della
fisica è un meraviglioso dono che noi non comprendiamo né meritiamo” (p. 198). «La più
sofisticata fisica moderna che entra in gioco a distanze molto grandi o molto piccole non è
precostituita nelle nostre menti a livello fondamentale, ma è qualcosa che, pur con grande difficoltà,
possiamo imparare a manipolare facendo uso delle nostre facoltà mentali astratte [ma allo stesso
profonde/carnali direi io, perché portano ad uscire gli “estremi” di noi]. Anche se ciò non è facile, la
nostra abilità è interamente basata sul fatto che c’è una semplice struttura di fondo in gioco, per
quanto questa, pur espressa, richieda l’uso di una struttura matematica molto sofisticata».
«Il fatto per cui le più potenti teorie fisiche sono esprimibili nei termini del linguaggio tipico della
matematica è ciò che i fisici hanno generalmente in mente quando fanno riferimento alla bellezza e
all’eleganza di queste teorie. Dirac espresse egregiamente questo concetto: “Se si lavora
perseguendo l’obiettivo di ottenere la bellezza di un’equazione, e se si hanno davvero intuizioni
musicali, allora ci si trova sicuramente su una strada che porta a qualche progresso”» (p. 199).
«Nelle fasi di lavoro in cui gli esperimenti forniscono nuovi risultati inaspettati, il primo compito
dei teorici è quello di elaborare qualche tipo di modello esplicativo di ciò che gli esperimenti
mostrano, che sia in accordo con quelli già eseguiti e che predica ciò che gli esperimenti futuri
vedranno. Considerazioni di bellezza ed eleganza sono pertanto secondarie, in accordo con il
principio del rasoio di Occam: dati molti possibili modelli in grado di accordarsi con i dati
sperimentali, ci si deve concentrare unicamente sui più semplici. In un periodo come quello che
stiamo vivendo, in cui i risultati sperimentali spiegati sono pochi o addirittura nessuno, il principio
secondo cui si devono cercare spiegazioni teoriche semplici e belle assume un’importanza ancora
maggiore». «Uno degli argomenti più spesso ripetuti a favore della teoria delle superstringhe
afferma che questa sarebbe una teoria così bella che deve contenere per forza qualcosa di vero».
Ma perché bella? «La teoria quantistica del Modello standard contiene idee fisiche e matematiche
che sono incredibilmente belle», perché gli assunti fondamentali del modello standard
«corrispondono precisamente alle strutture matematiche principali dell’approccio moderno alla
geometria del XX secolo». Invece «la teoria delle superstringhe non è affatto comparabile ad essa»,
anche se «chiede di credere che tali strutture sono soltanto approssimazioni, limiti di bassa energia
di qualcosa di più fondamentale, senza peraltro dirci cosa si suppone che questo “qualcosa” sia».
A proposito della “bellezza” della teoria delle stringhe vediamo le varie voci:
- «L’immagine vibrante di una stringa vibrante, i cui modi di vibrazione descrivono tutte le
particelle e le forze note, è ciò che molti ritengono il “bello” della teoria. Questo tipo di
bellezza è davvero molto superficiale» (p. 200).
- Per Schwarz invece la bellezza della teoria, non è quella intesa fin d’ora, ma ciò che
“conquista coloro che lavorano in questo campo è lo scoprire che si stanno occupando di un
sistema matematico molto rigoroso che incorpora cose che nessuno ha ancora capito. Si
eseguono alcuni calcoli complicati, e si scopre che la risposta è sorprendentemente semplice
… Quando si sperimenta di persona questo fatto un certo numero di volte, si viene realmente
sedotti dal soggetto”, ma questa «è la bellezza del mistero e della magia», che «chiaramente
sparisce senza lasciar alcuna traccia non appena si scopre il trucco del prestigiatore dietro la
magia, o la storia dietro il mistero».
-
-
-
«Le speranze iniziali che nel 1984 motivarono molti studiosi a interessarsi della teoria delle
superstringhe ruotavano intorno alle condizioni di cancellazione dell’anomalia, ricavate da
Green e Schwarz» (p. 201). «Questo calcolo, insieme alla simile ma più vecchia condizione
dell’anomalia che richiede che le superstringhe si muovano in uno spazio-tempo in dieci
dimensioni, è uno degli aspetti che più spesso hanno in mente coloro che parlano della
bellezza della teoria delle superstringhe» (p. 201s). Il problema è che ciò non predice ciò che
vediamo anche se «la speranza, nel 1984, era che queste discrepanze potessero essere
giustificate». «Più di vent’anni di ricerca hanno mostrato che si trattava di un’illusione».
«Alcuni teorici delle superstringhe ora ritengono che la teoria non sia di per sé elegante; la
sua virtù sarebbe piuttosto quella di descrivere ogni genere di cose complicate, tanto
complicate che alcune di queste sarebbero in grado di riprodurre la vita intelligente» (p. 202).
Per Susskind così «questa complessità e questa bruttezza in realtà sono un aspetto positivo, e
dà vita a un’argomentazione peculiare che analizzeremo in uno dei prossimi capitoli» e così
«mentre ritiene che sia ormai assodato che la teoria delle superstringhe, qualunque cosa essa
sia, ha un insieme enorme ed estremamente complicato di possibili stati di vuoto, egli ritiene
che la sconosciuta teoria di base sia meno complicata o perfino elegante, e afferma: “Io
penso che potrei trovare i principi universali della teoria delle stringhe più eleganti – se solo
sapessi quali sono”».
«Sebbene molti fisici possano aver cambiato opinione a proposito della bellezza della teoria
delle superstringhe, c’è un piccolo disaccordo sulla sua difficoltà» (p. 203) e «siccome
l’intera materia è tanto complessa e difficile, i teorici cercano di valutare ciò che sta
accadendo basandosi spesso non sul proprio grado di comprensione della teoria, ma su ciò
che altri dicono» e soprattutto su ciò che dice Witten. Così «oltre ad aver innalzato
un’enorme barriera per chi vuole accostarsi alla materia, la difficoltà della teoria delle
superstringhe rende difficile ai ricercatori l’abbandono. Prima di riuscire a ottenere qualche
risultato decente, essi solitamente hanno investito una parte cospicua della loro carriera nello
studio delle superstringhe». «È anche vero che non esistono alternative alla teoria delle
stringhe che si possano imparare facilmente e in cui si possa cominciare a fare ricerca in
tempi rapidi» (p. 206). «I matematici non rendono le cose affatto semplici, dal momento che
il materiale leggibile che descriva la moderna matematica è decisamente carente». «C’è
spesso in questo senso un’attitudine in qualche modo altezzosa fra alcuni matematici,
un’attitudine secondo la quale, dal momento che essi hanno dovuto superare numerosi
ostacoli per capirci qualcosa, non c’è motivo di renderla più semplice». «Ad ogni modo,
questo genere di arroganza fra i matematici impallidisce a confronto con il grado di
arroganza che spesso si incontra fra i teorici delle superstringhe». «C’è una sorprendente
analogia tra il modo in cui la ricerca nella teoria delle stringhe viene portata avanti nei
dipartimenti di fisica e il modo in cui la teoria post-moderna è stata portata avanti nei
dipartimenti umanistici. In entrambi i casi ci sono studiosi che si crogiolano nella difficoltà e
nell’oscurità della loro ricerca, rimanendone spesso impressionati. Gli ostacoli alla
comprensione che questo tipo di lavoro comporta rendono difficile per chiunque non faccia
parte del “giro” valutare quali risultati siano davvero stati raggiunti». «Probabilmente il
livello di complessità e di difficoltà della teoria delle superstringhe è semplicemente
un’indicazione che si sta percorrendo la strada sbagliata», mentre «nelle teorie fisiche che
hanno successo, come il Modello standard, le idee in gioco possono essere difficili da
assimilare per uno studente, ma, una volta giunti a un certo punto, le fondamenta sono
chiare» (p. 206). Certo «la natura insoddisfacente di alcuni aspetti del Modello standard ci
porta a credere che dietro vi sia qualche struttura più fondamentale che ancora non siamo in
grado di comprendere», ma «presumibilmente, una volta che qualcuno avrà immaginato
cosa possa essere, non si tratterà, per le altre persone, di qualcosa di molto più difficile da
comprendere del Modello standard». «Trovare questa nuova, più profonda e migliore strada
per pensare la fisica fondamentale è, ad ogni modo, un compito estremamente impegnativo
dal punto di vista intellettuale. Sfortunatamente, non è del tutto inconcepibile pensare che
tutto ciò vada al di là delle capacità degli esseri umani, se questi non sono aiutati da tracce
dettate dai fisici sperimentali» (p. 207)
Capitolo 14 – La teoria delle stringhe è scienza?
«A prescindere da come si evolverà la faccenda, la storia della teoria delle superstringhe è un
episodio che non ha alcun precedente nella storia della fisica moderna. Più di vent’anni di intensa
ricerca, portata avanti da migliaia tra i migliori scienziati del mondo intenti a produrre decine di
migliaia di lavori scientifici, non hanno condotto a una sola predizione verificabile della teoria».
[Ok per quanto riguarda la predizione di osservabili, ma sul rapporto con speranza “strane” non
saprei dire, i primi fisici erano talmente spiritualisti che, certo ciò non era tematizzato, ma influiva e
molto!] «Questa situazione spinge a chiedersi se si possa realmente descrivere la ricerca nella teoria
delle superstringhe come ricerca scientifica nel campo della fisica. La questione tende ad assumere
due diversi risvolti: il primo è se la teoria delle superstringhe non debba forse essere considerata
matematica piuttosto che fisica; il secondo, più drastico, pone il problema se la teoria sia realmente
scienza oppure no».
Riguardo alla prima domanda la risposta è no. Infatti «i matematici considerano come attività
essenziale della loro disciplina la formulazione precisa di teoremi su entità matematiche astratte e
l’elaborazione di dimostrazioni rigorose di tali teoremi». Ora, «il fatto che la ricerca nel campo
della teoria delle superstringhe faccia riferimento a entità fisiche speculative non è realmente un
problema, dal momento che i matematici sono maestri nell’astrazione, e possono facilmente
convertire una ben definita struttura teorica in un’altra espressa nel linguaggio della matematica
astratta. Il problema è che la teoria delle superstringhe non è realmente una teoria, ma un insieme di
speranze che esista una teoria» (p. 209) che «senza dubbio non è matematica. Esattamente come in
fisica … fin quando la struttura concettuale non raggiunge il punto in cui è in grado di ottenere tale
risultato, non è chiaro come sia possibile usarla realmente». Così tanto i matematici tradizionali
quanto i fisici tradizionali ritengono che la teoria delle superstringhe «non abbia senso nel proprio
sistema di riferimento e che presumibilmente lo abbia nell’altro» (p. 210).
Riguardo alla seconda invece, uno dei più curiosi sostenitori della teoria delle superstringhe è John
Hagelin, che a partire dagli anni Ottanta «cominciò ad identificare il ‘campo unificato della teoria
delle superstringhe’ con il ‘campo unificato della coscienza’ di Maharishi» (p. 211). «Negli ultimi
anni Hagelin ha smesso di scrivere articoli di fisica e ha ottenuto una grande notorietà come
candidato alla presidenza del “Partito della legge naturale”, che di recente ah proposto di
combattere il terrorismo con una “nuova invincibile tecnologia di difesa basata sulla scoperta del
campo unificato» (p. 211s). Visto questo caso «come fa il settore a proteggere se stesso da queste
persone? Anche se indubbiamente Hegelin vede il suo lavoro come un tutt’uno, come si può
distinguere ciò che è legittimamente scienza da ciò che invece è illusione irrazionale?». «Gli esseri
umani si lanciano in molti diversi tentativi per spiegare il mondo intorno a loro, ma soltanto un
particolare tipo di spiegazione è generalmente considerata “scientifica”. Una spiegazione che
permette di predire con successo ciò che accadrà nel corso di un esperimento riproducibile che non
è mai stato eseguito prima è precisamente il tipo di spiegazione che con maggior chiarezza può
essere identificata come “scientifica”» [sua definizione di scientificità]. «La questione se sia
possibile decidere cosa sia scienza e cosa no, e in tal caso come si possa prendere tale decisione, è
uno dei temi centrali della filosofia della scienza. Per distinguere ciò che è scienza da ciò che non lo
è, il metodo proposto più conosciuto è il criterio di falsificabilità attribuito al filosofo Karl Popper.
Secondo questo criterio, una spiegazione è scientifica se può essere utilizzata per fare predizioni che
possono essere falsificate: vale a dire che è possibile mostrare che sono sbagliate. Il criterio di
falsificabilità in alcune circostanze può essere ambiguo, perché non sempre è chiaro cosa sia da
considerare come falsificazione» (p. 212). Infatti, «mentre i modelli specifici possono essere
facilmente falsificati, la questione se si possa falsificare una struttura teorica generale è più sottile
… Data una qualche struttura teorica, si può quasi sempre trovare il modo di farle corrispondere un
risultato sperimentale, a patto di ammettere l’uso di modelli arbitrariamente complicati all’interno
di tale struttura. L’estetica interviene nel problema se una data struttura sia falsificabile, poiché si
deve restringere l’attenzione a modelli relativamente semplici e naturali». «Il Modello standard è un
esempio eccellente di teoria falsificabile … al contrario, la teoria delle superstringhe al momento è
indiscutibilmente un esempio di teoria che non può essere falsificata» (p. 213). [Perciò il ragazzo è
filo-popperiano, ma con riserve…Interessante!!!]
Dunque «secondo il criterio di falsificabilità, la teoria delle superstringhe non sembrerebbe essere
una scienza, ma la faccenda è un tantino più complessa». Il punto delicato è quel “al momento”.
«Molta attività teorica degli scienziati è speculativa, nel senso che consiste nel porsi domande del
tipo: ‘Se assumessi che X fosse fero, potrei costruire una teoria basata su tale assunzione’? Questo è
il proprio il genere di cose in cui gli scienziati spendono molto del loro tempo, e immagino che non
le si voglia catalogare come ‘non scientifiche’. La teoria delle superstringhe è un tentativo
speculativo di questo tipo». «La generalizzazione della nozione di “scientifico” che includesse tali
speculazioni renderebbe certamente la teoria delle superstringhe una scienza. Ma ce la sentiamo di
dire che tutta questa attività speculativa è scientifica?» (p. 214). Ora, quanto più ci si inoltra nelle
fondamenta della fisica delle particelle «tanto più si ritiene che la teoria sia completa. Il Modello
standard è una teoria che fornisce le fondamenta per la previsione e la comprensione di una vasta
gamma di fenomeni. Si crede che la ricerca corrente sia focalizzata tanto a puntellare quei punti in
cui le fondamenta sono un po’ traballanti quanto a trovare una teoria ancora più completa», ma su
quale sarà la teoria si dovrà aspettare e la risposta potrebbe sembrare anche quella all’apparenza
meno scientifica (p. 216). → «Pertanto la questione se una data attività speculativa sia scienza non
sembra ammettere una risposta assoluta: essa dipende piuttosto dal sistema generale di opinioni
della comunità scientifica e della sua evoluzione associata alle nuove scoperte teoriche e
sperimentali fatte dagli scienziati». Così nel caso della teoria delle stringhe, «la ricerca speculativa
su un problema che fa uso di un approccio definito non perseguibile e irragionevole da molti
scienziati che hanno riflettuto a lungo e profondamente sul problema forse non dovrebbe essere
considerata ricerca scientifica, soprattutto se si protrae per anni senza dare alcun segno di poter
fornire alcunché. D’altro canto, se una grossa parte della comunità scientifica non considera un’idea
speculativa irragionevole, allora si deve ritenere che coloro che perseguono tale speculazione stiano
facendo della scienza». Così anche «i teorici delle superstringhe sono ben consapevoli che questo è
un acceso tema di discussione nella comunità fisica, e che se la teoria dovesse continuare a non
essere in grado di predire nulla, a un certo punto sarebbe necessario smettere di chiamare ciò che
essi fanno ‘scienza’ [almeno per il momento … in futuro chissà!]». Dall’altra «le perplessità che
molti hanno in merito alla teoria delle superstringhe sono spesso espresse come la preoccupazione
che la teoria corra il pericolo di diventare una religione piuttosto che una scienza» (p. 216) o che
«starebbe diventando un vero e proprio ‘culto’ di cui Witten sarebbe il ‘sacerdote’». «Negli anni
recenti la fondazione Templeton, dedicata alla promozione del riavvicinamento della scienza e della
religione, ha promosso conferenze che hanno visto la partecipazione di molti teorici delle stringhe».
La preoccupazione «sulla possibilità che la teologia sostituisca la scienza sembra essere alle volte
molto seria». «Personalmente io non credo che le categorie di culto o di religione siano
particolarmente appropriate in questa circostanza, dal momento che esse fanno riferimento ad
attività umane con caratteristiche decisamente differenti da quello che sta avvenendo nella comunità
fisica. D’altro canto, mentre gli anni passano e diviene sempre più chiaro che la teoria delle
superstringhe ha fallito come possibile strada verso l’unificazione, il rifiuto di riconoscere questa
differenza comincia ad assumere connotazioni se possibile più inquietanti». «Come abbiamo visto,
non esiste un modo chiaro per separare nettamente ciò che è scienza da ciò che non lo è sulla base
di questioni prettamente umane, relative a quello che la gente sceglie di credere e perché. La scienza,
seguendo questo metodo, non ha alcuna garanzia di immunità nei confronti di pericoli generati dai
comportamenti di natura religiosa di cui gli esseri umani possono essere preda. Stringenti norme di
razionalità sono necessarie e devono essere continuamente fatte rispettare per assicurare che la
scienza continui a meritare questo nome» (p. 217).
Capitolo 15 – Il caso Bogdanov – esempio dello sbandamento scientifico attuale.
Essi riuscirono a far stampare cinque articoli, praticamente identici, su cinque riviste differenti (le
quali successivamente ammisero l’errore). «Guardando con attenzione il lavoro più lungo, quello da
cui erano stati estratti gli altri tre, mi apparve chiaro che si trattava di una prova decisamene
spettacolare di non-sense, molto più di quanto io avessi mai visto prima in una rivista fisica.
L’introduzione era un’impressionante lista di evocazioni di idee differenti, molte delle quali sulla
teoria dei campi topologica, ma praticamente tutte erano prive di significato o semplicemente
sbagliate. Il corpus dell’articolo non era da meno, e conteneva molte affermazioni assolutamente
ridicole. Il tutto risultava divertente, ma mentre proseguivo nella lettura mi sembrava sempre meno
intenzionale» (p. 221) e in seguito ad altri episodi l’autore dice che «mi convinsi che i Bogdanov
non erano più così innocenti e ingenui come avevo inizialmente pensato» (p. 223).
«Lasciando da parte la questione se i Bogdanov siano degli imbroglioni o realmente credano nel
loro lavoro, questo episodio mi mostrò definitivamente che nel campo della gravità quantistica si
possono facilmente pubblicare frottole su molte riviste, alcune delle quali anche piuttosto eminenti.
… Tutto questo ci riporta al problema dell’intera letteratura recente con peer-review [«La peerreview (letteralmente ‘revisione dei pari’) è il meccanismo per cui, prima della pubblicazione, si
sottopone la validità scientifica di un articolo al giudizio da parte di esperti del settore (i ‘pari’)»
(nota a pag. 212)] in questo settore della fisica, poiché il processo di revisione sembra seriamente
compromesso» (p. 224). E poi gli articoli dei Bogdanov «non furono mai inviati al database in rete
di articoli pre-print», e ciò mostra come «almeno per quanto riguarda la gravità quantistica, in
alcune riviste questa forma di controllo non è affatto valida». «Il problema del processo di revisione
è quindi una seria minaccia all’intero sistema di ricerca accademico» (p. 225).
«Il caso Bogdanov mostra in modo convincente che qualcosa è seriamente compromesso in quella
parte della comunità scientifica che persegue la ricerca speculativa sulla gravità quantistica. Un
cospicuo numero di revisori e redattori non è stato in grado di riconoscere una completa assurdità
per quello che era, oppure ha ritenuto che non sarebbe valsa la pena preoccuparsene. La comunità
dei fisici teorici sembra aver reagito a questo episodio cercando di negarlo o minimizzandone il
significato, e in questo modo ha permesso al problema messo in evidenza di continuare a esistere
nell’immediato futuro» (p. 226).
Capitolo 16 – L’unica alternativa sulla piazza: il potere e la gloria delle stringhe
«Quando discuto con molti teorici delle superstringhe sul perché essi continuino a lavorare a questa
teoria nonostante il continuo fallimento nel raggiungere gli obiettivi che si prefigge, la
giustificazione più comune che sento è una qualche versione di: ‘Guarda, è l’unica alternativa
possibile. Finché nessuno verrà fuori con qualcos’altro di più promettente, questo è lo stato delle
cose’. Questo tipo di giustificazione è molto in voga a partire dalla prima rivoluzione delle
superstringhe nel 1984». Infatti “Tutti gli altri approcci alla costruzione di teorie di grande
unificazione, che cominciavano in modo più conservativo e soltanto gradatamente divenivano
sempre più radicali, hanno fallito, mentre questo gioco non ha ancora fallito” (p. 227). Anche se è
difficile comprendere come basti questa motivazione «di fronte all’ingigantirsi dell’evidenza che si
tratta di un programma di ricerca che ha fallito nei suoi intenti» (p. 228). [È l’horror vacui del postmoderno, l’incapacità di accettare il vuoto che deriva dall’assenza di radici esistenziali!!!]
A dire il vero poi «tante persone nella comunità fisica» sono «non soltanto scettiche nei confronti
della teoria delle superstringhe», ma ritengono che l’argomento stia «perpetuandosi grazie a una
qualche forma di intimidazione», che porta a vedere i «teorici delle superstringhe come una ‘mafia’.
Questo fornisce una nuova tonalità alla caratterizzazione della ‘unica alternativa possibile’. Molti
fisici» pensano che «chiunque ostacolasse la riuscita del gioco della teoria delle stringhe» debba
«temere per la propria sicurezza personale» [Vedi, vedi. Dove non c’è più Dio o dove non ci sono
più radici, dove non c’è più cielo o terra, si è schiavi di denaro e potere: è sempre stato così!!!]
Ma a dire il vero la maggioranza di quelli che vi lavorano «sono brillanti, lavorano duramente,
hanno un grande talento e hanno ottenuto ottimi risultati» e «ripongono molte speranze nella
comparsa sulla scena di nuove idee e nell’arrivo del giorno in cui la teoria delle superstringhe non
sarà più ‘l’unica alternativa possibile’» (p. 229).
In seguito ad una serie di interventi dell’autore (libro e blog) è chiaro che «il livello di tale disonestà
e l’estendersi al fatto che molti teorici delle stringhe non erano disposti a riconoscere il problema de
loro soggetto di studio andavano ben al di là di qualunque cosa avessi originariamente immaginato»
(p. 231) e che, nel caso delle revisioni prima della stampa del suo libro, molti fisici delle stringhe
«benché non potessero rispondere alle mie argomentazioni … si sarebbero vigorosamente opposti
alla pubblicazione». E così dopo non essere riuscito ad essere stampato dalla Cambridge Press,
anche altre case editrici fecero altrettanto. Quindi «è difficile esagerare l’entità dell’essere ‘l’unica
alternativa sulla piazza’ delle superstringhe, così come lo è l’attitudine trionfalistica di alcuni dei
suoi professionisti» (p. 232). Molti di loro infatti «ritengono che, nonostantela versione attuale della
teoria delle superstringhe possa non essere quella corretta, essa debba per fora essere una parte
cospicua di ciò che sarà la futura teoria definitiva» (p. 233). Attualmente poi nelle sei università più
prestigiose d’America «la coorte di professori di ruolo in fisica delle particelle in queste istituzioni
che hanno ottenuto il dottorato di ricerca dopo il 1981 è un gruppo costituito da venitidue persone.
Venti di questi sono specializzati nella teoria delle superstringhe (un paio di questi lavora ai braneworld), uno nella fenomenologia delle estensioni supersimmetriche del Modello standard e uno
nella QCD ad alta temperatura. Il successo che hanno avuto i teorici delle superstringhe
nell’ottenere fondi e fondare istituzioni ‘votate alle stringhe’ è altrettanto impressionante» (p. 234).
«Il potere e la gloria della teoria delle superstringhe non sono ristretti agli Stati Uniti, ma si
estendono in tutto il mondo. Gran parte della leadership nel settore ha sede negli Stati Uniti, ma il
fenomeno della globalizzazione, che per qualche ragione ha fatto della cultura americana una forza
dominante nel mondo, è presente anche qui» (p. 235).
«Se abbiamo visto come la teoria delle superstringhe sia l’unica alternativa sulla piazza, perché le
cose stanno così? Quali possibilità ci sono per l’affermarsi di nuove idee capaci di cambiare la
situazione attuale? Una reazione comune che ho ricevuto da parte di molti fisici e matematici a
questo tipo di domanda è l’espressione della speranza che da qualche parte, in qualche modo,
qualche giovane fisico sia al lavoro a una nuova idea che cambierà tutto» (p. 236) «La comunità dei
fisici delle particelle negli Stati Uniti non è enorme, essendo costituita da un totale di circa mille
persone. È un gruppo che dimostra gran talento, ma finora ha lavorato per due decenni in un
ambiente di insuccessi intellettuali e feroce competizione per risorse che in realtà sono scarse.
Esistono altre ragioni per cui c’è soltanto un’alternativa sulla piazza, certo, ma le strutture sociali e
finanziarie in cui le persone lavorano costituiscono gran parte del problema» (p. 242)
Capitolo 17 – Il paesaggio della teoria delle stringhe
«Gli ultimi anni hanno visto una drammatica spaccatura nelle fila dei teorici delle superstringhe su
quello che viene chiamato principio antropico. Il principio antropico si presenta in diverse versioni,
ma tutte contengono l’idea che secondo cui la natura delle leggi della fisica debba essere tale da
ammettere lo sviluppo di esseri intelligenti quali noi siamo. Molti scienziati credono che questa non
sia altro che una tautologia … e pertanto non può far parte di un ragionamento scientifico». «È sorta
una controversia quando un significativo gruppo di studiosi ha cominciato a sostenere che
l’incapacità della teoria delle superstringhe di fare predizioni non è un problema della teoria in sé,
quanto piuttosto un riflesso della reale natura dell’universo. Secondo il loro punto di vista, la
lezione della teoria delle superstringhe è che predire alcuni se non tutti i parametri che determinano
il Modello standard è intrinsecamente impossibile, e che solamente il principio antropico può
spiegare molti aspetti relativi al perché l’universo è quello che è».
«Ricordiamo che la teoria delle superstringhe è afflitta dal problema della degenerazione del vuoto.
Dal momento che non si conosce quale sia la fondamentale teoria-M, i teorici delle superstringhe
prendono in considerazione i primi termini nell’espansione perturbativa nel numero di buchi del
foglio di mondo della stringa. Essi assumono che questo calcolo produca qualcosa di nuovo vicino a
ciò che si potrebbe ottenere da un calcolo eseguito nella vera teoria-M». → «Per impostare questo
calcolo approssimato è necessario scegliere uno spazio-tempo di dimensione dieci o undici come
background, e probabilmente anche una certa configurazione di brane, vale a dire di determinati
sottospazi dello spazio-tempo completo a cui sono attaccate le estremità delle stringhe. A questa
scelta si fa riferimento come a una scelta dello stato di vuoto, poiché la speranza è che corrisponda
alla scelta di uno stato di minima energia nella sconosciuta teoria-M» (p. 243). → «Esistono molte,
forse infinite, classi di spazi di background che sembrano essere scelte consistenti possibili, e
ciascuna di queste si presenta con un gran numero di parametri che determinano le dimensioni e la
forma dello spazio-tempo di background. Questi parametri sono noti come moduli, perché
storicamente una funzione modulo è uno di questi valori che possono essere utilizzati per
parametrizzare le dimensioni o la forma di uno spazio». → «La speranza è stata che i valori di
questi moduli fossero in qualche modo determinati dalla dinamica sconosciuta della teoria-M. Per
fare ciò, si deve trovare qualche meccanismo che fornisca differenti energie agli stati di vuoto
corrispondenti a differenti valori dei moduli. Se l’energia degli stati di vuoto non dipende dei
moduli, ci si aspetta, in accordo con principi generali, che i moduli diano origine a campi quantistici
corrispondenti a particelle prive di massa, e queste non sono state osservate». → «L’immagine di
una funzione energia che dipende da molti parametri è divenuta nota come il paesaggio della teoria
delle superstringhe. Questa terminologia proviene dall’assumere l’altitudine in un paesaggio come
l’analogo dell’energia, la latitudine e la longitudine analoghe a due parametri di modulo». → «Nel
2003 i fisici Kachru, Kallosh, Linde e Trivedi hanno trovato un meccanismo che potenzialmente
può dare energie diverse per diversi valori dei moduli, in modo tale da permettere di fissarne i valori
trovando i minimi dell’energia come funzione dei moduli. Nell’immagine del paesaggio questi
minimi sono i punti più bassi delle valli. Questo meccanismo KKLT è piuttosto complicato …
Partendo da uno spazio di Calaibi-Yau per compattificare sei delle dieci dimensioni di uno spaziotempo di background per la teoria delle superstringhe, il meccanismo KKLT prevede di aggiungere
molti livelli aggiuntivi di struttura che coinvolgono brane e flussi. Tali flussi sono la
generalizzazione dei campi magnetici in molte dimensioni, e i campi vengono intrappolati dalla
topologia dello spazio di Calaibi-Yau» (p. 244). Ora «il meccanismo KKLT non seleziona un unico
valore per i moduli, ma un insieme molto grande di valori, ciascuno dei quali dovrebbe essere
buono quanto gli altri» (p. 244s). «Le stime del numero di questi possibili valori sono
spaventosamente grandi», così «mentre la teoria delle stringhe è considerata la ‘teoria del tutto’,
Kachru fa riferimento a questa elaborazione come ‘teoria di più del tutto’». «La consistenza del
meccanismo KKLT è ancora oggetto di dibattito fra i teorici delle superstringhe, dibattito che
potrebbe non essere mai risolto, dal momento che non si conosce quale sia la fondamentale teoriaM che governa questa situazione». Visto però il diverso numero di possibili stati di vuoto
consistenti «la teoria non potrà mai predire nulla, né potrà mai essere falsificata».
«Negli ultimi anni Susskind, uno dei co-autori della teoria delle stringhe, ha cominciato a sostenere
che questa capacità della teoria di non essere consistente con nulla dovrebbe essere considerata un
pregio». Infatti «egli sostiene che la costante cosmologica nei diversi stati dovrebbe assumere un
insieme di valori discreto ma quasi continuo», il discretuum, e nel caso che esso esistesse che
«implichi che almeno qualche possibile stato di vuoto della teoria delle superstringhe abbia una
costante cosmologica insolitamente piccola, tanto da essere in accordo con l’esperimento» (p. 245)
→ «Nel 1987 Steve Weinberg pubblicò un articolo in cui sosteneva che, per permettere la
formazione delle galassie e lo sviluppo della vita così come la conosciamo, la costante cosmologica
non dovesse essere troppo grande» e «suggerì che forse la spiegazione della piccolezza della
costante cosmologica poteva essere il principio antropico». «L’idea è che c’è un numero enorme di
universi possibili e consistenti, e che il nostro, universo è parte di un qualche multiverso o
megaverso più grande. In modo del tutto naturale, noi ci troviamo in una parte di questo multiverso,
in cui le galassie possono essere generate e quindi la vita intelligente si può evolvere». «Se questo è
il caso, non c’è speranza di poter predire il valore della costante cosmologica, dal momento che
tutto ciò che si può fare è prendere atto della tautologia secondo cui il suo valore è consistente con
la nostra esistenza». → Così ora «Susskind descrive i vari stati di vuoto possibili della teoria delle
stringhe come “universi tascabili”, e insiste con l’idea secondo cui il loro enorme numero sarebbe
corretto» (p. 246), ma «il ‘New York Times’ ha citato alcune parole di Witten: “Io continuo a
sperare che stiamo perdendo o non capendo qualcosa e che alla fine ci sarà una risposta unica”»,
anche se «durante un seminario al KIPT nell’ottobre del 2004 sul ‘Futuro della teoria delle stringhe’,
egli disse: “Sarei felice se questo non fosse vero, ma ci sono argomenti molto seri a favore, e io non
ho alcun valido argomento da contrapporre”». → «Come abbiamo visto nel primo capitolo di
questo libro, David Gross ha espresso a piena voce la sua disapprovazione, invocando le più
profonde convinzioni di Einstein e il presunto invito di Churchill a ‘non arrendersi mai, mai, mai,
mai, mai’. Sia Witten sia Gross continuano a sperare che in qualche modo le implicazioni della
possibile esistenza di un enorme numero di background consistenti della teoria delle superstringhe
possano essere eluse» e però «Gross è convinto che la conclusione secondo cui la teoria delle
superstringhe non può spiegare le caratteristiche fondamentali del nostro universo sia prematura …
“Molti teorici delle stringhe sospettano che per la formulazione finale della teoria delle stringhe sarà
necessario un cambiamento concettuale della nostra concezione. Se così fosse, il criterio per
determinare lo stato in cui si trova la natura (il vuoto) potrebbe essere molto differente. Non c’è
motivo, in questa fase preliminare della nostra comprensione, di rinunciare alla speranza che la
teoria possa condurre a una teoria dell’universo realmente predittiva”» (p. 247). «Forse la
sconosciuta teoria-M, formulata come auspica Gross su nuovi concetti di spazio e tempo, esiste
davvero, e ha un unico vuoto che spiega le proprietà dell’universo; tuttavia sempre più stringhisti
ora credono che questa sia poco più di un’illusione» (p. 247s).
«Mentre sempre più stringhisti giungevano alla conclusione che la teoria aveva realmente tutti
questi stati di vuoto, e di conseguenza non poteva predire la costante cosmologica e forse neanche i
parametri indeterminati del Modello standard, si sentiva sempre più spesso la seguente analogia.
Nel 1596 Keplero propose una spiegazione congetturale matematicamente elegante per le distanze
fra le orbite dei sei pianeti noti, spiegazione che invocava il fatto che esistono soltanto cinque solidi
platonici. Naturalmente, in seguito fu chiaro che le distanze fra i pianeti erano il prodotto della
storia dell’evoluzione del sistema solare, e non il tipo di cose che le leggi fisiche possono predire.
L’argomento è che forse molti, se non tutti li aspetti del Modello standard per cui non c’è
spiegazione in realtà sono semplicemente ambientali, dipendenti dal particolare stato dell’universo
in cui ci troviamo, non da una qualche legge fisica fondamentale» (p. 248s). «Se questo è il caso,
allora le uniche previsioni possibili sarebbero quelle che derivano dai vincoli antropici che rendono
la nostra esistenza possibile». → «Il problema relativo a questo argomento è che nel caso del
sistema solare la teoria fisica rilevante (la meccanica newtoniana) è accompagnata da una ben
definita comprensione di ciò che è determinato dalla teoria sottostante e di quelle che sono le
componenti ambientali». «La teoria delle superstringhe non è accompagnata da una tale distinzione.
Nessuno sa come determinare ciò che la teoria potrebbe essere capace di predire e ciò che non può
essere predetto in quanto componente ambientale. Non sembra esserci nessun aspetto del Modello
standard che i teorici delle superstringhe sono sicuri di poter predire in accordo con la teoria». «Un
gruppo di stringhisti, che comprende fra gli altri Michael Duglas, della Rugters, ha affermato che si
può sperare di ottenere previsioni dalla teoria delle superstringhe analizzando la statistica dei
possibili stati di vuoto compatibili con la nostra esistenza. Se la grande maggioranza di questi stati
ha qualche data proprietà, allora essi si aspettano di poterla osservare nel nostro particolare universo.
La più semplice di queste proprietà che essi hanno provato ad analizzare è quella della scala di
energia della rottura spontanea della supersimmetria. Gli stati con rottura della supersimmetria a
una scala di energia molto elevata, diciamo la scala di Planck, sono più comuni di quelli per cui ciò
avviene a una scala di energia più bassa, tale cioè da essere osservabile all’LHC? Non è affatto
chiaro se questa domanda sia sensata» (p. 249).
Il fisico russo e teorico delle stringhe Alexander Plyakov ha detto che «’la mancanza di controllo
sperimentale rende l’andare fuori strada quasi inevitabile … Forse tutto ciò aiuterà a ristabilire la
salute mentale della teoria delle stringhe’. Nel suo recente libro, Susskind ammette di non avere
idee plausibili su come si possa derivare una qualsiasi previsione dalla teoria delle stringhe. Il fatto
sorprendente è che lui e altri eminenti teorici non riconoscono in questo un motivo per rinunciare
alla teoria, ma al contrario ritengono che la teoria debba essere vera, anche se non può predire
nulla». → «Ci si potrebbe aspettare che una volta riconosciuta l’impossibilità di utilizzare la teoria
per fare previsioni, gli studiosi la abbandonino per lavorare a qualcosa di più promettente. Eppure
non sembra stia accadendo». → «Il cosmologo di Princeton Paul Steinhardt crede che non siano gli
oppositori dello scenario del paesaggio ad essere diperati, quanto piuttosto i teorici delle stringhe
come Susskind che si sono indirizzati verso il principio antropico: “I teorici delle stringhe si sono
rivolti al principio antropico per salvarsi. Francamente io lo leggo un atto di disperazione”» (p. 251)
e continua «riferendosi alla “attuale mania antropica” come alla “follia del momento”». → «Se la
teoria facesse qualche predizione accurata, pur lasciando indeterminata la costante cosmologica, si
potrebbe prendere sul serio l’argomento antropico. Invece, la realtà delle cose è che la teoria non
solo non predice la costante cosmologica, ma non predice proprio nulla. Il fatto che in futuro il
ragionamento antropico si riveli necessario in fisica non fa alcuna differenza: si tratta solo di una
scusante di fronte al fallimento. Le idee scientifiche speculative falliscono non soltanto quando
fanno previsioni inesatte, ma anche quando si rivelano vuote e incapaci di predire alcunché» (p.
252). «Ciò che è accaduto è che, per evitare di ammettere il fallimento, alcuni fisici hanno provato a
convertire il commento di Feynman (“I teorici delle stringhe non fanno previsioni, forniscono
giustificazioni”) da critica a nuovo modo di portare avanti la scienza teorica» (p. 253).
Capitolo 18 – Altri punti di vista
«Questo libro ha passato in rassegna lo stato attuale della fisica delle particelle fondamentali da un
punto di vista molto particolare: quello di un fisico delle particelle con mentalità matematica.
L’enfasi è stata posta sul Modello standard, la matematica su cui si fonda e le tecniche sperimentali
basate sugli acceleratori di particelle che hanno portato alla sua scoperta e le cui limitazioni rendono
difficile fare ulteriori progressi». «Esistono altri punti di vista suo problemi della fisica delle
particelle, e questo capitolo ne considererà alcuni».
[Oltre agli acceleratori … il cosmo]
«Una domanda ovvia è se esista o no qualche altro modo di studiare le interazioni ad alta energia fra
le particelle. Alcune delle prime scoperte nella fisica delle particelle furono fatte non con gli
acceleratori, ma con lo studio dei raggi cosmici». «Produrre un’energia del centro di massa
equivalente a quella dell’LHC (1,4x10^13 eV) richiederebbe un raggio cosmico di energia pari a
10^17 eV, perché colpirebbe un bersaglio praticamente fisso. Sono stati osservati raggi cosmici di
queste energie e anche superiori, ma il loro numero è piuttosto basso: su ciascun metro quadrato
della superficie terrestre ne arrivano soltanto pochi al secolo» (p. 255) «Urti con energia del centro
di massa dieci volte più grande di quella ottenibile all’LHC avvengono circa un centinaio di volte
all’anno su una superficie di un chilometro quadrato» (p. 255s) «Nel 2005 è entrato in funzione
l’osservatorio Auger … I suoi rivelatori coprono 3000 chilometri quadrati in Argentina, e sono stati
progettati per osservare i raggi cosmici con le energie più alte che siano mai state osservate, circa
10^20 eV. Anche se l’osservatorio Auger non sarà in grado di dire molto sulle interazioni fra
particelle con queste energie, il solo fatto che ne esistano è di grande interesse». Infatti «A queste
energie così elevate, le particelle che viaggiano nello spazio intertellare sono deviate dai fotoni di
bassa energia che costituiscono la cosiddetta radiazione cosmica di fondo a microonde. Questa
diffusione fa perdere loro energia; pertanto ci si aspetta di poter osservare poche se non nessuna
particella con energie sufficientemente elevate da essere soggette a questo effetto di diffusione. Se
Auger vedesse queste particelle, ci si troverebbe di fronte a una nuova fisica».
«Il più grande fra tutti gli acceleratori di particelle è il Big Bang, quindi è naturale che negli ultimi
anni molti studiosi si siano rivolti alla fisica delle particelle dal punto di vista della cosmologia».
«Ben presto, dopo lo sviluppo del Modello standard nei primi anni Settanta, alcuni fisici delle
particelle decisero di provare a “usarlo” per modellizzare il Big Bang». Ora «la moderna teoria
cosmologica suggerisce che l’universo sia stato molto più caldo e denso in momenti sempre più
vicini a quello del Big Bang. Alte temperature significano alte energie delle particelle coinvolte,
pertanto la speranza era quella che l’osservazione di effetti dovuti a fenomeni avvenuti nei
primissimi momenti dopo il Big Bang potesse permettere di capire qualcosa sul comportamento
delle particelle ad energia così elevate. Sfortunatamente non è possibile andare così indietro nel
tempo, ma è soltanto possibile vedere come tutto è venuto fuori» (p. 256). «L’universo iniziale era
costituito in gran parte da idrogeno ed elio. I modelli dell’universo primordiale basati sulla fisica
delle particelle del Modello standard sono in grado di riprodurre la presenza massiccia di questi
elementi. Una questione che rimane ancora aperta è quella della bariogenesi: perché la materia che
costituisce il nostro universo è costituita prevalentemente da barioni (protoni e neutroni) con appena
qualche anti-barione (anti-protoni e anti-neutroni)? … bisogna dare una spiegazione
dell’asimmetria» e se «esistono molte possibili sorgenti per questa asimmetria», «rimane poco
chiaro come siano andate esattamente le cose». «Tra la fine degli anni Settanta e l’inizio degli anni
Ottanta c’era molto ottimismo riguardo al fatto che la cosmologia avrebbe fornito alla fisica delle
particelle alcune informazioni sulla fisica coinvolta alle scale energetiche delle teorie di grande
unificazione, ma sfortunatamente questo non è accaduto. Forse la risposta al problema della
bariogenesi risiede nella fisica alla scala GUT, ma una risposta non ambigua a questa domanda
rimane ancora difficile da dare». Così «l’attenzione è stata rimandata dai primi tempi, i più attivi, a
quelli più recenti, in cui si hanno a disposizione molti più dati sperimentali».
«Il fondo cosmico a microonde (CMB) è la radiazione scoperta da Arno Penzias e Robert Wilson
nel 1965. Si tratta della radiazione di corpo nero dell’origine cosmologica alla temperatura
estremamente bassa di 2,7 gradi Kelvin. In accordo con la teoria attuale, questa radiazione è
costituita dai fotoni residui provenienti da un periodo di 400 000 anni posteriore al Big Bang, il
tempo in cui gli elettroni e i protoni hanno smesso di essere in un plasma caldo di particelle libere e
si sono combinati per formare atomi elettricamente neutri», così questi fotoni residui «contengono
ancora informazioni sulla loro origine in questo punto relativamente antico nella storia
dell’universo» (p. 257). «Al tempo in cui la radiazione CMB è stata prodotta, la temperatura
dell’universo era di circa 3000 gradi Kelvin. Questa è una temperatura decisamente alta per gli
standard abituali, ma corrisponde all’energia di particelle pari a poche decine di elettronvolt». →
«Nel 1992, il satellite COBE (COsmic Microwave Background Explorer) è stato in grado di
osservare alcune asinotropie, o disuniformità nella radiazione CMB. Nel 2003 un esperimento con
un satellite più sofisticato, WMAP (Wilkinson Microwave Asinotropy Probe) è stato in grado di
riportare i primi risultati di un’analisi più accurata di questa disuniformità, raccogliendo un gran
numero di nuove informazioni sull’universo primordiale. Dal satellite WMAP continuano ad
arrivare nuovi dati, e un satellite di nuova generazione, chiamato Planck, sarà lanciato nel 2008 …
Una delle speranze è che questo satellite sia in grado di osservare gli effetti delle onde
gravitazionali dell’universo primordiale sulla polarizzazione della radiazione CMB», che aprirebbe
«una finestra sull’universo nelle sue primissime fasi, forse anche sulla supposta fase di espansione
esponenziale predetta dai modelli cosmologici inflazionari».
Attualmente «i cosmologi hanno costruito un “Modello standard” che solleva due grossi problemi
per i fisici delle particelle»: 1) «In questo modello soltanto il 5 per cento della densità di energia
dell’universo è contenuta nella materia ordinaria, costituita da barioni. Il 25 per cento è contenuto
nella materia oscura fredda, la cui natura rimane tuttora sconosciuta» (p. 258). «È possibile che la
materia oscura fredda sia costituita da un nuovo tipo di particelle stabili che non hanno carica
elettrica e non sono fortemente interagenti, ma che potrebbero avere effetti astrofisici ad interazioni
puramente gravitazionali. Queste ipotetiche particelle comprendono le cosiddette WIMP (Weakly
Interacting Massive Particles), e uno degli argomenti favoriti in favore delle versioni
supersimmetriche del Modello standard è forse che queste possono contenere tali particelle stabili»
(p. 258s). 2) «Alla fine, il 70 per cento della densità di energia dell’universo sembra essere
costituita da energia oscura, una densità di energia uniforme del vuoto (la costante cosmologica)».
Questi problemi che la cosmologia «ha sollevato possono essere considerati indicazioni importanti.
Esiste una nuova particella stabile che costituisce la materia oscura fredda? Qual è l’origine della
densità di energia del vuoto, e come la si può calcolare?» Entrambe ora sono irrisolte.
[E sul piano teorico …]
«Come abbiamo visto, la questione di come formulare una versione quantistica della relatività
generale, la teoria di Einstein della forza gravitazionale, rimane ancora aperta». «La struttura
matematica della relatività generale è molto simile a quella del Modello standard, poiché si tratta
essenzialmente di una teoria geometrica. Dal punto di vista di un esperto di geometria, i campi di
gauge di Yang-Mills sono connessioni che dicono come confrontare i campi in punti vicini. Anche
la relatività generale può essere espressa in termini di tali connessioni, che in questo caso
descrivono il modo di confrontare vettori in punti vicini» (p. 259). «Tuttavia la geometria alla base
della relatività generale, la geometria riemanniana, contiene una struttura aggiuntiva che non
compare nel caso di Yang-Mills. Questa struttura aggiuntiva è quella di una metrica, vale a dire un
modo di misurare la dimensione dei vettori, e queste variabili metriche richiedono un diverso tipo di
dinamica rispetto a quella dei campi di gauge di Yang-Mills» e che se si prova ad usare «in una
teoria di campo a piccole distanze, si incorre in problemi con infiniti che non possono essere trattati
con le tecniche standard della rinormalizzazione».
«La teoria delle stringhe cerca di affrontare questo problema assumendo che a piccole distanze i
campi fondamentali della teoria siano qualcosa di non geometrico: i modi di oscillazione di una
stringa».
«Un altro approccio radicalmente diverso al problema della gravità quantistica, e divenuto popolare
negli ultimi anni, è noto come gravità quantistica ad anelli (LQG)», che «fa uso delle variabili
geometriche di connessione usuali della relatività generale per la quantizzazione della gravità, ma
con metodi di quantizzazione non perturbativa» e «si tratta semplicemente di una teoria della
gravità che in linea di principio è indipendente dalle altre interazioni fra le particelle» (p. 260).
Un altro «approccio ancora più speculativo alla gravità quantistica, emerso dallo studio della
relatività generale, è quello che viene chiamato teoria dei twistori. Il primo a proporre tale
approccio è stato Sir Roger Penrose insieme ad altri collaboratori ad Oxford e in altri centri di
studio». Egli «assume il punto di vista secondo cui una teoria quantistica valida della relatività
generale non contenga soltanto la teoria dei twistori, ma richieda anche una revisione delle idee
fondamentali della meccanica quantistica». «La teoria dei twistori contiene idee sulla geometria
specifica degli spazi di quattro dimensioni, e fa largo uso degli aspetti geometrici degli spinori e
della geometria complessa» e al di là delle sue potenziali applicazioni alla gravità «si è rivelata
piuttosto utile in molti altri contesti, conducendo a soluzioni esatte di numerosi sistemi di equazioni
geometricamente interessanti» (p. 261). «Questi includono le equazioni della self-dualità della
teoria di Yang-Mills, che si erano rivelate tanto importanti per il lavoro di Donaldson sulla
topologia in quattro dimensioni» (p. 261s) e «nuove formule per alcune ampiezze di diffusione nelle
teorie quantistiche di Yang-Mills in quattro dimensioni, risultato che ha spinto Witten a provare a
esprimere queste ampiezze in termini di una teoria topologica di stringhe, in cui le stringhe non
vivono nello spazio-tempo fisico, ma nello spazio dei twistori. Benché questo abbia portato a nuovi
e interessanti metodi per calcolare ampiezze di diffusione, non ha ancora condotto alla sperata
equivalenza fra la teoria quantistica di Yang-Mills e un nuovo tipo di teoria delle stringhe».
«Un altro programma di ricerca speculativo che merita di essere menzionato è noto come geometria
non commutativa, ed è stato promosso dal matematico francese, e vincitore della medaglia Fields,
Aliain Connes». «Un’algebra è sostanzialmente una struttura matematica astratta, i cui elementi
possono essere moltiplicati e sommati in maniera consistente fra loro. … Esiste un profondo e
fondamentale collegamento fra i settori matematici della geometria e dell’algebra. Questo
collegamento associa a uno spazio geometrico un’algebra specifica: l’algebra delle funzioni definite
su tale spazio. Quest’algebra di funzioni è commutativa, vale a dire che, quando si moltiplicano tali
funzioni, non importa in quale ordine si esegue tale moltiplicazione». «Connes ha esplorato per
primo l’idea di studiare algebre non commutative più generali, pensando ad esse in termini di
algebre di funzioni su un tipo generalizzato di spazio geometrico» (p. 262).
Capitolo 19 – Conclusioni
«La ricerca di una comprensione degli oggetti più fondamentali della natura e di come questi
interagiscono per comporre il mondo fisico ha una storia lunga e illustre che è culminata in un
successo davvero fantastico nel corso del secolo appena passato. La scoperta del Modello standard è
una conquista intellettuale che sarà ricordata per il resto della storia umana».
«Un risultato inaspettato di questo progresso è stato che il campo della fisica teorica delle particelle
è ora diventato vittima del suo stesso successo per circa un quarto di secolo. Senza nessun nuovo
dato sperimentale a fornire qualche indizio su quale direzione prendere per fare nuovi progressi,
questo campo ha ristagnato e si è inoltrato in un vicolo cieco … la mancanza di utili contributi
sperimentali ha reso il sistema organizzativo tradizionale della fisica delle particelle seriamente
malfunzionante. Sono disperatamente necessari cambiamenti che permettano ai teorici delle
particelle di trovare il modo di vivere al di fuori delle rigide leggi date dal contatto diretto con
l’esperimento, e uno dei cambiamenti che dovrebbero essere apportati è un netto aumento della
trasparenza a cui sono valutati i risultati della speculazione teorica. Quando si poteva contare sul
fatto che prima o poi sarebbero apparsi nuovi risultati che avrebbero garantito ai teorici questa
“trasparenza”, non era così importante che i teorici stessi trovassero il modo di valutare se le idee
stessero funzionando nel modo in cui si supponeva che dovessero fare» (p. 263). Siccome poi
“riconoscere il fallimento è un aspetto utile della strategia scientifica. Soltanto quando il fallimento
viene riconosciuto si possono abbandonare i vicoli ciechi e i frammenti utilizzabili dei programmi
fallimentari possono essere riciclati”, «il fallimento del progetto della teoria delle superstringhe
deve essere riconosciuto e bisogna imparare la lezione di questo fallimento prima di poter nutrire la
speranza di andare avanti». Forse «LHC sarà in grado di rispondere alle domande sull’origine della
rottura di simmetria elettrodebole del vuoto, e questo rimetterà la fisica delle particelle sulla strada
giusta. Se questo non accadrà, è probabile che si dovrà aspettare un altro decennio, se non di più,
prima che si presenti un’altra opportunità» (p. 264).
John Horgan nel suo La fine della scienza, del 1996, «fece scalpore per l’idea secondo cui la
maggior parte delle grandi scoperte della scienza era stata fatta, e gli scienziati, rischiando di essere
relegati al solo ruolo di aggiungere dettagli alle teorie esistenti, stavano portando avanti quella che
lui chiama “scienza ironica”. Per scienza ironica Horgan intende la scienza che va avanti in “modo
speculativo, post-empirico”, qualcosa di molto simile alla critica letteraria, intimamente incapace di
convergere verso la verità» (p. 264s) e sebbene «egli applicasse l’idea della scienza ironica allo
sviluppo in molte scienze differenti, la fisica teorica delle particelle rappresentava il caso più
eclatante» (p. 265). «A me sembra che, se Horgan punta il dito precisamente su ciò che sta
accadendo nella fisica delle particelle in quanto vittima del suo stesso successo, il futuro a lungo
termine che egli prospetta per questo settore non sia una conseguenza necessaria», perché vari
esperimenti o possibili dati sperimentali sono alle porte.
[l’aiuto della matematica]
«Cosa ancora più importante, ho maggiore familiarità con la situazione di una scienza che Horgan
non prende in considerazione, la scienza matematica … scienza che ha fatto grandi passi nel xx
secolo ma, nonostante ciò, rimane ancora una gran quantità di matematica da comprendere a fondo,
e ci sono buone prospettive che un grande progresso si possa realizzare», visti anche i successi di
Wiles nella dimostrazione del teorema di Fermat nel 1994 e la dimostrazione della congettura di
Pincarè ad opera di Perelman e «in entrambi i casi la soluzione di questi problemi ha richiesto a
Wiles e Perelman di dedicare sette o più anni della loro vita all’impresa, facendo uso dell’intero
arsenale di tecniche della matematica moderna». «Tradizionalmente le due fonti maggiori di
problemi che spingono alla ricerca di nuova matematica sono state lo studio dei numeri e lo studio
della fisica teorica» (p. 266) «Abbiamo visto l’enorme effetto positivo che la teoria quantistica dei
campi ha avuto sulla matematica nel corso degli ultimi vent’anni, e quest’effetto è probabile che
continui. I matematici potrebbero un giorno essere in grado di ricambiare il favore fornendo ai fisici
nuove tecniche matematiche che essi potranno usare per risolvere i loro problemi, ma io credo che
ci siano anche altri modi in cui si potranno fornire ai fisici teorici esempi importanti».
«I matematici hanno un’esperienza storicamente molto lunga di come lavorare nel mondo
speculativo e post-empirico che Horgan chiama scienza ironica. Ciò che essi hanno imparato in
passato è che per concludere qualcosa a lungo termine, bisogna insistere vigorosamente
sull’assoluta chiarezza nella formulazione delle idee e sulla rigorosa comprensione delle loro
implicazioni». Anche se «la matematica moderna può a ragione essere accusata di spingere questi
standard troppo in là al punto di idolatrarli» e «spesso la ricerca matematica soffre perché la
comunità non è ben disposta a lasciar pubblicare le formulazioni vagamente speculative che
stimolano alcuni dei migliori nuovi lavori o analogamente i vaghi e imprecisi compendi di lavori
più vecchi che si rivelano essenziali per ogni tipo di letteratura divulgativa leggibile». Così
illuminante è la frase di Atiyah “Ma se la matematica deve ringiovanirsi ed essere innovativa dovrà
permettere l’esplorazione di nuove idee e tecniche che, nella loro fase creativa, dovranno
probabilmente essere incerte come in alcune delle grandi epoche del passato. Forse ora abbiamo
elevai standard di dimostrazione a cui mirare, ma, negli stadi iniziali dei nuovi sviluppi, dobbiamo
essere preparati ad agire con stile più piratesco” (p. 267)
Dunque «per i matematici, la questione è quanto vigorosamente bisogna difendere quella che essi
considerano la loro virtù centrale, quella del pensiero rigoroso e preciso, di fronte all’evidenza che
alle volte è necessario un insieme di comportamenti più permissivo per venire a capo di qualcosa».
«Storicamente i fisici non hanno mai avuto il minimo interesse per questa virtù, ritenendo di non
averne bisogno. Questo atteggiamento era giustificato in passato, quando c’erano dati sperimentali a
garantirne l’onestà, ma forse ora ci sono importanti lezioni che essi possono imparare dai
matematici. Per essere realmente scientifico, il lavoro speculativo deve essere oggetto di una
continua valutazione di quali siano le sue prospettive di raggiungere una situazione in cui fare
predizioni reali. Inoltre, si dovrebbe fare ogni sforzo per raggiungere, ovunque sia possibile, la
precisione del modo di pensare, e si dovrebbe essere sempre chiari riguardo a cosa si sia capito e
cosa no, e dove risiedano gli impedimenti per ottenere una comprensione maggiore», tanto più che è
«un campo che ora lavora principalmente su idee speculative e non può più fare affidamento sui
risultati sperimentali» (p. 268). Detto questo, per quanto riguarda la fisica delle particelle, «forse
sono richiesti aggiustamenti strutturali nell’organizzazione della ricerca» (p. 269).
«La bellezza e l’eleganza delle superstringhe risiedono nelle speranze e nei sogni dei suoi
praticanti», perché loro stessi dicono «che queste sono caratteristiche che una teoria fisica
fondamentale di successo quasi sicuramente avrà, ma … attualmente la migliore descrizione del
mondo fornita dalla teoria delle stringhe non è bella, né elegante», tanto che Atiyah, pur filostringhista, è arrivato a dire nel 2003 che “forse non abbiamo ancora trovato il corretto linguaggio o
la corretta struttura per scorgere la suprema semplicità della natura” ed ha detto che «la geometria
degli spinori potrebbe essere un posto dove cercare le nuove strutture geometriche necessarie» (p.
270). Atyia che, seppur molto influenzato da Witten, ha detto che “Ho scoperto che in quasi tutto
quello che ho fatto in matematica, Hermann Weyl c’era arrivato prima … Ritengo che il mio centro
di gravità si trovi nello stesso posto del suo. Hilbert era più algebrico; io non credo avesse le stesse
intuizioni geometriche. Von Neumann era più analitico e lavorò principalmente in settori applicati”.
L’autore così dice che nel libro ha «cercato di spiegare quella che io ritengo sia un’importante
lezione che ogni generazione di fisici, a partire dall’avvento della meccanica quantistica, dovrebbe
imparare di nuovo. Questa lezione è l’importanza dei principi di simmetria, espressa nel linguaggio
matematico della teoria delle rappresentazioni dei gruppi. La meccanica quantistica perde gran parte
del suo mistero quando viene espressa in questo linguaggio. La fonte principale dei problemi della
teoria delle superstringhe è che la teoria non è costruita su un fondamentale principio di simmetria o
espressa nel linguaggio delle teoria delle rappresentazioni. A meno che non si possa trovare un
modo di riformulare la teoria in una forma in cui questo sia possibile, la lezione della storia è che
essa non condurrà mai da nessuna parte» (p. 271). → «Verso la fine della sua vita, Hermann Weyl,
scrisse un libro divulgativo intitolato La simmetria, che trattava più di arte e bellezza che di
matematica. In questo libro egli pose l’accento su quanto la nozione di simmetria fosse centrale per
le classiche nozioni artistiche di bellezza, cominciando con una discussione del caso della simmetria
per riflessioni». «Per lui l’idea matematica della rappresentazione di un gruppo in termini di
simmetrie era una precisa incarnazione delle idee di eleganza e bellezza» (p. 271s).
«Se si prende il punto di vista di Weyl seriamente, per cercare una teoria fisica più bella del
Modello standard si deve fare una delle due cose seguenti: o trovare nuovi gruppi di simmetria oltre
a quelli già noti, o trovare metodi più potenti per sfruttare la matematica della teoria delle
rappresentazioni per raggiungere una comprensione fisica». → «Una delle grandi intuizioni del
Modello standard è l’importanza del gruppo delle simmetrie di gauge, ed è un fatto notevole che in
quattro dimensioni spazio-temporali non si conosca praticamente nulla delle rappresentazioni di
questo gruppo infinitodimensionale. Il motivo tradizionale» è che i fisici pensano che «soltanto la
trasformazione banale sia necessaria. Pensare in questo modo può davvero rivelarsi fuorviante
quanto pensare che lo stato di vuoto di una teoria quantistica possa non essere interessante». → «In
modo analogo, il principio fondamentale della relatività generale è quello dell’invarianza per
l’azione di gruppo di trasformazioni di coordinate (i diffeomorfismi), e ben poco è noto circa la
teoria delle rappresentazioni di questo gruppo». → «Forse il vero segreto della gravità quantistica
potrà essere trovato una volta che sarà meglio compresa la teoria delle rappresentazioni di questi
due gruppi». → «Queste speculazioni sulla possibilità di usare la teoria delle rappresentazioni per
superare il Modello standard ovviamente possono rivelarsi completamente errate. Tuttavia, io sono
convinto che ogni ulteriore sviluppo verso la comprensione dei più fondamentali costituenti
dell’universo richiederà l’abbandono, da parte dei fisici, delle ideologie fossilizzate della
supersimmetria e della teoria delle superstringhe, che hanno dominato gli ultimi decenni. Una volta
che l’avranno fatto, una cosa che potrebbero scoprire è che la meravigliosamente ricca interazione
fra la meccanica quantistica dei campi e la matematica, che ha già rivoluzionato così tanto entrambi
i soggetti, non era che all’inizio».