«L’immagine di Heisenberg e degli altri giovani del suo gruppo, riuniti a marciare in montagna alla ricerca di ispirazione, cominciò ad assumere aspetti inquietanti. Ciò che mi affascinava di questa nuova disciplina [la meccanica quantistica] era, in parte, il suo carattere peculiare, che la rendeva simile a una pratica esoterica. Studiando a lungo e meditando a fondo si poteva sperare di riuscire a cogliere la natura nascosta dell’universo» (p. xiii) «L’esperienza del passaggio dalla fisica alla matematica fu simile, in un certo senso, a quando, da bambino, mi trasferii dagli Stati Uniti alla Francia. La matematica e la fisica hanno linguaggi propri, distinti tra loro e incompatibili. Finiscono spesso per discutere delle stesse cose in termini reciprocamente incomprensibili. Le differenze tra le due discipline vanno ben oltre il semplice linguaggio, e hanno a che fare con storie, culture, tradizioni e modi di pensare molto diversi tra di loro. Proprio come quando ero bambino, scoprii che quando si fa un cambiamento del genere c’è molto da imparare, ma che alla fine ci si ritrova in possesso di un punto di vista biculturale molto interessante. Spero di riuscire a spiegare almeno in parte ciò che ho imparato sulla relazione complessa e sempre mutevole tra gli argomenti studiati in fisica e matematica, e tra le rispettive culture accademiche» (p. xv) La teoria delle stringhe «non fa predizioni, nemmeno quelle sbagliate, ed è questa stessa mancanza di falsificabilità ad aver permesso a tutto il settore di sopravvivere e prosperare. Una situazione del genere solleva interrogativi importanti, che prenderemo in esame. Un argomento di studio può essere considerato “scienza” se non fa alcuna predizione? Quando un filone di ricerca molto speculativo entra a far parte della scienza, e quando no? Cosa capita quando la speculazione non soggetta ai vincoli dell’esperimento si impadronisce del tutto di un settore scientifico?» (p. xvi) [Notare forti analogie con crisi borse mondiali di troppe speculazioni non fondate su scambi reali e in fondo lo stesso vale anche per la teologia se non è fondata sull’impegno di vita cristiana!] Nel «redigere una breve storia della meccanica quantistica e della teoria delle particelle», la prospettiva dell’autore «era diversa da quella della maggior parte degli esercizi di questo genere, che tendono a ignorare il ruolo svolto dalla matematica nella storia in questione» «la tesi che mi sento di sostenere è che, storicamente, una delle fonti di progresso principali della teoria delle particelle è stata la scoperta, in natura, di nuovi gruppi di simmetria e di nuove rappresentazioni di tali gruppi. Il fallimento del programma della teoria delle superstringhe può essere fatto risalire alla sua mancanza di qualsiasi principio fondamentale di simmetria. In assenza di dati sperimentali inattesi, un progresso sul piano teorico sarà possibile solo se gli studiosi smetteranno di concentrarsi sul programma che ha fallito, per dedicarsi all’arduo compito di capire meglio le simmetrie del mondo naturale» (p. xvii) «Fin da quando cominciai a interessarmi alla scienza, uno dei suoi aspetti più affascinanti era per me il fatto che la nozione di verità che essa implicava non faceva ricorso all’autorità. I giudizi sulla verità scientifica dovrebbero basarsi sulla consistenza logica delle tesi e sulle prove sperimentali in loro favore, non sull’eminenza di chi pretende di detenere la verità. L’assenza di tali prove sperimentali è all’origine della situazione controversa in cui si trova la fisica e che verrà esaminata in questo libro; le cose, tuttavia, sono state rese ancora peggiori dal conformismo, dal rifiuto di mettere in discussione le opinioni convenzionali e dalla mancata volontà di valutare onestamente i pro e i contro della teoria delle stringhe» (p. xix) [lo stesso mi pare valga per la teologia, ma in generale più o meno per tutte le scienze]. Capitolo 1 – La fisica delle particelle all’inizio del nuovo millennio → Situazione agitata «Einstein affermava il credo di Gross e della maggior parte dei fisici teorici: esiste un solo insieme di semplici leggi fondamentali che descrivono come funziona l’universo, e queste leggi sono determinate in modo univoco. Per determinare la teoria non c’è bisogno di parametri supplementari; una volta che si è capito quali sono le leggi, per formularle non è necessario specificare altri numeri». «L’abbandono del credo di Einstein tanto temuto da Gross si è materializzato nella dichiarazione, fatta da vari teorici di primo piano, che la teoria delle stringhe è compatibile con un numero incredibilmente grande di possibili descrizioni distinte del mondo, e che forse, quindi, le uniche predizioni che può fare sono quelle derivanti dal principio antropico, che consiste essenzialmente nell’idea che la nostra stessa esistenza metta dei vincoli alle leggi fisiche possibili. Queste devono essere tali da consentire a degli esseri intelligenti come noi di evolversi» (p. 4) Così attualmente la fisica si trova separata in due gruppi, filo-Gross e filo- Susskind, in cui il secondo prende in giro gli appartenenti al primo, perché «speravano tutto che le costanti di natura potessero essere derivate dalla simmetria meravigliosa di qualche teoria matematica […]. I fisici hanno voluto sempre credere che la risposta fosse unica. Di sicuro la risposta aveva qualcosa di speciale, ma penso che il mito dell’unicità sia una causa persa» (p. 5), mentre il secondo è accusato dal primo di «essere vittime di un “rifiuto di natura psicologica” e di fare della “scienza basata sulla fede”» (p. 6) Capitolo 2 – I mezzi di produzione → Cosa fornisce i dati per la fisica delle particelle «Gli acceleratori e i rivelatori di particelle sono i “mezzi di produzione” utilizzati per creare la base di dati sperimentali su cui si fondano tutte le elaborazioni teoriche relative alle particelle elementari. Il continuo perfezionamento di questi strumenti è stato l’elemento che più ha contribuito al progresso della teoria delle particelle per gran parte del secolo scorso [mahh, io direi che anche i raggi cosmici hanno contribuito e non poco!!!]. In questo capitolo spiegherò i principi fondamentali del funzionamento degli acceleratori, parlerò un po’ della loro storia e del loro stato attuale, e infine esaminerò le prospettive per il loro futuro» (p. 7) «Mentre la relatività ristretta mette in relazione il modo di misurare le dimensioni spaziali con quello di misurare le dimensioni temporali, la meccanica quantistica lega tra loro le misure di energia e di tempo. … due delle caratteristiche fondamentali della meccanica quantistica sono le seguenti: 1. esiste un’entità matematica, detta vettore di stato, che descrive lo stato dell’universo a un certo istante; 2. l’altra entità matematica fondamentale della teoria, oltra al vettore di stato, è detta hamiltoniana. Si tratta di un operatore che agisce sui vettori di stato, il che vuol dire che trasforma un dato vettore di stato in un altro Fino ad anni ’20 radioattività naturale. Fino agli anni ’50 principalmente raggi cosmici, ma nel frattempo sincrotroni e acceleratori che dagli anni ’50 sfondano. Dagli anni ’70 ecco i collider. «Senza la comparsa inaspettata di qualche nuova tecnologia rivoluzionaria, gli acceleratori del XXI secolo non avranno alcuna chance di continuare la crescita esponenziale che ha caratterizzato il secolo precedente. Per i fisici delle particelle, i teorici e gli sperimentali è cominciata un’epoca in cui dovranno imparare a convivere con questa nuova, dura realtà» (p. 29) Capitolo 3 – La teoria dei quanti → nuova visione del mondo fisico e sua matematica La teoria dei quanti e la sua storia. Riguardo alla struttura della meccanica quantistica «a seconda del contesto, può essere utile pensare agli stati quantomeccanici come vettori astratti nello spazio di Hilbert o come funzioni d’onda, ma i due punti di vista sono assolutamente equivalenti. La struttura concettuale e matematica della meccanica quantistica è estremamente semplice, e ha due componenti: 1) ad ogni istante, lo stato del mondo è descritto da un vettore nello spazio di Hilbert; 2) le quantità osservabili corrispondono ad operatori nello spazio di Hilbert» (p. 34). Va notato «come tale struttura fondamentale non sia probabilistica, ma deterministica tanto quanto quella della meccanica classica … La probabilità entra in gioco perché ciò che si misura direttamente non è il vettore di stato, ma i valori di alcune osservabili classiche. … Gli unici stati associati a valori ben definiti delle osservabili classiche sono degli stati speciali, detti autostati dell’operatore corrispondente. … Quando si effettua una misura, non si misura direttamente lo stato del sistema, ma si interagisce in qualche modo con quest’ultimo, proiettandolo in uno di quegli stati speciali caratterizzati da un valore ben definito per la particolare osservabile classica che si sta misurando. È qui che la probabilità entra in gioco, facendo sì che si possa solamente predire quali possano essere le probabilità di trovare certi valori per le varie osservabili classiche possibili» (p. 34s). Nel libro ricorrono spesso frasi simili alla seguente: «Questa disgiunzione tra le osservabili classiche che vengono misurate e la struttura concettuale sottostante della teoria è la causa di tutti quei risultati che vanno contro il nostro intuito, il quale invece si basa sulla fisica classica». «La nuova teoria richiese uno sforzo di adattamento non indifferente, non essendo possibile giustificarla attraverso l’intuizione fisica. Questa mancanza di Anschaulichkeit (“visualizzabilità”) preoccupava molto i fondatori della teoria. D’altra parte, quest’ultima aveva un potere esplicativo straordinario, poiché era in grado di predire con esattezza i dettagli di molte caratteristiche degli spettri atomici e di una vasta schiera di altri fenomeni fisici che avevano resistito a tutti i tentativi di spiegazione attraverso il linguaggio della meccanica e dell’elettrodinamica classica. Gli strumenti matematici utilizzati erano una novità per i fisici, ma erano ben noti a Hilbert e a molti altri matematici che lavoravano con Heisenberg a Gottinga» (p .35). Non si può poi non ricordare l’importante rapporto tra Schrödinger e il matematico Weyl (cf p. 37). Digressione matematica: i gruppi di simmetria e le rappresentazioni. «Quando ci sono delle trasformazioni di un sistema fisico che non cambiano le leggi fisiche che governano il sistema, si dice che quelle trasformazioni sono simmetrie del sistema fisico … Un insieme di trasformazioni di simmetria è un esempio di una struttura astratta che i matematici chiamano gruppo» (p. 38). «Dato un sistema fisico descritto mediante la meccanica quantistica, se il sistema possiede un gruppo di trasformazioni di simmetria, allora lo spazio quantistico di Hilbert degli stati è un esempio di una struttura matematica detta rappresentazione del gruppo. In parole povere, il gruppo è l’insieme delle simmetrie, e la rappresentazione è ciò che è soggetto alle trasformazioni di simmetria» (p. 38s). «Tra il 1925 e il 1926, Weyl si stava occupando del lavoro forse più importante di tutta la sua carriera: la formulazione di una parte significativa di quella che oggi è nota come la teoria delle rappresentazioni dei gruppi di Lie». «Per un matematico, un gruppo non è altro che un insieme di elementi astratti che possono essere manipolati moltiplicandoli tra di loro, con la caratteristica fondamentale che esiste un elemento particolare, l’elemento identità, e che ad ogni elemento è associato un elemento inverso. Sebbene questi gruppi astratti possano essere considerati come a sé stanti, la parte più interessante dell’argomento è la teoria delle rappresentazioni, nella quale ogni elemento astratto del gruppo viene rappresentato come trasformazione di qualcos’altro Le trasformazioni in questione sono trasformazioni di simmetria; la trasformazione non cambia del tutto le cose, ma lascia invariata qualche struttura che riveste un interesse particolare». «Quando si ha la rappresentazione di un gruppo, si può pensare a quest’ultimo come a un gruppo di simmetria: ognuno dei suoi elementi è una trasformazione di simmetria di qualcosa». «Un esempio semplice, anche se non banale, consiste nel considerare un gruppo di due elementi, rappresentati come due trasformazioni dello spazio tridimensionale. La prima trasformazione è quella banale: non cambiare assolutamente nulla. È quella che viene detta trasformazione identità» (p. 39). «La seconda trasformazione è quella non banale, ed è quella interessante. Consiste nel riflettere ogni cosa in uno specchio. Due riflessioni speculari consecutive ci riportano esattamente alla situazione di partenza. La matematica di un gruppo del genere è molto semplice: ci sono solo due elementi. … La rappresentazione è molto più interessante del gruppo stesso, poiché introduce il concetto di spazio tridimensionale insieme a una trasformazione interessante (la riflessione speculare) che può esservi applicata». «Un gruppo di Lie è detto anche gruppo continuo, dato che è formato da un numero infinito di elementi connessi tra di loro senza soluzione di continuità». «Un esempio semplice di gruppo di Lie e di una sua rappresentazione è quello delle rotazioni nel piano bidimensionale», che è possibile parametrizzare «in funzione di un unico numero, l’angolo di rotazione». Se poi «si pensa al piano come al piano complesso (il piano in cui le due coordinate corrispondono alla parte reale e alla parte immaginaria di un numero complesso), allora la rotazione può essere pensata non più come funzione di un angolo, ma di un numero complesso di lunghezza unitaria» (p. 40). Il gruppo delle rotazioni nel piano complesso «viene spesso chiamato gruppo unitario delle trasformazioni di una variabile complessa, e viene scritto così: U(1)». Ciò che poi è possibile osservare è che «la trasformazione corrispondente alla rotazione secondo un angolo è formalmente simile alla trasformazione di un’onda ottenuta variando la fase di quest’ultima» (p. 41). «A causa di questa analogia, spesso le trasformazioni di simmetria U(1) sono chiamate anche trasformazioni di fase». Le rotazioni di questo gruppo di Lie U(1) è un esempio «di trasformazioni commutative: quando due di queste sono effettuate in sequenza, non importa quale viene realizzata prima». «Aumentando il numero di dimensioni in gioco, le cose diventano immediatamente molto più complicate, ma anche più interessanti. In tre dimensioni si può pensare sempre al gruppo di rotazioni, rappresentate come rotazioni dello spazio tridimensionale … Se si effettuano due rotazioni intorno a due assi differenti, la rotazione complessiva che si otterrà dipenderà dall’ordine delle due rotazioni. Il gruppo delle rotazioni in tre dimensioni, quindi, è quello che si chiama un gruppo non commutativo. Era sulla teoria delle rappresentazioni di questo genere di gruppi che Weyl stava lavorando tra il 1925 e il 1926» (p. 42). «Due numeri complessi corrispondono a quattro numeri reali (due parti reali e due parti immaginarie), e queste trasformazioni, dunque, avvengono in quattro dimensioni (reali). A complicare ancora di più la visualizzazione interviene un’ulteriore componente geometrica, che non esiste quando si ha a che fare solamente con dei numeri reali. Nel piano complesso, moltiplicare per l’unità immaginaria (la radice quadrata di -1) corrisponde, da un punto di vista geometrico, a una rotazione di 90 gradi in senso antiorario. In quattro dimensioni, non c’è un solo asse di rotazione possibile, come nel caso bidimensionale, bensì un’infinità … L’identificazione delle quattro dimensioni con due numeri complessi determina uno di questi assi». «Nonostante questa mancanza di visualizzabilità, le trasformazioni di simmetria a più dimensioni complesse possono essere formulate facilmente per via algebrica. Il formalismo utilizzato si serve di matrici di numeri complessi; è il formalismo di cui Heisenberg non era tanto soddisfatto. In generale, a partire da un numero arbitrario N di numeri complessi, è possibile definire il gruppo di trasformazioni unitarie di N variabili (complesse) e indicarlo come U(N). Quello che si trova è che conviene scomporre queste trasformazioni in due parti: la parte che si limita a moltiplicare tutti gli N numeri complessi per lo stesso numero complesso unitario [una trasformazione U(1), come quella vista prima], e il resto. Alla seconda parte, in cui si cela tutta la complessità, è stato dato il nome di trasformazioni unitarie speciali di N variabili (complesse), SU(N)». «Il gruppo di simmetria SU(2) ha un ruolo molto speciale, che lo portò alla ribalta fin dagli albori della meccanica quantistica» (p. 43). Esso infatti «è legato strettamente al gruppo delle rotazioni in tre dimensioni reali … e quindi i sistemi fisici possono costituire delle rappresentazioni di questo gruppo. I matematici chiamano il gruppo delle rotazioni dello spazio tridimensionale con il nome di gruppo delle trasformazioni ortogonali in tre variabili (reali), e lo indicano con SO(3)». Ora «ogni rotazione in tre dimensioni corrisponde a due elementi distinti di SU(2), pertanto SU(2) è, in un certo senso, una versione raddoppiata di SO(3). Ad ogni sistema fisico è possibile associare un gruppo di simmetria … senza cambiare alcuna proprietà fisica». Ad esempio «le leggi che governano l’atomo hanno una simmetria rotazionale, e il gruppo SO(3) delle rotazioni tridimensionali è un gruppo di simmetria del sistema». Ora «in un sistema meccanico classico dotato di simmetria si possono definire delle quantità conservate, combinazioni della posizione e della quantità di moto che restano costanti mentre il sistema evolve nel tempo. Data la natura dello spazio tridimensionale, i sistemi fisici hanno due tipi standard di simmetria. La prima è rispetto alle traslazioni: si può spostare un sistema fisico in una qualunque delle tre direzioni possibili senza cambiare le leggi della fisica. Le tre quantità conservate, in questo caso, sono le componenti del vettore quantità di moto … La seconda simmetria standard è la simmetria rispetto al gruppo delle rotazioni SO(3)» (p. 44), «le componenti del momento angolare totale di un sistema isolato sottoposto a forze simmetriche rispetto alle rotazioni non cambiano». «Se si pensa nei termini della relatività ristretta di Einstein … c’è un altro tipo di traslazione, la traslazione lungo l’asse temporale. La quantità conservata corrispondente è l’energia». «L’esistenza di queste quantità conservate, insieme alle leggi di conservazione corrispondenti che ne sanciscono l’invarianza, è una delle caratteristiche più importanti di qualsiasi sistema fisico». «Il fatto che in meccanica classica esistano tali leggi di conservazione come conseguenza delle simmetrie di un sistema è noto alla maggior parte dei fisici come teorema di Noether» (p. 45). «Nel 1926, dopo aver terminato il lavoro sulla teoria delle rappresentazioni dei gruppi di Lie, Weyl rivolse la propria attenzione al problema di come utilizzare la teoria delle rappresentazioni come strumento per formulare le implicazioni di vari gruppi di simmetria nell’ambito della meccanica quantistica. Il suo libro sull’argomento, Gruppentheorie un Quantomechanik, fu pubblicato nel 1928, ed ebbe una grande influenza su matematici e fisici. Il formalismo della meccanica quantistica viola il nostro intuito quotidiano ma si sposa perfettamente con la teoria delle rappresentazioni dei gruppi. L’analisi delle implicazioni dell’esistenza di un gruppo di simmetria per un sistema fisico è in realtà ben più semplice nella meccanica quantistica che nella meccanica classica». Il problema però è che «negli anni Venti i linguaggi di fisica e della matematica avevano già imboccato strade diverse, e molti fisici ebbero delle difficoltà a seguire lo stile della scrittura di Weyl (p. 46), tanto che E. Wigner dovette scrivere un libro apposta, in cui «i gruppi e le rappresentazioni vi venivano spiegati con un linguaggio più vicino a quello cui i fisici erano abituati». «Dato un sistema fisico qualsiasi descritto dalla meccanica quantistica, se il sistema ha un gruppo di simmetria allora lo spazio di Hilbert dei suoi stati corrisponde precisamente a quel tipo di rappresentazione del gruppo di simmetria che Weyl stava studiando» In generale «nella meccanica quantistica, la relazione tra le quantità conservate e le simmetrie è molto più diretta che nella meccanica classica» (p. 47). «Al posto di una quantità conservata corrispondente a una trasformazione di simmetria, c’è semplicemente l’operatore che realizza una trasformazione di simmetria infinitesima sullo spazio di Hilbert dei vettori di stato» (p. 47s). Un sistema quantistico «possiede una simmetria U(1) intrinseca. A questa simmetria corrisponde una quantità conservata, la carica elettrica. In questo caso la legge di conservazione è il ben noto principio di conservazione della carica elettrica. Un altro degli aspetti fondamentali della fisica, dunque, la conservazione della carica, appare ora come il risultato di un semplice principio di simmetria». «Tra tutte le simmetrie standard dei sistemi fisici, quella che richiede l’analisi matematica meno banale è la simmetria rotazionale. Le rappresentazioni del gruppo di simmetria rotazionale SO(3) possono essere costruite tutte, in un certo senso, a partire da un’unica rappresentazione, la cosiddetta rappresentazione fondamentale: quella che si ottiene ruotando dei vettori tridimensionali nello spazio tridimensionale». Ora dalle osservazioni fatte sugli elettroni, Pauli notò che «molti aspetti degli spettri atomici avrebbero potuto essere capiti se l’elettrone avesse avuto una caratteristica peculiare, basata su coppie di valori. Ragionando in termini di stati quantizzati, sembrava che l’elettrone avesse il doppio degli stati che ci si aspettava. Una volta capita la relazione tra meccanica quantistica e la teoria delle rappresentazioni, divenne chiaro che ciò è dovuto al fatto che lo spazio di Hilbert per un elettrone non è una rappresentazione della simmetria rotazionale SO(3), bensì del gruppo correlato SU(2). Non dimentichiamo che SU(2) è una specie di versione raddoppiata di SO(3), e che si tratta del gruppo delle trasformazioni unitarie speciali su due variabili complesse. La rappresentazioni di SU(2) che definisce il gruppo è questa rappresentazione basata su insiemi di coppie di numeri complessi. Si tratta esattamente di ciò che serve per descrivere un elettrone» (p. 48). «Le proprietà della trasformazione SU(2) di una particella sono note come spin della particella. … Lo spin è un concetto tipicamente quantistico che si adatta perfettamente alla teoria delle rappresentazioni del gruppo di simmetria SU(2), ma che non ha un’interpretazione consistente in termini di fisica classica» (p. 49) Capitolo 4 – La teoria quantistica dei campi → Applicazione di novità a campi EM (QED) «Negli anni immediatamente successivi al 1925 la meccanica quantistica arrivò a spiegare il comportamento di una gran varietà di sistemi fisici. Una delle prime estensioni fu l’applicazione al campo elettromagnetico. Qui, i principi generali della meccanica quantistica poterono essere utilizzati per giustificare la quantizzazione delle onde elettromagnetiche scoperta per la prima volta da Planck e Einstein. Una teoria di campo classica (come l’elettromagnetismo) trattata secondo i principi della meccanica quantistica prese il nome di teoria quantistica di campo. Le eccitazioni quantizzate del campo elettromagnetico, che presero il nome di fotoni, avevano una proprietà che era fonte di confusione: il dualismo onda-particella» (p. 51). «Verso la fine del 1927, Dirac scoprì un’equazione speciale, che oggi porta il suo nome. L’equazione di Dirac è analoga all’equazione di Shrödinger, ma è consistente con la relatività ristretta, e spiega in maniera automatica lo spin dell’elettrone … e prediceva l’esistenza di una particella nuova, che sarebbe stata trovata di lì a poco. Sorprendentemente, un elemento cruciale di tutta la vicenda fu la riscoperta, da parte di Dirac, di un marchingegno algebrico noto come algebra di Clifford». La teoria di Dirac con «la sua combinazione, di una grande semplicità, con idee nuove e sorprendenti, insieme alla capacità di spiegare fenomeni ritenuti misteriosi fino a quel momento e di predirne di nuovi, ne fanno un paradigma per qualsiasi teorico particolarmente versato per la matematica». Con il suo arrivo «il lavoro su una teoria quantistica per il campo dell’elettrone poté cominciare seriamente» (p. 53). «Alla fine del 1929, Jordan, Pauli e Heisenberg avevano già pubblicato una teoria quantistica di campo completa per gli elettroni e il campo elettromagnetico. La teoria avrebbe preso il nome di elettrodinamica quantistica, o, per utilizzare il suo acronimo, QED (dall’inglese Quantum ElectroDynamics). Il 1929 segnò la fine del quadriennio più spettacolare di tutta la storia della fisica» (p. 53s) Essa però poi si arrestò per almeno tre motivi: 1) La guerra incipiente; 2) Con i primi acceleratori di particelle e le prime scoperte «i misteri e gli interrogativi da considerare aumentavano. La QED, la nuova teoria quantistica di campo, sembrava non aver nulla da dire sull’argomento»; 3) «La QED è una teoria di cui non si conosce ancora oggi una soluzione esatta. Il principale metodo di calcolo disponibile è una cosa nota come espansione perturbativa (p. 54) «Nell’approssimazione al prim’ordine alla QED reale appaiono molti fenomeni fisici interessanti, e la teoria approssimata è in buon accordo con i risultati sperimentali. Fin qui tutto bene. Ben presto, purtroppo, si scoprì che i calcoli del secondo e del terz’ordine della QED perturbativa sembravano non avere alcun senso». «La situazione era assolutamente scoraggiante, e si cominciò a pensare in maniera diffusa che nella QED ci fosse qualcosa di fondamentalmente errato», «pochi altri continuarono a cercare di dare un senso all’espansione perturbativa, e nel corso degli anni Trenta fu chiaro che l’origine del problema era una cosa che si chiama rinormalizzazione» (p. 55). Terminata la guerra i lavori teorici di H. Bethe, J. Schwinger, R. Feynman e Sin-itiro, che riuscirono «a portare a termine i calcoli in un’espansione perturbativa della QED opportunamente rinormalizzata, e a dimostrare che, in linea di principio, i calcoli potevano essere effettuati a qualsiasi ordine perturbativo» (p. 56) e poterono essere usati per comprendere la misura del cosiddetto Lamb shift, la cui esistenza «fece capire ai fisici teorici che gli effetti del QED di ordine superiore erano reale, e che andavano studiati». Gli accordi che si raggiunsero «tra un numero osservato sperimentalmente e la predizione della QED normalizzata è un’indicazione del successo evidente della QED come teoria fondamentale della natura». Va però detto che «se la nascita della meccanica quantistica fu seguita da vicino dai matematici del calibro di Hilbert, Weyl e altri ancora, per la teoria quantistica di campo le cose andarono in tutt’altro modo» (p. 57). Così «tra gli anni Quaranta e gli anni Sessanta la fisica e la matematica viaggiarono su strade separate. Fu un periodo in cui entrambi i campi fecero notevoli progressi, ma entrarono in contatto molto raramente» (p. 59) Capitolo 5 – La simmetria di gauge e la teoria di gauge → el. mat. importante per QED «Ci sono molti tipi diversi di teorie quantistiche dei campi, ma quelle che si sono rivelate più interessanti, sia sotto l’aspetto matematico che sotto quello fisico, sono quelle che chiamiamo teorie di gauge. Le teorie di gauge hanno una simmetria, nota come simmetria di gauge, e ancora una volta è Hermann Weyl ad aver giocato un ruolo importante in tutta la faccenda». «Uno dei principi guida seguiti da Einstein nello sviluppare la teoria [della relatività generale] fu il principio di covarianza generale, in base al quale la teoria doveva essere invariante per trasformazioni di simmetria che corrispondevano a variazioni locali delle coordinate utilizzate per parametrizzare lo spazio e il tempo». «Weyl notò che era possibile derivare le equazioni di Maxwell per il campo elettromagnetico estendendo il principio di simmetria della covarianza generale attraverso un nuovo principio di simmetria, che chiamò invarianza di gauge.» (p. 61) «Alla fine Weyl abbandonò la sua teoria di gauge unificata della gravità e dell’elettromagnetismo, ma l’idea che le equazioni di Maxwell potessero essere derivate dal principio di gauge restava allettante» (p. 62). «Schrödinger osservò che se si fosse reinterpretato il principio di gauge di Weyl in modo da applicarlo non alle dimensioni delle cose, ma alla fase di “qualcosa”, sarebbe stato possibile capire la condizione di quantizzazione … La scoperta della meccanica ondulatoria ad opera di Schrödinger, nel 1925, risolse il problema, dato che una funzione d’onda è una funzione complessa con una fase» (p. 63) Così «nel 1929 Weyl ritornò sull’idea di simmetria di gauge in un articolo famoso, intitolato L’elettrone e la gravitazione. In quell’articolo affermava che si poteva effettivamente dedurre la teoria dell’elettromagnetismo dal principio di simmetria di gauge, il quale determina completamente le modalità di interazione di una particella carica con un campo elettromagnetico. In quello stesso articolo Weyl introdusse diverse altre idee. Mostrò come accoppiare in maniera consistente l’equazione di Dirac con un campo gravitazionale, dimostrando come definire in uno spazio-tempo curvo i cosiddetti campi spinoriali che costituiscono le soluzioni dell’equazione di Dirac» (p. 65). «La simmetria di gauge è una delle caratteristiche più importanti della QED dal punto di vista fisico, oltre ad essere una delle più attraenti sotto l’aspetto matematico … Allo stesso tempo, però, la simmetria di gauge porta a difficoltà tecniche di prim’ordine. Tutte le tecniche di calcolo e di approssimazione che potremmo essere tentati di usare sono inutilizzabili, poiché violano il principio di simmetria di gauge. Fu questa una delle ragioni principali per cui dall’inizio degli anni Trenta si dovette aspettare fino alla fine degli anni Quaranta per veder chiariti i dettagli della rinormalizzazione della QED. Nel corso degli anni Trenta e Quaranta, mentre cominciavano a studiare le cosiddette interazioni forti tra i protoni e i neutroni, i fisici capirono di trovarsi di fronte a un gruppo di simmetrie familiare. Prendendo i campi che descrivono il protone e il neutrone e unendoli in un unico campo descritto in ogni punto da due valori complessi, si scopre che le interazioni forti sono invarianti rispetto allo stesso gruppo SU(2) che avevamo visto nel caso dello spin. Dato che il fenomeno era stato osservato per la prima volta in fisica nucleare come relazione tra isotopi nucleari differenti, venne chiamato isospin. Si dice allora che le interazioni forti tra i nucleoni (protoni e neutroni) hanno una simmetria di isospin SU(2)» (p. 66) E «nel 1954 Chen Ning Yang e Robert Mills pubblicarono un articolo su una possibile generalizzazione della QED che, a loro avviso, avrebbe potuto essere utile come teoria quantistica di campo per la descrizione delle interazioni forti», basata su di una simmetria di gauge locale diversa da quella della QED. «Questa generalizzazione della simmetria di gauge ha preso il nome di simmetria di gauge di Yang-Mills, e oggi la loro teoria è nota come teoria quantistica di campo SU(2) di Yang-Mills. Yang e Mills scoprirono che la loro generalizzazione del principio di simmetria di gauge aveva caratteristiche molto interessanti, ma che conduceva a una teoria di capo dalle proprietà bizzarre» e siccome prediceva una tripletta di fotoni di massa nulla che «non era mai stata osservata, la teoria riscosse un interesse limitato». «Un problema ulteriore stava nel fatto che, per la teoria di Yang-Mills, le tecniche di rinormalizzazione che avevano permesso i calcoli di ordine superiore nella QED non funzionavano. Sembrava dunque che Yang e Mills avessero prodotto una teoria che non corrispondeva ad alcun fenomeno fisico conosciuto, e che probabilmente era anche inconsistente». Nonostante ciò «era, per molti versi, un modo molto interessante di generalizzare la QED, e negli anni seguenti diversi teorici lavorarono in maniera intermittente al problema di come calcolarne gli ordini superiori in maniera adeguata» (p. 67). Capitolo 6 – Il modello standard → Estensione QED a forza forte e debole «La storia della fisica delle particelle, teorica e sperimentale, nel terzo quarto del XX secolo è una vicenda complessa. … In retrospettiva, è chiaro che l’aspetto di gran lunga più importante di questa storia fu la formulazione di qualcosa che finì col prendere il nome di Modello standard. Il nucleo centrale di questo modello della fisica delle particelle vide la luce nel 1973 … Alla fine degli anni ’70, dopo aver ricevuto numerose conferme sperimentali, il Modello standard non aveva più concorrenti». «Ma cos’è? … In forma semplificata, il Modello Standard parte dalla QED, che è una teoria di gauge U(1), e la estende con due nuove teorie di gauge Yang-Mills. Una di queste si basa sul gruppo SU(2) e descrive le interazioni deboli, l’altra usa SU(3) per descrivere le interazioni forti. Oltre ai tre tipi di forze derivanti da queste tre teorie di gauge, l’altra componente fondamentale del Modello standard è la descrizione delle particelle che a tali forze sono soggette» (p. 69). «Queste particelle appartengono a tre famiglie quasi identiche, dette generazioni; particelle corrispondenti di due generazioni diverse differiscono tra di loro per la massa. La generazione di massa più piccola contiene tutte le particelle stabili che compongono il nostro mondo quotidiano: l’elettrone, il neutrino elettronico e i quark up e down. C’è un aspetto del Modello standard che resta ancora avvolto nel mistero: il vuoto non è simmetrico rispetto al gruppo di simmetria SU(2) della teoria di gauge delle interazioni deboli» (p. 70) Le interazioni deboli. Dopo che la QED «si era dimostrata capace di spiegare in maniera promettente la fisica atomica e le forze elettromagnetiche», sorsero due altri tipi di forze «che sembravano non aver assolutamente nulla a che fare con l’elettromagnetismo e la QED»: quella “forte” (perché più forte di quella elettromagnetica) e «che lega tra di loro i protoni all’interno del nucleo» e quella debole (perché più debole di quella elettromagnetica) «responsabile del decadimento radioattivo di certi nuclei». La teoria che spiegò la seconda forza «prese il nome di teoria V-A, con riferimento ai termini “vettore” e “vettore assiale” che descrivono le proprietà dell’interazione rispetto alle operazioni di simmetria di rotazione e di riflessione. La teoria V-A aveva una proprietà particolare: era chirale, cioè distingueva la destra dalla sinistra. Ciò significa che la teoria non è simmetrica rispetto alla trasformazione di inversione speculare» (p. 70), «fatto che ancora oggi resta alquanto misterioso» (p. 71). Teoria di cui furono scoperte le analogie con la QED e che, passo dopo passo, portò al «modello unificato delle interazioni elettrodeboli», «noto oggi in egual misura come modello di Weinberg-Salam o di Glashow-Weinberg-Salam». T eoria che fu rinormalizzata grazie al lavoro di Gerard ‘t Hooft che nel 1971 «riuscì a dimostrare che le teorie di Yang-Mills erano rinormalizzabili» (p. 72) e così «la teoria di Yang-Mills SU(2)xU(1), che costituiva il modello di Glashow-Weinberg-Salam, era una teoria quantistica di campo rinormalizzabile, di cui, in teoria, sarebbe stato possibile calcolare in maniera consistente i termini dell’espansione perturbativa a qualsiasi ordine» (p. 72s). Questa teoria si basa sull’idea nuova del cosiddetto campo di Higgs, legata al problema della rottura spontanea di simmetria. «Le trasformazioni di simmetria considerate fino ad ora sono quelle che garantiscono l’invarianza delle leggi fisiche … una cosa non sempre evidente è che mentre la forma delle equazioni può essere invariante rispetto a una trasformazione di simmetria, in generale le soluzioni delle equazioni non lo saranno. Le leggi che governano l’evoluzione dello stato del mondo possono essere simmetriche, ma lo stato reale del mondo, di solito, non lo è … La mancanza di simmetria può valere per stati scelti a caso, ma in generale i fisici credevano che lo stato del vuoto fosse sempre simmetrico, e che nessuna trasformazione di simmetria fosse in grado di alterarlo». «Questa attitudine cominciò a cambiare nel corso degli anni Cinquanta, in gran parte sotto l’influenza di idee provenienti da un campo che all’apparenza non aveva nulla a che spartire con la fisica delle particelle, quello della fisica della materia condensata». I fisici di questo branca «non si interessano alle particelle elementari e alle loro interazioni, ma al comportamento di insiemi di molte particelle» (p. 73). Ora la teoria quantistica dei campi prevede un caso «in cui lo stato di minima energia non è invariante rispetto alle simmetrie della teoria», fenomeno che «è stato battezzato rottura spontanea di simmetria» (p. 74), ma ciò scoprirono di interessante i teorici delle particelle è che «come regola generale, l’effetto della rottura spontanea di simmetria non era quello di rendere approssimate delle simmetrie esatte … invece era la presenza di particelle di massa nulla a spin zero» che «entrano in gioco perché si può usare l’esistenza di una trasformazione di simmetria infinitesima che modifica uno stato di vuoto per definire un nuovo campo, descritto da una teoria quantistica dei campi dotata di particelle di massa nulla», idea che «divenne nota come teorema di Goldstone». Uno dei grandi successi di questa teoria fu «la teoria BCS della superconduttività, formulata nel 1957 da John Bardeen, Leon Cooper e Robert Schrieffer» (p. 75). Diversi fisici delle particelle elementari provarono a vedere se fosse possibile formulare teorie delle particelle elementari dotate di simmetrie di gauge di Yang-Mills soggette a rottura spontanea, con conseguente acquisto di massa da parte degli analoghi del fotone della teoria di Yang-Mills. Nel 1965, uno di questi fisici, lo scozzese Peter Higgs, propose una teoria del genere» e per farlo «dovette introdurre un nuovo campo … tale da causare automaticamente la rottura spontanea della simmetria di gauge della teoria, ed è attualmente conosciuto come campo di Higgs» (p. 76). «Ed è proprio di quest’idea che Weinberg e Salam si servirono nel 1967» (p. 77). Le interazioni forti. «La costruzione di acceleratori di particelle sempre più potenti, permettendo lo studio delle collisioni tra nucleoni ad energie sempre più elevate, aveva portato alla produzione di una quantità sconvolgente di nuove particelle», a cui ovviamente andava associato un campo. Si provò così a generalizzare la simmetria SU(2) di isospin «e nel 1961 arrivarono i primi successi, grazie a Yuval Ne’eman e Murray Gell-Mann» (p. 78) Quest’ultimo «stava lavorando alla generalizzazione della simmetria SU(2) di isospin», ma solo «alla fine del 1960, tornato al CalTech», si rivolse a un matematico «(Richard Block), e scoprì che ciò a cui si stava applicando era un problema matematico ben noto, risolto da molto tempo» e così nel 1961 «riuscì a dimostrare che le particelle osservate seguivano gli schemi che corrispondevano ad alcune rappresentazioni di SU(3)» che lo portò a predire l’esistenza di una particella «quella particella, la omega meno, venne scoperta nel 1964». «A partire da quel momento, il curriculum di qualsiasi teorico delle particelle cominciò a includere qualche contatto con i gruppi di Lie e le loro rappresentazioni» (p. 78). «Rimaneva ancora da capire come mai, tra le rappresentazioni utilizzate per classificare le particelle soggette all’interazione forte, mancasse quella ovvia, quella che interviene nella definizione del gruppo SU(3): la rappresentazione fondamentale basata su un tripletto di numeri complessi. Qualsiasi rappresentazione di SU(3) può essere costruita a partire da tripletti del genere, ma se questi corrispondessero a particelle dovrebbero avere cariche elettriche frazionarie anziché intere, per la precisione multiple di un terzo della carica elettrica di un elettrone o di un protone. Simili particelle dotate di carica frazionaria non erano mai state osservate. GellMann finì col pensare che la possibilità dell’esistenza di particelle del genere andasse presa sul serio, e diede loro un nome: quark» (p. 79) «Dopo essere riusciti con successo a classificare le particelle mediante la teoria delle rappresentazioni si SU(3), i fisici si affrettarono a recuperare il tempo perduto, e si misero alla ricerca di gruppi di simmetria più generali … uno dei candidati presi in considerazione fu il gruppo di simmetria SU(6)». Però «nel 1967, dopo che Sidney Coleman e Jeffrey Mandula formularono quello che oggi è noto come teorema di Coleman-Mandula, quel campo di ricerca si interruppe quasi completamente». «Nel corso degli anni Sessanta, la simmetria SU(3) di Gell-Mann venne sviluppata ed estesa ulteriormente, servendosi di un insieme di concetti che, per ragioni troppo lunghe da spiegare, presero il nome di algebra delle correnti. Un aspetto dell’idea dell’algebra delle correnti era che le interazioni forti avrebbero dovuto avere non una, ma due simmetrie SU(3) differenti». La prima «è la SU(3) originale di Gell-Mann, e lo stato di vuoto non viene modificato da trasformazioni di simmetria SU(3) di questo genere. È la simmetria che porta alla classificazione delle particelle secondo la rappresentazione di SU(3)» (p. 80). «L’altra SU(3), in un certo senso, cambia segno se si effettua una riflessione speculare. Il vuoto non è un invariante rispetto a questa SU(3), che pertanto è una simmetria rotta spontaneamente … Trattandosi di un esempio di rottura spontanea che non riguarda una simmetria di gauge, vale il teorema di Goldstone. Pertanto dovrebbero esserci otto particelle di Nambu-Goldstone, prive di massa, corrispondenti alle otto dimensioni di SU(3). Sono stati trovati otto pioni con le proprietà giuste per essere le particelle di Nambu-Goldstone della teoria, ma la loro massa non è nulla. D’altro canto, la massa di queste otto particelle è molto più piccola di tutte le altre particelle soggette all’interazione forte, dunque il modello è almeno approssimativamente corretto» (p. 80s). «Furono sviluppati vari metodi di calcolo, che consentirono ai fisici di servirsi dell’algebra delle correnti per calcolare la proprietà dei pioni e delle loro interazioni … l’incapacità di rendere conto di alcune situazioni con semplici ragionamenti di simmetria venne battezzata anomalia chirale. Chirale perché «la simmetria in questione cambia di segno rispetto alla riflessione speculare. Il termine anomali viene utilizzato quando, in certe teorie quantistiche di campo, i ragionamenti di simmetria standard non funzionano come si vorrebbe». Ora «a partire dal 1967 i fisici sperimentali che lavoravano al nuovo acceleratore lineare da 20 GeV di SLAC cominciarono una serie di esperimenti il cui obiettivo era misurare la diffusione (scattering) degli elettroni su un bersaglio di protoni», esperimenti che «diedero dei risultati assolutamente inattesi». «Un’interpretazione dei dati osservati fu che il protone non era un oggetto privo di struttura di dimensioni dell’ordine di 10-15 metri, come ci si aspettava, ma che invece era formato da costituenti puntiformi» (p. 81). Il problema però è che «tra i prodotti delle collisioni di SLAC non vi era traccia di nuove particelle puntiformi. La situazione divenne ancora più confusa quando gli esperimenti fornirono dati di miglior qualità … non solo sembravano esserci costituenti puntiformi all’interno del protone, ma questi si comportavano come particelle libere, capaci di interagire solo debolmente. Sarebbe piaciuto a tutti poter identificare tali costituenti con i quark, ma era ben noto che le forze che tenevano insieme i quark all’interno di un protone dovevano essere molto intense, così intense che un singolo quark non avrebbe mai potuto essere isolato e osservato separatamente». «Verso la fine del 1972 David Gross e Sidney Coleman si erano imbarcati in un progetto il cui scopo era dimostrare che i risultati di SLAC non potevano essere interpretati nell’ambito di una teoria quantistica dei campi. La loro fonte di ispirazione era una nuova interpretazione di tutta la questione della rinormalizzazione nella teoria quantistica dei campi, ad opera di Kenneth Wilson, il quale aveva notato un’analogia stretta tra la rinormalizzazione e la teoria delle transizioni di fase nella fisica della materia condensata. L’idea di Wilson era che in una teoria quantistica dei campi l’intensità dell’interazione non dovesse essere considerata come un semplice numero, ma come qualcosa che dipendeva dalla scala di distanze che si stava analizzando» (p. 82). Ora «nella QED, l’intensità di interazione a grandi distanze è data dal parametro =1/137, dal quale dipendono anche le dimensioni relative dei termini dell’espansione perturbativa. Se si prova a determinare quale dovrebbe essere per la QED l’intensità di interazione a distanze più piccole, si scopre che al diminuire della distanza l’intensità di interazione effettiva aumenta. A distanze piccolissime, quando l’intensità di interazione è così grande da far sì che i termini superiori smettano di diventare sempre più piccoli, l’espansione perturbativa diventa inutilizzabile». «Venne dimostrato che quasi tutte le teorie quantistiche di campo si comportavano come la QED; ce ne era una, però, che presentava dei calcoli particolarmente complicati. Era la teoria di Yang-Mills di cui ‘t Hooft e Veltman avevano dimostrato da poco la rinormalizzabilità e la possibilità, almeno teorica, di effetturarne i calcoli». Ad aiutare Gross e Coleman a Princeton arrivò Wilczek, come dottorando di Gross, e che «cominciò a lavorare al calcolo dell’intensità di interazione effettiva di Yang-Mills» (p. 83). Il risultato dei suoi calcoli, come quelli di un discepolo di Coleman, Politzer, fu che «nella teoria di Yang-Mills, al diminuire della distanza, l’intensità di interazione effettiva diventa più piccola, non più grande. A questa nuova proprietà venne dato il nome di libertà sintotica: a distanze (asintoticamente) sempre più piccole, le particelle si comporano sempre di più come se si stessero muovendo liberamente, e non come se stessero interagendo tra di loro. … Il contraltare della libertà asintotica a corte distanze era il fatto che all’aumentare della distanza aumentava anche l’intensità dell’interazione. Questo meccanismo, in cui una forza aumenta all’aumentare della distanza, facendo sì che i quark siano sempre legati tra di loro, è detto talvolta “schiavitù infrarossa”». «Finalmente era disponibile una teoria quantistica di campo delle interazioni forti. Si sapeva da un po’ che, per trovare un accordo tra il modello a quark di Gell-Mann e i dati sperimentali, ognuno dei tre quark originali di Gell-Mann doveva presentarsi in tre varietà differenti, e la proprietà che distingueva tali varietà venne battezzata colore». «Trasformando la simmetria tra i tre colori in una simmetria di gauge si otteneva una teoria di Yang-Mills SU(3), cu venne dato ben presto il nome di cromodinamica quantistica», il cui acronimo è QCD (p. 84). La proprietà che distingue i tre tipi di quark è chiamata sapore. I sapori dei tre quark «sono detti up (“su”), down (“giù”) e strange (“strano”)». «La QCD ha una proprietà notevole, che nessun’altra teoria fisica possiede. Se si ignorano le masse dei quark, c’è solo un parametro libero, quello che determina l’intensità dell’interazione. L’approccio di Wilson alla rinormalizzazione, però, ci insegna che non si tratta realmente di un parametro, ma che dipende dalla scala di distanze prescelta, e che se lo si fissa a un certo valore a una data scala è possibile calcolare quanto varrà a tutte le altre. Nella QCD, quindi, la scelta dell’unità di distanza e la scelta del parametro sono legate, e una determina l’altra. Un comportamento del genere venne battezzato da Coleman trasmutazione dimensionale». Dunque «senza le masse dei quark, la QCD è una teoria completamente determinata, priva di parametri che possono essere fissati a piacere. Tale sorta di unicità è un obiettivo che i fisici teorici vorrebbero raggiungere sempre … questa è una delle ragioni che la reso popolare così rapidamente» (p. 85). Capitolo 7 – Il trionfo del Modello standard → Conferme e previsioni sperim. di ‘sto modello Nella primavera del 1973 «l’insieme di idee necessarie per la realizzazione del Modello standard era completo», «restava un grosso problema: affinché il modello di Glashow-Weinberg-Salam fosse consistente con quello che si sapeva sui quark, Glashow (insieme a John Ilioupolos e Luciano Maiani) aveva dimostrato nel 1970 che era necessario aggiungere un quarto sapore di quark ai tre di Gell-Mann. Questo ipotetico quarto sapore venne chiamato charm (“incanto”), ma non c’era alcuna prova sperimentale della sua esistenza. Dato che era sfuggito agli sperimentatori, ci si aspettava che avesse una massa molto maggiore degli altri quark». «A questo punto il Modello standard aveva, complessivamente, quattro sapori di quark (up, down, strange e charm), ognuno dei quali si presentava in tre colori diversi, e quattro leptoni. I leptoni erano le particelle prive di interazioni forti: l’elettrone, il neutrino elettronico, il muone e il neutrino muonico. Veniva naturale organizzare queste particelle in due generazioni. La prima generazione è quella formata dai quark up e down, dall’elettrone e dal neutrino elettronico. Sono le particelle con la massa più piccola, e sono tutte quelle necessarie a formare i protoni, i neutroni e gli atomi, in pratica l’intero mondo fisico di tutti i giorni. La seconda generazione di particelle (i quark strange e charm, il muone e il neutrino muonico) è identica in tutto e per tutto alla prima, ad eccezione del fatto che le particelle hanno una massa maggiore. Di conseguenza sono instabili, e quando vengono prodotte decadono rapidamente nelle particelle della prima generazione, che sono invece più leggere». (p. 87) «Il primo grande successo del Modello standard fu la scoperta inaspettata, nel novembre 1974, di una particella chiamata J/Psi. Questo evento e quelli che seguirono divennero noti come la rivoluzione di novembre» (p. 88). «I teorici del Modello standard capirono presto che la risonanza osservata dagli sperimentatori era uno stato legato di un quark charm e di un quark anticharm», così «la scoperta della J/Psi, oltre a dare una nuova, impressionante conferma della QCD e della libertà asintotica delle interazioni forti, fornì il quark charm che era stato predetto». «Dopo il 1974 le conferme sperimentali della teoria furono numerose, e provenienti da esperimenti di varia natura effettuati in tutto il mondo» (p. 89). «A energie più elevate, la QCD prevede che quando un elettrone e un positrone collidono, verranno prodotte tutte le varietà di quark possibili, in proporzioni calcolabili, e che tali quark (insieme ai quanti del campo di Yang-Mills delle interazioni forti, i gluoni) daranno origine a dei getti di particelle provenienti direttamente dalla regione di itnerazione. I getti furono osservati per la prima volta nel 1979, anche in questo caso proprio come era stato previsto. L’osservazione di questi getti, in un certo senso, equivale a osservare i quark, dato che all’origine di ogni getto c’è la produzione di un singolo quark». «La predizione più peculiare della teoria elettrodebole fu quella dell’esistenza degli equivalenti massicci del fotone, i quanti del campo di Yang-Mills SU(2). Si tratta di tre particelle: una coppia formata da una particella carica e dalla sua antiparticella (W+ e W-) e uno terza particella neutra (la Z0). Tutte e tre queste particelle furono osservate per la prima volta nel 1983 al nuovo collider protone-antiprotone del CERN, e anche qui esattamente con gli stessi valori di massa e gli stessi canali di decadimento predetti dal Modello standard. … Ciò non significa che non esistono altre particelle soggette ad interazioni elettrodeboli, ma che non sono mai state osservate, almeno fino a una massa pari alla metà di quella della Z0 (45 GeV)». «L’unica scoperta in qualche modo inaspettata di quegli anni fu quella dell’esistenza di una terza generazione di particelle, di massa ancora più elevata. La prima ad essere osservata fu la particella tau, un nuovo leptone che si comporta esattamente come un elettrone o un muone, ma ha una massa ancora più grande» (p. 90). «Una volta scoperto il leptone di terza generazione, il Modello standard prediceva che avrebbe dovuto esserci una coppia corrispondente di quark con due nuovi sapori: i quark top (“alto”) e bottom (“basso”)». «Il quark bottom fu osservato per la prima volta nel 1977 al Fermilab, e sempre qui, ma nel 1994, si ebbero i primi indizi dell’esistenza del quark top». «Ognuna delle tre generazioni osservate fino ad ora hanno un neutrino, di massa nulla o molto piccola. La misura della larghezza di risonanza della Z0 implica che se mai esistessero altre generazioni oltre alle prime tre, queste dovrebbero essere almeno un po’ diverse dalle precedenti, poiché dovrebbero avere un neutrino dotato di una massa maggiore di 45 GeV. Finora non esistono indicazioni in tal senso». Capitolo 8 – I problemi del Modello standard «Il successo del Modello standard è stato così travolgente che la fisica delle particelle elementari si trova ora nella situazione senza precedenti di non poter studiare alcun fenomeno sperimentale che sia in disaccordo con il modello. Qualunque esperimento di fisica delle particelle che sia stato concepito e portato a termine ha dato dei risultati in perfetto accordo con il Modello standard». «Resta, comunque, un numero ristretto di interrogativi cui il Modello standard non dà risposta, ma sui quali ci si aspetterebbe che una teoria davvero fondante abbia qualcosa da dire. I punti in sospeso sono più o meno questi»: - «Perché SU(3)xSU(2)xU(1)? … Inoltre, mentre la QCD [la parte SU(3)] possiede la bellissima proprietà di non avere parametri liberi, l’introduzione dei due altri gruppi SU(2) e U(1) porta con sé due parametri liberi, e sarebbe bello capire perché questi hanno il valore che hanno … A questo problema si collega il fatto che la parte U(1) della teoria di gauge non è asintoticamente libera, e dunque non può essere completamente consistente sul piano matematico». - «Perché i quark e i leptoni di ogni generazione seguono uno schema ben preciso? … Questo interrogativo racchiude a sua volta quello sul motivo per cui il campo di gauge SU(2) delle interazioni deboli agisce solo sulle particelle con una chiralità ben precisa». - «Perché tre generazioni? Potrebbero essercene altre, con masse più elevate, che non abbiamo ancora osservato?» (p. 93). - «Perché lo stato di vuoto rompe la simmetria di gauge elettrodebole? Se all’origine c’è realmente un campo di Higgs, allora servono almeno altri due parametri per descrivere l’entità della rottura di simmetria e l’intensità dell’interazione del campo di Higgs con se stesso. Perché tali parametri hanno proprio un certo valore? Uno dei parametri è determinato dalle proprietà osservabili delle interazioni elettrodeboli, mentre non è stato ancora possibile determinare l’altro per via sperimentale. Ecco perché il Modello standard predice l’esistenza di una particella di Higgs ma non ne predice la massa. Per giunta, la descrizione del campo di Higgs fornita dalla teoria quantistica dei campi standard non è asintoticamente libera, il che, una volta di più, porta a interrogarsi sulla sua consistenza matematica». - «Cosa determina nella teoria, le masse e gli angoli di mixing dei quark e dei leptoni? Le masse delle particelle hanno una distribuzione dall’aspetto decisamente casuale, nove numeri che la teoria non predice e che devono essere aggiunti a mano. Gli angoli di mixing sono quattro ulteriori parametri che determinano con precisione in che modo le forze elettrodeboli agiscono sulle particelle. Questi 13 parametri compaiono nel Modello standard, mentre l’intensità dell’interazione del campo di Higgs con i quark e i leptoni è totalmente arbitraria. Il problema è legato strettamente al precedente, dato che la nostra incapacità di predire tali parametri è dovuta, con ogni probabilità, al fatto che ci sfugge la vera natura della rottura della simmetria di gauge elettrodebole da parte del vuoto». - «Perché il parametro q vale 0? Tale parametro determina la dimensione di un possibile termine addizionale nella parte di QCD della teoria, un termine di cui gli esperimenti hanno dimostrato l’assenza». «Possiamo riassumere ciò che è insoddisfacente nel Modello standard in questo modo: restano da spiegare 17 numeri non banali, e sarebbe bello capire perché un diciottesimo parametro vale zero. Di quei 17, 15 compaiono nel Modello standard come parametri che determinano le proprietà del campo di Higgs. Il grosso del nostro problema con il Modello standard, dunque, sta nel trovare un modo per liberarsi del campo di Higgs o, in alternativa, nel capirne l’origine» (p. 94). «Una complicazione che è stata ignorata fino ad ora riguarda i neutrini. Nella versione più semplice del Modello standard, tutti i neutrini sono privi di massa. Di recente, alcuni esperimenti hanno fornito prove convincenti che le cose non stanno così … la prova che i neutrini hanno una massa viene dall’osservazione delle oscillazioni tra tipi diversi di neutrino». «Un’estensione semplice del Modello standard che tenga conto delle masse dei neutrini è relativamente facile da ottenere. Ne derivano sette nuovi parametri, analoghi alle masse e agli angoli di mixing dei quark. La situazione è complicata leggermente dal fatto che il neutrino ha carica elettrica, il che porta a due termini di massa distinti. Il meccanismo realmente responsabile delle masse e degli angoli di mixing rimane un mistero, tanto per i neutrini quanto per i quark». «Resta una parte importante della fisica che il Modello standard ignora completamente: la forza gravitazionale, che è governata dalla teoria della relatività generale di Einstein e la cui intensità è semplicemente proporzionale alla massa delle particelle» (p. 96). «La debolezza della forza gravitazionale è tale che tutti i suoi effetti osservabili possono essere capiti e calcolati senza ricorrere alla meccanica quantistica. Esiste comunque un campo gravitazionale, e, per consistenza con il resto della fisica, sarebbe bello riuscire a trattarlo con la teoria quantistica dei campi». Però «il suo quanto, il gravitone, interagirebbe così debolmente con qualsiasi altra cosa da essere totalmente inosservabile a qualunque esperimento esistente o addirittura concepibile. Se si applica alla relatività generale il metodo tradizionale di espansione perturbativa di una teoria quantistica dei campi, si ottiene una teoria non rinormalizzabile». «È il problema della gravità quantistica: come si fa a trovare una teoria di campo consistente di cui la relatività generale sia una buona approssimazione nell’ambito della fisica classica? Ciò che rende il problema particolarmente ostico è la mancanza di indicazioni sperimentali che guidino verso la soluzione, oltre all’impossibilità di verificare l’insieme delle predizioni prodotte da una qualsiasi ipotetica teoria della gravità quantistica» (p. 96). Capitolo 9 – Al di là del Modello standard → Come risolvere ‘sti problemi? «Quasi subito dopo l’avvento della QCD, i teorici delle particelle cominciarono a esplorare nuove idee, nella speranza che da queste giungesse una risposta ai problemi lasciati aperti dal Modello standard». Vediamo insieme i programmi di ricerca, che però brancolanno tutti un po’ nel buio. Le teorie di grande unificazione. «Nel 1974 Glashow, insieme ad un post-doc di Harvard, Howard Georgi, creò la prima di una classe di generalizzazioni del Modello standard che sarebbero diventate note col nome di teorie di grande unificazione, o con l’acronimo GUT». «L’idea alla base di questi modelli era di unire la QCD e la teoria elettrodebole in un’unica teoria di gauge ricorrendo a un gruppo di simmetrie più vasto» SU(5) (p. 97). Pur non risolvendo il primo interrogativo (perché SU(5)?), il modello «faceva balenare la possibilità di calcolare due dei parametri del Modello standard, vale a dire quelli che fornivano le intensità relative delle tre forze corrispondenti ai tre gruppi del Modello standard» e «invece del complicato sistema di rappresentazioni SU(3)xSU(2)xU(1) per una generazione di leptoni e quark, Georgi e Glashow riuscirono a sistemare le particelle di una generazione in due sole rappresentazioni del gruppo di simmetria SU(5)». Però «il modello non era in grado di dire niente sul fatto che ci fossero tre generazioni». «Un’altra cosa su cui la GUT SU(5) non aveva nulla da dire era a proposito della particella di Higgs o del meccanismo di rottura di simmetria del vuoto; anzi, peggiorava notevolmente il problema». «Tra le predizioni della GUT SU(5) ce n’è una che potrebbe essere verificata sperimentalmente. Dato che la sua simmetria di gauge correla i quark e i leptoni, un quark all’interno di un protone potrebbe trasformarsi in un leptone, portando alla disintegrazione del protone. La frequenza di un simile decadimento è molto bassa … la teoria predice per la vita media di un protone un valore dell’ordine di 10alla 29 anni» (p. 98). Partirono degli esperimenti verso la fine degli anni Ottanta che «ben presto riuscirono a dimostrare che la teoria SU(5) doveva essere sbagliata. La vita media del protone non può essere di 10alla29 anni: non può essere inferiore a 10alla31-10alla33 anni, a seconda delle ipotesi scientifiche sui canali di decadimento. In un classico esempio di applicazione del metodo scientifico, era stato dimostrato che la teoria SU(5) doveva essere sbagliata: una sua predizione ben precisa era stata sottoposta a controllo sperimentale e si era rivelata sbagliata, e la teoria ne era risultata falsificata». «La GUT SU(5) non fu che la prima di una grande classe di teorie su cui lavorarono in molti dal 1974 in poi», però «il fatto che l’esperimento avesse smentito la più semplice delle GUT e non avesse portato alcuna prova a favore di quelle più complicate indicava chiaramente la necessità di nuove idee». Il technicolor. «Buona parte dei problemi del Modello standard deriva dall’introduzione del campo di Higgs e dalla relativa arbitrarietà del modo in cui interagisce con tutti gli altri campi elementari. Dato che il campo di Higgs stesso non è mai stato osservato, la tentazione di trovare qualche altro meccanismo che ne svolga il ruolo è molto forte» (p. 99).«Un altro modo possibile per arrivare a questo risultato consiste nel trovare altre particelle e altre forze tali che lo stato di minima energia rompa la simmetria SU(2). In questo caso la rottura spontanea di simmetria è detta dinamica, ed è analoga a ciò che capita nel caso della superconduttività», infatti «in un superconduttore non c’è un campo elementare che provoca la rottura di simmetria, ma è la dinamica dell’interazione tra gli elettroni e il solido che questi attraversano a far sì che lo stato di minima energia non sia invariante rispetto alla simmetria di gauge». Però «lo stato di vuoto standard di una teoria quantistica dei campi, così come viene studiato in una teoria perturbativa, è invariante rispetto alle simmetrie della teoria, e quindi nell’approssimazione perturbativa non c’è alcuna rottura dinamica di simmetria». Ora «un tipo di forza non perturbativa in grado di produrre uno stato di vuoto non invariante è l’interazione forte tra i quark della QCD … nella QCD ci sono le due simmetrie approssimate SU(3) del sapore, una delle quali è rotta spontaneamente dalla dinamica forte della teoria». Nel 1978, in maniera indipendente l’uno dall’altro, Steven Weinberg e Leonard Susskind proposero un modello in grado di» realizzare la rottura dinamica della simmetria. «Quello che suggerivano era l’esistenza di un’altra interazione forte sconosciuta, molto simile alla QCD, governata da una teoria di gauge proprio come la QCD, ma con un gruppo di simmetria differente. Visto che le cariche della QCD erano state chiamati colori, la teoria prese il nome di technicolor» (p. 100). Essi «dimostrarono che se l’analoga della SU(3) rotta spontaneamente nell’algebra delle correnti veniva rotta nella teoria del technicolor nello stesso modo della QCD, la simmetria di gauge delle interazioni deboli avrebbe presentato una rottura di simmetria dinamica, e non ci sarebbe stato bisogno di un campo di Higgs. I mesoni più leggeri della teoria del technicolor svolgerebbero il ruolo giocato dal campo di Higgs nella teoria di gauge elettrodebole standard di Glashow-Weinberg-Salam» (p. 100s). Il problema è che «poiché ci si aspetta che i quark e i leptoni acquisiscano la propria massa dall’interazione con il campo di Higgs, se si toglie il campo di Higgs serve un nuovo meccanismo di generazione delle masse. Affinché la cosa funzionasse con il technicolor, fu necessario introdurre un ulteriore gruppo di forze e di relativi campi di gauge, cui venne dato il nome di technicolor esteso». «A quel punto, la teoria proposta era diventata piuttosto complicata, e postulava l’esistenza di un gran numero di particelle mai osservate. Tutte queste nuove particelle erano soggette all’interazione forte, e quindi non c’era un modo affidabile di calcolare con precisione quali sarebbero stati i loro effetti. La teoria, dunque, non era in grado di fare alcuna predizione accurata, e sembrava aver bisogno di troppe aggiunte complicate». «Se un’idea come quella del technicolor è vera, non appena le energie raggiunte dagli acceleratori saranno abbastanza alte da vedere ciò che capita alla scala della rottura dinamica della simmetria elettrodebole (250GeV), gli esperimenti dovrebbero essere in grado di evidenziare un comportamento abbastanza diverso da quello previsto dal Modello standard con il campo di Higgs. aL CERN, l’LHC dovrebbe avere un’energia sufficiente» (p. 101). La supersimmetria e la supergravità. «Un paio d’anni prima del consolidamento del Modello standard, due gruppi di fisici russi, a Mosca e a Kharkov, pubblicarono in maniera indipendente degli articoli su un’idea per un nuovo genere di simmetria, cui presto venne dato il nome di supersimmetria» (p. 101s). «Al lavoro di Evgeny Lichtman e di Yuri Golfand del 1971, e a quello di Vladimir Akulov e Dmitri Volkov del 1972, si aggiunse nel 1973 un’ulteriore versione della stessa idea, ad opera dei due fisici del CERN, Julius Wess e Bruno Zumino». Se il lavoro dei russi passò largamente inosservato, quello «di Wess e Zumino, invece, ricevette molta attenzione, e trovò terreno fertile, essendo apparso solo pochi mesi dopo la libertà asintotica, quando molta gente si era messa alla ricerca di nuove idee su come andare oltre il Modello standard». Per capirlo serve però un riassunto «si suppone che qualsiasi tipo di teoria quantistica abbia le simmetrie spazio-temporali fondamentali corrispondenti alle traslazioni e alle rotazioni nello spazio-tempo quadridimensionale. Ad ogni simmetria corrisponde un operatore quantistico sullo spazio di Hilbert che determina gli effetti di una trasformazione di simmetria infinitesimale sullo stato fisico». → «Le traslazioni nelle tre dimensioni spaziali corrispondono alle tre componenti dell’operatore quantità di moto, e le traslazioni nel tempo corrispondono all’operatore energia. Le rotazioni nello spazio tridimensionale corrispondono all’operatore momento angolare, anch’esso dotato di tre componenti. Infine ci sono gli operatori di boost, associati alle trasformazioni che mescolano le coordinate spaziali e temporali mantenendo invariante il cono-luce». → «Il gruppo di simmetria che include tutte le simmetrie spazio-temporali è detto gruppo di Poincaré, dal nome del matematico francese Henry Poincaré. In matematica, un’algebra è essenzialmente un insieme di oggetti astratti con una regola per moltiplicarli e addizionarli in maniera consistente. Gli operatori che generano simmetrie spazio-temporali infinitesimali formano un’algebra detta algebra di Poincaré. A qualunque gruppo di Lie di trasformazioni di simmetria può essere associata un’algebra di trasformazioni di simmetria infinitesimali, detta algebra di Lie, e l’algebra di Poincaré non è altro che la l’algebra di Lie associata al gruppo di Poincaré» (p. 102). «Quello che avevano scoperto i fisici russi era un modo consistente di estendere l’algebra di Poincaré delle simmetrie spazio-temporali infinitesimali con l’aggiunta di nuovi operatori. La nuova algebra estesa venne chiamata algebra di supersimmetria». Se si cerca di costruirne gli «operatori nell’ambito di una teoria quantistica dei campi, si scopre che hanno la proprietà peculiare di mettere in relazione tra di loro i bosoni e i fermioni». → I bosoni sono particelle che «se li si scambia tra di loro lo stato quantico del sistema resta lo stesso». «È un dato fondamentale delle teorie quantistiche dei campi, ed è stato dimostrato per la prima volta da Pauli, che le particelle con spin intero devono essere bosoni. Le uniche particelle fondamentali osservate dotate di una natura bosonica sono i quanti dei campi di gauge … il cui numero quantico di spin vale 1. Tra le particelle bosoniche di cui si ipotizza l’esistenza, abbiamo la particella di Higgs (spin 0) e il gravitone (spin 2)». → I fermioni invece «hanno la caratteristica che, se si scambiano due particelle fermioniche identiche, il loro vettore di stato resta lo stesso, ad eccezione di un segno meno. Ciò implica che non si possono mettere due fermioni identici nello stesso stato (poiché l’unico vettore di stato uguale al proprio opposto è il vettore 0). Pauli dimostrò anche che in una teoria quantistica dei campi i fermioni avranno spin smintero; tra gli esempi, abbiamo i quark e i leptoni conosciuti, tutti fermioni con spin ½». → I nuovi operatori che estendono l’algebra di Poincaré trasformano i bosoni in fermioni e viceversa, e quindi in una teoria quantistica dei campi che ha questo nuovo tipo di simmetria i bosoni e i fermioni vengono forzati ad essere correlati» (p. 103). Ora «se una teoria quantistica dei campi è supersimmetrica, per ogni particella bosonica o fermionica esistente nella teoria deve essercene un’altra di tipo opposto, con una differenza di spin di mezza unità»; quindi «la ragione principale per cui nessuno si era interessato molto ai primi lavori dei russi era che in natura non c’erano coppie di particelle che potessero essere collegate in maniera evidente a questo nuovo tipo di simmetria». Ma «con l’accettazione generale del Modello standard, l’attenzione dei teorici si volse alla ricerca di nuovi tipi di simmetria e di nuovi modi per mettere in relazione tra di loro quelle parti del Modello standard che apparivano separate». «Un’altra ragione per interessarsi alla supersimmetria era la speranza che potesse aiutare a risolvere il problema della costruzione di una teoria quantistica della gravità. Uno dei principi generali della relatività generale è la cosiddetta invarianza generale delle coordinate», che, in un certo senso, «è una simmetria di gauge locale corrispondente alla simmetria globale delle traslazioni spaziotemporali. La speranza era che la supersimmetria permettesse, in un modo o nell’altro, di derivarne una simmetria locale». Nel 1973 «Volkov cominciò a occuparsi conn Vyacheslav Soroka del problema di trovare una versione di gauge della supersimmetria che potesse portare a una teoria della gravitazione, e pubblicò dei risultati parziali. Lo sviluppo di quella che divenne nota come supergravità si rivelò un compito complesso, e una versione completa della teoria venne formulata solo nella primavera del 1976 da Daniel Freedman, Petr van Nieuwenhuizen e Sergio Ferrara. Negli anni immediatamente successivi molti fisici contribuirono allo sviluppo di strumenti di calcolo adatti alla teoria, e allo studio del problema della sua rinormalizzabilità» (p. 104). «A causa della supersimmetria, la supergrvità doveva contenere, oltre al gravitone, che è un bosone di spin 2, anche un fermione di spin 3/2, il gravitino. La speranza era che i contributi di calcolo della serie perturbativa provenienti dal gravitone e del gravitino si cancellassero a vicenda, permettendo di rinormalizzare la teoria standard della gravità quantistica. Venne dimostrato che ciò accadeva, ma non in maniera completa». → «Oltre alla versione più semplice della supergravità, i fisici cominciarono a studiare anche teorie più complesse, dette teorie di supergravità estese, che presentavano simultaneamente più supersimmetrie … Si scoprì che era possibile definire in maniera consistente teorie dotate di un massimo di otto supersimmetrie». «La teoria con otto supersimmetrie venne chiamata supergravità estesa con N=8, e per un po’ godette di una certa popolarità». Poco dopo il 1980 però «venne dimostrato che a un ordine sufficientemente elevato della serie perturbativa era probabile che la supergravità estesa con N=8 continuasse ad avere gli stessi problemi di non rinormalizzabilità della gravità ordinaria. Sembrava chiaro, inoltre, che anche con tutte le particelle provenienti dalle otto supersimmetrie non ce n’erano abbastanza per produrre tutte quelle del Modello standard» (p. 105). «Un modo per costruire la teoria della supergravità estesa con N =8 consiste nel partire dalla supergravità più semplice con un supersimmetria, ponendosi però in uno spazio a undici dimensioni. Se si ipotizza che in realtà, per qualche ragione oscura, tutto dipenda da quattro delle undici dimensioni, si può arrivare alla teoria estesa con N=8 per quelle quattro dimensioni». «L’idea di arrivare a una teoria unificata pensando a teorie fisiche con più di quattro dimensioni spaziotemporali risale al 1919. A quel tempo, il matematico Thodor Kaluza scoprì di poter derivare una teoria che comprendeva l’elettromagnetismo e la gravità partendo dalla teoria della relatività generale di Einstein, che in quegli anni era una novità, assumendo però che le dimensioni spaziotemporali fossero cinque, e che una di queste fosse avvolta ovunque su stessa come un piccolissimo cerchio. L’idea era che la dimensione extra fosse così piccola da non risultare visibile, se non indirettamente, attraverso l’esistenza della forza elettromagnetica. Le teorie contenenti questo genere di dimensioni aggiuntive erano diventate note come teorie di Kaluza-Klein, e venivano studiate da molti anni con interesse intermittente». «L’applicazione dell’idea di Kaluza-Klein alla supergravità consisteva nel cominciare dalla supergravità a undici dimensioni, per poi assumere che, per qualche ragione misteriosa, sette delle undici dimensioni si arrotolassero su se stesse fino a diventare piccolissime». «Ben presto venne dimostrato che l’idea era affetta da un problema fondamentale: la teoria che si otterrà sarà sempre simmetrica rispetto alla riflessione speculare, e quindi in questo modo non si otterrano mai le interazioni deboli, che non sono simmetriche rispetto alla riflessione speculare. La teoria, inoltre, continua ad essere affetta dal problema della non rinormalizzabilità». «Nonostante i suoi problemi, però, la teoria a undici dimensioni è stata riproposta di recente in un altro contesto» che vedremo tra poco (p. 106). Capitolo 10 – Nuove intuizioni nella teoria quantistica dei campi e nella matematica Chi mostrò le debolezze del sistema della supergravità fu il fisico Edward Witten, che, insieme ad altri, «migliorando la loro comprensione degli aspetti fisici della teoria quantistica dei campi, hanno esplorato un gran numero di connessioni tra queste teorie e la matematica, spesso portando nuove idee e prospettive emozionanti in aree della matematica già ben sviluppate» (p. 107). Edward Witten nacque nel 1951, ma solo alla fine del 1973 entrò nel dipartimento di fisica di Princeton, ma «senza neanche un diploma di fisica», imparò a «padroneggiare il soggetto in brevissimo tempo», cominciando «rapidamente con un imponente lavoro di ricerca» e risolvendo i problemi più che con tanti calcoli «facendo unicamente ricorso a principi primi». Ricevuto il dottorato di ricerca a Princeton nel 1976, passò per un po’ ad Harvard, per poi tornarvi come professore ordinario nel 1980 (p. 108) e spostarsi nel 1987 come professore all’Institute for Advanced Study e come visiting professor al CalTech; «ha ricevuto una lunga lista di onorificenze, incluso nel 1990 il più prestigioso premio per la matematica, la medaglia Fields. La strana situazione per cui la persona con maggior talento nella fisica teorica ha ricevuto l’equivalente del premio Nobel per la matematica, ma non un premio Nobel per la fisica, indica da un lato quanto sia insolita la figura di Witten, dall’altro quanto sia diventato insolito il rapporto fra la matematica e la fisica negli ultimi anni». I risultati da lui ottenuti, contenuti in una mole di lavori prodotti incredibile, «sono assolutamente il frutto di una combinazione di un grande talento e una grossa dose di duro lavoro. Tutti i suoi articoli sono modelli di chiarezza e profonda meditazione sui problemi affrontati, a un livello elevato che pochi possono eguagliare» (p. 109). Istantoni nelle teorie di Yang-Mills e in matematica. «Negli anni che hanno seguito la formulazione finale del Modello standard, uno dei principali temi di ricerca della fisica delle particelle è il continuo sforzo di sviluppare metodi di calcolo nella teoria quantistica dei campi in grado di superare i limiti di quello legato all’espansione perturbativa». «Nel 1975 quattro fisici russi (Alexander Belavin, Alexnader Poliakov, Albert Schwarz e Yuri Tyupkin) stavano studiando le equazioni di Yang-Mills e trovarono un modo di ottenere almeno alcune delle loro soluzioni, quelle che soddisfano la cosiddetta condizione di self-dualità. Tali soluzioni divennero celebri con il nome di istantoni BPST. Il nome “istantone” fa riferimento al fatto che queste soluzioni sono localizzate intorno a un punto nello spazio-tempo quadridimensionale: un istante. Una questione tecnica importante è che queste sono soluzioni per la cosiddetta versione euclidea delle equazioni di self-dualità, dove tempo e spazio sono trattati alla stessa stregua, ignorando le caratteristiche distintive che in relatività speciale rendono il tempo diverso» (p. 110). «Un aspetto importante di queste soluzioni istantoniche è il fatto che esse forniscono diversi punti di partenza per il calcolo di un’espansione perturbativa» (p. 110s). «L’espansione perturbativa ordinaria può essere pensata come valida per campi prossimi allo zero, ma è possibile sviluppare una espansione partendo non da campi nulli, ma da campi che sono soluzioni dell’equazione di self-dualità». «Questo tipo di calcoli, che utilizzano come punto di partenza soluzioni non banali delle equazioni classiche di campo è detto semiclassico». «Nel caso delle soluzioni classiche di istantoni BPST, questi calcoli furono eseguiti per la prima volta da ‘t Hooft nel 1976 e subito dopo da molti altri gruppi di fisici», arrivando «a descrivere nuovi fenomeni fisici che nell’espansione perturbativa standard intorno ai campi nulli non si presentavano», come: la «predizione del decadimento del protone», di cui «il tasso di decadimento predetto era molto più lento di quello predetto dalle teorie di grande unificazione»; «la non esistenza di un nono bosone di Nambu-Goldstone». «Durante gli anni immediatamente successivi, è stata eseguita una lunga serie di calcoli semiclassici facendo uso si varie soluzioni sia delle teorie di Yang-Mills, sia di altre teorie fisiche», ma alla fine sembra che essi «siano ancora troppo strettamente legati alla condizione di debolezza delle forze e, come l’espansione perturbativa standard, non siano validi in regimi le cui forze nella QCD diventano intense». Se non ebbero molta rilevanza in fisica dunque «finirono per diventare di enorme importanza in matematica» (p. 111). «Il teorema dell’indice di Atiyah-Singer [per cui entrambi vinsero il premio Abel, l’equivalente del Nobel e istituito nel 2001, nel 2004] fornisce il numero di soluzioni di una vasta classe di equazioni differenziali in termini puramente topologici. La topologia è quella parte della matematica che si occupa degli aspetti degli oggetti geometrici che non cambiano quando gli oggetti vengono deformati». «Il loro teorema asserisce che è possibile determinare il numero di soluzioni di un’equazione differenziale trovando il numero di soluzioni dell’equazione di Dirac associata; è proprio per queste equazioni di Dirac generalizzate che essi trovarono una bellissima formula topologica per il numero di soluzioni». La collaborazione tra i due cominciò nel 1976 (p. 112) e dal 1977 Atiyah inziò con Witten una collaborazione scientifica che durò più di un secolo e «che ha portato enormi progressi sia nel campo della matematica sia in quello della fisica», grazie al profondo rapporto che venne instaurandosi tra «la matematica moderna, la supersimmetria e la relazione fra le due». Così nel 1982 uno studente di Atiyah, Simon Donaldson «fu in grado di provare una gran quantità di potenti e inaspettati teoremi relativi alla topologia dello spazio quadridimensionale usando come tecnica di base lo studio delle soluzioni delle equazioni di selfdualità per la teoria di Yang-Mills». Una cosa che si scoprì già all’inizio degli anni Settanta è che per gli spazi di cinque o più dimensioni «non c’è abbastanza libertà per deformare le cose in molti modi, e, dati due spazi diversi, la questione se sia possibile deformarli l’uno fino a ottenere l’altro è complicata ma può essere risolta. Il caso di tre e quello di quattro dimensioni si sono rivelati essere decisamente più complicati, e il progresso nella loro comprensione è rallentato drasticamente» (p. 113). Ora «la classificazione degli spazi secondo la topologia dipende da quali tipi di deformazioni sono permesse. Devono essere permesse tutte le deformazioni (sempre che non si eseguano strappi), incluse quelle che sviluppano singolarità, o bisogna richiedere che lo spazio rimanga liscio (senza singolarità) mentre viene deformato?», «ciò che Donaldson ha mostrato è che in quattro dimensioni questi due tipi di deformazioni conducono a due schemi di classificazione completamente diversi. Il fatto che egli abbia ottenuto questo risultato facendo uso delle teorie di gauge e di soluzioni di equazioni differenziali (parti della matematica che i topologi ritenevano al di fuori delle loro competenze) non fece che aumentare la sorpresa». Teorie di gauge su reticolo. «Un altro approccio molto diverso chiamato teorie di gauge su reticolo fu proposto indipendentemente da Kenneth Wilson e Alexander Polyakov nel 1974. L’idea alla base delle teorie di gauge su reticolo è quella di rendere la teoria quantistica di Yang-Mills ben definita, indipendentemente da ogni espansione perturbativa, costruendola non per ogni punto dello spazio e del tempo, ma soltanto su un “reticolo” di punti regolare e finito. … Ciò che Wilson e Polyakov dimostrarono è che si può facilmente eseguire questo tipo di discretizzazione della teoria in modo di gauge-invariante se si associano i campi che descrivono i quark e i leptoni ai punti del reticolo e i campi di Yang-Mills ai collegamenti fra i punti vicini sul reticolo» (p. 114). «Esiste una tecnica generale (dovuta a Feynman) per definire teorie quantistiche dei campi denominata tecnica degli integrali di cammino. Il nome è dovuto al fatto che usare questa tecnica per definire la meccanica quantistica (invece della teoria quantistica dei campi) implica l’esecuzione di integrali analoghi a quelli studiati dall’analisi matematica, ma sullo spazio infinitodimensionale di tutti i cammini o traiettorie spazio-temporali delle particelle» (p. 114s). «Nelle teorie di gauge su reticolo gli integrali diventano ben definiti grazie alla natura discreta del reticolo», perché «se si restringe l’attenzione a un reticolo definito in una porzione finita dello spazio-tempo e costituito di punti disposti fra loro a una distanza finita, allora il numero dei punti risulta limitato e tale è anche la dimensione degli integrali da eseguire. Chiaramente, il calcolo che realmente si vorrebbe eseguire richiede di considerare il limite in cui il passo reticolare tende a zero e di muoversi verso il caso di un numero infinito di punti, ma Wilsone Polyakov sapevano, dallo studio di problemi simili nella fisica della materia condensata, che c’era una speranza che questo potesse essere fatto con successo». Ora però la maggior parte delle teorie di gauge su reticolo, usate dai fisici della materia condensata, si basa su degli schemi la difficilmente applicabili a questa situazione particolare. «L’eccezione è talvolta chiamata algoritmo Monte-Carlo, un metodo di calcolo probabilistico per eseguire integrali di dimensione elevata di alcuni tipi particolari» (p. 115). «Questo tipo di calcoli funziona abbastanza bene nelle teorie pure di Yang-Mills (senza campi fermionici), ma l’intrduzione dei fermioni rende le cose molto difficili, specialmente se si tiene conto di effetti dovuti alle coppie particella-antiparticella» (p. 115s). Così «i risultati dei calcoli eseguiti in QCD con questo metodo sono consistenti con i risultati sperimentali relativi a particelle fortemente interagenti» e quindi si è ancora alla ricerca di un metodo per «calcolare cose in QCD in un modo che possa utilizzato per spiegare cosa sta succedendo» (p. 116) Grandi N. «Un altro metodo per eseguire calcoli in QCD è stato proposto da ‘t Hooft nel 1974». Esso «è basato sull’idea di generalizzare al QCD da una teoria di gauge SU(3) con tre colori a una teoria il cui numero di colori sia qualche arbitrario “N” con corrispondente gruppo di simmetria SU(N). L’idea di ‘t Hooft era incentrata sul fatto che la teoria in realtà potrebbe semplificarsi quando il numero N aumenta, e si può sperare di risolvere esattamente la teoria del limite in cui N tende all’infinito. A questo punto si può ancora sperare di costruire una nuova forma di espansione perturbativa in cui il parametro di espansione è dato dall’inverso di N, 1/N. Questo approccio è diventato celebre con il nome di tecnica di approssimazione 1/N o per grandi N». «Quest’idea può essere utilizzata per studiare problemi semplificati, specialmente quelli in cui la teoria quantistica dei campi è definita non nello spazio tempo quadridimensionale, ma piuttosto in due dimensioni spazio-temporali» (p. 116). «In questi modelli semplificati o toy models, le dimensioni spaziali sono rimpiazzate da un’unica dimensione spaziale» (p. 116s). «Witten si avvicinò al concetto di grandi N nel 1978, e durante i pochi anni successivi riuscì a usarlo per fornire impressionanti argomentazioni qualitative riguardo a come questo approccio poteva essere un modo promettente di pensare alla QCD». «Il culmine di questo filone di lavoro si ebbe nel 1983, quando Witten mostrò che non soltanto la fisica dei pioni poteva essere compresa per mezzo dell’algebra delle correnti, ma che questo era possibile anche per le particelle fortemente interagenti di massa molto più elevata quali il protone e il neutrone. Fare ciò richiese di considerare il protone e il neutrone come configurazioni esotiche dei campi pionici portatori di topologia non banale … Per derivare il risultato, Witten fece uso di un tour de force di combinazioni di argomentazioni a proposito del comportamento probabile dell’approssimazione per grandi N, in combinazione con bellissime argomentazioni topologiche e geometriche». Però «né Witten né nessun altro è ancora stato in grado di trovare un modo di usare l’espansione per grandi N per risolvere la QCD. Il problema fondamentale è che nessuno sa come ottenere la soluzione esatta della teoria di gauge SU(N) nel limite in cui N tende a infinito (p. 117). Teorie quantistiche dei campi in due dimensioni. Le teorie in cui le tre dimensioni standard dello spazio-tempo sono ridotte a una singola dimensione, come linea o circonferenza, «condividono molte proprietà con le teorie dei campi a tre dimensioni spaziali, ma generalmente si rivelano matematicamente più trattabili» e «sono generalmente indicate come 1+1 dimensionali o bidimensionali», essendoci in gioco anche il tempo». «Teorie di questo tipo sono state utilizzate per i primi studi sui calcoli semiclassici con istantoni, ma anche in calcoli per grandi N» e questa esperienza «è stata impagabile nel fornire un’idea di ciò che può accadere nei reali calcoli dello stesso genere in quattro dimensioni». «Durante gli anni Ottanta si è imparato molto di più su questi modelli, in particolare su una loro sottoclasse, chiamati teorie dei campi conformi, per le quali è possibile trovare soluzioni esatte che non dipendono da alcuno schema di approssimazione» (p. 118). Soprattutto grazie a Gauss e Riemann si è imparato a pensare in questi termini bidimensionali per pensare poi «a una superficie come parametrizzata non da una coppia di numeri reali, ma da un singolo numero complesso. Una superficie parametrizzata in questo modo è chiamata superficie di Riemann», il cui studio «è uno degli argomenti fondamentali della matematica moderna, dal momento che si colloca all’intersezione di numerosi campi di indagine differenti che includono la topologia, la geometria, l’analisi e perfino la teoria dei numeri». «Un concetto cruciale in questo ambito è quello di funzione analitica, concetto per il quale è difficile dare una descrizione intuitiva», perché se ad es. una funzione reale a due variabili reali è facile rappresentarla in «grafici che sono superfici bidimensionali in tre dimensioni», mettendo al posto delle due variabili reali, due variabili complesse «l’abilità di visualizzare il grafico della funzione si perde, visto che sarebbero necessarie quattro dimensioni per disegnarlo». Se però le due variabili reali sono sostituite con una variabile complessa, «allora succede qualcosa di sensazionale. Si può imporre una nuova condizione sulla funzione in grado di collegare fra loro la natura complessa del dominio e il campo di variabilità della funzione»; moltiplicare per la radice quadra di -1 infatti «non è altro che una rotazione di 90 gradi. La condizione per cui una funzione è analitica è data dal fatto che una rotazione di 90 gradi nel dominio della funzione ha lo stesso effetto della rotazione eseguita sul campo di variabilità della funzione» (p. 119). «Questa condizione è ancora difficile da immaginare, ma è possibile mostrare che un altro modo di caratterizzare una funzione analitica è il fatto che preserva gli angoli» (p. 119s). «In questo modo una funzione analitica realizza quella che prende il nome di trasformazione conforme». « Queste trasformazioni conformi formano un gruppo di trasformazioni di simmetria, e questo gruppo è infinitodimensionale in quanto necessita di un numero infinito di parametri per descrivere tali trasformazioni». «Se si ha una teoria quantistica dei campi in due dimensioni, ci si può chiedere come questa si comporti sotto l’azione di tali trasformazioni conformi. Una teoria quantistica dei campi che sia invariante o che si comporti in maniera semplice sotto l’azione di queste trasformazioni è chiamata teoria dei campi conforme. Quindi le teorie dei campi conformi sono casi particolari di teorie dei campi in due dimensioni che hanno un gruppo di simmetria infinitodimensionale di trasformazioni che preservano gli angoli». Molte teorie vennero derivate, ma «un importante sviluppo si deve a Witten, che nel 1983 scoprì quello che ora è conosciuto come modello di Wess-Zumino-Witten. La sua costruzione di questo modello faceva uso di una versione bidimensionale del trucco topologico che egli aveva già usato per ottenere i protoni dell’algebra delle correnti, e il risultato finale possiede al suo interno una gran quantità di affascinanti strutture matematiche». Lavori successivi mostrarono che una vasta classe di teorie dei campi conformi erano legati a questo modello «essendo costruite a partire da questo con l’introduzione di differenti simmetrie di gauge» (p. 120). «Mentre la teoria delle rappresentazioni dei gruppi finitodimensionali del tipo di quelli studiati da «Weyl tra il 1925 e il 1926 era un settore ben sviluppato della matematica già dagli anni Settanta, molto poco si conosceva a proposito delle rappresentazioni dei gruppi infinitodimensionali come il gruppo delle trasformazioni conformi in due dimensioni» (p. 120s). «I matematici Victor Kac e Robert Moody nel 1967 introdussero alcune nuove strutture che permettevano la costruzione di una classe di gruppi infinitodimensionali conosciuti oggi come gruppi di Kac-Moody. Questi gruppi hanno alcune delle stesse strutture di quelli finitodimensionali, abbastanza da permettere una generalizzazione di alcune tecniche usate da Weyl e altri». → Weyl ricavò poi una formula fondamentale «conosciuta oggi come formula di Weyl per i caratteri», perché «calcola i “caratteri” di una rappresentazione». Essa così «è una funzione definita sul gruppo, vale a dire una regola che fornisce un numero per ogni elemento del gruppo» e così «è possibile dire quale rappresentazione del gruppo si stia guardando semplicemente calcolando questa funzione che pertanto caratterizza la rappresentazione». «Per dire se due rappresentazioni costruite in modi molto diversi sono in realtà la stessa, è sufficiente calcolarne le funzioni dei caratteri e vedere se queste sono identiche». → «Nel 1974 Kac derivò una formula che generalizzava la formula di Weyl per i caratteri per il caso dei suoi gruppi di Kac-Moody, e tale formula è oggi nota come formula di Kac-Weyl pr il caratteri. Negli anni successivi l’interesse relativo a questi gruppi crebbe, e si ottennero costruzioni esplicite per le loro rappresentazioni. I metodi utilizzati erano una combinazione di generalizzazioni del caso finitodimensionali e tecniche mutuate dai fisici, compresa una tecnica che includeva un oggetto chiamato operatore di vertice» (p. 121). Se in fisica l’uso di questi operatori è andato scemando, nel campo della matematica ha condotto allo sviluppo della «algebra degli operatori di vertice. Questo nuovo campo ha avuto applicazioni in numerose aree della matematica, comprese alcune molto lontane dalla fisica. Probabilmente la più nota di queste applicazioni è stato lo studio delle rappresentazioni di un oggetto noto come gruppo Monster» (p. 121s). Esso «è il più grande fra i possibili componenti irriducibili di un gruppo finito, e il fatto che le sue rappresentazioni possano essere comprese utilizzando tecniche in definitiva derivate dalla teoria quantistica dei campi è stata una delle più inaspettate connessioni tra la matematica e la fisica che si sia manifestata negli ultimi decenni». → Ma non è tutto qui! «La teoria quantistica dei campi di Weiss-Zumino-Witten si è rivelata essere intimamamente legata alla teoria delle rappresentazioni dei gruppi di Kac-Moody», perché «il modello di Wess-Zumino-Witten è una rappresentazione non soltanto del gruppo di KacMoody, ma anche del gruppo delle trasformazioni conformi». Così «la teoria di Wess-ZuminoWitten ha avuto un’importanza enorme sia per i matematici, sia per i fisici. Per i matematici fornisce simultaneamente una costruzione esplicita delle rappresentazioni di due gruppi infinitodimensionali: il gruppo di Krac-Moody e il gruppo delle trasformazioni conformi. … Per i fisici, questa è un’interessante teoria quantistica dei campi, una delle pochissime che può essere risolta esattamente» (p. 122). «Lo studio delle implicazioni per la matematica e la fisica di questa e altre teorie quantistiche dei campi strettamente connesse continua ancora» (p. 122s) Anomalie e rottura quantistica di simmetria. Il modello Wess-Zumino-Witten è così chiamato perché è un adattamento bidimensionale che Witten ha operato «di un modello in quattro dimensioni considerato inizialmente da Julius Wess e Bruno Zemino. Wesse e Zumino stavano studiando il modello per via della sua relazione con l’algebra delle correnti e la già descritta teoria dei pioni come particelle di Nambu-Goldstone», così «lo studio delle rappresentazioni dei gruppi di Kac-Moody è strettamene legato a questa versione bidimensionale dell’algebra delle correnti». «Il lavoro iniziale sull’algebra delle correnti nel corso degli anni Sessanta portò alla luce un problema, fonte di una certa confusione, denominato anomalia. La fonte della difficoltà era già stata studiata da Schwinger nel 1951, pertanto divenne noto come il problema del termine di Schwinger che naturalmente compariva in certi calcoli. Il termine di Schwinger portava lo spazio di Hilbert dell’algebra delle correnti a non essere più una rappresentazione del gruppo di simmetria del modello» (p. 123). «La ragione alla base del problema aveva a che fare con la necessità di usare tecniche di rinormalizzazione per definire propriamente la teoria quantistica dell’algebra delle correnti. … La rinormalizzzione introduceva una fase U(1) aggiuntiva nel problema, distruggendo l’argomentazione classica secondo cui lo spazio di Hilbert della teoria quantistica deve costituire una rappresentazione del gruppo di simmetria». → «Nelle teorie in due dimensioni è ora ben chiaro come affrontare questo problema: in questo caso, le trasformazioni U(1) anomale possono essere trattate semplicemente aggiungendo un fattore U(1) aggiuntivo all’originario gruppo di simmetria infinitodimensionale della teoria», che «nel gruppo di simmetria appare in alcuni degli infinitodimensionali gruppi di Kac-Moody. In questo modo in due dimensioni la fisica che conduce all’anomalia e la matematica dei gruppi di Kac-Moody si adattano insieme in modo consistente». «Nelle teorie quantistiche dei campi in quattro dimensioni, il problema dell’anomalia ovvero del termine di Schwinger è molto più complicato. L’algebra delle correnti in quattro dimensioni ha condotto a un significativo aumento della comprensione degli aspetti fisici del problema». «Una delle prime conseguenze fisiche dell’anomalia ha a che fare con il tasso con cui i pioni neutri decadono in due fotoni», Se si tiene conto del problema dell’anomalia «i calcoli dell’algebra delle correnti concordano bene con l’esperimento. Questi calcoli dipendono dal numero di colori della QCD, e il loro successo è stato uno dei primi contributi all’evidenza del fatto che i quark devono presentarsi in tre colori». «Un’altra predizione fisica di successo legata all’anomalia» (p. 124) è l’accordo tra previsione e realtà dei nove bosoni di Nambu-Goldstone: otto leggeri e uno pesante. «Il fenomeno dell’anomalia è spesso chiamato rottura di simmetria quantistica», «in aggiunta al fenomeno dell’anomalia di cui abbiamo appena parlato, che ha effetti sulle simmetrie globali studiate nell’algebra delle correnti, può anche esserci un’anomalia nella simmetria di gauge di una teoria. Questa è chiamata anomalia di gauge. Le anomalie di gauge sono comprese meno bene, ma in definitiva interferiscono con i metodi ordinari usati per trattare la simmetria di gauge di una teoria quantistica dei campi di Yang-Mills. Se si scartano i quark e si considera il Modello standard unicamente con i leptoni, si trova che questa teoria ha un’anomalia di gauge che pregiudica la comune rinormalizzazione della teoria quantistica», ma «reintroducendo i quark nella teoria si ottiene un’anomalia uguale e opposta che cancella il contributo dei leptoni»: come mai questa anomalia ci sia e come aggirarla resta però un problema. «Dal punto di vista dei matematici, un aspetto dell’anomalia è il fatto che sia legata sia al teorema dell’indice di Atiyah-Singer, sia a una generalizzazione nota come teorema dell’indice per famiglie», che «ha a che fare con una intera classe o famiglia di equazioni in una volta sola. Una famiglia di equazioni di Dirac si presenta in fisica quando si hanno differenti equazioni di Dirac per ogni differente campo di Yang-Mills, e le possibili scelte dei campi di Yang-Mills parametrizzano una famiglia di equazioni di Dirac» (p. 125). Quest’ultima «ha suggerito nuove versioni e relazioni con altre parti della matematica» e «negli ultimi anni sono state trovate interessanti connessioni tra la teoria delle rappresentazioni dei gruppi di Kac-Moody e la teoria dell’indice. Una versione di questa connessione fu inizialmente scoperta dal fisico Erik Verlinde nel 1988. Questa scoperta portò alla formulazione di quella che è chiamata algebra di Verlinde e ad un’associata formula di Verlinde», che «fornisce il numero di soluzioni di una data equazione ed è strettamente legata alla teoria dell’indice, estendendola a una nuova area matematica», ma «mentre molto si conosce relativamente al caso bidimensionale, molto di quanto ha a che fare con il caso in quattro dimensioni rimane un mistero», anche perché «per gruppi di simmetria in quattro dimensioni si sa poco a proposito della teoria delle loro rappresentazioni. Teorie quantistiche dei campi topologiche. D’importanza ancora maggiore, per la fisica, «è stato l’insieme di idee che vanno sotto il nome di teorie quantistiche dei campi topologiche. Queste ebbero inizio con la pubblicazione da parte di Witten nel 1982 di un articolo dal titolo Supersimmetria e teoria di Morse» (p. 126). «La teoria di Morse è un metodo per studiare la topologia di uno spazio che si rifà agli inizi dello studio di questa materia e al lavoro del matematico Marston Morse del 1925»; nell’articolo egli mostrò «che, per un dato spazio di dimensione qualunque, era possibile costruire un semplice modello quanto-meccanico con supersimmetria che aveva uno spazio di Hilbert puramente dipendente dalla topologia. Questo spazio di Hilbert era di dimensione finita e corrispondeva esattamente a qualcosa da tempo noto ai matematici, la cosiddetta omologia di uno spazio. La sua costruzione sfruttava una versione della teoria di Morse che, benché fosse stata studiata in passato da alcuni matematici, non era affatto ben nota, neanche agli esperti». Ora l’omologia «è uno degli esempi più semplici di una classe generale di costruzioni matematiche denominate invarianti topologici. Un invariante topologico è qualcosa che non cambia quando si deforma uno spazio, e pertanto dipende unicamente dalla topologia. Un buon invariante topologico permette a un topologo di dire se due spazi diversi possono essere deformati l’uno nell’altro o se invece sono realmente distinti» (p. 127). «Un invariante topologico associato a uno spazio può essere semplicemente un numero, ma può anche essere qualcosa di più complicato» (p. 127s). «L’invariante topologico di cui Witten si stava occupando è un insieme di numeri interi, che in certo senso dicono quanti buchi di diverse dimensioni uno spazio possiede». «Gli invarianti topologici che Witten aveva trovato erano ben noti, ma i metodi quanto-meccanici che usava erano diversi da qualunque altra cosa i matematici avessero mai considerato prima. Apparve chiaro che Witten aveva avuto un’idea nuova e molto potente» che avrebbe avuto sviluppi. Nel maggio 1987 Atiyah «descrisse nuovi invarianti topologici che il suo ex studente Donaldson aveva da poco definito per spazi quadridimensionali, insieme a un altro nuovo lavoro di Andreas Floer», che «riguardava gli invarianti topologici di spazi tridimensionali e aveva definito un nuovo invariante, denominato omologia di Floer, facendo uso delle idee di Witten sulal teoria di Morse». Egli poi «tracciò uno schizzo procedurale a proposito di come le idee di Floer e Donaldson potessero raccordarsi insieme. L’idea di base richiedeva di pensare a uno spazio quadridimensionale con un bordo tridimensionale» (p. 128). «Come analogia in una dimensione in meno si può pensare a una palla tridimensionale, il cui bordo non è altro che la superficie bidimensionale della palla. Atiyah mostrò che l’omologia di Floer dello spazio tridimensionale sul bordo era esattamente quella che è necessario fissare per rendere sensati i nuovi invarianti di Donaldson nel caso di uno spazio quadridimensionale con bordo. Questo collegava strettamente fra loro le due nuove aree della matematica che Donaldson e Floer avevano creato, in un processo che suggeriva una gran quantità di questioni nuove». → «Atiyah inoltre collegò l’intera idea al lavoro di Witten sulla supersimmetria e la teoria di Morse, suggererendo che doveva esistere una teoria quantistica dei campi quadridimensionale il cui spazio di Hilbert fosse l’omologia di Floer sul bordo tridimensionale, e le cui quantità osservabili fossero i nuovi invarianti topologici di Donaldson». Dopo un po’ di titubanza Witten raccolse la sfida e «trovò una teoria quantistica dei campi con le proprietà che Atiyah stava cercando, e all’inizio del 1988 pubblicò un articolo in cui la descriveva, intitolato Teorie quantistiche dei campi topologiche. Egli aveva trovato questa teoria partendo da una teoria quantistica dei campi qaudrimensionale con simmetria». → «Occorre ricordare che la supersimmetria è una simmetria che in un certo senso è la radice quadrata della simmetria traslazionale. Gli spazi quadridimensionali generici, specialmente quelli che sono topologicamente non banali, hanno una geometria complicata e curva, pertanto sicuramente non hanno una simmetria globale per traslazioni, e quindi nemmeno una supersimmetria ordinaria» (p. 129). «Witten è stato in grado di aggirare questo ostacolo con un trucco ingegnoso, introducendo ciò che egli ha chiamato supersimmetria twistata, in modo tale che un certo tipo di supersimmetria esistesse ancora su uno spazio quadridimensionale curvo. Questa supersimmetria rimanente gli permetteva di applicare le sue idee a proposito della relazione fra teorie dei campi supersimmetriche e topologia, e alla fine di giungere alla teoria corretta» (p. 129s). → L’unico caso in cui questa teoria quantistica non funzionava «si aveva quando si calcolavano certe quantità indipendenti dalle deformazioni dello spazio. Queste erano esattamente i nuovi invarianti introdotti da Donaldson, chiamati polinomi di Donaldson», che però «sebbene Donaldson avesse definito questi oggetti matematici e avesse dimostrato che possiedono certe proprietà, per uno spazio generico quadridimensionale questi erano in realtà estremamente difficili da calcolare» e neanche Witten ci riuscì. «Witten rapidamente passò ad applicare l’idea di teoria dei campi topologica a un gran numero di altri casi, producendo una grande classe di nuove teorie quantistiche dei campi, per ciascuna delle quali le quantità osservabili erano date da invarianti topologici. Uno di questi casi si rivelò particolarmente interessante e sorprendente». → «Un sottocampo della topologia con una lunga storia alle spalle è quello della teoria dei nodi. Per un topologo, un nodo è qualcosa come un pezzo di filo con le sue estremità unite che si trova in una configurazione complicata nello spazio tridimensionale» (p. 130). «Se si muove il filo, deformandolo nello spazio tridimensionale, alcuni nodi possono essere sciolti, a differenza di altri che invece non possono. Uno degli obiettivi centrali della teoria dei nodi è quello di trovare invarianti topologici da associare ad ogni nodo. Questi devono rimanere invarianti se si deforma il nodo, ad esempio se si cerca di scioglierlo … Pertanto per ogni nodo, per capire se può essere sciolto, tutto ciò che occorre fare è calcolarne l’invariante e vedere se questo è lo stesso invariante del nodo sciolto» (p. 130s). → Ora esiste un polinomio, il polinomio di Jones, che è «un invariante topologico al centro di molte ricerche da parte degli studiosi della teoria dei nodi. Esso aveva anche fatto un’apparizione in qualche lavoro sulle teorie quantistiche dei campi conformi. Spronato da Atiyah, Witten tentò di studiare come adattarlo all’interno di una teoria quantistica dei campi, e alla fine realizzò come farlo nel corso di una discussione durante una cena con Atiyah e un suo ex studente, Grame Segal, al ristorante “da Annie”, nell’occasione di una conferenza tentutasi a Swansea nell’estate del 1988» → «Per settembre Witten aveva prodotto una teoria dei campi topologica le cui quantità fisiche erano precisamente i polinomi di Jones … costituita in termini dei campi di gauge di Yang-Mills, e il nodo compariva come la traiettoria di una particella con una carica infinitamente grande che si muove all’interno dello spazio tridimensionale. L’equazione per la cosiddetta funzione lagrangiana che determina la dinamica della teoria aveva esattamente un termine in questo caso. Questo termine è una fine quantità matematica ottenuta a partire dai campi di Yang-Mills della teoria di gauge, chiamato termine di Chern-Simons» (p. 131). Così «la nuova teoria quantistica topologica di Witten divenne rapidamente nota come teoria di Chern-Simons o Chern-Simons-Witten». Essa «può essere definita per ogni spazio tridimensionale, cosicché fornisce non solo i polinomi di Jones per i nodi nello spazio tridimensionale usuale, ma anche l’analogo per ogni altro spazio tridimensionale. La parte più sorprendente della teoria era il suo spazio di Hilbert: questo era finitodimensionale con dimensione data dalla formula di Verlinde», inoltre in essa «si trovavano incorporate sorprendenti e inaspettate relazioni fra la topologia dei nodi e gli spazi tridimensionali, la teoria dei gruppi di MacMoody e le loro rappresentazioni, le teorie dei campi conformi, la teoria all’indice» e altro. Molti matematici pensavano però che ciò Wittten «faceva poteva essere interessante, ma non poteva realmente essere considerato matematica. Tra coloro che maggiormente si mostrarono scettici c’erano i topologi che lavoravano su spazi di quattro dimensioni» (p. 132). «Witten continuò a pensare in tutti i modi a come ottenere nuove informazioni sui polinomi di Donaldson a partire dalla sua teoria quantistica dei campi topologica» e molti lo seguirono, tanto che «cominciò a svilupparsi un attivo settore della teologia, conosciuto oggi come teoria di Donaldson. Ci fu un progresso costante in questo tipo di matematica, ma i problemi tecnici presenti erano di tipo sostanziale, pertanto tutto si mosse lentamente. Tutto ciò cambiò in modo radicale nell’autunno del 1994». «Quando si considerano le equazioni di Maxwell per il solo campo elettromagnetico, ignorando le particelle cariche elettricamente», oltre alle solite simmetrie, ce ne è una aggiuntiva, che «emerge perché è possibile scambiare il ruolo del campo elettrico e di quello magnetico nelle equazioni senza cambiarne la forma. In questo modo il campo elettrico e quello magnetico si dicono reciprocamente duali, e questa simmetria è chiamata simmetria di dualità». → «Quando si reintroducono le cariche elettriche nelle equazioni per ottenere la teoria complessa dell’elettrodinamica quantistica, la simmetria di dualità risulta compromessa». → «Nel 1931 Dirac realizzò che per recuperare la dualità nella teoria completa è necessario introdurre particelle magneticamente cariche con proprietà particolari. Queste sono chiamate monopoli magnetici e possono essere pensate come configurazioni topologicamente non banali del campo elettromagnetico per cui questo diviene infinitamente grande in un punto. Mentre le cariche elettriche sono debolmente accoppiate al campo elettromagnetico con intensità dell’accoppiamento data dalla costante di struttura fine a=1/137, la simmetria di dualità inverte questo numero, richiedendo che l’accoppiamento della carica magnetica al campo elettromagnetico sia forte con intensità 1/a=137. Se il monopolo magnetico esiste, questo forte accoppiamento dovrebbe renderlo facile da rivelare. Tutti gli esperimenti volti alla sua ricerca non hanno prodotto risultati» (p. 133). → Nel 1978 Witten, aiutato da David Olive e Claus Montonen, vide che era plausibile la ricerca dell’analogo della simmetria di dualità elettromagnetica nel caso di una versione supersimmetrica della teoria di Yang-Mills → Egli «a volte tornò su quest’idea, e nella primavera del 1994, in collaborazione con Nathan Siberg, fu in grado di elaborare una soluzione esplicita della teoria supersimmetrica di Yang-Mills che aveva una versione della dualità ipotizzata. Questo fu uno sviluppo clamoroso perché finalmente forniva un esempio di teoria quantistica dei campi del tipo di Yang-Mills in cui era possibile capire esplicitamente cosa stava accadendo quando l’accoppiamento diventa intenso». Essa «prevedeva monopoli magnetici e campi di gauge che non erano i campi di Yang-Mills, ma piuttosto aveva la semplice simmetria di gauge U(1), la stessa della QED». → «Witten si rese conto del fatto che questa nuova soluzione aveva qualcosa a che fare con la teoria quantistica dei campi topologica per i polinomi di Donaldson» (p. 134). Diffuse allora quest’idea e Clifford Taubes, matematico di Harvard, «realizzò rapidamente che tutto ciò che lui e altri esperti nella teoria di Donaldson avevano potuto ottenere lavorando duramente con le equazioni di selfdualità poteva essere ottenuto più o meno banalmente usando la nuova equazione di Witten» e ciò ingenerò un’efficace ripresa, revisione e riestensione delle teorie di Donaldson. Così il 2 novembre del 1994 Taubes «tenne ad Harvard un seminario intitolato “L’equazione magica di Witten”, e annunciò la morte della teoria di Donaldson e la nascita di un nuovo campo che prese il nome di teoria di Seiberg-Witten, basato sulla sostituzione delle equazioni di self-dualità con l’equazione di Seiberg-Witten». Così «Witten aveva provocato la rivoluzione di un intero sottocampo della matematica in poche settimane, semplicemente suggerendo agli esperti quale equazione prendere in considerazione» (p. 135) e tutti gli specialisti della topologia quadridimensionale si convinsero finalmente della bontà delle sue proposte. «Oltre alla teoria di Chern-Simons e a quella topologica di Donaldson … Witten elaborò un terzo tipo di teoria quantistica dei campi topologica all’inizio del 1988», che chiamò «modello sigma topologico, con riferimento al cosiddetto modello sigma usanto nell’algebra delle correnti», per cui «i campi associano a ogni punto dello spazio-tempo non un numero o un vettore, ma un punto in uno spazio target, che è uno spazio curvo con una certa dimensione» e che «è proprio un gruppo». «Per il gruppo U(1) esso è semplicemente la circonferenza e ha dimensione 1. Per il gruppo SU(2) è la sfera tridimensionale, l’analogo della superficie bidimensionale di una sfera, ma con una dimensione in più». → «Il modello sigma topologico di Witten era una teoria quantistica dei campi bidimensionale corrispondente a un modello sigma il cui target aveva quella che è chiamata una struttura complessa». «Si dice che uno spazio ha una struttura complessa se, per ogni punto dello spazio, i punti vicini possono essere etichettati con coordinate che sono numeri complessi. … Quel che risulta è che non tutti gli spazi hanno strutture complesse. Una cosa ovvia che lo spazio deve soddisfare è che la sua dimensione deve essere un numero pari, dal momento che ogni coordinata complessa corrisponde a una coppia di numeri reali» (p. 136). «Nel modello sigma topologico sia lo spazio-tempo bidimensionale sia lo spazio target hanno una struttura complessa, pertanto si possono imporre condizioni di analiticità sui campi, in modo analogo a quanto già discusso a proposito delle trasformazioni conformi. Questa condizione in parole semplici asserisce che un campo è analitico se, moltiplicando le coordinate o dello spazio-tempo o dello spazio-target per la radice quadrata di -1, si ottiene lo stesso campo. Mentre in generale esiste un numero infinito di possibili configurazioni di campi, il numero di quelli analitici è di gran lunga minore, alle volte addirittura zero o un numero finito». «Le quantità osservabili del modello sigma topologico di Witten corrispondevano essenzialmente al numero di queste configurazioni di campi analitici» che «era l’analogo dei polinomi di Donaldson nella prima teoria quantistica dei campi topologica di Witten». → «Qui risulta che il problema di calcolare questi numeri è parte di quel campo della matematica noto come geometria algebrica … branca della matematica con una storia lunga e complicata, e che ha raggiunto un alto grado di raffinatezza nel corso dell’ultima metà del xx secolo. In parole povere, la geometria algebrica è lo studio delle soluzioni di insiemi di equazioni polinomiali … con più di un polinomio e più di una variabile». Ora «l’intero soggetto si semplifica se si usano vairabili complesse, e questo è ciò che spesso fanno i geometri algebrici». «Quando un insieme di equazioni polinomiali ammette un numero infinito di soluzioni, si può pensare che queste siano i punti di un nuovo spazio. Questi spazi i cui punti sono soluzioni di equazioni polinomiali possono essere decisamente non banali, e sono l’oggetto principale di studio della geometria algebrica». «Quando le equazioni polinomiali sono equazioni con variabili complesse, a questi spazi di soluzioni possono essere date coordinate complesse. Tali spazi di soluzioni sono il tipo di spazi che possono costituire lo spazio target per il modello sigma topologico di Witten, pertanto si può sperare che questa teoria quantistica dei campi contenga nuove informazioni su di essi» (p. 137) e «per ogni spazio di soluzioni» esso «fornisca un numero (il numero di campi analitici) e questo è una sorta di invariante topologico. Dati due diversi spazi di soluzioni, un modo di dimostrare che essi sono realmente distinti è quello di calcolare il numero di campi analitici e mostrare che questi numeri sono diversi». → «Nel corso degli anni immediatamente successivi, molti fisici studiarono il modello, e ciò che essi impararono sul suo conto alla fine rese le cose molto interessanti per i matematici. Il modello sigma topologico era una teoria quantistica dei campi supersimmetrica» conforme, di cui una cosa era nota «data una teoria siffatta, esisteva una semplice trasformazione che era possibile eseguire per ottenerne una nuova, diversa, ma comunque intimamente collegata. Se si eseguiva la trasformazione due volte, si tornava indietro alla teoria originaria … mirror simmetry». Ora « se si parte con un certo spazio target, poi si elabora il corrispondente modello sigma topologico (e quindi una teoria conforme), quindi viene eseguita la riflessione mirror, cosa è possibile dire a proposito della nuova teoria conforme? Si tratta forse di un altro modello sigma, ma per un diverso spazio target? Se è così, il nuovo spazio target è chiamato spazio mirror di quello originario». → «Philip Candelas con i suoi collaboratori all’Università del Texas ne studiò molti esempi a partire dal 1991» e uno di questi «si rivelò di grande interesse per i geometri algebrici» (p. 138). «Esso prevedeva uno spazio target noto a questi come quintica tridimensionale poiché era lo spazio delle soluzioni di un’equazione polinomiale di quinto grado e aveva tre dimensioni complesse». Ora «il problema di contare il numero di campi analitici per la quintica … già dal XIX secolo si sapeva che il numero di questi campi di grado 1 è 2875, e il numero per il grado due era stato calcolato da Sheldon Katz nel 1986 e risultava essere 609250. Il calcolo per il grado 3 era in corso, ma i matematici non sapevano come andare oltre. Non era neanche noto se dei campi analitici di grado 3 ne esistesse un numero finito». «Il gruppo di Candelas fu in grado di … ottenere una formula che forniva il numero di campi analitici di ogni grado in un colpo solo». I matematici verificarono per altre vie il risultato (317206 375) e «questo impressionò molto i geometri algebrici, il cui campo della matematica tradizionalmente non aveva avuto nulla o ben poco a che fare con la fisica». → «Nel corso dell’ultimo decennio, il campo della mirror simmetry è stato molto attivo, con un continuo interscambio tra matematici e fisici, ciascuno con le proprie prospettive» (p. 139). I matematici han cercato «di formulare in un linguaggio preciso e dimostrare rigorosamente le congetture proposte dai fisici usando il linguaggio della teoria quantistica dei campi»; «i fisici hanno esplorato una vertiginosa serie di connessione fra i modelli sigma topologici (in particolare una variante nota come stringa topologica), la versione di Witten della teoria di gauge Chern-Simons, i “modelli di matrici” che prevedono integrali su gruppi come SU(N) per grandi valori di N, e molto altro ancora». → «Molte nuove congetture che hanno a che fare con inaspettate relazioni tra diverse aree della matematica continuano a emergere, aprendo la strada a nuovi ed emozionanti problemi da esplorare, sia per i matematici sia per i fisici» (p. 140). Capitolo 11 – Teoria delle stringhe: la storia «Le idee di successo descritte qui in dettaglio sono state perseguite soltanto da un’esigua minoranza di fisici, mentre la maggioranza dei loro colleghi seguiva programmi di ricerca molto diversi che alla fine si sarebbero poi rivelati fallimentari. A partire da questo capitolo, l’attenzione si sposterà sulla storia di alcune idee che non sono state coronate da successo, e sul modo in cui queste hanno influenzato la fisica teorica fino ai giorni nostri» (p. 141). Teoria della matrice s. Già a partire dagli anni Trenta, visto che «gli infiniti comparivano per via delle interazioni dei campi a distanze molto piccole, era necessario fare a meno del concetto di campo definito in ogni punto. L’idea era che a piccole distanze qualcosa di nuovo potesse rimpiazzare il concetto di campo» (p. 141). «Molti dei primi pionieri della teoria quantistica subivano la pesante influenza del positivismo logico della scuola di Vienna» (p. 141s) e così per loro «un certo numero di concetti classici, come quello di particella con una posizione e un impulso definiti, dovevano essere abbandonati. Questi concetti furono identificati come metafisici, e buona parte della comunità dei fisici quantistici chiedeva a gran voce che se ne facesse a meno». «Un tale approccio positivistico alla teoria delle particelle nacque con John Wheeler nel 1937, e fu ulteriormente sviluppato da Heisenberg nel 1943. Divenne noto come filosofia della matrice s, poiché l’idea era quella che si dovesse esprimere la teoria puramente nei termini della matrice di diffusione [=scattering]». Essa «è la quantità matematica che indica cosa accade quando si hanno due particelle, inizialmente lontane e separate, che vengono fatte collidere l’una contro l’altra». «Una teoria quantistica può essere utilizzata per calcolare la matrice s, ma, intrinsecamente, contiene una struttura ben più complicata di campi fra loro interagenti in ogni punto nello spazio e nel tempo», essa infatti «è qualcosa che non ha nulla da dire su come vadano esattamente le cose quando due particelle si avvicinano l’una all’altra e su come si evolva la loro interazione. Pauli era molto scettico a proposito delle idee di Heisenberg sulla matrice s», perché non aveva fornito alcuna legge o regola che la determinasse matematicamente (p. 142) e perché «non risolveva nessuno dei problemi fisici che l’avevano motivata». «Il successo della QED rinormalizzata nel trattamento degli infiniti eliminò una motivazione alla base filosofica della matrice s, ma questa rimase il più popolare modo di pensare alle interazioni forti nel corso di tutti gli anni Cinquanta, Sessanta e agli inizi dei Settanta, fino all’avvento della QCD. Sembrava chiaro a tutti che non vi era possibilità che la teoria quantistica dei campi riuscisse a spiegare il grande numero, costantemente in aumento, di particelle diverse fortemente interagenti». Così negli anni Sessanta, Geoffrey Chew, aiutato da altri, eseguì «una versione della teoria della matrice s chiamata matrice s analitica. Qui “analitica” significa che si impone una speciale condizione sulla struttura della matrice s, una condizione di analiticità relativa a come la matrice varia in funzione di come variano le energie e gli impulsi iniziali delle particelle interagenti. Questa è la stessa condizione matematica già discussa in vari contesti, e richiede di lavorare con energie e impulsi che assumono valori complessi. Tale proprietà di analiticità della matrice s si riflette su certe equazioni chiamate relazioni di dispersione». «Chew e altri credevano che, insieme a un paio di altri principi generali, la condizione di analiticità potesse essere sufficiente a determinare unicamente la matrice s»: è la filosofia bootstrap, per cui grazie alla sola analiticità e l’intera teoria «in qualche modo “andava avanti grazie alle sue proprie forze”». «Verso la metà degli anni Sessanta Chew era anche solito caratterizzare l’idea del bootstrap come democrazia nucleare: nessuna particella era elementare, ma tutte le particelle dovevano essere pensate come composte le une delle altre. Questa democrazia andava considerata in opposizione all’aristocrazia della teoria quantistica dei campi» (p. 143), ma perché essa fosse compresa si doveva aspettare l’invenzione di tecniche di analisi molte innovative. Ora però «la teoria della matrice s non è nient’altro che una caratterizzazione di alcune proprietà generali che la matrice s, calcolata a partire da una particolare teoria dei campi, deve avere», ma «esistono molte teorie quantistiche dei campi consistenti, e in particolare molte variazioni della QCD appaiono consistenti; pertanto esistono molte differenti teorie fortemente interagenti, ognuna con una diversa matrice s. La speranza del programma del bootstrap secondo cui in qualche modo esisterebbe un’unica consistente matrice s non era altro che un’illusione» (p. 144). «Oltre a comprendere particelle fondamentali, il successo del modello a quark fu in gran parte dovuto all’aver sfruttato la matematica del gruppo di simmetria SU(3) e le sue rappresentazioni. I sostenitori della democrazia nucleare si trovavano a difendere una causa persa non soltanto nei confronti dei campi elementari, ma anche con l’idea che la simmetria fosse un principio fondamentale». Per Chew & co. «le leggi fondamentali erano le proprietà postulate della matrice s che governavano la dinamica della teoria, e non avevano nulla a che fare con i gruppi o le rappresentazioni». «La divisione in due fazioni che seguivano la simmetria e la dinamica fu anche sottolineata da Feynman, che commentando la propensione dei teorici della matrice s per le relazioni di dispersione, a quanto pare fece dello spirito: “Esistono due tipi di fisici delle particelle: quelli che fanno gruppo e quelli che si disperdono”. Il dominio della teoria della matrice s era internazionale, forse addirittura più forte nell’Unione Sovietica che nella “Repubblica Popolare di Berkeley”» (p. 145). «Il programma della matrice s continuò ad essere seguito da Chew e altri nel corso degli anni Settanta. Quando la sinistra politica a Berkeley andò in rovina, con il risultato che molti si rivolsero alle religioni orientali e alla new age, anche i seguaci della matrice s smisero di parlare di democrazia, e alcuni cominciarono a guardare a oriente» (p. 145s) «Il fisico Fritjof Capra ricevette il dottorato nel 1966 lavorando a Vienna con Walter Thirring, ma agli inizi degli anni Settanta si indirizzò verso la religione orientale, trovandovi profonde connessioni con la teoria della matrice s. Il suo libro Il Tao della fisica fu pubblicato per la prima volta nel 1975, e in esso Capra contrastava in maniera decisa le posizioni occidentali di simmetria con quanto aveva visto delle idee orientali relative all’interrelazione dinamica fra tutte le cose». Per lui la ricerca di simmetrie fondamentali nella fisica delle particelle appartiene alla nostra eredità ellenica, che è in certa misura incompatibile con la visione del mondo che comincia ad emergere nella scienza moderna e che è più in sintonia con la visione orientale del mondo, per cui la simmetria, come la geometria, sono più una costruzione della mente che non una proprietà della natura (p. 146): così è chiara per lui «l’inadeguatezza della teoria quantistica dei campi e le meraviglie della filosofia del bootstrap». «Il Tao della fisica fu completato nel dicembre del 1974, e le implicazioni della rivoluzione di novembre, avvenuta un mese prima … chiaramente non erano ancora state recepite da Capra (così come da molti altri, a quel tempo). Quello che è difficile da capire è il fatto che del libro sono state pubblicate numerose edizioni, e in ognuna Capra ha lasciato intatta una fisica ormai datata, oltre ad aver incluso nuove introduzioni e postfazioni che impassibilmente negano quanto è accaduto» e continua a dire che Chew “ha eseguito il terzo passo evolutivo nella fisica del XX secolo. La sua teoria del bootstrap unifica la meccanica quantistica e la teoria della relatività in una teoria che rappresenta una rottura radicale con l’intero approccio occidentale alla scienza fondamentale” (p. 147). Così «la filosofia del bootstrap, a dispetto del suo completo fallimento come teoria fisica, sopravvive come parte di un’imbarazzante culto new age, di cui Chew, che si ostina a negare l’evidenza, è l’indiscusso “guru”. [Ok, tutto vero, certo però che ostinarsi a cercare monopoli e gravitoni sembra strano: come integrare le due visioni?] Le prime teorie delle stringhe. Si cercò di ottenere una matrice s eseguendo «calcoli utilizzando l’espansione in serie perturbativa di una teoria quantistica dei campi per produrre una matrice s, che fu quindi esaminata per vedere se si potevano astrarre alcune delle sue proprietà come condizioni generali. Questa procedura non ha mai condotto a un metodo consistente per trattare la teoria al di fuori del contesto dell’espansione perturbativa». Però «nel 1968 il fisico Gabriele Veneziano notò che una funzione matematica, studiata per la prima volta dal matematico Leonhard Euler nel XVIII secolo e chiamata funzione beta, aveva le proprietà corrette per descrivere una matrice s analitica, piuttosto diversa da quelle ottenute con le espansioni perturbative. Essa aveva una proprietà chiamata dualità, che in questo contesto significava che, considerata in due modi diversi, era in grado di descrivere due diversi tipi di comportamento delle particelle fortemente interagenti. Tale dualità non ha nulla a che fare con la già discussa dualità fra i campi elettrici e magnetici. Dal 1968 in poi questa teoria della matrice s duale divenne di gran moda, tanto che vi lavorava buona parte della comunità dei fisici teorici». «Verso il 1970 tre fisici (Yochiro Nambu, Leonard Susskind e Bech Nielsen) trovarono una semplice interpretazione fisica della formula di Veneziano; essi compresero che questa poteva essere pensata come la matrice s per una teoria di un sistema quanto-meccanico in cui le particelle erano rimpiazzate da stringhe» (p. 148). «Una stringa è da intendersi come un percorso unidimensionale nello spazio, l’idealizzazione della posizione occupata da un pezzo di corda che giace in una certa configurazione nello spazio tridimensionale. Queste stringhe possono essere aperte, nel senso che possiedono due estremi, o chiuse, nel senso che i due estremi sono uniti. Se sono necessari soltanto tre numeri per specificare la posizione di una particella nello spazio, specificare la posizione di una stringa richiede invece una collezione infinita di numeri: tre per ogni punto della stringa». → Dopo tante ricerche sul «come ottenere una teoria quantistica per la stringa», alla fine si arrivò, «per quanto questa presentasse due problemi piuttosto seri». «Il primo era che la teoria funzionava realmente soltanto se il numero delle dimensioni dello spazio-tempo in cui la stringa vive fosse ventisei, non quattro». «Il secondo problema era che la teoria conteneva un tachione. Per un fisico teorico un tachione è una particella che si muove a velocità superiore a quella della luce; se ciò avviene in una teoria quantistica dei campi, è un’indicazione ben precisa che quest’ultima è una realtà inconsistente. Un aspetto problematico dei tachioni è che possono trasmettere informazioni indietro nel tempo, violando così il principio di causalità … un paradosso temporale che renderebbe la propria esistenza inconsistente. Inoltre, nelle teorie con tachioni generalmente manca un vuoto stabile, dal momento che il vuoto può decadere proprio in stati tachionici». → Un altro problema ovvio relativo alle teorie di stringa era dovuto al fatto che in esse non erano presenti fermioni. … Per trovare un accordo con il mondo reale della fisica delle interazioni forti, questo problema doveva essere risolto». «La prima teoria di stringa con fermioni fu elaborata da Pierre Ramond nel 1970. Egli riuscì a generalizzare l’equazione di Dirac dalla sua ben nota versione con tre variabili spaziali al caso del numero infinito di variabili necessario per descrivere la stringa. Negli anni immediatamente successivi molti fisici lavoravano alla teoria delle stringhe con fermioni, e si scoprì che questo tipo di teoria poteva essere consistente in dieci dimensioni piuttosto che nelle ventisei della stringa originaria. Questo non era ancora il numero “corretto” di quattro dimensioni, ma quantomeno gli si avvicinava» (p. 149). «Un’altra ricerca mostrò che era in uso una versione della supersimmetria, e che costituiva un aspetto importante della teoria di stringa con i fermioni. È bene ricordare che negli anni fra il 1971 e il 1973 molti gruppi elaborarono il concetto di supersimmetria per teorie quantistiche dei campi in quattro dimensioni spazio-temporali, e che questa nuova simmetria in un certo senso corrispondeva alla radice quadrata della simmetria per traslazioni. Se si considera la superficie descritta dal movimento di una stringa si ottiene uno spazio bidimensionale chiamato foglio di mondo della stringa. Un modo consistente di pensare a una teoria di stringa è proprio in termini di teorie quantistiche dei campi bidimensionali definite su questi fogli di mondo. I primi stringhisti scoprirono che le teorie di stringa con fermioni contenevano una versione della supersimmetria analoga a quella in quattro dimensioni, definita però in due dimensioni sul foglio del mondo. Questo in realtà fu proprio l’impulso per una delle scoperte indipendenti della supersimmetria quadridimensionale, quella di Weiss e Zumino del 1973. Questo tipo di teoria di stringa è noto oggi come teoria di superstringa, sebbene il termine sia entrato nell’uso comune solo molto tempo dopo la sua formulazione. Questa prima teoria della superstringa fu la candidata principale come teoria delle interazioni forti per un certo numero di anni». A partire dal 1973 con la scoperta della libertà asintotica e visto il disaccordo crescente di questa teoria «con i risultati sperimentali sullo scattering profondamente anelastico provenienti da SLAC … molti fisici smisero rapidamente di lavorare sulla teoria delle stringhe e passarono a lavorare alla QCD». «Una delle persone che continuò a lavorare sulle stringhe era John Schwarz, uno studente di Chew che arrivò al CalTech nel 1972» (p. 150) e continuò perché “la teoria delle stringhe aveva una struttura matematica troppo bella per essere completamente irrilevante per la natura”. Ora «uno dei molti problemi che la teoria di superstringa presentava come teoria delle interazioni forti era dovuto al fatto che essa prediceva l’esistenza di un’inosservata particella interagente fortemente priva di massa e con spin pari a due. Nel 1974, in collaborazione con Joel Scherk, Schwarz propose l’identificazione di questa particella con il gravitone, il quanto del campo gravitazionale … Verso il 1977 si capì che in una teoria di superstringa i modi vibrazionali di una superstringa che corrispondevano ai bosoni potevano essere appaiati a quelli corrispondenti ai fermioni nell’ambito del processo di eliminazione del tachione. Questo inoltre indicava che la superstringa era supersimmetrica non soltanto sul foglio di mondo bidimensionale, ma aveva anche una diversa supersimmetria in dieci dimensioni analoga a quella delle teorie quantistiche dei campi supersimmetriche in quattro dimensioni». Intanto nel 1970 Schwarz aveva iniziato «una collaborazione con il fisico inglese Michael Green», con cui «fece molti progressi nella formulazione di una versione esplicita della teoria, riuscendo anche a eseguire dei calcoli». La prima rivoluzione della teoria delle superstringhe. «Verso il 1983 Witten aveva cominciato a dimostrare un crescente interesse per la teoria delle superstringhe» (p. 151), anche se «c’era un potenziale problema della teoria che Witten avvertiva come molto serio. Ricordiamo che un’anomali di gauge è un sottile effetto – dovuto al modo in cui sono definite le teorie quantistiche di campo – che può pregiudicare la simmetria di gauge di una teoria. Questo significa quindi che i metodi standard per comprendere la teoria non sono più validi. Nel corso del 1983 Witten si interessò molto alle anomalie di gauge, e sospettava che a causa di queste la teoria delle superstringhe potesse essere inconsistente. … Dei molti tipi diversi di teoria di superstringa esistenti, quello per cui l’anomali di gauge si cancellava fu chiamato tipo II. In questa versione della teoria di superstringa non c’era modo di incorporare i campi di Yang-Mills del Modello standard, ma esisteva un’altra versione, chiamata tipo I, in cui ciò era possibile. La questione se anche la teoria di tipo I avesse anomalia di gauge continuava a rimanere aperta». Nel 1984 Green e Schwarz «riuscirono finalmente a trattare le anomalie nella teoria del tipo I. Anche di questa esistono varie versioni … ce n’era una in cui le varie anomalie di gauge si annullavano. Questo accadeva per la versione in cui il gruppo di simmetria era il gruppo SO(32)». Lo spedirono a Dittene e alla rivista “Physics Letters B” «era il 10 settembre; il fermento che tutto ciò stava per scatenare divenne in seguito noto fra i teorici delle stringhe come prima rivoluzione delle superstringhe. La data reale di questa rivoluzione dovrebbe, comunque, essere fissata all’incirca diciotto giorni dopo, il 28 settembre, quando il primo articolo di Witten sulla teoria delle superstringhe giunse allo stesso giornale … la notizia che Witten ora stava dedicando tutte le sue attenzioni a questo risultato dilagò rapidamente in tutta la comunità scientifica». «A Princeton un gruppo di fisici (David Gross, Jeff Harvey, Emil Martinec e Ryan Rhom) trovò immediatamente un altro esempio di teoria di superstringa in cui le anomalie di gauge si cancellavano. Le fu dato il nome di teoria eterotica delle superstringhe, con un termine mutuato dalla genetica che denota un ibrido … il loro articolo sulla superstringa eterotica giunse alla redazione della rivista il 21 novembre». «Witten faceva parte di un altro “quartetto” che rapidamente elaborò i dettagli per la proposta su come ottenere la fisica del Modello standard dalla superstringa eterotica. L’articolo fu consegnato alla rivista il 2 gennaio». «Negli anni seguenti un gran numero di fisici delle particelle cominciò a lavorare alla teoria delle superstringhe; molti di loro avevano lavorato alla prima versione della teoria che aveva preceduto la QCD, quindi non dovettero far altro che riprendere dove avevano lasciato una decina di anni prima. … Da allora il lavoro sulle superstringhe ha completamente dominato il campo, situazione che è continuata in una certa misura fino ai giorni nostri». «Molti fattori rendono conto del cambio spettacolarmente rapido avvenuto nella ricerca nel campo della fisica delle particelle. Uno è sicuramente il fatto che verso il 1984 c’erano in giro poche buone idee non ancora provate» (p. 153). «Un altro è che la superstringa non era del tutto nuova per molte persone … Ma il fattore di gran lunga più importante fu proprio Witten stesso, che confermò così l’influenza che era in grado di esercitare sulla comunità fisica. Egli credeva fermamente nella teoria, lavorò molto duramente per comprenderla e la promosse con ogni sforzo». Ma «che cos’era questa teoria della superstringa eterotica che aveva provocato tutta questa eccitazione? Come tutte le teorie note di superstringa, si tratta di una teoria di stringhe in dieci dimensioni spazio-temporali. Le variabili che descrivevano le stringhe possedevano un gruppo aggiuntivo di simmetria consistente in due copie di quello che è chiamato E8». «Il gruppo E8 è un gruppo di Lie molto simile a SU(2) e a tutti gli altri gruppi che avevano trovato un uso nella teoria delle particelle, ma con alcune proprietà speciali. Mentre gli altri gruppi di Lie di cui si è già parlato hanno un’interpretazione geometrica come gruppi di rotazioni di vettori con coordinate reali o complesse, E8 è uno dei cinque gruppi di Lie eccezionali che non hanno una tale interpretazione. E8 è il più grande dei cinque gruppi di Lie eccezionali e corrisponde a uno spazio di dimensione 248 di possibili trasformazioni di simmetria. Il numero elevato di dimensioni e la mancanza di una definizione geometrica implicano che i calcoli che coinvolgono E8 devono essere eseguiti attraverso metodi puramente algebrici piuttosto complicati. I gruppi eccezionali in generale, ed E8 in particolare, hanno fra i matematici la pessima fama di essere oggetti decisamente oscuri» (p. 154). «E8 è un gruppo di simmetria tanto grande che … almeno in linea di principio, si può sperare di arrangiare la teoria di stringa eterotica in modo da ottenere una teoria di grande unificazione come limite di bassa energia». «Un problema più complicato da affrontare è quello della differenza fra lo spazio-tempo in dieci dimensioni in cui la teoria di superstringa deve essere formulata e lo spazio-tempo quadridimensionale del mondo reale. Si potrebbe ipotizzare che per ogni punto dello spazio-tempo quadridimensionale ci sia in realtà un piccolo spazio di dimensione sei non osservabile che rende l’universo di dieci dimensioni, di cui soltanto quattro sufficientemente grandi per essere osservate». «Ci sono diverse condizioni di consistenza che si vorrebbero soddisfatte dalla teoria». «Un postulato fondamentale è che le predizioni della teoria di superstringa non devono dipendere dalle trasformazioni conformi (cioè che preservano gli angoli) del fogli di mondo dibimensionale della stringa» (p. 156). «Imponendo questa condizione, e richiedendo la supersimmetria della teoria, si può mostrare che lo spazio di sei dimensioni deve poter essere descritto in ogni punto in termini di tre coordinate complesse, e la sua curvatura deve soddisfare una certa condizione. Questa condizione sulla curvatura è soddisfatta soltanto da alcuni spazi di sei dimensioni … spazi di Calaibi-Yau». «Le previsioni della stringa eterotica dipendono molto da quale spazio di CalaibiYau si sceglie», ma non si sa neanche se il loro numero sia finito o infinito. «Durante tutta la fine degli anni Ottanta e gli Novanta, molti sforzi dei fisici sono stati votati alla formulazione e alla classificazione di nuove specie di spazi di Calabi-Yau. Questa ricerca ha condotto a significative interazioni tra fisici e matematici, tra cui la più importante è incentrata sul già discusso argomento della mirror simmetry. Questi anni inoltre hanno visto una gran mole di lavoro sulle teorie quantistiche dei campi in due dimensioni, specialmente quelle conformi, dal momento che compaiono nella formulazione delle teorie di superstringa» (p. 156). La seconda rivoluzione delle superstringhe. «Verso l’inizio degli anni Novanta, l’interesse nei confronti delle superstringhe stava cominciando a calare. Si conoscevano cinque tipi consistenti di teorie di stringa: la teoria di tipo I SO(32) …; due varianti della teoria di superstringa di tipo II; la teoria di stringa eterotica con due copie del gruppo di simmetria E8; una variante della teoria di stringa eterotica con simmetria SO(32)». «Durante un seminario tenuto a una conferenza sulla teoria delle stringhe alla University of Southern California nel marzo del 1995, Witten svelò una notevole serie di ipotesi relative a come queste cinque teorie fossero correlate. Descrisse l’evidenza, che si era accumulata nel corso degli anni precedenti, secondo cui esistevano diverse relazioni di dualità fra queste cinque teorie. Inoltre fornì la prova di una sorta di relazione di dualità fra le teorie di stringa e la teoria della supergravità in undici dimensioni». «Un elemento cruciale della rete di Witten sulle nuove congetture era l’esistenza presunta di una nuova teoria supersimmetrica in undici dimensioni. Questa teoria doveva essere tale da avere la supergravità come limite di bassa energia, e da contenere ad alte energie nuovi oggetti che non erano descrivibili da campi quantistici. Per avere le giuste proprietà per soddisfare la sua congettura, la teoria doveva avere non stringhe unidimensionali, bensì p-brane di dimensione due e cinque». «In questo contesto “p” è un certo numero intero non negativo, e una p-brana è uno spazio pdimensionale che si muove nello spazio di dimensione undici» (p. 157). «Una stringa è una 1-brana, e una 2-brana è una superficie bidimensionale che si muove nello spazio a undici dimensioni». Siccome i tentativi di definire teorie di membrane «per analogia con la teoria delle stringhe non hanno avuto molto successo, e hanno anzi condotto a problemi di natura tecnica che sembrano essere lontani da una possibile soluzione … si deve quindi sperare di trovare un tipo completamente nuovo di teoria che per qualche sconosciuta ragione possa descrivere 2-brane e 5-brane. Witten la battezzò teoria-M, con la spiegazione secondo cui “M sta per magia, mistero o membrana, a seconda dei gusti”. A partire dal 1995 è stato fatto un notevole sforzo nel tentativo di individuare cosa sia la teoria-M, ma con risultati decisamente insoddisfacenti». «Il tentativo più riuscito fa uso di matrici infinitodimensionali: il nome matrix theory fornisce un’altra possibile versione di ciò che la M potrebbe rappresentare. Il formalismo della matrix theory funziona unicamente per alcune scelte particolari della geometria delle undici dimensioni e, in particolare, non funziona nel caso di rilevanza fisica in cui quattro delle undici dimensioni sono grandi sette e sette meno piccole». «La più grandiosa delle congetture di Witten del 1995 era quella secondo cui esiste una teoria fondamentale che si riduce in sei diversi casi limiti speciali, le cinque teorie note di superstringhe e la teoria-M; un ulteriore significato per la lettera M è ‘Madre’, nel senso di ‘Madre di tutte le teorie’» (p. 158). «Al momento non esiste neanche una proposta relativa a cosa sia esattamente questa teoria». Così il 1995 «è divenuto noto come la data di inizio della seconda rivoluzione delle superstringhe», perché da questo momento in poi «coloro che lavorano in questo campo ora sentono di studiare frammenti di una teoria più ampia che contiene non soltanto stringhe, ma anche p-brane di dimensione maggiore». Sviluppi recenti. Nel novembre 1977 «apparve un articolo di Juan Maldacena contenente una nuova idea che da allora ha dominato la scena della ricerca recente nel campo della teoria delle stringhe. All’idea si fa riferimento in modi diversi come congettura di Maldacena o congettura ads/CFT», che «postula una relazione di dualità tra due tipi molto diversi di teoria in dimensioni diverse». «Una di queste teorie è una versione supersimmetrica della teoria quantistica dei campi di YangMills, quella con ‘N=4’, vale a dire con quatto differenti supersimmetrie … famosa da tempo per essere una teoria dei campi piuttosto speciale, dal momento che aveva la proprietà di essere invariante di scala. In altre parole, la teoria ha solo particelle non massive, quindi nulla che possa fissare una scala di distanza o energia. Questa invarianza di scala implica anche un’invarianza conforme, vale a dire invarianza per cambiamenti quadridimensionali di coordinate che lasciano inalterati gli angoli» (p. 159). «Questa invarianza conforme rende la teoria una conformal field theory, definizione che spiega l’acronimo ‘CFT’» (p. 159s). L’altra teoria «è una teoria delle superstringhe, definita però in uno spazio particolare di cinque dimensioni. Questo spazio (o perlomeno il suo analogo in quattro dimensioni) è noto a chi studia gli spazi curvi della relatività generale come spazio anti-de Sitter», da qui «l’acronimo ‘ads’». «Lo spazio anti-de Sitter è uno spazio infinitamente esteso di dimensione cinque … pertanto la dualità presenta la caratteristica, difficile da capire, di mettere in relazione una teoria di stringhe in cinque dimensioni e una teoria quantistica dei campi in quattro». «Questo tipo di dualità è spesso denotato come olografico: proprio come un ologramma è un soggetto bidimensionale che codifica informazioni su tre dimensioni, così una teoria quantistica dei campi in quattro dimensioni codifica informazioni su cosa accade in una dimensione aggiuntiva (la quinta)». «Coloro che lavorano alla congettura sperano che essa possa essere generalizzata, in particolare al caso in cui la teoria quantistica dei campi quadridimensionale in esame non sia la teoria supersimmetrica di Yang-Mills invariante conforme, ma magari la QCD, una teoria di Yang-Mills non supersimmetrica» (p. 160). «A quel punto si spera che fare calcoli in questa teoria duale sarà possibile e fornirà finalmente una reale comprensione del comportamento a grande distanza della QCD». «La quantità di lavoro fatto negli ultimi sette anni sulla congettura ads/CFT è» notevole, «nessuna altra specifica idea speculativa della fisica teorica che non sia ancora stata messa in relazione con il mondo reale ha mai ricevuto neanche lontanamente questa quantità di attenzioni». Dal 1998 «un altro argomento molto popolare fra i teorici sono quelli che vengono chiamati scenari di brane-world», in cui alcune o tutte delle sei o sette dimensioni avanzanti rispetto alle quattro sperimentabili «possono essere molto più grandi che nello schema originario, e si assume che esista qualche meccanismo che mantiene i campi del Modello standard confinati nelle quattro dimensioni osservate, impedendo loro di propagarsi nelle altre. Scegliendo appropriatamente l’estensione e le proprietà di queste dimensioni aggiuntive, è possibile costruire modelli in cui sono presenti effetti osservabili alle scale raggiungibili da acceleratori costruiti o concepibili». «Negli ultimi anni molti teorici delle stringhe hanno smesso di lavorare in direzione di una migliore comprensione delle teorie di stringa e si sono indirizzati al campo della cosmologia, creando un nuovo campo denominato cosmologia di stringa» (p. 161), nella speranza «che la teoria delle superstringhe possa essere utilizzata per capire ciò che è accaduto a scale di energia estremamente alte che devono aver giocato un ruolo importante nell’universo primordiale» (p. 161s). «Infine, lo sviluppo più recente della teoria delle superstringhe ruota attorno allo studio di quello che è noto come il paesaggio del vasto numero di possibili soluzioni della teoria». «Le congetture sulla dualità e la teoria-M della seconda rivoluzione delle superstringhe contengono interessanti questioni relative alla geometria e alla topologia di spazi di dimensione elevata, e hanno motivato alcune nuove idee in matematica. D’altro canto, gli scenari di brane-world, la cosmologia di stringa e lo studio del paesaggio, che hanno giocato un ruolo tanto importante nella fisica teorica nel corso degli ultimi anni, fanno tutti ricorso quasi esclusivamente a calcoli che si rifanno soltanto alla tradizionalissima matematica delle equazioni differenziali». Così «la stretta e fruttuosa collaborazione fra la matematica e la fisica teorica che ha caratterizzato gran parte degli anni Ottanta e il periodo fra gli inizi e la metà degli anni Novanta continua, ma con intensità minore». Capitolo 12 – Teoria delle stringhe e supersimmetria: una valutazione – È una teoria fisica? «Come regola generale, il progresso scientifico è frutto di una complicata interazione di sviluppi teorici e sperimentali … la teoria delle superstringhe non ha avuto alcuna connessione con gli esperimenti perché non fa assolutamente nessuna predizione. Questo capitolo prenderà in considerazione questa situazione piuttosto singolare, e tenterà di valutare i progressi fatti negli ultimi vent’anni per rendere alla teoria delle superstringhe una teoria reale, in grado di spiegare qualcosa della natura». «Dal momento che il limite di bassa energia della teoria delle superstringhe si suppone sia una teoria quantistica di campo supersimmetrica, il capitolo comincerà con un esame di ciò che è noto a proposito delle estensioni supersimmetriche del Modello standard». → «Seguirà un tentativo di comprendere quali sono i motivi che impediscono alla teoria delle stringhe di essere una teoria , e quali le prospettive di cambiamento in questa situazione» → «Il capitolo si concluderà con un timido tentativo di valutazione dei successi della supersimmetria e della teoria delle superstringhe in matematica, dove, a differenza della fisica, si sono ottenuti risultati reali» (p. 163). Supersimmetria. In trent’anni «che cosa si è imparato, e quali risultati ci sono a fronte di una mole tanto sterminata di lavoro su un’idea così speculativa», come quella della supersimmetria (p. 164)? 1) L’argomento «di carattere generale che continua ad essere considerato una delle due ragioni principali per seguire quest’idea»: «Secondo l’argomento di Witten, qualunque tentativo di estendere il Modello standard a una teoria di grande unificazione si scontrava con quello che era chiamato problema della gerarchia. Questo significa che la teoria ha una gerarchia di due scale di energia (ovvero di distanza) ed è molto difficile riuscire a mantenerle separate». «La prima è la scala di energia della rottura spontanea della simmetria nella teoria elettrodebole, responsabile della massa delle particelle W e Z, ed è approssimativamente dell’ordine di 100 GeV» (p. 165). «La seconda è la scala di energia della rottura spontanea della simmetria più grande della teoria di grande unificazione che, per evitare conflitti con i dati sperimentali , deve essere almeno di 10^15 GeV» (p. 165s). «Witten argomentò che se introducevamo campi elementari (i campi di Higgs) per realizzare questa rottura di simmetria dello stato di vuoto, non esisteva alcun modo per assicurare che una scala di massa fosse 10^13 volte più piccola dell’altra». → «Inoltre egli sostenne che la supersimmetria poteva fornire un modo per uscire da questo problema. In effetti, mentre non esiste alcun modo naturale per mantenere piccola la massa dei campi bosonici quali i campi di Higgs, i fermioni, che non sono simmetrici sotto la riflessione per parità, hanno una simmetria chirale che naturalmente mantiene nulla la loro massa». «In una teoria supersimmetrica, i fermioni e i bosoni compaiono in coppie di uguale massa, pertanto la proposta di Witten fu di considerare il campo di Higgs elettrodebole accoppiato, nell’ambito di una teoria supersimmetrica, a un fermione la cui massa poteva essere naturalmente posta a zero». → «Questo argomento ebbe, e continua ad avere, una grande influenza, ma si deve tenere a mente che fa uso di molte assunzioni. La prima è che c’è una grande unificazione, rotta a una grande scala energetica per rottura spontanea di simmetria. La seconda è che il meccanismo per la rottura spontanea di simmetria è il campo di Higgs elementare. Una o entrambe di queste assunzioni possono essere sbagliate». 2) C’è poi «un secondo argomento per la supersimmetria che ha accresciuto la sua influenza nel corso degli ultimi venti anni. Anche questo si basa sull’assunzione della grande unificazione». «Si assume che la teoria di grande unificazione abbia soltanto un numero che caratterizza l’intensità dell’interazione, mentre il Modello standard ne ha tre» (p. 166). Ora «quando si considera la grande unificazione si devono estrapolare le intensità osservate delle interazioni fino alla scala della grande unificazione», e attualmente «i punti estrapolati a cui le tre possibili coppie di intensità di interazione si eguagliano corrispondono a tre diverse energie nell’intervallo 10^13-10^16 GeV». «Se si considera il modo più comune per estendere il Modello standard a una teoria quantistica di campo supersimmetrica e si riesegue il calcolo, la situazione migliora di molto, e si ottiene che le tre intensità raggiungono lo stesso valore alla scala di circa 2x10^16 GeV». → «Ad ogni modo, per dare un significato a questo risultato, è necessario fare almeno un’assunzione molto forte. Questa assunzione richiede che nessun tipo di nuova fisica prenda il posto nell’enorme intervallo di energie compreso tra ciò che è già stato studiato (fino a 10-1000 GeV) e la scala di 2x10^16 GeV. Una tale assunzione è conosciuta come ipotesi del deserto». Inoltre «dal momento che non si conosce quale sia il meccanismo di rottura della simmetria di grande unificazione, un’altra assunzione implicita è il fatto che le tre intensità delle interazioni diventino uguali sia un aspetto necessario dello schema». Altri poi sono stati gli argomenti a favore: 3) «Il fatto che la supersimmetria mette in relazione fermioni e bosoni, pertanto si può sperare che possa fornire una descrizione unificata dai due tipi di particelle conosciuti. Sfortunatamente, ora si è ben compreso che questo non funziona affatto, e tale argomento non ha alcun fondamento» (p. 167). Il «disaccordo fra lo schema di simmetria che la supersimmetria predice e quelli osservati continua ad essere presente anche per modelli maggiormente ipotizzati di grande unificazione, in cui le particelle necessarie per la grande unificazione non possono essere messe in relazione fra loro dalla supersimmetria». 4) È possibile che il limite di bassa energia di una teoria di superstringa sia una teoria quantistica di campo supersimmetrica. Va da sé che questo argomento è basato sull’assunzione che ad alte energie il mondo sia governato da una teoria di superstringa». Vedremo più avanti tutto ciò, ma fin d’ora è chiaro che «le sorti della supersimmetria e della teoria delle stringhe sono collegati, nel senso che queste idee o sono entrambe sbagliate o sono entrambe corrette». 5) La supersimmetria «conduce a una nuova affascinante teoria che generalizza il Modello standard in un modo convincente». «La più semplice teoria supesimmetrica che generalizza il modello standard prende il nome di Modello Standard Supersimmetrico Minimale o MSSM … le altre possibilità realizzabili devono includere l’MSSM come parte della teoria». «Ci sono due problemi fondamentali che rendono difficile elaborare un’estensione supersimmetrica semplice del Modello standard». → «La prima è che, come già menzionato, dal momento che non c’è modo di far uso della supersimmetria per mettere in relazione nessuna coppia di particelle conosciute, essa deve mettere in relazione ogni particella nota con una sconosciuta … superpartner, e al momento esiste anche una dettagliata nomenclatura per queste particelle» (p. 168). «In aggiunta, per il campo bosonico di Higgs … è necessario postulare l’esistenza di un secondo insieme di campi di Higgs con un secondo insieme di superpartner». «Queste nuove particelle di cui si è postulata l’esistenza non possono avere la stessa massa delle particelle di cui già si conosce l’esistenza, altrimenti sarebbero già state osservate. Per rimanere coerenti con i dati sperimentali si deve assumere che tutte queste nuove particelle siano tanto pesanti che possono non essere state riprodotte e quindi osservate negli odierni acceleratori di particelle». «Ciò significa che la supersimmetria deve essere rotta spontaneamente», ma questo «è un disastro per l’intero progetto della teoria quantistica di campo supersimmetrica»! Uno dei modi migliori, per rendere possibile questa rottura, «richiede di cominciare con una teoria supersimmetrica nascosta completamente nuova, sufficientemente diversa dal Modello standard da essere in grado di rompere la sua supersimmetria dinamicamente. Le particelle e le forze di questa nuova teoria “nascosta” non hanno nulla a che fare con le particelle e le forze note, pertanto si hanno due teorie quantistiche di campo supersimmetriche completamente separate». Tipicamente poi «si assume l’esistenza di un terza teoria “messaggera” con il suo proprio insieme di particelle soggette sia alle forze note, sia a quelle nascoste. Le particelle di questo terzo tipo sono chiamate particelle messaggere, ed esistono svariate proposte su quale tipo di teoria possa descriverle» (p. 169). → Questa intera struttura però «è altamente barocca, non molto plausibile e distrugge completamente la capacità della teoria di predire alcunché» (p. 170s). «Se i problemi di rottura della supersimmetria sono di gran lunga i più dannosi, l’MSSM ha alcune altre caratteristiche indesiderate. Per evitare che i superpartner interagiscano con le particelle note in un modo che non concorda con gli esperimenti, la teoria deve essere organizzata in modo da avere una simmetria di R-parità», ma «anche con questo vincolo ad hoc sulla teoria, esistono ancora molti modi in cui si corre il rischio di essere in disaccordo con gli esperimenti» (p. 170), perché prevedono una classe di fenomeni che non trova riscontro sperimentale, esse includono: «correnti neutre con cambio di sapore»; «processi in cui un tipo di leptoni si trasforma in un altro»; «grandi violazioni della simmetria CP». → «Un altro potenziale problema dell’MSSM è chiamato problema (mu)», dove con si identifica «il coefficiente del termine che nell’MSSM governa la massa della particella di Higgs supersimmetrica. Questo problema è sostanzialmente il pericolo della ricomparsa del problema della gerarchia che si suppone risolto dalla supersimmetria». Infatti perché tutto funzioni «si è obbligati ad assumere che, per qualche ragione sconosciuta, qualunque cosa accada alla scala della grande unificazione non possa rendere nullo , e dall’altro invocare la presenza di altri campi per fornirgli un valore ragionevole» (p. 171). «Problemi aggiuntivi compaiono se si cerca seriamente di incorporare l’MSSM in una teoria di grande unificazione». Sull’eventuale uso di una teoria di grande unificazione SU(5) «il passaggio a una teoria supersimmetrica fa aumentare un po’ la scala della grande unificazione, pertanto nella versione supersimmetrica il processo responsabile del decadimento del protone risulta molto più raro; ciò sembrerebbe mettere la teoria supersimmetrica al riparo dal disaccordo con gli esperimenti, ma in realtà possono avvenire altri processi che concorrono al ripresentarsi di tale problema. Un problema particolarmente pericoloso per la teoria è qualcosa che è chiamato problema della separazione doppietto-tripletto» (p. 172). Venendo, a vedere se le prime due caratteristiche (1 e 2) «contribuiscono a fornire una qualche predizione sperimentale». La teoria «predice che le masse dei superpartner non possano essere troppo diverse dalla scala della rottura spontanea di simmetria elettrodebole, di circa 200 GeV» e gli esperimenti per il momento sono arrivati di poco sotto a questa soglia senza trovare alcunché. → La seconda caratteristica ha poi «il merito di fare esattamente una predizione. Se le intensità dei tre tipi di forze devono raggiungere lo stesso valore precisamente nello stesso punto, conoscerne due permette di predire la terza», previsione che «è in accurata del 10-15 per cento e richiede di non introdurre nuova fisica rilevante lungo la strada che porta alla scala delle teorie di grande unificazione» (p. 173). «Una possibile giustificazione per prendere sul serio l’MSSM nonostante i suoi problemi sarebbe di natura estetica. Forse la teoria è davvero così bella da non poter fare null’altro che credere che debba contenere qualcosa di vero», ma sono pochissimi a giudicarla come tale. C’è però anche un altro motivo. «Ricordiamo che esistono teorie di supergravità che sono supersimmetriche e includono anche la forza gravitazionale. Queste teorie hanno problemi di rinormalizzabilità, ma ci possono essere ragioni per credere che questi problemi possano essere in qualche modo superabili. Se si estende l’MSSM non soltanto a una teoria di grande unificazione supersimmetrica, ma ance oltre per una teoria che includa la supergravità, allora in principio si ottiene una teoria che descrive tutte le forze conosciute, una cosa cui tutti i fisici ambiscono. Sfortunatamente, questa idea conduce a uno spettacolare disaccordo con le osservazioni» (p. 174). Nella relatività di Einstein infatti «l’energia del vuoto ha effetti direttamente sulla curvatura dello spazio-tempo, e compare come un termine nelle equazioni di Einstein che egli stesso chiamò costante cosmologica». «Einstein inserì inizialmente questo termine nelle sue equazioni poiché aveva osservato che se non fosse stato presente, da queste sarebbe seguita la predizione di un universo in espansione. Quando le osservazioni astronomiche mostrarono che l’universo era realmente in espansione, il termine poté essere posto a zero, e dimenticato», anche se recenti osservazioni «hanno per la prima volta fornito indicazioni secondo cui la costante cosmologica sembra essere non nulla». Ora «il valore della costante cosmologica può essere pensato come la densità di energia del vuoto, o, in modo equivalente, come energia per unità di volume dello spaziotempo … gli astronomi ritengono che il suo valore sia dell’ordine di 10^-12eV^4 », mentre dalla teoria supersimmetrice emerge un calore di circa «10^44eV^4». «Questa è sicuramente la peggior previsione mai fatta da una teoria fisica che sia mai stata presa sul serio» (p. 175). «Le teorie supersimmetrice di unificazione rendono la situazione addirittura peggiore». «Sono stati fatti molti tentativi di ovviare al problema, ma finora nessuno di questi ha avuto successo. Negli ultimi anni il tentativo più popolare consiste in un certo senso nel lavarsene le mani e sostenere che l’unico modo per spiegare il valore della costante cosmologica consiste nel ricorrere al principio antropico». Teoria delle superstringhe. «Dal momento che i fisici continuano a prendere sul serio l’idea di un’estensione supersimmetrica del Modello standard, essi devono avere un motivo per credere che sia possibile superare le grosse difficoltà esposte in dettaglio nella sezione precedente. La speranza più diffusa è che la teoria delle superstringhe sia in grado di farcela. Questa speranza ha motivato una quantità di lavoro senza precedenti … tuttavia dopo tutto questo tempo e sforzo l’intero progetto rimane nient’altro che una speranza. Non una singola previsione sperimentale è stata fatta e non esistono prospettive che lascino intendere che la situazione cambierà presto». «La mancanza di qualunque previsione della teoria rende molti fisici dubbiosi sul fatto che possa essere corretta» (p. 176). Lo stesso Feynman ebbe a dire che “Non mi piace che non calcolino nulla. Non mi piace che non verifichino le loro idee. Non mi piace il fatto che per ogni cosa che è in disaccordo con l’esperimento inventino una spiegazione” e che “I teorici delle stringhe non fanno previsioni, essi forniscono giustificazioni”. Un altro avversario famoso è Sheldon Glashow (p. 177), che a queste motivazioni aggiunge “E ciò che è peggio è che la teoria delle superstringhe non segue come logica conseguenza da nessun affascinante complesso di ipotesi sulla natura. Perché, potreste chiedervi, i teorici delle stringhe insistono nell’affermare che lo spazio ha nove dimensioni? Semplicemente perché la teoria delle stringhe perde di significato in ogni altro tipo di spazio. Fino a quando coloro che lavorano alla teoria delle stringhe non saranno in grado di interpretare qualche proprietà del mondo reale, semplicemente non staranno facendo della fisica”. «La ragione fondamentale per cui la teoria delle stringhe non fa alcuna previsione è che essa non è realmente una teoria, quanto piuttosto un insieme di ragioni per sperare che una teoria esista davvero (p. 178). «Per quale motivo la teoria delle stringhe, che è stata studiata a partire dagli anni Settanta, non è una vera teoria? Per comprendere il problema, ricordiamo la discussione già fatta a proposito dell’espansione perturbativa della QED». «Data una qualunque teoria quantistica di campo, si può considerare la sua espansione perturbativa e (sempre che la teoria sia rinormalizzabile), per ogni quantità che si voglia calcolare, questa espansione fornirà una sequenza infinita di termini. Ciascuno di questi termini ha una rappresentazione grafica chiamata diagramma di Feynman». «Ci sarà qualche parametro o ‘costante di accoppiamento’ che è tipicamente legato all’intensità delle interazioni, e ogni volta che si procede considerando un ordine successivo nella serie perturbativa, i termini acquisiscono un fattore aggiuntivo della costante d’accoppiamento Affinché l’espansione si riveli utile, i termini devono diventare sempre più piccoli in maniera sufficientemente rapida quando nei calcoli si considerano ordini perturbativi più alti … Se questo accade o no dipende dal valore della costante di accoppiamento». «La situazione migliore è quella in cui l’espansione è quella che viene chiamata una serie convergente. In questo caso quanto più si aggiungono termini di ordine sempre più elevato, tanto più ci si avvicina all’espressione finita che rappresenta la soluzione del problema» (p. 179). «Sfortunatamente, questo non sembra essere il caso che si verifica per le espansioni perturbative rinormalizzate di teorie quantistiche di campo non banali in quattro dimensioni spazio-temporali. Nella migliore delle ipotesi l’espansione è invece una serie asintotica, vale a dire che si verificano due condizioni. Prima la cattiva notizia: se si cercano di sommare tutti i termini non si otterrà la risposta corretta, ma ‘infinito’. La buona notizia: se si somma soltanto un numero finito di termini, si può ottenere qualcosa di molto vicino alla risposta corretta e, inoltre, ci si avvicina sempre più alla risposta corretta quanto più è piccola la costante di accoppiamento. Questo è ciò che accade nel caso della QED». «Sebbene il metodo dell’espansione perturbativa fallisca, la teoria quantistica di campo di Yang-Mills è una teoria perfettamente ben definita dal momento che la si può definire rigorosamente facendo uso dei metodi di reticolo menzionati nei capitoli precedenti». «La situazione nella teoria delle superstringhe è tale per cui per ogni processo, ciò che la teoria fornisce è il metodo per assegnare un numero ai possibili fogli di mondo bidimensionali descritti dal movimento delle stringhe. Questi fogli di mondo possono essere organizzati topologicamente contando il numero di buchi che possiedono. Un calcolo in teoria delle stringhe fornisce un numero per il caso in cui il foglio di mondo non abbia nessun buco, un altro numero se ha un solo buco, un altro ancora per due buchi e così via. La congettura fondamentale della teoria delle stringhe è che questa sequenza infinita di numeri sia un qualche tipo di espansione perturbativa per qualche sconosciuta e ben definita teoria», la teoria-M (p. 180). «Si può sperare che l’espansione del numero di buchi sia in realtà una serie convergente … ci sono solidi argomenti secondo cui l’espansione non sarebbe convergente, pertanto calcolare più e più termini fornirebbe un risultato che diventa infinito». «Le caratteristiche principali di calcolo che i teorici delle superstringhe vorrebbero mantenere sono quelle che mostrano che, nel limite di bassa energia, la teoria si comporta come una teoria dei campi di Yang-Mills e gravitoni … ci sono un certo numero di caratteristiche del calcolo che essi vorrebbero rifiutare in quanto caratteristiche che non dovrebbero essere presenti nella sottostante teoria-M». Vediamole: - «Una di queste caratteristiche è la supersimmetria del vuoto della teoria» (p. 181). Così «qualunque cosa sia la teoria-M, si suppone che essa contenga una spiegazione dell’origine della rottura spontanea della supersimmetria. Essa dovrebbe anche permettere il calcolo a partire da principi primi dei 105 parametri aggiuntivi del Modello Standard Supersimmetrico Minimale. Infine, essa dovrebbe risolvere tutti i problemi delle teorie quantistiche si campo supersimmetriche descritti nella sezione precedente. Non esiste alcuna prova di una teoria-M che sia in grado di fare tutto ciò» (p. 181s). - «L’altra caratteristica dell’espansione in buchi di cui i teorici delle superstringhe vorrebbero liberarsi nella teoria-M è la cosiddetta degenerazione del vuoto». «La teoria delle superstringhe è una teoria dipendente dal background, vale a dire che affinché essa sia correttamente definita è necessario scegliere uno spazio di dimensione dieci di background, in cui la superstringa si muove. Esiste un numero infinito di scelte consistenti, ma soltanto un esiguo numero di queste ha quattro dimensioni spazio-temporali grandi e sei piccole dimensioni arrotolate su uno spazio di Calabi-Yau». «Il problema della degenerazione del vuoto consiste nel fatto che ogni spazio di Calabi-Yau, qualunque sia la sua dimensione e qualunque sia la sua forma, è ugualmente valido per quanto concerne l’espansione in buchi della superstringa». «Ciò che i teorici delle superstringhe vorrebbero che la teoria-M facesse è in qualche modo selezionare uno spazio di Calbi-Yau di una specifica dimensione e forma, ma ancora una volta non esiste assolutamente alcuna prova dell’esistenza di una teoria-M che sia in grado di farlo» (p. 182). «Quando i teorici delle superstringhe cercano di spiegare per quale motivo la teoria delle superstringhe non fa alcuna previsione, spesso fanno ricorso a due spiegazioni che sono piuttosto delle scuse». «La prima è che risolvere la matematica della teoria è davvero troppo difficile. Come abbiamo visto, in realtà non è questo il problema; il problema è piuttosto che nessuno sa quali siano le equazioni da risolvere … pertanto nessuna previsione è possibile». «La seconda spiegazione spesso usata è che la scala fondamentale di energia della teoria delle superstringhe è molto elevata, tanto da rendere i fenomeni caratteristici delle superstringhe inosservabili e l’estrapolazione a bassa energia difficile. Sì, va bene, ma la realtà delle cose è un’altra: dal momento che non esiste una vera teoria, anche se esistesse un acceleratore di particelle in grado di raggiungere queste elevatissime energie i teorici delle stringhe non sarebbero in grado di fare alcuna previsione dettagliata su ciò che questo dovrebbe vedere». Ci sono però anche altri argomenti Uno «usuale per la teoria delle superstringhe è che questa può predire cose come la dimensionalità dello spazio-tempo (dieci) e il gruppo di grande unificazione (ad esempio E8xE8), semplicemente richiedendo la cancellazione dell’anomalia. Il problema di questa affermazione è che queste previsioni sono sbagliate, e per farle emergere nel modo corretto è necessaria la scelta arbitraria di uno spazio di Calaibi-Yau o qualcosa di simile, pregiudicando il valore predittivo della teoria». Un altro è che «i teorici delle stringhe sostengono la teoria per via del fatto che questa conduce a una teoria supersimmetrica di grande unificazione» (p. 183), ma visto che «presenta molti problemi e non fa una previsione … non è una motivazione molto convincente» Spesso poi «si invocano argomenti non scientifici per progredire nella ricerca sulla teoria delle superstringhe. Secondo il più comune, essa sarebbe ‘l’unica alternativa sulla piazza’», ma di ciò si discuterà più avanti, o che «il solido supporto di Witten alla teoria delle stringhe sia di per sé una validissima ragione per lavorare in questo campo». Se quest’ultimo argomento per l’autore «è di gran lunga il miglior argomento a favorire la teoria delle superstringhe», «è bene tenere a mente la storia di un altro genio che occupò la stessa posizione di Witten all’Institute for Advanced Study»: Einstein. Egli infatti, dopo il 1915, «dedicò la maggior parte del resto della sua carriera a un infruttuoso tentativo di unificare l’elettromagnetismo e la relatività usando il tipo di tecniche geometriche che avevano funzionato nel caso della relatività generale», decidendo «di ignorare la meccanica quantistica a dispetto del suo grande successo, sperando che in qualche modo si potesse farne a meno». «Questo esempio mostra chiaramente come il genio non metta al riparo dal commettere l’errore di dedicare alcuni decenni della propria vita a inseguire un’idea che non ha alcuna speranza di successo». «L’argomento di gran lunga più comune a favore della teoria delle superstringhe è una qualche versione dell’affermazione per cui essa ‘è l’unica consistente teoria quantistica nota della gravità’» (p. 184). Se infatti si cerca «di trattare la relatività generale con i metodi standard della teoria quantistica dei campi», si arriva «a un’espansione perturbativa che non può essere rinormalizzata. Se si calcolano termini di ordine elevato in questa espansione si ottengono degli infiniti che non possono essere trattati». Invece «il calcolo di termini di ordine elevato nella teoria delle superstringhe è abbastanza difficile, ma ci sono alcune ragioni per credere che i problemi che rendono infiniti i termini della teoria quantistica dei campi non siano presenti nella teoria delle superstringhe». «In breve, gli infiniti nella teoria quantistica dei campi sono originati dal comportamento della teoria a piccole distanze, e sono legati al fatto che le interazioni fra due campi si verificano precisamente nello stesso punto dello spazio-tempo. Questo non è il meccanismo con cui funziona la teoria delle stringhe, pertanto questa sorgente di infiniti non è un problema». «Esistono però altre sorgenti di infiniti di cui preoccuparsi: ad esempio, cosa accade quando la stringa diventa infinitamente piccola?» Attualmente «si è provato che i termini con nessun buco, un buco e due buchi sono finiti, e la speranza è che» lo siano anche i termini di ordine superiore. Questo è il motivo «che porta i teorici delle superstringhe ad affermare che essa è una teoria consistente della gravità, ma essi ignorano il fatto» se si tratti di una serie convergente o meno (p. 185). Ma in realtà ci sarebbero problemi «anche se l’espansione fosse convergente. In tal caso, i teorici delle superstringhe non avrebbero soltanto una teoria perfettamente consistente, ma un’infinità di teorie, tutte con caratteristiche radicalmente in disaccordo con l’esperimeno». → L’altro aspetto problematico circa l’essere “l’unica teoria consistente” «è l’attributo ‘unica’. Ci sono diverse altre proposte che sono state formulate nel corso degli anni per differenti modi di conciliare la meccanica quantistica e la relatività generale, ma per nessuna di queste proposte è esistito nulla di paragonabile all’analisi esaustiva che è stata fatta per la teoria delle superstringhe». «Un’altra proposta ha attirato un considerevole gruppo di ricercatori, una proposta che passa sotto vari nomi, uno dei quali è gravità quantistica ad anelli». I fisici che lavorano a questa proposta «hanno ottenuto progressi negli anni nella direzione di ottenere una teoria quantistica consistente per la gravità, sebbene se rimanga da valutare se la loro teoria è in grado di riprodurre la relatività generale nel limite di bassa energia» (p. 186). Forse essa ha attirato meno attenzione, perché «essa è decisamente molto meno ambiziosa. È puramente un tentativo di costruire una teoria quantistica della gravità, e non si pone come ipotesi su come unificare la gravità con il Modello standard». → «I teorici delle superstringhe hanno un altro motivo per credere che la teoria delle superstringhe possa fornire una teoria quantistica consistente della gravità, un motivo che ha a che fare con calcoli che coinvolgono i buchi neri». «Stephen Hawking fu il primo a mostrare che se si combina la teoria quantistica dei campi con la relatività generale si osserva che i buchi neri non sono realmente neri, ma emettono radiazione. La radiazione è emessa come se i buchi neri fossero oggetti che obbediscono alle leggi della termodinamica, con una temperatura proporzionale alla loro area». «Senza una vera teoria quantistica della gravità non è mai stato possibile controllare esattamente come funzioni la radiazione di Hawking nel contesto di una teoria completamente consistente». «Per alcuni specifici background di spazio-tempo che si possono interpretare come casi limite di buchi neri, i teorici delle superstringhe sono stati in grado di dimostrare che la radiazione di Hawking si presenta come previsto. Anche se per buchi neri realistici in quattro dimensioni spaziotemporali non possono essere eseguiti, questi calcoli forniscono la prova dell’esistenza di una teoria quantistica consistente per la gravità come parte della teoria delle superstringhe». Esistono però «molte teorie quantistiche consistenti, alcune contenenti campi e altre no, che includono forze gravitazionali. Se il programma della gravità quantistica ad anelli avrà successo, esso dovrà formulare una teoria quantistica del campo gravitazionale a cui sarà semplicemente necessario aggiungere tutte le altre teorie quantistiche per gli altri campi» (p. 187). Sia chiaro però che se anche la teoria-M fosse consistente grazie ad una corretta «scelta dello spazio-tempo di background», «né la gravità quantistica ad anelli né la teoria-M esibiscono alcuna prova dell’esistenza di un’unica teoria unificata della gravità e delle altre interazioni». E «anche se queste teorie riuscissero nel loro intento di trovare una teoria quantistica consistente della gravità, se non saranno in grado di dire nulla a proposito del Modello standard saranno del tutto insoddisfacenti perché esiste un serio dubbio sul fatto che possano essere testate sperimentalmente. Effetti quantistici gravitazionali caratteristici si verificano a scale di energia talmente alte da rendere difficile immaginare come sia possibile misurarli. Forse alcuni fenomeni quantistici della gravità avvenuti al momento del Big Bang possono avere effetti osservabili sui modelli cosmologici, ed essere quindi verificabili, ma non è ancora del tutto chiaro». «Un argomento conclusivo che si sente spesso a favore della teoria delle superstringhe è che la teoria è semplicemente così ‘bella’ che deve essere vera in qualche modo. Questo argomento solleva una moltitudine di questioni (compresa quella se la teoria sia davvero bella) e sarà considerato in dettaglio nel prossimo capitolo». «Molto del fascino della teoria delle superstringhe dunque non è affatto dovuto a quanto è noto attualmente della teoria; piuttosto riflette le speranze e i sogni dei teorici che hanno dedicato anni della loro vita a studiarla» (p. 188). Un crescente numero di fisici impegnati in essa però «sta abbandonando la ricerca finalizzata ai tentativi di scoprire osa sia la teoria-M per lavorare su soggetti come i brane-world e la cosmologia di stringa». «Una parte dei motivi risiede nel fatto che c’è un desiderio di rispondere alle critiche, che si stanno facendo sempre più sentire nella comunità fisica», anche di chi, come Daniel Friedan, è stato uno dei suoi fondatori, «che li accusano di lavorare nel campo della matematica piuttosto che in quello della fisica. Un’altra parte dei motivi ha a che fare con il fatto che semplicemente non ci sono idee promettenti su cosa possa essere la teoriaM». Altri invece si sono concentrati «in un’area molto più promettente, quella del tentativo di trovare una teoria di superstringa duale alla QCD. La già descritta corrispondenza ads/CFT fornisce qualche speranza che si possano fare progressi in questa direzione, e sembra anche offrire nuove possibili intuizioni nella stessa teoria delle superstringhe» (p. 190). Teoria delle stringhe, supersimmetria e matematica. «Mentre la supersimmetria e la teoria delle stringhe si sono rivelate finora decisamente infruttuose nello spiegare alcunché di fisico, tuttavia hanno portato una grande quantità di nuova e fiorente interazione tra i campi della fisica e della matematica. In un certo senso è proprio questa mancanza di risultati fisici ad essere responsabile di» ciò. «Tutta questa attività cambiò le menti di molti fisici che si erano sempre rivelati scettici verso l’utilità della matematica nella fisica». Così Gell-Mann nel 1986 disse “La fisica teorica è stata riunita alla matematica pura nel corso del decennio scorso in modo sensazionale, dopo un allontanamento durato circa mezzo secolo; e la fisica teorica fondamentale è stata riunita con il nucleo della matematica pura dove la geometria, l’analisi e l’algebra (nonché la teoria dei numeri) si fondono” (p. 191) e questo perché i matematici “esaminano una scienza reale di per sé, con una definizione elusiva, ma che in un certo senso ha a che fare con le regole per tutti i possibili sistemi o strutture che la Natura può impiegare” (p. 192). A partire però «dalla metà degli anni Novanta i problemi relativi alla teoria delle superstringhe avevano portato ad una forte reazione collettiva contro l’uso della matematica nella fisica delle particelle. Alcuni fisici, piuttosto che mettere in luce i problemi delle idee fisiche di base, ricondussero alla matematica astratta il fallimento della teoria delle superstringhe, del tutto incapace di fare alcuna previsione reale» (p. 193), ad un «eccessivo attaccamento all’eleganza della matematica la ragione di fondo della teoria delle superstringhe e della teoria-M», attaccamento che si vedeva già, per altro, in Einstein. «I fisici dovrebbero forse valutare se il commento decisamente pesante di Gorge Orwell sui pensieri politici della sinistra non possa applicarsi altrettanto bene alla moderna fisica delle particelle: “Il pensiero politico, specialmente quello di sinistra, è una sorta di fantasia onanista in cui la realtà di fatto ha scarsa rilevanza”» (p. 194). «Negli ultimi anni, i matematici sono stati impegnati in un lento processo atto a integrare ciò che hanno imparato dalla fisica nel corpus delle conoscenze matematiche» (p. 194s). Ma «una volta trovata una versione precisa delle implicazioni puramente matematiche di una congettura proveniente dalla fisica, essi devono tentare di trovare una dimostrazione che faccia uso di rigorosi metodi matematici conosciuti. Questo significa che raramente essi sono in grado di accedere al contenuto profondo dell’idea originale così come formulata nel linguaggio della teoria quantistica dei campi. D’altro canto, essi spesso elaborano idee e congetture su oggetti matematici di natura singolare in quanto provenienti da un ambito concettuale completamente diverso da quello in cui erano stati inizialmente concepiti. Molti matematici sono spesso poco consapevoli dell’esatta fonte fisica delle congetture che studiano» e così «una delle conseguenze di questa mancanza di chiarezza nella comunità matematica, relativa a cosa sia originario della teoria delle stringhe e cosa della teoria quantistica dei campi, ha fatto sì che i matematici fossero oltremodo impressionati dall’intera idea della teoria delle superstringhe» (p. 195). Capitolo 13 – Sulla bellezza e sulla difficoltà «Il fatto che una porzione così grande del modo in cui il mondo funziona possa essere spiegata da un semplice insieme di equazioni con l’uso del calcolo è indubbiamente parte di ciò che pensava Leibniz quando descriveva il nostro mondo come, fa tutti i possibili, “il più semplice nelle ipotesi e il più ricco in fenomeni”. La sostituzione della meccanica classica con le più nove teorie della relatività e della meccanica quantistica ha soltanto reso più sensazionale la congruenza fra la matematica e la realtà fisica. Mentre fa uso di una matematica più sofisticata della meccanica di Newton, la meccanica quantistica spiega uno spettro più ampio di fenomeni fino al livello atomico, e lo fa ancora utilizzando sostanzialmente una singola semplice equazione (l’equazione di Shrödinger). La teoria della relatività generale riesce a descrivere accuratamente gli effetti della forza gravitazionale su scale di distanza che vanno da quelle cosmologiche fino alle più piccole, per cui possiamo misurare gli effetti della forza; e lo fa usando la sofisticata matematica della geometria moderna, e in questo linguaggio la teoria può essere riassunta in un’equazione davvero semplice. La fisica moderna ha rimpiazzato la fisica newtoniana con un intero nuovo insieme di concetti fondamentali; ma questi, espressi nel linguaggio della matematica moderna, prevedono ipotesi molto semplici e spiegano una gamma incredibilmente ricca di fenomeni». E come disse Wigner “il miracolo dell’adeguatezza del linguaggio della matematica nella formulazione delle leggi della fisica è un meraviglioso dono che noi non comprendiamo né meritiamo” (p. 198). «La più sofisticata fisica moderna che entra in gioco a distanze molto grandi o molto piccole non è precostituita nelle nostre menti a livello fondamentale, ma è qualcosa che, pur con grande difficoltà, possiamo imparare a manipolare facendo uso delle nostre facoltà mentali astratte [ma allo stesso profonde/carnali direi io, perché portano ad uscire gli “estremi” di noi]. Anche se ciò non è facile, la nostra abilità è interamente basata sul fatto che c’è una semplice struttura di fondo in gioco, per quanto questa, pur espressa, richieda l’uso di una struttura matematica molto sofisticata». «Il fatto per cui le più potenti teorie fisiche sono esprimibili nei termini del linguaggio tipico della matematica è ciò che i fisici hanno generalmente in mente quando fanno riferimento alla bellezza e all’eleganza di queste teorie. Dirac espresse egregiamente questo concetto: “Se si lavora perseguendo l’obiettivo di ottenere la bellezza di un’equazione, e se si hanno davvero intuizioni musicali, allora ci si trova sicuramente su una strada che porta a qualche progresso”» (p. 199). «Nelle fasi di lavoro in cui gli esperimenti forniscono nuovi risultati inaspettati, il primo compito dei teorici è quello di elaborare qualche tipo di modello esplicativo di ciò che gli esperimenti mostrano, che sia in accordo con quelli già eseguiti e che predica ciò che gli esperimenti futuri vedranno. Considerazioni di bellezza ed eleganza sono pertanto secondarie, in accordo con il principio del rasoio di Occam: dati molti possibili modelli in grado di accordarsi con i dati sperimentali, ci si deve concentrare unicamente sui più semplici. In un periodo come quello che stiamo vivendo, in cui i risultati sperimentali spiegati sono pochi o addirittura nessuno, il principio secondo cui si devono cercare spiegazioni teoriche semplici e belle assume un’importanza ancora maggiore». «Uno degli argomenti più spesso ripetuti a favore della teoria delle superstringhe afferma che questa sarebbe una teoria così bella che deve contenere per forza qualcosa di vero». Ma perché bella? «La teoria quantistica del Modello standard contiene idee fisiche e matematiche che sono incredibilmente belle», perché gli assunti fondamentali del modello standard «corrispondono precisamente alle strutture matematiche principali dell’approccio moderno alla geometria del XX secolo». Invece «la teoria delle superstringhe non è affatto comparabile ad essa», anche se «chiede di credere che tali strutture sono soltanto approssimazioni, limiti di bassa energia di qualcosa di più fondamentale, senza peraltro dirci cosa si suppone che questo “qualcosa” sia». A proposito della “bellezza” della teoria delle stringhe vediamo le varie voci: - «L’immagine vibrante di una stringa vibrante, i cui modi di vibrazione descrivono tutte le particelle e le forze note, è ciò che molti ritengono il “bello” della teoria. Questo tipo di bellezza è davvero molto superficiale» (p. 200). - Per Schwarz invece la bellezza della teoria, non è quella intesa fin d’ora, ma ciò che “conquista coloro che lavorano in questo campo è lo scoprire che si stanno occupando di un sistema matematico molto rigoroso che incorpora cose che nessuno ha ancora capito. Si eseguono alcuni calcoli complicati, e si scopre che la risposta è sorprendentemente semplice … Quando si sperimenta di persona questo fatto un certo numero di volte, si viene realmente sedotti dal soggetto”, ma questa «è la bellezza del mistero e della magia», che «chiaramente sparisce senza lasciar alcuna traccia non appena si scopre il trucco del prestigiatore dietro la magia, o la storia dietro il mistero». - - - «Le speranze iniziali che nel 1984 motivarono molti studiosi a interessarsi della teoria delle superstringhe ruotavano intorno alle condizioni di cancellazione dell’anomalia, ricavate da Green e Schwarz» (p. 201). «Questo calcolo, insieme alla simile ma più vecchia condizione dell’anomalia che richiede che le superstringhe si muovano in uno spazio-tempo in dieci dimensioni, è uno degli aspetti che più spesso hanno in mente coloro che parlano della bellezza della teoria delle superstringhe» (p. 201s). Il problema è che ciò non predice ciò che vediamo anche se «la speranza, nel 1984, era che queste discrepanze potessero essere giustificate». «Più di vent’anni di ricerca hanno mostrato che si trattava di un’illusione». «Alcuni teorici delle superstringhe ora ritengono che la teoria non sia di per sé elegante; la sua virtù sarebbe piuttosto quella di descrivere ogni genere di cose complicate, tanto complicate che alcune di queste sarebbero in grado di riprodurre la vita intelligente» (p. 202). Per Susskind così «questa complessità e questa bruttezza in realtà sono un aspetto positivo, e dà vita a un’argomentazione peculiare che analizzeremo in uno dei prossimi capitoli» e così «mentre ritiene che sia ormai assodato che la teoria delle superstringhe, qualunque cosa essa sia, ha un insieme enorme ed estremamente complicato di possibili stati di vuoto, egli ritiene che la sconosciuta teoria di base sia meno complicata o perfino elegante, e afferma: “Io penso che potrei trovare i principi universali della teoria delle stringhe più eleganti – se solo sapessi quali sono”». «Sebbene molti fisici possano aver cambiato opinione a proposito della bellezza della teoria delle superstringhe, c’è un piccolo disaccordo sulla sua difficoltà» (p. 203) e «siccome l’intera materia è tanto complessa e difficile, i teorici cercano di valutare ciò che sta accadendo basandosi spesso non sul proprio grado di comprensione della teoria, ma su ciò che altri dicono» e soprattutto su ciò che dice Witten. Così «oltre ad aver innalzato un’enorme barriera per chi vuole accostarsi alla materia, la difficoltà della teoria delle superstringhe rende difficile ai ricercatori l’abbandono. Prima di riuscire a ottenere qualche risultato decente, essi solitamente hanno investito una parte cospicua della loro carriera nello studio delle superstringhe». «È anche vero che non esistono alternative alla teoria delle stringhe che si possano imparare facilmente e in cui si possa cominciare a fare ricerca in tempi rapidi» (p. 206). «I matematici non rendono le cose affatto semplici, dal momento che il materiale leggibile che descriva la moderna matematica è decisamente carente». «C’è spesso in questo senso un’attitudine in qualche modo altezzosa fra alcuni matematici, un’attitudine secondo la quale, dal momento che essi hanno dovuto superare numerosi ostacoli per capirci qualcosa, non c’è motivo di renderla più semplice». «Ad ogni modo, questo genere di arroganza fra i matematici impallidisce a confronto con il grado di arroganza che spesso si incontra fra i teorici delle superstringhe». «C’è una sorprendente analogia tra il modo in cui la ricerca nella teoria delle stringhe viene portata avanti nei dipartimenti di fisica e il modo in cui la teoria post-moderna è stata portata avanti nei dipartimenti umanistici. In entrambi i casi ci sono studiosi che si crogiolano nella difficoltà e nell’oscurità della loro ricerca, rimanendone spesso impressionati. Gli ostacoli alla comprensione che questo tipo di lavoro comporta rendono difficile per chiunque non faccia parte del “giro” valutare quali risultati siano davvero stati raggiunti». «Probabilmente il livello di complessità e di difficoltà della teoria delle superstringhe è semplicemente un’indicazione che si sta percorrendo la strada sbagliata», mentre «nelle teorie fisiche che hanno successo, come il Modello standard, le idee in gioco possono essere difficili da assimilare per uno studente, ma, una volta giunti a un certo punto, le fondamenta sono chiare» (p. 206). Certo «la natura insoddisfacente di alcuni aspetti del Modello standard ci porta a credere che dietro vi sia qualche struttura più fondamentale che ancora non siamo in grado di comprendere», ma «presumibilmente, una volta che qualcuno avrà immaginato cosa possa essere, non si tratterà, per le altre persone, di qualcosa di molto più difficile da comprendere del Modello standard». «Trovare questa nuova, più profonda e migliore strada per pensare la fisica fondamentale è, ad ogni modo, un compito estremamente impegnativo dal punto di vista intellettuale. Sfortunatamente, non è del tutto inconcepibile pensare che tutto ciò vada al di là delle capacità degli esseri umani, se questi non sono aiutati da tracce dettate dai fisici sperimentali» (p. 207) Capitolo 14 – La teoria delle stringhe è scienza? «A prescindere da come si evolverà la faccenda, la storia della teoria delle superstringhe è un episodio che non ha alcun precedente nella storia della fisica moderna. Più di vent’anni di intensa ricerca, portata avanti da migliaia tra i migliori scienziati del mondo intenti a produrre decine di migliaia di lavori scientifici, non hanno condotto a una sola predizione verificabile della teoria». [Ok per quanto riguarda la predizione di osservabili, ma sul rapporto con speranza “strane” non saprei dire, i primi fisici erano talmente spiritualisti che, certo ciò non era tematizzato, ma influiva e molto!] «Questa situazione spinge a chiedersi se si possa realmente descrivere la ricerca nella teoria delle superstringhe come ricerca scientifica nel campo della fisica. La questione tende ad assumere due diversi risvolti: il primo è se la teoria delle superstringhe non debba forse essere considerata matematica piuttosto che fisica; il secondo, più drastico, pone il problema se la teoria sia realmente scienza oppure no». Riguardo alla prima domanda la risposta è no. Infatti «i matematici considerano come attività essenziale della loro disciplina la formulazione precisa di teoremi su entità matematiche astratte e l’elaborazione di dimostrazioni rigorose di tali teoremi». Ora, «il fatto che la ricerca nel campo della teoria delle superstringhe faccia riferimento a entità fisiche speculative non è realmente un problema, dal momento che i matematici sono maestri nell’astrazione, e possono facilmente convertire una ben definita struttura teorica in un’altra espressa nel linguaggio della matematica astratta. Il problema è che la teoria delle superstringhe non è realmente una teoria, ma un insieme di speranze che esista una teoria» (p. 209) che «senza dubbio non è matematica. Esattamente come in fisica … fin quando la struttura concettuale non raggiunge il punto in cui è in grado di ottenere tale risultato, non è chiaro come sia possibile usarla realmente». Così tanto i matematici tradizionali quanto i fisici tradizionali ritengono che la teoria delle superstringhe «non abbia senso nel proprio sistema di riferimento e che presumibilmente lo abbia nell’altro» (p. 210). Riguardo alla seconda invece, uno dei più curiosi sostenitori della teoria delle superstringhe è John Hagelin, che a partire dagli anni Ottanta «cominciò ad identificare il ‘campo unificato della teoria delle superstringhe’ con il ‘campo unificato della coscienza’ di Maharishi» (p. 211). «Negli ultimi anni Hagelin ha smesso di scrivere articoli di fisica e ha ottenuto una grande notorietà come candidato alla presidenza del “Partito della legge naturale”, che di recente ah proposto di combattere il terrorismo con una “nuova invincibile tecnologia di difesa basata sulla scoperta del campo unificato» (p. 211s). Visto questo caso «come fa il settore a proteggere se stesso da queste persone? Anche se indubbiamente Hegelin vede il suo lavoro come un tutt’uno, come si può distinguere ciò che è legittimamente scienza da ciò che invece è illusione irrazionale?». «Gli esseri umani si lanciano in molti diversi tentativi per spiegare il mondo intorno a loro, ma soltanto un particolare tipo di spiegazione è generalmente considerata “scientifica”. Una spiegazione che permette di predire con successo ciò che accadrà nel corso di un esperimento riproducibile che non è mai stato eseguito prima è precisamente il tipo di spiegazione che con maggior chiarezza può essere identificata come “scientifica”» [sua definizione di scientificità]. «La questione se sia possibile decidere cosa sia scienza e cosa no, e in tal caso come si possa prendere tale decisione, è uno dei temi centrali della filosofia della scienza. Per distinguere ciò che è scienza da ciò che non lo è, il metodo proposto più conosciuto è il criterio di falsificabilità attribuito al filosofo Karl Popper. Secondo questo criterio, una spiegazione è scientifica se può essere utilizzata per fare predizioni che possono essere falsificate: vale a dire che è possibile mostrare che sono sbagliate. Il criterio di falsificabilità in alcune circostanze può essere ambiguo, perché non sempre è chiaro cosa sia da considerare come falsificazione» (p. 212). Infatti, «mentre i modelli specifici possono essere facilmente falsificati, la questione se si possa falsificare una struttura teorica generale è più sottile … Data una qualche struttura teorica, si può quasi sempre trovare il modo di farle corrispondere un risultato sperimentale, a patto di ammettere l’uso di modelli arbitrariamente complicati all’interno di tale struttura. L’estetica interviene nel problema se una data struttura sia falsificabile, poiché si deve restringere l’attenzione a modelli relativamente semplici e naturali». «Il Modello standard è un esempio eccellente di teoria falsificabile … al contrario, la teoria delle superstringhe al momento è indiscutibilmente un esempio di teoria che non può essere falsificata» (p. 213). [Perciò il ragazzo è filo-popperiano, ma con riserve…Interessante!!!] Dunque «secondo il criterio di falsificabilità, la teoria delle superstringhe non sembrerebbe essere una scienza, ma la faccenda è un tantino più complessa». Il punto delicato è quel “al momento”. «Molta attività teorica degli scienziati è speculativa, nel senso che consiste nel porsi domande del tipo: ‘Se assumessi che X fosse fero, potrei costruire una teoria basata su tale assunzione’? Questo è il proprio il genere di cose in cui gli scienziati spendono molto del loro tempo, e immagino che non le si voglia catalogare come ‘non scientifiche’. La teoria delle superstringhe è un tentativo speculativo di questo tipo». «La generalizzazione della nozione di “scientifico” che includesse tali speculazioni renderebbe certamente la teoria delle superstringhe una scienza. Ma ce la sentiamo di dire che tutta questa attività speculativa è scientifica?» (p. 214). Ora, quanto più ci si inoltra nelle fondamenta della fisica delle particelle «tanto più si ritiene che la teoria sia completa. Il Modello standard è una teoria che fornisce le fondamenta per la previsione e la comprensione di una vasta gamma di fenomeni. Si crede che la ricerca corrente sia focalizzata tanto a puntellare quei punti in cui le fondamenta sono un po’ traballanti quanto a trovare una teoria ancora più completa», ma su quale sarà la teoria si dovrà aspettare e la risposta potrebbe sembrare anche quella all’apparenza meno scientifica (p. 216). → «Pertanto la questione se una data attività speculativa sia scienza non sembra ammettere una risposta assoluta: essa dipende piuttosto dal sistema generale di opinioni della comunità scientifica e della sua evoluzione associata alle nuove scoperte teoriche e sperimentali fatte dagli scienziati». Così nel caso della teoria delle stringhe, «la ricerca speculativa su un problema che fa uso di un approccio definito non perseguibile e irragionevole da molti scienziati che hanno riflettuto a lungo e profondamente sul problema forse non dovrebbe essere considerata ricerca scientifica, soprattutto se si protrae per anni senza dare alcun segno di poter fornire alcunché. D’altro canto, se una grossa parte della comunità scientifica non considera un’idea speculativa irragionevole, allora si deve ritenere che coloro che perseguono tale speculazione stiano facendo della scienza». Così anche «i teorici delle superstringhe sono ben consapevoli che questo è un acceso tema di discussione nella comunità fisica, e che se la teoria dovesse continuare a non essere in grado di predire nulla, a un certo punto sarebbe necessario smettere di chiamare ciò che essi fanno ‘scienza’ [almeno per il momento … in futuro chissà!]». Dall’altra «le perplessità che molti hanno in merito alla teoria delle superstringhe sono spesso espresse come la preoccupazione che la teoria corra il pericolo di diventare una religione piuttosto che una scienza» (p. 216) o che «starebbe diventando un vero e proprio ‘culto’ di cui Witten sarebbe il ‘sacerdote’». «Negli anni recenti la fondazione Templeton, dedicata alla promozione del riavvicinamento della scienza e della religione, ha promosso conferenze che hanno visto la partecipazione di molti teorici delle stringhe». La preoccupazione «sulla possibilità che la teologia sostituisca la scienza sembra essere alle volte molto seria». «Personalmente io non credo che le categorie di culto o di religione siano particolarmente appropriate in questa circostanza, dal momento che esse fanno riferimento ad attività umane con caratteristiche decisamente differenti da quello che sta avvenendo nella comunità fisica. D’altro canto, mentre gli anni passano e diviene sempre più chiaro che la teoria delle superstringhe ha fallito come possibile strada verso l’unificazione, il rifiuto di riconoscere questa differenza comincia ad assumere connotazioni se possibile più inquietanti». «Come abbiamo visto, non esiste un modo chiaro per separare nettamente ciò che è scienza da ciò che non lo è sulla base di questioni prettamente umane, relative a quello che la gente sceglie di credere e perché. La scienza, seguendo questo metodo, non ha alcuna garanzia di immunità nei confronti di pericoli generati dai comportamenti di natura religiosa di cui gli esseri umani possono essere preda. Stringenti norme di razionalità sono necessarie e devono essere continuamente fatte rispettare per assicurare che la scienza continui a meritare questo nome» (p. 217). Capitolo 15 – Il caso Bogdanov – esempio dello sbandamento scientifico attuale. Essi riuscirono a far stampare cinque articoli, praticamente identici, su cinque riviste differenti (le quali successivamente ammisero l’errore). «Guardando con attenzione il lavoro più lungo, quello da cui erano stati estratti gli altri tre, mi apparve chiaro che si trattava di una prova decisamene spettacolare di non-sense, molto più di quanto io avessi mai visto prima in una rivista fisica. L’introduzione era un’impressionante lista di evocazioni di idee differenti, molte delle quali sulla teoria dei campi topologica, ma praticamente tutte erano prive di significato o semplicemente sbagliate. Il corpus dell’articolo non era da meno, e conteneva molte affermazioni assolutamente ridicole. Il tutto risultava divertente, ma mentre proseguivo nella lettura mi sembrava sempre meno intenzionale» (p. 221) e in seguito ad altri episodi l’autore dice che «mi convinsi che i Bogdanov non erano più così innocenti e ingenui come avevo inizialmente pensato» (p. 223). «Lasciando da parte la questione se i Bogdanov siano degli imbroglioni o realmente credano nel loro lavoro, questo episodio mi mostrò definitivamente che nel campo della gravità quantistica si possono facilmente pubblicare frottole su molte riviste, alcune delle quali anche piuttosto eminenti. … Tutto questo ci riporta al problema dell’intera letteratura recente con peer-review [«La peerreview (letteralmente ‘revisione dei pari’) è il meccanismo per cui, prima della pubblicazione, si sottopone la validità scientifica di un articolo al giudizio da parte di esperti del settore (i ‘pari’)» (nota a pag. 212)] in questo settore della fisica, poiché il processo di revisione sembra seriamente compromesso» (p. 224). E poi gli articoli dei Bogdanov «non furono mai inviati al database in rete di articoli pre-print», e ciò mostra come «almeno per quanto riguarda la gravità quantistica, in alcune riviste questa forma di controllo non è affatto valida». «Il problema del processo di revisione è quindi una seria minaccia all’intero sistema di ricerca accademico» (p. 225). «Il caso Bogdanov mostra in modo convincente che qualcosa è seriamente compromesso in quella parte della comunità scientifica che persegue la ricerca speculativa sulla gravità quantistica. Un cospicuo numero di revisori e redattori non è stato in grado di riconoscere una completa assurdità per quello che era, oppure ha ritenuto che non sarebbe valsa la pena preoccuparsene. La comunità dei fisici teorici sembra aver reagito a questo episodio cercando di negarlo o minimizzandone il significato, e in questo modo ha permesso al problema messo in evidenza di continuare a esistere nell’immediato futuro» (p. 226). Capitolo 16 – L’unica alternativa sulla piazza: il potere e la gloria delle stringhe «Quando discuto con molti teorici delle superstringhe sul perché essi continuino a lavorare a questa teoria nonostante il continuo fallimento nel raggiungere gli obiettivi che si prefigge, la giustificazione più comune che sento è una qualche versione di: ‘Guarda, è l’unica alternativa possibile. Finché nessuno verrà fuori con qualcos’altro di più promettente, questo è lo stato delle cose’. Questo tipo di giustificazione è molto in voga a partire dalla prima rivoluzione delle superstringhe nel 1984». Infatti “Tutti gli altri approcci alla costruzione di teorie di grande unificazione, che cominciavano in modo più conservativo e soltanto gradatamente divenivano sempre più radicali, hanno fallito, mentre questo gioco non ha ancora fallito” (p. 227). Anche se è difficile comprendere come basti questa motivazione «di fronte all’ingigantirsi dell’evidenza che si tratta di un programma di ricerca che ha fallito nei suoi intenti» (p. 228). [È l’horror vacui del postmoderno, l’incapacità di accettare il vuoto che deriva dall’assenza di radici esistenziali!!!] A dire il vero poi «tante persone nella comunità fisica» sono «non soltanto scettiche nei confronti della teoria delle superstringhe», ma ritengono che l’argomento stia «perpetuandosi grazie a una qualche forma di intimidazione», che porta a vedere i «teorici delle superstringhe come una ‘mafia’. Questo fornisce una nuova tonalità alla caratterizzazione della ‘unica alternativa possibile’. Molti fisici» pensano che «chiunque ostacolasse la riuscita del gioco della teoria delle stringhe» debba «temere per la propria sicurezza personale» [Vedi, vedi. Dove non c’è più Dio o dove non ci sono più radici, dove non c’è più cielo o terra, si è schiavi di denaro e potere: è sempre stato così!!!] Ma a dire il vero la maggioranza di quelli che vi lavorano «sono brillanti, lavorano duramente, hanno un grande talento e hanno ottenuto ottimi risultati» e «ripongono molte speranze nella comparsa sulla scena di nuove idee e nell’arrivo del giorno in cui la teoria delle superstringhe non sarà più ‘l’unica alternativa possibile’» (p. 229). In seguito ad una serie di interventi dell’autore (libro e blog) è chiaro che «il livello di tale disonestà e l’estendersi al fatto che molti teorici delle stringhe non erano disposti a riconoscere il problema de loro soggetto di studio andavano ben al di là di qualunque cosa avessi originariamente immaginato» (p. 231) e che, nel caso delle revisioni prima della stampa del suo libro, molti fisici delle stringhe «benché non potessero rispondere alle mie argomentazioni … si sarebbero vigorosamente opposti alla pubblicazione». E così dopo non essere riuscito ad essere stampato dalla Cambridge Press, anche altre case editrici fecero altrettanto. Quindi «è difficile esagerare l’entità dell’essere ‘l’unica alternativa sulla piazza’ delle superstringhe, così come lo è l’attitudine trionfalistica di alcuni dei suoi professionisti» (p. 232). Molti di loro infatti «ritengono che, nonostantela versione attuale della teoria delle superstringhe possa non essere quella corretta, essa debba per fora essere una parte cospicua di ciò che sarà la futura teoria definitiva» (p. 233). Attualmente poi nelle sei università più prestigiose d’America «la coorte di professori di ruolo in fisica delle particelle in queste istituzioni che hanno ottenuto il dottorato di ricerca dopo il 1981 è un gruppo costituito da venitidue persone. Venti di questi sono specializzati nella teoria delle superstringhe (un paio di questi lavora ai braneworld), uno nella fenomenologia delle estensioni supersimmetriche del Modello standard e uno nella QCD ad alta temperatura. Il successo che hanno avuto i teorici delle superstringhe nell’ottenere fondi e fondare istituzioni ‘votate alle stringhe’ è altrettanto impressionante» (p. 234). «Il potere e la gloria della teoria delle superstringhe non sono ristretti agli Stati Uniti, ma si estendono in tutto il mondo. Gran parte della leadership nel settore ha sede negli Stati Uniti, ma il fenomeno della globalizzazione, che per qualche ragione ha fatto della cultura americana una forza dominante nel mondo, è presente anche qui» (p. 235). «Se abbiamo visto come la teoria delle superstringhe sia l’unica alternativa sulla piazza, perché le cose stanno così? Quali possibilità ci sono per l’affermarsi di nuove idee capaci di cambiare la situazione attuale? Una reazione comune che ho ricevuto da parte di molti fisici e matematici a questo tipo di domanda è l’espressione della speranza che da qualche parte, in qualche modo, qualche giovane fisico sia al lavoro a una nuova idea che cambierà tutto» (p. 236) «La comunità dei fisici delle particelle negli Stati Uniti non è enorme, essendo costituita da un totale di circa mille persone. È un gruppo che dimostra gran talento, ma finora ha lavorato per due decenni in un ambiente di insuccessi intellettuali e feroce competizione per risorse che in realtà sono scarse. Esistono altre ragioni per cui c’è soltanto un’alternativa sulla piazza, certo, ma le strutture sociali e finanziarie in cui le persone lavorano costituiscono gran parte del problema» (p. 242) Capitolo 17 – Il paesaggio della teoria delle stringhe «Gli ultimi anni hanno visto una drammatica spaccatura nelle fila dei teorici delle superstringhe su quello che viene chiamato principio antropico. Il principio antropico si presenta in diverse versioni, ma tutte contengono l’idea che secondo cui la natura delle leggi della fisica debba essere tale da ammettere lo sviluppo di esseri intelligenti quali noi siamo. Molti scienziati credono che questa non sia altro che una tautologia … e pertanto non può far parte di un ragionamento scientifico». «È sorta una controversia quando un significativo gruppo di studiosi ha cominciato a sostenere che l’incapacità della teoria delle superstringhe di fare predizioni non è un problema della teoria in sé, quanto piuttosto un riflesso della reale natura dell’universo. Secondo il loro punto di vista, la lezione della teoria delle superstringhe è che predire alcuni se non tutti i parametri che determinano il Modello standard è intrinsecamente impossibile, e che solamente il principio antropico può spiegare molti aspetti relativi al perché l’universo è quello che è». «Ricordiamo che la teoria delle superstringhe è afflitta dal problema della degenerazione del vuoto. Dal momento che non si conosce quale sia la fondamentale teoria-M, i teorici delle superstringhe prendono in considerazione i primi termini nell’espansione perturbativa nel numero di buchi del foglio di mondo della stringa. Essi assumono che questo calcolo produca qualcosa di nuovo vicino a ciò che si potrebbe ottenere da un calcolo eseguito nella vera teoria-M». → «Per impostare questo calcolo approssimato è necessario scegliere uno spazio-tempo di dimensione dieci o undici come background, e probabilmente anche una certa configurazione di brane, vale a dire di determinati sottospazi dello spazio-tempo completo a cui sono attaccate le estremità delle stringhe. A questa scelta si fa riferimento come a una scelta dello stato di vuoto, poiché la speranza è che corrisponda alla scelta di uno stato di minima energia nella sconosciuta teoria-M» (p. 243). → «Esistono molte, forse infinite, classi di spazi di background che sembrano essere scelte consistenti possibili, e ciascuna di queste si presenta con un gran numero di parametri che determinano le dimensioni e la forma dello spazio-tempo di background. Questi parametri sono noti come moduli, perché storicamente una funzione modulo è uno di questi valori che possono essere utilizzati per parametrizzare le dimensioni o la forma di uno spazio». → «La speranza è stata che i valori di questi moduli fossero in qualche modo determinati dalla dinamica sconosciuta della teoria-M. Per fare ciò, si deve trovare qualche meccanismo che fornisca differenti energie agli stati di vuoto corrispondenti a differenti valori dei moduli. Se l’energia degli stati di vuoto non dipende dei moduli, ci si aspetta, in accordo con principi generali, che i moduli diano origine a campi quantistici corrispondenti a particelle prive di massa, e queste non sono state osservate». → «L’immagine di una funzione energia che dipende da molti parametri è divenuta nota come il paesaggio della teoria delle superstringhe. Questa terminologia proviene dall’assumere l’altitudine in un paesaggio come l’analogo dell’energia, la latitudine e la longitudine analoghe a due parametri di modulo». → «Nel 2003 i fisici Kachru, Kallosh, Linde e Trivedi hanno trovato un meccanismo che potenzialmente può dare energie diverse per diversi valori dei moduli, in modo tale da permettere di fissarne i valori trovando i minimi dell’energia come funzione dei moduli. Nell’immagine del paesaggio questi minimi sono i punti più bassi delle valli. Questo meccanismo KKLT è piuttosto complicato … Partendo da uno spazio di Calaibi-Yau per compattificare sei delle dieci dimensioni di uno spaziotempo di background per la teoria delle superstringhe, il meccanismo KKLT prevede di aggiungere molti livelli aggiuntivi di struttura che coinvolgono brane e flussi. Tali flussi sono la generalizzazione dei campi magnetici in molte dimensioni, e i campi vengono intrappolati dalla topologia dello spazio di Calaibi-Yau» (p. 244). Ora «il meccanismo KKLT non seleziona un unico valore per i moduli, ma un insieme molto grande di valori, ciascuno dei quali dovrebbe essere buono quanto gli altri» (p. 244s). «Le stime del numero di questi possibili valori sono spaventosamente grandi», così «mentre la teoria delle stringhe è considerata la ‘teoria del tutto’, Kachru fa riferimento a questa elaborazione come ‘teoria di più del tutto’». «La consistenza del meccanismo KKLT è ancora oggetto di dibattito fra i teorici delle superstringhe, dibattito che potrebbe non essere mai risolto, dal momento che non si conosce quale sia la fondamentale teoriaM che governa questa situazione». Visto però il diverso numero di possibili stati di vuoto consistenti «la teoria non potrà mai predire nulla, né potrà mai essere falsificata». «Negli ultimi anni Susskind, uno dei co-autori della teoria delle stringhe, ha cominciato a sostenere che questa capacità della teoria di non essere consistente con nulla dovrebbe essere considerata un pregio». Infatti «egli sostiene che la costante cosmologica nei diversi stati dovrebbe assumere un insieme di valori discreto ma quasi continuo», il discretuum, e nel caso che esso esistesse che «implichi che almeno qualche possibile stato di vuoto della teoria delle superstringhe abbia una costante cosmologica insolitamente piccola, tanto da essere in accordo con l’esperimento» (p. 245) → «Nel 1987 Steve Weinberg pubblicò un articolo in cui sosteneva che, per permettere la formazione delle galassie e lo sviluppo della vita così come la conosciamo, la costante cosmologica non dovesse essere troppo grande» e «suggerì che forse la spiegazione della piccolezza della costante cosmologica poteva essere il principio antropico». «L’idea è che c’è un numero enorme di universi possibili e consistenti, e che il nostro, universo è parte di un qualche multiverso o megaverso più grande. In modo del tutto naturale, noi ci troviamo in una parte di questo multiverso, in cui le galassie possono essere generate e quindi la vita intelligente si può evolvere». «Se questo è il caso, non c’è speranza di poter predire il valore della costante cosmologica, dal momento che tutto ciò che si può fare è prendere atto della tautologia secondo cui il suo valore è consistente con la nostra esistenza». → Così ora «Susskind descrive i vari stati di vuoto possibili della teoria delle stringhe come “universi tascabili”, e insiste con l’idea secondo cui il loro enorme numero sarebbe corretto» (p. 246), ma «il ‘New York Times’ ha citato alcune parole di Witten: “Io continuo a sperare che stiamo perdendo o non capendo qualcosa e che alla fine ci sarà una risposta unica”», anche se «durante un seminario al KIPT nell’ottobre del 2004 sul ‘Futuro della teoria delle stringhe’, egli disse: “Sarei felice se questo non fosse vero, ma ci sono argomenti molto seri a favore, e io non ho alcun valido argomento da contrapporre”». → «Come abbiamo visto nel primo capitolo di questo libro, David Gross ha espresso a piena voce la sua disapprovazione, invocando le più profonde convinzioni di Einstein e il presunto invito di Churchill a ‘non arrendersi mai, mai, mai, mai, mai’. Sia Witten sia Gross continuano a sperare che in qualche modo le implicazioni della possibile esistenza di un enorme numero di background consistenti della teoria delle superstringhe possano essere eluse» e però «Gross è convinto che la conclusione secondo cui la teoria delle superstringhe non può spiegare le caratteristiche fondamentali del nostro universo sia prematura … “Molti teorici delle stringhe sospettano che per la formulazione finale della teoria delle stringhe sarà necessario un cambiamento concettuale della nostra concezione. Se così fosse, il criterio per determinare lo stato in cui si trova la natura (il vuoto) potrebbe essere molto differente. Non c’è motivo, in questa fase preliminare della nostra comprensione, di rinunciare alla speranza che la teoria possa condurre a una teoria dell’universo realmente predittiva”» (p. 247). «Forse la sconosciuta teoria-M, formulata come auspica Gross su nuovi concetti di spazio e tempo, esiste davvero, e ha un unico vuoto che spiega le proprietà dell’universo; tuttavia sempre più stringhisti ora credono che questa sia poco più di un’illusione» (p. 247s). «Mentre sempre più stringhisti giungevano alla conclusione che la teoria aveva realmente tutti questi stati di vuoto, e di conseguenza non poteva predire la costante cosmologica e forse neanche i parametri indeterminati del Modello standard, si sentiva sempre più spesso la seguente analogia. Nel 1596 Keplero propose una spiegazione congetturale matematicamente elegante per le distanze fra le orbite dei sei pianeti noti, spiegazione che invocava il fatto che esistono soltanto cinque solidi platonici. Naturalmente, in seguito fu chiaro che le distanze fra i pianeti erano il prodotto della storia dell’evoluzione del sistema solare, e non il tipo di cose che le leggi fisiche possono predire. L’argomento è che forse molti, se non tutti li aspetti del Modello standard per cui non c’è spiegazione in realtà sono semplicemente ambientali, dipendenti dal particolare stato dell’universo in cui ci troviamo, non da una qualche legge fisica fondamentale» (p. 248s). «Se questo è il caso, allora le uniche previsioni possibili sarebbero quelle che derivano dai vincoli antropici che rendono la nostra esistenza possibile». → «Il problema relativo a questo argomento è che nel caso del sistema solare la teoria fisica rilevante (la meccanica newtoniana) è accompagnata da una ben definita comprensione di ciò che è determinato dalla teoria sottostante e di quelle che sono le componenti ambientali». «La teoria delle superstringhe non è accompagnata da una tale distinzione. Nessuno sa come determinare ciò che la teoria potrebbe essere capace di predire e ciò che non può essere predetto in quanto componente ambientale. Non sembra esserci nessun aspetto del Modello standard che i teorici delle superstringhe sono sicuri di poter predire in accordo con la teoria». «Un gruppo di stringhisti, che comprende fra gli altri Michael Duglas, della Rugters, ha affermato che si può sperare di ottenere previsioni dalla teoria delle superstringhe analizzando la statistica dei possibili stati di vuoto compatibili con la nostra esistenza. Se la grande maggioranza di questi stati ha qualche data proprietà, allora essi si aspettano di poterla osservare nel nostro particolare universo. La più semplice di queste proprietà che essi hanno provato ad analizzare è quella della scala di energia della rottura spontanea della supersimmetria. Gli stati con rottura della supersimmetria a una scala di energia molto elevata, diciamo la scala di Planck, sono più comuni di quelli per cui ciò avviene a una scala di energia più bassa, tale cioè da essere osservabile all’LHC? Non è affatto chiaro se questa domanda sia sensata» (p. 249). Il fisico russo e teorico delle stringhe Alexander Plyakov ha detto che «’la mancanza di controllo sperimentale rende l’andare fuori strada quasi inevitabile … Forse tutto ciò aiuterà a ristabilire la salute mentale della teoria delle stringhe’. Nel suo recente libro, Susskind ammette di non avere idee plausibili su come si possa derivare una qualsiasi previsione dalla teoria delle stringhe. Il fatto sorprendente è che lui e altri eminenti teorici non riconoscono in questo un motivo per rinunciare alla teoria, ma al contrario ritengono che la teoria debba essere vera, anche se non può predire nulla». → «Ci si potrebbe aspettare che una volta riconosciuta l’impossibilità di utilizzare la teoria per fare previsioni, gli studiosi la abbandonino per lavorare a qualcosa di più promettente. Eppure non sembra stia accadendo». → «Il cosmologo di Princeton Paul Steinhardt crede che non siano gli oppositori dello scenario del paesaggio ad essere diperati, quanto piuttosto i teorici delle stringhe come Susskind che si sono indirizzati verso il principio antropico: “I teorici delle stringhe si sono rivolti al principio antropico per salvarsi. Francamente io lo leggo un atto di disperazione”» (p. 251) e continua «riferendosi alla “attuale mania antropica” come alla “follia del momento”». → «Se la teoria facesse qualche predizione accurata, pur lasciando indeterminata la costante cosmologica, si potrebbe prendere sul serio l’argomento antropico. Invece, la realtà delle cose è che la teoria non solo non predice la costante cosmologica, ma non predice proprio nulla. Il fatto che in futuro il ragionamento antropico si riveli necessario in fisica non fa alcuna differenza: si tratta solo di una scusante di fronte al fallimento. Le idee scientifiche speculative falliscono non soltanto quando fanno previsioni inesatte, ma anche quando si rivelano vuote e incapaci di predire alcunché» (p. 252). «Ciò che è accaduto è che, per evitare di ammettere il fallimento, alcuni fisici hanno provato a convertire il commento di Feynman (“I teorici delle stringhe non fanno previsioni, forniscono giustificazioni”) da critica a nuovo modo di portare avanti la scienza teorica» (p. 253). Capitolo 18 – Altri punti di vista «Questo libro ha passato in rassegna lo stato attuale della fisica delle particelle fondamentali da un punto di vista molto particolare: quello di un fisico delle particelle con mentalità matematica. L’enfasi è stata posta sul Modello standard, la matematica su cui si fonda e le tecniche sperimentali basate sugli acceleratori di particelle che hanno portato alla sua scoperta e le cui limitazioni rendono difficile fare ulteriori progressi». «Esistono altri punti di vista suo problemi della fisica delle particelle, e questo capitolo ne considererà alcuni». [Oltre agli acceleratori … il cosmo] «Una domanda ovvia è se esista o no qualche altro modo di studiare le interazioni ad alta energia fra le particelle. Alcune delle prime scoperte nella fisica delle particelle furono fatte non con gli acceleratori, ma con lo studio dei raggi cosmici». «Produrre un’energia del centro di massa equivalente a quella dell’LHC (1,4x10^13 eV) richiederebbe un raggio cosmico di energia pari a 10^17 eV, perché colpirebbe un bersaglio praticamente fisso. Sono stati osservati raggi cosmici di queste energie e anche superiori, ma il loro numero è piuttosto basso: su ciascun metro quadrato della superficie terrestre ne arrivano soltanto pochi al secolo» (p. 255) «Urti con energia del centro di massa dieci volte più grande di quella ottenibile all’LHC avvengono circa un centinaio di volte all’anno su una superficie di un chilometro quadrato» (p. 255s) «Nel 2005 è entrato in funzione l’osservatorio Auger … I suoi rivelatori coprono 3000 chilometri quadrati in Argentina, e sono stati progettati per osservare i raggi cosmici con le energie più alte che siano mai state osservate, circa 10^20 eV. Anche se l’osservatorio Auger non sarà in grado di dire molto sulle interazioni fra particelle con queste energie, il solo fatto che ne esistano è di grande interesse». Infatti «A queste energie così elevate, le particelle che viaggiano nello spazio intertellare sono deviate dai fotoni di bassa energia che costituiscono la cosiddetta radiazione cosmica di fondo a microonde. Questa diffusione fa perdere loro energia; pertanto ci si aspetta di poter osservare poche se non nessuna particella con energie sufficientemente elevate da essere soggette a questo effetto di diffusione. Se Auger vedesse queste particelle, ci si troverebbe di fronte a una nuova fisica». «Il più grande fra tutti gli acceleratori di particelle è il Big Bang, quindi è naturale che negli ultimi anni molti studiosi si siano rivolti alla fisica delle particelle dal punto di vista della cosmologia». «Ben presto, dopo lo sviluppo del Modello standard nei primi anni Settanta, alcuni fisici delle particelle decisero di provare a “usarlo” per modellizzare il Big Bang». Ora «la moderna teoria cosmologica suggerisce che l’universo sia stato molto più caldo e denso in momenti sempre più vicini a quello del Big Bang. Alte temperature significano alte energie delle particelle coinvolte, pertanto la speranza era quella che l’osservazione di effetti dovuti a fenomeni avvenuti nei primissimi momenti dopo il Big Bang potesse permettere di capire qualcosa sul comportamento delle particelle ad energia così elevate. Sfortunatamente non è possibile andare così indietro nel tempo, ma è soltanto possibile vedere come tutto è venuto fuori» (p. 256). «L’universo iniziale era costituito in gran parte da idrogeno ed elio. I modelli dell’universo primordiale basati sulla fisica delle particelle del Modello standard sono in grado di riprodurre la presenza massiccia di questi elementi. Una questione che rimane ancora aperta è quella della bariogenesi: perché la materia che costituisce il nostro universo è costituita prevalentemente da barioni (protoni e neutroni) con appena qualche anti-barione (anti-protoni e anti-neutroni)? … bisogna dare una spiegazione dell’asimmetria» e se «esistono molte possibili sorgenti per questa asimmetria», «rimane poco chiaro come siano andate esattamente le cose». «Tra la fine degli anni Settanta e l’inizio degli anni Ottanta c’era molto ottimismo riguardo al fatto che la cosmologia avrebbe fornito alla fisica delle particelle alcune informazioni sulla fisica coinvolta alle scale energetiche delle teorie di grande unificazione, ma sfortunatamente questo non è accaduto. Forse la risposta al problema della bariogenesi risiede nella fisica alla scala GUT, ma una risposta non ambigua a questa domanda rimane ancora difficile da dare». Così «l’attenzione è stata rimandata dai primi tempi, i più attivi, a quelli più recenti, in cui si hanno a disposizione molti più dati sperimentali». «Il fondo cosmico a microonde (CMB) è la radiazione scoperta da Arno Penzias e Robert Wilson nel 1965. Si tratta della radiazione di corpo nero dell’origine cosmologica alla temperatura estremamente bassa di 2,7 gradi Kelvin. In accordo con la teoria attuale, questa radiazione è costituita dai fotoni residui provenienti da un periodo di 400 000 anni posteriore al Big Bang, il tempo in cui gli elettroni e i protoni hanno smesso di essere in un plasma caldo di particelle libere e si sono combinati per formare atomi elettricamente neutri», così questi fotoni residui «contengono ancora informazioni sulla loro origine in questo punto relativamente antico nella storia dell’universo» (p. 257). «Al tempo in cui la radiazione CMB è stata prodotta, la temperatura dell’universo era di circa 3000 gradi Kelvin. Questa è una temperatura decisamente alta per gli standard abituali, ma corrisponde all’energia di particelle pari a poche decine di elettronvolt». → «Nel 1992, il satellite COBE (COsmic Microwave Background Explorer) è stato in grado di osservare alcune asinotropie, o disuniformità nella radiazione CMB. Nel 2003 un esperimento con un satellite più sofisticato, WMAP (Wilkinson Microwave Asinotropy Probe) è stato in grado di riportare i primi risultati di un’analisi più accurata di questa disuniformità, raccogliendo un gran numero di nuove informazioni sull’universo primordiale. Dal satellite WMAP continuano ad arrivare nuovi dati, e un satellite di nuova generazione, chiamato Planck, sarà lanciato nel 2008 … Una delle speranze è che questo satellite sia in grado di osservare gli effetti delle onde gravitazionali dell’universo primordiale sulla polarizzazione della radiazione CMB», che aprirebbe «una finestra sull’universo nelle sue primissime fasi, forse anche sulla supposta fase di espansione esponenziale predetta dai modelli cosmologici inflazionari». Attualmente «i cosmologi hanno costruito un “Modello standard” che solleva due grossi problemi per i fisici delle particelle»: 1) «In questo modello soltanto il 5 per cento della densità di energia dell’universo è contenuta nella materia ordinaria, costituita da barioni. Il 25 per cento è contenuto nella materia oscura fredda, la cui natura rimane tuttora sconosciuta» (p. 258). «È possibile che la materia oscura fredda sia costituita da un nuovo tipo di particelle stabili che non hanno carica elettrica e non sono fortemente interagenti, ma che potrebbero avere effetti astrofisici ad interazioni puramente gravitazionali. Queste ipotetiche particelle comprendono le cosiddette WIMP (Weakly Interacting Massive Particles), e uno degli argomenti favoriti in favore delle versioni supersimmetriche del Modello standard è forse che queste possono contenere tali particelle stabili» (p. 258s). 2) «Alla fine, il 70 per cento della densità di energia dell’universo sembra essere costituita da energia oscura, una densità di energia uniforme del vuoto (la costante cosmologica)». Questi problemi che la cosmologia «ha sollevato possono essere considerati indicazioni importanti. Esiste una nuova particella stabile che costituisce la materia oscura fredda? Qual è l’origine della densità di energia del vuoto, e come la si può calcolare?» Entrambe ora sono irrisolte. [E sul piano teorico …] «Come abbiamo visto, la questione di come formulare una versione quantistica della relatività generale, la teoria di Einstein della forza gravitazionale, rimane ancora aperta». «La struttura matematica della relatività generale è molto simile a quella del Modello standard, poiché si tratta essenzialmente di una teoria geometrica. Dal punto di vista di un esperto di geometria, i campi di gauge di Yang-Mills sono connessioni che dicono come confrontare i campi in punti vicini. Anche la relatività generale può essere espressa in termini di tali connessioni, che in questo caso descrivono il modo di confrontare vettori in punti vicini» (p. 259). «Tuttavia la geometria alla base della relatività generale, la geometria riemanniana, contiene una struttura aggiuntiva che non compare nel caso di Yang-Mills. Questa struttura aggiuntiva è quella di una metrica, vale a dire un modo di misurare la dimensione dei vettori, e queste variabili metriche richiedono un diverso tipo di dinamica rispetto a quella dei campi di gauge di Yang-Mills» e che se si prova ad usare «in una teoria di campo a piccole distanze, si incorre in problemi con infiniti che non possono essere trattati con le tecniche standard della rinormalizzazione». «La teoria delle stringhe cerca di affrontare questo problema assumendo che a piccole distanze i campi fondamentali della teoria siano qualcosa di non geometrico: i modi di oscillazione di una stringa». «Un altro approccio radicalmente diverso al problema della gravità quantistica, e divenuto popolare negli ultimi anni, è noto come gravità quantistica ad anelli (LQG)», che «fa uso delle variabili geometriche di connessione usuali della relatività generale per la quantizzazione della gravità, ma con metodi di quantizzazione non perturbativa» e «si tratta semplicemente di una teoria della gravità che in linea di principio è indipendente dalle altre interazioni fra le particelle» (p. 260). Un altro «approccio ancora più speculativo alla gravità quantistica, emerso dallo studio della relatività generale, è quello che viene chiamato teoria dei twistori. Il primo a proporre tale approccio è stato Sir Roger Penrose insieme ad altri collaboratori ad Oxford e in altri centri di studio». Egli «assume il punto di vista secondo cui una teoria quantistica valida della relatività generale non contenga soltanto la teoria dei twistori, ma richieda anche una revisione delle idee fondamentali della meccanica quantistica». «La teoria dei twistori contiene idee sulla geometria specifica degli spazi di quattro dimensioni, e fa largo uso degli aspetti geometrici degli spinori e della geometria complessa» e al di là delle sue potenziali applicazioni alla gravità «si è rivelata piuttosto utile in molti altri contesti, conducendo a soluzioni esatte di numerosi sistemi di equazioni geometricamente interessanti» (p. 261). «Questi includono le equazioni della self-dualità della teoria di Yang-Mills, che si erano rivelate tanto importanti per il lavoro di Donaldson sulla topologia in quattro dimensioni» (p. 261s) e «nuove formule per alcune ampiezze di diffusione nelle teorie quantistiche di Yang-Mills in quattro dimensioni, risultato che ha spinto Witten a provare a esprimere queste ampiezze in termini di una teoria topologica di stringhe, in cui le stringhe non vivono nello spazio-tempo fisico, ma nello spazio dei twistori. Benché questo abbia portato a nuovi e interessanti metodi per calcolare ampiezze di diffusione, non ha ancora condotto alla sperata equivalenza fra la teoria quantistica di Yang-Mills e un nuovo tipo di teoria delle stringhe». «Un altro programma di ricerca speculativo che merita di essere menzionato è noto come geometria non commutativa, ed è stato promosso dal matematico francese, e vincitore della medaglia Fields, Aliain Connes». «Un’algebra è sostanzialmente una struttura matematica astratta, i cui elementi possono essere moltiplicati e sommati in maniera consistente fra loro. … Esiste un profondo e fondamentale collegamento fra i settori matematici della geometria e dell’algebra. Questo collegamento associa a uno spazio geometrico un’algebra specifica: l’algebra delle funzioni definite su tale spazio. Quest’algebra di funzioni è commutativa, vale a dire che, quando si moltiplicano tali funzioni, non importa in quale ordine si esegue tale moltiplicazione». «Connes ha esplorato per primo l’idea di studiare algebre non commutative più generali, pensando ad esse in termini di algebre di funzioni su un tipo generalizzato di spazio geometrico» (p. 262). Capitolo 19 – Conclusioni «La ricerca di una comprensione degli oggetti più fondamentali della natura e di come questi interagiscono per comporre il mondo fisico ha una storia lunga e illustre che è culminata in un successo davvero fantastico nel corso del secolo appena passato. La scoperta del Modello standard è una conquista intellettuale che sarà ricordata per il resto della storia umana». «Un risultato inaspettato di questo progresso è stato che il campo della fisica teorica delle particelle è ora diventato vittima del suo stesso successo per circa un quarto di secolo. Senza nessun nuovo dato sperimentale a fornire qualche indizio su quale direzione prendere per fare nuovi progressi, questo campo ha ristagnato e si è inoltrato in un vicolo cieco … la mancanza di utili contributi sperimentali ha reso il sistema organizzativo tradizionale della fisica delle particelle seriamente malfunzionante. Sono disperatamente necessari cambiamenti che permettano ai teorici delle particelle di trovare il modo di vivere al di fuori delle rigide leggi date dal contatto diretto con l’esperimento, e uno dei cambiamenti che dovrebbero essere apportati è un netto aumento della trasparenza a cui sono valutati i risultati della speculazione teorica. Quando si poteva contare sul fatto che prima o poi sarebbero apparsi nuovi risultati che avrebbero garantito ai teorici questa “trasparenza”, non era così importante che i teorici stessi trovassero il modo di valutare se le idee stessero funzionando nel modo in cui si supponeva che dovessero fare» (p. 263). Siccome poi “riconoscere il fallimento è un aspetto utile della strategia scientifica. Soltanto quando il fallimento viene riconosciuto si possono abbandonare i vicoli ciechi e i frammenti utilizzabili dei programmi fallimentari possono essere riciclati”, «il fallimento del progetto della teoria delle superstringhe deve essere riconosciuto e bisogna imparare la lezione di questo fallimento prima di poter nutrire la speranza di andare avanti». Forse «LHC sarà in grado di rispondere alle domande sull’origine della rottura di simmetria elettrodebole del vuoto, e questo rimetterà la fisica delle particelle sulla strada giusta. Se questo non accadrà, è probabile che si dovrà aspettare un altro decennio, se non di più, prima che si presenti un’altra opportunità» (p. 264). John Horgan nel suo La fine della scienza, del 1996, «fece scalpore per l’idea secondo cui la maggior parte delle grandi scoperte della scienza era stata fatta, e gli scienziati, rischiando di essere relegati al solo ruolo di aggiungere dettagli alle teorie esistenti, stavano portando avanti quella che lui chiama “scienza ironica”. Per scienza ironica Horgan intende la scienza che va avanti in “modo speculativo, post-empirico”, qualcosa di molto simile alla critica letteraria, intimamente incapace di convergere verso la verità» (p. 264s) e sebbene «egli applicasse l’idea della scienza ironica allo sviluppo in molte scienze differenti, la fisica teorica delle particelle rappresentava il caso più eclatante» (p. 265). «A me sembra che, se Horgan punta il dito precisamente su ciò che sta accadendo nella fisica delle particelle in quanto vittima del suo stesso successo, il futuro a lungo termine che egli prospetta per questo settore non sia una conseguenza necessaria», perché vari esperimenti o possibili dati sperimentali sono alle porte. [l’aiuto della matematica] «Cosa ancora più importante, ho maggiore familiarità con la situazione di una scienza che Horgan non prende in considerazione, la scienza matematica … scienza che ha fatto grandi passi nel xx secolo ma, nonostante ciò, rimane ancora una gran quantità di matematica da comprendere a fondo, e ci sono buone prospettive che un grande progresso si possa realizzare», visti anche i successi di Wiles nella dimostrazione del teorema di Fermat nel 1994 e la dimostrazione della congettura di Pincarè ad opera di Perelman e «in entrambi i casi la soluzione di questi problemi ha richiesto a Wiles e Perelman di dedicare sette o più anni della loro vita all’impresa, facendo uso dell’intero arsenale di tecniche della matematica moderna». «Tradizionalmente le due fonti maggiori di problemi che spingono alla ricerca di nuova matematica sono state lo studio dei numeri e lo studio della fisica teorica» (p. 266) «Abbiamo visto l’enorme effetto positivo che la teoria quantistica dei campi ha avuto sulla matematica nel corso degli ultimi vent’anni, e quest’effetto è probabile che continui. I matematici potrebbero un giorno essere in grado di ricambiare il favore fornendo ai fisici nuove tecniche matematiche che essi potranno usare per risolvere i loro problemi, ma io credo che ci siano anche altri modi in cui si potranno fornire ai fisici teorici esempi importanti». «I matematici hanno un’esperienza storicamente molto lunga di come lavorare nel mondo speculativo e post-empirico che Horgan chiama scienza ironica. Ciò che essi hanno imparato in passato è che per concludere qualcosa a lungo termine, bisogna insistere vigorosamente sull’assoluta chiarezza nella formulazione delle idee e sulla rigorosa comprensione delle loro implicazioni». Anche se «la matematica moderna può a ragione essere accusata di spingere questi standard troppo in là al punto di idolatrarli» e «spesso la ricerca matematica soffre perché la comunità non è ben disposta a lasciar pubblicare le formulazioni vagamente speculative che stimolano alcuni dei migliori nuovi lavori o analogamente i vaghi e imprecisi compendi di lavori più vecchi che si rivelano essenziali per ogni tipo di letteratura divulgativa leggibile». Così illuminante è la frase di Atiyah “Ma se la matematica deve ringiovanirsi ed essere innovativa dovrà permettere l’esplorazione di nuove idee e tecniche che, nella loro fase creativa, dovranno probabilmente essere incerte come in alcune delle grandi epoche del passato. Forse ora abbiamo elevai standard di dimostrazione a cui mirare, ma, negli stadi iniziali dei nuovi sviluppi, dobbiamo essere preparati ad agire con stile più piratesco” (p. 267) Dunque «per i matematici, la questione è quanto vigorosamente bisogna difendere quella che essi considerano la loro virtù centrale, quella del pensiero rigoroso e preciso, di fronte all’evidenza che alle volte è necessario un insieme di comportamenti più permissivo per venire a capo di qualcosa». «Storicamente i fisici non hanno mai avuto il minimo interesse per questa virtù, ritenendo di non averne bisogno. Questo atteggiamento era giustificato in passato, quando c’erano dati sperimentali a garantirne l’onestà, ma forse ora ci sono importanti lezioni che essi possono imparare dai matematici. Per essere realmente scientifico, il lavoro speculativo deve essere oggetto di una continua valutazione di quali siano le sue prospettive di raggiungere una situazione in cui fare predizioni reali. Inoltre, si dovrebbe fare ogni sforzo per raggiungere, ovunque sia possibile, la precisione del modo di pensare, e si dovrebbe essere sempre chiari riguardo a cosa si sia capito e cosa no, e dove risiedano gli impedimenti per ottenere una comprensione maggiore», tanto più che è «un campo che ora lavora principalmente su idee speculative e non può più fare affidamento sui risultati sperimentali» (p. 268). Detto questo, per quanto riguarda la fisica delle particelle, «forse sono richiesti aggiustamenti strutturali nell’organizzazione della ricerca» (p. 269). «La bellezza e l’eleganza delle superstringhe risiedono nelle speranze e nei sogni dei suoi praticanti», perché loro stessi dicono «che queste sono caratteristiche che una teoria fisica fondamentale di successo quasi sicuramente avrà, ma … attualmente la migliore descrizione del mondo fornita dalla teoria delle stringhe non è bella, né elegante», tanto che Atiyah, pur filostringhista, è arrivato a dire nel 2003 che “forse non abbiamo ancora trovato il corretto linguaggio o la corretta struttura per scorgere la suprema semplicità della natura” ed ha detto che «la geometria degli spinori potrebbe essere un posto dove cercare le nuove strutture geometriche necessarie» (p. 270). Atyia che, seppur molto influenzato da Witten, ha detto che “Ho scoperto che in quasi tutto quello che ho fatto in matematica, Hermann Weyl c’era arrivato prima … Ritengo che il mio centro di gravità si trovi nello stesso posto del suo. Hilbert era più algebrico; io non credo avesse le stesse intuizioni geometriche. Von Neumann era più analitico e lavorò principalmente in settori applicati”. L’autore così dice che nel libro ha «cercato di spiegare quella che io ritengo sia un’importante lezione che ogni generazione di fisici, a partire dall’avvento della meccanica quantistica, dovrebbe imparare di nuovo. Questa lezione è l’importanza dei principi di simmetria, espressa nel linguaggio matematico della teoria delle rappresentazioni dei gruppi. La meccanica quantistica perde gran parte del suo mistero quando viene espressa in questo linguaggio. La fonte principale dei problemi della teoria delle superstringhe è che la teoria non è costruita su un fondamentale principio di simmetria o espressa nel linguaggio delle teoria delle rappresentazioni. A meno che non si possa trovare un modo di riformulare la teoria in una forma in cui questo sia possibile, la lezione della storia è che essa non condurrà mai da nessuna parte» (p. 271). → «Verso la fine della sua vita, Hermann Weyl, scrisse un libro divulgativo intitolato La simmetria, che trattava più di arte e bellezza che di matematica. In questo libro egli pose l’accento su quanto la nozione di simmetria fosse centrale per le classiche nozioni artistiche di bellezza, cominciando con una discussione del caso della simmetria per riflessioni». «Per lui l’idea matematica della rappresentazione di un gruppo in termini di simmetrie era una precisa incarnazione delle idee di eleganza e bellezza» (p. 271s). «Se si prende il punto di vista di Weyl seriamente, per cercare una teoria fisica più bella del Modello standard si deve fare una delle due cose seguenti: o trovare nuovi gruppi di simmetria oltre a quelli già noti, o trovare metodi più potenti per sfruttare la matematica della teoria delle rappresentazioni per raggiungere una comprensione fisica». → «Una delle grandi intuizioni del Modello standard è l’importanza del gruppo delle simmetrie di gauge, ed è un fatto notevole che in quattro dimensioni spazio-temporali non si conosca praticamente nulla delle rappresentazioni di questo gruppo infinitodimensionale. Il motivo tradizionale» è che i fisici pensano che «soltanto la trasformazione banale sia necessaria. Pensare in questo modo può davvero rivelarsi fuorviante quanto pensare che lo stato di vuoto di una teoria quantistica possa non essere interessante». → «In modo analogo, il principio fondamentale della relatività generale è quello dell’invarianza per l’azione di gruppo di trasformazioni di coordinate (i diffeomorfismi), e ben poco è noto circa la teoria delle rappresentazioni di questo gruppo». → «Forse il vero segreto della gravità quantistica potrà essere trovato una volta che sarà meglio compresa la teoria delle rappresentazioni di questi due gruppi». → «Queste speculazioni sulla possibilità di usare la teoria delle rappresentazioni per superare il Modello standard ovviamente possono rivelarsi completamente errate. Tuttavia, io sono convinto che ogni ulteriore sviluppo verso la comprensione dei più fondamentali costituenti dell’universo richiederà l’abbandono, da parte dei fisici, delle ideologie fossilizzate della supersimmetria e della teoria delle superstringhe, che hanno dominato gli ultimi decenni. Una volta che l’avranno fatto, una cosa che potrebbero scoprire è che la meravigliosamente ricca interazione fra la meccanica quantistica dei campi e la matematica, che ha già rivoluzionato così tanto entrambi i soggetti, non era che all’inizio».