Universit`a di Roma Tor Vergata Studio dell`Accettanza Geometrica

annuncio pubblicitario
Università di Roma Tor Vergata
LAUREA SPECIALISTICA IN FISICA
Studio dell’Accettanza Geometrica
nei Decadimenti Leptonici
dei Bosoni Vettori Intermedi W e Z
per l’Esperimento ATLAS ad LHC
Candidato
Manuela Venturi
Relatore
Prof. A. Di Ciaccio
Anno Accademico 2007/2008
The discovery of the W and the Z
is not the end − it is the beginning.
dal discorso di G. Ekspong
alla consegna del Premio Nobel per la Fisica
a Carlo Rubbia e Simon van der Meer
(1984).
Indice
Introduzione
vii
1 L’esperimento ATLAS al collider LHC del CERN
1.1 Il collider LHC . . . . . . . . . . . . . . . . . . . .
1.2 L’esperimento ATLAS . . . . . . . . . . . . . . . .
1.2.1 Caratteristiche generali del rivelatore . . . .
1.2.2 Inner Detector . . . . . . . . . . . . . . . . .
1.2.3 I calorimetri . . . . . . . . . . . . . . . . . .
1.2.4 Il sistema a muoni . . . . . . . . . . . . . .
1.3 Ricostruzione e identificazione dei muoni . . . . . .
.
.
.
.
.
.
.
1
1
3
3
6
7
9
18
.
.
.
.
.
.
.
.
.
.
.
25
25
28
34
36
37
38
41
43
44
47
48
.
.
.
.
.
.
51
51
51
53
55
57
59
2 La Fisica ad LHC
2.1 Il Modello Standard . . . . . . . . . . . . . . . . .
2.2 L’interazione elettrodebole . . . . . . . . . . . . .
2.2.1 Decadimento leptonico di W . . . . . . . .
2.2.2 Decadimento leptonico di Z . . . . . . . .
2.3 Misure del Modello Standard in ATLAS . . . . .
2.3.1 La massa del W . . . . . . . . . . . . . . .
2.3.2 La Fisica del quark top . . . . . . . . . . .
2.3.3 La ricerca del bosone di Higgs . . . . . . .
2.4 Oltre il Modello Standard . . . . . . . . . . . . .
2.4.1 La ricerca della Supersimmetria in ATLAS
2.4.2 Scenari esotici . . . . . . . . . . . . . . . .
3 La Fisica dei bosoni vettori intermedi W e Z
3.1 Il processo Drell-Yan . . . . . . . . . . . . . .
3.1.1 La collisione protone-protone . . . . .
3.1.2 Sezione d’urto a Leading Order . . . .
3.1.3 Correzioni a Next to Leading Order . .
3.1.4 Distribuzione in momento trasverso dei
3.2 Funzioni di distribuzioni partoniche . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
. . . . .
partoni
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iv
INDICE
3.3
3.4
3.5
3.2.1 Fattorizzazione . . . . . . . . . . . . . . . .
3.2.2 Evoluzione . . . . . . . . . . . . . . . . . . .
3.2.3 Violazioni di scaling . . . . . . . . . . . . .
Metodo CTEQ per il fit delle PDF . . . . . . . . .
3.3.1 Il metodo hessiano . . . . . . . . . . . . . .
3.3.2 L’analisi CTEQ 6 . . . . . . . . . . . . . . .
3.3.3 Effetti di massa dei quark: CTEQ 6.5 e 6.6 .
3.3.4 Correlazioni . . . . . . . . . . . . . . . . . .
Neural Network PDF . . . . . . . . . . . . . . . . .
3.4.1 Struttura generale di una rete neurale . . . .
3.4.2 Applicazione al caso delle PDF . . . . . . .
3.4.3 Incertezza sulle quantità derivate . . . . . .
Generatori Monte Carlo . . . . . . . . . . . . . . .
3.5.1 Fattori di forma di Sudakov . . . . . . . . .
3.5.2 Evoluzione backward . . . . . . . . . . . . .
3.5.3 Struttura generale di un generatore di eventi
3.5.4 Herwig . . . . . . . . . . . . . . . . . . . . .
3.5.5 Pythia . . . . . . . . . . . . . . . . . . . . .
3.5.6 Mc@Nlo . . . . . . . . . . . . . . . . . . . . .
4 Studi di accettanza geometrica
4.1 Motivazione per la misura di σW/Z . .
4.1.1 Metodo per la misura di σW/Z
4.2 Descrizione delle simulazioni . . . . .
4.2.1 Analisi delle distribuzioni . .
4.3 Calcolo dell’accettanza . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Errori sistematici nel calcolo dell’accettanza
5.1 PDF . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 CTEQ 6.1 . . . . . . . . . . . . . . . .
5.1.2 Confronto con le CTEQ 6 e 6.6 . . . .
5.1.3 Correlazioni . . . . . . . . . . . . . . .
5.1.4 Neural Network PDF . . . . . . . . . .
5.2 Momento trasverso intrinseco dei partoni . . .
5.3 Radiazione di stato iniziale . . . . . . . . . . .
5.4 Correzioni di QED: Photos . . . . . . . . . .
5.5 Correzioni elettrodeboli: Horace . . . . . . . .
6 Conclusioni
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
59
64
65
68
69
74
77
83
85
86
88
90
91
91
93
94
95
97
98
.
.
.
.
.
101
. 101
. 102
. 106
. 109
. 116
.
.
.
.
.
.
.
.
.
121
. 122
. 122
. 128
. 133
. 135
. 139
. 140
. 144
. 147
151
INDICE
A Parametri delle
A.1 Herwig . . .
A.2 Pythia . . .
A.3 Mc@Nlo . . .
A.4 Horace . . .
v
simulazioni
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
153
. 153
. 155
. 155
. 157
Bibliografia
159
Ringraziamenti
167
vi
Introduzione
L’esperimento ATLAS, al collisore protone-protone del CERN di Ginevra,
è stato costruito con lo scopo di estendere le attuali conoscenze della Fisica delle particelle elementari, grazie all’energia nel centro di massa pari a
√
s = 14 TeV e alla luminosità di progetto L = 1034 cm−2 s−1 .
L’obiettivo principale di Fisica è l’elucidazione del meccanismo di rottura
spontanea della simmetria elettrodebole, che si manifesterebbe tramite l’esistenza del bosone di Higgs, oltre alla ricerca di segnali di Nuova Fisica, come
le particelle supersimmetriche.
L’esperimento ATLAS sarà inoltre in grado di eseguire, già nella fase
iniziale, studi di precisione nell’ambito del Modello Standard, grazie alle alte
sezioni d’urto di produzione dei quark bottom e top e dei bosoni vettoriali
intermedi W e Z.
Una delle prime misure che l’esperimento affronterà sarà proprio quella
della sezione d’urto per la produzione ed il decadimento leptonico dei bosoni
vettoriali intermedi, nei canali pp → W → `ν` + X e pp → Z → `+ `− + X,
con ` = e e µ.
Questi processi saranno molto abbondanti ad LHC: per ogni canale leptonico, sono attesi circa 108 bosoni Z all’anno nella fase ad alta luminosità,
e un fattore 10 in più di bosoni W .
Dal punto di vista sperimentale, i decadimenti dei bosoni vettori sono
considerati “candele standard”, e saranno utilizzati fin dalle prime fasi della
presa dati per la calibrazione del calorimetro elettromagnetico (Z → e+ e− ),
per l’allineamento delle tracce nello spettrometro a muoni (Z → µ+ µ− ), e
per monitorare la luminosità del rivelatore, grazie ad una segnatura pulita,
non oscurata da fondi importanti, oltre che semplice da caratterizzare, grazie
viii
INTRODUZIONE
alla presenza di leptoni ad alto impulso trasverso.
Più a lungo termine, l’obiettivo è quello di portare l’errore sulle sezioni
d’urto σW,Z al di sotto dell’1%, che è la soglia raggiunta al momento dal
calcolo teorico al Next to Next to Leading Order.
Lo studio dei decadimenti leptonici dei bosoni vettori, è essenziale anche
perché essi costituiscono il fondo dominante per molti dei canali di Nuova
Fisica che verranno esplorati dall’esperimento ATLAS.
Infine, si potrà estrarre da questi processi una conoscenza accurata delle
funzioni di distribuzioni partoniche (PDF) ad altissimi momenti trasferiti
(Q ≈ (102 ÷ 103 ) GeV).
Per quanto riguarda l’errore atteso sulla sezione d’urto, l’alta statistica raccolta dall’esperimento renderà in breve dominante l’errore sistematico
dovuto all’accettanza geometrica.
Il mio lavoro si è concentrato proprio sulla stima dell’accettanza nei decadimenti leptonici di W e Z, e del suo errore sistematico teorico, stima
effettuata con l’ausilio dei generatori Monte Carlo.
La Tesi è strutturata in cinque Capitoli. Nel primo Capitolo viene descritto l’esperimento ATLAS nelle sue componenti principali – l’Inner Detector, i
calorimetri, lo spettrometro a muoni, le camere per il tracciamento e il trigger
– e nelle sue performance – la risoluzione in impulso trasverso e in energia
mancante, l’efficienza di trigger e di ricostruzione delle tracce delle particelle.
Nel secondo Capitolo, illustrerò brevemente il Modello Standard, la rottura spontanea della simmetria elettrodebole tramite il bosone di Higgs ed
il Modello Standard Supersimmetrico Minimale, per poi volgere l’attenzione
ai traguardi che l’esperimento ATLAS si propone nei vari settori.
Nel terzo Capitolo, viene studiata più in dettaglio la teoria dei processi
Drell-Yan, a Leading e a Next to Leading Order. Poiché le PDF dominano
l’errore sistematico sull’accettanza geometrica, ad esse è dedicato lo spazio
maggiore, in particolare a due dei metodi usati per estrarle dalle misure delle
funzioni di struttura: il metodo hessiano della collaborazione CTEQ ed il
metodo delle reti neurali. In questo Capitolo descriverò anche la struttura generale dei generatori Monte Carlo, soffermandomi sulle caratteristiche
INTRODUZIONE
ix
principali di quelli che ho utilizzato per le simulazioni (Herwig, Pythia ed
Mc@Nlo).
Il quarto Capitolo contiene i risultati del calcolo dell’accettanza, per i vari
processi, sia all’ordine Leading in αs , che a quello Next to Leading.
Nel quinto Capitolo, affronto infine il problema dell’errore sistematico.
Partendo dalla configurazione di default, ho variato tutti i parametri a cui
l’accettanza è sensibile: le PDF, il momento trasverso intrinseco dei partoni,
la quantità di radiazione permessa nello stato iniziale, le correzioni elettromagnetiche e quelle elettrodeboli. La descrizione tecnica delle configurazioni
dei generatori Monte Carlo, è contenuta nell’Appendice.
x
Capitolo 1
L’esperimento ATLAS al
collider LHC del CERN
1.1
Il collider LHC
L’acceleratore circolare Large Hadron Collider (LHC) [29] è stato costruito
al CERN per estendere le frontiere della Fisica delle particelle, grazie alla
sua energia e alla sua luminosità senza precedenti.
É situato nel tunnel di LEP, lungo 27 Km, e accelererà due fasci indipendenti di protoni,√concentrati in pacchetti di 1011 , fino a un’energia nel centro di massa di s = 14 TeV. La frequenza delle collisioni sarà altissima:
4 × 107 collisioni al secondo, corrispondenti alla luminosità di disegno istantanea L = 1034 cm−2 s−1 .
LHC fornirà anche collisioni di ioni pesanti, in particolare nuclei di Piombo
a 5.5 TeV e L = 1027 cm−2 s−1 .
La Figura 1.1 mostra schematicamente il layout del complesso di acceleratori
del CERN. Nell’anello di LHC, i fasci di protoni si incroceranno in quattro
punti, che sono i siti dei quattro esperimenti principali: ATLAS (A Toroidal
LHC ApparatuS) [58] e CMS (Compact Muon Solenoid) [60] sono situati
diametralmente opposti (punti 1 e 5), ALICE (A Large Ion Collider Experiment) [57] nel punto 2, e LHCb [62] nel punto 8.
Mentre ATLAS e CMS potranno esplorare tutto il potenziale di Fisica ad
LHC (sono detti per questo multipurpose), gli altri esperimenti sono specializzati: ALICE studierà le collisioni tra ioni pesanti e la conseguente formazione del plasma gluone-quark, mentre LHCb si dedicherà alla Fisica di
precisione del mesone B. Inoltre, l’esperimento TOTEM [63], situato nella caverna di CMS, ha come obiettivo la misura della sezione d’urto totale
protone-protone.
2
1.1. IL COLLIDER LHC
Come già accennato, ognuno dei due fasci conterrà 2808 pacchetti, costituiti
da 1011 protoni ciascuno. Il primo stadio dell’accelerazione si svolge nel PS
(Proton Synchrotron), in cui i pacchetti vengono portati all’energia di 26
GeV; il secondo stadio consiste nell’iniezione nell’SPS (Super Proton Synchrotron), dove i pacchetti vengono accelerati fino a 450 GeV e poi trasferiti
nell’LHC. Lo spaziamento temporale tra i pacchetti di protoni è di 25 ns,
mentre è di 125 ns per i fasci di ioni di Piombo.
Figura 1.1: Layout del sistema di acceleratori del CERN.
Il sistema dei magneti comprende 1232 dipoli. L’accelerazione verrà impressa
in otto cavità lungo il percorso, raffreddate ad Elio liquido. Su ciascun lato
dei punti di interazione (IP), un tripletto di quadrupoli, ognuno lungo 31 m,
fornirà il focheggiamento dei fasci.
La realizzazione di un progetto ambizioso come LHC ha richiesto il raggiungimento di nuovi traguardi nella realizzazione dei rivelatori, sia per quanto
riguarda la precisione necessaria nel difficile contesto di un’interazione adronica ad altissime energia e frequenza, sia per la protezione dalle alte dosi di
radiazioni generate nelle collisioni.
La schedula per il ripristino delle operazioni − interrotte nel settembre
2008 subito dopo l’avvio a causa di un incidente ai magneti nel settore 3-4, con
conseguente fuoriuscita di Elio liquido − prevede una fase di riparazioni nei
primi mesi del 2009, e una nuova partenza nel settembre dello stesso anno.
Attualmente l’esperimento è in fase di commissioning, ovvero di studio e
calibrazione dei suoi rivelatori tramite l’acquisizione dei dati da raggi cosmici.
Possiamo distinguere due fasi principali per le operazioni con i fasci di
1.2. L’ESPERIMENTO ATLAS
3
protoni [51]. Durante la prima fase − dall’autunno 2009 all’autunno 2010
− l’energia per fascio sarà di 5 TeV e la luminosità L = 1030 cm−2 s−1 : in
questo periodo ci si aspetta di raccogliere tra i 200 e i 300 pb−1 di dati, che
saranno utilizzati da una parte per la calibrazione del rivelatore, gli studi di
performance del trigger e la determinazione delle efficienze, dall’altra per lo
studio di processi ben noti, come la produzione Drell-Yan dei bosoni vettori
W e Z(1 ), e la Fisica del quark top.
Nella fase seguente, in cui la luminosità istantanea salirà a L = 1033 cm−2 s−1 ,
per poi raggiungere quella di disegno, sarà dedicata alla ricerca del bosone
di Higgs e delle particelle supersimmetriche, oltre che all’esplorazione degli
scenari più esotici.
Nel seguito ci soffermeremo sulla descrizione dell’esperimento ATLAS.
Focalizzeremo la nostra attenzione sul sistema dedicato alla misura dei muoni, in quanto essi rappresentano la segnatura di riferimento per molti degli
obiettivi di Fisica di ATLAS.
1.2
1.2.1
L’esperimento ATLAS
Caratteristiche generali del rivelatore
Definiamo innanzitutto il sistema di riferimento.
L’origine delle coordinate risiede nel punto nominale di interazione; l’asse z
è la direzione del fascio, il piano xy è trasverso al fascio, quindi il momento
trasverso è definito come:
q
pT = p2x + p2y
e cosı̀ l’energia trasversa. L’asse x punta verso il centro dell’anello di LHC,
l’asse y punta verso l’alto. Il lato A (C) del rivelatore è quello a z positive
(negative).
L’angolo azimutale φ è misurato intorno all’asse z (0 < φ < 2π), mentre
l’angolo polare θ è misurato a partire dallo stesso asse (0 < θ < π).
La rapidità y e la pseudorapidità η sono definite come:
·
¸
µ ¶
E + pz
θ
1
,
η = − ln tan
y = ln
,
(1.1)
2
E − pz
2
dove la rapidità è approssimata dalla pseudorapidità in caso di particelle di
massa trascurabile. In Figura 1.2 vediamo la variazione di η in funzione del1
Il processo Drell-Yan propriamente detto coinvolge solo la produzione di un fotone;
nel seguito, estendiamo la notazione ad includere anche la produzione ed il decadimento
dei bosoni vettori massivi W e Z.
4
1.2. L’ESPERIMENTO ATLAS
l’angolo polare: pseudorapidità maggiori corrispondono ad angoli più vicini
alla linea del fascio.
Figura 1.2: Andamento della pseudorapidità η in funzione dell’angolo polare θ.
Definiamo infine la distanza ∆R nel piano φ − η, che viene usata per quantificare l’isolamento delle particelle nel rivelatore, e per la definizione dei jet
di QCD:
p
∆R = ∆η 2 + ∆φ2 .
(1.2)
In Figura 1.3 vediamo il disegno complessivo dell’esperimento ATLAS, mentre in Tabella 1.1 sono elencate in dettaglio la risoluzione in impulso e la
copertura angolare del tracciatore centrale e dello spettrometro a muoni.
Figura 1.3: Vista schematica dell’esperimento ATLAS [10].
Da notare che il rivelatore è simmetrico rispetto al punto di interazione.
Il sistema magnetico comprende un solenoide superconduttore intorno all’In-
1.2. L’ESPERIMENTO ATLAS
5
ner Detector (il campo risultante è di 2 T), e tre toroidi superconduttori a
simmetria ottagonale all’esterno dei calorimetri.
L’Inner Detector è circondato da calorimetro elettromagnetico (EM) a
sampling, costituito di Argon liquido (LAr) ad alta granularità e strati di
Piombo. L’Argon liquido è usato anche per i calorimetri adronici, per avere
continuità con quelli elettromagnetici.
Procedendo verso l’esterno, si incontra lo spettrometro a muoni, con tre
strati di camere di tracciamento ad alta precisione, e camere di trigger ad
alta risoluzione temporale ((1.5 ÷ 4) ns).
Componente
Risoluzione
del rivelatore
richiesta
Misura
Trigger
σpT /pT = 0.05% pT ⊕ 1%
√
σE /E = 10%/ E ⊕ 0.7%
±2.5
−
±3.2
±2.5
±3.2
±3.2
3.1 < |η| < 4.9
3.1 < |η| < 4.9
±2.8
±2.4
Tracciamento
Calorimetro EM
Copertura in η
Calorimetro adronico:
Barrel ed end-cap
In avanti
Spettrometro a muoni
√
σE /E = 50%/ E ⊕ 3%
√
σE /E = 100%/ E ⊕ 10%
σpT /pT = 3% a 100 GeV
σpT /pT = 10% a 1 TeV
Tabella 1.1: Risoluzione e copertura in pseudorapidità dei vari rivelatori di
ATLAS [10]. Impulsi ed energie sono in GeV.
La frequenza di interazione protone-protone, alla luminosità di disegno, è approsimativamente 1 GHz, mentre la registrazione dei dati è limitata a 200 Hz.
Occorre quindi un fattore di reiezione di 5 × 106 , che permetta di preservare i
dati potenzialmente interessanti. Il trigger di Livello 1 (L1) diminuisce il rate
degli eventi da salvare a 75 kHz, avvalendosi dell’informazione proveniente
da un sottoinsieme dell’intero apparato; si scende poi fino a 200 Hz tramite
i due livelli di trigger successivi, indicati collettivamente come trigger di alto
livello.
Vediamo in Figura 1.4 il rate di particelle stimato nel rivelatore dopo il trigger
di Livello 1, in funzione della soglia in pT .
Con un taglio in pT a 20 GeV − che è quello usato per esempio per selezionare gli eventi W e Z − il rate totale è di circa 5 Hz, ed è dominato dalla
produzione di quark pesanti.
6
1.2. L’ESPERIMENTO ATLAS
Figura 1.4: Rate di particelle stimato nell’esperimento ATLAS dopo il trigger di
Livello 1, in funzione della soglia in momento trasverso [10].
1.2.2
Inner Detector
L’Inner Detector (ID), un cilindro di dimensioni 2.1 m × 6.2 m che circonda
la beam-pipe (Figura 1.5), è il cuore del rivelatore.
Figura 1.5: Vista schematica dell’Inner Detector [10].
E’ immerso in un campo magnetico solenoidale di 2 T, le cui linee di campo
corrono parallele all’asse del fascio. La funzione principale dell’ID è il tracciamento delle particelle cariche al suo interno, in modo da ricostruirne la
carica, l’impulso, i vertici primari e secondari. Il tracciamento è assicurato
dai tracciatori a pixel e a microstrip di Silicio (SCT, Semi Conductor Trac-
1.2. L’ESPERIMENTO ATLAS
7
king), e dai rivelatori a radiazione di transizione (TRT).
I tracciatori di precisione (pixel e SCT) coprono la regione |η| < 2.5. Come
si vede dalla Figura, quelli nel barrel (corpo centrale del rivelatore, letteralmente “barile”) sono disposti perpendicolarmente a quelli negli end-cap.
L’obiettivo di questi sottorivelatori è di assicurare un’ottima risoluzione in
impulso, oltre che la localizzazione del vertice primario e di quelli secondari,
in condizioni di altissima densità di tracce. La massima granularità è raggiunta intorno all’IP, e decresce gradualmente a distanze crescenti.
La soluzione adottata consiste nel far attraversare ad ogni traccia almeno
quattro strati di strip di Silicio e tre strati di pixel nella zona più interna.
Gli strati di pixel sono segmentati in Rφ e in z, con dimensioni standard di
Rφ × z = 50 × 400 µm2 . I canali di lettura sono circa 80 milioni per i pixel,
6 milioni per le microstrip di Silicio.
Ogni traccia è inoltre registrata dai tracciatori a radiazione di transizione,
con 36 hit per traccia; questi rivelatori provvedono solo l’informazione in
Rφ, fino a |η| = 2.0. Permettono tuttavia di estendere l’informazione sul
tracciamento a grandi distanze, compensando la minor precisione col grande
numero di punti raccolti.
Il tracciamento effettuato nell’Inner Detector è complementare a quello dei
calorimetri elettromagnetici, come vedremo in Sezione (1.3).
1.2.3
I calorimetri
I calorimetri, elettromagnetici e adronici, circondano l’Inner Detector, come
mostrato in dettaglio in Figura 1.6.
Presi nel loro insieme, essi coprono il range |η| < 4.9, che è molto vasto
e comprende quindi zone assai diverse per performance richieste e per dosi
di radiazioni assorbite. In particolare, mentre per il calorimetro elettromagnetico a LAr, che si trova direttamente dopo il rivelatore centrale, c’è la
necessità di avere altissima precisione e quindi una granularità molto fine,
queste richieste possono essere rilassate via via che ci si allontana dall’Inner
Detector.
Caratteristica comune di questi rivelatori, è la capacità di contenimento delle
cascate, adronica ed elettromagnetica. Il calorimetro EM ha spessore maggiore di 22 lunghezze di radiazione (X0 ) nel barrel, e maggiore di 24 X0 negli
end-cap.
In complesso, lo spessore del sistema dei calorimetri di ATLAS è di 11 λ
a η = 0, sufficiente per una buona misura di ETmiss e dei jet altamente
energetici.
8
1.2. L’ESPERIMENTO ATLAS
Figura 1.6: Vista schematica del sistema dei calorimetri [10].
Calorimetro elettromagnetico a LAr
É diviso in una componente di barrel (|η| < 1.47) e due componenti di endcap (1.37 < |η| < 3.2), ognuna racchiusa nel proprio criostato. Il calorimetro
del barrel consiste di due metà identiche (z > 0 e z < 0), separate da una
piccola gap di 4 mm a z = 0, per il passaggio dei cavi e dei servizi. I due
calorimetri degli end-cap sono invece divisi entrambi in due ruote coassiali.
La copertura in φ è pressoché totale, senza zone morte, grazie a una geometria
a fisarmonica: questo permette di avere molti strati attivi in profondità.
La struttura del calorimetro elettromagnetico è a sampling, con strati
alternati di Piombo e Argon liquido: l’Argon è il materiale sensibile, mentre
il Piombo, la cui funzione è l’assorbimento dello sciame, ha uno spessore
variabile in funzione di η.
La scelta dell’Argon liquido è dovuta alla sua risposta intrinsecamente lineare
e stabile nel tempo, e alla sua resistenza alle radiazioni.
La zona di transizione tra barrel ed end-cap è equipaggiata con un presciamatore (uno strato di LAr) che, per 1.5 < |η| < 1.8, corregge per le
perdite di energia in questa zona. Inoltre, il calorimetro forward, FCal, copre
l’intervallo in rapidità 3.1 < |η| < 4.9, cosı̀ da misurare l’energia di fotoni ed
elettroni nella zona più prossima al fascio.
I segnali del calorimetro EM sono amplificati e formati ogni 25 ns, e
immagazzinati in memorie analogiche in attesa del trigger di Livello 1.
1.2. L’ESPERIMENTO ATLAS
9
Calorimetri adronici
Si trovano sulla linea del fascio, subito dopo i calorimetri elettromagnetici.
Sono di due tipi: il tile calorimeter (letteralmente “calorimetro a tegola”) e
quello dell’end-cap.
Il primo usa il Ferro come materiale assorbitore, e una struttura a mattonelle
per la scintillazione. Le particelle ionizzanti che attraversano queste mattonelle inducono la produzione di luce di scintillazione ultravioletta, che viene
poi convertita in luce visibile da uno wavelength shifter, per essere letta dai
fotomoltiplicatori. La copertura è |η| < 1.7, con uno spessore totale di 9.7 λ
a η = 0. La struttura è autoconsistente, e comprende 3 sezioni di 64 moduli
ciascuna.
Il calorimetro adronico dell’end-cap è invece ad Argon Liquido, come quello
elettromagnetico, dietro al quale è immediatamente posizionato, e col quale
condivide il criostato. É formato da due ruote indipendenti per end-cap,
ognuna divisa in due strati; il materiale assorbitore è il Rame.
Il calorimetro forward (FCal) comprende una parte adronica (due moduli
assorbitori di Tungsteno) e una elettromagnetica (un modulo assorbitore di
Rame), entrambe alternate con gap di Argon liquido. L’FCal è accoppiato
con i calorimetri degli end-cap e ne condivide il criostato; questa scelta minimizza le perdite di energia nelle zone di transizione tra i due sottorivelatori.
L’FCal si trova sulla linea del fascio, a 4.7 m dal punto di interazione, per
cui è esposto a flussi intensi di particelle: per ottimizzare la risposta, gli
strati riempiti di Argon liquido dell’FCal sono molto più sottili di quelli dei
calorimetri EM.
1.2.4
Il sistema a muoni
Uno schema dello spettrometro a muoni è mostrato in Figura 1.7, mentre i
suoi parametri principali sono listati in Tabella 1.2.
Lo spettrometro è stato progettato per fornire accurate misure di impulso da pochi GeV fino a vari TeV: se infatti la maggior parte dei processi
interessanti, sia del Modello Standard sia di nuova Fisica, produce tracce ad
alto pT , non possiamo trascurare i muoni a bassa energia come quelli per lo
studio della violazione di CP e per la Fisica del B.
Gli obiettivi di Fisica richiedono quindi performance eccezionali allo spettrometro a muoni:
• Risoluzione in massa e in impulso intorno all’1%, per poter ricostruire
stati finali contententi fino a quattro muoni, in condizioni di alto fondo.
10
1.2. L’ESPERIMENTO ATLAS
Figura 1.7: Vista schematica del sistema dei calorimetri [10].
Monitored Drift Tubes
Copertura
Numero di camere
Numero di canali
Funzione
Cathode Strip Chambers
Copertura
Numero di camere
Numero di canali
Funzione
Resistive Plate Chambers
Copertura
Numero di camere
Numero di canali
Funzione
Thin Gap Chambers
Copertura
Numero di camere
Numero di canali
Funzione
MDT
|η| < 2.7 (strato più interno: |η| < 2.0)
1088 (1150)
339000 (354000)
Tracciamento di precisione
CSC
2.0 < |η| < 2.7
32
31000
Tracciamento di precisione
RPC
|η| < 1.05
544
359000
Trigger e seconda coordinata
TGC
1.05 < |η| < 2.7 (|η| < 2.4 per il trigger)
3588
318000
Trigger e seconda coordinata
Tabella 1.2: Parametri del sistema a muoni di ATLAS [10].
1.2. L’ESPERIMENTO ATLAS
11
• Misura della seconda coordinata, ortogonale alla direzione della deflessione magnetica, con una risoluzione di 5 ÷ 10 mm.
• Grande copertura in pseudorapidità (|η| < 2.7), senza zone morte
(ermeticità).
• Trigger efficiente e flessibile: mentre i processi ad alto pT saranno selezionati con una soglia di 10 ÷ 20 GeV, per i processi rari e poco
energetici la soglia dovrà scendere fino a 5 GeV.
• Identificazione accurata del bunch-crossing: il trigger di primo livello
dovrà avere una risoluzione temporale inferiore a 25 ns.
Il fondo che questo spettrometro si troverà ad affrontare può essere diviso in
due tipi, primario e secondario.
Il fondo primario è dovuto ai muoni prodotti dal decadimento delle particelle
generate nella collisione tra i protoni; un esempio sono i decadimenti semileptonici dei mesoni leggeri (π, K → µX) e dei quark pesanti (c, b, t → µX).
Il fondo secondario invece consiste principalmente di neutroni e fotoni intorno al MeV, prodotti da interazioni secondarie nei calorimetri forward, nel
materiale di schermo dalle radiazioni, eccetera. I neutroni a bassa energia
vengono infatti prodotti in gran numero nei processi adronici, sfuggono agli
assorbitori e producono un gas di fotoni poco energetici attraverso processi
nucleari di cattura neutronica. Questo fondo è isotropo e non è correlato col
bunch-crossing, caratteristica che si sfrutta per ridurlo.
Da notare che il rivelatore è stato disegnato per affrontare un fondo fino a
cinque volte superiore a quello stimato.
Sistema magnetico
Lo spettrometro è basato sulla deflessione delle tracce muoniche nei tre grandi
magneti superconduttori toroidali air-core (Figura 1.8).
Un magnete air-core − che è “vuoto”, per cui la sua induttanza non è dovuta
alla presenza di un materiale ferromagnetico − può operare a frequenze di
diversi GHz, mentre i ferromagneti hanno difficoltà a superare i 100 MHz.
Nella regione |η| < 1.4, la deflessione è assicurata dal toroide del barrel,
mentre negli end-cap (1.6 < |η| < 2.7) sono installati due magneti più piccoli. Nella regione di transizione, 1.3 < |η| < 1.65, è presente invece una
combinazione dei campi precedenti. Questa configurazione magnetica fornisce un campo che è ovunque perpendicolare alle traiettorie, minimizzando
contemporaneamente l’effetto dello scattering multiplo.
12
1.2. L’ESPERIMENTO ATLAS
Figura 1.8: Schema del magnete superconduttore in aria della regione centrale
dello spettrometro a muoni [10].
Camere a muoni per il tracciamento: MDT e CSC
Il sistema delle camere a muoni è ottimizzato in ermeticità ed è strutturato
in modo che ogni traccia attraversi almeno tre camere.
Nel barrel (|η| < 1), le camere sono disposte in tre cilindri, concentrici all’asse del fascio, a raggi di circa 5, 7.5 e 10 m. Le camere degli end-cap,
invece, coprono il range 1 < |η| < 2.7, e sono disposte in quattro dischi,
anch’essi concentrici all’asse del fascio, posti a 7, 10, 14 and 21 m dall’IP. La
combinazione delle camere del barrel e degli end-cap permette di avere una
copertura pressoché totale in pseudorapidità, eccetto che per le aperture in
direzione verticale (η = 0) per il passaggio dei cavi e dei servizi.
Per |η| < 2.0 le tracce vengono misurate, nella direzione della deflessione
magnetica, tramite gli MDT (Monitored Drift Tubes). A grandi rapidità
(2 < |η| < 2.7), in cui il flusso, sia del segnale sia del fondo, è elevatissimo,
gli MDT sono supplementati dalle CSC (Cathode Strip Chambers), che sono
camere proporzionali multifilo con catodi segmentati a strisce.
La struttura degli MDT è proiettiva, le loro dimensioni cioé aumentano con
la distanza dal punto di interazione; per eliminare le zone morte, molte camere sono state sagomate in forme speciali. Alla partenza di LHC, saranno
presenti 1088 MDT, divisi in 18 tipi principali.
L’elemento di base di una camera MDT è un tubo pressurizzato (3 bar)
con un diametro di ∼ 30 mm, riempito dalla miscela di gas Ar/CO2 . Gli
elettroni risultanti dalla ionizzazione sono raccolti da un filo centrale di
Tungsteno-Renio, tenuto a una tensione di 3080 V. L’indipendenza dei singoli
tubi fa sı̀ che il danneggiamento di uno non coinvolga gli altri.
La pressione a cui sono tenuti i tubi riduce l’effetto della diffusione, e in
più il fatto di avere una geometria cilindrica risulta in un campo elettrico
radiale: l’accuratezza della misura, di conseguenza, dipende solo debolmente
1.2. L’ESPERIMENTO ATLAS
13
dall’angolo di incidenza sul piano della camera, in quanto il tempo di deriva
(drift) è lo stesso per tutte le tracce a distanza R dal filo (Figura 1.9(a)),
cosa che non accadrebbe con una geometria rettangolare. Il massimo tempo
di drift è circa 700 ns.
Figura 1.9: (a) Sezione di un tubo a drift. (b) Struttura di una camera MDT.
Entrambi da [10].
Il gas è stato selezionato grazie alle sue proprietà di ageing, infatti in campioni di questa miscela non sono mai stati osservati depositi sui fili, né è
possibile la formazione di polimeri data l’assenza di Idrogeno. Uno svantaggio di questo gas è d’altronde la relazione non lineare tra spazio e tempo
di drift, che causa un degrado della risoluzione spaziale ad alte frequenze di
conteggio. Inoltre Ar/CO2 è abbastanza lento, il doppio di quello gas dalla
risposta lineare come Ar/CH4 .
In Figura 1.9(b) vediamo la generica struttura di una camera MDT: i tubi
sono disposti in piani paralleli, e ogni gruppo di tre o quattro piani (multistrato) è intervallato da uno spaziatore meccanico. Nella regione più interna del
rivelatore ci sono quattro piani di tubi, tre nelle parti esterne. Una struttura
interna di Alluminio permette di dare rigidità alla camera. Per monitorare
la posizione dei tubi è stato aggiunto un sistema di lenti, poste in mezzo
alla camera, che convogliano quattro raggi di allineamento ottico. In questo
modo si possono individuare e correggere deformazioni di pochi µm, come
quelle causate dalle variazioni ambientali (temperatura, pressione, ecc.).
Le camere CSC sono installate nella zona ad alto rate degli end-cap. La
regione di operatività ottimale degli MDT, infatti, è limitata a |η| < 2.0,
dove si raggiunge un rate di conteggi di circa 150 Hz/cm2 ; per rate superiori,
il diametro relativamente largo dei tubi fa sı̀ che si vada in condizione di pile-
14
1.2. L’ESPERIMENTO ATLAS
up. Per questo, fino a |η| = 2.7, gli MDT sono supplementati dalle camere
CSC, che sopportano un rate fino a 1000 Hz/cm2 .
Figura 1.10: (a) Disposizione spaziale delle camere CSC. (b) Struttura di una
camera CSC. Entrambi da [10].
La disposizione delle camere CSC è mostrata in Figura 1.10(a): in complesso
ci sono due dischi, con otto camere per ciascuno, di dimensioni piccole per il
disco interno e grandi per quello esterno. Ogni camera è composta in realtà di
quattro CSC, per un totale di quattro misure indipendenti (η, φ) per traccia.
Come vediamo in Figura 1.10(b), le CSC sono camere proporzionali a
multifilo, con una distanza anodo-catodo d uguale alla distanza tra i fili
anodici (d = S = 5.08 mm). In una tipica camera a multifilo, i √
segnali sono
letti dai fili anodici, limitando cosı̀ la risoluzione spaziale a S/ 12: in una
CSC invece la precisione è molto maggiore, perché quello che si misura è la
distribuzione di carica indotta sul catodo dalla valanga formata sugli anodi.
Entrambi i catodi sono segmentati, uno in strisce perpendicolari ai fili, uno in
strisce parallele, fornendo cosı̀ in contemporanea la misura di due coordinate.
La prima delle due misure menzionate, però, è molto più precisa (60 µm),
mentre nella direzione trasversa alla deflessione la segmentazione del catodo
è meno fitta e quindi la risoluzione ottenibile si ferma a 5 mm.
Le caratteristiche di queste camere, semplici ma precise, sono: capacità
di distinguere tra più tracce, risoluzione temporale di 7 ns per piano, bassa
sensibilità ai neutroni. La miscela di gas scelta è Ar/CO2 come per gli MDT.
Camere a muoni per il trigger: RPC e TGC
Il sistema di trigger di Livello 1 dello spettrometro a muoni, deve fornire al
trigger di Livello 2 la misura della molteplicità e dell’impulso delle tracce che
lo attraversano. Per far questo, deve possedere le caratteristiche seguenti:
1.2. L’ESPERIMENTO ATLAS
15
• Velocità: il trigger deve avere una risoluzione temporale migliore di
25 ns (spaziamento tra i pacchetti di protoni) per poter correttamente
associare trigger e bunch-crossing.
• Precisione nelle soglie in pT : la definizione delle soglie in impulso
trasverso richiede una granularità intorno al cm.
• Misura della seconda coordinata: poiché gli MDT misurano la
coordinata delle tracce lungo la direzione della deflessione, le camere di
trigger devono fornire la coordinata trasversa.
• Uniformità in η e φ: il trigger deve coprire il range di accettanza
|η| ≤ 2.4, e 2π in angolo azimutale.
Commentiamo quest’ultima caratteristica. Tra barrel ed end-cap ci sono
differenze sostanziali. In particolare, fissato pT , p cresce in funzione di η:
mentre a η = 0 si ha p = pT , per |η| = 2.4 si ha per esempio p = 5.8 pT .
Quindi, se la risoluzione in pT deve essere confrontabile tra end-cap e barrel,
la granularità del rivelatore deve essere funzione di η.
Al tempo stesso, bisogna considerare che negli end-cap i livelli di radiazione
sono dieci volte maggiori di quelli nel barrel.
Infine, nella regione di transizione (1.3 ≤ |η| ≤ 1.65), la geometria molto
complessa del campo magnetico genera disomogeneità nel potere di deflessione, che vengono corrette da un apposito algoritmo.
Le richieste fin qui elencate sono soddisfatte, nel modo più efficiente ed
economico, dalla seguente scelta per i rivelatori (si confronti la Figura 1.12):
• RPC (Resistive Plate Chambers) nel barrel (|η| ≤ 1.05),
• TGC (Thin Gap Chambers) negli end-cap (1.05 ≤ |η| ≤ 2.4).
L’RPC (Figura 1.11) è un rivelatore a elettrodi piani paralleli. Il gas è
contenuto tra due piastre resistive, che sono tenute parallele a una distanza
di 2 mm da spaziatori in policarbonato. Tra le piastre è applicato un campo
elettrico costante ed uniforme (4.9 kV/mm); esse sono rivestite esternamente
da uno strato di grafite, la cui alta resistività (ρ ∼ 100 kΩ) permette alla
tensione di distribuirsi uniformemente, senza creare una gabbia di Faraday
che bloccherebbe la trasmissione del segnale.
Il segnale è letto capacitativamente da un piano di strisce metalliche posizionate sulla faccia esterna delle piastre.
Il campo elettrico applicato produce la valanga, moltiplicando gli elettroni e gli ioni primari generati per ionizzazione dalla traccia carica primaria.
16
1.2. L’ESPERIMENTO ATLAS
Figura 1.11: Sezione di una camera RPC.
Gli elettroni driftano verso l’anodo, e il loro numero cresce, per interazioni
secondarie con gli elettroni del mezzo, secondo la legge:
R
N = n0 e
dx α(x)x
dove l’integrale è effettuato sul tratto percorso. α è il primo coefficiente di
Townsend, ed è costante se durante lo sviluppo della valanga il campo elettrico resta uniforme, ovvero se la carica spaziale cosı̀ formatasi non è tanto
intensa da deformarlo. Per molteplicità N/n0 maggiori di una certa soglia
(pari a ∼ 106 per i gas nobili) la valanga diventa saturata, cioé la sua crescita
è rallentata da effetti di carica spaziale.
Il regime di valanga permette agli RPC di ATLAS di mantenere un’alta efficienza anche in presenza di flussi elevati di particelle, come quelli aspettati
nello spettrometro nella fase di alta luminosità di LHC.
La miscela di gas utilizzata è C2 H2 F4 /C4 H10 /SF6 , secondo i rapporti 94.7/5/0.3.
La componente principale è un gas elettronegativo, con alta ionizzazione primaria, ma ridotto cammino libero medio λ per la cattura degli elettroni, in
modo da contenerne la moltiplicazione e restare nel regime di valanga.
Un idrocarburo come l’Isobutano è quello che serve invece per assorbire i
fotoni prodotti dalla ricombinazione degli elettroni con gli ioni, evitando che
questi fotoni diano origine a fotoionizzazione e quindi allo sviluppo laterale
della valanga.
Una piccola quantità di SF6 , infine, estende di molto la regione in cui si può
lavorare in regime di valanga senza rischio di transire allo streamer: alla tensione nominale, un segnale largo 5 ns è generato in regime di streamer con
1.2. L’ESPERIMENTO ATLAS
17
probabilità minore dell’1%.
La risoluzione spaziale che ne risulta è dell’ordine del cm, quella temporale
dell’ordine del ns.
Figura 1.12: Trigger di precisione: camere RPC e TGC [10].
Come vediamo in Figura 1.12, gli RPC sono disposti nel barrel, in tre stazioni:
gli strati RPC1 e RPC2 sono inframmezzati da un MDT, mentre RPC3 è
situato al di sopra (o al di sotto, a seconda della camera) del rispettivo MDT.
Ogni stazione fornisce due misure indipendenti, in η e in φ, per un totale di
sei punti, tra i quali si possono stabilire coincidenze veloci. La stazione
intermedia, RPC2, è presa come riferimento: si traccia la linea retta tra
punto di interazione e hit della traccia sulla camera RPC2 (traiettoria ideale
per particelle di momento infinito), e si misura la deviazione della traiettoria
ricostruita da quella ideale. La ricostruzione viene fatta tramite le misure
nelle stazioni 2 e 1 per i muoni a basso pT , e nelle stazioni 2 e 3 per quelli ad
alto pT .
Per le camere TGC, la stazione di riferimento è TGC3, la più esterna delle
quattro(2 ), come si può vedere ancora in Figura 1.12. Le TGC sono disposte
negli end-cap; operano secondo lo stesso principio delle camere proporzionali
a multifilo, assicurando buona risoluzione temporale e spaziale (quest’ultima
determinata principalmente dalla granularità dei canali di lettura).
La differenza rispetto alle camere a multifilo tradizionali, è che la distanza
2
La camera aggiunta in vicinanza dello strato più interno di tracciamento (TGCI) è
necessaria, a causa dell’intensità del fondo, per ridurre il rischio di false coincidenze, come
quelle ad opera degli elettroni creati dalla conversione dei fotoni e spiraleggianti nel campo
magnetico.
18 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI
anodo-anodo è maggiore della distanza anodo-catodo; la distanza tra i fili
d’altronde è abbastanza piccola da giustificare l’ottima risoluzione in tempo
(i segnali arrivano entro 25 ns col 99% di probabilità).
Le camere TGC sono fatte operare in regime di valanga quasi-saturata,
con un guadagno di 3 × 105 ottenuto tramite la miscela di gas CO2 /n-C5 H12
(in proporzioni 55/45). Oltre che al trigger, le camere Thin Gap servono alla
misura della coordinata azimutale.
1.3
Ricostruzione e identificazione dei muoni
Come abbiamo visto nella Sezione precedente, la misura dei muoni è una
combinazione dei contributi dello spettrometro e dell’Inner Detector.
Lo spettrometro fornisce la misura più accurata ad alti impulsi trasversi (fino
a 3 TeV), mentre l’Inner Detector lo supplementa a impulsi bassi e medi,
pT ≤ 30 GeV; lo spettrometro serve anche al trigger per |η| < 2.5 e per un
ampio spettro di energie.
Le tracce dello spettrometro sono identificate nelle stazioni più interne, poi
propagate all’indietro fino al punto di interazione, correggendo l’impulso per
la perdita di energia nei calorimetri e nell’Inner Detector.
Risoluzione in pT e perdite di energia
Si definiscono “muoni stand-alone” quelli che vengono ricostruiti usando solo
la traccia nello spettrometro, “muoni combinati” quelli a cui si può associare
anche una traccia nell’ID. Per questi ultimi, l’accettanza geometrica da considerare è quella dell’Inner Detector (|η| < 2.4).
L’utilizzo dei muoni combinati migliora in modo sostanziale la risoluzione
per impulsi sotto i 100 GeV, e permette di identificare i muoni prodotti nei
calorimetri, come quelli dai decadimenti in volo di π e K, poiché essi sono
presenti nello spettrometro ma non nell’ID.
Come già accennato, una traccia ad alto pT tipicamente attraversa tutte e
tre le stazioni del rivelatore, con una misura contemporanea di η e φ, permettendo una risoluzione migliore di 50 µm. In Figura 1.13(a) mostriamo il
numero di stazioni attraversate da una traccia, in funzione della pseudorapidità e dell’angolo azimutale; la risoluzione e l’efficienza di ricostruzione sono
degradate nel caso in cui una o più stazioni non forniscano la misura.
Vediamo in particolare la diminuzione centrata intorno a |η| ≈ 1.2, che è
la regione di transizione barrel/end-cap (nella quale non saranno presenti
camere a muoni nella prima fase dell’esperimento), mentre per |η| ≤ 0.1 non
sono possibili misure a causa della presenza di cavi e strutture di servizio.
1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI 19
(a) Numero
delle
stazioni
MDT+CSC
attraversate
da
una traccia, in funzione di η e φ
[10].
(b) Contributi alla risoluzione in impulso trasverso per i muoni ricostruiti nello
spettrometro [10].
Figura 1.13
La Figura 1.13(b) mostra i diversi contributi alla risoluzione in momento
trasverso per i muoni ricostruiti nello spettrometro, per |η| ≈ 1.5.
A basso pT , la risoluzione è dominata dalle fluttuazioni nella perdita di energia dei muoni nel materiale precedente lo spettrometro; a medio pT è importante l’effetto complessivo dello scattering multiplo; per pT > 300 GeV,
infine, la risoluzione dipende fortemente dalle caratteristiche del rivelatore,
quali allineamento, calibrazione e risoluzione nella misura del singolo hit.
Per quanto riguarda la perdita di energia, notiamo che lo spessore di
materiale attraversato da un muone prima di raggiungere lo spettrometro, è
maggiore di 100 lunghezze di radiazione (X0 ), e in questo percorso i muoni
subiscono deflessioni successive, dovute allo scattering multiplo coulombiano.
La deflessione totale è ben approssimata da una distribuzione gaussiana,
centrata in zero.
La perdita di energia, invece, non è gaussiana; per muoni relativistici, essa
avviene principalmente per via elettromagnetica: ionizzazione, produzione
di coppie e+ e− e bremsstrahlung (le ultime due note collettivamente come
perdite radiative).
Per p . 100 GeV, domina la ionizzazione del mezzo, descritta dall’equazione
di Bethe-Bloch [23] per la generica particella di carica ze e velocità βc:
4π nz 2
dE
=
−
dx
me c2 β 2
µ
e2
4πε0
¶2 · µ
¶
¸
2me c2 β 2
2
ln
−β
I(1 − β 2 )
(1.3)
20 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI
dove n è la densità di elettroni nel mezzo, e I è il potenziale di eccitazione medio. Per quanto riguarda le perdite radiative, esse possono diventare
dominanti sulla ionizzazione già intorno ai 10 GeV, se i muoni attraversano
materiali ad alto Z. Non sono descrivibili in forma chiusa; l’approssimazione
più usata è quella di Bethe-Heitler.
Le fluttuazioni in dE/dx per ionizzazione in strati sottili di materiale,
seguono la distribuzione di Landau. All’aumentare dell’energia, la coda della
distribuzione si allarga lentamente, rendendo la curva sempre più asimmetrica. Questo si può vedere in Figura 1.14, dove abbiamo la distribuzione
dell’energia persa dai muoni che viaggiano tra la beam-pipe e l’uscita dai
calorimetri, per pT = 10 GeV a sinistra e pT = 1 TeV a destra.
Figura 1.14: Energia persa dai muoni che viaggiano dalla beam-pipe al
calorimetro elettromagnetico, per: (a) pT = 10 GeV, (b) pT = 1 TeV. [10].
Per impulsi nel range 0.5 GeV . pT . 30 GeV, il tracciamento sfrutta
le tracce lasciate nell’Inner Detector. Data la grande quantità di materiale
presente nell’ID, l’efficienza resta però limitata.
In conclusione, per muoni isolati ad alto pT nel barrel, ci si attende una
risoluzione in momento di σ(1/pT ) = 0.34 TeV−1 [59] e una risoluzione in
parametro d’impatto di σ(d0 ) = 10 µm [10].
Efficienza di ricostruzione
L’alta frequenza degli eventi pp → Z → µµ + X ad LHC (più di 108 eventi
all’anno nella fase di alta luminosità) permette di usare questi processi per
stimare l’efficienza di ricostruzione e di trigger dell’intero esperimento.
In Figura 1.15(a) vediamo l’efficienza di ricostruzione per muoni isolati in
funzione della pseudorapidità, per impulsi trasversi di 1, 5 e 100 GeV. Aumentando l’energia del muone, l’efficienza diventa maggiore e più stabile in
funzione di η.
1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI 21
Figura 1.15: Efficienza di ricostruzione in funzione di |η|: (a) per muoni di
impulsi trasversi crescenti, (b) per muoni, pioni ed elettroni di pT = 5 GeV. [10].
In Figura 1.15(b) confrontiamo invece l’efficienza di ricostruzione dei muoni
con quella di pioni ed elettroni, per pT = 5 GeV. Per i pioni dobbiamo considerare l’effetto delle interazioni adroniche, che aumentano in funzione del
materiale presente nell’Inner Detector; gli elettroni, a causa della loro massa leggera, sono molto più soggetti alla bremsstrahlung rispetto ai muoni, e
anche la loro distribuzione riflette la presenza del materiale.
La carica di muoni ed elettroni sarà misurata nell’Inner Detector su tutto
il range di accettanza e per impulsi fino al TeV, con una probabilità di misidentificazione minore di pochi percento. Nel barrel, in particolare, questa
efficienza è maggiore del 98%, e per alti pT diventa maggiore del 99.5% oltre
che praticamente indipendente da η; per pioni ed elettroni invece l’efficienza
di identificazione dipende da η, fluttuando tra 70% e 95%.
Efficienza di trigger
Per stimare l’efficienza di trigger, si usa il metodo Tag & Probe [59]. Gli
eventi sono triggerati richiedendo un leptone ad alto pT (il tag), e contemporaneamente cercando un secondo leptone (probe) che abbia la corrispondenza
con un leptone ricostruito o triggerato, e tale che la massa invariante della
coppia stia all’interno di una data finestra intorno a MZ .
In Figura 1.16 vediamo l’efficienza di identificazione e di trigger, per un
campione simulato di Z → µ+ µ− corrispondente a 50 pb−1 . L’istanza di
trigger in questo caso è la presenza di almeno un muone isolato con pT >
20 GeV (mu20). La verità Monte Carlo a cui ci si riferisce nella Figura è quella
ottenuta simulando i soli muoni combinati. Tag & Probe e simulazione Monte
22 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI
Figura 1.16: Efficienza di identificazione dei muoni da Z → µ+ µ− col metodo
Tag & Probe, a confronto con la verità Monte Carlo. La luminosità integrata è
50 pb−1 , l’istanza di trigger è mu20 [59].
Carlo sono in ottimo accordo; in particolare tutte le serie di punti presentano
la rapida caduta di efficienza nelle zone morte in η.
Energia trasversa mancante
La misura dell’energia trasversa mancante (ETmiss o E/T) è fondamentale per
la rivelazione di W ; è inoltre la segnatura chiave per la misura della massa
del top (dagli eventi tt in cui uno dei due quark decade semileptonicamente),
e per l’osservazione degli eventi supersimmetrici ed esotici.
Una questione importante da considerare per la misura di ETmiss , è la copertura limitata del rivelatore per grandi pseudorapidità, la risoluzione finita, la
presenza di regioni morte e le diverse fonti di rumore che producono E/TFake ,
delle quali la principale è il rumore del calorimetro.
Una variabile che caratterizza l’energia mancante, è la linearità di E/T
ricostruita in funzione di E/T vera (E/TTrue ):
Linearità = (E/TTrue − E/T)/E/TTrue
(1.4)
dove E/TTrue è definita come la somma di tutte le particelle stabili non interagenti nello stato finale (neutrini e LSP supersimmetriche). La linearità
è minore dell’ 1% per tutti i processi analizzati in [59], una volta che le
celle del calorimetro sono state calibrate globalmente e che si è tenuto conto dell’efficienza di identificazione dei muoni e delle correzioni del criostato
(calibrazione “rifinita”).
True
La risoluzione è stimata dalla larghezza della distribuzione E/x,y−E/x,y
, fittata
1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI 23
P
Figura 1.17: Risoluzione di E/T in funzione di
ET , per valori bassi e medi (a
sinistra) e per valori maggiori (a destra). Le curve corrispondono ai best fit. [59].
con una Gaussiana per P
estrarre la deviazione standard σ. La Figura 1.17
mostra σ in funzione di
E/T dopo l’applicazione della calibrazione rifinita.
L’andamento è stocastico, con deviazioni per bassi valori di energia mancante,
dove si sente l’effetto del rumore, e per valori molto alti,
P dove domina la
risoluzione intrinseca del calorimetro. Per p
20PGeV <
ET < 2 TeV la
ET , in cui il parametro a
deviazione standard è fittata con σ = a ·
quantifica la risoluzione: esso varia tra 0.53 (Figura 1.17 a sinistra) e 0.57 (a
destra).
24
Capitolo 2
La Fisica ad LHC
2.1
Il Modello Standard
Il Modello Standard come teoria di gauge
Le forze fondamentali che agiscono tra le particelle elementari − la forza
forte, la forza debole e la forza elettromagnetica − sono tutte esprimibili
tramite teorie di gauge(1 ) [22], [43], [37].
In una teoria di gauge, i campi sono descritti da rappresentazioni di un gruppo
di simmetria; richiedendo che la Lagrangiana della teoria sia invariante sotto
trasformazioni locali arbitrarie dei campi, si genera l’interazione tra i campi
stessi, mediata dai bosoni di gauge.
In particolare, l’interazione elettrodebole − che unifica l’interazione elettromagnetica e quella debole a grandi energie [69] − è invariante sotto il
gruppo SU(2)L × U(1)Y . Il pedice L indica che l’interazione elettrodebole
agisce solo tra fermioni left-handed (e antifermioni right-handed) − per questo è un’interazione di tipo chirale − mentre Y denota la carica elettrodebole,
o ipercarica, una combinazione della carica elettrica e della terza componente
dell’Isospin debole, come vedremo più avanti (equazione (2.26)).
L’interazione forte è invece simmetrica sotto trasformazioni del gruppo SU(3)C ,
dove C indica la carica di colore. Ci sono tre colori per ogni flavour di quark
(indicati convenzionalmente come rosso, verde e blu).
Il Modello Standard delle particelle elementari è dunque descritto da una
1
Abbiamo volontariamente trascurato la forza di gravità, che è invariante sotto trasformazioni locali delle coordinate, e che al momento non è descritta coerentemente nell’ambito
di una teoria quantistica. Si ipotizza l’esistenza di un bosone mediatore a massa nulla e
spin 2, il gravitone, che finora è sfuggito a tutti i tentativi di rivelazione.
26
2.1. IL MODELLO STANDARD
Lagrangiana invariante sotto il gruppo di gauge composto:
GMS = SU(3)C × SU(2)L × U(1)Y .
I bosoni mediatori delle tre forze fondamentali sono N 2 − 1 come i generatori
dei rispettivi gruppi, dove N è la dimensionalità del gruppo, e hanno tutti
spin 1: gli otto gluoni dell’interazione forte, i tre bosoni massivi dell’interazione debole (W ± e Z), il fotone di quella elettromagnetica.
I gruppi SU(2)L e SU(3)C non sono abeliani: i loro generatori non commutano, e questo origina vertici di mutua interazione tra i rispettivi bosoni
mediatori.
I campi fondamentali attualmente noti sono di due tipi: i leptoni, che
non sono soggetti alla forza forte, e i quark. Entrambi sono fermioni −
obbediscono cioè alla statistica di Fermi-Dirac − di spin 1/2.
I quark non sono mai stati osservati come particelle libere, ma sempre come
costituenti degli adroni ; i leptoni sono in generale più leggeri degli adroni e
non formano vicendevolmente stati legati. L’ipotesi è che gli adroni esistano
solo come singoletti di colore, e che i gluoni siano costituiti da un colore e da
un anticolore.
Sia i leptoni sia i quark si presentano in Natura in tre generazioni: la seconda e
la terza sono repliche pesanti della prima; i bosoni vettori infatti si accoppiano
alle diverse generazioni secondo lo stesso meccanismo.
I quark autostati dell’interazione elettrodebole non coincidono con gli
autostati di massa che prendono parte all’interazione forte, ma piuttosto ne
sono una combinazione lineare. Questa idea, proposta da Cabibbo nel 1963
[7], apre la strada al modello attuale per il mixing tra i flavour.
Consideriamo i due quark leggeri, u e d: essi possono essere sistemati in un
doppietto di isospin debole nel modo seguente:
¶
µ ¶ µ
u
u
=
(2.1)
d0
d cos θC + s sin θC
dove θC è l’angolo di mixing di Cabibbo. Mentre il quark d partecipa all’interazione elettrodebole, il suo corrispondente “ruotato” d0 partecipa a quella
forte. Generalizzando questa idea, si giunge alla matrice 3 × 3 di Cabibbo,
Kobayashi e Maskawa (CKM) [30], che descrive il mixing per i quark di tipo
down delle tre generazioni:
 
 0  
d
Vud Vus Vub
d
 s0  =  Vcd Vcs Vcb   s  .
(2.2)
0
Vtd Vts Vtb
b
b
2.1. IL MODELLO STANDARD
27
L’elemento di matrice Vud , per esempio, quantifica l’accoppiamento di u e d
nel processo d → u + W − .
La matrice CKM è unitaria, con (N − 1)2 parametri liberi, dove N = 3 è il
numero delle generazioni. Di questi quattro parametri, se ne assumono tre
reali (θ12 , θ23 e θ13 ), e si prende una fase immaginaria, δ13 , responsabile della
violazione di CP osservata nelle interazioni deboli.
I valori sulla diagonale principale sono molto maggiori degli altri, e culminano
in |Vtb | = 0.9990 ± 0.0002 [2], che è anche l’elemento noto con più precisione.
Il bosone di Higgs
La richiesta di invarianza di gauge per l’interazione elettrodebole, non permette l’inserimento nella Lagrangiana di termini di massa per i bosoni vettori,
che tuttavia sono osservati sperimentalmente essere massivi.
Per ovviare a questa difficoltà, senza rompere esplicitamente la simmetria
di gauge, è necessario introdurre nel Modello Standard un ulteriore grado di
libertà. Si tratta di un campo scalare complesso, organizzato in un doppietto
di isospin debole:
µ
¶
φa (x)
Φ(x) =
(2.3)
φb (x)
soggetto al potenziale gauge invariante:
V (Φ) = µ2 (Φ† Φ) + λ (Φ† Φ)2 .
(2.4)
Figura 2.1: Potenziale del bosone di Higgs per λ positivi, con µ2 > 0 e µ2 < 0.
Innazitutto dobbiamo richiedere λ > 0 se vogliamo che il potenziale V (Φ) sia
confinante. Dopodiché, come mostra la Figura 2.1, esistono due possibilità:
il caso banale per cui µ2 > 0 − il potenziale presenta un minimo assoluto in
28
2.2. L’INTERAZIONE ELETTRODEBOLE
Φ = 0 − ed il caso interessante, µ2 < 0, nel quale si manifesta il fenomeno
della rottura spontanea della simmetria di gauge.
Per µ2 < 0, infatti, gli stati di minima energia del potenziale (±υ in Figura
2.1) sono degeneri:
|Φ0 (x)|2 = |φ0a |2 + |φ0b |2 =
−µ2
>0
2λ
(2.5)
e il sistema “sceglierà” uno degli infiniti minimi equivalenti, che per semplicità
definiamo essere:
r
υ
−µ2
h0|Φ0 (x)|0i = √
con υ =
∈ R.
(2.6)
λ
2
Lo stato di minima energia rompe dunque la simmetria di gauge. Possiamo
parametrizzare il campo Φ(x) intorno a questo minimo, ed eliminare i gradi di
libertà aggiuntivi tramite l’imposizione della gauge unitaria, in cui il campo
si riduce a:
¶
µ
0
1
.
(2.7)
Φ(x) = √
2 υ + σ(x)
Il campo reale σ descrive le oscillazioni di Φ(x) intorno al minimo, ed è detto
bosone di Higgs.
I numeri quantici del campo Φ(x) (iperacarica e isospin debole) sono scelti
in modo tale che il potenziale a cui esso è soggetto non modifichi il settore
U(1)em , cosı̀ da preservare la massa nulla del fotone.
Come vedremo nella prossima Sezione, il medesimo meccanismo − l’accoppiamento al bosone di Higgs − fornisce la massa a tutte le particelle
elementari; per i fermioni questo avviene tramite termini gauge invarianti,
detti termini di Yukawa.
2.2
L’interazione elettrodebole
Il Modello Elettodebole venne sviluppato negli anni ’60 da Glashow, Salam e
Weinberg [69]: esso teorizza che l’interazione elettromagnetica e l’interazione
debole, che a bassa energia (Q ≈ 1 GeV) hanno accoppiamenti diversi per
quattro ordini di grandezza, siano espressione di un’unica forza che si manifesta a energie ≥ 246 GeV, la scala di rottura spontanea della simmetria
elettrodebole (equazione (2.6)).
Possiamo distinguere tre tipi di interazione elettrodebole:
1. Decadimenti puramente leptonici: i partecipanti sono solo i leptoni, come nel decadimento del µ: µ− −→ e− + ν e + νµ .
2.2. L’INTERAZIONE ELETTRODEBOLE
29
2. Decadimenti semileptonici: vi partecipano sia i leptoni sia gli adroni, come nel decadimento β, che permise la prima osservazione dell’interazione debole e l’ipotesi dell’esistenza del neutrino: n −→ p + e− +
νe .
3. Decadimenti non leptonici: i partecipanti sono tutti adroni, come
nel decadimento delle particelle strane: Λ −→ p + π − .
Vogliamo adesso scrivere la Lagrangiana dell’interazione elettrodebole.
Per farlo, partiamo da quella della QED (Quantum ElectroDynamics):
X
1
µ
LQED = − F µν Fµν +
ψ l (x)(i∂
/ − m) ψl (x) − Jem
(x) Aµ (x)
4
l=e,µ,τ
dove:
µ
Jem
(x) = −e
X
ψ l (x) γ µ ψl (x)
(2.8)
(2.9)
l
è la quadricorrente, sommata sui sapori leptonici l, con e > 0, mentre F µν è
il tensore del campo elettromagnetico:
F µν = ∂ µ Aν − ∂ ν Aµ .
(2.10)
Caratteristica fondamentale della LQED è la conservazione della Parità, in
quanto questa Lagrangiana è costituita da combinazioni scalari di spinori e
matrici γ µ .
Invece, per quanto riguarda l’interazione debole, si osserva sperimentalmente che essa non conserva la Parità: questo suggerisce di costruire la
quadricorrente debole come una combinazione del tipo:
X
J µ (x) = gW
ψ l (x) γ µ (1 − γ 5 ) ψνl (x)
(2.11)
l
dove gW è la costante di accoppiamento, e al campo del leptone carico, ψl ,
abbiamo associato quello del neutrino, ψνl . La matrice γ 5 = iγ 0 γ 1 γ 2 γ 3 ,
anticommuta con tutte le γ µ , {γ µ , γ 5 } = 0.
Al contrario di quanto succede per la QED, la corrente debole (2.11) non
è un operatore Hermitiano, J µ 6= J µ† . Essa è conosciuta storicamente come
V − A perche’ al suo interno possiamo distinguere due termini:
X
X
ψ l (x)γ µ ψνl (x) − gW
ψ l (x)γ µ γ 5 ψνl (x)
J µ (x) = JVµ (x) − JAµ (x) = gW
l
l
(2.12)
30
2.2. L’INTERAZIONE ELETTRODEBOLE
dove V ed A sono rispettivamente la corrente vettoriale della QED e la
corrente assiale. Mentre la componente spaziale della corrente vettoriale
cambia segno sotto Parità, la corrente assiale resta identica a se stessa.
Data la struttura V −A per la corrente, il modo più semplice per costruire
la Lagrangiana d’interazione è il seguente:
LI = Wµ† (x)J µ (x) + Jµ† (x)W µ (x) .
(2.13)
Il fatto che la corrente sia complessa, rende necessaria l’introduzione del
campo di gauge W µ (x), anch’esso complesso e di conseguenza elettricamente
carico; inoltre W µ non è hermitiano, W µ 6= W µ † .
Oltre alla Lagrangiana di interazione (2.13), dobbiamo scrivere la Lagrangiana leptonica libera, nell’approssimazione di massa nulla:
Lψ0 = i
X
[ψ l (x)∂
/ ψνl (x)] .
/ ψl (x) + ψ νl (x)∂
(2.14)
l=e,µ,τ
Ora definiamo i proiettori di elicità, Left e Right, in termini della matrice γ 5 :
1
1
PL = (1 − γ 5 ) e PR = (1 + γ 5 )
2
2
(2.15)
grazie ai quali possiamo scrivere le proiezioni Left e Right degli spinori:
ψlL,R ≡ PL,R ψl = 12 (1 ∓ γ 5 ) ψl
L,R
ψl
≡
(ψlL,R )†
0
γ =
1
2
ψl† (1
5†
(2.16)
0
∓ γ ) γ = ψ l PR,L
e lo stesso vale per i neutrini. Inserendo le espressioni (2.16) nella (2.14), e
L,R
considerando che i termini misti del tipo ψ i /∂ ψiR,L , con i = l, νl , risultano
nulli in quanto contengono i prodotti PL PR = PR PL = 0, si ricava la seguente
espressione per la Lagrangiana libera:
L
R
L
R
Lψ0 = i [ψ l /∂ ψlL + ψ l /∂ ψlR + ψ νl /∂ ψνLl + ψ νl /∂ ψνRl ] .
(2.17)
Torniamo alla corrente V −A: in essa possiamo adesso riconoscere la presenza
del proiettore Left PL :
X
X
ψ l γ µ PL ψνl = 2gW
ψ l γ µ ψνLl .
(2.18)
J µ = 2gW
l
l
Il campo spinoriale ψνLl è lineare nella distruzione di neutrini Left e nella
creazione di antineutrini Right: ciò significa che solo queste particelle par-
2.2. L’INTERAZIONE ELETTRODEBOLE
31
teciperanno all’interazione debole. Lo stesso vale per i leptoni carichi, in
quanto la (2.11) si può scrivere anche:
X
X
X L
J µ = 2gW
ψ l γ µ PL ψνl = 2gW
ψ l γ µ PL PL ψνl = 2gW
ψ l γ µ ψνLl
l
l
l
da cui segue che all’interazione debole partecipano solo leptoni l
antileptoni l+ Right. Adesso definiamo l’isospinore leptonico:
µ L ¶
ψνl (x)
L
L
L
L
=⇒ Ψl (x) = (ψ νl (x) ψ l (x))
Ψl (x) ≡
L
ψl (x)
−
(2.19)
Left e
(2.20)
in termini del quale la Lagrangiana libera (2.14) diventa:
L
R
R
Lψ0 = i [Ψl /∂ ΨLl + ψ l /∂ ψlR + ψ νl /∂ ψνRl ] .
(2.21)
Trasformazione di gauge SU (2)L
Richiediamo che L0 sia invariante sotto una trasformazione di gauge SU (2)L
locale, dove il pedice L sottolinea che essa agisce solo sui campi Left:
·
¸

i
L
L
0


Ψl −→ Ψ l = exp
g αi (x) σi ΨLl


2



+ trasf. spinori aggiunti (2.22)
R
ψlR −→ ψ 0 l = ψlR






 R
R
ψνl −→ ψ 0 νl = ψνRl
dove le αi (x) con i = 1, 2, 3 sono tre funzioni reali e derivabili dello spazio
tempo e g è la costante di accoppiamento reale. A questa trasformazione si
associa una carica conservata vettoriale, l’isospin debole I W . In particolare,
la terza componente di questa carica vale:
µ
¶ µ L¶
Z
Z
ψνl
1
1
1 0
3
L† L†
W
=
d x (ψνl ψl )
d3 x (ψνL†l ψνLl − ψlL† ψlL ) .
I3 =
0 −1
2
2
ψlL
(2.23)
Notiamo che I3W contiene solo operatori Left, carichi e non. Ne segue che il
neutrino Left e il leptone carico Left hanno entrambi modulo di isopin debole
I W = 1/2, quindi formano un doppietto di isospin debole, con autovalori
I3W = ±1/2 rispettivamente.
I leptoni Right invece sono neutri sotto SU (2)L , come si deduce dalle (2.22),
ovvero hanno I W = 0 e si comportano come singoletti di isospin debole.
32
2.2. L’INTERAZIONE ELETTRODEBOLE
Sotto le trasformazioni (2.22), la Lagrangiana (2.21) non è più invariante;
per ristabilire l’invarianza dobbiamo sostituire la derivata ordinaria con una
derivata covariante cosı̀ costruita:
∂ µ −→ F µ = ∂ µ + igI W σi Wiµ (x)
(2.24)
dove le σi sono le matrici di Pauli, i = 1, 2, 3, mentre Wiµ (x) sono tre campi
vettoriali reali.
Trasformazione di gauge U (1)Y
Analogamente a quanto fatto per SU (2)L , richiediamo che la Lagrangiana
leptonica libera (2.21) sia invariante sotto la trasformazione U (1) locale:
 L,R
0 L,R
ig 0 Y f (x) L,R
ψi
 ψi −→ ψ i = e

L,R
ψi
−→ ψ
0 L,R
i
−ig 0 Y f (x)
=e
con i = l, νl
L,R
ψi
(2.25)
dove g 0 è un’altra costante reale e f (x) è una funzione anch’essa reale e
derivabile. La carica conservata adesso è uno scalare, e si chiama ipercarica. In funzione della carica elettrica in unità di e, e della terza componente dell’isospin debole I3W , definiamo l’ipercarica Y secondo la relazione di
Gell-Mann - Nishijima:
Y = Q/e − I3W .
(2.26)
Sotto la trasformazione U (1) di ipercarica, la Lagrangiana libera non è invariante ed anche in questo caso si può ovviare al problema introducendo
la derivata covariante. La situazione è più semplice rispetto al caso SU (2),
infatti basta introdurre il campo vettoriale reale B µ (x), tale che:
∂ µ −→ GµY = ∂ µ + ig 0 Y B µ (x) .
(2.27)
Simmetria SU (2)L × U (1)Y
Introducendo la derivata covariante completa,
∂ µ −→ Dµ = ∂ µ + igI W σi Wiµ (x) + ig 0 Y B µ (x)
(2.28)
la Lagrangiana elettrodebole risulta invariante contemporaneamente sotto
le trasformazioni di gauge (2.22) e (2.25). Sostituiamo Dµ nell’espressione
(2.21) per la Lagrangiana, e otteniamo:
L
R
R
L = i [Ψl D
/ ΨLl + ψ νl D
/ ψνRl + ψ l D
/ ψlR ] .
(2.29)
2.2. L’INTERAZIONE ELETTRODEBOLE
33
In essa possiamo distinguere due termini:
L = Lψ0 + LψB
(2.30)
dove LψB descrive l’interazione tra i campi di materia ΨLl , ψlR e ψνRl e i bosoni
di gauge Wiµ (x) e B µ (x), mentre Lψ0 è il termine libero.
µ
Se ora ruotiamo i campi W1,2
in questo modo:
W1µ (x) − iW2µ (x)
√
W (x) =
2
µ
,
W1µ (x) + iW2µ (x)
√
W (x) =
2
µ†
(2.31)
otteniamo i campi fisici, non hermitiani, W µ e W µ† , che possiamo associare
ai bosoni vettori W ± .
Per quanto riguarda i due campi restanti, W3µ e B µ , li colleghiamo ai bosoni
vettori neutri, Z e γ, introducendo l’angolo di Weinberg θW attraverso la
seguente rotazione:
¶ µ µ¶
µ µ¶ µ
Z
W3
cos θW sin θW
=
.
(2.32)
µ
−
sin
θ
cos
θ
B
Aµ
W
W
Richiediamo che il campo elettromagnetico Aµ non si accoppi con la corrente di SU (2), e che il suo accoppiamento con la corrente elettromagnetica,
J(em)µ /e = JY µ + J3µ , sia pari a −1 in unità della carica elettrica, richieste
che risultano in:
g0
g sin θW = e , tan θW = .
(2.33)
g
Queste relazioni fondamentali collegano le costanti di accoppiamento g, g 0 ed
e con l’angolo di Weinberg.
Dobbiamo aggiungere alla 2.30 anche la Lagrangiana per i campi di gauge
liberi, ovvero i termini cinetici per Aµ , W µ , W µ† e Z µ :
1
1
LB = − Fµνi Fiµν − Bµν B µν .
4
4
(2.34)
Termini di Higgs e di Yukawa
La teoria cosı̀ formulata, è riassunta dalla Lagrangiana totale:
BB
LEW = Lψ0 + LψB + LB
0 +L
(2.35)
BB
sono rispettivamente il termine libero e il termine di autodove LB
0 e L
interazione per i bosoni di gauge.
Questa Lagrangiana descrive coerentemente sia le interazioni deboli che quel-
34
2.2. L’INTERAZIONE ELETTRODEBOLE
le elettromagnetiche, a patto che tutte le particelle siano prive di massa.
Questo discende dal fatto che termini del tipo:
ml ψ l (x)ψl (x),
m2Z Zµ (x)Z µ (x),
...
(2.36)
violerebbero l’invarianza di gauge, supposta fondamentale, e renderebbero la
teoria non rinormalizzabile. Questo problema si supera, come abbiamo visto
in Sezione 2.1, grazie al meccanismo di Higgs, che rompe spontaneamente
la simmetria elettrodebole. Viene dunque introdotta la Lagrangiana LH (x)
di Higgs, invariante sotto trasformazioni di gauge, composta dai seguenti
termini:
• LH
0 (x), che descrive il campo scalare reale σ(x) libero,
• LHB (x), che contiene l’interazione tra l’Higgs ed i bosoni di gauge,
• LHH (x), che è il termine di autointerazione del campo di Higgs,
• i termini di massa dei bosoni vettori, che vengono riassorbiti da LB
0.
Ci ritroviamo dunque con la seguente forma per la Lagrangiana elettrodebole:
BB
HB
+ LH
+ LHH .
LEW = Lψ0 + LψB + LB
0 +L
0 +L
(2.37)
Infine, per dare massa anche ai leptoni, dobbiamo introdurre i termini di
Yukawa, LY (x), che nella gauge unitaria possiamo dividere ancora una volta
in LLH (x), che descrive l’interazione tra i leptoni ed il bosone di Higgs, e nei
termini di massa per i leptoni. In definitiva, chiamando Lψ0 la Lagrangiana
leptonica libera completa dei termini di massa, siamo arrivati a scrivere la
Lagrangiana dell’interazione elettrodebole:
BB
HB
LEW = Lψ0 + LψB + LB
+ LH
+ LHH + LLH .
0 +L
0 +L
2.2.1
(2.38)
Decadimento leptonico di W
Concentriamoci sul decadimento leptonico di W − , W − → `− ν ` , indotto dal
seguente termine della Lagrangiana di interazione LψB :
¤
g £
− √ ψ l γµ (1 − γ 5 )ψνl W µ† .
2 2
L’elemento di matrice di scattering, a tree level, lo scriviamo come:
Z
−g
−
−
S(W → l ν l ) = −i d4 x √ ψ l (x)γµ (1 − γ 5 )ψνl (x)W µ† (x) .
2 2
(2.39)
2.2. L’INTERAZIONE ELETTRODEBOLE
35
Per ottenere la frequenza di decadimento, dobbiamo quadrare l’ampiezza di
scattering in modo da ricavare la probabilità, sommare sugli spin dei leptoni
finali e mediare sulle polarizzazioni iniziali del W − , integrare sui quadrimpulsi
tenendo conto della δ di Dirac, e infine dividere per il tempo T , ovvero:
Z
Z
¯2
1
1
V d3 q
V d3 q 0 1 X X ¯¯
S(W − → l− ν l )¯ =
=
3
3
τ
T
(2π)
(2π) 3 λ s,s0
g2 1
=
8 (2π)2
Z
d3 q
2q0
Z
d3 q 0 1 1 X
|Mλss0 |2 δ (4) (q + q 0 − k)
2q 0 0 2k0 3 λ,s,s0
(2.40)
con Mλss0 = εµ (k, λ) ul (q, s)γ µ (1 − γ5 ) vν (q 0 , s0 ) .
Sommiamo su entrambe le elicità dell’antineutrino, Left e Right, poiché i
contributi Left si cancellano grazie all’ortogonalità dei proiettori. Giungiamo
cosı̀ a scrivere il tempo di decadimento di W − in leptoni:
g2
τ=
MW
48π
µ
m2
1 − 2l
MW
¶2 µ
m2l
1+
2
2MW
¶
Θ(MW − ml ) ≈
g2
MW
48π
(2.41)
dove abbiamo sfruttato il fatto che MW À ml . Se ora sostituiamo la relazione
che lega la costante di Fermi GF con l’accoppiamento g:
√
2 g2
GF =
,
(2.42)
2
8 MW
otteniamo:
3
1
GF MW
√ ≈ 225 MeV ≈ 3.5 × 1023 s−1 .
(W − → lν l ) =
τ
6π 2
(2.43)
La larghezza totale di W e quelle parziali di decadimento in leptoni (media
sulle famiglie) e in adroni valgono rispettivamente [2]:
Larghezza totale = Γ = (2.141 ± 0.041) GeV
Γ(` ν` )/ Γ = (10.80 ± 0.09) × 10−2
ciascuno
Γ(adroni)/ Γ = (67.60 ± 0.27) × 10−2 .
Notiamo che, se sommiamo sulle tre famiglie leptoniche, la probabilità del
decadimento in adroni è la metà di quella per il decadimento in leptoni,
36
2.2. L’INTERAZIONE ELETTRODEBOLE
tuttavia il canale adronico è molto meno pulito e facile da studiare a livello
sperimentale.
2.2.2
Decadimento leptonico di Z
Il termine della Lagrangiana di interazione leptone-bosone che ci serve é il
seguente:
g
g
{ψ l γµ [(1 − 4 sin2 θW ) − γ 5 ]ψl }Z µ ≡
{ψ γµ [gV0 − γ 5 ]ψl }Z µ .
4 cos θW
4 cos θW l
Usando la stessa notazione per i quadrimpulsi e gli spin della Sezione precedente, il conto procede analogamente; si arriva quindi a:
0
1
GF (g 2 + 1)
3
(Z → l+ l− ) ≈ √ V
MW
≈ 28 MeV ≈ 4.4 × 1022 s−1
τ
24 2 π cos3 θW
(2.44)
dove abbiamo sostituito la relazione tra le masse, valida a meno di correzioni
radiative:
MW
MZ =
.
(2.45)
cos θW
Il decadimento leptonico alternativo di Z, Z −→ νν, è identico al precedente
con gV0 = 1, visto che stiamo trascurando le masse dei leptoni. Possiamo
quindi usare il risultato (2.44), ricavando:
2GF
1
3
(Z → νν) ≈ √
MW
≈ 167 MeV ≈ 2.6 × 1023 s−1 .
3
τ
24 2 π cos θW
(2.46)
Le larghezze di decadimento sono per Z [2]:
Larghezza totale = Γ = (2.4952 ± 0.0023) GeV
Γ(l+ l− )/Γ = (3.3658 ± 0.0023) × 10−2
ciascuno
Γ(invisibili)/Γ = (20.00 ± 0.06) × 10−2
Γ(adroni)/Γ = (69.91 ± 0.06) × 10−2
La frazione di decadimenti invisibili comprende, oltre ai neutrini, tutti gli
altri possibili canali non rivelabili. Nel caso di Z, il decadimento in adroni
domina su quello in leptoni.
2.3. MISURE DEL MODELLO STANDARD IN ATLAS
2.3
37
Misure del Modello Standard in ATLAS
La Figura 2.2 mostra l’andamento ad alta energia delle sezioni d’urto dei
processi più interessanti nelle collisioni√protone-protone. A fronte di una
sezione d’urto totale p-p di ≈ 100 mb a s = 14 TeV, a LHC si produrranno
in media 23 eventi di Minimum Bias per ogni collisione dura, per un totale
di ≈ 109 eventi al secondo.
Per confronto, la produzione di un bosone di Higgs con massa di 500 GeV si
colloca dieci ordini di grandezza più in basso.
I processi più abbondanti attesi a LHC riguardano la produzione di coppie
di quark pesanti, tt e bb, e dei bosoni di gauge W e Z.
Figura 2.2: Sezioni d’urto p-p in funzione dell’energia nel centro di massa. Le
linee verticali si riferiscono al Tevatron ed a LHC; la scala di destra indica gli
eventi al secondo attesi ad alta luminosità [34].
La sezione d’urto per la produzione e il decadimento di W e Z è stata calcolata fino a NNLO, con un errore teorico intorno all’1% [19], [44]. In particolare
le sezioni d’urto per i decadimenti in leptoni, a NNLO e per le diverse energie
nel centro di massa a cui lavorerà l’esperimento, sono raccolte in Tabella 2.1.
38
2.3. MISURE DEL MODELLO STANDARD IN ATLAS
√
s [TeV]
σ [nb]
W → `ν`
14
10
20.5
14.3
Z → ``
14
10
2.02
1.35
Tabella 2.1: Sezioni d’urto per i bosoni vettori intermedi a LHC.
2.3.1
La massa del W
Una delle misure più importanti che ATLAS effettuerà nell’ambito del Modello Standard, sarà la misura di precisione della massa del W . In effetti, la
massa del W, insieme a quella del top, rappresentano la massima sorgente di
incertezza nella determinazione indiretta della massa dell’Higgs. La relazione
che le lega è la seguente:
r
πα
1
√ ·
√
MW =
GF 2 sin θW 1 − ∆r
dove ∆r tiene conto delle correzioni radiative, che ammontano circa al 4%,
e dipendono dalle masse del top come ∼ Mt2 e dalla massa dell’Higgs come ∼ log MH . Per valutare la consistenza della misura di (MW , Mt ) con la
predizione del Modello Standard, è necessario che le due quantità abbiano incertezze comparabili: in particolare le incertezze dovrebbero essere collegate
dalla relazione [20]:
∆MW ≈ 0.7 × 10−2 ∆Mt .
Poiché a LHC la massa del top sarà misurata con una precisione di 2 GeV,
questa relazione fissa l’obiettivo ∆MW = 15 MeV (al momento l’errore sperimentale è di 25 MeV [2]). A LHC, con 10 fb−1 di dati, verranno prodotti
circa 30 milioni di W per ogni canale leptonico, cosı̀ da avere una sensibilità
statistica di 2 MeV sulla massa; a dominare sarà dunque l’errore sistematico.
Mentre il decadimento di Z può essere completamente ricostruito, e la sua
massa calcolata dalla massa invariante dei leptoni finali, per W − a causa del
neutrino, che sfugge alla rivelazione − dobbiamo sfruttare la dipendenza da
MW di altre variabili, ovvero il momento trasverso del leptone, p`T , e l’energia
trasversa mancante, uguale a pνT a livello di generazione. Si definisce quindi
la massa trasversa di W :
q
(2.47)
MTW = 2p`T pνT (1 − cos(φ` − φν ))
2.3. MISURE DEL MODELLO STANDARD IN ATLAS
39
dove ricordiamo che φ è l’angolo azimutale introdotto in Sezione 1.2.1.
Come discusso in Sezione 1.3, il momento trasverso è misurato con una precisione del 2% sia per gli elettroni sia per i muoni (a grandi impulsi), mentre
l’energia trasversa mancante ha una precisione molto peggiore, intorno al
(20 ÷ 30)%.
Un modo indipendente per misurare MW consiste nel misurare la sezione
d’urto differenziale:
µ
¶−1/2 µ
¶
3
4p2T `
2p2T `
1 dσ
= 2 1− 2
1− 2
.
(2.48)
σ dp2T `
MW
MW
MW
Tutte le distribuzioni menzionate hanno un picco Jacobiano o a MW /2 (gli
impulsi trasversi p`T e pνT e la sezione d’urto) o a MW (la massa trasversa).
La larghezza di questo picco è causata dalla risoluzione sperimentale finita
(smearing) e dall’impulso trasverso del bosone, a sua volta legato agli impulsi
trasversi dei partoni (Sezione (3.1.4)). In Figura 2.3 vediamo le distribuzioni
di p`T a sinistra e di MTW a destra. Per p`T l’effetto principale è dovuto
W
all’aggiunta di un pW
T 6= 0, mentre per MT conta soprattutto l’impatto della
risoluzione nella misura dell’impulso trasverso.
Figura 2.3: Distribuzioni di p`T (a) e MTW (b), che mostrano il picco Jacobiano e
gli effetti dello smearing e del pT intrinseco del W [59].
L’impulso trasverso del neutrino (ovvero l’energia trasversa mancante) è invece deteriorato da entrambi gli effetti, quindi non è un buon candidato per
l’estrazione di MW . Il metodo che effettivamente si segue è il cosiddetto template fit, ovvero si confronta numericamente la distribuzione sperimentale con
le distribuzioni teoriche ottenute con valori diversi di MW , confronto guidato
dal metodo del χ2 bin per bin.
Per stimare l’impatto di un effetto sistematico, si producono distribuzioni
40
2.3. MISURE DEL MODELLO STANDARD IN ATLAS
in cui si è escluso quel dato effetto, e si calcola lo shift nel valore di best
fit; è la stessa logica che seguiremo nel nostro studio per l’errore sistematico
dell’accettanza geometrica. Variando gradualmente il contributo dell’effetto,
si può inoltre studiare la dipendenza funzionale della massa da esso.
In Tabella 2.2 vediamo i contributi previsti all’incertezza su MW , sia sperimentali sia teorici, provenienti da p`T e da MTW , per una luminosità integrata
di 10 fb−1 , e l’incertezza totale, che si ottiene dalla somma in quadratura.
δMW [MeV] : p`T
δMW [MeV] : MTW
4
4.5 (e), ≤ 1 (µ)
≤1
2
0.5
4
4.5 (e), ≤ 1 (µ)
5
1.5
0.4
0.5
1
3
≤1
1.3
1
1
≤1
∼ 7 (e) ; ∼ 6 (µ)
∼ 8 (e) ; ∼ 7 (µ)
Effetto sperimentale
Scala di energia leptonica
Efficienza leptonica
Rinculo del W
Fondo (bosoni pesanti)
Fondo (dijet)
Effetto teorico
Larghezza di W
Distribuzione di yW
Distribuzione di pW
T
Radiazione di QED
Totale
Tabella 2.2: Incertezze sistematiche, sperimentali e teoriche, per p`T e MTW , nei
canali e e µ, stimate per una luminosità integrata di 10 fb−1 [39].
La scala di energia e la risoluzione in pT per i leptoni, cosı̀ come la scala
dell’energia trasversa mancante, sono ottenute dalla misura di precisione dei
decadimenti Z → `+ `− .
La differenza in massa tra elettroni e muoni fa sı̀ che l’efficienza di identificazione sia meno incerta per i muoni. I fondi sono piccoli e sotto controllo;
il più incerto rimane quello dovuto ai bosoni pesanti.
Anche per quanto riguarda le incertezze teoriche si sfrutta la somiglianza tra
W e Z, come per il pT intrinseco dei partoni. Notiamo che non viene qui
considerata la sistematica dovuta alle PDF.
L’impatto della radiazione di QED è studiato con l’ausilio del tool Photos
[36], come faremo anche per l’accettanza in Sezione (5.4).
Tutto ciò considerato, si trova che, con 10 fb−1 , la precisione media raggiungibile sarà di 7 MeV per canale leptonico.
2.3. MISURE DEL MODELLO STANDARD IN ATLAS
41
In una fase successiva dell’esperimento ATLAS, sono previste altre misure
di precisione, quali l’asimmetra forward-backward nel canale Z → e+ e− , e
studi inclusivi dei processi W/Z + jets.
Entrambi questi obiettivi richiedono un controllo accurato del rivelatore,
della calibrazione e dei fondi.
2.3.2
La Fisica del quark top
Oltre alla produzione e al decadimento dei bosoni vettori, ATLAS studierà
con precisione mai raggiunta prima la Fisica del quark top. Anzi, dato l’altissimo tasso di produzione atteso (83 mila coppie di top per 100 pb−1 , 107
per anno), LHC si può considerare, tra l’altro, una top factory.
La produzione avviene principalmente (90%) tramite processi di gluon
fusion, gg → tt (diagrammi (a) e (b) in Figura 2.4); importante (≈ 10%) è
anche il contributo dell’annichilazione, qq → g → tt (diagramma (c)). Questi
rapporti di decadimento sono propri dell’energia di LHC: al Tevatron, dove
predomina il canale quark-quark, la sezione d’urto totale è circa 100 volte
minore.
Figura 2.4: Produzione di top a Leading Order.
Con una massa di ≈ 170 GeV, il top decade pressoché istantaneamente, senza
formare adroni; il canale predominante è W + b, come dimostra il fatto che
l’elemento di matrice CKM corrispondente, |Vtb |, è ≈ 1 (Sezione 2.1).
In Figura 2.5(a) vediamo la distribuzione in massa invariante di tre jet, simulata e ricostruita nel canale semileptonico (t → W b → jjb), per L =100 pb−1 .
Da questa distribuzione possiamo determinare la sezione d’urto tt fittando i
dati con un segnale gaussiano e un fondo parametrizzato da polinomi di Chebychev, che riassume il contributo del fondo fisico e del fondo combinatorio.
La significanza del segnale è definita tramite il rapporto di likelihood tra due
ipotesi: la presenza del solo segnale e la presenza del solo fondo. La Figura
2.5(b) mostra la significanza attesa per il segnale di top nel picco, in funzione della luminosità integrata, per due scenari di fondo: il fondo nominale di
QCD (W + jets), e lo stesso raddoppiato.
42
2.3. MISURE DEL MODELLO STANDARD IN ATLAS
Figura 2.5: (a) Massa invariante dei tre jet in t → W b → jjb, simulata e
ricostruita per L =100 pb−1 . (b) Significanza per il picco del top in relazione al
fondo aspettato. [59].
Oltre alla produzione di coppie tt, è interessante studiare la produzione di
singolo top, la cui sezione d’urto totale è di 320 pb a NLO. A Leading Order,
essa avviene tramite il canale t (Figura 2.6(a)), che comprende la fusione
W g, tramite la produzione associata W t (diagramma (b)), e tramite il canale s (diagramma (c)). I processi iniziati dal gluone e dal b hanno un’incertezza teorica fino al 9%, diretto riflesso dell’incertezza sulle loro PDF,
che si traduce anche in incertezza sulla stima di |Vtb |, che è attesa essere
∆|Vtb |/|Vtb | = (11 (stat+sist) ± 4 (teo))%.
Figura 2.6: Produzione di singolo top: (a) canale t, (b) produzione associata W t,
(c) canale s.
Oltre che per le misure di precisione di QCD all’interno del Modello Standard,
la Fisica del top è interessante per sondare scenari esotici. Essendo la sua
massa vicina alla scala di rottura spontanea della simmetria elettrodebole,
infatti, il top potrebbe avere un ruolo fondamentale in questo meccanismo, ed
è dunque essenziale studiarne gli accoppiamenti, ovvero i canali di produzione
e decadimento, perché proprio attraverso di essi potrebbe evidenziarsi Fisica
non standard.
2.3. MISURE DEL MODELLO STANDARD IN ATLAS
2.3.3
43
La ricerca del bosone di Higgs
Il bosone di Higgs è stato usato come termine di riferimento per ottimizzare
le performance di alcuni sottorivelatori di ATLAS, in quanto la sua scoperta
costituisce uno degli obiettivi principali del programma di Fisica di LHC.
I limiti sperimentali attuali sulla massa dell’Higgs sono molto stringenti, in
quanto escludono MH < 114.4 GeV [61] e al tempo stesso, da un’analisi globale dei dati elettrodeboli, indicano come valore più probabile (con
un livello di confidenza del 95%) MH ≤ 154 GeV [38]. In particolare, recentemente i risultati combinati di CDF e di DØ hanno escluso la regione
160 < MH ≤ 170 GeV al 95% di confidenza [13].
Con riferimento alla Figura 2.7(b), vediamo che, per tutti i valori di massa,
la produzione avviene preferenzialmente tramite il processo di gluon fusion,
gg → H; gli altri canali prevedono che l’Higgs sia accompagnato da un bosone vettore o da una coppia partonica. In Figura 2.7(a) sono mostrati invece
i canali dominanti nel decadimento dell’Higgs in funzione della sua massa;
siccome l’accoppiamento con l’Higgs cresce con la massa della particella, i
rapporti di branching sono più alti per le particelle più massive.
Figura 2.7: (a) Rapporti di branching dell’Higgs in funzione della sua massa;
(b) Sezioni d’urto di produzione a NLO [59].
Sintetizziamo di seguito i canali più interessanti per la scoperta e lo studio
delle proprietà del bosone di Higgs.
• Per MH . 130 GeV predomina il canale H → bb, in quanto la coppia
di b è la più pesante in cui il bosone di Higgs può decadere. Questo
canale è prodotto come W (Z)H o ttH, quindi si identifica tramite i
leptoni di decadimento di W , Z o t.
Il canale H → γγ è più raro − fino a due volte meno probabile − ma
ha una segnatura sperimentale più chiara: due fotoni isolati ad alto
impulso trasverso.
44
2.4. OLTRE IL MODELLO STANDARD
• Per MH & 130 GeV domina il canale H → W W → 2l 2ν, che quindi
necessita di ottima risoluzione in energia trasversa per identificare l’energia mancante (ETmiss ) dovuta ai neutrini.
In questo intervallo si apre anche il canale H → ZZ → 4l, che ha una
segnatura estremamente chiara: quattro leptoni ad alto pT . In Figura 2.8(a) vediamo la massa invariante ricostruita per l’Higgs in questo
canale, sovraimposta al fondo continuo di ZZ, che si riduce tramite le
opportune richieste di isolamento.
• Infine, per 600 GeV . MH . 1 TeV, gli unici processi disponibili, H → W W, ZZ → lν + 2 jet, 2l+2 jet, richiedono il tagging di jet
altamenti energetici.
Figura 2.8: (a) Massa invariante simulata e ricostruita per H → ZZ → 4l,
sovraimposta al fondo. (b) Significanza per la scoperta in funzione della massa
dell’Higgs. Le luminosità integrate sono rispettivamente di 30 e 10 fb−1 . [59].
In Figura 2.8(b) abbiamo la significanza per la scoperta con L = 10 fb−1 ,
per i singoli canali di decadimento e per il totale, in funzione della massa
dell’Higgs. Se richiediamo una significanza maggiore di 5, vediamo che con
questa luminosità integrata non si potrà dire nulla riguardo all’intervallo
MH < 120 GeV, mentre la zona intorno a 160 GeV sarà la più facile da
investigare.
2.4
Oltre il Modello Standard
Il Modello Standard, con l’aggiunta dei termini di massa per i neutrini, fornisce una descrizione soddisfacente di tutti i fenomeni noti nella Fisica delle
2.4. OLTRE IL MODELLO STANDARD
45
Alte Energie, fino a scale intorno al TeV. D’altronde, il settore dell’interazione gravitazionale è al momento completamente svincolato, manifestandosi alle scale quantistiche per energie dell’ordine della massa di Planck,
MP = (8πG)−1/2 = 2.4 × 1018 GeV. Ci sono dunque 16 ordini di grandezza
tra la massa dei bosoni W e Z e la massa di Planck, e questo porta a supporre l’esistenza di una scala di massa intermedia, non predetta dal Modello
Standard (problema della gerarchia [52]).
Riscriviamo il potenziale (2.4) del bosone di Higgs nel Modello Standard:
V (Φ) = µ2 |Φ|2 + λ |Φ|4
con µ2 < 0 e λ > 0
dove il campo scalare Φ è complesso. Se il valore di aspettazione nel vuoto
del campo di Higgs, (2.6), è stimato dalle misure di interazione debole, esso
risulta [49]:
p
h0|Φ0 (x)|0i = −µ2 /2λ = 174 GeV =⇒ |µ2 | ≈ (100 GeV)2 .
Il problema è che la massa dell’Higgs, µ, riceve enormi correzioni quantistiche
dai loop creati da ognuna delle particelle che si accoppia, direttamente o
indirettamente, con Φ.
Figura 2.9: Correzioni virtuali al propagatore del bosone di Higgs: (a) loop
fermionico, (b) loop bosonico.
In Figura 2.9(a) vediamo il loop contenente il fermione f : assumendo un
termine di interazione del tipo −λf Φf f , questo diagramma comporta una
correzione:
|λf |2
(2.49)
∆µ2 = − 2 Λ2UV + . . .
8π
dove ΛUV è il cut-off ultravioletto sull’impulso che regola la divergenza del
loop, e che possiamo interpretare come l’energia a cui si evidenziano gli effetti
di nuova Fisica. I termini omessi nella (2.49) sono proporzionali a m2f , e
divergono al massimo come log(ΛUV ).
Il fermione f è identificabile con ognuno dei leptoni e dei quark del Modello
Standard; per ogni quark bisogna moltiplicare per 3 a causa del colore. La
46
2.4. OLTRE IL MODELLO STANDARD
correzione più grande è data dal top, essendo λt ≈ 1.
In generale, se il cut-off ΛUV è dell’ordine della scala di Planck(2 ), si ottiene
una correzione enorme, ∆µ2 ≈ 1030 µ2 , a meno di non operare un fine-tuning
sui parametri. Inoltre, tramite l’accoppiamento con l’Higgs, tutto lo spettro
di massa del Modello Standard è sensibile a ΛUV .
Consideriamo ora una particella scalare, complessa e pesante S, che si
accoppia al bosone di Higgs tramite un termine −λS |Φ|2 |S|2 . Il diagramma
in Figura 2.9(b) genera allora una correzione:
∆µ2 =
i
|λS |2 h 2
2
Λ
−
2m
log(Λ
/m
)
+
.
.
.
con |λS |2 > 0 .
UV
S
S
16π 2 UV
(2.50)
Notiamo il segno positivo del coefficiente di Λ2UV , opposto a quello trovato in
(2.49). Questo segno relativo è alla base della cancellazione delle correzioni
a ∆µ2 , cancellazione che permette di riottenere il valore |µ2 | ≈ (100 GeV)2
postulato per la massa dell’Higgs. Perché ciò avvenga sistematicamente,
occorre introdurre una nuova simmetria tra bosoni e fermioni. In particolare,
i contributi proporzionali a Λ2UV in (2.49) e in (2.50) si cancellano esattamente
solo se richiediamo che ogni fermione del Modello Standard sia accompagnato
da due campi scalari complessi tali che λS = |λf |2 . Ulteriori condizioni
dovranno assicurare che la cancellazione persista a tutti gli ordini.
Questa simmetria fondamentale è nota come supersimmetria (SUSY). Essa
trasforma uno stato bosonico in uno stato fermionico, e viceversa:
Q|Bosonei = |Fermionei ,
Q|Fermionei = |Bosonei .
(2.51)
L’algebra che devono soddisfare Q, il suo hermitiano coniugato Q† e il quadrimpulso P µ − generatore delle traslazioni spazio-temporali − è definita
dalle relazioni seguenti:
{Q, Q† } = P µ
[P, Q] = [P µ , Q† ] = 0 .
(2.52)
In una teoria supersimmetrica, gli stati di singola particella sono organizzati
in rappresentazioni algebriche irriducibili, chiamate supermultipletti, ciascuna delle quali contiene in egual numero bosoni e fermioni, superpartner gli
uni degli altri. Dalla terza delle (2.52) segue in particolare che le particelle
all’interno dello stesso supermultipletto avranno uguali autovalori di −P 2 , e
quindi uguale massa. Il fatto che Q e Q† commutino con i generatori delle
,
{Q, Q} = {Q† , Q† } = 0 ,
2
Se al contrario si assume un cut-off ΛUV molto minore della scala di Planck, questo
genera altre difficoltà in una teoria come il Modello Standard la cui Lagrangiana non
contiene derivate di ordine maggiore di due [49].
2.4. OLTRE IL MODELLO STANDARD
47
trasformazioni di gauge, oltre che con quelli del gruppo di Poincaré, fa sı̀ che
ogni supermultipletto sia caratterizzato dagli stessi numeri quantici (carica
elettica, isospin debole, colore).
Il modo più semplice per costruire una teoria supersimmetria (Modello
Standard Supersimmetrico Minimale, MSSM) consiste nell’organizzare tutte
le particelle note all’interno di supermultipletti chirali o di gauge.
Poiché al momento nessun partner supersimmetrico è stato osservato sperimentalmente, se questa nuova simmetria esiste, essa deve risultare rotta
nello stato di vuoto scelto dalla Natura. Questa rottura è descritta da due
modelli principali: mSUGRA(3 ), in cui la rottura è mediata dall’interazione
gravitazionale, e GMSB, che si concentra invece sulle interazioni di gauge.
Per preservare la cancellazione delle correzioni a µ2 , occorre d’altronde che la rottura avvenga in modo soffice: richiediamo che la Lagrangiana
Lsoft , caratterizzata dalla scala msoft , contribuisca al massimo con termini
proporzionali a:
·
¸
λ
2
2
∆µ = msoft
log(ΛUV /msoft ) + . . . .
(2.53)
16π 2
Per evitare il presentarsi di un nuovo problema di gerarchia, msoft non può
essere troppo grande, ma allora lo stesso deve valere per lo splitting tra
le masse del Modello Standard e quelle dei superpartner, che proprio da
msoft è determinato. Inserendo ΛUV ∼ MP e λ ∼ 1 in (2.53) e richiedendo
|µ2 | ≈ (100 GeV)2 , si trova che msoft dev’essere dell’ordine di 1 TeV. É questa
quindi la scala di energia a cui si cercheranno gli stati supersimmetrici leggeri.
2.4.1
La ricerca della Supersimmetria in ATLAS
Perché la conservazione del numero leptonico L e del numero barionico B non
sia violata, occorre che le particelle supersimmetriche siano sempre prodotte
in coppie, e che tutte le catene di decadimento covergano nella particella
più leggera (LSP), il neutralino nei modelli mSUGRA. Questo si traduce
nella conservazione di un nuovo numero quantico, la R-parità, definito come
R = (−1)3B+L+2S , dove S è lo spin.
Il neutralino, che è soggetto solo all’interazione debole, è il candidato favorito
per l’identificazione della Materia Oscura predetta dai modelli cosmologici.
Nel rivelatore, la presenza del neutralino (e
χ01 ) dovrebbe essere segnalata da
una grande quantità di energia trasversa mancante.
3
I 105 parametri liberi del MSSM si riducono a 15 ÷ 20 tramite l’imposizione di vincoli
fenomenologici, per arrivare a 5 nel modello mSUGRA.
48
2.4. OLTRE IL MODELLO STANDARD
Figura 2.10: Rappresentazione di un tipico processo con produzione e
decadimento di particelle supersimmetriche [59].
In Figura 2.10 vediamo rappresentato un tipico processo SUSY, il cui stato
finale comprende, oltre all’energia trasversa mancante portata dai neutralini,
anche numerosi jet ad alta energia, con abbondante produzione di particelle
di III generazione, e leptoni, sia carichi sia neutri.
A LHC la produzione di particelle supersimmetriche sarà dominata dagli
squark qe e dai gluini ge, per i quali le sezioni d’urto non dipendono dai dettagli
del modello SUSY ma solo dalle masse, con σ ≈ 50 pb per mqe,eg ≈ 500 GeV
e σ ≈ 1 pb per mqe,eg ≈ 1 TeV.
In Figura 2.11 vediamo il potenziale inclusivo di scoperta di ATLAS nel
piano m0 − m1/2 (rispettivamente la massa comune delle particelle scalari, e
quella dei gaugini e degli Higgsini, nel modello mSUGRA), per una luminosità
integrata di 1 fb−1 e per varie configurazioni dello stato finale.
Prima di poter procedere a qualsiasi scoperta, tuttavia, sarà essenziale un
controllo stringente delle performance del rivelatore, in particolare per quanto
riguarda la misura dell’energia√trasversa mancante, e una buona comprensione del Modello Standard a s = 14 TeV.
2.4.2
Scenari esotici
La produzione di nuovi bosoni di gauge pesanti, collettivamente indicati come W 0 e Z 0 , sarà accessibile a LHC per masse fino a 6 TeV, laddove i limiti
correnti del Tevatron si attestano nell’intervallo 820 ÷ 1020 GeV.
Molte estensioni del Modello Standard predicono l’esistenza di risonanze di0
leptoniche: il Modello Standard Sequenziale (SSM), con uno ZSSM
di accoppiamenti standard; i modelli supersimmetrici E6, che contengono le particelle
esotiche Zψ0 , Zχ0 e Zη0 ; infine i modelli con simmetria Left-Right, che includono
0
un bosone ZLR
.
2.4. OLTRE IL MODELLO STANDARD
49
Figura 2.11: Potenziale di scoperta a 5σ per L = 1 fb−1 , per le configurazioni 4
jet + ETmiss , con tan β = 10. Le curve corrispondono a fissare le masse del gluino
e degli squark con intervalli di 500 GeV [59].
Sperimentalmente queste particelle dovrebbero lasciare segnature simili nel
rivelatore, ovvero coppie di elettroni o muoni. La Figura 2.12(a) mostra il
picco ricostruito dello Z 0 , descritto da una Breit-Wigner, al di sopra del fondo
irriducibile dato dal Drell-Yan Z/γ ∗ → e+ e− .
Figura 2.12: (a) Segnale di Z 0 → e+ e− al di sopra del fondo. (b) Luminosità
integrata necessaria per la scoperta, in funzione della massa del bosone vettore
supersimmetrico. [59].
Come vediamo in Figura 2.12(b) per i vari modelli teorici, la luminosità
integrata necessaria per una scoperta di Z 0 → e+ e− a 5σ dipende dalla massa
dello Z 0 stesso. Per esempio, un bosone di 1 TeV si manifesterebbe già coi
50
2.4. OLTRE IL MODELLO STANDARD
primi 50 pb−1 , ma se la massa fosse oltre i 3 TeV avremmo bisogno di almeno
10 fb−1 .
Altre segnature di Nuova Fisica saranno rivelabili tramite una misura
di precisione della sezione d’urto per jet altamente energetici, e tramite la
ricerca della violazione del numero leptonico (in processi come τ → 3µ e
τ → µγ).
Citiamo infine la possibilità di produzione di mini buchi neri, che decadrebbero democraticamente in tutti i possibili stati finali: leptoni carichi,
neutrini, fotoni, bosoni vettori e jet.
Capitolo 3
La Fisica dei bosoni vettori
intermedi W e Z
3.1
Il processo Drell-Yan
Discutiamo adesso gli aspetti fondamentali della Fisica di una collisione
protone-protone, specializzandoci poi al processo Drell-Yan, la cui misura
di precisione è uno degli obiettivi dell’esperimento ATLAS.
3.1.1
La collisione protone-protone
Figura 3.1: Rappresentazione dello scattering adrone-adrone.
In generale, una collisione adronica come quella rappresentata in Figura 3.1,
oltre all’evento principale di hard scattering tra i partoni a e b, contiene un
Underlying Event prodotto dall’interazione tra i resti degli adroni incidenti
(partoni spettatori ).
L’Underlying Event è una collisione soffice e inelastica, che produce particelle
con basso momento trasverso, per questo facilmente distinguibili dai prodotti
dell’evento principale. La possibilità di un secondo hard scattering tra i resti
52
3.1. IL PROCESSO DRELL-YAN
degli adroni è molto rara; essa viene risolta considerando indipendenti i due
eventi, e quindi moltiplicandone le probabilità.
La sezione d’urto totale protone-protone, in funzione dell’energia nel centro di massa adronico, è rappresentata in Figura 3.2. Essa riassume le misure
esistenti di σtot , da bassa energia fino alle regioni tipiche di LHC e dei raggi
cosmici. Sia i dati dei cosmici, sia i risultati finali del Tevatron (CDF e E118
sono in disaccordo entro 2.6 deviazioni
standard) lasciano spazio a una certa
√
variabilità nell’estrapolazione a s = 14 TeV: i valori che ne risultano per la
sezione d’urto sono compresi tipicamente tra 90 e 130 mb(1 ).
Figura 3.2: Sezione d’urto totale protone-protone, estrapolata a 14 TeV [64].
I contributi maggiori alla sezione d’urto totale sono quelli dell’interazione
elastica (≈ 30 mb) e dell’interazione soffice, diffrattiva (≈ 18 mb) e non
(≈ 65 mb). Quest’ultima, detta Minimum Bias, è caratterizzata da piccoli
momenti trasferiti, e quindi da una bassa risoluzione della struttura adronica.
Per confronto, ci sono 6 ordini di grandezza tra queste sezioni d’urto e i
≈ 100 nb per la produzione di W a LHC, come anticipato in Sezione 2.3.
Gli eventi più interessanti sono quelli prodotti dall’interazione di hard
scattering.
Ad energie maggiori della tipica massa adronica (ΛQCD ≈ 200 MeV), la costante di accoppiamento dell’interazione forte, αs (Q2 ), è abbastanza piccola
da poter considerare i quark come liberi all’interno dell’adrone.
É questa la proprietà di libertà asintotica della QCD, che viene sfruttata
dal modello a partoni (Bjorken 1969, Feynman 1972), nel quale l’adrone è
descritto come un insieme incoerente di partoni, ognuno dei quali porta una
1
La misura di precisione di σtot è uno degli obiettivi dell’esperimento TOTEM [63] ad
LHC, situato nella caverna di CMS.
3.1. IL PROCESSO DRELL-YAN
53
frazione x del suo impulso, con probabilità distribuita secondo le Parton
Distribution Functions (PDF):
f (x) dx ≡ P(x0 ∈ [x, x + dx])
f = q, q, g .
(3.1)
Ne segue(2 ) la fondamentale proprietà di fattorizzazione delle sezioni d’urto.
Nel caso dell’interazione adrone-leptone si ha in particolare:
X Z 1
0
0
2
σ(lh → l X)(Q ) =
dx fa/h (x, µ2F ) σ̂ (la→l X) (Q2 , µ2F )
(3.2)
a=q,q,g
0
mentre per lo scattering adrone-adrone la sezione d’urto si fattorizza come (i
simboli si riferiscono alla collisione in Figura 3.1):
X Z 1
2
dx1 dx2 fa/h1 (x1 , µ2F )fb/h2 (x2 , µ2F ) σ̂ (ab→cd) (Q2 , µ2F ) .
σ(h1 h2 → cd)(Q ) =
a,b=q,q,g 0
(3.3)
In entrambi i casi, la sezione d’urto adronica è data dall’integrale di convoluzione tra le PDF e la sezione d’urto partonica σ̂. Da notare che, mentre
le fa,b/h e σ̂ dipendono dalla scala di fattorizzazione µF , la sezione d’urto
adronica non ne dipende, dal momento che è una quantità fisica.
La scala di fattorizzazione è definita come la scala di energia che distingue tra
interazioni a lunga e corta distanza: solo a queste ultime è corretto applicare
la QCD perturbativa. L’energia tipica del processo è settata dalla scala Q2 ,
che spesso si assume uguale a µ2F .
Sia nell’interazione adrone-leptone sia in quella adrone-adrone, pesiamo la
sezione d’urto elementare con le stesse PDF: questo grazie alla universalità
di tali distribuzioni, che sono indipendenti dal processo e dalla particella con
cui vengono sondate. Nel caso dello scattering tra adroni, bisogna tuttavia aggiungere l’ipotesi che la presenza del secondo adrone non modifichi la
struttura interna del primo.
3.1.2
Sezione d’urto a Leading Order
Il processo Drell-Yan (Drell e Yan, 1971):
pp −→ γ ∗ −→ `+ `− + X
2
Questa affermazione è la base concettuale della QCD perturbativa;
dimostrazione rigorosa si trova in [26].
la sua
54
3.1. IL PROCESSO DRELL-YAN
è considerato il prototipo di reazione adronica, con lo stato finale leptonico, ad alto momento trasverso, semplice da caratterizzare sperimentalmente.
Come già accennato, estendiamo la sua terminologia ad includere anche i
processi che coinvolgono un bosone vettore massivo, W o Z.
Avere un grande momento trasferito, e quindi un bosone vettore che si propaga solo su piccole distanze, assicura che possiamo ignorare gli effetti di
grande distanza, e dunque applicare la QCD perturbativa.
Consideriamo lo scambio di un fotone (Figura 3.3) [15].
Figura 3.3: Produzione Drell-Yan di una coppia leptonica.
Assumendo i partoni a massa nulla, il quadrato dell’energia nel centro di
massa partonico ŝ in funzione di quella nel centro di massa adronico s, è
semplicemente:
ŝ = (x1 p1 + x2 p2 )2 ≈ 2 p1 · p2 x1 x2 = s x1 x2 .
(3.4)
dove x1,2 sono le frazioni di impulso portate dai due partoni incidenti.
A Leading Order, la sezione d’urto si ottiene da quella del processo elementare
di QED e+ e− → µ+ µ− , con l’aggiunta degli appropriati fattori di carica e
colore:
4παs2 1 2
σ̂(qq → e+ e− ) =
Q
(3.5)
3ŝ Nc q
dove abbiamo diviso per il numero di colori, Nc = 3, perchè per generare
lo stato finale occorre che i colori del quark e dell’antiquark siano uguali e
opposti. Qq è la carica partonica in unità di e, Qu = +2/3, Qd = −1/3,
eccetera.
Per formare una coppia leptonica di massa M , l’energia ridotta deve valere
ŝ = M 2 , quindi possiamo scrivere la sezione d’urto differenziale come:
4παs2 1 2
dσ̂
=
Qq δ(ŝ − M 2 ) .
2
dM
3ŝ Nc
(3.6)
Scriviamo ora la sezione d’urto per il Drell-Yan mediato da un fotone, tramite
3.1. IL PROCESSO DRELL-YAN
55
la (3.6) e la forma (3.3) per la sezione d’urto adronica fattorizzata:
·X ³
Z
´¸
dσ̂
4παs2 1
2
2
2
2
=
dx1 dx2 δ(ŝ−M )
Qk qk (x1 , M ) q k (x2 , M )+(1 ↔ 2) .
dM 2
3Nc ŝ 0
k
(3.7)
Differenziando anche rispetto alla rapidità y dell’oggetto prodotto, si ottiene:
·
´¸
d2 σ̂
4παs2 X 2 ³
2
2
Q qk (x1 , M ) q k (x2 , M ) + (1 ↔ 2) .
(3.8)
=
dM 2 dy
3Nc s k k
La sezione d’urto per la produzione di W e Z on-shell è invece data da:
0
π√
2
2
)
2 GF MW
|Vqq0 | δ(ŝ − MW
3
π√
=
2 GF MZ2 (υq2 + a2q ) δ(ŝ − MZ2 )
3
σ̂ qq →W =
σ̂
qq→Z
(3.9)
da convolvere con l’apposita larghezza di decadimento, dove υq e aq sono gli
accoppiamenti vettoriali e assiali dei bosoni vettori coi quark, mentre |Vqq0 | è
l’elemento di matrice CKM (2.2).
Le sezioni d’urto (3.9) sono calcolate nell’approssimazione di larghezza intrinseca trascurabile per W e Z (narrow width), plausibile dal momento che
ΓW,Z ≈ 2 GeV ¿ MW,Z .
3.1.3
Correzioni a Next to Leading Order
La trattazione semplificata fin qui discussa, non tiene conto dei problemi che
sorgono quando si introducono le correzioni perturbative, ovvero si considera
l’emissione di gluoni reali e virtuali ad opera del partone incidente. Questi termini infatti danno luogo a divergenze, sia quando il gluone è emesso
collinearmente al quark, sia quando la sua energia tende a zero (divergenza
soft). Le divergenze sono logaritmiche: questi logaritmi possono essere riassorbiti nella definizione delle PDF: tale fattorizzazione funziona a tutti gli
ordini e per tutti i processi, come è provato esplicitamente dal teorema di
fattorizzazione [26], che fornisce anche la definizione rigorosa delle PDF.
In Figura 3.4 troviamo i diagrammi LO e NLO per la produzione DrellYan di un fotone. Le correzioni (a) sono dovute all’inserzione di un gluone
virtuale (F̂1qq,V ), le correzioni (b) all’inclusione di un gluone reale (F̂1qq,R ),
mentre le correzioni (c) corrispondono allo scattering quark-gluone qg → γ ∗ q
e antiquark-gluone (F̂1qg ).
Diagramma per diagramma, si incontrano tre tipi di divergenze: ultraviolette
56
3.1. IL PROCESSO DRELL-YAN
Figura 3.4: Diagrammi Drell-Yan a Leading e Next to Leading Order.
in corrispondenza dei loop, infrarosse legate all’emissione di gluoni soffici, e
infrarosse collineari negli splitting q → qg e g → qq. Sommando tutti questi
contributi, le divergenze si cancellano, tranne quelle dovute alle singolarità
collineari, i cui coefficienti sono le funzioni di splitting Pij , che introdurremo
in Sezione 3.2.2 (equazione (3.29)).
Scriviamo i vari contributi dopo averli regolarizzati dimensionalmente(3 ):
F̂1qq = F̂1qq,R + F̂1qq,V =
=
αs (µ
Q2q
2
)
2π
· µ
¶
¸
1
M2
(0)
2 − − ln(4π) + γE + ln 2 Pqq (τ ) + Dq (τ )
²
µ
·µ
¶
¸
1
M2
(0)
=
− − ln(4π) + γE + ln 2 Pqg (τ ) + Dg (τ )
2π
²
µ
(3.10)
dove τ = M 2 /s, γE è la costante di Eulero-Mascheroni (fattore caratteristico della regolarizzazione dimensionale, cosı̀ come ln(4π)), mentre Dq,g sono
coefficienti calcolabili.
Possiamo a questo punto ridefinire la funzione di distribuzione partonica, in
modo che facendone la convoluzione coi coefficienti singolari F̂, le divergenze
F̂1qg
αs (µ
Q2q
2
)
3
La regolarizzazione dimensionale prevede di assumere uno spazio di d = 4 − 2² dimensioni, introducendo la scala regolarizzatrice µ per preservare le dimensioni delle quantità
fisiche: in questo modo le singolarità diventano poli in ² → 0, con coefficienti calcolabili.
3.1. IL PROCESSO DRELL-YAN
57
si compensino esattamente:
µ
¶
αs (µ2 )
1
q (x, µ ) = q(x) +
− − ln(4π) + γE
2π
²
Z 1
¤
dz £ (0)
(0)
×
Pqq (x/z) q0 (ξ) + Pqg
(x/z) g0 (ξ) + O(αs2 ) (. 3.11)
x z
F
2
La magnitudine della correzione O(αs ) dipende dalla massa della coppia leptonica, cosı̀ come dall’energia della collisione e dalla natura del bersaglio.
Per la produzione di W e Z, tipicamente il NLO aumenta la sezione d’urto
LO del (20 ÷ 30)%.
3.1.4
Distribuzione in momento trasverso dei partoni
L’approssimazione che si usa per studiare la cinematica del Drell-Yan, consiste nello scegliere il sistema di riferimento infinite momentum frame: l’adrone
incidente ha allora P À M , e può essere considerato in moto parallelo all’asse z. Ciò vale anche per i partoni che lo compongono, i cui momenti stiamo
descrivendo in termini delle frazioni di impulso x.
Le misure sperimentali però confutano quest’approssimazione, mostrando che
la coppia leptonica prodotta nel Drell-Yan ha una distribuzione in momento
trasverso, e che da questa si può inferire la distribuzione dei partoni genitori.
Generalizziamo l’idea di distribuzione di probabilità partonica a includere
il momento trasverso, nel modo seguente:
f (x) =
R
→
−
−
→
d2 k T P ( k T , x)
cosicché dxf (x) diventa
R
→
2−
−
→
dx d k T P ( k T , x) .
(3.12)
Quando la scala del processo duro è molto grande, possiamo ragionevolmente
→
−
continuare a ignorare k T , ovvero porre:
−
→
−
→
P ( k T , x) = δ( k T ) f (x)
e, poiché il momento trasverso si deve conservare tra stato iniziale e finale,
ne segue che anche la coppia leptonica avrà pT = 0.
Altrimenti è necessario tener conto della distribuzione in momento trasverso;
nel caso più semplice si ha che le dipendenze da x e da kT si fattorizzano:
−
→
−
→
P ( k T , x) = h( k T )f (x)
58
3.1. IL PROCESSO DRELL-YAN
per cui si ottiene direttamente la distribuzione in momento trasverso della
coppia leptonica:
Z
−
→
−
→
−
→
−
→
1 d2 σ
−
p T ) h( k T 1 ) h( k T 2 ) (3.13)
= d2 kT 1 d2 kT 2 δ (2) ( k T 1 + k T 2 − →
2
σ d pT
dove σ = d2 σ/dM 2 dy è stata definita in (3.8). Se assumiamo una distribuzione gaussiana,
→
−
b
h( k T ) = exp(−b kT2 )
π
con hkT i = 760 MeV, la tipica massa adronica, otteniamo:
1 d2 σ
b
=
exp(−bp2T /2) .
2
σ d pT
2π
(3.14)
BR×dσ/dpT (pb/GeV)
Questa sezione d’urto descrive bene i dati a piccoli pT ; ad alto pT , invece, si
osserva un eccesso di eventi, dovuto ai processi perturbativi a NLO qq → γ ∗ g
e qg → γ ∗ q, dove il partone finale è emesso ad alto momento trasverso.
Facendo la convoluzione dei due effetti, si incontra una difficoltà: per
pT À hkT i l’approccio perturbativo è adeguato, ma se allo stesso tempo
pT ¿ M non possiamo trascurare l’emissione multipla di gluoni soffici. Fortunatamente, la serie dei logaritmi che ne risulta può essere risommata a
tutti gli ordini.
80
Z → l+l60
|ηlepton| < 2.5
pTlepton > 20 GeV
40
20
0
0
10
20
30
40
50
Z
pT (GeV)
Figura 3.5: Distribuzioni in momento trasverso per Z (b) e i suoi prodotti di
decadimento (a). A sinistra abbiamo la simulazione a LO con Pythia, a destra il
calcolo teorico NLO [58].
In Figura 3.5 (a) mostriamo la distribuzione in momento trasverso della cop-
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
59
pia leptonica µµ prodotta dal decadimento Drell-Yan di Z, per diversi intervalli di massa invariante; la simulazione è effettuata a LO con Pythia.
Risulta evidente che a LHC saranno prodotte in gran numero coppie di muoni con alta massa invariante e momento trasverso superiore a 100 GeV.
In Figura 3.5 (b) vediamo invece la distribuzione teorica in pT per Z, calcolata a NLO con la risommazione dei logaritmi dominanti, e l’applicazione
dei tagli sperimentali.
3.2
Funzioni di distribuzioni partoniche
Abbiamo già introdotto le PDF e la proprietà di fattorizzazione in Sezione
3.1.1. Vogliamo adesso approfondire questi concetti, alla luce del ruolo fondamentale che la conoscenza delle PDF gioca nello studio di precisione della
produzione dei bosoni vettori W e Z a LHC. L’incertezza legata a queste distribuzioni, infatti, è la principale fonte di errore sistematico per l’accettanza
e quindi per la sezione d’urto, come mostrerò nel Capitolo 5.
3.2.1
Fattorizzazione
Una rappresentazione intuitiva del concetto di fattorizzazione è riportata in
Figura 3.6: la scala µ = µF setta il confine tra quello che definiamo adrone
incidente e quella che consideriamo essere l’interazione. Questo nell’ipotesi
che la durata dello scattering sia abbastanza breve che il contenuto dell’adrone resti invariato.
Nella parte alta della Figura, notiamo la presenza della particella di stato
finale k, che confluisce nell’adrone X con una probabilità di cui tiene conto
la funzione di frammentazione Dk (che ha il ruolo opposto delle PDF).
Figura 3.6: Fattorizzazione nello scattering adronico [50].
Le PDF (3.1) sono non perturbative, per cui non possono essere derivate
analiticamente, ma si ottengono fittando i dati degli esperimenti di Deep
60
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
Inelastic Scattering (DIS), Drell-Yan e produzione di jet, che coprono intervalli diversi in (x, Q2 ). In Figura 3.7 vediamo la regione cinematica esplorata
dagli esperimenti di DIS; essi usano sia fasci di protoni liberi (quelli forniti dal collider HERA a DESY, per gli esperimenti H1 e ZEUS) sia bersagli
nucleari (esperimenti a targhetta fissa, nel qual caso bisogna considerare la
complicazione dovuta al fatto che i nucleoni nel bersaglio sono legati), mentre
i leptoni-sonda possono essere sia carichi sia neutri. Gli esperimenti di HERA
coprono un intervallo molto esteso sia in Q2 (Q2 ≈ (0.1 − 104 ) GeV2 ) sia in
x (x ≈ 10−5 − 10−1 ), mentre gli esperimenti a targhetta fissa si estendono
in una regione complementare.
La produzione di jet ai collider è invece importante perché fornisce informazioni indirette sulla distribuzione gluonica, che non può essere testata
direttamente in quanto i gluoni non si accoppiano ai bosoni vettori.
Figura 3.7: Copertura cinematica degli esperimenti di DIS.
Le seguenti relazioni sono quelle fondamentali per la conoscenza delle PDF,
a partire dal fit sperimentale delle funzioni di struttura F1,2 dei nucleoni:
F1 (x) =
X e2
i
i
2
fi (x)
2xF1 (x) = F2 (x) .
i = u, u, d, d, . . .
(3.15)
(3.16)
La prima relazione si ottiene confrontando la sezione d’urto tra particelle
puntiformi in QED (per esempio µ+ µ− → e+ e− ), con la (3.2). La somma
è su tutti i sapori, in realtà però il contributo dei quark pesanti (c, b, t) è
trascurabile perché, alla scala di energia Q, il bosone vettore vede solo dimensioni & 1/Q, quindi distingue un quark di massa Mq e dimensioni ∼ 1/Mq
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
61
solo se Q > Mq .
La (3.16) è la relazione di Callan-Gross: è valida solo a Leading Order in
αs e ci dice qualcosa di fondamentale sui partoni, dal momento che descrive
particelle di spin 1/2.
Notiamo che, pur continuando a valere la (3.16) per F1 e F2 , se il bosone vettore è carico bisogna aggiungere una terza funzione di struttura indipendente,
F3 , che non conserva la parità.
Legge di scala di Bjorken
Consideriamo lo scattering leptone-adrone, e chiamiamo ν la componente
temporale del momento trasferito:
q0 ≡ ν = E − E 0 = (l − l0 ) · p/Mh
(3.17)
dove p ed Mh si riferiscono all’adrone − a riposo nel sistema di riferimento
del laboratorio − l ed E al leptone iniziale, l0 ed E 0 al leptone finale. La
frazione di impulso portata dal partone che scattera contro il leptone, x, è
legata a Q2 = −q 2 e a ν dalla relazione seguente:
½
Q2
Q2
= 1 scattering elastico
x≡
.
(3.18)
=
2Mh ν
2 p · q < 1 scattering inelastico
A grandi impulsi trasferiti, siamo nel limite in cui il leptone scattera elasticamente contro un partone: le funzioni di struttura cessano allora di essere
funzioni indipendenti di Q2 e di ν per diventare funzioni della sola x, in base
alla legge di scala di Bjorken(4 ):
Q2 →∞
F1,2,3 (Q2 , ν) −−−→ F1,2,3 (x) 6= 0 .
(3.19)
La legge di Bjorken indica inoltre che:
• le funzioni di struttura rimangono finite per Q2 → ∞,
• la sola variabile indipendente è x, dunque non si hanno scale intrinseche,
che segnalerebbero una struttura composita dei partoni.
4
In effetti le relazioni scritte finora per le funzioni di struttura, e di conseguenza per le
PDF, sono valide solo in questo limite.
62
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
I gradi di libertà delle distribuzioni partoniche sono ridotti imponendo la
composizione in flavour degli adroni. Per il protone ad esempio si ha:
R1
R1
dx [u(x) − u(x)] = 2
dx [d(x) − d(x)] = 1
0
0
(3.20)
R1
dx [s(x) − s(x)] = 0 .
0
Non possiamo imporre un vincolo analogo per i gluoni, in quanto il numero
dei bosoni non è conservato.
É usuale separare ogni distribuzione in due componenti, una di valenza e una
di mare, q ≡ qV + qS , in modo che sia la componente di valenza a portare i
numeri quantici dell’adrone. In questo modo le (3.20) si traducono per u in:
R1
dx uV (x) = 2
0
u(x) ≡ uS (x)
R1
0
dx [uS (x) − uS (x)] = 0 .
L’ultima equazione va generalizzata in:
uS ≡ uS ≡ dS ≡ dS ≡ sS ≡ sS ≡ . . .
(3.21)
che è un’assunzione fondamentale del Modello dei Quark Costituenti (Close,
1979): il mare è simmetrico in tutti i sapori, in quanto viene generato negli
splitting g → qq. D’altronde, come vedremo in seguito, nella discussione
sulla componente intrinseca di charm, dagli esperimenti si trova che questa
assunzione non è vera in modo esatto.
Teorema di fattorizzazione
Riprendiamo le funzioni di struttura (3.15), (3.16) e aggiungiamo le dipendenze che compaiono agli ordini perturbativi superiori:
µ
¶
dz (V a) x Q2 µ2F
C1,3
,
,
, αs (µR ) fa/h (z, µF , µR ) (3.22)
=
z µ2R µ2R
x z
a
µ
¶
2
XZ 1
µ2F
(V h)
(V a) x Q
2
F2 (x, Q ) =
dz C2
,
,
, αs (µR ) fa/h (z, µF , µR ) (3.23)
z µ2R µ2R
x
a
(V h)
F1,3 (x, Q2 )
XZ
1
dove stiamo sommando su tutti i partoni attivi, a = q, q, g, mentre V indica
il generico bosone vettore.
Oltre alla scala di fattorizzazione µF , è comparsa la scala di rinormalizza-
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
63
zione µR . Spesso per comodità si assume µF = µR , ponendole entrambe
uguali al momento trasferito Q, ma non bisogna dimenticare che esse sono
concettualmente molto diverse: mentre µR è una quantità arbitraria che ci
permette di regolare le divergenze ultraviolette della teoria, µF è una scala
non perturbativa essenziale perché si possano fattorizzare le interazioni di
lunga e corta distanza. Un propagatore di virtualità(5 ) −q 2 > µ2F dà vita
a interazioni di alta energia e quindi corta distanza, di cui tengono conto i
coefficienti di hard scattering Ck , mentre se il momento trasferito è −q 2 < µ2F
siamo nell’intervallo delle lunghe distanze, quindi questo contributo dev’essere fattorizzato come parte delle PDF.
L’esatta definizione di µF dipende dallo schema di fattorizzazione scelto.
Schemi di fattorizzazione
A tree-level, dove il partone di impulso z incontra il bosone vettore senza
aver subito interazioni, la forma triviale delle PDF è data da:
fi (z) = δ(1 − z)
(3.24)
(γi)
per cui, sostituendo in (3.23), possiamo scrivere la funzione di struttura F2
per l’interazione fotone-partone:
Z 1
³ ´
(γi)(0) x
(γi)(0)
(γi)(0)
dz δ(1 − z) C2
F2
(x) =
= C2
(x) = Q2i δ(1 − x) (3.25)
z
0
dove nell’ultimo passaggio abbiamo usato la (3.15). Qualsiasi schema di
fattorizzazione si adotti, esso dovrà riprodurre la (3.24) e la (3.25) a tree-level.
Gli schemi più usati sono il DIS (usato soprattutto per descrivere i dati
di Deep Inelastic Scattering, da cui il nome) e il MS (Modified Minimal Subtraction).
Nello schema DIS [18], si richiede che tutte le correzioni alle funzioni di struttura siano assorbite, ordine per ordine, nella definizione delle PDF. Questo
(V i)
implica che, assumendo µR = µF = Q, i coefficienti di hard scattering Ca
(V i)
restino identici al tree-level; per C2 si ha in particolare:
(V q(q))
C2
(x) = Q2q(q) δ(1 − x) ,
(V g)
C2
(x) = 0 .
(3.26)
In questo modo perdiamo però l’informazione sulla distribuzione gluonica.
(V i)
Nello schema MS [4], al contrario, i coefficienti Ca sono calcolati con la
5
La virtualità corrisponde in valore assoluto al quadrato del quadrimpulso, t = q 2 , ed
è positiva o negativa a seconda che la particella sia time- o space-like.
64
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
teoria delle perturbazioni, rinormalizzata secondo le prescrizioni della Modified Minimal Subtraction, e riassorbono le correzioni finite; solo le divergenze
collineari sono incluse nelle PDF.
3.2.2
Evoluzione
Finora non abbiamo parlato della dipendenza delle PDF e delle funzioni di
struttura da Q2 . É interessante il fatto che, pur non essendo le PDF calcolabili perturbativamente, la loro dipendenza dall’energia lo è.
Questa dipendenza − a cui ci si riferisce come evoluzione − è descritta dall’equazione DGLAP (Dokshitzer-Gribov-Lipatov-Altarelli-Parisi), che è in
realtà un set di equazioni integro-differenziali accoppiate:
Z 1
³x
´
dz
αs X
2 d
2
2
2
µ
f
(x,
µ
)
=
P
(z,
α
(µ
))
f
,
µ
(3.27)
i
ij
s
j
dµ2
2π j=q,q,g x z
z
dove abbiamo posto µR = µF = Q. I coefficienti Pij sono i kernel dell’evoluzione, e sono noti come funzioni di splitting. Si possono espandere in serie di
potenze di αs (µ2 ):
(0)
Pij (x, αs ) = Pij (x) +
αs (1)
P (x) + . . .
2π ij
e notiamo che nella (3.27) abbiamo fattorizzato una potenza di αs .
Le funzioni di splitting descrivono l’ampiezza di probabilità di generare il
partone i nel branching del partone j, ovvero Pij ≡ P(j → iX), con i dotato
di impulso x. Esplicitiamo la (3.27) a Leading Order per i = q:
Z
³x
´
³x
´i
αs 1 dz h (0)
2
2 d
2
(0)
2
q(x, µ ) =
Pqq (z) q
, µ + Pqg (z) g
,µ
. (3.28)
µ
dµ2
2π x z
z
z
Per conoscere la sezione d’urto, abbiamo bisogno dell’ampiezza di probabilità
che l’adrone contenga un quark di impulso x, ovvero della PDF q(x, µ2 ) alla
scala di energia µ2 = Q2 . Ma al variare del quadrimomento trasferito cambia
la risoluzione con cui possiamo conoscere il contenuto dell’adrone (legge di
de Broglie), e quindi all’aumentare di µ2 siamo in grado di distinguere l’evoluzione di q(x, µ2 ).
Ci rendiamo allora conto che il quark q ha avuto origine da un numero arbitrario di branching, del tipo q → q(x) g(1 − x) oppure g → q(x) q(1 − x).
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
65
In generale abbiamo quattro funzioni di splitting indipendenti:
µ
¶
1 + z2
(0)
(0)
Pqq = Pq q = CF
1−z +
(0)
2
2
(0)
Pqg = Pqg =
· TF [z + (1 − z) ]
¸
z
1−z
11CA − 4Nf TF
(0)
Pgg = 2 CA
+
+ z(1 − z) +
δ(1 − z)
(1 − z)+
z
6
1 + (1 − z)2
(0)
(0)
= Pgq = CF
Pgq
z
(3.29)
dove, con tre colori, TF = 1/2, CA = 3, CF = 4/3.
Agli ordini superiori dobbiamo tenere conto anche dei processi j → iXY .
La prescrizione + in (3.29) è definita nel modo seguente:
·
·
¸
¸
Z 1
Z 1
Z x
g(z)
f (z) − f (1)
g(z)
dz f (z)
≡
dx
g(z) − f (1)
dz
1−z +
1−z
1−z
x
x
0
(3.30)
con f (z) una qualsiasi funzione regolare. Appare evidente che le funzioni di
splitting non sono in realtà funzioni, ma piuttosto distribuzioni, che risultano finite dopo la convoluzione. Il secondo termine a destra in (3.30) è un
termine divergente, che si annulla per x = 0, e che viene sottratto al primo
termine per regolarizzarlo.
Le funzioni di splitting sono di tipo space-like, in quanto coinvolgono virtualità negative. Nel caso della radiazione di stato finale, vengono sostituite
dalle funzioni di frammentazione, che sono invece time-like.
3.2.3
Violazioni di scaling
La discussione precedente anticipa l’esistenza delle violazioni di scaling, ovvero della dipendenza delle PDF dalla scala di energia Q2 .
Per un puro scaling di Bjorken, equazione (3.19), ci aspetteremmo che PDF
e funzioni di struttura dipendessero solo dalla frazione di impulso x, e che
quindi:
∂Fi (x, µ2 ) µ2 →∞
−−−→ 0 con x finita.
(3.31)
∂µ2
I dati confermano invece la dipendenza logaritmica delle PDF da Q2 , come
vediamo in Figura 3.8, dove sono riportate sia le misure recenti della funzione
di struttura del protone, F2p , sia il fit di QCD guidato dalla DGLAP (lo shift
in x è artificiale).
Le misure coprono cinque ordini di grandezza, sia in x, 10−5 < x < 0.65, sia
in Q2 , 1 GeV2 < Q2 < 105 GeV2 . Da notare che i partoni appaiono puntifor-
66
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
Figura 3.8: Dati sperimentali per F2p .
mi fino a Q2 ≈ 105 GeV2 , ovvero a dimensioni di 10−3 fm.
Vediamo dalla Figura che il fit teorico è in ottimo accordo coi dati: a x fissata, la funzione di struttura sale per energia crescente. A bassa energia,
infatti, risolviamo pochi partoni e non siamo troppo lontani dalla situazione
in cui il protone è composto solo dai suoi quark di valenza. Ci aspettiamo
quindi che x ' 1/3 per ognuno di questi partoni. Se invece aumentiamo
l’energia, e risolviamo il mare in modo sempre più dettagliato, ogni partone
avrà a disposizione una frazione di impulso minore, e sarà molto improbabile
trovare un partone a grande x. Questo effetto è maggiore per i gluoni, essendo maggiore la probabilità di splitting g → gg; dobbiamo infatti sempre
rispettare la regola di somma degli impulsi:
Z 1
³X
´
dx x
f (x) + g(x) = 1 .
(3.32)
0
f =q,q
La dipendenza in x delle PDF al variare di Q2 è illustrata in Figura 3.9.
In Figura 3.10 vediamo invece la regione cinematica nel piano (x, Q2 ) che
è stata coperta da HERA (in verde), a confronto con quella che sarà esplorata
da LHC (in blu). Per ogni rapidità y troviamo le linee corrispondenti a x1 e
x2 , mentre le linee orizzontali indicano la massa M dell’oggetto prodotto.
3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE
Figura 3.9: Dipendenza delle funzioni di distribuzioni partoniche da Q2 [31].
Figura 3.10: Produzione di un oggetto di massa M ad LHC ed a HERA [24].
67
68
3.3. METODO CTEQ PER IL FIT DELLE PDF
La collisione produce un oggetto di massa M e rapidità y (1.1), secondo la
relazione seguente:
µ ¶
1
x1
M
(3.33)
y = ln
=⇒ x1,2 = √ e±y .
2
x2
s
dove ci siamo posti nel sistema di riferimento del centro di massa dei due
adroni, nel quale i partoni incidenti hanno impulsi:
√
√
s
s
µ
µ
p1 =
(x1 , 0, 0, x1 ) , p2 =
(x2 , 0, 0, −x2 ) .
(3.34)
2
2
Queste relazioni sono fondamentali, in quanto permettono di estrarre gli
impulsi dei partoni dalla misura della massa e della √
rapidità dell’oggetto prodotto. In particolare, se scegliamo M ≈ MW,Z e s = 14 TeV, segue che
x1 x2 ≈ 10−5 .
Vediamo in Figura 3.10 che le zone studiate da HERA e LHC si sovrappongono in x, mentre Q2 cresce a LHC di due-tre ordini di grandezza. In questo
modo si potrà testare l’evoluzione delle PDF, dalla scala a cui sono disponibili i dati di DIS (Q ≈ (1 ÷ 10) GeV) a quella di LHC (Q ≈ (102 ÷ 103 ) GeV),
alla ricerca di eventuali deviazioni dalla DGLAP.
3.3
Metodo CTEQ per il fit delle PDF
Fin dall’inizio degli anni ‘90, la collaborazione CTEQ(6 ) fornisce, nell’ambito di un’analisi globale dei dati sperimentali, accurati fit delle PDF, con
un metodo che si è andato raffinando nel corso degli anni: a partire dalle
CTEQ1M [5], costituite solo da un set di best fit, passando per le CTEQ6
[41], le prime a contenere una trattazione sistematica delle incertezze, per
arrivare alle CTEQ6.6 [35], il fit più completo attualmente esistente.
Strategia generale
Prima dell’avvento del metodo di analisi CTEQ6, per fittare le PDF se ne
costruiva una “miglior stima” facendo variare parametri selezionati. In questo modo, non si riusciva a quantificare né l’incertezza associata alla miglior
stima, nè, cosa forse ancora più importante, l’incertezza associata alle quantità fisiche derivate.
Va sottolineato che l’analisi globale dei dati sperimentali presenta difficoltà
6
CTEQ è l’acronimo di Coordinated Theoretical/Experimental project on QCD
phenomenology and tests of the Standard Model.
3.3. METODO CTEQ PER IL FIT DELLE PDF
69
non banali. In principio infatti − se ogni esperimento fornisse i propri risultati in forma di probabilità, e queste probabilità fossero mutuamente compatibili − la via naturale da seguire sarebbe quella della funzione di verosimiglianza (likelihood function). In realtà invece, le funzioni di likelihood
sono raramente disponibili; più spesso vengono pubblicati i singoli dati coi
relativi errori, senza dar conto delle correlazioni, e insieme a questi un errore
di normalizzazione complessivo.
Con l’ausilio dei test statistici standard, risulta che molti dei dati pubblicati
hanno un χ2 per grado di libertà che eccede di molto 1, rendendo quindi quel
set sperimentale altamente improbabile in senso statistico.
D’altronde, se anche si considerassero solo esperimenti con valori plausibili
di χ2 , questi darebbero origine a PDF incompatibili tra loro.
É dunque chiaro come un approccio ideale di questo tipo fallisca nel caso
delle PDF: esse infatti sottendono una mole straordinaria di dati sperimentali, provenienti da esperimenti di tipo molto diverso, in intervalli cinematici anche lontanissimi. Vediamo come il metodo hessiano affronta questi
problemi.
3.3.1
Il metodo hessiano
L’applicazione del metodo hessiano al problema dell’analisi globale della
QCD non è immediata: per implementare la matrice hessiana nel calcolatore, infatti, occorre discretizzare le derivate, cosa non banale visto che alla
mole disparata di input sperimentali corrisponde una base di autovalori che
spanna molti ordini di grandezza.
La procedura che verrà descritta nel seguito [42] si basa fondamentalmente
su due approssimazioni: l’espansione al secondo ordine del χ2 globale intorno
al minimo, e la corrispondente espansione lineare della generica osservabile
X. La validità di questo metodo viene controllata tramite il metodo dei moltiplicatori di Lagrange, che permette di calcolare l’incertezza associata a X
senza il bias delle ipotesi precedenti. D’altronde esso può essere usato solo
come metodo di controllo perché è lento, dovendo essere ripetuto per ogni X
separatamente.
Il set di best fit
Chiamiamo {ai } l’insieme dei parametri che descrivono le distribuzioni partoniche, e che vogliamo ottimizzare. Essi saranno funzione di S, ovvero il
set di PDF. A ogni “esperimento” (più correttamente, a ogni data set scelto
per caratterizzare un’osservabile), associamo un χ2n , cosicchè il χ2 globale
70
3.3. METODO CTEQ PER IL FIT DELLE PDF
dell’analisi si definisce come:
χ2globale =
X
ωn χ2n .
(3.35)
n
I pesi ωn possono essere usati per dare (ωn = 0) o togliere enfasi ad un data
set rispetto agli altri (ωn < 1), allorché nel corso del fit si venga a palesare
per esempio la sua incompatibilità con gli altri. É chiaro che in questo modo
ci stiamo discostando dalla pura statistica gaussiana, e che la scelta dei pesi
è soggettiva e può introdurre un bias nei risultati; essa permette però di
includere quei data set che altrimenti sarebbero esclusi a priori.
Il singolo χ2n è dato, in funzione dei valori teorici Tni e sperimentali Dni , con
relative incertezze σni , da:
χ2n
=
¶2
Ne µ
X
Dni − Tni
(3.36)
σni
i=1
dove Ne sono i punti di ogni esperimento. Questa equazione si può generalizzare per includere gli errori complessivi di normalizzazione, o l’intera matrice
di correlazione ove disponibile. In particolare, assumiamo che per ogni esperimento e ci siano K sorgenti di errori correlati, specificate dalle deviazioni
standard {β1i , β2i , . . . , βKi }, oltre agli errori statistici σi e a quelli sistematici
non correlati ui , da cui αi2 = σi2 + u2i [41].
Definiamo un vettore a Ke componenti e una matrice Ke × Ke , tali che:
Bk =
Ne
X
βki (Di − Ti )
i=1
αi2
,
Akk0 = δkk0 +
Ne
X
βki βk0 i
i=1
αi2
Il χ2 risultante ha la forma:
)
(N
Ke
e
2
X
X X
(D
−
T
)
i
i
−
Bk (A−1 )kk0 Bk0
χ2 =
2
α
i
e
i=1
k,k0 =1
.
(3.37)
che ha il pregio di richiedere l’inversione di una matrice di dimensioni “solo”
Ke × Ke , con Ke . 10, piuttosto che Ne × Ne con Ne ∼ 300 come nell’approccio tradizionale.
Fin qui, non abbiamo ancora affrontato il problema dell’errore da associare
alle PDF. Grazie al metodo hessiano, possiamo esplorare la variazione del
χ2globale intorno al minimo, soffermandoci sulla regione rilevante:
∆χ2globale ≤ T 2
(3.38)
3.3. METODO CTEQ PER IL FIT DELLE PDF
71
dove T è la tolleranza. Fondamentale è tenere sotto controllo la dipendenza
dei risultati da T . Una dimensione plausibile per T è 10 ≤ T ≤ 15 [42].
Approssimazione quadratica della matrice hessiana
Espandiamo adesso in serie di Taylor χ2globale (S) intorno al suo minimo S0 ,
fermandoci all’ordine quadratico (nel seguito omettiamo il pedice “globale”):
X
(3.39)
∆χ2 = χ2 − χ20 =
Hij (ai − a0i )(aj − a0j )
i,j
dove χ20 ≡ χ2 (S0 ), mentre il minimo è localizzato in {a0j } ≡ {aj (S0 )}. Le
somme vanno fino a d, il numero dei parametri liberi.
La matrice hessiana è la matrice delle derivate seconde:
µ
¶
1 ∂ 2 χ2
Hij =
con yi,j ≡ ai,j − a0i,j .
2 ∂yi ∂yj {a0 }
j
Scriviamo ora l’equazione agli autovalori, con autovettori ortonormali:
X
X
Hij vjk = ²jk vk
con
vij vik = δjk .
(3.40)
j
i
Se riscaliamo le variabili nel modo seguente:
X
vik sk zk
ai − a0i =
(3.41)
k
e assumiamo s2k = ²−1
k , la simmetria della matrice hessiana ci permette di
semplificare la (3.39), che diventa:
∆χ2 =
2
X
zk2 ≤ T 2 .
(3.42)
k=1
Il χ2 varia all’interno di una ipersfera in d dimensioni nello spazio {zk }.
In due dimensioni, la trasformazione (3.41) si può rappresentare come in
Figura 3.11. Nella base originale, i parametri liberi sono ai e aj , e i punti rossi
disposti intorno al minimo S0 sono i set di errori delle PDF che ricaveremo
qui di seguito. Con la trasformazione dallo spazio {ai } allo spazio {zk },
la configurazione diventa quella di destra, in cui i contorni a χ2globale sono
circonferenze contenute entro quella massima, che ha raggio T .
Nello spazio dei parametri {ai }, la distanza dal minimo è, dalla (3.41) e dalla
72
3.3. METODO CTEQ PER IL FIT DELLE PDF
Figura 3.11: Illustrazione della procedura di diagonalizzazione della matrice
hessiana e di riscalamento degli autovettori cosı̀ ottenuti, adattata da [42].
proprietà (3.40) di ortonormalità degli autovettori:
d
d
d
X
X
X
zk2
(sk zk )2 =
(ai − a0i )2 =
²k
i=1
k=1
k=1
(3.43)
da cui segue che questa distanza è grande (direzione ripida nello spazio dei
parametri {ai }) per valori piccoli dell’autovalore ²k , e viceversa.
Nell’analisi CTEQ, gli autovalori si distribuiscono su sei ordini di grandezza.
Set di errori delle PDF e loro uso
I set di errori delle PDF, che sono d come i parametri liberi {ai }, si ottengono
definendo una distanza massima dal best fit, lungo ogni direzione d, sia in
senso positivo sia in senso negativo(7 ). Questa distanza massima, t, è un
altro valore, dopo la tolleranza T , che deve essere ottimizzato.
Cosı̀ facendo, si costruiscono, in corrispondenza del set di best fit S0 , i set di
errori S`± , che nella base riscalata zk hanno coordinate:
zk (S`± ) = ±t δk`
ovvero S1± ha coordinate (z1 , . . . , zd ) = (±t, 0, . . . , 0) e cosı̀ via. Quattro di
questi set, due in direzione positiva, due in direzione negativa, sono rappresentati in due dimensioni in Figura 3.11 come punti rossi.
Vediamo ora l’effetto sulla generica quantità derivata X. Dopo avere espanso
7
La definizione del senso dello spostamento ovviamente è una convenzione.
3.3. METODO CTEQ PER IL FIT DELLE PDF
73
il χ2globale (S) al secondo ordine intorno al suo minimo, facciamo una nuova
assunzione: poniamo che sia sufficiente espandere linearmente X intorno a
X(S0 ):
X ∂X
X ∂X
∆X = X − X0 ∼
yi =
zi
(3.44)
=
∂yi
∂zi
i
i
dove siamo passati alla base riscalata con la trasformazione (3.41). Poiché
il χ2 aumenta uniformemente in ogni direzione del piano {zk }, il gradiente
di X contenuto nella (3.44) ci dà la direzione di massima variazione di X
stessa, variazione che, in accordo con la (3.42), può arrivare fino a T .
In termini dei set di errori, la componente i del gradiente di X si può scrivere
come:
´
∂X
T ³
=
X(Si+ ) − X(Si− )
(3.45)
∂zi
2t
da cui, assumendo T = t, si arriva alla master formula per il calcolo delle
incertezze:
v
u d
X£
¤2
1u
∆X = t
X(Si+ ) − X(Si− ) .
(3.46)
2 i=1
Si assume che l’intervallo X ± ∆X rappresenti un livello di confidenza del
95%.
Reinserendo la tolleranza T e la massima distanza t, la (3.46) si legge:
v
u d
X£
¤2
Tu
∆X = t
X(Si+ ) − X(Si− )
2t i=1
quindi un cambiamento di T si propagherebbe linearmente su ∆X.
Applichiamo quanto appena visto a un√caso esemplare: la sezione d’urto
σW per la produzione di W al Tevatron ( s = 1.8 TeV), moltiplicata per la
larghezza di decadimento in elettroni. Espandiamo quindi σW linearmente
in serie di Taylor, e usiamo il seguente risultato, che corrisponde alla (3.46)
nelle variabili non scalate {yi }:
(∆X)2 = χ2globale
X ∂X
i,j
∂yi
(H −1 )ij
∂X
∂yj
(3.47)
dove troviamo l’inversa della matrice hessiana, che è la matrice degli errori.
La (3.47) ci dà l’andamento del χ2globale in funzione di X, in questo caso σW ·B.
In Figura 3.12 vediamo il confronto tra questo andamento e i punti ottenuti
col metodo dei moltiplicatori di Lagrange.
74
3.3. METODO CTEQ PER IL FIT DELLE PDF
Figura 3.12: χ2globale in funzione della sezione d’urto di produzione di W + al
Tevatron. Parabola: metodo hessiano, punti: metodo di Lagrange [42].
Essendo i punti e la parabola in ottimo accordo, concludiamo che il bias
introdotto dal metodo hessiano (approssimazione quadratica per χ2 , lineare
per X) non peggiora in modo evidente i risultati. Se scegliamo T = 10, e
quindi facciamo variare χ2globale da 1200 a 1300, otteniamo ∆σW /σW ≈ 3%.
3.3.2
L’analisi CTEQ 6
Le CTEQ 6 [41] sono le prime PDF a includere la trattazione sistematica
delle incertezze, sulla base del metodo hessiano appena discusso. Inoltre,
per la prima volta si tiene conto della correlazione nei dati sperimentali. In
complesso il fit CTEQ 6 comprende circa 1800 dati da 15 esperimenti (o più
correttamente data set), per un χ2 totale di 1954 su 1811 punti.
Parametrizzazione in input
Tutti gli elementi di matrice che entrano nel fit sono calcolati a Next to
Leading Order, nello schema MS, con partoni a massa nulla.
La costante di accoppiamento αs è uguale alla media riportata nel Particle
Data Group [2], αs (MZ ) = 0.118. Le masse dei quark pesanti entrano in
gioco solo attraverso le soglie alle quali ne diventa permessa la creazione.
La scala di partenza per l’evoluzione è Q0 = 1.3 GeV = Mc .
La parametrizzazione scelta è la seguente:
xf (x, Q0 ) = A0 xA1 (1 − x)A2 eA3 x (1 + eA4 x)A5
(3.48)
per quattro combinazioni indipendenti: uv = u − u, dv = d − d, g e u + d.
Come anticipato in (3.21), si assume che il mare sia simmetrico in tutte le sue
componenti, in quanto generato negli splitting dei gluoni in quark-antiquark,
3.3. METODO CTEQ PER IL FIT DELLE PDF
75
e quindi:
s = s = 0.2(u + d)
a Q0
(3.49)
dove si è aggiunta anche la dipendenza della componente strange dalla distribuzione del mare leggero, un’ipotesi obbligata in [41] dalla mancanza di
dati sperimentali sufficienti per costringere lo strange in modo autonomo. Il
coefficiente 0.2 è stimato dai fit precedenti.
Sei parametri liberi per ognuna delle quattro combinazioni sono in alcuni casi
più di quelli necessari, ed è quindi possibili fissarli nell’evoluzione.
Inoltre, per distinguere le distribuzioni u e d, si parametrizza il loro rapporto:
d(x, Q0 )/u(x, Q0 ) = A0 xA1 (1 − x)A2 + (1 + A3 x)(1 − x)A4 .
Risultati
In totale, i parametri liberi che modellano le PDF a Q0 sono 20, quindi, come
spiegato nella Sezione precedente, questo produce 2d = 40 set di errori. La
tolleranza assunta è T = 10. In Figura 3.13 vediamo le distribuzioni di best
fi (CTEQ 6M) alla scala Q = 2 GeV, prossima a quella di partenza, e dopo
l’evoluzione a Q = 100 GeV.
Figura 3.13: Distribuzioni CTEQ 6 a Q = 2 GeV e Q = 100 GeV [41] .
In Figura 3.14 vediamo le bande di incertezza per u e d risultanti dal rapporto
col set di best fit, alla scala Q2 = 10 GeV2 .
La regione in verde rappresenta l’inviluppo di tutte le possibili distribuzioni
consistenti coi dati, entro la tolleranza T , indipendentemente per ogni x: ciò
significa che una distribuzione estrema per una data x in generale non lo sarà
per le altre.
76
3.3. METODO CTEQ PER IL FIT DELLE PDF
Figura 3.14: Bande di incertezza per u e d a Q2 = 10 GeV2 . La linea solida
corrisponde al best fit CTEQ 5M1 e la linea punteggiata a MRST2001 [41] .
Vediamo che la distribuzione di u è quella nota con più precisione, dal momento che la sezione d’urto di Deep Inelastic Scattering con scambio di un
fotone dipende quadraticamente dalla carica del fermione.
La distribuzione di d ha bande di incertezza più larghe, soprattutto a
grande x dove la differenza tra i sapori leggeri ha meno vincoli sperimentali.
In Figura 3.15 abbiamo la distribuzione gluonica, in assoluto quella più
incerta, nonostante i nuovi dati appositamente inclusi in questa analisi − DIS
di precisione e misura inclusiva di jet. L’incertezza è dell’ordine del ±15%
per x . 0.2, mentre aumenta rapidamente per x maggiori.
Figura 3.15: Bande di incertezza per g a Q2 = 10 GeV2 . La linea solida
corrisponde al best fit CTEQ 5M1 e la linea punteggiata a MRST2001 [41] .
Nelle Figure precedenti le bande di incertezza sono sovrapposte con le curve
di best fit MRST2001 e CTEQ 5. In Figura 3.13 vediamo che le distribuzioni
3.3. METODO CTEQ PER IL FIT DELLE PDF
77
dei quark leggeri sono in buon accordo (si è raggiunta dunque una stabilità
in questo settore), mentre per il gluone la situazione è più problematica.
Per quanto riguarda l’analisi MRST2001, pur avendo gli stessi input sperimentali della CTEQ 6, bisogna considerare le seguenti differenze: diversa
definizione dei data set, diversi tagli cinematici, diversa parametrizzazione,
diversa implementazione della correlazione e dello schema di massa per i
quark pesanti.
CTEQ 6.1
Le CTEQ 6.1 [53] rappresentano la seconda versione delle CTEQ 6, modificate per includere i dati di produzione dei jet al Tevatron, ovvero la regione
a più alto momento trasferito allora accessibile, di importanza fondamentale
per la ricerca di Nuova Fisica.
La principale differenza tra 6 e 6.1 sta nella distribuzione gluonica. Infatti, il processo che domina la produzione di jet ad alta ET è lo scattering
quark-(anti)quark, ma essendo le distribuzioni dei quark leggeri già ben
costrette, solo la distribuzione gluonica ha la flessibilità di poter cambiare
significativamente nella regione a grande x.
3.3.3
Effetti di massa dei quark: CTEQ 6.5 e 6.6
L’approccio tradizionale alla pQCD è quello di considerare tutti i partoni a
massa nulla: questo formalismo, denominato Zero Mass (ZM) [68], è soddisfacente però solo per Q À Mi , ovvero solo quando la scala di energia tipica
del processo è molto maggiore di tutte le masse coinvolte.
Ormai dieci anni fa è stata dimostrata la fattorizzabilità della pQCD con
partoni massivi [25], rendendo ineludibile l’evoluzione del modello Zero Mass
in un modello General Mass (GM). Ci sono due modi per introdurre gli effetti
di massa: fissare o variare il numero dei flavour attivi.
Riprendiamo le funzioni di struttura di Deep Inelastic Scattering, scritte in (3.22) e in (3.23), e ricordiamone la forma generica, aggiungendo la
dipendenza da Mi :
µ
¶
X Z 1 dz
X
x Q Mi
λ
2
a
λ
a
λ
F (x, Q ) =
f ⊗ ω̂a =
f (z, µ) ω̂a
, ,
, αs (µ) (3.50)
z
z µ µ
ξ
a
a
dove i coefficienti hard ω̂aλ , calcolabili perturbativamente, corrispondono ai
(V i)
delle (3.22) e (3.23). Vogliamo in questo frangente sottolineare la loCi
ro natura di coefficienti di Wilson, ovvero di coefficienti che fattorizzano la
parte calcolabile analiticamente nell’espansione dell’operatore F λ . L’indice
78
3.3. METODO CTEQ PER IL FIT DELLE PDF
λ può rappresentare sia l’indice tensoriale {1, 2, 3}, sia l’elicità (Destra, Sinistra, Longitudinale); nello schema GM abbiamo cinque funzioni di struttura
indipendenti, perchè dobbiamo aggiungerne due che violano la chiralità.
In (3.50) abbiamo assunto µR = µF ; il limite inferiore dell’integrale è usualmente assunto ξ = x di Bjorken nello schema ZM, ma questo dovrà essere
riconsiderato in GM.
Il concetto fondamentale è che quanti siano i partoni attivi a su cui sommare,
dipende dallo schema di fattorizzazione scelto per definire le PDF.
Nello schema fixed flavour number (FFNS), la somma corre su a =
g, u, u, d, d, . . . fino a nf , che è tenuto fisso (tipicamente uguale a 3 o 4).
Per i < nf i partoni sono considerati a massa nulla. Questo approccio fallisce perchè, all’ordine m, i coefficienti di Wilson ω̂aλ contengono termini del
tipo αsm lnm (Q/Mi ), con i > nf , che diverge per Q > Mi .
Lo schema che risolve queste inconsistenze è il variable flavour number
(VFNS): è uno schema composito, poiché combina diversi schemi FFNS, in
punti di match che corrispondono alle soglie di produzione dei quark pesanti,
µi = Mi . Cosı̀, per Q < µi abbiamo nf quark attivi, mentre per Q > µi i
quark attivi diventano nf + 1. La teoria è allora libera dai grandi logaritmi
prima discussi, e quindi rimane corretta a tutte le scale µ À ΛQCD .
Il formalismo GM include inoltre numerosi effetti cinematici dovuti all’inclusione in (3.50) dei quark pesanti.
Effetti cinematici dovuti ai quark pesanti
Per funzioni di struttura inclusive, la somma in (3.50) contiene, per ogni
flavour a dello stato iniziale, una somma implicita sui flavour b dello stato
finale:
X
ω̂ab
ω̂aλ =
b
dove ω̂ab è la sezione d’urto perturbativa con cui il quark iniziale a produce il
quark finale b. Tra i due indici c’è una differenza importante: mentre la variazione di a è dettata dallo schema di fattorizzazione scelto (per esempio da 1
a 3 se siamo in 3-VNFS), nello stato finale si somma su tutti i sapori che possono essere fisicamente prodotti, imponendo che siano on-shell. Se si adotta
lo schema ZM VFNS, la distinzione tra stato iniziale e finale diventa confusa,
in quanto il numero di flavour attivi nf (µ) viene incrementato superando la
soglia, ma si ignorano gli altri effetti di cinematica e di dinamica.
Se invece correttamente si usa uno schema GM VFNS, bisogna considerare
che, anche nel regime a 3 sapori, il charm e il bottom possono essere prodotti
se vi è energia sufficiente nel centro di massa, per esempio a LO via W + +
d/s → c oppure W − + u/c → b, e a NLO via i processi di gluon-fusion come
3.3. METODO CTEQ PER IL FIT DELLE PDF
79
W + + g → s + c oppure γ + g → cc (bb).
I vincoli cinematici che si devono considerare, per esempio in un processo di
Deep Inelastic Scattering su un nucleone MN , sono del tipo:
X
(3.51)
W − MN >
Mf
f
dove al membro destro abbiamo la massa totale dello stato finale, mentre W
è l’energia nel centro diP
massa. Se però imponessimo questo vincolo aggiungendo una θ(W −MN − f Mf ) al membro destro della (3.50), produrremmo
delle indesiderabili discontinuità.
L’approccio migliore è quello del rescaling. Consideriamo per esempio la produzione di charm a LO tramite un processo di corrente carica, W + s → c.
Come dimostrato in [54], imponendo che il charm sia on-shell, la variabile
appropriata per la frazione di impulso portata dallo strange iniziale, non è la
x di Bjorken, ma piuttosto χ = x(1 + Mc2 /Q2 ), dove χ è appunto la variabile
di rescaling.
Se consideriamo invece la produzione tramite corrente neutra, γ/Z + c → c,
dobbiamo notare che questo processo può avvenire solo se nello stato finale
è presente un c, la cui presenza si rivela solo attraverso il vincolo cinematico
che impone. Di conseguenza, l’integrale in (3.50) deve essere effettuato per
χc < z < 1, dove:
Ã
!
P
µ
¶
( f Mf )2
4Mc2
χc = x 1 + 2
=x 1+
.
(3.52)
Q
Q2
L’effetto dovuto al rescaling può essere significativo se f a (x, µ) è una funzione
ripida di x nell’intorno considerato. Di conseguenza, tale effetto si manifesta
soprattutto a piccole x: questa è la caratteristica principale del fit CTEQ 6.5
[65].
In Figura 3.16 riportiamo le distribuzioni di best fit (linea continua) ottenute per u, d e g, alla scala µ = 2 GeV, normalizzate alle corrispondenti
distribuzioni delle CTEQ 6.1M, di cui l’area verde rappresenta l’incertezza.
Vediamo che per x < 10−3 le distribuzioni CTEQ 6.5 sono fuori dalla zona
permessa di circa un fattore due, e fino al 20% nel picco.
Questa caratteristica non dipende dalla scelta della parametrizzazione (linee
tratteggiate), ed è condivisa da tutti gli autovettori.
Considerato che la crescita tipica dei quark leggeri è δf ∼ 3% a piccole x,
le luminosità partoniche, Lqi qj (x1 , x2 , Q) = qi (x1 , Q)q j (x2 , Q), crescono di un
fattore 2δf ∼ 6%. Questo aumento è dunque anche quello aspettato per
le sezioni d’urto, ottenute come convoluzione della luminosità partonica coi
80
3.3. METODO CTEQ PER IL FIT DELLE PDF
Figura 3.16: Distribuzioni CTEQ 6.5M per u, d e g (linee continue) normalizzate
a CTEQ 6.1M. Le bande di incertezza sono quelle dell’analisi CTEQ 6.1 [65].
relativi coefficienti di Wilson. Questo vale in particolare per la produzione
di W e Z, che avviene a piccola x (Sezione 3.1.2):
√
x ∼ MW,Z / s ∼ 10−3 ÷ 10−2
per rapidità centrali.
In Figura 3.17 vediamo le sezioni d’urto per questi e altri processi, normalizzate alle CTEQ 6.6M che, come vedremo tra poco, sono analoghe alle CTEQ
6.5 per la distribuzione dei quark leggeri, mentre differiscono per lo strange
e possono includere una componente intrinseca di charm, indicata in Figura
come IC-Sea. La linea tratteggiata corrisponde al NNLO, ordine al quale la
sezione d’urto è attesa diminuire; come si vede, la differenza dovuta all’inclusione degli effetti di massa (shift 6.1 ÷ 6.6) è maggiore della correzione
dovuta all’inclusione dell’ordine αs2 , tanto più se si considera una componente
forte di charm intrinseco (indicata dal triangolo).
Indipendenza del quark strange
Le PDF CTEQ 6.6 [35] rappresentano un ulteriore passo avanti rispetto alle
CTEQ 6.5, in quanto alla trattazione nello schema GM ACOTχ degli effetti
di massa, uniscono una nuova parametrizzazione del quark strange. Fino a
questo momento si è sempre imposto (equazione (3.49)) che:
1
s(x) = s(x) = k (u(x) + d(x)) .
2
Dal momento che i dati più recenti DIS con due muoni (νA → µ+ µ− X)
provano la distribuzione dello strange attraverso il processo sW → c, la
precedente imposizione diventa non necessaria. La conoscenza sperimentale
3.3. METODO CTEQ PER IL FIT DELLE PDF
81
Figura 3.17: Sezioni d’urto a NLO, con gli errori stimati a LHC, per le CTEQ
6.6 (quadrati) e le CTEQ 6.1 (stelle). I triangoli indicano l’inclusione di una
componente intrinseca forte di charm [35].
è d’altronde debole, e permette di parametrizzare la distribuzione solo per
x > 10−2 ; questo suggerisce l’introduzione di due nuovi parametri liberi, in
parallelo con la richiesta s(x) = s(x), portando cosı̀ il numero di autovettori
da 20 a 22, per cui le CTEQ 6.6 comprendono 44 set di errori.
Il rapporto stranezza-non stranezza a piccole x:
Rs = lim
x→0
s(x, µ0 )
u(x, µ0 ) + d(x, µ0 )
rimane non vincolato dai dati, ma considerazioni generali fanno supporre che
sia dell’ordine di 1. Si adotta la seguente parametrizzazione:
s(x, µ0 ) = A0 xA1 (1 − x)A2 P (x)
(3.53)
dove A1 è posto uguale al corrispondente parametro delle distribuzioni u e d.
La funzione P (x) è una funzione regolare che ha il compito di tenere Rs entro
un limite ragionevole (in particolare 0.63 < Rs < 1.15), ed è la stessa per
tutti i set di errori. Questa funzione incognita rappresenta una importante
fonte di incertezza teorica, maggiore di quella derivata dall’analisi hessiana.
In Figura 3.18 vediamo la distribuzione risultante per s = s, a due scale;
in verde la banda di incertezza, mentre la linea continua è il best fit CTEQ
6.1, che a piccole x, come ci aspettiamo, è fuori dalla banda di incertezza.
Componente non perturbativa di charm
Come sottolineato in [27], la massa del charm (Mc = 1.3 GeV) è a metà
strada tra le scale soft e hard: è difficile dunque pensare di poter trattare
82
3.3. METODO CTEQ PER IL FIT DELLE PDF
Figura 3.18: Distribuzione per s = s, a µ = 3.16 GeV e µ = 100 GeV; in verde la
banda di incertezza CTEQ 6.6, la linea continua è il best fit CTEQ 6.1 [35].
il charm alla stregua degli altri partoni pesanti, in modo cioè che sia generato radiativamente in teoria delle perturbazioni. D’altronde, sebbene Mc
sia maggiore di ΛQCD , è confrontabile con la massa del nucleone, che viene
usualmente considerata una quantità non perturbativa.
Mentre in molti modelli non perturbativi si predice una componente
intrinseca di charm (IC) diversa da zero, l’analisi fenomenologica globale,
condotta fino alle CTEQ 6.5, ipotizza sempre e soltanto:
c (x, µ0 ) = c (x, µ0 ) = 0 .
Questo evidente contrasto è reso tanto più stridente, quanto più si consideri
che la precedente prescrizione è definita alla scala specifica µ0 , e che al tempo
stesso c (x, µ) ha una salita ripida vicino alla soglia: i risultati saranno in
questo modo fortemente dipendenti dalla scelta di µ0 .
Per permettere di studiare gli effetti di una IC, le PDF CTEQ 6.6 contengono
quattro set in cui essa viene data in input, in due diverse parametrizzazioni
(light-cone (BHPS) e sea-like(8 )), entrambe con IC moderata (il charm porta
l’1% dell’impulso del nucleone a µ0 = Mc ) o forte (porta il 3.5%). Questa
frazione è definita come:
Z 1
dx x[c(x) + c (x)]
hxic+c =
0
Come mostrato in Figura 3.19, la componente intrinseca causa un forte in8
Il modello sea-like è puramente fenomenologico; in esso si assume che alla scala iniziale
la distribuzione del charm sia proporzionale a quella del mare leggero, ovvero c(x) = c(x) ∝
u(x) + d(x), con un fattore di soppressione dovuto alla massa.
3.3. METODO CTEQ PER IL FIT DELLE PDF
83
nalzamento della distribuzione a grandi x nel modello sea-like, a x intermedie
nel modello light-cone.
Figura 3.19: Distribuzione CTEQ 6.6 per c = c, a µ = 100 GeV; in verde la
banda di incertezza CTEQ 6.6 col charm generato per via radiativa, mentre le
linee corrispondono all’assunzione di una componente intrinseca [35].
Lo studio descritto in [27], conclude che per x . 0.01 i dati disponibili non
danno alcuna informazione sulla presenza di una IC, mentre per x maggiori si
può escludere con un livello di confidenza del 90% l’esistenza di hxic+c > 0.02.
A LHC si potranno porre nuovi vincoli sulla componente intrinseca di
charm. Per esempio, il processo partonico g + c → γ/Z + c ne dipende
direttamente; la segnatura sperimentale consiste in una Z più un jet prodotto
dal charm. Inoltre, la IC si potrà rivelare in tutti i processi che prevedono
un charm a grande x, in particolare la produzione di Higgs carico.
3.3.4
Correlazioni
É interessante stabilire se un’osservabile condivida gradi di libertà dovuti alla
parametrizzazione non perturbativa delle PDF con una quantità precisamente misurata del Modello Standard, per esempio σW,Z .
Per studiare questa correlazione, torniamo all’analisi delle incertezze hessiane
fatta in Sezione 3.3.1. La generica variabile X dipende dalle PDF tramite i
parametri {ai }. La componente i del gradiente di X può essere approssimata
come in (3.45):
1
∂X
(+)
(−)
= (Xi − Xi )
∂ai
2
84
3.3. METODO CTEQ PER IL FIT DELLE PDF
(±)
dove Xi sono i valori di X calcolati lungo le due direzioni dell’autovettore i,
→
alla distanza data dalla tolleranza |∆−
a | = T . Da questa forma del gradiente,
si arriva come abbiamo visto alla master equation (3.46) per l’incertezza
indotta su X dalle PDF.
→
Prendiamo adesso una seconda variabile, Y (−
a ), di cui vogliamo studiare la
−
→
correlazione con X( a ). Possiamo proiettare l’ipersfera (3.42) nel piano dei
→
−
−
→
gradienti ∇X e ∇Y , ipersfera che è descritta, data la tolleranza, nel piano
dei parametri {zk } (ovvero gli {ai } riscalati come in (3.41)).
La proiezione risulta in una circonferenza di raggio 1, che nel piano XY si
descrive con equazioni parametriche alla Lissajous:

 X = X0 + ∆X cos θ
(3.54)

Y = Y0 + ∆Y cos(θ + φ)
con 0 ≤ θ ≤ 2π, ∆X e ∆Y uguali ai moduli dei rispettivi gradienti, mentre
→
X0 e Y0 sono calcolati in corrispondenza del best fit −
a 0 . La correlazione è
quantificata dall’angolo φ compreso tra i gradienti nello spazio dei parametri
{ai }, con:
−
→
−
→
N ³
´³
´
X
∇X · ∇Y
1
(+)
(−)
(+)
(−)
cos φ =
Xi − Xi
Yi − Yi
. (3.55)
=
∆X ∆Y
4 ∆X ∆Y i=1
Se cos φ = 1, il gradiente di X è parallelo al gradiente di Y nello spazio dei
parametri delle PDF: una variazione degli {ai } ha un effetto proporzionale
sulle due variabili; si ha quindi correlazione massima.
Viceversa, se cos φ = −1 si ha correlazione inversa (all’aumentare di X, Y
diminuisce), mentre se cos φ = 0 non si ha correlazione.
Se riscaliamo le unità in modo da eliminare la dipendenza da ∆X e da ∆Y ,

 δX = ∆X cos θ
, con ∆X ≡ 1
(3.56)

∆X
δY = (Y − Y0 ) ∆Y = ∆X cos(θ + φ)
l’ellisse ha inclinazione fissa (π/4 se cos φ > 0), per cui la correlazione si
esplica nella sua larghezza: per cos φ = ±1, l’ellisse si riduce a una linea, per
cos φ = 0 a una circonferenza.
Vedremo nel Capitolo 5 quale sia l’impatto della correlazione sul calcolo
dell’accettanza, ora invece soffermiamoci sui risultati ottenuti in [35] per le
sezioni d’urto σW,Z a LHC. In Figura 3.20(a) mostriamo la correlazione tra
σZ e σW : le due ellissi sono shiftate l’una rispetto all’altra e non si sovrap-
3.4. NEURAL NETWORK PDF
85
pongono. L’incremento del valore centrale per le CTEQ 6.6M rispetto alle
CTEQ 6.1M è del ∼ 6%, come ci aspettiamo per l’inclusione degli effetti di
massa. Nella Figura sono mostrati anche i punti e le curve ottenuti variando
la componente intrinseca di charm e la parametrizzazione dello strange, come discusso nella Sezione precedente. Vediamo che l’ellisse delle CTEQ 6.1
è ridotta quasi a una linea, quindi si ha alta correlazione tra le due sezioni d’urto: vincolandone una, si vincola contemporaneamente anche l’altra.
Questa correlazione si indebolisce passando alle CTEQ 6.6.
(a) σZ vs σW .
(b) σW + vs σW − .
Figura 3.20: Correlazioni tra le sezioni d’urto a LHC, per vari set di PDF [35].
Per quanto riguarda la dipendenza dalla carica della produzione di W , essa
è esplorata tramite la correlazione tra σW + e σW − , come vediamo in Figura
3.20(b). Le predizioni più recenti delle altre collaborazioni (MSTW’06, Alekhin’02, AMP’06), tutte a NNLO, sono incluse nell’ellisse delle CTEQ 6.6,
mentre il confronto coi set precedenti mostra discordanze più importanti.
L’inclusione di una componente intrinseca di charm provoca un aumento in
entrambe le sezioni d’urto.
3.4
Neural Network PDF
Nella Sezione precedente abbiamo visto come la collaborazione CTEQ affronti i problemi insiti in un’analisi globale dei dati di QCD − incompatibilità dei
dati di input, correlazioni, vasto numero di parametri che variano su ampi
intervalli − con l’ausilio del metodo hessiano, assumendo una parametrizzazione a priori e avvalendosi del criterio della tolleranza.
86
3.4. NEURAL NETWORK PDF
Sebbene l’accordo con i risultati delle altre collaborazioni (MSTW, Alekhin,
ecc.) sia soddisfacente, esso non può essere quantificato, dal momento che i
risultati sono frutto di modelli diversi.
La collaborazione NNPDF parte da un approccio diverso, grazie all’ausilio
delle reti neurali (NN), e giunge a un set di PDF meno affetto da bias di quelli
precedenti.
In generale, una rete neurale artificiale è un modello di calcolo parallelo,
costituito da numerose unità elaborative omogenee (i neuroni ), interconnesse
mediante collegamenti di diversa intensità.
Ogni neurone artificiale riceve degli input, ne esegue la somma pesata coi
valori delle interconessioni, per poi farne una trasformazione con una funzione
non lineare. L’output del primo livello di neuroni viene passato come input
al livello successivo.
Uno degli aspetti fondamentali è che la rete deve essere addestrata tramite
un algoritmo di apprendimento automatico (training).
3.4.1
Struttura generale di una rete neurale
La rete neurale utilizzata dalla collaborazione NNPDF ([3], [17]) è del tipo
feed-forward a multistrato, come quella rappresentata in Figura 3.21. Gli
strati tra l’input e l’output vengono chiamati strati nascosti, e il loro numero
deve essere ottimizzato. Con due strati nascosti, si riduce il rischio di bias
grazie a una ridondanza di informazione: ciò risulta in 185 parametri liberi,
ovvero 37 per ognuna delle 5 combinazioni indipendenti di PDF cosı̀ ottenute.
Figura 3.21: Struttura generale di una rete neurale feed-forward [12].
Chiamando l = 2, . . . , L l’indice dello strato, e i = 1, . . . , nl l’indice del
neurone nello strato l, abbiamo che l’output ξi dell’i-esimo neurone è dato
dalla funzione non lineare g:
³ ´
(l)
(l)
(3.57)
ξj = g hi
3.4. NEURAL NETWORK PDF
87
il cui argomento è costituito dall’output degli strati precedenti:
nl−1
(l)
hi
=
X
(l)
(l−1)
ωij ξj
− θi .
(3.58)
j=1
I parametri ωij (pesi) e θi (parametri di soglia, o di bias) sono liberi e vengono
determinati durante la procedura di training. I pesi ωij descrivono l’intensità
della connessione tra il neurone i e il neurone j. La funzione g(x) (detta
funzione di attivazione) è una sigmoide negli strati interni,
g(x) =
1
,
1 + e−x
(3.59)
mentre diventa lineare, g(x) = x, nell’ultimo strato.
Training
Il cuore della rete neurale è rappresentato dall’algoritmo di training, che
permette di selezionare i valori dei pesi e delle soglie in modo da riprodurre,
per ogni input, l’output aspettato (pattern input-ouput).
Per ogni coppia (ω, θ) definiamo la funzione di errore:
np
n
L
1 XX
(oi (xA ) − ziA )2
E [ω, θ] ≡
2 A=1 i=1
(3.60)
dove np è il numero dei dati, ovvero dei pattern; z è l’output ottenuto con la
rete neurale, mentre o(x) è quello aspettato. La variazione dei pesi e delle
soglie è quantificata dalla funzione di errore:
(l)
δωij = −η
∂E
(l)
∂ωij
,
(l)
δθi = −η
∂E
(l)
∂θi
(3.61)
dove η fissa la velocità della discesa, e quindi dell’apprendimento. Per lo
strato più esterno definiamo la funzione:
´
³
(L)A
(L)A
[oi (xA ) − ziA ] .
(3.62)
= g 0 hi
∆i
Nel caso delle PDF, la (3.60) viene sostituita dalla forma generale che tiene
conto delle correlazioni tra i dati, riassunte nella matrice di covarianza VAB :
88
3.4. NEURAL NETWORK PDF
E[ω, θ] ≡
np
nL
X
X
(oi (xA ) − ziA ) VAB (oi (xB ) − ziB ) .
(3.63)
A,B=1 i=1
La procedura che si segue è la seguente: si inizializzano casualmente i pesi,
(L)A
le soglie ed η, si dà come input un pattern di dati xA , si calcola ∆i
per lo strato di output, dopodiché si propaga l’errore indietro agli strati
(l)
(l)
precedenti. In questo modo si ottengono δωij e δθi tramite la (3.61), e
quindi si ricalcolano pesi e soglie. Questa catena viene iterata finché non si
raggiunge la convergenza, definita tramite un criterio apposito.
3.4.2
Applicazione al caso delle PDF
La teoria delle reti neurali è stata applicata dalla collaborazione NNPDF
per ottenere un ensemble di 1000 set di PDF, distribuite gaussianamente.
Possiamo distinguere due fasi nella procedura seguita.
1. Si prendono Nset set di dati sperimentali, per un totale di Ndat misure. Da questi si ricava una distribuzione di probabilità, con la quale
si genera un ensemble Monte Carlo di Nrep repliche dei dati. Il numero di repliche dovrà essere tale che da esse si possano riprodurre
le informazioni statistiche dei dati originali, al livello di accuratezza
desiderato.
2. A partire da ogni replica, si costruisce una base di PDF indipendenti.
Questa viene poi evoluta dalla scala iniziale, Q20 , alla scala in cui sono
disponibili i dati, Q2 . Infine si fa la convoluzione delle PDF cosı̀ ottenute con gli appositi coefficienti perturbativi per tornare alle osservabili
fisiche − per esempio si convolve con le sezioni d’urto partoniche se
vogliamo ottenere la sezione d’urto adronica.
Alla fine di questa procedura, si ottengono dunque Nrep basi di PDF.
La minimizzazione della figura di merito viene effettuata con una tecnica
detta algoritmo genetico, che, per ogni replica k, si può riassumere cosı̀:
• Lo stato della rete neurale è descritto dal vettore:
ω = (ω1 , . . . , ωNpar )
(l)
le cui componenti ωi corrispondono ai pesi ωij e alle soglie θi , introdotti
in (3.58). Il vettore ω viene copiato Nmut volte.
3.4. NEURAL NETWORK PDF
89
• La minimizzazione avviene in step denominati generazioni. A ogni
generazione, un elemento ωk , scelto a caso, viene mutato applicandogli
la trasformazione:
¶
µ
1
ωk → ωk + η r −
2
dove 0 ≤ r ≤ 1 è un numero random, ed η è un parametro libero
dell’algoritmo.
• In seguito alla mutazione, si calcola la funzione di errore (3.63), e si
seleziona, dai Nmut totali, un set di vettori ω in corrispondenza dei
quali E[ω] è abbastanza piccola.
É molto importante il criterio che si sceglie per fermare l’apprendimento.
Assumiamo infatti che i dati comprendano delle fluttuazioni statistiche, che
devono essere separate dal segnale. Per ogni replica, i dati vengono dunque
divisi in due parti: il set di validazione e il set di training. Il fit viene effettuato sui dati nel set di training, ma monitorando anche il χ2 nel set di
validazione. La minimizzazione viene fermata quando la figura di merito nel
set di validazione si deteriora, ciò significando che si sta cominciando a fittare
le fluttuazioni statistiche dei dati.
Infine, una volta calcolate le PDF di best fit da ogni replica, se ne estrae la media, e questa media viene direttamente confrontata con gli input sperimentali,
e ad essa si associa come incertezza la deviazione standard gaussiana.
Risultati
Le NNPDF sono ottenute nello schema a massa nulla per i partoni (ZM) e
condividono le limitazioni delle CTEQ 6.1, discusse in Sezione 3.3.2: le componenti strange e non strange del mare sono proporzionali, i sapori pesanti
sono generati radiativamente a partire dalla scala iniziale Q0 = (2 GeV)2 ,
non vi è componente intrinseca di charm. L’analisi è condotta a Next to
Leading Order.
Le combinazioni di PDF indipendenti sono cinque:
PNf
(qi (x) + q i (x)),
• la distribuzione di singoletto, Σ(x) = i=1
• il gluone, g(x),
• la distribuzione di valenza, V (x) =
PNf
i=1 (qi (x)
− q i (x))
• il tripletto di non-singoletto, T3 (x) = (u(x) + u(x) − d(x) − d(x),
• l’asimmetria del mare, ∆s (x) = d(x) − u(x) = 12 (V3 (x) − T3 (x)).
90
3.4. NEURAL NETWORK PDF
Il numero di repliche è ottimizzato a Nrep = 1000, ma viene fornito anche un
gruppo ristretto di Nrep = 100, utile per l’uso nei generatori Monte Carlo, e
che in effetti è stato usato nelle nostre simulazioni. La precisione ottenibile
−1/2
scala come Nrep , e in [3] si stima che in questo modo si possa raggiungere
una precisione dell’ 1% sul valore centrale.
Insieme a ogni gruppo di repliche, viene fornito un set centrale (set 0), che
contiene la media degli altri, e che può essere usato come set di best fit.
In Figura 3.22 vediamo le distribuzioni di singoletto e del gluone, per il set
di base di NNPDF1.0 [3] a Q0 , in scala lineare e logaritmica. Esse sono
messe a confronto con i risultati delle altre collaborazioni: CTEQ 6.5 [65],
MRST2001E [32] e Alekhin02 [45]. In questi plot le bande di incertezza
corrispondono tutte a una deviazione standard. Da notare che sia le CTEQ
6.5 sia le MRST2001E contengono quark pesanti dotati di massa.
Figura 3.22: Distribuzioni risultanti dall’analisi NNPDF [3], per il singoletto (a
sinistra) e per il gluone (a destra).
Le bande di incertezza di NNPDF1.0 sono le più larghe, soprattutto nelle
regioni dove non sono disponibili dati sperimentali, per esempio a piccola e
grande x per il gluone; questo anche perché le altre collaborazioni usano dati
non inclusi nell’analisi delle NNPDF. Per quanto riguarda le distribuzioni di
best fit, invece, esse sono sempre compatibili.
3.4.3
Incertezza sulle quantità derivate
In [3] viene discusso come associare l’incertezza a una quantità derivata dalle
NNPDF, ovvero a una qualsiasi funzione F[{q}]. Dato l’insieme di Nrep set
di repliche, la media di F è semplicemente:
Nrep
1 X
F[{q (k) }]
hF[{q}]i =
Nrep k=1
(3.64)
3.5. GENERATORI MONTE CARLO
91
mentre la deviazione standard:
Ã
σF =
Nrep
¢2
1 X¡
F[{q (k) }] − hF [{q}]i
Nrep k=1
!1/2
.
(3.65)
Il set 0 delle PDF è invece dato dalla media tra le Nrep distribuzioni:
q
(0)
Nrep
1 X (k)
q
≡ hqi =
Nrep k=1
(3.66)
per cui evidentemente risulta:
hF[{q}]i 6= F[{q (0) }]
(3.67)
a meno che F non dipenda linearmente dalle PDF, che evidentemente non è
il caso né per le sezioni d’urto né tantomeno per le accettanze, per le quali
va sommato l’effetto dovuto ai tagli cinematici.
In conclusione, quindi, la (3.64) deve essere usata per determinare il valore
centrale di F, mediando solo su Nrep set, escludendo cioè il set 0.
3.5
Generatori Monte Carlo
Per simulare e studiare l’accettanza geometrica, mi sono avvalsa dei generatori Monte Carlo; in questa Sezione ne discuterò brevemente la struttura,
soffermandomi in particolare sui generatori parton shower, i quali ambiscono
a fornire una descrizione completa dell’evento. Essi includono infatti la radiazione di stato iniziale e quella di stato finale, oltre che modelli fenomenologici
per l’adronizzazione, in modo da ricreare con la massima verosomiglianza lo
spettro delle particelle osservato negli esperimenti ai collider.
3.5.1
Fattori di forma di Sudakov
Consideriamo l’evoluzione di un partone di stato iniziale, rappresentata in
Figura 3.23: un quark porta inizialmente la frazione di impulso x0 e ha bassa
virtualità space-like, t0 = −M 2 . Prima di giungere al punto di interazione, va
incontro a n emissioni di gluoni, tipicamente a piccolo angolo, cosicché il suo
impulso diminuisce, mentre il valore assoluto della sua virtualità aumenta.
La massima |t| raggiungibile è uguale al quadrimomento Q2 scambiato nella
collisione protone-protone.
92
3.5. GENERATORI MONTE CARLO
Figura 3.23: Evoluzione di un partone di stato iniziale da (x0 , t0 ) a (xn , Q2 ), via
n emissioni di gluoni a piccolo angolo [43].
Come abbiamo visto in Sezione 3.2.2, questa evoluzione è descritta dall’equazione DGLAP (3.27), che dipende dalle funzioni di splitting Pij (x), regolarizzate tramite la prescrizione + introdotta nella (3.30). Per poter implementare
l’evoluzione in un programma numerico, è però necessario cambiare approccio: si definisce il fattore di forma di Sudakov (qui nel caso particolare dello
splitting q → qg):
· Z t 0Z
¸
dt
αs
∆(t) ≡ exp −
dz P̂ (z)
(3.68)
0
2π
t0 t
dove P̂ (z) è la funzione di splitting non regolarizzata, ovvero con la singolarità
in z = 1. In termini del fattore di Sudakov, l’equazione DGLAP si scrive:
µ ¶
Z
1
dz αs
∂ f
P̂ (z)f (x/z, t)
(3.69)
t
=
∂t ∆
∆
z 2π
con f /∆ in sostituzione di f , e la funzione di splitting non regolarizzata al
posto di quella regolarizzata. Integrando la (3.69), si ottiene un’equazione
integrale per f (x, t) in funzione della PDF iniziale f (x, t0 ):
Z
Z t 0
dz αs
dt ∆(t)
P̂ (z) f (x/z, t0 ) .
(3.70)
f (x, t) = ∆(t)f (x, t0 ) +
0
0
t
∆(t
)
z
2π
t0
Il primo termine del secondo membro corrisponde all’evoluzione da t0 a t
senza branching, secondo la probabilità quantificata proprio dal fattore di
Sudakov. Il secondo termine invece è l’integrale su tutti i percorsi che hanno
l’ultimo branching a t0 , e che quindi evolvono da t0 a t senza ulteriori emissioni.
3.5. GENERATORI MONTE CARLO
93
Perché tutto questo sia consistente, occorre riconsiderare la singolarità
delle funzioni di splitting non regolarizzate per z = 1: essa viene evitata
imponendo nella (3.69) un cut-off infrarosso, z < 1 − ²(t).
Poiché si stanno definendo le emissioni oltre il cut-off come non risolvibili,
ne segue che il fattore di forma di Sudakov ∆(t) corrisponde alla probabilità
di evoluzione tra t0 e t senza branching risolvibili.
Il tipico problema a cui risponde un algoritmo Monte Carlo di branching
è il seguente: data la coppia di valori (t1 , x1 ), genera la coppia (t2 , x2 ) allo
step successivo. t2 viene generata risolvendo l’equazione:
∆(t2 )
=R
∆(t1 )
(3.71)
dove R è un numero casuale distribuito tra [0, 1]. Se |t2 | > |Q2 |, si è oltrepassata la massima virtualità consentita per avere lo scattering, e quindi l’evoluzione si ferma. Altrimenti, viene generata x2 tramite il rapporto z = x2 /x1 ,
con una distribuzione di probabilità proporzionale a (αs /2π)P (z), ovvero
risolvendo l’equazione:
Z
x2 /x1
²
αs
dz P (z) = R0
2π
Z
1−²
dz
²
αs
P (z)
2π
(3.72)
con R0 un altro numero casuale, e ² il cut-off infrarosso prima introdotto.
Applicando iterativamente questo algoritmo, si generano N coppie (ti , xi ),
che definiscono l’evoluzione del quark incidente, e dalle quali si può ricavare
l’impulso dei gluoni emessi.
L’angolo azimutale φ dell’emissione deve essere specificato da un algoritmo
ulteriore, per esempio φ distribuito uniformemente tra [0, 2π], o nel caso più
generale tenendo conto delle correlazioni dovute alla polarizzazione.
I gluoni emessi sono di tipo time-like; ognuno di essi può andare incontro a
ulteriori emissioni. Si genera cosı̀ una cascata partonica, o parton shower, che
può essere descritta da un algoritmo simile al precedente: la differenza è che,
essendo la virtualità positiva, l’evoluzione avviene verso valori decrescenti di
t, fino al cut-off infrarosso. Quando in ogni ramo della cascata si è raggiunto
il cut-off, l’evoluzione si ferma e i partoni finali vengono convertiti in adroni
tramite un modello non perturbativo di adronizzazione.
3.5.2
Evoluzione backward
L’algoritmo appena descritto risulta in un’evoluzione di tipo forward (in
avanti), che ad ogni step genera l’emissione di un partone time-like e fa
94
3.5. GENERATORI MONTE CARLO
muovere il partone emittente verso virtualità minori (più negative, nel caso
space-like). In tal modo, dando in input la frazione di impulso x0 del primo
partone, la frazione xn del partone finale viene determinata dagli n − 1 step
intermedi.
Questo non è conveniente se si vuole generare una cascata di stato iniziale, in
cui alla fine si devono ritrovare i partoni che partecipano allo scattering. Nel
caso del Drell-Yan, in particolare, vogliamo generare un bosone vettore col
corretto valore di massa invariante, M 2 = ŝ = xq xq s, e questo possiamo farlo
con alta efficienza solo rovesciando il verso dell’evoluzione: dalle frazioni xn
finali, si procede all’indietro verso lo stato iniziale.
L’evoluzione backward viene implementata sostituendo al fattore di Sudakov
∆(ti ) il rapporto ∆(ti )/f (x, ti ), nel modo seguente:
Π(t1 , t2 , x) =
f (x, t1 ) ∆(t2 )
=R
f (x, t2 ) ∆(t1 )
(3.73)
dove R è di nuovo un numero casuale distribuito tra [0, 1], che descrive la
probabilità di evoluzione senza branching all’indietro da (t2 , x2 ) a (t1 , x1 ).
Con riferimento alla Figura 3.9, possiamo osservare che l’effetto del rapporto
tra le PDF in (3.73) è quello di sopprimere il branching a grandi x, dove le
PDF sono funzioni decrescenti della scala t = µ2 , e di amplificarlo a piccole
x, dove al contrario f (x, t) cresce con t. Questo è giustificato fisicamente
dal fatto che, muovendosi verso x maggiori, è sempre più improbabile che i
partoni siano il risultato di un branching precedente.
Notiamo che ogni particella prodotta ha qualcosa come 10 gradi di libertà
(massa, impulso, flavour, vita media, vertice di produzione, ecc.) cosicché
la simulazione dell’intero processo richiede migliaia di estrazioni di numeri
random.
3.5.3
Struttura generale di un generatore di eventi
Il generico processo di hard scattering simulato da un generatore Monte
Carlo, può essere suddiviso in quattro fasi, per scale di tempo e distanza
crescenti:
1. Processo duro elementare. Una coppia di particelle incidenti interagisce, producendo uno o più oggetti elementari. La scala di momento
trasferito, Q, e il flusso di colore nel processo duro, settano le condizioni
per le cascate di stato iniziale e finale.
2. Cascate di stato iniziale e finale. La loro evoluzione è descritta
3.5. GENERATORI MONTE CARLO
95
in termini probabilistici dai fattori di Sudakov, come discusso nella
Sezione precedente.
3. Decadimento delle particelle pesanti. Gli oggetti pesanti prodotti
(quark bottom e top, bosoni di gauge elettrodeboli e di Higgs, particelle supersimmetriche, ecc.) decadono secondo i loro branching ratio.
Possono dar vita a ulteriori cascate partoniche. Il decadimento delle
risonanze è spesso parametrizzato in modo indipendente.
4. Adronizzazione. É la ricombinazione delle particelle elementari finali
in strutture composite (jet, adroni isolati). Coinvolge bassi momenti
trasferiti, dell’ordine della scala di cut-off t0 per la cascata partonica.
Generalmente si sceglie t0 ≈ 1 GeV o un multiplo di Λ. A queste
energie, la costante di accoppiamento forte αs è troppo grande perché
si possa applicare la teoria delle perturbazioni, quindi devono essere
usati modelli fenomenologici.
La maggior parte degli adroni primari cosı̀ formati, è instabile e decade più o
meno velocemente, finché non si giunge alla situazione in cui tutte le particelle
hanno vita media tale da essere visibili sperimentalmente. La generazione
Monte Carlo deve a questo punto essere corroborata da un software per la
simulazione del rivelatore, come GEANT4 [1] per ATLAS.
Discutiamo adesso più in dettaglio i generatori general-purpose di cui mi sono
avvalsa in questo lavoro: Herwig e Pythia a Leading Order, Mc@Nlo a Next
to Leading.
3.5.4
Herwig
Herwig [11] è dedicato alla simulazione di precisione delle cascate partoniche
di QCD; contiene tutti i processi di scattering duro leptone-leptone, adroneleptone e adrone-adrone, oltre ai processi di collisione soffice adrone-adrone.
Per descrivere il suo funzionamento, consideriamo lo splitting elementare
i → jk. L’evoluzione è guidata da due variabili: la frazione di energia
zj = Ej /Ei , e la variabile angolare:
ξjk = (pj · pk )/(Ej Ek ) ,
2
che si può approssimare come ξjk ∼ θjk
/2 per partoni a massa nulla e per
piccoli angoli di emissione. La prescrizione ξ 0 < ξ tra due branching successivi equivale dunque a una richiesta di ordinamento angolare.
Nella cascata di stato finale, le frazioni di energia zj sono distribuite secondo
96
3.5. GENERATORI MONTE CARLO
le funzioni di splitting di Altarelli-Parisi (3.29), gli angoli di emissione secondo i fattori di Sudakov. In ogni branching, la scala di αs è assunta uguale al
momento trasverso relativo dei due partoni prodotti.
Nel caso di produzione di un quark pesante, la sua massa modifica l’ordinamento angolare dello spazio delle fasi. In particolare, l’emissione all’interno
di un angolo ≈ M/E risulta soppressa (dead cone).
La richiesta di ordinamento angolare riduce lo spazio delle fasi a disposizione per il branching. In pratica, il partone i può emettere solo entro il cono
centrato in j, dove j è il connesso di colore di i. Cosı̀ si rispetta la coerenza
del branching, e al tempo stesso si tiene conto delle singolarità infrarosse
derivanti dall’emissione di partoni soffici e collineari. Grazie a questo ordinamento, le particelle si ritrovano automaticamente organizzate in regioni dello
spazio delle fasi (preconfinamento), per cui l’adronizzazione può svilupparsi
secondo il modello a cluster [11] rappresentato in Figura 3.24(a).
(a) Adronizzazione a cluster
di Herwig.
(b) Adronizzazione a stringa
di Pythia.
Figura 3.24: Modelli di adronizzazione.
Questo modello di adronizzazione è locale, non dipende cioè dal processo
duro nè dall’energia. Una volta terminata la cascata partonica, per tutti i
gluoni finali viene forzato lo splitting in una coppia qq di quark leggeri, e le
linee vicine nello spazio delle fasi vengono raggruppate a formare singoletti
di colore, che infine si frammentano negli adroni osservabili.
Se un cluster è troppo leggero per formare una coppia di adroni, viene assunto
uguale all’adrone più leggero dello stesso flavour. Atrimenti, un cluster di
flavour f1 f 2 viene frammentato isotropicamente in coppie di adroni f1 f e
f f 2 , con f scelto casualmente tra u, d, s e c.
Una delle caratteristiche introdotte in Herwig 6 è la correzione dell’elemento di matrice (ME). A causa dell’ordinamento angolare, infatti, si creano
3.5. GENERATORI MONTE CARLO
97
delle zone morte nello spazio delle fasi, all’interno delle quali non possono avvenire emissioni. In particolare, queste zone sono definite dai vincoli ξ > z 2
per lo stato iniziale, e ξ > 1 per lo stato finale. In realtà, il calcolo esatto ci
dice che in queste zone la radiazione è soppressa, non del tutto assente come
invece avverrebbe in Herwig. Per correggere questa circostanza indesiderata,
si può attivare l’opzione HARDME, cosı̀ da generare la radiazione nelle zone
morte in base all’elemento di matrice esatto a Next to Leading Order.
Un’osservabile molto interessante da studiare a questo proposito, è la distribuzione in momento trasverso del W : come vediamo in Figura 3.25, dopo
la correzione dell’elemento di matrice (curva continua) si ha una frazione di
eventi con kT > MW . La soppressione della curva con la correzione ME intorno al picco è dovuta invece alla mancanza dei contributi virtuali a NLO,
aspetto su cui torneremo tra breve discutendo il generatore a NLO Mc@Nlo
(Sezione (3.5.6)).
Figura 3.25: Distribuzione del kT del W a LHC simulata con Herwig,
prima (punti) e dopo (linea continua) la correzione dell’elemento di matrice [21].
3.5.5
Pythia
Pythia si differenzia da Herwig per due caratteristiche principali: il modello
di adronizzazione e la variabile di ordinamento.
Il modello di adronizzazione di Pythia [56] è detto a stringa (Figura 3.24(b)).
Esso si ispira all’ipotesi che le cariche di colore siano tenute insieme da un
potenziale lineare: come suggerisce infatti la Lattice QCD, tra una carica
e un’anticarica si forma un campo dipolare di colore (tubo di flusso) in cui
viene immagazzinata un’energia che cresce linearmente con la distanza reciproca. Le dimensioni trasverse del tubo sono dell’ordine della tipica scala
98
3.5. GENERATORI MONTE CARLO
adronica (1 fm).
Queste idee conducono al modello di adronizzazione a stringa: il tubo di flusso creatosi tra q e q cede quando la distanza tra le cariche supera una certa
soglia, frammentandosi in due singoletti, q q 0 e q 0 q. Se uno dei singoletti ha
massa invariante troppo grande, la frammentazione continua, con ricombinazioni casuali tra gli estremi liberi delle stringhe, finché non si producono
adroni on shell, ognuno dei quali corrisponde a una piccola porzione della
stringa originaria.
Per quanto riguarda l’ordinamento delle cascate partoniche, sia nello stato iniziale sia in quello finale, Pythia offre due possibilità: ordinamento in
virtualità o in momento trasverso (aggiunto nelle versioni più recenti). Al
momento, la scelta dipende dal tipo di processo considerato; l’ordinamento
in virtualità ha però lo svantaggio di non includere automaticamente la coerenza tra le emissioni successive.
Consideriamo per esempio lo splitting gluonico g1 → g2 g3 , seguito dall’emissione di g4 da parte di g2 o di g3 . Se g4 è soffice, non può risolvere la
carica individuale degli altri gluoni finali, ma vede solo la carica totale, che
è ovviamente la carica di g1 . Questo effetto causa una soppressione nell’emissione multipla; è incluso automaticamente dall’ordinamento angolare e in
momento trasverso, mentre deve essere imposto a posteriori in Pythia.
3.5.6
Mc@Nlo
Per comprendere perché Mc@Nlo ([46], [47]) possa essere considerato il generatore che meglio descrive la Fisica a Next to Leading Order [55], dobbiamo
distinguere brevemente l’approccio Matrix Element (ME) da quello Parton
Shower (PS).
L’approccio ME parte dalla Lagrangiana della teoria, ne deriva le regole di
Feynman, e tramite queste calcola l’elemento di matrice per il processo d’interesse. Convolvendo l’elemento di matrice col fattore di spazio delle fasi,
ottiene infine la sezione d’urto.
Come sappiamo, però, nel calcolare l’elemento di matrice a Next to Leading
Order, si incontrano divergenze soffici e collineari, sia dalle gambe reali sia
da quelle virtuali. La cancellazione ordine per ordine di queste divergenze,
esatta a livello matematico, risulta difficile da implementare in un algoritmo
ME, soprattutto per il calcolo di quantità esclusive. Se si ignorano i loop e si
resta lontani dalle regioni divergenti, i generatori ME arrivano a descrivere
processi con otto partoni nello stato finale.
Herwig e Pythia sono esempi dell’approccio alternativo, quello di Parton
Shower, che usa i fattori di forma Sudakov per dare un’interpretazione probabilistica all’emissione multipla. Questo metodo è semplice da implementare
3.5. GENERATORI MONTE CARLO
99
ma non efficiente in alcune zone dello spazio delle fasi, come abbiamo già
discusso parlando delle zone morte prodotte dall’ordinamento angolare di
Herwig.
Figura 3.26: Matching ME + PS in Mc@Nlo: produzione di Z a NLO [55].
La combinazione di questi due approcci viene effettuata con successo da
Mc@Nlo: esso include esattamente non solo le correzioni reali, ma anche quelle
virtuali, risultando perciò accurato a Next to Leading Order. Mc@Nlo si avvale
di Herwig per la simulazione della cascata partonica.
Possiamo dividere lo schema logico seguito da Mc@Nlo in quattro fasi (come
rappresentato in Figura 3.26 per la produzione di Z):
1. Z + 1 jet ME. Calcolo delle correzioni NLO ME per il processo a n
partoni, sia quelle reali (n + 1) sia quelle virtuali (n) .
2. Z + 1 jet nella cascata. Calcolo analitico del primo branching in
una cascata a n partoni, senza usare il fattore di Sudakov.
3. Z + 1 jet + cascata. Sottrazione di (2) da (1): si sottrae l’espressione
per la cascata da Z + 1 jet ME per ottenere la “vera” espressione per
Z + 1 jet. Tutto il resto (Z + cascata) si considera di ordine n.
4. Z + 1 jet + cascata. Infine si risomma la cascata.
Il punto delicato di questa prescrizione è la sottrazione, in quanto non è
garantito che il risultato ME sia ovunque maggiore di quello PS.
Effettivamente una frazione (≈ 12 %) degli eventi prodotti con Mc@Nlo ha
peso negativo, e deve essere sottratta bin per bin per ottenere risultati fisici.
100
Capitolo 4
Studi di accettanza geometrica
4.1
Motivazione per la misura di σW/Z
La misura della sezione d’urto dei processi:
pp → W + → `+ ν` + X
,
pp → Z → `+ `− + X
pp → W − → `− ν ` + X
con ` = e, µ
costituisce uno degli obiettivi fondamentali della prima fase dell’esperimento
ATLAS. L’espressione per la sezione d’urto partonica è quella data in (3.9),
che qui riscriviamo:
0
π√
2
2
2 GF MW
|Vqq0 | δ(ŝ − MW
)
3
π√
=
2 GF MZ2 (υq2 + a2q ) δ(ŝ − MZ2 )
3
σ̂ qq →W =
σ̂ qq→Z
dove GF è la costante di Fermi, |Vqq0 | è un elemento della matrice CKM,
mentre υq e aq sono gli accoppiamenti vettoriali e assiali dei bosoni vettori
col quark q. Infine, ŝ è l’energia nel centro di massa partonico, ŝ = sx1 x2 ,
dove x1,2 sono le frazioni d’impulso portate dai partoni collidenti.
La sezione d’urto partonica viene convoluta con le PDF per avere la sezione
d’urto adronica σ(p1 p2 → c), in virtù del Teorema di Fattorizzazione (3.3):
Z 1
X
σ(p1 p2 → c) = dx1 dx2
fa/p1 (x1 , µ2F )fb/p2 (x2 , µ2F ) σ̂ (ab→c) (Q2 , µ2F ) .
0
a,b
102
4.1. MOTIVAZIONE PER LA MISURA DI σW/Z
La somma è su tutti i flavour attivi, quelli cioè la cui massa è minore dell’energia a disposizione nel centro di massa partonico.
Oltre alla sezione d’urto totale, lo stato presente dei calcoli teorici comprende [14]: precisione NLO per le segnature W/Z + 1, 2 jet, risommazione dei
logaritmi Leading e Next to Leading dovuti all’emissione di gluoni soffici,
inclusione delle correzioni NLO in un generatore Parton Shower (Mc@Nlo),
inclusione di quelle NNLO per la sezione d’urto differenziale (FEWZ), e infine
inclusione delle correzioni elettrodeboli all’ordine O(α) (Horace).
La collaborazione ATLAS si propone una misura della sezione d’urto totale per W e Z con un errore sperimentale . 1%, cosı̀ da eguagliare la
precisione raggiunta dai calcoli teorici. In tal modo sarà possibile estrarre
anche una conoscenza delle PDF molto accurata in un intervallo che estende
quello attuale di almeno due ordini di grandezza, come abbiamo discusso in
Sezione 3.1.2; infatti, grazie alla relazione (3.33),
M
x1,2 = √ e±y ∼ 10−3 ÷ 10−2
s
per y = 0
a LHC,
si ha che la produzione di W e Z avviene a medi valori di x per rapidità
centrali (y = 0), e a valori molto piccoli di x per rapidità maggiori. Inoltre,
il momento trasferito sarà altissimo: Q2 = (10 ÷ 100)2 GeV2 , cento volte
maggiore di quello di HERA. Sarà cosı̀ possibile testare, da una parte, la
precisione con cui l’evoluzione delle PDF è descritta dall’equazione DGLAP
(3.27), dall’altra l’importanza degli effetti di piccola x (logaritmi BFKL).
I decadimenti dei bosoni vettori intermedi W e Z sono fondamentali anche
per il rivelatore, tanto da essere considerati vere e proprie “candele standard”:
permetteranno la calibrazione in energia e lo studio delle performance, con
particolare riferimento al monitoraggio della luminosità.
Infine, come discusso nelle Sezioni 2.3.3 e 2.4, le segnature di W e Z
costituiscono il fondo a molti processi di Nuova Fisica, come la produzione
di bosoni di gauge pesanti W 0 /Z 0 , e a vari canali di decadimento del bosone
di Higgs.
4.1.1
Metodo per la misura di σW/Z
Possiamo esprimere la sezione d’urto nel modo seguente:
σ ≡ σpp→W/Z · Br W/Z→`ν/`` =
N −B
A·ε·L
(4.1)
dove Br è il branching ratio (rapporto di decadimento) nei canali leptonici,
N e B sono rispettivamente il numero di eventi totali e di solo fondo, L è la
4.1. MOTIVAZIONE PER LA MISURA DI σW/Z
103
luminosità integrata nel tempo, A è l’accettanza geometrica − la frazione di
eventi che entrano nei tagli cinematici − ed ε è l’efficienza all’interno dell’accettanza.
Le fonti di incertezza dovute al rivelatore sono tutte fattorizzate all’interno
dell’efficienza, che comprende tra l’altro l’efficienza di trigger, di ricostruzione, di misura dell’energia mancante; in questo modo, l’accettanza dipende
solo dalla configurazione geometrica dell’esperimento, e in particolare dalle soglie cinematiche per la rivelazione delle particelle (tagli in momento
trasverso), e dalle zone sensibili del rivelatore (tagli in pseudorapidità).
Ne segue che l’accettanza, cosı̀ come il suo errore sistematico, si ricavano
dalle simulazioni con i generatori Monte Carlo, descritti in Sezione 3.5: si
simula il processo fisico di interesse, si impongono i tagli cinematici e angolari,
e si calcola la frazione di eventi accettati rispetto al totale.
L’incertezza sulla sezione d’urto (4.1) comprende i seguenti termini, sommati in quadratura:
δσ
δN ⊕ δB δε δL δA
=
⊕
⊕
⊕
.
σ
N −B
ε
L
A
(4.2)
Come vediamo in Tabella 4.1, che sintetizza i contributi stimati per una
luminosità integrata di 50 pb−1 , l’errore dovuto alla luminosità è più che
doppio di quello dovuto alla sistematica, e non dipende dal canale.
Processo
N
B
δσ/σ (stat)
δσ/σ (sist)
δσ/σ (lum)
W → eν
226700
6100
0.2 %
5.2 %
10 %
W → µν
300400
20100
0.2 %
3.1 %
10 %
Z → e+ e−
27100
2300
0.8 %
4.1 %
10 %
Z → µ+ µ−
27700
100
0.8 %
3.8 %
10 %
Tabella 4.1: Contributi stimati all’incertezza della sezione d’urto (50 pb−1 ) [10].
Bisogna però considerare che questa situazione si capovolgerà con l’aumentare dei dati raccolti: infatti,√assegnando al numero di eventi un’incertezza
puramente statistica, δN = N , ed essendo N proporzionale alla luminosità, si ha che la sua incertezza relativa scala come l’inverso della radice della
luminosità:
√
δN/N ∼ 1/ L .
Sia δL/L sia δε/ε diminuiranno con la statistica raccolta dall’esperimento;
inoltre, vediamo dalla (4.1) che il contributo della luminosità si semplifica se
104
4.1. MOTIVAZIONE PER LA MISURA DI σW/Z
si misura il rapporto tra le sezioni d’urto, σW /σZ , piuttosto che le due sezioni
d’urto in maniera indipendente.
In pratica, dopo il primo fb−1 (un anno di presa dati ad alta luminosità), i
contributi a δσ/σ in Tabella 4.1 si ridurranno per gli elettroni a [40]:
δσ/σ(W → eν) = 0.04 % (stat) ± 2.5 % (sist)
δσ/σ(Z → ee) = 0.20 % (stat) ± 2.4 % (sist).
L’incertezza sistematica al 2% è dominata da quella, puramente teorica, dovuta all’accettanza.
Vari effetti concorrono a formarla [48]: da una parte, le approssimazioni insite nei generatori Monte Carlo (per esempio il fatto che i processi che essi
implementano sono calcolati solo fino a Next to Leading Order), dall’altra le
approssimazioni che facciamo sulla Fisica non perturbativa (modellizzazione
delle PDF, risommazione dei termini soffici, scala di fattorizzazione, ecc.).
In questo Capitolo calcolerò l’incertezza sistematica sull’accettanza, nei
canali W → µνµ e Z → µ+ µ− , con l’obiettivo di giungere a una stima del
termine δA/A che entra nella (4.2).
Prima però descriverò brevemente il metodo che verrà seguito da ATLAS per
la misura di σW,Z in muoni. L’analisi preparatoria a quella sui dati reali si
svolge con l’ausilio delle simulazioni Monte Carlo [59].
I dati di segnale e di fondo sono simulati a Leading Order con Pythia; le
sezioni d’urto cosı̀ ottenute vengono normalizzate a quelle a NNLO calcolate
con FEWZ. Nella generazione si applica il prefiltro sui muoni: almeno un muone
con |ηµ | < 2.8 e pµT > 5 GeV. In particolare il taglio in pseudorapidità riflette
l’accettanza dello spettrometro a muoni (Tabella 1.1). Questo prefiltro ha
un’efficienza
√ dell’ 85% per Z e del 65% per W . Per quanto riguarda Z, si
richiede s > 60 GeV, taglio che commenterò a proposito della mia analisi
(Sezione 4.2).
I fondi principali sono costituiti da bosoni W e Z che decadono in leptoni τ , i quali a loro volta decadono in µ; dagli eventi tt con almeno un
decadimento semileptonico; dai jet che includono leptoni (veri o presunti).
Tutti gli altri fondi sono trascurabili; in particolare i muoni cosmici possono
essere eliminati con tagli di timing come fatto al Tevatron, col vantaggio per
ATLAS di essere situato a ∼ 100 metri di profondità.
Gli eventi cosı̀ simulati sono ricostruiti usando il software GEANT [1] e
una geometria misallineata [59].
Come discusso in Sezione 1.3, l’identificazione e quindi la ricostruzione dei
4.1. MOTIVAZIONE PER LA MISURA DI σW/Z
105
muoni sono effettuate a partire dalle tracce nello spettrometro, complementate da quelle nell’Inner Detector a basse energie, pT ≤ 30 GeV. In quella
sede sono stati descritti anche i contributi principali ad ε: l’efficienza di ricostruzione, la risoluzione in impulso trasverso e in energia trasversa mancante,
e l’effetto delle perdite di energia.
W → µν
Il segnale W → µν è selezionato in base alla richiesta di trigger mu20, ovvero
richiedendo la presenza di un’unica traccia muonica con impulso trasverso
maggiore di 20 GeV; nella fase di alta luminosità, questa richiesta sarà rifinita aggiungendo la richiesta di isolamento.
Se la traccia passa il trigger, si impongono i tagli cinematici: |η| < 2.5 e
pT > 25 GeV (si confronti la Sezione 4.2). L’energia depositata nel calorimetro intorno a questa traccia, entro un cono ∆R ≤ 0.4 (equazione (1.2)), deve
essere minore di 5 GeV. Si richiedono inoltre una soglia in energia trasversa
mancante, ETmiss > 25 GeV, e una soglia in massa trasversa, MT > 40 GeV.
I tagli in impulso, energia e massa trasversi sono tutti intesi a selezionare il
segnale dal fondo. L’efficienza complessiva del segnale è intorno all’ 80%. In
Figura 4.1(a) vediamo la distribuzione in massa trasversa senza la soglia.
(a) W → µν.
(b) Z → µµ
Figura 4.1: Distribuzioni simulate per il segnale e il fondo, L = 50 pb−1 [59].
I fondi dominanti sono dovuti a W → τ ν e Z → µµ, che d’altronde sono
ben noti teoricamente; il fondo dei jet (indicato come QCD) è ridotto dai
tagli di selezione ma è vincolato meno precisamente dai dati attuali, quindi
su questa componente si è assunta un’incertezza del 100%; al fondo di tt è
invece associata un’incertezza del 20%.
106
4.2. DESCRIZIONE DELLE SIMULAZIONI
Z → µµ
La richiesta di trigger è in questo caso la presenza di almeno una traccia
muonica con pT > 10 GeV. La traccia viene ricostruita solo se è accompagnata da un altro candidato muone, e se le cariche sono opposte.
A seguire si impongono i tagli cinematici su entrambe le tracce: |η| < 2.5 e
pT > 20 GeV. La massa invariante della coppia deve soddisfare il vincolo:
|91.2 GeV − Mµµ | < 20 GeV.
I muoni provenienti dal decadimento dei bosoni vettori sono isolati, al contrario di quelli del fondo. Per quantificare questo isolamento, si usano la
molteplicità delle tracce nell’Inner Detector all’interno di un cono di raggio
∆R = 0.5, e il momento totale di tali tracce.
I tagli in pT e in isolamento selezionano il 70% del segnale all’interno dell’accettanza geometrica; il fondo rimanente è trascurabile. In Figura 4.1(b)
vediamo la corrispondente distribuzione in massa invariante.
4.2
Descrizione delle simulazioni
Per il calcolo dell’accettanza, ho simulato i decadimenti Drell-Yan, con stati
finali elettronici e muonici, con i seguenti generatori Monte Carlo:
• Generatori a Leading Order:
– Herwig 6.5.10 [11]
– Pythia 8.1.05 [56]
• Generatori a Next to Leading Order:
– Mc@Nlo 3.3 [47].
Per ogni generatore sono stati simulati tra i 40 mila e i 100 mila eventi. Questo lavoro è stato fatto a livello di sola generazione dei processi, in modo da
escludere gli effetti dovuti al rivelatore; è stato ripetuto in modalità Stand
Alone − usando cioé i generatori in modo indipendente − e all’interno di
Athena, il framework di analisi ufficiale di ATLAS. La versione di Athena
usata è la 11.0.5(1 ).
1
Questa versione di Athena è stata scelta per due motivi: 1) all’inizio di questo lavoro
di Tesi, era la versione più recente ad essere stata validata per i generatori Stand Alone;
2) è quella usata nei lavori precedenti su W e Z. Questa scelta rimane ragionevole, poiché
le versioni sempre più aggiornate che si susseguono sono tese a migliorare il software di
ricostruzione, e non agiscono a livello di generazione.
4.2. DESCRIZIONE DELLE SIMULAZIONI
107
Mentre Herwig e Pythia sono serviti alla comprensione preliminare dei generatori, confrontando le distribuzioni ottenute per elettroni e muoni con
quelle aspettate, lo studio dedicato all’errore sistematico è stato eseguito con
Mc@Nlo, dato che, come discusso in Sezione 3.5, questo generatore include
l’elemento di matrice di scattering accurato a NLO, e allo stesso tempo è
interfacciabile col Parton Shower Herwig.
Una menzione a parte va fatta per Horace [8], che è stato usato per
quantificare l’impatto delle correzioni elettrodeboli; al momento esso non
è interfacciato con un Parton Shower. Come verrà discusso nel prossimo
Capitolo, Horace può essere usato sia a livello Born − i suoi risultati si
possono allora confrontare con quelli dei Parton Shower a Leading Order −
sia all’ordine O(α), situazione in cui Horace risulta paragonabile a Mc@Nlo.
I parametri dei diversi generatori (masse, larghezze di branching, set di
PDF, costanti varie) sono stati uniformati accuratamente, in particolare i
bosoni vettori hanno masse e larghezze totali [2]:
MW = 80.398 GeV , ΓW = 2.141 GeV
MZ = 91.188 GeV , ΓW = 2.495 GeV.
Le opzioni scelte per la generazione dei campioni sono elencate e descritte
nell’Appendice.
Sottolineiamo che, per generare Z, abbiamo in realtà generato√il processo
Z/γ ∗ , ponendo contemporaneamente il taglio in massa invariante s > 60 GeV
per selezionare il bosone neutro massivo; la generazione di W si è svolta invece su tutto il range di energia.
Le PDF usate per la maggior parte di questo lavoro sono quelle descritte in
Sezione 3.3.2: le CTEQ 6L [41] − ufficiali di ATLAS − per i generatori LO, e
le CTEQ 6.1M [53] per quelli NLO. Negli studi dedicati alla sistematica delle
PDF (Sezione 5.1) si usano anche set non ufficiali in ATLAS, in particolare
le CTEQ 6.6 [35] e le Neural Network PDF [3].
La configurazione di default scelta − a partire dalla quale, nel prossimo
Capitolo, calcoleremo gli errori sistematici − è quella che meglio descrive la
situazione fisica:
Configurazione di default
I Set di PDF = CTEQ 6L per LO, CTEQ 6.1M per NLO,
I Underlying Event e correlazioni di spin = accesi,
I Radiazione di stato iniziale = accesa,
I Interazioni multiple (Jimmy per Herwig) = accese in Athena,
108
4.2. DESCRIZIONE DELLE SIMULAZIONI
I Correzioni di QED (Photos) = accese in Athena,
I pT intrinseco dei partoni = 0 GeV,
I Correzione di elemento di matrice = accesa per Herwig.
I tagli cinematici applicati sono elencati in Tabella 4.2.
Canale
Tagli di accettanza
W → eν
peT > 20 GeV,
ETmiss = pνT > 20 GeV
|ηe | < 1.37 ∪ 1.52 < |ηe | < 2.5
W → µν
pµT > 20 GeV ETmiss = pνT > 20 GeV
|ηµ | < 2.5
Z → e+ e−
±
peT > 20 GeV
|ηe± | < 1.37 ∪ 1.52 < |ηe± | < 2.5
Z → µ + µ−
±
pµT > 20 GeV
|ηµ± | < 2.5
Tabella 4.2: Sintesi dei tagli di accettanza applicati nell’analisi.
Come discusso diffusamente nel Capitolo 1, richiediamo che i leptoni finali abbiano momento trasverso elevato per poterli distinguere dagli eventi di fondo,
e al tempo stesso applichiamo i tagli in pseudorapidità perché i leptoni siano tracciabili e triggerabili, rispettivamente nel calorimetro elettromagnetico
(|η| < 2.5) e nel sistema dei muoni (|η| < 2.5). Per gli elettroni escludiamo
anche le regioni di “crack” (1.37 < |η| < 1.52), dove la transizione tra Barrel
ed End-Cap fa sı̀ che si abbia un brusco calo dell’efficienza di ricostruzione.
Notiamo inoltre che, a livello di generazione, identifichiamo l’energia trasversa mancante, ETmiss , col momento trasverso del neutrino.
In questo modo vogliamo stimare quanti eventi di segnale cadano nelle zone
sensibili del rivelatore, e siano al tempo stesso distinguibili dal fondo grazie
ad un alto impulso trasverso. Stiamo dunque assumendo che in tutte le zone
sensibili il rivelatore abbia efficienza pari a 1, che sia possibile identificare le
particelle e ricostruirne le tracce senza incertezza, che la risoluzione in impulso sia quella ideale, e che misurare l’energia mancante sia analogo a misurare
una qualsiasi altra energia. La stima che ne risulta è appunto l’accettanza;
essa dipende strettamente dal modello teorico insito nel generatore Monte
4.2. DESCRIZIONE DELLE SIMULAZIONI
109
Carlo, e in particolare dalle distribuzioni in impulso trasverso e in pseudorapidità dei leptoni finali, poiché sono queste le variabili su cui dobbiamo
applicare i tagli.
4.2.1
Analisi delle distribuzioni
Come controllo preliminare, verifichiamo che le sezioni d’urto teoriche siano
compatibili tra i vari generatori:
Canale
Herwig (nb)
Pythia (nb)
Mc@Nlo (nb)
W → eν, µν
17.33 ± 0.02
17.35 ± 0.03
19.636 ± 0.007
Z → e+ e− , µ+ µ−
1.668 ± 0.003
1.679 ± 0.003
1.948 ± 0.001
Tabella 4.3: Sezioni d’urto teoriche dei vari generatori.
Come aspettato, la sezione d’urto aumenta del (12 ÷ 13)% passando da
Leading a Next to Leading Order. Verifichiamo adesso l’accordo tra le
distribuzioni dei leptoni uscenti, che ci serviranno per calcolare l’accettanza.
Facciamo un breve inciso per dire che il framework di analisi Athena introduce alcuni tool aggiuntivi rispetto al generatore in modalità Stand Alone:
in particolare Herwig si interfaccia con Jimmy [6], che aggiunge l’effetto delle
interazioni multiple (importanti per ricreare in modo verosimile gli eventi
di Minimum Bias), mentre sia Herwig sia Pythia usano Photos [36], un
generatore dedicato alle correzioni di QED al processo duro.
Ciò detto, ci aspettiamo che le distribuzioni ottenute in Stand Alone siano compatibili con quelle ottenute in Athena, a meno di differenze minori.
In Figura 4.2 vediamo le distribuzioni dell’impulso trasverso (a) e della pseudorapidità (b), per l’elettrone in W → eν, mentre in Figura 4.3 abbiamo
le distribuzioni corrispondenti per l’elettrone in Z → e+ e− ; le simulazioni
a confronto sono effettuate con Herwig Stand Alone, Pythia Stand Alone,
Herwig in Athena e Pythia in Athena. Per i muoni la situazione è analoga.
Notiamo che le maggiori differenze tra le distribuzioni si hanno intorno
√
al picco. Grafichiamo allora questa differenza, con l’errore sistematico N
associato al valore N, prendendo in particolare in considerazione la differenza
Herwig Stand Alone − Herwig in Athena, per il pT dell’elettrone in W → eν
(Figura 4.4(a)). Vediamo cosı̀ che la differenza normalizzata è compatibile
con l’errore statistico.
Controlliamo inoltre che, imponendo i tagli cinematici di accettanza, la forma della distribuzione non venga modificata: in Figura 4.4(b) abbiamo la
110
4.2. DESCRIZIONE DELLE SIMULAZIONI
(a) pT dell’elettrone.
(b) |η| dell’elettrone.
Figura 4.2: Distribuzioni in pT e in |η| dell’elettrone in W → eν a LO.
(a) pT dell’elettrone.
(b) |η| dell’elettrone.
Figura 4.3: Distribuzioni in pT e in |η| dell’elettrone in Z → e+ e− a LO.
(a) Differenza tra le distribuzioni in pT
dell’elettrone in W → eν, tra Herwig
Stand Alone e in Athena.
(b) |ηe | prima e dopo i tagli (pT e <
25 GeV, pT ν < 25 GeV).
Figura 4.4
distribuzione in η per l’elettrone prodotto dal W (Herwig Stand Alone), prima e dopo l’applicazione dei tagli in impulso trasverso, che in questo caso
valgono pT e < 25 GeV e pT ν < 25 GeV.
Concentriamoci adesso sulla produzione e il decadimento del W . In questo
4.2. DESCRIZIONE DELLE SIMULAZIONI
111
caso, la presenza del neutrino fa sı̀ che non ci si possa rifare alla conservazione
dell’energia totale, e si debba utilizzare piuttosto quella trasversa. La massa
trasversa del W è stata definita in (2.47):
r
MT =
2 |pT ` | |pT ν |(1 − cos ∆φ) ≈ 2|p|
se ∆φ = π
dove ≈ significa a Leading Order: come abbiamo visto in Sezione 3.1.4, all’ordine più basso in αS i partoni incidenti non hanno momento trasverso, il W
decade da fermo e quindi i leptoni finali sono collineari in φ: |pT ` | = |pT ν | =
|p|. In effetti in Figura 4.5(a) vediamo la differenza in angolo azimutale, ∆φ,
tra il muone e il neutrino prodotti da W , simulati con Herwig Stand Alone,
dopo aver spento la radiazione di stato iniziale, ed aver posto a zero, come di
default, il pT intrinseco dei partoni. La distribuzione che ne risulta consiste
dunque di due picchi isolati a ∆φ = ±π.
(a) Herwig Stand Alone senza ISR.
(b) Herwig in Athena con ISR.
Figura 4.5: Differenza in angolo azimutale tra µ e ν prodotti da W a Leading
Order con Herwig, escludendo o includendo la radiazione di stato iniziale.
Se invece reinseriamo la radiazione di stato iniziale, come in Figura 4.5(b),
l’effetto è quello di distribuire gli eventi intorno ai due picchi, rendendo la
distribuzione simile a quella che si ottiene con l’inclusione dell’ordine superiore: in Figura 4.6 vediamo appunto la differenza in ∆φ simulata con Mc@Nlo,
indipendentemente per W + e W − . In questo caso quello che grafichiamo
è la sezione d’urto differenziale, calcolata normalizzando i conteggi con le
seguenti sezioni d’urto teoriche:
σW + = 11320 pb ,
σW − = 8316 pb in leptoni.
Dalla Figura 4.6, possiamo concludere che la cinematica nel piano azimutale
112
4.2. DESCRIZIONE DELLE SIMULAZIONI
dσ/d (∆ φ) (pb)
Distribuzione di ∆ φ per W ->µ ν in McNlo
W piu
nosp
Entries
41217
-0.01172
Mean
2.984
RMS
700
W meno
600
500
400
300
200
100
0
-4
-3
-2
-1
0
1
2
3
4
∆φ
Figura 4.6: Differenza in angolo azimutale tra µ e ν prodotti da W ± , simulati
con Mc@Nlo in Athena.
è identica tra W + e W − : la differenza tra le distribuzioni è data dalle diverse
normalizzazioni.
Mostriamo adesso la sezione d’urto differenziale in funzione dell’impulso trasverso del muone (quella teorica per Herwig è stata data in Tabella 4.3).
W ->µ ν in McNlo
Herwig
def
Entries
Mean
RMS
20000
30.15
10.81
Herwig ISR off
1000
W piu McNlo
W meno McNlo
dσ/dp
800
(pb/GeV)
per W ->µ ν
Tµ
dσ/d p (pb/GeV)
Tµ
McNlo W piu
nosp
400
Entries
Mean
RMS
41217
30.67
11.89
350
McNlo W meno
Tµ
Distribuzione di p
300
250
600
200
150
400
100
200
50
0
0
10
20
30
40
50
60
p
Tµ
70
(GeV)
(a) Confronto tra LO e NLO.
00
10
20
30
40
50
60
70
80
p (GeV)
T
(b) Sezione d’urto differenziale dσ/dpT .
Figura 4.7: pT del muone per W → µν con Herwig e Mc@Nlo.
In Figura 4.7(a) abbiamo le distribuzioni per Herwig con l’inclusione della
radiazione di stato iniziale (in questo caso la distribuzione è analoga a quella
mostrata in Figura 4.2(a) per l’elettrone) e senza di essa, oltre alle distribuzioni per Mc@Nlo (ISR accesa come di default) rispettivamente per W + e
W − . La differenza principale si osserva quando si esclude la ISR: il picco
a pT = MW /2 diventa molto più netto. Nelle altre configurazioni la forma
delle distribuzioni resta simile.
Notiamo che la somma delle curve per W + e per W − con Mc@Nlo è maggiore
della somma pesata fatta automaticamente da Herwig, a ragione del fatto
4.2. DESCRIZIONE DELLE SIMULAZIONI
113
che la sezione d’urto a NLO è maggiore di quella a LO del (12 ÷ 13)%, come
già osservato.
In Figura 4.7(b) confrontiamo direttamente le sezioni d’urto differenziali
per W + e W − a NLO. Queste distribuzioni mostrano chiaramente la presenza
di un’asimmetria di carica tra i muoni finali; torneremo tra poco su questo
argomento.
Dalle distribuzioni precedenti, in pT e in ∆φ, possiamo ricavare quella in
massa trasversa per W . In Figura 4.8 vediamo dunque la sezione d’urto
differenziale per Herwig e Mc@Nlo. Il picco Jacobiano (MT = MW ) è lo strumento usato sperimentalmente per estrarre la massa del W , come discusso
in Sezione 2.3.1.
dσ/dMT (pb/GeV)
W -> µ ν in Herwig e in McNlo
def
Herwig
Entries 20000
Mean
RMS
900
59.04
19.79
McNlo W piu
800
McNlo W meno
700
600
500
400
300
200
100
0
20
40
60
80
100
MT (GeV)
Figura 4.8: Distribuzione in massa trasversa per W → µν, con Herwig e Mc@Nlo.
Asimmetria di carica tra W + e W −
Torniamo alla Figura 4.7(b), che mostra come la sezione d’urto differenziale
dσ/dpT µ sia diversa tra W + e W − . Questa differenza è più accentuata −
malgrado gli errori statistici − se guardiamo la pseudorapidità del muone
finale (Figura 4.9).
L’asimmetria di carica è la convoluzione non banale di vari effetti.
Consideriamo la produzione di W . In Figura 4.10 sono mostrate le distribuzioni in rapidità (a)-(b) e in impulso trasverso (c)-(d) del bosone vettore, al
Tevatron (lato sinistro) ed a LHC [16].
Nelle collisioni pp, le sezioni d’urto di produzione e le distribuzioni in pT W
sono indipendenti dalla carica del bosone vettore, mentre le distribuzioni in
rapidità sono l’una il riflesso dell’altra. A LHC, invece, queste ultime sono
simmetriche rispetto a yW = 0, ma la loro forma è diversa: la distribuzione
di W + è più alta, larga e piatta. Ciò deriva dal fatto che, in un collider pp,
114
4.2. DESCRIZIONE DELLE SIMULAZIONI
W -> µ ν in McNlo
dσ/dηµ (pb)
nosp
EntriesW41217
McNlo
piu
Mean -0.0001682
RMS
2.276
250
McNlo W meno
200
150
100
50
0
-6
-4
-2
0
2
4
6
ηµ
Figura 4.9: Distribuzione in pseudorapidità per il muone prodotto da W + e W − ,
simulata con Mc@Nlo.
Figura 4.10: Asimmetria tra le distribuzioni in y e in pT per W + e W − , simulata
per il Tevatron (pp) e LHC (pp). [16].
ci sono due quark u per ogni quark d, e in media u porta una frazione di
impulso maggiore (si confronti la Figura 3.13).
Per quanto riguarda la differenza tra le distribuzioni in pT W , bisogna ricondursi all’asimmetria tra le distribuzioni partoniche sottostanti: scriviamo la
differenza tra le sezioni d’urto totali per la produzione di W + e W − :
(σ + − σ − )pp (s) = 0 ,
R
(σ + − σ − )pp (s) ∝ dxq dxq {|Vud |2 [u(v) (xq ) d(xq ) − d(v) (xq ) u(xq )] +
(4.3)
+u(v) (xq )[|Vus |2 s(xq ) + |Vub |2 b(xq )] − |Vcd |2 d(v) (xq ) c(xq )}σqq (ŝ)
(4.4)
La (4.3) indica che al Tevatron le sezioni d’urto sono uguali, nell’ipotesi che
4.2. DESCRIZIONE DELLE SIMULAZIONI
115
MW + = MW − − in effetti la ricerca di una asimmetria di questo tipo è lo
strumento ideale per testare l’ipotesi stessa. La (4.4) si riferisce a LHC: il
termine nella prima parentesi quadra è diverso da zero a causa dell’asimmetria tra quark di valenza e rispettivi antiquark, quello nella seconda parentesi
a causa della differenza in massa tra s e c.
Per quanto riguarda il decadimento di W , le differenze tra le distribuzioni dei leptoni finali si accentuano, a causa della struttura V − A della
corrente elettrodebole (equazione (2.12)). Nel sistema di riferimento del W ,
le distribuzioni angolari dei leptoni valgono [16]:
Q
∗
∗
∝ (1 + λ Q cos θW,`
)2
dσ WT /d cos θW,`
dσ
WLQ
∗
∗
/d cos θW,`
∝ sin2 θW,`
(4.5)
(4.6)
∗
dove θW,`
è l’angolo polare del leptone carico rispetto alla direzione di W nel
sistema di riferimento del laboratorio, Q è la carica elettrica di W , mentre
λ è l’autovalore di elicità. Vediamo dalla (4.5) che le distribuzioni angolari
per `+ e `− sono identiche se λ = 0 (W polarizzato longitudinalmente),
mentre dipendono dalla carica se λ = ±1 (W polarizzato trasversalmente). In
particolare, se W è left-handed (λ = −1), `− viene emesso nella direzione del
genitore, `+ in quella opposta, mentre per λ = +1 la situazione è rovesciata.
A piccole |yW |, W è prodotto da quark e antiquark con frazioni di impulso
xq ∼ xq ≈ 6 × 10−3 , una regione in cui il contributo dei quark di valenza
è piccolo, per cui vengono prodotti con la stessa frequenza W left- e righthanded. Le distribuzioni dei leptoni finali mantengono quindi l’asimmetria
del genitore.
A grandi rapidità, invece, domina il contributo dei quark di valenza: essendo
questi left-handed, ne risulta che W viene prodotto prevalentemente lefthanded: la distribuzione di `− si allarga, mentre quella di `+ si restringe. La
Figura 4.9 mostra l’effetto complessivo per tutti i valori di |yW |.
Per quanto riguarda pT ` , se W fosse prodotto senza momento trasverso la
struttura V − A della corrente non potrebbe giocare alcun ruolo; d’altronde
abbiamo già discusso come il pT di W sia diverso da zero, e il risultato è la
distribuzione di pT µ mostrata in Figura 4.7.
Sintetizzando, le differenze tra gli spettri in pT dei leptoni finali, sono la
convoluzione di tre effetti:
• W è prodotto principalmente con elicità left-handed ad opera dei quark
di valenza, anch’essi left-handed,
• il momento trasverso di W è diverso da zero,
• W si accoppia ai fermioni con la struttura V − A.
116
4.3
4.3. CALCOLO DELL’ACCETTANZA
Calcolo dell’accettanza
Calcolerò ora l’accettanza applicando i tagli cinematici in Tabella 4.2: il
risultato è esposto in Tabella 4.4, per Herwig e Pythia, in Stand Alone e in
Athena, con gli elettroni e con i muoni come stati finali.
Accettanze [%]
Canale
Stand Alone
Athena
Herwig Pythia
Herwig Pythia
W → eν
43.38
43.18
42.52
42.84
W → µν
46.12
45.29
45.45
45.99
Z → e+ e−
36.03
36.06
35.71
35.22
Z → µ+ µ−
40.92
40.06
39.98
39.75
Tabella 4.4: Accettanze a Leading Order: confronto tra Herwig e Pythia, in
Stand Alone e in Athena, con elettroni e muoni come stati finali.
Come ci aspettiamo, poiché a livello di generazione elettroni e muoni sono
particelle identiche − leptoni a massa nulla − e al tempo stesso stiamo imponendo tagli più restrittivi sugli elettroni (le regioni morte a 1.37 < |η| < 1.52),
le accettanze sono minori per gli elettroni che per i muoni. Per ogni canale,
i valori sono in accordo; con l’inclusione dei tool di Athena, le accettanze
diminuiscono sistematicamente, in modo coerente con le distribuzioni in Figura (4.2) e (4.3), dove le curve dei generatori in Athena sono sempre al di
sotto di quelle in Stand Alone.
L’errore da associare all’accettanza è quello binomiale. Si presuppone
che l’applicazione dei tagli abbia probabilità di “successo” (l’evento passa il
taglio) pari ad A0 (accettanza vera nel linguaggio binomiale). Il valore di
aspettazione per gli eventi accettati è dunque hki = A0 N , con una deviazione
standard pari a:
p
(4.7)
σk = A0 (1 − A0 )N
ma poiché per definizione la “vera” accettanza è inconoscibile, la dobbiamo
sostituire con la nostra stima A e dividere per N , cosı̀ da avere:
s µ
¶
1
k
δA =
k 1−
.
(4.8)
N
N
Questa espressione contiene comportamenti non fisici ai bordi: se osserviamo
4.3. CALCOLO DELL’ACCETTANZA
117
un singolo evento, la probabilità di successo è A ± δA = 1 ± 0 e quella di
fallimento A ± δA = 0 ± 0, entrambe misure senza incertezza; questo accade
tutte le volte che abbiamo k = 0 oppure k = N . Per quanto riguarda le
accettanze per W e Z, d’altronde, ci manteniamo sempre su valori lontani
sia da 1 sia da 0, quindi l’approssimazione binomiale è soddisfacente.
Per valori tipici (N = 50000 e A = 0.450) si ha:
• A ± δA = 0.450 ± 0.003 con la propagazione dell’errore,
• A ± δA = 0.450 ± 0.002 col metodo binomiale.
I risultati sono dello stesso ordine. Gli errori in Tabella 4.5 sono appunto
calcolati col metodo binomiale; in questa Tabella, mostriamo un confronto
riassuntivo tra le accettanze per i vari generatori, a Leading ed a Next to
Leading Order, tutti in Athena tranne Horace, poiché esso, durante lo svolgimento di questo lavoro, non vi era ancora interfacciato. I canali considerati
− e d’ora in avanti sarà sempre cosı̀ − sono solo quelli con i muoni nello stato
finale.
W + → µ+ ν µ
W − → µ− ν µ
Z → µ+ µ −
Herwig
45.45 ± 0.30
39.98 ± 0.26
Pythia
45.99 ± 0.31
39.75 ± 0.26
Horace Born
45.82 ± 0.30
46.01 ± 0.31
38.93 ± 0.25
Horace NLO
47.87 ± 0.32
47.61 ± 0.32
42.01 ± 0.28
Mc@Nlo
48.31 ± 0.34
48.28 ± 0.34
42.62 ± 0.29
Tabella 4.5: Accettanze a LO e a NLO, con i tagli descritti in Tabella 4.2.
Nel caso di Mc@Nlo, è stata effettuata la propagazione standard per il calcolo
degli errori, in quanto per questo generatore, chiamando w il peso dell’evento,
l’accettanza è data da:
A=
a−b
x
eventi accettati(w > 0) − eventi accettati(w < 0)
≡
≡
(4.9)
eventi totali(w > 0) − eventi totali(w < 0)
c−d
y
118
4.3. CALCOLO DELL’ACCETTANZA
quindi l’errore associato si calcola come:
s
¤ £
¤ x2
1£
2 + (δb)2 + (δc)2 + (δd)2
δA =
(δa)
y2
y4
(4.10)
√
con δi ≡ i.
Visualizziamo le accettanze cosı̀ calcolate in Figura 4.11 per W → µν, in
Figura 4.12 per Z → µ+ µ− (b). Per quanto riguarda Z, i valori centrali
calcolati con Horace sono più bassi di quelli calcolati con gli altri generatori,
sia a Leading sia a Next to Leading Order, ma in accordo entro gli errori
statistici.
Per quanto riguarda W , invece, con Horace e con Mc@Nlo possiamo generare
separatamente W + e W − , e in questi casi le accettanze per i due processi
risultano molto simili.
Sia per W sia per Z troviamo un aumento dell’accettanza andando da Leading a Next to Leading Order, aumento che possiamo quantificare in ≈ 7%
per Z e in ≈ 4% per W , comunque minori dell’aumento del ≈ 12% trovato
per le sezioni d’urto.
Figura 4.11: Rappresentazione delle accettanze in Tabella 4.5 per W → µνµ .
4.3. CALCOLO DELL’ACCETTANZA
119
Figura 4.12: Rappresentazione delle accettanze in Tabella 4.5 per Z → µ+ µ− .
120
Capitolo 5
Errori sistematici nel calcolo
dell’accettanza
Nel Capitolo 4 ho calcolato l’accettanza geometrica per la produzione e il
decadimento leptonico dei bosoni vettori intermedi W e Z, con stati finali
elettronici e muonici. Sono stati impiegati a tale scopo diversi generatori
Monte Carlo, sia a Leading sia a Next to Leading Order.
In questo Capitolo, descriverò lo studio da me effettuato dell’errore sistematico teorico, per il solo stato finale muonico. Questo studio si svolge a
Next to Leading Order, con l’ausilio dei generatori Mc@Nlo e Horace.
Partendo dalla configurazione di default del Monte Carlo, descritta in Sezione 4.2, ho stimato il contributo all’errore sull’accettanza dato dai diversi
parametri, variandoli uno alla volta. Il modo in cui ciò viene fatto, dipende
dal parametro stesso: alcuni − come le correzioni elettrodeboli − vengono
inclusi o esclusi, altri − come il momento trasverso intrinseco dei partoni −
vengono variati in modo sistematico.
Cominciamo analizzando l’effetto delle PDF, che risulterà quello dominante.
Confronterò a tal proposito valori di best fit e incertezze ottenute col metodo hessiano CTEQ, per i set di PDF 6, 6.1 e 6.6; questi risultati verranno
comparati con quelli ottenuti tramite il metodo delle reti neurali (NN PDF).
Mi soffermerò inoltre sulle correlazioni indotte sulle accettanze dai parametri
che modellano le PDF.
Di seguito descriverò l’errore sistematico derivante dall’aggiunta di un momento trasverso intrinseco per i partoni, dalla variazione della quantità lecita
di radiazione di stato iniziale, dall’inclusione delle correzioni di QED e di
quelle elettrodeboli al processo duro elementare.
122
5.1
5.1.1
5.1. PDF
PDF
CTEQ 6.1
Come discusso in Sezione 3.3.2, il set di PDF ufficiale di ATLAS a Next to
Leading Order è il set di best fit CTEQ 6M [41]: pubblicato nel 2002, l’anno
successivo è stato aggiornato dal rilascio del set CTEQ 6.1M [53], che include
nuovi dati di jet ad alta energia.
Oltre al set di best fit, le CTEQ 6 e 6.1 comprendono entrambe 40 set di
errori, corrispondenti ai 20 autovettori del metodo hessiano (Sezione 3.3.1).
Per stimare l’incertezza sull’accettanza ∆A, ottenuta fissando il criterio di
tolleranza (3.38):
∆χ2globale ≤ T 2 = 100 ,
potremmo usare la master formula hessiana (3.46), che qui riscriviamo:
v
u 20
X£
¤2
1u
∆A = t
A(Sk+ ) − A(Sk− )
(5.1)
2 k=1
dove A(Sk± ) è l’accettanza calcolata in corrispondenza del set di PDF Sk ,
ottenuto spostandosi di T dal punto di minimo, rispettivamente in direzione
+ e –, lungo l’autovettore k. In tal modo però stiamo presupponendo che
l’accettanza cresca in una direzione e decresca nell’altra; se invece, per un
certo k, le variazioni di A(Sk+ ) e di A(Sk− ) vanno nello stesso verso, la (5.1)
non riesce a descriverne il comportamento in modo corretto.
Inoltre, la (5.1) è ottenuta sviluppando χ2globale al secondo ordine (equazione
(3.39)), e A al primo, entrambe ipotesi che non valgono per l’accettanza −
essendo questa l’integrale di convoluzione tra PDF e sezioni d’urto partoniche, con l’aggiunta dei tagli cinematici.
Il modo più generale per considerare variazioni asimmetriche consiste allora
nell’usare la formula seguente, dove per brevità definiamo A(Sk± ) = A±
k:
qP
¢¤2
¡ +
20 £
−
+
∆A =
k=1 max Ak − A0 , Ak − A0 , 0
(5.2)
qP
¢¤
£
¡
2
20
−
+
∆A− =
k=1 max A0 − Ak , A0 − Ak , 0
in modo da considerare la massima variazione in ciascuna direzione. Nel
−
caso che, per un dato k, le differenze A+
k − A0 e Ak − A0 siano per esempio
entrambe negative, la (5.2) prescrive di prendere 0 come massima variazione
in direzione positiva.
5.1. PDF
123
La collaborazione CTEQ trova che la massima variazione dal valore di best
fit per le sezioni d’urto si ha lungo gli autovettori 15 e 16(1 ) [41].
Ho quindi deciso di applicare la (5.2), piuttosto che la (5.1), per il calcolo
dell’accettanza per W + , W − e Z in muoni. A tal fine, ho simulato campioni
di 50 mila eventi, con Mc@Nlo in Stand Alone e in Athena, nella configurazione
di default già descritta, variando i set di PDF uno alla volta, e applicando
i tagli in Tabella 4.2. Secondo l’accordo di Les Houches [70], il set di best
fit CTEQ 6.1M è contraddistinto dal numero 10100, mentre i set da 10101
a 10140 sono i set di errori. In Figura 5.1 vediamo, per ogni processo, il
−
numero di autovettori per cui le differenze A+
k − A0 e Ak − A0 sono entrambe
maggiori (M) di A0 , entrambe minori (m), oppure una maggiore e una minore.
Il risultato che si trova è che la simmetria non è la caratteristica dominante;
questo conferma la scelta di usare la (5.2) per calcolare ∆A.
Figura 5.1: Simmetria delle accettanze per i k = 1, . . . , 20 autovettori hessiani.
−
Nelle Figure 5.2 e 5.3 mostriamo, per ogni k, le differenze A+
k − A0 e Ak − A0
a confronto con A0 . A differenza di quanto descritto in [41] per le sezioni
d’urto di produzione dei jet, dove solo la prima metà degli autovettori esibiva
un comportamento simmetrico, per l’accettanza non si osserva alcun tipo di
sistematica. Come aspettato, gli autovettori 15 e 16 (set da 29 a 32) presentano grandi variazioni, per tutti e tre i processi considerati. Con riferimento
alla Figura 5.2(a), possiamo identificare i seguenti comportamenti estremi:
• simmetria/asimmetria: set 25 e 26 / set 1 e 2,
• scarsa variazione dal valore di best fit: set 17 e 18,
• grande variazione dal valore di best fit: set 31 e 32.
1
Autovettore 15 significa 15esimo per grandezza, in ordine decrescente da 1 a 20. I
primi 10 sono quelli meglio vincolati e dal comportamento più simmetrico, mentre i restanti
corrispondono a direzioni piatte nello spazio dei parametri, sono dominati dall’incertezza
sulla distribuzione gluonica e spesso presentano un comportamento non lineare [41].
124
5.1. PDF
(a) Accettanza per W + → µ+ ν.
(b) Accettanza per W − → µ− ν.
−
Figura 5.2: Differenze A+
k − A0 e Ak − A0 a confronto con A0 (k = 1, . . . , 20),
per W + e W − in muoni (Mc@Nlo in Athena).
5.1. PDF
125
−
Figura 5.3: Differenze A+
k − A0 e Ak − A0 a confronto con A0 (k = 1, . . . , 20),
per Z in muoni (Mc@Nlo in Athena).
In Figura 5.4 (a), (b) e (c) vediamo i risultati conclusivi per l’accettanza in
funzione dei 40+1 set, con gli errori statistici calcolati col metodo binomiale,
mentre in Figura 5.5 (a), (b) e (c) confrontiamo le stesse accettanze in Athena
e in Stand Alone. Ne risulta che, analogamente a quanto trovato nel Capitolo
precedente per Herwig e Pythia, utilizzare un generatore Monte Carlo in
Stand Alone o in Athena non fa differenza, all’interno dell’errore statistico.
In particolare notiamo che W − e Z hanno accettanze di best fit praticamente
coincidenti tra Stand Alone e Athena, mentre per W + l’accettanza varia dello
≈ 0.4%. In Tabella 5.1 mostriamo i valori ottenuti per A0 e gli errori associati
±∆A.
Stand Alone
Athena
A0
+∆A
−∆A
A0
+∆A
−∆A
W + → µ+ νµ
48.13
1.77
0.79
48.31
1.29
0.86
W − → µ− ν µ
48.29
1.18
1.49
48.28
1.46
1.02
Z → µ+ µ−
42.62
1.51
1.19
42.62
1.74
0.79
Tabella 5.1: Accettanze di best fit ed errori hessiani per le CTEQ 6.1.
126
5.1. PDF
(a) W + → µ+ ν
(b) W − → µ− ν
(c) Z → µ+ µ−
Figura 5.4: Accettanza in funzione dei 40+1 set CTEQ 6.1 (Mc@Nlo in Athena):
errori statistici binomiali.
5.1. PDF
127
(a) W + → µ+ ν
(b) W − → µ− ν
(c) Z → µ+ µ−
Figura 5.5: Accettanza in funzione dei 40+1 set di errori CTEQ 6.1:
confronto tra Mc@Nlo in Athena e in Stand Alone.
128
5.1. PDF
L’asimmetria degli errori è dimostrata ancora una volta dal fatto che in tutti
i casi tranne uno (W − → µ− ν µ in Stand Alone) l’errore positivo è maggiore
di quello negativo. La variazione massima (1.77%) è raggiunta da +∆A per
W + in Stand Alone, quella minima (0.79%) da −∆A per W + in Stand Alone
e per Z in Athena.
5.1.2
Confronto con le CTEQ 6 e 6.6
Di seguito vengono confrontati i risultati appena ottenuti con quelli del set
ufficiale di ATLAS (CTEQ 6), e delle CTEQ 6.6 che, come abbiamo discusso in Sezione 3.3.3, costituiscono il primo tentativo sistematico di inclusione
degli effetti dovuti alla massa dei quark pesanti. Tale inclusione provoca un
aumento importante nelle sezioni d’urto di W e Z , per cui è interessante
studiarne l’impatto sull’accettanza.
Ricordiamo che le CTEQ 6.6 comprendono 44 set di errori (a causa dei due
parametri liberi aggiuntivi per il quark strange), quindi non possiamo confrontare, per il set k-simo, l’accettanza ottenuta con le CTEQ 6 o 6.1 con
quella ottenuta con le 6.6.
In questo studio, ho considerato separatamente i quattro set forniti dall’analisi 6.6 con una componente intrinseca di charm diversa da zero.
Ripeto dunque la procedura seguita per le CTEQ 6.1, simulando con
Mc@Nlo un sample per ogni set, e calcolando poi l’errore col metodo hessiano.
In questo caso viene usata solo la modalità Stand Alone, avendo verficato
nella Sezione precedente che il comportamento in Athena è analogo.
La Figura 5.6 (a), (b) e (c) mostra l’andamento delle sezioni d’urto teoriche inclusive in funzione dei set di errori, rispettivamente per W + , W − e
Z, coi tre gruppi di PDF appena descritti. La sezione d’urto aumenta del
∼ 6% con l’inclusione degli effetti di massa, come predetto teoricamente: a
piccoli e medi x, infatti, la diminuzione nella distribuzione dei sapori pesanti
provoca un aumento in quella dei sapori leggeri, u e d, che sono i principali
responsabili della produzione di W e Z; vediamo inoltre che le sezioni d’urto
per le CTEQ 6 e le 6.1 sono praticamente coincidenti.
In Figura 5.7 (a), (b) e (c) troviamo invece le accettanze; in questo caso, si
osserva una certa discrepanza per Z, comunque compresa all’interno degli
errori statistici.
5.1. PDF
129
Cross sections vs CTEQ6 error sets for W -> µ+ ν
Cross section (nb)
+
CTEQ 6.6
12.8
CTEQ 6
12.6
CTEQ 6.1
12.4
12.2
12
11.8
11.6
11.4
11.2
11
10.8
10.6
0
5
10
15
20
25
30
35
40
45
Error set
(a) W + → µ+ ν
-
Cross section (nb)
Cross sections vs CTEQ6 error sets for W -> µ- ν
CTEQ 6.6
9.4
CTEQ 6
9.2
CTEQ 6.1
9
8.8
8.6
8.4
8.2
8
7.8
0
5
10
15
20
25
30
35
40
45
Error set
(b) W − → µ− ν
Cross section (nb)
Cross sections vs CTEQ6 error sets for Z-> µ+ µ-
CTEQ 6.6
CTEQ 6
2.2
CTEQ 6.1
2.15
2.1
2.05
2
1.95
1.9
1.85
1.8
0
5
10
15
20
25
30
35
40
45
Error set
(c) Z → µ+ µ−
Figura 5.6: Sezione d’urto per i processi considerati, in funzione dei set di errori
CTEQ (Mc@Nlo in Athena).
130
5.1. PDF
Acceptances vs CTEQ6 error sets for W -> µ+ ν
Acceptance (%)
+
CTEQ 6.6
CTEQ 6
49.5
CTEQ 6.1
49
48.5
48
47.5
47
0
5
10
15
20
25
30
35
40
45
Error set
(a) W + → µ+ ν
-
Acceptance (%)
Acceptances vs CTEQ6 error sets for W -> µ- ν
CTEQ 6.6
50
CTEQ 6
CTEQ 6.1
49.5
49
48.5
48
47.5
0
5
10
15
20
25
30
35
40
45
Error set
(b) W − → µ− ν
Acceptance (%)
Acceptances vs CTEQ6 error sets for Z-> µ+ µ-
CTEQ 6.6
CTEQ 6
44.5
CTEQ 6.1
44
43.5
43
42.5
42
41.5
0
5
10
15
20
25
30
35
40
45
Error set
(c) Z → µ+ µ−
Figura 5.7: Accettanza per i processi considerati, in funzione dei set di errori
CTEQ (Mc@Nlo in Athena).
5.1. PDF
131
In Tabella 5.2 mostriamo un elenco riassuntivo dei valori trovati per le accettanze di best fit e gli errori hessiani, dove evidenziamo in neretto i valori
di riferimento delle CTEQ 6.1.
A0
+ ∆A - ∆A
µ
¶
δA
max
× 100
A
W + 6.1
48.13
1.77
0.79
3.682
W+ 6
48.38
0.932
1.11
2.29
W + 6.6
48.47
2.06
1.11
4.25
W − 6.1
48.29
1.18
1.49
3.08
W− 6
48.07
2.45
0.42
5.10
W − 6.6
48.89
0.89
1.71
3.49
Z 6.1
42.62
1.51
1.19
3.540
Z 6
43.15
0.39
2.79
6.47
Z 6.6
43.21
2.53
0.29
5.86
Tabella 5.2: Confronto delle accettanze di best fit e degli errori hessiani,
tra CTEQ 6, 6.1 e 6.6, simulate con Mc@Nlo in Stand Alone.
L’ultima colonna della Tabella 5.2 contiene il valore maggiore tra ±∆A, che
assumiamo come stima conservativa per l’errore simmetrizzato da associare
con A0 . Notiamo che i valori in questa colonna sono gli unici a rappresentare
una percentuale dell’accettanza stessa, essendo divisi ognuno per A0 .
Osserviamo che, passando dalle CTEQ 6.1 alle 6.6, l’errore massimo cresce
sistematicamente: dal 3.7% al 4.2% per W + , dal 3.1% al 3.5% per W − ,
dal 3.5% addirittura al 5.9% per Z. I valori per le CTEQ 6 invece non
mostrano un andamento netto: passando dalle CTEQ 6 alle 6.6, l’errore
massimo aumenta per W + , ma diminuisce per W − e Z. Questo è coerente
col fatto che il set CTEQ 6.1, pur non essendo quello ufficiale di ATLAS, ne
rappresenta la versione migliorata prima dell’inclusione degli effetti di massa.
In Tabella 5.3 confrontiamo invece i valori di best fit di sezioni d’urto e
accettanze. Calcoliamo lo shift per la variabile X, δX = X6.6M − X6.1M , e lo
dividiamo per la media. Per tutti e tre i processi, la variazione dell’accettanza
è minore dell’ 1%.
132
5.1. PDF
δσ
× 100
σ
δA
× 100
A
W+
5.6
0.2
W−
5.5
0.7
Z
6.2
0.1
Tabella 5.3: Differenze relative tra CTEQ 6.6M e 6.1M, per le sezioni d’urto e le
accettanze in Tabella 5.2.
Controlliamo infine che l’andamento delle variabili d’interesse − pseudorapidità e impulsi trasversi dei leptoni uscenti − non sia modificato passando
dal set di best fit CTEQ 6.1M al 6.6M. In Figura 5.8 confrontiamo pT ed η
del muone prodotto da W − (Mc@Nlo in Athena), dopo aver applicato i tagli
di accettanza. Le sezioni d’urto con cui normalizziamo le distribuzioni sono:
8316 pb per CTEQ 6.1M e 8857 pb per CTEQ 6.6M.
Figura 5.8: Confronto tra le distribuzioni ottenute coi set CTEQ 6.1M e 6.6M,
per pT ed η di µ− in W − → µ− ν (Mc@Nlo in Athena).
Ci siamo focalizzati su W − perché per questo canale il valore di best fit
dell’accettanza ha la variazione maggiore (Tabella 5.3). I due grafici inferiori
in Figura 5.8 mostrano il rapporto tra le distribuzioni sovrastanti; i rapporti
sono compatibili con 1, tranne nelle zone (alti pT , valori estremi di η) in cui
la statistica bassa causa fluttuazioni non fisiche.
5.1. PDF
5.1.3
133
Correlazioni
In Sezione 3.3.4 è stata descritta la tecnica usata dalla collaborazione CTEQ
per quantificare la correlazione tra le sezioni d’urto di W e Z, correlazione
dovuta ai gradi di libertà comuni dati dalle PDF. Più le variabili sono correlate, e più la curva che le descrive da circonferenza diventa ellisse, e infine
retta. La conclusione dello studio [35] condotto su σW e σZ , è che si osserva
una forte correlazione per le CTEQ 6.1, debole per le CTEQ 6.6.
Questo risultato ha una duplice interpretazione: se due variabili sono scorrelate è più semplice tenerne sotto controllo i gradi di libertà in modo indipendente, d’altronde la forte correlazione permette di ridurre l’incertezza sul
rapporto.
Ripetiamo ora quest’analisi per le accettanze. Se chiamiamo ∆X e ∆Y le
incertezze sulla quantità X, Y calcolate con la master formula simmetrica
(5.1), e riscaliamo le variabili secondo la (3.56),

 δX = ∆X cos θ
(5.3)

∆X
δY = (Y − Y0 ) ∆Y = ∆X cos(θ + φ)
al variare di θ tra 0 e 2π si descrive una curva che ha inclinazione fissa (π/4
se cos φ > 0), e la cui forma dipende dalla correlazione.
In Figura 5.9 si può vedere il risultato per la correlazione tra le accettanze di
W e Z (rispettivamente asse X e Y ) con le CTEQ 6.1 e 6.6. Su ogni grafico è
riportato il valore di cos φ: vediamo che la correlazione è maggiore per le 6.1
(cos φ = 0.78) che per le 6.6 (cos φ = 0.64). Notiamo che ci stiamo riferendo
al processo W → µν, ricostruito a partire da W + e W − simulati con Mc@Nlo
e pesati con le rispettive sezioni d’urto.
Correlazione tra le accettanze di W e Z con le PDF CTEQ6.6 : cos(ϕ )=0.64
1
Y-Y0 dopo il rescaling
Y-Y0 dopo il rescaling
Correlazione tra le accettanze di W e Z con le PDF CTEQ6.1 : cos(ϕ )=0.78
0.5
0
1
0.5
0
-0.5
-0.5
-1
-1
-1
-0.5
0
0.5
1
X-X0 dopo il rescaling
(a) CTEQ 6.1 (cos φ = 0.78).
-1
-0.5
0
0.5
1
X-X0 dopo il rescaling
(b) CTEQ 6.6 (cos φ = 0.64).
Figura 5.9: Correlazione tra AW e AZ indotta dai gradi di libertà delle PDF.
134
5.1. PDF
(a) CTEQ 6 (cos φ = 0.51).
(b) CTEQ 6.1 (cos φ = 0.37).
(c) CTEQ 6.6 (cos φ = 0.34).
Figura 5.10: Correlazione tra AW + e AW − indotta dai gradi di libertà delle PDF.
In Figura 5.10 vediamo invece le curve per W + e W − (rispettivamente asse
X e Y ), con le CTEQ 6, 6.1 e 6.6. Come indicano i valori del coseno, la
correlazione, costante per le CTEQ 6.1 e le 6.6, in entrambi i casi è minore
di quella per le 6.
Se non riscaliamo gli assi, e grafichiamo i valori assoluti delle accettanze, le
curve che ne risultano sono tanto più sovrapposte quanto più le accettanze
calcolate con le diverse PDF sono compatibili tra loro. In Figura 5.11 questo
viene fatto per W + ÷ W − (a) e per W + ÷ Z (b).
I punti al centro di ogni ellisse indicano il valore di best fit, mentre le curve
corrispondono a un livello di confidenza del 95%, ottenuto ancora una volta
con la master formula per gli errori simmetrici. In Figura 5.11(a) sono inserite
anche le accettanze calcolate con una componente intrinseca di quark charm
diversa da zero (Sezione 3.3.3).
A differenza di quanto ricavato in [35] per le sezioni d’urto e mostrato in
Figura 3.20(a), per le accettanze si trova ottimo accordo tra i risultati ottenuti
con tutte le PDF considerate. I best fit delle versioni precedenti (CTEQ 6 e
6.1) sono contenuti dall’ellisse 6.6, cosı̀ come i punti a componente intrinseca
di charm diversa da zero, che risultano compatibili anche con l’analisi 6.1. In
effetti, in questo caso la variazione minima dell’accettanza è giustificata dal
fatto che una componente intrinseca siffatta è richiesta essere hxic+c . 0.02
dai dati attuali.
5.1. PDF
135
(a) W + ÷ W −
(b) W + ÷ Z
Figura 5.11: Compatibilità tra i range hessiani di accettanza.
5.1.4
Neural Network PDF
Come discusso in Sezione 3.4, la versione 1.0 delle Neural Network (NN) PDF
[3] contiene un insieme ristretto di 100+1 set di PDF (sui totali 1000+1), utili
da usare con i generatori Monte Carlo. Questi 100+1 set sono costituiti da
100 set di errori q (k) e da un set centrale q (0) ottenuto come la media gaussiana
dei precedenti. Abbiamo visto che, per la generica variabile che dipende dalle
PDF, F[{q}], la miglior stima risulta la media calcolata sui 100 set di errori,
hF[{q}]i, piuttosto che il singolo valore calcolato in corrispondenza del set
centrale, F[{q (0) }].
Ho simulato dunque i decadimenti dei bosoni vettori in muoni con i 100+1
set delle NN PDF, con Mc@Nlo in modalità Stand Alone (50 mila eventi per
campione), e ho calcolato l’accettanza per ognuno di essi: le distribuzioni che
136
5.1. PDF
se ne ricavano vengono fittate con delle Gaussiane (Figura 5.13 (b), (d) ed
(f)). Lo stesso ho fatto per le sezioni d’urto teoriche relative ad ognuno di
questi set (Figura 5.13 (a), (c) ed (e)). I valori di χ2 che ne risultano, divisi
per i gradi di libertà, sono raccolti in Tabella 5.4.
χ2 /ndf
W + → µ+ ν
Sezione d’urto
Accettanza
W − → µ− ν
Z → µ+ µ−
57.5/33 = 1.7 62/38 = 1.6
46/36 = 1.3
78/36 = 2.2
60/20 = 3
106/26 = 4.1
Tabella 5.4: Valori di χ2 ottenuti dal fit gaussiano alle sezioni d’urto e alle
accettanze in Figura 5.5.
Risulta evidente che l’ipotesi gaussiana è soddisfatta dalle sezioni d’urto meglio che dalle accettanze (χ2 /ndf tra 1 e 2): per queste ultime, infatti, l’andamento gaussiano viene distorto dalla selezione degli eventi fatta tramite i
tagli cinematici.
Possiamo comunque stimare in modo qualitativo l’accettanza e il suo errore
per mezzo della media hA i e della larghezza σ(A) della distribuzione risultante. In Tabella 5.5 vengono confrontati i valori cosı̀ ottenuti con quelli
dell’analisi hessiana (l’accettanza di best fit A0 e gli errori ±∆A). Stiamo
usando le PDF CTEQ 6.1 per coerenza col fatto che l’analisi NN non comprende gli effetti di massa per i quark pesanti (Sezione 3.4); tutti i campioni
sono stati simulati con Mc@Nlo Stand Alone (i risultati hessiani sono quelli
dati in Tabella 5.1).
hA i
2 σ(A)
A0 Hess
+∆A Hess −∆A Hess
W + → µ+ ν
48.27
1.30
48.13
1.77
0.79
W − → µ− ν
49.62
1.88
48.29
1.18
1.49
Z → µ+ µ−
43.35
1.37
42.62
1.51
1.19
Tabella 5.5: Confronto tra l’analisi NN e l’analisi hessiana (CTEQ 6.1), con
Mc@Nlo Stand Alone.
I risultati in Tabella 5.5 mostrano che le accettanze NN crescono rispetto a
quelle hessiane, restando comunque compatibil entro due deviazioni standard.
Come osservato in precedenza (Sezione 3.3.1), l’errore hessiano A0 ± ∆A
corrisponde ad un livello di confidenza del 95%, quindi va confrontato con
l’intervallo 2σ ottenuto dall’analisi NN. Cosı̀ facendo, si vede che gli errori
5.1. PDF
137
calcolati nei due modi sono dello stesso ordine: per W + e Z l’errore NN
risulta intermedio tra i due valori hessiani, mentre per W − esso è maggiore di
entrambi. Ciò è molto interessante, se si considera che le bande di incertezza
per le distribuzioni partoniche, trovate dall’analisi NN, sono in tutti i casi
maggiori delle bande calcolate dalle altre collaborazioni; tale effetto non si
propaga sull’accettanza.
Lo scarto maggiore tra i risultati delle due analisi, si nota a proposito
della differenza tra W + e W − : mentre nel caso hessiano le accettanze sono
praticamente coincidenti, nel caso NN la differenza relativa è del ≈ 2.7%. In
Figura 5.12 confrontiamo le distribuzioni di pT (a) e di η (b) per il muone
uscente da W + e da W − , con i set di best fit delle NN PDF e delle CTEQ
6.1, dopo l’applicazione dei tagli cinematici sulle altre variabili. Le sezioni
d’urto differenziali dσ/dpT e dσ/dη sono ottenute normalizzando i conteggi
con le relative sezioni d’urto:
σW + = 11320 pb
σW + = 11520 pb
σW − = 8316 pb
σW − = 8180 pb
CTEQ 6.1 set di best fit
NN PDF set medio
A meno di fluttuazioni statistiche, non si osservano differenze di rilievo nelle
distribuzioni.
Tµ
dσ/d p (pb/GeV)
Tµ
per W ->µ ν, con p
Tν
> 20 GeV e |η|µ< 2.5
Distribuzione di ηµ per W ->µ ν, con p , p > 20 GeV
Tµ
W piu NNPDF
def
Entries
Mean
RMS
400
17913
32.49
10.46
W meno NNPDF
350
W piu CTEQ6.1M
300
W meno CTEQ6.1M
dσ/d ηµ(pb)
Distribuzione di p
Tν
def
W piuEntries
NNPDF
24132
Mean
RMS
200
-0.02909
2.283
W meno NNPDF
180
W piu CTEQ6.1M
160
140
250
120
200
100
W meno CTEQ6.1M
80
150
60
100
40
50
0
0
20
10
20
30
40
50
60
p
Tµ
(a) CTEQ 6.1
70
(GeV)
0
-6
-4
-2
0
2
4
6
ηµ
(b) CTEQ 6.6
Figura 5.12: Confronto tra le distribuzioni relative al muone uscente da W + e
W − , simulate con le NN PDF e con le CTEQ 6.1 (Mc@Nlo Stand Alone).
In Figura 5.13 mostriamo le distribuzioni di sezioni d’urto e accettanze, per i
tre processi studiati, fittate con una gaussiana. Su ogni grafico sono riportati
anche i risultati ottenuti con alcuni dei set di PDF più recenti forniti dalle
altre collaborazioni: i già discussi CTEQ 6M, 6.1M, 6.6M per quanto riguarda
le CTEQ, MRST2001E [32] e MRST2004 [33], e Alekhin02NLO [45]. Tutti
i set sono i set di best fit delle rispettive analisi, e sono accurati a Next to
Leading Order. I set CEQ6.6M e Alekhin02NLO sono gli unici a incorporare
gli effetti di massa per i quark c e b, ma lo fanno in maniera diversa: l’analisi
138
5.1. PDF
CTEQ usa lo schema VFNS, quella di S. Alekhin usa invece il meno accurato
FFNS (Sezione 3.3.3). In entrambi i casi, vediamo che le sezioni d’urto
aumentano rispetto a quelle calcolate con partoni a massa nulla. I valori di
best fit delle accettanze sono sempre compresi nell’inviluppo gaussiano; nel
caso di W − , notiamo che il valore centrale NN è maggiore di tutti gli altri
risultati.
(a) σ(W + → µ+ ν)
(b) A(W + → µ+ ν)
(c) σ(W − → µ− ν)
(d) A(W − → µ− ν)
(e) σ(Z → µ+ µ− )
(f) A(Z → µ+ µ− )
Figura 5.13: Sezioni d’urto e accettanze simulate con i 100+1 set Neural Network,
a confronto con i risultati dei più recenti best fit delle altre collaborazioni.
5.2. MOMENTO TRASVERSO INTRINSECO DEI PARTONI
139
5.2
Momento trasverso intrinseco dei partoni
Per stimare l’impatto sull’accettanza di un momento trasverso intrinseco dei
partoni non nullo (Sezione 3.1.4), ipotizziamo una distribuzione gaussiana
per kT intrinseco, centrata a 0, con larghezza variabile tra 0 (valore di default) e 2 GeV (il massimo valore permesso dai fit di CDF [9], [21]). Ho
simulato dunque campioni di eventi W e Z in muoni, con Mc@Nlo in Athena,
in cui faccio variare la larghezza della gaussiana, con passi di 250 MeV.
Le accettanze cosı̀ ottenute vengono fittate con una retta, forzando l’intercetta (p0 in Figura 5.14) a coincidere col valore dell’accettanza di default
(hkT i = 0). Per tutti e tre i processi studiati, il coefficiente angolare che ne
risulta (p1 ) è compatibile con 0, quindi se ne deduce che la presenza di un
kT intrinseco non ha un effetto netto sull’accettanza.
Verificato ciò, possiamo fittare i punti con una costante, e se forziamo ancora
l’intercetta a coincidere con l’accettanza di default, il fit ci fornisce l’errore su
questo valore, che rappresenta la prima stima dell’errore sistematico dovuto
al kT intrinseco.
Un modo indipendente per stimare l’errore, consiste nel calcolare la differenza tra Adef e l’accettanza ottenuta con un valore intermedio, kT intrinseco =
1 GeV; in Tabella 5.6 i risultati di questo secondo metodo sono confrontati
con quelli del fit prima discusso.
Gli errori che ne risultano sono praticamente coincidenti, e sono tutti
dell’ordine dello 0.1%, molto minore dell’effetto calcolato per le PDF.
Possiamo dunque concludere che l’impatto sull’accettanza di un kT intrinseco
compreso tra 0 e 2 GeV è trascurabile.
W+
W−
Z
Accettanza di default (%)
48.31
48.28
42.62
± δA % (fit)
0.08
0.15
0.14
± δA % (Adef − A1 GeV )
0.08
0.13
0.15
Tabella 5.6: Errore sistematico dovuto a una componente intrinseca di momento
trasverso partonico compresa tra 0 e 2 GeV.
5.3. RADIAZIONE DI STATO INIZIALE
Accettanza (%)
Accettanza per W+ in µ+ ν vs rms kT intrinseco
Prob
p0
49
p1
χ2 / ndf
-
χ2 / ndf
2.679 / 7
0.9131
48.31 ± 0.1516
0.04485 ± 0.1273
48.5
Accettanza per W in µ- ν vs rms k T intrinseco
Accettanza (%)
140
Prob
49
0.7493 / 7
0.9979
p0
48.28 ± 0.2686
p1
-0.03817 ± 0.23
48.5
48
48
47.5
47.5
0
0.5
1
47
0
1.5
2
rms k_T intrinseco (GeV)
0.2
0.4
0.6
(a) W + → µ+ ν
1
1.2
1.4
1.6
1.8
2
2.2
rms k_T intrinseco (GeV)
(b) W − → µ− ν
Accettanza per Z in µ+ µ- vs rms kT intrinseco
Accettanza (%)
0.8
χ2 / ndf
Prob
43.5
0.8175 / 7
0.9973
p0
42.62 ± 0.2551
p1
-0.06969 ± 0.2157
43
42.5
42
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
2.2
rms k_T intrinseco (GeV)
(c) Z → µ+ µ−
Figura 5.14: Accettanze calcolate con Mc@Nlo in Athena − variando la larghezza
della distribuzione gaussiana di kT intrinseco − fittate con una retta.
5.3
Radiazione di stato iniziale
Il parametro che controlla la radiazione di stato iniziale (ISR) in Herwig si
chiama qspac, ed equivale alla scala di energia a cui si ferma la backward
evolution (Sezione 3.5.2) e vengono ricostruiti i protoni iniziali. Di default
questo parametro vale qspac = 2.5 GeV: per valori maggiori si ha una quantità maggiore di radiazione space-like.
Ho simulato quindi, con Mc@Nlo in Athena, campioni di W + , W − e Z in cui si
richiede qspac=0(2 ), 1, 2.5 GeV, per studiare la dipendenza dell’accettanza
dalla radiazione di stato iniziale. Purtroppo qspac non può essere variato in
modo più fine, per cui non è possibile ripetere per questo effetto lo studio
fatto per il kT intrinseco nella Sezione precedente. Possiamo comunque renderci conto di cosa succede alle distribuzioni dei bosoni vettori e dei leptoni
finali quando diminuiamo la quantità permessa di ISR.
2
Porre qspac = 0 GeV equivale a spegnere la radiazione di stato iniziale all’interno del
generatore Monte Carlo. Questo non esclude però la radiazione di stato finale, che è di
tipo time-like; in particolare, restano permessi lo splitting e l’emissione soffice da parte dei
gluoni che a NLO accompagnano il bosone vettore.
5.3. RADIAZIONE DI STATO INIZIALE
141
In Sezione 4.2.1 ho già mostrato l’impatto della ISR sugli eventi simulati con
Herwig a LO, per la distribuzione in angolo azimutale (Figura 4.5) e per
quella in pT del muone prodotto da W (Figura 4.7).
Vediamo ora, all’ordine superiore, com’è distribuita la sezione d’urto differenziale dσ/dpT per µ+ prodotto da W + , al variare di qspac. Sulla distribuzione sono stati imposti i tagli di accettanza relativi alle altre variabili
(Figura 5.15).
Sezione d’urto differenziale in p
per W+ ->µ + ν, con p
Tν
> 20 GeV e |η|µ < 2.5
qspacnosp
= 0 GeV
Entries
Mean
RMS
22026
32.94
7.367
qspac = 1 GeV
600
T
dσ/dp (pb/GeV)
Tµ
700
qspac = 2.5 GeV
500
400
300
200
100
0
0
10
20
30
40
50
60
p del muone (GeV)
T
Figura 5.15: Spettro in pT di µ+ prodotto da W + , per qspac = 0, 1, 2.5 GeV.
In Tabella 5.7 sono riassunti i valori di accettanza calcolati al variare di qspac
per tutti i processi studiati, oltre alla differenza percentuale tra l’accettanza
con la ISR accesa e spenta.
W+
W−
Z
A di default (%)
48.31
48.28
42.62
A per qspac = 0 GeV (%)
51.22
51.16
43.35
A per qspac = 1 GeV (%)
50.93
50.82
43.19
|Adef − Aqspac=0 GeV |
× 100
Adef
6.02
4.49
1.71
Tabella 5.7: Effetto sull’accettanza della variazione della quantità di radiazione
di stato iniziale permessa.
142
5.3. RADIAZIONE DI STATO INIZIALE
Dalla Figura 5.15 e dalla Tabella 5.7, risulta che i valori di qspac pari a 0 e 1
GeV danno risultati molto simili tra loro, e nettamente maggiori di quanto si
trova per qspac = 2 GeV. Ciò ci autorizza, nel seguito, a considerare solo la
differenza tra le due situazioni estreme: la configurazione di default e quella
in cui la radiazione di stato iniziale è assente.
In Figura 5.16 vediamo l’impulso trasverso del W + con e senza ISR. Le due
distribuzioni sono molto diverse, in particolare la curva è piccata a bassi
valori di pT (≈ 3 GeV) solo quando la ISR è spenta.
Figura 5.16: Distribuzione in impulso trasverso per W + con (punti neri) e senza
(area rossa) ISR.
Il µ+ prodotto dal decadimento di W + risente dello stesso effetto, come
mostrato in Figura 5.17 con la ISR accesa (a) e spenta (b).
(a) Momento trasverso.
(b) Pseudorapidità.
Figura 5.17: Distribuzioni per µ+ prodotto dal decadimento di W + , con (in
nero) e senza (in rosso) ISR.
É interessante studiare cosa succede fissando due delle tre soglie, e lasciando
libera l’altra. Richiediamo in particolare che il neutrino abbia pT > 20 GeV
e il muone |η| < 2.5, quindi grafichiamo l’accettanza ottenuta in funzione
5.3. RADIAZIONE DI STATO INIZIALE
(a) Con la ISR.
143
(b) Senza la ISR.
Figura 5.18: Correlazione in impulso trasverso tra µ+ e νµ prodotti da W + .
del taglio rimanente, quello sul pT del muone: in Figura 5.19(a) vediamo i
risultati includendo ed escludendo la ISR. Il plateau più pronunciato deriva dal fatto che, data la forte correlazione tra gli impulsi quando la ISR è
spenta, se fissiamo pT ν > 20 GeV è improbabile trovare pT µ < 20 GeV(3 ), e
questa probabilità non è molto sensibile alla soglia scelta. Tra 20 e 40 GeV,
dove si concentra la maggior parte degli eventi, la curva scende velocemente,
dopodiché tende asintoticamente a zero. Se accendiamo la ISR, d’altronde, l’andamento diventa monotòno, in quanto la mancanza di correlazione
impedisce la formazione del plateau a bassi impulsi.
(a) W + → µ+ νµ .
(b) Z → µ+ µ− .
Figura 5.19: Accettanze in funzione della soglia in pT di uno dei leptoni, fissati
gli altri tagli. Le curve nere hanno la ISR accesa, quelle nere spenta.
Il risultato per W − è identico a quello appena descritto, mentre per Z, come
abbiamo visto nella Tabella 5.7, l’accettanza varia meno al variare di qspac,
e infatti per Z si ha la distribuzione in Figura 5.19(b): il plateau è meno
pronunciato, e le due curve sono praticamente sovrapposte a bassi e medi pT .
3
Cambiando pT ν minimo, l’estensione del plateau cambia di conseguenza.
144
5.4. CORREZIONI DI QED: PHOTOS
Concludiamo questa discussione sulla radiazione di stato iniziale, sottolineando che, poiché non è possibile variare in modo fine il valore di qspac, non
siamo in grado di ripetere lo studio fatto per il kT intrinseco dei partoni, e
ottenere una stima dell’effetto sistematico. I valori riportati in Tabella 5.7
non possono essere usati per ricavare l’errore dell’accettanza, in quanto descrivono una situazione “non fisica” in cui la radiazione di stato iniziale è del
tutto assente.
5.4
Correzioni di QED: Photos
Photos [36] è un algoritmo universale, interfacciabile con qualsiasi generatore
Monte Carlo, che simula le correzioni radiative O(α) di QED − emissione
di fotoni reali e virtuali − per i decadimenti di particelle e risonanze. La
sua prima versione risale al 1991, e negli anni è stato ampiamente usato, per
esempio come tool di precisione nella misura della massa del W al Tevatron
e a LEP, e nella misura degli elementi della matrice CKM tramite i decadimenti dei mesoni K e B.
Sebbene la bremsstrahlung di QED sia un effetto elementare di Meccanica
Quantistica, la maggior parte dei generatori Monte Carlo non la considera
in modo dettagliato, limitandosi a fornire quantità inclusive, tranne che per
pochi canali.
Photos permette l’implementazione sistematica delle correzioni di QED, grazie alla proprietà di fattorizzazione della bremmstrahlung: in buona approssimazione, infatti, la sezione d’urto differenziale si può fattorizzare in un
termine indipendente dalle correzioni di QED e in un fattore universale di
bremmstrahlung. Quest’ultimo dipende solo dai quadrimpulsi delle particelle coinvolte, e non dai dettagli del processo. In questo modello semplificato,
che comprende le correzioni reali e quelle virtuali, si converge a un risultato
finito sia nella regione soffice dello spazio delle fasi (Eγ → 0) sia in quella
collineare (θγX → 0). In particolare, la divergenza soffice è regolarizzata dall’introduzione di un’energia di cut-off per l’emissione, richiesta che si concilia
con l’esperimento in quanto anche i calorimetri sono limitati da una risoluzione intrinseca.
La produzione di fotoni in aggiunta al processo principale può essere implementata in due modi diversi. Il primo modo consiste nel fissare il numero
di fotoni, cosicché la probabilità di produzione è data dalla distribuzione binomiale. Altrimenti, si lascia libero il numero di fotoni prodotti, che viene
calcolato secondo la probabilità di Poisson; questo metodo risulta più stabile
e permette di abbassare il cut-off in energia.
L’interfaccia di Photos in Athena è attualmente in corso di validazione; si
5.4. CORREZIONI DI QED: PHOTOS
145
riscontrano problemi per quanto riguarda la conservazione del quadrimpulso
− ad un’emissione di QED deve seguire il riaggiustamento dei quadrimpulsi
di tutte le particelle collegate a quella che ha emesso [67].
Un altro problema, forse più importante, è rappresentato dall’interfaccia
tra Photos e Mc@Nlo, e precisamente dal fatto che Photos non può aggiungere l’emissione di fotoni ai bosoni vettori, in quanto nell’event record di
Mc@Nlo essi sono riportati solo il ≈ 20% delle volte. Per questo, al momento
solo Pythia fornisce una descrizione verosimile delle correzioni di QED alla
produzione di W e Z.
Questo effetto è stato studiato simulando campioni di eventi in cui non viene utilizzato il tool Photos, e confrontando i risultati con le accettanze di
default. Faccio questo per Herwig, Pythia e Mc@Nlo, il tutto all’interno del
framework Athena.
In Tabella 5.8 sono riportate le accettanze di default per i vari generatori, e
la differenza relativa in percentuale quando Photos viene spento, con l’errore
dato dalla propagazione. I valori che ne risultano sono tutti compatibili con
zero entro gli errori statistici; la differenza massima si registra per Herwig,
quella minima per Mc@Nlo, mentre Pythia − che come abbiamo detto incorpora la trattazione più fisicamente attendibile delle correzioni di QED − si
situa su valori intermedi.
W + → µ+ νµ
W − → µ− ν µ
Z → µ+ µ−
Herwig
45.45 ± 0.30
39.98 ± 0.26
|Aon − Aoff |
× 100
Aon
1.28 ± 1.75
1.96 ± 2.04
Pythia
45.99 ± 0.31
39.75 ± 0.26
|Aon − Aoff |
× 100
Aon
0.61 ± 1.16
1.37 ± 1.19
Mc@Nlo
48.31 ± 0.34
48.28 ± 0.34
42.62 ± 0.29
|Aon − Aoff |
× 100
Aon
0.15 ± 0.78
0.19 ± 0.85
0.33 ± 0.93
Tabella 5.8: Effetto sistematico delle correzioni di QED (Photos).
146
5.4. CORREZIONI DI QED: PHOTOS
In Figura 5.20 vediamo la distribuzione del pT del µ− prodotto da Z → µ+ µ− ,
con e senza Photos: sia per Herwig che per Pythia la differenza è compatibile
con le fluttuazioni statistiche.
(a) Pythia
(b) Herwig
Figura 5.20: Effetto delle correzioni di QED sulla distribuzione in pT per µ−
prodotto da Z.
In Tabella 5.9 analizziamo, usando un sample Z → µ+ µ− generato con
Herwig in Athena, il numero di fotoni presenti nell’event record. Come aspettato, quando Photos viene spento non si trovano più fotoni provenienti dal
processo principale, mentre restano costanti quelli prodotti dal decadimento
dei mesoni leggeri (π, η, ω) e da altri fotoni.
Photos on Photos off
Fotoni finali
10324
9185
Fotoni da π 0
8556
8326
Fotoni da η
610
605
Fotoni da ω
132
131
Fotoni da γ
79
79
Fotoni da Z → µ+ µ−
827
0
Tabella 5.9: Conteggio dei fotoni finali in un sample Z → µ+ µ− , prodotto con
Herwig inserendo ed escludendo Photos.
5.5. CORREZIONI ELETTRODEBOLI: HORACE
5.5
147
Correzioni elettrodeboli: Horace
Horace [8] è un generatore Monte Carlo dedicato alla simulazione dei processi Drell-Yan con l’inclusione delle correzioni radiative elettrodeboli (EW)
esatte a 1 loop.
Se l’inclusione della radiazione di QCD è imprescindibile per avere una descrizione verosimile di qualsiasi processo ad LHC, è altrettanto importante
l’inclusione di quelle EW se si vuole giungere ad una misura di precisione
delle osservabili elettrodeboli. Al Tevatron, per esempio, queste correzioni
provocano uno shift in MW di 160 MeV nel canale muonico, e questo shift
è dovuto principalmente alla radiazione di QED dello stato finale [66]; per
quanto riguarda l’esperimento ATLAS, che come abbiamo visto in Sezione
2.3.1 si propone una misura con ∆MW ≈ 15 MeV, queste correzioni non possono venire trascurate.
Le correzioni EW sono dominate dalla radiazione di fotoni reali, in quanto essa comporta l’apparizione di logaritmi collineari della forma α/π log(ŝ/m2` ).
I logaritmi dominanti, di ordine O(α2 ), vengono risommati in modo esponenziale. La Figura (5.21) mostra l’impatto di queste correzioni sulla massa
trasversa del W ad LHC [8]: a sinistra sono incluse solo le correzioni di QED
O(α), a sinistra quelle di ordine maggiore, ottenute tramite l’esponenziazione. Al primo ordine, ne risulta uno shift ∆MW = 110 MeV per W → µν e
di 20 MeV per W → eν, mentre le correzioni indotte dagli ordini superiori
sono trascurabili per entrambi i canali.
Figura 5.21: Impatto delle correzioni di QED a ordine O(α) (a sinistra) e agli
ordini superiori esponenziati (a destra), sullo shift in massa ∆MW ad LHC [8].
L’inclusione delle correzioni EW complete a 1 loop viene effettuata in [28]
148
5.5. CORREZIONI ELETTRODEBOLI: HORACE
per il W . Queste correzioni si dividono in reali e virtuali,
M = M0 + MVα + MR ,
(5.4)
dove M0 è l’elemento di matrice a tree level.
Correzioni elettrodeboli virtuali
Le correzioni virtuali contribuiscono a |M|2 con prodotti del tipo 2 Re(MVα M∗0 ).
Alcuni diagrammi rappresentativi sono mostrati in Figura 5.22 per il processo partonico ud → W → µνµ : i controtermini, le correzioni di self-energy
(a), (b) e (c), le correzioni di vertice (e), (f) e i diagrammi box (d).
Figura 5.22: Correzioni elettrodeboli virtuali al processo ud → W → µνµ .
La divergenza associata col polo nel propagatore del W (diagrammi (b) e
(c)), viene regolarizzata introducendo la larghezza di decadimento ΓW :
1
−→
s−
+ iΓW MW
1
1
2
2
(ΠW W (s) + δMW
+ (s − MW
)δZW )
(ig µν )
2
2
s − MW + iΓW MW
s − MW
(5.5)
2
dove ΠW W (s) è la parte trasversa della correzione self-energy, mentre δMW
e δZW sono rispettivamente le costanti di rinormalizzazione della massa e
della funzione d’onda del W . Osserviamo che l’ultimo fattore nella (5.5) non
contiene ΓW per evitare il double-counting; l’intera espressione è regolare al2
l’ordine O(α) per s → MW
.
(ig µν )
2
MW
5.5. CORREZIONI ELETTRODEBOLI: HORACE
149
Tutti i diagrammi che comportano lo scambio di una Z danno origine ai cosiddetti logaritmi elettrodeboli di Sudakov, della forma α log (s/MZ2 ), la cui
importanza cresce per masse invarianti crescenti, mentre sono praticamente
trascurabili alla risonanza W .
Nella scelta delle costanti di rinormalizzazione e dei controtermini, giocano
un ruolo fondamentale i parametri del Modello Standard assunti come input al calcolo (ovviamente, la dipendenza dallo schema scomparirebbe se si
fosse in grado di risommare esattamente la serie perturbativa). Gli schemi
fondamentali sono tre: 1) (α, Gµ , MZ ), 2) (α, MW , MZ ), 3) (Gµ , MW , MZ ).
Ai collider adronici si preferiscono gli ultimi due, che prendono MW come
input. Il terzo in particolare, detto schema Gµ , è considerato il migliore per
la Fisica del W . In Horace sono implementati entrambi gli schemi α(0) e
Gµ , e l’utente può scegliere quello in cui effettuare la propria simulazione.
Correzioni elettrodeboli reali
Le correzioni reali consistono nell’emissione di un fotone reale da parte di
tutte le gambe cariche del processo (compreso il bosone di gauge virtuale),
come rappresentato dai diagrammi in Figura 5.23.
Figura 5.23: Correzioni elettrodeboli reali al processo ud → W → µνµ .
Il modo di trattare questi diagrammi è analogo a quello di Photos, discusso
in Sezione 5.4: si introduce un cut-off sull’energia del fotone emesso, λ, tale
da non modificare l’ampiezza a tree level 2 → 2, e si arriva a una forma
fattorizzata:
Z
X
d3 kγ
2
2
|M
|
=
|M
|
δSB (f, λ)
(5.6)
1
0
3
Ω (2π) 2Eγ
+
f =u,d,e
dove il fattore di soft bremsstrahlung δSB dipende dal cut-off infrarosso λ e
dalla particella esterna emettitrice, in particolare dalla sua massa e dalla sua
carica.
150
5.5. CORREZIONI ELETTRODEBOLI: HORACE
Oltre a calcolare esattamente le correzioni elettrodeboli a ordine O(α), bisogna considerare le correzioni di QED a ordini superiori, come quelle incluse
in Photos, che risomma a tutti gli ordini i logaritmi dominanti. Grazie a
questo matching, Horace sarà in grado di interfacciarsi a Photos in Athena,
implementazione che però durante lo svolgimento di questo lavoro di Tesi
non è ancora conclusa.
Il mio studio è quindi consistito nel simulare eventi W e Z con Horace
in modalità Stand Alone, sia a Leading Order − da confrontare coi risultati di Herwig e Pythia − sia a 1 loop, nello schema Gµ esponenziato −
da confrontare con Mc@Nlo. Come vediamo in Tabella 5.10, i risultati sono
comparabili, sia a LO sia a NLO. Questo non dovrebbe sorprendere, nonostante il fatto che Horace, al contrario di Herwig e Mc@Nlo in Athena, non
implementi Photos: infatti, come abbiamo visto nella Sezione precedente e
in particolare in Tabella 5.8, l’esclusione di Photos non cambia l’accettanza
al di fuori dell’errore sistematico.
I valori in Tabella 5.10 sono calcolati come (A − Adef )/Adef , dove Adef è
l’accettanza di Herwig a LO e di Mc@Nlo a NLO.
W + → µ+ νµ
Herwig
W − → µ− ν µ
45.45 ± 0.30
Z → µ+ µ−
39.98 ± 0.26
Horace LO
45.82 ± 0.30
46.01 ± 0.31
38.93 ± 0.25
δA
% a LO
A
0.81 ± 1.32
1.23 ± 1.35
−0.13 ± 1.25
Horace NLO
47.87 ± 0.32
47.61 ± 0.32
42.01 ± 0.28
Mc@Nlo
48.31 ± 0.34
48.28 ± 0.34
42.62 ± 0.29
δA
% a NLO
A
−0.91 ± 1.36
−1.39 ± 1.36
1.43 ± 1.34
Tabella 5.10: Confronto tra Horace e gli altri generatori.
Capitolo 6
Conclusioni
In questa Tesi ho affrontato lo studio dell’accettanza geometrica e del suo
errore sistematico, studio legato alla misura della sezione d’urto per i processi
pp → W → `ν` + X e pp → Z → `+ `− + X, che sara’ uno dei primi obiettivi
dell’esperimento ATLAS alla ripartenza di LHC, prevista per l’autunno 2009.
Il canale su cui mi sono concentrata è quello muonico, vista l’importanza
del ruolo ricoperto dal gruppo di Roma Tor Vergata nella progettazione e
nella costruzione dei rivelatori RPC, utilizzati per il trigger e la misura della
seconda coordinata delle tracce nello spettrometro a muoni.
Il traguardo di ATLAS per questa misura è quello di eguagliare la precisione dei calcoli teorici, portando l’errore sperimentale a δσ/σ ≈ 1%. Dallo
studio svolto in questa Tesi si può concludere che l’effetto che dominerà l’incertezza sull’accettanza, e quindi sulla sezione d’urto, è dato dalle PDF: δA/A
si attesta infatti intorno al (3 ÷ 4)% per i set di PDF CTEQ 6.1 [53], e oltre
il 5% quando si includono i termini di massa per i quark pesanti, come fatto
con le CTEQ 6.6 [35].
Questo risultato è stato confermato anche calcolando le accettanze con i
set di PDF ottenuti col metodo delle reti neurali [3].
Tutti gli altri effetti studiati − l’inclusione del Next to Leading Order,
la presenza di un momento trasverso intrinseco dei partoni, le correzioni
elettromagnetiche e quelle elettrodeboli al processo di hard scattering −
contribuiscono all’errore in modo trascurabile rispetto alle PDF.
Per quanto riguarda l’impatto della quantità di radiazione permessa nello
152
CONCLUSIONI
stato iniziale, esso non può essere quantificato al pari degli altri effetti; ne è
stato perciò studiato in modo qualitativo solo l’impatto sulle distribuzioni in
impulso trasverso e in pseudorapidità dei bosoni vettori e dei loro leptoni di
decadimento.
In ultima analisi, per raggiungere l’obiettivo dell’1% in δσ/σ, sarà necessario ridurre l’errore dovuto alle PDF, e questo potrà essere fatto solo grazie
alla conoscenza che l’esperimento ATLAS stesso potrà fornire al riguardo.
Con le misure di precisione dei parametri elettrodeboli che saranno realizzabili fin dalle prime fasi della presa dati, infatti, l’esperimento ATLAS potrà
estendere la conoscenza delle PDF a valori di x e Q2 diversi da quelli studiati
fino ad oggi negli esperimenti di Deep Inelastic Scattering e di collisioni pp.
Il mio lavoro di Tesi è stato inquadrato nell’ambito del gruppo di lavoro
sul Modello Standard di ATLAS, in particolare del suo sottogruppo Segnature
√
√
W/Z. Lo studio svolto a s = 14 TeV sarà presto replicato a s = 10 TeV,
l’energia nel centro di massa a cui lavorerà l’esperimento per il primo anno
di presa dati.
L’algoritmo per il calcolo dell’accettanza da me sviluppato, è stato implementato nel framework generale che effettua l’intero calcolo della sezione
d’urto. Tale algoritmo analizza i dati simulati con qualsiasi generatore Monte Carlo e calcola l’accettanza, con tagli cinematici scelti dall’utente, mentre
altre parti del framework calcolano − sui dati ricostruiti, e su quelli reali
quando disponibili − l’efficienza di trigger e di ricostruzione, il numero di
eventi di segnale e quelli di fondo, cosı̀ da giungere, con un codice compatto,
alla misura finale della sezione d’urto.
Appendice A
Parametri delle simulazioni
I parametri usati per le simulazioni sono riassunti sotto il nome tecnico di
job options. Sono stringhe di comandi scritte in linguaggio Python.
Le job options ufficiali di ATLAS sono state da me modificate per aggiungere
opzioni non presenti nella release di Athena 11.0.5: il pT intrinseco dei parton
e la variabile qspac che determina la quantità di radiazione permessa nello
stato iniziale.
A.1
Herwig
Il generatore Monte Carlo a cui ci si interfaccia non è Herwig, ma Jimmy,
una utility che aggiunge a Herwig le interazioni multiple. Tutti gli impulsi,
le energie e le masse sono in GeV.
# ... Main generator : Jimmy
theApp.Dlls += [ "Jimmy_i"]
theApp.TopAlg += [ "Jimmy" ]
Jimmy = Algorithm( "Jimmy" )
Jimmy.JimmyCommand = [
"rmass 6 172.5",
"rmass 198 80.398", "gamw 2.141",
"rmass 200 91.1876", "gamz 2.4952",
# PDG2009 top: massa
# PDG2009 W: massa e larghezza
# PDG2009 Z: massa e larghezza
"iproc 1451",
# scelta del processo
# -1351/1451:
Z-gamma/W in elettroni
# -1352/1452:
Z-gamma/W in muoni
# se il numero è preceduto da un 1, l’Underlying Event non viene generato
154
A.1. HERWIG
"emmin 60.",
# massa minima per la coppia leptonica,
pari a 0 nel caso di W
"modpdf 10042",
"autpdf HWLHAPDF",
# scelta del set di PDF,
# dalla libreria LHAPDF
"msflag 1",
"jmueo 1",
"jmbug 0",
# 1/0: a/s lo scattering multiplo
# Underlying Event: 2->2
# Tune
"ptjim
"prsof
"jmrad
dell’Underlying
3.85",
#
0",
#
73 1.8",
#
Event
pT minimo per scattering secondari
1/0: a/s l’Underlying Event soffice
1/r^2 del protone
"pltcut 0.0000000000333",
# rende stabili K e Lambda
"ptmin 10.",
# pT minimo nella produzione di jet
"clpow 1.20",
# rapporto barioni/mesoni nel decadimento di B
# opzioni aggiunte per lo studio di sistematica
"qspac 2.5"
# Q della cascata space-like
"ptrms 0.0"
# pT intrinseco dei partoni
"syspin 1"]
# 1/0: a/s la correlazione di spin
# ... Photos
theApp.Dlls += [ "Photos_i" ]
theApp.TopAlg += [ "Photos" ]
Photos = Algorithm( "Photos" )
Photos.PhotosCommand = [
"photos pmode 1",
"photos xphcut 0.01", # cut-off infrarosso per l’emissione:
frazione dell’energia del fotone rispetto alla madre
"photos interf 1",
# 1/0: a/s l’interferenza per tutti i processi
"photos isec 1",
# 1/0: a/s l’emissione doppia
"photos itre 0",
# 1/0: a/s l’emissione tripla e quartica
"photos iexp 1",
# 1/0: a/s la radiazione multipla
"photos iftop 0"]
# 1/0: a/s l’emissione di fotoni in gg->ttbar
Abbiamo sintetizzato con a/s la possibilità accende/spegne.
A.2. PYTHIA
A.2
155
Pythia
theApp.Dlls += [ "Pythia_i" ]
theApp.TopAlg += [ "Pythia" ]
Pythia = Algorithm( "Pythia" )
Pythia.PythiaCommand = [
"pysubs msel 0",
.
"pydat1 parj 90 20000",
# Cut-off per la FSR (infinito)
"pydat3 mdcy 15 1 0",
# Spegne i decadimenti del tau
# Z production:
"pysubs msub 1 1",
"pysubs ckin 1 60.0",
"pydat3 mdme 182 1 0",
"pydat3 mdme 184 1 1",
"pydat3 mdme 186 1 0",
#
#
#
#
#
#
#
#
#
#
W production:
"pysubs msub 2 1",
"pydat3 mdme 206 1 1",
"pydat3 mdme 207 1 0",
"pydat3 mdme 208 1 0"]
Crea i
Limite
Switch
Switch
Switch
#
#
#
#
bosoni Z
inferiore per la massa invariante
per Z->ee.
per Z->mumu.
per Z->tautau.
Crea i
Switch
Switch
Switch
bosoni W
per W->enu.
per W->munu.
per W->taunu.
Notiamo che, una volta creato il bosone desiderato, si attiva un canale di
decadimento piuttosto che un altro tramite il switch 1/0. Anche in questo
caso stiamo fissando a 60 GeV la minima massa invariante per Z → `+ `− ,
mentre lasciamo libero il vincolo per W .
Il cut-off per la Final State Radiation di QED è di default a 20 TeV, ovvero
a infinito.
A.3
Mc@Nlo
Per quanto riguarda Mc@Nlo, a differenza degli altri generatori fin qui descritti, l’interazione dura viene generata sempre in Stand Alone, e i file cosı̀ creati
vengono passati a Herwig, che aggiunge le routine per la cascata partonica e
l’adronizzazione.
I parametri per la generazione del processo duro che sono interessanti da
settare sono i seguenti:
ECM=14000
PART1=P
PART2=P
# energia nel centro di massa in GeV
# fasci incidenti
156
FREN=1
FFACT=1
AEMRUN=YES
A.3. MC@NLO
# scale di rinormalizzazione e fattorizzazione,
rispetto alla scala di riferimento
# alpha_em running
HVQMASS=173
TWIDTH=1.7
# massa e largezza del top
WMASS=80.398
WWIDTH=2.141
# massa e larghezza di W
ZMASS=91.188
V1GAMMAX=30
V1MASSINF=0
V1MASSSUP=0
ZWIDTH=2.495
# massa e larghezza di Z
# parametri della Breit-Wigner
# masse dei quark e del gluone (usate da Herwig)
UMASS=0.32
DMASS=0.32
SMASS=0.5
CMASS=1.55
BMASS=4.95
GMASS=0.75
# valori assoluti degli elementi della matrice CKM matrix
VUD=0.9748
VUS=0.2225
VUB=0.0036
VCD=0.2225
VCS=0.9740
VCB=0.041
VTD=0.009
VTS=0.0405
VTB=0.9992
IPROC=-1462
# numero del processo
# -1351/1461/1471: Z-gamma/W+/W- in elettroni
# -1352/1462/1472: Z-gamma/W+/W- in muoni
# il - indica che il processo è a NLO
PDFSET=10100
PDFLIBRARY=LHAPDF
# scelta del set di PDF,
# dalla libreria LHAPDF
LAMBDAFIVE=-1
LAMBDAHERW=-1
# per usare il valore di lambda_5
risultante dal fit delle PDF,
# anche per Herwig
SCHEMEOFPDF=MS
# schema di fattorizzazione
NEVENTS=5
WGTTYPE=1
# numero di eventi da generare
# pesi positivi e negativi,
la cui somma equivale al rate del processo
A.4. HORACE
157
Aggiungiamo qualche commento.
La scala di fattorizzazione, µF , e quella di rinormalizzazione, µR , sono date
rispetto a una scala di riferimento, che per il Drell-Yan vale:
µ2 = (M 2 + p2T )coppia
dove M 2 è la massa invariante della coppia leptonica prodotta. Come abbiamo visto in Sezione 3.1, questo permette di trascurare i logaritmi del tipo
ln(M 2 /µ2 ). Notiamo che la scelta di default è µR = µF .
Il bosone vettore è prodotto con massa distribuita secondo una Breit-Wigner:
VMASS - VGAMMAX × VWIDTH < m < VMASS + VGAMMAX × VWIDTH
dove VMASS e VWIDTH sono massa e larghezza di decadimento del bosone vettore V. Quindi scegliere VGAMMAX = 30, come è di default per W ,
significa produrre la coppia leptonica su tutto lo spettro disponibile:
80.425 − 30 × 2.124 < m < 80.425 + 30 × 2.124 GeV.
Per il decadimento di Z si setta invece VGAMMAX = −1, questo fa sı̀ che
vengano usati i due valori successivi, V1MASSINF e V1MASSSUP, nel modo
seguente:
V1MASSINF < m < V1MASSSUP.
In questo lavoro si è scelto (V1MASSINF, V1MASSSUP) = (60, 1000) GeV, in
modo da escludere la zona di puro γ e di interferenza γ/Z.
Dopo la generazione, gli eventi vengono passati al Parton Shower Herwig,
per il quale le opzioni sono quelle già esposte.
A.4
Horace
Riportiamo quasi integralmente il contenuto del file .stat che risulta dalla
generazione di un evento con Horace, in quanto esso riassume le opzioni
scelte dall’utente.
Requested number of unweighed events:
Unweighted event n.
50000.
Initial state particles:
PDFs: LHAPDF interface
C. of m. energy =
2212
14000.00 GeV
2212
50000.
158
A.4. HORACE
W+ production, decaying into muons
W mass
W width
Z mass
Z width
sin^2(th_w)
delta_r
=
=
=
=
=
=
80.398 GeV
2.124 GeV
91.1876 GeV
2.4952 GeV
0.222645853
0.0305138767 (one-loop EW delta_r)
EW RC: exp
(MATCHED QED PS)
EW input scheme: 1
hit or miss cross section =
h. or m. out-of-range bias =
weighted cross section
=
Partial cross
0 photons:
1 photons:
2 photons:
3 photons:
4 photons:
5 photons:
partial
-3 2
-3 4
-1 2
-1 4
2 -3
2 -1
4 -3
4 -1
Sum:
10460.5305602 +- 46.5159129 (pb)
0.9830666 +- 0.4194366 (pb)
10459.1984223 +- 10.4874362 (pb)
sections:
7753.10295 +- 7.88057813
2581.54307 +- 7.19840489
118.013091 +- 2.29097443
6.22212493 +- 0.636590526
0.317111274 +- 0.196664718
7.0498019E-05 +- 0.000106691998
(npoints:
(npoints:
(npoints:
(npoints:
(npoints:
(npoints:
1801190)
525144)
80185)
8224)
653)
22)
q-q[’][bar] contributions
181.384201
921.694263
4064.54653
62.0422926
179.913762
4065.1348
921.009132
63.4734413
10459.1984
La scelta iniziale che viene proposta all’utente riguarda il modo in cui usare Horace: old (viene aggiunta allo stato finale dell’evento solo radiazione
di QED, nell’approssimazione di Parton Shower), new (vengono aggiunte
le correzioni EW O(α) ed i diagrammi di QED all’ordine corrispondente).
Ovviamente per studiare l’impatto delle correzioni elettrodeboli bisogna scegliere il modo new.
A.4. HORACE
159
La scelta successiva è l’ordine in α delle correzioni: si può selezionare alpha
(NLO), exp (alpha + NNLO QED) oppure born (sezione d’urto di Born). In
questo lavoro abbiamo calcolato l’accettanza sia con l’opzione born, che deve
essere in accordo con gli altri generatori Leading Order, sia con exp.
Segue un riassunto dei contributi dei diversi sapori partonici al processo
qq 0 → W + , la cui somma dà la sezione d’urto, in questo caso non pesata.
160
A.4. HORACE
Bibliografia
[1] S. Agostinelli et al., GEANT4: A simulation toolkit, Nucl. Instrum.
Meth., A506 (2003), pp. 250–303.
[2] C. Amsler et al., Review of particle physics, Phys. Lett., B667 (2008).
[3] R. D. Ball et al., A determination of parton distributions with
faithful uncertainty estimation, Nucl. Phys., B809 (2009), pp. 1–63,
hep–ph/0808.1231.
[4] W. Bardeen et al., Deep Inelastic Scattering Beyond the Leading
Order in Asymptotically Free Gauge Theories, Phys. Rev., D18 (1978),
p. 3998.
[5] J. Botts et al., CTEQ Parton Distributions and Flavor Dependence
of Sea Quarks, Physics Letters B, 304 (1993), pp. 159, hep–ph/9303255.
[6] J. Butterworth et al., Multiparton interactions in photoproduction
at HERA, Z. Phys., C72 (1996), pp. 637–646, hep–ph/9601271.
[7] N. Cabibbo, Unitary Symmetry and Leptonic Decays, Phys. Rev. Lett.,
10 (1963), pp. 531–533.
[8] C. C. Calame et al., Higher-order QED corrections to W-boson
mass determination at hadron colliders, Physical Review D, 69 (2004),
pp. 037301, hep–ph/0303102.
[9] C. Collaboration, Transverse Momentum and Total Cross√Section
of e+ e− Pairs in the Z-Boson Region from pp Collisions at s= 1.8
TeV, Phys. Rev. Lett., 84,5 (2000), pp. 845–850.
[10] T. A. Collaboration, The ATLAS Experiment at the CERN Large
Hadron Collider, JINST, 3 (2008), p. S08003.
[11] G. Corcella et al., HERWIG 6.5 Release Note, 2002, hepph/0210213.
162
BIBLIOGRAFIA
[12] L. D. Debbio et al., Neural network determination of parton distributions: the nonsinglet case, JHEP, 03 (2007), pp. 039,
hep–ph/0701127.
[13] Y. Enari, Tevatron SM Higgs Combined Result in Low Mass Region.
[14] G. B. et al., Precision Predictions and Tools for Weak Boson Production at the LHC, Acta Physica Polonica B, Vol. 38, No. 7 (2007),
p. 2347.
[15] F. Mandl, G. Shaw, Quantum Field Theory, John Wiley and Sons
Inc, 1984.
+
−
[16] F. Fayette et al., Measurement of MW
and MW
at LHC, (2008,
hep-ph/0812.2571).
[17] S. Forte et al., Neural network parametrization of deep-inelastic
structure functions, JHEP, 05 (2002), pp. 062, hep–ph/0204232.
[18] G. M. G. Altarelli, R. Ellis, Vector Boson Production at Present
and Future Colliders, Z. Phys., C27 (1985), p. 617.
[19] G. Altarelli, R. Ellis, G. Martinelli, Large Perturbative Corrections to the Drell-Yan Process in QCD, Nucl. Phys., B157 (1979),
p. 461.
[20] G. Azuelos et al., Electroweak Physics, 2000, hep-ph/0003275.
[21] G. Corcella, Michael Seymour, Vector Boson Transverse
Momentum Distributions at the Tevatron, J.PHYS.G, 26 (2000), p. 643.
[22] G. Dissertori, I. Knowles, M. Schmelling, Quantum Chromodynamics - High Energy Experiments and Theory, Oxford University
Press, 2003.
[23] H. Bethe, Zur Theorie des Durchgangs schneller Korpuskularstrahlen
durch Materie, Annalen der Physik, 397 (1930), pp. 325–400.
[24] W. S. J. Campbell, J. Huston, Hard Interactions of Quarks and
Gluons: a Primer for LHC Physics, REPT.PROG.PHYS, 89 (2007,
hep-ph/0611148).
[25] J. Collins, Hard-scattering factorization with heavy quarks: A general
treatment, Physical Review D, 58 (1998), pp. 094002, hep–ph/9806259.
BIBLIOGRAFIA
163
[26] D. S. J. Collins, The Theorems of Perturbative QCD, Ann. Rev. Nucl.
Part. Sci., 37 (1987), pp. 383–409.
[27] J. Pumplin, H. Lai, W. Tung, The Charm Parton Content of the
Nucleon, Phys. Rev., D75 (2007), pp. 054029, hep–ph/0701220.
[28] K. Melnikov, F. Petriello, Electroweak gauge boson production at
hadron colliders through O(αs2 ), Physical Review D, 74 (2006), p. 114017.
[29] L. Evans, P. Bryant (editors), LHC Machine, JINST, 3, S08001
(2008).
[30] M. Kobayashi, T. Maskawa, CP-Violation in the Renormalizable
Theory of Weak Interaction, Progress of Theoretical Physics, 49 (1973),
pp. 652–657.
[31] L. Magnea, Introducing perturbative QCD for hadron collider
applications.
[32] A. Martin et al., Uncertainties of predictions from parton distributions. I: experimental errors, European Physical Journal C, 28 (2003),
pp. 455, hep–ph/0211080.
[33]
, Physical Gluons and High ET Jets, Physics Letters B, 604 (2004),
pp. 61, hep–ph/0410230.
[34] M. G. N. Ellis, 1993 European School of High-Energy Physics, Zakopane, Poland, 12-25 Sep 1993: Proceedings. Prepared for 1993 European
School of High-energy Physics, Zakopane, Poland, 12-25 Sep 1993.
[35] P. Nadolsky et al., Implications of CTEQ global analysis for collider
observables.
[36] P. Golonka, Z. Was, PHOTOS Monte Carlo: a precision tool for
QED corrections in Z and W decays, European Physical Journal C, 45
(2006), p. 97.
[37] P. Ramond, Field theory : a modern primer, Benjamin/Cummings,
series: Frontiers in Physics, 51, 1981.
[38] P. Renton, Global Electroweak Fits and the Higgs Boson Mass, 2008,
hep-ph/0809.4566v1.
[39] T. Petersen, Measurement of the W mass with the ATLAS detector,
(2008, hep-ph/0810.3583).
164
BIBLIOGRAFIA
[40] F. Petrucci, Standard Physics (W,Z,top) with ATLAS and CMS,
2009.
[41] J. Pumplin et al., New Generation of Parton Distributions with Uncertainties from Global QCD Analysis, JHEP, 0207 (2002), pp. 012,
hep–ph/0201195.
[42]
, Uncertainties of predictions from parton distribution functions II:
the Hessian method, Physical Review D, 65 (2002), pp. 014013, hep–
ph/0101032.
[43] R. Ellis, W. Stirling, B. Webber, QCD and Collider Physics, Cambridge University Press (Cambridge Monographs on Particle
Physics, Nuclear Physics and Cosmology), 2003.
[44] T. M. R. Hamberg, W. van Neerven, A Complete calculation of
the order αs2 correction to the Drell-Yan K factor, Nucl. Phys., B359
(1991), pp. 343–405.
[45] S. Alekhin, Parton distributions from deep-inelastic-scattering data,
Physical Review D, 68 (2003), pp. 014002, hep–ph/0211096.
[46] B. W. S. Frixione, Matching NLO QCD computations and parton
shower simulations, JHEP, 0206 (2002), pp. 029, hep–ph/0204244.
[47] B. W. S. Frixione, The MC@NLO 3.3 Event Generator, (2006, hepph/0612272).
[48] S. Frixione,M. Mangano, How accurately can we measure the W
cross section?, JHEP, 0405 (2004), pp. 056, hep–ph/0405130.
[49] S. Martin, A Supersymmetry Primer, 1997, hep-ph/9709356.
[50] S. Moch, Hard QCD at hadron colliders, J.PHYS.G, 35 (2008),
pp. 073001, hep–ph/0803.0457v2.
[51] S. Myers, LHC Status and Planning, ATLAS week, 18.02.2009.
[52] S. Weinberg, Implications of Dynamical Symmetry Breaking, Phys.
Rev., D13 (1976), pp. 974–996.
[53] D. Stump et al., Inclusive Jet Production, Parton Distributions,
and the Search for New Physics, JHEP, 0310 (2003), pp. 046,
hep–ph/0303013.
BIBLIOGRAFIA
165
[54] T. Gottschalk, Chromodynamic corrections to neutrino production
of heavy quarks, Physical Review D, 23 (1981), p. 56.
[55] T. Sjostrand, Monte Carlo Generators, 2006, hep-ph/0611247.
[56] T. Sjostrand, S. Mrenna, P. Skands, PYTHIA 6.4 Physics and
Manual, JHEP0605, 026 (2006, hep-ph/0603175).
[57] The ALICE Collaboration, The ALICE experiment at the CERN
LHC, JINST, 3, S08002 (2008).
[58] The ATLAS Collaboration, ATLAS detector and physics
performance. Technical design report. Vol. 2. CERN-LHCC-99-15.
[59]
, Expected Performance of the ATLAS Experiment - Detector,
Trigger and Physics, 2008, hep-ex/0901.0512.
[60] The CMS Collaboration, The CMS experiment at the CERN LHC,
JINST, 3, S08004 (2008).
[61] The LEP Collaborations, A Combination of Preliminary Electroweak Measurements and Constraints on the Standard Model, 2005,
hep-ex/0511027.
[62] The LHCb Collaboration, The LHCb Detector at the LHC, JINST,
3, S08005 (2008).
[63] The TOTEM Collaboration, The TOTEM experiment at the
CERN Large Hadron Collider, JINST, 3, S08007 (2008).
[64]
, The TOTEM Experiment at the CERN Large Hadron Collider,
JINST, 3 (2008), p. S08007.
[65] W. Tung et al., Heavy quark mass effects in deep inelastic scattering
and global QCD analysis, JHEP, 02 (2007), pp. 053, hep–ph/0611254.
[66] V. Abazov, Combination of CDF and D0 Results on W Boson Mass
and Width, Physical Review D, 70 (2004), p. 092008.
[67] V. Savinov, Lessons of transition to Tauola/Photos: was it
a mistake?, ATLAS Monte Carlo Generator Meeting, 01.10.2008,
http://indico.cern.ch/conferenceDisplay.py?confId=24526.
166
BIBLIOGRAFIA
[68] W. Tung, Perturbative QCD and the parton structure of the nucleon,
At the frontier of particle physics - Handbook of QCD, volume 2
(2001), pp. 887–971, ed. M. Shifman, Pub. World Scientific Publisher,
Singapore.
[69] S. Weinberg, A Model of Leptons, Phys. Rev. Lett., 19 (1967),
pp. 1264–1266.
[70] M. Whalley et al., The Les Houches Accord PDFs (LHAPDF) and
Lhaglue, 2005, hep-ph/0508110.
Ringraziamenti
Al termine di questo lavoro, desidero ringraziare quanti mi hanno aiutato
nella sua realizzazione.
Innazitutto, ringrazio la professoressa Anna Di Ciaccio, per la disponibilità e i consigli sempre attenti, e per avermi dato la possibilità di entrare
a far parte di un esperimento appassionante come ATLAS. Grazie a lei, ho
potuto svolgere al meglio le mie ricerche, e mettere in luce i risultati raggiunti
partecipando a conferenze e seminari, in Italia e all’estero.
La stessa disponibilità ho trovato in tanti dei membri della Collaborazione
ATLAS e in particolare del gruppo di lavoro italiano. Discussioni molto
stimolanti sono state quelle col Dr. Gennaro Corcella, che mi ha aiutato
a prendere confidenza con i generatori Monte Carlo, e col Dr. Giacomo
Polesello, che mi ha suggerito l’uso delle PDF Neural Network.
Ringrazio anche tutti i colleghi del gruppo ATLAS di Roma Tor Vergata,
in particolare i dottori Andrea Di Simone, Roberto Di Nardo e Giordano
Cattani, che a vario titolo mi sono stati vicini nelle piccole e grandi difficoltà.
Un grazie particolare va al Dr. Fabio Martinelli, per aver sopportato le
mie domande più ingenue sull’infrastruttura di calcolo GRID, anche quelle
rivoltegli in piena estate.
La mia famiglia mi è stata vicina in tutti questi anni, incoraggiandomi nei
momenti difficili e gioiendo con me per ogni traguardo raggiunto. Ringrazio
dunque i miei genitori, Mario ed Antonella, e i miei fratelli, Lorenzo ed
Alessandro.
Per ultimo, ma primo in tutto il resto, ringrazio Valerio, per il fatto che
senza il suo amore, il suo esempio e il suo sostegno forse tutto questo non
sarebbe stato possibile; al suo fianco, per tutta la vita, spero di proseguire il
cammino lungo l’appassionante strada della Fisica.
Scarica