Ricerca del bosone di Higgs nel canale di

annuncio pubblicitario
“Sapienza” Università di Roma
FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI
Corso di Laurea Specialistica in Fisica
Ricerca del bosone di Higgs
nel canale di decadimento in due fotoni
all’esperimento CMS
Tesi di Laurea Specialistica
Relatore
Candidato
Prof. Giovanni Corrado Organtini
Anno Accademico 2007/2008
Francesco Pandolfi
matr. 698373
Come l’araba Fenice
che vi sia ciascun lo dice
ove sia nessun lo sa.
Cosı̀ fan tutte
Indice
1 La fisica del bosone di Higgs
1.1 Il Modello Standard . . . . . . . . . . . .
1.1.1 Il meccanismo di Higgs . . . . . .
1.1.2 Oltre il Modello Standard . . . . .
1.2 Limiti sperimentali sulla massa del bosone
1.3 Il bosone di Higgs a LHC . . . . . . . . .
. . . . .
. . . . .
. . . . .
di Higgs
. . . . .
2 Il Large Hadron Collider e l’esperimento CMS
2.1 Il Large Hadron Collider . . . . . . . . . . . . . .
2.2 L’esperimento CMS . . . . . . . . . . . . . . . .
2.3 Sistema di tracciamento interno . . . . . . . . . .
2.4 Calorimetro elettromagnetico . . . . . . . . . . .
2.4.1 I cristalli di P bW O4 . . . . . . . . . . . .
2.4.2 Fotorivelatori . . . . . . . . . . . . . . . .
2.4.3 Geometria . . . . . . . . . . . . . . . . . .
2.4.4 Catena di lettura . . . . . . . . . . . . . .
2.4.5 Risoluzione in energia . . . . . . . . . . .
2.5 Calorimetro adronico . . . . . . . . . . . . . . . .
2.6 Rivelatore per muoni . . . . . . . . . . . . . . . .
3 Il canale H → γγ
3.1 Studio delle caratteristiche del segnale .
3.2 Studio dei fondi . . . . . . . . . . . . . .
3.3 Misura della massa del bosone di Higgs
3.4 Ricostruzione di fotoni in ECAL . . . .
3.4.1 Algoritmi ad apertura dinamica .
3.5 Correzioni energetiche . . . . . . . . . .
3.6 Ricostruzione dei fotoni convertiti . . . .
3.6.1 Algoritmo di ricostruzione . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
8
13
16
19
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
27
29
32
32
35
38
40
41
42
43
.
.
.
.
.
.
.
.
45
45
47
48
49
51
53
54
55
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ii
4 Genetica e fisica delle alte energie
4.1 L’evoluzione naturale . . . . . . . . . . . . .
4.1.1 Geni, cromosomi e riproduzione . . .
4.2 Algoritmi genetici in fisica delle alte energie
4.2.1 Evoluzione . . . . . . . . . . . . . .
4.2.2 Potere del metodo . . . . . . . . . .
INDICE
.
.
.
.
.
5 Analisi del canale H → γγ con ottimizzazione
5.1 Preselezione degli eventi . . . . . . . . . . . .
5.1.1 Campioni Monte Carlo . . . . . . . . .
5.1.2 Trigger . . . . . . . . . . . . . . . . .
5.1.3 Strumenti di ricostruzione . . . . . . .
5.1.4 Preselezione e ordinamento . . . . . .
5.2 Definizione dei criteri di isolamento . . . . . .
5.2.1 Isolamento da tracce . . . . . . . . . .
5.2.2 Isolamento elettromagnetico . . . . . .
5.2.3 Isolamento adronico . . . . . . . . . .
5.3 Altri criteri di selezione . . . . . . . . . . . .
5.3.1 Studio della forma del deposito . . . .
5.3.2 Studio delle variabili cinematiche . . .
5.4 Ottimizzazione genetica dei tagli . . . . . . .
5.5 Recupero dei fotoni convertiti . . . . . . . . .
5.6 Risultati . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
genetica
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
59
59
60
62
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
63
63
63
67
67
69
70
72
73
75
77
78
82
87
96
102
Introduzione
Il Modello Standard della fisica delle particelle elementari è una delle teorie scientifiche di
maggior successo che l’uomo sia stato in grado di formulare. Nel corso del secolo passato le
sue predizioni sono state confermate con elevatissima precisione da numerosi esperimenti,
in ambiti concettualmente distanti e sfruttando tecniche molto diverse. La sua fondazione
teorica, tuttavia, necessita dell’esistenza di una particella che non è stata ancora osservata:
il bosone di Higgs.
La massa del bosone di Higgs è un parametro libero della teoria. I numerosi esperimenti
dedicati alla sua ricerca fino a oggi sono riusciti solamente ad escluderne l’esistenza in
alcuni intervalli di massa. L’acceleratore LEP ha posto un limite inferiore alla massa pari
a 114.4 GeV/c2 al 95% di confidenza, mentre il Tevatron sta fornendo i primi risultati
nella regione 160 ÷ 170 GeV/c2 .
La ricerca del bosone di Higgs si basa sulla rivelazione dei suoi prodotti di decadimento,
i quali a loro volta dipendono dal valore della sua massa. Per masse leggere, compatibili
con i limiti sperimentali, nell’intervallo cioè che si estende fra 114.4 e circa 140 GeV/c2 ,
la sua rivelazione risulta essere particolarmente difficoltosa dal momento che è necessario
sfruttare un canale di decadimento molto raro: il decadimento in due fotoni.
Il Large Hadron Collider del CERN è l’acceleratore che è stato progettato con l’obiettivo di appurare definitivamente l’esistenza del bosone di Higgs. È un collisore protonico
a fasci simmetrici, con un’energia nel centro di massa di 14 TeV. Permetterà di esplorare
estensivamente la scala energetica del TeV.
L’esperimento Compact Muon Solenoid (CMS) è uno dei quattro principali esperimenti che studieranno le interazioni prodotte al Large Hadron Collider. È un rivelatore ad
uso generale, che fa uso di un calorimetro elettromagnetico omogeneo di grande precisione, progettato con lo scopo di poter rivelare il bosone di Higgs sfruttando il canale di
decadimento in due fotoni.
Nell’ambiente sperimentale di un collisore protonico, le fonti di fondo sono abbondanti.
La sezione d’urto di eventi con jet adronici è molto elevata, dunque nella ricerca dei fotoni
di decadimento del bosone di Higgs il contributo principale al fondo proviene da fotoni
prodotti all’interno di jet. Un’analisi che intende studiare questo canale di decadimento
deve quindi essere molto efficiente nella discriminazione dei jet. Le importanti differenze
fra gli eventi di segnale e quelli composti da jet sono l’isolamento dei fotoni e la forma del
deposito energetico rilasciato nel calorimetro elettromagnetico.
In generale, una selezione, in fisica delle particelle, è costituita da una serie di tagli
su altrettante variabili. Per individuare la configurazione ottimale delle soglie dei tagli
è necessario studiare la variazione del potere discriminante della selezione nello spazio
multidimensionale delle variabili considerate. Questo problema può essere affidato a un
computer.
È stato sviluppato dunque un metodo che si ispira al principio di selezione naturale
darwiniano, il quale, selezionando di volta in volta le configurazioni migliori, riesce a
ottimizzare i valori dei tagli. Algoritmi di questo tipo sono chiamati algoritmi genetici.
In questa tesi si presenta un’analisi che permette di scoprire il bosone di Higgs con il
rivelatore CMS mediante il suo decadimento in due fotoni. L’analisi utilizza una selezione
ottimizzata grazie a un algoritmo genetico.
Nel primo capitolo si fornisce una contestualizzazione teorica del Modello Standard e
delle motivazioni che portano alla postulazione dell’esistenza del bosone di Higgs. Vengono
quindi forniti i vincoli teorici e i limiti sperimentali sul valore della sua massa e descritto
lo scenario previsto al Large Hadron Collider per quel che riguarda la sua produzione e il
suo decadimento.
Nel capitolo secondo sono descritti l’acceleratore Large Hadron Collider e l’esperimento CMS, di cui verranno mostrati il principio di funzionamento e le prestazioni di ogni
singolo sottorivelatore. Particolare enfasi sarà dedicata al suo calorimetro elettromagnetico (ECAL), fondamentale ai fini di quest’analisi.
Il terzo capitolo offre una panoramica delle caratteristiche sperimentali del canale di
decadimento in due fotoni e, a confronto, le caratteristiche dei principali fondi. Dopo
aver spiegato il metodo con cui si misura la massa del bosone di Higgs, sono descritti i
procedimenti con cui è ricostruita l’energia dei fotoni in ECAL.
Nel quarto capitolo, dopo una breve introduzione sull’evoluzionismo darwiniano, è
descritto il metodo di ottimizzazione con algoritmi genetici.
Nel quinto e ultimo capitolo è infine presentata l’analisi del canale di decadimento in
due fotoni del bosone di Higgs. La definizione di una selezione si suddivide nell’individuzione dell’insieme di variabili su cui tagliare e nella scelta delle soglie dei tagli. La selezione
delle variabili è stata effettuata confrontando le prestazioni di variabili diverse in grado di
fornire selezioni concettualmente simili. La scelta dei valori dei tagli è stata invece affidata
a un algoritmo genetico.
Capitolo 1
La fisica del bosone di Higgs
Dopo la scoperta del quark top al Tevatron di Chicago, avvenuta nel 1995, il bosone di
Higgs costituisce l’ultimo tassello mancante del Modello Standard. Alla sua ricerca si sono
dedicati, senza successo, gli acceleratori LEP e Tevatron.
La massa del bosone di Higgs è un parametro libero del Modello Standard, dunque
un acceleratore capace di esplorare ampi intervalli di massa è fondamentale per la sua
scoperta. Il Large Hadron Collider è stato progettato in modo da avere come obiettivo
primario nel breve termine la scoperta di questa particella.
Questo capitolo si propone di fornire una rapida ma accurata introduzione al contesto
teorico attuale della fisica delle particelle elementari. Verranno descritti il Modello Standard, le motivazioni che hanno portato alla formulazione del meccanismo di Higgs e le
sue conseguenze. Verranno quindi riassunti gli attuali limiti sperimentali alla massa del
bosone di Higgs e si fornirà infine una panoramica sui meccanismi previsti di produzione
ed eventuale scoperta a LHC.
1.1
Il Modello Standard
Il Modello Standard della fisica delle particelle elementari è la teoria che attualmente
viene adoperata per ottenere una descrizione quantitativa a livello microscopico di tre delle
quattro forze fondamentali: l’elettromagnetismo, la forza debole e la forza forte. È stato
elaborato verso la fine degli anni ’60 da Glashow, Weinberg e Salam [1]. È una teoria
di campo rinormalizzabile, compatibile con la relatività speciale. La sua Lagrangiana
obbedisce a una simmetria di gauge non Abeliana che fa riferimento al gruppo di simmetria
6
La fisica del bosone di Higgs
SU (3)×SU (2)×U (1). Nel corso degli ultimi decenni le sue previsioni sono state confermate
con straordinaria accuratezza da un gran numero di esperimenti [2].
Si può suddividere il Modello Standard in due settori: la Cromodinamica Quantistica
(spesso chiamata QCD, dall’acronimo del nome anglosassone) e il settore elettrodebole.
In altre parole la Lagrangiana del Modello Standard si può esprimere esprimere come:
LMS = LQCD + LElettrodebole
La Cromodinamica Quantistica descrive le interazioni di quark e gluoni, mediate dalla
forza forte attraverso la carica di colore. È descritta dalla Lagrangiana
LQCD = −
X
1 X g g µν
α β
qr
Fµν F
+i
q̄rα γ µ Dµβ
4 g
r
(1.1)
che soddisfa la simmetria di colore SU (3)C . Nell’espressione di LQCD compaiono i tensori
g
Fµν
degli otto campi gluonici (g = 1, ..., 8), definiti da
i
Fµν
= ∂µ Giν − gF fijk Gjµ Gkν
ove gF è la costante di accoppiamento della forza forte e fijk sono le costanti di struttura
del gruppo SU (3). Nel secondo termine della (1.1), con qr si è indicato il campo del quark
α è definita da
di sapore r, gli indici α, β sono indici di colore, e la derivata covariante Dµβ
X
i
α
= ∂µ δβα + gF
Dµβ
Giµ λiαβ
2
i
ove λi sono le matrici dei generatori di SU (3).
Il settore elettrodebole è invece descritto da una Lagrangiana invariante sotto trasformazioni di gauge del gruppo di simmetria SU (2)L × U (1)Y . Il gruppo SU (2)L si riferisce
alla carica di isospin debole (I), mentre U (1)Y all’ipercarica debole (Y ). Le componenti sinistrorse dei fermioni sono organizzate in doppietti con I = 1/2, mentre le loro componenti
1.1 Il Modello Standard
7
destrorse in singoletti di I = 0:
I=0:
I = 1/2 :
νe
e
!
L
!
u
d
L
νµ
µ
c
s
!
L
!
L
ντ
τ
e
!
R
µ
τ
R
R
L
u
R
d
!
t
b
L
R
c
R
s
t
R
b
R
R
L’imposizione di queste simmetrie di gauge locali introduce 4 bosoni vettori: 3 per il
gruppo SU (2), i campi W i (i = 1, 2, 3), e uno per U (1), il campo B. I campi fisici si
ricavano come combinazioni lineari di questi ultimi:
Aµ = sin θ Wµ3 + cos θBµ
Zµ = cos θ Wµ3 − sin θBµ
Wµ± =
Wµ1 ∓ iWµ2
√
2
Le precedenti equazioni rappresentano due particelle neutre, il fotone (descritto dal campo Aµ ) e il bosone Z, e due particelle cariche, i bosoni W + e W − . Si è inoltre introdotto
l’angolo θ che viene detto angolo di interazione debole.
Si delinea cosı̀ una teoria quantistica simmetrica sotto trasformazioni locali di gauge,
la cui lagrangiana è espressa come
LElettrodebole = Lfermioni + Lgauge ≡ i
X
f
1 X µν
f¯Dµ γ µ f −
FG FG,µν
4
G
Le somme sono estese rispettivamente a tutti i campi fermionici (leptoni e quark) e a
tutti i campi vettoriali. I campi fermionici (f ) possono essere doppietti sinistrorsi (ψL ) o
singoletti destrorsi (ψR ). Nel primo termine compare la derivata covariante
Dµ ≡ ∂µ − igG (λα Gα )µ
8
La fisica del bosone di Higgs
ove gG è la generica costante di accoppiamento del fermione al campo G e λα sono i
generatori del gruppo di simmetria cui fa riferimento G.
Questa teoria ha però un problema: tutte le particelle descritte da essa hanno massa
nulla, contraddicendo clamorosamente i risultati sperimentali. D’altra parte la simmetria di gauge della Lagrangiana sembra impedire l’introduzione di termini di massa. La
teoria rischia di divenire un elegante artifizio matematico incapace di descrivere la realtà
osservata.
La proposta di Higgs [3] risolve questo problema rompendo spontaneamente la simmetria della Lagrangiana, come vedremo nel prossimo paragrafo.
1.1.1
Il meccanismo di Higgs
Per introdurre il concetto di rottura spontanea della simmetria, consideriamo un sistema
la cui Lagrangiana possegga una certa simmetria. Nel classificare i livelli energetici del
sistema, bisogna tenere conto delle degenerazioni. Se un dato livello di energia è non
degenere, il corrispondente autostato è unico e invariante sotto trasformazioni del gruppo
di simmetria della Lagrangiana. Al contrario, nel caso degenere, i vari autostati non sono
invarianti ma vengono trasformati in una generica combinazione lineare degli altri.
Consideriamo quindi il caso del livello energetico più basso. Se presenta degenerazione,
non esiste un autostato che descriva univocamente lo stato fondamentale del sistema: ne
deve essere scelto arbitrariamente uno, ma cosı̀ facendo lo stato scelto non condivide
più la simmetria della Lagrangiana. Questa maniera di ottenere uno stato fondamentale
asimmetrico viene detta rottura spontanea della simmetria.
Il modo più semplice per rompere spontaneamente la simmetria SU (2)L × U (1)Y
consiste nell’introdurre un campo scalare Φ che sia un doppietto di isospin:
Φ=
Φ+
Φ0
!
=
√ !
(Φ1 + iΦ2 )/ 2
√
(Φ3 + iΦ4 )/ 2
ove sono stati introdotti i quattro campi reali Φi (i = 1, 2, 3, 4) per esplicitare che i campi
Φ+ e Φ0 sono complessi.
La più semplice Lagrangiana di un campo scalare autointeragente ha la forma
LHiggs = (Dµ Φ)† (Dµ Φ) − V (Φ)
1.1 Il Modello Standard
9
ove
V (Φ) = µ2 Φ† Φ + λ(Φ† Φ)2
e la derivata covariante Dµ Φ è definita dall’uguaglianza operatoriale
i
Dµ ≡ ∂ µ + gσj Wjµ + ig 0 Y B µ
2
ove si è sottintesa la somma sull’indice ripetuto j = 1, 2, 3, con g e g 0 si sono indicate
rispettivamente le costanti di accoppiamento dei fermioni ai campi Wjµ e B µ , con σj si
sono indicate le matrici di Pauli e infine con Y l’ipercarica debole.
Il potenziale V (Φ) dipende da due parametri: µ e λ. La condizione λ > 0 assicura
che lo spettro di energia sia limitato inferiormente. Se il parametro µ viene scelto tale che
µ2 < 0, la simmetria del potenziale può essere rotta. Si ha infatti che in corrispondenza
di
Φ† Φ = −
v2
µ2
≡
2λ
2
(1.2)
il potenziale ha un minimo. Il che implica che il campo Φ ha un valore d’aspettazione
√
Φ0 = v/ 2 non nullo sul vuoto.
La teoria delle perturbazioni richiede uno sviluppo di Φ attorno al suo stato fondamentale. Quest’ultimo, d’altra parte, dovrà essere scelto fra tutti quelli che soddisfano
l’equazione (1.2), ma ognuno di essi romperà almeno una simmetria della Lagrangiana.
Si può inoltre verificare che ciò implica l’assegnazione, ad ogni bosone connesso con una
simmetria rotta, di una massa pari a |qv|, se con q si intende la carica del bosone di Higgs
nel campo mediato dal bosone in questione.
La Lagrangiana elettrodebole possiede una simmetria SU (2) × U (1). Per evitare di
conferire una massa al fotone, dunque, dobbiamo scegliere uno stato fondamentale che
conservi la simmetria U (1) di carica elettrica. Dalla relazione di Gell-Mann e Nishijima [4]
Q = I3 +
Y
2
si vede bene che otteniamo il risultato desiderato se scegliamo uno stato fondamentale Φ0
10
La fisica del bosone di Higgs
di isospin debole I = 1/2, I3 = −1/2 e ipercarica debole Y = 1:
1
Φ0 = √
2
0
v
!
Di conseguenza il campo Φ sarà espresso come
1
Φ(x) = √
2
!
0
v + h(x)
In questo modo i campi bosonici W ± e Z, relativi al gruppo di simmetria rotta SU (2),
acquistano massa
mW =
v
g
2
mZ =
vp 2
g + g 02
2
Viene inoltre introdotta una particella fisica, il bosone di Higgs, descritto dal campo h(x),
di massa
mH =
√
√
2µ =
2λv
(1.3)
Possiamo adesso conferire massa ai fermioni introducendo un termine di interazione di
Yukawa, accoppiando un doppietto sinistrorso fermionico (ψ L ), un singoletto destrorso e
il doppietto di Higgs (Φ). Considereremo il caso dei quark: il caso leptonico è analogo.
Chiameremo genericamente u (d) i campi relativi ai quark di tipo up (down). Un
termine di accoppiamento della forma
g d ψ̄ L dR Φ + hermitiano coniugato
√
assegna una massa md = g d v/ 2 al quark d. Allo stesso modo, se chiamiamo Φ̃ =
−i[Φ† σ2 ]T , ove σ2 è la seconda matrice di Pauli, un termine della forma g u ψ̄ L uR Φ̃ fornisce
√
una massa mu = g u v/ 2 al quark u.
Complessivamente, quindi, estendendo il ragionamento alle tre famiglie, la Lagrangiana
di interazione fra quark e campo di Higgs sarà della forma
LqΦ =
X
ik
d L R
gik
ψ̄i dk Φ +
X
ik
u L R
gik
ψ̄i uk Φ̃ + h.c.
1.1 Il Modello Standard
11
I termini di massa di questa Lagrangiana sono tuttavia non diagonali nei campi u e d. Per
ottenere i campi fisici (massivi) bisogna diagonalizzarli. Questo è fatto introducendo delle
matrici unitarie V che trasformano i campi
uL = VuL u0L
uR = VuR u0R
dL = VdL d0L
dR = VdR d0R
Dal momento che i campi uL e dL sono trasformati in maniera differente, l’accoppiamento ai bosoni W ± non è più diagonale. Si ha infatti
LqW = g
X
µ 0L
†
ū0L
i Vij γ dj Wµ + h.c.
ij
ove si è introdotta la matrice unitaria V, detta di Cabibbo, Kobayashi e Maskawa [5][6],
definita come


Vud Vus Vub


†
VdL ≡  Vcd Vcs Vcb 
V = VuL
Vtd Vts Vtb
Al contrario, si verifica facilmente che l’accoppiamento al fotone e al bosone Z rimangono diagonali, grazie all’unitarietà delle matrici V :
† µ
γ VuL u0L Wµ3 = gū0L γ µ u0L Wµ3
gūL γ µ uL Wµ3 = gū0L VuL
Bisogna infine osservare che le matrici VuL , VuR , VdL , VdR sono determinate a meno
di una fase complessiva ineliminabile. La presenza di questa fase permette la violazione
della simmetria CP del Modello Standard.
Diagonalizzate le matrici M̃ , i campi fermionici acquistano masse pari a
v
mf = √ g f
2
ovvero l’accoppiamento del bosone di Higgs a un dato fermione è proporzionale alla massa
12
La fisica del bosone di Higgs
del fermione stesso:
gf =
√ mf
2
v
Come si vede nella relazione (1.3), la massa del bosone di Higgs dipende dal parametro di accoppiamento λ e dal valore di aspettazione sullo stato di vuoto v. Il valore di
quest’ultimo è fissato dalla costante di Fermi (GF ), dal momento che è facile verificare che
sussiste la seguente uguaglianza
v=
√
2mW
= ( 2GF )−1/2
g
L’attuale stima di GF , ricavata dalla misura della vita media dei muoni [7], permette di
porre v ' 247 GeV . Il modello non offre però alcuna predizione sul valore del parametro λ,
rendendo la massa del bosone di Higgs un parametro libero.
Tuttavia, si può sfruttare la natura perturbativa della teoria per porre dei limiti teorici
approssimativi su mH [8]. Un primo limite si ottiene richiedendo che la rottura della
simmetria effettivamente avvenga:
V (v) < V (0)
(1.4)
Questa condizione è equivalente a richiedere che λ rimanga positivo a ogni scala di energia,
dal momento che in caso contrario lo spettro di energia non sarebbe limitato inferiormente. Vicino a questo limite, ovvero per piccoli valori di λ, e quindi per un bosone di Higgs
leggero, le correzioni radiative del quark top e gli accoppiamenti di gauge diventano importanti e la condizione (1.4) può essere trasformata in un limite inferiore per la massa
dell’Higgs:
mH
3v
>
(16gt4 − g 4 − 2g 2 g 02 − 3g 04 ) log
32π 2
Λ
mH
ove gt è la costante di accoppiamento del campo di Higgs al quark top. Si è qui introdotta
una scala di energia Λ, oltre la quale si suppone che il Modello Standard non sia più valido.
Facendo riferimento alla Figura (1.1), questo limite corrisponde alla curva inferiore [9].
D’altro canto, la richiesta che il parametro λ rimanga finito fino a una scala Λ, ovvero
richiedere la validità dell’approccio perturbativo fino a tale scala, si traduce in un limite
1.1 Il Modello Standard
Figura 1.1
13
Limiti sulla massa del bosone di Higgs (MH ) in funzione della scala energetica Λ alla
quale è necessario introdurre nuova fisica. Il calcolo è stato effettuato ponendo la massa
del quark top (mt ) pari a 175 GeV/c2 .
superiore sulla massa:
m2H <
8π 2 v 2
3 log(Λ/v 2 )
che corrisponde alla curva superiore nella Figura (1.1). Come si vede, questi limiti implicano che se il Modello Standard fosse una teoria perturbativa fino alla scala della grande
unificazione ΛGUT ≈ 1016 GeV, la massa del bosone di Higgs dovrebbe essere compresa
approssimativamente fra i 130 e i 190 GeV/c2 . In altre parole, un bosone di Higgs con
massa inferiore a 130 GeV/c2 suggerirebe l’esistenza di nuova fisica a partire da una scala
minore di ΛGUT .
1.1.2
Oltre il Modello Standard
Nonostante lo straordinario accordo fra le misure di precisione nel settore elettrodebole e
le predizioni del Modello Standard, ci sono delle forti indicazioni teoriche che quest’ultimo
non sia la teoria definitiva nella descrizione delle interazioni fra particelle fondamentali.
Ha circa 20 parametri liberi, che possono sembrare troppi per una teoria fondamentale,
e varie domande senza risposta, riguardanti argomenti come l’unificazione delle forze, la
massa dei neutrini, il problema della gerarchia e della naturalezza. Per questo motivo si
tende a considerare il Modello Standard alla stregua di una teoria quantistica dei campi
efficace, valida sino a una scala energetica Λ, detta di cut-off.
14
La fisica del bosone di Higgs
Il cosiddetto problema gerarchico [10] sembra essere il cancro che più profondamente
mina le fondamenta teoriche del Modello Standard. In generale si ha una problema di
gerarchia quando i parametri misurati di una teoria sono di numerosi ordini di grandezza
più piccoli della scala di energia fondamentale della teoria stessa. Ciò può avvenire nel caso
in cui i parametri misurati siano connessi a quelli fondamentali attraverso procedimenti
di rinormalizzazione, tuttavia se il divario energetico è estremamente vasto si dovrebbe
supporre una delicatissima cancellazione fra il valore fondamentale del parametro e la sua
correzione radiativa.
Nel Modello Standard, le correzioni radiative alla massa del bosone di Higgs hanno una
dipendenza quadratica dalla scala di cut-off. Si può calcolare ad esempio che i contributi
radiativi dei loop fermionici possono essere espressi come
δmHf ∝
X
−gf (Λ2 + m2f )
f
con ovvio significato dei simboli. Se indichiamo con mH0 la massa “nuda” dell’Higgs, la
massa effettiva mH è ottenuta da
m2H = m2H0 + δm2H
ove in δm2H sono raccolti i contributi di tutte le correzioni radiative. Si capisce quindi che
se Λ ' ΛGUT , per avere un bosone di Higgs di massa . TeV si dovrebbe supporre una
cancellazione di precisione incredibile fra i due contributi.
Sostanzialmente tutti i modelli che intendono superare il Modello Standard tentano di
risolvere il problema della gerarchia. Una soluzione è proposta dal modello supersimmetrico. La supersimmetria pone fermioni e bosoni in multipletti, accoppiando ogni fermione
con un “super partner” bosonico, e viceversa. Il superpartner di una particella condivide
la sua massa e i suoi numeri quantici, eccetto ovviamente lo spin. Dato che le correzioni radiative di fermioni e bosoni hanno segno opposto, i due contributi si cancellano
perfettamente.
Il modo più semplice per rompere la simmetria nel modello supersimmetrico è di
introdurre due doppietti SU (2) di Higgs:
H1 =
H1+
H10
!
H2 =
H20
H2−
!
1.1 Il Modello Standard
Figura 1.2
15
Valori assunti dalle masse dei bosoni di Higgs nel modello supersimmetrico MSSM in
funzione di mA per due valori di tan β. Sono stati considerati due casi di mescolamento
del super partner del quark top (lo squark stop): nessun mescolamento (a sinistra) e
mescolamento massimale (a destra).
Dal momento che i campi sono complessi, ci sono 8 gradi di libertà. Questo è detto Modello
Standard Supersimmetrico Minimale (MSSM).
La simmetria è rotta se le componenti neutre dei doppietti acquistano dei valori di
aspettazione sullo stato di vuoto:
H1 (0) =
0
v1
!
H2 (0) =
v2
0
!
Esattamente come nel caso del Modello Standard, i bosoni W ± e Z acquistano massa
assorbendo 3 gradi di libertà. I rimanenti gradi di libertà introducono 5 bosoni di Higgs:
due carichi (H ± ), uno neutro pseudoscalare (A), due neutri scalari (h e H).
I valori delle masse di questi bosoni dipendono a livello albero da due parametri, che
sono in genere scelti essere
tan β ≡
v1
v2
e
mA
ove mA è la massa del bosone A. In Figura (1.2) si possono vedere i valori assunti dalle
masse in funzione di questi parametri [11].
Addentrarsi in particolari esulerebbe dai fini di questa tesi. Sembra tuttavia interessante mettere in luce che questo modello predice l’esistenza di un bosone di Higgs neutro
16
La fisica del bosone di Higgs
Figura 1.3
Risultati combinati dei quattro esperimenti di LEP nella ricerca del bosone di Higgs.
È riportato il valore di −2 ln Q in funzione della massa dell’Higgs per un’ipotesi di
solo fondo (linea tratteggiata) e per l’ipotesi di segnale e fondo (linea puntinata). La
linea continua rappresenta il valore assunto sui dati degli esperimenti. Le due bande
rappresentano le fluttuazioni dell’ipotesi di solo fondo entro una probabilità del 68%
(banda scura) e 95% (banda chiara).
di massa . 130 GeV/c2 per ogni scelta di questi parametri.
1.2
Limiti sperimentali sulla massa del bosone di Higgs
La ricerca del bosone di Higgs ha condizionato i principali esperimenti di fisica delle alte
energie degli ultimi vent’anni. I limiti sperimentali sulla sua massa sono di due tipi: limiti
diretti, derivanti dalle ricerche effettuate agli acceleratori LEP a Ginevra e Tevatron a
Chicago, e limiti indiretti, provenienti principalmente da misure di precisione del settore
elettrodebole del Modello Standard.
Il Large Electron Positron Collider (LEP) è un acceleratore e+ e− che è stato messo
in funzione al CERN nel 1989. Il suo programma scientifico era suddiviso in due fasi: la
√
prima (LEP I), ha preso dati attorno alla risonanza del bosone Z (89 < s < 93 GeV);
nella seconda (LEP II), durata dal 1996 al 2000, l’energia del centro di massa è stata
1.2 Limiti sperimentali sulla massa del bosone di Higgs
17
gradualmente aumentata fino a 209 GeV. Da questa seconda fase deriva il limite diretto
attualmente più importante alla massa del bosone di Higgs.
Il principale meccanismo per produrre il bosone di Higgs a un collisore e+ e− alle energie
di LEP II è la cosiddetta “Higgs-strahlung” nel canale s (e+ e− → Z ∗ → ZH), nella quale
un bosone Z irradia un bosone di Higgs. Questo stato finale produce nella maggior parte
dei casi eventi a quattro jet, con il bosone di Higgs che decade in due quark b e il bosone
Z in due quark qualunque
e+ e− → (H → bb̄)(Z → q q̄)
Per un bosone di Higgs con una massa di 115 GeV/c2 , ad esempio, la frazione di decadimento di questo processo è circa 60%.
Eventi a quattro jet con topologia compatibile con queste ipotesi sono stati studiati dai
quattro esperimenti attivi a LEP (ALEPH, DELPHI, L3, OPAL). È stata osservata una
singolare abbondanza di eventi [12], non compatibile tuttavia con una scoperta, che ha
permesso di porre un limite inferiore diretto sulla massa del bosone di Higgs pari a 114.4
GeV/c2 al 95% di confidenza. I risultati combinati dei quattro esperimenti sono mostrati
in Figura (1.3), nella quale è riportato l’andamento della quantità
−2 ln Q = −2 ln
Λs
Λb
ove Λs e Λb sono rispettivamente le verosimiglianze dell’ipotesi di segnale in presenza di
fondo e di solo fondo. Il grafico mostra il valore aspettato di tale variabile, in funzione di
mH , nelle due ipotesi (la linea puntinata in basso nel caso di presenza di segnale, quella
tratteggiata in alto nel caso di solo fondo). Il valore della medesima variabile calcolata
sui dati è rappresentato da una linea continua. Come si vede, fino a una massa di 114.4
GeV/c2 i dati sono compatibili, entro una deviazione standard, con l’ipotesi di assenza di
segnale.
Il Tevatron è invece un acceleratore protone-antiprotone (pp̄), con energia nel centro di
√
massa pari a s = 1.96 TeV. La ricerca del bosone di Higgs al Tevatron si concentra sulla
sua produzione associata a bosoni vettori intermedi, pp̄ → V H (V ≡ W ± , Z), con questi
ultimi che decadono in canali leptonici. Per mH < 130 GeV/c2 il canale di decadimento
H → bb̄ è il più proficuo per la sua ricerca, mentre per masse maggiori diventa rilevante il
canale H → W + W − (con uno dei due W che può essere virtuale).
In Figura (1.4) sono riportati i più recenti risultati combinati dei due rivelatori attivi
18
La fisica del bosone di Higgs
Figura 1.4
Andamento previsto (linea tratteggiata) e osservato (linea continua) al Tevatron del
rapporto fra la sezione d’urto misurata e sezione d’urto prevista dal Modello Standard.
Il grafico combina i risultati dei due esperimenti CDF e D∅ e di numerosi canali di
ricerca.
al Tevatron, CDF e D∅ [13]. Nel grafico è mostrato l’andamento del rapporto fra la sezione d’urto misurata e quella calcolata dal Modello Standard, in funzione della massa del
bosone di Higgs. Un valore < 1 di questo rapporto comporterebbe l’esclusione al 95% di
confidenza dei relativi valori di mH . In Figura sono riportati l’andamento aspettato di questa quantità (linea tratteggiata) e l’andamento misurato (linea continua). Questo studio
combina numerosi canali di ricerca e l’analisi è effettuata su 3 fb−1 di dati accumulati.
Come si vede, allo stato attuale il Tevatron è in grado di escludere solamente un
intervallo di massa molto stretto attorno al valore mH = 170 GeV/c2 . Bisogna tuttavia
considerare che questo studio non fa uso di tutta la statistica attualmente accumulata
(oltre 4 fb−1 ). È dunque presumibile che prima dell’arrivo dei primi risultati di LHC il
Tevatron possa essere in grado di ampliare l’intervallo di esclusione.
I limiti indiretti al valore della massa del bosone di Higgs provengono invece da un fit
effettuato sui risultati di misure di precisione nel settore elettrodebole del Modello Standard. Questi osservabili sono infatti sensibili al valore di mH dal momento che quest’ultimo
contribuisce, attraverso correzioni a loop, alla polarizzazione del vuoto dei bosoni W ± e
Z, dando luogo a termini proporzionali a log(mH ).
Attualmente il miglior fit ai dati raccolti da esperimenti quali LEP, Tevatron e SLC
1.3 Il bosone di Higgs a LHC
Figura 1.5
19
Produzione del bosone di Higgs. A sinistra: sezione d’urto di produzione del bosone di
Higgs in funzione della sua massa, per acceleratori protone-protone a 14 TeV nel centro
di massa. Sono evidenziati i contributi dei diversi canali di produzione. A destra: grafici
di Feynman dei principali processi di produzione: (a) fusione di gluoni; (b) fusione di
bosoni vettori; (c) produzione associata a coppie tt̄; (d) Higgs-strahlung.
permette di definire [14], entro una deviazione standard, l’intervallo di massa
2
mH = 76+33
−24 GeV/c
ovvero mH < 144 GeV/c2 al 95% di confidenza.
1.3
Il bosone di Higgs a LHC
Il Large Hadron Collider (LHC) del CERN è l’acceleratore che intende chiarire definitivamente il settore di Higgs del Modello Standard. È un collisore protone-protone a 14 TeV
nel centro di massa. Delle sue caratteristiche si parlerà con maggior dettaglio nel prossimo capitolo; per il momento verrà mostrato lo scenario atteso, a tali energie, per quanto
riguarda la produzione e l’eventuale rivelazione di un bosone di Higgs non supersimmetrico.
In Figura (1.5), a sinistra, sono riportate le sezioni d’urto dei vari processi di produzione
del bosone di Higgs a un acceleratore protone-protone di 14 TeV nel centro di massa in
funzione del valore della massa del bosone stesso [15]. A destra sono invece visibili i
grafici di Feynman relativi ai canali principali. Come si vede, nell’intervallo di massa
considerato, la produzione mediante fusione di gluoni (gg → H) è dominante (si noti la
20
La fisica del bosone di Higgs
Tabella 1.1
Sezioni d’urto dei principali processi di produzione del bosone di Higgs per alcuni valori
della sua massa. Sono mostrati anche i branching ratio del canale di decadimento in
due fotoni, e il prodotto inclusivo fra la sezione d’urto totale di produzione e il suddetto
branching ratio.
mH
115 GeV
120 GeV
130 GeV
140 GeV
150 GeV
σ (fusione di g)
39.2 pb
36.4 pb
31.6 pb
27.7 pb
24.5 pb
σ (fusione di W, Z)
4.7 pb
4.5 pb
4.1 pb
3.8 pb
3.6 pb
σ (tt̄ + Higgs-strahlung)
3.8 pb
3.3 pb
2.6 pb
2.1 pb
1.7 pb
σ totale
47.6 pb
44.2 pb
38.3 pb
33.6 pb
29.7 pb
H → γγ B.R.
0.00208
0.00220
0.00224
0.00195
0.00140
σ × B.R.
99.3 fb
97.5 fb
86.0 fb
65.5 fb
41.5 fb
scala logaritmica delle ordinate). Facendo riferimento alla Tabella (1.1), si vede ad esempio
che per mH = 120 GeV, la sezione d’urto di questo processo è almeno 8 volte maggiore di
qualunque altro, rendendolo il canale di produzione più importante a LHC [16].
Un contributo interessante è dato inoltre dalla fusione di bosoni vettori (q q̄ → Hq q̄).
Sono eventi che, anche se di sezione d’urto minore del caso precedente, producono una
topologia facilmente riconoscibile. Essendo un processo di canale t, infatti, i quark dello
stato finale verranno emessi prevalentemente lungo la direzione del fascio. Si verranno cosı̀
a formare due jet a piccolo angolo, che possono essere usati per identificare l’evento.
In Figura (1.6) sono riportati i tassi percentuali di decadimento (branching ratio) del
bosone di Higgs, in funzione della sua massa [17] (a sinistra) e l’andamento dell’ampiezza
totale di decadimento in funzione della massa (a destra). Per mH . 300 GeV la larghezza naturale del decadimento è molto piccola, rendendo dominante, in fase di misura, la
risoluzione del rivelatore.
A partire da mH ≈ 150 GeV divengono dominanti i canali di decadimento in coppie di
bosoni vettori (W, Z). A partire da quei valori di massa, infatti, diventa cinematicamente
possibile la produzione di bosoni vettori reali. I canali di decadimento in bosoni vettori
deboli sono considerati i canali “aurei” per la scoperta del bosone di Higgs a LHC. Queste
particelle possono essere infatti facilmente riconosciute dai loro prodotti di decadimento:
i canali leptonici, in particolare, sfruttando il vincolo cinematico costituito dalla massa
del bosone in decadimento, risultano in topologie facilmente rivelabili e riconoscibili. Gli
1.3 Il bosone di Higgs a LHC
Figura 1.6
21
Decadimento del bosone di Higgs. A sinistra: branching ratio dei principali canali
di decadimento del bosone di Higgs previsto dal Modello Standard in funzione del
valore della sua massa. A destra: ampiezza totale di decadimento del bosone di Higgs
(hSM , linea continua) in funzione della sua massa. Sono riportati anche gli andamenti
delle ampiezze dei bosoni di Higgs neutri scalari del modello MSSM per due valori del
parametro tan β (linee tratteggiate).
elevati valori di branching ratio, inoltre, aumentano il tasso di questi eventi.
Per masse minori di 150 GeV, invece, risulta essere dominante il canale di decadimento
in una coppia di quark bottom (bb̄). La topologia di questi eventi risulterà quindi in una
coppia di jet. Tuttavia, a un collisore adronico quale LHC, è quasi impossibile distinguere
questi eventi dal fondo, data l’elevatissima sezione d’urto di eventi di QCD che presentano
identica topologia.
Se il bosone di Higgs ha una massa minore di 150 GeV, quindi, è necessario sfruttare il decadimento in due fotoni (γγ) per la sua scoperta. Nello stato finale di questo
canale di decadimento si trovano due fotoni molto energetici, che sono ben identificabili
sperimentalmente. Tuttavia, come si vede in figura, il branching ratio di questo canale è
di quasi tre ordini di grandezza inferiore a quelli appena citati, vale circa 0.002 in quasi
tutto l’intervallo importante di massa (vedi Tabella (1.1)). La frequenza di questi eventi
sarà molto piccola, specialmente se confrontata con la frequenza di eventi di fondo con
topologia simile (se non identica).
Il canale di decadimento in due fotoni è stato studiato fin dal progetto iniziale di LHC
come un canale fondamentale per la scoperta di un bosone di Higgs leggero. Rappresenta
un’importante sfida sperimentale e ha posto dei requisiti stringenti nella progettazione dei
rivelatori.
22
La fisica del bosone di Higgs
Capitolo 2
Il Large Hadron Collider e
l’esperimento CMS
Entro la fine del 2008 entrerà in funzione il collisore adronico Large Hadron Collider
(LHC) al CERN. Diversi esperimenti sono stati progettati e costruiti per studiare le collisioni prodotte a LHC, e allargare le frontiere della fisica. In questo capitolo descriverò le
caratteristiche di LHC e dell’esperimento CMS.
2.1
Il Large Hadron Collider
Il Large Hadron Collider è un acceleratore in cui verranno fatti collidere fasci di protoni
√
a un’energia nel centro di massa ( s) di 14 TeV1 . Allo stato attuale, l’acceleratore più
energetico mai costruito è il Tevatron a Fermilab, che dispone di quasi 2 TeV nel centro
di massa. Le energie raggiunte da LHC saranno 7 volte maggiori, e permetteranno di
scandagliare una regione energetica mai lambita.
A differenza di acceleratori elettronici, quale ad esempio il Large Electron-Positron
Collider (LEP), un acceleratore adronico permette di produrre reazioni a energie variabili.
Dato che le interazioni avvengono a livello partonico, infatti, il centro di massa effettivo
è quello fra i partoni interagenti, e dipende dalle loro funzioni di densità di probabilità
energetiche. Di conseguenza le reazioni avvengono a energie inferiori all’energia nel centro
1
LHC attuerà anche un programma di ricerca basato su collisioni di ioni pesanti (nuclei di piombo).
Non essendo rilevante ai fini di questa tesi, non ne verrà fatta menzione.
24
Il Large Hadron Collider e l’esperimento CMS
Tabella 2.1
Caratteristiche principali di LHC. I valori contrassegnati da un asterisco (*) si
riferiscono alla prestazione attesa a pieno regime.
Circonferenza
√
s
26.7 km
14 TeV
Luminosità (L)
1034 cm−2 s−1
Numero di protoni per pacchetto
1.15 · 1011
(∗)
(∗)
(∗)
Lunghezza dei pacchetti (σz )
56 mm
Raggio dei pacchetti (σx = σy )
16 µm
Numero di pacchetti
2808
Spazio fra i pacchetti
7.48 m = 25 ns
di massa dei protoni incidenti. Tuttavia 14 TeV sono sufficienti per avere accesso, per la
prima volta, alla scala energetica del TeV.
A tali energie, inoltre, il contributo dei partoni del mare diventa importante, rendendo sostanzialmente equivalenti gli schemi di collisione protone-protone (pp) e protoneantiprotone (pp̄). Quest’ultima opzione, tuttavia, avrebbe l’inconveniente di dover produrre antimateria, il che comporterebbe inefficienze e comprometerebbe la luminosità della
macchina.
A un acceleratore elettronico, inoltre, la precisione con cui si conosce l’energia di
interazione e i valori bassi di sezione d’urto permettono di fare misure di precisione anche
con un numero relativamente esiguo di eventi. A un acceleratore adronico, invece, le sezioni
d’urto di interazione sono molto più elevate, rendendo fondamentale accumulare un gran
numero di eventi per effettuare misure in cui si riesca a limitare il ruolo del fondo. Per
questo motivo, oltre ad avere un’elevata energia nel centro di massa, una caratteristica
importante di LHC è l’alta luminosità.
La luminosità (L) di un acceleratore circolare è definita come:
L=
Np2 f k
4πσx σy
ove Np è il numero di protoni in un pacchetto, f è la frequenza di rivoluzione dei protoni
nell’anello, k è il numero di pacchetti circolanti contemporaneamente nell’anello e σx e σy
2.1 Il Large Hadron Collider
25
sono le dispersioni medie del pacchetto nelle direzioni (x e y) ortogonali all’orbita.
Si prevede che LHC entrerà in funzione entro il 2008. Le sue caratteristiche principali
sono riportate nella Tabella (2.1). La sua attività sarà distinta in diverse fasi:
• una prima fase di collaudo a
√
s = 10 TeV;
√
• una seconda fase all’energia nel centro di massa nominale ( s = 14 TeV) e bassa
luminosità (L ≈ 1033 cm−2 s−1 );
√
• una fase a pieno regime ( s = 14 TeV, L = 1034 cm−2 s−1 )
La prima fase dovrebbe estendersi solamente per l’anno 2008, in cui ci si aspetta di
R
raccogliere una luminosità integrata pari a circa L dt = 40-50 pb−1 di dati. L’energia
nel centro di massa dovrebbe raggiungere i valori di progetto già a partire dal 2009. Con
una luminosità dell’ordine di 1033 cm−2 s−1 ci si aspetta di raccogliere ogni anno una
luminosità integrata di 10 fb−1 , mentre ad alta luminosità un totale annuo di 100 fb−1 .
Il programma scientifico di LHC è vasto e ambizioso. Il principale obiettivo nel breve
termine, come già detto, è di chiarire definitivamente il fenomeno che causa la rottura
spontanea della simmetria elettrodebole, andando alla ricerca di un bosone di Higgs compatibile con il Modello Standard o con il MSSM. Si propone inoltre di fornire le prime
evidenze sperimentali di fisica oltre il Modello Standard, come ad esempio la Supersimmetria o le extra-dimensioni, e cercherà di spiegare, fra le altre, la natura della materia oscura
e del plasma quark-gluonico. Si potrà inoltre mettere alla prova il Modello Standard con
misure di precisione e verrà indagato a fondo il fenomeno della violazione della simmetria
CP .
In Figura (2.1) sono riportati gli andamenti delle sezioni d’urto di alcuni processi in
collisioni protone-protone, oltre all’andamento della sezione d’urto totale. Confrontando i
valori previsti per LHC con quelli del Tevatron, si vede che le sezioni d’urto a LHC saranno
almeno di un ordine di grandezza maggiori per quanto riguarda tutti i processi considerati
[17].
Il valore atteso per la sezione d’urto di interazioni inelastiche protone-protone è di circa
60 mb, mentre la sezione d’urto totale sarà intorno ai 100 mb. Con LHC a pieno regime
ci si aspettano dunque almeno 20 interazioni per incrocio dei pacchetti, il che risulterà in
una grande molteplicità di particelle prodotte, sia cariche che neutre. Combinato con il
tasso di incrocio di 25 ns, ciò comporta dei requisiti molto stringenti per i rivelatori che
intendono prendere parte al progetto:
• una granularità fine, per risolvere il gran numero di particelle;
26
Il Large Hadron Collider e l’esperimento CMS
Figura 2.1
Sezioni d’urto in collisioni protone-protone in funzione dell’energia del centro di massa.
Sono evidenziate le energie di LEP (“CERN”), del Tevatron (“Fermilab”) e di LHC.
• un’elevata velocità di risposta, per minimizzare la sovrapposizione di eventi (pile
up);
• un sistema di selezione e acquisizione degli eventi rapido ed efficiente;
• una buona resistenza alla radiazione.
Quattro rivelatori studieranno le interazioni prodotte a LHC: due rivelatori a uso
generale, CMS (Compact Muon Solenoid) [19] e ATLAS (A Toroidal LHC ApparatuS)
[20], un rivelatore dedicato alla fisica del quark bottom (LHCb) [21], e un rivelatore per
collisioni di ioni pesanti, ALICE (A Large Ion Collider Experiment) [22].
2.2 L’esperimento CMS
Figura 2.2
2.2
27
Il rivelatore Compact Muon Solenoid.
L’esperimento CMS
L’esperimento CMS è stato progettato specificamente per scoprire il bosone di Higgs, anche
con basse luminosità, nonché per cercare indizi di nuova fisica a LHC. Per ottenere questi
risultati nell’ambiente sperimentalmente impegnativo previsto a LHC, la collaborazione si
è posta i seguenti obiettivi:
• un sistema ottimale per l’identificazione e la misura dei muoni. Questo ha portato
alla scelta di un magnete superconduttore solenoidale capace di produrre un campo
magnetico di 4 T, con i rivelatori per muoni immersi nel ferro di ritorno, permettendo
quindi un sistema muonico compatto;
• il miglior calorimetro elettromagnetico possibile compatibile con le dimensioni del
magnete;
• un sistema tracciante centrale efficiente e preciso nella misura dell’impulso e nella
ricostruzione delle tracce di particelle cariche;
28
Il Large Hadron Collider e l’esperimento CMS
Figura 2.3
Valori assunti dalla pseudorapidità (η) in corrispondenza di alcuni angoli polari (θ).
• un calorimetro adronico adeguato e altamente ermetico per avere una buona misura
dell’energia trasversa mancante.
La struttura del rivelatore CMS è presentata in Figura (2.2). Ha una forma cilindrica
di raggio 7.5 m e lunghezza 22 m, e pesa circa 12 500 tonnellate. È suddiviso in una regione
centrale (barrel ), chiusa da ambo i lati da due endcap identici. Al suo interno è visibile
il magnete superconduttore, lungo 13 m e con un raggio di 3 m. Il magnete è abbastanza
largo da poter ospitare al suo interno il sistema tracciante interno e i calorimetri.
Alla costruzione di CMS hanno partecipato migliaia di fisici provenienti da 159 istituti
di 36 paesi diversi. Il rivelatore è attualmente installato nel punto di interazione 5 di
LHC, a circa 80 m di profondità, vicino a Cessy, in Francia. La sua costruzione è ormai
completata: l’esperimento è pronto per analizzare le prime collisioni.
Il sistema di assi coordinati adottato da CMS ha l’origine posta nel punto di interazione
nominale dei fasci, con l’asse y che punta verso l’alto e l’asse x radialmente verso il centro
geometrico di LHC. L’asse z punta quindi lungo la direzione dei fasci di protoni. L’angolo
azimutale φ è misurato dall’asse x sul piano xy, mentre quello polare (θ) è misurato
dall’asse z.
La pseudorapidità (η), definita come
η = − ln tan
θ
2
risulta essere una quantità utile dal momento che per energie elevate è una buona approssimazione della rapidità (y) di una particella, definita come
1
y = ln
2
E + pL
E − pL
2.3 Sistema di tracciamento interno
Tabella 2.2
29
Dose di radiazione e flusso di particelle cariche attesi per diversi strati radiali del barrel
del sistema tracciante di CMS, per una luminosità integrata di 500 fb−1 .
Raggio
Dose di radiazione
Flusso di particelle cariche
(cm)
(kGy)
(cm−2 s−1 )
4
840
108
22
70
6 · 106
115
1.8
3 · 105
ove con pL si è indicata la componente dell’impulso parallela alla linea dei fasci. La
rapidità è una quantità le cui differenze sono invarianti relativistici per trasformazioni di
Lorentz lungo la direzione dei fasci. In Figura (2.3) sono riportati i valori assunti da η in
corrispondenza di alcuni angoli θ.
Verranno infine denotati rispettivamente con pT e ET l’impulso e l’energia misurati
nel piano trasverso (xy) al fascio. La componente trasversa dell’energia è definita come
ET = E · sin θ, ove E è l’energia depositata in una cella calorimetrica e θ è l’angolo polare
della posizione della cella.
Descriveremo ora nel dettaglio i vari sottorivelatori che costituiscono CMS. Maggior
attenzione sarà posta sul calorimetro elettromagnetico (ECAL), fondamentale per il lavoro
svolto in questa tesi.
2.3
Sistema di tracciamento interno
Il sistema di tracciamento interno serve a ricostruire le tracce delle particelle cariche e
misurarne l’impulso. Per la prima volta in un esperimento in fisica delle particelle, il
sistema tracciante è interamente affidato all’utilizzo del silicio.
Il principale obiettivo del sistema tracciante è quello di ricostruire elettroni e muoni
isolati e di elevato impulso trasverso con efficienza maggiore di 95%, e tracce di alto pT
entro jet con efficienza maggiore di 90% nell’intero intervallo di pseudorapidità |η| < 2.5.
Il tutto in un ambiente altamente radioattivo e con alta molteplicità di particelle, come
si vede in Tabella (2.2), ove sono riportati i flussi di particelle attesi per la luminosità di
progetto [23].
Facendo sempre riferimento alla Tabella (2.2), si possono identificare 3 regioni:
30
Il Large Hadron Collider e l’esperimento CMS
Figura 2.4
Sezione di un quarto del sistema tracciante interno di CMS. Sono segnati alcuni valori
di pseudorapidità.
• in prossimità del vertice di interazione, ove il flusso di particelle è maggiore, sono
presenti dei rivelatori a pixel. La dimensione del pixel è di circa 100 × 150 µm2 ,
ottenendo un’occupanza di circa 10−4 per pixel a ogni incrocio dei fasci;
• nella regione intermedia (20 < r < 55 cm), il flusso è abbastanza basso da permettere
l’uso di microstrisce di silicio, con celle di dimensione minima di 10 cm × 80 µm, il
che comporta un’occupanza di circa 0.2 - 0.3 per incrocio;
• nella regione esterna (r > 55 cm), il flusso diminuisce talmente da rendere possibile
l’utilizzo di strisce di silicio più larghe, con celle di dimensione massima pari a 25
cm × 180 µm, mantenendo l’occupanza intorno al percento;
Una sezione del sistema di tracciamento interno di CMS è visibile in Figura (2.4).
Vicino al vertice di interazione sono stati posti 3 strati di pixel di silicio, rispettivamente
a distanze radiali di 4.7, 7.3 e 10.2 cm. Nel barrel sono poi poste le microstrisce di
silicio, a r fra 20 e 110 cm. La regione in avanti ha invece 2 strati di pixel, e 9 strati di
microstrisce in ogni endcap. La regione di microstrisce del barrel è separata in due regioni,
una interna e una esterna. Per evitare che le particelle incidano sui rivelatori ad angoli
troppo piccoli, la regione interna del barrel è più corta di quella esterna, e sono stati posti
3 strati addizionali, a forma di disco (Inner Discs) nello spazio compreso fra il bordo della
regione interna e l’endcap, su entrambi i lati del barrel. Complessivamente il sistema di
tracciamento interno conta 66 milioni di pixel e 9.6 milioni di strisce di silicio. Fornisce
una copertura fino a |η| < 2.4.
2.3 Sistema di tracciamento interno
31
Figura 2.5
Spettro in pseudorapidità della risoluzione in impulso trasverso ottenuta con il sistema
tracciante di CMS. Le curve fanno riferimento a muoni di impulsi trasversi di 1, 10 e
100 GeV.
Figura 2.6
Efficienza di ricostruzione di traccia del sistema tracciante interno di CMS. Risultati
ottenuti per muoni (a sinistra) e pioni carichi (a destra) di impulsi trasversi di 1, 10 e
100 GeV.
32
Il Large Hadron Collider e l’esperimento CMS
I pixel di silicio forniscono una precisione di misura di 10 µm per le coordinate nel piano
trasverso (xy), e di 20 µm per la coordinata z. Le microstrisce forniscono una risoluzione
che dipende dallo spessore della cella, ma risulta comunque migliore di 55 µm nel piano
trasverso [23]. Complessivamente, la risoluzione sull’impulso trasverso ottenuta con il
sistema tracciante interno di CMS è riportata in Figura (2.5). L’efficienza di ricostruzione,
per muoni e pioni carichi, è invece riportata in Figura (2.6).
2.4
Calorimetro elettromagnetico
Il calorimetro elettromagnetico (ECAL) di CMS è un calorimetro ermetico e omogeneo,
costituito da 61 200 cristalli di tungstato di piombo (PbWO4 ) nella regione del barrel e
chiuso da 7324 cristalli in ognuno dei due endcap. L’obiettivo del calorimetro elettromagnetico è misurare con alta precisione l’energia di particelle eletromagnetiche, oltre che,
in combinazione con il calorimetro adronico, fornire una ricostruzione dell’energia dei jet
adronici.
Il calorimetro elettromagnetico svolge un ruolo fondamentale nella ricerca del bosone
di Higgs, specialmente nei canali di decadimento H → γγ e H → ZZ (∗) → 4e± /2e± 2µ± .
Come visto nel capitolo precedente, infatti, negli intervalli di massa in cui verrebbero
sfruttati questi canali di decadimento per la sua scoperta, la larghezza intrinseca dell’Higgs
è piccola e la risoluzione sperimentale è dominante per l’incertezza sulla misura della massa.
Il canale di decadimento in due fotoni, in particolare, è stato usato come punto di riferimento cardinale nell’ottimizzazione della progettazione del calorimetro elettromagnetico
di CMS. Le difficoltà sperimentali di questo canale hanno portato la collaborazione alla
scelta di un calorimetro elettromagnetico di eccellente risoluzione energetica e granularità
fine per massimizzare la risoluzione nella misura della massa invariante di due fotoni. Per
questo motivo si è optato per un calorimetro omogeneo, di grande precisione, con una
massa sensibile formata di cristalli scintillanti.
Nei paragrafi seguenti verranno descritte nel dettaglio le principali caratteristiche del
calorimetro elettromagnetico di CMS.
2.4.1
I cristalli di P bW O4
La scelta del tungstato di piombo (PbWO4 , più semplicemente PWO) è stata motivata
dalla compattezza, rapidità di risposta e resistenza alla radiazione di questo materiale.
2.4 Calorimetro elettromagnetico
Tabella 2.3
33
Principali caratteristiche dei cristalli di PWO e confronto con altri cristalli scintillanti.
Gli apici f e s corrispondono rispettivamente alle componenti di emissione principale
(fast) e secondaria (slow).
NaI(Tl)
BGO
CeF3
BaF2
PWO
X0 (cm)
2.57
1.12
1.68
2.05
0.89
ρ (g cm−2 )
3.67
7.13
6.16
4.89
8.18
4.5
2.4
2.6
3.4
2.2
1.85
2.20
1.68
1.56
2.29
1
0.15
0.10
0.05f
0.01
RM (cm)
n
LY (a.u.)
0.20s
τ (ns)
λ (nm)
250
410
300
480
10f
0.7f
5f
30s
620s
15s
310f
220f
440f
340s
310s
480s
Le principali caratteristiche del PWO, confrontate con quelle di altri cristalli scintillanti,
sono riportate in Tabella (2.3) [24].
La lunghezza di radiazione (X0 ) rappresenta la distanza longitudinale nella quale un
elettrone, attraversando il materiale, perde in media 1/e della sua energia attraverso processi di diffusione. Il calorimetro elettromagnetico deve assicurare il completo contenimento dello sciamo elettromagnetico fino a energie dell’ordine del TeV. Per tali energie il 98%
dello sviluppo longitudinale dello sciame è contenuto in 25 X0 .
Il raggio di Molière (RM ) è invece una grandezza usata nella descrizione dello sviluppo
trasversale dello sciame. È definita come
RM =
21.2 MeV × X0
EC (MeV)
ove EC è detta energia critica e rappresenta l’energia alla quale la perdita media di energia
per ionizzazione eguaglia quella persa per bremsstrahlung. In media, il 90% dell’energia
34
Il Large Hadron Collider e l’esperimento CMS
di uno sciame elettromagnetico è depositata in un cilindro di raggio RM costruito attorno
all’asse dello sciame.
Le principali caratteristiche di scintillazione di un cristallo utilizzato in calorimetria
sono la quantità di luce di scintillazione emessa (light yield ) e il tempo di emissione (τ ). Il
light yield (LY) viene generalmente misurato come il numero di fotoni emessi per MeV di
energia depositata all’interno del cristallo. In tabella è riportato il light yield normalizzato
a quello dello ioduro di sodio drogato con tallio (NaI(Tl)). Per completezza, in tabella
sono riportate quantità addizionali: la densità (ρ), l’indice di rifrazione (n) e la lunghezza
d’onda di emissione della luce (λ).
Il PWO è stato scelto per i seguenti motivi:
• la piccola lunghezza di radiazione (0.89 cm) permette la costruzione di un calorimetro
estremamente compatto: con cristalli lunghi 23 cm si ottengono 25.8 X0 , assicurando
un ottimo contenimento longitudinale degli sciami fino a grandi energie;
• il piccolo raggio di Molière consente un efficace contenimento laterale degli sciami e
contemporaneamente una buona granularità;
• la velocità di risposta elevata permette di raccogliere gran parte della luce di scintillazione fra due incroci successivi (l’80% della luce è emessa entro 25 ns), minimizzando
gli effetti del pile up;
• la sua buona resistenza alla radiazione lo rende utilizzabile per decine di anni di
attività a LHC ad alta luminosità.
Il PWO è insensibile alla radiazione di neutroni, ma l’irraggiamento da fotoni induce la
formazione di centri di colore nel cristallo che possono degradare la trasparenza, e quindi
in ultima analisi la resa di luce. Studi accurati [25] hanno evidenziato una correlazione fra
la resistenza alla radiazione e la trasmissione ottica dei cristalli. È stato inoltre osservato
che un particolare tipo di drogaggio a base di niobio (Nb) rende lo spettro di trasmissione
ottimale e contemporaneamente massimizza la resistenza alla radiazione del cristallo.
Il tungstato di piombo presenta tuttavia degli inconvenenti. Innanzitutto, gran parte
dell’energia immagazzinata nel cristalli viene dissipata in emissioni termiche da parte del
reticolo cristallino. Di conseguenza il light yield risulta essere molto basso (circa 30 fotoni/MeV), rendendo necessario l’utilizzo di fotorivelatori con un sistema di amplificazione.
In CMS si utilizzano fotodiodi a valanga (APD) nel barrel e fototriodi a vuoto (VPT)
negli endcap. La scelta di questo tipo di amplificatori è stata motivata dalla loro buo-
2.4 Calorimetro elettromagnetico
(a)
Figura 2.7
35
(b)
(a) Struttura di un APD; (b) Profilo del campo elettrico di un APD in funzione della
distanza dallo strato p++ .
na efficienza quantica per lunghezze d’onda nella regione dell’emissione del PWO, dalla
sostanziale insensibilità alla presenza del campo magnetico e dalla loro compattezza.
Un secondo problema connesso alla dissipazione termica dell’energia assorbita è la
dipendenza della quantità di luce emessa dalla temperatura del cristallo. Il PWO presenta
una variazione percentuale pari a −2%/◦ C a 18◦ C. Per assicurare una risposta costante
e affidabile del rivelatore è necessario quindi mantenere stabile la sua temperatura, il che
ha motivato la costruzione di un sistema di raffreddamento idraulico in grado di garantire
una temperatura operativa di (18 ± 0.05) ◦ C.
2.4.2
Fotorivelatori
Nel barrel i fotorivelatori sono fotodiodi a valanga (APD) a struttura invertita (ovvero
con il silicio di tipo n dietro alla giunzione p-n), sviluppate dalla ditta Hamamatsu specificatamente per il calorimetro di CMS. Uno schema della struttura degli APD è riportato
in Figura (2.7a) [26].
I fotoni di scintillazione prodotti nel cristallo entrano nel fotodiodo dallo strato p++
(in figura, dall’alto) per essere assorbiti nel successivo strato p+ , creando una coppia
elettrone-lacuna. L’elettrone formatosi, a sua volta, è accelerato dal forte campo elettrico
prodotto dalla giunzione p-n (l’andamento del profilo del campo è riportato in Figura
(2.7b)), liberando altri elettroni per ionizzazione. Gli elettroni liberati migrano verso lo
36
Il Large Hadron Collider e l’esperimento CMS
Tabella 2.4
Principali caratteristiche degli APD Hamamatsu.
Area sensibile
5 × 5 mm2
Voltaggio operativo
340-430 V
Efficienza quantica a 430 nm
(75 ± 2) %
Capacità
Dipendenza del guadagno dal voltaggio
Dipendenza del guadagno dalla temperatura
Corrente oscura
(80 ± 2) pF
(3.1 ± 0.1) %/V
(−2.4 ± 0.2) %/◦ C
< 50 nA
Corrente oscura tipica
3 nA
Corrente oscura dopo irraggiamento con 2 × 1012 n/cm
5 µA
strato n++ dove vengono raccolti.
Le principali caratteristiche degli APD Hamamatsu sono riportate in Tabella (2.4) [23].
Le motivazioni che hanno portato alla loro scelta sono:
• elevato guadagno interno, regolabile fino a 200 (il valore operativo è 50);
• buona efficienza quantica;
• bassa capacità e bassa corrente di saturazione inversa;
• resistenza alle radiazioni sufficiente per lavorare nella regione centrale di ECAL;
• compattezza;
• insensibilità al campo magnetico;
• ridotta risposta alle particelle cariche grazie al piccolo spessore della regione di
moltiplicazione (' 5 µm).
Gli APD hanno un’area attiva di 5 × 5 mm2 . Per migliorare la raccolta di luce sono
stati incollati due APD sulla faccia posteriore di ogni cristallo del barrel.
La resistenza alle radiazioni degli APD è stata verificata, facendo particolare attenzione alla resistenza all’irraggiamento da neutroni [27]. Non è stata riscontrata variazione
apprezzabile nel guadagno fino a flussi di neutroni di circa 1013 neutroni/cm2 , mentre è
2.4 Calorimetro elettromagnetico
Figura 2.8
37
Struttura di un VPT. Le distanze sono espresse in mm.
stato osservato un aumento lineare della corrente oscura, fino a valori di qualche µA per
le massime dosi aspettate.
Negli endcap si ha bisogno di fotorivelatori in grado di operare in condizioni di elevata
radioattività e in presenza di un forte campo magnetico assiale. La quantità di radiazione
prevista è infatti notevolmente maggiore di quella del barrel: il flusso di neutroni può
raggiungere valori dell’ordine di 1015 neutroni/cm2 nelle regioni più vicine ai fasci. Per
questo motivo non possono essere utilizzati gli APD.
Si è deciso di utilizzare dei fototriodi a vuoto (VPT), la cui struttura è schematizzata
in Figura (2.8) [26]. Il fototriodo è composto da un fotocatodo di vetro resistente alle
radiazioni, un anodo a griglia posizionato a 4-5 mm dal fotocatodo, e un dinodo posto 2-3
mm dopo l’anodo. Tipicamente il fotocatodo è collegato a terra, l’anodo è a una differenza
di potenziale rispetto a questo di circa 1000 V e il dinodo a una differenza di potenziale
di circa 800 V.
I fotoni di scintillazione provenienti dal cristallo colpiscono il fotocatodo, dove sono
convertiti in fotoelettroni per effetto fotoelettrico. I fotoelettroni sono accelerati dal forte
campo elettrico in direzione dell’anodo. Una larga parte di essi attraversa la griglia dell’anodo e colpisce il dinodo, dove vengono prodotti numerosi elettroni secondari (il fattore di
emissione secondaria può arrivare a 20). Gli elettroni secondari cosı̀ creati sono di nuovo
accelerati verso l’anodo, dove ne viene raccolta un’ampia frazione.
Le principali caratteristiche dei VPT sono riportate in Tabella (2.5) [26].
38
Il Large Hadron Collider e l’esperimento CMS
Tabella 2.5
Principali caratteristiche dei VPT.
Diametro esterno
22 mm
Diametro utile del fotocatodo
15 mm
Lunghezza complessiva
50 mm
Corrente oscura
Dipendenza del guadagno dal voltaggio
Dipendenza del guadagno dalla temperatura
Efficienza quantica a 450 nm
2.4.3
1-10 nA
< 0.1 %/V
< 1 %/◦ C
> 15 %
Guadagno effettivo a B = 0 T
12
Guadagno effettivo a B = 4 T
7
Geometria
Il calorimetro elettromagnetico ha una struttura cilindrica. La parte centrale del cilindro,
detta barrel, copre la regione di pseudorapidità corrispondente a |η| < 1.479; il barrel
è chiuso a entrambe le estremità da due strutture identiche laterali, detti endcap, che
raggiungono |η| = 3. Di fronte a quasi tutta la regione fiduciale degli endcap (1.653 <
|η| < 2.6) è posto un rivelatore che fornisce informazioni sullo sviluppo trasversale dello
sciame (preshower). La Figura (2.9a) mostra una prospettiva della struttura di ECAL. In
Figura (2.9b) si vede invece una sezione di un quarto del calorimetro.
Il barrel ha un raggio interno di 129 cm. È costituito da 61 200 cristalli, corrispondenti
a una granularità di 360 cristalli in φ e di (2 × 85) cristalli in η. I cristalli hanno forma
troncopiramidale e sono montati in una geometria quasi proiettiva di modo che i loro assi
formano un angolo di 3◦ con la congiungente al vertice di interazione nominale. Un singolo
cristallo corrisponde approssimativamente a un passo di 0.0174 × 0.0174 nel piano η −
φ (quest’ultimo misurato in radianti), corrispondente a 22 × 22 mm2 all’estremità frontale
e 26 × 26 mm2 all’estremità posteriore. Sono lunghi 23 cm, corrispondenti a 25.8 X0 .
Un cristallo e i due APD incollati sulla sua faccia posteriore costituiscono una sottounità. Le sottounità sono montate in strutture alveolari fatte di sottili lamine di fibra di
vetro, detti sottomoduli (vedi Figura (2.10a)), costituiti da 5 paia di sottounità. I sottomoduli sono quindi assemblati a formare moduli (Figura (2.10b)), e 4 moduli formano un
supermodulo (Figura (2.10c)). Il barrel è costituito di 36 supermoduli identici, ognuno dei
2.4 Calorimetro elettromagnetico
(a)
Figura 2.9
39
(b)
(a) Visione prospettica della struttura di ECAL; (b) Sezione di un quarto di ECAL.
Sono evidenziati alcuni valori di pseudorapidità e il preshower.
quali copre metà della sua lunghezza.
Gli endcap sono posti a una distanza longitudinale di 3 144 mm dal punto di interazione,
tenendo conto dello spostamento di circa 2.6 cm verso il centro causata dall’accensione
del campo magnetico. Sono formati da cristalli identici, di faccia anteriore di dimensioni
28.62 × 28.62 mm2 , lunghezza pari a 220 mm (24.7X0 ), e faccia posteriore di 30 × 30 mm2 .
I cristalli sono raggruppati in unità meccaniche di 5 × 5 cristalli, dette supercristalli (SC),
fatte con una struttura alveolare in fibra di carbonio.
A valori di pseudorapidità maggiori di 2.5, il livello di radiazione e l’elevata molteplicità
di particelle rendono impossibili misure di precisione. I cristalli più vicini ai fasci si usano
solamente per misurare l’energia trasversa dell’evento e congiuntamente al calorimetro
adronico per ricostruire i jet.
Nell’intervallo di pseudorapidità 1.653 < |η| < 2.6 si impiega un rivelatore, detto
preshower, a forma di corona circolare di raggio interno pari a 45.7 cm e raggio esterno
di 1.23 m. È un calorimetro a campionamento con 2 strati, e utilizza un campionatore
di piombo e un rivelatore a strisce di silicio. Gli strati di piombo (rispettivamente di 2
e 1 X0 ) provocano lo sviluppo di sciami elettromagnetici da parte di elettroni e fotoni
entranti, e i rivelatori a strisce di silicio posti fra gli strati di piombo misurano l’energia
depositata e il profilo laterale degli sciami stessi.
L’obiettivo principale del rivelatore preshower è la distinzione fra fotoni e pioni neutri
Questi ultimi infatti, decadono rapidamente in coppie di fotoni che ad alte energie
possono essere molto vicini e quindi molto difficilmente separabili. È inoltre utile nella
(π 0 ).
40
Il Large Hadron Collider e l’esperimento CMS
(a)
Figura 2.10
(b)
(c)
(a) Struttura di un sottomodulo; (b) Struttura di un modulo; (c) Struttura di un
supermodulo.
separazione fra elettroni e particelle al minimo di ionizzazione, e la sua granularità superiore a quella dei cristalli dell’endcap permette di determinare con maggior precisione la
posizione di elettroni e fotoni.
2.4.4
Catena di lettura
La catena di lettura del segnale dei cristalli presenta una struttura modulare, il cui elemento di base è costituito da una torre di trigger, formato da una matrice di 5 × 5 cristalli.
Cinque coppie di APD sono connesse ad una scheda di elettronica, detta VFE (Very Front
End), e cinque schede VFE sono collegate ad una scheda madre. Ciascuna scheda madre è
collegata a una scheda di Front End (FE), dove vengono generate le quantità discriminanti
per il trigger (trigger primitives), come ad esempio la somma delle energie depositate in
una torre.
Le schede VFE preamplificano, formano e nuovamente amplificano il segnale proveniente dagli APD; l’amplificazione e la formazione del segnale sono effettuate da un preamplificatore a guadagno variabile (Multi Gain Pre-Amplifier, o MGPA) un amplificatore
dotato di tre sistemi paralleli di amplificazione con tre guadagni differenti (1, 6 e 12). Le
tre uscite analogiche corrispondenti sono digitalizzate in parallelo da un ADC commerciale
(AD41240) a 12 bit, il quale ha una logica integrata che seleziona, fra i tre, il segnale più
alto non saturato.
Il segnale digitale cosı̀ prodotto viene inviato alla scheda di FE dove si calcolano le
grandezze fondamentali da inviare all’elettronica del trigger di Livello 1, che con una
latenza di 3 µs trasmette i dati all’elettronica esterna al rivelatore attraverso un sistema
di fibre ottiche. La Figura (2.11) mostra schematicamente la struttura della catena di
lettura di ECAL.
2.4 Calorimetro elettromagnetico
Figura 2.11
41
Schema della catena di lettura di ECAL.
Ciascuna scheda madre contiene un regolatore di bassa tensione (LVR: Low Voltage
Regulator Board) che fornisce la tensione di 2.5 V richiesta dai dispositivi CMOS. Quattro LVR ricevono la tensione da un quadro di distibuzione comune (LVD: Low Voltage
Distribution Panel). Le schede madri ricevono anche l’alta tensione (High Voltage, HV)
necessaria ad alimentare gli APD; ogni canale di HV alimenta con la stessa tensione due
torri di trigger (50 cristalli, cioè 100 APD).
2.4.5
Risoluzione in energia
La risoluzione in energia del calorimetro elettromagnetico può essere parametrizzata come
σ
S
N
=√ ⊕
⊕C
E
E
E
(2.1)
ove S è il termine stocastico, N il termine di rumore e C il termine costante. Il termine
stocastico dipende dalle fluttuazioni nel numero di fotoni di scintillazione rivelati e nel
numero di processi fisici attraverso cui le particelle perdono la loro energia nei cristalli. Il
termine di rumore deriva dal rumore elettronico e dal pile-up. Il termine costante, invece,
ha cause diverse: perdite dovute al non contenimento longitudinale, non uniformità nella
raccolta di luce, intercalibrazione fra i cristalli e imperfezioni geometriche.
I parametri che compaiono nella (2.1) sono stati misurati con fasci di prova, e sono
42
Il Large Hadron Collider e l’esperimento CMS
attualmente stimati come [28]:
S = 2.8% GeV1/2
N = 124 MeV
C = 0.3%
per elettroni che incidono al centro di un cristallo.
2.5
Calorimetro adronico
Il ruolo del calorimetro adronico di CMS (HCAL) è di misurare le energie e le direzioni
delle particelle dei jet adronici e stimare, insieme al calorimetro elettromagnetico, l’energia
mancante degli eventi. Per questi motivi i due requisiti fondamentali sono la buona ermeticità e una buona granularità trasversa. Saranno inoltre importanti una buona risoluzione
energetica e un sufficiente contenimento longitudinale delle cascate adroniche.
Il calorimetro adronico è formato da un calorimetro centrale (|η| < 3), e da due calorimetri per alte rapidità (3 < |η| < 5). Si è optato per un calorimetro a campionamento
che utilizza strati di rame come assorbitori e scintillatori plastici come materiale attivo.
Ha una struttura “a piastrelle” (tile), parallele all’asse del fascio. È a sua volta suddiviso in una struttura cilindrica centrale (|η| < 1.3) e due endcap (1.3 < |η| < 3), per un
totale di 2593 torri di trigger senza segmentazione longitudinale. Ha una granularità di
∆η × ∆φ = 0.087 × 0.087, corrispondente a quella delle torri di trigger di ECAL.
Il calorimetro centrale ha una profondità di circa 7 lunghezze di interazione (λi ) e ha
una risoluzione energetica di
σ
100%
=p
⊕ 8%
E
E(GeV)
Una profondità di 7λi non è sufficiente per avere contenimento longitudinale completo delle
cascate adroniche. Si è quindi deciso di inserire uno strato ulteriore dietro al solenoide,
che fornisce 3λi ulteriori e migliora del 10% la risoluzione energetica per pioni di 300 GeV.
I calorimetri per alte rapidità, collocati in un’ambiente di elevata dose di radiazione e
molteplicità, sono calorimetri a campionamento fatti di ferro e fibre di quarzo. Le fibre
sono di due lunghezze diverse: le più lunghe partono dalla faccia frontale del calorimetro ,
le più corte 22 cm dopo. In questo modo la componente elettromagnetica della cascata, che
viene depositata nella parte iniziale del calorimetro, può essere ottenuta per sottrazione.
È costituito da un totale di 1728 torri di trigger e ha una granularità di ∆η × ∆φ =
0.175 × 0.175.
2.6 Rivelatore per muoni
Figura 2.12
2.6
43
Schema del rivelatore per muoni di CMS. Per i dettagli si veda il testo.
Rivelatore per muoni
Il rivelatore per muoni ha il compito di identificare e misurare i muoni, le uniche particelle
cariche che sono in grado di attraversare i calorimetri senza esservi assorbite. La presenza
di muoni nello stato finale è una caratteristica di molti processi interessanti di fisica. I
requisiti più stringenti per le prestazioni del rivelatore di muoni provengono dal canale di
decadimento del bosone di Higgs H → ZZ (∗) → 4µ.
Il rivelatore per muoni è posto fuori dal magnete e copre le regione di pseudorapidità
|η| < 2.4. È suddiviso in un barrel e due endcap, che fanno uso di tecnologie diverse. Sia
nel barrel che negli endcap, tuttavia, il sistema è composto da quattro stazioni di misura,
intervallate dal ferro del giogo di ritorno del magnete. In Figura (2.12) è visibile uno
schema del sistema per muoni di CMS.
La regione del barrel è costituita di piani di tubi a deriva (DT). Ogni stazione è costituita da una camera formata da 12 piani di tubi, per un totale di 195 000 tubi. Per gli endcap
sono invece state scelte camere a strisce catodiche (CSC) per poter avere misurazioni di
precisione anche in presenza di un forte campo magnetico ed elevata molteplicità di particelle. Le CSC sono camere proporzionali a molti fili il cui piano catodico è segmentato
in strisce. Sono organizzate in moduli di sei strati.
In aggiunta, sia nel barrel che negli endcap, sono state installate delle camere a piatti
44
Il Large Hadron Collider e l’esperimento CMS
(a)
Figura 2.13
(b)
Risoluzione sull’impulso della traccia dei muoni nel barrel (a) e negli endcap (b).
Sono mostrate le risoluzioni ottenute con il solo rivelatore per muoni (quadrati e linea
tratteggiata), con il solo tracciatore interno (cerchi vuoti e linea puntinata) e per la
combinazione dei due rivelatori (cerchi pieni e linea continua).
resistivi (RPC) per svolgere la funzione di trigger. Le RPC sono camere a gas a piani
paralleli che combinano una risoluzione spaziale ragionevole con una risoluzione temporale
eccellente (3 ns), comparabile con quella di uno scintillatore. Costituiscono un sistema
di trigger veloce e capace di identificare candidati muoni con elevata efficienza. Sono
organizzate in 6 stazioni nel barrel e 4 in ogni endcap, per un totale di 612 camere.
L’efficienza di ricostruzione delle tracce dei muoni è migliore del 90% per muoni fino a
100 GeV, e l’assegnazione di carica è corretta con una confidenza del 99%. In Figura (2.13)
si mostra la risoluzione sulla traccia del muone usando il solo sistema per muoni, il solo
tracciatore interno e la combinazione delle misure dei due rivelatori, per le parti centrali
del barrel e degli endcap. Risoluzioni migliori del percento sono ottenute per tutto lo
spettro di impulso considerato.
Capitolo 3
Il canale H → γγ
Sin dalla progettazione di LHC è stato studiato il canale di decadimento del bosone di Higgs
in due fotoni (H → γγ) come il canale fondamentale per la sua scoperta nell’intervallo
di massa che si estende dal limite di LEP fino a circa 150 GeV/c2 . La scelta di un
canale cosı̀ raro (vedi il Capitolo 1) è motivata dal fatto che il decadimento favorito a tali
masse (H → bb̄) è praticamente indistinguibile dal fondo nell’ambiente sperimentale di un
collisore adronico. Questo rende la ricerca di un Higgs leggero un compito ben più difficile
di quanto ci si aspetta a masse elevate.
In questo capitolo verranno descritte le topologie aspettate per gli eventi di segnale e
per i principali fondi. Si passerà quindi a tradurre questi concetti in variabili sperimentalmente misurabili, utili ai fini di un’analisi. Si descriverà infine il metodo con cui ricavare
la misura della massa del bosone di Higgs con un’analisi di questo genere.
3.1
Studio delle caratteristiche del segnale
Il bosone di Higgs, essendo neutro, non può essere accoppiato direttamente al fotone.
Abbiamo tuttavia visto in 1.1.1 che l’accoppiamento del bosone di Higgs a una particella
è proporzionale alla massa di quest’ultima. Dunque può decadere in due fotoni mediante
loop di particelle cariche massive. I due contributi principali sono dati dal bosone W e
dal quark top. I relativi grafici di Feynman sono riportati in Figura (3.1).
La topologia aspettata nel caso degli eventi di segnale è dunque semplice. Il bosone di
Higgs ha una massa almeno dell’ordine del centinaio di GeV e quindi decade in due fotoni
di energia E = 12 mH , dell’ordine di 50 GeV. I bosoni di Higgs prodotti a LHC non sono
fermi nel sistema del laboratorio, dunque le energie dei fotoni non sono monocromatiche.
Il canale H → γγ
46
W
H
H
(a)
Figura 3.1
t
(b)
Contributi principali al decadimento del bosone di Higgs in due fotoni: (a) loop con il
bosone W ; (b) loop con il quark top.
In Figura (3.2) si vede lo spettro di energia trasversa per i fotoni di decadimento di un
Higgs di massa pari a 120 GeV/c2 prodotto a LHC. Si cercano quindi eventi che presentino
due fotoni con grande energia trasversa (ET ).
u.a.
Dal momento che non ci sono altre particelle nello stato finale del processo, inoltre,
si vuole che i due fotoni siano isolati, ovvero, idealmente, non accompagnati da altre
particelle nell’evento. I protoni, tuttavia, non sono particelle elementari: i processi che
portano alla produzione dell’Higgs implicano la presenza di attività addizionale nel rivelatore, originata dalla loro rottura. In alcuni casi (ad esempio la fusione di bosoni vettori)
questa attività può avere una conformazione tipica facilmente riconoscibile (nell’esempio
citato, due jet a piccolo angolo). In alcuni casi, quando l’Higgs è prodotto in associazione
ad altre particelle, si possono sfruttare i prodotti di decadimento di quest’ultime nella
3
2.5
2
1.5
1
0.5
0
Figura 3.2
40
60
80
100
120
140
ET [GeV]
Spettro normalizzato di energia trasversa per fotoni di decadimento di un Higgs con
mH = 120 GeV/c2 .
3.2 Studio dei fondi
47
(a)
Figura 3.3
(b)
Produzione di due fotoni in una collisione protonica. (a) Fusione di gluoni (box); (b)
Annichilazione quark-antiquark (Born).
caratterizzazione dell’evento, il che può contribuire ad aumentare l’efficienza di selezione.
In questa analisi ci si è concentrati sulla rivelazione dei fotoni. Sono stati quindi
considerati indistintamente tutti i canali di produzione del bosone di Higgs. Non si è fatto
alcun uso dell’attività che può accompagnare i due fotoni di segnale. Uno studio di questo
tipo potrebbe migliorare le prestazioni di questa analisi.
3.2
Studio dei fondi
Qualunque evento che comporti la presenza di due depositi di energia in ECAL costituisce
un fondo per questo canale. I fondi si suddividono generalmente in due categorie: i processi
che presentano due fotoni reali ad elevata energia trasversa nello stato finale, e che quindi
emulano perfettamente il segnale, sono detti irriducibili; gli eventi in cui almeno un jet
dello stato finale viene interpretato come un fotone sono invece detti riducibili.
In una collisione fra protoni, due fotoni si possono produrre attraverso la fusione di
due gluoni o attraverso l’annichilazione di una coppia quark-antiquark. I diagrammi di
Feynman di questi processi sono visibili in Figura (3.3). La presenza del loop fermionico
nel diagramma relativo alla fusione di gluoni ha conferito a questo processo il nome box
(dall’inglese di “scatola”). La produzione di fotoni mediante annichilazione di quark è
invece solitamente indicata con il nome Born. Come già osservato, la topologia di questi
eventi è identica a quella aspettata per il segnale. Presentano infatti due fotoni isolati ad
elevata energia trasversa. Per ottenere un qualche potere discriminatorio fra questi eventi
e il segnale, si potrebbero studiare le caratteristiche cinematiche dell’evento, come si vedrà
in seguito.
Gli eventi in cui almeno un jet dello stato finale è interpretato come fotone costituiscono
i fondi riducibili per questo canale. I processi di questo tipo sono di due categorie: eventi
con produzione di soli jet (pp → jets) ed eventi con produzione di un fotone e di almeno
Il canale H → γγ
48
un jet (pp → γ + jets).
Per costituire effettivamente un fondo, i jet devono depositare un gran quantitativo
di energia nel calorimetro elettromagnetico, simulando lo sciame elettromagnetico di un
fotone di segnale. Devono dunque avere al loro interno una particella energetica in grado
di produrre un deposito del genere, che sia un fotone reale, un elettrone, o un adrone che
decada elettromagneticamente (π 0 , η, η 0 , ρ, ω). In ogni caso, però, il candidato fotone
cosı̀ prodotto ha un’importante differenza rispetto al segnale: è parte di un jet, e quindi
non isolato. Nella rivelazione di questi eventi, dunque, si dovrebbe riscontrare dell’attività
vicino ad esso, che siano tracce ricostruite nel tracciatore interno, depositi addizionali in
ECAL o celle accese in HCAL.
Per completezza, infine, sono stati presi in considerazione quali fondo riducibile gli
eventi di tipo Drell Yan in cui una coppia quark-antiquark si annichila in un fotone o un
bosone Z, il quale poi decade in una coppia elettrone-positrone (q q̄ → γ/Z (∗) → e+ e− ).
Questo tipo di processo forma due depositi di energia in ECAL e può quindi costituire un
fondo nel caso in cui non vengano ricostruite correttamente le tracce degli elettroni. Nei
pressi della risonanza del bosone Z, inoltre, la sezione d’urto del processo aumenta fino a
poter rendere rilevante il numero di eventi che simulano il segnale, rendendolo un fondo
importante nella ricerca di Higgs molto leggeri.
3.3
Misura della massa del bosone di Higgs
Definito un criterio di selezione, si avranno degli eventi con coppie di candidati fotoni. I
fotoni provenienti dal decadimento del bosone di Higgs avranno una massa invariante sostanzialmente monocromatica (a meno della risoluzione del rivelatore), mentre i candidati
fotoni del fondo costituiranno uno spettro continuo di massa invariante.
Considerato il fatto che il fotone è privo di massa, la massa invariante di una coppia
di fotoni è data da:
Mγγ =
p
2E1 E2 (1 − cos ∆α)
(3.1)
ove E1 ed E2 sono rispettivamente le energie dei due fotoni e ∆α l’angolo relativo fra di
essi.
La scoperta del bosone di Higgs nel canale di decadimento in due fotoni avrà l’aspetto
di un picco nello spettro di massa invariante delle coppie di fotoni selezionate. Affinché
tale picco non sia attribuibile a una fluttuazione statistica del fondo, deve essere valutato
3.4 Ricostruzione di fotoni in ECAL
49
il contributo del fondo (b) sotto al picco mediante un fit alla distribuzione osservata ai lati
di esso. Il contributo del supposto segnale (s) è ottenibile per sottrazione.
Ipotizzando una distribuzione di Poisson delle fluttuazioni statistiche nel numero di
eventi, la significanza σ del segnale è definita come
s
σ=√
b
Quando questo numero è maggiore di 5 la probabilità che il relativo picco sia stato provocato da una fluttuazione casuale è minore di 5.7 × 10−5 . Per una significanza σ > 5 viene
dunque proclamata la scoperta. Per una significanza σ > 3, la probabilità di una fluttuazione casuale del fondo è dell’ordine di 10−3 . È recentemente diventato usuale dichiarare
una evidenza in corrispondenza di una fluttuazione di questa magnitudine.
La larghezza del picco dipende sostanzialmente dalla risoluzione nella misura della
massa invariante, dal momento che la larghezza intriseca dell’Higgs è trascurabile. Come si
vede dalla (3.1), la risoluzione può dipendere da due fattori: dalla risoluzione nella misura
dell’energia dei due fotoni e dalla risoluzione nella misura dell’angolo relativo (ovvero della
loro direzione).
I pacchetti di protoni accelerati a LHC avranno una sezione trascurabile nel piano
trasverso all’orbita ma una deviazione standard di circa 7.5 cm nella direzione z, che
comporta una dispersione longitudinale di circa 5.3 cm nella distribuzione dei vertici di
interazione. Ipotizzare che il fotone sia prodotto nel vertice nominale di interazione (l’origine delle coordinate di CMS) può corrispondere a un errore di qualche centimetro, ovvero,
per un fotone che incide al centro del barrel (η ≈ 0), di un errore di qualche grado nella
valutazione della sua direzione.
Per avere una buona risoluzione nella misura della massa invariante è dunque importante riuscire a misurare la posizione del vertice reale di interazione. I fotoni non sono
particelle cariche, quindi non forniscono tracce utili a questo fine. È tuttavia possibile
utilizzare le tracce delle altre particelle prodotte nell’evento (nella rottura dei protoni, ad
esempio) per localizzare i vertici di decadimento dell’Higgs.
3.4
Ricostruzione di fotoni in ECAL
Si delinea quindi il leit motiv di questa analisi: la ricerca di eventi con due candidati fotoni
isolati. Un fotone rilascia tutta la sua energia nei cristalli del calorimetro elettromagnetico
di CMS, dunque un candidato fotone è in prima istanza un deposito energetico in ECAL.
50
Il canale H → γγ
Il deposito, tuttavia, può estendersi su diversi cristalli, rendendo necessario, in una misura
accurata, lo sviluppo di algoritmi che provvedano al corretto recupero di tutta l’energia.
La dimensione trasversale dei cristalli è stata scelta pari al raggio di Molière del PWO,
dunque per un fotone incidente al centro della faccia frontale di un cristallo, il 90% circa
della sua energia è contenuta in esso. Per ricostruire correttamente l’energia del fotone
è necessario quindi raggruppare, secondo un criterio, più cristalli adiacenti e sommare la
loro energia. L’insieme di cristalli cosı̀ ottenuto viene solitamente chiamato cluster, mentre
il procedimento di scelta e raggruppamento algoritmo di clusterizzazione.
Il deposito energetico di uno sciame elettromagnetico prodotto in ECAL è generalmente costituito da un massimo energetico locale immerso in una regione spazialmente
connessa di depositi energetici (bump). La procedura di ricostruzione deve quindi individuare i cristalli (seed ) in cui è stata depositata un’energia maggiore dei suoi adiacenti, e
cominciare ad includere i cristalli vicini cercando di recuperare la massima frazione dell’energia dello sciame. Il processo di clusterizzazione deve tuttavia fare attenzione a non
includere depositi relativi ad altre particelle o il rumore del rivelatore.
Per ridurre l’influenza delle fluttuazioni del rumore, si utilizza un procedimento chiamato soppressione degli zeri. Consiste nel mascherare il contributo di cristalli in cui
venga registrata un’energia entro 3 deviazioni standard dal valor medio del rumore. Il
mascheramento implica che il valore dell’energia di tali cristalli viene posto a zero.
Nel caso di un fotone (o di un elettrone) che incide in ECAL il bump dovrebbe riprodurre perfettamente la cluster shape dello sciame. Ai bordi di esso, tuttavia, dove
i depositi energetici sono comparabili con in rumore, si corre il rischio che dell’energia
appartenente allo sciame venga ignorata nel corso della soppressione degli zeri, o che una
vistosa fluttuazione del rumore simuli la presenza di un secondo bump.
Per evitare questi problemi si può scegliere di aprire matrici di dimensioni fisse attorno
al seed. Un procedimento di questo tipo è infatti meno incline a subire questo tipo di
problemi rispetto a una procedura di ricerca di bump. Si può calcolare ad esempio che il
94% dell’energia del fotone è depositata in una matrice 3 × 3 attorno al seed, mentre il
97% in una matrice 5 × 5.
Sino ad oggi sembra che effettivamente l’utilizzo di matrici fisse porti alla miglior
risoluzione energetica per fotoni ed elettroni che incidono direttamente in ECAL. Tuttavia,
nell’attraversare il materiale di fronte al calorimetro, i fotoni possono convertire in coppie
elettrone-positrone (e+ e− ), mentre gli elettroni irradiano fotoni per bremsstrahlung. I
depositi che vengono a formarsi sono quindi sparsi in regioni del calorimetro che possono
essere più estese di quelle caratteristiche di uno sciame singolo. Questo porta alla necessità
3.4 Ricostruzione di fotoni in ECAL
Figura 3.4
51
Illustrazione del procedimento di clusterizzazione dell’algoritmo Island nel barrel di
ECAL. I seed sono cerchiati in nero. Le frecce indicano la raccolta sequenziale di
cristalli a partire da un seed. Per i dettagli si veda il testo.
di algoritmi di clusterizzazione più complessi e flessibili.
3.4.1
Algoritmi ad apertura dinamica
In CMS si impiegano due algoritmi di clusterizzazione dinamici che vanno sotto il nome
di algoritmo Island e algoritmo Hybrid [30]. Il primo si usa negli endcap di ECAL mentre
il secondo nel barrel.
L’algoritmo Island
L’algoritmo Island inizialmente raccoglie i seed dell’evento, definiti come tutti i cristalli la
cui energia trasversa (ET ) superi una certa soglia ET0 , eliminando i seed adiacenti a seed
più energetici. Questi cristalli sono poi ordinati in ET decrescente.
Cominciando dal seed più energetico, l’algoritmo raccoglie cristalli per formare il cluster. La sequenza di raccolta è schematizzata in Figura (3.4). Partendo dalla posizione
del seed, l’algoritmo si muove nelle due direzioni in φ e raccoglie cristalli fino a che non
incontra una risalita in energia o una “lacuna” causata dalla soppressione degli zeri. Si
muove quindi di un passo nelle due direzioni di η e il procedimento è ripetuto. Allo stesso
Il canale H → γγ
52
Figura 3.5
Un elettrone che irradia mediante bremsstrahlung forma in ECAL una serie di cluster
energetici poco distanti nella direzione η. L’algoritmo Hybrid è ideato per raccoglierli
con efficienza.
modo i passi in η sono interroti quando si incontra una risalita in energia o una lacuna.
Tutti i cristalli cosı̀ raccolti vanno a formare il cluster e non possono essere inclusi in
cluster successivi, evitando in questo modo doppi conteggi.
L’algoritmo Island è in grado di raggruppare nello stesso cluster l’energia di un elettrone
e di un fotone poco energetico da esso irradiato, se sono vicini. Se l’angolo di apertura è
abbastanza grande, è anche in grado di separare i due contributi dei fotoni di decadimento
di un π 0 . L’algoritmo ha infine il vantaggio di dipendere da un solo parametro, ET0 .
L’algoritmo Hybrid
Un elettrone che attraversa il materiale del tracciatore irradia fotoni via bremsstrahlung.
A causa dell’intenso campo magnetico, tuttavia, la traiettoria dell’elettrone sarà fortemente curvata. Di conseguenza i fotoni emessi formeranno una serie di depositi consecutivi
che possono coprire una larga regione del calorimetro. Il processo è schematizzato in Figura (3.5). Similmente, nel caso di un fotone che converte in e+ e− , l’elettrone e il positrone
prodotti, che hanno carica opposta, sono deviati in direzioni opposte dal campo magnetico
e possono quindi incidere distanti su ECAL. Per la corretta ricostruzione dell’energia della
particella iniziale è dunque necessario sommare il contributo di cluster diversi, formando
un cluster di cluster, detto supercluster.
L’algoritmo hybrid è un algoritmo di supercluster. Si basa sul fatto che ad alte energie
3.5 Correzioni energetiche
Figura 3.6
53
Illustrazione del procedimento di super-clusterizzazione dell’algoritmo Hybrid. Per i
dettagli si veda il testo.
in buona approssimazione una particella carica è deviata solamente nella direzione φ,
mantenendo il valore di η sostanzialmente costante. Nella ricerca dei cluster copre infatti
una regione in φ ben più ampia rispetto a quella ricercata in η.
Il procedimento è riportato schematicamente in Figura (3.6). Si parte da un seed,
definito come un cristallo con energia trasversa ET > EThyb e si costruisce attorno ad esso
una matrice η × φ = 1 × 3 (“dómino”). Il procedimento si ripete per ±Nstep passi in φ.
Successivamente, in tutti i dómino in cui il cristallo centrale ha energia maggiore di una
soglia Ewing , si utilizza invece il dómino 1 × 5. Si ignorano infine tutti i dómino la cui
energia complessiva è inferiore a Esoglia .
L’eliminazione di alcuni dómino può quindi portare alla formazione di più cluster non
connessi. Tutti i cluster non connessi composti da dómino di energia inferiore a Eseed si
eliminano. Infine, tutti i cluster connessi rimasti si raggruppano lungo φ e costituiscono il
supercluster. In Tabella (3.1) sono riportati i valori standard dei parametri dell’algoritmo.
3.5
Correzioni energetiche
Per una corretta ricostruzione dell’energia di un fotone o elettrone in ECAL è necessario
prendere in considerazione le correzioni dipendenti dalla scala energetica e dalla pseudorapidità. Le correzioni di scala energetica dipendono da residue non linearità nel calorimetro,
dovute al non completo contenimento dello sciame e agli effetti della collezione di luce da
Il canale H → γγ
54
Tabella 3.1
Valori standard dei parametri dell’algoritmo Hybrid.
EThyb
1 GeV
Nstep
17
Ewing
1 GeV
Esoglia
0.1 GeV
Eseed
0.35 GeV
parte del cristallo. La dipendenza dalla pseudorapidità dipende invece dalla struttura del
rivelatore, che presenta una quantità di materiale da attraversare variabile in η (massima
nei pressi della giunzione fra barrel ed endcap). La quantità di materiale attraversato
influenza la frazione di energia persa dagli elettroni via bremsstrahlung e, per i fotoni,
la probabilità di conversione in e+ e− , e dunque risulta in una complessiva degenerazione
della ricostruzione dell’energia.
È stato dimostrato [30][31] che le due dipendenze si possono parametrizzare con una
funzione di correzione che dipende dal numero di cristalli del seed cluster del supercluster
(f (Ncry )) con energia maggiore di due deviazioni standard del rumore. Dopo aver applicato
questa correzione è visibile una dipendenza residua da η, se pur di piccola entità, la quale
è infine eliminata con una seconda con una seconda parametrizzazione dipendente dalla
sola pseudorapidità (f (η)).
3.6
Ricostruzione dei fotoni convertiti
Nell’attraversare il materiale del tracciatore interno, circa il 46% dei fotoni prodotti dal
decadimento dell’Higgs in una collisione converte in una coppia elettrone-positrone. Bisogna inoltre sottolineare che questo numero è stato calcolato utilizzando la simulazione
del tracciatore interno della versione 1 4 del software di ricostruzione. Gli ultimi test sul
tracciatore hanno tuttavia rilevato un peso maggiore rispetto alle specifiche di progetto
[32]. Nello scenario reale, dunque, una frazione maggiore di fotoni dovrebbe convertire
prima di ECAL1 .
L’elettrone e il positrone prodotti nella conversione sono deviati in direzioni opposte dal
campo magnetico e possono dunque essere assorbiti in ECAL in posizioni molto distanti,
1
La frazione di conversioni prima di ECAL è oggi stimata fra il 48 e il 50%.
3.6 Ricostruzione dei fotoni convertiti
55
tanto da non essere accorpati nello stesso supercluster. In ogni caso, tuttavia, anche se i
due cluster risultino vicini o sovrapposti, ci si aspetta che la forma del deposito energetico
di un fotone convertito sia ben diversa da quella di un fotone non convertito.
È stato dunque sviluppato un metodo [33] per la ricostruzione dei fotoni convertiti.
3.6.1
Algoritmo di ricostruzione
L’algoritmo di ricostruzione dei fotoni convertiti considera inizialmente i supercluster ricostruiti in ECAL. Si calcola la posizione di ogni cluster costituente il supercluster, come
la media delle posizioni dei cristalli del cluster, pesate con le energie depositate in essi.
Partendo dalle posizioni di ognuno dei cluster si tenta quindi di ricostruire una traccia
che parta da esso, muovendosi verso il centro del rivelatore (out-in). Si assume che la
traccia sia stata generata da una particella di massa pari a quella dell’elettrone ed energia pari all’energia depositata nel cluster. Entrambe le possibilità di carica sono testate
separatamente.
La ricostruzione della traccia procede di strato in strato del tracciatore interno, utilizzando una tecnica che va sotto il nome di filtro Kalman. Il filtro Kalman è sostanzialmente
una formulazione ricorsiva del metodo dei minimi quadrati nel corso del fit di un insieme
di punti sperimentali a un’ipotesi di traccia. È composto di una fase di propagazione e
una di aggiornamento. Nella fase di propagazione la traccia viene estrapolata al prossimo
strato di rivelatore, tenendo conto della perdita di energia media prevista nel materiale
attraversato. Nella fase di aggiornamento, la previsione viene confrontata con la posizione dell’osservazione sperimentale e i parametri del fit sono aggiornati al valore effettivo
di energia persa. Nell’implementazione di CMS, la tecnica segue il modello sviluppato
dall’esperimento DELPHI di LEP [37].
Ad ogni cluster vengono cosı̀ associate due tracce, di carica opposta. Ognuna di esse
è a sua volta utilizzata come punto di partenza di un secondo tracciamento, questa volta
verso l’esterno (in-out). Data una traccia out-in, si ipotizza che il suo punto ricostruito
più interno coincida con il vertice di conversione. Si procede da lı̀, dunque, per ricostruire
la seconda traccia.
La ricostruzione della seconda traccia della conversione comincia anch’essa dai depositi
energetici di ECAL. I cluster sono nuovamente scorsi come possibili punti di impatto della
seconda particella. Per ogni cluster viene costruita un’elica che rappresenti la traccia
della particella nel campo magnetico. L’elica è determinata dall’energia del cluster e dal
vincolo di essere parallela alla traccia out-in al vertice di conversione. Lungo ogni elica
viene quindi ricostruita la traccia vera e propria con un filtro Kalman.
56
Il canale H → γγ
I due insiemi di tracce cosı̀ ottenute, con i metodi di propagazione out-in e in-out,
vengono uniti e ordinati a seconda del numero di punti ricostruiti sperimentalmente e del
valore di una variabile di χ2 calcolata sulle differenze fra le posizioni previste e quelle
misurate negli strati del tracciatore. Le tracce sono quindi separate in due gruppi a
seconda della loro carica e ogni coppia di tracce di carica opposta va a costituire un
candidato fotone convertito. Capita tuttavia spesso che esistano numerosi candidati per
un singolo supercluster. È dunque necessario trovare un criterio per risolvere l’ambiguità
e scegliere una sola coppia di tracce per ogni supercluster.
Per una data coppia di tracce ricostruite, si possono calcolate varie quantità che ci danno un’idea della verosimiglianza che tale coppia corrisponda effettivamente agli elettroni
di una conversione:
• ∆ cot θ: la differenza fra le cotangenti dell’angolo polare dovrebbe essere nulla per le
due tracce dal momento che il campo magnetico non devia lungo quella direzione;
• ESC /ptracce : il rapporto fra l’energia del supercluster considerato e la somma degli
impulsi delle tracce dovrebbe valere 1;
• χ2 : il χ2 normalizzato delle tracce dovrebbe fornire una stima della bontà del fit che
lega la traccia ricostruita ai punti misurati;
• ∆φ: al vertice di interazione gli impulsi delle tracce devono essere collineari e dunque
la differenza in angolo azimutale nulla.
Non vengono considerate altre variabili, quali ad esempio la differenza in pseudorapidità
degli impulsi al vertice o la massa invariante della coppia, dal momento che sono fortemente
correlate con una o più delle variabili sopra citate.
È stato inoltre sviluppato un metodo [34] che combina le informazioni di queste quattro
variabili in una singola variabile di verosimiglianza (likelihood), distribuita fra 0 e 1. È
stato dimostrato che le prestazioni della variabile di likelihood sono migliori delle altre
variabili utilizzate singolarmente. Dunque nella presente analisi nel caso in cui più coppie
di tracce vengano associate allo stesso supercluster, verrà scelta la coppia di tracce con
maggior likelihood.
Capitolo 4
Genetica e fisica delle alte energie
Un’analisi in fisica delle alte energie consiste nella scelta di un insieme di tagli da effettuare
su determinate variabili, al fine di separare un segnale dalle possibili fonti di fondo. Il valore
ottimale di questi tagli è quello grazie al quale la significanza risultante è la maggiore
possibile.
Una maniera tipica per fissare i valori dei tagli è di studiare le distribuzioni delle
variabili per il segnale e per il fondo, e scegliere una soglia ragionevole. Lo svantaggio
insito in questo metodo è che l’essere umano è in grado di guardare solo a distribuzioni in
2 (o al massimo 3) dimensioni. Di conseguenza si è costretti a considerare le distribuzioni
delle diverse variabili singolarmente, scegliendo sequenzialmente i valori dei tagli. In questo
modo è possibile introdurre delle correlazioni difficili da gestire, ottenendo un’efficienza di
selezione non ottimizzata.
La strategia ottimale sarebbe poter studiare lo spazio multidimensionale delle variabili
considerate, considerando l’efficienza di diverse configurazioni di tagli. È stato dunque
ideato un metodo [35] che permette di far ciò basandosi su un meccanismo ispirato alla
selezione naturale.
Prima di passare alla descrizione dell’algoritmo, tuttavia, è necessaria una breve introduzione alla teoria dell’evoluzione naturale.
4.1
L’evoluzione naturale
L’evoluzione è il processo biologico secondo il quale una specie cambia i suoi tratti ereditari
nel corso delle generazioni. Il meccanismo su cui è fondata è stato scoperto da Charles
58
Genetica e fisica delle alte energie
Darwin [36].
Nella teoria darwiniana, il principale processo che determina l’evoluzione è la selezione
naturale, ovvero il progressivo adattamento della specie alla sopravvivenza in un dato
ambiente. La selezione naturale si basa su due meccanismi:
• la mutazione, ovvero il cambiamento casuale di un tratto ereditario;
• la selezione dei tratti favorevoli alla sopravvivenza.
La mutazione può avvenire durante il processo riproduttivo, oppure essere causata da
un agente esterno. La selezione fa sı̀ che i tratti favorevoli alla sopravvivenza divengano
sempre più comuni nella popolazione, mentre quelli nocivi più rari. È resa possibile dal
fatto che un individuo con tratti favorevoli ha più possibilità di riprodursi, e quindi più
individui della generazione successiva li erediteranno.
È interessante notare che nessuno dei due meccanismi, presi singolarmente, permetterebbe la selezione naturale. La sola mutazione comporterebbe un ricambio casuale di
tratti, portando a una popolazione eterogenea. Data la natura completamente casuale
delle mutazioni la maggior parte delle configurazioni ottenute sarebbero neutre o nocive
ai fini della sopravvivenza.
La sola selezione, invece, operata all’interno di una data popolazione, porterebbe al
contrario a una popolazione finale perfettamente omogenea, nella quale sono presenti solamente i geni più favorevoli fra quelli presenti nel campione di partenza. L’evoluzione
sarebbe a questo punto interrotta, con due spiacevoli implicazioni: la prima è che la configurazione ottenuta, benché sia la migliore possibile relativamente alla data popolazione
iniziale, non è necessariamente la migliore possibile relativamente all’ambiente dato; la
seconda, ancor più grave, è che una popolazione perfettamente omogenea è estremamente
vulnerabile. I suoi tratti sono stati infatti ottimizzati in base ad un ambiente esterno precisamente determinato: un minimo cambiamento in questo ambiente (ad esempio un balzo
di temperatura, la migrazione di un predatore) potrebbe causare l’estinzione dell’intera
popolazione.
La mutazione risulta quindi essere fondamentale ai fini dell’evoluzione. La presenza
continua di nuove configurazioni, infatti, assicura da un lato il progressivo miglioramento
dell’abilità di sopravvivenza, dall’altro una certa flessibilità nei confronti dei cambiamenti
esterni.
4.2 Algoritmi genetici in fisica delle alte energie
Figura 4.1
4.1.1
59
Illustrazione schematica del meccanismo di crossing over.
Geni, cromosomi e riproduzione
L’insieme dei tratti ereditari di un individuo è detto patrimonio genetico. Il patrimonio genetico è tramandato di generazione in generazione attraverso il DNA, una molecola capace
di codificare l’informazione genetica. Il DNA ha una forma filamentosa, che costituisce
una lunga sequenza di informazioni genetiche. Una porzione di DNA che corrisponde ad
un singolo tratto ereditario è detta gene.
Il gene dunque, se vogliamo, è il “quanto” dell’evoluzione. Le caratteristiche ereditarie
di ogni organismo sono descritte dai suoi geni, che sono contenuti in strutture ordinate
dette cromosomi. I cromosomi, a loro volta, sono albergati nelle cellule.
I geni sono tramandati di generazione in generazione attraverso il processo di riproduzione. Nella riproduzione i cromosomi delle cellule sessuali dei due genitori, generano
dei nuovi cromosomi mediante un meccanismo di mescolamento genetico che va sotto il
nome di crossing over. Una rappresentazione schematica del crossing over è mostrata in
Figura (4.1). I cromosomi formati hanno una porzione casuale di geni paterni e i rimanenti
materni, o viceversa.
4.2
Algoritmi genetici in fisica delle alte energie
In fisica delle alte energie, un algoritmo di selezione è identificato da un insieme di variabili
su cui si intende tagliare (ad esempio ET , η) e dai relativi intervalli di valori consentiti
60
Genetica e fisica delle alte energie
(ad esempio ET > 25 GeV, |η| < 1.44). Graficamente:

var1

 var2
 .
 .
 .
Op1
Op2
..
.

C1

C2
.. 

. 
varn Opn C n
ove vari è la variabile i-esima, Opi è un operatore (<, >, ≤, ≥) e C i indica il valore del
taglio.
Una volta che lo schema di selezione è fissato, sussiste una corrispondenza biunivoca
fra una determinata selezione e un vettore di numeri reali:
 
C1
 2
C 
 . 
 . 
 . 
Cn
È a questo punto immediato identificare questo vettore con un cromosoma composto da
n geni, ognuno dei quali corrisponde al taglio C i .
4.2.1
Evoluzione
Per simulare l’evoluzione naturale, è necessario innanzitutto creare una popolazione iniziale di N cromosomi. Ad ogni cromosoma corrisponde quindi un insieme di tagli, la cui
efficienza nella separazione del segnale dal fondo può essere descritta da un parametro.
Nel caso che ci interessa, ovvero della ricerca di un picco in uno spettro di massa invariante, scegliamo la significanza (σ) del picco nella finestra di ±2 GeV intorno al valore
della massa dell’Higgs considerata. Quindi, nel caso di mH = 120 GeV, viene considerato
il rapporto
s
σ=√
b
ove s (b) è il numero di coppie di candidati fotoni di segnale (fondo) in un campione di
prova che ha passato i tagli del cromosoma e che ha una massa invariante compresa fra
118 e 122 GeV.
4.2 Algoritmi genetici in fisica delle alte energie
Figura 4.2
61
Illustrazione schematica del meccanismo di crossing over implementato nell’algoritmo.
In alto i due genitori, in basso i due figli. La posizione delle frecce in alto indica il
valore dell’intero m (si veda il testo per i dettagli).
In analogia con l’evoluzionismo darwiniano, la significanza associata a un dato cromosoma corrisponde con la sua abilità di sopravvivenza (in inglese fitness). La popolazione
iniziale è ordinata secondo la fitness descrescente dei cromosomi.
Introduciamo ora un meccanismo di riproduzione. Considerando i due cromosomi con
maggior fitness si sceglie un numero intero casuale (m) compreso fra 1 e il numero di geni
n. I due cromosomi in questione generano due figli secondo un crossing over che funziona
in questo modo: il primo figlio avrà i primi m geni del primo genitore e i rimanenti n − m
del secondo; il secondo figlio ha invece i primi m del secondo genitore e i rimanenti del
primo. Il processo è schematizzato in Figura (4.2).
Durante la riproduzione è possibile che avvengano delle mutazioni genetiche. Dopo il
crossing over, i geni dei due figli possono mutare casualmente, con una definita probabilità
di mutazione. I due nuovi cromosomi formatisi sono quindi aggiunti alla popolazione a
patto che non siano copie di cromosomi già presenti.
Il meccanismo è quindi applicato a tutte le rimanenti coppie di cromosomi della popolazione, scorrendola in ordine di fitness. A procedimento terminato avremo una popolazione
di dimensione quasi raddoppiata, che è nuovamente ordinata in fitness, della quale si selezionano solamente i primi N cromosomi, di modo che il numero di cromosomi nella
popolazione sia costante. L’intero procedimento è quindi reiterato per un numero di passi
generazionali desiderato.
Nel corso delle generazioni, l’algoritmo seleziona i geni che corrispondono ai tagli che
forniscono i risultati migliori, fino a raggiungere una configurazione ottima corrispondente
in linea di principio alle migliori prestazioni possibili, con le date variabili, in termini di
separazione del segnale dal fondo. In Figura (4.3) è mostrato un tipico andamento della
fitness in funzione del numero di passi riproduttivi. Sono mostrate separatamente la fitness
62
Genetica e fisica delle alte energie
Figura 4.3
Andamento tipico della fitness in funzione del numero di iterazioni riproduttive. Il grafico mostra l’andamento della fitness del miglior cromosoma (punti pieni, linea continua)
e quello della media della popolazione (punti vuoti, linea tratteggiata).
del miglior cromosoma e la fitness media della popolazione. Come si vede, già dopo circa
50 iterazioni, l’intera popolazione converge alla fitness del miglior cromosoma.
4.2.2
Potere del metodo
Un algoritmo genetico fornisce non solo indicazioni su come ottimizzare un’analisi, ma
anche informazioni sull’utilità dei tagli sulle singole variabili. Studiando la popolazione
finale, infatti, si potrebbe trovare che uno stesso gene assume valori molto diversi fra
individui che hanno punteggi molto simili (se non uguali) di fitness. Questo costituirebbe
un chiaro segnale del fatto che il taglio sulla data variabile non è utile. Anche se un
taglio inutile non ha impatto sulla significanza finale, potrebbe dare un contributo non
indifferente all’errore sistematico da associare alla misura, e deve quindi essere eliminato.
Al contrario, se risulta che tutti gli individui hanno lo stesso valore di un dato gene,
significa che quel taglio è molto importante.
Bisogna infine osservare che, a differenza di altri metodi di ottimizzazione multivariata,
l’algoritmo genetico offre il vantaggio di fornire un’analisi risultante basata su tagli e variabili fisiche. L’ottimizzazione è solo un metodo di ricerca dei tagli migliori. In un’analisi
basata su tagli, la stima delle sistematiche è relativamente semplice.
Capitolo 5
Analisi del canale H → γγ con
ottimizzazione genetica
In questo capitolo viene presentato un algoritmo di selezione degli eventi H → γγ ottimizzato geneticamente. Dopo una descrizione delle caratteristiche generali del metodo,
verranno presentate le diverse variabili prese in considerazione, esposto il criterio cui sono
state selezionate e il metodo con cui sono stati ottimizzati i parametri da cui dipendono.
Definito un insieme di variabili su cui tagliare, le soglie dei tagli sono state ottimizzate
geneticamente. La seconda parte dell’analisi ha invece l’obiettivo di migliorare la significanza della misura della massa del bosone di Higgs mediante un recupero “mirato” di
fotoni convertiti. Il capitolo è concluso dalle luminosità integrate di dati necessarie per la
scoperta di un bosone di Higgs leggero.
5.1
Preselezione degli eventi
In questo paragrafo verranno descritti gli strumenti generali di cui si è fatto uso per la
selezione preliminare degli eventi interessanti ai fini di questa analisi: i campioni Monte
Carlo di eventi analizzati, il tipo di ricostruzione, la preselezione di eventi da utilizzare
nell’ottimizzazione genetica.
5.1.1
Campioni Monte Carlo
Gli eventi studiati in questa analisi sono stati generati con il programma PYTHIA [38],
versione 6, e simulati con il programma CMSSW, versione 1 4.
Analisi del canale H → γγ con ottimizzazione genetica
64
Segnale
Data la natura inclusiva dell’analisi del canale H → γγ, sono stati studiati tutti i canali
di produzione dell’Higgs (si veda 1.3). L’ottimizzazione è stata tuttavia applicata a una
sola ipotesi di massa: mH = 120 GeV/c2 . In Tabella (5.1) sono riportate le sezioni d’urto
di produzione, il numero di eventi analizzati e la luminosità integrata corrispondente a
seconda dei diversi canali di produzione.
Tabella 5.1
Campioni Monte Carlo di eventi di segnale analizzati. Sono riportate le sezioni d’urto (σ) dei processi, il numero di eventi analizzati e la luminosità integrata
corrispondetne (L).
σ (pb)
Eventi analizzati
L (fb−1 )
Fusione di gluoni (mH = 120 GeV/c2 )
36.4
10 000
125
Fusione di W,Z (mH = 120 GeV/c2 )
4.5
10 000
1 010
Higgs-strahlung, tt̄H (mH = 120 GeV/c2 )
3.3
10 000
1 377
Fondi
Per quanto riguarda i fondi, il discorso è più complicato. Come abbiamo visto in 3.2, oltre
ai fondi irriducibili con produzione diretta di due fotoni reali, la principale fonte di fondi
riducibili sono eventi in cui un jet adronico è identificato erroneamente come un fotone. La
produzione di jet a LHC sarà molto copiosa, tanto da rendere impossibile una simulazione
completa di questa classe di eventi con la tecnologia attuale. È necessario introdurre un
filtro nella generazione degli eventi.
Un jet può essere scambiato per un fotone solamente nel caso in cui sia in grado di
formare un ingente deposito energetico in ECAL. È stata dunque sviluppata, per gli studi
di eventi con due fotoni, una preselezione [40] a livello di generatore degli eventi con jet.
La preselezione, in sostanza, richiede che vi siano nell’evento due particelle in grado di
produrre un cluster compatibile con quello generato da un fotone (γ, e± , π 0 , η, η 0 , ρ,
ω). Le due particelle devono avere |η| < 2.6 e devono essere in grado di produrre due
candidati fotoni con pT rispettivamente maggiore di 37.5 e 22.5 GeV. La massa invariante
della coppia, inoltre, deve essere maggiore di 90 GeV/c2 . I valori delle soglie di impulso
trasverso variano fra il primo e il secondo fotone, e a seconda che si tratti di eventi di
p̂T > 25 GeV
p̂T > 50 GeV
γ + jets
jets
–
p̂T > 25 GeV
γγ (Born)
Drell Yan
p̂T > 25 GeV
24 µb
5.4 nb
Mll > 40 GeV/c2
90 nb
45 pb
36 pb
σ
generata
speciale
speciale
–
–
Taglio
generatore
5.4 nb
4.8 nb
0.6 nb
45 pb
36 pb
σ
simulata
2 · 106
1.4 · 106
300 · 106
50 · 109
∼ 150
∼ 5000
1
3 · 106
0.5 · 106
106
1
3 · 106
106
106
1
Eventi
analizzati
Eventi
generati
Fattore
riduzione
Campioni Monte Carlo di eventi di fondo analizzati. Sono elencati, nell’ordine: il
taglio a livello partonico, il taglio a livello di generatore (‘speciale’ indica la selezione
descritta nel testo e con Mll si è indicata la massa invariante dei due leptoni carichi),
la sezione d’urto (σ) usata nella generazione, la sezione d’urto (σ) effettiva degli eventi
che superano la selezione di generatore, il fattore di riduzione corrispondente al taglio
di generatore adoperato, il numero di eventi generati, il numero di eventi effettivamente
simulati e la luminosità integrata corrispondente al numero di eventi simulati. Si veda
il testo per maggiori dettagli.
γγ (box)
Taglio
PYTHIA
Tabella 5.2
0.56
0.294
3.3
11
28
L dt
(fb−1 )
R
5.1 Preselezione degli eventi
65
Analisi del canale H → γγ con ottimizzazione genetica
66
Tabella 5.3
Fattori K applicati alle sezioni d’urto PYTHIA. Si veda il testo per i dettagli.
γγ (box)
1.2
γγ (Born)
1.5
γ + jets (2 reali)
1.72
γ + jets (reale + fasullo)
1
jets
1
Drell Yan
1
tipo pp → γ + jet o pp → jets. Si richiede che l’impulso trasverso p̂T del partone che ha
generato l’evento superi una certa soglia che dipende dal canale considerato.
In Tabella (5.2) sono riassunte le informazioni riguardanti i diversi campioni di fondo
considerati. Sono elencati, nell’ordine: la soglia in p̂T , la selezione a livello di generatore
(nel caso in cui sia presente), la sezione d’urto al primo ordine (calcolata con PYTHIA), la
sezione d’urto corrispondente degli eventi che passano la selezione di generatore, il fattore
di riduzione del taglio di generatore, il numero di eventi generati, il numero di eventi
effettivamente simulati e infine la luminosità integrata corrispondente a tale numero di
eventi. Con il termine ‘speciale’ si è indicata la selezione di generatore appena descritta.
Gli eventi di tipo Drell Yan includono tutti i gli eventi di tipo q q̄ → γ/Z (∗) → l+ l− , in
cui i due leptoni carichi dello stato finale possono essere di tipo e, µ o τ . A questi eventi
è statapplicato un taglio a livello di generatore sulla massa invariante della coppia dei
leptoni (Mll ).
Come menzionato, le sezioni d’urto sono state calcolate al primo ordine perturbativo.
Sono dunque stati introdotti dei fattori, detti fattori K, che tengono conto della differenza
attesa fra il primo ordine e il successivo [41]. I fattori K sono riportati in Tabella (5.3)
e hanno approssimativamente un’incertezza del 20-30%. Nella tabella è stata fatta una
ulteriore distinzione all’interno degli eventi di tipo γ + jets: con il nome “2 reali” si
indicano gli eventi in cui anche il fotone prodotto all’interno del jet è un fotone reale,
prodotto nel corso dell’adronizzazione, ad esempio dalla Bremsstrahlung di un quark; con
“reale + fasullo” si indicano invece gli eventi in cui nel jet viene prodotto un adrone, come
ad esempio il π0 , che, decadendo elettromagneticamente, simula il deposito di un fotone
reale.
5.1 Preselezione degli eventi
5.1.2
67
Trigger
Nell’ambiente previsto ad LHC, il numero di interazioni per incrocio dei fasci, combinato
con la frequenza di incrocio, rende impossibile registrare tutte le informazioni raccolte da
CMS. Per questo motivo esiste un sistema in grado di operare rapidamente una scelta, e
registrare solamente gli eventi reputati di qualche interesse. Questo sistema è chiamato
trigger.
Il trigger di CMS [42] è strutturato su due livelli: il primo livello è costituito da circuiti
integrati capaci di compiere scelte semplici, mentre i rimanenti livelli vanno sotto il nome
di trigger di alto livello (HLT) e usano software molto rapidi. Il trigger di alto livello
richiede, in sostanza, che i fotoni abbiano energia trasversa sopra una certa soglia, e mette
in atto dei requisiti non stringenti di isolamento.
Affinché un evento con due candidati fotoni sia registrato deve superare i requisiti di
trigger. È stato dimostrato [43] che per i fotoni di decadimento di un bosone di Higgs da
120 GeV/c2 , i requisiti del trigger di primo livello hanno un’efficienza superiore al 99%,
mentre il trigger di alto livello circa dell’88%. La nostra analisi, come si vedrà, opererà
dei tagli molto stringenti, sia in soglie di energia trasversa che in termini di isolamento.
Dal momento che sono più selettivi di quelli operati dal trigger di alto livello, le eventuali
inefficienze dovute a quest’ultimo sono da considerarsi trascurabili.
5.1.3
Strumenti di ricostruzione
L’analisi è stata interamente portata avanti con il software di ricostruzione standard di
CMS (CMSSW, [44]), versione 1 6. Il software è orientato a oggetti, l’analisi è mediata da
classi. I candidati fotoni e i candidati fotoni convertiti sono descritti da classi diverse.
Fotoni
La ricostruzione di un fotone è basata sul suo deposito energetico in ECAL. Un candidato
fotone è un supercluster (utilizzando l’algoritmo Hybrid nel barrel e l’algoritmo Island
negli endcap), al quale è stata applicata la correzione in energia descritta in 3.5.
Nella misura della massa invariante dei due fotoni, come visto in 3.3, oltre ad una
buona risoluzione energetica è fondamentale avere una buona risoluzione angolare. Per
quest’ultima è necessario conoscere la posizione del vertice effettivo di interazione. Dallo
studio delle tracce dell’evento è possibile ricostruire di vertici primari di interazione. I
vertici ottenuti sono ordinati in base alla somma dei moduli degli impulsi trasversi delle
P
tracce ( |pT |) con parametro di impatto longitudinale entro 5 mm dalla posizione del
Analisi del canale H → γγ con ottimizzazione genetica
u.a.
68
300
250
200
Primary vertex
No primary vertex
150
100
50
0 100
Figura 5.1
105
110
115
120
125
130
M! ! [GeV/c2]
Distribuzione di massa invariante per fotoni di segnale (mH = 120 GeV/c2 ). Sono
mostrate la distribuzione risultante dall’uso del vertice primario ricostruito dell’evento,
e quella che invece ipotizza la produzione nell’origine del sistema di coordinate.
vertice considerato. Un candidato fotone sceglie, all’interno della collezione di vertici
P
primari dell’evento, quello cui corrisponde il massimo valore di
|pT |.
È stato dimostrato [39] che in regime di bassa luminosità (2 × 1033 cm−2 s−1 ), in cui
ci si aspettano in media 1 o 2 interazioni per incrocio dei fasci, il vertice ricostruito giace
entro 5 mm da quello reale con un’efficienza maggiore dell’80% per gli eventi di segnale.
Questa scelta del vertice di produzione produce un miglioramento di circa 1 GeV nella
risoluzione del picco di massa invariante per i fotoni di segnale. In Figura (5.1) sono
visibili la distribuzione di massa invariante ottenuta ipotizzando la produzione dei fotoni
nell’origine del sistema di riferimento e quella che fa invece uso dei vertici primari ricostruiti
nella maniera appena descritta. La risoluzione risultante, come si vede, è migliore.
A luminosità più elevate si prevede che ad ogni incrocio dei fasci avvengano più interazioni, in media circa 20 a luminosità di regime (1034 cm−2 s−1 ), il che dà luogo al
fenomeno che va abitualmente sotto il nome di pile up, la presenza contemporanea, cioè,
all’interno del rivelatore, di particelle prodotte in reazioni diverse. La corretta associazione
fra supercluster e vertice ricostruito potrebbe dunque diventare problematica e senz’altro
l’efficienza ne dovrà risentire.
Gli eventi studiati in questa analisi, tuttavia, non tengono conto di alcun pile up, dal
momento che hanno intenzione di simulare lo scenario previsto nei primi mesi di attività di
LHC, nei quali la luminosità sarà sensibilmente inferiore a quella di progetto. La quantità
di pile up risultante è trascurabile, specialmente se confrontata con l’entità dello sforzo
5.1 Preselezione degli eventi
69
computazionale, molto maggiore nel caso della simulazione di eventi con pile up. Nel
caso degli eventi analizzati, quindi, l’efficienza di ricostruzione del vertice di interazione è
superiore al 99%.
Fotoni convertiti
La ricostruzione dei fotoni convertiti segue la descrizione offerta in 3.6.1. Sono stati utilizzati solo i candidati fotoni convertiti con due tracce ricostruite, e nel caso di più coppie
di tracce associate allo stesso supercluster, l’ambiguità è stata risolta scegliendo la coppia
con maggior likelihood.
5.1.4
Preselezione e ordinamento
Prima di passare all’ottimizzazione, sono stati scorsi gli eventi e preselezionati solo quelli
che presentavano almeno due candidati fotoni di energia trasversa ET > 25 GeV e posizione
S
in ECAL entro il suo volume “fiduciale” (|η| < 1.44
1.55 < |η| < 2.2). Il significato di
non usare tutta la copertura di pseudorapidità di ECAL sta nel fatto che nei pressi delle
zone di discontinuità del rivelatore, come fra barrel ed endcap o alla fine del preshower, la
corretta ricostruzione dei cluster non è assicurata, dal momento che una parte dell’energia
può essere persa in regioni non sensibili del calorimetro. Il volume scelto permette sempre
la costruzione di matrici 5 × 5 attorno al punto d’impatto del fotone.
Per i candidati fotoni nel barrel, inoltre, è stata fatta la richiesta che una variabile che
definisce la forma del deposito energetico in ECAL, chiamata momento secondo minore e
che verrà definita in seguito, sia minore di 0.25. Questo taglio dovrebbe assicurare che il
cluster è stato prodotto da uno sciame puramente elettromagnetico. Per quanto riguarda
i candidati fotoni negli endcap, dal momento che non è stato ancora implementato un
algoritmo in grado di calcolare i momenti dei depositi, non è stata fatta alcuna richiesta
addizionale.
Degli eventi che hanno passato la selezione sono state considerate separatamente tutte
le coppie di candidati fotoni. Ogni coppia di candidati fotoni è stata ordinata in ET
descrescente. D’ora in poi verrà denominato primo fotone il candidato fotone di maggior
ET della coppia, e secondo fotone quello di energia trasversa minore.
L’ordinamento in energia trasversa non ha alcun effetto rilevante sui fotoni di segnale,
ma ha un importante significato sugli eventi di tipo γ + jets, che costuiscono la parte
più tenace dei fondi riducibili. Data la natura non elementare del protone, infatti, questi
eventi sono bilanciati solamente nel piano trasverso: l’energia trasversa del fotone è pari
Analisi del canale H → γγ con ottimizzazione genetica
u.a.
u.a.
70
0.04
0.04
Segnale
Segnale
0.03
0.03
Fondo
Fondo
0.02
0.02
0.01
0.01
0 30
40
Figura 5.2
50
60
70
80
90
100
110
120
ET [GeV]
0 30
40
50
60
70
80
90
100
110
120
ET [GeV]
Spettri normalizzati di energia trasversa di segnale e fondo per il primo fotone (a
sinistra) e per il secondo fotone (a destra). Come si vede, nel caso del secondo fotone
lo spettro relativo al fondo raggiunge valori molto bassi.
all’energia trasversa complessiva del jet, all’interno del quale è albergato l’altro candidato
fotone. Quest’ultimo possiede dunque solamente una frazione dell’energia trasversa del
jet, e sarà quindi sempre classificato come secondo fotone. In Figura (5.2) sono visibili
gli spettri di energia trasversa per il primo e il secondo fotone, separatamente per il
segnale e per il fondo. Come si vede nel caso del fondo l’energia trasversa del secondo
fotone raggiunge valori molto bassi, a significato del fatto che può possedere una frazione
arbitraria dell’energia del jet.
Negli eventi γ + jets, quindi, il secondo fotone è il candidato fotone prodotto all’interno
di un jet, ed è quindi per sua natura non isolato e spesso fasullo, ovvero simulato dal
decadimento elettromagnetico di un adrone.
5.2
Definizione dei criteri di isolamento
Abbiamo visto nel Capitolo 3 che per selezionare con efficienza il segnale siamo alla ricerca
di eventi che presentino due candidati fotoni di elevata energia trasversa. Si richiede
inoltre, per combattere con efficacia il fondo costituito dai jet, che essi siano isolati, ovvero
che non sia registrata alcuna attività addizionale attorno alla sua direzione. La direzione
di un fotone è identificata dai suoi valori di pseudorapidità (ηγ ) e angolo azimutale (φγ ).
Nelle richieste di isolamento viene abitualmente utilizzata la variabile ∆R definita come
q
∆R ≡ (ηγ − η)2 + (φγ − φ)2
5.2 Definizione dei criteri di isolamento
71
luogo dei punti di coordinate (η, φ) che soddisfano tale relazione. La variabile ∆R definisce
una superficie conica attorno alla direzione del fotone, di apertura proporzionale al valore
di ∆R stesso. Fissato un valore di ∆R, in una richiesta di isolamento si richiede che
l’attività di rivelatore presente entro tale cono sia minore di una certa soglia.
L’attività di rivelatore è definita come una variabile che rappresenta una grandezza fisica che descrive la presenza di altre particelle oltre al candidato fotone. Alcuni esempi sono
l’energia depositata nel calorimetro, il numero di tracce presenti, etc. L’ottimizzazione di
questo genere di tagli richiede che si operino tre scelte:
• la scelta della natura della variabile che meglio descrive la presenza di particelle che
accompagnano il candidato fotone;
• la scelta dell’apertura del cono entro cui cercare tali particelle;
• la scelta del valore di soglia della variabile su cui tagliare.
Per operare le prime due scelte si è provveduto a studiare il comportamento di diverse
variabili con diverse aperture del cono. Le variabili sono state studiate singolarmente.
All’ottimizzazione genetica è invece stata lasciata la scelta del valore di soglia della variabile
prescelta.
Vedremo ora nel dettaglio quali variabili sono state considerate e quali sono state scelte.
Nella scelta delle variabili è stato adoperato il seguente metodo. Per ciascuna variabile
e per ciascuna apertura del cono si costruiscono due istogrammi, uno che rappresenta
lo spettro dei candidati fotoni degli eventi di segnale, e uno per i fondi. Si considerano
quindi tagli successivi sulla variabile, di passo pari alla larghezza del bin degli istogrammi,
e per ogni valore del taglio si valuta l’efficienza sul segnale (S ) e la reiezione dei fondi1
(1−F ). In questo modo ad ogni valore del taglio corrisponde un punto nel piano reiezioneefficienza, e si può quindi costruire il grafico di queste due quantità al variare della soglia
del taglio di ogni data variabile. Si sceglie quindi la variabile cui corrisponde l’andamento
che ottiene reiezioni dei fondi maggiori a parità di efficienze sul segnale.
In alcuni casi questo procedimento non è stato efficace, poiché le distribuzioni di certe
variabili presentano un sovraffollamento del primo bin degli istogrammi di segnale e fondo.
Per questo motivo non è possibile studiare il grafico per bassi valori di efficienza, e di
conseguenza la sua interpretazione non è chiara. In questi casi è stato dunque studiato
1
La terminologia è impropria, dal momento che viene generalmente indicata come reiezione l’inverso
dell’efficienza (1/). In quest’analisi viene invece considerato il complementare dell’efficienza (1 − ) per la
comodità di avere una variabile limitata.
Analisi del canale H → γγ con ottimizzazione genetica
s/ b
s/ b
72
0.4
!R*=0.1
!R*=0.15
!R*=0.2
!R*=0.25
!R*=0.3
!R*=0.35
!R*=0.4
!R*=0.5
0.23
0.35
!R*=0.1
!R*=0.15
!R*=0.2
!R*=0.25
!R*=0.3
!R*=0.35
!R*=0.4
!R*=0.5
0.22
0.21
0
1
2
3
4
0.3
5
6
7
8
9
T
Figura 5.3
10
Soglia in p [GeV/c]
0.250
1
2
3
4
5
6
7
8
9
10
Soglia in p [GeV/c]
T
P
Significanza di singolo taglio per la variabile
pT per il primo fotone (a sinistra) e
per il secondo fotone (a destra). Sono riportati gli andamenti relativi a i diversi coni
considerati.
√
l’andamento della significanza (s/ b) ottenuta tagliando sulla variabile in cosiderazione
(con soglia variabile nella maniera descritta). È stata scelta la variabile che fornisce la
significanza più elevata.
Vediamo quindi nel dettaglio, per soddisfare le richieste di isolamento quali variabili
sono state considerate e quali sono state selezionate.
5.2.1
Isolamento da tracce
I fotoni di decadimento del bosone di Higgs non rilasciano tracce in quanto neutri e non
sono direttamente prodotti in associazione a particelle cariche, a differenza di gran parte
dei candidati fotoni provenienti dai fondi, come nel caso dei jet o degli eventi di tipo Drell
Yan. L’analisi dovrà quindi sostanzialmente richiedere che non vengano ricostruite tracce
attorno alla direzione del candidato fotone.
X
Per mettere in atto l’isolamento da tracce è stata considerata la variabile
pT ,
∆R<∆R∗
la somma degli impulsi trasversi di tutte le tracce presenti in un cono ∆R < ∆R∗ , ove ∆R∗
è un parametro da ottimizzare. La direzione di una traccia è definita come la sua direzione
al vertice di produzione. Si richiede che attorno al candidato fotone questa variabile non
valga più di una certa soglia.
Il parametro che determina l’apertura del cono ∆R∗ è stato ottimizzato separatamente
per i due fotoni. Sono stati studiati i seguenti valori di ∆R∗ : 0.1, 0.15, 0.2, 0.25, 0.3, 0.35,
0.4, 0.5.
5.2 Definizione dei criteri di isolamento
73
In Figura (5.3) sono riportate le significanze di singolo taglio, relative alla variabile
pT , per soglie variabili fra 0 e 10 GeV. Sono riportati gli andamenti per i diversi coni di
apertura considerati. Come si vede, si osserva, per valori crescenti ma piccoli di ∆R∗ , un
progressivo miglioramento globale della significanza. Aprendo troppo il cono si osserva a
un certo punto un’inversione di tendenza. Questo fenomeno è facilmente interpretabile: il
miglioramento iniziale corrisponde all’incremento di efficienza nella reiezione dei jet. Con
un cono troppo stretto, infatti, si rischia di non includere nella somma alcune delle loro
tracce. Aprendo eccessivamente il cono, invece, comincia a essere deteriorata l’efficienza sul
segnale, dal momento che possono essere incluse nella somma tracce di particelle cariche
prodotte vicine ai fotoni di decadimento dell’Higgs. Nel caso del primo fotone, inoltre,
che è spesso prodotto isolato, oltre ad ottenere complessivamente significanze peggiori, è
dominante il deterioramento dell’efficienza rispetto all’aumento della reiezione del fondo.
Si osserva dunque un peggioramento della significanza molto più marcato rispetto al caso
del secondo fotone.
P
Si individua dunque un cono ottimale in corrispondenza del massimo di significanza
raggiunto prima dell’inversione di tendenza. Questo si traduce nella seguente scelta dei
parametri ∆R∗ di apertura dei coni:
(
∗
∆R =
5.2.2
0.25 (primo fotone)
0.35 (secondo fotone)
Isolamento elettromagnetico
Per combattere la contaminazione da jet, si richiede che il deposito energetico del candidato
fotone non sia accompagnato da depositi addizionali. Sono dunque state considerate le
seguenti variabili:
X
• la somma delle energie
E di tutti i basic cluster presenti in una corona circolare
∗
∆R < ∆R attorno alla posizione calorimetrica del fotone;
X
• la somma delle energie trasverse
ET di tutti i basic cluster presenti in una corona
∗
circolare ∆R < ∆R attorno alla posizione calorimetrica del fotone.
ove nelle somme sono sempre esclusi i basic cluster appartenenti al supercluster del fotone
in considerazione.
Per scegliere quale variabile utilizzare è stato confrontato l’andamento della significanza
di singolo taglio ottenuta tagliando sulle due variabili, a cono fissato. In Figura (5.4)
Analisi del canale H → γγ con ottimizzazione genetica
s/ b
" ET (! R*=0.4)
0.25
s/ b
74
0.075
" E (!R*=0.4)
0.24
0.07
0.23
0.22
" ET (! R*=0.4)
0.065
" E (!R*=0.4)
0.21
0
1
2
3
4
5
6
7
8
9
10
Soglia del taglio [GeV]
Figura 5.4
0
1
2
3
4
5
6
7
8
9
10
Soglia del taglio [GeV]
Significanza di singolo taglio per le due variabili di isolamento energetico in ECAL
P
considerate: la somma delle energie ( E) è rappresentata dai cerchi pieni, la somma
P
delle energie trasverse ( ET ) dai cerchi vuoti. Sono riportati gli andamenti per fotoni
nel barrel (a sinistra) e per fotoni negli endcap (a destra), per un’apertura di cono
fissata (∆R∗ = 0.4).
sono mostrati, separatamente per fotoni nel barrel (a sinistra) e negli endcap (a destra) i
risultati ottenuti con ∆R∗ = 0.4. Come ci si aspetta, le due variabili sono equivalenti in
corrispondenza della soglia posta a 0, dal momento che le due richieste di isolamento vanno
a coincidere. All’aumentare della soglia, tuttavia, si osservano delle differenze: nel barrel
i due andamenti sono molto simili, dal momento che a grandi angoli polari ET ≈ E; negli
P
endcap, invece, la variabile
E permette di ottenere significanze decisamente maggiori
nell’intero intervallo considerato. Per questo motivo è stata scelta, come variabile di
isolamento in ECAL, la somma delle energie in ∆R < ∆R∗ .
L’ottimizzazione del parametro ∆R∗ è stata effettuata con lo stesso procedimento
adoperato nel caso dell’isolamento da tracce. Sono stati studiati i seguenti valori di ∆R∗ :
0.15, 0.2, 0.25, 0.3, 0.25, 0.4, 0.5. I risultati di tale analisi sono visibili in Figura (5.5).
Come nel caso dell’isolamento da tracce, anche se in maniera decisamente meno evidente,
nel grafico relativo al primo fotone si può osservare un graduale aumento delle curve
di significanza all’aumentare dell’apertura del cono, seguito da una lieve inversione di
tendenza a partire da ∆R∗ = 0.4. Nel caso del secondo fotone, invece, sembra non esserci
inversione, piuttosto un processo di saturazione a partire dallo stesso valore di ∆R∗ . Per
questo motivo, per l’isolamento energetico in ECAL, sono stati scelti i seguenti valori
0.21
0.25
"R*=0.15
"R*=0.2
"R*=0.25
"R*=0.3
"R*=0.35
"R*=0.4
"R*=0.5
0.205
75
s/ b
s/ b
5.2 Definizione dei criteri di isolamento
"R*=0.15
"R*=0.2
"R*=0.25
"R*=0.3
"R*=0.35
"R*=0.4
"R*=0.5
0.24
0.23
0.22
0.2
0.21
0.195
0
1
2
3
4
5
6
7
8
9
10
0.20
1
2
3
4
5
Soglia in !E [GeV]
Figura 5.5
6
7
8
9
10
Soglia in !E [GeV]
P
Significanza di singolo taglio per la variabile di isolamento energetico
E per i diversi
valori di ∆R∗ considerati. A sinistra per il primo fotone, a destra per il secondo.
di ∆R∗ :
(
∆R∗ =
5.2.3
0.35 (primo fotone)
0.4 (secondo fotone)
Isolamento adronico
L’ultima richiesta di isolamento che viene fatta è la richiesta che HCAL non registri attività
attorno alla direzione del candidato fotone, in modo da massimizzare la reiezione di eventi
in cui il deposito in ECAL sia causato da una particella prodotta all’interno di un jet
adronico. Sono state dunque studiate le seguenti variabili:
• la somma delle energie trasverse depositate in tutte le torri di HCAL
entro un cono definito da ∆R∗ attorno alla direzione del fotone;
• la somma delle energie depositate in tutte le torri di HCAL entro ∆R∗
X
HT
∆R<∆R∗
X
H ;
∆R<∆R∗
• il rapporto H/E (∆R<∆R∗ ) fra l’energia adronica (H) depositata nelle torri di HCAL
in ∆R < ∆R∗ e l’energia del fotone (E);
• si è inoltre studiata la variabile H/E considerando separatamente le torri di HCAL
in un cono interno (∆R < 0.1) e in una corona esterna (0.1 < ∆R < ∆R∗ ).
Analisi del canale H → γγ con ottimizzazione genetica
1
Reiezione dei fondi
Reiezione dei fondi
76
HCAL ET in !R<0.5
0.8
0.6
HCAL E in !R<0.5
H/E in !R<0.5
H/E in !R<0.1 + H/E in 0.1<!R<0.5
0.4
0.2
0
0.5
1
0.8
0.6
0.4
0.2
0.6
0.7
0.8
0.9
1
Efficienza sul segnale
Figura 5.6
0
0.5
HCAL ET in !R<0.5
HCAL E in !R<0.5
H/E in !R<0.5
H/E in !R<0.1 + H/E in 0.1<!R<0.5
0.6
0.7
0.8
0.9
1
Efficienza sul segnale
Prestazioni delle variabili di isolamento considerate, in termini di efficienza sul segnale
e reiezione dei fondi. Il confronto è stato effettuato ponendo ∆R∗ = 0.5. Il grafico di
sinistra si riferisce al primo fotone, quello di destra al secondo.
Il significato di queste variabili di isolamento è evidente: un fotone, quantomeno idealmente, è assorbito interamente in ECAL. I fotoni di segnale sono inoltre prodotti isolati,
quindi si richiede che non vi sia attività in HCAL in prossimità della direzione del candidato
fotone.
In ogni torre di HCAL può essere sempre presente una certa attività diversa da zero
dovuta al rumore elettronico. Per tale motivo ci si possono aspettare valori di H diversi
da zero. Inoltre, se l’attività in HCAL è dovuta al leakage longitudinale, ci si aspetta che
questa sia proporzionale al log(E) [29] e, in prima approssimazione, a E. Applicare un
taglio alla variabile H/E consente di tenere debito conto di questi due fenomeni
L’applicazione di due tagli in H/E, separatamente per un cono interno e una corona
esterna permette di tener conto dell’eventuale non contenimento longitudinale dello sciame
mediante il taglio sulla variabile nel cono interno, e di applicare invece un isolamento vero
e proprio con la variabile esterna.
In Figura (5.6) sono riportate le prestazioni delle variabili considerate, in termini di
efficienza sul segnale e reiezione dei fondi, avendo posto ∆R∗ = 0.5. Sono riportati separatamente i risultati ottenuti per il primo e per il secondo fotone. Come ci si poteva
aspettare tutte le variabili offrono prestazioni migliori sul secondo fotone, che più spesso
si trova entro un jet.
P
P
Come si vede le due variabile assolute ( H,
HT ) sembrano essere marcatamente
meno potenti di quelle di tipo H/E. Fra queste ultime, infine, sembra che la variabile
‘doppia’ (H/E (∆R<0.1) ⊕ H/E (0.1<∆R<∆R∗ ) ) dia risultati leggermente migliori del taglio
77
s/ b
s/ b
5.3 Altri criteri di selezione
!R*=0.1
!R*=0.2
!R*=0.3
!R*=0.4
!R*=0.5
0.21
!R*=0.1
!R*=0.2
!R*=0.3
!R*=0.4
!R*=0.5
0.28
0.26
0.24
0.2
0.22
0.2
0.19
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0
0.1
0.2
Soglia in H/E
Figura 5.7
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Soglia in H/E
Significanza di singolo taglio per la variabile H/E in ∆R < ∆R∗ . A sinistra i risultati
per il primo fotone, a destra per il secondo.
singolo in H/E. Introdurre un taglio addizionale, tuttavia, comporterebbe qualche complicazione nella fase di ottimizzazione genetica nonché un incremento nell’errore sistematico
del procedimento. Si è dunque deciso di affidare l’isolamento adronico alla sola variabile
H/E in ∆R < ∆R∗ , considerando che il vantaggio apportato dalla variabile ‘doppia’ è
trascurabile.
La procedura di ottimizzazione del parametro ∆R∗ segue quanto fatto nei casi precedenti, salvo l’accorgimento che data la granularità meno fine delle torri di HCAL (0.087 ×
0.087 in η × φ), si è scelto un passo più ampio fra i diversi valori di ∆R∗ . Sono stati
studiati dunque i valori: 0.1, 0.2, 0.3, 0.4, 0.5.
In Figura (5.7) sono visibili i risultati di questa ottimizzazione. Nel caso del primo
fotone non vi è sostanziale differenza fra ∆R∗ = 0.4 e ∆R∗ = 0.5, mentre nel caso del
secondo il cono più ampio sembra fornire i migliori risultati. Sono stati dunque scelti, per
l’isolamento adronico, i coni:
(
∆R∗ =
5.3
0.4 (primo fotone)
0.5 (secondo fotone)
Altri criteri di selezione
Per completare la procedura di selezione si deve scegliere una variabile che permetta di
distinguere il deposito energetico prodotto da un fotone da quello prodotto da altre particelle (variabile di cluster shape) e una o più variabili che permettano di operare dei tagli
Analisi del canale H → γγ con ottimizzazione genetica
78
basati sulla peculiare cinematica degli eventi cercati.
5.3.1
Studio della forma del deposito
Le variabili che studiano la forma del deposito elettromagnetico in ECAL dovrebbero essere
in grado di riconoscere i depositi autenticamente generati da un singolo fotone. L’obiettivo
principale è la discriminazione degli adroni, quali ad esempio il pione neutro (π 0 ), che
decadono in due fotoni. La produzione di queste particelle all’interno di jet è molto
copiosa e l’angolo di apertura medio fra i due fotoni decresce all’aumentare dell’energia
della particella decadente, di modo che spesso, alle energie di cui ci stiamo interessando,
i depositi dei due fotoni sono sovrapposti e formano un solo cluster elettromagnetico in
ECAL.
È stato sviluppato un metodo per distinguere i fotoni dai pioni neutri a partire dallo
studio dei momenti della distribuzione del deposito elettromagnetico [45]. La distribuzione
spaziale del deposito può essere infatti descritta da una matrice simmetrica (S̃), detta di
covarianza:
!
Sηη Sηφ
S̃ =
Sηφ Sφφ
Gli elementi di S̃ sono definiti da
Sµν =
N
X
ωi (µi − hµi)(νi − hνi)
µ, ν = η, φ
i=1
ove la somma è estesa agli N cristalli componenti il cluster in questione, µi e νi sono le
coordinate dell’i-esimo cristallo, ωi è il peso dell’i-esimo cristallo, e infine hµi e hνi sono le
medie pesate delle cooridnate dei cristalli, definite come
hµi =
N
X
ωi · µi
hνi =
i=1
N
X
ωi · νi
i=1
I pesi ωi dei cristalli sono infine definiti come
Ei
ωi = max 0, K + ln
Eclus
5.3 Altri criteri di selezione
Figura 5.8
79
Deposito energetico di un π 0 con i due fotoni di decadimento ben separati. L’area dei
quadrati è proporzionale all’energia rilasciata nel singolo cristallo. Sono evidenziati
l’asse maggiore e l’asse minore del deposito, come definiti nel testo.
ove K = 4.7, Ei è l’energia del cristallo e Eclus è l’energia complessiva del cluster.
Diagonalizzando la matrice S̃ se ne trovano gli autovalori, dati da
Sηη + Sφφ ±
Smaj =
min
q
2
(Sηη − Sφφ )2 + 4Sηφ
2
Questi rappresentano le lunghezze degli assi (maggiore e minore, rispettivamente) del
deposito. In Figura (5.8) è visibile il deposito energetico di un π 0 , con i due fotoni di
decadimento ben separati. L’area dei quadrati è proporzionale all’energia rilasciata nel
singolo cristallo. Sono evidenziati l’asse maggiore e l’asse minore del deposito.
I momenti n-esimi della distribuzione energetica, rispetto agli assi minore e maggiore,
Analisi del canale H → γγ con ottimizzazione genetica
80
u.a.
u.a.
0.12
0.1
Segnale
0.1
Segnale
0.08
0.08
Fondo
0.04
0.04
0.02
0.02
00
Fondo
0.06
0.06
0.2
0.4
0.6
0.8
1
1.2
00
0.2
0.4
Figura 5.9
0.6
0.8
1
1.2
Momento secondo minore
Momento secondo minore
Distribuzioni normalizzate per segnale e fondo del momento secondo minore del deposito di energia in ECAL. A sinistra le distribuzioni per il primo fotone, a destra
per il secondo. Sono riportate le sole coppie di candidati fotoni con massa invariante
compresa fra 115 e 120 GeV/c2 .
come
N
X
n
Mmin
=
N
X
ωi · (dmaj
)n
i
i=1
N
X
n
Mmaj
=
n
ωi · (dmin
i )
i=1
ωi
i=1
N
X
ωi
i=1
ove dmin
(dmax
) rappresenta la distanza fra il centro dell’i-esimo cristallo e l’asse minore
i
i
(maggiore). Si può vedere inoltre che sussistono le seguenti identità:
2
Mmin
= Smaj
2
Mmaj
= Smin
La lunghezza dell’asse maggiore di un deposito elettromagnetico ne definisce l’asimmetria. I fotoni di decadimento di un π 0 , sufficientemente separati, producono cluster
“allungati” rispetto ai cluster simmetrici di un fotone singolo. La lunghezza dell’asse minore, invece, nel caso di depositi di natura puramente elettromagnetica, è circa uguale
al raggio di Molière del PWO. Al contrario, i depositi originati da particelle adroniche
possono avere assi minori qualunque. Questa variabile è quindi in grado di fornire una
stima del grado di “elettromagneticità” del deposito stesso.
In Figura (5.9) sono riportate le distribuzioni, per segnale e fondo, del momento secondo minore del deposito energetico dei candidati fotoni. Sono stati considerati solamente
5.3 Altri criteri di selezione
Tabella 5.4
81
Efficienza del taglio sul momento secondo minore dei depositi energetici dei candidati
fotoni (< 0.25). Sono state considerate nel calcolo solamente le coppie di candidati
fotoni di massa invariante compresa fra 115 e 120 GeV/c2 .
H → γγ (fusione di gluoni)
98.7%
H → γγ (fusione di W, Z)
97.9%
H → γγ (Higgs-strahlung + tt̄)
93.0%
γγ (box)
96.9%
γγ (Born)
97.0%
γ + jets
64.6%
jets
40.3%
Drell Yan
64.6%
i candidati fotoni con massa invariante compresa fra 115 e 125 GeV/c2 . Come si vede, il
segnale presenta un picco con limite superiore molto netto, in corrispondenza di circa 0.25.
La distribuzione del fondo presenta allo stesso modo un picco nella stessa posizione del segnale, dovuto agli eventi di fondo irriducibile, seguito però da una coda molto pronunciata
che raggiunge valori elevati di momento secondo. Questa coda corrisponde agli eventi di
fondo riducibile. Un taglio a 0.25, in particolare, permette di ottenere una considerevole
reiezione dei fondi riducibili senza virtualmente perdere in efficienza sul segnale, come si
vede in Tabella (5.4). Si è quindi deciso di includere nella definizione di candidato fotone il
requisito che il suo deposito elettromagnetico abbia un momento secondo minore inferiore
a 0.25.
Il momento secondo maggiore del deposito è stata invece selezionata come una delle
variabili su cui verrà applicata l’ottimizzazione genetica. La geometria più complessa degli
endcap impedisce di definire in maniera semplice i momenti dei depositi energetici. Per
questo motivo al giorno d’oggi l’algoritmo è stato implementato solamente per il barrel di
ECAL. Per quanto riguarda gli endcap, la definizione di fotone non è stata modificata e
l’algoritmo genetico farà uso della variabile di cluster shape R9 , definita come
R9 =
E3×3
ESC
Analisi del canale H → γγ con ottimizzazione genetica
u.a.
u.a.
82
0.14
0.1
0.12
0.1
0.08
Segnale
0.08
Fondo
0.06
0.06
Segnale
Fondo
0.04
0.04
0.02
0.02
00
0.1
0.2
Figura 5.10
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
R9
00
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
R9
Distribuzioni normalizzate per segnale e fondo della variabile di forma del deposito
energetico R9 . A sinistra le distribuzioni per il primo fotone, a destra per il secondo.
Sono riportate le sole coppie di candidati fotoni con massa invariante compresa fra
115 e 120 GeV/c2 .
rapporto dell’energia depositata nella matrice 3 × 3 centrata sul cristallo più energetico (E3×3 ) e l’energia complessiva del supercluster (ESC ). Le distribuzioni normalizzate
della variabile R9 , per candidati fotoni negli endcap sono visibili in Figura (5.10). Come si
vede la distribuzione di segnale presenta un prominente picco nei pressi di R9 . 1 nel caso
di entrambi i fotoni, dal momento che un’elevata percentuale dell’energia di un fotone è
contenuta in una matrice 3×3. Il fondo invece, presenta due distribuzioni differenti: quella
del primo fotone ricalca approssimativamente quella del segnale, presentando tuttavia una
coda più pronunciata verso valori bassi di R9 ; il deposito del secondo fotone, invece, che è
più spesso prodotto in un jet, può avere con quasi eguale probabilità valori di R9 compresi
fra circa 0.4 e 0.9.
5.3.2
Studio delle variabili cinematiche
Le variabili studiate fino ad ora dovrebbero essere in grado, almeno in linea di principio, di
discriminare i candidati fotoni prodotti dai fondi riducibili, che siano variabili di isolamento
per combattere i jet o variabili di cluster shape per riconoscere i depositi in ECAL non
generati da fotoni “autentici”. I fondi che presentano due fotoni reali, isolati, ad elevata
energia trasversa nello stato finale, non dovrebbero risentire dei tagli su queste variabili. È
tuttavia possibile che esistano delle differenze cinematiche fra le coppie di fotoni generate
nel decadimento di un bosone di Higgs e quelle generate in eventi di natura prettamente
cromodinamica. La più evidente è la massa invariante, che tuttavia essendo un parametro
libero non può essere adoperato nell’analisi.
5.3 Altri criteri di selezione
83
Sono dunque state studiate le seguenti variabili cinematiche:
• la differenza fra le energie dei due candidati fotoni E 1 − E 2 ;
• la differenza fra le energie trasverse dei due candidati fotoni ET1 − ET2 ;
• l’angolo relativo fra i due candidati fotoni ∆α;
• la massa trasversa mT della coppia, definita come mT =
q
2ET1 ET2 (1 − cos ∆α)
• l’angolo θ∗ , nel centro di massa, del primo fotone rispetto alla direzione di volo
dell’Higgs.
L’angolo θ∗ è ottenuto in questo modo. Nell’ipotesi che i due candidati fotoni siano stati
prodotti da un Higgs, si calcola la direzione di volo di quest’ultimo come la direzione della
somma degli impulsi dei due candidati fotoni psum , se ne calcola la massa invariante Minv ,
e si procede con una trasformazione di Lorentz per porsi nel sistema di riferimento del
centro di massa dei due fotoni. I parametri β e γ della trasformazione sono ottenuti da
E1 + E2
γ=
Minv
r
1
β = 1− 2
γ
Ottenuto l’impulso del primo fotone nel centro di massa, si calcola l’angolo θ∗ che forma
con la direzione di psum .
È evidente che almeno alcune di queste variabili debbano essere correlate. D’altra
parte, per migliorare l’efficienza dell’ottimizzazione genetica è importante che le variabili
siano il più possibile indipendenti. È stata dunque studiata la correlazione fra le variabili.
In Figura (5.11) sono visibili, separatamente per il segnale e per il fondo, le matrici
di correlazione delle varibili cinematiche considerate. Sono state ottenute con il pacchetto
TMVA (Toolkit for MultiVariate Analysis, [46]) del software ROOT [47]. Nelle matrici sono
riportati, per ogni coppia di variabili, i valori percentuali dei coefficienti di correlazione
lineare (ρ): 100 indica massima correlazione lineare, -100 massima anticorrelazione, 0
perfetta indipendenza lineare.
Come si vede, le uniche correlazioni maggiori di 50% sono fra le coppie di variabili
E 1 − E 2 , ET1 − ET2 e E 1 − E 2 , θ∗ . La prima correlazione era prevedibile. La seconda
è spiegabile in questo modo: nel centro di massa i due fotoni, per definizione, hanno energie uguali e impulsi antiparalleli. La trasformazione di Lorentz che porta nel sistema di
riferimento del laboratorio, però, tende a conferire ai due fotoni una differenza di energia
tanto più ingente quanto più la direzione degli impulsi nel centro di massa è vicina alla
84
Figura 5.11
Analisi del canale H → γγ con ottimizzazione genetica
Matrici di correlazione delle variabili cinematiche. In alto per il segnale, in basso per
il fondo.
Reiezione dei fondi
5.3 Altri criteri di selezione
85
1
0.8
0.6
0.4
0.2
00
E1 - E2
ET1 - ET2
"!
mT
#*
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Efficienza sul segnale
Figura 5.12
Prestazioni delle cinque variabili cinematiche considerate, in termini di efficienza sul
segnale e reiezione dei fondi.
direzione di psum . Di conseguenza queste grandezze hanno un certo grado di anticorrelazione lineare, dal momento che angoli piccoli nel centro di massa corrisponderanno a
grandi differenze di energia nel laboratorio, e viceversa. Bisogna infine notare che basterebbe non considerare la sola variabile E1 − E2 per eliminare tutte le correlazioni di una
qualche rilevanza.
La selezione delle variabili è stata effettuata in base alle loro prestazioni in termini
di efficienza sul segnale e reiezione dei fondi. Il grafico relativo alle variabili cinematiche
è riportato in Figura (5.12). In questa analisi siamo interessati alla regione di elevate
efficienze sul segnale sul singolo taglio (& 60%): in questa regione ci sono due variabili
che si allineano lungo la diagonale del piano (ET1 − ET2 e mT ), e che quindi non riescono
a effettuare una discriminazione vantaggiosa dei fondi; due variabili riescono invece a
ottenere una discriminazione in qualche modo migliore (E1 − E2 e θ∗ ); la sola variabile
∆α, infine, ottiene risultati peggiori.
Dalle informazioni acquisite dalla matrice di correlazione vediamo che le uniche due
variabili con un qualche potere discriminante sono correlate. È dunque necessario sceglierne solamente una. Come si vede dal grafico, la variabile θ∗ sembra essere più potente
della variabile E1 − E2 ; verrà quindi scelta come variabile da utilizzare nell’ottimizzazione
genetica. Tutte le altre variabili sono scartate e con loro, quindi, ogni residua correlazione.
Le distribuzioni normalizzate di θ∗ , per segnale e fondo, sono visibili in Figura (5.13).
Analisi del canale H → γγ con ottimizzazione genetica
u.a.
86
Segnale
0.02
Fondo
0.01
00
Figura 5.13
20
40
60
80
100
120
140
160
180
!* [°]
Distribuzioni normalizzate della variabile θ∗ per eventi di segnale e per i fondi. Per
maggiori dettagli si veda il testo.
Come si vede, la distribuzione del segnale presenta una evidente asimmetria avanti-indietro,
preferendo angoli minori di 90◦ rispetto ad angoli maggiori. La spiegazione di questo
fenomeno richiede una piccola digressione.
Stiamo considerando il decadimento di una particella scalare, il bosone di Higgs, in
due particelle vettoriali, i fotoni. Nel sistema del centro di massa del bosone di Higgs, i
due fotoni hanno la stessa energia e impulso antiparallelo. Dunque se indichiamo con δ ∗
l’angolo formato nel centro di massa da uno qualunque di questi due fotoni con la direzione
di volo dell’Higgs, la distribuzione di probabilità di questo angolo, per semplici ragioni
geometriche, deve essere costante in funzione di cos δ ∗ . Non esistono infatti direzioni
preferenziali dal momento che l’Higgs ha spin nullo.
La distribuzione di θ∗ sarebbe identica a quella di δ ∗ se, per calcolarlo, si scegliesse
casualmente uno dei due fotoni selezionati. La nostra definizione di θ∗ , invece, seleziona
sempre il fotone ad energia trasversa maggiore. La trasformazione di Lorentz che porta dal
sistema del centro di massa al laboratorio fa in modo che il fotone il cui impulso nel centro
di massa ha proiezione positiva sull’impulso dell’Higgs divenga il fotone più energetico.
Dunque, se i fotoni fossero ordinati in energia e non in energia trasversa, la distribuzione
di θ∗ dovrebbe essere compresa solamente fra 0 e 90◦ . Il nostro ordinamento introduce
invece degli effetti dipendenti dalla direzione dell’impulso dell’Higgs, difficilmente calcolabili analiticamente. Viene tuttavia spiegata la distribuzione ottenuta: la preponderanza
di eventi con θ∗ ≤ 90◦ corrisponde ai casi in cui ET ≈ E; quando ET si discosta molto da
E, divengono accessibili angoli maggiori di 90◦ .
5.4 Ottimizzazione genetica dei tagli
5.4
87
Ottimizzazione genetica dei tagli
La selezione delle variabili appena descritta permette dunque di identificare un insieme
“minimale” di variabili su cui tagliare, che è mostrato in Tabella (5.5). Nella tabella,
per ogni variabile, è anche indicato, nella colonna ‘Operatore’, il tipo di taglio che verrà
effettuato: ‘>’ indica un limite inferiore, mentre ‘<’ un limite superiore. Viene infine
mostrato l’intervallo di pseudorapidità in cui ogni variabile è utilizzata: ‘volume fiduciale’
S
indica l’intero intervallo di η considerato (|η| < 1.44
1.55 < |η| < 2.2); ‘barrel’ o
‘endcap’ significa che la data variabile verrà utilizzata in una sola delle due regioni fiduciali
considerate (|η| < 1.44 oppure 1.55 < |η| < 2.2); infine con ‘barrel/endcap’ si intende che
la data variabile verrà utilizzata separatamente nel barrel e negli endcap, con tagli diversi.
P
Come si vede, per le variabili di isolamento calorimetrico ( E e H/E) si è deciso di
adoperare tagli diversi per candidati fotoni nel barrel o negli endcap. Questa decisione
è fondamentalmente basata su due motivazioni: in primo luogo dal fatto che in CMS
queste due regioni corrispondono, sia in ECAL che in HCAL, a sottorivelatori diversi (si
veda 2.2). Di conseguenza separando le due regioni si vuole tener conto delle differenti
risposte di essi. Secondariamente, si vuole considerare il fatto che nelle regioni ad alta
pseudorapidità è prevista una maggiore attività adronica, anche negli eventi di segnale.
Sarà quindi necessario porre requisiti meno stringenti per non rischiare di deteriorare
l’efficienza.
Individuato l’insieme di variabili e operatori che definisce la nostra selezione, siamo
pronti a ottimizzare i valori dei tagli con il metodo genetico descritto in 4.2. L’ottimizzazione è stata effettuata per l’ipotesi di massa mH = 120 GeV/c2 , dunque sono stati
considerati solamente gli eventi con coppie di candidati fotoni di massa invariante compresa fra 118 e 122 GeV/c2 . La fitness di un cromosoma è posta uguale alla significanza
√
statistica (s/ b) ottenuta in tale intervallo di massa invariante con la selezione individuata
dai suoi geni. Infine, per non ottenere risultati troppo dipendenti dal campione di eventi
simulati studiato, si è aggiunto un requisito minimo di efficienza sul segnale: si richiede
che l’efficienza sul canale di produzione mediante fusione di gluoni sia almeno del 30%. I
parametri dell’ottimizzazione sono riassunti in Tabella (5.7).
I valori dei tagli sulle singole variabili sono stati lasciati liberi di variare uniformemente
negli intervalli mostrati in Tabella (5.6), senza distinguere, in questo caso, fra primo e
secondo fotone. Il limite superiore dell’intervallo di mutazione dell’energia trasversa (ET )
è stato posto a 52 GeV per non deteriorare l’efficienza per ipotesi di massa inferiori a
quella considerata nell’ottimizzazione.
È stata dunque creata una popolazione di 100 cromosomi, dei quali 99 generati casual-
Analisi del canale H → γγ con ottimizzazione genetica
88
Tabella 5.5







Variabile
Operatore
Intervallo in η
ET
>
volume fiduciale
<
volume fiduciale
<
barrel/endcap
<
barrel/endcap
Momento secondo maggiore
<
barrel
R9
>
endcap
θ∗
<
volume fiduciale
X
∆R<0.25
X
ptracce
T
(primo fotone)
ptracce
T
(secondo fotone)
∆R<0.35







(
Insieme “minimale” di variabili su cui tagliare. Sono indicati, nell’ordine, la variabile,
l’operatore con il quale effettuare il taglio (‘>’ sta per limite inferiore e ‘<’ per limite
superiore) e l’intervallo di pseudorapidità nel quale la variabile è utilizzata: con ‘volume
S
fiduciale’ si indica l’intero intervallo considerato (|η| < 1.44
1.55 < |η| < 2.2),
con ‘barrel’ e ‘endcap’ si indicano separatamente le due regioni fiduciali, mentre con
‘barrel/endcap’ si intende che la data variabile verrà utilizzata separatamente nel barrel
e negli endcap, con tagli diversi.
X
E
∆R<0.35
X
E
(primo fotone)
(secondo fotone)
∆R<0.4
H/E (∆R<0.4)
(primo fotone)
H/E (∆R<0.5)
(secondo fotone)
5.4 Ottimizzazione genetica dei tagli
Tabella 5.6
89
Intervalli di mutazione dei tagli sulle singole variabili. La mutazione avviene con
distribuzione uniforme di probabilità.
ET
P
P
(25 ÷ 52) GeV
ptracce
T
(0 ÷ 10) GeV/c
E
(0 ÷ 10) GeV
H/E
0÷1
Momento secondo maggiore
0 ÷ 1.2
R9
0÷1
θ∗
(0 ÷ 90)◦
mente e uno corrispondente ai tagli più efficienti negli intervalli consentiti nella tabella.
Lo schema di riproduzione segue quanto descritto in 4.2, e la probabilità di mutazione
genetica è stata posta al 10%. Il processo è stato iterato per 90 passi riproduttivi. In
Figura (5.14) è visibile l’andamento della fitness del miglior chromosoma e della fitness
media della popolazione, nel corso delle 90 generazioni, utilizzando l’insieme di variabili
“minimale”.
Come si vede, dopo le 90 iterazioni la popolazione appare sostanzialmente “satura”,
ovvero il valore medio di fitness della popolazione coincide circa con quello del miglior
cromosoma. Come è stato spiegato in 4.2, dallo studio della popolazione cromosomica
finale è possibile estrarre informazioni sulla potenza del taglio su una data variabile. Con
una popolazione composta da cromosomi di fitness molto simile, se si riscontra, per una
data variabile, una vistosa fluttuazione nella soglia del taglio, significa che la variabile
in considerazione non è discriminante. Ebbene, dallo studio della popolazione ottenuta
dopo queste 90 iterazioni, appare che le due variabili momento secondo maggiore e θ∗
Tabella 5.7
Riassunto dei parametri dell’ottimizzazione genetica. Con gg si è indicata l’efficienza
sul segnale nel canale di produzione mediante fusione di gluoni.
Fitness
Numero di cromosomi
Probabilità di mutazione
Numero di passi evolutivi
√
s/ b
(gg > 30%)
100
10%
90
90
Figura 5.14
Analisi del canale H → γγ con ottimizzazione genetica
Andamento della fitness del miglior cromosoma e della media della popolazione
in funzione del numero di iterazioni generazionali utilizzando l’insieme di variabili
“minimale”.
non sembrano essere influenti, e devono quindi essere eliminate per non incrementare
inutilmente l’errore sistematico associato alla misura.
Scartando le due variabili appena menzionate, viene definito l’insieme “finale” di variabili da utilizzare nell’ottimizzazione, elencate in Tabella (5.8). È stata formata un’altra
popolazione di 100 cromosomi, nella stessa maniera precedente, ed è stata portata avanti
una nuova ottimizzazione genetica, con gli stessi parametri elencati in Tabella (5.7) eccetto il numero di iterazioni, posto questa volta a 120. Il nuovo andamento della fitness è
mostrato in Figura (5.15).
Il miglior cromosoma della popolazione finale corrisponde quindi all’analisi che cercavamo. I valori dei suoi geni, ovvero dei tagli sulle variabili che ottimizzano la significanza
statistica nella regione del picco di massa invariante, sono riportati in Tabella (5.9). Dal
momento che i geni sono ottenuti estraendo casualmente dei numeri reali rappresentati
nella memoria di un computer, i tagli saranno numeri con la precisione di una variabile in
rappresentazione in virgola mobile a 32 bit. I tagli da applicare si ottengono approssimando
tali valori con una precisione dell’ordine della risoluzione sperimentale, o da considerazioni
fisiche, come vedremo nel seguito.
Tenendo conto di quanto detto nel paragrafo 4.2, in tabella sono inoltre riportate le
potenze dei singoli tagli, intese come tasso di variabilità della soglia del taglio stesso fra i
5.4 Ottimizzazione genetica dei tagli
Tabella 5.8







Insieme “finale” di variabili su cui tagliare. Per i dettagli si veda la didascalia della
Tabella (5.5).
X
∆R<0.25
X
Variabile
Operatore
Intervallo in η
ET
>
volume fiduciale
<
volume fiduciale
<
barrel/endcap
<
barrel/endcap
>
endcap
ptracce
T
(primo fotone)
ptracce
T
(secondo fotone)
∆R<0.35







(
91
X
E
∆R<0.35
X
E
(primo fotone)
(secondo fotone)
∆R<0.4
H/E (∆R<0.4)
H/E (∆R<0.5)
(primo fotone)
(secondo fotone)
R9
cromosomi della popolazione finale. Come si vede in Figura (5.15), infatti, anche in questo
caso la popolazione finale è satura in fitness; dunque un taglio che varia fra i cromosomi
dimostra di non essere rilevante ai fini della fitness. Per il primo fotone, risultano essere
relativamente più deboli i due isolamenti calorimetrici negli endcap; per il secondo, invece,
risulta più debole l’isolamento in ECAL negli endcap.
Seguendo quanto fatto in precedenza, si potrebbe concludere che i suddetti tagli sono
superflui e che quindi debbano essere eliminati. Tuttavia si è visto che ciò comporterebbe un sensibile peggioramento nella fitness del cromosoma. D’altra parte esistono delle
motivazioni fisiche che giustificano la relativa ‘debolezza’ di questi tagli. Per quanto riguarda i tagli di isolamento calorimetrico del primo fotone, la ragione è statistica: i fotoni
di decadimento dell’Higgs hanno infatti in media la stessa energia e dunque, per ragioni
geometriche, il fotone che è emesso a valori minori di |η| spesso diventa il primo fotone.
Di conseguenza è improbabile che il primo fotone sia rivelato negli endcap. La variazione
Analisi del canale H → γγ con ottimizzazione genetica
92
Tabella 5.9
Soglie ottimizzate dei tagli sulle variabili. Per ogni variabile è mostrato il valore del
taglio utilizzato e la sua “potenza”, intesa come tasso di variazione della soglia del
taglio fra i cromosomi della popolazione finale. Si veda il testo per maggiori dettagli.
Variabile
Primo
fotone:
Taglio
Potenza
del taglio
ET
>
50 GeV
FORTE
ptracce
T
<
2.2 GeV/c
FORTE
E
<
3 GeV (barrel)
6 GeV (endcap)
FORTE
DEBOLE
H/E (∆R<0.4)
<
6% (barrel)
6% (endcap)
FORTE
DEBOLE
R9
>
0.86
FORTE
ET
>
26 GeV
FORTE
ptracce
T
<
2.1 GeV/c
FORTE
E
<
1.5 GeV (barrel)
4 GeV (endcap)
H/E (∆R<0.5)
<
6% (barrel)
6% (endcap)
FORTE
FORTE
R9
>
0.89
FORTE
X
∆R<0.25
X
∆R<0.35
Secondo
fotone:
X
∆R<0.35
X
∆R<0.4
Fitness:
0.878
FORTE
DEBOLE
5.4 Ottimizzazione genetica dei tagli
Figura 5.15
93
Andamento della fitness del miglior cromosoma e della media della popolazione
in funzione del numero di iterazioni generazionali utilizzando l’insieme di variabili
“finale”.
nella soglia dei tagli di isolamento calorimetrico del primo fotone è quindi attribuibile
all’esiguità del campione di segnale usato nell’ottimizzazione.
Per quel che riguarda queste due variabili, i valori delle soglie sono stati scelti arbitrariamente. Nel caso dell’isolamento elettromagnetico, la variazione genica della popolazione
finale era limitata, poco maggiore della risoluzione sperimentale. Dunque è apparso ragionevole scegliere il valor medio di tale variazione. Nel caso della variabile H/E, la variabilità
del taglio è considerevole. D’altra parte, nel caso del segnale, valori diversi da zero di questa variabile sono in larga parte attribuibili al rumore di HCAL. Dunque ci si aspetta un
comportamento simile a quello riscontrato nel barrel, nel quale, invece, l’elevata statistica
ha permesso di definire una soglia con precisione. Per questo motivo la soglia negli endcap
è stata adeguata a quella ottenuta nel barrel.
Per quanto riguarda il secondo fotone, risulta essere debole il solo isolamento in ECAL
negli endcap. D’alra parte, stando a quanto detto, il campione statistico dovrebbe essere
sufficientemente vasto per definire una soglia. Si pensa dunque che per il secondo fotone,
che come abbiamo più volte osservato è spesso prodotto entro un jet adronico, la relativa
debolezza del taglio sia attribuibile alle correlazioni esistenti fra le diverse variabili di
isolamento. Un taglio molto stringente su una di esse potrebbe infatti rendere superflua
la richiesta su una delle altre.
Analisi del canale H → γγ con ottimizzazione genetica
94
Tabella 5.10
mH
Efficienza di selezione per diverse ipotesi di massa. Sono mostrati separatamente i
diversi canali di produzione del bosone di Higgs.
Processo
2
120
130
140
150
Finestra
2
Finestra
2
Finestra
±1 GeV/c
±1.5 GeV/c
±2 GeV/c
±5 GeV/c2
Total
Gluon fusion
13.3%
17.7%
20.8%
26.1%
27.3%
VBF
15.8%
21.2%
24.6%
30.7%
32.2%
Z, W, tt̄ + H
12.0%
16.0%
18.6%
23.3%
24.6%
Total
13.4%
17.9%
21.0%
26.3%
27.5%
Gluon fusion
14.6%
19.9%
23.5%
29.9%
31.6%
VBF
16.1%
21.8%
25.8%
33.0%
34.8%
Z, W, tt̄ + H
12.1%
16.5%
19.5%
25.0%
26.6%
Total
14.6%
19.8%
23.4%
29.8%
31.5%
Gluon fusion
14.7%
20.3%
24.5%
32.4%
34.6%
VBF
16.2%
22.1%
26.4%
34.8%
37.1%
Z, W, tt̄ + H
12.1%
16.6%
19.8%
26.3%
28.2%
Total
14.7%
20.2%
24.4%
32.2%
34.4%
Gluon fusion
14.7%
20.5%
24.8%
33.8%
36.4%
VBF
15.8%
22.0%
26.4%
36.1%
38.8%
Z, W, tt̄ + H
12.1%
16.6%
20.1%
27.8%
30.1%
Total
14.7%
20.4%
24.7%
33.7%
36.3%
Gluon fusion
14.7%
20.6%
24.9%
34.9%
38.0%
VBF
15.5%
21.8%
26.6%
37.0%
40.3%
Z, W, tt̄ + H
12.2%
17.1%
20.7%
29.1%
31.9%
Total
14.6%
20.5%
24.9%
34.8%
37.9%
(GeV/c )
110
Finestra
2
95
Eventi / GeV / fb-1
5.4 Ottimizzazione genetica dei tagli
! ! (box)
! ! (Born)
! +jets (2 reali)
! +jets (reale + fasullo)
Jets
Drell Yan
H"! ! (m =120) x10
250
200
H
150
100
50
090
Figura 5.16
100
110
120
130
140
150
160
170
180
M! ! [GeV/c2]
Spettro di massa invariante dopo la selezione. Il contributo del segnale (mH =
120 GeV/c2 ) è moltiplicato per 10. I contributi dei fondi sono mostrati separatamente.
Dal momento che non comporta un peggioramento della fitness del cromosoma, e per
non incrementare l’errore associato alla misura, il taglio di isolamento elettromagnetico
negli endcap per il secondo fotone è stato eliminato. Fatta eccezione per questa variabile,
dunque, l’insieme di tagli riportato nella Tabella (5.9) sono i tagli che adotteremo in questa
analisi. In Figura (5.16) è mostrato lo spettro di massa invariante dopo la selezione. Il
contributo del segnale è stato moltiplicato per 10 per migliorarne la visibilità. I contributi
dei fondi sono mostrati separatamente.
In Tabella (5.10) sono riportate le efficienze di selezione per il segnale per diverse ipotesi di massa, in diverse finestre di massa invariante attorno al picco e separatamente per i
diversi canali di produzione del bosone di Higgs. Come ci si poteva aspettare, si riscontra
un graduale aumento di efficienza all’aumentare di mH , dal momento che il taglio in energia trasversa diventa via via meno stringente. Contemporaneamente notiamo che per ogni
ipotesi di massa, data un’efficienza nel canale di produzione mediante fusione di gluoni,
puntualmente nel canale di produzione con fusione di bosoni W, Z si osserva un’efficienza
maggiore, mentre nel canale con produzione associata ad altre particelle (Z, W, tt̄ + H)
un’efficienza minore. La spiegazione è immediata: la fusione di bosoni vettori è un processo con scambio di particelle massive nel canale t, dunque l’Higgs è prodotto con energia
trasversa mediamente maggiore; nel caso della produzione associata, invece, l’attività addizionale provocata nel rivelatore dal decadimento delle particelle prodotto insieme all’Higgs
Analisi del canale H → γγ con ottimizzazione genetica
96
Tabella 5.11
Numero di eventi di fondo aspettati dopo la selezione per fb−1 di luminosità integrata,
per diversi valori di mH .
110 GeV/c2
120 GeV/c2
130 GeV/c2
140 GeV/c2
150 GeV/c2
(fb c2 /GeV)
(fb c2 /GeV)
(fb c2 /GeV)
(fb c2 /GeV)
(fb c2 /GeV)
γγ (box)
31
25
19
15
11
γγ (Born)
36
32
28
23
19
γ+jets (2 reali)
52
42
32
24
18
γ+jets (reale + fasullo)
43
33
25
19
14
jets
40
32
25
19
15
Drell Yan
3
2
0
2
0
205
166
129
102
77
Totale
rende i fotoni di segnale più spesso non isolati.
In Tabella (5.11) è invece riportato il numero di eventi di fondo aspettati, separatamente per ogni tipo di fondo e per le diverse ipotesi di massa del bosone di Higgs. I
valori sono espressi in fb c2 /GeV, e rappresentano quindi il numero di eventi per fb−1 di
luminosità integrata attesi in corrispondenza del picco di massa invariante di segnale.
Prima di trattare i risultati, quali ad esempio le luminosità integrate necessarie per
la scoperta di un bosone di Higgs in questo intervallo di massa e l’errore da associare
a questa metodologia, è stato fatto un tentativo di migliorare la prestazione dell’analisi
recuperando i fotoni che, convertendo in coppie e+ e− prima di raggiungere ECAL, sono
discriminati dai tagli.
5.5
Recupero dei fotoni convertiti
Come già osservato, poco meno del 50% dei fotoni prodotti in CMS converte in una coppia elettrone-positrone (e+ e− ) prima di raggiungere ECAL. In Figura (5.17) è visibile lo
spettro in pseudorapidità dei fotoni di decadimento del bosone di Higgs, e, sovrapposta, la
frazione di fotoni convertiti. Come si vede la probabilità di convertire è massima nella regione di transizione fra barrel ed endcap (|η| ≈ 1.5) ove è massima la quantità di materiale
attraversato.
Un fotone che converte forma in CMS un evento con caratteristiche sperimentali sensibilmente diverse da quelle di un fotone non convertito. L’elettrone e il positrone, innanzi-
u.a.
5.5 Recupero dei fotoni convertiti
400
Simulati
350
Convertiti
97
300
250
200
150
100
50
0
-4
Figura 5.17
-3
-2
-1
0
1
2
3
4
!
Spettro di pseudorapidità dei fotoni di decadimento del bosone di Higgs e frazione di
fotoni convertiti prima di ECAL.
tutto, sono rivelati nel tracciatore interno, ove formeranno delle tracce. Secondariamente,
essendo carichi, verrano deviati dal campo magnetico. A seconda del loro impulso trasverso e della distanza da ECAL alla quale sono prodotti, possono formare due depositi
energetici anche molto separati nel calorimetro.
Una particella carica, passando attraverso il tracciatore interno di CMS, rilascia dei
segnali (hit) nelle parti sensibili del rivelatore, che siano pixel o strisce di silicio. Tenendo
presente il fatto che nell’isolamento da tracce sono considerate solamente le tracce che
registrino almeno due hit nei primi tre strati di pixel, le uniche variabili della nostra
analisi che sono in grado, almeno in linea di principio, di discriminare i fotoni convertiti
sono
• l’isolamento da tracce, che, stando a quanto appena detto, discrimina i fotoni che
convertono prima del secondo strato di pixel;
• la variabile di cluster shape R9 , che discrimina, solamente negli endcap, i fotoni
convertiti i cui prodotti di conversione hanno avuto modo di separarsi abbastanza.
È utile sottolineare che il taglio sul momento secondo minore non dovrebbe avere
influenza sui fotoni convertiti. I due depositi energetici di elettrone e positrone possono,
a causa del campo magnetico, essere distanti. Tuttavia le particelle cariche sono deviate
principalmente nella direzione di φ, mentre mantengono pressappoco costante il valore
di pseudorapidità, quindi gli algoritmi di ricostruzione dovrebbero includerli nello stesso
98
Analisi del canale H → γγ con ottimizzazione genetica
supercluster. Il deposito energetico di un elettrone (o di un positrone) ha una forma
sostanzialmente identica a quello prodotto da un fotone; dunque un supercluster formato
da due depositi di questo tipo ha un momento secondo minore compatibile con quello di
un fotone.
Facendo riferimento all’algoritmo di ricostruzione dei fotoni convertiti descritto in 3.6.1,
le fonti di fondo che possono emulare una conversione di un fotone di segnale possono essere
come consuetudine suddivise in due categorie: irriducibili e riducibili. I fondi irriducibili
sono costituiti dagli eventi di fondo che presentano un fotone reale che converte; i fondi
riducibili sono invece eventi in cui le tracce delle particelle cariche costituenti un jet sono
erroneamente associate al deposito elettromagnetico di un adrone, o eventi di tipo Drell
Yan. Questi ultimi, nel caso in cui vengano prodotti un elettrone e un positrone, possono
essere scambiati per un fotone che converte molto vicino al vertice di interazione.
Stando a quanto detto, per recuperare i fotoni di segnale convertiti discriminati dai
tagli, è necessario eliminare i requisiti in termini di isolamento da tracce e di R9 . Far ciò in
maniera scriteriata, tuttavia, non porterebbe alcun vantaggio alle prestazioni dell’analisi:
l’esiguo aumento in efficienza sul segnale sarebbe infatti annegato da quello relativo ai
fondi, comportando un sensibile peggioramento in termini di significanza.
La ricostruzione dei fotoni convertiti, tuttavia, offre una potente arma di discriminazione nei confronti dei fondi riducibili: la variabile di verosimiglianza (o likelihood) di
conversione. Come detto in 3.6.1, la likelihood combina le informazioni di cinque variabili:
la differenza fra le cotangenti dell’angolo polare delle due tracce ∆ cot θ, il rapporto fra
l’energia del supercluster e la somma dei momenti delle tracce ESC /ptracce , il χ2 normalizzato delle due tracce e la differenza in angolo azimutale δφ delle tracce al vertice di
conversione. Le richieste su queste variabili hanno un immediato significato fisico:
• ∆ cot θ ≈ 0 è equivalente a richiedere che la massa invariante della coppia sia nulla,
come nel caso del fotone che converte. Infatti, trascurando la massa dell’elettrone (me ), la massa invariante della coppia (Me+ e− ) può essere espressa come:
Me2+ e− = 2m2e + 2E+ E− − 2p+ p− cos θ ' 2E+ E− (1 − cos ∆θ)
ove con E+,− e p+,− si sono indicati rispettivamente le energie e i moduli degli impulsi
di positrone ed elettrone, e con ∆θ l’angolo relativo fra le particelle. Imponendo
quindi Me+ e− = mγ = 0 si ottiene cos ∆θ = 1 che è equivalente a ∆ cot θ = 0;
• ESC /ptracce ≈ 1 significa richiedere che le particelle abbiano massa molto leggera,
come nel caso dell’elettrone;
u.a.
5.5 Recupero dei fotoni convertiti
99
0.1
H"! !
0.08
Jets
0.06
Drell Yan
0.04
0.02
00
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Likelihood
Figura 5.18
Distribuzioni normalizzate della variabile di likelihood di conversione per eventi di
segnale, di jet e per eventi di tipo Drell Yan.
• la richiesta sui χ2 delle due tracce equivale a richiedere che le tracce ricostruite siano
valide;
• δφ ≈ 0 equivale infine a richiedere che il vertice di conversione sia un vertice valido.
Nel caso in cui più coppie di tracce sono associate allo stesso supercluster, si sceglie la
coppia che ha il massimo valore di likelihood. Da quanto appena detto, tuttavia, appare
evidente che questa variabile può essere utilizzata nella discriminazione fra fotoni convertiti
autentici e fotoni convertiti fasulli, simulati da jet o da processi Drell Yan. Nel caso dei
jet, infatti, tipicamente vengono associate erroneamente tracce di particelle cariche al
deposito energetico provocato dal decadimento in fotoni di un adrone neutro (come il π 0 ).
In questo caso, quindi, se viene ricostruito un fotone convertito, il valore di likelihood della
miglior coppia di tracce dovrebbe essere inferiore a 1 a causa del fatto che variabili come
∆ cot θ e ESC /ptracce hanno valori sensibilmente diversi dai valori attesi per una conversione
autentica. Allo stesso modo, nel caso del Drell Yan, un bosone Z che decade in una coppia
elettrone-positrone può essere distinto da una conversione avvenuta nei primi due strati
di pixel grazie alla massa invariante della coppia di particelle prodotte, ovvero utilizzando
la variabile ∆ cot θ.
In Figura (5.18) sono visibili le distribuzioni normalizzate della variabile di likelihood,
separatamente per i fotoni convertiti ricostruiti in eventi di segnale, per jet e per eventi
di tipo Drell Yan. Per ogni supercluster, è stata considerata solo la coppia di tracce
100
Tabella 5.12
Analisi del canale H → γγ con ottimizzazione genetica
Efficienza sul segnale. Sono confrontati, per la sola ipotesi di massa mH = 120
GeV/c2 , i valori ottenuti in precedenza (‘No conv.’) con i valori ottenuti dopo il
recupero delle conversioni (‘Conv.’).
(mH = 120 GeV/c2 )
No conv.
Conv.
2
23.4%
24.3%
Totale
31.5%
34.3%
Finestra ±2 GeV/c
che massimizza tale variabile. Negli eventi di segnale sono considerati solamente i fotoni
convertiti che sono stati correttamente associati a un fotone convertito realmente simulato
nell’evento. A conferma di quanto detto, nel caso dei fotoni, la variabile di likelihood ha
un massimo nei pressi di 1, mentre nel caso dei fondi riducibili, che siano jet o eventi Drell
Yan, nei pressi di 0. Richiedere un elevato valore di likelihood corrisponde quindi a fare
una richiesta molto stringente sulla bontà della conversione, che dovrebbe combattere con
efficacia i fondi riducibili.
In questa analisi, per recuperare i fotoni convertiti di segnale descriminati dai tagli, si
è proceduto nella maniera seguente. Se, in un dato evento, vengono trovati due candidati
fotoni che soddisfano separatamente i requisiti per primo e secondo fotone descritti in
Tabella (5.9), l’evento è considerato essere un buon candidato di decadimento del bosone
di Higgs, senza che nulla venga fatto riguardo ai fotoni convertiti. In ogni altra eventualità
sono ricercati nel resto dell’evento dei candidati fotoni convertiti per fare in modo che
complessivamente, fra candidati fotoni e candidati fotoni convertiti, l’evento presenti una
coppia di candidati valida.
Ai candidati fotoni convertiti sono posti gli stessi requisiti di primo e secondo fotone
utilizzati nel caso dei candidati fotoni, fatta eccezione per l’isolamento da tracce e la
variabile R9 . Questi due tagli non sono applicati nel caso dei fotoni convertiti. Per
combattere i fondi riducibili, infine, sono stati considerati solamente i candidati fotoni
convertiti con likelihood di conversione maggiore di 0.93.
In Tabella (5.12) sono riportate le efficienze sul segnale risultanti dopo il recupero dei
fotoni convertiti, confrontate con quelle ottenute in precedenza. È stata considerata la
sola ipotesi di massa mH = 120 GeV/c2 . In Tabella (5.13) sono invece riportati il numero
di eventi di fondo aspettati in corrispondenza del picco di massa invariante. Come si vede,
a fronte di un modesto aumento in efficienza sul segnale (complessivamente circa 3%, ma
meno di 1% nella regione del picco), l’aumento di eventi di fondo nella regione del picco è
considerevole, rendendo peggiore la significanza risultante.
5.5 Recupero dei fotoni convertiti
Tabella 5.13
101
Numero di eventi di fondo aspettati dopo la selezione per fb−1 di luminosità integrata.
Sono confrontati i risultati ottenuti in precedenza (‘No conv.’) e i valori ottenuti dopo
il recupero delle conversioni (‘Conv.’). I valori si riferiscono alla sola ipotesi di massa
mH = 120 GeV/c2 .
(mH = 120 GeV/c2 )
No conv.
Conv.
γγ (box)
25
27
γγ (Born)
32
35
γ+jets (2 reali)
42
50
γ+jets (reale + fasullo)
33
41
jets
32
34
Drell Yan
2
2
166
189
Totale
Il motivo di questo fallimento potrebbe essere imputato all’abbandono del potente
requisito nella variabile R9 . Come si vede in Figura (5.17), infatti, i fotoni di decadimento
dell’Higgs sono prodotto in prevalenza nel barrel. Quindi eliminare il taglio in R9 porta
inevitabilmente a un aumento di efficienza sul segnale limitato. I fondi con presenza di
jet, d’altra parte, diventano più frequenti più ci si avvicina alla linea dei fasci. Eliminare il
requisito in R9 negli endcap, quindi, ha portato a un’infiltrazione di eventi con presenza di
jet. Come si vede in Tabella (5.13), infatti, il principale contributo all’aumento di eventi
di fondo è stato fornito dagli eventi di tipologia γ+jets.
È stato dunque fatto un tentativo ulteriore: sono stati considerati solamente i candidati
fotoni convertiti nel barrel. Ogni altro requisito, come la definizione di primo e secondo
fotone, o il valore minimo della variabile di likelihood, sono rimasti immutati.
In Tabella (5.14) è riportato l’aumento in efficienza sul segnale riscontrato con questo
Tabella 5.14
Efficienza sul segnale. Sono confrontati, per la sola ipotesi di massa mH = 120
GeV/c2 , i valori ottenuti in precedenza (‘No conv.’) con i valori ottenuti dopo il
recupero delle conversioni nel solo barrel (‘Conv.’).
(mH = 120 GeV/c2 )
No conv.
Conv.
2
23.4%
23.5%
Totale
31.5%
32.4%
Finestra ±2 GeV/c
Analisi del canale H → γγ con ottimizzazione genetica
102
nuovo metodo. Come si vede, l’aumento di segnale nella regione del picco è davvero
esiguo. È stato verificato che con questo metodo la significanza risultante risulta in effetti
migliorata, ma solamente dello 0.3% circa, il che corrisponde a un miglioramento irrilevante
nel valore di luminosità di scoperta, specialmente se confrontato con l’errore sistematico
che verrebbe introdotto con l’utilizzo di questo metodo. Si è pertanto deciso di non
includere il recupero dei fotoni convertiti in questa analisi.
5.6
Risultati
L’obiettivo di un’analisi di questo tipo è fornire una selezione in grado di scoprire il bosone
di Higgs, e quindi una stima della luminosità integrata necessaria per far ciò. Questa
previsione è basata sul campione di eventi simulati studiato, che come abbiamo visto,
specialmente in alcuni canali di fondo, corrisponde a una statistica limitata. I valori di
luminosità integrata che possono essere forniti devono dunque tenere conto dell’incertezza
relativa a questa problematica.
Facendo riferimento a quanto detto in 3.3, la ricerca del bosone di Higgs in questo
canale si basa sullo studio dello spettro di massa invariante dei candidati fotoni che superano una data selezione. La prestazione di una selezione può essere quantificata in termini
√
della significanza σ = s/ b che permette di ottenere. Se un’analisi fornisce una certa
significanza σ0 per una luminosità integrata pari a 1 fb−1 , la luminosità di scoperta L∗ ,
espressa in fb−1 , è definita come quella che soddisfa
L∗ =
25 fb−1
σ0
√
come si può facilmente verificare. Dato che σ0 = s/ b, ove s e b sono rispettivamente il
numero di eventi di segnale e di fondo osservati nella regione del picco di massa invariante,
l’incertezza su L∗ dipende dalle incertezze su s e su b. Con una semplice dispersione
statistica si ottiene
Err(L∗ )
Err(σ0 )
=2·
∗
L
σ0
e inoltre
Err(σ0 )
1 Err(b) Err(s)
1 Err(b)
= ·
⊕
≈ ·
σ0
2
b
s
2
b
5.6 Risultati
Tabella 5.15
103
Risultati dell’analisi. Sono mostrate, per le diverse ipotesi di massa considerate, le
luminosità integrate necessarie per la scoperta e per l’evidenza. Sono indicati i valori
ottenuti senza considerare gli errori, e quelli in cui è incluso il loro contributo.
Scoperta (5σ) (fb−1 )
Evidenza (3σ) (fb−1 )
no errori
con errori
no errori
con errori
120
33.2
44.2
12.0
16.0
130
35.9
47.7
12.9
17.2
140
48.9
65.0
17.6
23.4
150
92.9
123.6
32.4
43.1
mH (GeV/c2 )
dal momento che l’errore sul segnale è trascurabile grazie all’abbondante statistica disponibile nel campione studiato. In altre parole
Err(L∗ )
Err(b)
=
∗
L
b
In generale, il numero di eventi di fondo osservati b in un intervallo di massa invariante
si può esprimere come
b=
Nsel
· Nexp
Ntot
ove Nsel è il numero complessivo di eventi simulati che a selezione effettuata cadono nella
regione di interesse, Ntot è il numero complessivo di eventi simulati, e infine Nexp è il
numero di eventi attesi per la data luminosità integrata. Quest’ultima quantità, nel caso
in cui si considera una luminosità integrata pari a 1 fb−1 , è data da
Nexp =
X
σi [fb] · κi
i
ove la somma è estesa a tutti i processi di fondo, con σi si è indicata la sezione d’urto
calcolata al primo ordine del processo i-esimo, espressa in fb, e con κi il fattore K relativo,
come definito in 5.1.1.
In questo modo si calcola facilmente che
Err(b) =
Nexp
·
Ntot
q
Nsel + Nsel · Err2 (κ)
104
Figura 5.19
Analisi del canale H → γγ con ottimizzazione genetica
Luminosità di scoperta in funzione della massa del bosone di Higgs. Sono indicati i
valori ottenuti senza considerare gli errori, e quelli in cui è incluso il loro contributo.
avendo supposto una fluttuazione poissioniana del numero di eventi osservati dopo la
selezione Nsel , e trascurabile l’errore sulla sezione d’urto. Dato che Err(κ) ≈ 25%, si
ottiene
Err(b)
≈ 33%
b
che è dunque l’incertezza da associare alle luminosità integrate che stiamo per fornire.
I risultati di questa analisi sono riassunti in Tabella (5.15), ove sono riportate, per le
diverse ipotesi di massa considerate, le luminosità integrate necessarie per un’eventuale
scoperta a 5σ e un’evidenza a 3σ. Gli stessi risultati sono anche mostrati in Figura (5.19).
Per ogni ipotesi di massa sono riportate due luminosità di scoperta e due di evidenza, a
seconda se si è considerato o meno il contributo degli errori.
Le luminosità integrate necessarie sono state calcolate nella seguente maniera. Come
si vede in Figura (5.16), per quel che riguarda gli eventi di fondo, e in particolar modo
gli eventi di jet, è stato simulato un numero esiguo di eventi, il che produce delle vistose
fluttuazioni nello spettro di massa invariante relativo, che male si adattano alla descrizione
della realtà sperimentale prevedibile dopo aver accumulato decine di fb−1 di dati. Di
105
L [fb-1]
5.6 Risultati
40
39
38
37
36
35
34
33
32
31
30 0
Figura 5.20
0.5
1
1.5
2
2.5
3
3.5
4
!m [GeV/c2]
Andamento della luminosità di scoperta (L) in funzione dell’apertura ∆m della finestra
di massa per mH = 120 GeV/c2 . Si veda il testo per maggiori dettagli.
conseguenza il metodo descritto in 3.3, lo stimare cioè la significanza statistica contando
il numero di eventi di segnale e di fondo in finestre di massa invariante aperte attorno al
valore di mH , per poi scegliere la finestra migliore, risulta essere insufficiente a causa della
rapida variabilità della significanza al variare dell’apertura della finestra.
Si è deciso quindi di stimare il contributo dei fondi con un fit alla distribuzione complessiva, effettuato con una funzione polinomiale di terzo grado. Sono state considerate
tutte le finestre di massa invariante (Mγγ ) della forma
|Mγγ − mH | < ∆m
ove ∆m è stato incrementato di passi pari a 0.1 GeV/c2 nell’intervallo 0.1 − 4 GeV/c2 .
In ogni finestra il contributo del fondo è stato valutato integrando la funzione ottenuta
dal fit, mentre il segnale, del quale sono stati simulati un numero più che sufficiente di
eventi, è stato stimato mediante un semplice conteggio. È stata quindi scelta la finestra
in corrispondenza della quale la significanza risulta essere massima. In Figura (5.20) è
riportato come esempio il risultato ottenuto per mH = 120 GeV/c2 : in essa è visibile
l’andamento della luminosità di scoperta al variare dell’apertura della finestra di massa.
Bisogna tuttavia fare un’osservazione. I dati Monte Carlo che sono stati studiati in
quest’analisi simulano una conoscenza del rivelatore corrispondente a quella prevista dopo
aver raccolto circa 100 pb−1 di dati. Dopo aver raccolto cosı̀ pochi eventi, i diversi sotto-
Analisi del canale H → γγ con ottimizzazione genetica
106
Tabella 5.16
Risoluzione di massa invariante. È mostrata, separatamente per le coppie di fotoni
nel barrel e per quelle di cui almeno uno rivelato negli endcap, la risoluzione attesa
dopo 100 pb−1 , ottenuta con un fit, e la risoluzione ottimale. Si veda il testo per i
dettagli.
Risoluzione dopo 100 pb−1
Risoluzione ottimale
(GeV/c2 )
(GeV/c2 )
Barrel
1.31
0.80
Endcap
2.29
1.11
rivelatori non hanno avuto ancora modo di essere intercalibrati e allineati con precisione,
di conseguenza la risoluzione nella misura di massa invariante è inevitabilmente lontana
da quella di progetto. Si prevede che dopo aver analizzato 100 pb−1 di eventi si avranno
degli errori residui sull’intercalibrazione pari a circa 1.5% nel barrel e 4% negli endcap.
D’altra parte questa analisi, come visto, può produrre risultati solamente con diverse decine di fb−1 di dati accumulati. È ragionevole supporre che dopo aver studiato i
dati relativi a tale luminosità integrata, l’errore residuo sull’intercalibrazione di ECAL,
quantomeno nel barrel, sia inferiore all’1%. Non ha dunque molto senso utilizzare eventi
con tale miscalibrazione per fornire luminosità di scoperta cosı̀ elevate, dal momento che
verrebbero sicuramente sovrastimate.
In Figura (5.21) sono visibili le distribuzioni di massa invariante per fotoni di decadimento di un bosone di Higgs con mH = 120 GeV/c2 . Nel grafico di sinistra sono state
considerate solamente le coppie di fotoni rivelate nel barrel, mentre in quello di destra
le coppie di fotoni di cui almeno uno rivelato negli endcap. Sono stati effettuati dei fit
nella regione del picco, con una funzione di Gauss, in modo da estrarre la risoluzione sulla
misura di massa invariante dalla larghezza della gaussiana. I risultati del fit sono riportati
in Tabella (5.16). Nella stessa tabella sono inoltre riportati i valori di risoluzione attesi per
una intercalibrazione ottimale in ECAL. Questi ultimi sono stati stimati da un campione
di eventi simulati in un rivelatore privo di miscalibrazioni.
Per avere una stima grossolana (e sicuramente ottimistica) dei risultati che si otterrebbero con un rivelatore calibrato dallo studio di diversi fb−1 di dati, sono state modificate
le masse invarianti delle coppie di fotoni di segnale (Mγγ ), trasformandole nella seguente
maniera:
0
Mγγ → Mγγ
= mH + (Mγγ − mH ) ·
σopt
σ100pb
107
600
500
htemp
htemp
Entries
3752
Mean
118.8
5.779
RMS
!2 / ndf
1.878 / 5
620.8 ± 15.2
Constant
Mean
120 ± 0.0
Sigma
1.308 ± 0.027
Entries
1969
Mean
118.9
6.047
RMS
!2 / ndf
7.261 / 8
199.2 ± 6.9
Constant
Mean
119.8 ± 0.1
Sigma
2.287 ± 0.096
u.a.
u.a.
5.6 Risultati
200
150
400
300
100
200
50
100
0
90
100
Figura 5.21
110
120
130
140
0
150
M" " [GeV]
90
100
110
120
130
140
150
M" " [GeV]
Distribuzioni di massa invariante per fotoni di decadimento di un bosone di Higgs con
mH = 120 GeV/c2 . A sinistra per coppie di fotoni nel barrel, a destra per coppie di
fotoni di cui almeno uno negli endcap.
Tabella 5.17
Risultati dell’analisi previsti con una calibrazione ottimale del rivelatore.
Scoperta (5σ) (fb−1 )
Evidenza (3σ) (fb−1 )
no errori
con errori
no errori
con errori
120
19.3
25.7
7.0
9.3
130
20.5
27.3
7.4
9.8
140
28.0
37.2
10.1
13.4
150
53.1
70.6
19.1
25.4
mH (GeV/c2 )
ove con σopt e σ100pb si sono indicate rispettivamente le risoluzioni di massa invariante
ottimale e dopo 100 pb−1 di dati. Sono state utilizzate le diverse risoluzioni per fotoni nel
barrel e negli endcap.
Per quanto riguarda le distribuzioni di massa invariante dei fondi, ci si aspetta che
un miglioramento di risoluzione non provochi grossi cambiamenti dal momento che non
sono presenti picchi. È ragionevole prevedere una migrazione di piccola entità di eventi
verso valori bassi di massa invariante, ma non si pensa che questo fenomeno possa avere un
impatto sostanziale sulle luminosità di scoperta. Per questo motivo non è stata modificata
la distribuzione di massa invariante dei fondi.
I risultati previsti con una calibrazione ottimale del rivelatore sono riportati in Tabella (5.17). Questi risultati, come già osservato, sono da intendersi come una stima
grossolana del limite inferiore di luminosità integrate necessarie. Naturalmente, non c’è
108
Analisi del canale H → γγ con ottimizzazione genetica
modo di prevedere in che modo migliorerà la nostra conoscenza del rivelatore nell’arco
della presa dati. Dunque tutto ciò che possiamo concludere è che le luminosità integrate
che realmente saranno necessarie sono comprese fra quelle riportate in Tabella (5.15) e
quelle riportate in Tabella (5.17).
Come si è visto, l’errore associato alla previsione ha un effetto importante sulle luminosità di scoperta. D’altra parte non c’è modo di migliorare la precisione delle previsioni
di questo tipo di analisi, se non aumentando la statistica del campione di eventi simulati.
Possiamo invece fornire una stima dell’errore da associare alla misura effettuata sui dati
raccolti da CMS a LHC.
Come già descritto in 3.3, la misura della massa del bosone di Higgs è ottenuta dalla
distribuzione di massa invariante ottenuta dopo la selezione. Sfruttando il fatto che il
contributo di segnale, lontano dalla regione del picco, è trascurabile, si effettua un fit alla
distribuzione del fondo nelle due regioni laterali per poi stimare il contributo del fondo
sotto al picco con un’estrapolazione, e infine il contributo del segnale per sottrazione.
La fonte di errore, in questo procedimento, deriva dalla stima del numero di eventi
di fondo b sotto al picco. È importante sottolineare che l’errore sistematico legato alla
conoscenza del segnale non gioca alcun ruolo nella misura di scoperta, dal momento che
il suo contributo è ottenuto direttamente dai dati.
L’errore sul fondo può essere diviso in due componenti:
• una componente statistica, corrispondente all’incertezza del fit e dell’ordine quindi
√
di b;
• una componente sistematica, legata alla nostra ignoranza della funzione analitica
che descrive la distribuzione reale degli eventi di fondo.
La componente statistica dell’errore è dell’ordine dello 0.7%. La componente sistematica, invece, può essere stimata nella seguente maniera. Nella nostra analisi, il contributo
del fondo è ottenuto mediante un fit con una funzione poliniomale di terzo grado. La
distribuzione reale del fondo ha un andamento funzionale ignoto, ma nel caso di un istogramma con un numero di bin pari a Nbin , può essere sempre descritta esattamente da un
polinomio di grado Nbin −1. Il contributo b dei fondi è ottenuto con un integrale esteso alla
regione del picco. L’errore sistematico legato alla scelta della funzione da fit può essere
stimato dalla differenza che si ottiene nella stima di b a seconda che si usi, come funzione
integranda, il polinomio di terzo grado o quello di grado Nbin − 1.
L’eventuale scoperta del bosone di Higgs, come abbiamo visto, potrà avvenire solamente dopo aver accumulato diverse decine di fb−1 di dati. Con una statistica cosı̀ abbondante,
5.6 Risultati
109
è ragionevole aspettarsi, per il fondo, una distribuzione più smussata di quella visibile in
Figura (5.16): le fluttuazioni statistiche del numero di eventi in ciascun bin dovrebbero essere compatibili con quelle previste dalla statistica di Poisson. Per evitare quindi
che le ingenti fluttuazioni del fondo legate alla statistica povera del campione di eventi
studiato comporti una sovrastima di questo errore, è stato applicato uno smussamento
all’istogramma.
L’istogramma è stato smussato con il cosiddetto “algoritmo 353” [48]. Quest’ultimo
sostanzialmente ricalcola i valori dei bin assegnando loro ricorsivamente il valore della
mediana dei valori dei bin adiacenti. Il processo di smussamento è stato iterato fino a
che le fluttuazioni osservate nei valori dei bin bi dell’istogramma fossero tutte di entità
√
minore di bi . A questo punto all’istogramma ottenuto è stato effettuato un fit con le
due funzioni di cui si è discusso, e si è stimato quindi l’errore sistematico, che è risultato
essere dell’ordine dell’1%.
Complessivamente, dunque, l’errore massimo da associare alla misura sarà dell’ordine
dell’1.2%.
110
Analisi del canale H → γγ con ottimizzazione genetica
Conclusioni
In questa tesi è stata presentata un’analisi del canale di decadimento in due fotoni del
bosone di Higgs. Quest’analisi è volta alla ricerca di un bosone di Higgs leggero, la
cui massa cioè sia compresa fra il limite di esclusione di LEP (114.4 GeV/c2 ) e circa
150 GeV/c2 .
Il canale di decadimento studiato è molto raro, dunque risulta essere d’importanza
cardinale avere una selezione efficiente. Comparando la topologia aspettata per gli eventi
di segnale con quella dei fondi dominanti, sono state individuate le principali differenze
fra di essi: il bosone di Higgs, innanzitutto, decade in due fotoni energetici isolati, che
non sono prodotti, cioè, in associazione ad altre particelle. Nella maggior parte dei fondi
il candidato fotone è prodotto all’interno di un jet, e dunque è per sua natura non isolato:
il rivelatore, dunque, dovrebbe registrare dell’attività addizionale nel tracciatore interno,
in ECAL o in HCAL. In alcuni casi, inoltre, il candidato fotone è prodotto da un adrone,
come il π 0 , che decade in due fotoni. Se l’angolo di apertura fra questi ultimi è abbastanza
grande, lo studio della forma del deposito energetico in ECAL dovrebbe essere in grado di
discriminarli.
Al singolo evento si richiede dunque di presentare due candidati fotoni energetici, isolati, e ciascuno con un deposito energetico in ECAL compatibile con quello di un fotone
singolo. Per mettere in pratica ognuno di questi requisiti sono state studiate diverse variabili, al fine di trovare quella maggiormente discriminante fra segnale e fondi. Il confronto è
stato effettuato sulla base del potere di reiezione dei fondi della singola variabile, a efficienza sul segnale fissata. Selezionato l’insieme di variabili ottimale, nel caso delle variabili di
isolamento sono state ottimizzate le aperture dei coni entro cui ricercare ulteriore attività
di rivelatore.
Definito quindi un insieme di variabili ottimali su cui tagliare, la scelta delle soglie
dei tagli è stata affidata a un algoritmo genetico. Questa ottimizzazione permette di individuare l’insieme di tagli più discriminante, studiando la variazione delle prestazioni
112
Analisi del canale H → γγ con ottimizzazione genetica
dell’analisi nello spazio multidimensionale delle variabili considerate. L’algoritmo è inoltre
in grado di indicare le variabili che risultano essere ininfluenti ai fini del potere discriminante ottenuto: sono dunque state eliminate alcune di queste, per non incrementare
inutilmente l’errore sistematico associato alla misura.
Individuato quindi un insieme di tagli, si è cercato di definire una selezione ulteriore
che recuperasse quei fotoni di segnale che, convertiti in una coppie elettrone-positrone nell’attraversamento del tracciatore interno, fossero per questo motivo discriminati dai tagli
stessi. Le principali differenze sperimentali fra un fotone convertito e uno non convertito sono la presenza delle tracce di conversione e la forma del deposito energetico. Sono
dunque stati eliminati i tagli sensibili a queste caratteristiche, e si sono ricercati candidati fotoni convertiti sotto forma di coppie di tracce associate a un deposito energetico in
ECAL. La ricerca è stata facilitata dall’uso di una potente variabile di verosimiglianza,
in grado di valutare la probabilità che l’associazione fra le tracce e il deposito energetico
descriva correttamente un fotone convertito. Questa strategia, tuttavia, non ha avuto successo, poiché a un modesto incremento di efficienza sul segnale ha corrisposto un sensibile
incremento di efficienza sui fondi, rendendo la selezione complessivamente meno efficace.
La selezione ottenuta con l’algoritmo genetico, dunque, non è stata modificata. Dopo
uno studio dell’entità di errore sistematico da associare alla misura, si sono esposti i
risultati dell’analisi, sotto forma di luminosità integrate di dati da accumulare per rendere
possibile la scoperta del bosone di Higgs. Queste dipendono sia dalla massa del bosone
di Higgs, sia dalla precisione con cui viene calibrato il rivelatore. In questa tesi sono
state studiate due configurazioni: la calibrazione prevista dopo aver accumulato 100 pb−1
di dati, e la calibrazione ottimale del rivelatore, considerata una buona approssimazione
della calibrazione ottenibile dopo lo studio di qualche decina fb−1 di eventi. Questa analisi
permette di scoprire un bosone di Higgs con una massa di 120 GeV/c2 , rispettivamente
nelle due configurazioni di calibrazione nominate, con luminosità integrate pari a circa
33 e 19 fb−1 , che divengono rispettivamente 44 e 29 fb−1 se si tiene conto dell’errore da
associare a questa stima.
Bibliografia
[1] S.L. Glashow, Nucl. Phys. 22 (1961) 579;
S. Weinberg, Phys. Rev. Lett. 19 (1967) 1264;
A. Salam, Proc. 8th Nobel Symposium, Aspenasgarden 1968, ed. N. Svartholm
(Almqvist and Wiksell, 1968) 367
[2] The ALEPH, DELPHI, L3, OPAL, SLD Collaborations, the LEP Electroweak Working Group, the SLD Electroweak and Heavy Flavour Groups, Precision Electroweak
Measurements on the Z Resonance, Phys. Rep. 427 5-6 (2006) 257-454
[3] P.W. Higgs, Phys. Lett. 12 (1964) 232 e Phys. Lett. 13 (1964) 508
[4] K. Nishijima, Progr. in Th. Phys. 13 (1955) 285
M. Gell-Mann, Nuovo Cim. 4 (1956) 848
[5] N. Cabibbo, Phys. Rev. Lett. 10 (1963) 531
[6] M. Kobayashi, T. Maskawa, Prog. Theor. Phys. 49 (1973) 652
[7] W.J. Marciano e A. Sirlin, Phys. Rev. Lett. 61 (1988) 1815
T. van Ritbergen e R.G. Stuart, Phys. Rev. Lett. 82 (1999) 488
[8] N. Cabibbo et al., Nucl. Phys. B 158 (1979) 295
[9] G. Altarelli e G. Isidori, Phys. Lett. B 337 (1994);
J.A. Casas, J.R. Espinosa e M. Quirs, Phys. Lett. B 342 (1995) 171; B 382 (1996)
374;
T. Hambye e K. Riesselmann, Phys. Rev. D 55 (1997) 7255
[10] K. Wilson, come da citazione in L. Susskind, Phys. Rev. D 20 (1979) 2619;
G. ‘t Hooft, Recent Developments in Gauge Theories, Plenum Press (1980)
114
BIBLIOGRAFIA
[11] J.F. Gunion, A. Stange, S. Willenbrock, Weakly-coupled Higgs boson, UCD-95-28,
ILL-(TH)-95-28, hep-ph/9602238
[12] G. Abbiendi et al., Search for the Standard Model Higgs Boson at LEP, arXiv:hepex/0306033v1
[13] TEVNPH Working Group, Combined CDF and D0 Upper Limits on Standard Model Higgs Boson Production at High Mass (155-200 GeV) with 3 fb−1 of data,
FERMILAB-PUB-08-270-E (CDF Note 9465, D∅ Note 5754)
[14] LEP Electroweak Working Group, stato di settembre 2007
http://lepewwg.web.cern.ch/LEPEWWG/
[15] http://maltoni.home.cern.ch/maltoni/TeV4LHC
[16] M. Spira, HIGLU: A program for the calculation of the Total Higgs Production Croos
Section at Hadron Colliders via Gluon Fusion including QCD Corrections, arXiv:hepph/9510347
[17] M. Carena e H.E. Haber, Prog. in Part. Phys. 50 (2003) 152
[18] D. Denegri, Standard Model Physics at the LHC (pp collisions), in Proceedings of the
Large Hadron Collider Workshop, Vol. I (1990) 55, CERN 90-10
[19] CMS Technical Proposal, CERN/LHCC 94-38
[20] ATLAS Technical Proposal CERN/LHCC 94-43
[21] LHCb Technical Proposal, CERN/LHCC 98-4
[22] ALICE Technical Proposal, CERN/LHCC 95-71
[23] CMS Physics Technical Design Report, Volume 1, CERN/LHCC/2006-001
[24] G. Organtini, PbWO4 crystals for the CMS electro-magnetic calorimeter, Nuclear
Physics B (Proc. Suppl.) 61B (1998) 59-65
[25] E. Auffray et al., Scintillation characteristics and radiation hardness of PWO
scintillators to be used at the CMS electromagnetic calorimeter at CERN, CMS
TN/95-123
[26] The Electromagnetic Calorimeter Project, Technical Design Report, CERN/LHCC
9733
BIBLIOGRAFIA
115
[27] M. Angelone et al., Neutron flux measurement at Tapiro fast reactor for APD’s
irradiation fluence evaluation, CMS Note 1998/060
[28] P. Adzic et al., Energy resolution of the barrel of the CMS electromagnetic calorimeter,
JINST 2 P04004 (2007)
[29] R. Wigmans, Calorimetry - Energy Measurements in Particle Physics, Oxford
University Press (2000)
[30] E. Meschi et al., Electron reconstruction in the CMS Electromagnetic Calorimeter,
CMS Note 2001/034
[31] S. Baffioni et al., Electron Reconstruction in CMS, CMS Note 2006/040
[32] R. Ranieri, The Simulation of the CMS Silicon Tracker, CMS CR-2008/007;
http://indico.cern.ch/conferenceDisplay.py?confId=26422
[33] N. Marinelli, Track finding and identification of converted photons, CMS Note
2006/005
[34] T. Kolberg, non ancora pubblicato
[35] G. Organtini, Using genetics in particle physics, Int. Journal of Mod. Phys., C (6) 4
(1995) 605-610
[36] C. Darwin, On the Origin of Species, John Murray, London (1859)
[37] R. Frühwirth, Nucl. Instr. and Meth. A 262 (1987) 444
[38] http://www.thep.lu.se/torbjorn/Pythia.html
T. Sjöstrand, Computer Physics Communications 80 (1994) 74;
S. Mrenna, Computer Physics Communications 101 (1997) 292
[39] M. Pieri et al., Inclusive search for the Higgs Boson in the H → γγ channel, CMS
Note 2006/112
[40] M. Pieri et al., Generator level selection of multi-jet and γ+ jets events for H → γγ
search, CMS IN 2005/018
[41] T. Binoth et al., hep-ph/0204316 (2002), hep-ph/0403100 (2004), hep-ph/0203064
(2002), hep-ph/0005194 (2000)
116
BIBLIOGRAFIA
[42] The TriDAS Project Technical Design Report, Volume 1: The Trigger Systems,
CERN/LHCC 2000-38 (2000)
[43] The TriDAS Project Technical Design Report, Volume 2: Data Acquisition and HighLevel Trigger, CERN/LHCC 2002-26 (2002)
[44] https://twiki.cern.ch/twiki/bin/view/CMS/CMSSW
[45] D. Franci, Algoritmi di identificazione di fotoni e pioni neutri con il calorimetro
elettromagnetico di CMS, Tesi di Laurea Specialistica, Univ. Roma La Sapienza, A.A.
2006-2007
[46] A. Höcker et al., TMVA - Toolkit for Multivariate Analysis with ROOT. Users Guide,
arXiv physics/0703039, CERN-OPEN-2007-007
[47] R. Brun e F. Rademakers, ROOT - An Object Oriented Data Analysis Framework,
Proceedings AIHENP’96 Workshop, Nucl. Inst. and Meth. in Phys. Res. A 389 (1997)
81-86;
http://root.cern.ch
[48] J. H. Friedman, Data Analysis Techniques for High Energy Particle Physics, in Proceedings of the 1974 CERN School of Computing, Godoysund (Norway), 1974. CERN
Report 74-23
Scarica