“Sapienza” Università di Roma FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea Specialistica in Fisica Ricerca del bosone di Higgs nel canale di decadimento in due fotoni all’esperimento CMS Tesi di Laurea Specialistica Relatore Candidato Prof. Giovanni Corrado Organtini Anno Accademico 2007/2008 Francesco Pandolfi matr. 698373 Come l’araba Fenice che vi sia ciascun lo dice ove sia nessun lo sa. Cosı̀ fan tutte Indice 1 La fisica del bosone di Higgs 1.1 Il Modello Standard . . . . . . . . . . . . 1.1.1 Il meccanismo di Higgs . . . . . . 1.1.2 Oltre il Modello Standard . . . . . 1.2 Limiti sperimentali sulla massa del bosone 1.3 Il bosone di Higgs a LHC . . . . . . . . . . . . . . . . . . . . . . . . di Higgs . . . . . 2 Il Large Hadron Collider e l’esperimento CMS 2.1 Il Large Hadron Collider . . . . . . . . . . . . . . 2.2 L’esperimento CMS . . . . . . . . . . . . . . . . 2.3 Sistema di tracciamento interno . . . . . . . . . . 2.4 Calorimetro elettromagnetico . . . . . . . . . . . 2.4.1 I cristalli di P bW O4 . . . . . . . . . . . . 2.4.2 Fotorivelatori . . . . . . . . . . . . . . . . 2.4.3 Geometria . . . . . . . . . . . . . . . . . . 2.4.4 Catena di lettura . . . . . . . . . . . . . . 2.4.5 Risoluzione in energia . . . . . . . . . . . 2.5 Calorimetro adronico . . . . . . . . . . . . . . . . 2.6 Rivelatore per muoni . . . . . . . . . . . . . . . . 3 Il canale H → γγ 3.1 Studio delle caratteristiche del segnale . 3.2 Studio dei fondi . . . . . . . . . . . . . . 3.3 Misura della massa del bosone di Higgs 3.4 Ricostruzione di fotoni in ECAL . . . . 3.4.1 Algoritmi ad apertura dinamica . 3.5 Correzioni energetiche . . . . . . . . . . 3.6 Ricostruzione dei fotoni convertiti . . . . 3.6.1 Algoritmo di ricostruzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 8 13 16 19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 27 29 32 32 35 38 40 41 42 43 . . . . . . . . 45 45 47 48 49 51 53 54 55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii 4 Genetica e fisica delle alte energie 4.1 L’evoluzione naturale . . . . . . . . . . . . . 4.1.1 Geni, cromosomi e riproduzione . . . 4.2 Algoritmi genetici in fisica delle alte energie 4.2.1 Evoluzione . . . . . . . . . . . . . . 4.2.2 Potere del metodo . . . . . . . . . . INDICE . . . . . 5 Analisi del canale H → γγ con ottimizzazione 5.1 Preselezione degli eventi . . . . . . . . . . . . 5.1.1 Campioni Monte Carlo . . . . . . . . . 5.1.2 Trigger . . . . . . . . . . . . . . . . . 5.1.3 Strumenti di ricostruzione . . . . . . . 5.1.4 Preselezione e ordinamento . . . . . . 5.2 Definizione dei criteri di isolamento . . . . . . 5.2.1 Isolamento da tracce . . . . . . . . . . 5.2.2 Isolamento elettromagnetico . . . . . . 5.2.3 Isolamento adronico . . . . . . . . . . 5.3 Altri criteri di selezione . . . . . . . . . . . . 5.3.1 Studio della forma del deposito . . . . 5.3.2 Studio delle variabili cinematiche . . . 5.4 Ottimizzazione genetica dei tagli . . . . . . . 5.5 Recupero dei fotoni convertiti . . . . . . . . . 5.6 Risultati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . genetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 59 59 60 62 . . . . . . . . . . . . . . . 63 63 63 67 67 69 70 72 73 75 77 78 82 87 96 102 Introduzione Il Modello Standard della fisica delle particelle elementari è una delle teorie scientifiche di maggior successo che l’uomo sia stato in grado di formulare. Nel corso del secolo passato le sue predizioni sono state confermate con elevatissima precisione da numerosi esperimenti, in ambiti concettualmente distanti e sfruttando tecniche molto diverse. La sua fondazione teorica, tuttavia, necessita dell’esistenza di una particella che non è stata ancora osservata: il bosone di Higgs. La massa del bosone di Higgs è un parametro libero della teoria. I numerosi esperimenti dedicati alla sua ricerca fino a oggi sono riusciti solamente ad escluderne l’esistenza in alcuni intervalli di massa. L’acceleratore LEP ha posto un limite inferiore alla massa pari a 114.4 GeV/c2 al 95% di confidenza, mentre il Tevatron sta fornendo i primi risultati nella regione 160 ÷ 170 GeV/c2 . La ricerca del bosone di Higgs si basa sulla rivelazione dei suoi prodotti di decadimento, i quali a loro volta dipendono dal valore della sua massa. Per masse leggere, compatibili con i limiti sperimentali, nell’intervallo cioè che si estende fra 114.4 e circa 140 GeV/c2 , la sua rivelazione risulta essere particolarmente difficoltosa dal momento che è necessario sfruttare un canale di decadimento molto raro: il decadimento in due fotoni. Il Large Hadron Collider del CERN è l’acceleratore che è stato progettato con l’obiettivo di appurare definitivamente l’esistenza del bosone di Higgs. È un collisore protonico a fasci simmetrici, con un’energia nel centro di massa di 14 TeV. Permetterà di esplorare estensivamente la scala energetica del TeV. L’esperimento Compact Muon Solenoid (CMS) è uno dei quattro principali esperimenti che studieranno le interazioni prodotte al Large Hadron Collider. È un rivelatore ad uso generale, che fa uso di un calorimetro elettromagnetico omogeneo di grande precisione, progettato con lo scopo di poter rivelare il bosone di Higgs sfruttando il canale di decadimento in due fotoni. Nell’ambiente sperimentale di un collisore protonico, le fonti di fondo sono abbondanti. La sezione d’urto di eventi con jet adronici è molto elevata, dunque nella ricerca dei fotoni di decadimento del bosone di Higgs il contributo principale al fondo proviene da fotoni prodotti all’interno di jet. Un’analisi che intende studiare questo canale di decadimento deve quindi essere molto efficiente nella discriminazione dei jet. Le importanti differenze fra gli eventi di segnale e quelli composti da jet sono l’isolamento dei fotoni e la forma del deposito energetico rilasciato nel calorimetro elettromagnetico. In generale, una selezione, in fisica delle particelle, è costituita da una serie di tagli su altrettante variabili. Per individuare la configurazione ottimale delle soglie dei tagli è necessario studiare la variazione del potere discriminante della selezione nello spazio multidimensionale delle variabili considerate. Questo problema può essere affidato a un computer. È stato sviluppato dunque un metodo che si ispira al principio di selezione naturale darwiniano, il quale, selezionando di volta in volta le configurazioni migliori, riesce a ottimizzare i valori dei tagli. Algoritmi di questo tipo sono chiamati algoritmi genetici. In questa tesi si presenta un’analisi che permette di scoprire il bosone di Higgs con il rivelatore CMS mediante il suo decadimento in due fotoni. L’analisi utilizza una selezione ottimizzata grazie a un algoritmo genetico. Nel primo capitolo si fornisce una contestualizzazione teorica del Modello Standard e delle motivazioni che portano alla postulazione dell’esistenza del bosone di Higgs. Vengono quindi forniti i vincoli teorici e i limiti sperimentali sul valore della sua massa e descritto lo scenario previsto al Large Hadron Collider per quel che riguarda la sua produzione e il suo decadimento. Nel capitolo secondo sono descritti l’acceleratore Large Hadron Collider e l’esperimento CMS, di cui verranno mostrati il principio di funzionamento e le prestazioni di ogni singolo sottorivelatore. Particolare enfasi sarà dedicata al suo calorimetro elettromagnetico (ECAL), fondamentale ai fini di quest’analisi. Il terzo capitolo offre una panoramica delle caratteristiche sperimentali del canale di decadimento in due fotoni e, a confronto, le caratteristiche dei principali fondi. Dopo aver spiegato il metodo con cui si misura la massa del bosone di Higgs, sono descritti i procedimenti con cui è ricostruita l’energia dei fotoni in ECAL. Nel quarto capitolo, dopo una breve introduzione sull’evoluzionismo darwiniano, è descritto il metodo di ottimizzazione con algoritmi genetici. Nel quinto e ultimo capitolo è infine presentata l’analisi del canale di decadimento in due fotoni del bosone di Higgs. La definizione di una selezione si suddivide nell’individuzione dell’insieme di variabili su cui tagliare e nella scelta delle soglie dei tagli. La selezione delle variabili è stata effettuata confrontando le prestazioni di variabili diverse in grado di fornire selezioni concettualmente simili. La scelta dei valori dei tagli è stata invece affidata a un algoritmo genetico. Capitolo 1 La fisica del bosone di Higgs Dopo la scoperta del quark top al Tevatron di Chicago, avvenuta nel 1995, il bosone di Higgs costituisce l’ultimo tassello mancante del Modello Standard. Alla sua ricerca si sono dedicati, senza successo, gli acceleratori LEP e Tevatron. La massa del bosone di Higgs è un parametro libero del Modello Standard, dunque un acceleratore capace di esplorare ampi intervalli di massa è fondamentale per la sua scoperta. Il Large Hadron Collider è stato progettato in modo da avere come obiettivo primario nel breve termine la scoperta di questa particella. Questo capitolo si propone di fornire una rapida ma accurata introduzione al contesto teorico attuale della fisica delle particelle elementari. Verranno descritti il Modello Standard, le motivazioni che hanno portato alla formulazione del meccanismo di Higgs e le sue conseguenze. Verranno quindi riassunti gli attuali limiti sperimentali alla massa del bosone di Higgs e si fornirà infine una panoramica sui meccanismi previsti di produzione ed eventuale scoperta a LHC. 1.1 Il Modello Standard Il Modello Standard della fisica delle particelle elementari è la teoria che attualmente viene adoperata per ottenere una descrizione quantitativa a livello microscopico di tre delle quattro forze fondamentali: l’elettromagnetismo, la forza debole e la forza forte. È stato elaborato verso la fine degli anni ’60 da Glashow, Weinberg e Salam [1]. È una teoria di campo rinormalizzabile, compatibile con la relatività speciale. La sua Lagrangiana obbedisce a una simmetria di gauge non Abeliana che fa riferimento al gruppo di simmetria 6 La fisica del bosone di Higgs SU (3)×SU (2)×U (1). Nel corso degli ultimi decenni le sue previsioni sono state confermate con straordinaria accuratezza da un gran numero di esperimenti [2]. Si può suddividere il Modello Standard in due settori: la Cromodinamica Quantistica (spesso chiamata QCD, dall’acronimo del nome anglosassone) e il settore elettrodebole. In altre parole la Lagrangiana del Modello Standard si può esprimere esprimere come: LMS = LQCD + LElettrodebole La Cromodinamica Quantistica descrive le interazioni di quark e gluoni, mediate dalla forza forte attraverso la carica di colore. È descritta dalla Lagrangiana LQCD = − X 1 X g g µν α β qr Fµν F +i q̄rα γ µ Dµβ 4 g r (1.1) che soddisfa la simmetria di colore SU (3)C . Nell’espressione di LQCD compaiono i tensori g Fµν degli otto campi gluonici (g = 1, ..., 8), definiti da i Fµν = ∂µ Giν − gF fijk Gjµ Gkν ove gF è la costante di accoppiamento della forza forte e fijk sono le costanti di struttura del gruppo SU (3). Nel secondo termine della (1.1), con qr si è indicato il campo del quark α è definita da di sapore r, gli indici α, β sono indici di colore, e la derivata covariante Dµβ X i α = ∂µ δβα + gF Dµβ Giµ λiαβ 2 i ove λi sono le matrici dei generatori di SU (3). Il settore elettrodebole è invece descritto da una Lagrangiana invariante sotto trasformazioni di gauge del gruppo di simmetria SU (2)L × U (1)Y . Il gruppo SU (2)L si riferisce alla carica di isospin debole (I), mentre U (1)Y all’ipercarica debole (Y ). Le componenti sinistrorse dei fermioni sono organizzate in doppietti con I = 1/2, mentre le loro componenti 1.1 Il Modello Standard 7 destrorse in singoletti di I = 0: I=0: I = 1/2 : νe e ! L ! u d L νµ µ c s ! L ! L ντ τ e ! R µ τ R R L u R d ! t b L R c R s t R b R R L’imposizione di queste simmetrie di gauge locali introduce 4 bosoni vettori: 3 per il gruppo SU (2), i campi W i (i = 1, 2, 3), e uno per U (1), il campo B. I campi fisici si ricavano come combinazioni lineari di questi ultimi: Aµ = sin θ Wµ3 + cos θBµ Zµ = cos θ Wµ3 − sin θBµ Wµ± = Wµ1 ∓ iWµ2 √ 2 Le precedenti equazioni rappresentano due particelle neutre, il fotone (descritto dal campo Aµ ) e il bosone Z, e due particelle cariche, i bosoni W + e W − . Si è inoltre introdotto l’angolo θ che viene detto angolo di interazione debole. Si delinea cosı̀ una teoria quantistica simmetrica sotto trasformazioni locali di gauge, la cui lagrangiana è espressa come LElettrodebole = Lfermioni + Lgauge ≡ i X f 1 X µν f¯Dµ γ µ f − FG FG,µν 4 G Le somme sono estese rispettivamente a tutti i campi fermionici (leptoni e quark) e a tutti i campi vettoriali. I campi fermionici (f ) possono essere doppietti sinistrorsi (ψL ) o singoletti destrorsi (ψR ). Nel primo termine compare la derivata covariante Dµ ≡ ∂µ − igG (λα Gα )µ 8 La fisica del bosone di Higgs ove gG è la generica costante di accoppiamento del fermione al campo G e λα sono i generatori del gruppo di simmetria cui fa riferimento G. Questa teoria ha però un problema: tutte le particelle descritte da essa hanno massa nulla, contraddicendo clamorosamente i risultati sperimentali. D’altra parte la simmetria di gauge della Lagrangiana sembra impedire l’introduzione di termini di massa. La teoria rischia di divenire un elegante artifizio matematico incapace di descrivere la realtà osservata. La proposta di Higgs [3] risolve questo problema rompendo spontaneamente la simmetria della Lagrangiana, come vedremo nel prossimo paragrafo. 1.1.1 Il meccanismo di Higgs Per introdurre il concetto di rottura spontanea della simmetria, consideriamo un sistema la cui Lagrangiana possegga una certa simmetria. Nel classificare i livelli energetici del sistema, bisogna tenere conto delle degenerazioni. Se un dato livello di energia è non degenere, il corrispondente autostato è unico e invariante sotto trasformazioni del gruppo di simmetria della Lagrangiana. Al contrario, nel caso degenere, i vari autostati non sono invarianti ma vengono trasformati in una generica combinazione lineare degli altri. Consideriamo quindi il caso del livello energetico più basso. Se presenta degenerazione, non esiste un autostato che descriva univocamente lo stato fondamentale del sistema: ne deve essere scelto arbitrariamente uno, ma cosı̀ facendo lo stato scelto non condivide più la simmetria della Lagrangiana. Questa maniera di ottenere uno stato fondamentale asimmetrico viene detta rottura spontanea della simmetria. Il modo più semplice per rompere spontaneamente la simmetria SU (2)L × U (1)Y consiste nell’introdurre un campo scalare Φ che sia un doppietto di isospin: Φ= Φ+ Φ0 ! = √ ! (Φ1 + iΦ2 )/ 2 √ (Φ3 + iΦ4 )/ 2 ove sono stati introdotti i quattro campi reali Φi (i = 1, 2, 3, 4) per esplicitare che i campi Φ+ e Φ0 sono complessi. La più semplice Lagrangiana di un campo scalare autointeragente ha la forma LHiggs = (Dµ Φ)† (Dµ Φ) − V (Φ) 1.1 Il Modello Standard 9 ove V (Φ) = µ2 Φ† Φ + λ(Φ† Φ)2 e la derivata covariante Dµ Φ è definita dall’uguaglianza operatoriale i Dµ ≡ ∂ µ + gσj Wjµ + ig 0 Y B µ 2 ove si è sottintesa la somma sull’indice ripetuto j = 1, 2, 3, con g e g 0 si sono indicate rispettivamente le costanti di accoppiamento dei fermioni ai campi Wjµ e B µ , con σj si sono indicate le matrici di Pauli e infine con Y l’ipercarica debole. Il potenziale V (Φ) dipende da due parametri: µ e λ. La condizione λ > 0 assicura che lo spettro di energia sia limitato inferiormente. Se il parametro µ viene scelto tale che µ2 < 0, la simmetria del potenziale può essere rotta. Si ha infatti che in corrispondenza di Φ† Φ = − v2 µ2 ≡ 2λ 2 (1.2) il potenziale ha un minimo. Il che implica che il campo Φ ha un valore d’aspettazione √ Φ0 = v/ 2 non nullo sul vuoto. La teoria delle perturbazioni richiede uno sviluppo di Φ attorno al suo stato fondamentale. Quest’ultimo, d’altra parte, dovrà essere scelto fra tutti quelli che soddisfano l’equazione (1.2), ma ognuno di essi romperà almeno una simmetria della Lagrangiana. Si può inoltre verificare che ciò implica l’assegnazione, ad ogni bosone connesso con una simmetria rotta, di una massa pari a |qv|, se con q si intende la carica del bosone di Higgs nel campo mediato dal bosone in questione. La Lagrangiana elettrodebole possiede una simmetria SU (2) × U (1). Per evitare di conferire una massa al fotone, dunque, dobbiamo scegliere uno stato fondamentale che conservi la simmetria U (1) di carica elettrica. Dalla relazione di Gell-Mann e Nishijima [4] Q = I3 + Y 2 si vede bene che otteniamo il risultato desiderato se scegliamo uno stato fondamentale Φ0 10 La fisica del bosone di Higgs di isospin debole I = 1/2, I3 = −1/2 e ipercarica debole Y = 1: 1 Φ0 = √ 2 0 v ! Di conseguenza il campo Φ sarà espresso come 1 Φ(x) = √ 2 ! 0 v + h(x) In questo modo i campi bosonici W ± e Z, relativi al gruppo di simmetria rotta SU (2), acquistano massa mW = v g 2 mZ = vp 2 g + g 02 2 Viene inoltre introdotta una particella fisica, il bosone di Higgs, descritto dal campo h(x), di massa mH = √ √ 2µ = 2λv (1.3) Possiamo adesso conferire massa ai fermioni introducendo un termine di interazione di Yukawa, accoppiando un doppietto sinistrorso fermionico (ψ L ), un singoletto destrorso e il doppietto di Higgs (Φ). Considereremo il caso dei quark: il caso leptonico è analogo. Chiameremo genericamente u (d) i campi relativi ai quark di tipo up (down). Un termine di accoppiamento della forma g d ψ̄ L dR Φ + hermitiano coniugato √ assegna una massa md = g d v/ 2 al quark d. Allo stesso modo, se chiamiamo Φ̃ = −i[Φ† σ2 ]T , ove σ2 è la seconda matrice di Pauli, un termine della forma g u ψ̄ L uR Φ̃ fornisce √ una massa mu = g u v/ 2 al quark u. Complessivamente, quindi, estendendo il ragionamento alle tre famiglie, la Lagrangiana di interazione fra quark e campo di Higgs sarà della forma LqΦ = X ik d L R gik ψ̄i dk Φ + X ik u L R gik ψ̄i uk Φ̃ + h.c. 1.1 Il Modello Standard 11 I termini di massa di questa Lagrangiana sono tuttavia non diagonali nei campi u e d. Per ottenere i campi fisici (massivi) bisogna diagonalizzarli. Questo è fatto introducendo delle matrici unitarie V che trasformano i campi uL = VuL u0L uR = VuR u0R dL = VdL d0L dR = VdR d0R Dal momento che i campi uL e dL sono trasformati in maniera differente, l’accoppiamento ai bosoni W ± non è più diagonale. Si ha infatti LqW = g X µ 0L † ū0L i Vij γ dj Wµ + h.c. ij ove si è introdotta la matrice unitaria V, detta di Cabibbo, Kobayashi e Maskawa [5][6], definita come Vud Vus Vub † VdL ≡ Vcd Vcs Vcb V = VuL Vtd Vts Vtb Al contrario, si verifica facilmente che l’accoppiamento al fotone e al bosone Z rimangono diagonali, grazie all’unitarietà delle matrici V : † µ γ VuL u0L Wµ3 = gū0L γ µ u0L Wµ3 gūL γ µ uL Wµ3 = gū0L VuL Bisogna infine osservare che le matrici VuL , VuR , VdL , VdR sono determinate a meno di una fase complessiva ineliminabile. La presenza di questa fase permette la violazione della simmetria CP del Modello Standard. Diagonalizzate le matrici M̃ , i campi fermionici acquistano masse pari a v mf = √ g f 2 ovvero l’accoppiamento del bosone di Higgs a un dato fermione è proporzionale alla massa 12 La fisica del bosone di Higgs del fermione stesso: gf = √ mf 2 v Come si vede nella relazione (1.3), la massa del bosone di Higgs dipende dal parametro di accoppiamento λ e dal valore di aspettazione sullo stato di vuoto v. Il valore di quest’ultimo è fissato dalla costante di Fermi (GF ), dal momento che è facile verificare che sussiste la seguente uguaglianza v= √ 2mW = ( 2GF )−1/2 g L’attuale stima di GF , ricavata dalla misura della vita media dei muoni [7], permette di porre v ' 247 GeV . Il modello non offre però alcuna predizione sul valore del parametro λ, rendendo la massa del bosone di Higgs un parametro libero. Tuttavia, si può sfruttare la natura perturbativa della teoria per porre dei limiti teorici approssimativi su mH [8]. Un primo limite si ottiene richiedendo che la rottura della simmetria effettivamente avvenga: V (v) < V (0) (1.4) Questa condizione è equivalente a richiedere che λ rimanga positivo a ogni scala di energia, dal momento che in caso contrario lo spettro di energia non sarebbe limitato inferiormente. Vicino a questo limite, ovvero per piccoli valori di λ, e quindi per un bosone di Higgs leggero, le correzioni radiative del quark top e gli accoppiamenti di gauge diventano importanti e la condizione (1.4) può essere trasformata in un limite inferiore per la massa dell’Higgs: mH 3v > (16gt4 − g 4 − 2g 2 g 02 − 3g 04 ) log 32π 2 Λ mH ove gt è la costante di accoppiamento del campo di Higgs al quark top. Si è qui introdotta una scala di energia Λ, oltre la quale si suppone che il Modello Standard non sia più valido. Facendo riferimento alla Figura (1.1), questo limite corrisponde alla curva inferiore [9]. D’altro canto, la richiesta che il parametro λ rimanga finito fino a una scala Λ, ovvero richiedere la validità dell’approccio perturbativo fino a tale scala, si traduce in un limite 1.1 Il Modello Standard Figura 1.1 13 Limiti sulla massa del bosone di Higgs (MH ) in funzione della scala energetica Λ alla quale è necessario introdurre nuova fisica. Il calcolo è stato effettuato ponendo la massa del quark top (mt ) pari a 175 GeV/c2 . superiore sulla massa: m2H < 8π 2 v 2 3 log(Λ/v 2 ) che corrisponde alla curva superiore nella Figura (1.1). Come si vede, questi limiti implicano che se il Modello Standard fosse una teoria perturbativa fino alla scala della grande unificazione ΛGUT ≈ 1016 GeV, la massa del bosone di Higgs dovrebbe essere compresa approssimativamente fra i 130 e i 190 GeV/c2 . In altre parole, un bosone di Higgs con massa inferiore a 130 GeV/c2 suggerirebe l’esistenza di nuova fisica a partire da una scala minore di ΛGUT . 1.1.2 Oltre il Modello Standard Nonostante lo straordinario accordo fra le misure di precisione nel settore elettrodebole e le predizioni del Modello Standard, ci sono delle forti indicazioni teoriche che quest’ultimo non sia la teoria definitiva nella descrizione delle interazioni fra particelle fondamentali. Ha circa 20 parametri liberi, che possono sembrare troppi per una teoria fondamentale, e varie domande senza risposta, riguardanti argomenti come l’unificazione delle forze, la massa dei neutrini, il problema della gerarchia e della naturalezza. Per questo motivo si tende a considerare il Modello Standard alla stregua di una teoria quantistica dei campi efficace, valida sino a una scala energetica Λ, detta di cut-off. 14 La fisica del bosone di Higgs Il cosiddetto problema gerarchico [10] sembra essere il cancro che più profondamente mina le fondamenta teoriche del Modello Standard. In generale si ha una problema di gerarchia quando i parametri misurati di una teoria sono di numerosi ordini di grandezza più piccoli della scala di energia fondamentale della teoria stessa. Ciò può avvenire nel caso in cui i parametri misurati siano connessi a quelli fondamentali attraverso procedimenti di rinormalizzazione, tuttavia se il divario energetico è estremamente vasto si dovrebbe supporre una delicatissima cancellazione fra il valore fondamentale del parametro e la sua correzione radiativa. Nel Modello Standard, le correzioni radiative alla massa del bosone di Higgs hanno una dipendenza quadratica dalla scala di cut-off. Si può calcolare ad esempio che i contributi radiativi dei loop fermionici possono essere espressi come δmHf ∝ X −gf (Λ2 + m2f ) f con ovvio significato dei simboli. Se indichiamo con mH0 la massa “nuda” dell’Higgs, la massa effettiva mH è ottenuta da m2H = m2H0 + δm2H ove in δm2H sono raccolti i contributi di tutte le correzioni radiative. Si capisce quindi che se Λ ' ΛGUT , per avere un bosone di Higgs di massa . TeV si dovrebbe supporre una cancellazione di precisione incredibile fra i due contributi. Sostanzialmente tutti i modelli che intendono superare il Modello Standard tentano di risolvere il problema della gerarchia. Una soluzione è proposta dal modello supersimmetrico. La supersimmetria pone fermioni e bosoni in multipletti, accoppiando ogni fermione con un “super partner” bosonico, e viceversa. Il superpartner di una particella condivide la sua massa e i suoi numeri quantici, eccetto ovviamente lo spin. Dato che le correzioni radiative di fermioni e bosoni hanno segno opposto, i due contributi si cancellano perfettamente. Il modo più semplice per rompere la simmetria nel modello supersimmetrico è di introdurre due doppietti SU (2) di Higgs: H1 = H1+ H10 ! H2 = H20 H2− ! 1.1 Il Modello Standard Figura 1.2 15 Valori assunti dalle masse dei bosoni di Higgs nel modello supersimmetrico MSSM in funzione di mA per due valori di tan β. Sono stati considerati due casi di mescolamento del super partner del quark top (lo squark stop): nessun mescolamento (a sinistra) e mescolamento massimale (a destra). Dal momento che i campi sono complessi, ci sono 8 gradi di libertà. Questo è detto Modello Standard Supersimmetrico Minimale (MSSM). La simmetria è rotta se le componenti neutre dei doppietti acquistano dei valori di aspettazione sullo stato di vuoto: H1 (0) = 0 v1 ! H2 (0) = v2 0 ! Esattamente come nel caso del Modello Standard, i bosoni W ± e Z acquistano massa assorbendo 3 gradi di libertà. I rimanenti gradi di libertà introducono 5 bosoni di Higgs: due carichi (H ± ), uno neutro pseudoscalare (A), due neutri scalari (h e H). I valori delle masse di questi bosoni dipendono a livello albero da due parametri, che sono in genere scelti essere tan β ≡ v1 v2 e mA ove mA è la massa del bosone A. In Figura (1.2) si possono vedere i valori assunti dalle masse in funzione di questi parametri [11]. Addentrarsi in particolari esulerebbe dai fini di questa tesi. Sembra tuttavia interessante mettere in luce che questo modello predice l’esistenza di un bosone di Higgs neutro 16 La fisica del bosone di Higgs Figura 1.3 Risultati combinati dei quattro esperimenti di LEP nella ricerca del bosone di Higgs. È riportato il valore di −2 ln Q in funzione della massa dell’Higgs per un’ipotesi di solo fondo (linea tratteggiata) e per l’ipotesi di segnale e fondo (linea puntinata). La linea continua rappresenta il valore assunto sui dati degli esperimenti. Le due bande rappresentano le fluttuazioni dell’ipotesi di solo fondo entro una probabilità del 68% (banda scura) e 95% (banda chiara). di massa . 130 GeV/c2 per ogni scelta di questi parametri. 1.2 Limiti sperimentali sulla massa del bosone di Higgs La ricerca del bosone di Higgs ha condizionato i principali esperimenti di fisica delle alte energie degli ultimi vent’anni. I limiti sperimentali sulla sua massa sono di due tipi: limiti diretti, derivanti dalle ricerche effettuate agli acceleratori LEP a Ginevra e Tevatron a Chicago, e limiti indiretti, provenienti principalmente da misure di precisione del settore elettrodebole del Modello Standard. Il Large Electron Positron Collider (LEP) è un acceleratore e+ e− che è stato messo in funzione al CERN nel 1989. Il suo programma scientifico era suddiviso in due fasi: la √ prima (LEP I), ha preso dati attorno alla risonanza del bosone Z (89 < s < 93 GeV); nella seconda (LEP II), durata dal 1996 al 2000, l’energia del centro di massa è stata 1.2 Limiti sperimentali sulla massa del bosone di Higgs 17 gradualmente aumentata fino a 209 GeV. Da questa seconda fase deriva il limite diretto attualmente più importante alla massa del bosone di Higgs. Il principale meccanismo per produrre il bosone di Higgs a un collisore e+ e− alle energie di LEP II è la cosiddetta “Higgs-strahlung” nel canale s (e+ e− → Z ∗ → ZH), nella quale un bosone Z irradia un bosone di Higgs. Questo stato finale produce nella maggior parte dei casi eventi a quattro jet, con il bosone di Higgs che decade in due quark b e il bosone Z in due quark qualunque e+ e− → (H → bb̄)(Z → q q̄) Per un bosone di Higgs con una massa di 115 GeV/c2 , ad esempio, la frazione di decadimento di questo processo è circa 60%. Eventi a quattro jet con topologia compatibile con queste ipotesi sono stati studiati dai quattro esperimenti attivi a LEP (ALEPH, DELPHI, L3, OPAL). È stata osservata una singolare abbondanza di eventi [12], non compatibile tuttavia con una scoperta, che ha permesso di porre un limite inferiore diretto sulla massa del bosone di Higgs pari a 114.4 GeV/c2 al 95% di confidenza. I risultati combinati dei quattro esperimenti sono mostrati in Figura (1.3), nella quale è riportato l’andamento della quantità −2 ln Q = −2 ln Λs Λb ove Λs e Λb sono rispettivamente le verosimiglianze dell’ipotesi di segnale in presenza di fondo e di solo fondo. Il grafico mostra il valore aspettato di tale variabile, in funzione di mH , nelle due ipotesi (la linea puntinata in basso nel caso di presenza di segnale, quella tratteggiata in alto nel caso di solo fondo). Il valore della medesima variabile calcolata sui dati è rappresentato da una linea continua. Come si vede, fino a una massa di 114.4 GeV/c2 i dati sono compatibili, entro una deviazione standard, con l’ipotesi di assenza di segnale. Il Tevatron è invece un acceleratore protone-antiprotone (pp̄), con energia nel centro di √ massa pari a s = 1.96 TeV. La ricerca del bosone di Higgs al Tevatron si concentra sulla sua produzione associata a bosoni vettori intermedi, pp̄ → V H (V ≡ W ± , Z), con questi ultimi che decadono in canali leptonici. Per mH < 130 GeV/c2 il canale di decadimento H → bb̄ è il più proficuo per la sua ricerca, mentre per masse maggiori diventa rilevante il canale H → W + W − (con uno dei due W che può essere virtuale). In Figura (1.4) sono riportati i più recenti risultati combinati dei due rivelatori attivi 18 La fisica del bosone di Higgs Figura 1.4 Andamento previsto (linea tratteggiata) e osservato (linea continua) al Tevatron del rapporto fra la sezione d’urto misurata e sezione d’urto prevista dal Modello Standard. Il grafico combina i risultati dei due esperimenti CDF e D∅ e di numerosi canali di ricerca. al Tevatron, CDF e D∅ [13]. Nel grafico è mostrato l’andamento del rapporto fra la sezione d’urto misurata e quella calcolata dal Modello Standard, in funzione della massa del bosone di Higgs. Un valore < 1 di questo rapporto comporterebbe l’esclusione al 95% di confidenza dei relativi valori di mH . In Figura sono riportati l’andamento aspettato di questa quantità (linea tratteggiata) e l’andamento misurato (linea continua). Questo studio combina numerosi canali di ricerca e l’analisi è effettuata su 3 fb−1 di dati accumulati. Come si vede, allo stato attuale il Tevatron è in grado di escludere solamente un intervallo di massa molto stretto attorno al valore mH = 170 GeV/c2 . Bisogna tuttavia considerare che questo studio non fa uso di tutta la statistica attualmente accumulata (oltre 4 fb−1 ). È dunque presumibile che prima dell’arrivo dei primi risultati di LHC il Tevatron possa essere in grado di ampliare l’intervallo di esclusione. I limiti indiretti al valore della massa del bosone di Higgs provengono invece da un fit effettuato sui risultati di misure di precisione nel settore elettrodebole del Modello Standard. Questi osservabili sono infatti sensibili al valore di mH dal momento che quest’ultimo contribuisce, attraverso correzioni a loop, alla polarizzazione del vuoto dei bosoni W ± e Z, dando luogo a termini proporzionali a log(mH ). Attualmente il miglior fit ai dati raccolti da esperimenti quali LEP, Tevatron e SLC 1.3 Il bosone di Higgs a LHC Figura 1.5 19 Produzione del bosone di Higgs. A sinistra: sezione d’urto di produzione del bosone di Higgs in funzione della sua massa, per acceleratori protone-protone a 14 TeV nel centro di massa. Sono evidenziati i contributi dei diversi canali di produzione. A destra: grafici di Feynman dei principali processi di produzione: (a) fusione di gluoni; (b) fusione di bosoni vettori; (c) produzione associata a coppie tt̄; (d) Higgs-strahlung. permette di definire [14], entro una deviazione standard, l’intervallo di massa 2 mH = 76+33 −24 GeV/c ovvero mH < 144 GeV/c2 al 95% di confidenza. 1.3 Il bosone di Higgs a LHC Il Large Hadron Collider (LHC) del CERN è l’acceleratore che intende chiarire definitivamente il settore di Higgs del Modello Standard. È un collisore protone-protone a 14 TeV nel centro di massa. Delle sue caratteristiche si parlerà con maggior dettaglio nel prossimo capitolo; per il momento verrà mostrato lo scenario atteso, a tali energie, per quanto riguarda la produzione e l’eventuale rivelazione di un bosone di Higgs non supersimmetrico. In Figura (1.5), a sinistra, sono riportate le sezioni d’urto dei vari processi di produzione del bosone di Higgs a un acceleratore protone-protone di 14 TeV nel centro di massa in funzione del valore della massa del bosone stesso [15]. A destra sono invece visibili i grafici di Feynman relativi ai canali principali. Come si vede, nell’intervallo di massa considerato, la produzione mediante fusione di gluoni (gg → H) è dominante (si noti la 20 La fisica del bosone di Higgs Tabella 1.1 Sezioni d’urto dei principali processi di produzione del bosone di Higgs per alcuni valori della sua massa. Sono mostrati anche i branching ratio del canale di decadimento in due fotoni, e il prodotto inclusivo fra la sezione d’urto totale di produzione e il suddetto branching ratio. mH 115 GeV 120 GeV 130 GeV 140 GeV 150 GeV σ (fusione di g) 39.2 pb 36.4 pb 31.6 pb 27.7 pb 24.5 pb σ (fusione di W, Z) 4.7 pb 4.5 pb 4.1 pb 3.8 pb 3.6 pb σ (tt̄ + Higgs-strahlung) 3.8 pb 3.3 pb 2.6 pb 2.1 pb 1.7 pb σ totale 47.6 pb 44.2 pb 38.3 pb 33.6 pb 29.7 pb H → γγ B.R. 0.00208 0.00220 0.00224 0.00195 0.00140 σ × B.R. 99.3 fb 97.5 fb 86.0 fb 65.5 fb 41.5 fb scala logaritmica delle ordinate). Facendo riferimento alla Tabella (1.1), si vede ad esempio che per mH = 120 GeV, la sezione d’urto di questo processo è almeno 8 volte maggiore di qualunque altro, rendendolo il canale di produzione più importante a LHC [16]. Un contributo interessante è dato inoltre dalla fusione di bosoni vettori (q q̄ → Hq q̄). Sono eventi che, anche se di sezione d’urto minore del caso precedente, producono una topologia facilmente riconoscibile. Essendo un processo di canale t, infatti, i quark dello stato finale verranno emessi prevalentemente lungo la direzione del fascio. Si verranno cosı̀ a formare due jet a piccolo angolo, che possono essere usati per identificare l’evento. In Figura (1.6) sono riportati i tassi percentuali di decadimento (branching ratio) del bosone di Higgs, in funzione della sua massa [17] (a sinistra) e l’andamento dell’ampiezza totale di decadimento in funzione della massa (a destra). Per mH . 300 GeV la larghezza naturale del decadimento è molto piccola, rendendo dominante, in fase di misura, la risoluzione del rivelatore. A partire da mH ≈ 150 GeV divengono dominanti i canali di decadimento in coppie di bosoni vettori (W, Z). A partire da quei valori di massa, infatti, diventa cinematicamente possibile la produzione di bosoni vettori reali. I canali di decadimento in bosoni vettori deboli sono considerati i canali “aurei” per la scoperta del bosone di Higgs a LHC. Queste particelle possono essere infatti facilmente riconosciute dai loro prodotti di decadimento: i canali leptonici, in particolare, sfruttando il vincolo cinematico costituito dalla massa del bosone in decadimento, risultano in topologie facilmente rivelabili e riconoscibili. Gli 1.3 Il bosone di Higgs a LHC Figura 1.6 21 Decadimento del bosone di Higgs. A sinistra: branching ratio dei principali canali di decadimento del bosone di Higgs previsto dal Modello Standard in funzione del valore della sua massa. A destra: ampiezza totale di decadimento del bosone di Higgs (hSM , linea continua) in funzione della sua massa. Sono riportati anche gli andamenti delle ampiezze dei bosoni di Higgs neutri scalari del modello MSSM per due valori del parametro tan β (linee tratteggiate). elevati valori di branching ratio, inoltre, aumentano il tasso di questi eventi. Per masse minori di 150 GeV, invece, risulta essere dominante il canale di decadimento in una coppia di quark bottom (bb̄). La topologia di questi eventi risulterà quindi in una coppia di jet. Tuttavia, a un collisore adronico quale LHC, è quasi impossibile distinguere questi eventi dal fondo, data l’elevatissima sezione d’urto di eventi di QCD che presentano identica topologia. Se il bosone di Higgs ha una massa minore di 150 GeV, quindi, è necessario sfruttare il decadimento in due fotoni (γγ) per la sua scoperta. Nello stato finale di questo canale di decadimento si trovano due fotoni molto energetici, che sono ben identificabili sperimentalmente. Tuttavia, come si vede in figura, il branching ratio di questo canale è di quasi tre ordini di grandezza inferiore a quelli appena citati, vale circa 0.002 in quasi tutto l’intervallo importante di massa (vedi Tabella (1.1)). La frequenza di questi eventi sarà molto piccola, specialmente se confrontata con la frequenza di eventi di fondo con topologia simile (se non identica). Il canale di decadimento in due fotoni è stato studiato fin dal progetto iniziale di LHC come un canale fondamentale per la scoperta di un bosone di Higgs leggero. Rappresenta un’importante sfida sperimentale e ha posto dei requisiti stringenti nella progettazione dei rivelatori. 22 La fisica del bosone di Higgs Capitolo 2 Il Large Hadron Collider e l’esperimento CMS Entro la fine del 2008 entrerà in funzione il collisore adronico Large Hadron Collider (LHC) al CERN. Diversi esperimenti sono stati progettati e costruiti per studiare le collisioni prodotte a LHC, e allargare le frontiere della fisica. In questo capitolo descriverò le caratteristiche di LHC e dell’esperimento CMS. 2.1 Il Large Hadron Collider Il Large Hadron Collider è un acceleratore in cui verranno fatti collidere fasci di protoni √ a un’energia nel centro di massa ( s) di 14 TeV1 . Allo stato attuale, l’acceleratore più energetico mai costruito è il Tevatron a Fermilab, che dispone di quasi 2 TeV nel centro di massa. Le energie raggiunte da LHC saranno 7 volte maggiori, e permetteranno di scandagliare una regione energetica mai lambita. A differenza di acceleratori elettronici, quale ad esempio il Large Electron-Positron Collider (LEP), un acceleratore adronico permette di produrre reazioni a energie variabili. Dato che le interazioni avvengono a livello partonico, infatti, il centro di massa effettivo è quello fra i partoni interagenti, e dipende dalle loro funzioni di densità di probabilità energetiche. Di conseguenza le reazioni avvengono a energie inferiori all’energia nel centro 1 LHC attuerà anche un programma di ricerca basato su collisioni di ioni pesanti (nuclei di piombo). Non essendo rilevante ai fini di questa tesi, non ne verrà fatta menzione. 24 Il Large Hadron Collider e l’esperimento CMS Tabella 2.1 Caratteristiche principali di LHC. I valori contrassegnati da un asterisco (*) si riferiscono alla prestazione attesa a pieno regime. Circonferenza √ s 26.7 km 14 TeV Luminosità (L) 1034 cm−2 s−1 Numero di protoni per pacchetto 1.15 · 1011 (∗) (∗) (∗) Lunghezza dei pacchetti (σz ) 56 mm Raggio dei pacchetti (σx = σy ) 16 µm Numero di pacchetti 2808 Spazio fra i pacchetti 7.48 m = 25 ns di massa dei protoni incidenti. Tuttavia 14 TeV sono sufficienti per avere accesso, per la prima volta, alla scala energetica del TeV. A tali energie, inoltre, il contributo dei partoni del mare diventa importante, rendendo sostanzialmente equivalenti gli schemi di collisione protone-protone (pp) e protoneantiprotone (pp̄). Quest’ultima opzione, tuttavia, avrebbe l’inconveniente di dover produrre antimateria, il che comporterebbe inefficienze e comprometerebbe la luminosità della macchina. A un acceleratore elettronico, inoltre, la precisione con cui si conosce l’energia di interazione e i valori bassi di sezione d’urto permettono di fare misure di precisione anche con un numero relativamente esiguo di eventi. A un acceleratore adronico, invece, le sezioni d’urto di interazione sono molto più elevate, rendendo fondamentale accumulare un gran numero di eventi per effettuare misure in cui si riesca a limitare il ruolo del fondo. Per questo motivo, oltre ad avere un’elevata energia nel centro di massa, una caratteristica importante di LHC è l’alta luminosità. La luminosità (L) di un acceleratore circolare è definita come: L= Np2 f k 4πσx σy ove Np è il numero di protoni in un pacchetto, f è la frequenza di rivoluzione dei protoni nell’anello, k è il numero di pacchetti circolanti contemporaneamente nell’anello e σx e σy 2.1 Il Large Hadron Collider 25 sono le dispersioni medie del pacchetto nelle direzioni (x e y) ortogonali all’orbita. Si prevede che LHC entrerà in funzione entro il 2008. Le sue caratteristiche principali sono riportate nella Tabella (2.1). La sua attività sarà distinta in diverse fasi: • una prima fase di collaudo a √ s = 10 TeV; √ • una seconda fase all’energia nel centro di massa nominale ( s = 14 TeV) e bassa luminosità (L ≈ 1033 cm−2 s−1 ); √ • una fase a pieno regime ( s = 14 TeV, L = 1034 cm−2 s−1 ) La prima fase dovrebbe estendersi solamente per l’anno 2008, in cui ci si aspetta di R raccogliere una luminosità integrata pari a circa L dt = 40-50 pb−1 di dati. L’energia nel centro di massa dovrebbe raggiungere i valori di progetto già a partire dal 2009. Con una luminosità dell’ordine di 1033 cm−2 s−1 ci si aspetta di raccogliere ogni anno una luminosità integrata di 10 fb−1 , mentre ad alta luminosità un totale annuo di 100 fb−1 . Il programma scientifico di LHC è vasto e ambizioso. Il principale obiettivo nel breve termine, come già detto, è di chiarire definitivamente il fenomeno che causa la rottura spontanea della simmetria elettrodebole, andando alla ricerca di un bosone di Higgs compatibile con il Modello Standard o con il MSSM. Si propone inoltre di fornire le prime evidenze sperimentali di fisica oltre il Modello Standard, come ad esempio la Supersimmetria o le extra-dimensioni, e cercherà di spiegare, fra le altre, la natura della materia oscura e del plasma quark-gluonico. Si potrà inoltre mettere alla prova il Modello Standard con misure di precisione e verrà indagato a fondo il fenomeno della violazione della simmetria CP . In Figura (2.1) sono riportati gli andamenti delle sezioni d’urto di alcuni processi in collisioni protone-protone, oltre all’andamento della sezione d’urto totale. Confrontando i valori previsti per LHC con quelli del Tevatron, si vede che le sezioni d’urto a LHC saranno almeno di un ordine di grandezza maggiori per quanto riguarda tutti i processi considerati [17]. Il valore atteso per la sezione d’urto di interazioni inelastiche protone-protone è di circa 60 mb, mentre la sezione d’urto totale sarà intorno ai 100 mb. Con LHC a pieno regime ci si aspettano dunque almeno 20 interazioni per incrocio dei pacchetti, il che risulterà in una grande molteplicità di particelle prodotte, sia cariche che neutre. Combinato con il tasso di incrocio di 25 ns, ciò comporta dei requisiti molto stringenti per i rivelatori che intendono prendere parte al progetto: • una granularità fine, per risolvere il gran numero di particelle; 26 Il Large Hadron Collider e l’esperimento CMS Figura 2.1 Sezioni d’urto in collisioni protone-protone in funzione dell’energia del centro di massa. Sono evidenziate le energie di LEP (“CERN”), del Tevatron (“Fermilab”) e di LHC. • un’elevata velocità di risposta, per minimizzare la sovrapposizione di eventi (pile up); • un sistema di selezione e acquisizione degli eventi rapido ed efficiente; • una buona resistenza alla radiazione. Quattro rivelatori studieranno le interazioni prodotte a LHC: due rivelatori a uso generale, CMS (Compact Muon Solenoid) [19] e ATLAS (A Toroidal LHC ApparatuS) [20], un rivelatore dedicato alla fisica del quark bottom (LHCb) [21], e un rivelatore per collisioni di ioni pesanti, ALICE (A Large Ion Collider Experiment) [22]. 2.2 L’esperimento CMS Figura 2.2 2.2 27 Il rivelatore Compact Muon Solenoid. L’esperimento CMS L’esperimento CMS è stato progettato specificamente per scoprire il bosone di Higgs, anche con basse luminosità, nonché per cercare indizi di nuova fisica a LHC. Per ottenere questi risultati nell’ambiente sperimentalmente impegnativo previsto a LHC, la collaborazione si è posta i seguenti obiettivi: • un sistema ottimale per l’identificazione e la misura dei muoni. Questo ha portato alla scelta di un magnete superconduttore solenoidale capace di produrre un campo magnetico di 4 T, con i rivelatori per muoni immersi nel ferro di ritorno, permettendo quindi un sistema muonico compatto; • il miglior calorimetro elettromagnetico possibile compatibile con le dimensioni del magnete; • un sistema tracciante centrale efficiente e preciso nella misura dell’impulso e nella ricostruzione delle tracce di particelle cariche; 28 Il Large Hadron Collider e l’esperimento CMS Figura 2.3 Valori assunti dalla pseudorapidità (η) in corrispondenza di alcuni angoli polari (θ). • un calorimetro adronico adeguato e altamente ermetico per avere una buona misura dell’energia trasversa mancante. La struttura del rivelatore CMS è presentata in Figura (2.2). Ha una forma cilindrica di raggio 7.5 m e lunghezza 22 m, e pesa circa 12 500 tonnellate. È suddiviso in una regione centrale (barrel ), chiusa da ambo i lati da due endcap identici. Al suo interno è visibile il magnete superconduttore, lungo 13 m e con un raggio di 3 m. Il magnete è abbastanza largo da poter ospitare al suo interno il sistema tracciante interno e i calorimetri. Alla costruzione di CMS hanno partecipato migliaia di fisici provenienti da 159 istituti di 36 paesi diversi. Il rivelatore è attualmente installato nel punto di interazione 5 di LHC, a circa 80 m di profondità, vicino a Cessy, in Francia. La sua costruzione è ormai completata: l’esperimento è pronto per analizzare le prime collisioni. Il sistema di assi coordinati adottato da CMS ha l’origine posta nel punto di interazione nominale dei fasci, con l’asse y che punta verso l’alto e l’asse x radialmente verso il centro geometrico di LHC. L’asse z punta quindi lungo la direzione dei fasci di protoni. L’angolo azimutale φ è misurato dall’asse x sul piano xy, mentre quello polare (θ) è misurato dall’asse z. La pseudorapidità (η), definita come η = − ln tan θ 2 risulta essere una quantità utile dal momento che per energie elevate è una buona approssimazione della rapidità (y) di una particella, definita come 1 y = ln 2 E + pL E − pL 2.3 Sistema di tracciamento interno Tabella 2.2 29 Dose di radiazione e flusso di particelle cariche attesi per diversi strati radiali del barrel del sistema tracciante di CMS, per una luminosità integrata di 500 fb−1 . Raggio Dose di radiazione Flusso di particelle cariche (cm) (kGy) (cm−2 s−1 ) 4 840 108 22 70 6 · 106 115 1.8 3 · 105 ove con pL si è indicata la componente dell’impulso parallela alla linea dei fasci. La rapidità è una quantità le cui differenze sono invarianti relativistici per trasformazioni di Lorentz lungo la direzione dei fasci. In Figura (2.3) sono riportati i valori assunti da η in corrispondenza di alcuni angoli θ. Verranno infine denotati rispettivamente con pT e ET l’impulso e l’energia misurati nel piano trasverso (xy) al fascio. La componente trasversa dell’energia è definita come ET = E · sin θ, ove E è l’energia depositata in una cella calorimetrica e θ è l’angolo polare della posizione della cella. Descriveremo ora nel dettaglio i vari sottorivelatori che costituiscono CMS. Maggior attenzione sarà posta sul calorimetro elettromagnetico (ECAL), fondamentale per il lavoro svolto in questa tesi. 2.3 Sistema di tracciamento interno Il sistema di tracciamento interno serve a ricostruire le tracce delle particelle cariche e misurarne l’impulso. Per la prima volta in un esperimento in fisica delle particelle, il sistema tracciante è interamente affidato all’utilizzo del silicio. Il principale obiettivo del sistema tracciante è quello di ricostruire elettroni e muoni isolati e di elevato impulso trasverso con efficienza maggiore di 95%, e tracce di alto pT entro jet con efficienza maggiore di 90% nell’intero intervallo di pseudorapidità |η| < 2.5. Il tutto in un ambiente altamente radioattivo e con alta molteplicità di particelle, come si vede in Tabella (2.2), ove sono riportati i flussi di particelle attesi per la luminosità di progetto [23]. Facendo sempre riferimento alla Tabella (2.2), si possono identificare 3 regioni: 30 Il Large Hadron Collider e l’esperimento CMS Figura 2.4 Sezione di un quarto del sistema tracciante interno di CMS. Sono segnati alcuni valori di pseudorapidità. • in prossimità del vertice di interazione, ove il flusso di particelle è maggiore, sono presenti dei rivelatori a pixel. La dimensione del pixel è di circa 100 × 150 µm2 , ottenendo un’occupanza di circa 10−4 per pixel a ogni incrocio dei fasci; • nella regione intermedia (20 < r < 55 cm), il flusso è abbastanza basso da permettere l’uso di microstrisce di silicio, con celle di dimensione minima di 10 cm × 80 µm, il che comporta un’occupanza di circa 0.2 - 0.3 per incrocio; • nella regione esterna (r > 55 cm), il flusso diminuisce talmente da rendere possibile l’utilizzo di strisce di silicio più larghe, con celle di dimensione massima pari a 25 cm × 180 µm, mantenendo l’occupanza intorno al percento; Una sezione del sistema di tracciamento interno di CMS è visibile in Figura (2.4). Vicino al vertice di interazione sono stati posti 3 strati di pixel di silicio, rispettivamente a distanze radiali di 4.7, 7.3 e 10.2 cm. Nel barrel sono poi poste le microstrisce di silicio, a r fra 20 e 110 cm. La regione in avanti ha invece 2 strati di pixel, e 9 strati di microstrisce in ogni endcap. La regione di microstrisce del barrel è separata in due regioni, una interna e una esterna. Per evitare che le particelle incidano sui rivelatori ad angoli troppo piccoli, la regione interna del barrel è più corta di quella esterna, e sono stati posti 3 strati addizionali, a forma di disco (Inner Discs) nello spazio compreso fra il bordo della regione interna e l’endcap, su entrambi i lati del barrel. Complessivamente il sistema di tracciamento interno conta 66 milioni di pixel e 9.6 milioni di strisce di silicio. Fornisce una copertura fino a |η| < 2.4. 2.3 Sistema di tracciamento interno 31 Figura 2.5 Spettro in pseudorapidità della risoluzione in impulso trasverso ottenuta con il sistema tracciante di CMS. Le curve fanno riferimento a muoni di impulsi trasversi di 1, 10 e 100 GeV. Figura 2.6 Efficienza di ricostruzione di traccia del sistema tracciante interno di CMS. Risultati ottenuti per muoni (a sinistra) e pioni carichi (a destra) di impulsi trasversi di 1, 10 e 100 GeV. 32 Il Large Hadron Collider e l’esperimento CMS I pixel di silicio forniscono una precisione di misura di 10 µm per le coordinate nel piano trasverso (xy), e di 20 µm per la coordinata z. Le microstrisce forniscono una risoluzione che dipende dallo spessore della cella, ma risulta comunque migliore di 55 µm nel piano trasverso [23]. Complessivamente, la risoluzione sull’impulso trasverso ottenuta con il sistema tracciante interno di CMS è riportata in Figura (2.5). L’efficienza di ricostruzione, per muoni e pioni carichi, è invece riportata in Figura (2.6). 2.4 Calorimetro elettromagnetico Il calorimetro elettromagnetico (ECAL) di CMS è un calorimetro ermetico e omogeneo, costituito da 61 200 cristalli di tungstato di piombo (PbWO4 ) nella regione del barrel e chiuso da 7324 cristalli in ognuno dei due endcap. L’obiettivo del calorimetro elettromagnetico è misurare con alta precisione l’energia di particelle eletromagnetiche, oltre che, in combinazione con il calorimetro adronico, fornire una ricostruzione dell’energia dei jet adronici. Il calorimetro elettromagnetico svolge un ruolo fondamentale nella ricerca del bosone di Higgs, specialmente nei canali di decadimento H → γγ e H → ZZ (∗) → 4e± /2e± 2µ± . Come visto nel capitolo precedente, infatti, negli intervalli di massa in cui verrebbero sfruttati questi canali di decadimento per la sua scoperta, la larghezza intrinseca dell’Higgs è piccola e la risoluzione sperimentale è dominante per l’incertezza sulla misura della massa. Il canale di decadimento in due fotoni, in particolare, è stato usato come punto di riferimento cardinale nell’ottimizzazione della progettazione del calorimetro elettromagnetico di CMS. Le difficoltà sperimentali di questo canale hanno portato la collaborazione alla scelta di un calorimetro elettromagnetico di eccellente risoluzione energetica e granularità fine per massimizzare la risoluzione nella misura della massa invariante di due fotoni. Per questo motivo si è optato per un calorimetro omogeneo, di grande precisione, con una massa sensibile formata di cristalli scintillanti. Nei paragrafi seguenti verranno descritte nel dettaglio le principali caratteristiche del calorimetro elettromagnetico di CMS. 2.4.1 I cristalli di P bW O4 La scelta del tungstato di piombo (PbWO4 , più semplicemente PWO) è stata motivata dalla compattezza, rapidità di risposta e resistenza alla radiazione di questo materiale. 2.4 Calorimetro elettromagnetico Tabella 2.3 33 Principali caratteristiche dei cristalli di PWO e confronto con altri cristalli scintillanti. Gli apici f e s corrispondono rispettivamente alle componenti di emissione principale (fast) e secondaria (slow). NaI(Tl) BGO CeF3 BaF2 PWO X0 (cm) 2.57 1.12 1.68 2.05 0.89 ρ (g cm−2 ) 3.67 7.13 6.16 4.89 8.18 4.5 2.4 2.6 3.4 2.2 1.85 2.20 1.68 1.56 2.29 1 0.15 0.10 0.05f 0.01 RM (cm) n LY (a.u.) 0.20s τ (ns) λ (nm) 250 410 300 480 10f 0.7f 5f 30s 620s 15s 310f 220f 440f 340s 310s 480s Le principali caratteristiche del PWO, confrontate con quelle di altri cristalli scintillanti, sono riportate in Tabella (2.3) [24]. La lunghezza di radiazione (X0 ) rappresenta la distanza longitudinale nella quale un elettrone, attraversando il materiale, perde in media 1/e della sua energia attraverso processi di diffusione. Il calorimetro elettromagnetico deve assicurare il completo contenimento dello sciamo elettromagnetico fino a energie dell’ordine del TeV. Per tali energie il 98% dello sviluppo longitudinale dello sciame è contenuto in 25 X0 . Il raggio di Molière (RM ) è invece una grandezza usata nella descrizione dello sviluppo trasversale dello sciame. È definita come RM = 21.2 MeV × X0 EC (MeV) ove EC è detta energia critica e rappresenta l’energia alla quale la perdita media di energia per ionizzazione eguaglia quella persa per bremsstrahlung. In media, il 90% dell’energia 34 Il Large Hadron Collider e l’esperimento CMS di uno sciame elettromagnetico è depositata in un cilindro di raggio RM costruito attorno all’asse dello sciame. Le principali caratteristiche di scintillazione di un cristallo utilizzato in calorimetria sono la quantità di luce di scintillazione emessa (light yield ) e il tempo di emissione (τ ). Il light yield (LY) viene generalmente misurato come il numero di fotoni emessi per MeV di energia depositata all’interno del cristallo. In tabella è riportato il light yield normalizzato a quello dello ioduro di sodio drogato con tallio (NaI(Tl)). Per completezza, in tabella sono riportate quantità addizionali: la densità (ρ), l’indice di rifrazione (n) e la lunghezza d’onda di emissione della luce (λ). Il PWO è stato scelto per i seguenti motivi: • la piccola lunghezza di radiazione (0.89 cm) permette la costruzione di un calorimetro estremamente compatto: con cristalli lunghi 23 cm si ottengono 25.8 X0 , assicurando un ottimo contenimento longitudinale degli sciami fino a grandi energie; • il piccolo raggio di Molière consente un efficace contenimento laterale degli sciami e contemporaneamente una buona granularità; • la velocità di risposta elevata permette di raccogliere gran parte della luce di scintillazione fra due incroci successivi (l’80% della luce è emessa entro 25 ns), minimizzando gli effetti del pile up; • la sua buona resistenza alla radiazione lo rende utilizzabile per decine di anni di attività a LHC ad alta luminosità. Il PWO è insensibile alla radiazione di neutroni, ma l’irraggiamento da fotoni induce la formazione di centri di colore nel cristallo che possono degradare la trasparenza, e quindi in ultima analisi la resa di luce. Studi accurati [25] hanno evidenziato una correlazione fra la resistenza alla radiazione e la trasmissione ottica dei cristalli. È stato inoltre osservato che un particolare tipo di drogaggio a base di niobio (Nb) rende lo spettro di trasmissione ottimale e contemporaneamente massimizza la resistenza alla radiazione del cristallo. Il tungstato di piombo presenta tuttavia degli inconvenenti. Innanzitutto, gran parte dell’energia immagazzinata nel cristalli viene dissipata in emissioni termiche da parte del reticolo cristallino. Di conseguenza il light yield risulta essere molto basso (circa 30 fotoni/MeV), rendendo necessario l’utilizzo di fotorivelatori con un sistema di amplificazione. In CMS si utilizzano fotodiodi a valanga (APD) nel barrel e fototriodi a vuoto (VPT) negli endcap. La scelta di questo tipo di amplificatori è stata motivata dalla loro buo- 2.4 Calorimetro elettromagnetico (a) Figura 2.7 35 (b) (a) Struttura di un APD; (b) Profilo del campo elettrico di un APD in funzione della distanza dallo strato p++ . na efficienza quantica per lunghezze d’onda nella regione dell’emissione del PWO, dalla sostanziale insensibilità alla presenza del campo magnetico e dalla loro compattezza. Un secondo problema connesso alla dissipazione termica dell’energia assorbita è la dipendenza della quantità di luce emessa dalla temperatura del cristallo. Il PWO presenta una variazione percentuale pari a −2%/◦ C a 18◦ C. Per assicurare una risposta costante e affidabile del rivelatore è necessario quindi mantenere stabile la sua temperatura, il che ha motivato la costruzione di un sistema di raffreddamento idraulico in grado di garantire una temperatura operativa di (18 ± 0.05) ◦ C. 2.4.2 Fotorivelatori Nel barrel i fotorivelatori sono fotodiodi a valanga (APD) a struttura invertita (ovvero con il silicio di tipo n dietro alla giunzione p-n), sviluppate dalla ditta Hamamatsu specificatamente per il calorimetro di CMS. Uno schema della struttura degli APD è riportato in Figura (2.7a) [26]. I fotoni di scintillazione prodotti nel cristallo entrano nel fotodiodo dallo strato p++ (in figura, dall’alto) per essere assorbiti nel successivo strato p+ , creando una coppia elettrone-lacuna. L’elettrone formatosi, a sua volta, è accelerato dal forte campo elettrico prodotto dalla giunzione p-n (l’andamento del profilo del campo è riportato in Figura (2.7b)), liberando altri elettroni per ionizzazione. Gli elettroni liberati migrano verso lo 36 Il Large Hadron Collider e l’esperimento CMS Tabella 2.4 Principali caratteristiche degli APD Hamamatsu. Area sensibile 5 × 5 mm2 Voltaggio operativo 340-430 V Efficienza quantica a 430 nm (75 ± 2) % Capacità Dipendenza del guadagno dal voltaggio Dipendenza del guadagno dalla temperatura Corrente oscura (80 ± 2) pF (3.1 ± 0.1) %/V (−2.4 ± 0.2) %/◦ C < 50 nA Corrente oscura tipica 3 nA Corrente oscura dopo irraggiamento con 2 × 1012 n/cm 5 µA strato n++ dove vengono raccolti. Le principali caratteristiche degli APD Hamamatsu sono riportate in Tabella (2.4) [23]. Le motivazioni che hanno portato alla loro scelta sono: • elevato guadagno interno, regolabile fino a 200 (il valore operativo è 50); • buona efficienza quantica; • bassa capacità e bassa corrente di saturazione inversa; • resistenza alle radiazioni sufficiente per lavorare nella regione centrale di ECAL; • compattezza; • insensibilità al campo magnetico; • ridotta risposta alle particelle cariche grazie al piccolo spessore della regione di moltiplicazione (' 5 µm). Gli APD hanno un’area attiva di 5 × 5 mm2 . Per migliorare la raccolta di luce sono stati incollati due APD sulla faccia posteriore di ogni cristallo del barrel. La resistenza alle radiazioni degli APD è stata verificata, facendo particolare attenzione alla resistenza all’irraggiamento da neutroni [27]. Non è stata riscontrata variazione apprezzabile nel guadagno fino a flussi di neutroni di circa 1013 neutroni/cm2 , mentre è 2.4 Calorimetro elettromagnetico Figura 2.8 37 Struttura di un VPT. Le distanze sono espresse in mm. stato osservato un aumento lineare della corrente oscura, fino a valori di qualche µA per le massime dosi aspettate. Negli endcap si ha bisogno di fotorivelatori in grado di operare in condizioni di elevata radioattività e in presenza di un forte campo magnetico assiale. La quantità di radiazione prevista è infatti notevolmente maggiore di quella del barrel: il flusso di neutroni può raggiungere valori dell’ordine di 1015 neutroni/cm2 nelle regioni più vicine ai fasci. Per questo motivo non possono essere utilizzati gli APD. Si è deciso di utilizzare dei fototriodi a vuoto (VPT), la cui struttura è schematizzata in Figura (2.8) [26]. Il fototriodo è composto da un fotocatodo di vetro resistente alle radiazioni, un anodo a griglia posizionato a 4-5 mm dal fotocatodo, e un dinodo posto 2-3 mm dopo l’anodo. Tipicamente il fotocatodo è collegato a terra, l’anodo è a una differenza di potenziale rispetto a questo di circa 1000 V e il dinodo a una differenza di potenziale di circa 800 V. I fotoni di scintillazione provenienti dal cristallo colpiscono il fotocatodo, dove sono convertiti in fotoelettroni per effetto fotoelettrico. I fotoelettroni sono accelerati dal forte campo elettrico in direzione dell’anodo. Una larga parte di essi attraversa la griglia dell’anodo e colpisce il dinodo, dove vengono prodotti numerosi elettroni secondari (il fattore di emissione secondaria può arrivare a 20). Gli elettroni secondari cosı̀ creati sono di nuovo accelerati verso l’anodo, dove ne viene raccolta un’ampia frazione. Le principali caratteristiche dei VPT sono riportate in Tabella (2.5) [26]. 38 Il Large Hadron Collider e l’esperimento CMS Tabella 2.5 Principali caratteristiche dei VPT. Diametro esterno 22 mm Diametro utile del fotocatodo 15 mm Lunghezza complessiva 50 mm Corrente oscura Dipendenza del guadagno dal voltaggio Dipendenza del guadagno dalla temperatura Efficienza quantica a 450 nm 2.4.3 1-10 nA < 0.1 %/V < 1 %/◦ C > 15 % Guadagno effettivo a B = 0 T 12 Guadagno effettivo a B = 4 T 7 Geometria Il calorimetro elettromagnetico ha una struttura cilindrica. La parte centrale del cilindro, detta barrel, copre la regione di pseudorapidità corrispondente a |η| < 1.479; il barrel è chiuso a entrambe le estremità da due strutture identiche laterali, detti endcap, che raggiungono |η| = 3. Di fronte a quasi tutta la regione fiduciale degli endcap (1.653 < |η| < 2.6) è posto un rivelatore che fornisce informazioni sullo sviluppo trasversale dello sciame (preshower). La Figura (2.9a) mostra una prospettiva della struttura di ECAL. In Figura (2.9b) si vede invece una sezione di un quarto del calorimetro. Il barrel ha un raggio interno di 129 cm. È costituito da 61 200 cristalli, corrispondenti a una granularità di 360 cristalli in φ e di (2 × 85) cristalli in η. I cristalli hanno forma troncopiramidale e sono montati in una geometria quasi proiettiva di modo che i loro assi formano un angolo di 3◦ con la congiungente al vertice di interazione nominale. Un singolo cristallo corrisponde approssimativamente a un passo di 0.0174 × 0.0174 nel piano η − φ (quest’ultimo misurato in radianti), corrispondente a 22 × 22 mm2 all’estremità frontale e 26 × 26 mm2 all’estremità posteriore. Sono lunghi 23 cm, corrispondenti a 25.8 X0 . Un cristallo e i due APD incollati sulla sua faccia posteriore costituiscono una sottounità. Le sottounità sono montate in strutture alveolari fatte di sottili lamine di fibra di vetro, detti sottomoduli (vedi Figura (2.10a)), costituiti da 5 paia di sottounità. I sottomoduli sono quindi assemblati a formare moduli (Figura (2.10b)), e 4 moduli formano un supermodulo (Figura (2.10c)). Il barrel è costituito di 36 supermoduli identici, ognuno dei 2.4 Calorimetro elettromagnetico (a) Figura 2.9 39 (b) (a) Visione prospettica della struttura di ECAL; (b) Sezione di un quarto di ECAL. Sono evidenziati alcuni valori di pseudorapidità e il preshower. quali copre metà della sua lunghezza. Gli endcap sono posti a una distanza longitudinale di 3 144 mm dal punto di interazione, tenendo conto dello spostamento di circa 2.6 cm verso il centro causata dall’accensione del campo magnetico. Sono formati da cristalli identici, di faccia anteriore di dimensioni 28.62 × 28.62 mm2 , lunghezza pari a 220 mm (24.7X0 ), e faccia posteriore di 30 × 30 mm2 . I cristalli sono raggruppati in unità meccaniche di 5 × 5 cristalli, dette supercristalli (SC), fatte con una struttura alveolare in fibra di carbonio. A valori di pseudorapidità maggiori di 2.5, il livello di radiazione e l’elevata molteplicità di particelle rendono impossibili misure di precisione. I cristalli più vicini ai fasci si usano solamente per misurare l’energia trasversa dell’evento e congiuntamente al calorimetro adronico per ricostruire i jet. Nell’intervallo di pseudorapidità 1.653 < |η| < 2.6 si impiega un rivelatore, detto preshower, a forma di corona circolare di raggio interno pari a 45.7 cm e raggio esterno di 1.23 m. È un calorimetro a campionamento con 2 strati, e utilizza un campionatore di piombo e un rivelatore a strisce di silicio. Gli strati di piombo (rispettivamente di 2 e 1 X0 ) provocano lo sviluppo di sciami elettromagnetici da parte di elettroni e fotoni entranti, e i rivelatori a strisce di silicio posti fra gli strati di piombo misurano l’energia depositata e il profilo laterale degli sciami stessi. L’obiettivo principale del rivelatore preshower è la distinzione fra fotoni e pioni neutri Questi ultimi infatti, decadono rapidamente in coppie di fotoni che ad alte energie possono essere molto vicini e quindi molto difficilmente separabili. È inoltre utile nella (π 0 ). 40 Il Large Hadron Collider e l’esperimento CMS (a) Figura 2.10 (b) (c) (a) Struttura di un sottomodulo; (b) Struttura di un modulo; (c) Struttura di un supermodulo. separazione fra elettroni e particelle al minimo di ionizzazione, e la sua granularità superiore a quella dei cristalli dell’endcap permette di determinare con maggior precisione la posizione di elettroni e fotoni. 2.4.4 Catena di lettura La catena di lettura del segnale dei cristalli presenta una struttura modulare, il cui elemento di base è costituito da una torre di trigger, formato da una matrice di 5 × 5 cristalli. Cinque coppie di APD sono connesse ad una scheda di elettronica, detta VFE (Very Front End), e cinque schede VFE sono collegate ad una scheda madre. Ciascuna scheda madre è collegata a una scheda di Front End (FE), dove vengono generate le quantità discriminanti per il trigger (trigger primitives), come ad esempio la somma delle energie depositate in una torre. Le schede VFE preamplificano, formano e nuovamente amplificano il segnale proveniente dagli APD; l’amplificazione e la formazione del segnale sono effettuate da un preamplificatore a guadagno variabile (Multi Gain Pre-Amplifier, o MGPA) un amplificatore dotato di tre sistemi paralleli di amplificazione con tre guadagni differenti (1, 6 e 12). Le tre uscite analogiche corrispondenti sono digitalizzate in parallelo da un ADC commerciale (AD41240) a 12 bit, il quale ha una logica integrata che seleziona, fra i tre, il segnale più alto non saturato. Il segnale digitale cosı̀ prodotto viene inviato alla scheda di FE dove si calcolano le grandezze fondamentali da inviare all’elettronica del trigger di Livello 1, che con una latenza di 3 µs trasmette i dati all’elettronica esterna al rivelatore attraverso un sistema di fibre ottiche. La Figura (2.11) mostra schematicamente la struttura della catena di lettura di ECAL. 2.4 Calorimetro elettromagnetico Figura 2.11 41 Schema della catena di lettura di ECAL. Ciascuna scheda madre contiene un regolatore di bassa tensione (LVR: Low Voltage Regulator Board) che fornisce la tensione di 2.5 V richiesta dai dispositivi CMOS. Quattro LVR ricevono la tensione da un quadro di distibuzione comune (LVD: Low Voltage Distribution Panel). Le schede madri ricevono anche l’alta tensione (High Voltage, HV) necessaria ad alimentare gli APD; ogni canale di HV alimenta con la stessa tensione due torri di trigger (50 cristalli, cioè 100 APD). 2.4.5 Risoluzione in energia La risoluzione in energia del calorimetro elettromagnetico può essere parametrizzata come σ S N =√ ⊕ ⊕C E E E (2.1) ove S è il termine stocastico, N il termine di rumore e C il termine costante. Il termine stocastico dipende dalle fluttuazioni nel numero di fotoni di scintillazione rivelati e nel numero di processi fisici attraverso cui le particelle perdono la loro energia nei cristalli. Il termine di rumore deriva dal rumore elettronico e dal pile-up. Il termine costante, invece, ha cause diverse: perdite dovute al non contenimento longitudinale, non uniformità nella raccolta di luce, intercalibrazione fra i cristalli e imperfezioni geometriche. I parametri che compaiono nella (2.1) sono stati misurati con fasci di prova, e sono 42 Il Large Hadron Collider e l’esperimento CMS attualmente stimati come [28]: S = 2.8% GeV1/2 N = 124 MeV C = 0.3% per elettroni che incidono al centro di un cristallo. 2.5 Calorimetro adronico Il ruolo del calorimetro adronico di CMS (HCAL) è di misurare le energie e le direzioni delle particelle dei jet adronici e stimare, insieme al calorimetro elettromagnetico, l’energia mancante degli eventi. Per questi motivi i due requisiti fondamentali sono la buona ermeticità e una buona granularità trasversa. Saranno inoltre importanti una buona risoluzione energetica e un sufficiente contenimento longitudinale delle cascate adroniche. Il calorimetro adronico è formato da un calorimetro centrale (|η| < 3), e da due calorimetri per alte rapidità (3 < |η| < 5). Si è optato per un calorimetro a campionamento che utilizza strati di rame come assorbitori e scintillatori plastici come materiale attivo. Ha una struttura “a piastrelle” (tile), parallele all’asse del fascio. È a sua volta suddiviso in una struttura cilindrica centrale (|η| < 1.3) e due endcap (1.3 < |η| < 3), per un totale di 2593 torri di trigger senza segmentazione longitudinale. Ha una granularità di ∆η × ∆φ = 0.087 × 0.087, corrispondente a quella delle torri di trigger di ECAL. Il calorimetro centrale ha una profondità di circa 7 lunghezze di interazione (λi ) e ha una risoluzione energetica di σ 100% =p ⊕ 8% E E(GeV) Una profondità di 7λi non è sufficiente per avere contenimento longitudinale completo delle cascate adroniche. Si è quindi deciso di inserire uno strato ulteriore dietro al solenoide, che fornisce 3λi ulteriori e migliora del 10% la risoluzione energetica per pioni di 300 GeV. I calorimetri per alte rapidità, collocati in un’ambiente di elevata dose di radiazione e molteplicità, sono calorimetri a campionamento fatti di ferro e fibre di quarzo. Le fibre sono di due lunghezze diverse: le più lunghe partono dalla faccia frontale del calorimetro , le più corte 22 cm dopo. In questo modo la componente elettromagnetica della cascata, che viene depositata nella parte iniziale del calorimetro, può essere ottenuta per sottrazione. È costituito da un totale di 1728 torri di trigger e ha una granularità di ∆η × ∆φ = 0.175 × 0.175. 2.6 Rivelatore per muoni Figura 2.12 2.6 43 Schema del rivelatore per muoni di CMS. Per i dettagli si veda il testo. Rivelatore per muoni Il rivelatore per muoni ha il compito di identificare e misurare i muoni, le uniche particelle cariche che sono in grado di attraversare i calorimetri senza esservi assorbite. La presenza di muoni nello stato finale è una caratteristica di molti processi interessanti di fisica. I requisiti più stringenti per le prestazioni del rivelatore di muoni provengono dal canale di decadimento del bosone di Higgs H → ZZ (∗) → 4µ. Il rivelatore per muoni è posto fuori dal magnete e copre le regione di pseudorapidità |η| < 2.4. È suddiviso in un barrel e due endcap, che fanno uso di tecnologie diverse. Sia nel barrel che negli endcap, tuttavia, il sistema è composto da quattro stazioni di misura, intervallate dal ferro del giogo di ritorno del magnete. In Figura (2.12) è visibile uno schema del sistema per muoni di CMS. La regione del barrel è costituita di piani di tubi a deriva (DT). Ogni stazione è costituita da una camera formata da 12 piani di tubi, per un totale di 195 000 tubi. Per gli endcap sono invece state scelte camere a strisce catodiche (CSC) per poter avere misurazioni di precisione anche in presenza di un forte campo magnetico ed elevata molteplicità di particelle. Le CSC sono camere proporzionali a molti fili il cui piano catodico è segmentato in strisce. Sono organizzate in moduli di sei strati. In aggiunta, sia nel barrel che negli endcap, sono state installate delle camere a piatti 44 Il Large Hadron Collider e l’esperimento CMS (a) Figura 2.13 (b) Risoluzione sull’impulso della traccia dei muoni nel barrel (a) e negli endcap (b). Sono mostrate le risoluzioni ottenute con il solo rivelatore per muoni (quadrati e linea tratteggiata), con il solo tracciatore interno (cerchi vuoti e linea puntinata) e per la combinazione dei due rivelatori (cerchi pieni e linea continua). resistivi (RPC) per svolgere la funzione di trigger. Le RPC sono camere a gas a piani paralleli che combinano una risoluzione spaziale ragionevole con una risoluzione temporale eccellente (3 ns), comparabile con quella di uno scintillatore. Costituiscono un sistema di trigger veloce e capace di identificare candidati muoni con elevata efficienza. Sono organizzate in 6 stazioni nel barrel e 4 in ogni endcap, per un totale di 612 camere. L’efficienza di ricostruzione delle tracce dei muoni è migliore del 90% per muoni fino a 100 GeV, e l’assegnazione di carica è corretta con una confidenza del 99%. In Figura (2.13) si mostra la risoluzione sulla traccia del muone usando il solo sistema per muoni, il solo tracciatore interno e la combinazione delle misure dei due rivelatori, per le parti centrali del barrel e degli endcap. Risoluzioni migliori del percento sono ottenute per tutto lo spettro di impulso considerato. Capitolo 3 Il canale H → γγ Sin dalla progettazione di LHC è stato studiato il canale di decadimento del bosone di Higgs in due fotoni (H → γγ) come il canale fondamentale per la sua scoperta nell’intervallo di massa che si estende dal limite di LEP fino a circa 150 GeV/c2 . La scelta di un canale cosı̀ raro (vedi il Capitolo 1) è motivata dal fatto che il decadimento favorito a tali masse (H → bb̄) è praticamente indistinguibile dal fondo nell’ambiente sperimentale di un collisore adronico. Questo rende la ricerca di un Higgs leggero un compito ben più difficile di quanto ci si aspetta a masse elevate. In questo capitolo verranno descritte le topologie aspettate per gli eventi di segnale e per i principali fondi. Si passerà quindi a tradurre questi concetti in variabili sperimentalmente misurabili, utili ai fini di un’analisi. Si descriverà infine il metodo con cui ricavare la misura della massa del bosone di Higgs con un’analisi di questo genere. 3.1 Studio delle caratteristiche del segnale Il bosone di Higgs, essendo neutro, non può essere accoppiato direttamente al fotone. Abbiamo tuttavia visto in 1.1.1 che l’accoppiamento del bosone di Higgs a una particella è proporzionale alla massa di quest’ultima. Dunque può decadere in due fotoni mediante loop di particelle cariche massive. I due contributi principali sono dati dal bosone W e dal quark top. I relativi grafici di Feynman sono riportati in Figura (3.1). La topologia aspettata nel caso degli eventi di segnale è dunque semplice. Il bosone di Higgs ha una massa almeno dell’ordine del centinaio di GeV e quindi decade in due fotoni di energia E = 12 mH , dell’ordine di 50 GeV. I bosoni di Higgs prodotti a LHC non sono fermi nel sistema del laboratorio, dunque le energie dei fotoni non sono monocromatiche. Il canale H → γγ 46 W H H (a) Figura 3.1 t (b) Contributi principali al decadimento del bosone di Higgs in due fotoni: (a) loop con il bosone W ; (b) loop con il quark top. In Figura (3.2) si vede lo spettro di energia trasversa per i fotoni di decadimento di un Higgs di massa pari a 120 GeV/c2 prodotto a LHC. Si cercano quindi eventi che presentino due fotoni con grande energia trasversa (ET ). u.a. Dal momento che non ci sono altre particelle nello stato finale del processo, inoltre, si vuole che i due fotoni siano isolati, ovvero, idealmente, non accompagnati da altre particelle nell’evento. I protoni, tuttavia, non sono particelle elementari: i processi che portano alla produzione dell’Higgs implicano la presenza di attività addizionale nel rivelatore, originata dalla loro rottura. In alcuni casi (ad esempio la fusione di bosoni vettori) questa attività può avere una conformazione tipica facilmente riconoscibile (nell’esempio citato, due jet a piccolo angolo). In alcuni casi, quando l’Higgs è prodotto in associazione ad altre particelle, si possono sfruttare i prodotti di decadimento di quest’ultime nella 3 2.5 2 1.5 1 0.5 0 Figura 3.2 40 60 80 100 120 140 ET [GeV] Spettro normalizzato di energia trasversa per fotoni di decadimento di un Higgs con mH = 120 GeV/c2 . 3.2 Studio dei fondi 47 (a) Figura 3.3 (b) Produzione di due fotoni in una collisione protonica. (a) Fusione di gluoni (box); (b) Annichilazione quark-antiquark (Born). caratterizzazione dell’evento, il che può contribuire ad aumentare l’efficienza di selezione. In questa analisi ci si è concentrati sulla rivelazione dei fotoni. Sono stati quindi considerati indistintamente tutti i canali di produzione del bosone di Higgs. Non si è fatto alcun uso dell’attività che può accompagnare i due fotoni di segnale. Uno studio di questo tipo potrebbe migliorare le prestazioni di questa analisi. 3.2 Studio dei fondi Qualunque evento che comporti la presenza di due depositi di energia in ECAL costituisce un fondo per questo canale. I fondi si suddividono generalmente in due categorie: i processi che presentano due fotoni reali ad elevata energia trasversa nello stato finale, e che quindi emulano perfettamente il segnale, sono detti irriducibili; gli eventi in cui almeno un jet dello stato finale viene interpretato come un fotone sono invece detti riducibili. In una collisione fra protoni, due fotoni si possono produrre attraverso la fusione di due gluoni o attraverso l’annichilazione di una coppia quark-antiquark. I diagrammi di Feynman di questi processi sono visibili in Figura (3.3). La presenza del loop fermionico nel diagramma relativo alla fusione di gluoni ha conferito a questo processo il nome box (dall’inglese di “scatola”). La produzione di fotoni mediante annichilazione di quark è invece solitamente indicata con il nome Born. Come già osservato, la topologia di questi eventi è identica a quella aspettata per il segnale. Presentano infatti due fotoni isolati ad elevata energia trasversa. Per ottenere un qualche potere discriminatorio fra questi eventi e il segnale, si potrebbero studiare le caratteristiche cinematiche dell’evento, come si vedrà in seguito. Gli eventi in cui almeno un jet dello stato finale è interpretato come fotone costituiscono i fondi riducibili per questo canale. I processi di questo tipo sono di due categorie: eventi con produzione di soli jet (pp → jets) ed eventi con produzione di un fotone e di almeno Il canale H → γγ 48 un jet (pp → γ + jets). Per costituire effettivamente un fondo, i jet devono depositare un gran quantitativo di energia nel calorimetro elettromagnetico, simulando lo sciame elettromagnetico di un fotone di segnale. Devono dunque avere al loro interno una particella energetica in grado di produrre un deposito del genere, che sia un fotone reale, un elettrone, o un adrone che decada elettromagneticamente (π 0 , η, η 0 , ρ, ω). In ogni caso, però, il candidato fotone cosı̀ prodotto ha un’importante differenza rispetto al segnale: è parte di un jet, e quindi non isolato. Nella rivelazione di questi eventi, dunque, si dovrebbe riscontrare dell’attività vicino ad esso, che siano tracce ricostruite nel tracciatore interno, depositi addizionali in ECAL o celle accese in HCAL. Per completezza, infine, sono stati presi in considerazione quali fondo riducibile gli eventi di tipo Drell Yan in cui una coppia quark-antiquark si annichila in un fotone o un bosone Z, il quale poi decade in una coppia elettrone-positrone (q q̄ → γ/Z (∗) → e+ e− ). Questo tipo di processo forma due depositi di energia in ECAL e può quindi costituire un fondo nel caso in cui non vengano ricostruite correttamente le tracce degli elettroni. Nei pressi della risonanza del bosone Z, inoltre, la sezione d’urto del processo aumenta fino a poter rendere rilevante il numero di eventi che simulano il segnale, rendendolo un fondo importante nella ricerca di Higgs molto leggeri. 3.3 Misura della massa del bosone di Higgs Definito un criterio di selezione, si avranno degli eventi con coppie di candidati fotoni. I fotoni provenienti dal decadimento del bosone di Higgs avranno una massa invariante sostanzialmente monocromatica (a meno della risoluzione del rivelatore), mentre i candidati fotoni del fondo costituiranno uno spettro continuo di massa invariante. Considerato il fatto che il fotone è privo di massa, la massa invariante di una coppia di fotoni è data da: Mγγ = p 2E1 E2 (1 − cos ∆α) (3.1) ove E1 ed E2 sono rispettivamente le energie dei due fotoni e ∆α l’angolo relativo fra di essi. La scoperta del bosone di Higgs nel canale di decadimento in due fotoni avrà l’aspetto di un picco nello spettro di massa invariante delle coppie di fotoni selezionate. Affinché tale picco non sia attribuibile a una fluttuazione statistica del fondo, deve essere valutato 3.4 Ricostruzione di fotoni in ECAL 49 il contributo del fondo (b) sotto al picco mediante un fit alla distribuzione osservata ai lati di esso. Il contributo del supposto segnale (s) è ottenibile per sottrazione. Ipotizzando una distribuzione di Poisson delle fluttuazioni statistiche nel numero di eventi, la significanza σ del segnale è definita come s σ=√ b Quando questo numero è maggiore di 5 la probabilità che il relativo picco sia stato provocato da una fluttuazione casuale è minore di 5.7 × 10−5 . Per una significanza σ > 5 viene dunque proclamata la scoperta. Per una significanza σ > 3, la probabilità di una fluttuazione casuale del fondo è dell’ordine di 10−3 . È recentemente diventato usuale dichiarare una evidenza in corrispondenza di una fluttuazione di questa magnitudine. La larghezza del picco dipende sostanzialmente dalla risoluzione nella misura della massa invariante, dal momento che la larghezza intriseca dell’Higgs è trascurabile. Come si vede dalla (3.1), la risoluzione può dipendere da due fattori: dalla risoluzione nella misura dell’energia dei due fotoni e dalla risoluzione nella misura dell’angolo relativo (ovvero della loro direzione). I pacchetti di protoni accelerati a LHC avranno una sezione trascurabile nel piano trasverso all’orbita ma una deviazione standard di circa 7.5 cm nella direzione z, che comporta una dispersione longitudinale di circa 5.3 cm nella distribuzione dei vertici di interazione. Ipotizzare che il fotone sia prodotto nel vertice nominale di interazione (l’origine delle coordinate di CMS) può corrispondere a un errore di qualche centimetro, ovvero, per un fotone che incide al centro del barrel (η ≈ 0), di un errore di qualche grado nella valutazione della sua direzione. Per avere una buona risoluzione nella misura della massa invariante è dunque importante riuscire a misurare la posizione del vertice reale di interazione. I fotoni non sono particelle cariche, quindi non forniscono tracce utili a questo fine. È tuttavia possibile utilizzare le tracce delle altre particelle prodotte nell’evento (nella rottura dei protoni, ad esempio) per localizzare i vertici di decadimento dell’Higgs. 3.4 Ricostruzione di fotoni in ECAL Si delinea quindi il leit motiv di questa analisi: la ricerca di eventi con due candidati fotoni isolati. Un fotone rilascia tutta la sua energia nei cristalli del calorimetro elettromagnetico di CMS, dunque un candidato fotone è in prima istanza un deposito energetico in ECAL. 50 Il canale H → γγ Il deposito, tuttavia, può estendersi su diversi cristalli, rendendo necessario, in una misura accurata, lo sviluppo di algoritmi che provvedano al corretto recupero di tutta l’energia. La dimensione trasversale dei cristalli è stata scelta pari al raggio di Molière del PWO, dunque per un fotone incidente al centro della faccia frontale di un cristallo, il 90% circa della sua energia è contenuta in esso. Per ricostruire correttamente l’energia del fotone è necessario quindi raggruppare, secondo un criterio, più cristalli adiacenti e sommare la loro energia. L’insieme di cristalli cosı̀ ottenuto viene solitamente chiamato cluster, mentre il procedimento di scelta e raggruppamento algoritmo di clusterizzazione. Il deposito energetico di uno sciame elettromagnetico prodotto in ECAL è generalmente costituito da un massimo energetico locale immerso in una regione spazialmente connessa di depositi energetici (bump). La procedura di ricostruzione deve quindi individuare i cristalli (seed ) in cui è stata depositata un’energia maggiore dei suoi adiacenti, e cominciare ad includere i cristalli vicini cercando di recuperare la massima frazione dell’energia dello sciame. Il processo di clusterizzazione deve tuttavia fare attenzione a non includere depositi relativi ad altre particelle o il rumore del rivelatore. Per ridurre l’influenza delle fluttuazioni del rumore, si utilizza un procedimento chiamato soppressione degli zeri. Consiste nel mascherare il contributo di cristalli in cui venga registrata un’energia entro 3 deviazioni standard dal valor medio del rumore. Il mascheramento implica che il valore dell’energia di tali cristalli viene posto a zero. Nel caso di un fotone (o di un elettrone) che incide in ECAL il bump dovrebbe riprodurre perfettamente la cluster shape dello sciame. Ai bordi di esso, tuttavia, dove i depositi energetici sono comparabili con in rumore, si corre il rischio che dell’energia appartenente allo sciame venga ignorata nel corso della soppressione degli zeri, o che una vistosa fluttuazione del rumore simuli la presenza di un secondo bump. Per evitare questi problemi si può scegliere di aprire matrici di dimensioni fisse attorno al seed. Un procedimento di questo tipo è infatti meno incline a subire questo tipo di problemi rispetto a una procedura di ricerca di bump. Si può calcolare ad esempio che il 94% dell’energia del fotone è depositata in una matrice 3 × 3 attorno al seed, mentre il 97% in una matrice 5 × 5. Sino ad oggi sembra che effettivamente l’utilizzo di matrici fisse porti alla miglior risoluzione energetica per fotoni ed elettroni che incidono direttamente in ECAL. Tuttavia, nell’attraversare il materiale di fronte al calorimetro, i fotoni possono convertire in coppie elettrone-positrone (e+ e− ), mentre gli elettroni irradiano fotoni per bremsstrahlung. I depositi che vengono a formarsi sono quindi sparsi in regioni del calorimetro che possono essere più estese di quelle caratteristiche di uno sciame singolo. Questo porta alla necessità 3.4 Ricostruzione di fotoni in ECAL Figura 3.4 51 Illustrazione del procedimento di clusterizzazione dell’algoritmo Island nel barrel di ECAL. I seed sono cerchiati in nero. Le frecce indicano la raccolta sequenziale di cristalli a partire da un seed. Per i dettagli si veda il testo. di algoritmi di clusterizzazione più complessi e flessibili. 3.4.1 Algoritmi ad apertura dinamica In CMS si impiegano due algoritmi di clusterizzazione dinamici che vanno sotto il nome di algoritmo Island e algoritmo Hybrid [30]. Il primo si usa negli endcap di ECAL mentre il secondo nel barrel. L’algoritmo Island L’algoritmo Island inizialmente raccoglie i seed dell’evento, definiti come tutti i cristalli la cui energia trasversa (ET ) superi una certa soglia ET0 , eliminando i seed adiacenti a seed più energetici. Questi cristalli sono poi ordinati in ET decrescente. Cominciando dal seed più energetico, l’algoritmo raccoglie cristalli per formare il cluster. La sequenza di raccolta è schematizzata in Figura (3.4). Partendo dalla posizione del seed, l’algoritmo si muove nelle due direzioni in φ e raccoglie cristalli fino a che non incontra una risalita in energia o una “lacuna” causata dalla soppressione degli zeri. Si muove quindi di un passo nelle due direzioni di η e il procedimento è ripetuto. Allo stesso Il canale H → γγ 52 Figura 3.5 Un elettrone che irradia mediante bremsstrahlung forma in ECAL una serie di cluster energetici poco distanti nella direzione η. L’algoritmo Hybrid è ideato per raccoglierli con efficienza. modo i passi in η sono interroti quando si incontra una risalita in energia o una lacuna. Tutti i cristalli cosı̀ raccolti vanno a formare il cluster e non possono essere inclusi in cluster successivi, evitando in questo modo doppi conteggi. L’algoritmo Island è in grado di raggruppare nello stesso cluster l’energia di un elettrone e di un fotone poco energetico da esso irradiato, se sono vicini. Se l’angolo di apertura è abbastanza grande, è anche in grado di separare i due contributi dei fotoni di decadimento di un π 0 . L’algoritmo ha infine il vantaggio di dipendere da un solo parametro, ET0 . L’algoritmo Hybrid Un elettrone che attraversa il materiale del tracciatore irradia fotoni via bremsstrahlung. A causa dell’intenso campo magnetico, tuttavia, la traiettoria dell’elettrone sarà fortemente curvata. Di conseguenza i fotoni emessi formeranno una serie di depositi consecutivi che possono coprire una larga regione del calorimetro. Il processo è schematizzato in Figura (3.5). Similmente, nel caso di un fotone che converte in e+ e− , l’elettrone e il positrone prodotti, che hanno carica opposta, sono deviati in direzioni opposte dal campo magnetico e possono quindi incidere distanti su ECAL. Per la corretta ricostruzione dell’energia della particella iniziale è dunque necessario sommare il contributo di cluster diversi, formando un cluster di cluster, detto supercluster. L’algoritmo hybrid è un algoritmo di supercluster. Si basa sul fatto che ad alte energie 3.5 Correzioni energetiche Figura 3.6 53 Illustrazione del procedimento di super-clusterizzazione dell’algoritmo Hybrid. Per i dettagli si veda il testo. in buona approssimazione una particella carica è deviata solamente nella direzione φ, mantenendo il valore di η sostanzialmente costante. Nella ricerca dei cluster copre infatti una regione in φ ben più ampia rispetto a quella ricercata in η. Il procedimento è riportato schematicamente in Figura (3.6). Si parte da un seed, definito come un cristallo con energia trasversa ET > EThyb e si costruisce attorno ad esso una matrice η × φ = 1 × 3 (“dómino”). Il procedimento si ripete per ±Nstep passi in φ. Successivamente, in tutti i dómino in cui il cristallo centrale ha energia maggiore di una soglia Ewing , si utilizza invece il dómino 1 × 5. Si ignorano infine tutti i dómino la cui energia complessiva è inferiore a Esoglia . L’eliminazione di alcuni dómino può quindi portare alla formazione di più cluster non connessi. Tutti i cluster non connessi composti da dómino di energia inferiore a Eseed si eliminano. Infine, tutti i cluster connessi rimasti si raggruppano lungo φ e costituiscono il supercluster. In Tabella (3.1) sono riportati i valori standard dei parametri dell’algoritmo. 3.5 Correzioni energetiche Per una corretta ricostruzione dell’energia di un fotone o elettrone in ECAL è necessario prendere in considerazione le correzioni dipendenti dalla scala energetica e dalla pseudorapidità. Le correzioni di scala energetica dipendono da residue non linearità nel calorimetro, dovute al non completo contenimento dello sciame e agli effetti della collezione di luce da Il canale H → γγ 54 Tabella 3.1 Valori standard dei parametri dell’algoritmo Hybrid. EThyb 1 GeV Nstep 17 Ewing 1 GeV Esoglia 0.1 GeV Eseed 0.35 GeV parte del cristallo. La dipendenza dalla pseudorapidità dipende invece dalla struttura del rivelatore, che presenta una quantità di materiale da attraversare variabile in η (massima nei pressi della giunzione fra barrel ed endcap). La quantità di materiale attraversato influenza la frazione di energia persa dagli elettroni via bremsstrahlung e, per i fotoni, la probabilità di conversione in e+ e− , e dunque risulta in una complessiva degenerazione della ricostruzione dell’energia. È stato dimostrato [30][31] che le due dipendenze si possono parametrizzare con una funzione di correzione che dipende dal numero di cristalli del seed cluster del supercluster (f (Ncry )) con energia maggiore di due deviazioni standard del rumore. Dopo aver applicato questa correzione è visibile una dipendenza residua da η, se pur di piccola entità, la quale è infine eliminata con una seconda con una seconda parametrizzazione dipendente dalla sola pseudorapidità (f (η)). 3.6 Ricostruzione dei fotoni convertiti Nell’attraversare il materiale del tracciatore interno, circa il 46% dei fotoni prodotti dal decadimento dell’Higgs in una collisione converte in una coppia elettrone-positrone. Bisogna inoltre sottolineare che questo numero è stato calcolato utilizzando la simulazione del tracciatore interno della versione 1 4 del software di ricostruzione. Gli ultimi test sul tracciatore hanno tuttavia rilevato un peso maggiore rispetto alle specifiche di progetto [32]. Nello scenario reale, dunque, una frazione maggiore di fotoni dovrebbe convertire prima di ECAL1 . L’elettrone e il positrone prodotti nella conversione sono deviati in direzioni opposte dal campo magnetico e possono dunque essere assorbiti in ECAL in posizioni molto distanti, 1 La frazione di conversioni prima di ECAL è oggi stimata fra il 48 e il 50%. 3.6 Ricostruzione dei fotoni convertiti 55 tanto da non essere accorpati nello stesso supercluster. In ogni caso, tuttavia, anche se i due cluster risultino vicini o sovrapposti, ci si aspetta che la forma del deposito energetico di un fotone convertito sia ben diversa da quella di un fotone non convertito. È stato dunque sviluppato un metodo [33] per la ricostruzione dei fotoni convertiti. 3.6.1 Algoritmo di ricostruzione L’algoritmo di ricostruzione dei fotoni convertiti considera inizialmente i supercluster ricostruiti in ECAL. Si calcola la posizione di ogni cluster costituente il supercluster, come la media delle posizioni dei cristalli del cluster, pesate con le energie depositate in essi. Partendo dalle posizioni di ognuno dei cluster si tenta quindi di ricostruire una traccia che parta da esso, muovendosi verso il centro del rivelatore (out-in). Si assume che la traccia sia stata generata da una particella di massa pari a quella dell’elettrone ed energia pari all’energia depositata nel cluster. Entrambe le possibilità di carica sono testate separatamente. La ricostruzione della traccia procede di strato in strato del tracciatore interno, utilizzando una tecnica che va sotto il nome di filtro Kalman. Il filtro Kalman è sostanzialmente una formulazione ricorsiva del metodo dei minimi quadrati nel corso del fit di un insieme di punti sperimentali a un’ipotesi di traccia. È composto di una fase di propagazione e una di aggiornamento. Nella fase di propagazione la traccia viene estrapolata al prossimo strato di rivelatore, tenendo conto della perdita di energia media prevista nel materiale attraversato. Nella fase di aggiornamento, la previsione viene confrontata con la posizione dell’osservazione sperimentale e i parametri del fit sono aggiornati al valore effettivo di energia persa. Nell’implementazione di CMS, la tecnica segue il modello sviluppato dall’esperimento DELPHI di LEP [37]. Ad ogni cluster vengono cosı̀ associate due tracce, di carica opposta. Ognuna di esse è a sua volta utilizzata come punto di partenza di un secondo tracciamento, questa volta verso l’esterno (in-out). Data una traccia out-in, si ipotizza che il suo punto ricostruito più interno coincida con il vertice di conversione. Si procede da lı̀, dunque, per ricostruire la seconda traccia. La ricostruzione della seconda traccia della conversione comincia anch’essa dai depositi energetici di ECAL. I cluster sono nuovamente scorsi come possibili punti di impatto della seconda particella. Per ogni cluster viene costruita un’elica che rappresenti la traccia della particella nel campo magnetico. L’elica è determinata dall’energia del cluster e dal vincolo di essere parallela alla traccia out-in al vertice di conversione. Lungo ogni elica viene quindi ricostruita la traccia vera e propria con un filtro Kalman. 56 Il canale H → γγ I due insiemi di tracce cosı̀ ottenute, con i metodi di propagazione out-in e in-out, vengono uniti e ordinati a seconda del numero di punti ricostruiti sperimentalmente e del valore di una variabile di χ2 calcolata sulle differenze fra le posizioni previste e quelle misurate negli strati del tracciatore. Le tracce sono quindi separate in due gruppi a seconda della loro carica e ogni coppia di tracce di carica opposta va a costituire un candidato fotone convertito. Capita tuttavia spesso che esistano numerosi candidati per un singolo supercluster. È dunque necessario trovare un criterio per risolvere l’ambiguità e scegliere una sola coppia di tracce per ogni supercluster. Per una data coppia di tracce ricostruite, si possono calcolate varie quantità che ci danno un’idea della verosimiglianza che tale coppia corrisponda effettivamente agli elettroni di una conversione: • ∆ cot θ: la differenza fra le cotangenti dell’angolo polare dovrebbe essere nulla per le due tracce dal momento che il campo magnetico non devia lungo quella direzione; • ESC /ptracce : il rapporto fra l’energia del supercluster considerato e la somma degli impulsi delle tracce dovrebbe valere 1; • χ2 : il χ2 normalizzato delle tracce dovrebbe fornire una stima della bontà del fit che lega la traccia ricostruita ai punti misurati; • ∆φ: al vertice di interazione gli impulsi delle tracce devono essere collineari e dunque la differenza in angolo azimutale nulla. Non vengono considerate altre variabili, quali ad esempio la differenza in pseudorapidità degli impulsi al vertice o la massa invariante della coppia, dal momento che sono fortemente correlate con una o più delle variabili sopra citate. È stato inoltre sviluppato un metodo [34] che combina le informazioni di queste quattro variabili in una singola variabile di verosimiglianza (likelihood), distribuita fra 0 e 1. È stato dimostrato che le prestazioni della variabile di likelihood sono migliori delle altre variabili utilizzate singolarmente. Dunque nella presente analisi nel caso in cui più coppie di tracce vengano associate allo stesso supercluster, verrà scelta la coppia di tracce con maggior likelihood. Capitolo 4 Genetica e fisica delle alte energie Un’analisi in fisica delle alte energie consiste nella scelta di un insieme di tagli da effettuare su determinate variabili, al fine di separare un segnale dalle possibili fonti di fondo. Il valore ottimale di questi tagli è quello grazie al quale la significanza risultante è la maggiore possibile. Una maniera tipica per fissare i valori dei tagli è di studiare le distribuzioni delle variabili per il segnale e per il fondo, e scegliere una soglia ragionevole. Lo svantaggio insito in questo metodo è che l’essere umano è in grado di guardare solo a distribuzioni in 2 (o al massimo 3) dimensioni. Di conseguenza si è costretti a considerare le distribuzioni delle diverse variabili singolarmente, scegliendo sequenzialmente i valori dei tagli. In questo modo è possibile introdurre delle correlazioni difficili da gestire, ottenendo un’efficienza di selezione non ottimizzata. La strategia ottimale sarebbe poter studiare lo spazio multidimensionale delle variabili considerate, considerando l’efficienza di diverse configurazioni di tagli. È stato dunque ideato un metodo [35] che permette di far ciò basandosi su un meccanismo ispirato alla selezione naturale. Prima di passare alla descrizione dell’algoritmo, tuttavia, è necessaria una breve introduzione alla teoria dell’evoluzione naturale. 4.1 L’evoluzione naturale L’evoluzione è il processo biologico secondo il quale una specie cambia i suoi tratti ereditari nel corso delle generazioni. Il meccanismo su cui è fondata è stato scoperto da Charles 58 Genetica e fisica delle alte energie Darwin [36]. Nella teoria darwiniana, il principale processo che determina l’evoluzione è la selezione naturale, ovvero il progressivo adattamento della specie alla sopravvivenza in un dato ambiente. La selezione naturale si basa su due meccanismi: • la mutazione, ovvero il cambiamento casuale di un tratto ereditario; • la selezione dei tratti favorevoli alla sopravvivenza. La mutazione può avvenire durante il processo riproduttivo, oppure essere causata da un agente esterno. La selezione fa sı̀ che i tratti favorevoli alla sopravvivenza divengano sempre più comuni nella popolazione, mentre quelli nocivi più rari. È resa possibile dal fatto che un individuo con tratti favorevoli ha più possibilità di riprodursi, e quindi più individui della generazione successiva li erediteranno. È interessante notare che nessuno dei due meccanismi, presi singolarmente, permetterebbe la selezione naturale. La sola mutazione comporterebbe un ricambio casuale di tratti, portando a una popolazione eterogenea. Data la natura completamente casuale delle mutazioni la maggior parte delle configurazioni ottenute sarebbero neutre o nocive ai fini della sopravvivenza. La sola selezione, invece, operata all’interno di una data popolazione, porterebbe al contrario a una popolazione finale perfettamente omogenea, nella quale sono presenti solamente i geni più favorevoli fra quelli presenti nel campione di partenza. L’evoluzione sarebbe a questo punto interrotta, con due spiacevoli implicazioni: la prima è che la configurazione ottenuta, benché sia la migliore possibile relativamente alla data popolazione iniziale, non è necessariamente la migliore possibile relativamente all’ambiente dato; la seconda, ancor più grave, è che una popolazione perfettamente omogenea è estremamente vulnerabile. I suoi tratti sono stati infatti ottimizzati in base ad un ambiente esterno precisamente determinato: un minimo cambiamento in questo ambiente (ad esempio un balzo di temperatura, la migrazione di un predatore) potrebbe causare l’estinzione dell’intera popolazione. La mutazione risulta quindi essere fondamentale ai fini dell’evoluzione. La presenza continua di nuove configurazioni, infatti, assicura da un lato il progressivo miglioramento dell’abilità di sopravvivenza, dall’altro una certa flessibilità nei confronti dei cambiamenti esterni. 4.2 Algoritmi genetici in fisica delle alte energie Figura 4.1 4.1.1 59 Illustrazione schematica del meccanismo di crossing over. Geni, cromosomi e riproduzione L’insieme dei tratti ereditari di un individuo è detto patrimonio genetico. Il patrimonio genetico è tramandato di generazione in generazione attraverso il DNA, una molecola capace di codificare l’informazione genetica. Il DNA ha una forma filamentosa, che costituisce una lunga sequenza di informazioni genetiche. Una porzione di DNA che corrisponde ad un singolo tratto ereditario è detta gene. Il gene dunque, se vogliamo, è il “quanto” dell’evoluzione. Le caratteristiche ereditarie di ogni organismo sono descritte dai suoi geni, che sono contenuti in strutture ordinate dette cromosomi. I cromosomi, a loro volta, sono albergati nelle cellule. I geni sono tramandati di generazione in generazione attraverso il processo di riproduzione. Nella riproduzione i cromosomi delle cellule sessuali dei due genitori, generano dei nuovi cromosomi mediante un meccanismo di mescolamento genetico che va sotto il nome di crossing over. Una rappresentazione schematica del crossing over è mostrata in Figura (4.1). I cromosomi formati hanno una porzione casuale di geni paterni e i rimanenti materni, o viceversa. 4.2 Algoritmi genetici in fisica delle alte energie In fisica delle alte energie, un algoritmo di selezione è identificato da un insieme di variabili su cui si intende tagliare (ad esempio ET , η) e dai relativi intervalli di valori consentiti 60 Genetica e fisica delle alte energie (ad esempio ET > 25 GeV, |η| < 1.44). Graficamente: var1 var2 . . . Op1 Op2 .. . C1 C2 .. . varn Opn C n ove vari è la variabile i-esima, Opi è un operatore (<, >, ≤, ≥) e C i indica il valore del taglio. Una volta che lo schema di selezione è fissato, sussiste una corrispondenza biunivoca fra una determinata selezione e un vettore di numeri reali: C1 2 C . . . Cn È a questo punto immediato identificare questo vettore con un cromosoma composto da n geni, ognuno dei quali corrisponde al taglio C i . 4.2.1 Evoluzione Per simulare l’evoluzione naturale, è necessario innanzitutto creare una popolazione iniziale di N cromosomi. Ad ogni cromosoma corrisponde quindi un insieme di tagli, la cui efficienza nella separazione del segnale dal fondo può essere descritta da un parametro. Nel caso che ci interessa, ovvero della ricerca di un picco in uno spettro di massa invariante, scegliamo la significanza (σ) del picco nella finestra di ±2 GeV intorno al valore della massa dell’Higgs considerata. Quindi, nel caso di mH = 120 GeV, viene considerato il rapporto s σ=√ b ove s (b) è il numero di coppie di candidati fotoni di segnale (fondo) in un campione di prova che ha passato i tagli del cromosoma e che ha una massa invariante compresa fra 118 e 122 GeV. 4.2 Algoritmi genetici in fisica delle alte energie Figura 4.2 61 Illustrazione schematica del meccanismo di crossing over implementato nell’algoritmo. In alto i due genitori, in basso i due figli. La posizione delle frecce in alto indica il valore dell’intero m (si veda il testo per i dettagli). In analogia con l’evoluzionismo darwiniano, la significanza associata a un dato cromosoma corrisponde con la sua abilità di sopravvivenza (in inglese fitness). La popolazione iniziale è ordinata secondo la fitness descrescente dei cromosomi. Introduciamo ora un meccanismo di riproduzione. Considerando i due cromosomi con maggior fitness si sceglie un numero intero casuale (m) compreso fra 1 e il numero di geni n. I due cromosomi in questione generano due figli secondo un crossing over che funziona in questo modo: il primo figlio avrà i primi m geni del primo genitore e i rimanenti n − m del secondo; il secondo figlio ha invece i primi m del secondo genitore e i rimanenti del primo. Il processo è schematizzato in Figura (4.2). Durante la riproduzione è possibile che avvengano delle mutazioni genetiche. Dopo il crossing over, i geni dei due figli possono mutare casualmente, con una definita probabilità di mutazione. I due nuovi cromosomi formatisi sono quindi aggiunti alla popolazione a patto che non siano copie di cromosomi già presenti. Il meccanismo è quindi applicato a tutte le rimanenti coppie di cromosomi della popolazione, scorrendola in ordine di fitness. A procedimento terminato avremo una popolazione di dimensione quasi raddoppiata, che è nuovamente ordinata in fitness, della quale si selezionano solamente i primi N cromosomi, di modo che il numero di cromosomi nella popolazione sia costante. L’intero procedimento è quindi reiterato per un numero di passi generazionali desiderato. Nel corso delle generazioni, l’algoritmo seleziona i geni che corrispondono ai tagli che forniscono i risultati migliori, fino a raggiungere una configurazione ottima corrispondente in linea di principio alle migliori prestazioni possibili, con le date variabili, in termini di separazione del segnale dal fondo. In Figura (4.3) è mostrato un tipico andamento della fitness in funzione del numero di passi riproduttivi. Sono mostrate separatamente la fitness 62 Genetica e fisica delle alte energie Figura 4.3 Andamento tipico della fitness in funzione del numero di iterazioni riproduttive. Il grafico mostra l’andamento della fitness del miglior cromosoma (punti pieni, linea continua) e quello della media della popolazione (punti vuoti, linea tratteggiata). del miglior cromosoma e la fitness media della popolazione. Come si vede, già dopo circa 50 iterazioni, l’intera popolazione converge alla fitness del miglior cromosoma. 4.2.2 Potere del metodo Un algoritmo genetico fornisce non solo indicazioni su come ottimizzare un’analisi, ma anche informazioni sull’utilità dei tagli sulle singole variabili. Studiando la popolazione finale, infatti, si potrebbe trovare che uno stesso gene assume valori molto diversi fra individui che hanno punteggi molto simili (se non uguali) di fitness. Questo costituirebbe un chiaro segnale del fatto che il taglio sulla data variabile non è utile. Anche se un taglio inutile non ha impatto sulla significanza finale, potrebbe dare un contributo non indifferente all’errore sistematico da associare alla misura, e deve quindi essere eliminato. Al contrario, se risulta che tutti gli individui hanno lo stesso valore di un dato gene, significa che quel taglio è molto importante. Bisogna infine osservare che, a differenza di altri metodi di ottimizzazione multivariata, l’algoritmo genetico offre il vantaggio di fornire un’analisi risultante basata su tagli e variabili fisiche. L’ottimizzazione è solo un metodo di ricerca dei tagli migliori. In un’analisi basata su tagli, la stima delle sistematiche è relativamente semplice. Capitolo 5 Analisi del canale H → γγ con ottimizzazione genetica In questo capitolo viene presentato un algoritmo di selezione degli eventi H → γγ ottimizzato geneticamente. Dopo una descrizione delle caratteristiche generali del metodo, verranno presentate le diverse variabili prese in considerazione, esposto il criterio cui sono state selezionate e il metodo con cui sono stati ottimizzati i parametri da cui dipendono. Definito un insieme di variabili su cui tagliare, le soglie dei tagli sono state ottimizzate geneticamente. La seconda parte dell’analisi ha invece l’obiettivo di migliorare la significanza della misura della massa del bosone di Higgs mediante un recupero “mirato” di fotoni convertiti. Il capitolo è concluso dalle luminosità integrate di dati necessarie per la scoperta di un bosone di Higgs leggero. 5.1 Preselezione degli eventi In questo paragrafo verranno descritti gli strumenti generali di cui si è fatto uso per la selezione preliminare degli eventi interessanti ai fini di questa analisi: i campioni Monte Carlo di eventi analizzati, il tipo di ricostruzione, la preselezione di eventi da utilizzare nell’ottimizzazione genetica. 5.1.1 Campioni Monte Carlo Gli eventi studiati in questa analisi sono stati generati con il programma PYTHIA [38], versione 6, e simulati con il programma CMSSW, versione 1 4. Analisi del canale H → γγ con ottimizzazione genetica 64 Segnale Data la natura inclusiva dell’analisi del canale H → γγ, sono stati studiati tutti i canali di produzione dell’Higgs (si veda 1.3). L’ottimizzazione è stata tuttavia applicata a una sola ipotesi di massa: mH = 120 GeV/c2 . In Tabella (5.1) sono riportate le sezioni d’urto di produzione, il numero di eventi analizzati e la luminosità integrata corrispondente a seconda dei diversi canali di produzione. Tabella 5.1 Campioni Monte Carlo di eventi di segnale analizzati. Sono riportate le sezioni d’urto (σ) dei processi, il numero di eventi analizzati e la luminosità integrata corrispondetne (L). σ (pb) Eventi analizzati L (fb−1 ) Fusione di gluoni (mH = 120 GeV/c2 ) 36.4 10 000 125 Fusione di W,Z (mH = 120 GeV/c2 ) 4.5 10 000 1 010 Higgs-strahlung, tt̄H (mH = 120 GeV/c2 ) 3.3 10 000 1 377 Fondi Per quanto riguarda i fondi, il discorso è più complicato. Come abbiamo visto in 3.2, oltre ai fondi irriducibili con produzione diretta di due fotoni reali, la principale fonte di fondi riducibili sono eventi in cui un jet adronico è identificato erroneamente come un fotone. La produzione di jet a LHC sarà molto copiosa, tanto da rendere impossibile una simulazione completa di questa classe di eventi con la tecnologia attuale. È necessario introdurre un filtro nella generazione degli eventi. Un jet può essere scambiato per un fotone solamente nel caso in cui sia in grado di formare un ingente deposito energetico in ECAL. È stata dunque sviluppata, per gli studi di eventi con due fotoni, una preselezione [40] a livello di generatore degli eventi con jet. La preselezione, in sostanza, richiede che vi siano nell’evento due particelle in grado di produrre un cluster compatibile con quello generato da un fotone (γ, e± , π 0 , η, η 0 , ρ, ω). Le due particelle devono avere |η| < 2.6 e devono essere in grado di produrre due candidati fotoni con pT rispettivamente maggiore di 37.5 e 22.5 GeV. La massa invariante della coppia, inoltre, deve essere maggiore di 90 GeV/c2 . I valori delle soglie di impulso trasverso variano fra il primo e il secondo fotone, e a seconda che si tratti di eventi di p̂T > 25 GeV p̂T > 50 GeV γ + jets jets – p̂T > 25 GeV γγ (Born) Drell Yan p̂T > 25 GeV 24 µb 5.4 nb Mll > 40 GeV/c2 90 nb 45 pb 36 pb σ generata speciale speciale – – Taglio generatore 5.4 nb 4.8 nb 0.6 nb 45 pb 36 pb σ simulata 2 · 106 1.4 · 106 300 · 106 50 · 109 ∼ 150 ∼ 5000 1 3 · 106 0.5 · 106 106 1 3 · 106 106 106 1 Eventi analizzati Eventi generati Fattore riduzione Campioni Monte Carlo di eventi di fondo analizzati. Sono elencati, nell’ordine: il taglio a livello partonico, il taglio a livello di generatore (‘speciale’ indica la selezione descritta nel testo e con Mll si è indicata la massa invariante dei due leptoni carichi), la sezione d’urto (σ) usata nella generazione, la sezione d’urto (σ) effettiva degli eventi che superano la selezione di generatore, il fattore di riduzione corrispondente al taglio di generatore adoperato, il numero di eventi generati, il numero di eventi effettivamente simulati e la luminosità integrata corrispondente al numero di eventi simulati. Si veda il testo per maggiori dettagli. γγ (box) Taglio PYTHIA Tabella 5.2 0.56 0.294 3.3 11 28 L dt (fb−1 ) R 5.1 Preselezione degli eventi 65 Analisi del canale H → γγ con ottimizzazione genetica 66 Tabella 5.3 Fattori K applicati alle sezioni d’urto PYTHIA. Si veda il testo per i dettagli. γγ (box) 1.2 γγ (Born) 1.5 γ + jets (2 reali) 1.72 γ + jets (reale + fasullo) 1 jets 1 Drell Yan 1 tipo pp → γ + jet o pp → jets. Si richiede che l’impulso trasverso p̂T del partone che ha generato l’evento superi una certa soglia che dipende dal canale considerato. In Tabella (5.2) sono riassunte le informazioni riguardanti i diversi campioni di fondo considerati. Sono elencati, nell’ordine: la soglia in p̂T , la selezione a livello di generatore (nel caso in cui sia presente), la sezione d’urto al primo ordine (calcolata con PYTHIA), la sezione d’urto corrispondente degli eventi che passano la selezione di generatore, il fattore di riduzione del taglio di generatore, il numero di eventi generati, il numero di eventi effettivamente simulati e infine la luminosità integrata corrispondente a tale numero di eventi. Con il termine ‘speciale’ si è indicata la selezione di generatore appena descritta. Gli eventi di tipo Drell Yan includono tutti i gli eventi di tipo q q̄ → γ/Z (∗) → l+ l− , in cui i due leptoni carichi dello stato finale possono essere di tipo e, µ o τ . A questi eventi è statapplicato un taglio a livello di generatore sulla massa invariante della coppia dei leptoni (Mll ). Come menzionato, le sezioni d’urto sono state calcolate al primo ordine perturbativo. Sono dunque stati introdotti dei fattori, detti fattori K, che tengono conto della differenza attesa fra il primo ordine e il successivo [41]. I fattori K sono riportati in Tabella (5.3) e hanno approssimativamente un’incertezza del 20-30%. Nella tabella è stata fatta una ulteriore distinzione all’interno degli eventi di tipo γ + jets: con il nome “2 reali” si indicano gli eventi in cui anche il fotone prodotto all’interno del jet è un fotone reale, prodotto nel corso dell’adronizzazione, ad esempio dalla Bremsstrahlung di un quark; con “reale + fasullo” si indicano invece gli eventi in cui nel jet viene prodotto un adrone, come ad esempio il π0 , che, decadendo elettromagneticamente, simula il deposito di un fotone reale. 5.1 Preselezione degli eventi 5.1.2 67 Trigger Nell’ambiente previsto ad LHC, il numero di interazioni per incrocio dei fasci, combinato con la frequenza di incrocio, rende impossibile registrare tutte le informazioni raccolte da CMS. Per questo motivo esiste un sistema in grado di operare rapidamente una scelta, e registrare solamente gli eventi reputati di qualche interesse. Questo sistema è chiamato trigger. Il trigger di CMS [42] è strutturato su due livelli: il primo livello è costituito da circuiti integrati capaci di compiere scelte semplici, mentre i rimanenti livelli vanno sotto il nome di trigger di alto livello (HLT) e usano software molto rapidi. Il trigger di alto livello richiede, in sostanza, che i fotoni abbiano energia trasversa sopra una certa soglia, e mette in atto dei requisiti non stringenti di isolamento. Affinché un evento con due candidati fotoni sia registrato deve superare i requisiti di trigger. È stato dimostrato [43] che per i fotoni di decadimento di un bosone di Higgs da 120 GeV/c2 , i requisiti del trigger di primo livello hanno un’efficienza superiore al 99%, mentre il trigger di alto livello circa dell’88%. La nostra analisi, come si vedrà, opererà dei tagli molto stringenti, sia in soglie di energia trasversa che in termini di isolamento. Dal momento che sono più selettivi di quelli operati dal trigger di alto livello, le eventuali inefficienze dovute a quest’ultimo sono da considerarsi trascurabili. 5.1.3 Strumenti di ricostruzione L’analisi è stata interamente portata avanti con il software di ricostruzione standard di CMS (CMSSW, [44]), versione 1 6. Il software è orientato a oggetti, l’analisi è mediata da classi. I candidati fotoni e i candidati fotoni convertiti sono descritti da classi diverse. Fotoni La ricostruzione di un fotone è basata sul suo deposito energetico in ECAL. Un candidato fotone è un supercluster (utilizzando l’algoritmo Hybrid nel barrel e l’algoritmo Island negli endcap), al quale è stata applicata la correzione in energia descritta in 3.5. Nella misura della massa invariante dei due fotoni, come visto in 3.3, oltre ad una buona risoluzione energetica è fondamentale avere una buona risoluzione angolare. Per quest’ultima è necessario conoscere la posizione del vertice effettivo di interazione. Dallo studio delle tracce dell’evento è possibile ricostruire di vertici primari di interazione. I vertici ottenuti sono ordinati in base alla somma dei moduli degli impulsi trasversi delle P tracce ( |pT |) con parametro di impatto longitudinale entro 5 mm dalla posizione del Analisi del canale H → γγ con ottimizzazione genetica u.a. 68 300 250 200 Primary vertex No primary vertex 150 100 50 0 100 Figura 5.1 105 110 115 120 125 130 M! ! [GeV/c2] Distribuzione di massa invariante per fotoni di segnale (mH = 120 GeV/c2 ). Sono mostrate la distribuzione risultante dall’uso del vertice primario ricostruito dell’evento, e quella che invece ipotizza la produzione nell’origine del sistema di coordinate. vertice considerato. Un candidato fotone sceglie, all’interno della collezione di vertici P primari dell’evento, quello cui corrisponde il massimo valore di |pT |. È stato dimostrato [39] che in regime di bassa luminosità (2 × 1033 cm−2 s−1 ), in cui ci si aspettano in media 1 o 2 interazioni per incrocio dei fasci, il vertice ricostruito giace entro 5 mm da quello reale con un’efficienza maggiore dell’80% per gli eventi di segnale. Questa scelta del vertice di produzione produce un miglioramento di circa 1 GeV nella risoluzione del picco di massa invariante per i fotoni di segnale. In Figura (5.1) sono visibili la distribuzione di massa invariante ottenuta ipotizzando la produzione dei fotoni nell’origine del sistema di riferimento e quella che fa invece uso dei vertici primari ricostruiti nella maniera appena descritta. La risoluzione risultante, come si vede, è migliore. A luminosità più elevate si prevede che ad ogni incrocio dei fasci avvengano più interazioni, in media circa 20 a luminosità di regime (1034 cm−2 s−1 ), il che dà luogo al fenomeno che va abitualmente sotto il nome di pile up, la presenza contemporanea, cioè, all’interno del rivelatore, di particelle prodotte in reazioni diverse. La corretta associazione fra supercluster e vertice ricostruito potrebbe dunque diventare problematica e senz’altro l’efficienza ne dovrà risentire. Gli eventi studiati in questa analisi, tuttavia, non tengono conto di alcun pile up, dal momento che hanno intenzione di simulare lo scenario previsto nei primi mesi di attività di LHC, nei quali la luminosità sarà sensibilmente inferiore a quella di progetto. La quantità di pile up risultante è trascurabile, specialmente se confrontata con l’entità dello sforzo 5.1 Preselezione degli eventi 69 computazionale, molto maggiore nel caso della simulazione di eventi con pile up. Nel caso degli eventi analizzati, quindi, l’efficienza di ricostruzione del vertice di interazione è superiore al 99%. Fotoni convertiti La ricostruzione dei fotoni convertiti segue la descrizione offerta in 3.6.1. Sono stati utilizzati solo i candidati fotoni convertiti con due tracce ricostruite, e nel caso di più coppie di tracce associate allo stesso supercluster, l’ambiguità è stata risolta scegliendo la coppia con maggior likelihood. 5.1.4 Preselezione e ordinamento Prima di passare all’ottimizzazione, sono stati scorsi gli eventi e preselezionati solo quelli che presentavano almeno due candidati fotoni di energia trasversa ET > 25 GeV e posizione S in ECAL entro il suo volume “fiduciale” (|η| < 1.44 1.55 < |η| < 2.2). Il significato di non usare tutta la copertura di pseudorapidità di ECAL sta nel fatto che nei pressi delle zone di discontinuità del rivelatore, come fra barrel ed endcap o alla fine del preshower, la corretta ricostruzione dei cluster non è assicurata, dal momento che una parte dell’energia può essere persa in regioni non sensibili del calorimetro. Il volume scelto permette sempre la costruzione di matrici 5 × 5 attorno al punto d’impatto del fotone. Per i candidati fotoni nel barrel, inoltre, è stata fatta la richiesta che una variabile che definisce la forma del deposito energetico in ECAL, chiamata momento secondo minore e che verrà definita in seguito, sia minore di 0.25. Questo taglio dovrebbe assicurare che il cluster è stato prodotto da uno sciame puramente elettromagnetico. Per quanto riguarda i candidati fotoni negli endcap, dal momento che non è stato ancora implementato un algoritmo in grado di calcolare i momenti dei depositi, non è stata fatta alcuna richiesta addizionale. Degli eventi che hanno passato la selezione sono state considerate separatamente tutte le coppie di candidati fotoni. Ogni coppia di candidati fotoni è stata ordinata in ET descrescente. D’ora in poi verrà denominato primo fotone il candidato fotone di maggior ET della coppia, e secondo fotone quello di energia trasversa minore. L’ordinamento in energia trasversa non ha alcun effetto rilevante sui fotoni di segnale, ma ha un importante significato sugli eventi di tipo γ + jets, che costuiscono la parte più tenace dei fondi riducibili. Data la natura non elementare del protone, infatti, questi eventi sono bilanciati solamente nel piano trasverso: l’energia trasversa del fotone è pari Analisi del canale H → γγ con ottimizzazione genetica u.a. u.a. 70 0.04 0.04 Segnale Segnale 0.03 0.03 Fondo Fondo 0.02 0.02 0.01 0.01 0 30 40 Figura 5.2 50 60 70 80 90 100 110 120 ET [GeV] 0 30 40 50 60 70 80 90 100 110 120 ET [GeV] Spettri normalizzati di energia trasversa di segnale e fondo per il primo fotone (a sinistra) e per il secondo fotone (a destra). Come si vede, nel caso del secondo fotone lo spettro relativo al fondo raggiunge valori molto bassi. all’energia trasversa complessiva del jet, all’interno del quale è albergato l’altro candidato fotone. Quest’ultimo possiede dunque solamente una frazione dell’energia trasversa del jet, e sarà quindi sempre classificato come secondo fotone. In Figura (5.2) sono visibili gli spettri di energia trasversa per il primo e il secondo fotone, separatamente per il segnale e per il fondo. Come si vede nel caso del fondo l’energia trasversa del secondo fotone raggiunge valori molto bassi, a significato del fatto che può possedere una frazione arbitraria dell’energia del jet. Negli eventi γ + jets, quindi, il secondo fotone è il candidato fotone prodotto all’interno di un jet, ed è quindi per sua natura non isolato e spesso fasullo, ovvero simulato dal decadimento elettromagnetico di un adrone. 5.2 Definizione dei criteri di isolamento Abbiamo visto nel Capitolo 3 che per selezionare con efficienza il segnale siamo alla ricerca di eventi che presentino due candidati fotoni di elevata energia trasversa. Si richiede inoltre, per combattere con efficacia il fondo costituito dai jet, che essi siano isolati, ovvero che non sia registrata alcuna attività addizionale attorno alla sua direzione. La direzione di un fotone è identificata dai suoi valori di pseudorapidità (ηγ ) e angolo azimutale (φγ ). Nelle richieste di isolamento viene abitualmente utilizzata la variabile ∆R definita come q ∆R ≡ (ηγ − η)2 + (φγ − φ)2 5.2 Definizione dei criteri di isolamento 71 luogo dei punti di coordinate (η, φ) che soddisfano tale relazione. La variabile ∆R definisce una superficie conica attorno alla direzione del fotone, di apertura proporzionale al valore di ∆R stesso. Fissato un valore di ∆R, in una richiesta di isolamento si richiede che l’attività di rivelatore presente entro tale cono sia minore di una certa soglia. L’attività di rivelatore è definita come una variabile che rappresenta una grandezza fisica che descrive la presenza di altre particelle oltre al candidato fotone. Alcuni esempi sono l’energia depositata nel calorimetro, il numero di tracce presenti, etc. L’ottimizzazione di questo genere di tagli richiede che si operino tre scelte: • la scelta della natura della variabile che meglio descrive la presenza di particelle che accompagnano il candidato fotone; • la scelta dell’apertura del cono entro cui cercare tali particelle; • la scelta del valore di soglia della variabile su cui tagliare. Per operare le prime due scelte si è provveduto a studiare il comportamento di diverse variabili con diverse aperture del cono. Le variabili sono state studiate singolarmente. All’ottimizzazione genetica è invece stata lasciata la scelta del valore di soglia della variabile prescelta. Vedremo ora nel dettaglio quali variabili sono state considerate e quali sono state scelte. Nella scelta delle variabili è stato adoperato il seguente metodo. Per ciascuna variabile e per ciascuna apertura del cono si costruiscono due istogrammi, uno che rappresenta lo spettro dei candidati fotoni degli eventi di segnale, e uno per i fondi. Si considerano quindi tagli successivi sulla variabile, di passo pari alla larghezza del bin degli istogrammi, e per ogni valore del taglio si valuta l’efficienza sul segnale (S ) e la reiezione dei fondi1 (1−F ). In questo modo ad ogni valore del taglio corrisponde un punto nel piano reiezioneefficienza, e si può quindi costruire il grafico di queste due quantità al variare della soglia del taglio di ogni data variabile. Si sceglie quindi la variabile cui corrisponde l’andamento che ottiene reiezioni dei fondi maggiori a parità di efficienze sul segnale. In alcuni casi questo procedimento non è stato efficace, poiché le distribuzioni di certe variabili presentano un sovraffollamento del primo bin degli istogrammi di segnale e fondo. Per questo motivo non è possibile studiare il grafico per bassi valori di efficienza, e di conseguenza la sua interpretazione non è chiara. In questi casi è stato dunque studiato 1 La terminologia è impropria, dal momento che viene generalmente indicata come reiezione l’inverso dell’efficienza (1/). In quest’analisi viene invece considerato il complementare dell’efficienza (1 − ) per la comodità di avere una variabile limitata. Analisi del canale H → γγ con ottimizzazione genetica s/ b s/ b 72 0.4 !R*=0.1 !R*=0.15 !R*=0.2 !R*=0.25 !R*=0.3 !R*=0.35 !R*=0.4 !R*=0.5 0.23 0.35 !R*=0.1 !R*=0.15 !R*=0.2 !R*=0.25 !R*=0.3 !R*=0.35 !R*=0.4 !R*=0.5 0.22 0.21 0 1 2 3 4 0.3 5 6 7 8 9 T Figura 5.3 10 Soglia in p [GeV/c] 0.250 1 2 3 4 5 6 7 8 9 10 Soglia in p [GeV/c] T P Significanza di singolo taglio per la variabile pT per il primo fotone (a sinistra) e per il secondo fotone (a destra). Sono riportati gli andamenti relativi a i diversi coni considerati. √ l’andamento della significanza (s/ b) ottenuta tagliando sulla variabile in cosiderazione (con soglia variabile nella maniera descritta). È stata scelta la variabile che fornisce la significanza più elevata. Vediamo quindi nel dettaglio, per soddisfare le richieste di isolamento quali variabili sono state considerate e quali sono state selezionate. 5.2.1 Isolamento da tracce I fotoni di decadimento del bosone di Higgs non rilasciano tracce in quanto neutri e non sono direttamente prodotti in associazione a particelle cariche, a differenza di gran parte dei candidati fotoni provenienti dai fondi, come nel caso dei jet o degli eventi di tipo Drell Yan. L’analisi dovrà quindi sostanzialmente richiedere che non vengano ricostruite tracce attorno alla direzione del candidato fotone. X Per mettere in atto l’isolamento da tracce è stata considerata la variabile pT , ∆R<∆R∗ la somma degli impulsi trasversi di tutte le tracce presenti in un cono ∆R < ∆R∗ , ove ∆R∗ è un parametro da ottimizzare. La direzione di una traccia è definita come la sua direzione al vertice di produzione. Si richiede che attorno al candidato fotone questa variabile non valga più di una certa soglia. Il parametro che determina l’apertura del cono ∆R∗ è stato ottimizzato separatamente per i due fotoni. Sono stati studiati i seguenti valori di ∆R∗ : 0.1, 0.15, 0.2, 0.25, 0.3, 0.35, 0.4, 0.5. 5.2 Definizione dei criteri di isolamento 73 In Figura (5.3) sono riportate le significanze di singolo taglio, relative alla variabile pT , per soglie variabili fra 0 e 10 GeV. Sono riportati gli andamenti per i diversi coni di apertura considerati. Come si vede, si osserva, per valori crescenti ma piccoli di ∆R∗ , un progressivo miglioramento globale della significanza. Aprendo troppo il cono si osserva a un certo punto un’inversione di tendenza. Questo fenomeno è facilmente interpretabile: il miglioramento iniziale corrisponde all’incremento di efficienza nella reiezione dei jet. Con un cono troppo stretto, infatti, si rischia di non includere nella somma alcune delle loro tracce. Aprendo eccessivamente il cono, invece, comincia a essere deteriorata l’efficienza sul segnale, dal momento che possono essere incluse nella somma tracce di particelle cariche prodotte vicine ai fotoni di decadimento dell’Higgs. Nel caso del primo fotone, inoltre, che è spesso prodotto isolato, oltre ad ottenere complessivamente significanze peggiori, è dominante il deterioramento dell’efficienza rispetto all’aumento della reiezione del fondo. Si osserva dunque un peggioramento della significanza molto più marcato rispetto al caso del secondo fotone. P Si individua dunque un cono ottimale in corrispondenza del massimo di significanza raggiunto prima dell’inversione di tendenza. Questo si traduce nella seguente scelta dei parametri ∆R∗ di apertura dei coni: ( ∗ ∆R = 5.2.2 0.25 (primo fotone) 0.35 (secondo fotone) Isolamento elettromagnetico Per combattere la contaminazione da jet, si richiede che il deposito energetico del candidato fotone non sia accompagnato da depositi addizionali. Sono dunque state considerate le seguenti variabili: X • la somma delle energie E di tutti i basic cluster presenti in una corona circolare ∗ ∆R < ∆R attorno alla posizione calorimetrica del fotone; X • la somma delle energie trasverse ET di tutti i basic cluster presenti in una corona ∗ circolare ∆R < ∆R attorno alla posizione calorimetrica del fotone. ove nelle somme sono sempre esclusi i basic cluster appartenenti al supercluster del fotone in considerazione. Per scegliere quale variabile utilizzare è stato confrontato l’andamento della significanza di singolo taglio ottenuta tagliando sulle due variabili, a cono fissato. In Figura (5.4) Analisi del canale H → γγ con ottimizzazione genetica s/ b " ET (! R*=0.4) 0.25 s/ b 74 0.075 " E (!R*=0.4) 0.24 0.07 0.23 0.22 " ET (! R*=0.4) 0.065 " E (!R*=0.4) 0.21 0 1 2 3 4 5 6 7 8 9 10 Soglia del taglio [GeV] Figura 5.4 0 1 2 3 4 5 6 7 8 9 10 Soglia del taglio [GeV] Significanza di singolo taglio per le due variabili di isolamento energetico in ECAL P considerate: la somma delle energie ( E) è rappresentata dai cerchi pieni, la somma P delle energie trasverse ( ET ) dai cerchi vuoti. Sono riportati gli andamenti per fotoni nel barrel (a sinistra) e per fotoni negli endcap (a destra), per un’apertura di cono fissata (∆R∗ = 0.4). sono mostrati, separatamente per fotoni nel barrel (a sinistra) e negli endcap (a destra) i risultati ottenuti con ∆R∗ = 0.4. Come ci si aspetta, le due variabili sono equivalenti in corrispondenza della soglia posta a 0, dal momento che le due richieste di isolamento vanno a coincidere. All’aumentare della soglia, tuttavia, si osservano delle differenze: nel barrel i due andamenti sono molto simili, dal momento che a grandi angoli polari ET ≈ E; negli P endcap, invece, la variabile E permette di ottenere significanze decisamente maggiori nell’intero intervallo considerato. Per questo motivo è stata scelta, come variabile di isolamento in ECAL, la somma delle energie in ∆R < ∆R∗ . L’ottimizzazione del parametro ∆R∗ è stata effettuata con lo stesso procedimento adoperato nel caso dell’isolamento da tracce. Sono stati studiati i seguenti valori di ∆R∗ : 0.15, 0.2, 0.25, 0.3, 0.25, 0.4, 0.5. I risultati di tale analisi sono visibili in Figura (5.5). Come nel caso dell’isolamento da tracce, anche se in maniera decisamente meno evidente, nel grafico relativo al primo fotone si può osservare un graduale aumento delle curve di significanza all’aumentare dell’apertura del cono, seguito da una lieve inversione di tendenza a partire da ∆R∗ = 0.4. Nel caso del secondo fotone, invece, sembra non esserci inversione, piuttosto un processo di saturazione a partire dallo stesso valore di ∆R∗ . Per questo motivo, per l’isolamento energetico in ECAL, sono stati scelti i seguenti valori 0.21 0.25 "R*=0.15 "R*=0.2 "R*=0.25 "R*=0.3 "R*=0.35 "R*=0.4 "R*=0.5 0.205 75 s/ b s/ b 5.2 Definizione dei criteri di isolamento "R*=0.15 "R*=0.2 "R*=0.25 "R*=0.3 "R*=0.35 "R*=0.4 "R*=0.5 0.24 0.23 0.22 0.2 0.21 0.195 0 1 2 3 4 5 6 7 8 9 10 0.20 1 2 3 4 5 Soglia in !E [GeV] Figura 5.5 6 7 8 9 10 Soglia in !E [GeV] P Significanza di singolo taglio per la variabile di isolamento energetico E per i diversi valori di ∆R∗ considerati. A sinistra per il primo fotone, a destra per il secondo. di ∆R∗ : ( ∆R∗ = 5.2.3 0.35 (primo fotone) 0.4 (secondo fotone) Isolamento adronico L’ultima richiesta di isolamento che viene fatta è la richiesta che HCAL non registri attività attorno alla direzione del candidato fotone, in modo da massimizzare la reiezione di eventi in cui il deposito in ECAL sia causato da una particella prodotta all’interno di un jet adronico. Sono state dunque studiate le seguenti variabili: • la somma delle energie trasverse depositate in tutte le torri di HCAL entro un cono definito da ∆R∗ attorno alla direzione del fotone; • la somma delle energie depositate in tutte le torri di HCAL entro ∆R∗ X HT ∆R<∆R∗ X H ; ∆R<∆R∗ • il rapporto H/E (∆R<∆R∗ ) fra l’energia adronica (H) depositata nelle torri di HCAL in ∆R < ∆R∗ e l’energia del fotone (E); • si è inoltre studiata la variabile H/E considerando separatamente le torri di HCAL in un cono interno (∆R < 0.1) e in una corona esterna (0.1 < ∆R < ∆R∗ ). Analisi del canale H → γγ con ottimizzazione genetica 1 Reiezione dei fondi Reiezione dei fondi 76 HCAL ET in !R<0.5 0.8 0.6 HCAL E in !R<0.5 H/E in !R<0.5 H/E in !R<0.1 + H/E in 0.1<!R<0.5 0.4 0.2 0 0.5 1 0.8 0.6 0.4 0.2 0.6 0.7 0.8 0.9 1 Efficienza sul segnale Figura 5.6 0 0.5 HCAL ET in !R<0.5 HCAL E in !R<0.5 H/E in !R<0.5 H/E in !R<0.1 + H/E in 0.1<!R<0.5 0.6 0.7 0.8 0.9 1 Efficienza sul segnale Prestazioni delle variabili di isolamento considerate, in termini di efficienza sul segnale e reiezione dei fondi. Il confronto è stato effettuato ponendo ∆R∗ = 0.5. Il grafico di sinistra si riferisce al primo fotone, quello di destra al secondo. Il significato di queste variabili di isolamento è evidente: un fotone, quantomeno idealmente, è assorbito interamente in ECAL. I fotoni di segnale sono inoltre prodotti isolati, quindi si richiede che non vi sia attività in HCAL in prossimità della direzione del candidato fotone. In ogni torre di HCAL può essere sempre presente una certa attività diversa da zero dovuta al rumore elettronico. Per tale motivo ci si possono aspettare valori di H diversi da zero. Inoltre, se l’attività in HCAL è dovuta al leakage longitudinale, ci si aspetta che questa sia proporzionale al log(E) [29] e, in prima approssimazione, a E. Applicare un taglio alla variabile H/E consente di tenere debito conto di questi due fenomeni L’applicazione di due tagli in H/E, separatamente per un cono interno e una corona esterna permette di tener conto dell’eventuale non contenimento longitudinale dello sciame mediante il taglio sulla variabile nel cono interno, e di applicare invece un isolamento vero e proprio con la variabile esterna. In Figura (5.6) sono riportate le prestazioni delle variabili considerate, in termini di efficienza sul segnale e reiezione dei fondi, avendo posto ∆R∗ = 0.5. Sono riportati separatamente i risultati ottenuti per il primo e per il secondo fotone. Come ci si poteva aspettare tutte le variabili offrono prestazioni migliori sul secondo fotone, che più spesso si trova entro un jet. P P Come si vede le due variabile assolute ( H, HT ) sembrano essere marcatamente meno potenti di quelle di tipo H/E. Fra queste ultime, infine, sembra che la variabile ‘doppia’ (H/E (∆R<0.1) ⊕ H/E (0.1<∆R<∆R∗ ) ) dia risultati leggermente migliori del taglio 77 s/ b s/ b 5.3 Altri criteri di selezione !R*=0.1 !R*=0.2 !R*=0.3 !R*=0.4 !R*=0.5 0.21 !R*=0.1 !R*=0.2 !R*=0.3 !R*=0.4 !R*=0.5 0.28 0.26 0.24 0.2 0.22 0.2 0.19 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 Soglia in H/E Figura 5.7 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Soglia in H/E Significanza di singolo taglio per la variabile H/E in ∆R < ∆R∗ . A sinistra i risultati per il primo fotone, a destra per il secondo. singolo in H/E. Introdurre un taglio addizionale, tuttavia, comporterebbe qualche complicazione nella fase di ottimizzazione genetica nonché un incremento nell’errore sistematico del procedimento. Si è dunque deciso di affidare l’isolamento adronico alla sola variabile H/E in ∆R < ∆R∗ , considerando che il vantaggio apportato dalla variabile ‘doppia’ è trascurabile. La procedura di ottimizzazione del parametro ∆R∗ segue quanto fatto nei casi precedenti, salvo l’accorgimento che data la granularità meno fine delle torri di HCAL (0.087 × 0.087 in η × φ), si è scelto un passo più ampio fra i diversi valori di ∆R∗ . Sono stati studiati dunque i valori: 0.1, 0.2, 0.3, 0.4, 0.5. In Figura (5.7) sono visibili i risultati di questa ottimizzazione. Nel caso del primo fotone non vi è sostanziale differenza fra ∆R∗ = 0.4 e ∆R∗ = 0.5, mentre nel caso del secondo il cono più ampio sembra fornire i migliori risultati. Sono stati dunque scelti, per l’isolamento adronico, i coni: ( ∆R∗ = 5.3 0.4 (primo fotone) 0.5 (secondo fotone) Altri criteri di selezione Per completare la procedura di selezione si deve scegliere una variabile che permetta di distinguere il deposito energetico prodotto da un fotone da quello prodotto da altre particelle (variabile di cluster shape) e una o più variabili che permettano di operare dei tagli Analisi del canale H → γγ con ottimizzazione genetica 78 basati sulla peculiare cinematica degli eventi cercati. 5.3.1 Studio della forma del deposito Le variabili che studiano la forma del deposito elettromagnetico in ECAL dovrebbero essere in grado di riconoscere i depositi autenticamente generati da un singolo fotone. L’obiettivo principale è la discriminazione degli adroni, quali ad esempio il pione neutro (π 0 ), che decadono in due fotoni. La produzione di queste particelle all’interno di jet è molto copiosa e l’angolo di apertura medio fra i due fotoni decresce all’aumentare dell’energia della particella decadente, di modo che spesso, alle energie di cui ci stiamo interessando, i depositi dei due fotoni sono sovrapposti e formano un solo cluster elettromagnetico in ECAL. È stato sviluppato un metodo per distinguere i fotoni dai pioni neutri a partire dallo studio dei momenti della distribuzione del deposito elettromagnetico [45]. La distribuzione spaziale del deposito può essere infatti descritta da una matrice simmetrica (S̃), detta di covarianza: ! Sηη Sηφ S̃ = Sηφ Sφφ Gli elementi di S̃ sono definiti da Sµν = N X ωi (µi − hµi)(νi − hνi) µ, ν = η, φ i=1 ove la somma è estesa agli N cristalli componenti il cluster in questione, µi e νi sono le coordinate dell’i-esimo cristallo, ωi è il peso dell’i-esimo cristallo, e infine hµi e hνi sono le medie pesate delle cooridnate dei cristalli, definite come hµi = N X ωi · µi hνi = i=1 N X ωi · νi i=1 I pesi ωi dei cristalli sono infine definiti come Ei ωi = max 0, K + ln Eclus 5.3 Altri criteri di selezione Figura 5.8 79 Deposito energetico di un π 0 con i due fotoni di decadimento ben separati. L’area dei quadrati è proporzionale all’energia rilasciata nel singolo cristallo. Sono evidenziati l’asse maggiore e l’asse minore del deposito, come definiti nel testo. ove K = 4.7, Ei è l’energia del cristallo e Eclus è l’energia complessiva del cluster. Diagonalizzando la matrice S̃ se ne trovano gli autovalori, dati da Sηη + Sφφ ± Smaj = min q 2 (Sηη − Sφφ )2 + 4Sηφ 2 Questi rappresentano le lunghezze degli assi (maggiore e minore, rispettivamente) del deposito. In Figura (5.8) è visibile il deposito energetico di un π 0 , con i due fotoni di decadimento ben separati. L’area dei quadrati è proporzionale all’energia rilasciata nel singolo cristallo. Sono evidenziati l’asse maggiore e l’asse minore del deposito. I momenti n-esimi della distribuzione energetica, rispetto agli assi minore e maggiore, Analisi del canale H → γγ con ottimizzazione genetica 80 u.a. u.a. 0.12 0.1 Segnale 0.1 Segnale 0.08 0.08 Fondo 0.04 0.04 0.02 0.02 00 Fondo 0.06 0.06 0.2 0.4 0.6 0.8 1 1.2 00 0.2 0.4 Figura 5.9 0.6 0.8 1 1.2 Momento secondo minore Momento secondo minore Distribuzioni normalizzate per segnale e fondo del momento secondo minore del deposito di energia in ECAL. A sinistra le distribuzioni per il primo fotone, a destra per il secondo. Sono riportate le sole coppie di candidati fotoni con massa invariante compresa fra 115 e 120 GeV/c2 . come N X n Mmin = N X ωi · (dmaj )n i i=1 N X n Mmaj = n ωi · (dmin i ) i=1 ωi i=1 N X ωi i=1 ove dmin (dmax ) rappresenta la distanza fra il centro dell’i-esimo cristallo e l’asse minore i i (maggiore). Si può vedere inoltre che sussistono le seguenti identità: 2 Mmin = Smaj 2 Mmaj = Smin La lunghezza dell’asse maggiore di un deposito elettromagnetico ne definisce l’asimmetria. I fotoni di decadimento di un π 0 , sufficientemente separati, producono cluster “allungati” rispetto ai cluster simmetrici di un fotone singolo. La lunghezza dell’asse minore, invece, nel caso di depositi di natura puramente elettromagnetica, è circa uguale al raggio di Molière del PWO. Al contrario, i depositi originati da particelle adroniche possono avere assi minori qualunque. Questa variabile è quindi in grado di fornire una stima del grado di “elettromagneticità” del deposito stesso. In Figura (5.9) sono riportate le distribuzioni, per segnale e fondo, del momento secondo minore del deposito energetico dei candidati fotoni. Sono stati considerati solamente 5.3 Altri criteri di selezione Tabella 5.4 81 Efficienza del taglio sul momento secondo minore dei depositi energetici dei candidati fotoni (< 0.25). Sono state considerate nel calcolo solamente le coppie di candidati fotoni di massa invariante compresa fra 115 e 120 GeV/c2 . H → γγ (fusione di gluoni) 98.7% H → γγ (fusione di W, Z) 97.9% H → γγ (Higgs-strahlung + tt̄) 93.0% γγ (box) 96.9% γγ (Born) 97.0% γ + jets 64.6% jets 40.3% Drell Yan 64.6% i candidati fotoni con massa invariante compresa fra 115 e 125 GeV/c2 . Come si vede, il segnale presenta un picco con limite superiore molto netto, in corrispondenza di circa 0.25. La distribuzione del fondo presenta allo stesso modo un picco nella stessa posizione del segnale, dovuto agli eventi di fondo irriducibile, seguito però da una coda molto pronunciata che raggiunge valori elevati di momento secondo. Questa coda corrisponde agli eventi di fondo riducibile. Un taglio a 0.25, in particolare, permette di ottenere una considerevole reiezione dei fondi riducibili senza virtualmente perdere in efficienza sul segnale, come si vede in Tabella (5.4). Si è quindi deciso di includere nella definizione di candidato fotone il requisito che il suo deposito elettromagnetico abbia un momento secondo minore inferiore a 0.25. Il momento secondo maggiore del deposito è stata invece selezionata come una delle variabili su cui verrà applicata l’ottimizzazione genetica. La geometria più complessa degli endcap impedisce di definire in maniera semplice i momenti dei depositi energetici. Per questo motivo al giorno d’oggi l’algoritmo è stato implementato solamente per il barrel di ECAL. Per quanto riguarda gli endcap, la definizione di fotone non è stata modificata e l’algoritmo genetico farà uso della variabile di cluster shape R9 , definita come R9 = E3×3 ESC Analisi del canale H → γγ con ottimizzazione genetica u.a. u.a. 82 0.14 0.1 0.12 0.1 0.08 Segnale 0.08 Fondo 0.06 0.06 Segnale Fondo 0.04 0.04 0.02 0.02 00 0.1 0.2 Figura 5.10 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 R9 00 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 R9 Distribuzioni normalizzate per segnale e fondo della variabile di forma del deposito energetico R9 . A sinistra le distribuzioni per il primo fotone, a destra per il secondo. Sono riportate le sole coppie di candidati fotoni con massa invariante compresa fra 115 e 120 GeV/c2 . rapporto dell’energia depositata nella matrice 3 × 3 centrata sul cristallo più energetico (E3×3 ) e l’energia complessiva del supercluster (ESC ). Le distribuzioni normalizzate della variabile R9 , per candidati fotoni negli endcap sono visibili in Figura (5.10). Come si vede la distribuzione di segnale presenta un prominente picco nei pressi di R9 . 1 nel caso di entrambi i fotoni, dal momento che un’elevata percentuale dell’energia di un fotone è contenuta in una matrice 3×3. Il fondo invece, presenta due distribuzioni differenti: quella del primo fotone ricalca approssimativamente quella del segnale, presentando tuttavia una coda più pronunciata verso valori bassi di R9 ; il deposito del secondo fotone, invece, che è più spesso prodotto in un jet, può avere con quasi eguale probabilità valori di R9 compresi fra circa 0.4 e 0.9. 5.3.2 Studio delle variabili cinematiche Le variabili studiate fino ad ora dovrebbero essere in grado, almeno in linea di principio, di discriminare i candidati fotoni prodotti dai fondi riducibili, che siano variabili di isolamento per combattere i jet o variabili di cluster shape per riconoscere i depositi in ECAL non generati da fotoni “autentici”. I fondi che presentano due fotoni reali, isolati, ad elevata energia trasversa nello stato finale, non dovrebbero risentire dei tagli su queste variabili. È tuttavia possibile che esistano delle differenze cinematiche fra le coppie di fotoni generate nel decadimento di un bosone di Higgs e quelle generate in eventi di natura prettamente cromodinamica. La più evidente è la massa invariante, che tuttavia essendo un parametro libero non può essere adoperato nell’analisi. 5.3 Altri criteri di selezione 83 Sono dunque state studiate le seguenti variabili cinematiche: • la differenza fra le energie dei due candidati fotoni E 1 − E 2 ; • la differenza fra le energie trasverse dei due candidati fotoni ET1 − ET2 ; • l’angolo relativo fra i due candidati fotoni ∆α; • la massa trasversa mT della coppia, definita come mT = q 2ET1 ET2 (1 − cos ∆α) • l’angolo θ∗ , nel centro di massa, del primo fotone rispetto alla direzione di volo dell’Higgs. L’angolo θ∗ è ottenuto in questo modo. Nell’ipotesi che i due candidati fotoni siano stati prodotti da un Higgs, si calcola la direzione di volo di quest’ultimo come la direzione della somma degli impulsi dei due candidati fotoni psum , se ne calcola la massa invariante Minv , e si procede con una trasformazione di Lorentz per porsi nel sistema di riferimento del centro di massa dei due fotoni. I parametri β e γ della trasformazione sono ottenuti da E1 + E2 γ= Minv r 1 β = 1− 2 γ Ottenuto l’impulso del primo fotone nel centro di massa, si calcola l’angolo θ∗ che forma con la direzione di psum . È evidente che almeno alcune di queste variabili debbano essere correlate. D’altra parte, per migliorare l’efficienza dell’ottimizzazione genetica è importante che le variabili siano il più possibile indipendenti. È stata dunque studiata la correlazione fra le variabili. In Figura (5.11) sono visibili, separatamente per il segnale e per il fondo, le matrici di correlazione delle varibili cinematiche considerate. Sono state ottenute con il pacchetto TMVA (Toolkit for MultiVariate Analysis, [46]) del software ROOT [47]. Nelle matrici sono riportati, per ogni coppia di variabili, i valori percentuali dei coefficienti di correlazione lineare (ρ): 100 indica massima correlazione lineare, -100 massima anticorrelazione, 0 perfetta indipendenza lineare. Come si vede, le uniche correlazioni maggiori di 50% sono fra le coppie di variabili E 1 − E 2 , ET1 − ET2 e E 1 − E 2 , θ∗ . La prima correlazione era prevedibile. La seconda è spiegabile in questo modo: nel centro di massa i due fotoni, per definizione, hanno energie uguali e impulsi antiparalleli. La trasformazione di Lorentz che porta nel sistema di riferimento del laboratorio, però, tende a conferire ai due fotoni una differenza di energia tanto più ingente quanto più la direzione degli impulsi nel centro di massa è vicina alla 84 Figura 5.11 Analisi del canale H → γγ con ottimizzazione genetica Matrici di correlazione delle variabili cinematiche. In alto per il segnale, in basso per il fondo. Reiezione dei fondi 5.3 Altri criteri di selezione 85 1 0.8 0.6 0.4 0.2 00 E1 - E2 ET1 - ET2 "! mT #* 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Efficienza sul segnale Figura 5.12 Prestazioni delle cinque variabili cinematiche considerate, in termini di efficienza sul segnale e reiezione dei fondi. direzione di psum . Di conseguenza queste grandezze hanno un certo grado di anticorrelazione lineare, dal momento che angoli piccoli nel centro di massa corrisponderanno a grandi differenze di energia nel laboratorio, e viceversa. Bisogna infine notare che basterebbe non considerare la sola variabile E1 − E2 per eliminare tutte le correlazioni di una qualche rilevanza. La selezione delle variabili è stata effettuata in base alle loro prestazioni in termini di efficienza sul segnale e reiezione dei fondi. Il grafico relativo alle variabili cinematiche è riportato in Figura (5.12). In questa analisi siamo interessati alla regione di elevate efficienze sul segnale sul singolo taglio (& 60%): in questa regione ci sono due variabili che si allineano lungo la diagonale del piano (ET1 − ET2 e mT ), e che quindi non riescono a effettuare una discriminazione vantaggiosa dei fondi; due variabili riescono invece a ottenere una discriminazione in qualche modo migliore (E1 − E2 e θ∗ ); la sola variabile ∆α, infine, ottiene risultati peggiori. Dalle informazioni acquisite dalla matrice di correlazione vediamo che le uniche due variabili con un qualche potere discriminante sono correlate. È dunque necessario sceglierne solamente una. Come si vede dal grafico, la variabile θ∗ sembra essere più potente della variabile E1 − E2 ; verrà quindi scelta come variabile da utilizzare nell’ottimizzazione genetica. Tutte le altre variabili sono scartate e con loro, quindi, ogni residua correlazione. Le distribuzioni normalizzate di θ∗ , per segnale e fondo, sono visibili in Figura (5.13). Analisi del canale H → γγ con ottimizzazione genetica u.a. 86 Segnale 0.02 Fondo 0.01 00 Figura 5.13 20 40 60 80 100 120 140 160 180 !* [°] Distribuzioni normalizzate della variabile θ∗ per eventi di segnale e per i fondi. Per maggiori dettagli si veda il testo. Come si vede, la distribuzione del segnale presenta una evidente asimmetria avanti-indietro, preferendo angoli minori di 90◦ rispetto ad angoli maggiori. La spiegazione di questo fenomeno richiede una piccola digressione. Stiamo considerando il decadimento di una particella scalare, il bosone di Higgs, in due particelle vettoriali, i fotoni. Nel sistema del centro di massa del bosone di Higgs, i due fotoni hanno la stessa energia e impulso antiparallelo. Dunque se indichiamo con δ ∗ l’angolo formato nel centro di massa da uno qualunque di questi due fotoni con la direzione di volo dell’Higgs, la distribuzione di probabilità di questo angolo, per semplici ragioni geometriche, deve essere costante in funzione di cos δ ∗ . Non esistono infatti direzioni preferenziali dal momento che l’Higgs ha spin nullo. La distribuzione di θ∗ sarebbe identica a quella di δ ∗ se, per calcolarlo, si scegliesse casualmente uno dei due fotoni selezionati. La nostra definizione di θ∗ , invece, seleziona sempre il fotone ad energia trasversa maggiore. La trasformazione di Lorentz che porta dal sistema del centro di massa al laboratorio fa in modo che il fotone il cui impulso nel centro di massa ha proiezione positiva sull’impulso dell’Higgs divenga il fotone più energetico. Dunque, se i fotoni fossero ordinati in energia e non in energia trasversa, la distribuzione di θ∗ dovrebbe essere compresa solamente fra 0 e 90◦ . Il nostro ordinamento introduce invece degli effetti dipendenti dalla direzione dell’impulso dell’Higgs, difficilmente calcolabili analiticamente. Viene tuttavia spiegata la distribuzione ottenuta: la preponderanza di eventi con θ∗ ≤ 90◦ corrisponde ai casi in cui ET ≈ E; quando ET si discosta molto da E, divengono accessibili angoli maggiori di 90◦ . 5.4 Ottimizzazione genetica dei tagli 5.4 87 Ottimizzazione genetica dei tagli La selezione delle variabili appena descritta permette dunque di identificare un insieme “minimale” di variabili su cui tagliare, che è mostrato in Tabella (5.5). Nella tabella, per ogni variabile, è anche indicato, nella colonna ‘Operatore’, il tipo di taglio che verrà effettuato: ‘>’ indica un limite inferiore, mentre ‘<’ un limite superiore. Viene infine mostrato l’intervallo di pseudorapidità in cui ogni variabile è utilizzata: ‘volume fiduciale’ S indica l’intero intervallo di η considerato (|η| < 1.44 1.55 < |η| < 2.2); ‘barrel’ o ‘endcap’ significa che la data variabile verrà utilizzata in una sola delle due regioni fiduciali considerate (|η| < 1.44 oppure 1.55 < |η| < 2.2); infine con ‘barrel/endcap’ si intende che la data variabile verrà utilizzata separatamente nel barrel e negli endcap, con tagli diversi. P Come si vede, per le variabili di isolamento calorimetrico ( E e H/E) si è deciso di adoperare tagli diversi per candidati fotoni nel barrel o negli endcap. Questa decisione è fondamentalmente basata su due motivazioni: in primo luogo dal fatto che in CMS queste due regioni corrispondono, sia in ECAL che in HCAL, a sottorivelatori diversi (si veda 2.2). Di conseguenza separando le due regioni si vuole tener conto delle differenti risposte di essi. Secondariamente, si vuole considerare il fatto che nelle regioni ad alta pseudorapidità è prevista una maggiore attività adronica, anche negli eventi di segnale. Sarà quindi necessario porre requisiti meno stringenti per non rischiare di deteriorare l’efficienza. Individuato l’insieme di variabili e operatori che definisce la nostra selezione, siamo pronti a ottimizzare i valori dei tagli con il metodo genetico descritto in 4.2. L’ottimizzazione è stata effettuata per l’ipotesi di massa mH = 120 GeV/c2 , dunque sono stati considerati solamente gli eventi con coppie di candidati fotoni di massa invariante compresa fra 118 e 122 GeV/c2 . La fitness di un cromosoma è posta uguale alla significanza √ statistica (s/ b) ottenuta in tale intervallo di massa invariante con la selezione individuata dai suoi geni. Infine, per non ottenere risultati troppo dipendenti dal campione di eventi simulati studiato, si è aggiunto un requisito minimo di efficienza sul segnale: si richiede che l’efficienza sul canale di produzione mediante fusione di gluoni sia almeno del 30%. I parametri dell’ottimizzazione sono riassunti in Tabella (5.7). I valori dei tagli sulle singole variabili sono stati lasciati liberi di variare uniformemente negli intervalli mostrati in Tabella (5.6), senza distinguere, in questo caso, fra primo e secondo fotone. Il limite superiore dell’intervallo di mutazione dell’energia trasversa (ET ) è stato posto a 52 GeV per non deteriorare l’efficienza per ipotesi di massa inferiori a quella considerata nell’ottimizzazione. È stata dunque creata una popolazione di 100 cromosomi, dei quali 99 generati casual- Analisi del canale H → γγ con ottimizzazione genetica 88 Tabella 5.5 Variabile Operatore Intervallo in η ET > volume fiduciale < volume fiduciale < barrel/endcap < barrel/endcap Momento secondo maggiore < barrel R9 > endcap θ∗ < volume fiduciale X ∆R<0.25 X ptracce T (primo fotone) ptracce T (secondo fotone) ∆R<0.35 ( Insieme “minimale” di variabili su cui tagliare. Sono indicati, nell’ordine, la variabile, l’operatore con il quale effettuare il taglio (‘>’ sta per limite inferiore e ‘<’ per limite superiore) e l’intervallo di pseudorapidità nel quale la variabile è utilizzata: con ‘volume S fiduciale’ si indica l’intero intervallo considerato (|η| < 1.44 1.55 < |η| < 2.2), con ‘barrel’ e ‘endcap’ si indicano separatamente le due regioni fiduciali, mentre con ‘barrel/endcap’ si intende che la data variabile verrà utilizzata separatamente nel barrel e negli endcap, con tagli diversi. X E ∆R<0.35 X E (primo fotone) (secondo fotone) ∆R<0.4 H/E (∆R<0.4) (primo fotone) H/E (∆R<0.5) (secondo fotone) 5.4 Ottimizzazione genetica dei tagli Tabella 5.6 89 Intervalli di mutazione dei tagli sulle singole variabili. La mutazione avviene con distribuzione uniforme di probabilità. ET P P (25 ÷ 52) GeV ptracce T (0 ÷ 10) GeV/c E (0 ÷ 10) GeV H/E 0÷1 Momento secondo maggiore 0 ÷ 1.2 R9 0÷1 θ∗ (0 ÷ 90)◦ mente e uno corrispondente ai tagli più efficienti negli intervalli consentiti nella tabella. Lo schema di riproduzione segue quanto descritto in 4.2, e la probabilità di mutazione genetica è stata posta al 10%. Il processo è stato iterato per 90 passi riproduttivi. In Figura (5.14) è visibile l’andamento della fitness del miglior chromosoma e della fitness media della popolazione, nel corso delle 90 generazioni, utilizzando l’insieme di variabili “minimale”. Come si vede, dopo le 90 iterazioni la popolazione appare sostanzialmente “satura”, ovvero il valore medio di fitness della popolazione coincide circa con quello del miglior cromosoma. Come è stato spiegato in 4.2, dallo studio della popolazione cromosomica finale è possibile estrarre informazioni sulla potenza del taglio su una data variabile. Con una popolazione composta da cromosomi di fitness molto simile, se si riscontra, per una data variabile, una vistosa fluttuazione nella soglia del taglio, significa che la variabile in considerazione non è discriminante. Ebbene, dallo studio della popolazione ottenuta dopo queste 90 iterazioni, appare che le due variabili momento secondo maggiore e θ∗ Tabella 5.7 Riassunto dei parametri dell’ottimizzazione genetica. Con gg si è indicata l’efficienza sul segnale nel canale di produzione mediante fusione di gluoni. Fitness Numero di cromosomi Probabilità di mutazione Numero di passi evolutivi √ s/ b (gg > 30%) 100 10% 90 90 Figura 5.14 Analisi del canale H → γγ con ottimizzazione genetica Andamento della fitness del miglior cromosoma e della media della popolazione in funzione del numero di iterazioni generazionali utilizzando l’insieme di variabili “minimale”. non sembrano essere influenti, e devono quindi essere eliminate per non incrementare inutilmente l’errore sistematico associato alla misura. Scartando le due variabili appena menzionate, viene definito l’insieme “finale” di variabili da utilizzare nell’ottimizzazione, elencate in Tabella (5.8). È stata formata un’altra popolazione di 100 cromosomi, nella stessa maniera precedente, ed è stata portata avanti una nuova ottimizzazione genetica, con gli stessi parametri elencati in Tabella (5.7) eccetto il numero di iterazioni, posto questa volta a 120. Il nuovo andamento della fitness è mostrato in Figura (5.15). Il miglior cromosoma della popolazione finale corrisponde quindi all’analisi che cercavamo. I valori dei suoi geni, ovvero dei tagli sulle variabili che ottimizzano la significanza statistica nella regione del picco di massa invariante, sono riportati in Tabella (5.9). Dal momento che i geni sono ottenuti estraendo casualmente dei numeri reali rappresentati nella memoria di un computer, i tagli saranno numeri con la precisione di una variabile in rappresentazione in virgola mobile a 32 bit. I tagli da applicare si ottengono approssimando tali valori con una precisione dell’ordine della risoluzione sperimentale, o da considerazioni fisiche, come vedremo nel seguito. Tenendo conto di quanto detto nel paragrafo 4.2, in tabella sono inoltre riportate le potenze dei singoli tagli, intese come tasso di variabilità della soglia del taglio stesso fra i 5.4 Ottimizzazione genetica dei tagli Tabella 5.8 Insieme “finale” di variabili su cui tagliare. Per i dettagli si veda la didascalia della Tabella (5.5). X ∆R<0.25 X Variabile Operatore Intervallo in η ET > volume fiduciale < volume fiduciale < barrel/endcap < barrel/endcap > endcap ptracce T (primo fotone) ptracce T (secondo fotone) ∆R<0.35 ( 91 X E ∆R<0.35 X E (primo fotone) (secondo fotone) ∆R<0.4 H/E (∆R<0.4) H/E (∆R<0.5) (primo fotone) (secondo fotone) R9 cromosomi della popolazione finale. Come si vede in Figura (5.15), infatti, anche in questo caso la popolazione finale è satura in fitness; dunque un taglio che varia fra i cromosomi dimostra di non essere rilevante ai fini della fitness. Per il primo fotone, risultano essere relativamente più deboli i due isolamenti calorimetrici negli endcap; per il secondo, invece, risulta più debole l’isolamento in ECAL negli endcap. Seguendo quanto fatto in precedenza, si potrebbe concludere che i suddetti tagli sono superflui e che quindi debbano essere eliminati. Tuttavia si è visto che ciò comporterebbe un sensibile peggioramento nella fitness del cromosoma. D’altra parte esistono delle motivazioni fisiche che giustificano la relativa ‘debolezza’ di questi tagli. Per quanto riguarda i tagli di isolamento calorimetrico del primo fotone, la ragione è statistica: i fotoni di decadimento dell’Higgs hanno infatti in media la stessa energia e dunque, per ragioni geometriche, il fotone che è emesso a valori minori di |η| spesso diventa il primo fotone. Di conseguenza è improbabile che il primo fotone sia rivelato negli endcap. La variazione Analisi del canale H → γγ con ottimizzazione genetica 92 Tabella 5.9 Soglie ottimizzate dei tagli sulle variabili. Per ogni variabile è mostrato il valore del taglio utilizzato e la sua “potenza”, intesa come tasso di variazione della soglia del taglio fra i cromosomi della popolazione finale. Si veda il testo per maggiori dettagli. Variabile Primo fotone: Taglio Potenza del taglio ET > 50 GeV FORTE ptracce T < 2.2 GeV/c FORTE E < 3 GeV (barrel) 6 GeV (endcap) FORTE DEBOLE H/E (∆R<0.4) < 6% (barrel) 6% (endcap) FORTE DEBOLE R9 > 0.86 FORTE ET > 26 GeV FORTE ptracce T < 2.1 GeV/c FORTE E < 1.5 GeV (barrel) 4 GeV (endcap) H/E (∆R<0.5) < 6% (barrel) 6% (endcap) FORTE FORTE R9 > 0.89 FORTE X ∆R<0.25 X ∆R<0.35 Secondo fotone: X ∆R<0.35 X ∆R<0.4 Fitness: 0.878 FORTE DEBOLE 5.4 Ottimizzazione genetica dei tagli Figura 5.15 93 Andamento della fitness del miglior cromosoma e della media della popolazione in funzione del numero di iterazioni generazionali utilizzando l’insieme di variabili “finale”. nella soglia dei tagli di isolamento calorimetrico del primo fotone è quindi attribuibile all’esiguità del campione di segnale usato nell’ottimizzazione. Per quel che riguarda queste due variabili, i valori delle soglie sono stati scelti arbitrariamente. Nel caso dell’isolamento elettromagnetico, la variazione genica della popolazione finale era limitata, poco maggiore della risoluzione sperimentale. Dunque è apparso ragionevole scegliere il valor medio di tale variazione. Nel caso della variabile H/E, la variabilità del taglio è considerevole. D’altra parte, nel caso del segnale, valori diversi da zero di questa variabile sono in larga parte attribuibili al rumore di HCAL. Dunque ci si aspetta un comportamento simile a quello riscontrato nel barrel, nel quale, invece, l’elevata statistica ha permesso di definire una soglia con precisione. Per questo motivo la soglia negli endcap è stata adeguata a quella ottenuta nel barrel. Per quanto riguarda il secondo fotone, risulta essere debole il solo isolamento in ECAL negli endcap. D’alra parte, stando a quanto detto, il campione statistico dovrebbe essere sufficientemente vasto per definire una soglia. Si pensa dunque che per il secondo fotone, che come abbiamo più volte osservato è spesso prodotto entro un jet adronico, la relativa debolezza del taglio sia attribuibile alle correlazioni esistenti fra le diverse variabili di isolamento. Un taglio molto stringente su una di esse potrebbe infatti rendere superflua la richiesta su una delle altre. Analisi del canale H → γγ con ottimizzazione genetica 94 Tabella 5.10 mH Efficienza di selezione per diverse ipotesi di massa. Sono mostrati separatamente i diversi canali di produzione del bosone di Higgs. Processo 2 120 130 140 150 Finestra 2 Finestra 2 Finestra ±1 GeV/c ±1.5 GeV/c ±2 GeV/c ±5 GeV/c2 Total Gluon fusion 13.3% 17.7% 20.8% 26.1% 27.3% VBF 15.8% 21.2% 24.6% 30.7% 32.2% Z, W, tt̄ + H 12.0% 16.0% 18.6% 23.3% 24.6% Total 13.4% 17.9% 21.0% 26.3% 27.5% Gluon fusion 14.6% 19.9% 23.5% 29.9% 31.6% VBF 16.1% 21.8% 25.8% 33.0% 34.8% Z, W, tt̄ + H 12.1% 16.5% 19.5% 25.0% 26.6% Total 14.6% 19.8% 23.4% 29.8% 31.5% Gluon fusion 14.7% 20.3% 24.5% 32.4% 34.6% VBF 16.2% 22.1% 26.4% 34.8% 37.1% Z, W, tt̄ + H 12.1% 16.6% 19.8% 26.3% 28.2% Total 14.7% 20.2% 24.4% 32.2% 34.4% Gluon fusion 14.7% 20.5% 24.8% 33.8% 36.4% VBF 15.8% 22.0% 26.4% 36.1% 38.8% Z, W, tt̄ + H 12.1% 16.6% 20.1% 27.8% 30.1% Total 14.7% 20.4% 24.7% 33.7% 36.3% Gluon fusion 14.7% 20.6% 24.9% 34.9% 38.0% VBF 15.5% 21.8% 26.6% 37.0% 40.3% Z, W, tt̄ + H 12.2% 17.1% 20.7% 29.1% 31.9% Total 14.6% 20.5% 24.9% 34.8% 37.9% (GeV/c ) 110 Finestra 2 95 Eventi / GeV / fb-1 5.4 Ottimizzazione genetica dei tagli ! ! (box) ! ! (Born) ! +jets (2 reali) ! +jets (reale + fasullo) Jets Drell Yan H"! ! (m =120) x10 250 200 H 150 100 50 090 Figura 5.16 100 110 120 130 140 150 160 170 180 M! ! [GeV/c2] Spettro di massa invariante dopo la selezione. Il contributo del segnale (mH = 120 GeV/c2 ) è moltiplicato per 10. I contributi dei fondi sono mostrati separatamente. Dal momento che non comporta un peggioramento della fitness del cromosoma, e per non incrementare l’errore associato alla misura, il taglio di isolamento elettromagnetico negli endcap per il secondo fotone è stato eliminato. Fatta eccezione per questa variabile, dunque, l’insieme di tagli riportato nella Tabella (5.9) sono i tagli che adotteremo in questa analisi. In Figura (5.16) è mostrato lo spettro di massa invariante dopo la selezione. Il contributo del segnale è stato moltiplicato per 10 per migliorarne la visibilità. I contributi dei fondi sono mostrati separatamente. In Tabella (5.10) sono riportate le efficienze di selezione per il segnale per diverse ipotesi di massa, in diverse finestre di massa invariante attorno al picco e separatamente per i diversi canali di produzione del bosone di Higgs. Come ci si poteva aspettare, si riscontra un graduale aumento di efficienza all’aumentare di mH , dal momento che il taglio in energia trasversa diventa via via meno stringente. Contemporaneamente notiamo che per ogni ipotesi di massa, data un’efficienza nel canale di produzione mediante fusione di gluoni, puntualmente nel canale di produzione con fusione di bosoni W, Z si osserva un’efficienza maggiore, mentre nel canale con produzione associata ad altre particelle (Z, W, tt̄ + H) un’efficienza minore. La spiegazione è immediata: la fusione di bosoni vettori è un processo con scambio di particelle massive nel canale t, dunque l’Higgs è prodotto con energia trasversa mediamente maggiore; nel caso della produzione associata, invece, l’attività addizionale provocata nel rivelatore dal decadimento delle particelle prodotto insieme all’Higgs Analisi del canale H → γγ con ottimizzazione genetica 96 Tabella 5.11 Numero di eventi di fondo aspettati dopo la selezione per fb−1 di luminosità integrata, per diversi valori di mH . 110 GeV/c2 120 GeV/c2 130 GeV/c2 140 GeV/c2 150 GeV/c2 (fb c2 /GeV) (fb c2 /GeV) (fb c2 /GeV) (fb c2 /GeV) (fb c2 /GeV) γγ (box) 31 25 19 15 11 γγ (Born) 36 32 28 23 19 γ+jets (2 reali) 52 42 32 24 18 γ+jets (reale + fasullo) 43 33 25 19 14 jets 40 32 25 19 15 Drell Yan 3 2 0 2 0 205 166 129 102 77 Totale rende i fotoni di segnale più spesso non isolati. In Tabella (5.11) è invece riportato il numero di eventi di fondo aspettati, separatamente per ogni tipo di fondo e per le diverse ipotesi di massa del bosone di Higgs. I valori sono espressi in fb c2 /GeV, e rappresentano quindi il numero di eventi per fb−1 di luminosità integrata attesi in corrispondenza del picco di massa invariante di segnale. Prima di trattare i risultati, quali ad esempio le luminosità integrate necessarie per la scoperta di un bosone di Higgs in questo intervallo di massa e l’errore da associare a questa metodologia, è stato fatto un tentativo di migliorare la prestazione dell’analisi recuperando i fotoni che, convertendo in coppie e+ e− prima di raggiungere ECAL, sono discriminati dai tagli. 5.5 Recupero dei fotoni convertiti Come già osservato, poco meno del 50% dei fotoni prodotti in CMS converte in una coppia elettrone-positrone (e+ e− ) prima di raggiungere ECAL. In Figura (5.17) è visibile lo spettro in pseudorapidità dei fotoni di decadimento del bosone di Higgs, e, sovrapposta, la frazione di fotoni convertiti. Come si vede la probabilità di convertire è massima nella regione di transizione fra barrel ed endcap (|η| ≈ 1.5) ove è massima la quantità di materiale attraversato. Un fotone che converte forma in CMS un evento con caratteristiche sperimentali sensibilmente diverse da quelle di un fotone non convertito. L’elettrone e il positrone, innanzi- u.a. 5.5 Recupero dei fotoni convertiti 400 Simulati 350 Convertiti 97 300 250 200 150 100 50 0 -4 Figura 5.17 -3 -2 -1 0 1 2 3 4 ! Spettro di pseudorapidità dei fotoni di decadimento del bosone di Higgs e frazione di fotoni convertiti prima di ECAL. tutto, sono rivelati nel tracciatore interno, ove formeranno delle tracce. Secondariamente, essendo carichi, verrano deviati dal campo magnetico. A seconda del loro impulso trasverso e della distanza da ECAL alla quale sono prodotti, possono formare due depositi energetici anche molto separati nel calorimetro. Una particella carica, passando attraverso il tracciatore interno di CMS, rilascia dei segnali (hit) nelle parti sensibili del rivelatore, che siano pixel o strisce di silicio. Tenendo presente il fatto che nell’isolamento da tracce sono considerate solamente le tracce che registrino almeno due hit nei primi tre strati di pixel, le uniche variabili della nostra analisi che sono in grado, almeno in linea di principio, di discriminare i fotoni convertiti sono • l’isolamento da tracce, che, stando a quanto appena detto, discrimina i fotoni che convertono prima del secondo strato di pixel; • la variabile di cluster shape R9 , che discrimina, solamente negli endcap, i fotoni convertiti i cui prodotti di conversione hanno avuto modo di separarsi abbastanza. È utile sottolineare che il taglio sul momento secondo minore non dovrebbe avere influenza sui fotoni convertiti. I due depositi energetici di elettrone e positrone possono, a causa del campo magnetico, essere distanti. Tuttavia le particelle cariche sono deviate principalmente nella direzione di φ, mentre mantengono pressappoco costante il valore di pseudorapidità, quindi gli algoritmi di ricostruzione dovrebbero includerli nello stesso 98 Analisi del canale H → γγ con ottimizzazione genetica supercluster. Il deposito energetico di un elettrone (o di un positrone) ha una forma sostanzialmente identica a quello prodotto da un fotone; dunque un supercluster formato da due depositi di questo tipo ha un momento secondo minore compatibile con quello di un fotone. Facendo riferimento all’algoritmo di ricostruzione dei fotoni convertiti descritto in 3.6.1, le fonti di fondo che possono emulare una conversione di un fotone di segnale possono essere come consuetudine suddivise in due categorie: irriducibili e riducibili. I fondi irriducibili sono costituiti dagli eventi di fondo che presentano un fotone reale che converte; i fondi riducibili sono invece eventi in cui le tracce delle particelle cariche costituenti un jet sono erroneamente associate al deposito elettromagnetico di un adrone, o eventi di tipo Drell Yan. Questi ultimi, nel caso in cui vengano prodotti un elettrone e un positrone, possono essere scambiati per un fotone che converte molto vicino al vertice di interazione. Stando a quanto detto, per recuperare i fotoni di segnale convertiti discriminati dai tagli, è necessario eliminare i requisiti in termini di isolamento da tracce e di R9 . Far ciò in maniera scriteriata, tuttavia, non porterebbe alcun vantaggio alle prestazioni dell’analisi: l’esiguo aumento in efficienza sul segnale sarebbe infatti annegato da quello relativo ai fondi, comportando un sensibile peggioramento in termini di significanza. La ricostruzione dei fotoni convertiti, tuttavia, offre una potente arma di discriminazione nei confronti dei fondi riducibili: la variabile di verosimiglianza (o likelihood) di conversione. Come detto in 3.6.1, la likelihood combina le informazioni di cinque variabili: la differenza fra le cotangenti dell’angolo polare delle due tracce ∆ cot θ, il rapporto fra l’energia del supercluster e la somma dei momenti delle tracce ESC /ptracce , il χ2 normalizzato delle due tracce e la differenza in angolo azimutale δφ delle tracce al vertice di conversione. Le richieste su queste variabili hanno un immediato significato fisico: • ∆ cot θ ≈ 0 è equivalente a richiedere che la massa invariante della coppia sia nulla, come nel caso del fotone che converte. Infatti, trascurando la massa dell’elettrone (me ), la massa invariante della coppia (Me+ e− ) può essere espressa come: Me2+ e− = 2m2e + 2E+ E− − 2p+ p− cos θ ' 2E+ E− (1 − cos ∆θ) ove con E+,− e p+,− si sono indicati rispettivamente le energie e i moduli degli impulsi di positrone ed elettrone, e con ∆θ l’angolo relativo fra le particelle. Imponendo quindi Me+ e− = mγ = 0 si ottiene cos ∆θ = 1 che è equivalente a ∆ cot θ = 0; • ESC /ptracce ≈ 1 significa richiedere che le particelle abbiano massa molto leggera, come nel caso dell’elettrone; u.a. 5.5 Recupero dei fotoni convertiti 99 0.1 H"! ! 0.08 Jets 0.06 Drell Yan 0.04 0.02 00 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Likelihood Figura 5.18 Distribuzioni normalizzate della variabile di likelihood di conversione per eventi di segnale, di jet e per eventi di tipo Drell Yan. • la richiesta sui χ2 delle due tracce equivale a richiedere che le tracce ricostruite siano valide; • δφ ≈ 0 equivale infine a richiedere che il vertice di conversione sia un vertice valido. Nel caso in cui più coppie di tracce sono associate allo stesso supercluster, si sceglie la coppia che ha il massimo valore di likelihood. Da quanto appena detto, tuttavia, appare evidente che questa variabile può essere utilizzata nella discriminazione fra fotoni convertiti autentici e fotoni convertiti fasulli, simulati da jet o da processi Drell Yan. Nel caso dei jet, infatti, tipicamente vengono associate erroneamente tracce di particelle cariche al deposito energetico provocato dal decadimento in fotoni di un adrone neutro (come il π 0 ). In questo caso, quindi, se viene ricostruito un fotone convertito, il valore di likelihood della miglior coppia di tracce dovrebbe essere inferiore a 1 a causa del fatto che variabili come ∆ cot θ e ESC /ptracce hanno valori sensibilmente diversi dai valori attesi per una conversione autentica. Allo stesso modo, nel caso del Drell Yan, un bosone Z che decade in una coppia elettrone-positrone può essere distinto da una conversione avvenuta nei primi due strati di pixel grazie alla massa invariante della coppia di particelle prodotte, ovvero utilizzando la variabile ∆ cot θ. In Figura (5.18) sono visibili le distribuzioni normalizzate della variabile di likelihood, separatamente per i fotoni convertiti ricostruiti in eventi di segnale, per jet e per eventi di tipo Drell Yan. Per ogni supercluster, è stata considerata solo la coppia di tracce 100 Tabella 5.12 Analisi del canale H → γγ con ottimizzazione genetica Efficienza sul segnale. Sono confrontati, per la sola ipotesi di massa mH = 120 GeV/c2 , i valori ottenuti in precedenza (‘No conv.’) con i valori ottenuti dopo il recupero delle conversioni (‘Conv.’). (mH = 120 GeV/c2 ) No conv. Conv. 2 23.4% 24.3% Totale 31.5% 34.3% Finestra ±2 GeV/c che massimizza tale variabile. Negli eventi di segnale sono considerati solamente i fotoni convertiti che sono stati correttamente associati a un fotone convertito realmente simulato nell’evento. A conferma di quanto detto, nel caso dei fotoni, la variabile di likelihood ha un massimo nei pressi di 1, mentre nel caso dei fondi riducibili, che siano jet o eventi Drell Yan, nei pressi di 0. Richiedere un elevato valore di likelihood corrisponde quindi a fare una richiesta molto stringente sulla bontà della conversione, che dovrebbe combattere con efficacia i fondi riducibili. In questa analisi, per recuperare i fotoni convertiti di segnale descriminati dai tagli, si è proceduto nella maniera seguente. Se, in un dato evento, vengono trovati due candidati fotoni che soddisfano separatamente i requisiti per primo e secondo fotone descritti in Tabella (5.9), l’evento è considerato essere un buon candidato di decadimento del bosone di Higgs, senza che nulla venga fatto riguardo ai fotoni convertiti. In ogni altra eventualità sono ricercati nel resto dell’evento dei candidati fotoni convertiti per fare in modo che complessivamente, fra candidati fotoni e candidati fotoni convertiti, l’evento presenti una coppia di candidati valida. Ai candidati fotoni convertiti sono posti gli stessi requisiti di primo e secondo fotone utilizzati nel caso dei candidati fotoni, fatta eccezione per l’isolamento da tracce e la variabile R9 . Questi due tagli non sono applicati nel caso dei fotoni convertiti. Per combattere i fondi riducibili, infine, sono stati considerati solamente i candidati fotoni convertiti con likelihood di conversione maggiore di 0.93. In Tabella (5.12) sono riportate le efficienze sul segnale risultanti dopo il recupero dei fotoni convertiti, confrontate con quelle ottenute in precedenza. È stata considerata la sola ipotesi di massa mH = 120 GeV/c2 . In Tabella (5.13) sono invece riportati il numero di eventi di fondo aspettati in corrispondenza del picco di massa invariante. Come si vede, a fronte di un modesto aumento in efficienza sul segnale (complessivamente circa 3%, ma meno di 1% nella regione del picco), l’aumento di eventi di fondo nella regione del picco è considerevole, rendendo peggiore la significanza risultante. 5.5 Recupero dei fotoni convertiti Tabella 5.13 101 Numero di eventi di fondo aspettati dopo la selezione per fb−1 di luminosità integrata. Sono confrontati i risultati ottenuti in precedenza (‘No conv.’) e i valori ottenuti dopo il recupero delle conversioni (‘Conv.’). I valori si riferiscono alla sola ipotesi di massa mH = 120 GeV/c2 . (mH = 120 GeV/c2 ) No conv. Conv. γγ (box) 25 27 γγ (Born) 32 35 γ+jets (2 reali) 42 50 γ+jets (reale + fasullo) 33 41 jets 32 34 Drell Yan 2 2 166 189 Totale Il motivo di questo fallimento potrebbe essere imputato all’abbandono del potente requisito nella variabile R9 . Come si vede in Figura (5.17), infatti, i fotoni di decadimento dell’Higgs sono prodotto in prevalenza nel barrel. Quindi eliminare il taglio in R9 porta inevitabilmente a un aumento di efficienza sul segnale limitato. I fondi con presenza di jet, d’altra parte, diventano più frequenti più ci si avvicina alla linea dei fasci. Eliminare il requisito in R9 negli endcap, quindi, ha portato a un’infiltrazione di eventi con presenza di jet. Come si vede in Tabella (5.13), infatti, il principale contributo all’aumento di eventi di fondo è stato fornito dagli eventi di tipologia γ+jets. È stato dunque fatto un tentativo ulteriore: sono stati considerati solamente i candidati fotoni convertiti nel barrel. Ogni altro requisito, come la definizione di primo e secondo fotone, o il valore minimo della variabile di likelihood, sono rimasti immutati. In Tabella (5.14) è riportato l’aumento in efficienza sul segnale riscontrato con questo Tabella 5.14 Efficienza sul segnale. Sono confrontati, per la sola ipotesi di massa mH = 120 GeV/c2 , i valori ottenuti in precedenza (‘No conv.’) con i valori ottenuti dopo il recupero delle conversioni nel solo barrel (‘Conv.’). (mH = 120 GeV/c2 ) No conv. Conv. 2 23.4% 23.5% Totale 31.5% 32.4% Finestra ±2 GeV/c Analisi del canale H → γγ con ottimizzazione genetica 102 nuovo metodo. Come si vede, l’aumento di segnale nella regione del picco è davvero esiguo. È stato verificato che con questo metodo la significanza risultante risulta in effetti migliorata, ma solamente dello 0.3% circa, il che corrisponde a un miglioramento irrilevante nel valore di luminosità di scoperta, specialmente se confrontato con l’errore sistematico che verrebbe introdotto con l’utilizzo di questo metodo. Si è pertanto deciso di non includere il recupero dei fotoni convertiti in questa analisi. 5.6 Risultati L’obiettivo di un’analisi di questo tipo è fornire una selezione in grado di scoprire il bosone di Higgs, e quindi una stima della luminosità integrata necessaria per far ciò. Questa previsione è basata sul campione di eventi simulati studiato, che come abbiamo visto, specialmente in alcuni canali di fondo, corrisponde a una statistica limitata. I valori di luminosità integrata che possono essere forniti devono dunque tenere conto dell’incertezza relativa a questa problematica. Facendo riferimento a quanto detto in 3.3, la ricerca del bosone di Higgs in questo canale si basa sullo studio dello spettro di massa invariante dei candidati fotoni che superano una data selezione. La prestazione di una selezione può essere quantificata in termini √ della significanza σ = s/ b che permette di ottenere. Se un’analisi fornisce una certa significanza σ0 per una luminosità integrata pari a 1 fb−1 , la luminosità di scoperta L∗ , espressa in fb−1 , è definita come quella che soddisfa L∗ = 25 fb−1 σ0 √ come si può facilmente verificare. Dato che σ0 = s/ b, ove s e b sono rispettivamente il numero di eventi di segnale e di fondo osservati nella regione del picco di massa invariante, l’incertezza su L∗ dipende dalle incertezze su s e su b. Con una semplice dispersione statistica si ottiene Err(L∗ ) Err(σ0 ) =2· ∗ L σ0 e inoltre Err(σ0 ) 1 Err(b) Err(s) 1 Err(b) = · ⊕ ≈ · σ0 2 b s 2 b 5.6 Risultati Tabella 5.15 103 Risultati dell’analisi. Sono mostrate, per le diverse ipotesi di massa considerate, le luminosità integrate necessarie per la scoperta e per l’evidenza. Sono indicati i valori ottenuti senza considerare gli errori, e quelli in cui è incluso il loro contributo. Scoperta (5σ) (fb−1 ) Evidenza (3σ) (fb−1 ) no errori con errori no errori con errori 120 33.2 44.2 12.0 16.0 130 35.9 47.7 12.9 17.2 140 48.9 65.0 17.6 23.4 150 92.9 123.6 32.4 43.1 mH (GeV/c2 ) dal momento che l’errore sul segnale è trascurabile grazie all’abbondante statistica disponibile nel campione studiato. In altre parole Err(L∗ ) Err(b) = ∗ L b In generale, il numero di eventi di fondo osservati b in un intervallo di massa invariante si può esprimere come b= Nsel · Nexp Ntot ove Nsel è il numero complessivo di eventi simulati che a selezione effettuata cadono nella regione di interesse, Ntot è il numero complessivo di eventi simulati, e infine Nexp è il numero di eventi attesi per la data luminosità integrata. Quest’ultima quantità, nel caso in cui si considera una luminosità integrata pari a 1 fb−1 , è data da Nexp = X σi [fb] · κi i ove la somma è estesa a tutti i processi di fondo, con σi si è indicata la sezione d’urto calcolata al primo ordine del processo i-esimo, espressa in fb, e con κi il fattore K relativo, come definito in 5.1.1. In questo modo si calcola facilmente che Err(b) = Nexp · Ntot q Nsel + Nsel · Err2 (κ) 104 Figura 5.19 Analisi del canale H → γγ con ottimizzazione genetica Luminosità di scoperta in funzione della massa del bosone di Higgs. Sono indicati i valori ottenuti senza considerare gli errori, e quelli in cui è incluso il loro contributo. avendo supposto una fluttuazione poissioniana del numero di eventi osservati dopo la selezione Nsel , e trascurabile l’errore sulla sezione d’urto. Dato che Err(κ) ≈ 25%, si ottiene Err(b) ≈ 33% b che è dunque l’incertezza da associare alle luminosità integrate che stiamo per fornire. I risultati di questa analisi sono riassunti in Tabella (5.15), ove sono riportate, per le diverse ipotesi di massa considerate, le luminosità integrate necessarie per un’eventuale scoperta a 5σ e un’evidenza a 3σ. Gli stessi risultati sono anche mostrati in Figura (5.19). Per ogni ipotesi di massa sono riportate due luminosità di scoperta e due di evidenza, a seconda se si è considerato o meno il contributo degli errori. Le luminosità integrate necessarie sono state calcolate nella seguente maniera. Come si vede in Figura (5.16), per quel che riguarda gli eventi di fondo, e in particolar modo gli eventi di jet, è stato simulato un numero esiguo di eventi, il che produce delle vistose fluttuazioni nello spettro di massa invariante relativo, che male si adattano alla descrizione della realtà sperimentale prevedibile dopo aver accumulato decine di fb−1 di dati. Di 105 L [fb-1] 5.6 Risultati 40 39 38 37 36 35 34 33 32 31 30 0 Figura 5.20 0.5 1 1.5 2 2.5 3 3.5 4 !m [GeV/c2] Andamento della luminosità di scoperta (L) in funzione dell’apertura ∆m della finestra di massa per mH = 120 GeV/c2 . Si veda il testo per maggiori dettagli. conseguenza il metodo descritto in 3.3, lo stimare cioè la significanza statistica contando il numero di eventi di segnale e di fondo in finestre di massa invariante aperte attorno al valore di mH , per poi scegliere la finestra migliore, risulta essere insufficiente a causa della rapida variabilità della significanza al variare dell’apertura della finestra. Si è deciso quindi di stimare il contributo dei fondi con un fit alla distribuzione complessiva, effettuato con una funzione polinomiale di terzo grado. Sono state considerate tutte le finestre di massa invariante (Mγγ ) della forma |Mγγ − mH | < ∆m ove ∆m è stato incrementato di passi pari a 0.1 GeV/c2 nell’intervallo 0.1 − 4 GeV/c2 . In ogni finestra il contributo del fondo è stato valutato integrando la funzione ottenuta dal fit, mentre il segnale, del quale sono stati simulati un numero più che sufficiente di eventi, è stato stimato mediante un semplice conteggio. È stata quindi scelta la finestra in corrispondenza della quale la significanza risulta essere massima. In Figura (5.20) è riportato come esempio il risultato ottenuto per mH = 120 GeV/c2 : in essa è visibile l’andamento della luminosità di scoperta al variare dell’apertura della finestra di massa. Bisogna tuttavia fare un’osservazione. I dati Monte Carlo che sono stati studiati in quest’analisi simulano una conoscenza del rivelatore corrispondente a quella prevista dopo aver raccolto circa 100 pb−1 di dati. Dopo aver raccolto cosı̀ pochi eventi, i diversi sotto- Analisi del canale H → γγ con ottimizzazione genetica 106 Tabella 5.16 Risoluzione di massa invariante. È mostrata, separatamente per le coppie di fotoni nel barrel e per quelle di cui almeno uno rivelato negli endcap, la risoluzione attesa dopo 100 pb−1 , ottenuta con un fit, e la risoluzione ottimale. Si veda il testo per i dettagli. Risoluzione dopo 100 pb−1 Risoluzione ottimale (GeV/c2 ) (GeV/c2 ) Barrel 1.31 0.80 Endcap 2.29 1.11 rivelatori non hanno avuto ancora modo di essere intercalibrati e allineati con precisione, di conseguenza la risoluzione nella misura di massa invariante è inevitabilmente lontana da quella di progetto. Si prevede che dopo aver analizzato 100 pb−1 di eventi si avranno degli errori residui sull’intercalibrazione pari a circa 1.5% nel barrel e 4% negli endcap. D’altra parte questa analisi, come visto, può produrre risultati solamente con diverse decine di fb−1 di dati accumulati. È ragionevole supporre che dopo aver studiato i dati relativi a tale luminosità integrata, l’errore residuo sull’intercalibrazione di ECAL, quantomeno nel barrel, sia inferiore all’1%. Non ha dunque molto senso utilizzare eventi con tale miscalibrazione per fornire luminosità di scoperta cosı̀ elevate, dal momento che verrebbero sicuramente sovrastimate. In Figura (5.21) sono visibili le distribuzioni di massa invariante per fotoni di decadimento di un bosone di Higgs con mH = 120 GeV/c2 . Nel grafico di sinistra sono state considerate solamente le coppie di fotoni rivelate nel barrel, mentre in quello di destra le coppie di fotoni di cui almeno uno rivelato negli endcap. Sono stati effettuati dei fit nella regione del picco, con una funzione di Gauss, in modo da estrarre la risoluzione sulla misura di massa invariante dalla larghezza della gaussiana. I risultati del fit sono riportati in Tabella (5.16). Nella stessa tabella sono inoltre riportati i valori di risoluzione attesi per una intercalibrazione ottimale in ECAL. Questi ultimi sono stati stimati da un campione di eventi simulati in un rivelatore privo di miscalibrazioni. Per avere una stima grossolana (e sicuramente ottimistica) dei risultati che si otterrebbero con un rivelatore calibrato dallo studio di diversi fb−1 di dati, sono state modificate le masse invarianti delle coppie di fotoni di segnale (Mγγ ), trasformandole nella seguente maniera: 0 Mγγ → Mγγ = mH + (Mγγ − mH ) · σopt σ100pb 107 600 500 htemp htemp Entries 3752 Mean 118.8 5.779 RMS !2 / ndf 1.878 / 5 620.8 ± 15.2 Constant Mean 120 ± 0.0 Sigma 1.308 ± 0.027 Entries 1969 Mean 118.9 6.047 RMS !2 / ndf 7.261 / 8 199.2 ± 6.9 Constant Mean 119.8 ± 0.1 Sigma 2.287 ± 0.096 u.a. u.a. 5.6 Risultati 200 150 400 300 100 200 50 100 0 90 100 Figura 5.21 110 120 130 140 0 150 M" " [GeV] 90 100 110 120 130 140 150 M" " [GeV] Distribuzioni di massa invariante per fotoni di decadimento di un bosone di Higgs con mH = 120 GeV/c2 . A sinistra per coppie di fotoni nel barrel, a destra per coppie di fotoni di cui almeno uno negli endcap. Tabella 5.17 Risultati dell’analisi previsti con una calibrazione ottimale del rivelatore. Scoperta (5σ) (fb−1 ) Evidenza (3σ) (fb−1 ) no errori con errori no errori con errori 120 19.3 25.7 7.0 9.3 130 20.5 27.3 7.4 9.8 140 28.0 37.2 10.1 13.4 150 53.1 70.6 19.1 25.4 mH (GeV/c2 ) ove con σopt e σ100pb si sono indicate rispettivamente le risoluzioni di massa invariante ottimale e dopo 100 pb−1 di dati. Sono state utilizzate le diverse risoluzioni per fotoni nel barrel e negli endcap. Per quanto riguarda le distribuzioni di massa invariante dei fondi, ci si aspetta che un miglioramento di risoluzione non provochi grossi cambiamenti dal momento che non sono presenti picchi. È ragionevole prevedere una migrazione di piccola entità di eventi verso valori bassi di massa invariante, ma non si pensa che questo fenomeno possa avere un impatto sostanziale sulle luminosità di scoperta. Per questo motivo non è stata modificata la distribuzione di massa invariante dei fondi. I risultati previsti con una calibrazione ottimale del rivelatore sono riportati in Tabella (5.17). Questi risultati, come già osservato, sono da intendersi come una stima grossolana del limite inferiore di luminosità integrate necessarie. Naturalmente, non c’è 108 Analisi del canale H → γγ con ottimizzazione genetica modo di prevedere in che modo migliorerà la nostra conoscenza del rivelatore nell’arco della presa dati. Dunque tutto ciò che possiamo concludere è che le luminosità integrate che realmente saranno necessarie sono comprese fra quelle riportate in Tabella (5.15) e quelle riportate in Tabella (5.17). Come si è visto, l’errore associato alla previsione ha un effetto importante sulle luminosità di scoperta. D’altra parte non c’è modo di migliorare la precisione delle previsioni di questo tipo di analisi, se non aumentando la statistica del campione di eventi simulati. Possiamo invece fornire una stima dell’errore da associare alla misura effettuata sui dati raccolti da CMS a LHC. Come già descritto in 3.3, la misura della massa del bosone di Higgs è ottenuta dalla distribuzione di massa invariante ottenuta dopo la selezione. Sfruttando il fatto che il contributo di segnale, lontano dalla regione del picco, è trascurabile, si effettua un fit alla distribuzione del fondo nelle due regioni laterali per poi stimare il contributo del fondo sotto al picco con un’estrapolazione, e infine il contributo del segnale per sottrazione. La fonte di errore, in questo procedimento, deriva dalla stima del numero di eventi di fondo b sotto al picco. È importante sottolineare che l’errore sistematico legato alla conoscenza del segnale non gioca alcun ruolo nella misura di scoperta, dal momento che il suo contributo è ottenuto direttamente dai dati. L’errore sul fondo può essere diviso in due componenti: • una componente statistica, corrispondente all’incertezza del fit e dell’ordine quindi √ di b; • una componente sistematica, legata alla nostra ignoranza della funzione analitica che descrive la distribuzione reale degli eventi di fondo. La componente statistica dell’errore è dell’ordine dello 0.7%. La componente sistematica, invece, può essere stimata nella seguente maniera. Nella nostra analisi, il contributo del fondo è ottenuto mediante un fit con una funzione poliniomale di terzo grado. La distribuzione reale del fondo ha un andamento funzionale ignoto, ma nel caso di un istogramma con un numero di bin pari a Nbin , può essere sempre descritta esattamente da un polinomio di grado Nbin −1. Il contributo b dei fondi è ottenuto con un integrale esteso alla regione del picco. L’errore sistematico legato alla scelta della funzione da fit può essere stimato dalla differenza che si ottiene nella stima di b a seconda che si usi, come funzione integranda, il polinomio di terzo grado o quello di grado Nbin − 1. L’eventuale scoperta del bosone di Higgs, come abbiamo visto, potrà avvenire solamente dopo aver accumulato diverse decine di fb−1 di dati. Con una statistica cosı̀ abbondante, 5.6 Risultati 109 è ragionevole aspettarsi, per il fondo, una distribuzione più smussata di quella visibile in Figura (5.16): le fluttuazioni statistiche del numero di eventi in ciascun bin dovrebbero essere compatibili con quelle previste dalla statistica di Poisson. Per evitare quindi che le ingenti fluttuazioni del fondo legate alla statistica povera del campione di eventi studiato comporti una sovrastima di questo errore, è stato applicato uno smussamento all’istogramma. L’istogramma è stato smussato con il cosiddetto “algoritmo 353” [48]. Quest’ultimo sostanzialmente ricalcola i valori dei bin assegnando loro ricorsivamente il valore della mediana dei valori dei bin adiacenti. Il processo di smussamento è stato iterato fino a che le fluttuazioni osservate nei valori dei bin bi dell’istogramma fossero tutte di entità √ minore di bi . A questo punto all’istogramma ottenuto è stato effettuato un fit con le due funzioni di cui si è discusso, e si è stimato quindi l’errore sistematico, che è risultato essere dell’ordine dell’1%. Complessivamente, dunque, l’errore massimo da associare alla misura sarà dell’ordine dell’1.2%. 110 Analisi del canale H → γγ con ottimizzazione genetica Conclusioni In questa tesi è stata presentata un’analisi del canale di decadimento in due fotoni del bosone di Higgs. Quest’analisi è volta alla ricerca di un bosone di Higgs leggero, la cui massa cioè sia compresa fra il limite di esclusione di LEP (114.4 GeV/c2 ) e circa 150 GeV/c2 . Il canale di decadimento studiato è molto raro, dunque risulta essere d’importanza cardinale avere una selezione efficiente. Comparando la topologia aspettata per gli eventi di segnale con quella dei fondi dominanti, sono state individuate le principali differenze fra di essi: il bosone di Higgs, innanzitutto, decade in due fotoni energetici isolati, che non sono prodotti, cioè, in associazione ad altre particelle. Nella maggior parte dei fondi il candidato fotone è prodotto all’interno di un jet, e dunque è per sua natura non isolato: il rivelatore, dunque, dovrebbe registrare dell’attività addizionale nel tracciatore interno, in ECAL o in HCAL. In alcuni casi, inoltre, il candidato fotone è prodotto da un adrone, come il π 0 , che decade in due fotoni. Se l’angolo di apertura fra questi ultimi è abbastanza grande, lo studio della forma del deposito energetico in ECAL dovrebbe essere in grado di discriminarli. Al singolo evento si richiede dunque di presentare due candidati fotoni energetici, isolati, e ciascuno con un deposito energetico in ECAL compatibile con quello di un fotone singolo. Per mettere in pratica ognuno di questi requisiti sono state studiate diverse variabili, al fine di trovare quella maggiormente discriminante fra segnale e fondi. Il confronto è stato effettuato sulla base del potere di reiezione dei fondi della singola variabile, a efficienza sul segnale fissata. Selezionato l’insieme di variabili ottimale, nel caso delle variabili di isolamento sono state ottimizzate le aperture dei coni entro cui ricercare ulteriore attività di rivelatore. Definito quindi un insieme di variabili ottimali su cui tagliare, la scelta delle soglie dei tagli è stata affidata a un algoritmo genetico. Questa ottimizzazione permette di individuare l’insieme di tagli più discriminante, studiando la variazione delle prestazioni 112 Analisi del canale H → γγ con ottimizzazione genetica dell’analisi nello spazio multidimensionale delle variabili considerate. L’algoritmo è inoltre in grado di indicare le variabili che risultano essere ininfluenti ai fini del potere discriminante ottenuto: sono dunque state eliminate alcune di queste, per non incrementare inutilmente l’errore sistematico associato alla misura. Individuato quindi un insieme di tagli, si è cercato di definire una selezione ulteriore che recuperasse quei fotoni di segnale che, convertiti in una coppie elettrone-positrone nell’attraversamento del tracciatore interno, fossero per questo motivo discriminati dai tagli stessi. Le principali differenze sperimentali fra un fotone convertito e uno non convertito sono la presenza delle tracce di conversione e la forma del deposito energetico. Sono dunque stati eliminati i tagli sensibili a queste caratteristiche, e si sono ricercati candidati fotoni convertiti sotto forma di coppie di tracce associate a un deposito energetico in ECAL. La ricerca è stata facilitata dall’uso di una potente variabile di verosimiglianza, in grado di valutare la probabilità che l’associazione fra le tracce e il deposito energetico descriva correttamente un fotone convertito. Questa strategia, tuttavia, non ha avuto successo, poiché a un modesto incremento di efficienza sul segnale ha corrisposto un sensibile incremento di efficienza sui fondi, rendendo la selezione complessivamente meno efficace. La selezione ottenuta con l’algoritmo genetico, dunque, non è stata modificata. Dopo uno studio dell’entità di errore sistematico da associare alla misura, si sono esposti i risultati dell’analisi, sotto forma di luminosità integrate di dati da accumulare per rendere possibile la scoperta del bosone di Higgs. Queste dipendono sia dalla massa del bosone di Higgs, sia dalla precisione con cui viene calibrato il rivelatore. In questa tesi sono state studiate due configurazioni: la calibrazione prevista dopo aver accumulato 100 pb−1 di dati, e la calibrazione ottimale del rivelatore, considerata una buona approssimazione della calibrazione ottenibile dopo lo studio di qualche decina fb−1 di eventi. Questa analisi permette di scoprire un bosone di Higgs con una massa di 120 GeV/c2 , rispettivamente nelle due configurazioni di calibrazione nominate, con luminosità integrate pari a circa 33 e 19 fb−1 , che divengono rispettivamente 44 e 29 fb−1 se si tiene conto dell’errore da associare a questa stima. Bibliografia [1] S.L. Glashow, Nucl. Phys. 22 (1961) 579; S. Weinberg, Phys. Rev. Lett. 19 (1967) 1264; A. Salam, Proc. 8th Nobel Symposium, Aspenasgarden 1968, ed. N. Svartholm (Almqvist and Wiksell, 1968) 367 [2] The ALEPH, DELPHI, L3, OPAL, SLD Collaborations, the LEP Electroweak Working Group, the SLD Electroweak and Heavy Flavour Groups, Precision Electroweak Measurements on the Z Resonance, Phys. Rep. 427 5-6 (2006) 257-454 [3] P.W. Higgs, Phys. Lett. 12 (1964) 232 e Phys. Lett. 13 (1964) 508 [4] K. Nishijima, Progr. in Th. Phys. 13 (1955) 285 M. Gell-Mann, Nuovo Cim. 4 (1956) 848 [5] N. Cabibbo, Phys. Rev. Lett. 10 (1963) 531 [6] M. Kobayashi, T. Maskawa, Prog. Theor. Phys. 49 (1973) 652 [7] W.J. Marciano e A. Sirlin, Phys. Rev. Lett. 61 (1988) 1815 T. van Ritbergen e R.G. Stuart, Phys. Rev. Lett. 82 (1999) 488 [8] N. Cabibbo et al., Nucl. Phys. B 158 (1979) 295 [9] G. Altarelli e G. Isidori, Phys. Lett. B 337 (1994); J.A. Casas, J.R. Espinosa e M. Quirs, Phys. Lett. B 342 (1995) 171; B 382 (1996) 374; T. Hambye e K. Riesselmann, Phys. Rev. D 55 (1997) 7255 [10] K. Wilson, come da citazione in L. Susskind, Phys. Rev. D 20 (1979) 2619; G. ‘t Hooft, Recent Developments in Gauge Theories, Plenum Press (1980) 114 BIBLIOGRAFIA [11] J.F. Gunion, A. Stange, S. Willenbrock, Weakly-coupled Higgs boson, UCD-95-28, ILL-(TH)-95-28, hep-ph/9602238 [12] G. Abbiendi et al., Search for the Standard Model Higgs Boson at LEP, arXiv:hepex/0306033v1 [13] TEVNPH Working Group, Combined CDF and D0 Upper Limits on Standard Model Higgs Boson Production at High Mass (155-200 GeV) with 3 fb−1 of data, FERMILAB-PUB-08-270-E (CDF Note 9465, D∅ Note 5754) [14] LEP Electroweak Working Group, stato di settembre 2007 http://lepewwg.web.cern.ch/LEPEWWG/ [15] http://maltoni.home.cern.ch/maltoni/TeV4LHC [16] M. Spira, HIGLU: A program for the calculation of the Total Higgs Production Croos Section at Hadron Colliders via Gluon Fusion including QCD Corrections, arXiv:hepph/9510347 [17] M. Carena e H.E. Haber, Prog. in Part. Phys. 50 (2003) 152 [18] D. Denegri, Standard Model Physics at the LHC (pp collisions), in Proceedings of the Large Hadron Collider Workshop, Vol. I (1990) 55, CERN 90-10 [19] CMS Technical Proposal, CERN/LHCC 94-38 [20] ATLAS Technical Proposal CERN/LHCC 94-43 [21] LHCb Technical Proposal, CERN/LHCC 98-4 [22] ALICE Technical Proposal, CERN/LHCC 95-71 [23] CMS Physics Technical Design Report, Volume 1, CERN/LHCC/2006-001 [24] G. Organtini, PbWO4 crystals for the CMS electro-magnetic calorimeter, Nuclear Physics B (Proc. Suppl.) 61B (1998) 59-65 [25] E. Auffray et al., Scintillation characteristics and radiation hardness of PWO scintillators to be used at the CMS electromagnetic calorimeter at CERN, CMS TN/95-123 [26] The Electromagnetic Calorimeter Project, Technical Design Report, CERN/LHCC 9733 BIBLIOGRAFIA 115 [27] M. Angelone et al., Neutron flux measurement at Tapiro fast reactor for APD’s irradiation fluence evaluation, CMS Note 1998/060 [28] P. Adzic et al., Energy resolution of the barrel of the CMS electromagnetic calorimeter, JINST 2 P04004 (2007) [29] R. Wigmans, Calorimetry - Energy Measurements in Particle Physics, Oxford University Press (2000) [30] E. Meschi et al., Electron reconstruction in the CMS Electromagnetic Calorimeter, CMS Note 2001/034 [31] S. Baffioni et al., Electron Reconstruction in CMS, CMS Note 2006/040 [32] R. Ranieri, The Simulation of the CMS Silicon Tracker, CMS CR-2008/007; http://indico.cern.ch/conferenceDisplay.py?confId=26422 [33] N. Marinelli, Track finding and identification of converted photons, CMS Note 2006/005 [34] T. Kolberg, non ancora pubblicato [35] G. Organtini, Using genetics in particle physics, Int. Journal of Mod. Phys., C (6) 4 (1995) 605-610 [36] C. Darwin, On the Origin of Species, John Murray, London (1859) [37] R. Frühwirth, Nucl. Instr. and Meth. A 262 (1987) 444 [38] http://www.thep.lu.se/torbjorn/Pythia.html T. Sjöstrand, Computer Physics Communications 80 (1994) 74; S. Mrenna, Computer Physics Communications 101 (1997) 292 [39] M. Pieri et al., Inclusive search for the Higgs Boson in the H → γγ channel, CMS Note 2006/112 [40] M. Pieri et al., Generator level selection of multi-jet and γ+ jets events for H → γγ search, CMS IN 2005/018 [41] T. Binoth et al., hep-ph/0204316 (2002), hep-ph/0403100 (2004), hep-ph/0203064 (2002), hep-ph/0005194 (2000) 116 BIBLIOGRAFIA [42] The TriDAS Project Technical Design Report, Volume 1: The Trigger Systems, CERN/LHCC 2000-38 (2000) [43] The TriDAS Project Technical Design Report, Volume 2: Data Acquisition and HighLevel Trigger, CERN/LHCC 2002-26 (2002) [44] https://twiki.cern.ch/twiki/bin/view/CMS/CMSSW [45] D. Franci, Algoritmi di identificazione di fotoni e pioni neutri con il calorimetro elettromagnetico di CMS, Tesi di Laurea Specialistica, Univ. Roma La Sapienza, A.A. 2006-2007 [46] A. Höcker et al., TMVA - Toolkit for Multivariate Analysis with ROOT. Users Guide, arXiv physics/0703039, CERN-OPEN-2007-007 [47] R. Brun e F. Rademakers, ROOT - An Object Oriented Data Analysis Framework, Proceedings AIHENP’96 Workshop, Nucl. Inst. and Meth. in Phys. Res. A 389 (1997) 81-86; http://root.cern.ch [48] J. H. Friedman, Data Analysis Techniques for High Energy Particle Physics, in Proceedings of the 1974 CERN School of Computing, Godoysund (Norway), 1974. CERN Report 74-23