Università di Roma Tor Vergata LAUREA SPECIALISTICA IN FISICA Studio dell’Accettanza Geometrica nei Decadimenti Leptonici dei Bosoni Vettori Intermedi W e Z per l’Esperimento ATLAS ad LHC Candidato Manuela Venturi Relatore Prof. A. Di Ciaccio Anno Accademico 2007/2008 The discovery of the W and the Z is not the end − it is the beginning. dal discorso di G. Ekspong alla consegna del Premio Nobel per la Fisica a Carlo Rubbia e Simon van der Meer (1984). Indice Introduzione vii 1 L’esperimento ATLAS al collider LHC del CERN 1.1 Il collider LHC . . . . . . . . . . . . . . . . . . . . 1.2 L’esperimento ATLAS . . . . . . . . . . . . . . . . 1.2.1 Caratteristiche generali del rivelatore . . . . 1.2.2 Inner Detector . . . . . . . . . . . . . . . . . 1.2.3 I calorimetri . . . . . . . . . . . . . . . . . . 1.2.4 Il sistema a muoni . . . . . . . . . . . . . . 1.3 Ricostruzione e identificazione dei muoni . . . . . . . . . . . . . 1 1 3 3 6 7 9 18 . . . . . . . . . . . 25 25 28 34 36 37 38 41 43 44 47 48 . . . . . . 51 51 51 53 55 57 59 2 La Fisica ad LHC 2.1 Il Modello Standard . . . . . . . . . . . . . . . . . 2.2 L’interazione elettrodebole . . . . . . . . . . . . . 2.2.1 Decadimento leptonico di W . . . . . . . . 2.2.2 Decadimento leptonico di Z . . . . . . . . 2.3 Misure del Modello Standard in ATLAS . . . . . 2.3.1 La massa del W . . . . . . . . . . . . . . . 2.3.2 La Fisica del quark top . . . . . . . . . . . 2.3.3 La ricerca del bosone di Higgs . . . . . . . 2.4 Oltre il Modello Standard . . . . . . . . . . . . . 2.4.1 La ricerca della Supersimmetria in ATLAS 2.4.2 Scenari esotici . . . . . . . . . . . . . . . . 3 La Fisica dei bosoni vettori intermedi W e Z 3.1 Il processo Drell-Yan . . . . . . . . . . . . . . 3.1.1 La collisione protone-protone . . . . . 3.1.2 Sezione d’urto a Leading Order . . . . 3.1.3 Correzioni a Next to Leading Order . . 3.1.4 Distribuzione in momento trasverso dei 3.2 Funzioni di distribuzioni partoniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . partoni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv INDICE 3.3 3.4 3.5 3.2.1 Fattorizzazione . . . . . . . . . . . . . . . . 3.2.2 Evoluzione . . . . . . . . . . . . . . . . . . . 3.2.3 Violazioni di scaling . . . . . . . . . . . . . Metodo CTEQ per il fit delle PDF . . . . . . . . . 3.3.1 Il metodo hessiano . . . . . . . . . . . . . . 3.3.2 L’analisi CTEQ 6 . . . . . . . . . . . . . . . 3.3.3 Effetti di massa dei quark: CTEQ 6.5 e 6.6 . 3.3.4 Correlazioni . . . . . . . . . . . . . . . . . . Neural Network PDF . . . . . . . . . . . . . . . . . 3.4.1 Struttura generale di una rete neurale . . . . 3.4.2 Applicazione al caso delle PDF . . . . . . . 3.4.3 Incertezza sulle quantità derivate . . . . . . Generatori Monte Carlo . . . . . . . . . . . . . . . 3.5.1 Fattori di forma di Sudakov . . . . . . . . . 3.5.2 Evoluzione backward . . . . . . . . . . . . . 3.5.3 Struttura generale di un generatore di eventi 3.5.4 Herwig . . . . . . . . . . . . . . . . . . . . . 3.5.5 Pythia . . . . . . . . . . . . . . . . . . . . . 3.5.6 Mc@Nlo . . . . . . . . . . . . . . . . . . . . . 4 Studi di accettanza geometrica 4.1 Motivazione per la misura di σW/Z . . 4.1.1 Metodo per la misura di σW/Z 4.2 Descrizione delle simulazioni . . . . . 4.2.1 Analisi delle distribuzioni . . 4.3 Calcolo dell’accettanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Errori sistematici nel calcolo dell’accettanza 5.1 PDF . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 CTEQ 6.1 . . . . . . . . . . . . . . . . 5.1.2 Confronto con le CTEQ 6 e 6.6 . . . . 5.1.3 Correlazioni . . . . . . . . . . . . . . . 5.1.4 Neural Network PDF . . . . . . . . . . 5.2 Momento trasverso intrinseco dei partoni . . . 5.3 Radiazione di stato iniziale . . . . . . . . . . . 5.4 Correzioni di QED: Photos . . . . . . . . . . 5.5 Correzioni elettrodeboli: Horace . . . . . . . . 6 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 64 65 68 69 74 77 83 85 86 88 90 91 91 93 94 95 97 98 . . . . . 101 . 101 . 102 . 106 . 109 . 116 . . . . . . . . . 121 . 122 . 122 . 128 . 133 . 135 . 139 . 140 . 144 . 147 151 INDICE A Parametri delle A.1 Herwig . . . A.2 Pythia . . . A.3 Mc@Nlo . . . A.4 Horace . . . v simulazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 . 153 . 155 . 155 . 157 Bibliografia 159 Ringraziamenti 167 vi Introduzione L’esperimento ATLAS, al collisore protone-protone del CERN di Ginevra, è stato costruito con lo scopo di estendere le attuali conoscenze della Fisica delle particelle elementari, grazie all’energia nel centro di massa pari a √ s = 14 TeV e alla luminosità di progetto L = 1034 cm−2 s−1 . L’obiettivo principale di Fisica è l’elucidazione del meccanismo di rottura spontanea della simmetria elettrodebole, che si manifesterebbe tramite l’esistenza del bosone di Higgs, oltre alla ricerca di segnali di Nuova Fisica, come le particelle supersimmetriche. L’esperimento ATLAS sarà inoltre in grado di eseguire, già nella fase iniziale, studi di precisione nell’ambito del Modello Standard, grazie alle alte sezioni d’urto di produzione dei quark bottom e top e dei bosoni vettoriali intermedi W e Z. Una delle prime misure che l’esperimento affronterà sarà proprio quella della sezione d’urto per la produzione ed il decadimento leptonico dei bosoni vettoriali intermedi, nei canali pp → W → `ν` + X e pp → Z → `+ `− + X, con ` = e e µ. Questi processi saranno molto abbondanti ad LHC: per ogni canale leptonico, sono attesi circa 108 bosoni Z all’anno nella fase ad alta luminosità, e un fattore 10 in più di bosoni W . Dal punto di vista sperimentale, i decadimenti dei bosoni vettori sono considerati “candele standard”, e saranno utilizzati fin dalle prime fasi della presa dati per la calibrazione del calorimetro elettromagnetico (Z → e+ e− ), per l’allineamento delle tracce nello spettrometro a muoni (Z → µ+ µ− ), e per monitorare la luminosità del rivelatore, grazie ad una segnatura pulita, non oscurata da fondi importanti, oltre che semplice da caratterizzare, grazie viii INTRODUZIONE alla presenza di leptoni ad alto impulso trasverso. Più a lungo termine, l’obiettivo è quello di portare l’errore sulle sezioni d’urto σW,Z al di sotto dell’1%, che è la soglia raggiunta al momento dal calcolo teorico al Next to Next to Leading Order. Lo studio dei decadimenti leptonici dei bosoni vettori, è essenziale anche perché essi costituiscono il fondo dominante per molti dei canali di Nuova Fisica che verranno esplorati dall’esperimento ATLAS. Infine, si potrà estrarre da questi processi una conoscenza accurata delle funzioni di distribuzioni partoniche (PDF) ad altissimi momenti trasferiti (Q ≈ (102 ÷ 103 ) GeV). Per quanto riguarda l’errore atteso sulla sezione d’urto, l’alta statistica raccolta dall’esperimento renderà in breve dominante l’errore sistematico dovuto all’accettanza geometrica. Il mio lavoro si è concentrato proprio sulla stima dell’accettanza nei decadimenti leptonici di W e Z, e del suo errore sistematico teorico, stima effettuata con l’ausilio dei generatori Monte Carlo. La Tesi è strutturata in cinque Capitoli. Nel primo Capitolo viene descritto l’esperimento ATLAS nelle sue componenti principali – l’Inner Detector, i calorimetri, lo spettrometro a muoni, le camere per il tracciamento e il trigger – e nelle sue performance – la risoluzione in impulso trasverso e in energia mancante, l’efficienza di trigger e di ricostruzione delle tracce delle particelle. Nel secondo Capitolo, illustrerò brevemente il Modello Standard, la rottura spontanea della simmetria elettrodebole tramite il bosone di Higgs ed il Modello Standard Supersimmetrico Minimale, per poi volgere l’attenzione ai traguardi che l’esperimento ATLAS si propone nei vari settori. Nel terzo Capitolo, viene studiata più in dettaglio la teoria dei processi Drell-Yan, a Leading e a Next to Leading Order. Poiché le PDF dominano l’errore sistematico sull’accettanza geometrica, ad esse è dedicato lo spazio maggiore, in particolare a due dei metodi usati per estrarle dalle misure delle funzioni di struttura: il metodo hessiano della collaborazione CTEQ ed il metodo delle reti neurali. In questo Capitolo descriverò anche la struttura generale dei generatori Monte Carlo, soffermandomi sulle caratteristiche INTRODUZIONE ix principali di quelli che ho utilizzato per le simulazioni (Herwig, Pythia ed Mc@Nlo). Il quarto Capitolo contiene i risultati del calcolo dell’accettanza, per i vari processi, sia all’ordine Leading in αs , che a quello Next to Leading. Nel quinto Capitolo, affronto infine il problema dell’errore sistematico. Partendo dalla configurazione di default, ho variato tutti i parametri a cui l’accettanza è sensibile: le PDF, il momento trasverso intrinseco dei partoni, la quantità di radiazione permessa nello stato iniziale, le correzioni elettromagnetiche e quelle elettrodeboli. La descrizione tecnica delle configurazioni dei generatori Monte Carlo, è contenuta nell’Appendice. x Capitolo 1 L’esperimento ATLAS al collider LHC del CERN 1.1 Il collider LHC L’acceleratore circolare Large Hadron Collider (LHC) [29] è stato costruito al CERN per estendere le frontiere della Fisica delle particelle, grazie alla sua energia e alla sua luminosità senza precedenti. É situato nel tunnel di LEP, lungo 27 Km, e accelererà due fasci indipendenti di protoni,√concentrati in pacchetti di 1011 , fino a un’energia nel centro di massa di s = 14 TeV. La frequenza delle collisioni sarà altissima: 4 × 107 collisioni al secondo, corrispondenti alla luminosità di disegno istantanea L = 1034 cm−2 s−1 . LHC fornirà anche collisioni di ioni pesanti, in particolare nuclei di Piombo a 5.5 TeV e L = 1027 cm−2 s−1 . La Figura 1.1 mostra schematicamente il layout del complesso di acceleratori del CERN. Nell’anello di LHC, i fasci di protoni si incroceranno in quattro punti, che sono i siti dei quattro esperimenti principali: ATLAS (A Toroidal LHC ApparatuS) [58] e CMS (Compact Muon Solenoid) [60] sono situati diametralmente opposti (punti 1 e 5), ALICE (A Large Ion Collider Experiment) [57] nel punto 2, e LHCb [62] nel punto 8. Mentre ATLAS e CMS potranno esplorare tutto il potenziale di Fisica ad LHC (sono detti per questo multipurpose), gli altri esperimenti sono specializzati: ALICE studierà le collisioni tra ioni pesanti e la conseguente formazione del plasma gluone-quark, mentre LHCb si dedicherà alla Fisica di precisione del mesone B. Inoltre, l’esperimento TOTEM [63], situato nella caverna di CMS, ha come obiettivo la misura della sezione d’urto totale protone-protone. 2 1.1. IL COLLIDER LHC Come già accennato, ognuno dei due fasci conterrà 2808 pacchetti, costituiti da 1011 protoni ciascuno. Il primo stadio dell’accelerazione si svolge nel PS (Proton Synchrotron), in cui i pacchetti vengono portati all’energia di 26 GeV; il secondo stadio consiste nell’iniezione nell’SPS (Super Proton Synchrotron), dove i pacchetti vengono accelerati fino a 450 GeV e poi trasferiti nell’LHC. Lo spaziamento temporale tra i pacchetti di protoni è di 25 ns, mentre è di 125 ns per i fasci di ioni di Piombo. Figura 1.1: Layout del sistema di acceleratori del CERN. Il sistema dei magneti comprende 1232 dipoli. L’accelerazione verrà impressa in otto cavità lungo il percorso, raffreddate ad Elio liquido. Su ciascun lato dei punti di interazione (IP), un tripletto di quadrupoli, ognuno lungo 31 m, fornirà il focheggiamento dei fasci. La realizzazione di un progetto ambizioso come LHC ha richiesto il raggiungimento di nuovi traguardi nella realizzazione dei rivelatori, sia per quanto riguarda la precisione necessaria nel difficile contesto di un’interazione adronica ad altissime energia e frequenza, sia per la protezione dalle alte dosi di radiazioni generate nelle collisioni. La schedula per il ripristino delle operazioni − interrotte nel settembre 2008 subito dopo l’avvio a causa di un incidente ai magneti nel settore 3-4, con conseguente fuoriuscita di Elio liquido − prevede una fase di riparazioni nei primi mesi del 2009, e una nuova partenza nel settembre dello stesso anno. Attualmente l’esperimento è in fase di commissioning, ovvero di studio e calibrazione dei suoi rivelatori tramite l’acquisizione dei dati da raggi cosmici. Possiamo distinguere due fasi principali per le operazioni con i fasci di 1.2. L’ESPERIMENTO ATLAS 3 protoni [51]. Durante la prima fase − dall’autunno 2009 all’autunno 2010 − l’energia per fascio sarà di 5 TeV e la luminosità L = 1030 cm−2 s−1 : in questo periodo ci si aspetta di raccogliere tra i 200 e i 300 pb−1 di dati, che saranno utilizzati da una parte per la calibrazione del rivelatore, gli studi di performance del trigger e la determinazione delle efficienze, dall’altra per lo studio di processi ben noti, come la produzione Drell-Yan dei bosoni vettori W e Z(1 ), e la Fisica del quark top. Nella fase seguente, in cui la luminosità istantanea salirà a L = 1033 cm−2 s−1 , per poi raggiungere quella di disegno, sarà dedicata alla ricerca del bosone di Higgs e delle particelle supersimmetriche, oltre che all’esplorazione degli scenari più esotici. Nel seguito ci soffermeremo sulla descrizione dell’esperimento ATLAS. Focalizzeremo la nostra attenzione sul sistema dedicato alla misura dei muoni, in quanto essi rappresentano la segnatura di riferimento per molti degli obiettivi di Fisica di ATLAS. 1.2 1.2.1 L’esperimento ATLAS Caratteristiche generali del rivelatore Definiamo innanzitutto il sistema di riferimento. L’origine delle coordinate risiede nel punto nominale di interazione; l’asse z è la direzione del fascio, il piano xy è trasverso al fascio, quindi il momento trasverso è definito come: q pT = p2x + p2y e cosı̀ l’energia trasversa. L’asse x punta verso il centro dell’anello di LHC, l’asse y punta verso l’alto. Il lato A (C) del rivelatore è quello a z positive (negative). L’angolo azimutale φ è misurato intorno all’asse z (0 < φ < 2π), mentre l’angolo polare θ è misurato a partire dallo stesso asse (0 < θ < π). La rapidità y e la pseudorapidità η sono definite come: · ¸ µ ¶ E + pz θ 1 , η = − ln tan y = ln , (1.1) 2 E − pz 2 dove la rapidità è approssimata dalla pseudorapidità in caso di particelle di massa trascurabile. In Figura 1.2 vediamo la variazione di η in funzione del1 Il processo Drell-Yan propriamente detto coinvolge solo la produzione di un fotone; nel seguito, estendiamo la notazione ad includere anche la produzione ed il decadimento dei bosoni vettori massivi W e Z. 4 1.2. L’ESPERIMENTO ATLAS l’angolo polare: pseudorapidità maggiori corrispondono ad angoli più vicini alla linea del fascio. Figura 1.2: Andamento della pseudorapidità η in funzione dell’angolo polare θ. Definiamo infine la distanza ∆R nel piano φ − η, che viene usata per quantificare l’isolamento delle particelle nel rivelatore, e per la definizione dei jet di QCD: p ∆R = ∆η 2 + ∆φ2 . (1.2) In Figura 1.3 vediamo il disegno complessivo dell’esperimento ATLAS, mentre in Tabella 1.1 sono elencate in dettaglio la risoluzione in impulso e la copertura angolare del tracciatore centrale e dello spettrometro a muoni. Figura 1.3: Vista schematica dell’esperimento ATLAS [10]. Da notare che il rivelatore è simmetrico rispetto al punto di interazione. Il sistema magnetico comprende un solenoide superconduttore intorno all’In- 1.2. L’ESPERIMENTO ATLAS 5 ner Detector (il campo risultante è di 2 T), e tre toroidi superconduttori a simmetria ottagonale all’esterno dei calorimetri. L’Inner Detector è circondato da calorimetro elettromagnetico (EM) a sampling, costituito di Argon liquido (LAr) ad alta granularità e strati di Piombo. L’Argon liquido è usato anche per i calorimetri adronici, per avere continuità con quelli elettromagnetici. Procedendo verso l’esterno, si incontra lo spettrometro a muoni, con tre strati di camere di tracciamento ad alta precisione, e camere di trigger ad alta risoluzione temporale ((1.5 ÷ 4) ns). Componente Risoluzione del rivelatore richiesta Misura Trigger σpT /pT = 0.05% pT ⊕ 1% √ σE /E = 10%/ E ⊕ 0.7% ±2.5 − ±3.2 ±2.5 ±3.2 ±3.2 3.1 < |η| < 4.9 3.1 < |η| < 4.9 ±2.8 ±2.4 Tracciamento Calorimetro EM Copertura in η Calorimetro adronico: Barrel ed end-cap In avanti Spettrometro a muoni √ σE /E = 50%/ E ⊕ 3% √ σE /E = 100%/ E ⊕ 10% σpT /pT = 3% a 100 GeV σpT /pT = 10% a 1 TeV Tabella 1.1: Risoluzione e copertura in pseudorapidità dei vari rivelatori di ATLAS [10]. Impulsi ed energie sono in GeV. La frequenza di interazione protone-protone, alla luminosità di disegno, è approsimativamente 1 GHz, mentre la registrazione dei dati è limitata a 200 Hz. Occorre quindi un fattore di reiezione di 5 × 106 , che permetta di preservare i dati potenzialmente interessanti. Il trigger di Livello 1 (L1) diminuisce il rate degli eventi da salvare a 75 kHz, avvalendosi dell’informazione proveniente da un sottoinsieme dell’intero apparato; si scende poi fino a 200 Hz tramite i due livelli di trigger successivi, indicati collettivamente come trigger di alto livello. Vediamo in Figura 1.4 il rate di particelle stimato nel rivelatore dopo il trigger di Livello 1, in funzione della soglia in pT . Con un taglio in pT a 20 GeV − che è quello usato per esempio per selezionare gli eventi W e Z − il rate totale è di circa 5 Hz, ed è dominato dalla produzione di quark pesanti. 6 1.2. L’ESPERIMENTO ATLAS Figura 1.4: Rate di particelle stimato nell’esperimento ATLAS dopo il trigger di Livello 1, in funzione della soglia in momento trasverso [10]. 1.2.2 Inner Detector L’Inner Detector (ID), un cilindro di dimensioni 2.1 m × 6.2 m che circonda la beam-pipe (Figura 1.5), è il cuore del rivelatore. Figura 1.5: Vista schematica dell’Inner Detector [10]. E’ immerso in un campo magnetico solenoidale di 2 T, le cui linee di campo corrono parallele all’asse del fascio. La funzione principale dell’ID è il tracciamento delle particelle cariche al suo interno, in modo da ricostruirne la carica, l’impulso, i vertici primari e secondari. Il tracciamento è assicurato dai tracciatori a pixel e a microstrip di Silicio (SCT, Semi Conductor Trac- 1.2. L’ESPERIMENTO ATLAS 7 king), e dai rivelatori a radiazione di transizione (TRT). I tracciatori di precisione (pixel e SCT) coprono la regione |η| < 2.5. Come si vede dalla Figura, quelli nel barrel (corpo centrale del rivelatore, letteralmente “barile”) sono disposti perpendicolarmente a quelli negli end-cap. L’obiettivo di questi sottorivelatori è di assicurare un’ottima risoluzione in impulso, oltre che la localizzazione del vertice primario e di quelli secondari, in condizioni di altissima densità di tracce. La massima granularità è raggiunta intorno all’IP, e decresce gradualmente a distanze crescenti. La soluzione adottata consiste nel far attraversare ad ogni traccia almeno quattro strati di strip di Silicio e tre strati di pixel nella zona più interna. Gli strati di pixel sono segmentati in Rφ e in z, con dimensioni standard di Rφ × z = 50 × 400 µm2 . I canali di lettura sono circa 80 milioni per i pixel, 6 milioni per le microstrip di Silicio. Ogni traccia è inoltre registrata dai tracciatori a radiazione di transizione, con 36 hit per traccia; questi rivelatori provvedono solo l’informazione in Rφ, fino a |η| = 2.0. Permettono tuttavia di estendere l’informazione sul tracciamento a grandi distanze, compensando la minor precisione col grande numero di punti raccolti. Il tracciamento effettuato nell’Inner Detector è complementare a quello dei calorimetri elettromagnetici, come vedremo in Sezione (1.3). 1.2.3 I calorimetri I calorimetri, elettromagnetici e adronici, circondano l’Inner Detector, come mostrato in dettaglio in Figura 1.6. Presi nel loro insieme, essi coprono il range |η| < 4.9, che è molto vasto e comprende quindi zone assai diverse per performance richieste e per dosi di radiazioni assorbite. In particolare, mentre per il calorimetro elettromagnetico a LAr, che si trova direttamente dopo il rivelatore centrale, c’è la necessità di avere altissima precisione e quindi una granularità molto fine, queste richieste possono essere rilassate via via che ci si allontana dall’Inner Detector. Caratteristica comune di questi rivelatori, è la capacità di contenimento delle cascate, adronica ed elettromagnetica. Il calorimetro EM ha spessore maggiore di 22 lunghezze di radiazione (X0 ) nel barrel, e maggiore di 24 X0 negli end-cap. In complesso, lo spessore del sistema dei calorimetri di ATLAS è di 11 λ a η = 0, sufficiente per una buona misura di ETmiss e dei jet altamente energetici. 8 1.2. L’ESPERIMENTO ATLAS Figura 1.6: Vista schematica del sistema dei calorimetri [10]. Calorimetro elettromagnetico a LAr É diviso in una componente di barrel (|η| < 1.47) e due componenti di endcap (1.37 < |η| < 3.2), ognuna racchiusa nel proprio criostato. Il calorimetro del barrel consiste di due metà identiche (z > 0 e z < 0), separate da una piccola gap di 4 mm a z = 0, per il passaggio dei cavi e dei servizi. I due calorimetri degli end-cap sono invece divisi entrambi in due ruote coassiali. La copertura in φ è pressoché totale, senza zone morte, grazie a una geometria a fisarmonica: questo permette di avere molti strati attivi in profondità. La struttura del calorimetro elettromagnetico è a sampling, con strati alternati di Piombo e Argon liquido: l’Argon è il materiale sensibile, mentre il Piombo, la cui funzione è l’assorbimento dello sciame, ha uno spessore variabile in funzione di η. La scelta dell’Argon liquido è dovuta alla sua risposta intrinsecamente lineare e stabile nel tempo, e alla sua resistenza alle radiazioni. La zona di transizione tra barrel ed end-cap è equipaggiata con un presciamatore (uno strato di LAr) che, per 1.5 < |η| < 1.8, corregge per le perdite di energia in questa zona. Inoltre, il calorimetro forward, FCal, copre l’intervallo in rapidità 3.1 < |η| < 4.9, cosı̀ da misurare l’energia di fotoni ed elettroni nella zona più prossima al fascio. I segnali del calorimetro EM sono amplificati e formati ogni 25 ns, e immagazzinati in memorie analogiche in attesa del trigger di Livello 1. 1.2. L’ESPERIMENTO ATLAS 9 Calorimetri adronici Si trovano sulla linea del fascio, subito dopo i calorimetri elettromagnetici. Sono di due tipi: il tile calorimeter (letteralmente “calorimetro a tegola”) e quello dell’end-cap. Il primo usa il Ferro come materiale assorbitore, e una struttura a mattonelle per la scintillazione. Le particelle ionizzanti che attraversano queste mattonelle inducono la produzione di luce di scintillazione ultravioletta, che viene poi convertita in luce visibile da uno wavelength shifter, per essere letta dai fotomoltiplicatori. La copertura è |η| < 1.7, con uno spessore totale di 9.7 λ a η = 0. La struttura è autoconsistente, e comprende 3 sezioni di 64 moduli ciascuna. Il calorimetro adronico dell’end-cap è invece ad Argon Liquido, come quello elettromagnetico, dietro al quale è immediatamente posizionato, e col quale condivide il criostato. É formato da due ruote indipendenti per end-cap, ognuna divisa in due strati; il materiale assorbitore è il Rame. Il calorimetro forward (FCal) comprende una parte adronica (due moduli assorbitori di Tungsteno) e una elettromagnetica (un modulo assorbitore di Rame), entrambe alternate con gap di Argon liquido. L’FCal è accoppiato con i calorimetri degli end-cap e ne condivide il criostato; questa scelta minimizza le perdite di energia nelle zone di transizione tra i due sottorivelatori. L’FCal si trova sulla linea del fascio, a 4.7 m dal punto di interazione, per cui è esposto a flussi intensi di particelle: per ottimizzare la risposta, gli strati riempiti di Argon liquido dell’FCal sono molto più sottili di quelli dei calorimetri EM. 1.2.4 Il sistema a muoni Uno schema dello spettrometro a muoni è mostrato in Figura 1.7, mentre i suoi parametri principali sono listati in Tabella 1.2. Lo spettrometro è stato progettato per fornire accurate misure di impulso da pochi GeV fino a vari TeV: se infatti la maggior parte dei processi interessanti, sia del Modello Standard sia di nuova Fisica, produce tracce ad alto pT , non possiamo trascurare i muoni a bassa energia come quelli per lo studio della violazione di CP e per la Fisica del B. Gli obiettivi di Fisica richiedono quindi performance eccezionali allo spettrometro a muoni: • Risoluzione in massa e in impulso intorno all’1%, per poter ricostruire stati finali contententi fino a quattro muoni, in condizioni di alto fondo. 10 1.2. L’ESPERIMENTO ATLAS Figura 1.7: Vista schematica del sistema dei calorimetri [10]. Monitored Drift Tubes Copertura Numero di camere Numero di canali Funzione Cathode Strip Chambers Copertura Numero di camere Numero di canali Funzione Resistive Plate Chambers Copertura Numero di camere Numero di canali Funzione Thin Gap Chambers Copertura Numero di camere Numero di canali Funzione MDT |η| < 2.7 (strato più interno: |η| < 2.0) 1088 (1150) 339000 (354000) Tracciamento di precisione CSC 2.0 < |η| < 2.7 32 31000 Tracciamento di precisione RPC |η| < 1.05 544 359000 Trigger e seconda coordinata TGC 1.05 < |η| < 2.7 (|η| < 2.4 per il trigger) 3588 318000 Trigger e seconda coordinata Tabella 1.2: Parametri del sistema a muoni di ATLAS [10]. 1.2. L’ESPERIMENTO ATLAS 11 • Misura della seconda coordinata, ortogonale alla direzione della deflessione magnetica, con una risoluzione di 5 ÷ 10 mm. • Grande copertura in pseudorapidità (|η| < 2.7), senza zone morte (ermeticità). • Trigger efficiente e flessibile: mentre i processi ad alto pT saranno selezionati con una soglia di 10 ÷ 20 GeV, per i processi rari e poco energetici la soglia dovrà scendere fino a 5 GeV. • Identificazione accurata del bunch-crossing: il trigger di primo livello dovrà avere una risoluzione temporale inferiore a 25 ns. Il fondo che questo spettrometro si troverà ad affrontare può essere diviso in due tipi, primario e secondario. Il fondo primario è dovuto ai muoni prodotti dal decadimento delle particelle generate nella collisione tra i protoni; un esempio sono i decadimenti semileptonici dei mesoni leggeri (π, K → µX) e dei quark pesanti (c, b, t → µX). Il fondo secondario invece consiste principalmente di neutroni e fotoni intorno al MeV, prodotti da interazioni secondarie nei calorimetri forward, nel materiale di schermo dalle radiazioni, eccetera. I neutroni a bassa energia vengono infatti prodotti in gran numero nei processi adronici, sfuggono agli assorbitori e producono un gas di fotoni poco energetici attraverso processi nucleari di cattura neutronica. Questo fondo è isotropo e non è correlato col bunch-crossing, caratteristica che si sfrutta per ridurlo. Da notare che il rivelatore è stato disegnato per affrontare un fondo fino a cinque volte superiore a quello stimato. Sistema magnetico Lo spettrometro è basato sulla deflessione delle tracce muoniche nei tre grandi magneti superconduttori toroidali air-core (Figura 1.8). Un magnete air-core − che è “vuoto”, per cui la sua induttanza non è dovuta alla presenza di un materiale ferromagnetico − può operare a frequenze di diversi GHz, mentre i ferromagneti hanno difficoltà a superare i 100 MHz. Nella regione |η| < 1.4, la deflessione è assicurata dal toroide del barrel, mentre negli end-cap (1.6 < |η| < 2.7) sono installati due magneti più piccoli. Nella regione di transizione, 1.3 < |η| < 1.65, è presente invece una combinazione dei campi precedenti. Questa configurazione magnetica fornisce un campo che è ovunque perpendicolare alle traiettorie, minimizzando contemporaneamente l’effetto dello scattering multiplo. 12 1.2. L’ESPERIMENTO ATLAS Figura 1.8: Schema del magnete superconduttore in aria della regione centrale dello spettrometro a muoni [10]. Camere a muoni per il tracciamento: MDT e CSC Il sistema delle camere a muoni è ottimizzato in ermeticità ed è strutturato in modo che ogni traccia attraversi almeno tre camere. Nel barrel (|η| < 1), le camere sono disposte in tre cilindri, concentrici all’asse del fascio, a raggi di circa 5, 7.5 e 10 m. Le camere degli end-cap, invece, coprono il range 1 < |η| < 2.7, e sono disposte in quattro dischi, anch’essi concentrici all’asse del fascio, posti a 7, 10, 14 and 21 m dall’IP. La combinazione delle camere del barrel e degli end-cap permette di avere una copertura pressoché totale in pseudorapidità, eccetto che per le aperture in direzione verticale (η = 0) per il passaggio dei cavi e dei servizi. Per |η| < 2.0 le tracce vengono misurate, nella direzione della deflessione magnetica, tramite gli MDT (Monitored Drift Tubes). A grandi rapidità (2 < |η| < 2.7), in cui il flusso, sia del segnale sia del fondo, è elevatissimo, gli MDT sono supplementati dalle CSC (Cathode Strip Chambers), che sono camere proporzionali multifilo con catodi segmentati a strisce. La struttura degli MDT è proiettiva, le loro dimensioni cioé aumentano con la distanza dal punto di interazione; per eliminare le zone morte, molte camere sono state sagomate in forme speciali. Alla partenza di LHC, saranno presenti 1088 MDT, divisi in 18 tipi principali. L’elemento di base di una camera MDT è un tubo pressurizzato (3 bar) con un diametro di ∼ 30 mm, riempito dalla miscela di gas Ar/CO2 . Gli elettroni risultanti dalla ionizzazione sono raccolti da un filo centrale di Tungsteno-Renio, tenuto a una tensione di 3080 V. L’indipendenza dei singoli tubi fa sı̀ che il danneggiamento di uno non coinvolga gli altri. La pressione a cui sono tenuti i tubi riduce l’effetto della diffusione, e in più il fatto di avere una geometria cilindrica risulta in un campo elettrico radiale: l’accuratezza della misura, di conseguenza, dipende solo debolmente 1.2. L’ESPERIMENTO ATLAS 13 dall’angolo di incidenza sul piano della camera, in quanto il tempo di deriva (drift) è lo stesso per tutte le tracce a distanza R dal filo (Figura 1.9(a)), cosa che non accadrebbe con una geometria rettangolare. Il massimo tempo di drift è circa 700 ns. Figura 1.9: (a) Sezione di un tubo a drift. (b) Struttura di una camera MDT. Entrambi da [10]. Il gas è stato selezionato grazie alle sue proprietà di ageing, infatti in campioni di questa miscela non sono mai stati osservati depositi sui fili, né è possibile la formazione di polimeri data l’assenza di Idrogeno. Uno svantaggio di questo gas è d’altronde la relazione non lineare tra spazio e tempo di drift, che causa un degrado della risoluzione spaziale ad alte frequenze di conteggio. Inoltre Ar/CO2 è abbastanza lento, il doppio di quello gas dalla risposta lineare come Ar/CH4 . In Figura 1.9(b) vediamo la generica struttura di una camera MDT: i tubi sono disposti in piani paralleli, e ogni gruppo di tre o quattro piani (multistrato) è intervallato da uno spaziatore meccanico. Nella regione più interna del rivelatore ci sono quattro piani di tubi, tre nelle parti esterne. Una struttura interna di Alluminio permette di dare rigidità alla camera. Per monitorare la posizione dei tubi è stato aggiunto un sistema di lenti, poste in mezzo alla camera, che convogliano quattro raggi di allineamento ottico. In questo modo si possono individuare e correggere deformazioni di pochi µm, come quelle causate dalle variazioni ambientali (temperatura, pressione, ecc.). Le camere CSC sono installate nella zona ad alto rate degli end-cap. La regione di operatività ottimale degli MDT, infatti, è limitata a |η| < 2.0, dove si raggiunge un rate di conteggi di circa 150 Hz/cm2 ; per rate superiori, il diametro relativamente largo dei tubi fa sı̀ che si vada in condizione di pile- 14 1.2. L’ESPERIMENTO ATLAS up. Per questo, fino a |η| = 2.7, gli MDT sono supplementati dalle camere CSC, che sopportano un rate fino a 1000 Hz/cm2 . Figura 1.10: (a) Disposizione spaziale delle camere CSC. (b) Struttura di una camera CSC. Entrambi da [10]. La disposizione delle camere CSC è mostrata in Figura 1.10(a): in complesso ci sono due dischi, con otto camere per ciascuno, di dimensioni piccole per il disco interno e grandi per quello esterno. Ogni camera è composta in realtà di quattro CSC, per un totale di quattro misure indipendenti (η, φ) per traccia. Come vediamo in Figura 1.10(b), le CSC sono camere proporzionali a multifilo, con una distanza anodo-catodo d uguale alla distanza tra i fili anodici (d = S = 5.08 mm). In una tipica camera a multifilo, i √ segnali sono letti dai fili anodici, limitando cosı̀ la risoluzione spaziale a S/ 12: in una CSC invece la precisione è molto maggiore, perché quello che si misura è la distribuzione di carica indotta sul catodo dalla valanga formata sugli anodi. Entrambi i catodi sono segmentati, uno in strisce perpendicolari ai fili, uno in strisce parallele, fornendo cosı̀ in contemporanea la misura di due coordinate. La prima delle due misure menzionate, però, è molto più precisa (60 µm), mentre nella direzione trasversa alla deflessione la segmentazione del catodo è meno fitta e quindi la risoluzione ottenibile si ferma a 5 mm. Le caratteristiche di queste camere, semplici ma precise, sono: capacità di distinguere tra più tracce, risoluzione temporale di 7 ns per piano, bassa sensibilità ai neutroni. La miscela di gas scelta è Ar/CO2 come per gli MDT. Camere a muoni per il trigger: RPC e TGC Il sistema di trigger di Livello 1 dello spettrometro a muoni, deve fornire al trigger di Livello 2 la misura della molteplicità e dell’impulso delle tracce che lo attraversano. Per far questo, deve possedere le caratteristiche seguenti: 1.2. L’ESPERIMENTO ATLAS 15 • Velocità: il trigger deve avere una risoluzione temporale migliore di 25 ns (spaziamento tra i pacchetti di protoni) per poter correttamente associare trigger e bunch-crossing. • Precisione nelle soglie in pT : la definizione delle soglie in impulso trasverso richiede una granularità intorno al cm. • Misura della seconda coordinata: poiché gli MDT misurano la coordinata delle tracce lungo la direzione della deflessione, le camere di trigger devono fornire la coordinata trasversa. • Uniformità in η e φ: il trigger deve coprire il range di accettanza |η| ≤ 2.4, e 2π in angolo azimutale. Commentiamo quest’ultima caratteristica. Tra barrel ed end-cap ci sono differenze sostanziali. In particolare, fissato pT , p cresce in funzione di η: mentre a η = 0 si ha p = pT , per |η| = 2.4 si ha per esempio p = 5.8 pT . Quindi, se la risoluzione in pT deve essere confrontabile tra end-cap e barrel, la granularità del rivelatore deve essere funzione di η. Al tempo stesso, bisogna considerare che negli end-cap i livelli di radiazione sono dieci volte maggiori di quelli nel barrel. Infine, nella regione di transizione (1.3 ≤ |η| ≤ 1.65), la geometria molto complessa del campo magnetico genera disomogeneità nel potere di deflessione, che vengono corrette da un apposito algoritmo. Le richieste fin qui elencate sono soddisfatte, nel modo più efficiente ed economico, dalla seguente scelta per i rivelatori (si confronti la Figura 1.12): • RPC (Resistive Plate Chambers) nel barrel (|η| ≤ 1.05), • TGC (Thin Gap Chambers) negli end-cap (1.05 ≤ |η| ≤ 2.4). L’RPC (Figura 1.11) è un rivelatore a elettrodi piani paralleli. Il gas è contenuto tra due piastre resistive, che sono tenute parallele a una distanza di 2 mm da spaziatori in policarbonato. Tra le piastre è applicato un campo elettrico costante ed uniforme (4.9 kV/mm); esse sono rivestite esternamente da uno strato di grafite, la cui alta resistività (ρ ∼ 100 kΩ) permette alla tensione di distribuirsi uniformemente, senza creare una gabbia di Faraday che bloccherebbe la trasmissione del segnale. Il segnale è letto capacitativamente da un piano di strisce metalliche posizionate sulla faccia esterna delle piastre. Il campo elettrico applicato produce la valanga, moltiplicando gli elettroni e gli ioni primari generati per ionizzazione dalla traccia carica primaria. 16 1.2. L’ESPERIMENTO ATLAS Figura 1.11: Sezione di una camera RPC. Gli elettroni driftano verso l’anodo, e il loro numero cresce, per interazioni secondarie con gli elettroni del mezzo, secondo la legge: R N = n0 e dx α(x)x dove l’integrale è effettuato sul tratto percorso. α è il primo coefficiente di Townsend, ed è costante se durante lo sviluppo della valanga il campo elettrico resta uniforme, ovvero se la carica spaziale cosı̀ formatasi non è tanto intensa da deformarlo. Per molteplicità N/n0 maggiori di una certa soglia (pari a ∼ 106 per i gas nobili) la valanga diventa saturata, cioé la sua crescita è rallentata da effetti di carica spaziale. Il regime di valanga permette agli RPC di ATLAS di mantenere un’alta efficienza anche in presenza di flussi elevati di particelle, come quelli aspettati nello spettrometro nella fase di alta luminosità di LHC. La miscela di gas utilizzata è C2 H2 F4 /C4 H10 /SF6 , secondo i rapporti 94.7/5/0.3. La componente principale è un gas elettronegativo, con alta ionizzazione primaria, ma ridotto cammino libero medio λ per la cattura degli elettroni, in modo da contenerne la moltiplicazione e restare nel regime di valanga. Un idrocarburo come l’Isobutano è quello che serve invece per assorbire i fotoni prodotti dalla ricombinazione degli elettroni con gli ioni, evitando che questi fotoni diano origine a fotoionizzazione e quindi allo sviluppo laterale della valanga. Una piccola quantità di SF6 , infine, estende di molto la regione in cui si può lavorare in regime di valanga senza rischio di transire allo streamer: alla tensione nominale, un segnale largo 5 ns è generato in regime di streamer con 1.2. L’ESPERIMENTO ATLAS 17 probabilità minore dell’1%. La risoluzione spaziale che ne risulta è dell’ordine del cm, quella temporale dell’ordine del ns. Figura 1.12: Trigger di precisione: camere RPC e TGC [10]. Come vediamo in Figura 1.12, gli RPC sono disposti nel barrel, in tre stazioni: gli strati RPC1 e RPC2 sono inframmezzati da un MDT, mentre RPC3 è situato al di sopra (o al di sotto, a seconda della camera) del rispettivo MDT. Ogni stazione fornisce due misure indipendenti, in η e in φ, per un totale di sei punti, tra i quali si possono stabilire coincidenze veloci. La stazione intermedia, RPC2, è presa come riferimento: si traccia la linea retta tra punto di interazione e hit della traccia sulla camera RPC2 (traiettoria ideale per particelle di momento infinito), e si misura la deviazione della traiettoria ricostruita da quella ideale. La ricostruzione viene fatta tramite le misure nelle stazioni 2 e 1 per i muoni a basso pT , e nelle stazioni 2 e 3 per quelli ad alto pT . Per le camere TGC, la stazione di riferimento è TGC3, la più esterna delle quattro(2 ), come si può vedere ancora in Figura 1.12. Le TGC sono disposte negli end-cap; operano secondo lo stesso principio delle camere proporzionali a multifilo, assicurando buona risoluzione temporale e spaziale (quest’ultima determinata principalmente dalla granularità dei canali di lettura). La differenza rispetto alle camere a multifilo tradizionali, è che la distanza 2 La camera aggiunta in vicinanza dello strato più interno di tracciamento (TGCI) è necessaria, a causa dell’intensità del fondo, per ridurre il rischio di false coincidenze, come quelle ad opera degli elettroni creati dalla conversione dei fotoni e spiraleggianti nel campo magnetico. 18 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI anodo-anodo è maggiore della distanza anodo-catodo; la distanza tra i fili d’altronde è abbastanza piccola da giustificare l’ottima risoluzione in tempo (i segnali arrivano entro 25 ns col 99% di probabilità). Le camere TGC sono fatte operare in regime di valanga quasi-saturata, con un guadagno di 3 × 105 ottenuto tramite la miscela di gas CO2 /n-C5 H12 (in proporzioni 55/45). Oltre che al trigger, le camere Thin Gap servono alla misura della coordinata azimutale. 1.3 Ricostruzione e identificazione dei muoni Come abbiamo visto nella Sezione precedente, la misura dei muoni è una combinazione dei contributi dello spettrometro e dell’Inner Detector. Lo spettrometro fornisce la misura più accurata ad alti impulsi trasversi (fino a 3 TeV), mentre l’Inner Detector lo supplementa a impulsi bassi e medi, pT ≤ 30 GeV; lo spettrometro serve anche al trigger per |η| < 2.5 e per un ampio spettro di energie. Le tracce dello spettrometro sono identificate nelle stazioni più interne, poi propagate all’indietro fino al punto di interazione, correggendo l’impulso per la perdita di energia nei calorimetri e nell’Inner Detector. Risoluzione in pT e perdite di energia Si definiscono “muoni stand-alone” quelli che vengono ricostruiti usando solo la traccia nello spettrometro, “muoni combinati” quelli a cui si può associare anche una traccia nell’ID. Per questi ultimi, l’accettanza geometrica da considerare è quella dell’Inner Detector (|η| < 2.4). L’utilizzo dei muoni combinati migliora in modo sostanziale la risoluzione per impulsi sotto i 100 GeV, e permette di identificare i muoni prodotti nei calorimetri, come quelli dai decadimenti in volo di π e K, poiché essi sono presenti nello spettrometro ma non nell’ID. Come già accennato, una traccia ad alto pT tipicamente attraversa tutte e tre le stazioni del rivelatore, con una misura contemporanea di η e φ, permettendo una risoluzione migliore di 50 µm. In Figura 1.13(a) mostriamo il numero di stazioni attraversate da una traccia, in funzione della pseudorapidità e dell’angolo azimutale; la risoluzione e l’efficienza di ricostruzione sono degradate nel caso in cui una o più stazioni non forniscano la misura. Vediamo in particolare la diminuzione centrata intorno a |η| ≈ 1.2, che è la regione di transizione barrel/end-cap (nella quale non saranno presenti camere a muoni nella prima fase dell’esperimento), mentre per |η| ≤ 0.1 non sono possibili misure a causa della presenza di cavi e strutture di servizio. 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI 19 (a) Numero delle stazioni MDT+CSC attraversate da una traccia, in funzione di η e φ [10]. (b) Contributi alla risoluzione in impulso trasverso per i muoni ricostruiti nello spettrometro [10]. Figura 1.13 La Figura 1.13(b) mostra i diversi contributi alla risoluzione in momento trasverso per i muoni ricostruiti nello spettrometro, per |η| ≈ 1.5. A basso pT , la risoluzione è dominata dalle fluttuazioni nella perdita di energia dei muoni nel materiale precedente lo spettrometro; a medio pT è importante l’effetto complessivo dello scattering multiplo; per pT > 300 GeV, infine, la risoluzione dipende fortemente dalle caratteristiche del rivelatore, quali allineamento, calibrazione e risoluzione nella misura del singolo hit. Per quanto riguarda la perdita di energia, notiamo che lo spessore di materiale attraversato da un muone prima di raggiungere lo spettrometro, è maggiore di 100 lunghezze di radiazione (X0 ), e in questo percorso i muoni subiscono deflessioni successive, dovute allo scattering multiplo coulombiano. La deflessione totale è ben approssimata da una distribuzione gaussiana, centrata in zero. La perdita di energia, invece, non è gaussiana; per muoni relativistici, essa avviene principalmente per via elettromagnetica: ionizzazione, produzione di coppie e+ e− e bremsstrahlung (le ultime due note collettivamente come perdite radiative). Per p . 100 GeV, domina la ionizzazione del mezzo, descritta dall’equazione di Bethe-Bloch [23] per la generica particella di carica ze e velocità βc: 4π nz 2 dE = − dx me c2 β 2 µ e2 4πε0 ¶2 · µ ¶ ¸ 2me c2 β 2 2 ln −β I(1 − β 2 ) (1.3) 20 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI dove n è la densità di elettroni nel mezzo, e I è il potenziale di eccitazione medio. Per quanto riguarda le perdite radiative, esse possono diventare dominanti sulla ionizzazione già intorno ai 10 GeV, se i muoni attraversano materiali ad alto Z. Non sono descrivibili in forma chiusa; l’approssimazione più usata è quella di Bethe-Heitler. Le fluttuazioni in dE/dx per ionizzazione in strati sottili di materiale, seguono la distribuzione di Landau. All’aumentare dell’energia, la coda della distribuzione si allarga lentamente, rendendo la curva sempre più asimmetrica. Questo si può vedere in Figura 1.14, dove abbiamo la distribuzione dell’energia persa dai muoni che viaggiano tra la beam-pipe e l’uscita dai calorimetri, per pT = 10 GeV a sinistra e pT = 1 TeV a destra. Figura 1.14: Energia persa dai muoni che viaggiano dalla beam-pipe al calorimetro elettromagnetico, per: (a) pT = 10 GeV, (b) pT = 1 TeV. [10]. Per impulsi nel range 0.5 GeV . pT . 30 GeV, il tracciamento sfrutta le tracce lasciate nell’Inner Detector. Data la grande quantità di materiale presente nell’ID, l’efficienza resta però limitata. In conclusione, per muoni isolati ad alto pT nel barrel, ci si attende una risoluzione in momento di σ(1/pT ) = 0.34 TeV−1 [59] e una risoluzione in parametro d’impatto di σ(d0 ) = 10 µm [10]. Efficienza di ricostruzione L’alta frequenza degli eventi pp → Z → µµ + X ad LHC (più di 108 eventi all’anno nella fase di alta luminosità) permette di usare questi processi per stimare l’efficienza di ricostruzione e di trigger dell’intero esperimento. In Figura 1.15(a) vediamo l’efficienza di ricostruzione per muoni isolati in funzione della pseudorapidità, per impulsi trasversi di 1, 5 e 100 GeV. Aumentando l’energia del muone, l’efficienza diventa maggiore e più stabile in funzione di η. 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI 21 Figura 1.15: Efficienza di ricostruzione in funzione di |η|: (a) per muoni di impulsi trasversi crescenti, (b) per muoni, pioni ed elettroni di pT = 5 GeV. [10]. In Figura 1.15(b) confrontiamo invece l’efficienza di ricostruzione dei muoni con quella di pioni ed elettroni, per pT = 5 GeV. Per i pioni dobbiamo considerare l’effetto delle interazioni adroniche, che aumentano in funzione del materiale presente nell’Inner Detector; gli elettroni, a causa della loro massa leggera, sono molto più soggetti alla bremsstrahlung rispetto ai muoni, e anche la loro distribuzione riflette la presenza del materiale. La carica di muoni ed elettroni sarà misurata nell’Inner Detector su tutto il range di accettanza e per impulsi fino al TeV, con una probabilità di misidentificazione minore di pochi percento. Nel barrel, in particolare, questa efficienza è maggiore del 98%, e per alti pT diventa maggiore del 99.5% oltre che praticamente indipendente da η; per pioni ed elettroni invece l’efficienza di identificazione dipende da η, fluttuando tra 70% e 95%. Efficienza di trigger Per stimare l’efficienza di trigger, si usa il metodo Tag & Probe [59]. Gli eventi sono triggerati richiedendo un leptone ad alto pT (il tag), e contemporaneamente cercando un secondo leptone (probe) che abbia la corrispondenza con un leptone ricostruito o triggerato, e tale che la massa invariante della coppia stia all’interno di una data finestra intorno a MZ . In Figura 1.16 vediamo l’efficienza di identificazione e di trigger, per un campione simulato di Z → µ+ µ− corrispondente a 50 pb−1 . L’istanza di trigger in questo caso è la presenza di almeno un muone isolato con pT > 20 GeV (mu20). La verità Monte Carlo a cui ci si riferisce nella Figura è quella ottenuta simulando i soli muoni combinati. Tag & Probe e simulazione Monte 22 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI Figura 1.16: Efficienza di identificazione dei muoni da Z → µ+ µ− col metodo Tag & Probe, a confronto con la verità Monte Carlo. La luminosità integrata è 50 pb−1 , l’istanza di trigger è mu20 [59]. Carlo sono in ottimo accordo; in particolare tutte le serie di punti presentano la rapida caduta di efficienza nelle zone morte in η. Energia trasversa mancante La misura dell’energia trasversa mancante (ETmiss o E/T) è fondamentale per la rivelazione di W ; è inoltre la segnatura chiave per la misura della massa del top (dagli eventi tt in cui uno dei due quark decade semileptonicamente), e per l’osservazione degli eventi supersimmetrici ed esotici. Una questione importante da considerare per la misura di ETmiss , è la copertura limitata del rivelatore per grandi pseudorapidità, la risoluzione finita, la presenza di regioni morte e le diverse fonti di rumore che producono E/TFake , delle quali la principale è il rumore del calorimetro. Una variabile che caratterizza l’energia mancante, è la linearità di E/T ricostruita in funzione di E/T vera (E/TTrue ): Linearità = (E/TTrue − E/T)/E/TTrue (1.4) dove E/TTrue è definita come la somma di tutte le particelle stabili non interagenti nello stato finale (neutrini e LSP supersimmetriche). La linearità è minore dell’ 1% per tutti i processi analizzati in [59], una volta che le celle del calorimetro sono state calibrate globalmente e che si è tenuto conto dell’efficienza di identificazione dei muoni e delle correzioni del criostato (calibrazione “rifinita”). True La risoluzione è stimata dalla larghezza della distribuzione E/x,y−E/x,y , fittata 1.3. RICOSTRUZIONE E IDENTIFICAZIONE DEI MUONI 23 P Figura 1.17: Risoluzione di E/T in funzione di ET , per valori bassi e medi (a sinistra) e per valori maggiori (a destra). Le curve corrispondono ai best fit. [59]. con una Gaussiana per P estrarre la deviazione standard σ. La Figura 1.17 mostra σ in funzione di E/T dopo l’applicazione della calibrazione rifinita. L’andamento è stocastico, con deviazioni per bassi valori di energia mancante, dove si sente l’effetto del rumore, e per valori molto alti, P dove domina la risoluzione intrinseca del calorimetro. Per p 20PGeV < ET < 2 TeV la ET , in cui il parametro a deviazione standard è fittata con σ = a · quantifica la risoluzione: esso varia tra 0.53 (Figura 1.17 a sinistra) e 0.57 (a destra). 24 Capitolo 2 La Fisica ad LHC 2.1 Il Modello Standard Il Modello Standard come teoria di gauge Le forze fondamentali che agiscono tra le particelle elementari − la forza forte, la forza debole e la forza elettromagnetica − sono tutte esprimibili tramite teorie di gauge(1 ) [22], [43], [37]. In una teoria di gauge, i campi sono descritti da rappresentazioni di un gruppo di simmetria; richiedendo che la Lagrangiana della teoria sia invariante sotto trasformazioni locali arbitrarie dei campi, si genera l’interazione tra i campi stessi, mediata dai bosoni di gauge. In particolare, l’interazione elettrodebole − che unifica l’interazione elettromagnetica e quella debole a grandi energie [69] − è invariante sotto il gruppo SU(2)L × U(1)Y . Il pedice L indica che l’interazione elettrodebole agisce solo tra fermioni left-handed (e antifermioni right-handed) − per questo è un’interazione di tipo chirale − mentre Y denota la carica elettrodebole, o ipercarica, una combinazione della carica elettrica e della terza componente dell’Isospin debole, come vedremo più avanti (equazione (2.26)). L’interazione forte è invece simmetrica sotto trasformazioni del gruppo SU(3)C , dove C indica la carica di colore. Ci sono tre colori per ogni flavour di quark (indicati convenzionalmente come rosso, verde e blu). Il Modello Standard delle particelle elementari è dunque descritto da una 1 Abbiamo volontariamente trascurato la forza di gravità, che è invariante sotto trasformazioni locali delle coordinate, e che al momento non è descritta coerentemente nell’ambito di una teoria quantistica. Si ipotizza l’esistenza di un bosone mediatore a massa nulla e spin 2, il gravitone, che finora è sfuggito a tutti i tentativi di rivelazione. 26 2.1. IL MODELLO STANDARD Lagrangiana invariante sotto il gruppo di gauge composto: GMS = SU(3)C × SU(2)L × U(1)Y . I bosoni mediatori delle tre forze fondamentali sono N 2 − 1 come i generatori dei rispettivi gruppi, dove N è la dimensionalità del gruppo, e hanno tutti spin 1: gli otto gluoni dell’interazione forte, i tre bosoni massivi dell’interazione debole (W ± e Z), il fotone di quella elettromagnetica. I gruppi SU(2)L e SU(3)C non sono abeliani: i loro generatori non commutano, e questo origina vertici di mutua interazione tra i rispettivi bosoni mediatori. I campi fondamentali attualmente noti sono di due tipi: i leptoni, che non sono soggetti alla forza forte, e i quark. Entrambi sono fermioni − obbediscono cioè alla statistica di Fermi-Dirac − di spin 1/2. I quark non sono mai stati osservati come particelle libere, ma sempre come costituenti degli adroni ; i leptoni sono in generale più leggeri degli adroni e non formano vicendevolmente stati legati. L’ipotesi è che gli adroni esistano solo come singoletti di colore, e che i gluoni siano costituiti da un colore e da un anticolore. Sia i leptoni sia i quark si presentano in Natura in tre generazioni: la seconda e la terza sono repliche pesanti della prima; i bosoni vettori infatti si accoppiano alle diverse generazioni secondo lo stesso meccanismo. I quark autostati dell’interazione elettrodebole non coincidono con gli autostati di massa che prendono parte all’interazione forte, ma piuttosto ne sono una combinazione lineare. Questa idea, proposta da Cabibbo nel 1963 [7], apre la strada al modello attuale per il mixing tra i flavour. Consideriamo i due quark leggeri, u e d: essi possono essere sistemati in un doppietto di isospin debole nel modo seguente: ¶ µ ¶ µ u u = (2.1) d0 d cos θC + s sin θC dove θC è l’angolo di mixing di Cabibbo. Mentre il quark d partecipa all’interazione elettrodebole, il suo corrispondente “ruotato” d0 partecipa a quella forte. Generalizzando questa idea, si giunge alla matrice 3 × 3 di Cabibbo, Kobayashi e Maskawa (CKM) [30], che descrive il mixing per i quark di tipo down delle tre generazioni: 0 d Vud Vus Vub d s0 = Vcd Vcs Vcb s . (2.2) 0 Vtd Vts Vtb b b 2.1. IL MODELLO STANDARD 27 L’elemento di matrice Vud , per esempio, quantifica l’accoppiamento di u e d nel processo d → u + W − . La matrice CKM è unitaria, con (N − 1)2 parametri liberi, dove N = 3 è il numero delle generazioni. Di questi quattro parametri, se ne assumono tre reali (θ12 , θ23 e θ13 ), e si prende una fase immaginaria, δ13 , responsabile della violazione di CP osservata nelle interazioni deboli. I valori sulla diagonale principale sono molto maggiori degli altri, e culminano in |Vtb | = 0.9990 ± 0.0002 [2], che è anche l’elemento noto con più precisione. Il bosone di Higgs La richiesta di invarianza di gauge per l’interazione elettrodebole, non permette l’inserimento nella Lagrangiana di termini di massa per i bosoni vettori, che tuttavia sono osservati sperimentalmente essere massivi. Per ovviare a questa difficoltà, senza rompere esplicitamente la simmetria di gauge, è necessario introdurre nel Modello Standard un ulteriore grado di libertà. Si tratta di un campo scalare complesso, organizzato in un doppietto di isospin debole: µ ¶ φa (x) Φ(x) = (2.3) φb (x) soggetto al potenziale gauge invariante: V (Φ) = µ2 (Φ† Φ) + λ (Φ† Φ)2 . (2.4) Figura 2.1: Potenziale del bosone di Higgs per λ positivi, con µ2 > 0 e µ2 < 0. Innazitutto dobbiamo richiedere λ > 0 se vogliamo che il potenziale V (Φ) sia confinante. Dopodiché, come mostra la Figura 2.1, esistono due possibilità: il caso banale per cui µ2 > 0 − il potenziale presenta un minimo assoluto in 28 2.2. L’INTERAZIONE ELETTRODEBOLE Φ = 0 − ed il caso interessante, µ2 < 0, nel quale si manifesta il fenomeno della rottura spontanea della simmetria di gauge. Per µ2 < 0, infatti, gli stati di minima energia del potenziale (±υ in Figura 2.1) sono degeneri: |Φ0 (x)|2 = |φ0a |2 + |φ0b |2 = −µ2 >0 2λ (2.5) e il sistema “sceglierà” uno degli infiniti minimi equivalenti, che per semplicità definiamo essere: r υ −µ2 h0|Φ0 (x)|0i = √ con υ = ∈ R. (2.6) λ 2 Lo stato di minima energia rompe dunque la simmetria di gauge. Possiamo parametrizzare il campo Φ(x) intorno a questo minimo, ed eliminare i gradi di libertà aggiuntivi tramite l’imposizione della gauge unitaria, in cui il campo si riduce a: ¶ µ 0 1 . (2.7) Φ(x) = √ 2 υ + σ(x) Il campo reale σ descrive le oscillazioni di Φ(x) intorno al minimo, ed è detto bosone di Higgs. I numeri quantici del campo Φ(x) (iperacarica e isospin debole) sono scelti in modo tale che il potenziale a cui esso è soggetto non modifichi il settore U(1)em , cosı̀ da preservare la massa nulla del fotone. Come vedremo nella prossima Sezione, il medesimo meccanismo − l’accoppiamento al bosone di Higgs − fornisce la massa a tutte le particelle elementari; per i fermioni questo avviene tramite termini gauge invarianti, detti termini di Yukawa. 2.2 L’interazione elettrodebole Il Modello Elettodebole venne sviluppato negli anni ’60 da Glashow, Salam e Weinberg [69]: esso teorizza che l’interazione elettromagnetica e l’interazione debole, che a bassa energia (Q ≈ 1 GeV) hanno accoppiamenti diversi per quattro ordini di grandezza, siano espressione di un’unica forza che si manifesta a energie ≥ 246 GeV, la scala di rottura spontanea della simmetria elettrodebole (equazione (2.6)). Possiamo distinguere tre tipi di interazione elettrodebole: 1. Decadimenti puramente leptonici: i partecipanti sono solo i leptoni, come nel decadimento del µ: µ− −→ e− + ν e + νµ . 2.2. L’INTERAZIONE ELETTRODEBOLE 29 2. Decadimenti semileptonici: vi partecipano sia i leptoni sia gli adroni, come nel decadimento β, che permise la prima osservazione dell’interazione debole e l’ipotesi dell’esistenza del neutrino: n −→ p + e− + νe . 3. Decadimenti non leptonici: i partecipanti sono tutti adroni, come nel decadimento delle particelle strane: Λ −→ p + π − . Vogliamo adesso scrivere la Lagrangiana dell’interazione elettrodebole. Per farlo, partiamo da quella della QED (Quantum ElectroDynamics): X 1 µ LQED = − F µν Fµν + ψ l (x)(i∂ / − m) ψl (x) − Jem (x) Aµ (x) 4 l=e,µ,τ dove: µ Jem (x) = −e X ψ l (x) γ µ ψl (x) (2.8) (2.9) l è la quadricorrente, sommata sui sapori leptonici l, con e > 0, mentre F µν è il tensore del campo elettromagnetico: F µν = ∂ µ Aν − ∂ ν Aµ . (2.10) Caratteristica fondamentale della LQED è la conservazione della Parità, in quanto questa Lagrangiana è costituita da combinazioni scalari di spinori e matrici γ µ . Invece, per quanto riguarda l’interazione debole, si osserva sperimentalmente che essa non conserva la Parità: questo suggerisce di costruire la quadricorrente debole come una combinazione del tipo: X J µ (x) = gW ψ l (x) γ µ (1 − γ 5 ) ψνl (x) (2.11) l dove gW è la costante di accoppiamento, e al campo del leptone carico, ψl , abbiamo associato quello del neutrino, ψνl . La matrice γ 5 = iγ 0 γ 1 γ 2 γ 3 , anticommuta con tutte le γ µ , {γ µ , γ 5 } = 0. Al contrario di quanto succede per la QED, la corrente debole (2.11) non è un operatore Hermitiano, J µ 6= J µ† . Essa è conosciuta storicamente come V − A perche’ al suo interno possiamo distinguere due termini: X X ψ l (x)γ µ ψνl (x) − gW ψ l (x)γ µ γ 5 ψνl (x) J µ (x) = JVµ (x) − JAµ (x) = gW l l (2.12) 30 2.2. L’INTERAZIONE ELETTRODEBOLE dove V ed A sono rispettivamente la corrente vettoriale della QED e la corrente assiale. Mentre la componente spaziale della corrente vettoriale cambia segno sotto Parità, la corrente assiale resta identica a se stessa. Data la struttura V −A per la corrente, il modo più semplice per costruire la Lagrangiana d’interazione è il seguente: LI = Wµ† (x)J µ (x) + Jµ† (x)W µ (x) . (2.13) Il fatto che la corrente sia complessa, rende necessaria l’introduzione del campo di gauge W µ (x), anch’esso complesso e di conseguenza elettricamente carico; inoltre W µ non è hermitiano, W µ 6= W µ † . Oltre alla Lagrangiana di interazione (2.13), dobbiamo scrivere la Lagrangiana leptonica libera, nell’approssimazione di massa nulla: Lψ0 = i X [ψ l (x)∂ / ψνl (x)] . / ψl (x) + ψ νl (x)∂ (2.14) l=e,µ,τ Ora definiamo i proiettori di elicità, Left e Right, in termini della matrice γ 5 : 1 1 PL = (1 − γ 5 ) e PR = (1 + γ 5 ) 2 2 (2.15) grazie ai quali possiamo scrivere le proiezioni Left e Right degli spinori: ψlL,R ≡ PL,R ψl = 12 (1 ∓ γ 5 ) ψl L,R ψl ≡ (ψlL,R )† 0 γ = 1 2 ψl† (1 5† (2.16) 0 ∓ γ ) γ = ψ l PR,L e lo stesso vale per i neutrini. Inserendo le espressioni (2.16) nella (2.14), e L,R considerando che i termini misti del tipo ψ i /∂ ψiR,L , con i = l, νl , risultano nulli in quanto contengono i prodotti PL PR = PR PL = 0, si ricava la seguente espressione per la Lagrangiana libera: L R L R Lψ0 = i [ψ l /∂ ψlL + ψ l /∂ ψlR + ψ νl /∂ ψνLl + ψ νl /∂ ψνRl ] . (2.17) Torniamo alla corrente V −A: in essa possiamo adesso riconoscere la presenza del proiettore Left PL : X X ψ l γ µ PL ψνl = 2gW ψ l γ µ ψνLl . (2.18) J µ = 2gW l l Il campo spinoriale ψνLl è lineare nella distruzione di neutrini Left e nella creazione di antineutrini Right: ciò significa che solo queste particelle par- 2.2. L’INTERAZIONE ELETTRODEBOLE 31 teciperanno all’interazione debole. Lo stesso vale per i leptoni carichi, in quanto la (2.11) si può scrivere anche: X X X L J µ = 2gW ψ l γ µ PL ψνl = 2gW ψ l γ µ PL PL ψνl = 2gW ψ l γ µ ψνLl l l l da cui segue che all’interazione debole partecipano solo leptoni l antileptoni l+ Right. Adesso definiamo l’isospinore leptonico: µ L ¶ ψνl (x) L L L L =⇒ Ψl (x) = (ψ νl (x) ψ l (x)) Ψl (x) ≡ L ψl (x) − (2.19) Left e (2.20) in termini del quale la Lagrangiana libera (2.14) diventa: L R R Lψ0 = i [Ψl /∂ ΨLl + ψ l /∂ ψlR + ψ νl /∂ ψνRl ] . (2.21) Trasformazione di gauge SU (2)L Richiediamo che L0 sia invariante sotto una trasformazione di gauge SU (2)L locale, dove il pedice L sottolinea che essa agisce solo sui campi Left: · ¸ i L L 0 Ψl −→ Ψ l = exp g αi (x) σi ΨLl 2 + trasf. spinori aggiunti (2.22) R ψlR −→ ψ 0 l = ψlR R R ψνl −→ ψ 0 νl = ψνRl dove le αi (x) con i = 1, 2, 3 sono tre funzioni reali e derivabili dello spazio tempo e g è la costante di accoppiamento reale. A questa trasformazione si associa una carica conservata vettoriale, l’isospin debole I W . In particolare, la terza componente di questa carica vale: µ ¶ µ L¶ Z Z ψνl 1 1 1 0 3 L† L† W = d x (ψνl ψl ) d3 x (ψνL†l ψνLl − ψlL† ψlL ) . I3 = 0 −1 2 2 ψlL (2.23) Notiamo che I3W contiene solo operatori Left, carichi e non. Ne segue che il neutrino Left e il leptone carico Left hanno entrambi modulo di isopin debole I W = 1/2, quindi formano un doppietto di isospin debole, con autovalori I3W = ±1/2 rispettivamente. I leptoni Right invece sono neutri sotto SU (2)L , come si deduce dalle (2.22), ovvero hanno I W = 0 e si comportano come singoletti di isospin debole. 32 2.2. L’INTERAZIONE ELETTRODEBOLE Sotto le trasformazioni (2.22), la Lagrangiana (2.21) non è più invariante; per ristabilire l’invarianza dobbiamo sostituire la derivata ordinaria con una derivata covariante cosı̀ costruita: ∂ µ −→ F µ = ∂ µ + igI W σi Wiµ (x) (2.24) dove le σi sono le matrici di Pauli, i = 1, 2, 3, mentre Wiµ (x) sono tre campi vettoriali reali. Trasformazione di gauge U (1)Y Analogamente a quanto fatto per SU (2)L , richiediamo che la Lagrangiana leptonica libera (2.21) sia invariante sotto la trasformazione U (1) locale: L,R 0 L,R ig 0 Y f (x) L,R ψi ψi −→ ψ i = e L,R ψi −→ ψ 0 L,R i −ig 0 Y f (x) =e con i = l, νl L,R ψi (2.25) dove g 0 è un’altra costante reale e f (x) è una funzione anch’essa reale e derivabile. La carica conservata adesso è uno scalare, e si chiama ipercarica. In funzione della carica elettrica in unità di e, e della terza componente dell’isospin debole I3W , definiamo l’ipercarica Y secondo la relazione di Gell-Mann - Nishijima: Y = Q/e − I3W . (2.26) Sotto la trasformazione U (1) di ipercarica, la Lagrangiana libera non è invariante ed anche in questo caso si può ovviare al problema introducendo la derivata covariante. La situazione è più semplice rispetto al caso SU (2), infatti basta introdurre il campo vettoriale reale B µ (x), tale che: ∂ µ −→ GµY = ∂ µ + ig 0 Y B µ (x) . (2.27) Simmetria SU (2)L × U (1)Y Introducendo la derivata covariante completa, ∂ µ −→ Dµ = ∂ µ + igI W σi Wiµ (x) + ig 0 Y B µ (x) (2.28) la Lagrangiana elettrodebole risulta invariante contemporaneamente sotto le trasformazioni di gauge (2.22) e (2.25). Sostituiamo Dµ nell’espressione (2.21) per la Lagrangiana, e otteniamo: L R R L = i [Ψl D / ΨLl + ψ νl D / ψνRl + ψ l D / ψlR ] . (2.29) 2.2. L’INTERAZIONE ELETTRODEBOLE 33 In essa possiamo distinguere due termini: L = Lψ0 + LψB (2.30) dove LψB descrive l’interazione tra i campi di materia ΨLl , ψlR e ψνRl e i bosoni di gauge Wiµ (x) e B µ (x), mentre Lψ0 è il termine libero. µ Se ora ruotiamo i campi W1,2 in questo modo: W1µ (x) − iW2µ (x) √ W (x) = 2 µ , W1µ (x) + iW2µ (x) √ W (x) = 2 µ† (2.31) otteniamo i campi fisici, non hermitiani, W µ e W µ† , che possiamo associare ai bosoni vettori W ± . Per quanto riguarda i due campi restanti, W3µ e B µ , li colleghiamo ai bosoni vettori neutri, Z e γ, introducendo l’angolo di Weinberg θW attraverso la seguente rotazione: ¶ µ µ¶ µ µ¶ µ Z W3 cos θW sin θW = . (2.32) µ − sin θ cos θ B Aµ W W Richiediamo che il campo elettromagnetico Aµ non si accoppi con la corrente di SU (2), e che il suo accoppiamento con la corrente elettromagnetica, J(em)µ /e = JY µ + J3µ , sia pari a −1 in unità della carica elettrica, richieste che risultano in: g0 g sin θW = e , tan θW = . (2.33) g Queste relazioni fondamentali collegano le costanti di accoppiamento g, g 0 ed e con l’angolo di Weinberg. Dobbiamo aggiungere alla 2.30 anche la Lagrangiana per i campi di gauge liberi, ovvero i termini cinetici per Aµ , W µ , W µ† e Z µ : 1 1 LB = − Fµνi Fiµν − Bµν B µν . 4 4 (2.34) Termini di Higgs e di Yukawa La teoria cosı̀ formulata, è riassunta dalla Lagrangiana totale: BB LEW = Lψ0 + LψB + LB 0 +L (2.35) BB sono rispettivamente il termine libero e il termine di autodove LB 0 e L interazione per i bosoni di gauge. Questa Lagrangiana descrive coerentemente sia le interazioni deboli che quel- 34 2.2. L’INTERAZIONE ELETTRODEBOLE le elettromagnetiche, a patto che tutte le particelle siano prive di massa. Questo discende dal fatto che termini del tipo: ml ψ l (x)ψl (x), m2Z Zµ (x)Z µ (x), ... (2.36) violerebbero l’invarianza di gauge, supposta fondamentale, e renderebbero la teoria non rinormalizzabile. Questo problema si supera, come abbiamo visto in Sezione 2.1, grazie al meccanismo di Higgs, che rompe spontaneamente la simmetria elettrodebole. Viene dunque introdotta la Lagrangiana LH (x) di Higgs, invariante sotto trasformazioni di gauge, composta dai seguenti termini: • LH 0 (x), che descrive il campo scalare reale σ(x) libero, • LHB (x), che contiene l’interazione tra l’Higgs ed i bosoni di gauge, • LHH (x), che è il termine di autointerazione del campo di Higgs, • i termini di massa dei bosoni vettori, che vengono riassorbiti da LB 0. Ci ritroviamo dunque con la seguente forma per la Lagrangiana elettrodebole: BB HB + LH + LHH . LEW = Lψ0 + LψB + LB 0 +L 0 +L (2.37) Infine, per dare massa anche ai leptoni, dobbiamo introdurre i termini di Yukawa, LY (x), che nella gauge unitaria possiamo dividere ancora una volta in LLH (x), che descrive l’interazione tra i leptoni ed il bosone di Higgs, e nei termini di massa per i leptoni. In definitiva, chiamando Lψ0 la Lagrangiana leptonica libera completa dei termini di massa, siamo arrivati a scrivere la Lagrangiana dell’interazione elettrodebole: BB HB LEW = Lψ0 + LψB + LB + LH + LHH + LLH . 0 +L 0 +L 2.2.1 (2.38) Decadimento leptonico di W Concentriamoci sul decadimento leptonico di W − , W − → `− ν ` , indotto dal seguente termine della Lagrangiana di interazione LψB : ¤ g £ − √ ψ l γµ (1 − γ 5 )ψνl W µ† . 2 2 L’elemento di matrice di scattering, a tree level, lo scriviamo come: Z −g − − S(W → l ν l ) = −i d4 x √ ψ l (x)γµ (1 − γ 5 )ψνl (x)W µ† (x) . 2 2 (2.39) 2.2. L’INTERAZIONE ELETTRODEBOLE 35 Per ottenere la frequenza di decadimento, dobbiamo quadrare l’ampiezza di scattering in modo da ricavare la probabilità, sommare sugli spin dei leptoni finali e mediare sulle polarizzazioni iniziali del W − , integrare sui quadrimpulsi tenendo conto della δ di Dirac, e infine dividere per il tempo T , ovvero: Z Z ¯2 1 1 V d3 q V d3 q 0 1 X X ¯¯ S(W − → l− ν l )¯ = = 3 3 τ T (2π) (2π) 3 λ s,s0 g2 1 = 8 (2π)2 Z d3 q 2q0 Z d3 q 0 1 1 X |Mλss0 |2 δ (4) (q + q 0 − k) 2q 0 0 2k0 3 λ,s,s0 (2.40) con Mλss0 = εµ (k, λ) ul (q, s)γ µ (1 − γ5 ) vν (q 0 , s0 ) . Sommiamo su entrambe le elicità dell’antineutrino, Left e Right, poiché i contributi Left si cancellano grazie all’ortogonalità dei proiettori. Giungiamo cosı̀ a scrivere il tempo di decadimento di W − in leptoni: g2 τ= MW 48π µ m2 1 − 2l MW ¶2 µ m2l 1+ 2 2MW ¶ Θ(MW − ml ) ≈ g2 MW 48π (2.41) dove abbiamo sfruttato il fatto che MW À ml . Se ora sostituiamo la relazione che lega la costante di Fermi GF con l’accoppiamento g: √ 2 g2 GF = , (2.42) 2 8 MW otteniamo: 3 1 GF MW √ ≈ 225 MeV ≈ 3.5 × 1023 s−1 . (W − → lν l ) = τ 6π 2 (2.43) La larghezza totale di W e quelle parziali di decadimento in leptoni (media sulle famiglie) e in adroni valgono rispettivamente [2]: Larghezza totale = Γ = (2.141 ± 0.041) GeV Γ(` ν` )/ Γ = (10.80 ± 0.09) × 10−2 ciascuno Γ(adroni)/ Γ = (67.60 ± 0.27) × 10−2 . Notiamo che, se sommiamo sulle tre famiglie leptoniche, la probabilità del decadimento in adroni è la metà di quella per il decadimento in leptoni, 36 2.2. L’INTERAZIONE ELETTRODEBOLE tuttavia il canale adronico è molto meno pulito e facile da studiare a livello sperimentale. 2.2.2 Decadimento leptonico di Z Il termine della Lagrangiana di interazione leptone-bosone che ci serve é il seguente: g g {ψ l γµ [(1 − 4 sin2 θW ) − γ 5 ]ψl }Z µ ≡ {ψ γµ [gV0 − γ 5 ]ψl }Z µ . 4 cos θW 4 cos θW l Usando la stessa notazione per i quadrimpulsi e gli spin della Sezione precedente, il conto procede analogamente; si arriva quindi a: 0 1 GF (g 2 + 1) 3 (Z → l+ l− ) ≈ √ V MW ≈ 28 MeV ≈ 4.4 × 1022 s−1 τ 24 2 π cos3 θW (2.44) dove abbiamo sostituito la relazione tra le masse, valida a meno di correzioni radiative: MW MZ = . (2.45) cos θW Il decadimento leptonico alternativo di Z, Z −→ νν, è identico al precedente con gV0 = 1, visto che stiamo trascurando le masse dei leptoni. Possiamo quindi usare il risultato (2.44), ricavando: 2GF 1 3 (Z → νν) ≈ √ MW ≈ 167 MeV ≈ 2.6 × 1023 s−1 . 3 τ 24 2 π cos θW (2.46) Le larghezze di decadimento sono per Z [2]: Larghezza totale = Γ = (2.4952 ± 0.0023) GeV Γ(l+ l− )/Γ = (3.3658 ± 0.0023) × 10−2 ciascuno Γ(invisibili)/Γ = (20.00 ± 0.06) × 10−2 Γ(adroni)/Γ = (69.91 ± 0.06) × 10−2 La frazione di decadimenti invisibili comprende, oltre ai neutrini, tutti gli altri possibili canali non rivelabili. Nel caso di Z, il decadimento in adroni domina su quello in leptoni. 2.3. MISURE DEL MODELLO STANDARD IN ATLAS 2.3 37 Misure del Modello Standard in ATLAS La Figura 2.2 mostra l’andamento ad alta energia delle sezioni d’urto dei processi più interessanti nelle collisioni√protone-protone. A fronte di una sezione d’urto totale p-p di ≈ 100 mb a s = 14 TeV, a LHC si produrranno in media 23 eventi di Minimum Bias per ogni collisione dura, per un totale di ≈ 109 eventi al secondo. Per confronto, la produzione di un bosone di Higgs con massa di 500 GeV si colloca dieci ordini di grandezza più in basso. I processi più abbondanti attesi a LHC riguardano la produzione di coppie di quark pesanti, tt e bb, e dei bosoni di gauge W e Z. Figura 2.2: Sezioni d’urto p-p in funzione dell’energia nel centro di massa. Le linee verticali si riferiscono al Tevatron ed a LHC; la scala di destra indica gli eventi al secondo attesi ad alta luminosità [34]. La sezione d’urto per la produzione e il decadimento di W e Z è stata calcolata fino a NNLO, con un errore teorico intorno all’1% [19], [44]. In particolare le sezioni d’urto per i decadimenti in leptoni, a NNLO e per le diverse energie nel centro di massa a cui lavorerà l’esperimento, sono raccolte in Tabella 2.1. 38 2.3. MISURE DEL MODELLO STANDARD IN ATLAS √ s [TeV] σ [nb] W → `ν` 14 10 20.5 14.3 Z → `` 14 10 2.02 1.35 Tabella 2.1: Sezioni d’urto per i bosoni vettori intermedi a LHC. 2.3.1 La massa del W Una delle misure più importanti che ATLAS effettuerà nell’ambito del Modello Standard, sarà la misura di precisione della massa del W . In effetti, la massa del W, insieme a quella del top, rappresentano la massima sorgente di incertezza nella determinazione indiretta della massa dell’Higgs. La relazione che le lega è la seguente: r πα 1 √ · √ MW = GF 2 sin θW 1 − ∆r dove ∆r tiene conto delle correzioni radiative, che ammontano circa al 4%, e dipendono dalle masse del top come ∼ Mt2 e dalla massa dell’Higgs come ∼ log MH . Per valutare la consistenza della misura di (MW , Mt ) con la predizione del Modello Standard, è necessario che le due quantità abbiano incertezze comparabili: in particolare le incertezze dovrebbero essere collegate dalla relazione [20]: ∆MW ≈ 0.7 × 10−2 ∆Mt . Poiché a LHC la massa del top sarà misurata con una precisione di 2 GeV, questa relazione fissa l’obiettivo ∆MW = 15 MeV (al momento l’errore sperimentale è di 25 MeV [2]). A LHC, con 10 fb−1 di dati, verranno prodotti circa 30 milioni di W per ogni canale leptonico, cosı̀ da avere una sensibilità statistica di 2 MeV sulla massa; a dominare sarà dunque l’errore sistematico. Mentre il decadimento di Z può essere completamente ricostruito, e la sua massa calcolata dalla massa invariante dei leptoni finali, per W − a causa del neutrino, che sfugge alla rivelazione − dobbiamo sfruttare la dipendenza da MW di altre variabili, ovvero il momento trasverso del leptone, p`T , e l’energia trasversa mancante, uguale a pνT a livello di generazione. Si definisce quindi la massa trasversa di W : q (2.47) MTW = 2p`T pνT (1 − cos(φ` − φν )) 2.3. MISURE DEL MODELLO STANDARD IN ATLAS 39 dove ricordiamo che φ è l’angolo azimutale introdotto in Sezione 1.2.1. Come discusso in Sezione 1.3, il momento trasverso è misurato con una precisione del 2% sia per gli elettroni sia per i muoni (a grandi impulsi), mentre l’energia trasversa mancante ha una precisione molto peggiore, intorno al (20 ÷ 30)%. Un modo indipendente per misurare MW consiste nel misurare la sezione d’urto differenziale: µ ¶−1/2 µ ¶ 3 4p2T ` 2p2T ` 1 dσ = 2 1− 2 1− 2 . (2.48) σ dp2T ` MW MW MW Tutte le distribuzioni menzionate hanno un picco Jacobiano o a MW /2 (gli impulsi trasversi p`T e pνT e la sezione d’urto) o a MW (la massa trasversa). La larghezza di questo picco è causata dalla risoluzione sperimentale finita (smearing) e dall’impulso trasverso del bosone, a sua volta legato agli impulsi trasversi dei partoni (Sezione (3.1.4)). In Figura 2.3 vediamo le distribuzioni di p`T a sinistra e di MTW a destra. Per p`T l’effetto principale è dovuto W all’aggiunta di un pW T 6= 0, mentre per MT conta soprattutto l’impatto della risoluzione nella misura dell’impulso trasverso. Figura 2.3: Distribuzioni di p`T (a) e MTW (b), che mostrano il picco Jacobiano e gli effetti dello smearing e del pT intrinseco del W [59]. L’impulso trasverso del neutrino (ovvero l’energia trasversa mancante) è invece deteriorato da entrambi gli effetti, quindi non è un buon candidato per l’estrazione di MW . Il metodo che effettivamente si segue è il cosiddetto template fit, ovvero si confronta numericamente la distribuzione sperimentale con le distribuzioni teoriche ottenute con valori diversi di MW , confronto guidato dal metodo del χ2 bin per bin. Per stimare l’impatto di un effetto sistematico, si producono distribuzioni 40 2.3. MISURE DEL MODELLO STANDARD IN ATLAS in cui si è escluso quel dato effetto, e si calcola lo shift nel valore di best fit; è la stessa logica che seguiremo nel nostro studio per l’errore sistematico dell’accettanza geometrica. Variando gradualmente il contributo dell’effetto, si può inoltre studiare la dipendenza funzionale della massa da esso. In Tabella 2.2 vediamo i contributi previsti all’incertezza su MW , sia sperimentali sia teorici, provenienti da p`T e da MTW , per una luminosità integrata di 10 fb−1 , e l’incertezza totale, che si ottiene dalla somma in quadratura. δMW [MeV] : p`T δMW [MeV] : MTW 4 4.5 (e), ≤ 1 (µ) ≤1 2 0.5 4 4.5 (e), ≤ 1 (µ) 5 1.5 0.4 0.5 1 3 ≤1 1.3 1 1 ≤1 ∼ 7 (e) ; ∼ 6 (µ) ∼ 8 (e) ; ∼ 7 (µ) Effetto sperimentale Scala di energia leptonica Efficienza leptonica Rinculo del W Fondo (bosoni pesanti) Fondo (dijet) Effetto teorico Larghezza di W Distribuzione di yW Distribuzione di pW T Radiazione di QED Totale Tabella 2.2: Incertezze sistematiche, sperimentali e teoriche, per p`T e MTW , nei canali e e µ, stimate per una luminosità integrata di 10 fb−1 [39]. La scala di energia e la risoluzione in pT per i leptoni, cosı̀ come la scala dell’energia trasversa mancante, sono ottenute dalla misura di precisione dei decadimenti Z → `+ `− . La differenza in massa tra elettroni e muoni fa sı̀ che l’efficienza di identificazione sia meno incerta per i muoni. I fondi sono piccoli e sotto controllo; il più incerto rimane quello dovuto ai bosoni pesanti. Anche per quanto riguarda le incertezze teoriche si sfrutta la somiglianza tra W e Z, come per il pT intrinseco dei partoni. Notiamo che non viene qui considerata la sistematica dovuta alle PDF. L’impatto della radiazione di QED è studiato con l’ausilio del tool Photos [36], come faremo anche per l’accettanza in Sezione (5.4). Tutto ciò considerato, si trova che, con 10 fb−1 , la precisione media raggiungibile sarà di 7 MeV per canale leptonico. 2.3. MISURE DEL MODELLO STANDARD IN ATLAS 41 In una fase successiva dell’esperimento ATLAS, sono previste altre misure di precisione, quali l’asimmetra forward-backward nel canale Z → e+ e− , e studi inclusivi dei processi W/Z + jets. Entrambi questi obiettivi richiedono un controllo accurato del rivelatore, della calibrazione e dei fondi. 2.3.2 La Fisica del quark top Oltre alla produzione e al decadimento dei bosoni vettori, ATLAS studierà con precisione mai raggiunta prima la Fisica del quark top. Anzi, dato l’altissimo tasso di produzione atteso (83 mila coppie di top per 100 pb−1 , 107 per anno), LHC si può considerare, tra l’altro, una top factory. La produzione avviene principalmente (90%) tramite processi di gluon fusion, gg → tt (diagrammi (a) e (b) in Figura 2.4); importante (≈ 10%) è anche il contributo dell’annichilazione, qq → g → tt (diagramma (c)). Questi rapporti di decadimento sono propri dell’energia di LHC: al Tevatron, dove predomina il canale quark-quark, la sezione d’urto totale è circa 100 volte minore. Figura 2.4: Produzione di top a Leading Order. Con una massa di ≈ 170 GeV, il top decade pressoché istantaneamente, senza formare adroni; il canale predominante è W + b, come dimostra il fatto che l’elemento di matrice CKM corrispondente, |Vtb |, è ≈ 1 (Sezione 2.1). In Figura 2.5(a) vediamo la distribuzione in massa invariante di tre jet, simulata e ricostruita nel canale semileptonico (t → W b → jjb), per L =100 pb−1 . Da questa distribuzione possiamo determinare la sezione d’urto tt fittando i dati con un segnale gaussiano e un fondo parametrizzato da polinomi di Chebychev, che riassume il contributo del fondo fisico e del fondo combinatorio. La significanza del segnale è definita tramite il rapporto di likelihood tra due ipotesi: la presenza del solo segnale e la presenza del solo fondo. La Figura 2.5(b) mostra la significanza attesa per il segnale di top nel picco, in funzione della luminosità integrata, per due scenari di fondo: il fondo nominale di QCD (W + jets), e lo stesso raddoppiato. 42 2.3. MISURE DEL MODELLO STANDARD IN ATLAS Figura 2.5: (a) Massa invariante dei tre jet in t → W b → jjb, simulata e ricostruita per L =100 pb−1 . (b) Significanza per il picco del top in relazione al fondo aspettato. [59]. Oltre alla produzione di coppie tt, è interessante studiare la produzione di singolo top, la cui sezione d’urto totale è di 320 pb a NLO. A Leading Order, essa avviene tramite il canale t (Figura 2.6(a)), che comprende la fusione W g, tramite la produzione associata W t (diagramma (b)), e tramite il canale s (diagramma (c)). I processi iniziati dal gluone e dal b hanno un’incertezza teorica fino al 9%, diretto riflesso dell’incertezza sulle loro PDF, che si traduce anche in incertezza sulla stima di |Vtb |, che è attesa essere ∆|Vtb |/|Vtb | = (11 (stat+sist) ± 4 (teo))%. Figura 2.6: Produzione di singolo top: (a) canale t, (b) produzione associata W t, (c) canale s. Oltre che per le misure di precisione di QCD all’interno del Modello Standard, la Fisica del top è interessante per sondare scenari esotici. Essendo la sua massa vicina alla scala di rottura spontanea della simmetria elettrodebole, infatti, il top potrebbe avere un ruolo fondamentale in questo meccanismo, ed è dunque essenziale studiarne gli accoppiamenti, ovvero i canali di produzione e decadimento, perché proprio attraverso di essi potrebbe evidenziarsi Fisica non standard. 2.3. MISURE DEL MODELLO STANDARD IN ATLAS 2.3.3 43 La ricerca del bosone di Higgs Il bosone di Higgs è stato usato come termine di riferimento per ottimizzare le performance di alcuni sottorivelatori di ATLAS, in quanto la sua scoperta costituisce uno degli obiettivi principali del programma di Fisica di LHC. I limiti sperimentali attuali sulla massa dell’Higgs sono molto stringenti, in quanto escludono MH < 114.4 GeV [61] e al tempo stesso, da un’analisi globale dei dati elettrodeboli, indicano come valore più probabile (con un livello di confidenza del 95%) MH ≤ 154 GeV [38]. In particolare, recentemente i risultati combinati di CDF e di DØ hanno escluso la regione 160 < MH ≤ 170 GeV al 95% di confidenza [13]. Con riferimento alla Figura 2.7(b), vediamo che, per tutti i valori di massa, la produzione avviene preferenzialmente tramite il processo di gluon fusion, gg → H; gli altri canali prevedono che l’Higgs sia accompagnato da un bosone vettore o da una coppia partonica. In Figura 2.7(a) sono mostrati invece i canali dominanti nel decadimento dell’Higgs in funzione della sua massa; siccome l’accoppiamento con l’Higgs cresce con la massa della particella, i rapporti di branching sono più alti per le particelle più massive. Figura 2.7: (a) Rapporti di branching dell’Higgs in funzione della sua massa; (b) Sezioni d’urto di produzione a NLO [59]. Sintetizziamo di seguito i canali più interessanti per la scoperta e lo studio delle proprietà del bosone di Higgs. • Per MH . 130 GeV predomina il canale H → bb, in quanto la coppia di b è la più pesante in cui il bosone di Higgs può decadere. Questo canale è prodotto come W (Z)H o ttH, quindi si identifica tramite i leptoni di decadimento di W , Z o t. Il canale H → γγ è più raro − fino a due volte meno probabile − ma ha una segnatura sperimentale più chiara: due fotoni isolati ad alto impulso trasverso. 44 2.4. OLTRE IL MODELLO STANDARD • Per MH & 130 GeV domina il canale H → W W → 2l 2ν, che quindi necessita di ottima risoluzione in energia trasversa per identificare l’energia mancante (ETmiss ) dovuta ai neutrini. In questo intervallo si apre anche il canale H → ZZ → 4l, che ha una segnatura estremamente chiara: quattro leptoni ad alto pT . In Figura 2.8(a) vediamo la massa invariante ricostruita per l’Higgs in questo canale, sovraimposta al fondo continuo di ZZ, che si riduce tramite le opportune richieste di isolamento. • Infine, per 600 GeV . MH . 1 TeV, gli unici processi disponibili, H → W W, ZZ → lν + 2 jet, 2l+2 jet, richiedono il tagging di jet altamenti energetici. Figura 2.8: (a) Massa invariante simulata e ricostruita per H → ZZ → 4l, sovraimposta al fondo. (b) Significanza per la scoperta in funzione della massa dell’Higgs. Le luminosità integrate sono rispettivamente di 30 e 10 fb−1 . [59]. In Figura 2.8(b) abbiamo la significanza per la scoperta con L = 10 fb−1 , per i singoli canali di decadimento e per il totale, in funzione della massa dell’Higgs. Se richiediamo una significanza maggiore di 5, vediamo che con questa luminosità integrata non si potrà dire nulla riguardo all’intervallo MH < 120 GeV, mentre la zona intorno a 160 GeV sarà la più facile da investigare. 2.4 Oltre il Modello Standard Il Modello Standard, con l’aggiunta dei termini di massa per i neutrini, fornisce una descrizione soddisfacente di tutti i fenomeni noti nella Fisica delle 2.4. OLTRE IL MODELLO STANDARD 45 Alte Energie, fino a scale intorno al TeV. D’altronde, il settore dell’interazione gravitazionale è al momento completamente svincolato, manifestandosi alle scale quantistiche per energie dell’ordine della massa di Planck, MP = (8πG)−1/2 = 2.4 × 1018 GeV. Ci sono dunque 16 ordini di grandezza tra la massa dei bosoni W e Z e la massa di Planck, e questo porta a supporre l’esistenza di una scala di massa intermedia, non predetta dal Modello Standard (problema della gerarchia [52]). Riscriviamo il potenziale (2.4) del bosone di Higgs nel Modello Standard: V (Φ) = µ2 |Φ|2 + λ |Φ|4 con µ2 < 0 e λ > 0 dove il campo scalare Φ è complesso. Se il valore di aspettazione nel vuoto del campo di Higgs, (2.6), è stimato dalle misure di interazione debole, esso risulta [49]: p h0|Φ0 (x)|0i = −µ2 /2λ = 174 GeV =⇒ |µ2 | ≈ (100 GeV)2 . Il problema è che la massa dell’Higgs, µ, riceve enormi correzioni quantistiche dai loop creati da ognuna delle particelle che si accoppia, direttamente o indirettamente, con Φ. Figura 2.9: Correzioni virtuali al propagatore del bosone di Higgs: (a) loop fermionico, (b) loop bosonico. In Figura 2.9(a) vediamo il loop contenente il fermione f : assumendo un termine di interazione del tipo −λf Φf f , questo diagramma comporta una correzione: |λf |2 (2.49) ∆µ2 = − 2 Λ2UV + . . . 8π dove ΛUV è il cut-off ultravioletto sull’impulso che regola la divergenza del loop, e che possiamo interpretare come l’energia a cui si evidenziano gli effetti di nuova Fisica. I termini omessi nella (2.49) sono proporzionali a m2f , e divergono al massimo come log(ΛUV ). Il fermione f è identificabile con ognuno dei leptoni e dei quark del Modello Standard; per ogni quark bisogna moltiplicare per 3 a causa del colore. La 46 2.4. OLTRE IL MODELLO STANDARD correzione più grande è data dal top, essendo λt ≈ 1. In generale, se il cut-off ΛUV è dell’ordine della scala di Planck(2 ), si ottiene una correzione enorme, ∆µ2 ≈ 1030 µ2 , a meno di non operare un fine-tuning sui parametri. Inoltre, tramite l’accoppiamento con l’Higgs, tutto lo spettro di massa del Modello Standard è sensibile a ΛUV . Consideriamo ora una particella scalare, complessa e pesante S, che si accoppia al bosone di Higgs tramite un termine −λS |Φ|2 |S|2 . Il diagramma in Figura 2.9(b) genera allora una correzione: ∆µ2 = i |λS |2 h 2 2 Λ − 2m log(Λ /m ) + . . . con |λS |2 > 0 . UV S S 16π 2 UV (2.50) Notiamo il segno positivo del coefficiente di Λ2UV , opposto a quello trovato in (2.49). Questo segno relativo è alla base della cancellazione delle correzioni a ∆µ2 , cancellazione che permette di riottenere il valore |µ2 | ≈ (100 GeV)2 postulato per la massa dell’Higgs. Perché ciò avvenga sistematicamente, occorre introdurre una nuova simmetria tra bosoni e fermioni. In particolare, i contributi proporzionali a Λ2UV in (2.49) e in (2.50) si cancellano esattamente solo se richiediamo che ogni fermione del Modello Standard sia accompagnato da due campi scalari complessi tali che λS = |λf |2 . Ulteriori condizioni dovranno assicurare che la cancellazione persista a tutti gli ordini. Questa simmetria fondamentale è nota come supersimmetria (SUSY). Essa trasforma uno stato bosonico in uno stato fermionico, e viceversa: Q|Bosonei = |Fermionei , Q|Fermionei = |Bosonei . (2.51) L’algebra che devono soddisfare Q, il suo hermitiano coniugato Q† e il quadrimpulso P µ − generatore delle traslazioni spazio-temporali − è definita dalle relazioni seguenti: {Q, Q† } = P µ [P, Q] = [P µ , Q† ] = 0 . (2.52) In una teoria supersimmetrica, gli stati di singola particella sono organizzati in rappresentazioni algebriche irriducibili, chiamate supermultipletti, ciascuna delle quali contiene in egual numero bosoni e fermioni, superpartner gli uni degli altri. Dalla terza delle (2.52) segue in particolare che le particelle all’interno dello stesso supermultipletto avranno uguali autovalori di −P 2 , e quindi uguale massa. Il fatto che Q e Q† commutino con i generatori delle , {Q, Q} = {Q† , Q† } = 0 , 2 Se al contrario si assume un cut-off ΛUV molto minore della scala di Planck, questo genera altre difficoltà in una teoria come il Modello Standard la cui Lagrangiana non contiene derivate di ordine maggiore di due [49]. 2.4. OLTRE IL MODELLO STANDARD 47 trasformazioni di gauge, oltre che con quelli del gruppo di Poincaré, fa sı̀ che ogni supermultipletto sia caratterizzato dagli stessi numeri quantici (carica elettica, isospin debole, colore). Il modo più semplice per costruire una teoria supersimmetria (Modello Standard Supersimmetrico Minimale, MSSM) consiste nell’organizzare tutte le particelle note all’interno di supermultipletti chirali o di gauge. Poiché al momento nessun partner supersimmetrico è stato osservato sperimentalmente, se questa nuova simmetria esiste, essa deve risultare rotta nello stato di vuoto scelto dalla Natura. Questa rottura è descritta da due modelli principali: mSUGRA(3 ), in cui la rottura è mediata dall’interazione gravitazionale, e GMSB, che si concentra invece sulle interazioni di gauge. Per preservare la cancellazione delle correzioni a µ2 , occorre d’altronde che la rottura avvenga in modo soffice: richiediamo che la Lagrangiana Lsoft , caratterizzata dalla scala msoft , contribuisca al massimo con termini proporzionali a: · ¸ λ 2 2 ∆µ = msoft log(ΛUV /msoft ) + . . . . (2.53) 16π 2 Per evitare il presentarsi di un nuovo problema di gerarchia, msoft non può essere troppo grande, ma allora lo stesso deve valere per lo splitting tra le masse del Modello Standard e quelle dei superpartner, che proprio da msoft è determinato. Inserendo ΛUV ∼ MP e λ ∼ 1 in (2.53) e richiedendo |µ2 | ≈ (100 GeV)2 , si trova che msoft dev’essere dell’ordine di 1 TeV. É questa quindi la scala di energia a cui si cercheranno gli stati supersimmetrici leggeri. 2.4.1 La ricerca della Supersimmetria in ATLAS Perché la conservazione del numero leptonico L e del numero barionico B non sia violata, occorre che le particelle supersimmetriche siano sempre prodotte in coppie, e che tutte le catene di decadimento covergano nella particella più leggera (LSP), il neutralino nei modelli mSUGRA. Questo si traduce nella conservazione di un nuovo numero quantico, la R-parità, definito come R = (−1)3B+L+2S , dove S è lo spin. Il neutralino, che è soggetto solo all’interazione debole, è il candidato favorito per l’identificazione della Materia Oscura predetta dai modelli cosmologici. Nel rivelatore, la presenza del neutralino (e χ01 ) dovrebbe essere segnalata da una grande quantità di energia trasversa mancante. 3 I 105 parametri liberi del MSSM si riducono a 15 ÷ 20 tramite l’imposizione di vincoli fenomenologici, per arrivare a 5 nel modello mSUGRA. 48 2.4. OLTRE IL MODELLO STANDARD Figura 2.10: Rappresentazione di un tipico processo con produzione e decadimento di particelle supersimmetriche [59]. In Figura 2.10 vediamo rappresentato un tipico processo SUSY, il cui stato finale comprende, oltre all’energia trasversa mancante portata dai neutralini, anche numerosi jet ad alta energia, con abbondante produzione di particelle di III generazione, e leptoni, sia carichi sia neutri. A LHC la produzione di particelle supersimmetriche sarà dominata dagli squark qe e dai gluini ge, per i quali le sezioni d’urto non dipendono dai dettagli del modello SUSY ma solo dalle masse, con σ ≈ 50 pb per mqe,eg ≈ 500 GeV e σ ≈ 1 pb per mqe,eg ≈ 1 TeV. In Figura 2.11 vediamo il potenziale inclusivo di scoperta di ATLAS nel piano m0 − m1/2 (rispettivamente la massa comune delle particelle scalari, e quella dei gaugini e degli Higgsini, nel modello mSUGRA), per una luminosità integrata di 1 fb−1 e per varie configurazioni dello stato finale. Prima di poter procedere a qualsiasi scoperta, tuttavia, sarà essenziale un controllo stringente delle performance del rivelatore, in particolare per quanto riguarda la misura dell’energia√trasversa mancante, e una buona comprensione del Modello Standard a s = 14 TeV. 2.4.2 Scenari esotici La produzione di nuovi bosoni di gauge pesanti, collettivamente indicati come W 0 e Z 0 , sarà accessibile a LHC per masse fino a 6 TeV, laddove i limiti correnti del Tevatron si attestano nell’intervallo 820 ÷ 1020 GeV. Molte estensioni del Modello Standard predicono l’esistenza di risonanze di0 leptoniche: il Modello Standard Sequenziale (SSM), con uno ZSSM di accoppiamenti standard; i modelli supersimmetrici E6, che contengono le particelle esotiche Zψ0 , Zχ0 e Zη0 ; infine i modelli con simmetria Left-Right, che includono 0 un bosone ZLR . 2.4. OLTRE IL MODELLO STANDARD 49 Figura 2.11: Potenziale di scoperta a 5σ per L = 1 fb−1 , per le configurazioni 4 jet + ETmiss , con tan β = 10. Le curve corrispondono a fissare le masse del gluino e degli squark con intervalli di 500 GeV [59]. Sperimentalmente queste particelle dovrebbero lasciare segnature simili nel rivelatore, ovvero coppie di elettroni o muoni. La Figura 2.12(a) mostra il picco ricostruito dello Z 0 , descritto da una Breit-Wigner, al di sopra del fondo irriducibile dato dal Drell-Yan Z/γ ∗ → e+ e− . Figura 2.12: (a) Segnale di Z 0 → e+ e− al di sopra del fondo. (b) Luminosità integrata necessaria per la scoperta, in funzione della massa del bosone vettore supersimmetrico. [59]. Come vediamo in Figura 2.12(b) per i vari modelli teorici, la luminosità integrata necessaria per una scoperta di Z 0 → e+ e− a 5σ dipende dalla massa dello Z 0 stesso. Per esempio, un bosone di 1 TeV si manifesterebbe già coi 50 2.4. OLTRE IL MODELLO STANDARD primi 50 pb−1 , ma se la massa fosse oltre i 3 TeV avremmo bisogno di almeno 10 fb−1 . Altre segnature di Nuova Fisica saranno rivelabili tramite una misura di precisione della sezione d’urto per jet altamente energetici, e tramite la ricerca della violazione del numero leptonico (in processi come τ → 3µ e τ → µγ). Citiamo infine la possibilità di produzione di mini buchi neri, che decadrebbero democraticamente in tutti i possibili stati finali: leptoni carichi, neutrini, fotoni, bosoni vettori e jet. Capitolo 3 La Fisica dei bosoni vettori intermedi W e Z 3.1 Il processo Drell-Yan Discutiamo adesso gli aspetti fondamentali della Fisica di una collisione protone-protone, specializzandoci poi al processo Drell-Yan, la cui misura di precisione è uno degli obiettivi dell’esperimento ATLAS. 3.1.1 La collisione protone-protone Figura 3.1: Rappresentazione dello scattering adrone-adrone. In generale, una collisione adronica come quella rappresentata in Figura 3.1, oltre all’evento principale di hard scattering tra i partoni a e b, contiene un Underlying Event prodotto dall’interazione tra i resti degli adroni incidenti (partoni spettatori ). L’Underlying Event è una collisione soffice e inelastica, che produce particelle con basso momento trasverso, per questo facilmente distinguibili dai prodotti dell’evento principale. La possibilità di un secondo hard scattering tra i resti 52 3.1. IL PROCESSO DRELL-YAN degli adroni è molto rara; essa viene risolta considerando indipendenti i due eventi, e quindi moltiplicandone le probabilità. La sezione d’urto totale protone-protone, in funzione dell’energia nel centro di massa adronico, è rappresentata in Figura 3.2. Essa riassume le misure esistenti di σtot , da bassa energia fino alle regioni tipiche di LHC e dei raggi cosmici. Sia i dati dei cosmici, sia i risultati finali del Tevatron (CDF e E118 sono in disaccordo entro 2.6 deviazioni standard) lasciano spazio a una certa √ variabilità nell’estrapolazione a s = 14 TeV: i valori che ne risultano per la sezione d’urto sono compresi tipicamente tra 90 e 130 mb(1 ). Figura 3.2: Sezione d’urto totale protone-protone, estrapolata a 14 TeV [64]. I contributi maggiori alla sezione d’urto totale sono quelli dell’interazione elastica (≈ 30 mb) e dell’interazione soffice, diffrattiva (≈ 18 mb) e non (≈ 65 mb). Quest’ultima, detta Minimum Bias, è caratterizzata da piccoli momenti trasferiti, e quindi da una bassa risoluzione della struttura adronica. Per confronto, ci sono 6 ordini di grandezza tra queste sezioni d’urto e i ≈ 100 nb per la produzione di W a LHC, come anticipato in Sezione 2.3. Gli eventi più interessanti sono quelli prodotti dall’interazione di hard scattering. Ad energie maggiori della tipica massa adronica (ΛQCD ≈ 200 MeV), la costante di accoppiamento dell’interazione forte, αs (Q2 ), è abbastanza piccola da poter considerare i quark come liberi all’interno dell’adrone. É questa la proprietà di libertà asintotica della QCD, che viene sfruttata dal modello a partoni (Bjorken 1969, Feynman 1972), nel quale l’adrone è descritto come un insieme incoerente di partoni, ognuno dei quali porta una 1 La misura di precisione di σtot è uno degli obiettivi dell’esperimento TOTEM [63] ad LHC, situato nella caverna di CMS. 3.1. IL PROCESSO DRELL-YAN 53 frazione x del suo impulso, con probabilità distribuita secondo le Parton Distribution Functions (PDF): f (x) dx ≡ P(x0 ∈ [x, x + dx]) f = q, q, g . (3.1) Ne segue(2 ) la fondamentale proprietà di fattorizzazione delle sezioni d’urto. Nel caso dell’interazione adrone-leptone si ha in particolare: X Z 1 0 0 2 σ(lh → l X)(Q ) = dx fa/h (x, µ2F ) σ̂ (la→l X) (Q2 , µ2F ) (3.2) a=q,q,g 0 mentre per lo scattering adrone-adrone la sezione d’urto si fattorizza come (i simboli si riferiscono alla collisione in Figura 3.1): X Z 1 2 dx1 dx2 fa/h1 (x1 , µ2F )fb/h2 (x2 , µ2F ) σ̂ (ab→cd) (Q2 , µ2F ) . σ(h1 h2 → cd)(Q ) = a,b=q,q,g 0 (3.3) In entrambi i casi, la sezione d’urto adronica è data dall’integrale di convoluzione tra le PDF e la sezione d’urto partonica σ̂. Da notare che, mentre le fa,b/h e σ̂ dipendono dalla scala di fattorizzazione µF , la sezione d’urto adronica non ne dipende, dal momento che è una quantità fisica. La scala di fattorizzazione è definita come la scala di energia che distingue tra interazioni a lunga e corta distanza: solo a queste ultime è corretto applicare la QCD perturbativa. L’energia tipica del processo è settata dalla scala Q2 , che spesso si assume uguale a µ2F . Sia nell’interazione adrone-leptone sia in quella adrone-adrone, pesiamo la sezione d’urto elementare con le stesse PDF: questo grazie alla universalità di tali distribuzioni, che sono indipendenti dal processo e dalla particella con cui vengono sondate. Nel caso dello scattering tra adroni, bisogna tuttavia aggiungere l’ipotesi che la presenza del secondo adrone non modifichi la struttura interna del primo. 3.1.2 Sezione d’urto a Leading Order Il processo Drell-Yan (Drell e Yan, 1971): pp −→ γ ∗ −→ `+ `− + X 2 Questa affermazione è la base concettuale della QCD perturbativa; dimostrazione rigorosa si trova in [26]. la sua 54 3.1. IL PROCESSO DRELL-YAN è considerato il prototipo di reazione adronica, con lo stato finale leptonico, ad alto momento trasverso, semplice da caratterizzare sperimentalmente. Come già accennato, estendiamo la sua terminologia ad includere anche i processi che coinvolgono un bosone vettore massivo, W o Z. Avere un grande momento trasferito, e quindi un bosone vettore che si propaga solo su piccole distanze, assicura che possiamo ignorare gli effetti di grande distanza, e dunque applicare la QCD perturbativa. Consideriamo lo scambio di un fotone (Figura 3.3) [15]. Figura 3.3: Produzione Drell-Yan di una coppia leptonica. Assumendo i partoni a massa nulla, il quadrato dell’energia nel centro di massa partonico ŝ in funzione di quella nel centro di massa adronico s, è semplicemente: ŝ = (x1 p1 + x2 p2 )2 ≈ 2 p1 · p2 x1 x2 = s x1 x2 . (3.4) dove x1,2 sono le frazioni di impulso portate dai due partoni incidenti. A Leading Order, la sezione d’urto si ottiene da quella del processo elementare di QED e+ e− → µ+ µ− , con l’aggiunta degli appropriati fattori di carica e colore: 4παs2 1 2 σ̂(qq → e+ e− ) = Q (3.5) 3ŝ Nc q dove abbiamo diviso per il numero di colori, Nc = 3, perchè per generare lo stato finale occorre che i colori del quark e dell’antiquark siano uguali e opposti. Qq è la carica partonica in unità di e, Qu = +2/3, Qd = −1/3, eccetera. Per formare una coppia leptonica di massa M , l’energia ridotta deve valere ŝ = M 2 , quindi possiamo scrivere la sezione d’urto differenziale come: 4παs2 1 2 dσ̂ = Qq δ(ŝ − M 2 ) . 2 dM 3ŝ Nc (3.6) Scriviamo ora la sezione d’urto per il Drell-Yan mediato da un fotone, tramite 3.1. IL PROCESSO DRELL-YAN 55 la (3.6) e la forma (3.3) per la sezione d’urto adronica fattorizzata: ·X ³ Z ´¸ dσ̂ 4παs2 1 2 2 2 2 = dx1 dx2 δ(ŝ−M ) Qk qk (x1 , M ) q k (x2 , M )+(1 ↔ 2) . dM 2 3Nc ŝ 0 k (3.7) Differenziando anche rispetto alla rapidità y dell’oggetto prodotto, si ottiene: · ´¸ d2 σ̂ 4παs2 X 2 ³ 2 2 Q qk (x1 , M ) q k (x2 , M ) + (1 ↔ 2) . (3.8) = dM 2 dy 3Nc s k k La sezione d’urto per la produzione di W e Z on-shell è invece data da: 0 π√ 2 2 ) 2 GF MW |Vqq0 | δ(ŝ − MW 3 π√ = 2 GF MZ2 (υq2 + a2q ) δ(ŝ − MZ2 ) 3 σ̂ qq →W = σ̂ qq→Z (3.9) da convolvere con l’apposita larghezza di decadimento, dove υq e aq sono gli accoppiamenti vettoriali e assiali dei bosoni vettori coi quark, mentre |Vqq0 | è l’elemento di matrice CKM (2.2). Le sezioni d’urto (3.9) sono calcolate nell’approssimazione di larghezza intrinseca trascurabile per W e Z (narrow width), plausibile dal momento che ΓW,Z ≈ 2 GeV ¿ MW,Z . 3.1.3 Correzioni a Next to Leading Order La trattazione semplificata fin qui discussa, non tiene conto dei problemi che sorgono quando si introducono le correzioni perturbative, ovvero si considera l’emissione di gluoni reali e virtuali ad opera del partone incidente. Questi termini infatti danno luogo a divergenze, sia quando il gluone è emesso collinearmente al quark, sia quando la sua energia tende a zero (divergenza soft). Le divergenze sono logaritmiche: questi logaritmi possono essere riassorbiti nella definizione delle PDF: tale fattorizzazione funziona a tutti gli ordini e per tutti i processi, come è provato esplicitamente dal teorema di fattorizzazione [26], che fornisce anche la definizione rigorosa delle PDF. In Figura 3.4 troviamo i diagrammi LO e NLO per la produzione DrellYan di un fotone. Le correzioni (a) sono dovute all’inserzione di un gluone virtuale (F̂1qq,V ), le correzioni (b) all’inclusione di un gluone reale (F̂1qq,R ), mentre le correzioni (c) corrispondono allo scattering quark-gluone qg → γ ∗ q e antiquark-gluone (F̂1qg ). Diagramma per diagramma, si incontrano tre tipi di divergenze: ultraviolette 56 3.1. IL PROCESSO DRELL-YAN Figura 3.4: Diagrammi Drell-Yan a Leading e Next to Leading Order. in corrispondenza dei loop, infrarosse legate all’emissione di gluoni soffici, e infrarosse collineari negli splitting q → qg e g → qq. Sommando tutti questi contributi, le divergenze si cancellano, tranne quelle dovute alle singolarità collineari, i cui coefficienti sono le funzioni di splitting Pij , che introdurremo in Sezione 3.2.2 (equazione (3.29)). Scriviamo i vari contributi dopo averli regolarizzati dimensionalmente(3 ): F̂1qq = F̂1qq,R + F̂1qq,V = = αs (µ Q2q 2 ) 2π · µ ¶ ¸ 1 M2 (0) 2 − − ln(4π) + γE + ln 2 Pqq (τ ) + Dq (τ ) ² µ ·µ ¶ ¸ 1 M2 (0) = − − ln(4π) + γE + ln 2 Pqg (τ ) + Dg (τ ) 2π ² µ (3.10) dove τ = M 2 /s, γE è la costante di Eulero-Mascheroni (fattore caratteristico della regolarizzazione dimensionale, cosı̀ come ln(4π)), mentre Dq,g sono coefficienti calcolabili. Possiamo a questo punto ridefinire la funzione di distribuzione partonica, in modo che facendone la convoluzione coi coefficienti singolari F̂, le divergenze F̂1qg αs (µ Q2q 2 ) 3 La regolarizzazione dimensionale prevede di assumere uno spazio di d = 4 − 2² dimensioni, introducendo la scala regolarizzatrice µ per preservare le dimensioni delle quantità fisiche: in questo modo le singolarità diventano poli in ² → 0, con coefficienti calcolabili. 3.1. IL PROCESSO DRELL-YAN 57 si compensino esattamente: µ ¶ αs (µ2 ) 1 q (x, µ ) = q(x) + − − ln(4π) + γE 2π ² Z 1 ¤ dz £ (0) (0) × Pqq (x/z) q0 (ξ) + Pqg (x/z) g0 (ξ) + O(αs2 ) (. 3.11) x z F 2 La magnitudine della correzione O(αs ) dipende dalla massa della coppia leptonica, cosı̀ come dall’energia della collisione e dalla natura del bersaglio. Per la produzione di W e Z, tipicamente il NLO aumenta la sezione d’urto LO del (20 ÷ 30)%. 3.1.4 Distribuzione in momento trasverso dei partoni L’approssimazione che si usa per studiare la cinematica del Drell-Yan, consiste nello scegliere il sistema di riferimento infinite momentum frame: l’adrone incidente ha allora P À M , e può essere considerato in moto parallelo all’asse z. Ciò vale anche per i partoni che lo compongono, i cui momenti stiamo descrivendo in termini delle frazioni di impulso x. Le misure sperimentali però confutano quest’approssimazione, mostrando che la coppia leptonica prodotta nel Drell-Yan ha una distribuzione in momento trasverso, e che da questa si può inferire la distribuzione dei partoni genitori. Generalizziamo l’idea di distribuzione di probabilità partonica a includere il momento trasverso, nel modo seguente: f (x) = R → − − → d2 k T P ( k T , x) cosicché dxf (x) diventa R → 2− − → dx d k T P ( k T , x) . (3.12) Quando la scala del processo duro è molto grande, possiamo ragionevolmente → − continuare a ignorare k T , ovvero porre: − → − → P ( k T , x) = δ( k T ) f (x) e, poiché il momento trasverso si deve conservare tra stato iniziale e finale, ne segue che anche la coppia leptonica avrà pT = 0. Altrimenti è necessario tener conto della distribuzione in momento trasverso; nel caso più semplice si ha che le dipendenze da x e da kT si fattorizzano: − → − → P ( k T , x) = h( k T )f (x) 58 3.1. IL PROCESSO DRELL-YAN per cui si ottiene direttamente la distribuzione in momento trasverso della coppia leptonica: Z − → − → − → − → 1 d2 σ − p T ) h( k T 1 ) h( k T 2 ) (3.13) = d2 kT 1 d2 kT 2 δ (2) ( k T 1 + k T 2 − → 2 σ d pT dove σ = d2 σ/dM 2 dy è stata definita in (3.8). Se assumiamo una distribuzione gaussiana, → − b h( k T ) = exp(−b kT2 ) π con hkT i = 760 MeV, la tipica massa adronica, otteniamo: 1 d2 σ b = exp(−bp2T /2) . 2 σ d pT 2π (3.14) BR×dσ/dpT (pb/GeV) Questa sezione d’urto descrive bene i dati a piccoli pT ; ad alto pT , invece, si osserva un eccesso di eventi, dovuto ai processi perturbativi a NLO qq → γ ∗ g e qg → γ ∗ q, dove il partone finale è emesso ad alto momento trasverso. Facendo la convoluzione dei due effetti, si incontra una difficoltà: per pT À hkT i l’approccio perturbativo è adeguato, ma se allo stesso tempo pT ¿ M non possiamo trascurare l’emissione multipla di gluoni soffici. Fortunatamente, la serie dei logaritmi che ne risulta può essere risommata a tutti gli ordini. 80 Z → l+l60 |ηlepton| < 2.5 pTlepton > 20 GeV 40 20 0 0 10 20 30 40 50 Z pT (GeV) Figura 3.5: Distribuzioni in momento trasverso per Z (b) e i suoi prodotti di decadimento (a). A sinistra abbiamo la simulazione a LO con Pythia, a destra il calcolo teorico NLO [58]. In Figura 3.5 (a) mostriamo la distribuzione in momento trasverso della cop- 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE 59 pia leptonica µµ prodotta dal decadimento Drell-Yan di Z, per diversi intervalli di massa invariante; la simulazione è effettuata a LO con Pythia. Risulta evidente che a LHC saranno prodotte in gran numero coppie di muoni con alta massa invariante e momento trasverso superiore a 100 GeV. In Figura 3.5 (b) vediamo invece la distribuzione teorica in pT per Z, calcolata a NLO con la risommazione dei logaritmi dominanti, e l’applicazione dei tagli sperimentali. 3.2 Funzioni di distribuzioni partoniche Abbiamo già introdotto le PDF e la proprietà di fattorizzazione in Sezione 3.1.1. Vogliamo adesso approfondire questi concetti, alla luce del ruolo fondamentale che la conoscenza delle PDF gioca nello studio di precisione della produzione dei bosoni vettori W e Z a LHC. L’incertezza legata a queste distribuzioni, infatti, è la principale fonte di errore sistematico per l’accettanza e quindi per la sezione d’urto, come mostrerò nel Capitolo 5. 3.2.1 Fattorizzazione Una rappresentazione intuitiva del concetto di fattorizzazione è riportata in Figura 3.6: la scala µ = µF setta il confine tra quello che definiamo adrone incidente e quella che consideriamo essere l’interazione. Questo nell’ipotesi che la durata dello scattering sia abbastanza breve che il contenuto dell’adrone resti invariato. Nella parte alta della Figura, notiamo la presenza della particella di stato finale k, che confluisce nell’adrone X con una probabilità di cui tiene conto la funzione di frammentazione Dk (che ha il ruolo opposto delle PDF). Figura 3.6: Fattorizzazione nello scattering adronico [50]. Le PDF (3.1) sono non perturbative, per cui non possono essere derivate analiticamente, ma si ottengono fittando i dati degli esperimenti di Deep 60 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE Inelastic Scattering (DIS), Drell-Yan e produzione di jet, che coprono intervalli diversi in (x, Q2 ). In Figura 3.7 vediamo la regione cinematica esplorata dagli esperimenti di DIS; essi usano sia fasci di protoni liberi (quelli forniti dal collider HERA a DESY, per gli esperimenti H1 e ZEUS) sia bersagli nucleari (esperimenti a targhetta fissa, nel qual caso bisogna considerare la complicazione dovuta al fatto che i nucleoni nel bersaglio sono legati), mentre i leptoni-sonda possono essere sia carichi sia neutri. Gli esperimenti di HERA coprono un intervallo molto esteso sia in Q2 (Q2 ≈ (0.1 − 104 ) GeV2 ) sia in x (x ≈ 10−5 − 10−1 ), mentre gli esperimenti a targhetta fissa si estendono in una regione complementare. La produzione di jet ai collider è invece importante perché fornisce informazioni indirette sulla distribuzione gluonica, che non può essere testata direttamente in quanto i gluoni non si accoppiano ai bosoni vettori. Figura 3.7: Copertura cinematica degli esperimenti di DIS. Le seguenti relazioni sono quelle fondamentali per la conoscenza delle PDF, a partire dal fit sperimentale delle funzioni di struttura F1,2 dei nucleoni: F1 (x) = X e2 i i 2 fi (x) 2xF1 (x) = F2 (x) . i = u, u, d, d, . . . (3.15) (3.16) La prima relazione si ottiene confrontando la sezione d’urto tra particelle puntiformi in QED (per esempio µ+ µ− → e+ e− ), con la (3.2). La somma è su tutti i sapori, in realtà però il contributo dei quark pesanti (c, b, t) è trascurabile perché, alla scala di energia Q, il bosone vettore vede solo dimensioni & 1/Q, quindi distingue un quark di massa Mq e dimensioni ∼ 1/Mq 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE 61 solo se Q > Mq . La (3.16) è la relazione di Callan-Gross: è valida solo a Leading Order in αs e ci dice qualcosa di fondamentale sui partoni, dal momento che descrive particelle di spin 1/2. Notiamo che, pur continuando a valere la (3.16) per F1 e F2 , se il bosone vettore è carico bisogna aggiungere una terza funzione di struttura indipendente, F3 , che non conserva la parità. Legge di scala di Bjorken Consideriamo lo scattering leptone-adrone, e chiamiamo ν la componente temporale del momento trasferito: q0 ≡ ν = E − E 0 = (l − l0 ) · p/Mh (3.17) dove p ed Mh si riferiscono all’adrone − a riposo nel sistema di riferimento del laboratorio − l ed E al leptone iniziale, l0 ed E 0 al leptone finale. La frazione di impulso portata dal partone che scattera contro il leptone, x, è legata a Q2 = −q 2 e a ν dalla relazione seguente: ½ Q2 Q2 = 1 scattering elastico x≡ . (3.18) = 2Mh ν 2 p · q < 1 scattering inelastico A grandi impulsi trasferiti, siamo nel limite in cui il leptone scattera elasticamente contro un partone: le funzioni di struttura cessano allora di essere funzioni indipendenti di Q2 e di ν per diventare funzioni della sola x, in base alla legge di scala di Bjorken(4 ): Q2 →∞ F1,2,3 (Q2 , ν) −−−→ F1,2,3 (x) 6= 0 . (3.19) La legge di Bjorken indica inoltre che: • le funzioni di struttura rimangono finite per Q2 → ∞, • la sola variabile indipendente è x, dunque non si hanno scale intrinseche, che segnalerebbero una struttura composita dei partoni. 4 In effetti le relazioni scritte finora per le funzioni di struttura, e di conseguenza per le PDF, sono valide solo in questo limite. 62 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE I gradi di libertà delle distribuzioni partoniche sono ridotti imponendo la composizione in flavour degli adroni. Per il protone ad esempio si ha: R1 R1 dx [u(x) − u(x)] = 2 dx [d(x) − d(x)] = 1 0 0 (3.20) R1 dx [s(x) − s(x)] = 0 . 0 Non possiamo imporre un vincolo analogo per i gluoni, in quanto il numero dei bosoni non è conservato. É usuale separare ogni distribuzione in due componenti, una di valenza e una di mare, q ≡ qV + qS , in modo che sia la componente di valenza a portare i numeri quantici dell’adrone. In questo modo le (3.20) si traducono per u in: R1 dx uV (x) = 2 0 u(x) ≡ uS (x) R1 0 dx [uS (x) − uS (x)] = 0 . L’ultima equazione va generalizzata in: uS ≡ uS ≡ dS ≡ dS ≡ sS ≡ sS ≡ . . . (3.21) che è un’assunzione fondamentale del Modello dei Quark Costituenti (Close, 1979): il mare è simmetrico in tutti i sapori, in quanto viene generato negli splitting g → qq. D’altronde, come vedremo in seguito, nella discussione sulla componente intrinseca di charm, dagli esperimenti si trova che questa assunzione non è vera in modo esatto. Teorema di fattorizzazione Riprendiamo le funzioni di struttura (3.15), (3.16) e aggiungiamo le dipendenze che compaiono agli ordini perturbativi superiori: µ ¶ dz (V a) x Q2 µ2F C1,3 , , , αs (µR ) fa/h (z, µF , µR ) (3.22) = z µ2R µ2R x z a µ ¶ 2 XZ 1 µ2F (V h) (V a) x Q 2 F2 (x, Q ) = dz C2 , , , αs (µR ) fa/h (z, µF , µR ) (3.23) z µ2R µ2R x a (V h) F1,3 (x, Q2 ) XZ 1 dove stiamo sommando su tutti i partoni attivi, a = q, q, g, mentre V indica il generico bosone vettore. Oltre alla scala di fattorizzazione µF , è comparsa la scala di rinormalizza- 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE 63 zione µR . Spesso per comodità si assume µF = µR , ponendole entrambe uguali al momento trasferito Q, ma non bisogna dimenticare che esse sono concettualmente molto diverse: mentre µR è una quantità arbitraria che ci permette di regolare le divergenze ultraviolette della teoria, µF è una scala non perturbativa essenziale perché si possano fattorizzare le interazioni di lunga e corta distanza. Un propagatore di virtualità(5 ) −q 2 > µ2F dà vita a interazioni di alta energia e quindi corta distanza, di cui tengono conto i coefficienti di hard scattering Ck , mentre se il momento trasferito è −q 2 < µ2F siamo nell’intervallo delle lunghe distanze, quindi questo contributo dev’essere fattorizzato come parte delle PDF. L’esatta definizione di µF dipende dallo schema di fattorizzazione scelto. Schemi di fattorizzazione A tree-level, dove il partone di impulso z incontra il bosone vettore senza aver subito interazioni, la forma triviale delle PDF è data da: fi (z) = δ(1 − z) (3.24) (γi) per cui, sostituendo in (3.23), possiamo scrivere la funzione di struttura F2 per l’interazione fotone-partone: Z 1 ³ ´ (γi)(0) x (γi)(0) (γi)(0) dz δ(1 − z) C2 F2 (x) = = C2 (x) = Q2i δ(1 − x) (3.25) z 0 dove nell’ultimo passaggio abbiamo usato la (3.15). Qualsiasi schema di fattorizzazione si adotti, esso dovrà riprodurre la (3.24) e la (3.25) a tree-level. Gli schemi più usati sono il DIS (usato soprattutto per descrivere i dati di Deep Inelastic Scattering, da cui il nome) e il MS (Modified Minimal Subtraction). Nello schema DIS [18], si richiede che tutte le correzioni alle funzioni di struttura siano assorbite, ordine per ordine, nella definizione delle PDF. Questo (V i) implica che, assumendo µR = µF = Q, i coefficienti di hard scattering Ca (V i) restino identici al tree-level; per C2 si ha in particolare: (V q(q)) C2 (x) = Q2q(q) δ(1 − x) , (V g) C2 (x) = 0 . (3.26) In questo modo perdiamo però l’informazione sulla distribuzione gluonica. (V i) Nello schema MS [4], al contrario, i coefficienti Ca sono calcolati con la 5 La virtualità corrisponde in valore assoluto al quadrato del quadrimpulso, t = q 2 , ed è positiva o negativa a seconda che la particella sia time- o space-like. 64 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE teoria delle perturbazioni, rinormalizzata secondo le prescrizioni della Modified Minimal Subtraction, e riassorbono le correzioni finite; solo le divergenze collineari sono incluse nelle PDF. 3.2.2 Evoluzione Finora non abbiamo parlato della dipendenza delle PDF e delle funzioni di struttura da Q2 . É interessante il fatto che, pur non essendo le PDF calcolabili perturbativamente, la loro dipendenza dall’energia lo è. Questa dipendenza − a cui ci si riferisce come evoluzione − è descritta dall’equazione DGLAP (Dokshitzer-Gribov-Lipatov-Altarelli-Parisi), che è in realtà un set di equazioni integro-differenziali accoppiate: Z 1 ³x ´ dz αs X 2 d 2 2 2 µ f (x, µ ) = P (z, α (µ )) f , µ (3.27) i ij s j dµ2 2π j=q,q,g x z z dove abbiamo posto µR = µF = Q. I coefficienti Pij sono i kernel dell’evoluzione, e sono noti come funzioni di splitting. Si possono espandere in serie di potenze di αs (µ2 ): (0) Pij (x, αs ) = Pij (x) + αs (1) P (x) + . . . 2π ij e notiamo che nella (3.27) abbiamo fattorizzato una potenza di αs . Le funzioni di splitting descrivono l’ampiezza di probabilità di generare il partone i nel branching del partone j, ovvero Pij ≡ P(j → iX), con i dotato di impulso x. Esplicitiamo la (3.27) a Leading Order per i = q: Z ³x ´ ³x ´i αs 1 dz h (0) 2 2 d 2 (0) 2 q(x, µ ) = Pqq (z) q , µ + Pqg (z) g ,µ . (3.28) µ dµ2 2π x z z z Per conoscere la sezione d’urto, abbiamo bisogno dell’ampiezza di probabilità che l’adrone contenga un quark di impulso x, ovvero della PDF q(x, µ2 ) alla scala di energia µ2 = Q2 . Ma al variare del quadrimomento trasferito cambia la risoluzione con cui possiamo conoscere il contenuto dell’adrone (legge di de Broglie), e quindi all’aumentare di µ2 siamo in grado di distinguere l’evoluzione di q(x, µ2 ). Ci rendiamo allora conto che il quark q ha avuto origine da un numero arbitrario di branching, del tipo q → q(x) g(1 − x) oppure g → q(x) q(1 − x). 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE 65 In generale abbiamo quattro funzioni di splitting indipendenti: µ ¶ 1 + z2 (0) (0) Pqq = Pq q = CF 1−z + (0) 2 2 (0) Pqg = Pqg = · TF [z + (1 − z) ] ¸ z 1−z 11CA − 4Nf TF (0) Pgg = 2 CA + + z(1 − z) + δ(1 − z) (1 − z)+ z 6 1 + (1 − z)2 (0) (0) = Pgq = CF Pgq z (3.29) dove, con tre colori, TF = 1/2, CA = 3, CF = 4/3. Agli ordini superiori dobbiamo tenere conto anche dei processi j → iXY . La prescrizione + in (3.29) è definita nel modo seguente: · · ¸ ¸ Z 1 Z 1 Z x g(z) f (z) − f (1) g(z) dz f (z) ≡ dx g(z) − f (1) dz 1−z + 1−z 1−z x x 0 (3.30) con f (z) una qualsiasi funzione regolare. Appare evidente che le funzioni di splitting non sono in realtà funzioni, ma piuttosto distribuzioni, che risultano finite dopo la convoluzione. Il secondo termine a destra in (3.30) è un termine divergente, che si annulla per x = 0, e che viene sottratto al primo termine per regolarizzarlo. Le funzioni di splitting sono di tipo space-like, in quanto coinvolgono virtualità negative. Nel caso della radiazione di stato finale, vengono sostituite dalle funzioni di frammentazione, che sono invece time-like. 3.2.3 Violazioni di scaling La discussione precedente anticipa l’esistenza delle violazioni di scaling, ovvero della dipendenza delle PDF dalla scala di energia Q2 . Per un puro scaling di Bjorken, equazione (3.19), ci aspetteremmo che PDF e funzioni di struttura dipendessero solo dalla frazione di impulso x, e che quindi: ∂Fi (x, µ2 ) µ2 →∞ −−−→ 0 con x finita. (3.31) ∂µ2 I dati confermano invece la dipendenza logaritmica delle PDF da Q2 , come vediamo in Figura 3.8, dove sono riportate sia le misure recenti della funzione di struttura del protone, F2p , sia il fit di QCD guidato dalla DGLAP (lo shift in x è artificiale). Le misure coprono cinque ordini di grandezza, sia in x, 10−5 < x < 0.65, sia in Q2 , 1 GeV2 < Q2 < 105 GeV2 . Da notare che i partoni appaiono puntifor- 66 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE Figura 3.8: Dati sperimentali per F2p . mi fino a Q2 ≈ 105 GeV2 , ovvero a dimensioni di 10−3 fm. Vediamo dalla Figura che il fit teorico è in ottimo accordo coi dati: a x fissata, la funzione di struttura sale per energia crescente. A bassa energia, infatti, risolviamo pochi partoni e non siamo troppo lontani dalla situazione in cui il protone è composto solo dai suoi quark di valenza. Ci aspettiamo quindi che x ' 1/3 per ognuno di questi partoni. Se invece aumentiamo l’energia, e risolviamo il mare in modo sempre più dettagliato, ogni partone avrà a disposizione una frazione di impulso minore, e sarà molto improbabile trovare un partone a grande x. Questo effetto è maggiore per i gluoni, essendo maggiore la probabilità di splitting g → gg; dobbiamo infatti sempre rispettare la regola di somma degli impulsi: Z 1 ³X ´ dx x f (x) + g(x) = 1 . (3.32) 0 f =q,q La dipendenza in x delle PDF al variare di Q2 è illustrata in Figura 3.9. In Figura 3.10 vediamo invece la regione cinematica nel piano (x, Q2 ) che è stata coperta da HERA (in verde), a confronto con quella che sarà esplorata da LHC (in blu). Per ogni rapidità y troviamo le linee corrispondenti a x1 e x2 , mentre le linee orizzontali indicano la massa M dell’oggetto prodotto. 3.2. FUNZIONI DI DISTRIBUZIONI PARTONICHE Figura 3.9: Dipendenza delle funzioni di distribuzioni partoniche da Q2 [31]. Figura 3.10: Produzione di un oggetto di massa M ad LHC ed a HERA [24]. 67 68 3.3. METODO CTEQ PER IL FIT DELLE PDF La collisione produce un oggetto di massa M e rapidità y (1.1), secondo la relazione seguente: µ ¶ 1 x1 M (3.33) y = ln =⇒ x1,2 = √ e±y . 2 x2 s dove ci siamo posti nel sistema di riferimento del centro di massa dei due adroni, nel quale i partoni incidenti hanno impulsi: √ √ s s µ µ p1 = (x1 , 0, 0, x1 ) , p2 = (x2 , 0, 0, −x2 ) . (3.34) 2 2 Queste relazioni sono fondamentali, in quanto permettono di estrarre gli impulsi dei partoni dalla misura della massa e della √ rapidità dell’oggetto prodotto. In particolare, se scegliamo M ≈ MW,Z e s = 14 TeV, segue che x1 x2 ≈ 10−5 . Vediamo in Figura 3.10 che le zone studiate da HERA e LHC si sovrappongono in x, mentre Q2 cresce a LHC di due-tre ordini di grandezza. In questo modo si potrà testare l’evoluzione delle PDF, dalla scala a cui sono disponibili i dati di DIS (Q ≈ (1 ÷ 10) GeV) a quella di LHC (Q ≈ (102 ÷ 103 ) GeV), alla ricerca di eventuali deviazioni dalla DGLAP. 3.3 Metodo CTEQ per il fit delle PDF Fin dall’inizio degli anni ‘90, la collaborazione CTEQ(6 ) fornisce, nell’ambito di un’analisi globale dei dati sperimentali, accurati fit delle PDF, con un metodo che si è andato raffinando nel corso degli anni: a partire dalle CTEQ1M [5], costituite solo da un set di best fit, passando per le CTEQ6 [41], le prime a contenere una trattazione sistematica delle incertezze, per arrivare alle CTEQ6.6 [35], il fit più completo attualmente esistente. Strategia generale Prima dell’avvento del metodo di analisi CTEQ6, per fittare le PDF se ne costruiva una “miglior stima” facendo variare parametri selezionati. In questo modo, non si riusciva a quantificare né l’incertezza associata alla miglior stima, nè, cosa forse ancora più importante, l’incertezza associata alle quantità fisiche derivate. Va sottolineato che l’analisi globale dei dati sperimentali presenta difficoltà 6 CTEQ è l’acronimo di Coordinated Theoretical/Experimental project on QCD phenomenology and tests of the Standard Model. 3.3. METODO CTEQ PER IL FIT DELLE PDF 69 non banali. In principio infatti − se ogni esperimento fornisse i propri risultati in forma di probabilità, e queste probabilità fossero mutuamente compatibili − la via naturale da seguire sarebbe quella della funzione di verosimiglianza (likelihood function). In realtà invece, le funzioni di likelihood sono raramente disponibili; più spesso vengono pubblicati i singoli dati coi relativi errori, senza dar conto delle correlazioni, e insieme a questi un errore di normalizzazione complessivo. Con l’ausilio dei test statistici standard, risulta che molti dei dati pubblicati hanno un χ2 per grado di libertà che eccede di molto 1, rendendo quindi quel set sperimentale altamente improbabile in senso statistico. D’altronde, se anche si considerassero solo esperimenti con valori plausibili di χ2 , questi darebbero origine a PDF incompatibili tra loro. É dunque chiaro come un approccio ideale di questo tipo fallisca nel caso delle PDF: esse infatti sottendono una mole straordinaria di dati sperimentali, provenienti da esperimenti di tipo molto diverso, in intervalli cinematici anche lontanissimi. Vediamo come il metodo hessiano affronta questi problemi. 3.3.1 Il metodo hessiano L’applicazione del metodo hessiano al problema dell’analisi globale della QCD non è immediata: per implementare la matrice hessiana nel calcolatore, infatti, occorre discretizzare le derivate, cosa non banale visto che alla mole disparata di input sperimentali corrisponde una base di autovalori che spanna molti ordini di grandezza. La procedura che verrà descritta nel seguito [42] si basa fondamentalmente su due approssimazioni: l’espansione al secondo ordine del χ2 globale intorno al minimo, e la corrispondente espansione lineare della generica osservabile X. La validità di questo metodo viene controllata tramite il metodo dei moltiplicatori di Lagrange, che permette di calcolare l’incertezza associata a X senza il bias delle ipotesi precedenti. D’altronde esso può essere usato solo come metodo di controllo perché è lento, dovendo essere ripetuto per ogni X separatamente. Il set di best fit Chiamiamo {ai } l’insieme dei parametri che descrivono le distribuzioni partoniche, e che vogliamo ottimizzare. Essi saranno funzione di S, ovvero il set di PDF. A ogni “esperimento” (più correttamente, a ogni data set scelto per caratterizzare un’osservabile), associamo un χ2n , cosicchè il χ2 globale 70 3.3. METODO CTEQ PER IL FIT DELLE PDF dell’analisi si definisce come: χ2globale = X ωn χ2n . (3.35) n I pesi ωn possono essere usati per dare (ωn = 0) o togliere enfasi ad un data set rispetto agli altri (ωn < 1), allorché nel corso del fit si venga a palesare per esempio la sua incompatibilità con gli altri. É chiaro che in questo modo ci stiamo discostando dalla pura statistica gaussiana, e che la scelta dei pesi è soggettiva e può introdurre un bias nei risultati; essa permette però di includere quei data set che altrimenti sarebbero esclusi a priori. Il singolo χ2n è dato, in funzione dei valori teorici Tni e sperimentali Dni , con relative incertezze σni , da: χ2n = ¶2 Ne µ X Dni − Tni (3.36) σni i=1 dove Ne sono i punti di ogni esperimento. Questa equazione si può generalizzare per includere gli errori complessivi di normalizzazione, o l’intera matrice di correlazione ove disponibile. In particolare, assumiamo che per ogni esperimento e ci siano K sorgenti di errori correlati, specificate dalle deviazioni standard {β1i , β2i , . . . , βKi }, oltre agli errori statistici σi e a quelli sistematici non correlati ui , da cui αi2 = σi2 + u2i [41]. Definiamo un vettore a Ke componenti e una matrice Ke × Ke , tali che: Bk = Ne X βki (Di − Ti ) i=1 αi2 , Akk0 = δkk0 + Ne X βki βk0 i i=1 αi2 Il χ2 risultante ha la forma: ) (N Ke e 2 X X X (D − T ) i i − Bk (A−1 )kk0 Bk0 χ2 = 2 α i e i=1 k,k0 =1 . (3.37) che ha il pregio di richiedere l’inversione di una matrice di dimensioni “solo” Ke × Ke , con Ke . 10, piuttosto che Ne × Ne con Ne ∼ 300 come nell’approccio tradizionale. Fin qui, non abbiamo ancora affrontato il problema dell’errore da associare alle PDF. Grazie al metodo hessiano, possiamo esplorare la variazione del χ2globale intorno al minimo, soffermandoci sulla regione rilevante: ∆χ2globale ≤ T 2 (3.38) 3.3. METODO CTEQ PER IL FIT DELLE PDF 71 dove T è la tolleranza. Fondamentale è tenere sotto controllo la dipendenza dei risultati da T . Una dimensione plausibile per T è 10 ≤ T ≤ 15 [42]. Approssimazione quadratica della matrice hessiana Espandiamo adesso in serie di Taylor χ2globale (S) intorno al suo minimo S0 , fermandoci all’ordine quadratico (nel seguito omettiamo il pedice “globale”): X (3.39) ∆χ2 = χ2 − χ20 = Hij (ai − a0i )(aj − a0j ) i,j dove χ20 ≡ χ2 (S0 ), mentre il minimo è localizzato in {a0j } ≡ {aj (S0 )}. Le somme vanno fino a d, il numero dei parametri liberi. La matrice hessiana è la matrice delle derivate seconde: µ ¶ 1 ∂ 2 χ2 Hij = con yi,j ≡ ai,j − a0i,j . 2 ∂yi ∂yj {a0 } j Scriviamo ora l’equazione agli autovalori, con autovettori ortonormali: X X Hij vjk = ²jk vk con vij vik = δjk . (3.40) j i Se riscaliamo le variabili nel modo seguente: X vik sk zk ai − a0i = (3.41) k e assumiamo s2k = ²−1 k , la simmetria della matrice hessiana ci permette di semplificare la (3.39), che diventa: ∆χ2 = 2 X zk2 ≤ T 2 . (3.42) k=1 Il χ2 varia all’interno di una ipersfera in d dimensioni nello spazio {zk }. In due dimensioni, la trasformazione (3.41) si può rappresentare come in Figura 3.11. Nella base originale, i parametri liberi sono ai e aj , e i punti rossi disposti intorno al minimo S0 sono i set di errori delle PDF che ricaveremo qui di seguito. Con la trasformazione dallo spazio {ai } allo spazio {zk }, la configurazione diventa quella di destra, in cui i contorni a χ2globale sono circonferenze contenute entro quella massima, che ha raggio T . Nello spazio dei parametri {ai }, la distanza dal minimo è, dalla (3.41) e dalla 72 3.3. METODO CTEQ PER IL FIT DELLE PDF Figura 3.11: Illustrazione della procedura di diagonalizzazione della matrice hessiana e di riscalamento degli autovettori cosı̀ ottenuti, adattata da [42]. proprietà (3.40) di ortonormalità degli autovettori: d d d X X X zk2 (sk zk )2 = (ai − a0i )2 = ²k i=1 k=1 k=1 (3.43) da cui segue che questa distanza è grande (direzione ripida nello spazio dei parametri {ai }) per valori piccoli dell’autovalore ²k , e viceversa. Nell’analisi CTEQ, gli autovalori si distribuiscono su sei ordini di grandezza. Set di errori delle PDF e loro uso I set di errori delle PDF, che sono d come i parametri liberi {ai }, si ottengono definendo una distanza massima dal best fit, lungo ogni direzione d, sia in senso positivo sia in senso negativo(7 ). Questa distanza massima, t, è un altro valore, dopo la tolleranza T , che deve essere ottimizzato. Cosı̀ facendo, si costruiscono, in corrispondenza del set di best fit S0 , i set di errori S`± , che nella base riscalata zk hanno coordinate: zk (S`± ) = ±t δk` ovvero S1± ha coordinate (z1 , . . . , zd ) = (±t, 0, . . . , 0) e cosı̀ via. Quattro di questi set, due in direzione positiva, due in direzione negativa, sono rappresentati in due dimensioni in Figura 3.11 come punti rossi. Vediamo ora l’effetto sulla generica quantità derivata X. Dopo avere espanso 7 La definizione del senso dello spostamento ovviamente è una convenzione. 3.3. METODO CTEQ PER IL FIT DELLE PDF 73 il χ2globale (S) al secondo ordine intorno al suo minimo, facciamo una nuova assunzione: poniamo che sia sufficiente espandere linearmente X intorno a X(S0 ): X ∂X X ∂X ∆X = X − X0 ∼ yi = zi (3.44) = ∂yi ∂zi i i dove siamo passati alla base riscalata con la trasformazione (3.41). Poiché il χ2 aumenta uniformemente in ogni direzione del piano {zk }, il gradiente di X contenuto nella (3.44) ci dà la direzione di massima variazione di X stessa, variazione che, in accordo con la (3.42), può arrivare fino a T . In termini dei set di errori, la componente i del gradiente di X si può scrivere come: ´ ∂X T ³ = X(Si+ ) − X(Si− ) (3.45) ∂zi 2t da cui, assumendo T = t, si arriva alla master formula per il calcolo delle incertezze: v u d X£ ¤2 1u ∆X = t X(Si+ ) − X(Si− ) . (3.46) 2 i=1 Si assume che l’intervallo X ± ∆X rappresenti un livello di confidenza del 95%. Reinserendo la tolleranza T e la massima distanza t, la (3.46) si legge: v u d X£ ¤2 Tu ∆X = t X(Si+ ) − X(Si− ) 2t i=1 quindi un cambiamento di T si propagherebbe linearmente su ∆X. Applichiamo quanto appena visto a un√caso esemplare: la sezione d’urto σW per la produzione di W al Tevatron ( s = 1.8 TeV), moltiplicata per la larghezza di decadimento in elettroni. Espandiamo quindi σW linearmente in serie di Taylor, e usiamo il seguente risultato, che corrisponde alla (3.46) nelle variabili non scalate {yi }: (∆X)2 = χ2globale X ∂X i,j ∂yi (H −1 )ij ∂X ∂yj (3.47) dove troviamo l’inversa della matrice hessiana, che è la matrice degli errori. La (3.47) ci dà l’andamento del χ2globale in funzione di X, in questo caso σW ·B. In Figura 3.12 vediamo il confronto tra questo andamento e i punti ottenuti col metodo dei moltiplicatori di Lagrange. 74 3.3. METODO CTEQ PER IL FIT DELLE PDF Figura 3.12: χ2globale in funzione della sezione d’urto di produzione di W + al Tevatron. Parabola: metodo hessiano, punti: metodo di Lagrange [42]. Essendo i punti e la parabola in ottimo accordo, concludiamo che il bias introdotto dal metodo hessiano (approssimazione quadratica per χ2 , lineare per X) non peggiora in modo evidente i risultati. Se scegliamo T = 10, e quindi facciamo variare χ2globale da 1200 a 1300, otteniamo ∆σW /σW ≈ 3%. 3.3.2 L’analisi CTEQ 6 Le CTEQ 6 [41] sono le prime PDF a includere la trattazione sistematica delle incertezze, sulla base del metodo hessiano appena discusso. Inoltre, per la prima volta si tiene conto della correlazione nei dati sperimentali. In complesso il fit CTEQ 6 comprende circa 1800 dati da 15 esperimenti (o più correttamente data set), per un χ2 totale di 1954 su 1811 punti. Parametrizzazione in input Tutti gli elementi di matrice che entrano nel fit sono calcolati a Next to Leading Order, nello schema MS, con partoni a massa nulla. La costante di accoppiamento αs è uguale alla media riportata nel Particle Data Group [2], αs (MZ ) = 0.118. Le masse dei quark pesanti entrano in gioco solo attraverso le soglie alle quali ne diventa permessa la creazione. La scala di partenza per l’evoluzione è Q0 = 1.3 GeV = Mc . La parametrizzazione scelta è la seguente: xf (x, Q0 ) = A0 xA1 (1 − x)A2 eA3 x (1 + eA4 x)A5 (3.48) per quattro combinazioni indipendenti: uv = u − u, dv = d − d, g e u + d. Come anticipato in (3.21), si assume che il mare sia simmetrico in tutte le sue componenti, in quanto generato negli splitting dei gluoni in quark-antiquark, 3.3. METODO CTEQ PER IL FIT DELLE PDF 75 e quindi: s = s = 0.2(u + d) a Q0 (3.49) dove si è aggiunta anche la dipendenza della componente strange dalla distribuzione del mare leggero, un’ipotesi obbligata in [41] dalla mancanza di dati sperimentali sufficienti per costringere lo strange in modo autonomo. Il coefficiente 0.2 è stimato dai fit precedenti. Sei parametri liberi per ognuna delle quattro combinazioni sono in alcuni casi più di quelli necessari, ed è quindi possibili fissarli nell’evoluzione. Inoltre, per distinguere le distribuzioni u e d, si parametrizza il loro rapporto: d(x, Q0 )/u(x, Q0 ) = A0 xA1 (1 − x)A2 + (1 + A3 x)(1 − x)A4 . Risultati In totale, i parametri liberi che modellano le PDF a Q0 sono 20, quindi, come spiegato nella Sezione precedente, questo produce 2d = 40 set di errori. La tolleranza assunta è T = 10. In Figura 3.13 vediamo le distribuzioni di best fi (CTEQ 6M) alla scala Q = 2 GeV, prossima a quella di partenza, e dopo l’evoluzione a Q = 100 GeV. Figura 3.13: Distribuzioni CTEQ 6 a Q = 2 GeV e Q = 100 GeV [41] . In Figura 3.14 vediamo le bande di incertezza per u e d risultanti dal rapporto col set di best fit, alla scala Q2 = 10 GeV2 . La regione in verde rappresenta l’inviluppo di tutte le possibili distribuzioni consistenti coi dati, entro la tolleranza T , indipendentemente per ogni x: ciò significa che una distribuzione estrema per una data x in generale non lo sarà per le altre. 76 3.3. METODO CTEQ PER IL FIT DELLE PDF Figura 3.14: Bande di incertezza per u e d a Q2 = 10 GeV2 . La linea solida corrisponde al best fit CTEQ 5M1 e la linea punteggiata a MRST2001 [41] . Vediamo che la distribuzione di u è quella nota con più precisione, dal momento che la sezione d’urto di Deep Inelastic Scattering con scambio di un fotone dipende quadraticamente dalla carica del fermione. La distribuzione di d ha bande di incertezza più larghe, soprattutto a grande x dove la differenza tra i sapori leggeri ha meno vincoli sperimentali. In Figura 3.15 abbiamo la distribuzione gluonica, in assoluto quella più incerta, nonostante i nuovi dati appositamente inclusi in questa analisi − DIS di precisione e misura inclusiva di jet. L’incertezza è dell’ordine del ±15% per x . 0.2, mentre aumenta rapidamente per x maggiori. Figura 3.15: Bande di incertezza per g a Q2 = 10 GeV2 . La linea solida corrisponde al best fit CTEQ 5M1 e la linea punteggiata a MRST2001 [41] . Nelle Figure precedenti le bande di incertezza sono sovrapposte con le curve di best fit MRST2001 e CTEQ 5. In Figura 3.13 vediamo che le distribuzioni 3.3. METODO CTEQ PER IL FIT DELLE PDF 77 dei quark leggeri sono in buon accordo (si è raggiunta dunque una stabilità in questo settore), mentre per il gluone la situazione è più problematica. Per quanto riguarda l’analisi MRST2001, pur avendo gli stessi input sperimentali della CTEQ 6, bisogna considerare le seguenti differenze: diversa definizione dei data set, diversi tagli cinematici, diversa parametrizzazione, diversa implementazione della correlazione e dello schema di massa per i quark pesanti. CTEQ 6.1 Le CTEQ 6.1 [53] rappresentano la seconda versione delle CTEQ 6, modificate per includere i dati di produzione dei jet al Tevatron, ovvero la regione a più alto momento trasferito allora accessibile, di importanza fondamentale per la ricerca di Nuova Fisica. La principale differenza tra 6 e 6.1 sta nella distribuzione gluonica. Infatti, il processo che domina la produzione di jet ad alta ET è lo scattering quark-(anti)quark, ma essendo le distribuzioni dei quark leggeri già ben costrette, solo la distribuzione gluonica ha la flessibilità di poter cambiare significativamente nella regione a grande x. 3.3.3 Effetti di massa dei quark: CTEQ 6.5 e 6.6 L’approccio tradizionale alla pQCD è quello di considerare tutti i partoni a massa nulla: questo formalismo, denominato Zero Mass (ZM) [68], è soddisfacente però solo per Q À Mi , ovvero solo quando la scala di energia tipica del processo è molto maggiore di tutte le masse coinvolte. Ormai dieci anni fa è stata dimostrata la fattorizzabilità della pQCD con partoni massivi [25], rendendo ineludibile l’evoluzione del modello Zero Mass in un modello General Mass (GM). Ci sono due modi per introdurre gli effetti di massa: fissare o variare il numero dei flavour attivi. Riprendiamo le funzioni di struttura di Deep Inelastic Scattering, scritte in (3.22) e in (3.23), e ricordiamone la forma generica, aggiungendo la dipendenza da Mi : µ ¶ X Z 1 dz X x Q Mi λ 2 a λ a λ F (x, Q ) = f ⊗ ω̂a = f (z, µ) ω̂a , , , αs (µ) (3.50) z z µ µ ξ a a dove i coefficienti hard ω̂aλ , calcolabili perturbativamente, corrispondono ai (V i) delle (3.22) e (3.23). Vogliamo in questo frangente sottolineare la loCi ro natura di coefficienti di Wilson, ovvero di coefficienti che fattorizzano la parte calcolabile analiticamente nell’espansione dell’operatore F λ . L’indice 78 3.3. METODO CTEQ PER IL FIT DELLE PDF λ può rappresentare sia l’indice tensoriale {1, 2, 3}, sia l’elicità (Destra, Sinistra, Longitudinale); nello schema GM abbiamo cinque funzioni di struttura indipendenti, perchè dobbiamo aggiungerne due che violano la chiralità. In (3.50) abbiamo assunto µR = µF ; il limite inferiore dell’integrale è usualmente assunto ξ = x di Bjorken nello schema ZM, ma questo dovrà essere riconsiderato in GM. Il concetto fondamentale è che quanti siano i partoni attivi a su cui sommare, dipende dallo schema di fattorizzazione scelto per definire le PDF. Nello schema fixed flavour number (FFNS), la somma corre su a = g, u, u, d, d, . . . fino a nf , che è tenuto fisso (tipicamente uguale a 3 o 4). Per i < nf i partoni sono considerati a massa nulla. Questo approccio fallisce perchè, all’ordine m, i coefficienti di Wilson ω̂aλ contengono termini del tipo αsm lnm (Q/Mi ), con i > nf , che diverge per Q > Mi . Lo schema che risolve queste inconsistenze è il variable flavour number (VFNS): è uno schema composito, poiché combina diversi schemi FFNS, in punti di match che corrispondono alle soglie di produzione dei quark pesanti, µi = Mi . Cosı̀, per Q < µi abbiamo nf quark attivi, mentre per Q > µi i quark attivi diventano nf + 1. La teoria è allora libera dai grandi logaritmi prima discussi, e quindi rimane corretta a tutte le scale µ À ΛQCD . Il formalismo GM include inoltre numerosi effetti cinematici dovuti all’inclusione in (3.50) dei quark pesanti. Effetti cinematici dovuti ai quark pesanti Per funzioni di struttura inclusive, la somma in (3.50) contiene, per ogni flavour a dello stato iniziale, una somma implicita sui flavour b dello stato finale: X ω̂ab ω̂aλ = b dove ω̂ab è la sezione d’urto perturbativa con cui il quark iniziale a produce il quark finale b. Tra i due indici c’è una differenza importante: mentre la variazione di a è dettata dallo schema di fattorizzazione scelto (per esempio da 1 a 3 se siamo in 3-VNFS), nello stato finale si somma su tutti i sapori che possono essere fisicamente prodotti, imponendo che siano on-shell. Se si adotta lo schema ZM VFNS, la distinzione tra stato iniziale e finale diventa confusa, in quanto il numero di flavour attivi nf (µ) viene incrementato superando la soglia, ma si ignorano gli altri effetti di cinematica e di dinamica. Se invece correttamente si usa uno schema GM VFNS, bisogna considerare che, anche nel regime a 3 sapori, il charm e il bottom possono essere prodotti se vi è energia sufficiente nel centro di massa, per esempio a LO via W + + d/s → c oppure W − + u/c → b, e a NLO via i processi di gluon-fusion come 3.3. METODO CTEQ PER IL FIT DELLE PDF 79 W + + g → s + c oppure γ + g → cc (bb). I vincoli cinematici che si devono considerare, per esempio in un processo di Deep Inelastic Scattering su un nucleone MN , sono del tipo: X (3.51) W − MN > Mf f dove al membro destro abbiamo la massa totale dello stato finale, mentre W è l’energia nel centro diP massa. Se però imponessimo questo vincolo aggiungendo una θ(W −MN − f Mf ) al membro destro della (3.50), produrremmo delle indesiderabili discontinuità. L’approccio migliore è quello del rescaling. Consideriamo per esempio la produzione di charm a LO tramite un processo di corrente carica, W + s → c. Come dimostrato in [54], imponendo che il charm sia on-shell, la variabile appropriata per la frazione di impulso portata dallo strange iniziale, non è la x di Bjorken, ma piuttosto χ = x(1 + Mc2 /Q2 ), dove χ è appunto la variabile di rescaling. Se consideriamo invece la produzione tramite corrente neutra, γ/Z + c → c, dobbiamo notare che questo processo può avvenire solo se nello stato finale è presente un c, la cui presenza si rivela solo attraverso il vincolo cinematico che impone. Di conseguenza, l’integrale in (3.50) deve essere effettuato per χc < z < 1, dove: à ! P µ ¶ ( f Mf )2 4Mc2 χc = x 1 + 2 =x 1+ . (3.52) Q Q2 L’effetto dovuto al rescaling può essere significativo se f a (x, µ) è una funzione ripida di x nell’intorno considerato. Di conseguenza, tale effetto si manifesta soprattutto a piccole x: questa è la caratteristica principale del fit CTEQ 6.5 [65]. In Figura 3.16 riportiamo le distribuzioni di best fit (linea continua) ottenute per u, d e g, alla scala µ = 2 GeV, normalizzate alle corrispondenti distribuzioni delle CTEQ 6.1M, di cui l’area verde rappresenta l’incertezza. Vediamo che per x < 10−3 le distribuzioni CTEQ 6.5 sono fuori dalla zona permessa di circa un fattore due, e fino al 20% nel picco. Questa caratteristica non dipende dalla scelta della parametrizzazione (linee tratteggiate), ed è condivisa da tutti gli autovettori. Considerato che la crescita tipica dei quark leggeri è δf ∼ 3% a piccole x, le luminosità partoniche, Lqi qj (x1 , x2 , Q) = qi (x1 , Q)q j (x2 , Q), crescono di un fattore 2δf ∼ 6%. Questo aumento è dunque anche quello aspettato per le sezioni d’urto, ottenute come convoluzione della luminosità partonica coi 80 3.3. METODO CTEQ PER IL FIT DELLE PDF Figura 3.16: Distribuzioni CTEQ 6.5M per u, d e g (linee continue) normalizzate a CTEQ 6.1M. Le bande di incertezza sono quelle dell’analisi CTEQ 6.1 [65]. relativi coefficienti di Wilson. Questo vale in particolare per la produzione di W e Z, che avviene a piccola x (Sezione 3.1.2): √ x ∼ MW,Z / s ∼ 10−3 ÷ 10−2 per rapidità centrali. In Figura 3.17 vediamo le sezioni d’urto per questi e altri processi, normalizzate alle CTEQ 6.6M che, come vedremo tra poco, sono analoghe alle CTEQ 6.5 per la distribuzione dei quark leggeri, mentre differiscono per lo strange e possono includere una componente intrinseca di charm, indicata in Figura come IC-Sea. La linea tratteggiata corrisponde al NNLO, ordine al quale la sezione d’urto è attesa diminuire; come si vede, la differenza dovuta all’inclusione degli effetti di massa (shift 6.1 ÷ 6.6) è maggiore della correzione dovuta all’inclusione dell’ordine αs2 , tanto più se si considera una componente forte di charm intrinseco (indicata dal triangolo). Indipendenza del quark strange Le PDF CTEQ 6.6 [35] rappresentano un ulteriore passo avanti rispetto alle CTEQ 6.5, in quanto alla trattazione nello schema GM ACOTχ degli effetti di massa, uniscono una nuova parametrizzazione del quark strange. Fino a questo momento si è sempre imposto (equazione (3.49)) che: 1 s(x) = s(x) = k (u(x) + d(x)) . 2 Dal momento che i dati più recenti DIS con due muoni (νA → µ+ µ− X) provano la distribuzione dello strange attraverso il processo sW → c, la precedente imposizione diventa non necessaria. La conoscenza sperimentale 3.3. METODO CTEQ PER IL FIT DELLE PDF 81 Figura 3.17: Sezioni d’urto a NLO, con gli errori stimati a LHC, per le CTEQ 6.6 (quadrati) e le CTEQ 6.1 (stelle). I triangoli indicano l’inclusione di una componente intrinseca forte di charm [35]. è d’altronde debole, e permette di parametrizzare la distribuzione solo per x > 10−2 ; questo suggerisce l’introduzione di due nuovi parametri liberi, in parallelo con la richiesta s(x) = s(x), portando cosı̀ il numero di autovettori da 20 a 22, per cui le CTEQ 6.6 comprendono 44 set di errori. Il rapporto stranezza-non stranezza a piccole x: Rs = lim x→0 s(x, µ0 ) u(x, µ0 ) + d(x, µ0 ) rimane non vincolato dai dati, ma considerazioni generali fanno supporre che sia dell’ordine di 1. Si adotta la seguente parametrizzazione: s(x, µ0 ) = A0 xA1 (1 − x)A2 P (x) (3.53) dove A1 è posto uguale al corrispondente parametro delle distribuzioni u e d. La funzione P (x) è una funzione regolare che ha il compito di tenere Rs entro un limite ragionevole (in particolare 0.63 < Rs < 1.15), ed è la stessa per tutti i set di errori. Questa funzione incognita rappresenta una importante fonte di incertezza teorica, maggiore di quella derivata dall’analisi hessiana. In Figura 3.18 vediamo la distribuzione risultante per s = s, a due scale; in verde la banda di incertezza, mentre la linea continua è il best fit CTEQ 6.1, che a piccole x, come ci aspettiamo, è fuori dalla banda di incertezza. Componente non perturbativa di charm Come sottolineato in [27], la massa del charm (Mc = 1.3 GeV) è a metà strada tra le scale soft e hard: è difficile dunque pensare di poter trattare 82 3.3. METODO CTEQ PER IL FIT DELLE PDF Figura 3.18: Distribuzione per s = s, a µ = 3.16 GeV e µ = 100 GeV; in verde la banda di incertezza CTEQ 6.6, la linea continua è il best fit CTEQ 6.1 [35]. il charm alla stregua degli altri partoni pesanti, in modo cioè che sia generato radiativamente in teoria delle perturbazioni. D’altronde, sebbene Mc sia maggiore di ΛQCD , è confrontabile con la massa del nucleone, che viene usualmente considerata una quantità non perturbativa. Mentre in molti modelli non perturbativi si predice una componente intrinseca di charm (IC) diversa da zero, l’analisi fenomenologica globale, condotta fino alle CTEQ 6.5, ipotizza sempre e soltanto: c (x, µ0 ) = c (x, µ0 ) = 0 . Questo evidente contrasto è reso tanto più stridente, quanto più si consideri che la precedente prescrizione è definita alla scala specifica µ0 , e che al tempo stesso c (x, µ) ha una salita ripida vicino alla soglia: i risultati saranno in questo modo fortemente dipendenti dalla scelta di µ0 . Per permettere di studiare gli effetti di una IC, le PDF CTEQ 6.6 contengono quattro set in cui essa viene data in input, in due diverse parametrizzazioni (light-cone (BHPS) e sea-like(8 )), entrambe con IC moderata (il charm porta l’1% dell’impulso del nucleone a µ0 = Mc ) o forte (porta il 3.5%). Questa frazione è definita come: Z 1 dx x[c(x) + c (x)] hxic+c = 0 Come mostrato in Figura 3.19, la componente intrinseca causa un forte in8 Il modello sea-like è puramente fenomenologico; in esso si assume che alla scala iniziale la distribuzione del charm sia proporzionale a quella del mare leggero, ovvero c(x) = c(x) ∝ u(x) + d(x), con un fattore di soppressione dovuto alla massa. 3.3. METODO CTEQ PER IL FIT DELLE PDF 83 nalzamento della distribuzione a grandi x nel modello sea-like, a x intermedie nel modello light-cone. Figura 3.19: Distribuzione CTEQ 6.6 per c = c, a µ = 100 GeV; in verde la banda di incertezza CTEQ 6.6 col charm generato per via radiativa, mentre le linee corrispondono all’assunzione di una componente intrinseca [35]. Lo studio descritto in [27], conclude che per x . 0.01 i dati disponibili non danno alcuna informazione sulla presenza di una IC, mentre per x maggiori si può escludere con un livello di confidenza del 90% l’esistenza di hxic+c > 0.02. A LHC si potranno porre nuovi vincoli sulla componente intrinseca di charm. Per esempio, il processo partonico g + c → γ/Z + c ne dipende direttamente; la segnatura sperimentale consiste in una Z più un jet prodotto dal charm. Inoltre, la IC si potrà rivelare in tutti i processi che prevedono un charm a grande x, in particolare la produzione di Higgs carico. 3.3.4 Correlazioni É interessante stabilire se un’osservabile condivida gradi di libertà dovuti alla parametrizzazione non perturbativa delle PDF con una quantità precisamente misurata del Modello Standard, per esempio σW,Z . Per studiare questa correlazione, torniamo all’analisi delle incertezze hessiane fatta in Sezione 3.3.1. La generica variabile X dipende dalle PDF tramite i parametri {ai }. La componente i del gradiente di X può essere approssimata come in (3.45): 1 ∂X (+) (−) = (Xi − Xi ) ∂ai 2 84 3.3. METODO CTEQ PER IL FIT DELLE PDF (±) dove Xi sono i valori di X calcolati lungo le due direzioni dell’autovettore i, → alla distanza data dalla tolleranza |∆− a | = T . Da questa forma del gradiente, si arriva come abbiamo visto alla master equation (3.46) per l’incertezza indotta su X dalle PDF. → Prendiamo adesso una seconda variabile, Y (− a ), di cui vogliamo studiare la − → correlazione con X( a ). Possiamo proiettare l’ipersfera (3.42) nel piano dei → − − → gradienti ∇X e ∇Y , ipersfera che è descritta, data la tolleranza, nel piano dei parametri {zk } (ovvero gli {ai } riscalati come in (3.41)). La proiezione risulta in una circonferenza di raggio 1, che nel piano XY si descrive con equazioni parametriche alla Lissajous: X = X0 + ∆X cos θ (3.54) Y = Y0 + ∆Y cos(θ + φ) con 0 ≤ θ ≤ 2π, ∆X e ∆Y uguali ai moduli dei rispettivi gradienti, mentre → X0 e Y0 sono calcolati in corrispondenza del best fit − a 0 . La correlazione è quantificata dall’angolo φ compreso tra i gradienti nello spazio dei parametri {ai }, con: − → − → N ³ ´³ ´ X ∇X · ∇Y 1 (+) (−) (+) (−) cos φ = Xi − Xi Yi − Yi . (3.55) = ∆X ∆Y 4 ∆X ∆Y i=1 Se cos φ = 1, il gradiente di X è parallelo al gradiente di Y nello spazio dei parametri delle PDF: una variazione degli {ai } ha un effetto proporzionale sulle due variabili; si ha quindi correlazione massima. Viceversa, se cos φ = −1 si ha correlazione inversa (all’aumentare di X, Y diminuisce), mentre se cos φ = 0 non si ha correlazione. Se riscaliamo le unità in modo da eliminare la dipendenza da ∆X e da ∆Y , δX = ∆X cos θ , con ∆X ≡ 1 (3.56) ∆X δY = (Y − Y0 ) ∆Y = ∆X cos(θ + φ) l’ellisse ha inclinazione fissa (π/4 se cos φ > 0), per cui la correlazione si esplica nella sua larghezza: per cos φ = ±1, l’ellisse si riduce a una linea, per cos φ = 0 a una circonferenza. Vedremo nel Capitolo 5 quale sia l’impatto della correlazione sul calcolo dell’accettanza, ora invece soffermiamoci sui risultati ottenuti in [35] per le sezioni d’urto σW,Z a LHC. In Figura 3.20(a) mostriamo la correlazione tra σZ e σW : le due ellissi sono shiftate l’una rispetto all’altra e non si sovrap- 3.4. NEURAL NETWORK PDF 85 pongono. L’incremento del valore centrale per le CTEQ 6.6M rispetto alle CTEQ 6.1M è del ∼ 6%, come ci aspettiamo per l’inclusione degli effetti di massa. Nella Figura sono mostrati anche i punti e le curve ottenuti variando la componente intrinseca di charm e la parametrizzazione dello strange, come discusso nella Sezione precedente. Vediamo che l’ellisse delle CTEQ 6.1 è ridotta quasi a una linea, quindi si ha alta correlazione tra le due sezioni d’urto: vincolandone una, si vincola contemporaneamente anche l’altra. Questa correlazione si indebolisce passando alle CTEQ 6.6. (a) σZ vs σW . (b) σW + vs σW − . Figura 3.20: Correlazioni tra le sezioni d’urto a LHC, per vari set di PDF [35]. Per quanto riguarda la dipendenza dalla carica della produzione di W , essa è esplorata tramite la correlazione tra σW + e σW − , come vediamo in Figura 3.20(b). Le predizioni più recenti delle altre collaborazioni (MSTW’06, Alekhin’02, AMP’06), tutte a NNLO, sono incluse nell’ellisse delle CTEQ 6.6, mentre il confronto coi set precedenti mostra discordanze più importanti. L’inclusione di una componente intrinseca di charm provoca un aumento in entrambe le sezioni d’urto. 3.4 Neural Network PDF Nella Sezione precedente abbiamo visto come la collaborazione CTEQ affronti i problemi insiti in un’analisi globale dei dati di QCD − incompatibilità dei dati di input, correlazioni, vasto numero di parametri che variano su ampi intervalli − con l’ausilio del metodo hessiano, assumendo una parametrizzazione a priori e avvalendosi del criterio della tolleranza. 86 3.4. NEURAL NETWORK PDF Sebbene l’accordo con i risultati delle altre collaborazioni (MSTW, Alekhin, ecc.) sia soddisfacente, esso non può essere quantificato, dal momento che i risultati sono frutto di modelli diversi. La collaborazione NNPDF parte da un approccio diverso, grazie all’ausilio delle reti neurali (NN), e giunge a un set di PDF meno affetto da bias di quelli precedenti. In generale, una rete neurale artificiale è un modello di calcolo parallelo, costituito da numerose unità elaborative omogenee (i neuroni ), interconnesse mediante collegamenti di diversa intensità. Ogni neurone artificiale riceve degli input, ne esegue la somma pesata coi valori delle interconessioni, per poi farne una trasformazione con una funzione non lineare. L’output del primo livello di neuroni viene passato come input al livello successivo. Uno degli aspetti fondamentali è che la rete deve essere addestrata tramite un algoritmo di apprendimento automatico (training). 3.4.1 Struttura generale di una rete neurale La rete neurale utilizzata dalla collaborazione NNPDF ([3], [17]) è del tipo feed-forward a multistrato, come quella rappresentata in Figura 3.21. Gli strati tra l’input e l’output vengono chiamati strati nascosti, e il loro numero deve essere ottimizzato. Con due strati nascosti, si riduce il rischio di bias grazie a una ridondanza di informazione: ciò risulta in 185 parametri liberi, ovvero 37 per ognuna delle 5 combinazioni indipendenti di PDF cosı̀ ottenute. Figura 3.21: Struttura generale di una rete neurale feed-forward [12]. Chiamando l = 2, . . . , L l’indice dello strato, e i = 1, . . . , nl l’indice del neurone nello strato l, abbiamo che l’output ξi dell’i-esimo neurone è dato dalla funzione non lineare g: ³ ´ (l) (l) (3.57) ξj = g hi 3.4. NEURAL NETWORK PDF 87 il cui argomento è costituito dall’output degli strati precedenti: nl−1 (l) hi = X (l) (l−1) ωij ξj − θi . (3.58) j=1 I parametri ωij (pesi) e θi (parametri di soglia, o di bias) sono liberi e vengono determinati durante la procedura di training. I pesi ωij descrivono l’intensità della connessione tra il neurone i e il neurone j. La funzione g(x) (detta funzione di attivazione) è una sigmoide negli strati interni, g(x) = 1 , 1 + e−x (3.59) mentre diventa lineare, g(x) = x, nell’ultimo strato. Training Il cuore della rete neurale è rappresentato dall’algoritmo di training, che permette di selezionare i valori dei pesi e delle soglie in modo da riprodurre, per ogni input, l’output aspettato (pattern input-ouput). Per ogni coppia (ω, θ) definiamo la funzione di errore: np n L 1 XX (oi (xA ) − ziA )2 E [ω, θ] ≡ 2 A=1 i=1 (3.60) dove np è il numero dei dati, ovvero dei pattern; z è l’output ottenuto con la rete neurale, mentre o(x) è quello aspettato. La variazione dei pesi e delle soglie è quantificata dalla funzione di errore: (l) δωij = −η ∂E (l) ∂ωij , (l) δθi = −η ∂E (l) ∂θi (3.61) dove η fissa la velocità della discesa, e quindi dell’apprendimento. Per lo strato più esterno definiamo la funzione: ´ ³ (L)A (L)A [oi (xA ) − ziA ] . (3.62) = g 0 hi ∆i Nel caso delle PDF, la (3.60) viene sostituita dalla forma generale che tiene conto delle correlazioni tra i dati, riassunte nella matrice di covarianza VAB : 88 3.4. NEURAL NETWORK PDF E[ω, θ] ≡ np nL X X (oi (xA ) − ziA ) VAB (oi (xB ) − ziB ) . (3.63) A,B=1 i=1 La procedura che si segue è la seguente: si inizializzano casualmente i pesi, (L)A le soglie ed η, si dà come input un pattern di dati xA , si calcola ∆i per lo strato di output, dopodiché si propaga l’errore indietro agli strati (l) (l) precedenti. In questo modo si ottengono δωij e δθi tramite la (3.61), e quindi si ricalcolano pesi e soglie. Questa catena viene iterata finché non si raggiunge la convergenza, definita tramite un criterio apposito. 3.4.2 Applicazione al caso delle PDF La teoria delle reti neurali è stata applicata dalla collaborazione NNPDF per ottenere un ensemble di 1000 set di PDF, distribuite gaussianamente. Possiamo distinguere due fasi nella procedura seguita. 1. Si prendono Nset set di dati sperimentali, per un totale di Ndat misure. Da questi si ricava una distribuzione di probabilità, con la quale si genera un ensemble Monte Carlo di Nrep repliche dei dati. Il numero di repliche dovrà essere tale che da esse si possano riprodurre le informazioni statistiche dei dati originali, al livello di accuratezza desiderato. 2. A partire da ogni replica, si costruisce una base di PDF indipendenti. Questa viene poi evoluta dalla scala iniziale, Q20 , alla scala in cui sono disponibili i dati, Q2 . Infine si fa la convoluzione delle PDF cosı̀ ottenute con gli appositi coefficienti perturbativi per tornare alle osservabili fisiche − per esempio si convolve con le sezioni d’urto partoniche se vogliamo ottenere la sezione d’urto adronica. Alla fine di questa procedura, si ottengono dunque Nrep basi di PDF. La minimizzazione della figura di merito viene effettuata con una tecnica detta algoritmo genetico, che, per ogni replica k, si può riassumere cosı̀: • Lo stato della rete neurale è descritto dal vettore: ω = (ω1 , . . . , ωNpar ) (l) le cui componenti ωi corrispondono ai pesi ωij e alle soglie θi , introdotti in (3.58). Il vettore ω viene copiato Nmut volte. 3.4. NEURAL NETWORK PDF 89 • La minimizzazione avviene in step denominati generazioni. A ogni generazione, un elemento ωk , scelto a caso, viene mutato applicandogli la trasformazione: ¶ µ 1 ωk → ωk + η r − 2 dove 0 ≤ r ≤ 1 è un numero random, ed η è un parametro libero dell’algoritmo. • In seguito alla mutazione, si calcola la funzione di errore (3.63), e si seleziona, dai Nmut totali, un set di vettori ω in corrispondenza dei quali E[ω] è abbastanza piccola. É molto importante il criterio che si sceglie per fermare l’apprendimento. Assumiamo infatti che i dati comprendano delle fluttuazioni statistiche, che devono essere separate dal segnale. Per ogni replica, i dati vengono dunque divisi in due parti: il set di validazione e il set di training. Il fit viene effettuato sui dati nel set di training, ma monitorando anche il χ2 nel set di validazione. La minimizzazione viene fermata quando la figura di merito nel set di validazione si deteriora, ciò significando che si sta cominciando a fittare le fluttuazioni statistiche dei dati. Infine, una volta calcolate le PDF di best fit da ogni replica, se ne estrae la media, e questa media viene direttamente confrontata con gli input sperimentali, e ad essa si associa come incertezza la deviazione standard gaussiana. Risultati Le NNPDF sono ottenute nello schema a massa nulla per i partoni (ZM) e condividono le limitazioni delle CTEQ 6.1, discusse in Sezione 3.3.2: le componenti strange e non strange del mare sono proporzionali, i sapori pesanti sono generati radiativamente a partire dalla scala iniziale Q0 = (2 GeV)2 , non vi è componente intrinseca di charm. L’analisi è condotta a Next to Leading Order. Le combinazioni di PDF indipendenti sono cinque: PNf (qi (x) + q i (x)), • la distribuzione di singoletto, Σ(x) = i=1 • il gluone, g(x), • la distribuzione di valenza, V (x) = PNf i=1 (qi (x) − q i (x)) • il tripletto di non-singoletto, T3 (x) = (u(x) + u(x) − d(x) − d(x), • l’asimmetria del mare, ∆s (x) = d(x) − u(x) = 12 (V3 (x) − T3 (x)). 90 3.4. NEURAL NETWORK PDF Il numero di repliche è ottimizzato a Nrep = 1000, ma viene fornito anche un gruppo ristretto di Nrep = 100, utile per l’uso nei generatori Monte Carlo, e che in effetti è stato usato nelle nostre simulazioni. La precisione ottenibile −1/2 scala come Nrep , e in [3] si stima che in questo modo si possa raggiungere una precisione dell’ 1% sul valore centrale. Insieme a ogni gruppo di repliche, viene fornito un set centrale (set 0), che contiene la media degli altri, e che può essere usato come set di best fit. In Figura 3.22 vediamo le distribuzioni di singoletto e del gluone, per il set di base di NNPDF1.0 [3] a Q0 , in scala lineare e logaritmica. Esse sono messe a confronto con i risultati delle altre collaborazioni: CTEQ 6.5 [65], MRST2001E [32] e Alekhin02 [45]. In questi plot le bande di incertezza corrispondono tutte a una deviazione standard. Da notare che sia le CTEQ 6.5 sia le MRST2001E contengono quark pesanti dotati di massa. Figura 3.22: Distribuzioni risultanti dall’analisi NNPDF [3], per il singoletto (a sinistra) e per il gluone (a destra). Le bande di incertezza di NNPDF1.0 sono le più larghe, soprattutto nelle regioni dove non sono disponibili dati sperimentali, per esempio a piccola e grande x per il gluone; questo anche perché le altre collaborazioni usano dati non inclusi nell’analisi delle NNPDF. Per quanto riguarda le distribuzioni di best fit, invece, esse sono sempre compatibili. 3.4.3 Incertezza sulle quantità derivate In [3] viene discusso come associare l’incertezza a una quantità derivata dalle NNPDF, ovvero a una qualsiasi funzione F[{q}]. Dato l’insieme di Nrep set di repliche, la media di F è semplicemente: Nrep 1 X F[{q (k) }] hF[{q}]i = Nrep k=1 (3.64) 3.5. GENERATORI MONTE CARLO 91 mentre la deviazione standard: à σF = Nrep ¢2 1 X¡ F[{q (k) }] − hF [{q}]i Nrep k=1 !1/2 . (3.65) Il set 0 delle PDF è invece dato dalla media tra le Nrep distribuzioni: q (0) Nrep 1 X (k) q ≡ hqi = Nrep k=1 (3.66) per cui evidentemente risulta: hF[{q}]i 6= F[{q (0) }] (3.67) a meno che F non dipenda linearmente dalle PDF, che evidentemente non è il caso né per le sezioni d’urto né tantomeno per le accettanze, per le quali va sommato l’effetto dovuto ai tagli cinematici. In conclusione, quindi, la (3.64) deve essere usata per determinare il valore centrale di F, mediando solo su Nrep set, escludendo cioè il set 0. 3.5 Generatori Monte Carlo Per simulare e studiare l’accettanza geometrica, mi sono avvalsa dei generatori Monte Carlo; in questa Sezione ne discuterò brevemente la struttura, soffermandomi in particolare sui generatori parton shower, i quali ambiscono a fornire una descrizione completa dell’evento. Essi includono infatti la radiazione di stato iniziale e quella di stato finale, oltre che modelli fenomenologici per l’adronizzazione, in modo da ricreare con la massima verosomiglianza lo spettro delle particelle osservato negli esperimenti ai collider. 3.5.1 Fattori di forma di Sudakov Consideriamo l’evoluzione di un partone di stato iniziale, rappresentata in Figura 3.23: un quark porta inizialmente la frazione di impulso x0 e ha bassa virtualità space-like, t0 = −M 2 . Prima di giungere al punto di interazione, va incontro a n emissioni di gluoni, tipicamente a piccolo angolo, cosicché il suo impulso diminuisce, mentre il valore assoluto della sua virtualità aumenta. La massima |t| raggiungibile è uguale al quadrimomento Q2 scambiato nella collisione protone-protone. 92 3.5. GENERATORI MONTE CARLO Figura 3.23: Evoluzione di un partone di stato iniziale da (x0 , t0 ) a (xn , Q2 ), via n emissioni di gluoni a piccolo angolo [43]. Come abbiamo visto in Sezione 3.2.2, questa evoluzione è descritta dall’equazione DGLAP (3.27), che dipende dalle funzioni di splitting Pij (x), regolarizzate tramite la prescrizione + introdotta nella (3.30). Per poter implementare l’evoluzione in un programma numerico, è però necessario cambiare approccio: si definisce il fattore di forma di Sudakov (qui nel caso particolare dello splitting q → qg): · Z t 0Z ¸ dt αs ∆(t) ≡ exp − dz P̂ (z) (3.68) 0 2π t0 t dove P̂ (z) è la funzione di splitting non regolarizzata, ovvero con la singolarità in z = 1. In termini del fattore di Sudakov, l’equazione DGLAP si scrive: µ ¶ Z 1 dz αs ∂ f P̂ (z)f (x/z, t) (3.69) t = ∂t ∆ ∆ z 2π con f /∆ in sostituzione di f , e la funzione di splitting non regolarizzata al posto di quella regolarizzata. Integrando la (3.69), si ottiene un’equazione integrale per f (x, t) in funzione della PDF iniziale f (x, t0 ): Z Z t 0 dz αs dt ∆(t) P̂ (z) f (x/z, t0 ) . (3.70) f (x, t) = ∆(t)f (x, t0 ) + 0 0 t ∆(t ) z 2π t0 Il primo termine del secondo membro corrisponde all’evoluzione da t0 a t senza branching, secondo la probabilità quantificata proprio dal fattore di Sudakov. Il secondo termine invece è l’integrale su tutti i percorsi che hanno l’ultimo branching a t0 , e che quindi evolvono da t0 a t senza ulteriori emissioni. 3.5. GENERATORI MONTE CARLO 93 Perché tutto questo sia consistente, occorre riconsiderare la singolarità delle funzioni di splitting non regolarizzate per z = 1: essa viene evitata imponendo nella (3.69) un cut-off infrarosso, z < 1 − ²(t). Poiché si stanno definendo le emissioni oltre il cut-off come non risolvibili, ne segue che il fattore di forma di Sudakov ∆(t) corrisponde alla probabilità di evoluzione tra t0 e t senza branching risolvibili. Il tipico problema a cui risponde un algoritmo Monte Carlo di branching è il seguente: data la coppia di valori (t1 , x1 ), genera la coppia (t2 , x2 ) allo step successivo. t2 viene generata risolvendo l’equazione: ∆(t2 ) =R ∆(t1 ) (3.71) dove R è un numero casuale distribuito tra [0, 1]. Se |t2 | > |Q2 |, si è oltrepassata la massima virtualità consentita per avere lo scattering, e quindi l’evoluzione si ferma. Altrimenti, viene generata x2 tramite il rapporto z = x2 /x1 , con una distribuzione di probabilità proporzionale a (αs /2π)P (z), ovvero risolvendo l’equazione: Z x2 /x1 ² αs dz P (z) = R0 2π Z 1−² dz ² αs P (z) 2π (3.72) con R0 un altro numero casuale, e ² il cut-off infrarosso prima introdotto. Applicando iterativamente questo algoritmo, si generano N coppie (ti , xi ), che definiscono l’evoluzione del quark incidente, e dalle quali si può ricavare l’impulso dei gluoni emessi. L’angolo azimutale φ dell’emissione deve essere specificato da un algoritmo ulteriore, per esempio φ distribuito uniformemente tra [0, 2π], o nel caso più generale tenendo conto delle correlazioni dovute alla polarizzazione. I gluoni emessi sono di tipo time-like; ognuno di essi può andare incontro a ulteriori emissioni. Si genera cosı̀ una cascata partonica, o parton shower, che può essere descritta da un algoritmo simile al precedente: la differenza è che, essendo la virtualità positiva, l’evoluzione avviene verso valori decrescenti di t, fino al cut-off infrarosso. Quando in ogni ramo della cascata si è raggiunto il cut-off, l’evoluzione si ferma e i partoni finali vengono convertiti in adroni tramite un modello non perturbativo di adronizzazione. 3.5.2 Evoluzione backward L’algoritmo appena descritto risulta in un’evoluzione di tipo forward (in avanti), che ad ogni step genera l’emissione di un partone time-like e fa 94 3.5. GENERATORI MONTE CARLO muovere il partone emittente verso virtualità minori (più negative, nel caso space-like). In tal modo, dando in input la frazione di impulso x0 del primo partone, la frazione xn del partone finale viene determinata dagli n − 1 step intermedi. Questo non è conveniente se si vuole generare una cascata di stato iniziale, in cui alla fine si devono ritrovare i partoni che partecipano allo scattering. Nel caso del Drell-Yan, in particolare, vogliamo generare un bosone vettore col corretto valore di massa invariante, M 2 = ŝ = xq xq s, e questo possiamo farlo con alta efficienza solo rovesciando il verso dell’evoluzione: dalle frazioni xn finali, si procede all’indietro verso lo stato iniziale. L’evoluzione backward viene implementata sostituendo al fattore di Sudakov ∆(ti ) il rapporto ∆(ti )/f (x, ti ), nel modo seguente: Π(t1 , t2 , x) = f (x, t1 ) ∆(t2 ) =R f (x, t2 ) ∆(t1 ) (3.73) dove R è di nuovo un numero casuale distribuito tra [0, 1], che descrive la probabilità di evoluzione senza branching all’indietro da (t2 , x2 ) a (t1 , x1 ). Con riferimento alla Figura 3.9, possiamo osservare che l’effetto del rapporto tra le PDF in (3.73) è quello di sopprimere il branching a grandi x, dove le PDF sono funzioni decrescenti della scala t = µ2 , e di amplificarlo a piccole x, dove al contrario f (x, t) cresce con t. Questo è giustificato fisicamente dal fatto che, muovendosi verso x maggiori, è sempre più improbabile che i partoni siano il risultato di un branching precedente. Notiamo che ogni particella prodotta ha qualcosa come 10 gradi di libertà (massa, impulso, flavour, vita media, vertice di produzione, ecc.) cosicché la simulazione dell’intero processo richiede migliaia di estrazioni di numeri random. 3.5.3 Struttura generale di un generatore di eventi Il generico processo di hard scattering simulato da un generatore Monte Carlo, può essere suddiviso in quattro fasi, per scale di tempo e distanza crescenti: 1. Processo duro elementare. Una coppia di particelle incidenti interagisce, producendo uno o più oggetti elementari. La scala di momento trasferito, Q, e il flusso di colore nel processo duro, settano le condizioni per le cascate di stato iniziale e finale. 2. Cascate di stato iniziale e finale. La loro evoluzione è descritta 3.5. GENERATORI MONTE CARLO 95 in termini probabilistici dai fattori di Sudakov, come discusso nella Sezione precedente. 3. Decadimento delle particelle pesanti. Gli oggetti pesanti prodotti (quark bottom e top, bosoni di gauge elettrodeboli e di Higgs, particelle supersimmetriche, ecc.) decadono secondo i loro branching ratio. Possono dar vita a ulteriori cascate partoniche. Il decadimento delle risonanze è spesso parametrizzato in modo indipendente. 4. Adronizzazione. É la ricombinazione delle particelle elementari finali in strutture composite (jet, adroni isolati). Coinvolge bassi momenti trasferiti, dell’ordine della scala di cut-off t0 per la cascata partonica. Generalmente si sceglie t0 ≈ 1 GeV o un multiplo di Λ. A queste energie, la costante di accoppiamento forte αs è troppo grande perché si possa applicare la teoria delle perturbazioni, quindi devono essere usati modelli fenomenologici. La maggior parte degli adroni primari cosı̀ formati, è instabile e decade più o meno velocemente, finché non si giunge alla situazione in cui tutte le particelle hanno vita media tale da essere visibili sperimentalmente. La generazione Monte Carlo deve a questo punto essere corroborata da un software per la simulazione del rivelatore, come GEANT4 [1] per ATLAS. Discutiamo adesso più in dettaglio i generatori general-purpose di cui mi sono avvalsa in questo lavoro: Herwig e Pythia a Leading Order, Mc@Nlo a Next to Leading. 3.5.4 Herwig Herwig [11] è dedicato alla simulazione di precisione delle cascate partoniche di QCD; contiene tutti i processi di scattering duro leptone-leptone, adroneleptone e adrone-adrone, oltre ai processi di collisione soffice adrone-adrone. Per descrivere il suo funzionamento, consideriamo lo splitting elementare i → jk. L’evoluzione è guidata da due variabili: la frazione di energia zj = Ej /Ei , e la variabile angolare: ξjk = (pj · pk )/(Ej Ek ) , 2 che si può approssimare come ξjk ∼ θjk /2 per partoni a massa nulla e per piccoli angoli di emissione. La prescrizione ξ 0 < ξ tra due branching successivi equivale dunque a una richiesta di ordinamento angolare. Nella cascata di stato finale, le frazioni di energia zj sono distribuite secondo 96 3.5. GENERATORI MONTE CARLO le funzioni di splitting di Altarelli-Parisi (3.29), gli angoli di emissione secondo i fattori di Sudakov. In ogni branching, la scala di αs è assunta uguale al momento trasverso relativo dei due partoni prodotti. Nel caso di produzione di un quark pesante, la sua massa modifica l’ordinamento angolare dello spazio delle fasi. In particolare, l’emissione all’interno di un angolo ≈ M/E risulta soppressa (dead cone). La richiesta di ordinamento angolare riduce lo spazio delle fasi a disposizione per il branching. In pratica, il partone i può emettere solo entro il cono centrato in j, dove j è il connesso di colore di i. Cosı̀ si rispetta la coerenza del branching, e al tempo stesso si tiene conto delle singolarità infrarosse derivanti dall’emissione di partoni soffici e collineari. Grazie a questo ordinamento, le particelle si ritrovano automaticamente organizzate in regioni dello spazio delle fasi (preconfinamento), per cui l’adronizzazione può svilupparsi secondo il modello a cluster [11] rappresentato in Figura 3.24(a). (a) Adronizzazione a cluster di Herwig. (b) Adronizzazione a stringa di Pythia. Figura 3.24: Modelli di adronizzazione. Questo modello di adronizzazione è locale, non dipende cioè dal processo duro nè dall’energia. Una volta terminata la cascata partonica, per tutti i gluoni finali viene forzato lo splitting in una coppia qq di quark leggeri, e le linee vicine nello spazio delle fasi vengono raggruppate a formare singoletti di colore, che infine si frammentano negli adroni osservabili. Se un cluster è troppo leggero per formare una coppia di adroni, viene assunto uguale all’adrone più leggero dello stesso flavour. Atrimenti, un cluster di flavour f1 f 2 viene frammentato isotropicamente in coppie di adroni f1 f e f f 2 , con f scelto casualmente tra u, d, s e c. Una delle caratteristiche introdotte in Herwig 6 è la correzione dell’elemento di matrice (ME). A causa dell’ordinamento angolare, infatti, si creano 3.5. GENERATORI MONTE CARLO 97 delle zone morte nello spazio delle fasi, all’interno delle quali non possono avvenire emissioni. In particolare, queste zone sono definite dai vincoli ξ > z 2 per lo stato iniziale, e ξ > 1 per lo stato finale. In realtà, il calcolo esatto ci dice che in queste zone la radiazione è soppressa, non del tutto assente come invece avverrebbe in Herwig. Per correggere questa circostanza indesiderata, si può attivare l’opzione HARDME, cosı̀ da generare la radiazione nelle zone morte in base all’elemento di matrice esatto a Next to Leading Order. Un’osservabile molto interessante da studiare a questo proposito, è la distribuzione in momento trasverso del W : come vediamo in Figura 3.25, dopo la correzione dell’elemento di matrice (curva continua) si ha una frazione di eventi con kT > MW . La soppressione della curva con la correzione ME intorno al picco è dovuta invece alla mancanza dei contributi virtuali a NLO, aspetto su cui torneremo tra breve discutendo il generatore a NLO Mc@Nlo (Sezione (3.5.6)). Figura 3.25: Distribuzione del kT del W a LHC simulata con Herwig, prima (punti) e dopo (linea continua) la correzione dell’elemento di matrice [21]. 3.5.5 Pythia Pythia si differenzia da Herwig per due caratteristiche principali: il modello di adronizzazione e la variabile di ordinamento. Il modello di adronizzazione di Pythia [56] è detto a stringa (Figura 3.24(b)). Esso si ispira all’ipotesi che le cariche di colore siano tenute insieme da un potenziale lineare: come suggerisce infatti la Lattice QCD, tra una carica e un’anticarica si forma un campo dipolare di colore (tubo di flusso) in cui viene immagazzinata un’energia che cresce linearmente con la distanza reciproca. Le dimensioni trasverse del tubo sono dell’ordine della tipica scala 98 3.5. GENERATORI MONTE CARLO adronica (1 fm). Queste idee conducono al modello di adronizzazione a stringa: il tubo di flusso creatosi tra q e q cede quando la distanza tra le cariche supera una certa soglia, frammentandosi in due singoletti, q q 0 e q 0 q. Se uno dei singoletti ha massa invariante troppo grande, la frammentazione continua, con ricombinazioni casuali tra gli estremi liberi delle stringhe, finché non si producono adroni on shell, ognuno dei quali corrisponde a una piccola porzione della stringa originaria. Per quanto riguarda l’ordinamento delle cascate partoniche, sia nello stato iniziale sia in quello finale, Pythia offre due possibilità: ordinamento in virtualità o in momento trasverso (aggiunto nelle versioni più recenti). Al momento, la scelta dipende dal tipo di processo considerato; l’ordinamento in virtualità ha però lo svantaggio di non includere automaticamente la coerenza tra le emissioni successive. Consideriamo per esempio lo splitting gluonico g1 → g2 g3 , seguito dall’emissione di g4 da parte di g2 o di g3 . Se g4 è soffice, non può risolvere la carica individuale degli altri gluoni finali, ma vede solo la carica totale, che è ovviamente la carica di g1 . Questo effetto causa una soppressione nell’emissione multipla; è incluso automaticamente dall’ordinamento angolare e in momento trasverso, mentre deve essere imposto a posteriori in Pythia. 3.5.6 Mc@Nlo Per comprendere perché Mc@Nlo ([46], [47]) possa essere considerato il generatore che meglio descrive la Fisica a Next to Leading Order [55], dobbiamo distinguere brevemente l’approccio Matrix Element (ME) da quello Parton Shower (PS). L’approccio ME parte dalla Lagrangiana della teoria, ne deriva le regole di Feynman, e tramite queste calcola l’elemento di matrice per il processo d’interesse. Convolvendo l’elemento di matrice col fattore di spazio delle fasi, ottiene infine la sezione d’urto. Come sappiamo, però, nel calcolare l’elemento di matrice a Next to Leading Order, si incontrano divergenze soffici e collineari, sia dalle gambe reali sia da quelle virtuali. La cancellazione ordine per ordine di queste divergenze, esatta a livello matematico, risulta difficile da implementare in un algoritmo ME, soprattutto per il calcolo di quantità esclusive. Se si ignorano i loop e si resta lontani dalle regioni divergenti, i generatori ME arrivano a descrivere processi con otto partoni nello stato finale. Herwig e Pythia sono esempi dell’approccio alternativo, quello di Parton Shower, che usa i fattori di forma Sudakov per dare un’interpretazione probabilistica all’emissione multipla. Questo metodo è semplice da implementare 3.5. GENERATORI MONTE CARLO 99 ma non efficiente in alcune zone dello spazio delle fasi, come abbiamo già discusso parlando delle zone morte prodotte dall’ordinamento angolare di Herwig. Figura 3.26: Matching ME + PS in Mc@Nlo: produzione di Z a NLO [55]. La combinazione di questi due approcci viene effettuata con successo da Mc@Nlo: esso include esattamente non solo le correzioni reali, ma anche quelle virtuali, risultando perciò accurato a Next to Leading Order. Mc@Nlo si avvale di Herwig per la simulazione della cascata partonica. Possiamo dividere lo schema logico seguito da Mc@Nlo in quattro fasi (come rappresentato in Figura 3.26 per la produzione di Z): 1. Z + 1 jet ME. Calcolo delle correzioni NLO ME per il processo a n partoni, sia quelle reali (n + 1) sia quelle virtuali (n) . 2. Z + 1 jet nella cascata. Calcolo analitico del primo branching in una cascata a n partoni, senza usare il fattore di Sudakov. 3. Z + 1 jet + cascata. Sottrazione di (2) da (1): si sottrae l’espressione per la cascata da Z + 1 jet ME per ottenere la “vera” espressione per Z + 1 jet. Tutto il resto (Z + cascata) si considera di ordine n. 4. Z + 1 jet + cascata. Infine si risomma la cascata. Il punto delicato di questa prescrizione è la sottrazione, in quanto non è garantito che il risultato ME sia ovunque maggiore di quello PS. Effettivamente una frazione (≈ 12 %) degli eventi prodotti con Mc@Nlo ha peso negativo, e deve essere sottratta bin per bin per ottenere risultati fisici. 100 Capitolo 4 Studi di accettanza geometrica 4.1 Motivazione per la misura di σW/Z La misura della sezione d’urto dei processi: pp → W + → `+ ν` + X , pp → Z → `+ `− + X pp → W − → `− ν ` + X con ` = e, µ costituisce uno degli obiettivi fondamentali della prima fase dell’esperimento ATLAS. L’espressione per la sezione d’urto partonica è quella data in (3.9), che qui riscriviamo: 0 π√ 2 2 2 GF MW |Vqq0 | δ(ŝ − MW ) 3 π√ = 2 GF MZ2 (υq2 + a2q ) δ(ŝ − MZ2 ) 3 σ̂ qq →W = σ̂ qq→Z dove GF è la costante di Fermi, |Vqq0 | è un elemento della matrice CKM, mentre υq e aq sono gli accoppiamenti vettoriali e assiali dei bosoni vettori col quark q. Infine, ŝ è l’energia nel centro di massa partonico, ŝ = sx1 x2 , dove x1,2 sono le frazioni d’impulso portate dai partoni collidenti. La sezione d’urto partonica viene convoluta con le PDF per avere la sezione d’urto adronica σ(p1 p2 → c), in virtù del Teorema di Fattorizzazione (3.3): Z 1 X σ(p1 p2 → c) = dx1 dx2 fa/p1 (x1 , µ2F )fb/p2 (x2 , µ2F ) σ̂ (ab→c) (Q2 , µ2F ) . 0 a,b 102 4.1. MOTIVAZIONE PER LA MISURA DI σW/Z La somma è su tutti i flavour attivi, quelli cioè la cui massa è minore dell’energia a disposizione nel centro di massa partonico. Oltre alla sezione d’urto totale, lo stato presente dei calcoli teorici comprende [14]: precisione NLO per le segnature W/Z + 1, 2 jet, risommazione dei logaritmi Leading e Next to Leading dovuti all’emissione di gluoni soffici, inclusione delle correzioni NLO in un generatore Parton Shower (Mc@Nlo), inclusione di quelle NNLO per la sezione d’urto differenziale (FEWZ), e infine inclusione delle correzioni elettrodeboli all’ordine O(α) (Horace). La collaborazione ATLAS si propone una misura della sezione d’urto totale per W e Z con un errore sperimentale . 1%, cosı̀ da eguagliare la precisione raggiunta dai calcoli teorici. In tal modo sarà possibile estrarre anche una conoscenza delle PDF molto accurata in un intervallo che estende quello attuale di almeno due ordini di grandezza, come abbiamo discusso in Sezione 3.1.2; infatti, grazie alla relazione (3.33), M x1,2 = √ e±y ∼ 10−3 ÷ 10−2 s per y = 0 a LHC, si ha che la produzione di W e Z avviene a medi valori di x per rapidità centrali (y = 0), e a valori molto piccoli di x per rapidità maggiori. Inoltre, il momento trasferito sarà altissimo: Q2 = (10 ÷ 100)2 GeV2 , cento volte maggiore di quello di HERA. Sarà cosı̀ possibile testare, da una parte, la precisione con cui l’evoluzione delle PDF è descritta dall’equazione DGLAP (3.27), dall’altra l’importanza degli effetti di piccola x (logaritmi BFKL). I decadimenti dei bosoni vettori intermedi W e Z sono fondamentali anche per il rivelatore, tanto da essere considerati vere e proprie “candele standard”: permetteranno la calibrazione in energia e lo studio delle performance, con particolare riferimento al monitoraggio della luminosità. Infine, come discusso nelle Sezioni 2.3.3 e 2.4, le segnature di W e Z costituiscono il fondo a molti processi di Nuova Fisica, come la produzione di bosoni di gauge pesanti W 0 /Z 0 , e a vari canali di decadimento del bosone di Higgs. 4.1.1 Metodo per la misura di σW/Z Possiamo esprimere la sezione d’urto nel modo seguente: σ ≡ σpp→W/Z · Br W/Z→`ν/`` = N −B A·ε·L (4.1) dove Br è il branching ratio (rapporto di decadimento) nei canali leptonici, N e B sono rispettivamente il numero di eventi totali e di solo fondo, L è la 4.1. MOTIVAZIONE PER LA MISURA DI σW/Z 103 luminosità integrata nel tempo, A è l’accettanza geometrica − la frazione di eventi che entrano nei tagli cinematici − ed ε è l’efficienza all’interno dell’accettanza. Le fonti di incertezza dovute al rivelatore sono tutte fattorizzate all’interno dell’efficienza, che comprende tra l’altro l’efficienza di trigger, di ricostruzione, di misura dell’energia mancante; in questo modo, l’accettanza dipende solo dalla configurazione geometrica dell’esperimento, e in particolare dalle soglie cinematiche per la rivelazione delle particelle (tagli in momento trasverso), e dalle zone sensibili del rivelatore (tagli in pseudorapidità). Ne segue che l’accettanza, cosı̀ come il suo errore sistematico, si ricavano dalle simulazioni con i generatori Monte Carlo, descritti in Sezione 3.5: si simula il processo fisico di interesse, si impongono i tagli cinematici e angolari, e si calcola la frazione di eventi accettati rispetto al totale. L’incertezza sulla sezione d’urto (4.1) comprende i seguenti termini, sommati in quadratura: δσ δN ⊕ δB δε δL δA = ⊕ ⊕ ⊕ . σ N −B ε L A (4.2) Come vediamo in Tabella 4.1, che sintetizza i contributi stimati per una luminosità integrata di 50 pb−1 , l’errore dovuto alla luminosità è più che doppio di quello dovuto alla sistematica, e non dipende dal canale. Processo N B δσ/σ (stat) δσ/σ (sist) δσ/σ (lum) W → eν 226700 6100 0.2 % 5.2 % 10 % W → µν 300400 20100 0.2 % 3.1 % 10 % Z → e+ e− 27100 2300 0.8 % 4.1 % 10 % Z → µ+ µ− 27700 100 0.8 % 3.8 % 10 % Tabella 4.1: Contributi stimati all’incertezza della sezione d’urto (50 pb−1 ) [10]. Bisogna però considerare che questa situazione si capovolgerà con l’aumentare dei dati raccolti: infatti,√assegnando al numero di eventi un’incertezza puramente statistica, δN = N , ed essendo N proporzionale alla luminosità, si ha che la sua incertezza relativa scala come l’inverso della radice della luminosità: √ δN/N ∼ 1/ L . Sia δL/L sia δε/ε diminuiranno con la statistica raccolta dall’esperimento; inoltre, vediamo dalla (4.1) che il contributo della luminosità si semplifica se 104 4.1. MOTIVAZIONE PER LA MISURA DI σW/Z si misura il rapporto tra le sezioni d’urto, σW /σZ , piuttosto che le due sezioni d’urto in maniera indipendente. In pratica, dopo il primo fb−1 (un anno di presa dati ad alta luminosità), i contributi a δσ/σ in Tabella 4.1 si ridurranno per gli elettroni a [40]: δσ/σ(W → eν) = 0.04 % (stat) ± 2.5 % (sist) δσ/σ(Z → ee) = 0.20 % (stat) ± 2.4 % (sist). L’incertezza sistematica al 2% è dominata da quella, puramente teorica, dovuta all’accettanza. Vari effetti concorrono a formarla [48]: da una parte, le approssimazioni insite nei generatori Monte Carlo (per esempio il fatto che i processi che essi implementano sono calcolati solo fino a Next to Leading Order), dall’altra le approssimazioni che facciamo sulla Fisica non perturbativa (modellizzazione delle PDF, risommazione dei termini soffici, scala di fattorizzazione, ecc.). In questo Capitolo calcolerò l’incertezza sistematica sull’accettanza, nei canali W → µνµ e Z → µ+ µ− , con l’obiettivo di giungere a una stima del termine δA/A che entra nella (4.2). Prima però descriverò brevemente il metodo che verrà seguito da ATLAS per la misura di σW,Z in muoni. L’analisi preparatoria a quella sui dati reali si svolge con l’ausilio delle simulazioni Monte Carlo [59]. I dati di segnale e di fondo sono simulati a Leading Order con Pythia; le sezioni d’urto cosı̀ ottenute vengono normalizzate a quelle a NNLO calcolate con FEWZ. Nella generazione si applica il prefiltro sui muoni: almeno un muone con |ηµ | < 2.8 e pµT > 5 GeV. In particolare il taglio in pseudorapidità riflette l’accettanza dello spettrometro a muoni (Tabella 1.1). Questo prefiltro ha un’efficienza √ dell’ 85% per Z e del 65% per W . Per quanto riguarda Z, si richiede s > 60 GeV, taglio che commenterò a proposito della mia analisi (Sezione 4.2). I fondi principali sono costituiti da bosoni W e Z che decadono in leptoni τ , i quali a loro volta decadono in µ; dagli eventi tt con almeno un decadimento semileptonico; dai jet che includono leptoni (veri o presunti). Tutti gli altri fondi sono trascurabili; in particolare i muoni cosmici possono essere eliminati con tagli di timing come fatto al Tevatron, col vantaggio per ATLAS di essere situato a ∼ 100 metri di profondità. Gli eventi cosı̀ simulati sono ricostruiti usando il software GEANT [1] e una geometria misallineata [59]. Come discusso in Sezione 1.3, l’identificazione e quindi la ricostruzione dei 4.1. MOTIVAZIONE PER LA MISURA DI σW/Z 105 muoni sono effettuate a partire dalle tracce nello spettrometro, complementate da quelle nell’Inner Detector a basse energie, pT ≤ 30 GeV. In quella sede sono stati descritti anche i contributi principali ad ε: l’efficienza di ricostruzione, la risoluzione in impulso trasverso e in energia trasversa mancante, e l’effetto delle perdite di energia. W → µν Il segnale W → µν è selezionato in base alla richiesta di trigger mu20, ovvero richiedendo la presenza di un’unica traccia muonica con impulso trasverso maggiore di 20 GeV; nella fase di alta luminosità, questa richiesta sarà rifinita aggiungendo la richiesta di isolamento. Se la traccia passa il trigger, si impongono i tagli cinematici: |η| < 2.5 e pT > 25 GeV (si confronti la Sezione 4.2). L’energia depositata nel calorimetro intorno a questa traccia, entro un cono ∆R ≤ 0.4 (equazione (1.2)), deve essere minore di 5 GeV. Si richiedono inoltre una soglia in energia trasversa mancante, ETmiss > 25 GeV, e una soglia in massa trasversa, MT > 40 GeV. I tagli in impulso, energia e massa trasversi sono tutti intesi a selezionare il segnale dal fondo. L’efficienza complessiva del segnale è intorno all’ 80%. In Figura 4.1(a) vediamo la distribuzione in massa trasversa senza la soglia. (a) W → µν. (b) Z → µµ Figura 4.1: Distribuzioni simulate per il segnale e il fondo, L = 50 pb−1 [59]. I fondi dominanti sono dovuti a W → τ ν e Z → µµ, che d’altronde sono ben noti teoricamente; il fondo dei jet (indicato come QCD) è ridotto dai tagli di selezione ma è vincolato meno precisamente dai dati attuali, quindi su questa componente si è assunta un’incertezza del 100%; al fondo di tt è invece associata un’incertezza del 20%. 106 4.2. DESCRIZIONE DELLE SIMULAZIONI Z → µµ La richiesta di trigger è in questo caso la presenza di almeno una traccia muonica con pT > 10 GeV. La traccia viene ricostruita solo se è accompagnata da un altro candidato muone, e se le cariche sono opposte. A seguire si impongono i tagli cinematici su entrambe le tracce: |η| < 2.5 e pT > 20 GeV. La massa invariante della coppia deve soddisfare il vincolo: |91.2 GeV − Mµµ | < 20 GeV. I muoni provenienti dal decadimento dei bosoni vettori sono isolati, al contrario di quelli del fondo. Per quantificare questo isolamento, si usano la molteplicità delle tracce nell’Inner Detector all’interno di un cono di raggio ∆R = 0.5, e il momento totale di tali tracce. I tagli in pT e in isolamento selezionano il 70% del segnale all’interno dell’accettanza geometrica; il fondo rimanente è trascurabile. In Figura 4.1(b) vediamo la corrispondente distribuzione in massa invariante. 4.2 Descrizione delle simulazioni Per il calcolo dell’accettanza, ho simulato i decadimenti Drell-Yan, con stati finali elettronici e muonici, con i seguenti generatori Monte Carlo: • Generatori a Leading Order: – Herwig 6.5.10 [11] – Pythia 8.1.05 [56] • Generatori a Next to Leading Order: – Mc@Nlo 3.3 [47]. Per ogni generatore sono stati simulati tra i 40 mila e i 100 mila eventi. Questo lavoro è stato fatto a livello di sola generazione dei processi, in modo da escludere gli effetti dovuti al rivelatore; è stato ripetuto in modalità Stand Alone − usando cioé i generatori in modo indipendente − e all’interno di Athena, il framework di analisi ufficiale di ATLAS. La versione di Athena usata è la 11.0.5(1 ). 1 Questa versione di Athena è stata scelta per due motivi: 1) all’inizio di questo lavoro di Tesi, era la versione più recente ad essere stata validata per i generatori Stand Alone; 2) è quella usata nei lavori precedenti su W e Z. Questa scelta rimane ragionevole, poiché le versioni sempre più aggiornate che si susseguono sono tese a migliorare il software di ricostruzione, e non agiscono a livello di generazione. 4.2. DESCRIZIONE DELLE SIMULAZIONI 107 Mentre Herwig e Pythia sono serviti alla comprensione preliminare dei generatori, confrontando le distribuzioni ottenute per elettroni e muoni con quelle aspettate, lo studio dedicato all’errore sistematico è stato eseguito con Mc@Nlo, dato che, come discusso in Sezione 3.5, questo generatore include l’elemento di matrice di scattering accurato a NLO, e allo stesso tempo è interfacciabile col Parton Shower Herwig. Una menzione a parte va fatta per Horace [8], che è stato usato per quantificare l’impatto delle correzioni elettrodeboli; al momento esso non è interfacciato con un Parton Shower. Come verrà discusso nel prossimo Capitolo, Horace può essere usato sia a livello Born − i suoi risultati si possono allora confrontare con quelli dei Parton Shower a Leading Order − sia all’ordine O(α), situazione in cui Horace risulta paragonabile a Mc@Nlo. I parametri dei diversi generatori (masse, larghezze di branching, set di PDF, costanti varie) sono stati uniformati accuratamente, in particolare i bosoni vettori hanno masse e larghezze totali [2]: MW = 80.398 GeV , ΓW = 2.141 GeV MZ = 91.188 GeV , ΓW = 2.495 GeV. Le opzioni scelte per la generazione dei campioni sono elencate e descritte nell’Appendice. Sottolineiamo che, per generare Z, abbiamo in realtà generato√il processo Z/γ ∗ , ponendo contemporaneamente il taglio in massa invariante s > 60 GeV per selezionare il bosone neutro massivo; la generazione di W si è svolta invece su tutto il range di energia. Le PDF usate per la maggior parte di questo lavoro sono quelle descritte in Sezione 3.3.2: le CTEQ 6L [41] − ufficiali di ATLAS − per i generatori LO, e le CTEQ 6.1M [53] per quelli NLO. Negli studi dedicati alla sistematica delle PDF (Sezione 5.1) si usano anche set non ufficiali in ATLAS, in particolare le CTEQ 6.6 [35] e le Neural Network PDF [3]. La configurazione di default scelta − a partire dalla quale, nel prossimo Capitolo, calcoleremo gli errori sistematici − è quella che meglio descrive la situazione fisica: Configurazione di default I Set di PDF = CTEQ 6L per LO, CTEQ 6.1M per NLO, I Underlying Event e correlazioni di spin = accesi, I Radiazione di stato iniziale = accesa, I Interazioni multiple (Jimmy per Herwig) = accese in Athena, 108 4.2. DESCRIZIONE DELLE SIMULAZIONI I Correzioni di QED (Photos) = accese in Athena, I pT intrinseco dei partoni = 0 GeV, I Correzione di elemento di matrice = accesa per Herwig. I tagli cinematici applicati sono elencati in Tabella 4.2. Canale Tagli di accettanza W → eν peT > 20 GeV, ETmiss = pνT > 20 GeV |ηe | < 1.37 ∪ 1.52 < |ηe | < 2.5 W → µν pµT > 20 GeV ETmiss = pνT > 20 GeV |ηµ | < 2.5 Z → e+ e− ± peT > 20 GeV |ηe± | < 1.37 ∪ 1.52 < |ηe± | < 2.5 Z → µ + µ− ± pµT > 20 GeV |ηµ± | < 2.5 Tabella 4.2: Sintesi dei tagli di accettanza applicati nell’analisi. Come discusso diffusamente nel Capitolo 1, richiediamo che i leptoni finali abbiano momento trasverso elevato per poterli distinguere dagli eventi di fondo, e al tempo stesso applichiamo i tagli in pseudorapidità perché i leptoni siano tracciabili e triggerabili, rispettivamente nel calorimetro elettromagnetico (|η| < 2.5) e nel sistema dei muoni (|η| < 2.5). Per gli elettroni escludiamo anche le regioni di “crack” (1.37 < |η| < 1.52), dove la transizione tra Barrel ed End-Cap fa sı̀ che si abbia un brusco calo dell’efficienza di ricostruzione. Notiamo inoltre che, a livello di generazione, identifichiamo l’energia trasversa mancante, ETmiss , col momento trasverso del neutrino. In questo modo vogliamo stimare quanti eventi di segnale cadano nelle zone sensibili del rivelatore, e siano al tempo stesso distinguibili dal fondo grazie ad un alto impulso trasverso. Stiamo dunque assumendo che in tutte le zone sensibili il rivelatore abbia efficienza pari a 1, che sia possibile identificare le particelle e ricostruirne le tracce senza incertezza, che la risoluzione in impulso sia quella ideale, e che misurare l’energia mancante sia analogo a misurare una qualsiasi altra energia. La stima che ne risulta è appunto l’accettanza; essa dipende strettamente dal modello teorico insito nel generatore Monte 4.2. DESCRIZIONE DELLE SIMULAZIONI 109 Carlo, e in particolare dalle distribuzioni in impulso trasverso e in pseudorapidità dei leptoni finali, poiché sono queste le variabili su cui dobbiamo applicare i tagli. 4.2.1 Analisi delle distribuzioni Come controllo preliminare, verifichiamo che le sezioni d’urto teoriche siano compatibili tra i vari generatori: Canale Herwig (nb) Pythia (nb) Mc@Nlo (nb) W → eν, µν 17.33 ± 0.02 17.35 ± 0.03 19.636 ± 0.007 Z → e+ e− , µ+ µ− 1.668 ± 0.003 1.679 ± 0.003 1.948 ± 0.001 Tabella 4.3: Sezioni d’urto teoriche dei vari generatori. Come aspettato, la sezione d’urto aumenta del (12 ÷ 13)% passando da Leading a Next to Leading Order. Verifichiamo adesso l’accordo tra le distribuzioni dei leptoni uscenti, che ci serviranno per calcolare l’accettanza. Facciamo un breve inciso per dire che il framework di analisi Athena introduce alcuni tool aggiuntivi rispetto al generatore in modalità Stand Alone: in particolare Herwig si interfaccia con Jimmy [6], che aggiunge l’effetto delle interazioni multiple (importanti per ricreare in modo verosimile gli eventi di Minimum Bias), mentre sia Herwig sia Pythia usano Photos [36], un generatore dedicato alle correzioni di QED al processo duro. Ciò detto, ci aspettiamo che le distribuzioni ottenute in Stand Alone siano compatibili con quelle ottenute in Athena, a meno di differenze minori. In Figura 4.2 vediamo le distribuzioni dell’impulso trasverso (a) e della pseudorapidità (b), per l’elettrone in W → eν, mentre in Figura 4.3 abbiamo le distribuzioni corrispondenti per l’elettrone in Z → e+ e− ; le simulazioni a confronto sono effettuate con Herwig Stand Alone, Pythia Stand Alone, Herwig in Athena e Pythia in Athena. Per i muoni la situazione è analoga. Notiamo che le maggiori differenze tra le distribuzioni si hanno intorno √ al picco. Grafichiamo allora questa differenza, con l’errore sistematico N associato al valore N, prendendo in particolare in considerazione la differenza Herwig Stand Alone − Herwig in Athena, per il pT dell’elettrone in W → eν (Figura 4.4(a)). Vediamo cosı̀ che la differenza normalizzata è compatibile con l’errore statistico. Controlliamo inoltre che, imponendo i tagli cinematici di accettanza, la forma della distribuzione non venga modificata: in Figura 4.4(b) abbiamo la 110 4.2. DESCRIZIONE DELLE SIMULAZIONI (a) pT dell’elettrone. (b) |η| dell’elettrone. Figura 4.2: Distribuzioni in pT e in |η| dell’elettrone in W → eν a LO. (a) pT dell’elettrone. (b) |η| dell’elettrone. Figura 4.3: Distribuzioni in pT e in |η| dell’elettrone in Z → e+ e− a LO. (a) Differenza tra le distribuzioni in pT dell’elettrone in W → eν, tra Herwig Stand Alone e in Athena. (b) |ηe | prima e dopo i tagli (pT e < 25 GeV, pT ν < 25 GeV). Figura 4.4 distribuzione in η per l’elettrone prodotto dal W (Herwig Stand Alone), prima e dopo l’applicazione dei tagli in impulso trasverso, che in questo caso valgono pT e < 25 GeV e pT ν < 25 GeV. Concentriamoci adesso sulla produzione e il decadimento del W . In questo 4.2. DESCRIZIONE DELLE SIMULAZIONI 111 caso, la presenza del neutrino fa sı̀ che non ci si possa rifare alla conservazione dell’energia totale, e si debba utilizzare piuttosto quella trasversa. La massa trasversa del W è stata definita in (2.47): r MT = 2 |pT ` | |pT ν |(1 − cos ∆φ) ≈ 2|p| se ∆φ = π dove ≈ significa a Leading Order: come abbiamo visto in Sezione 3.1.4, all’ordine più basso in αS i partoni incidenti non hanno momento trasverso, il W decade da fermo e quindi i leptoni finali sono collineari in φ: |pT ` | = |pT ν | = |p|. In effetti in Figura 4.5(a) vediamo la differenza in angolo azimutale, ∆φ, tra il muone e il neutrino prodotti da W , simulati con Herwig Stand Alone, dopo aver spento la radiazione di stato iniziale, ed aver posto a zero, come di default, il pT intrinseco dei partoni. La distribuzione che ne risulta consiste dunque di due picchi isolati a ∆φ = ±π. (a) Herwig Stand Alone senza ISR. (b) Herwig in Athena con ISR. Figura 4.5: Differenza in angolo azimutale tra µ e ν prodotti da W a Leading Order con Herwig, escludendo o includendo la radiazione di stato iniziale. Se invece reinseriamo la radiazione di stato iniziale, come in Figura 4.5(b), l’effetto è quello di distribuire gli eventi intorno ai due picchi, rendendo la distribuzione simile a quella che si ottiene con l’inclusione dell’ordine superiore: in Figura 4.6 vediamo appunto la differenza in ∆φ simulata con Mc@Nlo, indipendentemente per W + e W − . In questo caso quello che grafichiamo è la sezione d’urto differenziale, calcolata normalizzando i conteggi con le seguenti sezioni d’urto teoriche: σW + = 11320 pb , σW − = 8316 pb in leptoni. Dalla Figura 4.6, possiamo concludere che la cinematica nel piano azimutale 112 4.2. DESCRIZIONE DELLE SIMULAZIONI dσ/d (∆ φ) (pb) Distribuzione di ∆ φ per W ->µ ν in McNlo W piu nosp Entries 41217 -0.01172 Mean 2.984 RMS 700 W meno 600 500 400 300 200 100 0 -4 -3 -2 -1 0 1 2 3 4 ∆φ Figura 4.6: Differenza in angolo azimutale tra µ e ν prodotti da W ± , simulati con Mc@Nlo in Athena. è identica tra W + e W − : la differenza tra le distribuzioni è data dalle diverse normalizzazioni. Mostriamo adesso la sezione d’urto differenziale in funzione dell’impulso trasverso del muone (quella teorica per Herwig è stata data in Tabella 4.3). W ->µ ν in McNlo Herwig def Entries Mean RMS 20000 30.15 10.81 Herwig ISR off 1000 W piu McNlo W meno McNlo dσ/dp 800 (pb/GeV) per W ->µ ν Tµ dσ/d p (pb/GeV) Tµ McNlo W piu nosp 400 Entries Mean RMS 41217 30.67 11.89 350 McNlo W meno Tµ Distribuzione di p 300 250 600 200 150 400 100 200 50 0 0 10 20 30 40 50 60 p Tµ 70 (GeV) (a) Confronto tra LO e NLO. 00 10 20 30 40 50 60 70 80 p (GeV) T (b) Sezione d’urto differenziale dσ/dpT . Figura 4.7: pT del muone per W → µν con Herwig e Mc@Nlo. In Figura 4.7(a) abbiamo le distribuzioni per Herwig con l’inclusione della radiazione di stato iniziale (in questo caso la distribuzione è analoga a quella mostrata in Figura 4.2(a) per l’elettrone) e senza di essa, oltre alle distribuzioni per Mc@Nlo (ISR accesa come di default) rispettivamente per W + e W − . La differenza principale si osserva quando si esclude la ISR: il picco a pT = MW /2 diventa molto più netto. Nelle altre configurazioni la forma delle distribuzioni resta simile. Notiamo che la somma delle curve per W + e per W − con Mc@Nlo è maggiore della somma pesata fatta automaticamente da Herwig, a ragione del fatto 4.2. DESCRIZIONE DELLE SIMULAZIONI 113 che la sezione d’urto a NLO è maggiore di quella a LO del (12 ÷ 13)%, come già osservato. In Figura 4.7(b) confrontiamo direttamente le sezioni d’urto differenziali per W + e W − a NLO. Queste distribuzioni mostrano chiaramente la presenza di un’asimmetria di carica tra i muoni finali; torneremo tra poco su questo argomento. Dalle distribuzioni precedenti, in pT e in ∆φ, possiamo ricavare quella in massa trasversa per W . In Figura 4.8 vediamo dunque la sezione d’urto differenziale per Herwig e Mc@Nlo. Il picco Jacobiano (MT = MW ) è lo strumento usato sperimentalmente per estrarre la massa del W , come discusso in Sezione 2.3.1. dσ/dMT (pb/GeV) W -> µ ν in Herwig e in McNlo def Herwig Entries 20000 Mean RMS 900 59.04 19.79 McNlo W piu 800 McNlo W meno 700 600 500 400 300 200 100 0 20 40 60 80 100 MT (GeV) Figura 4.8: Distribuzione in massa trasversa per W → µν, con Herwig e Mc@Nlo. Asimmetria di carica tra W + e W − Torniamo alla Figura 4.7(b), che mostra come la sezione d’urto differenziale dσ/dpT µ sia diversa tra W + e W − . Questa differenza è più accentuata − malgrado gli errori statistici − se guardiamo la pseudorapidità del muone finale (Figura 4.9). L’asimmetria di carica è la convoluzione non banale di vari effetti. Consideriamo la produzione di W . In Figura 4.10 sono mostrate le distribuzioni in rapidità (a)-(b) e in impulso trasverso (c)-(d) del bosone vettore, al Tevatron (lato sinistro) ed a LHC [16]. Nelle collisioni pp, le sezioni d’urto di produzione e le distribuzioni in pT W sono indipendenti dalla carica del bosone vettore, mentre le distribuzioni in rapidità sono l’una il riflesso dell’altra. A LHC, invece, queste ultime sono simmetriche rispetto a yW = 0, ma la loro forma è diversa: la distribuzione di W + è più alta, larga e piatta. Ciò deriva dal fatto che, in un collider pp, 114 4.2. DESCRIZIONE DELLE SIMULAZIONI W -> µ ν in McNlo dσ/dηµ (pb) nosp EntriesW41217 McNlo piu Mean -0.0001682 RMS 2.276 250 McNlo W meno 200 150 100 50 0 -6 -4 -2 0 2 4 6 ηµ Figura 4.9: Distribuzione in pseudorapidità per il muone prodotto da W + e W − , simulata con Mc@Nlo. Figura 4.10: Asimmetria tra le distribuzioni in y e in pT per W + e W − , simulata per il Tevatron (pp) e LHC (pp). [16]. ci sono due quark u per ogni quark d, e in media u porta una frazione di impulso maggiore (si confronti la Figura 3.13). Per quanto riguarda la differenza tra le distribuzioni in pT W , bisogna ricondursi all’asimmetria tra le distribuzioni partoniche sottostanti: scriviamo la differenza tra le sezioni d’urto totali per la produzione di W + e W − : (σ + − σ − )pp (s) = 0 , R (σ + − σ − )pp (s) ∝ dxq dxq {|Vud |2 [u(v) (xq ) d(xq ) − d(v) (xq ) u(xq )] + (4.3) +u(v) (xq )[|Vus |2 s(xq ) + |Vub |2 b(xq )] − |Vcd |2 d(v) (xq ) c(xq )}σqq (ŝ) (4.4) La (4.3) indica che al Tevatron le sezioni d’urto sono uguali, nell’ipotesi che 4.2. DESCRIZIONE DELLE SIMULAZIONI 115 MW + = MW − − in effetti la ricerca di una asimmetria di questo tipo è lo strumento ideale per testare l’ipotesi stessa. La (4.4) si riferisce a LHC: il termine nella prima parentesi quadra è diverso da zero a causa dell’asimmetria tra quark di valenza e rispettivi antiquark, quello nella seconda parentesi a causa della differenza in massa tra s e c. Per quanto riguarda il decadimento di W , le differenze tra le distribuzioni dei leptoni finali si accentuano, a causa della struttura V − A della corrente elettrodebole (equazione (2.12)). Nel sistema di riferimento del W , le distribuzioni angolari dei leptoni valgono [16]: Q ∗ ∗ ∝ (1 + λ Q cos θW,` )2 dσ WT /d cos θW,` dσ WLQ ∗ ∗ /d cos θW,` ∝ sin2 θW,` (4.5) (4.6) ∗ dove θW,` è l’angolo polare del leptone carico rispetto alla direzione di W nel sistema di riferimento del laboratorio, Q è la carica elettrica di W , mentre λ è l’autovalore di elicità. Vediamo dalla (4.5) che le distribuzioni angolari per `+ e `− sono identiche se λ = 0 (W polarizzato longitudinalmente), mentre dipendono dalla carica se λ = ±1 (W polarizzato trasversalmente). In particolare, se W è left-handed (λ = −1), `− viene emesso nella direzione del genitore, `+ in quella opposta, mentre per λ = +1 la situazione è rovesciata. A piccole |yW |, W è prodotto da quark e antiquark con frazioni di impulso xq ∼ xq ≈ 6 × 10−3 , una regione in cui il contributo dei quark di valenza è piccolo, per cui vengono prodotti con la stessa frequenza W left- e righthanded. Le distribuzioni dei leptoni finali mantengono quindi l’asimmetria del genitore. A grandi rapidità, invece, domina il contributo dei quark di valenza: essendo questi left-handed, ne risulta che W viene prodotto prevalentemente lefthanded: la distribuzione di `− si allarga, mentre quella di `+ si restringe. La Figura 4.9 mostra l’effetto complessivo per tutti i valori di |yW |. Per quanto riguarda pT ` , se W fosse prodotto senza momento trasverso la struttura V − A della corrente non potrebbe giocare alcun ruolo; d’altronde abbiamo già discusso come il pT di W sia diverso da zero, e il risultato è la distribuzione di pT µ mostrata in Figura 4.7. Sintetizzando, le differenze tra gli spettri in pT dei leptoni finali, sono la convoluzione di tre effetti: • W è prodotto principalmente con elicità left-handed ad opera dei quark di valenza, anch’essi left-handed, • il momento trasverso di W è diverso da zero, • W si accoppia ai fermioni con la struttura V − A. 116 4.3 4.3. CALCOLO DELL’ACCETTANZA Calcolo dell’accettanza Calcolerò ora l’accettanza applicando i tagli cinematici in Tabella 4.2: il risultato è esposto in Tabella 4.4, per Herwig e Pythia, in Stand Alone e in Athena, con gli elettroni e con i muoni come stati finali. Accettanze [%] Canale Stand Alone Athena Herwig Pythia Herwig Pythia W → eν 43.38 43.18 42.52 42.84 W → µν 46.12 45.29 45.45 45.99 Z → e+ e− 36.03 36.06 35.71 35.22 Z → µ+ µ− 40.92 40.06 39.98 39.75 Tabella 4.4: Accettanze a Leading Order: confronto tra Herwig e Pythia, in Stand Alone e in Athena, con elettroni e muoni come stati finali. Come ci aspettiamo, poiché a livello di generazione elettroni e muoni sono particelle identiche − leptoni a massa nulla − e al tempo stesso stiamo imponendo tagli più restrittivi sugli elettroni (le regioni morte a 1.37 < |η| < 1.52), le accettanze sono minori per gli elettroni che per i muoni. Per ogni canale, i valori sono in accordo; con l’inclusione dei tool di Athena, le accettanze diminuiscono sistematicamente, in modo coerente con le distribuzioni in Figura (4.2) e (4.3), dove le curve dei generatori in Athena sono sempre al di sotto di quelle in Stand Alone. L’errore da associare all’accettanza è quello binomiale. Si presuppone che l’applicazione dei tagli abbia probabilità di “successo” (l’evento passa il taglio) pari ad A0 (accettanza vera nel linguaggio binomiale). Il valore di aspettazione per gli eventi accettati è dunque hki = A0 N , con una deviazione standard pari a: p (4.7) σk = A0 (1 − A0 )N ma poiché per definizione la “vera” accettanza è inconoscibile, la dobbiamo sostituire con la nostra stima A e dividere per N , cosı̀ da avere: s µ ¶ 1 k δA = k 1− . (4.8) N N Questa espressione contiene comportamenti non fisici ai bordi: se osserviamo 4.3. CALCOLO DELL’ACCETTANZA 117 un singolo evento, la probabilità di successo è A ± δA = 1 ± 0 e quella di fallimento A ± δA = 0 ± 0, entrambe misure senza incertezza; questo accade tutte le volte che abbiamo k = 0 oppure k = N . Per quanto riguarda le accettanze per W e Z, d’altronde, ci manteniamo sempre su valori lontani sia da 1 sia da 0, quindi l’approssimazione binomiale è soddisfacente. Per valori tipici (N = 50000 e A = 0.450) si ha: • A ± δA = 0.450 ± 0.003 con la propagazione dell’errore, • A ± δA = 0.450 ± 0.002 col metodo binomiale. I risultati sono dello stesso ordine. Gli errori in Tabella 4.5 sono appunto calcolati col metodo binomiale; in questa Tabella, mostriamo un confronto riassuntivo tra le accettanze per i vari generatori, a Leading ed a Next to Leading Order, tutti in Athena tranne Horace, poiché esso, durante lo svolgimento di questo lavoro, non vi era ancora interfacciato. I canali considerati − e d’ora in avanti sarà sempre cosı̀ − sono solo quelli con i muoni nello stato finale. W + → µ+ ν µ W − → µ− ν µ Z → µ+ µ − Herwig 45.45 ± 0.30 39.98 ± 0.26 Pythia 45.99 ± 0.31 39.75 ± 0.26 Horace Born 45.82 ± 0.30 46.01 ± 0.31 38.93 ± 0.25 Horace NLO 47.87 ± 0.32 47.61 ± 0.32 42.01 ± 0.28 Mc@Nlo 48.31 ± 0.34 48.28 ± 0.34 42.62 ± 0.29 Tabella 4.5: Accettanze a LO e a NLO, con i tagli descritti in Tabella 4.2. Nel caso di Mc@Nlo, è stata effettuata la propagazione standard per il calcolo degli errori, in quanto per questo generatore, chiamando w il peso dell’evento, l’accettanza è data da: A= a−b x eventi accettati(w > 0) − eventi accettati(w < 0) ≡ ≡ (4.9) eventi totali(w > 0) − eventi totali(w < 0) c−d y 118 4.3. CALCOLO DELL’ACCETTANZA quindi l’errore associato si calcola come: s ¤ £ ¤ x2 1£ 2 + (δb)2 + (δc)2 + (δd)2 δA = (δa) y2 y4 (4.10) √ con δi ≡ i. Visualizziamo le accettanze cosı̀ calcolate in Figura 4.11 per W → µν, in Figura 4.12 per Z → µ+ µ− (b). Per quanto riguarda Z, i valori centrali calcolati con Horace sono più bassi di quelli calcolati con gli altri generatori, sia a Leading sia a Next to Leading Order, ma in accordo entro gli errori statistici. Per quanto riguarda W , invece, con Horace e con Mc@Nlo possiamo generare separatamente W + e W − , e in questi casi le accettanze per i due processi risultano molto simili. Sia per W sia per Z troviamo un aumento dell’accettanza andando da Leading a Next to Leading Order, aumento che possiamo quantificare in ≈ 7% per Z e in ≈ 4% per W , comunque minori dell’aumento del ≈ 12% trovato per le sezioni d’urto. Figura 4.11: Rappresentazione delle accettanze in Tabella 4.5 per W → µνµ . 4.3. CALCOLO DELL’ACCETTANZA 119 Figura 4.12: Rappresentazione delle accettanze in Tabella 4.5 per Z → µ+ µ− . 120 Capitolo 5 Errori sistematici nel calcolo dell’accettanza Nel Capitolo 4 ho calcolato l’accettanza geometrica per la produzione e il decadimento leptonico dei bosoni vettori intermedi W e Z, con stati finali elettronici e muonici. Sono stati impiegati a tale scopo diversi generatori Monte Carlo, sia a Leading sia a Next to Leading Order. In questo Capitolo, descriverò lo studio da me effettuato dell’errore sistematico teorico, per il solo stato finale muonico. Questo studio si svolge a Next to Leading Order, con l’ausilio dei generatori Mc@Nlo e Horace. Partendo dalla configurazione di default del Monte Carlo, descritta in Sezione 4.2, ho stimato il contributo all’errore sull’accettanza dato dai diversi parametri, variandoli uno alla volta. Il modo in cui ciò viene fatto, dipende dal parametro stesso: alcuni − come le correzioni elettrodeboli − vengono inclusi o esclusi, altri − come il momento trasverso intrinseco dei partoni − vengono variati in modo sistematico. Cominciamo analizzando l’effetto delle PDF, che risulterà quello dominante. Confronterò a tal proposito valori di best fit e incertezze ottenute col metodo hessiano CTEQ, per i set di PDF 6, 6.1 e 6.6; questi risultati verranno comparati con quelli ottenuti tramite il metodo delle reti neurali (NN PDF). Mi soffermerò inoltre sulle correlazioni indotte sulle accettanze dai parametri che modellano le PDF. Di seguito descriverò l’errore sistematico derivante dall’aggiunta di un momento trasverso intrinseco per i partoni, dalla variazione della quantità lecita di radiazione di stato iniziale, dall’inclusione delle correzioni di QED e di quelle elettrodeboli al processo duro elementare. 122 5.1 5.1.1 5.1. PDF PDF CTEQ 6.1 Come discusso in Sezione 3.3.2, il set di PDF ufficiale di ATLAS a Next to Leading Order è il set di best fit CTEQ 6M [41]: pubblicato nel 2002, l’anno successivo è stato aggiornato dal rilascio del set CTEQ 6.1M [53], che include nuovi dati di jet ad alta energia. Oltre al set di best fit, le CTEQ 6 e 6.1 comprendono entrambe 40 set di errori, corrispondenti ai 20 autovettori del metodo hessiano (Sezione 3.3.1). Per stimare l’incertezza sull’accettanza ∆A, ottenuta fissando il criterio di tolleranza (3.38): ∆χ2globale ≤ T 2 = 100 , potremmo usare la master formula hessiana (3.46), che qui riscriviamo: v u 20 X£ ¤2 1u ∆A = t A(Sk+ ) − A(Sk− ) (5.1) 2 k=1 dove A(Sk± ) è l’accettanza calcolata in corrispondenza del set di PDF Sk , ottenuto spostandosi di T dal punto di minimo, rispettivamente in direzione + e –, lungo l’autovettore k. In tal modo però stiamo presupponendo che l’accettanza cresca in una direzione e decresca nell’altra; se invece, per un certo k, le variazioni di A(Sk+ ) e di A(Sk− ) vanno nello stesso verso, la (5.1) non riesce a descriverne il comportamento in modo corretto. Inoltre, la (5.1) è ottenuta sviluppando χ2globale al secondo ordine (equazione (3.39)), e A al primo, entrambe ipotesi che non valgono per l’accettanza − essendo questa l’integrale di convoluzione tra PDF e sezioni d’urto partoniche, con l’aggiunta dei tagli cinematici. Il modo più generale per considerare variazioni asimmetriche consiste allora nell’usare la formula seguente, dove per brevità definiamo A(Sk± ) = A± k: qP ¢¤2 ¡ + 20 £ − + ∆A = k=1 max Ak − A0 , Ak − A0 , 0 (5.2) qP ¢¤ £ ¡ 2 20 − + ∆A− = k=1 max A0 − Ak , A0 − Ak , 0 in modo da considerare la massima variazione in ciascuna direzione. Nel − caso che, per un dato k, le differenze A+ k − A0 e Ak − A0 siano per esempio entrambe negative, la (5.2) prescrive di prendere 0 come massima variazione in direzione positiva. 5.1. PDF 123 La collaborazione CTEQ trova che la massima variazione dal valore di best fit per le sezioni d’urto si ha lungo gli autovettori 15 e 16(1 ) [41]. Ho quindi deciso di applicare la (5.2), piuttosto che la (5.1), per il calcolo dell’accettanza per W + , W − e Z in muoni. A tal fine, ho simulato campioni di 50 mila eventi, con Mc@Nlo in Stand Alone e in Athena, nella configurazione di default già descritta, variando i set di PDF uno alla volta, e applicando i tagli in Tabella 4.2. Secondo l’accordo di Les Houches [70], il set di best fit CTEQ 6.1M è contraddistinto dal numero 10100, mentre i set da 10101 a 10140 sono i set di errori. In Figura 5.1 vediamo, per ogni processo, il − numero di autovettori per cui le differenze A+ k − A0 e Ak − A0 sono entrambe maggiori (M) di A0 , entrambe minori (m), oppure una maggiore e una minore. Il risultato che si trova è che la simmetria non è la caratteristica dominante; questo conferma la scelta di usare la (5.2) per calcolare ∆A. Figura 5.1: Simmetria delle accettanze per i k = 1, . . . , 20 autovettori hessiani. − Nelle Figure 5.2 e 5.3 mostriamo, per ogni k, le differenze A+ k − A0 e Ak − A0 a confronto con A0 . A differenza di quanto descritto in [41] per le sezioni d’urto di produzione dei jet, dove solo la prima metà degli autovettori esibiva un comportamento simmetrico, per l’accettanza non si osserva alcun tipo di sistematica. Come aspettato, gli autovettori 15 e 16 (set da 29 a 32) presentano grandi variazioni, per tutti e tre i processi considerati. Con riferimento alla Figura 5.2(a), possiamo identificare i seguenti comportamenti estremi: • simmetria/asimmetria: set 25 e 26 / set 1 e 2, • scarsa variazione dal valore di best fit: set 17 e 18, • grande variazione dal valore di best fit: set 31 e 32. 1 Autovettore 15 significa 15esimo per grandezza, in ordine decrescente da 1 a 20. I primi 10 sono quelli meglio vincolati e dal comportamento più simmetrico, mentre i restanti corrispondono a direzioni piatte nello spazio dei parametri, sono dominati dall’incertezza sulla distribuzione gluonica e spesso presentano un comportamento non lineare [41]. 124 5.1. PDF (a) Accettanza per W + → µ+ ν. (b) Accettanza per W − → µ− ν. − Figura 5.2: Differenze A+ k − A0 e Ak − A0 a confronto con A0 (k = 1, . . . , 20), per W + e W − in muoni (Mc@Nlo in Athena). 5.1. PDF 125 − Figura 5.3: Differenze A+ k − A0 e Ak − A0 a confronto con A0 (k = 1, . . . , 20), per Z in muoni (Mc@Nlo in Athena). In Figura 5.4 (a), (b) e (c) vediamo i risultati conclusivi per l’accettanza in funzione dei 40+1 set, con gli errori statistici calcolati col metodo binomiale, mentre in Figura 5.5 (a), (b) e (c) confrontiamo le stesse accettanze in Athena e in Stand Alone. Ne risulta che, analogamente a quanto trovato nel Capitolo precedente per Herwig e Pythia, utilizzare un generatore Monte Carlo in Stand Alone o in Athena non fa differenza, all’interno dell’errore statistico. In particolare notiamo che W − e Z hanno accettanze di best fit praticamente coincidenti tra Stand Alone e Athena, mentre per W + l’accettanza varia dello ≈ 0.4%. In Tabella 5.1 mostriamo i valori ottenuti per A0 e gli errori associati ±∆A. Stand Alone Athena A0 +∆A −∆A A0 +∆A −∆A W + → µ+ νµ 48.13 1.77 0.79 48.31 1.29 0.86 W − → µ− ν µ 48.29 1.18 1.49 48.28 1.46 1.02 Z → µ+ µ− 42.62 1.51 1.19 42.62 1.74 0.79 Tabella 5.1: Accettanze di best fit ed errori hessiani per le CTEQ 6.1. 126 5.1. PDF (a) W + → µ+ ν (b) W − → µ− ν (c) Z → µ+ µ− Figura 5.4: Accettanza in funzione dei 40+1 set CTEQ 6.1 (Mc@Nlo in Athena): errori statistici binomiali. 5.1. PDF 127 (a) W + → µ+ ν (b) W − → µ− ν (c) Z → µ+ µ− Figura 5.5: Accettanza in funzione dei 40+1 set di errori CTEQ 6.1: confronto tra Mc@Nlo in Athena e in Stand Alone. 128 5.1. PDF L’asimmetria degli errori è dimostrata ancora una volta dal fatto che in tutti i casi tranne uno (W − → µ− ν µ in Stand Alone) l’errore positivo è maggiore di quello negativo. La variazione massima (1.77%) è raggiunta da +∆A per W + in Stand Alone, quella minima (0.79%) da −∆A per W + in Stand Alone e per Z in Athena. 5.1.2 Confronto con le CTEQ 6 e 6.6 Di seguito vengono confrontati i risultati appena ottenuti con quelli del set ufficiale di ATLAS (CTEQ 6), e delle CTEQ 6.6 che, come abbiamo discusso in Sezione 3.3.3, costituiscono il primo tentativo sistematico di inclusione degli effetti dovuti alla massa dei quark pesanti. Tale inclusione provoca un aumento importante nelle sezioni d’urto di W e Z , per cui è interessante studiarne l’impatto sull’accettanza. Ricordiamo che le CTEQ 6.6 comprendono 44 set di errori (a causa dei due parametri liberi aggiuntivi per il quark strange), quindi non possiamo confrontare, per il set k-simo, l’accettanza ottenuta con le CTEQ 6 o 6.1 con quella ottenuta con le 6.6. In questo studio, ho considerato separatamente i quattro set forniti dall’analisi 6.6 con una componente intrinseca di charm diversa da zero. Ripeto dunque la procedura seguita per le CTEQ 6.1, simulando con Mc@Nlo un sample per ogni set, e calcolando poi l’errore col metodo hessiano. In questo caso viene usata solo la modalità Stand Alone, avendo verficato nella Sezione precedente che il comportamento in Athena è analogo. La Figura 5.6 (a), (b) e (c) mostra l’andamento delle sezioni d’urto teoriche inclusive in funzione dei set di errori, rispettivamente per W + , W − e Z, coi tre gruppi di PDF appena descritti. La sezione d’urto aumenta del ∼ 6% con l’inclusione degli effetti di massa, come predetto teoricamente: a piccoli e medi x, infatti, la diminuzione nella distribuzione dei sapori pesanti provoca un aumento in quella dei sapori leggeri, u e d, che sono i principali responsabili della produzione di W e Z; vediamo inoltre che le sezioni d’urto per le CTEQ 6 e le 6.1 sono praticamente coincidenti. In Figura 5.7 (a), (b) e (c) troviamo invece le accettanze; in questo caso, si osserva una certa discrepanza per Z, comunque compresa all’interno degli errori statistici. 5.1. PDF 129 Cross sections vs CTEQ6 error sets for W -> µ+ ν Cross section (nb) + CTEQ 6.6 12.8 CTEQ 6 12.6 CTEQ 6.1 12.4 12.2 12 11.8 11.6 11.4 11.2 11 10.8 10.6 0 5 10 15 20 25 30 35 40 45 Error set (a) W + → µ+ ν - Cross section (nb) Cross sections vs CTEQ6 error sets for W -> µ- ν CTEQ 6.6 9.4 CTEQ 6 9.2 CTEQ 6.1 9 8.8 8.6 8.4 8.2 8 7.8 0 5 10 15 20 25 30 35 40 45 Error set (b) W − → µ− ν Cross section (nb) Cross sections vs CTEQ6 error sets for Z-> µ+ µ- CTEQ 6.6 CTEQ 6 2.2 CTEQ 6.1 2.15 2.1 2.05 2 1.95 1.9 1.85 1.8 0 5 10 15 20 25 30 35 40 45 Error set (c) Z → µ+ µ− Figura 5.6: Sezione d’urto per i processi considerati, in funzione dei set di errori CTEQ (Mc@Nlo in Athena). 130 5.1. PDF Acceptances vs CTEQ6 error sets for W -> µ+ ν Acceptance (%) + CTEQ 6.6 CTEQ 6 49.5 CTEQ 6.1 49 48.5 48 47.5 47 0 5 10 15 20 25 30 35 40 45 Error set (a) W + → µ+ ν - Acceptance (%) Acceptances vs CTEQ6 error sets for W -> µ- ν CTEQ 6.6 50 CTEQ 6 CTEQ 6.1 49.5 49 48.5 48 47.5 0 5 10 15 20 25 30 35 40 45 Error set (b) W − → µ− ν Acceptance (%) Acceptances vs CTEQ6 error sets for Z-> µ+ µ- CTEQ 6.6 CTEQ 6 44.5 CTEQ 6.1 44 43.5 43 42.5 42 41.5 0 5 10 15 20 25 30 35 40 45 Error set (c) Z → µ+ µ− Figura 5.7: Accettanza per i processi considerati, in funzione dei set di errori CTEQ (Mc@Nlo in Athena). 5.1. PDF 131 In Tabella 5.2 mostriamo un elenco riassuntivo dei valori trovati per le accettanze di best fit e gli errori hessiani, dove evidenziamo in neretto i valori di riferimento delle CTEQ 6.1. A0 + ∆A - ∆A µ ¶ δA max × 100 A W + 6.1 48.13 1.77 0.79 3.682 W+ 6 48.38 0.932 1.11 2.29 W + 6.6 48.47 2.06 1.11 4.25 W − 6.1 48.29 1.18 1.49 3.08 W− 6 48.07 2.45 0.42 5.10 W − 6.6 48.89 0.89 1.71 3.49 Z 6.1 42.62 1.51 1.19 3.540 Z 6 43.15 0.39 2.79 6.47 Z 6.6 43.21 2.53 0.29 5.86 Tabella 5.2: Confronto delle accettanze di best fit e degli errori hessiani, tra CTEQ 6, 6.1 e 6.6, simulate con Mc@Nlo in Stand Alone. L’ultima colonna della Tabella 5.2 contiene il valore maggiore tra ±∆A, che assumiamo come stima conservativa per l’errore simmetrizzato da associare con A0 . Notiamo che i valori in questa colonna sono gli unici a rappresentare una percentuale dell’accettanza stessa, essendo divisi ognuno per A0 . Osserviamo che, passando dalle CTEQ 6.1 alle 6.6, l’errore massimo cresce sistematicamente: dal 3.7% al 4.2% per W + , dal 3.1% al 3.5% per W − , dal 3.5% addirittura al 5.9% per Z. I valori per le CTEQ 6 invece non mostrano un andamento netto: passando dalle CTEQ 6 alle 6.6, l’errore massimo aumenta per W + , ma diminuisce per W − e Z. Questo è coerente col fatto che il set CTEQ 6.1, pur non essendo quello ufficiale di ATLAS, ne rappresenta la versione migliorata prima dell’inclusione degli effetti di massa. In Tabella 5.3 confrontiamo invece i valori di best fit di sezioni d’urto e accettanze. Calcoliamo lo shift per la variabile X, δX = X6.6M − X6.1M , e lo dividiamo per la media. Per tutti e tre i processi, la variazione dell’accettanza è minore dell’ 1%. 132 5.1. PDF δσ × 100 σ δA × 100 A W+ 5.6 0.2 W− 5.5 0.7 Z 6.2 0.1 Tabella 5.3: Differenze relative tra CTEQ 6.6M e 6.1M, per le sezioni d’urto e le accettanze in Tabella 5.2. Controlliamo infine che l’andamento delle variabili d’interesse − pseudorapidità e impulsi trasversi dei leptoni uscenti − non sia modificato passando dal set di best fit CTEQ 6.1M al 6.6M. In Figura 5.8 confrontiamo pT ed η del muone prodotto da W − (Mc@Nlo in Athena), dopo aver applicato i tagli di accettanza. Le sezioni d’urto con cui normalizziamo le distribuzioni sono: 8316 pb per CTEQ 6.1M e 8857 pb per CTEQ 6.6M. Figura 5.8: Confronto tra le distribuzioni ottenute coi set CTEQ 6.1M e 6.6M, per pT ed η di µ− in W − → µ− ν (Mc@Nlo in Athena). Ci siamo focalizzati su W − perché per questo canale il valore di best fit dell’accettanza ha la variazione maggiore (Tabella 5.3). I due grafici inferiori in Figura 5.8 mostrano il rapporto tra le distribuzioni sovrastanti; i rapporti sono compatibili con 1, tranne nelle zone (alti pT , valori estremi di η) in cui la statistica bassa causa fluttuazioni non fisiche. 5.1. PDF 5.1.3 133 Correlazioni In Sezione 3.3.4 è stata descritta la tecnica usata dalla collaborazione CTEQ per quantificare la correlazione tra le sezioni d’urto di W e Z, correlazione dovuta ai gradi di libertà comuni dati dalle PDF. Più le variabili sono correlate, e più la curva che le descrive da circonferenza diventa ellisse, e infine retta. La conclusione dello studio [35] condotto su σW e σZ , è che si osserva una forte correlazione per le CTEQ 6.1, debole per le CTEQ 6.6. Questo risultato ha una duplice interpretazione: se due variabili sono scorrelate è più semplice tenerne sotto controllo i gradi di libertà in modo indipendente, d’altronde la forte correlazione permette di ridurre l’incertezza sul rapporto. Ripetiamo ora quest’analisi per le accettanze. Se chiamiamo ∆X e ∆Y le incertezze sulla quantità X, Y calcolate con la master formula simmetrica (5.1), e riscaliamo le variabili secondo la (3.56), δX = ∆X cos θ (5.3) ∆X δY = (Y − Y0 ) ∆Y = ∆X cos(θ + φ) al variare di θ tra 0 e 2π si descrive una curva che ha inclinazione fissa (π/4 se cos φ > 0), e la cui forma dipende dalla correlazione. In Figura 5.9 si può vedere il risultato per la correlazione tra le accettanze di W e Z (rispettivamente asse X e Y ) con le CTEQ 6.1 e 6.6. Su ogni grafico è riportato il valore di cos φ: vediamo che la correlazione è maggiore per le 6.1 (cos φ = 0.78) che per le 6.6 (cos φ = 0.64). Notiamo che ci stiamo riferendo al processo W → µν, ricostruito a partire da W + e W − simulati con Mc@Nlo e pesati con le rispettive sezioni d’urto. Correlazione tra le accettanze di W e Z con le PDF CTEQ6.6 : cos(ϕ )=0.64 1 Y-Y0 dopo il rescaling Y-Y0 dopo il rescaling Correlazione tra le accettanze di W e Z con le PDF CTEQ6.1 : cos(ϕ )=0.78 0.5 0 1 0.5 0 -0.5 -0.5 -1 -1 -1 -0.5 0 0.5 1 X-X0 dopo il rescaling (a) CTEQ 6.1 (cos φ = 0.78). -1 -0.5 0 0.5 1 X-X0 dopo il rescaling (b) CTEQ 6.6 (cos φ = 0.64). Figura 5.9: Correlazione tra AW e AZ indotta dai gradi di libertà delle PDF. 134 5.1. PDF (a) CTEQ 6 (cos φ = 0.51). (b) CTEQ 6.1 (cos φ = 0.37). (c) CTEQ 6.6 (cos φ = 0.34). Figura 5.10: Correlazione tra AW + e AW − indotta dai gradi di libertà delle PDF. In Figura 5.10 vediamo invece le curve per W + e W − (rispettivamente asse X e Y ), con le CTEQ 6, 6.1 e 6.6. Come indicano i valori del coseno, la correlazione, costante per le CTEQ 6.1 e le 6.6, in entrambi i casi è minore di quella per le 6. Se non riscaliamo gli assi, e grafichiamo i valori assoluti delle accettanze, le curve che ne risultano sono tanto più sovrapposte quanto più le accettanze calcolate con le diverse PDF sono compatibili tra loro. In Figura 5.11 questo viene fatto per W + ÷ W − (a) e per W + ÷ Z (b). I punti al centro di ogni ellisse indicano il valore di best fit, mentre le curve corrispondono a un livello di confidenza del 95%, ottenuto ancora una volta con la master formula per gli errori simmetrici. In Figura 5.11(a) sono inserite anche le accettanze calcolate con una componente intrinseca di quark charm diversa da zero (Sezione 3.3.3). A differenza di quanto ricavato in [35] per le sezioni d’urto e mostrato in Figura 3.20(a), per le accettanze si trova ottimo accordo tra i risultati ottenuti con tutte le PDF considerate. I best fit delle versioni precedenti (CTEQ 6 e 6.1) sono contenuti dall’ellisse 6.6, cosı̀ come i punti a componente intrinseca di charm diversa da zero, che risultano compatibili anche con l’analisi 6.1. In effetti, in questo caso la variazione minima dell’accettanza è giustificata dal fatto che una componente intrinseca siffatta è richiesta essere hxic+c . 0.02 dai dati attuali. 5.1. PDF 135 (a) W + ÷ W − (b) W + ÷ Z Figura 5.11: Compatibilità tra i range hessiani di accettanza. 5.1.4 Neural Network PDF Come discusso in Sezione 3.4, la versione 1.0 delle Neural Network (NN) PDF [3] contiene un insieme ristretto di 100+1 set di PDF (sui totali 1000+1), utili da usare con i generatori Monte Carlo. Questi 100+1 set sono costituiti da 100 set di errori q (k) e da un set centrale q (0) ottenuto come la media gaussiana dei precedenti. Abbiamo visto che, per la generica variabile che dipende dalle PDF, F[{q}], la miglior stima risulta la media calcolata sui 100 set di errori, hF[{q}]i, piuttosto che il singolo valore calcolato in corrispondenza del set centrale, F[{q (0) }]. Ho simulato dunque i decadimenti dei bosoni vettori in muoni con i 100+1 set delle NN PDF, con Mc@Nlo in modalità Stand Alone (50 mila eventi per campione), e ho calcolato l’accettanza per ognuno di essi: le distribuzioni che 136 5.1. PDF se ne ricavano vengono fittate con delle Gaussiane (Figura 5.13 (b), (d) ed (f)). Lo stesso ho fatto per le sezioni d’urto teoriche relative ad ognuno di questi set (Figura 5.13 (a), (c) ed (e)). I valori di χ2 che ne risultano, divisi per i gradi di libertà, sono raccolti in Tabella 5.4. χ2 /ndf W + → µ+ ν Sezione d’urto Accettanza W − → µ− ν Z → µ+ µ− 57.5/33 = 1.7 62/38 = 1.6 46/36 = 1.3 78/36 = 2.2 60/20 = 3 106/26 = 4.1 Tabella 5.4: Valori di χ2 ottenuti dal fit gaussiano alle sezioni d’urto e alle accettanze in Figura 5.5. Risulta evidente che l’ipotesi gaussiana è soddisfatta dalle sezioni d’urto meglio che dalle accettanze (χ2 /ndf tra 1 e 2): per queste ultime, infatti, l’andamento gaussiano viene distorto dalla selezione degli eventi fatta tramite i tagli cinematici. Possiamo comunque stimare in modo qualitativo l’accettanza e il suo errore per mezzo della media hA i e della larghezza σ(A) della distribuzione risultante. In Tabella 5.5 vengono confrontati i valori cosı̀ ottenuti con quelli dell’analisi hessiana (l’accettanza di best fit A0 e gli errori ±∆A). Stiamo usando le PDF CTEQ 6.1 per coerenza col fatto che l’analisi NN non comprende gli effetti di massa per i quark pesanti (Sezione 3.4); tutti i campioni sono stati simulati con Mc@Nlo Stand Alone (i risultati hessiani sono quelli dati in Tabella 5.1). hA i 2 σ(A) A0 Hess +∆A Hess −∆A Hess W + → µ+ ν 48.27 1.30 48.13 1.77 0.79 W − → µ− ν 49.62 1.88 48.29 1.18 1.49 Z → µ+ µ− 43.35 1.37 42.62 1.51 1.19 Tabella 5.5: Confronto tra l’analisi NN e l’analisi hessiana (CTEQ 6.1), con Mc@Nlo Stand Alone. I risultati in Tabella 5.5 mostrano che le accettanze NN crescono rispetto a quelle hessiane, restando comunque compatibil entro due deviazioni standard. Come osservato in precedenza (Sezione 3.3.1), l’errore hessiano A0 ± ∆A corrisponde ad un livello di confidenza del 95%, quindi va confrontato con l’intervallo 2σ ottenuto dall’analisi NN. Cosı̀ facendo, si vede che gli errori 5.1. PDF 137 calcolati nei due modi sono dello stesso ordine: per W + e Z l’errore NN risulta intermedio tra i due valori hessiani, mentre per W − esso è maggiore di entrambi. Ciò è molto interessante, se si considera che le bande di incertezza per le distribuzioni partoniche, trovate dall’analisi NN, sono in tutti i casi maggiori delle bande calcolate dalle altre collaborazioni; tale effetto non si propaga sull’accettanza. Lo scarto maggiore tra i risultati delle due analisi, si nota a proposito della differenza tra W + e W − : mentre nel caso hessiano le accettanze sono praticamente coincidenti, nel caso NN la differenza relativa è del ≈ 2.7%. In Figura 5.12 confrontiamo le distribuzioni di pT (a) e di η (b) per il muone uscente da W + e da W − , con i set di best fit delle NN PDF e delle CTEQ 6.1, dopo l’applicazione dei tagli cinematici sulle altre variabili. Le sezioni d’urto differenziali dσ/dpT e dσ/dη sono ottenute normalizzando i conteggi con le relative sezioni d’urto: σW + = 11320 pb σW + = 11520 pb σW − = 8316 pb σW − = 8180 pb CTEQ 6.1 set di best fit NN PDF set medio A meno di fluttuazioni statistiche, non si osservano differenze di rilievo nelle distribuzioni. Tµ dσ/d p (pb/GeV) Tµ per W ->µ ν, con p Tν > 20 GeV e |η|µ< 2.5 Distribuzione di ηµ per W ->µ ν, con p , p > 20 GeV Tµ W piu NNPDF def Entries Mean RMS 400 17913 32.49 10.46 W meno NNPDF 350 W piu CTEQ6.1M 300 W meno CTEQ6.1M dσ/d ηµ(pb) Distribuzione di p Tν def W piuEntries NNPDF 24132 Mean RMS 200 -0.02909 2.283 W meno NNPDF 180 W piu CTEQ6.1M 160 140 250 120 200 100 W meno CTEQ6.1M 80 150 60 100 40 50 0 0 20 10 20 30 40 50 60 p Tµ (a) CTEQ 6.1 70 (GeV) 0 -6 -4 -2 0 2 4 6 ηµ (b) CTEQ 6.6 Figura 5.12: Confronto tra le distribuzioni relative al muone uscente da W + e W − , simulate con le NN PDF e con le CTEQ 6.1 (Mc@Nlo Stand Alone). In Figura 5.13 mostriamo le distribuzioni di sezioni d’urto e accettanze, per i tre processi studiati, fittate con una gaussiana. Su ogni grafico sono riportati anche i risultati ottenuti con alcuni dei set di PDF più recenti forniti dalle altre collaborazioni: i già discussi CTEQ 6M, 6.1M, 6.6M per quanto riguarda le CTEQ, MRST2001E [32] e MRST2004 [33], e Alekhin02NLO [45]. Tutti i set sono i set di best fit delle rispettive analisi, e sono accurati a Next to Leading Order. I set CEQ6.6M e Alekhin02NLO sono gli unici a incorporare gli effetti di massa per i quark c e b, ma lo fanno in maniera diversa: l’analisi 138 5.1. PDF CTEQ usa lo schema VFNS, quella di S. Alekhin usa invece il meno accurato FFNS (Sezione 3.3.3). In entrambi i casi, vediamo che le sezioni d’urto aumentano rispetto a quelle calcolate con partoni a massa nulla. I valori di best fit delle accettanze sono sempre compresi nell’inviluppo gaussiano; nel caso di W − , notiamo che il valore centrale NN è maggiore di tutti gli altri risultati. (a) σ(W + → µ+ ν) (b) A(W + → µ+ ν) (c) σ(W − → µ− ν) (d) A(W − → µ− ν) (e) σ(Z → µ+ µ− ) (f) A(Z → µ+ µ− ) Figura 5.13: Sezioni d’urto e accettanze simulate con i 100+1 set Neural Network, a confronto con i risultati dei più recenti best fit delle altre collaborazioni. 5.2. MOMENTO TRASVERSO INTRINSECO DEI PARTONI 139 5.2 Momento trasverso intrinseco dei partoni Per stimare l’impatto sull’accettanza di un momento trasverso intrinseco dei partoni non nullo (Sezione 3.1.4), ipotizziamo una distribuzione gaussiana per kT intrinseco, centrata a 0, con larghezza variabile tra 0 (valore di default) e 2 GeV (il massimo valore permesso dai fit di CDF [9], [21]). Ho simulato dunque campioni di eventi W e Z in muoni, con Mc@Nlo in Athena, in cui faccio variare la larghezza della gaussiana, con passi di 250 MeV. Le accettanze cosı̀ ottenute vengono fittate con una retta, forzando l’intercetta (p0 in Figura 5.14) a coincidere col valore dell’accettanza di default (hkT i = 0). Per tutti e tre i processi studiati, il coefficiente angolare che ne risulta (p1 ) è compatibile con 0, quindi se ne deduce che la presenza di un kT intrinseco non ha un effetto netto sull’accettanza. Verificato ciò, possiamo fittare i punti con una costante, e se forziamo ancora l’intercetta a coincidere con l’accettanza di default, il fit ci fornisce l’errore su questo valore, che rappresenta la prima stima dell’errore sistematico dovuto al kT intrinseco. Un modo indipendente per stimare l’errore, consiste nel calcolare la differenza tra Adef e l’accettanza ottenuta con un valore intermedio, kT intrinseco = 1 GeV; in Tabella 5.6 i risultati di questo secondo metodo sono confrontati con quelli del fit prima discusso. Gli errori che ne risultano sono praticamente coincidenti, e sono tutti dell’ordine dello 0.1%, molto minore dell’effetto calcolato per le PDF. Possiamo dunque concludere che l’impatto sull’accettanza di un kT intrinseco compreso tra 0 e 2 GeV è trascurabile. W+ W− Z Accettanza di default (%) 48.31 48.28 42.62 ± δA % (fit) 0.08 0.15 0.14 ± δA % (Adef − A1 GeV ) 0.08 0.13 0.15 Tabella 5.6: Errore sistematico dovuto a una componente intrinseca di momento trasverso partonico compresa tra 0 e 2 GeV. 5.3. RADIAZIONE DI STATO INIZIALE Accettanza (%) Accettanza per W+ in µ+ ν vs rms kT intrinseco Prob p0 49 p1 χ2 / ndf - χ2 / ndf 2.679 / 7 0.9131 48.31 ± 0.1516 0.04485 ± 0.1273 48.5 Accettanza per W in µ- ν vs rms k T intrinseco Accettanza (%) 140 Prob 49 0.7493 / 7 0.9979 p0 48.28 ± 0.2686 p1 -0.03817 ± 0.23 48.5 48 48 47.5 47.5 0 0.5 1 47 0 1.5 2 rms k_T intrinseco (GeV) 0.2 0.4 0.6 (a) W + → µ+ ν 1 1.2 1.4 1.6 1.8 2 2.2 rms k_T intrinseco (GeV) (b) W − → µ− ν Accettanza per Z in µ+ µ- vs rms kT intrinseco Accettanza (%) 0.8 χ2 / ndf Prob 43.5 0.8175 / 7 0.9973 p0 42.62 ± 0.2551 p1 -0.06969 ± 0.2157 43 42.5 42 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2 rms k_T intrinseco (GeV) (c) Z → µ+ µ− Figura 5.14: Accettanze calcolate con Mc@Nlo in Athena − variando la larghezza della distribuzione gaussiana di kT intrinseco − fittate con una retta. 5.3 Radiazione di stato iniziale Il parametro che controlla la radiazione di stato iniziale (ISR) in Herwig si chiama qspac, ed equivale alla scala di energia a cui si ferma la backward evolution (Sezione 3.5.2) e vengono ricostruiti i protoni iniziali. Di default questo parametro vale qspac = 2.5 GeV: per valori maggiori si ha una quantità maggiore di radiazione space-like. Ho simulato quindi, con Mc@Nlo in Athena, campioni di W + , W − e Z in cui si richiede qspac=0(2 ), 1, 2.5 GeV, per studiare la dipendenza dell’accettanza dalla radiazione di stato iniziale. Purtroppo qspac non può essere variato in modo più fine, per cui non è possibile ripetere per questo effetto lo studio fatto per il kT intrinseco nella Sezione precedente. Possiamo comunque renderci conto di cosa succede alle distribuzioni dei bosoni vettori e dei leptoni finali quando diminuiamo la quantità permessa di ISR. 2 Porre qspac = 0 GeV equivale a spegnere la radiazione di stato iniziale all’interno del generatore Monte Carlo. Questo non esclude però la radiazione di stato finale, che è di tipo time-like; in particolare, restano permessi lo splitting e l’emissione soffice da parte dei gluoni che a NLO accompagnano il bosone vettore. 5.3. RADIAZIONE DI STATO INIZIALE 141 In Sezione 4.2.1 ho già mostrato l’impatto della ISR sugli eventi simulati con Herwig a LO, per la distribuzione in angolo azimutale (Figura 4.5) e per quella in pT del muone prodotto da W (Figura 4.7). Vediamo ora, all’ordine superiore, com’è distribuita la sezione d’urto differenziale dσ/dpT per µ+ prodotto da W + , al variare di qspac. Sulla distribuzione sono stati imposti i tagli di accettanza relativi alle altre variabili (Figura 5.15). Sezione d’urto differenziale in p per W+ ->µ + ν, con p Tν > 20 GeV e |η|µ < 2.5 qspacnosp = 0 GeV Entries Mean RMS 22026 32.94 7.367 qspac = 1 GeV 600 T dσ/dp (pb/GeV) Tµ 700 qspac = 2.5 GeV 500 400 300 200 100 0 0 10 20 30 40 50 60 p del muone (GeV) T Figura 5.15: Spettro in pT di µ+ prodotto da W + , per qspac = 0, 1, 2.5 GeV. In Tabella 5.7 sono riassunti i valori di accettanza calcolati al variare di qspac per tutti i processi studiati, oltre alla differenza percentuale tra l’accettanza con la ISR accesa e spenta. W+ W− Z A di default (%) 48.31 48.28 42.62 A per qspac = 0 GeV (%) 51.22 51.16 43.35 A per qspac = 1 GeV (%) 50.93 50.82 43.19 |Adef − Aqspac=0 GeV | × 100 Adef 6.02 4.49 1.71 Tabella 5.7: Effetto sull’accettanza della variazione della quantità di radiazione di stato iniziale permessa. 142 5.3. RADIAZIONE DI STATO INIZIALE Dalla Figura 5.15 e dalla Tabella 5.7, risulta che i valori di qspac pari a 0 e 1 GeV danno risultati molto simili tra loro, e nettamente maggiori di quanto si trova per qspac = 2 GeV. Ciò ci autorizza, nel seguito, a considerare solo la differenza tra le due situazioni estreme: la configurazione di default e quella in cui la radiazione di stato iniziale è assente. In Figura 5.16 vediamo l’impulso trasverso del W + con e senza ISR. Le due distribuzioni sono molto diverse, in particolare la curva è piccata a bassi valori di pT (≈ 3 GeV) solo quando la ISR è spenta. Figura 5.16: Distribuzione in impulso trasverso per W + con (punti neri) e senza (area rossa) ISR. Il µ+ prodotto dal decadimento di W + risente dello stesso effetto, come mostrato in Figura 5.17 con la ISR accesa (a) e spenta (b). (a) Momento trasverso. (b) Pseudorapidità. Figura 5.17: Distribuzioni per µ+ prodotto dal decadimento di W + , con (in nero) e senza (in rosso) ISR. É interessante studiare cosa succede fissando due delle tre soglie, e lasciando libera l’altra. Richiediamo in particolare che il neutrino abbia pT > 20 GeV e il muone |η| < 2.5, quindi grafichiamo l’accettanza ottenuta in funzione 5.3. RADIAZIONE DI STATO INIZIALE (a) Con la ISR. 143 (b) Senza la ISR. Figura 5.18: Correlazione in impulso trasverso tra µ+ e νµ prodotti da W + . del taglio rimanente, quello sul pT del muone: in Figura 5.19(a) vediamo i risultati includendo ed escludendo la ISR. Il plateau più pronunciato deriva dal fatto che, data la forte correlazione tra gli impulsi quando la ISR è spenta, se fissiamo pT ν > 20 GeV è improbabile trovare pT µ < 20 GeV(3 ), e questa probabilità non è molto sensibile alla soglia scelta. Tra 20 e 40 GeV, dove si concentra la maggior parte degli eventi, la curva scende velocemente, dopodiché tende asintoticamente a zero. Se accendiamo la ISR, d’altronde, l’andamento diventa monotòno, in quanto la mancanza di correlazione impedisce la formazione del plateau a bassi impulsi. (a) W + → µ+ νµ . (b) Z → µ+ µ− . Figura 5.19: Accettanze in funzione della soglia in pT di uno dei leptoni, fissati gli altri tagli. Le curve nere hanno la ISR accesa, quelle nere spenta. Il risultato per W − è identico a quello appena descritto, mentre per Z, come abbiamo visto nella Tabella 5.7, l’accettanza varia meno al variare di qspac, e infatti per Z si ha la distribuzione in Figura 5.19(b): il plateau è meno pronunciato, e le due curve sono praticamente sovrapposte a bassi e medi pT . 3 Cambiando pT ν minimo, l’estensione del plateau cambia di conseguenza. 144 5.4. CORREZIONI DI QED: PHOTOS Concludiamo questa discussione sulla radiazione di stato iniziale, sottolineando che, poiché non è possibile variare in modo fine il valore di qspac, non siamo in grado di ripetere lo studio fatto per il kT intrinseco dei partoni, e ottenere una stima dell’effetto sistematico. I valori riportati in Tabella 5.7 non possono essere usati per ricavare l’errore dell’accettanza, in quanto descrivono una situazione “non fisica” in cui la radiazione di stato iniziale è del tutto assente. 5.4 Correzioni di QED: Photos Photos [36] è un algoritmo universale, interfacciabile con qualsiasi generatore Monte Carlo, che simula le correzioni radiative O(α) di QED − emissione di fotoni reali e virtuali − per i decadimenti di particelle e risonanze. La sua prima versione risale al 1991, e negli anni è stato ampiamente usato, per esempio come tool di precisione nella misura della massa del W al Tevatron e a LEP, e nella misura degli elementi della matrice CKM tramite i decadimenti dei mesoni K e B. Sebbene la bremsstrahlung di QED sia un effetto elementare di Meccanica Quantistica, la maggior parte dei generatori Monte Carlo non la considera in modo dettagliato, limitandosi a fornire quantità inclusive, tranne che per pochi canali. Photos permette l’implementazione sistematica delle correzioni di QED, grazie alla proprietà di fattorizzazione della bremmstrahlung: in buona approssimazione, infatti, la sezione d’urto differenziale si può fattorizzare in un termine indipendente dalle correzioni di QED e in un fattore universale di bremmstrahlung. Quest’ultimo dipende solo dai quadrimpulsi delle particelle coinvolte, e non dai dettagli del processo. In questo modello semplificato, che comprende le correzioni reali e quelle virtuali, si converge a un risultato finito sia nella regione soffice dello spazio delle fasi (Eγ → 0) sia in quella collineare (θγX → 0). In particolare, la divergenza soffice è regolarizzata dall’introduzione di un’energia di cut-off per l’emissione, richiesta che si concilia con l’esperimento in quanto anche i calorimetri sono limitati da una risoluzione intrinseca. La produzione di fotoni in aggiunta al processo principale può essere implementata in due modi diversi. Il primo modo consiste nel fissare il numero di fotoni, cosicché la probabilità di produzione è data dalla distribuzione binomiale. Altrimenti, si lascia libero il numero di fotoni prodotti, che viene calcolato secondo la probabilità di Poisson; questo metodo risulta più stabile e permette di abbassare il cut-off in energia. L’interfaccia di Photos in Athena è attualmente in corso di validazione; si 5.4. CORREZIONI DI QED: PHOTOS 145 riscontrano problemi per quanto riguarda la conservazione del quadrimpulso − ad un’emissione di QED deve seguire il riaggiustamento dei quadrimpulsi di tutte le particelle collegate a quella che ha emesso [67]. Un altro problema, forse più importante, è rappresentato dall’interfaccia tra Photos e Mc@Nlo, e precisamente dal fatto che Photos non può aggiungere l’emissione di fotoni ai bosoni vettori, in quanto nell’event record di Mc@Nlo essi sono riportati solo il ≈ 20% delle volte. Per questo, al momento solo Pythia fornisce una descrizione verosimile delle correzioni di QED alla produzione di W e Z. Questo effetto è stato studiato simulando campioni di eventi in cui non viene utilizzato il tool Photos, e confrontando i risultati con le accettanze di default. Faccio questo per Herwig, Pythia e Mc@Nlo, il tutto all’interno del framework Athena. In Tabella 5.8 sono riportate le accettanze di default per i vari generatori, e la differenza relativa in percentuale quando Photos viene spento, con l’errore dato dalla propagazione. I valori che ne risultano sono tutti compatibili con zero entro gli errori statistici; la differenza massima si registra per Herwig, quella minima per Mc@Nlo, mentre Pythia − che come abbiamo detto incorpora la trattazione più fisicamente attendibile delle correzioni di QED − si situa su valori intermedi. W + → µ+ νµ W − → µ− ν µ Z → µ+ µ− Herwig 45.45 ± 0.30 39.98 ± 0.26 |Aon − Aoff | × 100 Aon 1.28 ± 1.75 1.96 ± 2.04 Pythia 45.99 ± 0.31 39.75 ± 0.26 |Aon − Aoff | × 100 Aon 0.61 ± 1.16 1.37 ± 1.19 Mc@Nlo 48.31 ± 0.34 48.28 ± 0.34 42.62 ± 0.29 |Aon − Aoff | × 100 Aon 0.15 ± 0.78 0.19 ± 0.85 0.33 ± 0.93 Tabella 5.8: Effetto sistematico delle correzioni di QED (Photos). 146 5.4. CORREZIONI DI QED: PHOTOS In Figura 5.20 vediamo la distribuzione del pT del µ− prodotto da Z → µ+ µ− , con e senza Photos: sia per Herwig che per Pythia la differenza è compatibile con le fluttuazioni statistiche. (a) Pythia (b) Herwig Figura 5.20: Effetto delle correzioni di QED sulla distribuzione in pT per µ− prodotto da Z. In Tabella 5.9 analizziamo, usando un sample Z → µ+ µ− generato con Herwig in Athena, il numero di fotoni presenti nell’event record. Come aspettato, quando Photos viene spento non si trovano più fotoni provenienti dal processo principale, mentre restano costanti quelli prodotti dal decadimento dei mesoni leggeri (π, η, ω) e da altri fotoni. Photos on Photos off Fotoni finali 10324 9185 Fotoni da π 0 8556 8326 Fotoni da η 610 605 Fotoni da ω 132 131 Fotoni da γ 79 79 Fotoni da Z → µ+ µ− 827 0 Tabella 5.9: Conteggio dei fotoni finali in un sample Z → µ+ µ− , prodotto con Herwig inserendo ed escludendo Photos. 5.5. CORREZIONI ELETTRODEBOLI: HORACE 5.5 147 Correzioni elettrodeboli: Horace Horace [8] è un generatore Monte Carlo dedicato alla simulazione dei processi Drell-Yan con l’inclusione delle correzioni radiative elettrodeboli (EW) esatte a 1 loop. Se l’inclusione della radiazione di QCD è imprescindibile per avere una descrizione verosimile di qualsiasi processo ad LHC, è altrettanto importante l’inclusione di quelle EW se si vuole giungere ad una misura di precisione delle osservabili elettrodeboli. Al Tevatron, per esempio, queste correzioni provocano uno shift in MW di 160 MeV nel canale muonico, e questo shift è dovuto principalmente alla radiazione di QED dello stato finale [66]; per quanto riguarda l’esperimento ATLAS, che come abbiamo visto in Sezione 2.3.1 si propone una misura con ∆MW ≈ 15 MeV, queste correzioni non possono venire trascurate. Le correzioni EW sono dominate dalla radiazione di fotoni reali, in quanto essa comporta l’apparizione di logaritmi collineari della forma α/π log(ŝ/m2` ). I logaritmi dominanti, di ordine O(α2 ), vengono risommati in modo esponenziale. La Figura (5.21) mostra l’impatto di queste correzioni sulla massa trasversa del W ad LHC [8]: a sinistra sono incluse solo le correzioni di QED O(α), a sinistra quelle di ordine maggiore, ottenute tramite l’esponenziazione. Al primo ordine, ne risulta uno shift ∆MW = 110 MeV per W → µν e di 20 MeV per W → eν, mentre le correzioni indotte dagli ordini superiori sono trascurabili per entrambi i canali. Figura 5.21: Impatto delle correzioni di QED a ordine O(α) (a sinistra) e agli ordini superiori esponenziati (a destra), sullo shift in massa ∆MW ad LHC [8]. L’inclusione delle correzioni EW complete a 1 loop viene effettuata in [28] 148 5.5. CORREZIONI ELETTRODEBOLI: HORACE per il W . Queste correzioni si dividono in reali e virtuali, M = M0 + MVα + MR , (5.4) dove M0 è l’elemento di matrice a tree level. Correzioni elettrodeboli virtuali Le correzioni virtuali contribuiscono a |M|2 con prodotti del tipo 2 Re(MVα M∗0 ). Alcuni diagrammi rappresentativi sono mostrati in Figura 5.22 per il processo partonico ud → W → µνµ : i controtermini, le correzioni di self-energy (a), (b) e (c), le correzioni di vertice (e), (f) e i diagrammi box (d). Figura 5.22: Correzioni elettrodeboli virtuali al processo ud → W → µνµ . La divergenza associata col polo nel propagatore del W (diagrammi (b) e (c)), viene regolarizzata introducendo la larghezza di decadimento ΓW : 1 −→ s− + iΓW MW 1 1 2 2 (ΠW W (s) + δMW + (s − MW )δZW ) (ig µν ) 2 2 s − MW + iΓW MW s − MW (5.5) 2 dove ΠW W (s) è la parte trasversa della correzione self-energy, mentre δMW e δZW sono rispettivamente le costanti di rinormalizzazione della massa e della funzione d’onda del W . Osserviamo che l’ultimo fattore nella (5.5) non contiene ΓW per evitare il double-counting; l’intera espressione è regolare al2 l’ordine O(α) per s → MW . (ig µν ) 2 MW 5.5. CORREZIONI ELETTRODEBOLI: HORACE 149 Tutti i diagrammi che comportano lo scambio di una Z danno origine ai cosiddetti logaritmi elettrodeboli di Sudakov, della forma α log (s/MZ2 ), la cui importanza cresce per masse invarianti crescenti, mentre sono praticamente trascurabili alla risonanza W . Nella scelta delle costanti di rinormalizzazione e dei controtermini, giocano un ruolo fondamentale i parametri del Modello Standard assunti come input al calcolo (ovviamente, la dipendenza dallo schema scomparirebbe se si fosse in grado di risommare esattamente la serie perturbativa). Gli schemi fondamentali sono tre: 1) (α, Gµ , MZ ), 2) (α, MW , MZ ), 3) (Gµ , MW , MZ ). Ai collider adronici si preferiscono gli ultimi due, che prendono MW come input. Il terzo in particolare, detto schema Gµ , è considerato il migliore per la Fisica del W . In Horace sono implementati entrambi gli schemi α(0) e Gµ , e l’utente può scegliere quello in cui effettuare la propria simulazione. Correzioni elettrodeboli reali Le correzioni reali consistono nell’emissione di un fotone reale da parte di tutte le gambe cariche del processo (compreso il bosone di gauge virtuale), come rappresentato dai diagrammi in Figura 5.23. Figura 5.23: Correzioni elettrodeboli reali al processo ud → W → µνµ . Il modo di trattare questi diagrammi è analogo a quello di Photos, discusso in Sezione 5.4: si introduce un cut-off sull’energia del fotone emesso, λ, tale da non modificare l’ampiezza a tree level 2 → 2, e si arriva a una forma fattorizzata: Z X d3 kγ 2 2 |M | = |M | δSB (f, λ) (5.6) 1 0 3 Ω (2π) 2Eγ + f =u,d,e dove il fattore di soft bremsstrahlung δSB dipende dal cut-off infrarosso λ e dalla particella esterna emettitrice, in particolare dalla sua massa e dalla sua carica. 150 5.5. CORREZIONI ELETTRODEBOLI: HORACE Oltre a calcolare esattamente le correzioni elettrodeboli a ordine O(α), bisogna considerare le correzioni di QED a ordini superiori, come quelle incluse in Photos, che risomma a tutti gli ordini i logaritmi dominanti. Grazie a questo matching, Horace sarà in grado di interfacciarsi a Photos in Athena, implementazione che però durante lo svolgimento di questo lavoro di Tesi non è ancora conclusa. Il mio studio è quindi consistito nel simulare eventi W e Z con Horace in modalità Stand Alone, sia a Leading Order − da confrontare coi risultati di Herwig e Pythia − sia a 1 loop, nello schema Gµ esponenziato − da confrontare con Mc@Nlo. Come vediamo in Tabella 5.10, i risultati sono comparabili, sia a LO sia a NLO. Questo non dovrebbe sorprendere, nonostante il fatto che Horace, al contrario di Herwig e Mc@Nlo in Athena, non implementi Photos: infatti, come abbiamo visto nella Sezione precedente e in particolare in Tabella 5.8, l’esclusione di Photos non cambia l’accettanza al di fuori dell’errore sistematico. I valori in Tabella 5.10 sono calcolati come (A − Adef )/Adef , dove Adef è l’accettanza di Herwig a LO e di Mc@Nlo a NLO. W + → µ+ νµ Herwig W − → µ− ν µ 45.45 ± 0.30 Z → µ+ µ− 39.98 ± 0.26 Horace LO 45.82 ± 0.30 46.01 ± 0.31 38.93 ± 0.25 δA % a LO A 0.81 ± 1.32 1.23 ± 1.35 −0.13 ± 1.25 Horace NLO 47.87 ± 0.32 47.61 ± 0.32 42.01 ± 0.28 Mc@Nlo 48.31 ± 0.34 48.28 ± 0.34 42.62 ± 0.29 δA % a NLO A −0.91 ± 1.36 −1.39 ± 1.36 1.43 ± 1.34 Tabella 5.10: Confronto tra Horace e gli altri generatori. Capitolo 6 Conclusioni In questa Tesi ho affrontato lo studio dell’accettanza geometrica e del suo errore sistematico, studio legato alla misura della sezione d’urto per i processi pp → W → `ν` + X e pp → Z → `+ `− + X, che sara’ uno dei primi obiettivi dell’esperimento ATLAS alla ripartenza di LHC, prevista per l’autunno 2009. Il canale su cui mi sono concentrata è quello muonico, vista l’importanza del ruolo ricoperto dal gruppo di Roma Tor Vergata nella progettazione e nella costruzione dei rivelatori RPC, utilizzati per il trigger e la misura della seconda coordinata delle tracce nello spettrometro a muoni. Il traguardo di ATLAS per questa misura è quello di eguagliare la precisione dei calcoli teorici, portando l’errore sperimentale a δσ/σ ≈ 1%. Dallo studio svolto in questa Tesi si può concludere che l’effetto che dominerà l’incertezza sull’accettanza, e quindi sulla sezione d’urto, è dato dalle PDF: δA/A si attesta infatti intorno al (3 ÷ 4)% per i set di PDF CTEQ 6.1 [53], e oltre il 5% quando si includono i termini di massa per i quark pesanti, come fatto con le CTEQ 6.6 [35]. Questo risultato è stato confermato anche calcolando le accettanze con i set di PDF ottenuti col metodo delle reti neurali [3]. Tutti gli altri effetti studiati − l’inclusione del Next to Leading Order, la presenza di un momento trasverso intrinseco dei partoni, le correzioni elettromagnetiche e quelle elettrodeboli al processo di hard scattering − contribuiscono all’errore in modo trascurabile rispetto alle PDF. Per quanto riguarda l’impatto della quantità di radiazione permessa nello 152 CONCLUSIONI stato iniziale, esso non può essere quantificato al pari degli altri effetti; ne è stato perciò studiato in modo qualitativo solo l’impatto sulle distribuzioni in impulso trasverso e in pseudorapidità dei bosoni vettori e dei loro leptoni di decadimento. In ultima analisi, per raggiungere l’obiettivo dell’1% in δσ/σ, sarà necessario ridurre l’errore dovuto alle PDF, e questo potrà essere fatto solo grazie alla conoscenza che l’esperimento ATLAS stesso potrà fornire al riguardo. Con le misure di precisione dei parametri elettrodeboli che saranno realizzabili fin dalle prime fasi della presa dati, infatti, l’esperimento ATLAS potrà estendere la conoscenza delle PDF a valori di x e Q2 diversi da quelli studiati fino ad oggi negli esperimenti di Deep Inelastic Scattering e di collisioni pp. Il mio lavoro di Tesi è stato inquadrato nell’ambito del gruppo di lavoro sul Modello Standard di ATLAS, in particolare del suo sottogruppo Segnature √ √ W/Z. Lo studio svolto a s = 14 TeV sarà presto replicato a s = 10 TeV, l’energia nel centro di massa a cui lavorerà l’esperimento per il primo anno di presa dati. L’algoritmo per il calcolo dell’accettanza da me sviluppato, è stato implementato nel framework generale che effettua l’intero calcolo della sezione d’urto. Tale algoritmo analizza i dati simulati con qualsiasi generatore Monte Carlo e calcola l’accettanza, con tagli cinematici scelti dall’utente, mentre altre parti del framework calcolano − sui dati ricostruiti, e su quelli reali quando disponibili − l’efficienza di trigger e di ricostruzione, il numero di eventi di segnale e quelli di fondo, cosı̀ da giungere, con un codice compatto, alla misura finale della sezione d’urto. Appendice A Parametri delle simulazioni I parametri usati per le simulazioni sono riassunti sotto il nome tecnico di job options. Sono stringhe di comandi scritte in linguaggio Python. Le job options ufficiali di ATLAS sono state da me modificate per aggiungere opzioni non presenti nella release di Athena 11.0.5: il pT intrinseco dei parton e la variabile qspac che determina la quantità di radiazione permessa nello stato iniziale. A.1 Herwig Il generatore Monte Carlo a cui ci si interfaccia non è Herwig, ma Jimmy, una utility che aggiunge a Herwig le interazioni multiple. Tutti gli impulsi, le energie e le masse sono in GeV. # ... Main generator : Jimmy theApp.Dlls += [ "Jimmy_i"] theApp.TopAlg += [ "Jimmy" ] Jimmy = Algorithm( "Jimmy" ) Jimmy.JimmyCommand = [ "rmass 6 172.5", "rmass 198 80.398", "gamw 2.141", "rmass 200 91.1876", "gamz 2.4952", # PDG2009 top: massa # PDG2009 W: massa e larghezza # PDG2009 Z: massa e larghezza "iproc 1451", # scelta del processo # -1351/1451: Z-gamma/W in elettroni # -1352/1452: Z-gamma/W in muoni # se il numero è preceduto da un 1, l’Underlying Event non viene generato 154 A.1. HERWIG "emmin 60.", # massa minima per la coppia leptonica, pari a 0 nel caso di W "modpdf 10042", "autpdf HWLHAPDF", # scelta del set di PDF, # dalla libreria LHAPDF "msflag 1", "jmueo 1", "jmbug 0", # 1/0: a/s lo scattering multiplo # Underlying Event: 2->2 # Tune "ptjim "prsof "jmrad dell’Underlying 3.85", # 0", # 73 1.8", # Event pT minimo per scattering secondari 1/0: a/s l’Underlying Event soffice 1/r^2 del protone "pltcut 0.0000000000333", # rende stabili K e Lambda "ptmin 10.", # pT minimo nella produzione di jet "clpow 1.20", # rapporto barioni/mesoni nel decadimento di B # opzioni aggiunte per lo studio di sistematica "qspac 2.5" # Q della cascata space-like "ptrms 0.0" # pT intrinseco dei partoni "syspin 1"] # 1/0: a/s la correlazione di spin # ... Photos theApp.Dlls += [ "Photos_i" ] theApp.TopAlg += [ "Photos" ] Photos = Algorithm( "Photos" ) Photos.PhotosCommand = [ "photos pmode 1", "photos xphcut 0.01", # cut-off infrarosso per l’emissione: frazione dell’energia del fotone rispetto alla madre "photos interf 1", # 1/0: a/s l’interferenza per tutti i processi "photos isec 1", # 1/0: a/s l’emissione doppia "photos itre 0", # 1/0: a/s l’emissione tripla e quartica "photos iexp 1", # 1/0: a/s la radiazione multipla "photos iftop 0"] # 1/0: a/s l’emissione di fotoni in gg->ttbar Abbiamo sintetizzato con a/s la possibilità accende/spegne. A.2. PYTHIA A.2 155 Pythia theApp.Dlls += [ "Pythia_i" ] theApp.TopAlg += [ "Pythia" ] Pythia = Algorithm( "Pythia" ) Pythia.PythiaCommand = [ "pysubs msel 0", . "pydat1 parj 90 20000", # Cut-off per la FSR (infinito) "pydat3 mdcy 15 1 0", # Spegne i decadimenti del tau # Z production: "pysubs msub 1 1", "pysubs ckin 1 60.0", "pydat3 mdme 182 1 0", "pydat3 mdme 184 1 1", "pydat3 mdme 186 1 0", # # # # # # # # # # W production: "pysubs msub 2 1", "pydat3 mdme 206 1 1", "pydat3 mdme 207 1 0", "pydat3 mdme 208 1 0"] Crea i Limite Switch Switch Switch # # # # bosoni Z inferiore per la massa invariante per Z->ee. per Z->mumu. per Z->tautau. Crea i Switch Switch Switch bosoni W per W->enu. per W->munu. per W->taunu. Notiamo che, una volta creato il bosone desiderato, si attiva un canale di decadimento piuttosto che un altro tramite il switch 1/0. Anche in questo caso stiamo fissando a 60 GeV la minima massa invariante per Z → `+ `− , mentre lasciamo libero il vincolo per W . Il cut-off per la Final State Radiation di QED è di default a 20 TeV, ovvero a infinito. A.3 Mc@Nlo Per quanto riguarda Mc@Nlo, a differenza degli altri generatori fin qui descritti, l’interazione dura viene generata sempre in Stand Alone, e i file cosı̀ creati vengono passati a Herwig, che aggiunge le routine per la cascata partonica e l’adronizzazione. I parametri per la generazione del processo duro che sono interessanti da settare sono i seguenti: ECM=14000 PART1=P PART2=P # energia nel centro di massa in GeV # fasci incidenti 156 FREN=1 FFACT=1 AEMRUN=YES A.3. MC@NLO # scale di rinormalizzazione e fattorizzazione, rispetto alla scala di riferimento # alpha_em running HVQMASS=173 TWIDTH=1.7 # massa e largezza del top WMASS=80.398 WWIDTH=2.141 # massa e larghezza di W ZMASS=91.188 V1GAMMAX=30 V1MASSINF=0 V1MASSSUP=0 ZWIDTH=2.495 # massa e larghezza di Z # parametri della Breit-Wigner # masse dei quark e del gluone (usate da Herwig) UMASS=0.32 DMASS=0.32 SMASS=0.5 CMASS=1.55 BMASS=4.95 GMASS=0.75 # valori assoluti degli elementi della matrice CKM matrix VUD=0.9748 VUS=0.2225 VUB=0.0036 VCD=0.2225 VCS=0.9740 VCB=0.041 VTD=0.009 VTS=0.0405 VTB=0.9992 IPROC=-1462 # numero del processo # -1351/1461/1471: Z-gamma/W+/W- in elettroni # -1352/1462/1472: Z-gamma/W+/W- in muoni # il - indica che il processo è a NLO PDFSET=10100 PDFLIBRARY=LHAPDF # scelta del set di PDF, # dalla libreria LHAPDF LAMBDAFIVE=-1 LAMBDAHERW=-1 # per usare il valore di lambda_5 risultante dal fit delle PDF, # anche per Herwig SCHEMEOFPDF=MS # schema di fattorizzazione NEVENTS=5 WGTTYPE=1 # numero di eventi da generare # pesi positivi e negativi, la cui somma equivale al rate del processo A.4. HORACE 157 Aggiungiamo qualche commento. La scala di fattorizzazione, µF , e quella di rinormalizzazione, µR , sono date rispetto a una scala di riferimento, che per il Drell-Yan vale: µ2 = (M 2 + p2T )coppia dove M 2 è la massa invariante della coppia leptonica prodotta. Come abbiamo visto in Sezione 3.1, questo permette di trascurare i logaritmi del tipo ln(M 2 /µ2 ). Notiamo che la scelta di default è µR = µF . Il bosone vettore è prodotto con massa distribuita secondo una Breit-Wigner: VMASS - VGAMMAX × VWIDTH < m < VMASS + VGAMMAX × VWIDTH dove VMASS e VWIDTH sono massa e larghezza di decadimento del bosone vettore V. Quindi scegliere VGAMMAX = 30, come è di default per W , significa produrre la coppia leptonica su tutto lo spettro disponibile: 80.425 − 30 × 2.124 < m < 80.425 + 30 × 2.124 GeV. Per il decadimento di Z si setta invece VGAMMAX = −1, questo fa sı̀ che vengano usati i due valori successivi, V1MASSINF e V1MASSSUP, nel modo seguente: V1MASSINF < m < V1MASSSUP. In questo lavoro si è scelto (V1MASSINF, V1MASSSUP) = (60, 1000) GeV, in modo da escludere la zona di puro γ e di interferenza γ/Z. Dopo la generazione, gli eventi vengono passati al Parton Shower Herwig, per il quale le opzioni sono quelle già esposte. A.4 Horace Riportiamo quasi integralmente il contenuto del file .stat che risulta dalla generazione di un evento con Horace, in quanto esso riassume le opzioni scelte dall’utente. Requested number of unweighed events: Unweighted event n. 50000. Initial state particles: PDFs: LHAPDF interface C. of m. energy = 2212 14000.00 GeV 2212 50000. 158 A.4. HORACE W+ production, decaying into muons W mass W width Z mass Z width sin^2(th_w) delta_r = = = = = = 80.398 GeV 2.124 GeV 91.1876 GeV 2.4952 GeV 0.222645853 0.0305138767 (one-loop EW delta_r) EW RC: exp (MATCHED QED PS) EW input scheme: 1 hit or miss cross section = h. or m. out-of-range bias = weighted cross section = Partial cross 0 photons: 1 photons: 2 photons: 3 photons: 4 photons: 5 photons: partial -3 2 -3 4 -1 2 -1 4 2 -3 2 -1 4 -3 4 -1 Sum: 10460.5305602 +- 46.5159129 (pb) 0.9830666 +- 0.4194366 (pb) 10459.1984223 +- 10.4874362 (pb) sections: 7753.10295 +- 7.88057813 2581.54307 +- 7.19840489 118.013091 +- 2.29097443 6.22212493 +- 0.636590526 0.317111274 +- 0.196664718 7.0498019E-05 +- 0.000106691998 (npoints: (npoints: (npoints: (npoints: (npoints: (npoints: 1801190) 525144) 80185) 8224) 653) 22) q-q[’][bar] contributions 181.384201 921.694263 4064.54653 62.0422926 179.913762 4065.1348 921.009132 63.4734413 10459.1984 La scelta iniziale che viene proposta all’utente riguarda il modo in cui usare Horace: old (viene aggiunta allo stato finale dell’evento solo radiazione di QED, nell’approssimazione di Parton Shower), new (vengono aggiunte le correzioni EW O(α) ed i diagrammi di QED all’ordine corrispondente). Ovviamente per studiare l’impatto delle correzioni elettrodeboli bisogna scegliere il modo new. A.4. HORACE 159 La scelta successiva è l’ordine in α delle correzioni: si può selezionare alpha (NLO), exp (alpha + NNLO QED) oppure born (sezione d’urto di Born). In questo lavoro abbiamo calcolato l’accettanza sia con l’opzione born, che deve essere in accordo con gli altri generatori Leading Order, sia con exp. Segue un riassunto dei contributi dei diversi sapori partonici al processo qq 0 → W + , la cui somma dà la sezione d’urto, in questo caso non pesata. 160 A.4. HORACE Bibliografia [1] S. Agostinelli et al., GEANT4: A simulation toolkit, Nucl. Instrum. Meth., A506 (2003), pp. 250–303. [2] C. Amsler et al., Review of particle physics, Phys. Lett., B667 (2008). [3] R. D. Ball et al., A determination of parton distributions with faithful uncertainty estimation, Nucl. Phys., B809 (2009), pp. 1–63, hep–ph/0808.1231. [4] W. Bardeen et al., Deep Inelastic Scattering Beyond the Leading Order in Asymptotically Free Gauge Theories, Phys. Rev., D18 (1978), p. 3998. [5] J. Botts et al., CTEQ Parton Distributions and Flavor Dependence of Sea Quarks, Physics Letters B, 304 (1993), pp. 159, hep–ph/9303255. [6] J. Butterworth et al., Multiparton interactions in photoproduction at HERA, Z. Phys., C72 (1996), pp. 637–646, hep–ph/9601271. [7] N. Cabibbo, Unitary Symmetry and Leptonic Decays, Phys. Rev. Lett., 10 (1963), pp. 531–533. [8] C. C. Calame et al., Higher-order QED corrections to W-boson mass determination at hadron colliders, Physical Review D, 69 (2004), pp. 037301, hep–ph/0303102. [9] C. Collaboration, Transverse Momentum and Total Cross√Section of e+ e− Pairs in the Z-Boson Region from pp Collisions at s= 1.8 TeV, Phys. Rev. Lett., 84,5 (2000), pp. 845–850. [10] T. A. Collaboration, The ATLAS Experiment at the CERN Large Hadron Collider, JINST, 3 (2008), p. S08003. [11] G. Corcella et al., HERWIG 6.5 Release Note, 2002, hepph/0210213. 162 BIBLIOGRAFIA [12] L. D. Debbio et al., Neural network determination of parton distributions: the nonsinglet case, JHEP, 03 (2007), pp. 039, hep–ph/0701127. [13] Y. Enari, Tevatron SM Higgs Combined Result in Low Mass Region. [14] G. B. et al., Precision Predictions and Tools for Weak Boson Production at the LHC, Acta Physica Polonica B, Vol. 38, No. 7 (2007), p. 2347. [15] F. Mandl, G. Shaw, Quantum Field Theory, John Wiley and Sons Inc, 1984. + − [16] F. Fayette et al., Measurement of MW and MW at LHC, (2008, hep-ph/0812.2571). [17] S. Forte et al., Neural network parametrization of deep-inelastic structure functions, JHEP, 05 (2002), pp. 062, hep–ph/0204232. [18] G. M. G. Altarelli, R. Ellis, Vector Boson Production at Present and Future Colliders, Z. Phys., C27 (1985), p. 617. [19] G. Altarelli, R. Ellis, G. Martinelli, Large Perturbative Corrections to the Drell-Yan Process in QCD, Nucl. Phys., B157 (1979), p. 461. [20] G. Azuelos et al., Electroweak Physics, 2000, hep-ph/0003275. [21] G. Corcella, Michael Seymour, Vector Boson Transverse Momentum Distributions at the Tevatron, J.PHYS.G, 26 (2000), p. 643. [22] G. Dissertori, I. Knowles, M. Schmelling, Quantum Chromodynamics - High Energy Experiments and Theory, Oxford University Press, 2003. [23] H. Bethe, Zur Theorie des Durchgangs schneller Korpuskularstrahlen durch Materie, Annalen der Physik, 397 (1930), pp. 325–400. [24] W. S. J. Campbell, J. Huston, Hard Interactions of Quarks and Gluons: a Primer for LHC Physics, REPT.PROG.PHYS, 89 (2007, hep-ph/0611148). [25] J. Collins, Hard-scattering factorization with heavy quarks: A general treatment, Physical Review D, 58 (1998), pp. 094002, hep–ph/9806259. BIBLIOGRAFIA 163 [26] D. S. J. Collins, The Theorems of Perturbative QCD, Ann. Rev. Nucl. Part. Sci., 37 (1987), pp. 383–409. [27] J. Pumplin, H. Lai, W. Tung, The Charm Parton Content of the Nucleon, Phys. Rev., D75 (2007), pp. 054029, hep–ph/0701220. [28] K. Melnikov, F. Petriello, Electroweak gauge boson production at hadron colliders through O(αs2 ), Physical Review D, 74 (2006), p. 114017. [29] L. Evans, P. Bryant (editors), LHC Machine, JINST, 3, S08001 (2008). [30] M. Kobayashi, T. Maskawa, CP-Violation in the Renormalizable Theory of Weak Interaction, Progress of Theoretical Physics, 49 (1973), pp. 652–657. [31] L. Magnea, Introducing perturbative QCD for hadron collider applications. [32] A. Martin et al., Uncertainties of predictions from parton distributions. I: experimental errors, European Physical Journal C, 28 (2003), pp. 455, hep–ph/0211080. [33] , Physical Gluons and High ET Jets, Physics Letters B, 604 (2004), pp. 61, hep–ph/0410230. [34] M. G. N. Ellis, 1993 European School of High-Energy Physics, Zakopane, Poland, 12-25 Sep 1993: Proceedings. Prepared for 1993 European School of High-energy Physics, Zakopane, Poland, 12-25 Sep 1993. [35] P. Nadolsky et al., Implications of CTEQ global analysis for collider observables. [36] P. Golonka, Z. Was, PHOTOS Monte Carlo: a precision tool for QED corrections in Z and W decays, European Physical Journal C, 45 (2006), p. 97. [37] P. Ramond, Field theory : a modern primer, Benjamin/Cummings, series: Frontiers in Physics, 51, 1981. [38] P. Renton, Global Electroweak Fits and the Higgs Boson Mass, 2008, hep-ph/0809.4566v1. [39] T. Petersen, Measurement of the W mass with the ATLAS detector, (2008, hep-ph/0810.3583). 164 BIBLIOGRAFIA [40] F. Petrucci, Standard Physics (W,Z,top) with ATLAS and CMS, 2009. [41] J. Pumplin et al., New Generation of Parton Distributions with Uncertainties from Global QCD Analysis, JHEP, 0207 (2002), pp. 012, hep–ph/0201195. [42] , Uncertainties of predictions from parton distribution functions II: the Hessian method, Physical Review D, 65 (2002), pp. 014013, hep– ph/0101032. [43] R. Ellis, W. Stirling, B. Webber, QCD and Collider Physics, Cambridge University Press (Cambridge Monographs on Particle Physics, Nuclear Physics and Cosmology), 2003. [44] T. M. R. Hamberg, W. van Neerven, A Complete calculation of the order αs2 correction to the Drell-Yan K factor, Nucl. Phys., B359 (1991), pp. 343–405. [45] S. Alekhin, Parton distributions from deep-inelastic-scattering data, Physical Review D, 68 (2003), pp. 014002, hep–ph/0211096. [46] B. W. S. Frixione, Matching NLO QCD computations and parton shower simulations, JHEP, 0206 (2002), pp. 029, hep–ph/0204244. [47] B. W. S. Frixione, The MC@NLO 3.3 Event Generator, (2006, hepph/0612272). [48] S. Frixione,M. Mangano, How accurately can we measure the W cross section?, JHEP, 0405 (2004), pp. 056, hep–ph/0405130. [49] S. Martin, A Supersymmetry Primer, 1997, hep-ph/9709356. [50] S. Moch, Hard QCD at hadron colliders, J.PHYS.G, 35 (2008), pp. 073001, hep–ph/0803.0457v2. [51] S. Myers, LHC Status and Planning, ATLAS week, 18.02.2009. [52] S. Weinberg, Implications of Dynamical Symmetry Breaking, Phys. Rev., D13 (1976), pp. 974–996. [53] D. Stump et al., Inclusive Jet Production, Parton Distributions, and the Search for New Physics, JHEP, 0310 (2003), pp. 046, hep–ph/0303013. BIBLIOGRAFIA 165 [54] T. Gottschalk, Chromodynamic corrections to neutrino production of heavy quarks, Physical Review D, 23 (1981), p. 56. [55] T. Sjostrand, Monte Carlo Generators, 2006, hep-ph/0611247. [56] T. Sjostrand, S. Mrenna, P. Skands, PYTHIA 6.4 Physics and Manual, JHEP0605, 026 (2006, hep-ph/0603175). [57] The ALICE Collaboration, The ALICE experiment at the CERN LHC, JINST, 3, S08002 (2008). [58] The ATLAS Collaboration, ATLAS detector and physics performance. Technical design report. Vol. 2. CERN-LHCC-99-15. [59] , Expected Performance of the ATLAS Experiment - Detector, Trigger and Physics, 2008, hep-ex/0901.0512. [60] The CMS Collaboration, The CMS experiment at the CERN LHC, JINST, 3, S08004 (2008). [61] The LEP Collaborations, A Combination of Preliminary Electroweak Measurements and Constraints on the Standard Model, 2005, hep-ex/0511027. [62] The LHCb Collaboration, The LHCb Detector at the LHC, JINST, 3, S08005 (2008). [63] The TOTEM Collaboration, The TOTEM experiment at the CERN Large Hadron Collider, JINST, 3, S08007 (2008). [64] , The TOTEM Experiment at the CERN Large Hadron Collider, JINST, 3 (2008), p. S08007. [65] W. Tung et al., Heavy quark mass effects in deep inelastic scattering and global QCD analysis, JHEP, 02 (2007), pp. 053, hep–ph/0611254. [66] V. Abazov, Combination of CDF and D0 Results on W Boson Mass and Width, Physical Review D, 70 (2004), p. 092008. [67] V. Savinov, Lessons of transition to Tauola/Photos: was it a mistake?, ATLAS Monte Carlo Generator Meeting, 01.10.2008, http://indico.cern.ch/conferenceDisplay.py?confId=24526. 166 BIBLIOGRAFIA [68] W. Tung, Perturbative QCD and the parton structure of the nucleon, At the frontier of particle physics - Handbook of QCD, volume 2 (2001), pp. 887–971, ed. M. Shifman, Pub. World Scientific Publisher, Singapore. [69] S. Weinberg, A Model of Leptons, Phys. Rev. Lett., 19 (1967), pp. 1264–1266. [70] M. Whalley et al., The Les Houches Accord PDFs (LHAPDF) and Lhaglue, 2005, hep-ph/0508110. Ringraziamenti Al termine di questo lavoro, desidero ringraziare quanti mi hanno aiutato nella sua realizzazione. Innazitutto, ringrazio la professoressa Anna Di Ciaccio, per la disponibilità e i consigli sempre attenti, e per avermi dato la possibilità di entrare a far parte di un esperimento appassionante come ATLAS. Grazie a lei, ho potuto svolgere al meglio le mie ricerche, e mettere in luce i risultati raggiunti partecipando a conferenze e seminari, in Italia e all’estero. La stessa disponibilità ho trovato in tanti dei membri della Collaborazione ATLAS e in particolare del gruppo di lavoro italiano. Discussioni molto stimolanti sono state quelle col Dr. Gennaro Corcella, che mi ha aiutato a prendere confidenza con i generatori Monte Carlo, e col Dr. Giacomo Polesello, che mi ha suggerito l’uso delle PDF Neural Network. Ringrazio anche tutti i colleghi del gruppo ATLAS di Roma Tor Vergata, in particolare i dottori Andrea Di Simone, Roberto Di Nardo e Giordano Cattani, che a vario titolo mi sono stati vicini nelle piccole e grandi difficoltà. Un grazie particolare va al Dr. Fabio Martinelli, per aver sopportato le mie domande più ingenue sull’infrastruttura di calcolo GRID, anche quelle rivoltegli in piena estate. La mia famiglia mi è stata vicina in tutti questi anni, incoraggiandomi nei momenti difficili e gioiendo con me per ogni traguardo raggiunto. Ringrazio dunque i miei genitori, Mario ed Antonella, e i miei fratelli, Lorenzo ed Alessandro. Per ultimo, ma primo in tutto il resto, ringrazio Valerio, per il fatto che senza il suo amore, il suo esempio e il suo sostegno forse tutto questo non sarebbe stato possibile; al suo fianco, per tutta la vita, spero di proseguire il cammino lungo l’appassionante strada della Fisica.