MVA

annuncio pubblicitario
Primo sguardo a metodi multivariati
per l'analisi del ttH




Studiare il possibile miglioramento di sensibilità
per il segnale ttH nel canale MEt+Jet usando
metodi multivariati
Utilizzato il framework delle analisi multivariate
di Root (TMVA)
Al momento considerato solo reti neurali (MLP)
e boosted decision trees (BDT)
10000 eventi usati per il training, il resto per il
test

Gli eventi sono pescati in modo casuale dal sample
corrispondente
Variabili usate e loro correlazioni

Dopo la selezione di eventi con MEtSig > 3 e
jets(Et>25GeV && |η|<3) >= 5 e niente trigger
ttH
tt+Njets
Boosted decision trees


Un decision tree è un
classificatore ad albero binario
in cui decisioni binarie vengono
ripetute su un evento finchè non
si raggiunge una classificazione
(una foglia)
Il boosting consiste nel creare
una foresta di alberi


ad ogni iterazione gli eventi
vengono pesati secondo
l'errore dell'iterazione
precedente
Alla fine viene presa una
decisione democratica usando
tutta la foresta
Classificazione eventi ttH vs tt+Njets





Addestrata una foresta di
400 alberi
Indice di Gini i = p(1-p)
 seleziona la decisione
per cui
imother – Σ(idaughter*evfrac)
è massima
 nCuts = 20
AdaBoost α = (1-err)/err
Pruning a 4.5 (Cost
Complexity) fatto dopo il
boosting
Risposta
yBDT(x) = Σln(αi)hi(x)
Discriminatore S vs B
Rete Neurale MLP



Una rete neurale è una
sequenza di neuroni che
rispondono in funzione dell'input
ricevuto
Può essere vista come una
mappa non lineare (se almeno
uno dei neuroni ha funzione di
risposta non lineare) dallo
spazio delle variabili a uno
spazio di arrivo
Si parte da pesi casuali e li si
modifica in modo da
minimizzare l'errore sulla
risposta
Classificazione eventi con MLP





MLP feed-forward
2 strati nascosti, il primo con 26
neuroni e il secondo con 25
Funzione di risposta del
neurone = sigmoide
Addestramento con backpropagation, online
Per ridurre overtraining si
controlla ad ogni iterazione
l'errore sul test sample oltre che
sul training sample
 Si ferma quando l'errore sul
campione di controllo è
sotto la soglia fissata
Confronto overtraining

Il BDT è più sensibile a overtraining, bisogna aumentare il
campione di training e aggiustare il pruning
Overtraining del
BDT
Efficienza di segnale vs reiezione
del bakground

Il BDT è migliore per alti valori di efficienza, ma
nella regione con alta reiezione di bakground la
differenza è minore
Rimosse le variabili più correlate


Tenendo le 14 variabili meno correlate non si perde molto
in discriminazione, l'MLP recupera sul BDT
MLP con 2 strati:15,14
Variazioni struttura MLP


Layer dell'MLP:
 3 layer: 15-5+5,14-5+5,13-5+5
 2 layer: 15-5+5,14-5+5
Modificando la struttura non si guadagna molto
2 Layer
3 Layer
BDT
MLP
To do






Gli eventi di fondo non sono pesati, pesare i diversi tipi in
proporzione alle sezioni d'urto
Confrontare l'aumento di significanza rispetto al metodo di
likelihood già studiato
Ottimizzare il set di
variabili da usare per MLP
e BDT separatamente
Determinare i parametri
(struttura della rete, forza
del pruning per il BDT, ...)
Aggiungere altri metodi, il
SVM sembra promettente
Testare anche il metodo di decorrelazione lineare interno
di TMVA
Scarica