Title of slide - Dipartimento di Fisica

annuncio pubblicitario
Stima dell’intervallo per un parametro
In aggiunta alla ‘stima puntuale’ di un parametro dobbiamo dare
l’intervallo che rappresenta l’incertezza statistica.
Questo intervallo deve:
comunicare in modo obbiettivo i risultati;
avere una data probabilità di contenere il parametro vero;
permettere di trarre delle conclusioni sul parametro tenendo
conto delle probabilità a priori.
In genere si usa +/− la deviazione standard stimata dell’estimatore.
In alcuni casi, non è adeguata:
risultato vicino ad un limite fisico,
numero di eventi osservati consistente con zero.
Si possono definire gli intervalli sia nell’approccio Frequentista che
in quello Bayesiano
Intervalli di confidenza: approccio frequentista
Dato un estimatore
per il parametro θ e la stima
Sia data per tutti i possibili θ la distribuzione del campione
Si fissa i valori per le code di probabilità superiore e inferiore, per
esempio α = 0.05, β = 0.05, quindi si trovano le funzioni uα(θ) e
vβ(θ) tali che:
Intervallo di confidenza dalla fascia di confidenza
La regione tra uα(θ) e vβ(θ) è la fascia di confidenza.
Determiniamo i punti dove il valore
osservato interseca la fascia di
confidenza
Questo è l’intervallo di confidenza [a, b]
Livello di confidenza = 1 − α − β = probabilità che
l’intervallo “copra” il vero valore del parametro (questo vale
per ogni valore possibile del parametro θ)
Intervalli di confidenza in pratica
La ricetta per trovare [a, b] si riduce a risolvere
→ a è il valore ipotetico di θ tale che
→ b è il valore ipotetico di θ tale che
Significato di un intervallo di confidenza
Intervalli di confidenza centrali o unilaterali
Intervalli di confidenza dalla likelihood
Nel limite di campione infinito vale per l’estimatore ML dei
parametri
:
(Gaussiana n-dimensionale con covarianza V)
definisce una regione di confidenza iper-ellissoidale
Se
allora
Si noti che n è il numero di parametri
Regioni di confidenza approssimative da L(θ )
Per determinare la regione di confidenza con CL = 1−γ si prende:
Per campioni finiti approssimano le regioni di confidenza
La probabilità di copertura non è garantita essere 1−γ ;
non ci sono teoremi per stimare di quanto si sbaglia (usare un MC).
Esempio di intervallo dal ln L(θ )
Per n=1 parametri, CL = 0.683, Qγ = 1.
Limite sui parametri di una distribuzione di Poisson
Consideriamo di nuovo il caso di n = ns + nb eventi dove
nb eventi da processi noti (fondo)
ns eventi da processi nuovi (segnale)
sono variabili di Poisson con medie s e b e perciò anche n = ns + nb
è una variabile di Poisson con media = s + b. Supponiamo b sia noto.
Stiamo cercando l’evidenza per il processo di segnale,
ma il numero di evnti trovati è circa uguale al numero di
eventi aspettati per il solo fondo, per esempio b = 4.6 e noi
troviamo nobs = 5 eventi.
L’evidenza per il segnale s non è statisticamente rilevante
→ vogliamo mettere un limite superiore su s.
Limite superiore per una Poissoniana
Troviamo il parametro s tale che la probabilità di osservare gli
eventi che abbiamo visto o meno è uguale a un valore fissato,
piccolo, per esempio γ = 0.05:
Risolviamo per s = sup, e troviamo il limite superiore per s con un
livello di confidenza di 1−γ.
Esempio: supponiamo b = 0 e troviamo nobs = 0. Per 1−γ = 0.95,
→
In generale è utile ricordare che:
m
!
ν n e−ν
= 1 − Fχ2 (2ν; 2(m + 1))
n!
n=0
Calcoliamo il limite per la Poissoniana
Per determinare slo, sup, possiamo usare la relazione con la
distribuzione del χ2:
Quantile della distribuzione del χ2
Per fluttuazioni verso il basso di n il
risultato per sup ; cioè l’intervallo di
confidenza è vuoto.
Limiti vicino ad un contorno fisico
Supponiamo che sia b = 2.5 e che si osservi n = 0.
Se scegliamo CL = 0.9, dalla formula per sup troviamo
Punto di vista fisico:
Sapevamo già che s ≥ 0; non possiamo riportare come risultato
di un esperimento complesso un limite superiore negativo!
Punto di vista statistico:
L’intervallo copre il valore vero del parametro nel 90% dei casi;
chiaramente questo non è uno di quelli.
Questo è un dilemma piuttosto comune quando il limite del
parametro è vicino ad un contorno fisico, per esempio nel caso di
mν stimato con E2 − p2 .
Limite aspettato per s = 0
Fisico: avrei dovuto usare CL = 0.95 — quindi sup = 0.496
Anche meglio: per CL = 0.917923 otteniamo sup = 10−4 !
Un momento... con b = 2.5 le fluttuazioni di Poisson in n sono circa
√2.5 = 1.6. Come faccio ad ottenere un limite così basso?
Guardiamo il valore medio del limite
nell’ipotesi di fondo soltanto (s = 0):
questo valore è la sensibilità.
Distribuzione del limite per un CL
del 95% con b = 2.5, s = 0.
Limite superiore medio = 4.44
Approccio Bayesiano
Nella statistica Bayesiana dobbiamo iniziare con ‘pdf a priori’ π(θ),
che rappresenta la nostra conoscenza di θ prima dell’esperimento.
Il teorema di Bayes ci dice come modificare la pdf in seguito ai
risultati dell’esperimento
Possiamo integrare la pdf a posteriori p(θ | x) per ottenere un
intervallo con qualsivoglia copertura
.
Per esempio per una Poissoniana il limite superirore al 95% di CL si
otterrà da
Probabilità a priori per una Possioniana
Poichè sappiamo che s ≥0, poniamo π(s) = 0 per s<0.
Spesso si traduce la nostra ‘ignoranza a priori’ con
- Non è normalizzata:
va bene se L(s) decresce rapidamente per s grande.
- Non è invariante rispetto ad un cambio dei parametri.
una probabilità piatta per la massa del bosone di Higgs implica
una probabilità non piatta per il numero di eventi con un Higgs.
- Non rappresenta veramente il nostro grado di conoscenza ma
possiamo usarla come punto di riferimento:
ci permette di costruire degli intervalli dei quali possiamo
studiare le proprietà dal punto di vista frequentista (la copertura
dipenderà dal vero valore di s).
Intervallo Bayesiano con priori piatta per s
Bisogna risolvere per sup la seguente equazione
1−β
=
=
⇒β=
! sup
L(n|s)ds
0
!∞
L(n|s)ds
0
! sup
n −(s+b)
(s
+
b)
e
ds
0
!∞
n e−(s+b) ds
(s
+
b)
0
e
!n
(sup +b)i
i=0
i!
!
n
bi
−b
e
i=0 i!
−(sup +b)
Per b = 0, il limite superiore Bayesiano è identico a quello
classico (per pura coincidenza)
Intervallo Bayesiano con priori piatta per s (2)
Altrimenti il limite Bayesiano è sempre maggiore
(‘conservativo’) di quello classico
Non è mai negativo; non dipende da b se n = 0.
N.B.: questo metodo può essere usato anche con la likelihood
estesa:
Intervalli di confidenza e test statistici
Un interavallo di confidenza per il parametro θ può essere trovato
definendo un test per l’ipotesi con il valore θ (ripetuto per tutti i
possibili θ):
Specifichiamo i valori osservati che sono sfavoriti per un dato
θ (regione critica) in modo che P(regione critica) ≤ γ
per un γ specificato, per esempio 0.05 or 0.1.
Se i valori osservati cadono nella regione critica rigettiamo θ
Ora invertiamo il test per definire un intervallo di confidenza come:
l’insieme dei valori θ che non sarebbero rigettati dal test (il
livello di confidenza corrispondente è 1 − γ ).
L’intervallo copre il vero valore θ con una probabilità ≥ 1 − γ.
È equivalente alla costruzione della fascia di confidenza; la fascia
di confidenza è la regione di accettanza di un test
Limite con il likelihood ratio (Feldman-Cousins)
Definiamo il rapporto della likelihood per un ipotetico valore s del
parametro:
Qui
è l’estimatore con la ML, quindi
La regione critica è definita dai valori inferiori del likelihood ratio.
Gli intervalli che si ottengono possono essere uni- o bi-laterali
(dipende da n).
(Ri)scoperta per HEP da Feldman and Cousins,
Phys. Rev. D 57 (1998) 3873.
Intervalli con LR test (Feldman-Cousins)
Caveat sulla copertura: supponiamo di trovare n >> b.
Di solito il risultato viene dato come:
Se, invece, n non è abbastanza grande per dichiarare una scoperta si
mette un limite su s..
FC fanno notare che se la decisione viene presa in base al risultato
ottenuto, la probabilità di copertura dell’intevallo può essere minore
del livello di confidenza (‘flip-flopping’).
L’intervallo definito con il test LR rimuove questo problema:
la transizione da 1 a 2 estremi infatti dipende da n.
Però, supponiamo che il test LR dia 0.1 < s < 5 al 90% CL.
Questo non significa che certamente il segnale è diverso da zero
(il p-valore per s=0 è ancora sostanziale). Il risultato è che il limite
superiore diventa meno stringente...
Proprietà dei limiti superiori
Esempio: prendiamo b = 5.0, 1 − γ = 0.95
Limite superiore sup vs. n
Limite superiore medio vs. s
Limite superiore vs b
Feldman & Cousins, PRD 57 (1998) 3873
Se n = 0, il limite superiore dipende da b?
Classico: sì
Bayesiano: no
FC: sì
Il test CLs
Un altro test statistico che è stato usato per definire l’intervallo di
confidenza per un segnale (ad es. Higgs a LEP) è:
p-valore dell’ipotesi segnale + fondo
CLs =
1 − p-valore dell’ipotesi fondo soltanto
a volte scritta più semplicemente
CLb+s
CLs =
CLb
ma nei due casi si inverte il test di
compatibilità con l’ipotesi di
fondo soltanto!
Il test CLs (2)
Anche in questo caso si può trattare CLs come una variabile
statistica e calcolare il suo p-valore e quindi costruire gli intervalli
di confidenza
Oppure, come si fa più spesso usare il valore di CLs come p-valore
per costruire gli intervalli di confidenza
Si noti che in quest’ultimo caso CLs < CLs+b ovvero si ottiene
sempre un limite conservativo rispetto all’uso di CLs+b
È una situazione molto simile a quella già incontrata nel confronto
tra metodo classico e Bayesiano per il limite nel caso n = s+b
Ed infatti CLs applicato a questo caso dà esattamente il risultato
Bayesiano!
Bibliografia aggiuntiva
Per quest’ultima parte oltre a Data Analysis di G. Cowan è utile
leggere la review di statistica del PDG
C. Amsler et al. (Particle Data Group), Physics Letters B667, 1
(2008) and 2009 partial update for the 2010 edition
anche disponibile online su http://pdg.lbl.gov
Ovviamente vi invito anche a leggere il già citato
Feldman and Cousins, Phys. Rev. D 57 (1998) 3873
Scarica