Stima dell’intervallo per un parametro
In aggiunta alla ‘stima puntuale’ di un parametro dobbiamo dare
l’intervallo che rappresenta l’incertezza statistica.
Questo intervallo deve:
comunicare in modo obbiettivo i risultati;
avere una data probabilità di contenere il parametro vero;
permettere di trarre delle conclusioni sul parametro tenendo
conto delle probabilità a priori.
In genere si usa +/− la deviazione standard stimata dell’estimatore.
In alcuni casi, non è adeguata:
risultato vicino ad un limite fisico,
numero di eventi osservati consistente con zero.
Si possono definire gli intervalli sia nell’approccio Frequentista che
in quello Bayesiano
Intervalli di confidenza: approccio frequentista
Dato un estimatore
per il parametro θ e la stima
Sia data per tutti i possibili θ la distribuzione del campione
Si fissa i valori per le code di probabilità superiore e inferiore, per
esempio α = 0.05, β = 0.05, quindi si trovano le funzioni uα(θ) e
vβ(θ) tali che:
Intervallo di confidenza dalla fascia di confidenza
La regione tra uα(θ) e vβ(θ) è la fascia di confidenza.
Determiniamo i punti dove il valore
osservato interseca la fascia di
confidenza
Questo è l’intervallo di confidenza [a, b]
Livello di confidenza = 1 − α − β = probabilità che
l’intervallo “copra” il vero valore del parametro (questo vale
per ogni valore possibile del parametro θ)
Intervalli di confidenza in pratica
La ricetta per trovare [a, b] si riduce a risolvere
→ a è il valore ipotetico di θ tale che
→ b è il valore ipotetico di θ tale che
Significato di un intervallo di confidenza
Intervalli di confidenza centrali o unilaterali
Intervalli di confidenza dalla likelihood
Nel limite di campione infinito vale per l’estimatore ML dei
parametri
:
(Gaussiana n-dimensionale con covarianza V)
definisce una regione di confidenza iper-ellissoidale
Se
allora
Si noti che n è il numero di parametri
Esempio di intervallo dal ln L(θ )
Per n=1 parametri, CL = 0.683, Qγ = 1.
Si osservi che l’intervallo è asimmetrico rispetto al massimo
Si dimostra che anche se la likelihood non è Gaussiana l’intervallo
può essere approssimato con il metodo grafico (MINOS)
Regioni di confidenza approssimative da L(θ )
Per determinare la regione di confidenza con CL = 1−γ si prende:
Per campioni finiti approssimano le regioni di confidenza
La probabilità di copertura non è garantita essere 1−γ ;
non ci sono teoremi per stimare di quanto si sbaglia (usare un MC).
Limite sui parametri di una distribuzione di Poisson
Consideriamo di nuovo il caso di n = ns + nb eventi dove
nb eventi da processi noti (fondo)
ns eventi da processi nuovi (segnale)
sono variabili di Poisson con medie s e b e perciò anche n = ns + nb
è una variabile di Poisson con media = s + b. Supponiamo b sia noto.
Stiamo cercando l’evidenza per il processo di segnale,
ma il numero di eventi trovati è circa uguale al numero di
eventi aspettati per il solo fondo, per esempio b = 4.6 e noi
troviamo nobs = 5 eventi.
L’evidenza per il segnale s non è statisticamente rilevante
→ vogliamo mettere un limite superiore su s.
Limite superiore per una Poissoniana
Troviamo il parametro s tale che la probabilità di osservare gli
eventi che abbiamo visto o meno è uguale a un valore fissato,
piccolo, per esempio γ = 0.05:
Risolviamo per s = sup, e troviamo il limite superiore per s con un
livello di confidenza di 1−γ.
Esempio: supponiamo b = 0 e troviamo nobs = 0. Per 1−γ = 0.95,
→
In generale è utile ricordare che:
m
n=0
n
e
n!
=1
F⇥2 (2 ; 2(m + 1))
Calcoliamo il limite per la Poissoniana
Per determinare slo, sup, possiamo usare la relazione con la
distribuzione del χ2:
Quantile della distribuzione del χ2
Per fluttuazioni verso il basso di n il
risultato per sup =0; cioè l’intervallo
di confidenza è vuoto.
Limiti vicino ad un contorno fisico
Supponiamo che sia b = 2.5 e che si osservi n = 0.
Se scegliamo CL = 0.9, dalla formula per sup troviamo
Punto di vista fisico:
Sapevamo già che s ≥ 0; non possiamo riportare come risultato
di un esperimento complesso un limite superiore negativo!
Punto di vista statistico:
L’intervallo copre il valore vero del parametro nel 90% dei casi;
chiaramente questo non è uno di quelli.
Questo è un dilemma piuttosto comune quando il limite del
parametro è vicino ad un contorno fisico, per esempio nel caso di
mν stimato con E2 − p2 .
Limite aspettato per s = 0
Fisico: avrei dovuto usare CL = 0.95 — quindi sup = 0.496
Anche meglio: per CL = 0.917923 otteniamo sup = 10−4 !
Un momento... con b = 2.5 le fluttuazioni di Poisson in n sono circa
√2.5 = 1.6. Come faccio ad ottenere un limite così basso?
Guardiamo il valore medio del limite
nell’ipotesi di fondo soltanto (s = 0):
questo valore è la sensibilità.
Distribuzione del limite per un CL
del 95% con b = 2.5, s = 0.
Limite superiore medio = 4.44
Approccio Bayesiano
Nella statistica Bayesiana dobbiamo iniziare con ‘pdf a priori’ π(θ),
che rappresenta la nostra conoscenza di θ prima dell’esperimento.
Il teorema di Bayes ci dice come modificare la pdf in seguito ai
risultati dell’esperimento
Possiamo integrare la pdf a posteriori p(θ | x) per ottenere un
intervallo con qualsivoglia copertura
.
Per esempio per una Poissoniana il limite superirore al 95% di CL si
otterrà da
Probabilità a priori per una Poissoniana
Poichè sappiamo che s ≥0, poniamo π(s) = 0 per s<0.
Spesso si traduce la nostra ‘ignoranza a priori’ con
- Non è normalizzata:
va bene se L(s) decresce rapidamente per s grande.
- Non è invariante rispetto ad un cambio dei parametri.
una probabilità piatta per la massa del bosone di Higgs implica
una probabilità non piatta per il numero di eventi con un Higgs.
- Non rappresenta veramente il nostro grado di conoscenza ma
possiamo usarla come punto di riferimento:
ci permette di costruire degli intervalli dei quali possiamo
studiare le proprietà dal punto di vista frequentista (la copertura
dipenderà dal vero valore di s).
Intervallo Bayesiano con priori piatta per s
Bisogna risolvere per sup la seguente equazione
1
=
=
=
e
sup
L(n|s)ds
0
⇥
L(n|s)ds
0
sup
n
(s+b)
(s
+
b)
e
ds
0
⇥
n e (s+b) ds
(s
+
b)
0
(sup +b)
e
b
(sup +b)i
n
i=0
i!
n
bi
i=0 i!
Per b = 0, il limite superiore Bayesiano è identico a quello
classico (per pura coincidenza)
Intervallo Bayesiano con priori piatta per s (2)
Altrimenti il limite Bayesiano è sempre maggiore
(‘conservativo’) di quello classico
Non è mai negativo; non dipende da b se n = 0.
N.B.: questo metodo può essere usato anche con la likelihood
estesa: