La likelihood
E' dato un set di misure {x1, x2, x3, ...xN} (ciascuna
delle quali puo' essere multidimensionale)
Supponiamo che la pdf (f) dipenda da un parametro a
(anch'esso eventualmente multidimensionale)
La likelihood e' definita come la densità di probabilità
che il set di misure {x1, x2, x3, ...xN} sia prodotto a
partire dal particolare valore di a:
L x1, x 2,. .. x N ; a= f x 1 ; a f x 2 ; a.... f x N ; a=∏ f x i ; a
La probabilità che l'i­ma misura sia compresa tra xi e xi+dxi è f(xi;a)dxi e le N misure sono indipendenti
Alessandro De Falco, INFN Cagliari
1
8/19/09
Il criterio della massima likelihood
Dati {x1, x2, x3, ...xN}, si puo' stimare il parametro a
che caratterizza la pdf f(xi;a) massimizzando la
likelihood rispetto ad a
ln L
Normalmente e' preferibile
calcolare il logaritmo della
likelihood, per poter trattare
somme anziche' prodotti
a
Nota: non è necessario eseguire un binning dei dati:
usiamo tutta l'informazione.
Alessandro De Falco, INFN Cagliari
2
a
8/19/09
Proprieta' della massima likelihood
E' consistente
E' affetta da bias per piccoli N. L'effetto diventa
trascurabile a grandi N
E' efficiente per grandi N
E' invariante: se si usa u(a) al posto di a e si stima u
mediante la maximum likelihood, si ottiene
u=u
a
ln L
ln L
a
Alessandro De Falco, INFN Cagliari
u
3
8/19/09
Altre considerazioni sulla ML
Spesso sono richiesti metodi numerici
La massimizzazione (o la minimizzazione, se si
considera -ln L) in piu' di una variabile non e'
facile
La likelihood fornisce solo il parametro piu'
corretto ma non da' alcuna informazione sulla
qualita' del fit.
Il valore di L non fornisce alcuna informazione
Alessandro De Falco, INFN Cagliari
4
8/19/09
Esempio: distribuzione esponenziale
Abbiamo un campione di dati t1, t2,...,tn che segue la
pdf
1 −t /
f t ; = e
con da determinare. Calcolo la likelihood e la
massimizzo rispetto a
n
log L =∑ log f t i ; =∑
∂ log L
1 ti
log −
i=1
i
=0
=
∂
1
n
∑ ti
i
La stima con la massima likelihood del parametro
libero corrisponde alla media aritmetica dei dati
osservati.
Lo stimatore non ha bias: infatti la media aritmetica è
uno stimatore senza bias per E[t], e per la
distribuzione esponenziale E[t]=
Alessandro De Falco, INFN Cagliari
5
8/19/09
Possiamo chiederci quale è la stima con la ML per la
funzione:
1
=
− t
f t ; = e
Per una funzione a() del parametro non ha importanza
esprimere L in termini di della funzione o del parametro. La a
che massimizza La(a) è
dove massimizza L)
a
Dunque, per l'esponenziale:
1
1
=
= ∑ ti
n i
−1
ha un bias. Si può dimostrare che:
E [ ]=
n
n−1
Asintoticamente il bias
tende a zero
In generale è vero che una funzione non lineare di uno
stimatore senza bias è uno stimatore con bias del parametro
Alessandro De Falco, INFN Cagliari
6
8/19/09
Stima di di una gaussiana con la ML
1
2
f x ; , =
2
2
log L , =∑ log f =∑ log
i
∂ log L
=0
∂
∂ log L
∂
2
=0
i
=
1
n
exp −
2
1
2
∑ xi
2
2
log
2
1
2
2
−
1 x i −
2
2
Si dimostra che la stima non ha bias
i
2
2 = 1
∑ xi −
n i
2 ]= n−1 2
E[
n
Alessandro De Falco, INFN Cagliari
1
1 x−2
7
La stima ha bias che tende a
zero per n che tende all'infinito
8/19/09
Varianza dello stimatore con la ML
Vogliamo determinare l'incertezza statistica sul parametro
stimato:
che risultato avremmo ottenuto ripetendo molte volte lo
stesso esperimento con lo stesso numero n di misure?
Nel caso della distribuzione esponenziale:
2
2
V [ ]=
E [ ]− E [ ]
2
1
1
t
exp−t
/
.....
∑ i
1
exp−t n /
∑
=∫ ...∫ dt 1. .. dt n
− ∫ ... ∫ dt 1. .. dt n
1
n
n
1
n
i=1
n
i=1
2
2
1
1
t i exp −t 1 / ..... exp −t n / =
n
(La varianza dipende dal parametro , mentre noi abbiamo
u possiamo sostituire con la
la sua stima Poichè u =
sua stima)
Alessandro De Falco, INFN Cagliari
8
8/19/09
Varianza dello stimatore con la ML: metodo Monte Carlo
Per casi difficilmente risolvibili per via analitica, si può
utilizzare il MC:
Supponiamo la pdf nota, fissando il valore del parametro
secondo la misura ottenuta dall'esperimento
Simuliamo N esperimenti (N>>1)
Per ciascuno degli esperimenti, calcoliamo la stima del
parametro con la ML
Dalla distribuzione del parametro così ottenuta ricaviamo la
RMS
Esercizio: partiamo da una distribuzione esponenziale con τ=1 e 100 misure; costruiamo il campione dei dati 'veri' (anche questo con una simulazione) e
stimiamo il parametro Mettiamo i risultati su un istogramma. Calcoliamo dunque l'errore sulla stima del parametro ricostruendo 1000 campioni da 100 misure ciascuno e calcolandone la RMS. Che forma ha la distribuzione?
Alessandro De Falco, INFN Cagliari
9
8/19/09
Varianza dello stimatore con la ML: metodo grafico
Supponiamo che L=L(θ) e calcoliamo lo sviluppo in serie:
[
log L =log L
∂ log L
∂
]
−
=
=0 perchè in la likelihood è max per definizione
1
2
log L =log L max −
−
2
2
2
1 ∂ log L
2
[
∂
[
2 =
ovvero:
La variazione del parametro pari a una
deviazione standard a partire dal valore
stimato comporta una riduzione di log(L)
pari a ½ rispetto al valore massimo
2
]
2 ...
−
=
−1
2
2
〈d log L / d 〉
]
=
log L ±
=log L max −
1
2
Possiamo così definire l'errore statistico sul
parametro, che possiamo ricavare da un
grafico di log(L) come mostrato in figura
Alessandro De Falco, INFN Cagliari
10
8/19/09
Maximum likelihood con dati binnati
N
n = n1, n 2,. ... , n N n =∑ n
Spesso i dati vengono messi in un istogramma
tot
i
x i max
con v. di aspettazione i =n tot
∫
x i min
f x ; dx
=1, 2,. ... , N
i=1
N
tot =∑ i
i=1
L'istogramma è una misura di un vettore di dimensione N, la cui pdf
congiunta sarà multinomiale:
f
N
joint
n ,
=ntot ! ∏
Al limite
k=1
N ∞
1
k
nk
n k ! ntot
N
log L =∑ n i logi
Trascuro i termini che non dipendono dai parametri
i=1
(o xi(max)-xi(min)-> 0) ci si riporta al caso senza binning
Il metodo è applicabile quando nk=0 (diversamente dai minimi quadrati,
che tratteremo in seguito)
Alessandro De Falco, INFN Cagliari
11
8/19/09
Stima con la ML: in sintesi
Aspetti positivi della stima con la ML:
per N abbastanza grande:
✔
✔
E' senza bias (una stima consistente è asintoticamente priva di
bias)
E' efficiente: la varianza si approssima al MVB
Può essere usata senza binning (che comporta perdita di
informazione)
Può essere usata per stimare più parametri
Permette di calcolare facilmente l'errore sui parametri
Limiti:
Per N piccolo, solitamente presenta un bias
E' necessario conoscere la forma della pdf
✔
Non fornisce informazioni sulla bontà del fit
Spesso è necessario stimare i parametri con un calcolo numerico
Alessandro De Falco, INFN Cagliari
12
8/19/09