Inferenza Statistica Inferenza statistica - Introduzione

annuncio pubblicitario
Inferenza Statistica
•
•
•
•
•
Introduzione all’inferenza statistica
Metodo dei minimi quadrati
q
Introduzione concetto Stimatori statistici
Stimatori col metodo dei momenti
Stima di parametri in modelli fisici
– Metodo dei Minimi Quadrati
• Modelli Lineari
• Modelli multilineari
Inferenza statistica - Introduzione
• N
elle precedenti lezioni sono stati introdotti gli strumenti
matematici (teoria della probabilità e variabili aleatorie)
fondamentali per affrontare il problema dell’inferenza statistica
• O
vvero, dato un campione, quali informazioni possiamo trarre sulla
popolazione da cui è tratto? E con quale affidabilità?
1
Teoria della probabilità. Definizione
popolazione e campione.
• R
iepilogo
Popolazione
P
Processo
deduttivo
C
ampione
Processo induttivo
Caratterizzazione
Campione: Statistica
descrittiva
Corrente
sezione
Caratterizzazione
Popolazione: Teoria della
probabilità e statistica
Inferenza parametrica
• N
ell’approccio classico, la caratterizzazione della popolazione incognita
passa per l’ipotesi di un modello matematico per la popolazione
stessa.
• O
vvero, si suppone che la casualità rispetti una legge dettata da un
certo tipo di variabile aleatoria.
• Della pdf caratterizzante il processo casuale non sono noti i
parametri.
• Lo scopo è determ
determinare
nare tal
tali parametr
parametri dalle informazioni
nformaz on fornite
forn te
dal campione.
• Per tale motivo, tale tipo di caratterizzazione prende il nome di
inferenza parametrica.
2
Inferenza parametrica
• Esempio: La popolazione genitrice il campione di dati sperimentali
è descritta da una g
gaussiana di media μ e varianza σ2 entrambe
non noti.
σ
Popolazione
μ
μ =?
σ2 = ?
• Media e varianza possono essere “ricavati” dalle caratteristiche
del campione di dati disponibile.
Inferenza parametrica
• Incominciamo a considerare il caso in cui la popolazione sia nota,
(per esempio: una variabile aleatoria Y di tipo Gaussiano di media
μY e varianza σY2)
σY
x
μY
• Un’osservazione
proveniente da tale
variabile aleatoria può
potenzialmente
assumere qualunque
valore reale, ma
plausibilmente
l
ibil
non sii
allontanerà molto dal
trend centrale
3
Inferenza statistica – Introduzione
intuitiva
• Il singolo risultato del processo aleatorio può essere visto come
l’estrazione di un risultato da un’ ”urna” in cui i valori più ricorrenti
sono nei pressi del trend centrale
x
μY
La maggior parte dei
risultati che si
possono osservare è
nei pressi del centro
Ma non possiamo
escludere risultati che
siano lontani dal centro
Inferenza statistica – Introduzione
intuitiva
• N
el caso in cui si ripetono più prove, la media dei risultati “attenua”
l’importanza dei valori individuali estremi
• La media del campione sarà nei pressi della media della
popolazione
x
μY
Y
4
Inferenza parametrica
Metodo dei minimi quadrati
• N
ell’ipotesi di VA di tipo normale la migliore “stima” della media può
essere ottenuta considerando il valore medio dei punti del
campione.
N
y=
∑y
i =1
i
N
• Tale stima prende il nome di MEDIA del campione di dati.
• Il valore
l
medio
di di un campione
i
di dati
d ti è
è, iinfatti,
f tti il valore
l
θ per
cui la somma delle distanze dei valori osservati da esso è minima:
N
Φ (θ ) = ∑ ( yi − θ )
2
i =1
Inferenza parametrica
Metodo dei minimi quadrati
• Infatti con alcuni banali passaggi:
∂ Φ (θ )
=0
∂θ
∂
∂θ
(∑ ( y − θ ) ) = −2∑ y + 2 N θ = 0
2
i
i
θ=y=∑
yi
N
5
Inferenza parametrica
Metodo dei minimi quadrati
• N
el caso in cui si abbianoNosservazioni tutte provenienti dallo
stessa popolazione (stessa variabile aleatoria) e indipendenti tra
esse, si parla di distribuzioni indipendenti identicamente
distribuite e si indica con l’acronimo i.i.d.
• Ciascun elemento del campione può essere visto come un esito di
una variabile aleatoria.
• L’operazione di somma è quindi da interpretare come una
operazione su VA e, in quanto tale, variabile aleatoria anche essa:
y=
∑y
i
N
Media aritmetica del
campione
Y =
∑Y
i
N
Variabile aleatoria Media
Inferenza parametrica
Introduzione concetto Stimatore
• Se i dati sperimentali sono tutti caratterizzati dalla stessa
distribuzione Yi~N(μ,σ2) quali sono le caratteristiche della VA
Media Y ?
⎡1
⎤
E [Y ] = E ⎢ (Y1 + Y2 + ... + YN )⎥ =
⎣N
⎦
1
(E[Y1 ] + E[Y2 ] + ... + E[YN ]) = 1 N μ = μ
N
N
• La media della variabile aleatoria coincide con il parametro media
della popolazione sotto esame.
• Questo risultato, nonostante sia intuitivo, non è affatto banale.
6
Inferenza parametrica
Introduzione concetto Stimatore
• Discorso analogo può essere fatto per la varianza della VA,
sfruttando le proprietà incontrate nel caso di trasformazioni
lineari:
⎛1
var⎜
⎝N
⎞ 1
∑ Yi ⎟⎠ = N 2
N
σ2
i =1
N
∑σ 2 =
• In conclusione, se Y~N(μ, σ2), la media aritmetica diNprove
sperimentali è una variabile aleatoria
⎛ σ2 ⎞
YN ~ ⎜⎜ μ , ⎟⎟
⎝ N ⎠
Inferenza parametrica
Introduzione concetto Stimatore
• Riepilogo:
• In termini statistici, valutare la media per un campione di dati
sperimentali,
i
li equivale
i l a considerare
id
il singolo
i
l esito
i di una altra
l
variabile aleatoria, caratterizzata dalla stessa media della
singola VA e con una varianza più piccola:
μˆ = μ Z = μY
σ Z2 =
σ Y2
n
• Con il cappuccio si intende “valore stimato del parametro μ”
• Tale
T l tipo
i di variabile
i bil aleatoria
l
i è un esempio
i di STIMAT
T M TORE per il
parametro media μ della VA di tipo gaussiano.
• N
ella inferenza puntuale l’obbiettivo è la ricerca degli stimatori
caratterizzati dalla minima varianza (e quindi la minore
incertezza nel risultato).
7
Criterio della Massima Verosimiglianza
Stimatore Media - Esempio
•
0.5
1.4
1.2
0.4
1.0
0.3
0.8
0.6
0.2
σ
0.4
0.1
0.2
σ
10
0.0
0.0
Distribuzione densità di
probabilità della VA
Y associata alla singola prova
sperimentale
Distribuzione densità di
probabilità della VA
stimatore media aritmetica
Y10
Inferenza statistica – Media come
variabile aleatoria
• Seguendo il grafico delle “urne”,
– osservare un valore di X equivale
q
a pescare
p
dall’urna a
sinistra,
– calcolare la media di un campione equivale a pescare dall’urna
più stretta a destra
μ
x
Variabile aleatoria X
X
XX
XX
XXX
XXX
X X X XX
Variabile aleatoria X
8
Inferenza parametrica
Introduzione concetto Stimatore
• Riepilogo:
• In termini statistici, valutare la media per un campione di dati
sperimentali,
i
li equivale
i l a considerare
id
il singolo
i
l esito
i di una altra
l
variabile aleatoria, caratterizzata dalla stessa media della
singola VA e con una varianza più piccola:
μX
σ =
2
X
σ x2
N
• Tale tipo di variabile aleatoria è un esempio di STIMATORE per il
p m t media
parametro
m di μ della
d ll VA di tip
tipo gaussiano.
ssi n
Inferenza parametrica
Introduzione concetto Stimatore
• Uno Stimatore è una funzione del campione di dati, non basato
sui parametri della popolazione.
• Lo stimatore è una funzione nota delle variabili aleatorie
• Il valore assunto da uno stimatore è quindi l’esito di una VA
• Come ogni altra VA, è possibile definire la distribuzione di uno
stimatore.
• N
on esiste un unico stimatore per i parametri di una VA.
VA
9
Stimatore media • La media aritmetica è una valida scelta per stimare il parametro
μ di una Gaussiana (in genere per il trend centrale dei risultati)
• Esistono
E i
anche
h delle
d ll alternative
l
i per individuare
i di id
il trend
d
centrale:
– La mediana
– La moda
• N
on tutti gli stimatori hanno le stesse “qualità”
• N
ella inferenza puntuale l’obbiettivo è la ricerca degli stimatori
picaratterizzati dalla minima varianza (e quindi la minore
incertezza nel risultato).
Inferenza parametrica
Introduzione concetto Stimatore
• Definizione:
• Una funzione di variabili aleatorie che non dipende
esplicitamente da parametri incogniti è definita statistica.
• Esempio:
X=
X 1 + X 2 + ... + X N
N
• È una statistica. Invece,
Z = (X − μ )
σ
• Nonè una statistica, a meno che i parametri μ e σ siano noti.
• Uno stimatore è quindi una statistica
10
Inferenza parametrica
Proprietà di uno Stimatore statistico
• Imparzialità: Uno stimatore si dice imparziale (unbiased) se il suo
valore atteso coincide con il valore vero del parametro
( )
E Θ̂ = Θ
• N
B sebbene il valore vero non sarà mai noto è possibile valutare il
verificarsi della imparzialità.
• Efficienza:E
za:E’ una misura della varianza dello stimatore
stimatore. Se
dispongo di più stimatori devo scegliere quello con varianza
minima ovvero quello con la massima efficienza.
Inferenza Parametrica
Proprietà di uno stimatore statistico
• Esempio – Confronto Stimatori media e mediana per il parametro
μ della VA Gaussiana:
E [Y ] = μ
E [Ymediana ] = μ
var[YN ] =
var[Ymediana ] =
σ2
N
π σ2
2 N
La media aritmetica e la mediana sono
entrambi stimatori imparziali per il
parametro μ della VA Gaussiana
La varianza dello stimatore media è
inferiore alla varianza della mediana
La media aritmetica è uno stimatore più
efficiente della mediana
11
Proprietà di uno stimatore
• Da notare che non sempre gli stimatori imparziali sono efficienti
e viceversa
• Esempio:
Stimatore V
(il più
efficace, ma
parziale)
p(v)
Stimatore U
(imparziale)
p(u)
μ
Inferenza parametrica
Proprietà di uno Stimatore statistico
• C
onsistenza: E’ una proprietà dello stimatore al variare del numero
di prove sperimentali. Uno stimatore si dice consistente se:
lim θˆ = θ
N →∞
• Lo stimatore ideale dovrebbe essere uniforme, imparziale e a
varianza minima possibile (acronimo: UMVUE, Uniform Minimum
Variance Unbiased Estimator)
• Si può dimostrare che lo stimatore media aritmetica per una
popolazione di tipo gaussiano è uno stimatore UMVUE.
12
Stimatori – Metodo dei Momenti
• Il metodo dei minimi quadrati (LS: Least Squares) non è il solo
modo di ottenere degli stimatori.
• Un altro metodo che può essere usato per ottenere uno
stimatore è il metodo dei momenti.
• Definizione:
• Momento k-esimo di un campione di dati
mk =
1
∑ yik
N i
• Momento centrale k-esimo di un campione di dati:
Mk =
1
k
∑ ( yi − y )
N i
Stimatori – Metodo dei Momenti
• Il metodo dei momenti è il metodo più semplice per la
determinazione dei parametri incogniti in una distribuzione
• Tale metodo ricava i valori dei parametri eguagliando i valori dei
momenti del campione di dati con le espressioni matematiche
relative.
• A titolo di esempio consideriamo il caso di una VA uniforme di cui
non siano noti i valori a ebe che abbia riportato in5misure i
seguenti
g
esiti:
– {2.44, 1.21, 2.04, 1.95, 1.82}
13
Stimatori – Metodo dei Momenti
• È possibile calcolare media e varianza per il campione di dati
sperimentali osservati e metterli a sistema con i valori teorici:
a+b
= 1.89
2
(a − b )2 = 0.198
M2 =
12
m1 =
• La stima di a e b sarà quindi a = 1.12 e b = 2.66
• In linea di principio, è possibile ricavare i valori di a e b da una
qualunque
l
coppia
i di momentii ii-esimi.
i i
• Questo approccio è possibile per una qualunque funzione di
distribuzione.
• O
vviamente, il tipo di VA deve essere nota
Stimatori – Metodo dei Momenti
• Altro esempio: Variabile aleatoria Y di tipo esponenziale.
fY ( y ) = λ exp(− λ y )
FY ( y ) = 1 − exp(− λ y )
• La funzione ha un solo parametro, λ.
• Media (momento primo) e varianza (momento centrale di ordine
2) sono tali che:
μ=
1
λ
σ2 =
1
λ2
14
Stimatori – Metodo dei Momenti
•
È utile osservare in questo caso che abbiamo a disposizione, per il
metodo dei momenti, due distinte formule per la valutazione del
parametro λ della
d ll di
distribuzione
ib i
esponenziale.
i l
•
Esempio: si consideri il caso di una campagna sperimentale per la
caratterizzazione del tempo di resistenza di un dato materiale soggetto
ad uno sforzo.
Tale tempo è una variabile aleatoria, dato che varia da campione a
campione esaminato
Supponiamo che5prove abbiano riportato i seguenti risultati
risultati:
•
•
{ 0.178 hr, 0.606 hr, 0.181 hr, 1.13 hr, 0.131 hr}
•
Si intende valutare il parametro λ della VA in esame
Stimatori – Metodo dei Momenti
VA di tipo esponenziale
• In questo caso è possibile determinare il parametro dalla media:
n
y=
∑x
i
i =1
= 0.446 =
n
1
λ
⇒
λ = 2.24
⇒
λ = 2.32
• o, analogamente, dalla varianza
n
s2 =
∑x
i =1
n
2
i
= 0.186 =
1
λ2
• È da notare che le due procedure portano a due stimatori
differenti con due differenti valutazioni del parametro in esame.
15
Metodo dei Momenti – Applicazione VA di
tipo Gaussiano
• N
el caso di una VA di tipo Gaussiano l’uguaglianza tra momenti
campionari e momenti della popolazione porta a risultati di facile
interpretazione:
N
m1 =
∑ yi
i =1
N
∑ ( yi − y )
N
M2 =
Il metodo dei momenti
fornisce anche una
stima ragionevole del
parametro varianza
della VA Gaussiana
=μ
2
i =1
N
=σ 2
Criterio della Massima Verosimiglianza
Stimatori Varianza.
• Si sono già analizzate le proprietà dello stimatore media.
• nel caso dello stimatore varianza:
σˆ N2 =
1
N
N
∑ (Y − μˆ )
i =1
2
i
• Si può innanzitutto osservare che lo stimatore σˆ N è dipendente
dallo stimatore μ̂
2
• L’espressione per lo stimatore suggerirebbe una relazione con
2
una variabile aleatoria di tipo χ
16
Stima di parametri
• Il caso più interessante è quello in cui la relazione attesa sia
lineare
• N el caso dell’esperienza della caduta di un oggetto esiste una
relazione di tipo lineare che correla velocità v con il tempo di
caduta t
v = v0 + gt
• Più in generale possiamo considerare relazioni del seguente tipo
y = β 0 + β1 x
• dove β0 (intercetta) e β1 (pendenza) sono costanti
Stima dei parametri
Caso dipendenza lineare
• In assenza di incertezza nell’osservazione di yi ci aspettiamo che
i punti (x,y), al variare delle condizioni operative xi si trovino
tutti su una retta.
35
30
25
Y
20
15
10
5
0
0
2
4
6
8
10
12
X
17
Stima dei parametri
Caso dipendenza lineare
• In realtà la presenza di errore impedisce che i punti siano
allineati.
40
35
30
Y
25
20
15
10
5
0
0
2
4
6
8
10
12
X
• La procedura che si può eseguire è ricercare quale è la retta
(tra le tante possibili) che approssima meglio i risultati
sperimentali.
Stima di parametri in modelli fisici
Metodo dei Minimi Quadrati: Modelli lineari
• Il modo migliore per descrivere i dati consiste nel cercare la
retta (di regressione) che renda minimo la somma di tutti i
quadrati delle distanze
y
yi
di
y= β0+β
β 1x i
x
18
Stima dei parametri - Caso dipendenza
lineare- Metodo dei minimi quadrati
• Per ciascun dato sperimentale è possibile misurare la
distanza del singolo dato dalla ipotetica retta. La misura
della distanza è misurata nella direzione verticale.
β0+ β1 x i
di = yi-β0−β1 xi
yi
xi
• I parametri β0 e β1 della retta non sono noti a priori
• È possibile calcolare quali siano i valori che minimizzano la
distanza complessiva dei punti
Stima di parametri in modelli fisici
Metodo dei Minimi Quadrati: Modelli lineari
• La somma di tutte le distanze tra le prove sperimentali e la retta
di equazione canonica generica y=β0+β1 x può essere scritta nella
forma:
2
∑ di2 = ∑ ( yi − β 0 − β1 xi ) = Φ(θ )
i
i
• Dove θ è il vettore dei parametri ignoti {β0, β1}
Definizione
• La funzione Φ(θ) è definita funzione obiettivo
La distanza
di = yi– β0 – β1 xi
di
yi =a+b xi
xi
è misurata lungo la verticale
perché è l’unica sorgente di
deviazioni dal valore vero
Questa distanza è funzione
solo delle incognite a e b
19
Stima dei parametri
Caso dipendenza lineare
Metodo dei minimi quadrati
Gauss:
• La retta deve essere determinata dai punti sperimentali in
modo tale che la somma dei quadrati delle distanze di questi
punti dalla linea retta sia minima, dove la distanza è misurata
nella direzione verticale.
Stima dei parametri Caso dipendenza lineare
Metodo dei minimi quadrati
• La somma di tutte le distanze tra le prove sperimentali e la retta
di equazione canonica generica y= β0+β1x può essere scritta nella
forma:
2
∑ d i2 = ∑ ( yi − β 0 − β1 xi ) = Φ(θ )
i
i
• Dove θ è il vettore dei parametri ignoti {β0, β1}
Definizione
• La funzione Φ(θ) è definita funzione obiettivo
20
Stima dei parametri - Caso dipendenza
lineare - Metodo dei minimi quadrati
• I valori θ che mi minimizzano la funzione Φ(θ) sono la migliore
stima dei parametri per la regressione lineare
• Una determinazione puntuale dei parametri passa sempre per
la ricerca dei minimi (o dei massimi) di una funzione
obiettivo.
• L’operazioni di determinazione dei valori che mi minimizzano
(o massimizzano) una funzione obiettivo è detta ottimizzazione
Stima dei parametri - Caso dipendenza
lineare - Metodo dei minimi quadrati
• nel caso della regressione lineare, è possibile ottenere una
soluzione analitica dei coefficienti β0 e β1 per cui la funzione
obiettivo è minima
• Data la funzione obiettivo:
Φ(θ ) = Φ(β 0 , β1 ) = ∑ ( yi − β 0 − β1 xi )
2
i
• Si può facilmente verificare che la funzione di β0 e β1 è un
paraboloide e quindi ammette una (ed una sola) coppia di valori
minima.
21
Stima dei parametri - Caso dipendenza
lineare - Metodo dei minimi quadrati
• Il minimo della funzione obiettivo è ricercato tramite gli zeri
delle derivate:
∂
∂ β0
Φ(β 0 , β1 ) =
∂
∂ β0
2
∑ ( yi − β 0 − β1 xi ) = 0
i
∂
∂
2
Φ(β 0 , β1 ) =
∑ ( yi − β 0 − β1 xi ) = 0
∂ β1
∂ β1 i
• I valori di β0 e β1 che annullano il sistema di equazioni lineari
sono delle stime puntuali dei valori veri della regressione
lineare.
Stima dei parametri
Caso dipendenza lineare - Metodo dei minimi
quadrati
• Derivando la funzione rispetto ai parametri
∂
∂ β0
Φ(β 0 , β1 ) = −2 ∑ ( yi − β 0 − β1 xi ) = 0
i
∂
Φ(β 0 , β1 ) = −2∑ ( yi − β 0 − β1 xi ) xi = 0
i
∂ β1
• Con semplici passaggi si ottiene:
N
N
β 0 N + β1 ∑ xi = ∑ yi
i =1
i =1
N
N
N
i =1
i =1
i =1
β 0 ∑ xi + β1 ∑ xi2 = ∑ yi xi
• Il sistema di equazioni precedenti è un sistema di equazioni
lineari.
22
Stima dei parametri – Caso dipendenza
lineare – Metodo dei Minimi Quadrati
• Le due equazioni lineari sono talvolta chiamate equazioni normali
e possono essere facilmente risolte per le costanti β0 e β1
1 N N
∑ xi ∑ yi
i =1
i =1
i =1
N
β1 `= N
2
N
1⎛
2
⎞
∑ xi − ⎜ ∑ xi ⎟
i =1
N ⎝ i =1 ⎠
N
∑ yi xi −
β 0 = y − β1 x
d
dove:
N
y=
∑
i =1
N
Le formule danno le migliori
stime possibili per i
coefficienti β0 e β1
N
yi
x=
∑x
i
i =1
N
Stima dei parametri - Caso dipendenza
lineare - Metodo dei minimi quadrati
• Si definisce la somma corretta dei quadrati delle x
N
S xx =
∑ (x − x )
2
i
i =1
• E la somma corretta dei prodotto x ed y
N
S xy =
N
∑ (x − x )( y − y ) = ∑ y (x − x )
i
i
i =1
i
i
i =1
• Con qualche passaggio si ottiene la formula equivalente:
v
S xy i =1
= N
β1 =
S xx ∑ ( x − xv )2
i
∑ yi ( xi − x )
N
i =1
23
Stima di parametri in modelli fisici
Metodo dei Minimi Quadrati: Modelli lineari
• I valori determinati β̂ 0 e β̂1 sono delle combinazioni lineari delle
variabili aleatorie yi
• Sono pertanto anche esse delle variabili aleatorie.
• Se si ripetono n esperimenti nelle stesse condizioni operative dei
precedenti esperimenti otterremo dei valori differenti per le
stime di β̂ 0 e β̂1
• Le stime dei parametri che tipo di variabili aleatorie sono? Sono
delle variabili aleatorie indipendenti?
• Le proprietà degli stimatori introdotti con il metodo dei Minimi
Quadrati saranno discusse nel seguito
Criterio della Massima Verosimiglianza
Modelli lineari – Proprietà stimatori
• È possibile determinare il valore atteso delle variabili aleatorie
relative a β0 e β1.
• Consideriamo dapprima la variabile aleatoria relativa a β1
• Possiamo scrivere:
βˆ1 =
S XY
= ∑ ci Yi
S XX
i
• Dove ci è uguale a:
ci =
(xi − x )
S XX
Tale
l termine è completamente
l
deterministico in quanto funzione
delle sole condizioni sperimentali
xi (che si suppone siano note con
precisione assoluta)
24
Criterio della Massima Verosimiglianza
Modelli lineari – Proprietà stimatori
• È possibile quindi calcolare il valore atteso dello stimatore:
• Passaggio 1
( )
⎛
⎞
E βˆ1 = E ⎜ ∑ ciYi ⎟ = ∑ ci E (Yi )
⎝ i
⎠ i
∑ ci E (β 0 + β1 xi ) = β 0 ∑ ci + β1 ∑ ci xi
i
i
i
Questo termine sarà
valutato nel passaggio 3
Questo termine sarà
valutato nel passaggio 2
Criterio della Massima Verosimiglianza
Modelli lineari – Proprietà stimatori
• Passaggio 2
(xi − x )
∑ c = ∑ (x − x )
∑
2
i
i
i
=
i
i
• Passaggio 3
x (x − x )
∑i ci xi = ∑i i Si =
XX
( )
E βˆ1 = β1
1
2
∑ (xi − x )
∑ (x − x ) = 0
i
i
i
∑ (x − x )(x − x )
i
i
i
S XX
=1
Lo stimatore β1 è imparziale
• In maniera analoga si dimostra che anche β0 è uno stimatore
imparziale
25
Criterio della Massima Verosimiglianza
Modelli lineari – Proprietà stimatori
• Parzialità stimatore varianza
• Si p
può dimostrare che:
( )
E σˆ 2
(
⎛
ˆ
ˆ
⎜ ∑ yi − β 0 − β1 xi
i
= E⎜
n
⎜
⎜
⎝
) ⎞⎟
2
⎟=
⎟
⎟
⎠
n−2 2
σ
n
• Lo stimatore varianza è parziale. Uno stimatore imparziale è:
∑ (y
i
s2 =
− βˆ0 − βˆ1 xi
)
2
i
n−2
Criterio della Massima Verosimiglianza
Modelli lineari – Varianza stimatori
• Dato che βˆ0 e βˆ1 sono delle variabili aleatorie è possibile
calcolare p
per esse la varianza.
• Per β1 è possibile scrivere:
n
β̂1 = ∑ ciYi
• Dove
ci =
i =1
(xi − x )
S xx
• È possibile scrivere per la varianza di
:
()
⎛ n
⎞ n
V β̂ = V ⎜ ∑ ciYi ⎟ = ∑ ci2V (Yi )
⎝ i =!
⎠ i =1
26
Criterio della Massima Verosimiglianza
Modelli lineari – Varianza stimatori
• Se si suppone per ciascuna yi la stessa varianza:
⎛
⎞
⎜
⎟
2
n
n ⎜
⎟
(
)
−
x
x
i
V βˆ1 = σ 2 ∑ ci2 = σ 2 ∑ ⎜
⎟=
2
n
i =1
i =1 ⎜ ⎛
2⎞ ⎟
⎜ ⎜ ∑ ( xi − x ) ⎟ ⎟
⎠ ⎠
⎝ ⎝ i =1
( )
1
⎛ n
2⎞
⎜ ∑ ( xi − x ) ⎟
⎝ i =1
⎠
n
(xi − x )2 =
2 ∑
i =1
σ2
S xx
• Domanda: come è possibile ridurre la varianza dello stimatore
(ovvero, ottenere una stima più precisa)?
Criterio della Massima Verosimiglianza
Modelli lineari – Varianza stimatori
• Considerazioni analoghe possono essere fatte per la variabile
aleatoria β0:
( )
σ 2 x 2σ 2
+
V βˆ0 =
n
S xx
• Come è possibile ridurre l’incertezza nella stima della variabile βˆ0
?
27
Criterio della Massima Verosimiglianza
Modelli lineari – Proprietà stimatori
• Per quanto riguarda la covarianza si può dimostrare che:
σ 12 = − x
σ2
S XX
• la covarianza può essere negativa. Le varianze non possono,
ovviamente, essere negative. La matrice di covarianza deve
essere definita positiva.
• Va notato che tutte le varianze contengono il valore vero della
varianza sperimentale. Per arrivare a stime bisogna sostituire la
stima di tale varianza.
Metodo dei Minimi Quadrati – Legge
polinomiale
• Spesso accade che una variabile y sia esprimibile come una legge
polinomiale di una seconda variabile x
y = β 0 + β1 x + β 2 x 2 + ... + β n x n
• Per esempio, ci aspettiamo che l’altezza y di un corpo che cade
sia una funzione quadratica del tempo
1
y = y0 + v0t − gt 2
2
• dove y0 e v0 sono l’altezza e la velocità iniziali e g è l’accelerazione
di gravità
28
Metodo dei Minimi Quadrati – Legge
polinomiale
• Per semplicità di trattazione ci limitiamo a considerare solo il
caso di
d una legge
l
d tipo quadratico:
di
d
y = β 0 + β1 x + β 2 x 2
• Anche in questo caso è possibile determinare i valori di β0, β1
e β2 che rendano minima la somma delle distanze tra i valori
osservati yi ed i valori predetti dal modello β0+β1xi
Φ(β 0 , β1 , β 2 ) = ∑ ( yi − β 0 − β1 xi − β 2 xi2 )
N
2
i =1
Metodo dei Minimi Quadrati – Legge
polinomiale
• Differenziando la funzione obiettivo rispetto ai parametri A, B e
C si perviene al seguente sistema di equazioni lineari che può
essere risolto sfruttando i metodi tradizionali (esempio: metodo
di Cramer)
β0 N
β 0 ∑ xi
+
β1 ∑ xi
i
+ β1 ∑ xi2
+ β 2 ∑ xi2
i
+ β 2 ∑ xi3
=
∑ yi
=
∑ xi yi
i
i
i
i
i
i
i
i
i
β 0 ∑ xi2 + β1 ∑ xi2 + β 2 ∑ xi4 = ∑ xi2 yi
• Il problema può essere generalizzato per una legge polinomiale
qualunque (anche se i calcoli diventano sempre più complicati
all’aumentare dell’ordine)
29
Metodo dei Minimi Quadrati – Dipendenza
lineare dai parametri
• In presenza di una dipendenza lineare dai parametri è possibile
considerare qualunque dipendenza non lineare dalle variabili
• Esempio:
y = A sin x + B cos x
• è una legge lineare in z1=sinx e z2 = cosx
• Può essere pertanto risolta con una procedura assolutamente
analoga al caso precedente
Metodo dei Minimi Quadrati –
Linearizzazione: Funzione esponenziale
• Una delle più importanti funzioni nella fisica è la funzione
esponenziale
i l
y = Ae Bx
• Dove A e B sono delle costanti.
• Parecchi problemi fisici sono descritti da questo semplice
modello, che è chiaramente non lineare nei parametri
• L’applicazione diretta della formula per la ricerca del minimo
della funzione obiettivo non ammette soluzione analitica:
Φ( A, B ) =
∑ (y − Ae )
i
Bxi 2
i
30
Metodo dei Minimi Quadrati –
Linearizzazione: Funzione esponenziale
• È comunque possibile trasformare la relazione lineare tra yed x
in una relazione lineare, per la quale è quindi possibile applicare
la regressione lineare:
• Per ottenere la “linearizzazione” si fa semplicemente il logaritmo
della dipendenza
ln yi = ln A + Bxi
• Si ricade quindi in un problema che può essere trattato con la
classica
class
ca regress
regressione
one lineare
l neare
ln yi = z i = ln A + Bx
Metodo dei Minimi Quadrati –
Linearizzazione: Funzione esponenziale
• La linearizzazione attrae per la sua semplicità ed è usato
frequentemente.
• Tuttavia, il metodo non è del tutto legittimo da un punto di vista
rigoroso.
• La derivazione del metodo era basata sull’ipotesi che i valori
misurati y1,…, yNerano tutti ugualmente incerti.
• O
ra stiamo ottenendo la regressione usando la variabile z=ln(y). Se
i valori misurati yi sono tutti ugualmente incerti, i valori di zi
corrispondenti
p
non lo sono
31
Metodo dei Minimi Quadrati –
Linearizzazione: Funzione esponenziale
• La trasformazione altera l’errore e questo fatto ha delle
conseguenze
Log(r)
r
• L’errore si amplifica per r piccoli e si riduce per r grandi.
Metodo dei Minimi Quadrati –
Linearizzazione
• È possibile considerare differenti linearizzazioni per differenti
modelli
Ax
1 B1 1
⇒
=
+
B+ X
y Ax A
y = Ax B
⇒ ln y = ln A + B ln x
1
1
y=
⇒
= B + Ae − x
−x
y
B + Ae
• etc.
• In
I tuttii i casii non di
dimentichiamoci
i hi
i che
h lla procedura
d
non è
perfettamente rigorosa
y=
32
Metodo dei Minimi quadrati: Regressione
Multipla
• Fin qui abbiamo discusso soltanto osservazioni di due variabili x
ed y e la loro relazione.
• In molti problemi reali ci sono più di due variabili che devono
essere presi in considerazione. Per esempio nello studiare la
pressione P di un gas, si trova che essa dipende dal volume V e
dalla temperatura T e si deve analizzare P come una funzione di
VeT
• L’esempio più semplice di dipendenza da più variabili è il
seguente:
z = f ( x, y ) = θ 0 + θ1 x + θ 2 y
Metodo dei Minimi quadrati: Regressione
Multipla
• In maniera analoga al caso della regressione polinomiale, la
ricerca dei parametri A, B e C passa per la risoluzione di un
sistema di equazioni lineari
θ0 N
θ 0 ∑ xi
+
+
θ1 ∑ xi
i
θ1 ∑ x
i
i
2
i
θ 0 ∑ yi + θ1 ∑ xi yi
i
i
+
θ 2 ∑ yi
i
∑ zi
i
= ∑ xi zi
θ 2 ∑ yi2
= ∑ yi zi
i
i
+ θ 2 ∑ xi yi
+
i
=
i
33
Scarica