Statistica 3 Statistica 3 - Dipartimento di Scienze Statistiche e

Prof. M. Chiodi
regressione,analisi della varianza,etc.
1
Statistica 3
A.A. 2001-2002
Prof. Marcello Chiodi
Istituto di Statistica
Facoltà di Economia di Palermo
Viale delle Scienze;
90128 - Palermo-Italy
(tel. xx39-0916626238; 0916626322; fax. xx39-091485726)
e-mail [email protected])
home page: http://statistica.economia.unipa.it/chiodi
.
PARTE 8
CERCARE AGGIORNAMENTI SUL SITO DEL
DOCENTE PRIMA DELLA FINE DEL CORSO
Sommario
Il problema dei confronti multipli nell'analisi della varianza .......................................... 2
Confronti a priori e a posteriori:............................................................................ 3
Metodo di Tukey ........................................................................................................ 4
Range studentizzato:............................................................................................. 4
Intervalli di confidenza simultanei: Metodo di Scheffè: ............................................... 6
Relazione fra gli intervalli di confidenza di Scheffè e il test F dell'AOV: ............... 7
&
L'ipotesi di omogeneità delle varianze............................................................. 10
Il test di Bartlett.........................................................................................................10
&
Il Potere del test F: distribuzioni non centrali................................................... 11
Distribuzione χ2 non centrale. ....................................................................................11
Distribuzione F non centrale. .....................................................................................12
Calcolo del potere del test..........................................................................................12
Potere del test F.......................................................................................................15
&
Esempio con: k=3;n1=10;n2=5,n3=8 ...................................................................15
Approssimazione di Patnaik............................................................................ 17
Modelli ad effetti casuali .........................................................................................18
Componenti della varianza:........................................................................................20
AOV a una via: effetti casuali ....................................................................................22
stima dei parametri ....................................................................................................23
Distribuzione degli stimatori:.....................................................................................23
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
2
Il problema dei confronti multipli nell'analisi della varianza
Affrontiamo adesso il problema dell’analisi ulteriore delle medie dei
campioni, nel caso in cui l’ipotesi di omogeneità sia stata rifiutata. Resta
inteso che nel caso in cui il test F risulti non significativo, poco altro
potrà essere detto sull’esperimento, se non uno studio più approfondito
relativo alla validità delle assunzioni di base.
Se invece F è risultato significativo l'ipotesi di omogeneità va rifiutata;
Possiamo indagare ulteriormente sull'eterogeneità dimostrata dalle
medie dei gruppi?
Ci possiamo porre alcune domande:
• A quali medie è dovuto principalmente l’eterogeneità?
• Alcune di queste medie possono essere comunque considerate
simili?
• E’ possibile dire qualcosa su particolari confronti fra
combinazioni di medie?
In effetti possiamo effettuare diversi tipi di confronti fra medie; qui
cito solo i principali:
ƒ Differenze fra medie:
µj - µs
ƒ Contrasti lineari generali:
k
k
ψ= ∑ cj µj, con ∑ cj=0.
j=1
j=1
Quindi un contrasto lineare non è altro che una combinazione lineare di
medie con coefficienti a somma nulla. Di seguito sono riportati alcuni esempi
di contrasti lineari:
Contrasto
Valori dei coefficienti
Tipo di confronto
Confronto fra gli
effetti medi di due
cj =1; cs =-1
µj - µs
campioni
Confronto fra gli
c1 = ½ ; c2 = ½ ;
effetti medi di due
(µ1+µ2)/2-(µ3+µ4+µ5)/3
c3 = -⅓ ; c4= -⅓ ; c5= -⅓ gruppi di campioni
Confronto di k-1
k-1
presi
c1 = c2 = … ck-1 = 1/(k-1) trattamenti,
globalmente, con un
∑ µj/(k-1) - µk
ck = -1
gruppo di controllo
j=1
(il k-esimo)
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
3
Confronti a priori e a posteriori:
In effetti, dopo che il test F ha manifestato evidenza empirica contraria
all’ipotessi di omogeneità, si potrebbe pensare di impiegare un semplice
test t sulle coppie di medie stimate Mj, per vedere quali sono
significativamente diverse; tuttavia questa non è una procedura corretta,
in quanto non tiene conto del fatto che molto probabilmente le medie da
mettere a confronto verranno scelte dopo avere esaminato le k medie;
inoltre questa procedura non garantisce il livello di significatività
nominale nel caso si mettano a confronto più coppie di medie: una cosa è
confrontare due medie, un’altra cosa è confrontare due medie scelte fra k
medie osservate. Il lievello di significatività sarà in generale
ƒse i confronti sono pianificati (a priori), si può usare il test t, usando
come stima della varianza quella con più gradi di libertà dell’AOV
ƒse invece i confronti sono suggeriti dai dati (a posteriori), non si può
impiegare il test t
‰ Alterazione del livello di significatività effettivo in caso di m test
indipendenti effettuati sugli stessi dati:
α∗=1-(1- α)m
test t su tutte le coppie.
‰ i test da condurre sono in teoria k(k-1)/2 (sebbene non tutti
indipendenti.
‰
Inserire materiale presente solo su lucido
Fra i metodi per superare il problema dei confronti multipli a
posteriori, presento i due più noti ed utili nelle applicazioni:
‰ Il metodo di Tukey (importante per il confronto fra coppie di
medie)
generali,
‰ Il metodo di Scheffè, adatto a contrasti lineari
importante per la sua relazione col test F.
‰ Altre tecniche particolari per effettuare test (o comunque
inferenza) su confronti selezionati a posteriori:
ƒTest di Dunnett (specifico per il confronto rispetto ad un
gruppo di controllo)
ƒCorrezione di Bonferroni per il livello di significatività
ƒTest di Duncan
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
4
Metodo di Tukey
Mj ∼ N(µ;σ2/m);
mentre se è vera H1:
Mj ∼ N(µj;σ2/m);
m: ampiezza comune dei k campioni (n=k m)
Range studentizzato:
Per ipotesi se è vera H0 le medie campionaria hanno tutte la stessa
distribuzione:
Definiamo prima una nuova variabile casuale: il range studentizzato.
Sia X(i) la variabile casuale corrispondente all'osservazione di posto iesimo in un campione casuale di ampiezza r estratto da una N(µ,σ2).
Sia s2 una stima corretta di σ2 (stimata indipendentemente dal
campione) con ν gradi di libertà.
Il range studentizzato la variabile casuale definita da:
Zr,ν= [X(r)-X(1)]/s
Questa variabile casuale (i cui percentili sono tabulati) ha una
distribuzione che chiaramente dipende da:
r: ampiezza campionaria;
ν: gradi di libertà della stima della varianza
ma non dipende invece dai parametri µ,σ2 (dato che [X(r)-X(1)]/s è una
quantità pivotale: infatti la differenza X(r)-X(1) chiaramente non dipende da
µ ed il rapporto poi con s non dipende da σ2
Inserire tavola con i percentili (software di
calcolo?); vedere Biometria tables
Se indichiamo con qα,r,ν il valore critico di tale distribuzione (i cui
percentili sono tabulati) si ha chiaramente:
Prob{Zr,ν=[X(r)-X(1)]/s≤qα,r,ν}=1−α
ma anche:
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
5
Prob{max |Xi-Xj|≤ s qα,r,ν}=1−α
i≠j
Prob{ [|Xi-Xj|≤ s qα,r,ν]}=1−α
i≠j
Mj∼N(µi;σ2/m).
E’ possibile adesso costruire degli intervalli di confidenza per le
differenze fra medie (a posteriori), poiché sono stati introdotti tutti gli
strumenti tecnici necessari.
Torniamo alle medie dei k campioni:
Si ha che le v.c. Mj-µi sono distribuite secondo una N(0;σ2/m);
possiamo quindi costruire un intervallo mediante i punti critici del range
studentizzato, simultaneamente per tutte le differenze fra medie:
Prob{|(Mi-µi)-(Mj-µj)| ≤ s qα,r,ν/√m]}=1−α
Per cui l'intervallo di confidenza per una generica differenza è:
(Mi-Mj)-s qα,r,ν/√m≤ µi-µj≤(Mi-Mj)+s qα,r,ν/√m.
Intervallo di confidenza di Tukey per una generica differenza di medie, ad
un livello di probabilità fiduciaria 1-α; (r campioni di ampiezza m)
Pertanto potremo dire che sono significativamente diverse (ad un
livello di significatività α) le medie per le quali tali intervalli (costruiti
con un livello di probabilità fiduciaria 1- α) non contengono lo zero.
In tal modo è possibile costruire per un particolare esperimento, dati
m,k e α, la LSD (Least Significant Difference): se ad esempio abbiamo 5
campioni di ampiezza 10, ad un livello di significatività del 5%, potremo
dire che tutte le medie che differiscono di più di ……… (vedere le
tavole) sono significativamente diverse.
Il metodo è generalizzabile a contrasti lineari qualsiasi, sebbene meno
efficiente:
k
k
ψ= ∑ cj µj, con ∑ cj=0
j=1
j=1
la stima di ψ dal campione è:
^
k
|ψ = ∑ cj Mj;
j=1
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
k
^
6
k
|ψ -ψ|=| ∑ cj (Mj−µj)|≤½ ∑ |cj |max|(Mj−µj)-(Mi−µi)|
j=1
j=1
Per cui si ha, ricordando che:
k
^
Prob{max|(Mi-µi)-(Mj-µj)| ≤ s qα,r,ν/√m]}=1−α
Prob{||ψ -ψ|=½ ∑ |cj | s qα,r,ν/√m}=1−α
j=1
ed infine l'intervallo per ψ:
^
k
^
k
ψ -½ ∑ |cj | s qα,r,ν/√m≤ ψ ≤ψ +½ ∑ |cj | s qα,r,ν/√m
j=1
j=1
Intervalli di confidenza simultanei: Metodo di Scheffè:
Con la tecnica di Scheffè si adotta un approccio differente, basato non
sui confronti in coppia, ma direttamente su generici contrasti lineari di
tipo qualsiasi; si otterrà anche una relazione di tale tecnica con il test F
per la verifica dell'ipotesi di omogeneità delle medie.
Si è già visto che si può costruire una regione di confidenza per q
combinazioni lineari nei parametri del modello lineare, in modo che sia
1-α la probabilità fiduciaria:
Prob{(Cβ-Cb)'[C(X'X)-1C']-1(Cβ-Cb)≤q s2 Fα,q,n-k}=1-α
Si sa anche che:
[z' (Cβ
β-Cb)]2
(Cβ-Cb)'[C(X'X) C'] (Cβ-Cb)=max
z'C(X'X)-1C'z
z
-1
-1
DIMOSTRAZIONE SUI LUCIDI A MANO
per cui sostituendo nell'espressione di prima:
Prob{max
z
[z' (Cβ
β-Cb)]2
≤q s2 Fα,q,n-k}=1-α
z'C(X'X)-1C'z
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
7
Prob{[z'(Cβ-Cb)]2 ≤ z'C(X'X)-1C'z q s2 Fα,q,n-k per qualsiasi z}=1-α
Notiamo anche che
V(z'Cb)=σ2 z'C(X'X)-1C'z;
e quindi una stima corretta della varianza di z'(Cb) si ha sostituendo
nell’espressione precedente a σ2 la sua stima corretta s2
^
V (z'(Cb))=s2 z'C(X'X)-1C'z;
Per cui si ha:
^
Prob{[z'(Cβ-Cb)]2 ≤ V (z'Cb) q Fα,q,n-k per qualsiasi z}=1-α
Ed infine l'intervallo:
^
z'Cb± V (z'Cb) q Fα,q,n-k
conterrà z'Cβ con probabilità 1-α, per qualsiasi valore z'
Applicando ora questo procedimento ai contrasti lineari nell'analisi
della varianza si ha:
k
k
ψ= ∑ cj µj, con ∑ cj=0
j=1
j=1
Per stimare ψ dal campione si ha:
k
^
ψ = ∑ cj Mj;
j=1
per la stima della sua varianza:
^
^
V (ψ ) =s
k
2
∑
cj2/nj;
j=1
(si può ricavare per via diretta oppure dall'espressione generale di
V(z'Cb));
In definitiva l'intervallo per un contrasto lineare è dato da:
^
^
^
ψ ± V (ψ ) q Fα,q,n-k
Nell'analisi della varianza ad una via: q=k-1.
Relazione fra gli intervalli di confidenza di Scheffè e il test F dell'AOV:
Per il modo in cui è stato costruito è evidente che se l'intervallo non
contiene lo zero ciò equivale a rifiutare l'ipotesi nulla:
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
8
H0: ψ=0
Riconsideriamo il test F sull'omogeneità delle k medie:
E'equivalente a saggiare l'ipotesi che k-1 contrasti lineari (indipendenti)
siano nulli. Questo implica che tutti i contrasti siano nulli, dato che ogni
contrasto è combinazione lineare dei primi k-1;
Quindi il test F saggia l'ipotesi che qualsiasi contrasto lineare sia
nullo;
Quindi il test F risulta significativo se e solo se esiste un contrasto
lineare significativamente diverso da zero,
ossia se esiste un contrasto lineare il cui intervallo di confidenza non
copra lo zero
Ovviamente se F risulta significativo, non è detto che il contrasto
lineare significativo sia interessante o utile in generale.
Tuttavia gli intervalli di Scheffè, sebbene forniscano dei test
corrispondenti piuttosto conservativi (perché costruiti su tutti i possibili
contrasti lineari, e non su uno particolare), forniscono certamente
risultati coerenti col test F.
Altre tecniche:
tecniche più potenti per alternative particolari, uso di altri particolari
range studentizzati
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
9
ALTRO MATERIALE
SPARSO:
lucidi scritti a mano
GRAFICI ED ESEMPI
Lucidi antichi
RIPORTARE LA TAVOLA
SUL CONFRONTO FRA GLI
INTERVALLI (LUCIDI A
MANO)
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
10
&
L'ipotesi di omogeneità delle varianze.
Il test di Bartlett
• saggiare l'ipotesi che le varianze di k popolazioni normali (anche con
medie differenti) non siano diverse.
• costruzione del rapporto fra le verosimiglianze.
• correzione delle stime delle varianze.
• correzione del test (per migliorare l'approssimazione alla
distribuzione asintotica).
ALTRO MATERIALE
lucidi scritti a mano
da
Statistica
Matematica
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
11
&
Il Potere del test F: distribuzioni non centrali.
Per potere valutare il potere del test F per particolari ipotesi alternative,
o meglio la funzione del potere al variare delle alternative, occorre fare
ricorso alle distribuzioni non centrali.
Distribuzione χ2 non centrale.
2
ƒ La distribuzione χν (centrale) è definita come la distribuzione della
somma di ν quadrati di variabili normali indipendenti standardizzate,
ossia:
ƒ con valore atteso nullo
ƒ ed a varianza unitaria.
2
ƒ La distribuzione χ non centrale è invece definita come la
distribuzione della somma di quadrati di variabili normali
indipendenti, sempre a varianza unitaria ma con media qualsiasi.
In pratica se Xi∼N(µi,1) allora la χ2 non centrale è definita da:
ν
2
χ (ν,λ) =
∑ X²i
i=1
i due parametri sono:
ν: gradi di libertà;
ν
λ= ∑ µ²i = parametro di non centralità
i=1
Si può dimostrare che:
χ2(ν,λ) =χ2(ν−1,0)+χ2(1,λ)
I primi due momenti sono:
2
ƒ Ε[χ (ν,λ)]=ν+λ
2
ƒ V[χ (ν,λ)]=2(ν+2λ)
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
12
Distribuzione F non centrale.
χ2[ν1,λ]/ν1
F(ν1,ν2,λ)= 2
χ [ν2,0]/ν2
Calcolo del potere del test
ƒ Applicazioni all'analisi della varianza
Una F non centrale con ν1 e ν2 gradi di libertà e parametro di non
centralità λ,è definita come la distribuzione del rapporto fra una variabile
casuale χ2 non centrale con ν1 gradi di libertà e parametro di non
centralità λ, ed una χ2 centrale con ν2 gradi di libertà (divisi per i
rispettivi gradi di libertà):
ALTRO MATERIALE
ESEMPI E GRAFICI
(notebook di mathematica
noncentral1.nb)
Densità di una Chi-quadro non centrale con 1 grado di libertà e
parametro di non centralità 0,2 e 5:
[Graphics:poteref_dispensagr3.gif]
Densità di una Chi-quadro non centrale con 2 grado di libertà e
parametro di non centralità 0,2 e 5:
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
13
[Graphics:poteref_dispensagr5.gif]
[Graph
Densità di una Chi-quadro non centrale con 3 gradi di libertà e
parametro di non centralità 0,2 e 5:
[Graphics:poteref_dispensagr8.gif]
[Graph
Densità di una Chi-quadro non centrale con 20 gradi di libertà e
parametro di non centralità 0,2 e 5:
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
14
[Graphics:poteref_dispensagr11.gif]
Densità di una F non centrale con 3 e 20 gradi di libertà e parametro di
non centralità 0,2 e 5:
[Graphics:poteref_dispensagr14.gif]
[Graph
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
15
Potere del test F
Plot[{1-CDF[f[2,20,m],f95a],1-CDF[f[2,50,m],f95b]},{m,0,10},PlotPoints->15,
PlotRange->{0,1},PlotStyle->{RGBColor[1,0,0],RGBColor[0,1,0],RGBColor[0,0,1]}]
[Graphics:poteref_dispensagr20.gif]
[Graph
[Graph
Esempio con: k=3;n1=10;n2=5,n3=8
Plot3D[1-CDF[f[2,20,10 e1^2+5 e2^2+8 ((-10 e1-5 e2)/8.)^2],f95a],{e1,2,2},{e2,-2,2},PlotPoints->25,
PlotRange->{0,1}]
[Graphics:poteref_dispensagr22.gif]
[Graph
ContourPlot[1-CDF[f[2,20,10 e1^2+5 e2^2],f95a],{e1,-2,2},{e2,-2,2},PlotPoints->15,
PlotRange->{0,1}]
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
16
0.623077, 0.63828}
f95=Quantile[f0[4,16],0.95];
Plot[1-CDF[nc[4,16,l],f95],{l,0,10},PlotPoints->15,
PlotRange->{0,1}]
[Graph
[Graphics:poteref_dispensagr25.gif]
f0[a_,b_]:=
FRatioDistribution[a,b]
f95=Quantile[f0[4,16],0.95]
3.006917279924345
Power2=Table[1-CDF[nc[4,v2,10],
Quantile[f0[4,v2],0.95]],{v2,5,30,5}]
{0.346645, 0.497816, 0.564506, 0.600651,
Plot[1-CDF[f0[(4+l)^2/(4+2 l),16],(4/(4+l)) f95]
,{l,0,10},PlotPoints->15,PlotRange->{0,1}]
[Graphics:poteref_dispensagr26.gif]
[Graph
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
17
&
Approssimazione di Patnaik
Powerexact=Table[1-CDF[nc[4,16,l],f95],{l,0,15}]
{0.05, 0.0911362, 0.138647, 0.190846, 0.246121,
0.52381, 0.573383, 0.619761, 0.662734,
0.702213, 0.7382, 0.770771}
Kendall,II,24.33
0.303001, 0.360196, 0.41662, 0.471387,
Powerappr=Table[1-CDF[f0[(4+l)^2/(4+2 l),16],(4/(4+l)) f95]
,{l,0,15}]
{0.05, 0.0907828, 0.13731, 0.188238, 0.242288,
0.298216, 0.354857, 0.411159, 0.466217,
0.519281, 0.569762, 0.617224, 0.661374,
0.702045, 0.739176, 0.772798}
Abs[Powerexact/Powerappr-1]*100
-13
{2.22045 10 , 0.389324, 0.973844, 1.3856,
1.58217, 1.60448, 1.50474, 1.32797, 1.10872,
0.872079, 0.635576, 0.410955, 0.205655,
0.0239555, 0.132152, 0.26231}
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
18
Modelli ad effetti casuali
ƒModello II di "AOV";
ƒModello a effetti casuali;
ƒcomponenti della varianza
In generale in un modello ad effetti casuali (soltanto casuali) il vettore
delle n osservazioni è dato da:
Y[n×1]=1nθ+X[n×p] u[p×1] + ε [n×1]
ƒL'analogia col modello lineare generale è in buona parte solo
formale;
ƒNel modello lineare generale (con effetti fissi) l'interesse primario è lo
studio del valore atteso di Y;
ƒNei modelli a effetti casuali l'interesse primario è lo studio delle
componenti della varianza di Y e della media generale θ
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
19
Caratteristiche essenziali degli elementi del modello:
Y
♦ Vettore aleatorio osservabile;
n
è come sempre, la variabile di risposta di interesse
elementi
θ
♦ Parametro incognito
matrice
n× p
u
♦ Matrice di costanti note.
sono, come prima, variabili non aleatorie osservate senza
errori; possibilmente si tratta di una matrice di indicatori
associata ad una classificazione ad una o più vie.
X
1
• è l'effetto medio generale;
elemento
• è un parametro fisso ma incognito che in generale andrà
stimato dai dati del campione;
♦ Vettore di variabili aleatorie non osservabili
• sono p variabili aleatorie che contribuiscono alla parte
p elementi aleatoria di Y;
• possono essere visti come dei coefficienti (o effetti)
casuali
ε
♦ Vettore aleatorio non osservabile direttamente;
♦ Al solito si faranno delle ipotesi sulla natura della
distribuzione di ε che dipende in generale da un
insieme di parametri incogniti
vettore
• Si dovranno fare delle ipotesi sulla natura della
distribuzione di u che dipende in generale da un insieme
di parametri (varianze) incogniti
n elementi
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
V(εε) = σε²In
perché è stato isolato l'effetto
medio generale θ
momento primo
V(u) = Σ
momento secondo
σrj=0 se r≠j
Var(uj)=σj²;
ƒ
La matrice di varianza e
covarianza degli effetti casuali è
diagonale con elementi diagonali σj²
qualsiasi. Si può in particolare
ipotizzare che queste varianze siano
uguali a gruppi
gli effetti casuali non sono
correlati
con
la
componente
accidentale
Cov(u,ε)=0
ε)=0
La varianza viene indicata con σε²
per distinguerla da quelle di u
E(u) =0p
p effetti casuali
ε è la componente accidentale
additiva
con componenti non
correlati e con stessa varianza.
(stesse ipotesi di prima)
componente
accidentale
Le assunzioni usuali sono:
E(εε) = 0n,
20
Var(εi)=σε²;
Cov(uj,ur)=0 r≠j; Cov(εi,εl)=0 i≠l; Cov(εi,uj)=0 per ogni
(i,j)
Componenti della varianza:
L'attenzione non è, come nel modello lineare a effetti fissi, sui fattori
che influenzano i valori attesi di Y, tramite
Y= componente sistematica + componente accidentale,
ma sui fattori che compongono la varianza di Y.
Ipotizziamo che le varianze siano uguali all'interno di k gruppi di effetti, e
che quindi vi siano k varianze distinte σj²;
conseguentemente suddividiamo u[p×1] in k sottovettori ciascuno di
lunghezza pj e la matrice X in k sottomatrici ciascuna di n righe e pj
k
colonne, essendo ∑ pj=p.
j=1
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
21
k
Y=1nθ+ ∑ Xj uj + ε
j=1
E(Y)=1nθ, ossia E(Yi)=θ
Per la varianza delle osservazioni si ha ora una diversa situazione. Infatti
si vede facilmente che, con le assunzioni fatte:
k
'
V(Y)=E(YY')-1n1n θ= ∑ σj²XjXj' +σε² In
j=1
ƒOltre al parametro θ, i parametri di interesse sono le k+1 varianze
(σj² j=1,2,…,k e σε²) (si assume che n≥k+1)
ƒPer questo motivo il modello viene spesso chiamato modello a
componenti di varianza per l'analisi della varianza;
Novità fondamentale rispetto al modello a effetti fissi:
ƒLe osservazioni sono in generale correlate (almeno a gruppi) perché
la matrice V(Y) non è diagonale dato che le Y sono combinazioni
lineari delle stesse variabili uj
ƒLe osservazioni hanno lo stesso valore atteso
Nel caso generale si cercheranno stimatori non distorti dei parametri,
costituiti
da forme quadratiche nelle osservazioni:
^
σj²=y'Csy.
Condizioni di esistenza di stimatori non distorti (cenno)
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
22
AOV a una via: effetti casuali
ƒLa matrice X è la matrice di indicatori di appartenenza ai k gruppi;
ƒsupponiamo le k varianze degli effetti casuali uj tutte uguali;
Yij = µ+uj+εij;
E(uj)=0 E(εij)=0
ƒsupponiamo nj=m.
Var(εi)=σε²;
Var(uj)=σu²; varianza dei k effetti costante
Cov(uj,ur)=0 r≠j; Cov(εi,εl)=0 i≠l;Cov(εi,uj)=0 per ogni (i,j)
E(Yij)=µ; V(Y)=σu² XX'+σε²In
Per quanto visto nel caso generale adesso si ha:
La matrice XX' risulta composta da k blocchi (lungo la diagonale)
formati da 1m,m.
σu²
σu²
i≠l ; corr(Yij,Ylr)=
j≠r
σu²+σε²
σu²+σε²
corr(Yij,Ylj)=
Var(Yij)=σu²+σε²
Le osservazioni appartenenti ad uno stesso gruppo risultano correlate:
intraclass-correlation.
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
23
stima dei parametri
Distribuzione degli stimatori:
Massima verosimiglianza: si giunge, con un procedimento non
immediato,
alle equazioni (modificando i denominatori ):
^
ĵ =M
k m
^
ƒσε²= ∑ ∑ (yij-Mj)2/k(m-1)
j=1 i=1
Si vede dopo
k
^
^
2
perché
questi
σ²ε+mσu²=m ∑ (Mj-M) /(k-1), per cui:
denominatori
j=1
k
^
^
ƒσu²= ∑ m(Mj-M)2/m(k-1)-σ²ε/m
j=1
(può risultare <0)Î connessione con la correlazione entro le classi.
^
µ si distribuisce normalmente perché è combinazione lineare di un v.a.
normale:
^
^
µ =1n'Y/n
E(µ )=µ;
^
V(µ)=1n'V(Y)1n/n2 = 1n'[σu² XX'+σε²In]1n/n2
sommando tutti
gli elementi e
ricordando
che
n=km
=[σu²m2k+kmσε²]/k2m2=
=^ σu²/k+σε²/km
µ ∼N(µ,σu²/k+σε²/km)
Per quanto visto prima:
k
∑ m(Mj-M)2/(k-1)mk è una stima di tale varianza.
j=1
k
m
ƒ ∑ ∑ (yij-Mj)2 si distribuisce come nel modello a effetti fissi, perché
j=1 i=1
gli scarti yij-Mj non dipendono né da µ né dagli effetti casuali uj.
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001
Prof. M. Chiodi
regressione,analisi della varianza,etc.
24
ƒ
k
∑
k
m(Mj-M) = ∑ m(µ+uj+ε.j-(µ+u.+ε..)2=
j=1
j=1
2
k
∑
k
ε.j,u.,ε.. sono medie
m[zj-M(z)]2
m[(uj+ε.j)-(u.+ε..)] = ∑
j=1
j=1
considerando le variabili (non correlate) zj=uj+ε.j
E(z)=0; V(z)=[σu²+σε²/m]Ik dato che le uj e le ε sono non correlate.
Data l'assunzione di normalità:
k
Pertanto ∑ [zj-M(z)]2 è la somma di k quadrati di scarti di v.a.
j=1
indipendenti dalla propria media aritmetica e quindi:
k
∑ m[(uj+ε.j)-(u.+ε..)]2∼m[σu²+σε²/m]χk-1²
j=1
2
I due chi-quadro sono indipendenti.
k
^
^
ƒQuindi E(σu²)=E{ ∑ m(Mj-M)2/m(k-1)-σε²/m}=
j=1
m[σu²+σε²/m](k-1)/[m(k-1)])-σ²ε/m=σu²
Si può anche ricavare la varianza dello stimatore
per la distribuzione si hanno solo risultati approssimati.
Si possono costruire stimatori puntuali e per intervallo per varianze e
rapporti di varianze.
^
La stima σu² può risultare negativa;
• problemi connessi.
Appunti del Prof. M. Chiodi per il corso di Statistica 3
a.a. 2000-2001