Prof. M. Chiodi regressione,analisi della varianza,etc. 1 Statistica 3 A.A. 2001-2002 Prof. Marcello Chiodi Istituto di Statistica Facoltà di Economia di Palermo Viale delle Scienze; 90128 - Palermo-Italy (tel. xx39-0916626238; 0916626322; fax. xx39-091485726) e-mail [email protected]) home page: http://statistica.economia.unipa.it/chiodi . PARTE 8 CERCARE AGGIORNAMENTI SUL SITO DEL DOCENTE PRIMA DELLA FINE DEL CORSO Sommario Il problema dei confronti multipli nell'analisi della varianza .......................................... 2 Confronti a priori e a posteriori:............................................................................ 3 Metodo di Tukey ........................................................................................................ 4 Range studentizzato:............................................................................................. 4 Intervalli di confidenza simultanei: Metodo di Scheffè: ............................................... 6 Relazione fra gli intervalli di confidenza di Scheffè e il test F dell'AOV: ............... 7 & L'ipotesi di omogeneità delle varianze............................................................. 10 Il test di Bartlett.........................................................................................................10 & Il Potere del test F: distribuzioni non centrali................................................... 11 Distribuzione χ2 non centrale. ....................................................................................11 Distribuzione F non centrale. .....................................................................................12 Calcolo del potere del test..........................................................................................12 Potere del test F.......................................................................................................15 & Esempio con: k=3;n1=10;n2=5,n3=8 ...................................................................15 Approssimazione di Patnaik............................................................................ 17 Modelli ad effetti casuali .........................................................................................18 Componenti della varianza:........................................................................................20 AOV a una via: effetti casuali ....................................................................................22 stima dei parametri ....................................................................................................23 Distribuzione degli stimatori:.....................................................................................23 Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 2 Il problema dei confronti multipli nell'analisi della varianza Affrontiamo adesso il problema dell’analisi ulteriore delle medie dei campioni, nel caso in cui l’ipotesi di omogeneità sia stata rifiutata. Resta inteso che nel caso in cui il test F risulti non significativo, poco altro potrà essere detto sull’esperimento, se non uno studio più approfondito relativo alla validità delle assunzioni di base. Se invece F è risultato significativo l'ipotesi di omogeneità va rifiutata; Possiamo indagare ulteriormente sull'eterogeneità dimostrata dalle medie dei gruppi? Ci possiamo porre alcune domande: • A quali medie è dovuto principalmente l’eterogeneità? • Alcune di queste medie possono essere comunque considerate simili? • E’ possibile dire qualcosa su particolari confronti fra combinazioni di medie? In effetti possiamo effettuare diversi tipi di confronti fra medie; qui cito solo i principali: Differenze fra medie: µj - µs Contrasti lineari generali: k k ψ= ∑ cj µj, con ∑ cj=0. j=1 j=1 Quindi un contrasto lineare non è altro che una combinazione lineare di medie con coefficienti a somma nulla. Di seguito sono riportati alcuni esempi di contrasti lineari: Contrasto Valori dei coefficienti Tipo di confronto Confronto fra gli effetti medi di due cj =1; cs =-1 µj - µs campioni Confronto fra gli c1 = ½ ; c2 = ½ ; effetti medi di due (µ1+µ2)/2-(µ3+µ4+µ5)/3 c3 = -⅓ ; c4= -⅓ ; c5= -⅓ gruppi di campioni Confronto di k-1 k-1 presi c1 = c2 = … ck-1 = 1/(k-1) trattamenti, globalmente, con un ∑ µj/(k-1) - µk ck = -1 gruppo di controllo j=1 (il k-esimo) Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 3 Confronti a priori e a posteriori: In effetti, dopo che il test F ha manifestato evidenza empirica contraria all’ipotessi di omogeneità, si potrebbe pensare di impiegare un semplice test t sulle coppie di medie stimate Mj, per vedere quali sono significativamente diverse; tuttavia questa non è una procedura corretta, in quanto non tiene conto del fatto che molto probabilmente le medie da mettere a confronto verranno scelte dopo avere esaminato le k medie; inoltre questa procedura non garantisce il livello di significatività nominale nel caso si mettano a confronto più coppie di medie: una cosa è confrontare due medie, un’altra cosa è confrontare due medie scelte fra k medie osservate. Il lievello di significatività sarà in generale se i confronti sono pianificati (a priori), si può usare il test t, usando come stima della varianza quella con più gradi di libertà dell’AOV se invece i confronti sono suggeriti dai dati (a posteriori), non si può impiegare il test t Alterazione del livello di significatività effettivo in caso di m test indipendenti effettuati sugli stessi dati: α∗=1-(1- α)m test t su tutte le coppie. i test da condurre sono in teoria k(k-1)/2 (sebbene non tutti indipendenti. Inserire materiale presente solo su lucido Fra i metodi per superare il problema dei confronti multipli a posteriori, presento i due più noti ed utili nelle applicazioni: Il metodo di Tukey (importante per il confronto fra coppie di medie) generali, Il metodo di Scheffè, adatto a contrasti lineari importante per la sua relazione col test F. Altre tecniche particolari per effettuare test (o comunque inferenza) su confronti selezionati a posteriori: Test di Dunnett (specifico per il confronto rispetto ad un gruppo di controllo) Correzione di Bonferroni per il livello di significatività Test di Duncan Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 4 Metodo di Tukey Mj ∼ N(µ;σ2/m); mentre se è vera H1: Mj ∼ N(µj;σ2/m); m: ampiezza comune dei k campioni (n=k m) Range studentizzato: Per ipotesi se è vera H0 le medie campionaria hanno tutte la stessa distribuzione: Definiamo prima una nuova variabile casuale: il range studentizzato. Sia X(i) la variabile casuale corrispondente all'osservazione di posto iesimo in un campione casuale di ampiezza r estratto da una N(µ,σ2). Sia s2 una stima corretta di σ2 (stimata indipendentemente dal campione) con ν gradi di libertà. Il range studentizzato la variabile casuale definita da: Zr,ν= [X(r)-X(1)]/s Questa variabile casuale (i cui percentili sono tabulati) ha una distribuzione che chiaramente dipende da: r: ampiezza campionaria; ν: gradi di libertà della stima della varianza ma non dipende invece dai parametri µ,σ2 (dato che [X(r)-X(1)]/s è una quantità pivotale: infatti la differenza X(r)-X(1) chiaramente non dipende da µ ed il rapporto poi con s non dipende da σ2 Inserire tavola con i percentili (software di calcolo?); vedere Biometria tables Se indichiamo con qα,r,ν il valore critico di tale distribuzione (i cui percentili sono tabulati) si ha chiaramente: Prob{Zr,ν=[X(r)-X(1)]/s≤qα,r,ν}=1−α ma anche: Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 5 Prob{max |Xi-Xj|≤ s qα,r,ν}=1−α i≠j Prob{ [|Xi-Xj|≤ s qα,r,ν]}=1−α i≠j Mj∼N(µi;σ2/m). E’ possibile adesso costruire degli intervalli di confidenza per le differenze fra medie (a posteriori), poiché sono stati introdotti tutti gli strumenti tecnici necessari. Torniamo alle medie dei k campioni: Si ha che le v.c. Mj-µi sono distribuite secondo una N(0;σ2/m); possiamo quindi costruire un intervallo mediante i punti critici del range studentizzato, simultaneamente per tutte le differenze fra medie: Prob{|(Mi-µi)-(Mj-µj)| ≤ s qα,r,ν/√m]}=1−α Per cui l'intervallo di confidenza per una generica differenza è: (Mi-Mj)-s qα,r,ν/√m≤ µi-µj≤(Mi-Mj)+s qα,r,ν/√m. Intervallo di confidenza di Tukey per una generica differenza di medie, ad un livello di probabilità fiduciaria 1-α; (r campioni di ampiezza m) Pertanto potremo dire che sono significativamente diverse (ad un livello di significatività α) le medie per le quali tali intervalli (costruiti con un livello di probabilità fiduciaria 1- α) non contengono lo zero. In tal modo è possibile costruire per un particolare esperimento, dati m,k e α, la LSD (Least Significant Difference): se ad esempio abbiamo 5 campioni di ampiezza 10, ad un livello di significatività del 5%, potremo dire che tutte le medie che differiscono di più di ……… (vedere le tavole) sono significativamente diverse. Il metodo è generalizzabile a contrasti lineari qualsiasi, sebbene meno efficiente: k k ψ= ∑ cj µj, con ∑ cj=0 j=1 j=1 la stima di ψ dal campione è: ^ k |ψ = ∑ cj Mj; j=1 Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. k ^ 6 k |ψ -ψ|=| ∑ cj (Mj−µj)|≤½ ∑ |cj |max|(Mj−µj)-(Mi−µi)| j=1 j=1 Per cui si ha, ricordando che: k ^ Prob{max|(Mi-µi)-(Mj-µj)| ≤ s qα,r,ν/√m]}=1−α Prob{||ψ -ψ|=½ ∑ |cj | s qα,r,ν/√m}=1−α j=1 ed infine l'intervallo per ψ: ^ k ^ k ψ -½ ∑ |cj | s qα,r,ν/√m≤ ψ ≤ψ +½ ∑ |cj | s qα,r,ν/√m j=1 j=1 Intervalli di confidenza simultanei: Metodo di Scheffè: Con la tecnica di Scheffè si adotta un approccio differente, basato non sui confronti in coppia, ma direttamente su generici contrasti lineari di tipo qualsiasi; si otterrà anche una relazione di tale tecnica con il test F per la verifica dell'ipotesi di omogeneità delle medie. Si è già visto che si può costruire una regione di confidenza per q combinazioni lineari nei parametri del modello lineare, in modo che sia 1-α la probabilità fiduciaria: Prob{(Cβ-Cb)'[C(X'X)-1C']-1(Cβ-Cb)≤q s2 Fα,q,n-k}=1-α Si sa anche che: [z' (Cβ β-Cb)]2 (Cβ-Cb)'[C(X'X) C'] (Cβ-Cb)=max z'C(X'X)-1C'z z -1 -1 DIMOSTRAZIONE SUI LUCIDI A MANO per cui sostituendo nell'espressione di prima: Prob{max z [z' (Cβ β-Cb)]2 ≤q s2 Fα,q,n-k}=1-α z'C(X'X)-1C'z Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 7 Prob{[z'(Cβ-Cb)]2 ≤ z'C(X'X)-1C'z q s2 Fα,q,n-k per qualsiasi z}=1-α Notiamo anche che V(z'Cb)=σ2 z'C(X'X)-1C'z; e quindi una stima corretta della varianza di z'(Cb) si ha sostituendo nell’espressione precedente a σ2 la sua stima corretta s2 ^ V (z'(Cb))=s2 z'C(X'X)-1C'z; Per cui si ha: ^ Prob{[z'(Cβ-Cb)]2 ≤ V (z'Cb) q Fα,q,n-k per qualsiasi z}=1-α Ed infine l'intervallo: ^ z'Cb± V (z'Cb) q Fα,q,n-k conterrà z'Cβ con probabilità 1-α, per qualsiasi valore z' Applicando ora questo procedimento ai contrasti lineari nell'analisi della varianza si ha: k k ψ= ∑ cj µj, con ∑ cj=0 j=1 j=1 Per stimare ψ dal campione si ha: k ^ ψ = ∑ cj Mj; j=1 per la stima della sua varianza: ^ ^ V (ψ ) =s k 2 ∑ cj2/nj; j=1 (si può ricavare per via diretta oppure dall'espressione generale di V(z'Cb)); In definitiva l'intervallo per un contrasto lineare è dato da: ^ ^ ^ ψ ± V (ψ ) q Fα,q,n-k Nell'analisi della varianza ad una via: q=k-1. Relazione fra gli intervalli di confidenza di Scheffè e il test F dell'AOV: Per il modo in cui è stato costruito è evidente che se l'intervallo non contiene lo zero ciò equivale a rifiutare l'ipotesi nulla: Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 8 H0: ψ=0 Riconsideriamo il test F sull'omogeneità delle k medie: E'equivalente a saggiare l'ipotesi che k-1 contrasti lineari (indipendenti) siano nulli. Questo implica che tutti i contrasti siano nulli, dato che ogni contrasto è combinazione lineare dei primi k-1; Quindi il test F saggia l'ipotesi che qualsiasi contrasto lineare sia nullo; Quindi il test F risulta significativo se e solo se esiste un contrasto lineare significativamente diverso da zero, ossia se esiste un contrasto lineare il cui intervallo di confidenza non copra lo zero Ovviamente se F risulta significativo, non è detto che il contrasto lineare significativo sia interessante o utile in generale. Tuttavia gli intervalli di Scheffè, sebbene forniscano dei test corrispondenti piuttosto conservativi (perché costruiti su tutti i possibili contrasti lineari, e non su uno particolare), forniscono certamente risultati coerenti col test F. Altre tecniche: tecniche più potenti per alternative particolari, uso di altri particolari range studentizzati Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 9 ALTRO MATERIALE SPARSO: lucidi scritti a mano GRAFICI ED ESEMPI Lucidi antichi RIPORTARE LA TAVOLA SUL CONFRONTO FRA GLI INTERVALLI (LUCIDI A MANO) Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 10 & L'ipotesi di omogeneità delle varianze. Il test di Bartlett • saggiare l'ipotesi che le varianze di k popolazioni normali (anche con medie differenti) non siano diverse. • costruzione del rapporto fra le verosimiglianze. • correzione delle stime delle varianze. • correzione del test (per migliorare l'approssimazione alla distribuzione asintotica). ALTRO MATERIALE lucidi scritti a mano da Statistica Matematica Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 11 & Il Potere del test F: distribuzioni non centrali. Per potere valutare il potere del test F per particolari ipotesi alternative, o meglio la funzione del potere al variare delle alternative, occorre fare ricorso alle distribuzioni non centrali. Distribuzione χ2 non centrale. 2 La distribuzione χν (centrale) è definita come la distribuzione della somma di ν quadrati di variabili normali indipendenti standardizzate, ossia: con valore atteso nullo ed a varianza unitaria. 2 La distribuzione χ non centrale è invece definita come la distribuzione della somma di quadrati di variabili normali indipendenti, sempre a varianza unitaria ma con media qualsiasi. In pratica se Xi∼N(µi,1) allora la χ2 non centrale è definita da: ν 2 χ (ν,λ) = ∑ X²i i=1 i due parametri sono: ν: gradi di libertà; ν λ= ∑ µ²i = parametro di non centralità i=1 Si può dimostrare che: χ2(ν,λ) =χ2(ν−1,0)+χ2(1,λ) I primi due momenti sono: 2 Ε[χ (ν,λ)]=ν+λ 2 V[χ (ν,λ)]=2(ν+2λ) Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 12 Distribuzione F non centrale. χ2[ν1,λ]/ν1 F(ν1,ν2,λ)= 2 χ [ν2,0]/ν2 Calcolo del potere del test Applicazioni all'analisi della varianza Una F non centrale con ν1 e ν2 gradi di libertà e parametro di non centralità λ,è definita come la distribuzione del rapporto fra una variabile casuale χ2 non centrale con ν1 gradi di libertà e parametro di non centralità λ, ed una χ2 centrale con ν2 gradi di libertà (divisi per i rispettivi gradi di libertà): ALTRO MATERIALE ESEMPI E GRAFICI (notebook di mathematica noncentral1.nb) Densità di una Chi-quadro non centrale con 1 grado di libertà e parametro di non centralità 0,2 e 5: [Graphics:poteref_dispensagr3.gif] Densità di una Chi-quadro non centrale con 2 grado di libertà e parametro di non centralità 0,2 e 5: Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 13 [Graphics:poteref_dispensagr5.gif] [Graph Densità di una Chi-quadro non centrale con 3 gradi di libertà e parametro di non centralità 0,2 e 5: [Graphics:poteref_dispensagr8.gif] [Graph Densità di una Chi-quadro non centrale con 20 gradi di libertà e parametro di non centralità 0,2 e 5: Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 14 [Graphics:poteref_dispensagr11.gif] Densità di una F non centrale con 3 e 20 gradi di libertà e parametro di non centralità 0,2 e 5: [Graphics:poteref_dispensagr14.gif] [Graph Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 15 Potere del test F Plot[{1-CDF[f[2,20,m],f95a],1-CDF[f[2,50,m],f95b]},{m,0,10},PlotPoints->15, PlotRange->{0,1},PlotStyle->{RGBColor[1,0,0],RGBColor[0,1,0],RGBColor[0,0,1]}] [Graphics:poteref_dispensagr20.gif] [Graph [Graph Esempio con: k=3;n1=10;n2=5,n3=8 Plot3D[1-CDF[f[2,20,10 e1^2+5 e2^2+8 ((-10 e1-5 e2)/8.)^2],f95a],{e1,2,2},{e2,-2,2},PlotPoints->25, PlotRange->{0,1}] [Graphics:poteref_dispensagr22.gif] [Graph ContourPlot[1-CDF[f[2,20,10 e1^2+5 e2^2],f95a],{e1,-2,2},{e2,-2,2},PlotPoints->15, PlotRange->{0,1}] Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 16 0.623077, 0.63828} f95=Quantile[f0[4,16],0.95]; Plot[1-CDF[nc[4,16,l],f95],{l,0,10},PlotPoints->15, PlotRange->{0,1}] [Graph [Graphics:poteref_dispensagr25.gif] f0[a_,b_]:= FRatioDistribution[a,b] f95=Quantile[f0[4,16],0.95] 3.006917279924345 Power2=Table[1-CDF[nc[4,v2,10], Quantile[f0[4,v2],0.95]],{v2,5,30,5}] {0.346645, 0.497816, 0.564506, 0.600651, Plot[1-CDF[f0[(4+l)^2/(4+2 l),16],(4/(4+l)) f95] ,{l,0,10},PlotPoints->15,PlotRange->{0,1}] [Graphics:poteref_dispensagr26.gif] [Graph Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 17 & Approssimazione di Patnaik Powerexact=Table[1-CDF[nc[4,16,l],f95],{l,0,15}] {0.05, 0.0911362, 0.138647, 0.190846, 0.246121, 0.52381, 0.573383, 0.619761, 0.662734, 0.702213, 0.7382, 0.770771} Kendall,II,24.33 0.303001, 0.360196, 0.41662, 0.471387, Powerappr=Table[1-CDF[f0[(4+l)^2/(4+2 l),16],(4/(4+l)) f95] ,{l,0,15}] {0.05, 0.0907828, 0.13731, 0.188238, 0.242288, 0.298216, 0.354857, 0.411159, 0.466217, 0.519281, 0.569762, 0.617224, 0.661374, 0.702045, 0.739176, 0.772798} Abs[Powerexact/Powerappr-1]*100 -13 {2.22045 10 , 0.389324, 0.973844, 1.3856, 1.58217, 1.60448, 1.50474, 1.32797, 1.10872, 0.872079, 0.635576, 0.410955, 0.205655, 0.0239555, 0.132152, 0.26231} Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 18 Modelli ad effetti casuali Modello II di "AOV"; Modello a effetti casuali; componenti della varianza In generale in un modello ad effetti casuali (soltanto casuali) il vettore delle n osservazioni è dato da: Y[n×1]=1nθ+X[n×p] u[p×1] + ε [n×1] L'analogia col modello lineare generale è in buona parte solo formale; Nel modello lineare generale (con effetti fissi) l'interesse primario è lo studio del valore atteso di Y; Nei modelli a effetti casuali l'interesse primario è lo studio delle componenti della varianza di Y e della media generale θ Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 19 Caratteristiche essenziali degli elementi del modello: Y ♦ Vettore aleatorio osservabile; n è come sempre, la variabile di risposta di interesse elementi θ ♦ Parametro incognito matrice n× p u ♦ Matrice di costanti note. sono, come prima, variabili non aleatorie osservate senza errori; possibilmente si tratta di una matrice di indicatori associata ad una classificazione ad una o più vie. X 1 • è l'effetto medio generale; elemento • è un parametro fisso ma incognito che in generale andrà stimato dai dati del campione; ♦ Vettore di variabili aleatorie non osservabili • sono p variabili aleatorie che contribuiscono alla parte p elementi aleatoria di Y; • possono essere visti come dei coefficienti (o effetti) casuali ε ♦ Vettore aleatorio non osservabile direttamente; ♦ Al solito si faranno delle ipotesi sulla natura della distribuzione di ε che dipende in generale da un insieme di parametri incogniti vettore • Si dovranno fare delle ipotesi sulla natura della distribuzione di u che dipende in generale da un insieme di parametri (varianze) incogniti n elementi Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. V(εε) = σε²In perché è stato isolato l'effetto medio generale θ momento primo V(u) = Σ momento secondo σrj=0 se r≠j Var(uj)=σj²; La matrice di varianza e covarianza degli effetti casuali è diagonale con elementi diagonali σj² qualsiasi. Si può in particolare ipotizzare che queste varianze siano uguali a gruppi gli effetti casuali non sono correlati con la componente accidentale Cov(u,ε)=0 ε)=0 La varianza viene indicata con σε² per distinguerla da quelle di u E(u) =0p p effetti casuali ε è la componente accidentale additiva con componenti non correlati e con stessa varianza. (stesse ipotesi di prima) componente accidentale Le assunzioni usuali sono: E(εε) = 0n, 20 Var(εi)=σε²; Cov(uj,ur)=0 r≠j; Cov(εi,εl)=0 i≠l; Cov(εi,uj)=0 per ogni (i,j) Componenti della varianza: L'attenzione non è, come nel modello lineare a effetti fissi, sui fattori che influenzano i valori attesi di Y, tramite Y= componente sistematica + componente accidentale, ma sui fattori che compongono la varianza di Y. Ipotizziamo che le varianze siano uguali all'interno di k gruppi di effetti, e che quindi vi siano k varianze distinte σj²; conseguentemente suddividiamo u[p×1] in k sottovettori ciascuno di lunghezza pj e la matrice X in k sottomatrici ciascuna di n righe e pj k colonne, essendo ∑ pj=p. j=1 Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 21 k Y=1nθ+ ∑ Xj uj + ε j=1 E(Y)=1nθ, ossia E(Yi)=θ Per la varianza delle osservazioni si ha ora una diversa situazione. Infatti si vede facilmente che, con le assunzioni fatte: k ' V(Y)=E(YY')-1n1n θ= ∑ σj²XjXj' +σε² In j=1 Oltre al parametro θ, i parametri di interesse sono le k+1 varianze (σj² j=1,2,…,k e σε²) (si assume che n≥k+1) Per questo motivo il modello viene spesso chiamato modello a componenti di varianza per l'analisi della varianza; Novità fondamentale rispetto al modello a effetti fissi: Le osservazioni sono in generale correlate (almeno a gruppi) perché la matrice V(Y) non è diagonale dato che le Y sono combinazioni lineari delle stesse variabili uj Le osservazioni hanno lo stesso valore atteso Nel caso generale si cercheranno stimatori non distorti dei parametri, costituiti da forme quadratiche nelle osservazioni: ^ σj²=y'Csy. Condizioni di esistenza di stimatori non distorti (cenno) Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 22 AOV a una via: effetti casuali La matrice X è la matrice di indicatori di appartenenza ai k gruppi; supponiamo le k varianze degli effetti casuali uj tutte uguali; Yij = µ+uj+εij; E(uj)=0 E(εij)=0 supponiamo nj=m. Var(εi)=σε²; Var(uj)=σu²; varianza dei k effetti costante Cov(uj,ur)=0 r≠j; Cov(εi,εl)=0 i≠l;Cov(εi,uj)=0 per ogni (i,j) E(Yij)=µ; V(Y)=σu² XX'+σε²In Per quanto visto nel caso generale adesso si ha: La matrice XX' risulta composta da k blocchi (lungo la diagonale) formati da 1m,m. σu² σu² i≠l ; corr(Yij,Ylr)= j≠r σu²+σε² σu²+σε² corr(Yij,Ylj)= Var(Yij)=σu²+σε² Le osservazioni appartenenti ad uno stesso gruppo risultano correlate: intraclass-correlation. Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 23 stima dei parametri Distribuzione degli stimatori: Massima verosimiglianza: si giunge, con un procedimento non immediato, alle equazioni (modificando i denominatori ): ^ µ =M k m ^ σε²= ∑ ∑ (yij-Mj)2/k(m-1) j=1 i=1 Si vede dopo k ^ ^ 2 perché questi σ²ε+mσu²=m ∑ (Mj-M) /(k-1), per cui: denominatori j=1 k ^ ^ σu²= ∑ m(Mj-M)2/m(k-1)-σ²ε/m j=1 (può risultare <0)Î connessione con la correlazione entro le classi. ^ µ si distribuisce normalmente perché è combinazione lineare di un v.a. normale: ^ ^ µ =1n'Y/n E(µ )=µ; ^ V(µ)=1n'V(Y)1n/n2 = 1n'[σu² XX'+σε²In]1n/n2 sommando tutti gli elementi e ricordando che n=km =[σu²m2k+kmσε²]/k2m2= =^ σu²/k+σε²/km µ ∼N(µ,σu²/k+σε²/km) Per quanto visto prima: k ∑ m(Mj-M)2/(k-1)mk è una stima di tale varianza. j=1 k m ∑ ∑ (yij-Mj)2 si distribuisce come nel modello a effetti fissi, perché j=1 i=1 gli scarti yij-Mj non dipendono né da µ né dagli effetti casuali uj. Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001 Prof. M. Chiodi regressione,analisi della varianza,etc. 24 k ∑ k m(Mj-M) = ∑ m(µ+uj+ε.j-(µ+u.+ε..)2= j=1 j=1 2 k ∑ k ε.j,u.,ε.. sono medie m[zj-M(z)]2 m[(uj+ε.j)-(u.+ε..)] = ∑ j=1 j=1 considerando le variabili (non correlate) zj=uj+ε.j E(z)=0; V(z)=[σu²+σε²/m]Ik dato che le uj e le ε sono non correlate. Data l'assunzione di normalità: k Pertanto ∑ [zj-M(z)]2 è la somma di k quadrati di scarti di v.a. j=1 indipendenti dalla propria media aritmetica e quindi: k ∑ m[(uj+ε.j)-(u.+ε..)]2∼m[σu²+σε²/m]χk-1² j=1 2 I due chi-quadro sono indipendenti. k ^ ^ Quindi E(σu²)=E{ ∑ m(Mj-M)2/m(k-1)-σε²/m}= j=1 m[σu²+σε²/m](k-1)/[m(k-1)])-σ²ε/m=σu² Si può anche ricavare la varianza dello stimatore per la distribuzione si hanno solo risultati approssimati. Si possono costruire stimatori puntuali e per intervallo per varianze e rapporti di varianze. ^ La stima σu² può risultare negativa; • problemi connessi. Appunti del Prof. M. Chiodi per il corso di Statistica 3 a.a. 2000-2001