Regressione Regressione X=altezza Y=peso 85 50 60 40 53 120 80 peso 180 160 172 155 165 40 0 150 155 160 165 170 175 180 185 altezza Cerchiamo una funzione che spieghi la Y in funzione della X Cerchiamo una funzione che spieghi la Y in funzione della X 1 Regressione 120 peso 80 40 0 150 155 160 165 170 175 180 185 alte zza La funzione può essere una funzione nota nella’analisi La funzione può essere una funzione nota nella’analisi matematica(retta, parabola, esponeziale…) matematica(retta, parabola, esponeziale…) Regressione 120 peso 80 40 0 150 155 160 165 170 175 180 185 alte zza Se scegliamo una funzione lineare di equazione Y=a+bX, Se scegliamo una funzione lineare di equazione Y=a+bX, occorre stimare i parametri a e b, cioè trovare tra tutte le occorre stimare i parametri a e b, cioè trovare tra tutte le rette possibili quella che interpola meglio la nuvola di punti rette possibili quella che interpola meglio la nuvola di punti 2 Regressione 120 peso 80 y*i yi ei 40 0 150 155 160 165 170 xi 175 180 185 alte zza Se la retta interpolasse i dati in modo perfetto avremmo che yi=a+bxi per ogni i, in Se lairetta i dati in modo che yi=a+bxi per ogni i, in realtà puntiinterpolasse non sono tutti allineati e siperfetto ha che yavremmo i=a+bxi+ei dove ei è una componente realtà i punti non sono tutti allineati e si ha che y =a+bx +e i i i dove ei è una componente di errore. di errore. Il punto individuato dalla funzione lineare è Il punto individuato dalla funzione lineare è y*i=a+bxi y*i=a+bxi Regressione 120 peso 80 y*i yi ei 40 0 150 155 160 165 170 xi 175 180 185 alte zza Noi vorremmo individuare i valori dei parametri a e b tali che i valori ei siano i più Noi vorremmo piccoli possibili. individuare i valori dei parametri a e b tali che i valori ei siano i più piccoli possibili. 2 Quindi: n Quindi: * ∑ ( yi i =1 − yi ) = min! ei=residui 3 Metodo dei minimi quadrati 2 D = n ∑ ( yi i =1 D = n ∑ ( yi i =1 − y i* ) = m in ! − a − b ⋅ xi ) 2 = m in ! Il problema di minimo si risolve derivando D rispetto al paramero a e rispetto al Il problema minimo si risolve derivando D rispetto al paramero a e rispetto parametro b e di uguagliando a 0 le derivate parziali. Il sistema che si ottiene è UN al parametro b e uguagliando a 0 le derivate parziali. Il sistema che si ottiene è UN SISTEMA LINEARE IN DUE EQUAZIONI IN DUE INCOGNITE, HA SISTEMA LINEARE IN DUE EQUAZIONI IN DUE INCOGNITE, HA UN’UNICA SOLUZIONE UN’UNICA SOLUZIONE ∂D ∂a = 0 ∂D = 0 ∂b b* = σ xy σ x2 ; a* = y - bx Regressione X=altezza Y=peso (x-M(x)) (y-M(y)) x-M(x))*(y-M(y) 180 85 13.6 27.4 372.64 160 50 -6.4 -7.6 48.64 172 60 5.6 2.4 13.44 155 40 -11.4 -17.6 200.64 165 53 -1.4 -4.6 6.44 832 288 641.8 medie M(x) M(y) 166.4 57.6 varianze V(x) V(y) 77.84 229.04 covarianza correlazione b= a= 128.360 0.961 1.649 -216.798 4 Regressione 120 y = 1.649x - 216.8 peso 80 40 0 150 155 160 165 170 175 180 185 altezza Regressione X=Anzianità 10 12 14 14 13 16 Y=Salario 2000 2800 3200 3100 3000 3400 ni 4 5 6 7 2 1 25 xini 40 60 84 98 26 16 324 yini 8000 14000 19200 21700 6000 3400 72300 medie 12.96 2892 xi2ni 400 720 1176 1372 338 256 4262 yi2ni 16000000 39200000 61440000 67270000 18000000 11560000 213470000 xiyini 80000 168000 268800 303800 78000 54400 953000 varianze covarianza 2.5184 175136 639.68 sqm correlazione 1.586947 418.49253 0.963191639 b= 254.00254 a= -399.8729 639.68/2.5184 2892-254.00254*12.96 5 Bontà di Adattamento SCOMPOSIZIONE DELLA VARIANZA DI Y SCOMPOSIZIONE DELLA VARIANZA DI Y La varianza di Y può essere scomposta in una parte che il modello di regressione La varianza di Y può essere partenon cheriesce il modello di regressione riesce a spiegare e in una partescomposta che inveceinil una modello a cogliere, cioè la riesce a spiegare e invarianza una parte che invece il modello non riesce a cogliere, cioè la dei residui di regressione ei varianza dei residui di regressione ei 1 n n ∑ ( yi i =1 ) − yi σ y2 2 1 = n n ∑( i =1 = σ Varianza di Y y i* 2 y − yi ) 2 1 + n n ∑ ( yi − i =1 y i* ) 2 σ e2 + Varianza dei Residui Varianza dovuta alla Regressione Bontà di Adattamento 2 2 σ σ y R 2 = ( D 2 ) = 1 − e2 = 2 σy σy Indice di adattamento: misura quanta parte di variabilità totale di Y il modello Indice di adattamento:dimisura quanta partea di variabilità totale di Y il modello regressione riesce spiegare di regressione riesce a spiegare 0 ≤ R2 ≤ 1 Se R2 vale 0 significa che la varianza spiegata dal modello di regressione è 0. La varianza dei residui coincide con la varianza di Y Se R2 vale 1 significa che la varianza dei residui è 0. La varianza spiegata dal modello di regressione coincide con la varianza di Y NESSUN ADATTAMENTO ADATTAMENTO PERFETTO 6 Bontà di Adattamento Si può verificare che l’indice di adattamento R2 2coincide Si può verificare che l’indice di adattamento R coincide esattamente con il coefficiente di correlazione lineare ρ2 2(ciò esattamente con il coefficiente di correlazione lineare ρ (ciò semplifica notevolmente i calcoli) semplifica notevolmente i calcoli) R2 = ρ 2 Se c’è una dipendenza lineare perfetta sia positiva (ρ=1) che negativa (ρ=-1) allora ρ2=1, se c’è incorrelazione (ρ=0) allora anche ρ2=0 0 ≤ ρ 2 ≤ 1 NOTA: Tale equivalenza vale solo se la funzione interpolante è una retta. Dal NOTA: Tale equivalenza vale sololineare se la funzione interpolante è una retta. Dal momento che ρ misura la dipendenza di X e Y, una retta (funzione lineare) momento che ρ misura la dipendenza lineare di X e Y, una retta (funzione lineare) spiegherà Y in funzione di X in misura di quanto esse solo linearmente legate spiegherà Y in funzione di X in misura di quanto esse solo linearmente legate Bontà di Adattamento X=Anzianità Y=Salario ni 10 2000 4 12 2800 5 14 3200 6 14 3100 7 13 3000 2 16 3400 1 25 xini 40 60 84 98 26 16 324 yini 8000 14000 19200 21700 6000 3400 72300 medie 13 2892 2 xi ni 400 720 1176 1372 338 256 4262 2 yi ni 1,6E+07 3,9E+07 6,1E+07 6,7E+07 1,8E+07 1,2E+07 2,1E+08 xiyini 80000 168000 268800 303800 78000 54400 953000 varianze 2,52 175136 covarianza 639,68 sqm correlazione 0,96 1,59 418,49 2 yi* ei eini ei *ni 2140,15 -140,15 -560,61 78570,87 2648,16 151,84 759,21 115280,63 3156,16 43,84 263,02 11530,28 3156,16 -56,16 -393,14 22079,70 2902,16 97,84 195,68 19145,29 3664,17 -264,17 -264,17 69784,59 17666,96 -166,96 0,00 316391,36 QuickTime™ e un decompressore sono necessari per visualizzare quest'immagine. LA MEDIA DEI RESIDUI E' =0!!! ARIANZA DEI RESID 12655,65 2 R regressione b= a= 254,00 -399,87 0,93 2 ρ 0,93 R2=0.93 indica un buon adattamento, il 93% della varianza del SALARIO R2=0.93 indica spiegata un buon da adattamento, il 93% della varianza del SALARIO può essere una funzione lineare dell’ANZIANITA’ può essere spiegata da una funzione lineare dell’ANZIANITA’ 7 Analisi dei Residui e i = y i − y i* I residui del modello lineare ottenuto sostituendo ad a e b i valori di a* e b* hanno I residui modellominima lineare ottenuto ad a edib qualsiasi i valori dialtro a* e modello b* hanno media zerodel e varianza (cioè più sostituendo piccola di quella media zero e varianza minima (cioèlineare) più piccola di quella di qualsiasi altro modello lineare) 1 n M ( ei ) = ∑ ei = 0 n i =1 Gli scostamenti positivi e negativi si compensano 2 1 n 1 n V ( ei ) = ∑ ( ei − M ( ei ) ) = ∑ yi − yi* n i =1 n i =1 ( ) 2 = min! Il minimo che otteniamo con il metodo dei minimi quadrati coincide con la varianza dei Il minimo che otteniamo con il metodoresidui dei minimi quadrati coincide con la varianza dei residui Cov(ei ,e j ) = 0 ∀i ≠ j Inoltre i residui risultano tra loro incorrelati, cioè il residuo j-esimo non dipende dal residuo iInoltre i residui risultano tra loro incorrelati, il residuo esimo per ogni cioè i diverso da j j-esimo non dipende dal residuo iesimo per ogni i diverso da j Proprietà degli stimatori dei minimi quadrati Aˆ : al variare del campione produce una stima aˆ di a Bˆ : al variare del campione produce una stima bˆ di b Teorema di Gauss Teorema di Gauss Markov Markov Stimatori corretti E ( Aˆ ) = a e E ( Bˆ ) = b A varian za m in im a 1 x2 σ 2Aˆ = V a r ( Aˆ ) = σ 2 + 2 n ∑ in= 1 ( x i − x ) σ2 2 ˆ σ Bˆ = V a r ( B ) = 2 ∑ in= 1 ( x i − x ) 8 Proprietà degli stimatori dei minimi quadrati L a varian za d eg li erro ri σ 2 è stim ata in m o d o co rretto d a 1 1 2 2 s e2 = ∑ in= 1 ( y i − yˆ i ) = ∑ in= 1 e i n−2 n−2 p er cu i 1 x2 s = s + 2 n ∑ in= 1 ( x i − x ) s e2 s B2ˆ = 2 ∑ in= 1 ( x i − x ) 2 Aˆ 2 e Proprietà degli stimatori dei minimi quadrati Ipotesi ulteriore sui residui Ipotesi ulteriore sui residui 2 e ≈ N (0, σ ) allo ra Aˆ ≈ N ( a , σ 2Aˆ ) e Bˆ ≈ N ( b , σ 2Bˆ ) Tale risultato ci consente di costruire intervalli di confidenza e statistiche per la verifica Tale risultato ci consente di costruire intervalli d’ipotesi per adi e bconfidenza e statistiche per la verifica d’ipotesi per a e b Ta le q u a n tità Aˆ − a Bˆ − b e Tb = = S Aˆ S Bˆ s i d i s t r i b u i s c o n o c o m e u n a v .c . t d i S tu d e n t c o n n -2 g r a d i d i lib e r tà 9 Intervalli di confidenza ˆ + S ⋅t P Aˆ − S Aˆ ⋅ t ≤ a ≤ A α α = 1− α Aˆ n − 2 ;1− n − 2;1− 2 2 ˆ ˆ a − s Aˆ ⋅ t α ; a + s Aˆ ⋅ t α n − 2;1− n − 2;1− 2 2 ˆ ˆ P B − S Bˆ ⋅ t α ≤ a ≤ B + S Bˆ ⋅ t α = 1− α n − 2 ;1− n − 2;1− 2 2 ˆ ˆ b − s Bˆ ⋅ t α ; b + s Bˆ ⋅ t α n − 2;1− n − 2;1− 2 2 Verifica d’ipotesi H 0 : a = a0 H 1 : a ≠ a0 e H 0 : b = b0 H 1 : b ≠ b0 Normalmente si pongono a0=0 e b0=0, cioè ci si chiede se a e b esistono nel modello.Si Normalmente si pongono a0=0ipotesi e b0=0,dicioè ci si chiededei se acoefficienti. e b esistono nel modello.Si chiamano infatti significatività chiamano infatti ipotesi di significatività dei coefficienti. si calco lan o le q u an tità aˆ − a 0 bˆ − b 0 aˆ bˆ ta = = = e tb = s Aˆ s Aˆ s Bˆ s Bˆ si rifiu ta H 0 se ta ≥ t n − 2 ;1 − α 2 e tb ≥ t n − 2 ;1 − α 2 Per il coefficiente b rifiutare l’ipotesi nulla significa affermare che la variabile X Per il coefficiente b rifiutare l’ipotesi nulla affermare che la variabile X influenza lasignifica Y influenza la Y 10