.
A
p.
CAPITOLO QUARTO
S.
IL MODELLO DI REGRESSIONE MULTIPLA
br
i
SOMMARIO: 1. Introduzione. - 2. Specificazione di un modello di regressione multipla. - 3. Stima con il
metodo dei minimi quadrati ordinari (OLS). - 4. Proprietà degli stimatori dei minimi quadrati. - 5. Indice di
determinazione multipla. - 6. Test e intervalli di confidenza per il modello di regressione multipla. - 7.
Previsione nel modello di regressione mutipla. - 8. Variabili dummy. - Questionario.
li
1. INTRODUZIONE
Es
se
Nella realtà è opportuno analizzare modelli in cui le variabili indipendenti, che spiegano una
variabile dipendente, sono più di una. Quando si analizza un fenomeno, esso presenta una serie
di caratteristiche che obbligano a sottolineare certe variabili influenti sullo stesso e a trascurarne
altre; la scelta dell’una o dell’altra variabile esplicativa da inserire nel modello è rimessa alla
competenza dell’elaboratore.
Supposta giusta la scelta delle variabili inserite nel modello, in questo capitolo tratteremo, in
generale, un modello in cui le variabili esplicative sono più di una. Dopo aver trattato la fase di
specificazione del modello, ci occuperemo della procedura di stima dei parametri dello stesso
e delle proprietà statistiche degli stimatori. Tratteremo, infine, i problemi di inferenza relativi al
modello, quali la costruzione dei test d’ipotesi e degli intervalli di confidenza per i coefficienti.
ht
©
Per illustrare il modello di regressione multipla ci serviremo dell’algebra lineare e indicheremo con lettere in grassetto i vettori e le matrici; più precisamente:
— un vettore sarà indicato con una lettera in grassetto minuscolo o con un numero in grassetto,
ad esempio, il vettore nullo sarà indicato con 0;
— una matrice sarà indicata con una lettera in grassetto maiuscolo.
ig
La stessa convenzione è stata adoperata in Appendice A per illustrare le matrici e le loro
proprietà.
yr
2. SPECIFICAZIONE DI UN MODELLO DI REGRESSIONE MULTIPLA
La rappresentazione formale del modello considera la variabile dipendente Y come una
op
funzione lineare di k – 1 variabili esplicative X 2 , X 3 ,..., X k .
Il modello di regressione multipla sarà:
Y = β1 + β2 X 2 + β 3 X 3 + ... + β k X k + ε
(2.1)
C
in cui la variabile Y è funzione di una combinazione lineare di valori della variabile X. Geometricamente l’equazione data definisce l’iperpiano di regressione nello spazio a k dimensioni.
.
78
A
Capitolo Quarto
p.
La (2.1), in presenza di n osservazioni campionarie, dà luogo al seguente sistema di equazioni:
y2 = β1 + β2 x22 + β 3 x23 + ... + β k x2 k + ε 2
… … … … … … … … …
yn = β1 + β2 xn 2 + β 3 xn 3 + ... + β k xnk + ε n
S.
y1 = β1 + β2 x12 + β 3 x13 + ... + β k x1k + ε1
li
(2.3)
se
 y1 
 
y
y = 2
 
 
 yn 
br
i
Il modello può essere rappresentato con notazione matriciale nel seguente modo:
y = Xβ + ε
(2.2)
dove:
— y è il vettore n ×1 costituito dall’insieme ordinato delle n osservazioni sulla variabile
dipendente, realizzazioni della v.c. Y, ossia:
©
Es
— X è la matrice n × k ottenuta dall’insieme ordinato delle n osservazioni sulle k – 1 variabili
esplicative, ossia:
1 x12 x13 ... x1k 


1 x22 x23 ... x2 k 
X =
 
(2.4)


1 xn 2 xn 3 ... xnk 
ht
in cui il vattore unitario nella prima colonna ha la funzione di inserire la costante β1 e
rappresenta, quindi, una varibile esplicativa artificiosa, pari a 1 per ogni unità statistica.
yr
ig
— β è il vettore costituito dai k coefficienti delle variabili esplicative Xi , ossia:
 β1 
 
β
β = 2
 
 
β k 
(2.5)
C
op
— ε è il vettore n ×1 delle manifestazioni non osservabili della componente stocastica di
disturbo negli n tempi cui si riferiscono le rilevazioni campionarie, ossia:
ε1 
 
ε
ε = 2

 
ε n 
(2.6)
.
79
IPOTESI CLASSICHE DEL MODELLO DI REGRESSIONE MULTIPLA
p.
A
Il modello di regressione multipla
S.
Le ipotesi su cui si basa il modello di regressione multipla sono:
1. Ipotesi di linearità
L’ipotesi specifica il vettore delle osservazioni campionarie sulla variabile Y osservata negli
n tempi come una combinazione lineare tramite i coefficienti β delle osservazioni sulle variabili
i
esplicative Xi , i = 1, 2, …, k , cui si aggiunge, in ogni tempo, un vettore di disturbo ε; in
simboli:
br
y = β1x 1 + β2 x 2 + β3 x 3 + ... + βk x k + ε
i = 1, 2, … k
se
 x1i 
 
x
xi =  2 i 
 
 
 xni 
li
in cui xi (i = 1, 2, …, k) sono i vettori colonna di osservazioni nella matrice X (2.4), dove:
Es
2. Ipotesi di non sistematicità degli errori
L’influenza dell’errore su Y è, in media, nulla, o ciò che è lo stesso, il valore atteso:
E (ε ) = 0
o, in forma estesa, per ciascuna delle n osservazioni:
ht
©
 E (ε1 )  0
  

E (ε 2 ) 0
E (ε ) = 
 =  
   
E (ε n ) 0
ig
Tale ipotesi, formalmente, implica la seguente:
E ( y ) = Xβ
yr
3. Ipotesi di sfericità degli errori
Si tratta di una duplice ipotesi distinguibile a sua volta, in:
3.1 Ipotesi di omoschedasticità per cui la variabilità dell’errore è costante:
Var (ε1 ) = Var (ε 2 ) = … = Var (ε n ) = σ 2
C
op
3.2 Ipotesi di covarianza nulla di errori relativi a osservazioni diverse:
Cov (ε1 , ε 2 ) = Cov (ε1 , ε 3 ) = … = Cov (ε n , ε n –1 ) = 0
.
80
A
Capitolo Quarto
p.
Sia E (εε′) la matrice di varianze e covarianze di ε , questa duplice ipotesi in simboli si traduce
nella seguente espressione:
S.
E (εε′) = σ 2 I
dove I è la matrice identità; in altri termini, la matrice di varianze e covarianze dei termini d’errore è:
i
... Cov (ε1 , ε n )  σ 2 0
 
... Cov (ε 2 , ε n )  0 σ 2
=
  ... ...
...
...
 
... Var (ε n )   0
0
br
 Var (ε1 )
Cov (ε1 , ε 2 )

Cov (ε , ε )
Var (ε 2 )
∑= ...2 1
...

Cov (ε n , ε1 ) Cov (ε n , ε 2 )
... 0 

... 0 
... ... 

... σ 2 
se
li
4. Ipotesi di non collinearità delle variabili esplicative
Fra due o più delle variabili esplicative non esiste una perfetta dipendenza lineare; in altri
termini, nessuna variabile esplicativa può essere espressa come combinazione lineare delle altre
variabili esplicative.
Il rango della matrice X, ossia il numero massimo di righe e colonne linearmente indipendenti, è:
Es
ρ (X) = k
5. Ipotesi di non stocasticità delle variabili esplicative
Formalmente, la matrice X non è stocastica ma deterministica.
©
6. Ipotesi di normalità degli errori
Un’ulteriore ipotesi del modello di regrssione concerne la normalità dei termini d’errore ed,
essendo, dalle ipotesi 2 e 3, rispettivamente, E (ε ) = 0 e E (εε′) = σ 2 I, tale ipotesi si traduce nella
ht
seguente espressione analitica:
ε ∼ N ( 0, σ 2 I )
yr
ig
Talvolta, i dati empirici violano una o più ipotesi del modello lineare di regressione. Nei
capitoli seguenti ci occuperemo della violazione di alcune di tali assunzioni.
Altra ipotesi fondamentale, che non abbiamo esplicitato, è quella di correlazione nulla tra
variabili esplicative e termine di errore. Vedremo nel capitolo sesto le conseguenze sul modello
della violazione di tale ipotesi.
op
3. STIMA CON IL METODO DEI MINIMI QUADRATI ORDINARI (OLS)
Il procedimento di stima in un modello di regressione multipla è volto alla determinazione
C
del vettore β costituito dagli elementi ( β1 , β2 ,…, β k ) , e alla varianza dei termini di errore σ 2 .
Occupiamoci dapprima della stima del vettore dei coefficienti di regressione.
.
81
A
Il modello di regressione multipla
p.
3.1 Stima di β
 β1 
 
β
... x k ]  2  + ε
 
 
β k 
br
x2
(3.1)
i
y = [ x1
S.
Per applicare il metodo dei minimi quadrati ordinari OLS, consideriamo il modello
espresso in forma compatta y = Xβ + ε ; esso può essere scritto nel modo seguente:
in cui xi (i = 1, 2, ..., k) sono i vettori colonna delle osservazioni nella matrice X (2.4).
La (3.1), eseguendo i prodotti, diviene:
li
y = β1 x1 + β2 x2 + ... + β k xk + ε
(3.2)
se
Se nella (3.2) al vettore (2.5) di parametri incogniti βi , i = 1, 2, ..., k, si sostituisce il vettore
dei valori arbitrari seguente:
Es
βˆ * 
 1
βˆ * 
βˆ * =  2 
 
βˆ * 
k
©
allora a ciascuna delle t osservazioni yt corrisponde un valore calcolato:
t = 1, 2, ..., n
yˆ = βˆ * x + βˆ * x + ... + βˆ * x
e la differenza:
t
1
t1
2
t2
k
tk
ht
t = 1, 2, ..., n
et = yt − βˆ1* xt 1 − βˆ 2* xt 2 − ... − βˆ k* xtk
costituisce un residuo che, espresso in termini matriciali, assume la seguente notazione:
yr
ig
 e1 
 
e
e = 2
 
 
en 
(3.3)
op
Pertanto, ripetendo per tutte le osservazioni campionarie, il modello diviene:
y = βˆ * x + βˆ * x + ... + βˆ * x + e = Xβˆ * + e
1
1
2
2
k
k
C
ossia:
y = Xβ̂β∗ + e
(3.4)
.
82
A
Capitolo Quarto
e2
S.
e′e = [ e1
 e1 
 
e
... en ]  2  = e12 + e22 + ...+ en2
 
 
en 
p.
Per la determinazione dei parametri incogniti, il metodo dei minimi quadrati consiste nel
minimizzare la somma dei quadrati dei residui espressa da:
(
)(
ossia deve essere:
( )
(
)(
)
br
e′e = y − Xβˆ ∗ ′ y − Xβˆ ∗
i
Essendo, dalla (3.4), e = y − Xβ̂β∗ , si ha che la quantità da minimizzare è la seguente:
(3.5)
)
Effettuando i prodotti, la (3.5) diviene:
(
li
f βˆ ∗ = e′e = y − Xβˆ ∗ ′ y − Xβˆ ∗ = min
)(
)
= ( y′ − βˆ ′ X ′) ( y − X βˆ )
∗
se
e′e = y − Xβˆ ∗ ′ y − Xβˆ ∗
∗
Es
= y′y − βˆ ∗′ X ′y − y′Xβˆ ∗ + βˆ ∗′ X ′Xβˆ ∗
= y′y − 2βˆ ∗′ X ′y + βˆ ∗′ X ′Xβˆ ∗
( )
©
in cui y′Xβ̂β∗ , essendo uno scalare, è uguale al trasposto β̂β∗′ X ′y .
Per minimizzare f β̂β∗ = e′e, per la condizione del primo ordine per l’esistenza di un punto
ig
ht
di minimo, occorre uguagliare a zero la derivata parziale rispetto a β̂β∗:
( )
∂f βˆ ∗
= −2 X ′y + 2 X ′Xβˆ ∗ = 0
∂βˆ ∗
(3.6)
da cui si definiscono equazioni normali le equazioni risultanti dalla relazione:
yr
X ′Xβ̂β∗ = X ′y
op
Moltiplicando ambo i membri della (3.7) per ( X ′X )
( X ′X )
-1
−1
(3.7)
si ha:
-1
X ′Xβˆ ∗ = ( X ′X ) X ′y
C
da cui, lo stimatore OLS è dato dal vettore dei parametri β̂β espresso da:
-1
βˆ = ( X ′X ) X ′y
(3.8)
.
83
A
Il modello di regressione multipla
p.
È importante rilevare che la determinazione di β̂β è possibile solo se la matrice prodotto X ′X
S.
è invertibile. Essendo le matrici X ′ e X, di ordine, rispettivamente, k × n e n × k , la matrice X ′X
è una matrice quadrata k × k ; essa ha rango:
ρ ( X ′X ) = k
pertanto, è non singolare ed esiste la sua inversa ( X ′X ) .
−1
()
∂2 f βˆ
= 2 ( X ′X ) .
∂βˆ 2
()
li
ottenendo:
br
i
Affinché si tratti di un minimo occorre differenziare nuovamente l’equazione
∂f βˆ
;
∂βˆ
se
Essendo la matrice X ′X definita positiva, la condizione del secondo ordine è soddisfatta.
ESEMPIO
Y
ig
ht
©
4
4
6
6
7
7
6
5
4
5
Es
La tabella seguente riporta le osservazioni campionarie su una variabile Y e su due
corrispondenti variabili esplicative:
X2
X3
4
4
9
5
3
4
2
7
5
4
9
11
21
17
16
17
12
16
12
13
Tabella 1
yr
Stimare i parametri del modello di regressione multipla:
op
y = Xβ +ε
In realtà si tratta di un modello di regressione trivariata già visto nel capitolo precedente e per
il quale non è strettamente necessaria la notazione matriciale. Abbiamo presentato qui questo
modello, in quanto l’estensione per stimare il vettore dei parametri del modello applicando la
C
(3.8) occorre specificare la matrice X ′X e il vettore X ′y . Praticamente, il calcolo delle stime OLS
si ottiene utilizzando uno dei numerosi pacchetti statistici presenti sul mercato; non è agevole
calcolare, infatti, la matrice inversa di X ′X .
.
84
A
Capitolo Quarto
p.
Inserendo nella prima colonna della matrice X il vettore unitario, la matrice X e la matrice
4
4
...
5
4
9

11
... 

12
13
1

X ′ = 4
9
1
4
11
...
...
...
1
5
12
1 

4 
13
i
1

1
X = ...

1
 1
S.
trasposta X ′ sono pari, rispettivamente, a:
br
Pertanto, la matrice X ′X , di ordine 3 × 3 , è pari a:
li
 10 47 144 


X ′X =  47 257 718 
144 718 2.190
1

X ′y = 4
9
...
...
...
Es
1
4
11
se
Il vettore X ′y è, invece, pari a:
1
5
12
1 

4 
13
 4
 
4  54 
  = 252

  


804
4

 
5
Lo stimatore dei minimi quadrati del vettore β , applicando la (3.8), è:
ht
©
−1
βˆ  
, 2845 
144   54   19
 1   10 47
ˆβ = βˆ 2  = 47 257 718  252 = −0,51793


 
 
  

 
 
βˆ 3  144 718 2.190 804  0, 41013 
ig
Pertanto, l’equazione del modello di regressione è la seguente:
Yˆ = 192845
− 0,51793X + 0, 41013X
,
2
3
yr
Nel calcolare β̂β si è dovuta calcolare la matrice inversa di X ′X ; si rimette al lettore la
determinazione della stessa con l’ausilio della teoria sulle matrici riportata nell’Appendice A.
3.2 Stima di σ 2
op
Una stima della varianza dei termini di errore è ottenuta in funzione della devianza residua e′e .
C
Ma, prima, occorre introdurre la matrice M desumibile da:
-1
e = y − Xβˆ = y − X ( X ′X ) X ′y
-1
=  I − X ( X ′X ) X ′ y = My
(3.9)
.
85
A
Il modello di regressione multipla
p.
Nella (3.9) si è introdotta la nuova matrice:
M = I − X ( X ′X ) X ′
-1
(3.10)
i
S.
per la quale valgono le seuenti relazioni:
1. M = M ′ (la matrice è simmetrica);
2. M ′M = MM ′ = M (la matrice è idempotente);
3. MX = 0 ;
4. e = Mεε ;
5. e′e = ε′Mε , in cui:
br
E ( e′e ) = E (ε′Mε )
= E {tr (ε′Mε )}
essendo ε′Mε uno scalare
= E {tr ( Mεε′)}
essendo E (εε′) = σ 2 I
li
= σ 2 tr ( M )
(3.11)
se
in cui tr(M) è la traccia della matrice M. Dalla (3.10) si ha:
(
)
= tr ( I ) − tr (( X ′X ) X ′)
tr ( M ) = tr ( I ) − tr X ( X ′X ) X ′
-1
Es
-1
=n−k
per cui, la (3.11) assume la seguente espressione:
©
E ( e′e ) = σ 2 ( n − k )
Pertanto, lo stimatore OLS della varianza σ 2 è definito da:
e′e
(3.12)
n−k
La radice quadrata di s2 rappresenta, come è noto, l’errore standard della regressione.
Il valore atteso dello stimatore s2 è:
ig
ht
s2 =
E (s2 ) =
E ( e′e )
n−k
=
σ 2 (n − k )
=σ2
n−k
e, quindi, lo stimatore è non distorto.
()
yr
Pertanto, la stima della matrice delle varianze e covarianze degli stimatori β̂β , ossia di
C
op
Var β̂β = σ 2 ( X ′X ) , è:
−1
()
es 2 β̂β = s 2 ( X ′X )
−1
.
86
In particolare, la stima della varianza dello stimatore β̂i , i = 1, 2, ..., k, è:
( )
es 2 β̂i = s 2 aii
p.
A
Capitolo Quarto
−1
S.
in cui aii è l’elemento i-esimo sulla diagonale principale della matrice ( X ′X )
espressione analitica sarà data nel capitolo quinto.
e la cui
i
Se le v.c. errori ε sono normali, allora anche il vettore e = Mε è una v.c. normale
multivariata con:
E (e) = 0
Var ( e ) = Var ( Mε ) = MVar (ε ) M ′ = σ 2 M
br
e
Per cui, si scrive:
li
ε ∼ N ( 0, σ 2 I ) ⇒ e ∼ MN ( 0, σ 2 M )
se
4. PROPRIETÀ DEGLI STIMATORI DEI MINIMI QUADRATI
Dalla (3.8) si evince che le stime OLS del vettore dei parametri β sono funzioni del vettore
Es
dei valori osservati su Y; al variare del campione casuale le stime β̂β generano stimatori dei
minimi quadrati definiti da:
β̂β = ( X ′X ) X ′y
–1
(4.1)
che, essendo y = Xββ + ε , può essere espresso in maniera equivalente:
©
–1
–1
βˆ = ( X ′X ) X ′y = ( X ′X ) X ′ ( X β + ε )
= ( X ′X ) X ′Xβ + ( X ′X ) X ′ε = β + ( X ′X ) X ′ε
ht
–1
–1
–1
(4.2)
Sia assegnata la matrice C = ( X ′X ) X ′ per cui:
-1
CC′ = ( X ′X ) X ′ ( X ′X ) X = ( X ′X )
ig
–1
–1
–1
yr
lo stimatore β̂β (4.1) può essere scritto in maniera equivalente:
β̂β = Cy = β + C ε
(4.3)
C
op
Le proprietà dello stimatore β̂β sono espresse nel seguente teorema di Gauss-Markov già visto
nel capitolo secondo per un modello di regressione semplice. Ovviamente, in questo contesto,
esso si esprime sotto forma matriciale.