Limited Dependent Variable
Models
• Logit
• Probit
• Tobit
Modelli Logit e Probit
• Latent variable models for binary
choice
• Models for descrete dependent
variable
Traducendo…
Spesso vogliamo studiare (le determinanti
de) la probabilità di un attributo (o evento):
esempi:
prob di essere disoccupato
prob di sposarsi
prob di essere razionati sul mercato del
credito
prob di possedere una casa
Problema:
• Non osserviamo la probabilità
• Osserviamo l’ attributo (o evento)
• Esempi
• Persona disoccupata/non disoccupata
• Persona coniugata/non coniugata
• Impresa razionata/non razionata
• Famiglia proprietaria/non proprietaria
propria abitazione
della
Variabili dipendenti discrete
In altri termini, osserviamo la realizzazione
di variabili discrete (Y), che assumono il
valore
• Y=1 se l’evento (attributo) si verifica
• Y=0 se non si verifica
Interesse
• P(Y=1|X)
Probabilità dell’evento Y=1, dato un set di
variabili esplicative X
Linear Probability Model
• Yi=a+bXi+ui
• Y dummy =1 se la famiglia è proprietaria
• X=reddito
• u=errore , E(u)=0
• E(Yi|Xi)= a+bXi = Pr (Yi=1|Xi)
valore atteso conditional on Xi=conditional
probability
LPM: Scatterplot
• Asse ascisse: valori di X
0 . . . . .. . ………
• Asse ordinate: valori di Y
1 ……… . .
. . .
LPM: retta regressione
• Asse ascisse: X
• Asse ordinate: valori reali
di Y ed E(Y|X) = P(Y=1|
X)
• Retta di regressione passa
attraverso i valori reali di
Y (0-1) nei punti di
maggiore concentrazione
degli stessi
• NOTA BENE: valori di
R^2 bassi
1 . .. . … ..
………
0………. .. … . . .
LPM: retta regressione
• Asse ascisse: X
• Asse ordinate: E(Y|X) =
P(Y=1| X)
• valori di R^2 alti solo in
casi del genere
1
0……
………
ESEMPIO
• fittedYi=- 0.9457+0.1021 Xi
t
(-7.7) (12.5)
Intercetta= prob che una famiglia con zero reddito
possieda una casa: negativa!!
Coeff di X= per un incremento unitario di X , in
media, la prob di possedere una casa aumenta di
0.1021, circa il 10%
PROBLEMI
PROBLEMI DI
INFERENZA
Le assunzioni di
normalità/omoschedas
ticità degli errori sono
violate (residui dicotomi
ed eteroschedastici)
PROBLEMI DI FORMA
FUNZIONALE
• Predicted
probabilities
illimitate
P(D=1| X) >1
P(D=1| X) < 0
• Relazione lineare tra
probabilità e variabili
esplicative
In realtà…
• La relazione tra
probabilità e variabili
esplicative è nella
maggior parte dei casi
NON LINEARE
• Esempio: se il reddito
aumenta di 10000 euro
quale sarà l’impatto sulla
prob di possedere una
casa? DIPENDE dal
livello del reddito
Asse ascisse: valori di X
Asse ordinate: P(Y=1| X)
1
0
P
Ricapitolando:
• abbiamo bisogno che la prob non ecceda i
limiti di 0 e 1, e che
• la relazione tra probabilità e variabili
esplicative sia non lineare.
A tal fine dobbiamo ricorrere a delle
FUNZIONI DI DISTRIBUZIONE
CUMULATE. Le CDFs più usate sono
quella LOGISTICA e quella NORMALE
Cumulative logistic distibution
P=eL/(1+eL)
P=1/(1+e-L)
La relazione non lineare
tra P e L crea un
“estimation problem”:
non possiamo usare OLS
• Asse ascisse: L=a+bX
• Asse ordinate: P(Y=1| X)
1
0
0.5
0
L
Soluzione: trasformiamo
probabilità in logits
La cd “logit transformation” consta di
due stadi:
1.
Calcolare the odds ratio =P/(1-P)
=(1+eL)/(1+e-L)= eL
1.
Assumere il log dell’odds ratio
ln(P/1-P)=L
NON-Linear Probability Model
• Grazie a questa trasformazione possiamo
esprimere una relazione lineare tra la nuova
variabile dipendente (espressa in logits “L”) e la
variabile esplicativa X:
L=ln(P/1-P)=a+bX
• Tale relazione implica una relazione NON
lineare tra PROBABILITA’ ed X
P=ea+bX/(1+ea+bX)
P=eL/(1+eL)
LOGIT: Regressione
L=a+bX+e
Il coefficiente b rappresenta la variazione in E(L) al variare
di X (se X è una variabile continua b è la derivata di E(L)
rispetto a X). Gli effetti di X su L sono LINEARI e
ADDITIVI
L’interpretazione di b è la stessa che viene data in ogni retta
di regressione, MA le unità in cui è misurata la variabile
dipendente rendono l’interpretazione degli effetti di X
meno intuitiva
Interesse
• Vogliamo conoscere gli effetti di X (reddito)
sulla probabilità di possedere una casa (P)
• Per cui dobbiamo convertire
l’effetto stimato di X su L (cioè b) (δL/ δX)
nell’effetto di X su P
(δP/ δX)
Ricordiamo che
la relazione (NON lineare) tra
PROBABILITA’ ed X
è
P=ea+bX/(1+ea+bX)
δP/ δX=b*P*(1-P)
NB. L’effetto di X su P non è costante:
dipende dal livello di P (che a sua volta
dipende dal livello di X!)
Se …
P=0.5
Se P
δP/ δX=b*P*(1-P)
δP/ δX=b*0.25
massimo effetto
1 o P
0
l’effetto si riduce
Standard normal distribution
P=area sotto la curva, Φ(Z)
f(Z)
Cumulative standard normal
distribution
P=Φ(Z)
•
•
Asse ascisse: Z=a+bX
1
Asse ordinate: P(Y=1|
X)
Usiamo la distribuzione
cumulata per ottenere:
0
1. prob comprese tra 0 e 1
2. relazione non lineare
Z
Z=Φ-1(P)
Probit analysis
trasformiamo probabilità (limitate tra 0 e 1)
in Z-scores (valori critici della distribuzione normale
standardizzata), che variano tra –infinito e +
infinito
Z-scores rappresentano la variabile dipendente nel
modello Probit
Analogamente a quanto detto per la trasformazione
LOGIT
• Grazie a questa trasformazione possiamo
esprimere una relazione lineare tra la
nuova variabile dipendente (espressa in
Probits “Z”) e la variabile esplicativa X:
Z= Φ-1(P) =a+bX
• Tale relazione implica una relazione
NON lineare tra PROBABILITA’ ed X
Effetto marginale di X su P
δP/ δX=b*Φ(Z)
NB. L’effetto di X su P non è costante: dipende
dal livello di Z (che dipende da X, infatti
Z =a+bX )
Nota: Φ è la funzione di densità della normale
standardizzata
TOBIT model
• La variabile dipendente:
• è zero per una parte rilevante del
campione,
• continua per valori >0
• Esempi:
• Spesa in alcolici
• Ammontare preso a prestito
Tobit model
• Assumiamo che la decisione di acquistare
dipenda da una variabile nascosta “underlying
latent variable” (utilità)
(vedi Wooldridge “Introductoy Econometrics”)
• Y*=a+bX+u
• Y=max(0,Y*)
dove u|X ˜ N(0, σ2)
Ciò implica che Y=Y* quando Y*>=0
Interpretazione coefficienti
• b rappresenta l’effetto parziale di X su
E(Y*|X), dove Y* è una variabile latente,
che spesso non rappresenta il focus
dell’analisi.
• Negli esempi di prima il focus è
l’ammontare speso in alcolici, l’ammontare
preso a prestito
Effetto marginale di X su Y
Due valori attesi sono di particolare interesse:
• E(Y|Y>0,X)
• E(Y|X)
Due effetti parziali
• δ E(Y|Y>0,X) / δX=b*[fattore che dipende da
X e da tutti i parametri del modello]
• δ E(Y|X) / δX=b*[fattore che dipende da X e
da tutti i parametri del modello]
Metodo di stima: maximum
likelihood estimation
• Tale metodo restituisce le stime dei
parametri che rendono massima la
probabilità di osservare le realizzazioni
della dummy così come si presentano nel
nostro campione
La procedura
• Prima di tutto si esprime la probabilità delle
realizzazioni osservate (si scrive la likelihood
function)
Ad esempio nel Logit: Π[ Piyi (1-Pi)1-yi ]
( prob. function for a sample of Bernoulli trials)
yi=valore osservato della dummy Y per il caso i,
• E poi si massimizza tale funzione rispetto ai
parametri della regressione [nel logit ricorda che:
P=ea+bX/(1+ea+bX)]