Barbati Giulia lezione 4

annuncio pubblicitario
Corso di Statistica Medica
Studio dell’effetto di più variabili indipendenti su una
variabile dipendente:
• Regressione lineare multipla
• Regressione logistica
Corso di Statistica Medica
Regressione lineare multipla
Nel modello di regressione lineare semplice le variazioni della variabile dipendente
sono spiegate mediante una sola variabile esplicativa. Si ottiene così un modello
semplice che tuttavia non è sempre in grado di spiegare i fenomeni di interesse in
maniera adeguata.
Un modello che spiegasse il consumo di burro soltanto in funzione del prezzo pB
CB=β1+β2pB+ε, potrebbe risultare poco realistico.
I consumatori infatti, nelle loro scelte, considerano anche i prezzi dei beni
sostitutivi, come il prezzo dell’olio pO o della margarina pM e risentono di
modificazioni del reddito R.
Pertanto un modello più realistico dovrebbe considerare quali ulteriori variabili
esplicative pO , pM e R:
R
Corso di Statistica Medica
Un modello di regressione multipla spiega la variabile dipendente Y in funzione di k
variabili esplicative o regressori, con k > 2:
Per convenzione la prima variabile esplicativa x1 assume valore 1.
Il primo coefficiente di regressione β1 rappresenta l’intercetta del modello.
Gli altri coefficienti, di pendenza, costituiscono le derivate parziali della variabile
dipendente rispetto alle variabili esplicative:
la variazione che subisce in
mediaY in seguito a una
variazione unitaria di xj mentre il
valore delle altre variabili rimane
costante.
Corso di Statistica Medica
Ipotesi sui regressori (X1, …, Xk):
(X1, …, Xk) sono variabili deterministiche, ovvero misurate senza errore
Ipotesi su ε:
La media degli errori è zero
La varianza degli errori è costante
Gli errori sono indipendenti (incorrelati)
Y~Normale
La distribuzione degli errori è una v.c Normale
Corso di Statistica Medica
I coefficienti del modello di regressione lineare multipla si stimano a partire dai dati
campionari mediante il metodo dei minimi quadrati o della massima verosimiglianza.
bj stima di βj
Y * = b1 + b2 X 2 + ... + bk X k
I coefficienti di regressione in un modello di regressione multiplo si dicono “coefficienti di regressione
parziale”.
Ciascuno di essi esprime la variazione media della variabile dipendente, per ogni variazione unitaria della
corrispondente variabile indipendente, a parità di valori assunti rispetto agli altri regressori nel modello.
Essendo dotati di unità di misura i valori dei diversi coefficienti di regressione non possono essere tra loro
confrontati e quindi non possono essere indicatori dell’importanza della variabile indipendente associata
nella spiegazione della variabilità della Y.
Se si considerano le variabili ‘standardizzate’, cioè:
Ystd =
Y − µY
X j , std =
σY
X j − µXJ
σX
J
Ystd = β1 + β 2 X 2, std + ... + β k X k , std + ε
j = 1,...k
E’ allora possibile confrontare l’entità dei diversi
coefficienti di regressione parziale.
Corso di Statistica Medica
L’indice di determinazione lineare R2
Per quantificare la bontà di adattamento del modello di regressione ai dati, si può
utilizzare un indice che valuta la quota di variabilità di Y spiegata dal modello
La devianza totale di Y nel modello di regressione lineare multipla può essere
scomposta come segue:
è la devianza totale di Y
è la devianza di regressione di Y
è la devianza residua o di dispersione di Y
Corso di Statistica Medica
L’indice di determinazione lineare R2
L’indice di determinazione lineare varia fra 0 e 1 poiché 0<= DevReg(Y)<=Dev(Y).
R2 misura la frazione della variabilità di Y dovuta alla sua dipendenza lineare dai
regressori.
Presenta però alcuni inconvenienti:
- può assumere valori elevati anche quando la relazione non è di tipo lineare;
- cresce sempre al crescere del numero dei regressori, pertanto non è un indicatore adeguato per
il confronto tra modelli con un diverso numero di regressori.
R2 corretto:
R 2 = 1 − (1 − R 2 )
n −1
n−m
m=# regressori
Corso di Statistica Medica
La scomposizione delle devianze vale anche rispetto ai corrispondenti gradi di libertà:
n = dimensione campione
m = numero regressori
è la varianza totale di Y
è la varianza di regressione di Y
è la varianza residua di Y
Corso di Statistica Medica
Test di ipotesi sui parametri (I)
In questo contesto risulta necessario avvalersi dell’ipotesi di normalità formulata
sui residui. Da essa discende infatti la normalità in distribuzione dello stimatore dei
minimi quadrati ed il rapporto tra la devianza di regressione sulla devianza residua
distribuito come una v.c. F con m ed n-m-1 gdl:
Fissato un livello di significatività α, se Fcampione > Fα allora il test è significativo al
livello α, e H0 va rifiutata.
Corso di Statistica Medica
Se H0 viene rifiutata:
• la variabilità di Y spiegata dal modello è significativamente più elevata della
variabilità residua;
• ad almeno uno degli m regressori corrisponde in popolazione un coefficiente di
regressione significativamente diverso da 0.
Se invece Fcampione <= Fα allora il test NON è significativo al livello α, e H0 non
viene rifiutata; in tal caso il modello non è adeguato, tra Y e gli m regressori non vi
è alcuna relazione di dipendenza lineare.
Poiché:
Corso di Statistica Medica
Test di ipotesi sui parametri (II)
Test sul singolo parametro:
Fissato un livello di significatività α, se t > +tα/2
oppure t < -tα/2 allora il test è significativo al livello α,
e H0 va rifiutata: il contributo di Xj nel modello in cui vi
sono gli altri regressori è significativo.
Corso di Statistica Medica
I software statistici generalmente per ogni parametro stimato forniscono il p-valore
del test. Per ciascuna ipotesi nulla H0: bj=0 i software riportano quindi la probabilità:
dove toss è il valore osservato della statistica test sul campione.
Di seguito è schematizzato un tipico output di un software per la regressione multipla:
Corso di Statistica Medica
“Diagnostica” del modello di regressione
Con il termine “diagnostica”, nell’ambito della regressione, ci si riferisce a un
insieme di tecniche volte all’individuazione di eventuali problemi rispetto al modello
o rispetto ai dati. A questo fine particolare rilievo assumono i residui.
L’analisi dei residui permette di:
- stabilire se le ipotesi formulate sul termine d’errore del modello di regressione
sono valide rispetto al fenomeno analizzato;
- identificare l’eventuale presenza di casi outlier (=anomali rispetto alla variabile
dipendente Y), di leverage (=anomali rispetto alle X), influenti (=la cui esclusione
modifica molto le stime).
Poiché i residui sono gli scarti tra i valori osservati e quelli stimati dal
modello, costituiscono la base per misurare la variabilità di Y non spiegata dal
modello di regressione.
Corso di Statistica Medica
Distribuzione dei residui: dovrebbero
disporsi in maniera casuale intorno all’asse
delle ascisse;
eteroschedasticità
La presenza di strutture nel grafico dei
residui può indicare errori
di specificazione nel modello:
autocorrelazione
Corso di Statistica Medica
Presenza di un trend: indica l’omissione di un
predittore importante.
Residui in presenza di una relazione non
lineare
È stato stimato questo modello:
al posto di:
Corso di Statistica Medica
Quando è possibile individuare dei gruppi
nei residui, ciò può indicare che si è
verificato un cambiamento strutturale nella
relazione fra la variabile dipendente e le
variabili esplicative. Le osservazioni sono
divise in due gruppi (o periodi)
generati da due modelli con diversi valori
dei parametri.
Residui molto distanti dagli altri possono
indicare la presenza di valori anomali,
ossia osservazioni distanti dalla
maggioranza dei dati.
Corso di Statistica Medica
Dimensione del campione e numero di variabili indipendenti:
• Si raccomanda un numero di osservazioni 10-20 volte superiore al numero delle
variabili indipendenti;
Multicollinearità:
• Nel caso si abbiano a disposizione numerose variabili indipendenti, è
opportuno verificare se esse risultano correlate tra loro;
-> bisogna infatti fare attenzione a non includere nel modello di regressione
variabili significativamente correlate;
Costruzione del modello di regressione:
• Dopo aver valutato la multicollinearità ed aver escluso eventuali variabili
esplicative si procede alla costruzione del modello con le variabili rimanenti.
Corso di Statistica Medica
Costruzione del modello di regressione:
• Approccio
forward/backward: partendo da un modello
parziale si procede per passi e di volta in volta si aggiunge
una variabile che contribuisce in maniera significativa al
miglioramento del modello o si elimina una variabile il cui
coefficiente non è significativo.
• Approccio
step-wise: si valutano tutti i possibili modelli di
regressione ricavabili da un certo insieme di variabili
esplicative e si individuano i sottoinsiemi migliori secondo un
certo criterio (per esempio osservando l’R2).
…ci vuole logica e buon senso!
Corso di Statistica Medica
Esempio di applicazione del modello di regressione multipla
Una ditta automobilistica americana ha un registro di vendite dei diversi modelli di
macchine.
Per identificare i modelli che vanno meglio nel mercato e quelli che vanno peggio,
si vuole stabilire una relazione tra le caratteristiche del veicolo e il livello di vendite.
Le informazioni sulle macchine sono nel file ‘regr1.sav’ (file di dati SPSS).
Si utilizza la regressione lineare multipla per identificare i fattori che influenzano in
modo significativo il livello di vendite.
Variabile dipendente Y: vendite (in migliaia)
Variabili esplicative X: Vehicle type (tipo di veicolo), Price in thousands (prezzo), Engine
size (motore), Horsepower (potenza), Wheelbase (interasse), Width (larghezza), Length
(lunghezza), Curb weight (peso), Fuel capacity (capacità serbatoio), Fuel efficiency
(benzina per Km)
Corso di Statistica Medica
La distribuzione della variabile
dipendente Y non è normale…
100
Frequency
80
60
25
40
20
0
0
100
200
300
400
500
600
Sales in thousands
Frequency
20
15
10
5
…operiamo una trasformazione logaritmica
per normalizzare Y:
0
-2
0
2
4
Log-transformed sales
6
8
Corso di Statistica Medica
ANOVAb
Model
1
Regression
Residual
Total
Sum of
Squares
130.300
138.082
268.383
df
10
141
151
Mean Square
13.030
.979
F
13.305
Sig.
.000a
a. Predictors: (Constant), Fuel efficiency, Length, Price in thousands, Vehicle type,
Width, Engine size, Fuel capacity, Wheelbase, Curb weight, Horsepower
b. Dependent Variable: Log-transformed sales
Il test F sul modello stimato con tutti i predittori ha un valore di p <0.001: il modello
di regressione spiega dunque in modo significativo la variabilità delle vendite.
Model Summary
Model
1
R
R Square
a
.697
.486
Adjusted
R Square
.449
Std. Error of
the Estimate
.98960
a. Predictors: (Constant), Fuel efficiency, Length, Price in
thousands, Vehicle type, Width, Engine size, Fuel
capacity, Wheelbase, Curb weight, Horsepower
Quasi la metà della variabilità totale
è spiegata dal modello di regressione
(R2=0.486)
Corso di Statistica Medica
Coefficientsa
Model
1
(Constant)
Vehicle type
Price in thousands
Engine size
Horsepower
Wheelbase
Width
Length
Curb weight
Fuel capacity
Fuel efficiency
Unstandardized
Coefficients
B
Std. Error
-3.017
2.741
.883
.331
-.046
.013
.356
.190
-.002
.004
.042
.023
-.028
.042
.015
.014
.156
.350
-.057
.047
.081
.040
Standardized
Coefficients
Beta
.293
-.502
.281
-.092
.241
-.073
.148
.075
-.167
.262
t
-1.101
2.670
-3.596
1.871
-.509
1.785
-.676
1.032
.447
-1.203
2.023
Sig.
.273
.008
.000
.063
.611
.076
.500
.304
.655
.231
.045
a. Dependent Variable: Log-transformed sales
Anche se il modello spiega bene la variabilità delle vendite, ci sono alcuni fattori non
significativi; ciò significa che il modello stimato ha “troppi” predittori rispetto a quelli necessari.
Per quantificare l’importanza relativa dei predittori, si deve guardare ai coefficienti standardizzati:
anche se il prezzo ha un coefficiente piccolo rispetto al tipo di veicolo, esso contribuisce di più nel
modello perché ha un coefficiente standardizzato più grande.
Corso di Statistica Medica
Coefficientsa
Model
1
Vehicle type
Price in thousands
Engine size
Horsepower
Wheelbase
Width
Length
Curb weight
Fuel capacity
Fuel efficiency
Zero-order
.274
-.552
-.135
-.389
.292
.037
.215
-.041
-.016
.121
Correlations
Partial
.219
-.290
.156
-.043
.149
-.057
.087
.038
-.101
.168
Part
.161
-.217
.113
-.031
.108
-.041
.062
.027
-.073
.122
Collinearity Statistics
Tolerance
VIF
.304
3.293
.187
5.337
.162
6.159
.112
8.896
.200
4.997
.313
3.193
.178
5.605
.131
7.644
.189
5.303
.217
4.604
Proviamo a
ri-stimare il modello
usando il metodo
step-wise
a. Dependent Variable: Log-transformed sales
Multicollinearità: c’è un problema di correlazione tra le variabili esplicative: i coefficienti
di correlazione sono diversi da zero.
La ‘Tolerance’ è la % di varianza in un dato predittore che non può essere spiegata
dagli altri predittori. Per cui i valori bassi di tale indice sono indicazione di forte
collinearità.
Un ‘Variance Inflation Factor’ (VIF) >2 è considerato problematico….
Corso di Statistica Medica
Coefficients
Model
1
2
Unstandardized
Coefficients
B
Std. Error
4.684
.194
-.051
.006
-1.822
1.151
-.055
.006
.061
.011
(Constant)
Price in thousands
(Constant)
Price in thousands
Wheelbase
a
Standardized
Coefficients
Beta
-.552
-.590
.356
t
Sig.
24.090
-8.104
-1.583
-9.487
5.718
.000
.000
.116
.000
.000
a. Dependent Variable: Log-transformed sales
Le variabili selezionate dal modello tramite la procedura stepwise sono il prezzo
e la wheelbase (interasse), in pratica la dimensione del veicolo.
La conclusione è quindi che le vendite sono negativamente influenzate dal prezzo e
positivamente dalla dimensione del veicolo. Ossia, le automobili grandi ed economiche sono
quelle che vendono meglio (negli USA!).
Model Summary
Model
1
2
R
.552a
.655b
R Square
.304
.430
Adjusted
R Square
.300
.422
Std. Error of
the Estimate
1.11553
1.01357
a. Predictors: (Constant), Price in thousands
b. Predictors: (Constant), Price in thousands, Wheelbase
Anche in questo modello ridotto
quasi la metà della variabilità
è spiegata dal modello di regressione
(adjusted R2=0.422)
Corso di Statistica Medica
Diagnostica (I):
Casewise Diagnosticsa
Case Number
53
84
109
116
118
132
Model
Explorer
3000GT
Cutlass
Breeze
Prowler
SW
Std. Residual
2.297
-4.905
-3.610
-2.252
-2.139
-2.012
Log-transfo
rmed sales
5.62
-2.21
.11
1.66
.63
1.65
Predicted
Value
3.2953
2.7638
3.7651
3.9393
2.7955
3.6927
Residual
2.32778
-4.97111
-3.65892
-2.28296
-2.16849
-2.03967
Si selezionano i modelli con i ‘residui’
più grandi: 3000GT e Cutlass
hanno i residui più alti e negativi,
ossia hanno venduto meno di
quanto atteso in base al loro prezzo e
dimensione.
a. Dependent Variable: Log-transformed sales
Anche i modelli Breeze, Prowler e SW hanno avuto una performance peggiore di quella attesa,
ma ad un livello minore.
Il modello Explorer è l’unico che abbia superato le aspettative stimate (residuo positivo).
Breeze, Prowler, SW, e Explorer sono vicini alla
maggioranza dei dati; l’apparente ‘under-performance’
e ‘over-performance’ possono essere quindi attribuite
al caso.
Ci sono poi alcuni modelli che si allontanano dalla
maggioranza dei dati…
Corso di Statistica Medica
Diagnostica (II):
Residui rispetto al prezzo:
i modelli più costosi sono quelli
che si allontanano dalla
maggioranza
dei dati;
Corso di Statistica Medica
Diagnostica (III):
Residui rispetto alla
dimensione:
i modelli più grandi sono quelli
che si allontanano dalla
maggioranza
dei dati;
Corso di Statistica Medica
In conclusione:
Le vendite degli autoveicoli sono determinate principalmente dal prezzo e
dalla dimensione; date queste due informazioni si può prevedere in media
quanto venderà un veicolo.
Usando il metodo stepwise abbiamo selezionato il modello “migliore” per
predire le vendite. Tramite questo modello abbiamo identificato due tipi di
veicoli che stanno andando male nel mercato, nonostante le aspettative,
mentre nessun modello sta vendendo particolarmente sopra le aspettative.
I grafici diagnostici hanno indicato che il modello stimato può essere
influenzato in modo rilevante dai veicoli particolarmente grandi e costosi,
come la classe SL o i Pick-Up.
(Si può suggerire di trasformare mediante logaritmo anche i prezzi e la
wheelbase, per “comprimerne” i valori estremi).
Corso di Statistica Medica
Dalla regressione multipla alla regressione logistica
Una delle applicazioni più utili della regressione multipla potrebbe essere
quella di predire la mortalità o la morbilità (per es. gli incidenti cerebrovascolari,
l'infarto, il cancro o altre malattie). Tuttavia la regressione multipla non può
essere applicata a dati categorici come la morte o l'infarto miocardico.
Queste variabili infatti hanno due sole possibilità 0 o 1 (vivo o morto, infarto o
non infarto, ecc.), non sono misurati su scala continua.
Per analizzare queste variabili con un approccio multivariato, esse devono
essere trasformate.
La trasformazione da utilizzare è quella in “logit” e il
modello analitico è la regressione logistica.
Corso di Statistica Medica
La verosimiglianza (likelihood) nei modelli binari
Questa breve digressione è finalizzata a chiarire il metodo che si adotta per la
costruzione dei modelli logistici, cioè il metodo della probabilità più verosimile
o maximum likelihood.
Se seguiamo un campione di 10 pazienti per un certo periodo di tempo e
siamo interessati a stabilire la mortalità, abbiamo due possibili esiti, vivo o morto.
Definiamo la probabilità di morte con p e quella di sopravvivere con il suo
complemento 1-p :
Corso di Statistica Medica
Dalla Tabella risulta che 3 pazienti sono deceduti (p) nel periodo di osservazione
e 7 sono sopravvissuti (1-p). Le osservazioni sono indipendenti (un paziente può
vivere o morire indipendentemente dagli altri) quindi possiamo utilizzare la regola
moltiplicativa per stimare la probabilità della nostra osservazione:
p x (1-p) x (1-p) x p x (1-p) x (1-p) x (1-p) x p x (1-p) x (1-p)
(p)3 x (1-p)7
Possiamo attribuire varie probabilità al rischio di morte (p). Per esempio un rischio del 10%
(0.10) o 20% (0.20) o altri valori.
La domanda che ci poniamo è: quanto verosimile (likely) è un certo rischio (per es:
mortalità 10%, sopravvivenza 90%) tenuto conto che noi osserviamo una mortalità del 30%
(e una sopravvivenza del 70%)?
Utilizzando i dati possiamo calcolare la verosimiglianza delle varie ipotesi di rischio.
Corso di Statistica Medica
p=10%
p=30%
p=20%
(0.10)3 x (0.90)7 = 0.001 x 0.478 = 0.000478 (o 4.78 x 10-4)
(0.30)3 x (0.70)7 = 0.027 x 0.082 = 0.002214 (o 22.14 x 10-4)
(0.20)3 x (0.80)7= 0.008 x 0.209715 = 0.001677 (o 16.77 x 10-4)
La probabilità più alta è quella che coincide con un rischio del 30%.
• Ripetendo il calcolo (iterativo) per ulteriori valori di rischio troviamo che la più alta probabilità
rimane proprio quella che coincide con la % da noi effettivamente osservata nel campione, il 30%.
• Si dice che l'ipotesi di rischio del 30% è quella meglio supportata dai dati. Siamo arrivati a questa
conclusione applicando il calcolo iterativo, cioé testando tutti i possibili valori che p può assumere.
• Il rischio che ha la verosimiglianza più alta è definito il valore più verosimile (maximum
likelihood). Qualsiasi altro valore di rischio fornisce stime meno credibili rispetto a quella del
valore più verosimile.
Corso di Statistica Medica
Il modello di regressione logistica:
prevedere l'esito (outcome) in base ai determinanti del rischio
Nell'esempio precedente l'esito (vivo/morto) è stato previsto su 10 soggetti e sulla
base di una serie di stime teoriche del rischio (20% o 30%, ecc.).
Se oltre a registrare l'esito (vivo/morto) misuriamo anche una o più variabili che
riteniamo possano influenzarlo (nel nostro esempio l'ipertrofia ventricolare sinistra,
la pressione arteriosa media) possiamo costruire un modello più complesso che
cerca di predire l'esito a partire dalle variabili indipendenti. Per esempio:
mortalità = a + b (massa ventricolare) + c (pressione arteriosa media)
y = a + bx1 + cx2
Corso di Statistica Medica
In questo caso si deve massimizzare la probabilità di ottenere i valori osservati
della variabile dipendente (vivo/morto) in base a un'equazione costruita con i
dati relativi alla pressione arteriosa media e alla massa ventricolare sinistra.
La likelihood sarà massima quando i coefficienti dell'equazione saranno tali da
predire il più accuratamente possibile l'esito caso per caso.
• per stimare la probabilità di morte a partire da una o più variabili indipendenti, generiamo un modello con
coefficienti “casuali” a partire dai nostri dati:
variabile dipendente -> morto/vivo (0/1);
variabili indipendenti -> massa ventricolare sinistra, pressione arteriosa
• Il modello ad ogni iterazione di calcolo potrà risultare efficace o inefficace:
Il modello sarà efficace -> in grado di predire la mortalità realmente osservata -> solo se le variabili
considerate influenzano la mortalità.
Se invece i dati di mortalità (0/1) previsti dal modello non coincidono con i dati di mortalità osservati,
-> il modello è inefficace e concludiamo che le variabili indipendenti non influenzano la mortalità.
• Il metodo di stima si basa sul calcolo iterativo e sulla trasformazione logit; il computer "testa" vari
coefficienti di regressione e il calcolo si arresta quando i coefficienti di regressione (b e c dell'equazione)
massimizzano la previsione della variabile dipendente sulla base dei dati osservati.
Corso di Statistica Medica
Test di ipotesi sul modello:
Il likelihood ratio ‘LR’ è il rapporto tra la likelihood di ottenere i valori della variabile
dipendente quando è vera l'ipotesi nulla, cioè quando il modello non consente
di predire la variabile dipendente (outcome), diviso per la likelihood calcolata sui dati
del nostro campione:
LR=LR(H0)/LR(campione)
Quando il modello non predice la variabile dipendente la likelihood del denominatore
sarà uguale a quella del numeratore e il rapporto sarà ~ 1, l'ipotesi nulla sarà cioè vera.
Tanto più efficace è il modello tanto più basso sarà LR (che tenderà ad avvicinarsi
sempre più allo 0).
2
− 2 ln LR = χ gdl
Consultando la distribuzione del Chi-quadro
possiamo stabilire se il nostro modello predice
significativamente la variabile dipendente.
gdl del Chi-quadro:
# parametri stimati
Corso di Statistica Medica
La trasformazione dei dati in logit
Per motivi di calcolo, la variabile dipendente dell'equazione (la mortalità) si trasforma
in una funzione logistica (continua) utilizzando la formula:
 p 

p = ln
1− p 
In questa funzione ln è il logaritmo naturale e il rapporto tra p (la probabilità di morte)
e (1-p) la probabilità complementare, cioè la sopravvivenza, sono gli odds o
probabilità a favore.
Gli odds sono il tipico modo che gli scommettitori usano per quantificare la
probabilità di vincere. Gli odds quindi ci consentono di trasformare una variabile
categorica (si/no) in una variabile che esprime la probabilità dell'evento.
Corso di Statistica Medica
Quando la probabilità di morte è del 50% (o 0.5) gli odds sono uguali a 1
(perché 0.5/1–0.5 = 1) e la relativa funzione logistica (che coincide coi log odds)
è uguale a 0 (perché il logaritmo di 1 è 0).
Un vantaggio dei logit è che la probabilità ad essi corrispondente può variare da 0 a
1, cioè nell'ambito della stessa scala sulla quale è espressa abitualmente la
probabilità di un evento:
p
ln(p/1-p)
La funzione logaritmo in base e (ln)
è la funzione inversa rispetto alla
funzione esponenziale in base e:
x = ey
y = ln ( x )
e~2.7
Corso di Statistica Medica
Possiamo quindi trasformare la variabile mortalità in termini di probabilità dell'evento
(morte):
 p 
 = a + bx1 + cx 2 + ...
ln
1− p 
[
p = 1 / 1 + e − (a +bx1+ cx 2+...)
p=P(Y=1)=Probabilità dell’evento morte
]
Corso di Statistica Medica
mortalità = a + b (massa ventricolare) + c (pressione arteriosa media)
y = a + bx1 + cx2
y=a+b*LVM+c*MAP
 p 
 = a + b * LVM + c * MAP
ln
1− p 
p = 1 /[1 + e −(a +b*LVM + c*MAP ) ]
Se la funzione logistica stimata dell'equazione che predice la sopravvivenza in base
alla massa ventricolare (LVM) e alla pressione arteriosa media (PAM) è:
ln(p/1-p)= –16.26 + 0.068 LVM + 0.065 MAP
la probabilità di morte per una massa ventricolare di 120 g/m2 e una MAP di 110
mmHg è:
p=1/[1+e-(-16.26 + 0.068 x 120+0.065 x 110)]= 1/[1+ e-(-0.95) ]= 1/[1 + 2.58] = 1/3.58
= 0.30
Corso di Statistica Medica
Ripetendo lo stesso calcolo e variando solo la massa ventricolare, portandola cioè
da 120 a 130 g/m2, la probabilità di morte diventa 0.43. Viceversa riducendola a
110 g/m2 la probabilità di morte si riduce a 0.16.
Questo modo di procedere è particolarmente utile in quanto ci permette di stimare
l'influenza della massa ventricolare sulla sopravvivenza a parità della pressione
arteriosa.
Tuttavia la valutazione è più immediata con il calcolo degli odds ratio:
OR = e0.068*(130-120) = 1.54
odds ratio (OR) di un aumento della massa ventricolare sinistra da 120 a 130 g/m2
la probabilità di morte è 1.54 volte più alta quando la massa ventricolare sinistra
aumenta da 120 a 130 g/m2
Corso di Statistica Medica
Allo stesso modo possiamo calcolare gli OR di un aumento della pressione da 110
a 120 mmHg:
OR = e0.065(120-110) = 1.91
la probabilità di morte è 1.91 volte più alta quando la pressione aumenta da 110 a
120 mmHg.
Definizione formale di OR:
Odds(Y=1| X)=e(bX)
ln(OR)=b
La probabilità che Y=1 quando X “varia” di d unità è:
OR=ebd
Corso di Statistica Medica
Test di ipotesi sul singolo predittore:
b = incremento del log-odds per incremento unitario di X;
Test d’ipotesi H0 : b=0 (test di Wald)
2
β
2
χ =
Varianza(β)
(1 df)
Consultando la distribuzione del Chi-quadro con 1 gdl
possiamo stabilire se il predittore X ha un impatto significativo
sulla variabile dipendente.
Scarica