Nessun titolo diapositiva

annuncio pubblicitario
PROBABILITA’:
se un EVENTO si verifica in h modi diversi su
n possibili (POPOLAZIONE)
p = h/n
Questa definizione è talvolta applicabile ‘a priori’ (es. lancio della
moneta), ma più spesso ‘a posteriori’, dopo un numero molto
elevato di prove (è il caso della distribuzione ‘normale’,..)
DISTRIBUZIONI DISCRETE DI PROBABILITA:
1) lancio di moneta: p(testa) = p(croce) = 1/2
2) lancio di dado: p(1)=p(2)=…….=1/6
1/6
1 2 3 4 5 6
3) lancio di 2 dadi:
in questo caso la distribuzione di probabilità NON E’ uniforme:
1/36
1 2 3 4 5 6 7 8 9 10 11 12
Oltre a definire la probabilità di un evento, è possibile
definire la PROBABILITA’ CUMULATIVA di ottenere
un valore della variabile casuale x minore od uguale ad k:
es p(x<4) = F(4)= p(1)+….+p(4)= 1/36+2/36+3/36=7/36
DISTRIBUZIONI CONTINUE DI PROBABILITA’
In questo caso la variabile casuale assume valori con
continuità in un certo range.
E’ una situazione tipica di molti procedimenti di misura
(in fisica, biologia,…) in cui le letture vengono eseguite
con strumenti di sufficiente sensibilità.
La funzione di probabilità si esprime in genere tramite
l’equazione di una curva, mentre la probabilità cumulativa rappresenta l’area sotto la curva.
Caso 1: le curve di sopravvivenza….
….. vengono descritte con una distribuzione esponenziale
P(x)=1/m exp(-x/m)
F(x)=1-exp (-x/ m)
m
dove m è la VITA MEDIA:
Es: Se la vita media dei pazienti dopo l’insorgere dei primi sintomi
di una malattia è di 2 anni, qual è la probabilità che un certo paziente
sopravviva 6 mesi? E 10 anni?
P(t>0.5 anni) = 1-F(0.5) = exp(-0.5/2)= 0.779
p(t>10 anni) = 1-F(10) = exp(-10/2)=0.07
Caso 2: le misure ripetute su una popolazione…...
Si tratta di una curva con due parametri:
la media m ,
che individua il massimo della curve, e
la standard deviation s,
che rappresenta la emilarghezza a metà altezza (o punto di flesso).
L’area sottesa dalla curva vale 1 ( 100% di probabilità) .
Un dato che appartenga ad una popolazione gaussiana ha:
il 95% di probabilità di trovarsi compreso tra:
m - 1.96 s
e m + 1.96 s
il 99% di probabilità di trovarsi compreso tra:
m - 2.58 s
e m + 2.58 s
:
se scommetto che un certo dato appartenga alla popolazione
e il dato rientra nell’ intervallo
m - 1.96 s
e m + 1.96 s
ho il 95% di probabilità di azzeccarci e il 5% di probabilità
di sbagliare,
viceversa se scommetto su di un dato che non appartiene
all’intervallo ho il 5% di probabilità di azzeccare e il 95%
di probabilità di sbagliare!.
E’ particolarmente conveniente fare un cambiamento di
variabile:
variabile casuale ridotta o
standardizzata:
z=(x- m)/s
ora la media è 0 e la standard
deviation è 1,
-3 -2 -1 0 1 2 3
68%
95%
99.7%
z
e la probabilità cumulativa è
tabulata.
p(-1<z<1) = 0.683
p(-1.97<z<1.97) = 0.95
p(-2<z<2) = 0.954
p(-2.58<z<2.58) = 0.99
p(-3<z<3) = 0.997
Es: Sia y una variabile Normale con valor medio 1 e deviazione
standard 3. Con quale probabilità sarà compresa tra -1 e 4?
Z= (y-1)/3
p(-1<y<4) = p(-2/3<z<1)= p(0<z<2/3) + p(0<z<1)=
= 0.5/2 + 0.68/2=0.59
Con quale probabilità sarà superiore a 4?
P(y>4) = p( z>1)= 1-p(z<1)=1-p(-oo<z<0)-p(0<z<1)=
= 1-1/2-0.68/2=
= 1/2-0.34= 0.16
Con quale probabilità sarà superiore a 7?
P(y>7)=p(z>2) =…..= 1/2-0.95/2=0.025
N.B: la probabilità del 2.5% è molto PICCOLA. Accetto un
‘rischio’ di errore ( o LIVELLO DI CONFIDENZA)del 2.5%
dicendo che y non è praticamente mai maggiore di 7.
ABBIAMO IMPARATO CHE:
1) ci sono variabili discrete e continue,
2) esistono distribuzioni di probabilità per queste variabili,
3) è possibile associare a intervalli di valori di queste variabili una
probabilità, e viceversa, data una probabilità, determinare i limiti
di variazione per le variabili.
Supponiamo ora di considerare una POPOLAZIONE, di cui
sia nota la distribuzione di probabilità, e di estrarne un
CAMPIONE.
In che misura è rappresentativo della POPOLAZIONE?
Per capirlo proviamo ad estrarre n campioni diversi costituiti
ciascuno da k elementi.
Per ciascun campione possiamo calcolare un certo numero di
PARAMETRI che ci serviranno per il confronto con la
POPOLAZIONE.
I più usati sono:
- la media
- la varianza
Detti x1, x2,…..xk gli elementi del campione i-esimo
definiamo la media campionaria:
xm = (x1+x2+
xk)/k
e la varianza:
s2= ((x1-xm)2+(x2-xm)2+
(xk-xm)2)/(k-1)
Dagli n campioni avremo: xm1,xm2,…….xmn
e s21, s22,…….. s2n.
Soprattutto nel caso di distribuzioni non simmetriche vengono
anche usate la mediana, o 50° percentile, e il 25° e 75° percentili,
che corrispondono rispettivamente ai punti che dividono la popolazione in due parti uguali, in un quarto superiore e in un quarto
inferiore.
Nel caso della distribuzione gaussiana si usano talvolta i:
2.5 ° percentile
16 ° percentile
50 ° percentile (mediana)
84 ° percentile
97.5° percentile
m -2 s
m-s
m
m+s
m +2 s
Un teorema fondamentale della statistica afferma che:
“ la media delle medie ottenute dai campioni
xmm= (xm1+xm2+…..+xmn)/n
coincide con la media della popolazione m, e che
la varianza stimata
s2m= ((xm1-xmm)2+…..+(xmk-xmm)2)/(n-1)
coincide con s2/n “
In altri termini, estratto un campione da una popolazione normale
di media m e varianza s2 , la media del campione xm
è distribuita normalmente, con media m e varianza s2/n
ossia che la variabile ridotta
z= (xm- m)/(s/n)
è distribuita in modo normale con media 0 e
varianza 1!
Si tratta di un teorema di enorme portata perché ci dice che
- qualunque sia la distribuzione (nota) della popolazione
-qualunque sia il campione che estraggo dalla popolazione
mi basta calcolare il suo valore medio
per conoscere la probabilità che il campione appartenga alla
popolazione (dunque, in un certo senso, la sua ‘rappresentatività’!
Di qui l’idea di eseguire un TEST sul campione (test Z).
E’ diventato convenzionale eseguire il TEST z definendo:
- l’IPOTESI NULLA:
IL CAMPIONE APPARTIENE ALLA POPOLAZIONE
OVVERO
la differenza tra campione e popolazione è dovuta al caso
- il LIVELLO DI CONFIDENZA p,
normalmente assunto pari alla probabilità 0.05 o 0.01
con cui si ACCETTA l’ipotesi nulla (p(z) > p)
ovvero si RIFIUTA (p(z) < p).
Sappiamo già che il valore trovato, se appartiene alla popolazione,
ha il 95% di probabilità di trovarsi compreso tra -1.96 e 1.96 :
questi valori rappresentano l’intervallo di confidenza al 95%.
I valori che stanno fuori dell’intervallo hanno una probabilità
pari al 5% di appartenere alla popolazione:
con questo livello di confidenza posso scommettere che il dato non
appartiene alla popolazione.
Es :
E’ noto che il tempo di sopravvivenza ad un tumore è descritto
da una distribuzione esponenziale con m=38.3 mesi e s=39.2
mesi.
Un gruppo di 100 pazienti affetti da quel tipo di tumore viene
sottoposto a terapia, e per essi la vita media è pari a 46.9 mesi.
La terapia è efficace al livello di confidenza dell’ 1%?
Z= (xm-m)/(s/n) = (46.9-38.3)/(39.2/10) = 2.19
p(z)= 0.014 >0.01
la probabilità di ottenere PER CASO questo valore è maggiore
di p, dunque accetto l’ipotesi nulla : il campione appartiene
alla popolazione: la terapia NON E’ efficace.
Qual è il significato del livello di confidenza?
Quanto è realmente AFFIDABILE il test?
P è la probabilità di sbagliare affermando che il trattamento è
efficace quando in realtà non lo è
(un caso su 20 o un caso su 100, a seconda della scelta).
Si dice che corrisponde all’errore di primo tipo, o a.
E’ però possibile anche l’errore opposto, ossia il considerare
inefficace una terapia che lo è: errore di secondo tipo o b.
Oltre a p, gli altri fattori importanti per la determinazione di
b sono:
1) la dimensione del campione
2) l’entità dell’effetto che si vuole rilevare e la variabilità
della popolazione.
Il seguente esempio dimostra bene la dipendenza di b ,
o alternativamente della POTENZA P=1- b,
dai fattori prima visti.
Si è somministrato un farmaco EFFICACE, che aumenta la
diuresi in modo noto, ad una popolazione di 200 pazienti.
Si sono estratti dei campioni e si è effettuato il test, valutandone la
potenza, al variare di alcuni parametri.
Caso 1:
aumento medio della diuresi di 200 ml/g,
campioni di 10 pz
prendendo p=0.05 it test ha affermato l’efficacia del farmaco
in 111 casi su 200: b=(200-111/200)=89/200=45%, P=0.55;
prendendo p=0.01, soltanto più in 89 casi:
b =111/200=55% , P=0.45.
DUNQUE SCEGLIERE UN LIVELLO DI CONFIDENZA P
PIU’ GRANDE MIGLIORA LA POTENZA
Caso 2:
p=0.05
campioni di 10 pz
fornendo ai pazienti una dose di farmaco che induce un
aumento di 200 ml/g di urina, l’efficacia è risultata in 111 casi,
ma fornendo una dose doppia, con un effetto doppio, l’efficacia
è risultata in 198 casi, P=198/200=0.99.
DUNQUE UN EFFETTO MAGGIORE DI PER SE’
PRODUCE UNA MAGGIOR POTENZA
Caso 3.
Infine, scegliendo ancora p=0.05 e una singola dose, si è passato
a considerare campioni di 20 pazienti.
In questo caso il farmaco è risultato efficace in 174 casi su 200,
dunque P=87%.
INFINE, CAMPIONI PIU’ NUMEROSI AUMENTANO LA
POTENZA DEL TEST.
Gli epidemiologi definiscono gli errori a e b nel contesto
dei test diagnostici usando anche altri termini:
Se la malattia c’è, la probabilità che il test diagnostico
sia positivo è detta SENSIBILITA’ del test.
(coinciderebbe con la ns POTENZA)
1-sens = % di falsi negativi
Se la malattia non c’è, la probabilità che il test diagnostico sia negativo è la SPECIFICITA’ del test.
(coinciderebbe con la ns 1-p).
1-spec= % di falsi positivi
Abbiamo imparato:
-il concetto di popolazione e di CAMPIONE
- il concetto di IPOTESI NULLA
- il concetto di LIVELLO DI CONFIDENZA
-gli errori di primo e secondo tipo e la
POTENZA di un test.
IL TEST DI STUDENT (t-test)
Supponiamo di avere una variabile aleatoria QUANTITATIVA
( UN NUMERO!!)
e di considerare un campione estratto da una popolazione
GAUSSIANA di cui è noto il valore medio m
detto xm il valore medio del campione ,
n la sua dimensione e
s la deviazione standard:
s =
2
(
x
xm
)
 i
n -1
Si può dimostrare che la variabile
xm - m
t =
s
n
Non segue una distribuzione gaussiana se non per n molto grande.
Negli altri casi la forma della distribuzione dipende dal numero
di gradi di libertà n= n-1
ed è nota come curva di Student.
Fissato un valore di p sarà pertanto possibile sottoporre a
test l’ipotesi nulla.
Es:
Si ritiene che il periodo di guarigione dopo un dato intervento sia
30 gg. Un test condotto su 16 pazienti sottoposti ad una nuova terapia
fornisce xm=28 gg con s=3 gg. La nuova terapia è efficace al
livello di confidenza del 5%?
T= (28-30)/(3/4)=2.56
controllando le tabelle corrispondenti a n=16 si ottiene un valore
limite al 5% pari a t*=1.75<t
Siamo pertanto autorizzati a rifiutare l’ipotesi nulla, affermando che
la terapia è efficace.
IL TEST t PER IL CONFRONTO DI CAMPIONI
Caso sperimentazione-controllo
Siano dati due campioni provenienti da una popolazione
gaussiana:
C1=(n1,xm1,s1)
C2=(n2,xm2,s2)
se usiamo come parametro la DIFFERENZA, avremo che
la media stimata sarà pari a
xm1-xm2
Mentre, essendo l’ipotesi nulla quella che i campioni provengano
dalla stessa popolazione, la differenza tra le medie delle popolazioni sarà 0.
Quanto all’errore standard, si assume che sia pari a:
es = s
1
1
+
n1
n2
dove s 2 =
dove
(n1 - 1) s 21 + (n2 - 1) s2
n
v = n1 + n2 - 2
2
In definitiva dunque si studia la variabile:
t =
xm1 - xm2
1
1
s
+
n1
n2
Usando la distribuzione di Student corrispondente a n
è possibile testare l’ipotesi nulla al livello di confidenza
prescelto.
Es: Quale anestetico deprime meno la pressione arteriosa?
Si confrontano due gruppi:
61 pz operati usando ALOTANO p=66.9±12.2 mmHg
61 pz
MORFINA p= 73.2 ±14.4
La differenza è significativa al 5%?
n=2x61-2=120
s=sqrt((60x(12.2)2+60x(14.4)2)/120)=13.34 mmHg
t=(73.2-66.9)/(13.34sqrt(2/61))=2.61
Il valore limite corrispondente è pari a t*=1.98<t
l’ipotesi nulla va rifiutata: la morfina è migliore.
Caso pre-post trattamento
(paired t-test)
Potrei procedere come prima, ma il test è più
sensibile se si tiene conto delle variazioni del
valore della variabile aleatoria nello stesso
individuo (non c’è il mascheramento dovuto alla
variabilità tra individui)
In questo caso conviene assumere come variabile
stimata il valore medio delle differenze pre-post
trattamento, come valore della popolazione si
assume 0 (i due gruppi appartengono alla stessa
popolazione, quindi non c’è differenza!) e come
errore standard quello calcolato sulle differenze:
Dunque:
s2 =
 (d
t =
dm
s/ n
i
- dm) 2 /( n - 1).
s
Il numero di gradi di libertà sarà n=n-1.
Esempio:
Si misura la resistenza polmonare di un gruppo di ipertesi
polmonari prima e dopo trattamento con idralazina.
Pz
1
2
3
4
pre
22.2
17.0
14.1
17.0
post
5.4
6.3
8.5
10.7
d
16.8
10.7
5.6
6.3
d-dm
7.0
0.9
-4.3
-3.6
facendo i calcoli: dm=9.85; s=5.20
dunque
t=9.85/2.6=3.79;
n=3
il valore limite con p=0.01 è pari a t*=5.841>t
devo accettare l’ipotesi nulla. Con p=0.05 invece no (t*=3.182)
LIMITI DEL TEST:
-NON VA BENE QUANDO SI CONFRONTANO PIU’
DI DUE CAMPIONI
(occorre apportare correzioni: t di Bonferroni,
t di Student-Neumann-Keuls)
oppure USARE ANOVA
-NON VA BENE SE LA POPOLAZIONE NON E’
GAUSSIANA
Si usano metodi basati sui RANGHI
Quando non si è certi della distribuzione gaussiana della popolazione
da cui si estrae il campione, si ricorre ai cosiddetti metodi NON
PARAMETRICI.
Tra i più usati vi sono quelli basati sui RANGHI, ossia sulla
possibilità di attribuire un punteggio (rank) ai diversi valori assunti
dalle variabile , nel confrontare il valore totale dei ranghi con tutte
le possibilità e nel calcolare la probabilità che compete al totale
effettivamente ottenuto.
L’equivalente del t-test per dati non appaiati si chiama
test di Mann-Whitney,
quello per i dati appaiati si chiama test di Wilcoxon.
Vediamoli con degli esempi:
Test di Mann-Whitney
Consideriamo due gruppi: controllo (placebo) e trattamento (diuretico)
e valutiamo lka diuresi giornaliera:
CONTROLLO:
1000
1380
1200
1
5
3
1400
1600
1180
1220
6
7
2
4
DIURETICO:
attribuiamo il rango a partire dal più basso:avrò una
variabile ‘rango’ variabile tra 1 e 7.
Consideriamo i totali dei ranghi:
CONTROLLO: Tcon=9
TRATTAMENTO: Ttrat=19.
Tcon è significativamente più basso (p=0.05)?
Vediamo in quanti modi posso sommare 3 ranghi compresi tra 1 e 7:
Il coefficiente binomiale di 7 su 3 vale 35: ho 35 modi diversi di
combinarli:
simmetrico
6
9 12
La probabilità di ottenere un valore estremo, ad es T=6
oppure T=18,è pari a 1/35,
quindi la probabilità di ottenere T<=7 vale 2/35=5.7%.
Ne deriva che T*=7.
Poiché per noi Tcon=9>T* accetto l’ipotesi nulla. Non
posso concludere che la differenza sia significativa.
Se i campioni sono grandi esistono degli algoritmi più
efficienti, ma basati sul medesimo principio.
Esempio di test di Wilcoxon.
Supponiamo di considerare un caso pre-post trattamento sempre
relativo alla diuresi giornaliera:
soggetto
pre
post
diff
R
1
2
3
4
5
6
1600
1850
1300
1500
1400
1010
1490
1300
1400
1410
1350
1000
-110
-550
+100
-90
-50
-10
-5
-6
+4
-3
-2
-1
ATTRIBUIAMO I RANGHI CON SEGNO ALLE DIFFERENZE.
Poiché i ranghi vanno da -6 a +6 ,il loro totale può variare tra
1+2+3+4+5+6=21 a -1-2-3-4-5-6=-21, e il numero di possibilità
è 64.
Nel nostro caso abbiamo trovato W=-13.
Poiché c’è un unico modo di ottenere -21 e -20 e due modi di
trovare -19, e dunque P(W<=19)=4/64=6.25%,
possiamo assumere W*=-19.
Poiché W<W* accettiamo l’ipotesi nulla: la differenza non è
significativa.
Per campioni numerosi si usano algoritmi più pratici, ma
basati sulla medesima logica.
ABBIAMO IMPARATO CHE:
1) se vogliamo confrontare due campioni provenienti da una
popolazione gaussiana usiamo il test di Student,
mentre se non siamo sicuri che la popolazione di provenienza
sia gaussiana usiamo i test non parametrici
2) usiamo test diversi a seconda che confrontiamo due campioni
distinti oppure lo stesso campione prima e dopo un dato trattamento.
Nel caso del test di Studenti distinguiamo tra dati appaiati e non,
nel caso non parametrico tra test di Mann-Whitney e test di
Wilcoxon.
Scarica