PROBABILITA’: se un EVENTO si verifica in h modi diversi su n possibili (POPOLAZIONE) p = h/n Questa definizione è talvolta applicabile ‘a priori’ (es. lancio della moneta), ma più spesso ‘a posteriori’, dopo un numero molto elevato di prove (è il caso della distribuzione ‘normale’,..) DISTRIBUZIONI DISCRETE DI PROBABILITA: 1) lancio di moneta: p(testa) = p(croce) = 1/2 2) lancio di dado: p(1)=p(2)=…….=1/6 1/6 1 2 3 4 5 6 3) lancio di 2 dadi: in questo caso la distribuzione di probabilità NON E’ uniforme: 1/36 1 2 3 4 5 6 7 8 9 10 11 12 Oltre a definire la probabilità di un evento, è possibile definire la PROBABILITA’ CUMULATIVA di ottenere un valore della variabile casuale x minore od uguale ad k: es p(x<4) = F(4)= p(1)+….+p(4)= 1/36+2/36+3/36=7/36 DISTRIBUZIONI CONTINUE DI PROBABILITA’ In questo caso la variabile casuale assume valori con continuità in un certo range. E’ una situazione tipica di molti procedimenti di misura (in fisica, biologia,…) in cui le letture vengono eseguite con strumenti di sufficiente sensibilità. La funzione di probabilità si esprime in genere tramite l’equazione di una curva, mentre la probabilità cumulativa rappresenta l’area sotto la curva. Caso 1: le curve di sopravvivenza…. ….. vengono descritte con una distribuzione esponenziale P(x)=1/m exp(-x/m) F(x)=1-exp (-x/ m) m dove m è la VITA MEDIA: Es: Se la vita media dei pazienti dopo l’insorgere dei primi sintomi di una malattia è di 2 anni, qual è la probabilità che un certo paziente sopravviva 6 mesi? E 10 anni? P(t>0.5 anni) = 1-F(0.5) = exp(-0.5/2)= 0.779 p(t>10 anni) = 1-F(10) = exp(-10/2)=0.07 Caso 2: le misure ripetute su una popolazione…... Si tratta di una curva con due parametri: la media m , che individua il massimo della curve, e la standard deviation s, che rappresenta la emilarghezza a metà altezza (o punto di flesso). L’area sottesa dalla curva vale 1 ( 100% di probabilità) . Un dato che appartenga ad una popolazione gaussiana ha: il 95% di probabilità di trovarsi compreso tra: m - 1.96 s e m + 1.96 s il 99% di probabilità di trovarsi compreso tra: m - 2.58 s e m + 2.58 s : se scommetto che un certo dato appartenga alla popolazione e il dato rientra nell’ intervallo m - 1.96 s e m + 1.96 s ho il 95% di probabilità di azzeccarci e il 5% di probabilità di sbagliare, viceversa se scommetto su di un dato che non appartiene all’intervallo ho il 5% di probabilità di azzeccare e il 95% di probabilità di sbagliare!. E’ particolarmente conveniente fare un cambiamento di variabile: variabile casuale ridotta o standardizzata: z=(x- m)/s ora la media è 0 e la standard deviation è 1, -3 -2 -1 0 1 2 3 68% 95% 99.7% z e la probabilità cumulativa è tabulata. p(-1<z<1) = 0.683 p(-1.97<z<1.97) = 0.95 p(-2<z<2) = 0.954 p(-2.58<z<2.58) = 0.99 p(-3<z<3) = 0.997 Es: Sia y una variabile Normale con valor medio 1 e deviazione standard 3. Con quale probabilità sarà compresa tra -1 e 4? Z= (y-1)/3 p(-1<y<4) = p(-2/3<z<1)= p(0<z<2/3) + p(0<z<1)= = 0.5/2 + 0.68/2=0.59 Con quale probabilità sarà superiore a 4? P(y>4) = p( z>1)= 1-p(z<1)=1-p(-oo<z<0)-p(0<z<1)= = 1-1/2-0.68/2= = 1/2-0.34= 0.16 Con quale probabilità sarà superiore a 7? P(y>7)=p(z>2) =…..= 1/2-0.95/2=0.025 N.B: la probabilità del 2.5% è molto PICCOLA. Accetto un ‘rischio’ di errore ( o LIVELLO DI CONFIDENZA)del 2.5% dicendo che y non è praticamente mai maggiore di 7. ABBIAMO IMPARATO CHE: 1) ci sono variabili discrete e continue, 2) esistono distribuzioni di probabilità per queste variabili, 3) è possibile associare a intervalli di valori di queste variabili una probabilità, e viceversa, data una probabilità, determinare i limiti di variazione per le variabili. Supponiamo ora di considerare una POPOLAZIONE, di cui sia nota la distribuzione di probabilità, e di estrarne un CAMPIONE. In che misura è rappresentativo della POPOLAZIONE? Per capirlo proviamo ad estrarre n campioni diversi costituiti ciascuno da k elementi. Per ciascun campione possiamo calcolare un certo numero di PARAMETRI che ci serviranno per il confronto con la POPOLAZIONE. I più usati sono: - la media - la varianza Detti x1, x2,…..xk gli elementi del campione i-esimo definiamo la media campionaria: xm = (x1+x2+ xk)/k e la varianza: s2= ((x1-xm)2+(x2-xm)2+ (xk-xm)2)/(k-1) Dagli n campioni avremo: xm1,xm2,…….xmn e s21, s22,…….. s2n. Soprattutto nel caso di distribuzioni non simmetriche vengono anche usate la mediana, o 50° percentile, e il 25° e 75° percentili, che corrispondono rispettivamente ai punti che dividono la popolazione in due parti uguali, in un quarto superiore e in un quarto inferiore. Nel caso della distribuzione gaussiana si usano talvolta i: 2.5 ° percentile 16 ° percentile 50 ° percentile (mediana) 84 ° percentile 97.5° percentile m -2 s m-s m m+s m +2 s Un teorema fondamentale della statistica afferma che: “ la media delle medie ottenute dai campioni xmm= (xm1+xm2+…..+xmn)/n coincide con la media della popolazione m, e che la varianza stimata s2m= ((xm1-xmm)2+…..+(xmk-xmm)2)/(n-1) coincide con s2/n “ In altri termini, estratto un campione da una popolazione normale di media m e varianza s2 , la media del campione xm è distribuita normalmente, con media m e varianza s2/n ossia che la variabile ridotta z= (xm- m)/(s/n) è distribuita in modo normale con media 0 e varianza 1! Si tratta di un teorema di enorme portata perché ci dice che - qualunque sia la distribuzione (nota) della popolazione -qualunque sia il campione che estraggo dalla popolazione mi basta calcolare il suo valore medio per conoscere la probabilità che il campione appartenga alla popolazione (dunque, in un certo senso, la sua ‘rappresentatività’! Di qui l’idea di eseguire un TEST sul campione (test Z). E’ diventato convenzionale eseguire il TEST z definendo: - l’IPOTESI NULLA: IL CAMPIONE APPARTIENE ALLA POPOLAZIONE OVVERO la differenza tra campione e popolazione è dovuta al caso - il LIVELLO DI CONFIDENZA p, normalmente assunto pari alla probabilità 0.05 o 0.01 con cui si ACCETTA l’ipotesi nulla (p(z) > p) ovvero si RIFIUTA (p(z) < p). Sappiamo già che il valore trovato, se appartiene alla popolazione, ha il 95% di probabilità di trovarsi compreso tra -1.96 e 1.96 : questi valori rappresentano l’intervallo di confidenza al 95%. I valori che stanno fuori dell’intervallo hanno una probabilità pari al 5% di appartenere alla popolazione: con questo livello di confidenza posso scommettere che il dato non appartiene alla popolazione. Es : E’ noto che il tempo di sopravvivenza ad un tumore è descritto da una distribuzione esponenziale con m=38.3 mesi e s=39.2 mesi. Un gruppo di 100 pazienti affetti da quel tipo di tumore viene sottoposto a terapia, e per essi la vita media è pari a 46.9 mesi. La terapia è efficace al livello di confidenza dell’ 1%? Z= (xm-m)/(s/n) = (46.9-38.3)/(39.2/10) = 2.19 p(z)= 0.014 >0.01 la probabilità di ottenere PER CASO questo valore è maggiore di p, dunque accetto l’ipotesi nulla : il campione appartiene alla popolazione: la terapia NON E’ efficace. Qual è il significato del livello di confidenza? Quanto è realmente AFFIDABILE il test? P è la probabilità di sbagliare affermando che il trattamento è efficace quando in realtà non lo è (un caso su 20 o un caso su 100, a seconda della scelta). Si dice che corrisponde all’errore di primo tipo, o a. E’ però possibile anche l’errore opposto, ossia il considerare inefficace una terapia che lo è: errore di secondo tipo o b. Oltre a p, gli altri fattori importanti per la determinazione di b sono: 1) la dimensione del campione 2) l’entità dell’effetto che si vuole rilevare e la variabilità della popolazione. Il seguente esempio dimostra bene la dipendenza di b , o alternativamente della POTENZA P=1- b, dai fattori prima visti. Si è somministrato un farmaco EFFICACE, che aumenta la diuresi in modo noto, ad una popolazione di 200 pazienti. Si sono estratti dei campioni e si è effettuato il test, valutandone la potenza, al variare di alcuni parametri. Caso 1: aumento medio della diuresi di 200 ml/g, campioni di 10 pz prendendo p=0.05 it test ha affermato l’efficacia del farmaco in 111 casi su 200: b=(200-111/200)=89/200=45%, P=0.55; prendendo p=0.01, soltanto più in 89 casi: b =111/200=55% , P=0.45. DUNQUE SCEGLIERE UN LIVELLO DI CONFIDENZA P PIU’ GRANDE MIGLIORA LA POTENZA Caso 2: p=0.05 campioni di 10 pz fornendo ai pazienti una dose di farmaco che induce un aumento di 200 ml/g di urina, l’efficacia è risultata in 111 casi, ma fornendo una dose doppia, con un effetto doppio, l’efficacia è risultata in 198 casi, P=198/200=0.99. DUNQUE UN EFFETTO MAGGIORE DI PER SE’ PRODUCE UNA MAGGIOR POTENZA Caso 3. Infine, scegliendo ancora p=0.05 e una singola dose, si è passato a considerare campioni di 20 pazienti. In questo caso il farmaco è risultato efficace in 174 casi su 200, dunque P=87%. INFINE, CAMPIONI PIU’ NUMEROSI AUMENTANO LA POTENZA DEL TEST. Gli epidemiologi definiscono gli errori a e b nel contesto dei test diagnostici usando anche altri termini: Se la malattia c’è, la probabilità che il test diagnostico sia positivo è detta SENSIBILITA’ del test. (coinciderebbe con la ns POTENZA) 1-sens = % di falsi negativi Se la malattia non c’è, la probabilità che il test diagnostico sia negativo è la SPECIFICITA’ del test. (coinciderebbe con la ns 1-p). 1-spec= % di falsi positivi Abbiamo imparato: -il concetto di popolazione e di CAMPIONE - il concetto di IPOTESI NULLA - il concetto di LIVELLO DI CONFIDENZA -gli errori di primo e secondo tipo e la POTENZA di un test. IL TEST DI STUDENT (t-test) Supponiamo di avere una variabile aleatoria QUANTITATIVA ( UN NUMERO!!) e di considerare un campione estratto da una popolazione GAUSSIANA di cui è noto il valore medio m detto xm il valore medio del campione , n la sua dimensione e s la deviazione standard: s = 2 ( x xm ) i n -1 Si può dimostrare che la variabile xm - m t = s n Non segue una distribuzione gaussiana se non per n molto grande. Negli altri casi la forma della distribuzione dipende dal numero di gradi di libertà n= n-1 ed è nota come curva di Student. Fissato un valore di p sarà pertanto possibile sottoporre a test l’ipotesi nulla. Es: Si ritiene che il periodo di guarigione dopo un dato intervento sia 30 gg. Un test condotto su 16 pazienti sottoposti ad una nuova terapia fornisce xm=28 gg con s=3 gg. La nuova terapia è efficace al livello di confidenza del 5%? T= (28-30)/(3/4)=2.56 controllando le tabelle corrispondenti a n=16 si ottiene un valore limite al 5% pari a t*=1.75<t Siamo pertanto autorizzati a rifiutare l’ipotesi nulla, affermando che la terapia è efficace. IL TEST t PER IL CONFRONTO DI CAMPIONI Caso sperimentazione-controllo Siano dati due campioni provenienti da una popolazione gaussiana: C1=(n1,xm1,s1) C2=(n2,xm2,s2) se usiamo come parametro la DIFFERENZA, avremo che la media stimata sarà pari a xm1-xm2 Mentre, essendo l’ipotesi nulla quella che i campioni provengano dalla stessa popolazione, la differenza tra le medie delle popolazioni sarà 0. Quanto all’errore standard, si assume che sia pari a: es = s 1 1 + n1 n2 dove s 2 = dove (n1 - 1) s 21 + (n2 - 1) s2 n v = n1 + n2 - 2 2 In definitiva dunque si studia la variabile: t = xm1 - xm2 1 1 s + n1 n2 Usando la distribuzione di Student corrispondente a n è possibile testare l’ipotesi nulla al livello di confidenza prescelto. Es: Quale anestetico deprime meno la pressione arteriosa? Si confrontano due gruppi: 61 pz operati usando ALOTANO p=66.9±12.2 mmHg 61 pz MORFINA p= 73.2 ±14.4 La differenza è significativa al 5%? n=2x61-2=120 s=sqrt((60x(12.2)2+60x(14.4)2)/120)=13.34 mmHg t=(73.2-66.9)/(13.34sqrt(2/61))=2.61 Il valore limite corrispondente è pari a t*=1.98<t l’ipotesi nulla va rifiutata: la morfina è migliore. Caso pre-post trattamento (paired t-test) Potrei procedere come prima, ma il test è più sensibile se si tiene conto delle variazioni del valore della variabile aleatoria nello stesso individuo (non c’è il mascheramento dovuto alla variabilità tra individui) In questo caso conviene assumere come variabile stimata il valore medio delle differenze pre-post trattamento, come valore della popolazione si assume 0 (i due gruppi appartengono alla stessa popolazione, quindi non c’è differenza!) e come errore standard quello calcolato sulle differenze: Dunque: s2 = (d t = dm s/ n i - dm) 2 /( n - 1). s Il numero di gradi di libertà sarà n=n-1. Esempio: Si misura la resistenza polmonare di un gruppo di ipertesi polmonari prima e dopo trattamento con idralazina. Pz 1 2 3 4 pre 22.2 17.0 14.1 17.0 post 5.4 6.3 8.5 10.7 d 16.8 10.7 5.6 6.3 d-dm 7.0 0.9 -4.3 -3.6 facendo i calcoli: dm=9.85; s=5.20 dunque t=9.85/2.6=3.79; n=3 il valore limite con p=0.01 è pari a t*=5.841>t devo accettare l’ipotesi nulla. Con p=0.05 invece no (t*=3.182) LIMITI DEL TEST: -NON VA BENE QUANDO SI CONFRONTANO PIU’ DI DUE CAMPIONI (occorre apportare correzioni: t di Bonferroni, t di Student-Neumann-Keuls) oppure USARE ANOVA -NON VA BENE SE LA POPOLAZIONE NON E’ GAUSSIANA Si usano metodi basati sui RANGHI Quando non si è certi della distribuzione gaussiana della popolazione da cui si estrae il campione, si ricorre ai cosiddetti metodi NON PARAMETRICI. Tra i più usati vi sono quelli basati sui RANGHI, ossia sulla possibilità di attribuire un punteggio (rank) ai diversi valori assunti dalle variabile , nel confrontare il valore totale dei ranghi con tutte le possibilità e nel calcolare la probabilità che compete al totale effettivamente ottenuto. L’equivalente del t-test per dati non appaiati si chiama test di Mann-Whitney, quello per i dati appaiati si chiama test di Wilcoxon. Vediamoli con degli esempi: Test di Mann-Whitney Consideriamo due gruppi: controllo (placebo) e trattamento (diuretico) e valutiamo lka diuresi giornaliera: CONTROLLO: 1000 1380 1200 1 5 3 1400 1600 1180 1220 6 7 2 4 DIURETICO: attribuiamo il rango a partire dal più basso:avrò una variabile ‘rango’ variabile tra 1 e 7. Consideriamo i totali dei ranghi: CONTROLLO: Tcon=9 TRATTAMENTO: Ttrat=19. Tcon è significativamente più basso (p=0.05)? Vediamo in quanti modi posso sommare 3 ranghi compresi tra 1 e 7: Il coefficiente binomiale di 7 su 3 vale 35: ho 35 modi diversi di combinarli: simmetrico 6 9 12 La probabilità di ottenere un valore estremo, ad es T=6 oppure T=18,è pari a 1/35, quindi la probabilità di ottenere T<=7 vale 2/35=5.7%. Ne deriva che T*=7. Poiché per noi Tcon=9>T* accetto l’ipotesi nulla. Non posso concludere che la differenza sia significativa. Se i campioni sono grandi esistono degli algoritmi più efficienti, ma basati sul medesimo principio. Esempio di test di Wilcoxon. Supponiamo di considerare un caso pre-post trattamento sempre relativo alla diuresi giornaliera: soggetto pre post diff R 1 2 3 4 5 6 1600 1850 1300 1500 1400 1010 1490 1300 1400 1410 1350 1000 -110 -550 +100 -90 -50 -10 -5 -6 +4 -3 -2 -1 ATTRIBUIAMO I RANGHI CON SEGNO ALLE DIFFERENZE. Poiché i ranghi vanno da -6 a +6 ,il loro totale può variare tra 1+2+3+4+5+6=21 a -1-2-3-4-5-6=-21, e il numero di possibilità è 64. Nel nostro caso abbiamo trovato W=-13. Poiché c’è un unico modo di ottenere -21 e -20 e due modi di trovare -19, e dunque P(W<=19)=4/64=6.25%, possiamo assumere W*=-19. Poiché W<W* accettiamo l’ipotesi nulla: la differenza non è significativa. Per campioni numerosi si usano algoritmi più pratici, ma basati sulla medesima logica. ABBIAMO IMPARATO CHE: 1) se vogliamo confrontare due campioni provenienti da una popolazione gaussiana usiamo il test di Student, mentre se non siamo sicuri che la popolazione di provenienza sia gaussiana usiamo i test non parametrici 2) usiamo test diversi a seconda che confrontiamo due campioni distinti oppure lo stesso campione prima e dopo un dato trattamento. Nel caso del test di Studenti distinguiamo tra dati appaiati e non, nel caso non parametrico tra test di Mann-Whitney e test di Wilcoxon.