La probabilità Teoria della probabilità: eventi, proprietà additiva e moltiplicativa L’incertezza Nella maggior parte delle situazioni la nostra condizione è caratterizzata dall incertezza Incertezza relativa ad eventi che devono ancora accadere: Quali numeri usciranno alla prossima estrazione del Superenalotto? Incertezza relativa ad eventi che sono già accaduti Chi ha vinto il Campionato italiano di calcio di Serie A nella stagione 1972-73? Incertezza relativa ad eventi che stanno accadendo Qual è la prevalenza di infezione da HIV nella popolazione italiana? Incertezza generali relativa all esistenza e alla natura di leggi Di quanto aumenta il rischio di avere un infarto all aumentare dei valori di PM10? 1 L’incertezza All incertezza contribuiscono, in misura variabile: La nostra ignoranza, ovvero la limitatezza delle informazioni di cui disponiamo La variabilità dei fenomeni di cui ci occupiamo Mentre in alcuni casi l osservazione (misura) ci permette di passare dall incertezza alla certezza (?) Quali numeri usciranno alla prossima estrazione del Superenalotto? Chi ha vinto il Campionato italiano di calcio di Serie A nella stagione 1973-74? in altri casi, per diverse ragioni, la misurazione potrà solo ridurre l incertezza Qual è la prevalenza di infezione da HIV nella popolazione italiana? Di quanto aumenta il rischio di avere un infarto all aumentare dei valori di PM10? La probabilità Che cos è la probabilità? A che cosa serve, in generale? A che cosa serve, per un epidemiologo? Interpretazione in termini probabilistici delle misure di occorrenza e di associazione Un fumatore ha una probabilità di ammalarsi di tumore 5 volte superiore a quella di un non fumatore Interpretazione in termini probabilistici delle caratteristiche di validità di un test diagnostico La probabilità che una persona sana risulti positiva al test mammografico è pari allo 0.5% Quantificazione dell effetto dell errore casuale sulle stime campionarie La probabilità di osservare un rischio relativo ≥ 5 in assenza di associazione è pari al 3.2% 2 La probabilità La probabilità è ciò che ci aiuta (meglio, che ci dovrebbe aiutare) a ragionare (a fare affermazioni) in maniera corretta (o, quanto meno, coerente) in condizioni di incertezza. Ars conjectandi (Jacob Bernoulli) Diversi aspetti: Filosofico: definizioni di probabilità assiomi e regole Applicativo: come usare le probabilità Matematico: EVENTO “ALEATORIO” Definizione L’ evento è l’ elemento di base al quale può essere applicata la probabilità è il risultato di una osservazione o di un esperimento è la descrizione di un potenziale risultato è lo “stato” preso da un “sistema” L’ evento è una proposizione logica suscettibile di essere verificata o no a seconda del risultato dell’ “esperimento” 3 Eventi aleatori Un fenomeno aleatorio è un fenomeno che può manifestarsi in vari modi e rispetto al quale siamo, pertanto, in condizioni di incertezza. Un fenomeno aleatorio deve essere, almeno teoricamente, verificabile (L esito deve essere conoscibile). Una variabile aleatoria (numero aleatorio) è una variabile che può assumere diversi valori. A ciascuno di questi valori (esaustivi e mutuamente esclusivi) avrà senso attribuire una probabilità Un evento aleatorio è una variabile aleatoria che può assumere solo due valori (V/F, 0/1) Da una variabile aleatoria si passa ad un evento raggruppando i possibili esiti in due classi Probabilità Teoria “classica” La probabilità di un evento aleatorio è il rapporto tra il numero di esiti favorevoli ad esso e quello di tutti gli esiti possibili, purché questi ultimi siano equiprobabili. ??? Si adatta abbastanza bene a quelle situazioni in cui i fenomeni aleatori presentano situazioni di simmetria, in cui nessun particolare esito è favorito rispetto agli altri due facce di una moneta sei facce di un dado estrazione di una carta da un mazzo uscita di un numero alla roulette 4 Probabilità Teoria “classica” Dalla definizione classica deriva che la misura della probabilità di un evento può variare da un minimo di 0 (nessun caso favorevole) come ad esempio l'uscita del 91 al Lotto (0 su 90), fino ad un massimo di 1 (tutti i casi favorevoli), come ad esempio pescare una pesciolino rosso da una vasca che contiene solo pesci rossi (n su n). Diremo, nel primo caso, che l'evento è impossibile e nel secondo caso che l'evento è certo. In tutti gli altri casi: gli eventi hanno una probabilità 0 < p < 1, tanto più vicina a zero quanto più è difficile che l'evento accada e tanto più vicina ad 1, quanto più è facile che accada. Un'altra importante proprietà è che: la somma delle probabilità di tutti i possibili esiti di un fenomeno aleatorio deve essere 1, poiché è certo che uno qualsiasi di essi dovrà per forza verificarsi La nascita della teoria frequentista 5 La nascita della teoria frequentista La nascita della teoria frequentista 6 La nascita della teoria frequentista La nascita della teoria frequentista 7 La nascita della teoria frequentista La nascita della teoria frequentista 8 La nascita della teoria frequentista La nascita della teoria frequentista 9 La nascita della teoria frequentista La nascita della teoria frequentista (e non solo…) 10 Probabilità Teoria “frequentista” Supponiamo di ripetere un esperimento n volte in condizioni sostanzialmente identiche e di contare il numero m di volte in cui l evento A si verifica all aumentare di n la proporzione m/n si avvicina ad un limite fisso che è la probabilità di A P(A) = limn→∞ (m / n) La probabilità di un evento è dunque definita come la frequenza relativa con cui l evento si verifica in una lunga serie di esperimenti indipendenti condotti in condizioni virtualmente identiche Anche in questo caso: La probabilità di un evento è un numero compreso tra 0 e 1 La somma delle probabilità dei possibili esiti è uguale a 1 Un esercizio per capire Un esercizio per capire la differenza tra FREQUENZA ASSOLUTA e FREQUENZA RELATIVA In Stata, la sequenza clear set obs 100 gen roll=1+int(6*uniform()) tab roll Genera 100 lanci di un dado (simulati…) Proviamo a fare 10 lanci e poi 100, 1 000, 10 000, 100 000 Come Come sono le differenze ASSOLUTE tra le uscite? sono le differenze RELATIVE? 11 Probabilità Teoria “frequentista” Esempi: Se un meteorologo ci dice che c è una probabilità del 30% che oggi piova, non fa riferimento ad un modello simmetrico di eventi equiprobabili, ma si basa sulla frequenza osservata di giorni con pioggia con condizioni (di temperatura, umidità, pressione etc.) simili a quelli di oggi Se un medico ci dice che la probabilità di successo di un intervento chirurgico su un dato paziente è dell 87%, si basa (dovrebbe basarsi!) sulla frequenza osservata di successi in un numero cospicuo di interventi dello stesso tipo eseguiti su pazienti con caratteristiche (età, genere, condizioni fisiche, patologie concomitanti, etc.) simili a quelle del paziente dato Probabilità Definizioni a confronto Ma possiamo davvero considerare tutti gli eventi “ripetibili”? Qualche Definizione Classica volta e’ necessario un’altro approccio: Approccio Tempo Eventi Stima Esempi teorico a priori equiprobabili calcolo gioco d' azzardo oggettivo a posteriori ripetibili frequenza relativa morbosità in mortalità e Frequentista valutazione individuale da Bayesiana soggettivo a priori irripetibili parte di un soggetto razionale e coerente popolazioni stima del rischio individuale 12 Probabilità Teoria “soggettiva” Secondo questa teoria, la probabilità è una misura del grado di fiducia soggettiva (di chi parla) che un evento si realizzi (o che una variabile aleatoria assuma un determinato valore) su una scala che va da 0 (completa sfiducia che l evento si verifichi) a 1 (certezza che l evento si verifichi) Ovviamente, considerazioni di simmetria e di frequenza relativa osservata sono alla base della valutazione soggettiva Probabilità Teoria “soggettiva” La probabilità assegnata ad un evento corrisponde a quanto sono disposto a pagare per vincere 1 nel caso che l evento si verifichi Secondo la teoria soggettiva dire che la probabilità di A è uguale a 0.75 significa dire che sarei disposto a pagare 75c per vincere 1€ al verificarsi di A La teoria soggettiva è particolarmente adatta nel caso di eventi che possono verificarsi una sola volta e di eventi già verificatisi ma ignoti 13 Probabilità ogni approccio ha i suoi aspetti critici Non tutti i fenomeni presentano simmetrie che li rendono riconducibili a combinazioni di eventi equiprobabili Il fatto che all aumentare del numero di esperimenti la frequenza relativa tenda ad un limite è un ipotesi (legge empirica delle medie) che non può essere dimostrata né matematicamente né empiricamente Per molti eventi non è possibile immaginare, nemmeno teoricamente, la ripetizione dell esperimento Probabilità: ogni approccio ha i suoi aspetti critici Ci piacerebbe che la probabilità fosse una proprietà dell evento, non La definizione soggettiva ipotizza una rigidità rispetto al rischio che dello stato mentale di chi la esprime in genere non c è Tuttavia, l oggettività viene recuperata nel definire le regole da usare per modificare le probabilità a priori alla luce delle osservazioni fatte 14 Probabilità Per fortuna, le regole di calcolo delle probabilità che riguardano il modo per quantificare la probabilità di eventi complessi, sono largamente indipendenti dalla teoria sottostante… Le proprietà della probabilità 15 Eventi e teoria degli insiemi Insieme collezione di elementi aventi una proprietà in comune nel caso degli eventi e della probabilità, si tratta realizzazioni dello stesso evento A Esempi: 1) Che un soggetto sia fumatore 2) Che un soggetto sia affetto da tumore polmonare Eventi e teoria degli insiemi Spazio o universo L’ insieme che comprende tutti i possibili elementi Viene rappresentato spesso da un rettangolo che rappresenta lo spazio finito dell’ esperienza a cui si sta facendo riferimento Esempio: La popolazione dei suscettibili ad una specifica patologia (coloro cioè che possono ammalarsi) A U 16 Eventi e teoria degli insiemi Sottoinsieme Ogni elemento di A è anche elemento di B evento A si verifica solo se è verificato anche l’ evento B A ⊂ B L’ Esempio: I forti fumatori (A) sono un sottoinsieme dei fumatori (B) A B U Eventi e teoria degli insiemi Insieme Unione l’ insieme che contiene tutti gli elementi di A e tutti gli elementi di B Si esprime come A ∪ B ∪ = “OR” (operatore booleano) Esempio: L’ insieme dei soggetti che fumano (A) sigari, (B) sigarette A∪B 17 Eventi e teoria degli insiemi Insieme Intersezione l’ insieme che contiene tutti gli elementi che appartengono sia ad A che a B Si esprime come A ∩ B = “AND” (operatore booleano) Esempio: L’ insieme dei soggetti che fumano (B), e sono affetti da tumore pomonare (A) A A ∩ B ∩ B Eventi e teoria degli insiemi Insieme complementare l’insieme che contiene tutti gli elementi dell’ Universo U che non appartengono ad A comprende tutti gli eventi che escludono A c A = “NOT” (operatore booleano) ∩ Ac = φ (l’evento nullo) Esempio: L’ insieme dei soggetti NON affetti da tumore pomonare (Ac) A Ac 18 Eventi mutuamente esclusivi Due eventi A e B che non possono verificarsi contemporaneamente sono definiti “mutuamente esclusivi” esempio: A è l’evento che il tumore sia di stadio III B è l’ evento che sia di stadio IV A ∩ B = φ ⇒ P(A ∩ B ) = 0 A B A B 19 La proprietà additiva Quando due eventi sono mutuamente esclusivi, la proprietà additiva della probabilità afferma che: la probabilità del verificarsi dell’ uno oppure dell’altro evento è pari alla somma della probabilità di ciascuno dei due eventi OR A P(A ∪ B ) = P(A) + P(B) P(A ∪ B ) > P(A) B A B P(A ∪ B ) > P(B) La proprietà additiva Quando due eventi NON sono mutuamente esclusivi, la proprietà additiva della probabilità afferma che: la probabilità del verificarsi dell’ uno oppure dell’altro evento è pari alla somma della probabilità di ciascuno dei due eventi meno la probabilità dell’ evento intersezione (che altrimenti sarebbe contata due volte) P(A ∪ B ) = P(A) + P(B) - P(A ∩ B ) A A ∩ B B P(A ∪ B ) > P(A) P(A ∪ B ) > P(B) 20 21 La proprietà moltiplicativa Prendiamo in esame 1 evento aleatorio esposizione ed 1 effetto: ad esempio esposizione al fumo ed la presenza di BPCO Se i due eventi non sono associati, si combineranno casualmente, seguendo la proprietà moltiplicativa della probabilità 10% 20% 50% x = P(A AND B ) = P(A) x P(B) P(A AND B ) < P(A); P(A AND B ) < P(B) Eventi indipedenti e dipendenti • L’ Epidemiologia costruttiva utilizza le misure di frequenza allo scopo di stimare se i due eventi si associano solo casualmente, o se l’esposizione aumenta il RISCHIO di malattia: se l’ esposizione e la malattia sono tra loro indipendenti (non esiste dunque alcuna associazione) La probabilità di essere Fumatore AND Malato è il prodotto delle probabilità elementari se l’ esposizione e la malattia sono tra loro dipendenti (l’esposizione modifica la probabilità di malattia) La probabilità di essere Fumatore AND Malato è MAGGIORE del prodotto delle probabilità elementari 22 La probabilità condizionata L’ esposizione e la malattia potrebbero essere distribuite nella popolazione come nel seguente schema: Malati 0,2 0,8 0,5 Non malati 0,5 Esposti Non esposti 23 Eventi indipendenti se l’ esposizione e la malattia sono tra loro indipendenti la conoscenza dello stato di malattia non influenza la probabilità che un soggetto sia esposto 0,5 0,2 0,8 Malati 0,5 Non malati 0,5 0,5 Esposti Non esp. 0,1 0,5*0,2= 0,1 0,5*0,2= Esposti 0,5*0,8= 0,4 Non esp. 0,5*0,8= 0,4 Eventi dipendenti se l’ esposizione e la malattia sono tra loro dipendenti la conoscenza dello stato di malattia modifica la stima della probabilità che un soggetto sia esposto 0,95 0,2 Malati 0,05 0,39 0,8 Esposti Non esp. Esposti 0,19 0,05*0,2= 0,01 0,95*0,2= 0,39*0,8= 0,31 Non malati 0,61 Non esp. 0,61*0,8= 0,49 24 La probabilità condizionata se l’ esposizione e la malattia sono tra loro dipendenti la conoscenza dello stato di malattia modifica la stima della probabilità che un soggetto sia esposto Malati Esposti Non esp. Esposti Non malati La conoscenza dello stato assunto da uno dei due eventi condiziona la stima della probabilità che si verifichi l’ALTRO evento: PROBABILITA’ CONDIZIONATA Non esp. 25 Il teorema di Bayes (1) a partire dai prodotti marginali e dalle probabilità nelle singole diramazioni, è possibile “rovesciare” l’ albero delle probabilità B B P(B∩A) ∪ P(B∩Ac) = P(BANDA) OR P(BANDAc) = P(B) P(A)* P(B|A) + P(Ac)* P(B|Ac) = P(B) (0,95*0,2) + (0,39*0,8 ) = 0,19 + 0,31 = 0,50 Bc P(Bc∩A) ∪ P(Bc∩Ac) = P(BcANDA) OR P(BcANDAc) = P(Bc) Bc P(A)* P(Bc|A) + P(Ac)* P(Bc |Ac) = P(Bc) (0,05*0,2) + (0,61*0,8) = 0,01 + 0,49 = 0,50 Il teorema di Bayes (2) In questo modo è possibile modificare la stima della probabilità che un soggetto sia malato sulla base della conoscenza dello stato di esposizione 0,19/0,5= 0,38 0,19+0,31= 0,5 Esposti 0,31/0,5= 0,62 0,01/0,5= 0,01+0,49= 0,5 Non esposti 0,02 0,49/0,5= 0,19 Malati 0,5*0,38= Non malati 0,5*0,61= 0,31 Malati 0,5*0,02= 0,01 Non malati 0,5*0,98= 0,49 0,98 26 Il teorema di Bayes ed i test Il teorema di Bayes viene utilizzato spesso nella valutazione di test diagnostici o screening Test Diagnostici: hanno come obiettivo di consentire una diagnosi di malattia Test di Screening: utilizzati su soggetti che non presentano alcuna sintomatologia clinica, permettono di classificare tali individui sulla base della probabilità di essere affetti da una particolare patologia Il teorema di Bayes consente di utilizzare la probabilità per valutare le incertezze associate ai risultati Misure di qualità di un test SENSIBILITA’: la percentuale di soggetti malati che il test classifica come positivi = Veri positivi / (Veri positivi + Falsi negativi) esprime la probabilità che il test sia positivo nei soggetti malati SPECIFICITA’: la percentuale di soggetti sani che il test identifica come negativi = Veri negativi / (Veri negativi + Falsi positivi) esprime la probabilità che il test sia negativo nei soggetti sani 27 Qualità del test ed alberi di probabilità Sensibilità Prevalenza Malati P(A) 1- P(A) P(B|A) Test + Test- Non malati Test + Test- Specificità Veri positivi Falsi negativi Falsi positivi Veri negativi P(Bc|Ac) Misure di qualità di un test VALORE PREDITTIVO DEL TEST POSITIVO (VPP): la probabilità di essere malati dei soggetti risultati positivi al test = Veri positivi / (Veri positivi + Falsi positivi) VALORE PREDITTIVO DEL TEST NEGATIVO (VPN): la probabilità di essere sani dei soggetti risultati negativi al test = Veri negativi / (Veri negativi + Falsi negativi) 28 Qualità del test ed alberi di probabilità Valore predittivo test + P(A|B) Test + P(B) Malati Veri positivi Non malati Malati Test- Falsi positivi Falsi negativi Non malati Valore predittivo test - Veri negativi P(Ac|Bc) Qualità del test ed alberi di probabilità P(A|B) = P(A)* P(B|A) P(A)* P(B|A) + P(Ac)* P(B|Ac) Preval. * Sensib. = (Preval. * Sensib.) + (1-Preval.)*(1-Specif.) Sensibilità Prevalenza Test + Veri positivi Veri positivi Malati Test- Falsi negativi Falsi positivi Non malati Test + Falsi positivi Falsi negativi Malati Veri negativi Non malati Malati Non malati Test- Test + TestVeri negativi Specificità P(Ac|Bc)= Valore predittivo del test + P(Ac)* P(Bc|Ac) P(A)* P(Bc|A) + P(Ac)* P(Bc|Ac) = Valore predittivo del test - (1-Preval. )* Specif. Preval. * (1-Sensib.) + (1-Preval.)*Specif. 29 Sistema di Classificazione citologica Classificazione Bethesda Infezione Reazioni Lesione Intraepiteliale Squamosa (SIL) ASCUS Basso Grado (LSIL) Alto Grado (HSIL) riparative Richart Condiloma Reagan (OMS) Normale Atipia Neoplasia Intraepitaeliale della Cervice CIN I CIN II CIN III Displasia lieve Displasia Moderata Papanicolau I II Displasia Carcinoma Carcinoma grave III in situ invasivo IV V da: Nanda K, et al., Ann Intern Med 2000; 132:810-819 Il Pap-test Stime di frequenza 10:1000 (p=0.01) 3:1000 (p=0.003) da: CNR - Basi scientifiche per la definizione di linee guida da: Loiudice et al, Eur J Cancer Prev, 1998; 7:295-304 Sensibilità Specificità 80:1000 10:1000 (p=0.01) (p=0.08) 0.40 0.96 0.75 0.93 10:100000 (p=0.0001) Un esempio: il pap-test Sensibilità Prevalenza Malati P(B|A) =0.75 P(A)=0.01 Test + Veri positivi Test- Falsi negativi 1-0.75=0.25 1-0.01 =0.99 Non malati 1-0.93=0.07 Specificità =0.01*0.25 =0.0025 Test + Falsi positivi =0.99*0.07 =0.0693 TestP(Bc|Ac) =0.93 =0.01*0.75 =0.0075 Veri negativi =0.99*0.93 =0.9207 30 Qualità del test ed alberi di probabilità P(A|B) = P(A)* P(B|A) P(A)* P(B|A) + P(Ac)* P(B|Ac) Preval. * Sensib. = (Preval. * Sensib.) + (1-Preval.)*(1-Specif.) Valore predittivo del test + Sensibilità 0.75 Prevalenza 0.0075 Veri positivi 0.0025 0.0693 Test- Falsi negativi Falsi positivi Test + Falsi positivi Falsi negativi 0.0025 Malati 0.01 0.25 0.07 0,999917 Non malati 0.93 0.0075 Veri positivi Test + Test- 0.0693 Malati Non malati Veri negativi Veri negativi 0.9207 0.9207 P(A)* + P(Ac)* 0.0768 0.9023 0.0027 P(Ac)* P(Bc|Ac) P(Bc|A) Test + Malati TestNon malati P(Bc|Ac) = 0.9232 0.9973 Valore predittivo del test - Specificità P(Ac|Bc)= 0.0976 (1-Preval. )* Specif. Preval. * (1-Sensib.) + (1-Preval.)*Specif. Qualità del test ed alberi di probabilità Valore predittivo test + 0.0075/0.0768 0.0075 +0.0693 =0.0768 Malati Test + Veri positivi =0.0075 =0.0976 Non malati Falsi positivi Malati Falsi negativi 0.0693/0.0768 =0.0693 =0.9023 0.0025/0.9232 =0.0027 0.0025 +0.9207 =0.0025 Test- =0.9232 0.9207/0.9232 =0.9973 Non malati Veri negativi =0.9207 Valore predittivo test - 31 32 33