TEORIA DELLA PROBABILITA’ Anche se del concetto di probabilità si parla sin dagli albori della storia, la sua formalizzazione scientifica come teoria avviene con l’assiomatizzazione introdotta da Kolmogorov nel 1933 e successivamente ripresa ed ampliata da altri scienziati. Alla base della attuale formalizzazione vi è la distinzione tra concetto e misura della probabilità 1 La probabilità è un concetto primitivo, primitivo ossia originario per l’essere umano perché innato e sempre presente nelle sue regole di comportamento. In quanto tale, esso è regolato da criteri logici coerenti traducibili in un insieme di assiomi dai quali si possono, con deduzioni rigorose, dimostrare i teoremi. 2 La probabilità è una misura in quanto associa al concetto primitivo una valutazione numerica 1 La probabilità di un evento Nel Calcolo delle Probabilità si elaborano modelli matematici per la valutazione rigorosa del concetto di probabilità che un esperimento casuale si concretizzi in un determinato evento. Esperimento casuale (o probabilistico, o aleatorio) È una generica operazione la cui singola esecuzione, detta prova, è suscettibile di fornire un risultato – compreso in un insieme di risultati necessari ed incompatibili – che non può essere previsto con certezza. Esempio: Lancio di un dado • necessarietà: si presenta almeno uno dei possibili risultati • incompatibilità: si presenterà solo uno dei possibili risultati. L’esperimento casuale è uno schema di riferimento per tutti i casi in cui bisogna effettuare una previsione in condizioni di incertezza. Nel formulare tale previsione, si esprime il “grado di incertezza” relativo al presentarsi di un certo risultato con una valutazione numerica che prende il nome di probabilità. Caratteristiche degli esperimenti casuali Incertezza del risultato: Per le situazioni esaminate sono possibili più esiti, che possono essere elencabili (es. le 6 facce del dado) o non elencabili perché assimilabili a tutti i numeri compresi in un intervallo reale (es. il tasso di inflazione nell’anno x) Ripetibilità dell’esperimento: L’esito si verificherà nuovamente nelle medesime circostanze? In senso stretto, un esperimento reale è sempre irripetibile; tuttavia, si accetta di considerare circostanze simili, mantenendo fisse le condizioni relative agli elementi ritenuti essenziali ai fini del risultato. Equiprobabilità dei risultati (Condizione non necessariamente verificata): Esprime l’indifferenza rispetto al verificarsi di uno dei possibili esiti, ossia che non esistono motivi per ritenere un risultato più possibile di un altro. 3 Teoria e calcolo della probabilità 1. Impostazione assiomatica: a) Concetti primitivi “La prova genera l’evento con una certa probabilità” i. Prova: esperimento il cui risultato non è prevedibile con certezza ii. Evento: possibile risultato di una prova iii. Probabilita: numero associato al presentarsi di un evento b) 2. Assiomi: regole formali a cui deve sottostare una valutazione di probabilità. Impostazione classica: classica la probabilità del verificarsi di un certo risultato è data dal rapporto tra numero di casi favorevoli al verificarsi di quel risultato ed il numero totale di casi possibili, ammesso che questi possano essere considerati tutti ugualmente possibili. Critica: Non applicabile agli esperimenti in cui: - i risultati non possono ritenersi tutti ugualmente possibili - il numero di casi possibili non è finito 4 Concezioni alternative della probabilità L’impostazione assiomatica permette di costruire tutta la teoria della probabilità, a partire dagli assiomi (o postulati). Nei casi più semplici la probabilità si calcola mediante l’impostazione classica. Quando questo non è possibile si ricorre a uno dei seguenti approcci: 3. Impostazione soggettiva: soggettiva la probabilità è l’espressione del grado di fiducia che un individuo ripone nel verificarsi di un certo evento. Critica: Le valutazioni della probabilità possono variare da individuo ad individuo 4. Impostazione frequentista: frequentista all’aumentare del numero delle prove (per n→∞) la probabilità del verificarsi di un evento A coincide con la frequenza relativa di tale risultato. nA n →∞ n a condizione che le prove si svolgano tutte nelle medesime condizioni. P ( A ) ≡ lim Critica: Non sempre tutte le prove si svolgono nelle stesse condizioni. 5 Eventi e teoria degli insiemi Le relazioni tra eventi possono essere espresse attraverso relazioni ed operazioni tra insiemi e rappresentate attraverso Diagrammi di Venn Alcune definizioni importanti: • Dati due eventi A, B ⊆ Ω, si dice che A implica B se è A ⊂ B. • I due eventi sono incompatibili se non esiste alcun risultato E che realizzi sia A che B, ovvero se è A ∩ B = ∅, dove ∅ è l'insieme vuoto. • Al contrario, se A e B non sono incompatibili, l'insieme non vuoto (A ∩ B) è costituito da tutti i risultati E che realizzano sia A che B. • L'insieme A ∪ B indica invece la realizzazione dell'evento A, oppure dell'evento B, oppure di entrambi. • Se non si realizza un evento A, allora si realizza il suo complementare in A in A Ω, negazione dell'evento A. Ne segue subito che Ω è l'evento certo e ∅ (negazione di Ω) è l'evento impossibile. Diagrammi di Venn Relazioni tra eventi Operazioni tra eventi SPAZIO CAMPIONARIO (o campione) Ω Insieme dei possibili risultati Ei ottenibili da una prova. Esempi: 1. Lancio di una moneta: Ω = {T, C} 2. Lancio di un dado: Ω = {1,2,3, 4,5, 6} 3. Numero di minuti in cui una lampadina resta accesa prima di bruciarsi: Ω = {x : x > 0} N.B. Nei primi due esempi Ω ha cardinalità finita, nel terzo esempio Ω ha cardinalità infinita. 8 Eventi Un evento A è un qualunque sottoinsieme dello spazio campionario Ω. A ∈ Ω Si verifica A = Si realizza il risultato della prova appartenente ad A. Tipi di Eventi (es: lancio di un dado): Eventi Elementari {1} , {2 } , {3 } , {4 } , {5 } , {6 } Eventi Composti {1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6} Evento Certo Ω ∅ Evento Impossibile 9 Eventi elementari e composti Eventi Elementari {1} , {2 } , {3 } , {4 } , {5 } , {6 } • Non possono essere scritti come l’unione di altri eventi elementari. • Tutti i possibili risultati di una prova sono eventi elementari Eventi Composti {1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6} • Unione di più eventi elementari E si è verificato ≡ si è verificato almeno un evento di cui E costituisce l’unione Condizione: Al fine di attribuire a ciascun evento una misura di probabilità, si richiede a tali eventi di soddisfare il seguente requisito fondamentale: qualunque operazione su di essi deve essere a sua volta un evento definito in Ω. Questa proprietaà si formalizza dicendo che gli eventi devono costituire un campo C (o σ-algebra), ovvero una classe additiva di insiemi Ai 10 Spazio campionario della misura di una grandezza Il valore teorico di una generica grandezza fisica è espresso da un numero reale e può essere visto come il risultato dell’esperimento casuale “misura della grandezza”: alla misura sperimentale associamo uno spazio campione costituito dall'asse reale (o da un suo intervallo, se siamo in grado di precisarlo). Per definire una classe di eventi che sia compatibile con l'esperimento della misurazione, suddividiamo l'asse reale in intervalli di ampiezza assegnata in modo che qualsiasi risultato della misurazione possa appartenere ad uno di tali intervalli: Esempio: esperimento “misura della durata di una lampadina” ( Ω = {x : x > 0}) {x : x > 5 0 0 }; {x : 6 0 0 ≤ x ≤ 7 0 0}; ......... Tali intervalli rappresentano altrettanti eventi elementari nello spazio campionario Ω (di cardinalità infinita e numerabile) Assiomi (o postulati) del calcolo delle probabilità Siano Ei, i = 1, 2, … eventi di Ω. La probabilità di un evento Ei è una funzione degli elementi di un insieme (dominio) che assume valori reali (codominio). La probabilità è indicata con P(Ei) e soddisfa i seguenti assiomi: i) 0 ≤ P (Ei ) ≤ 1 P(·) = funzione di probabilità ii) P ( Ω ) = 1 iii) ∀i ≠ j P (Ei ∪ Ej ) = P (Ei ) + P (Ej ) se Ei ∩ Ej = ∅ Le impostazioni classica e frequentista soddisfano gli assiomi. Solitamente, nel misurare la probabilità si fa riferimento alla definizione classica. L’assioma iii) permette di definire una misura della probabilità per tutti gli eventi (elementari e composti, unione di eventi elementari). 12 Esperimento casuale: estrazione di 1 pallina da un’urna contenente 10 palline numerate da 1 a 10 Ω Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10} 1 2 Impostazione classica P (Ω) = numero totale di elementi di Ω 10 = =1 numero totale di elementi di Ω 10 ∀i = 1, … ,10 : P (Ei ) = 1 1 = = 0.1 numero totale di elementi di Ω 10 4 5 8 E1 = {1} ,E2 = {2} , … ,E10 = {10} 3 6 9 10 7 A = estrazione di numero pari A = {2} ∪ {4} ∪ {6} ∪ {8} ∪ {10} B = estrazione di numero > 7 B = {8} ∪ {9} ∪ {10} A B 4 2 6 10 8 8 10 9 Impostazione classica (III assioma) numero di elementi pari 5 P (A) = = = 0,5 numero totale di elementi di Ω 10 P (B ) = numero di elementi > 7 3 = = 0,3 numero totale di elementi di Ω 10 14 Operazioni sugli eventi a) Unione (o Somma Logica) fra due eventi A e B è l'evento C che si verifica quando si verifica A oppure B oppure A e B contemporaneamente: Esempio: Ω 1 2 A 3 4 5 8 6 9 B 4 10 2 7 6 8 10 10 8 9 A∪B C = A∪B A∩B ≠ ∅ 4 6 10 2 8 P ( A ∪ B) = 6 = 0, 6 10 9 15 3° teorema del calcolo delle probabilità b) Intersezione (o Prodotto Logico) fra due eventi A e B è l'evento D che si verifica quando si verificano sia A che B contemporaneamente: Esempio: Ω 1 2 A 3 4 5 8 6 9 B 4 10 2 7 8 10 6 10 8 9 A∩B D = A∩B 4 6 8 10 9 2 P ( A ∩ B) = 2 = 0,2 10 Probabilità composte e condizionate 16 c) Negazione (o Complementazione) di un evento A è l'evento E che si verifica allorquando A non si verifica: A A Esempio: Ω 1 2 Ω 3 4 5 8 10 6 7 9 B B 8 10 ( ) P B = 9 numero di elementi ≤ 7 7 = = 0,7 numero totale di elementi di Ω 10 1 2 3 5 4 6 7 2° teorema del calcolo delle probabilità 17 Proprietà delle operazioni tra eventi Sono mutuate dalla teoria degli insiemi Proprietà Unione Intersezione Idempotenza A∪A=A A∩A=A Elemento neutro A∪∅=A A∩Ω=A Commutativa A∪B=B∪A A∩B=B∩A Associativa (A ∪ B ) ∪ C = A ∪ (B ∪ C) (A ∩ B ) ∩ C = A ∩ (B ∩ C) Distributiva A ∩ (B ∪ C) = (A ∩ B ) ∪ (A ∩ C) A ∪ (B ∩ C) = (A ∪ B ) ∩ (A ∩ C) 18 Leggi di De Morgan Definiscono un legame tra le 3 operazioni 1. La negazione dell’intersezione è uguale all’unione delle negazioni: Ω A ∪B A A ∩B B A ∩B = A ∪B 2. La negazione dell’unione è uguale all’intersezione delle negazioni: Ω A ∩B A A ∪B B A ∪B = A ∩B 19 Relazioni tra eventi Ω Eventi incompatibili Non contengono elementi comuni e quindi la loro intersezione da luogo all’evento impossibile. B A A ∩B = ∅ A = {3,5} ; B= {1,2, 4} ; incompatibili A ∩B ≠ ∅ A = {3,5} ; In pratica, il verificarsi dell’uno implica il non verificarsi dell’altro in una prova. B= {1,3, 6} ; compatibili Partizione dello spazio campionario Suddivisione di Ω in un insieme di eventi Ei necessari ed incompatibili Ω P (Ω) = E3 E2 ∑ P (E ) = 1 i i E1 E4 E5 20 Relazioni tra eventi Inclusione: A ⊂ B (A implica B) Un evento A è incluso nell’evento B se tutte le volte che si verifica A certamente si verifica B B Esempio: A Ω A: {x partorisce} B: {x è di sesso femminile} Differenza tra relazioni ed operazioni tra eventi: Un’operazione è una funzione che assegna ad 1, 2, …, n eventi un altro evento. Il risultato di un’operazione è un evento. Una relazione è un’affermazione che crea un collegamento e/o un ordinamento tra eventi. Una relazione può essere vera o falsa. 21 Principali teoremi del calcolo delle probabilità / =0 1) P(O) 2) P(A) = 1-P(A) 3) P(A ∪ B) = P(A) + P(B)-P(A ∩ B) Ω A B A ∩B Generalizzazione al caso di 3 eventi P(A ∪ B ∪ C)= = P(A) + P(B) + P(C)-P(A ∩ B) − P (A ∩ C ) − P (B ∩ C ) + P (A ∩ B ∩ C ) Ω A B C A ∩B ∩C B∩C Il teorema è generalizzabile al caso di n eventi 22 Eventi subordinati Tra 2 eventi A e B può sussistere una relazione per la quale, sapendo che una prova ha generato un risultato che appartiene a B, si è indotti a modificare la valutazione del verificarsi di A. Esempi: •probabilità che una certa squadra vinca una partita dopo che alla fine del primo tempo è in vantaggio di 3 reti a 0; •probabilità di estrarre un numero maggiore di 7 (B) sapendo che è pari (E2) Ω E1 1 3 7 E2 B 2 4 5 9 6 10 8 10 9 8 P(B) = 3/10 = 0,3 P(B|E2) = 2/5 = 0,4 23 Probabilità condizionata • B si è verificato • B è il nuovo spazio campionario A B Ω qualsiasi evento deve essere incluso in B; la sua probabilità è misurata non più rispetto all’area di Ω ma rispetto all’area di B) •la probabilità di A subordinata a B è data dall’area dell’intersezione rispetto all’area di B La probabilità dell'evento A, dato che si è verificato l'evento B, è il rapporto fra la probabilità del contemporaneo verificarsi di A e B e la probabilità di B, se questa è diversa da zero: P ( A | B) = P (B | A ) = P ( A ∩ B) P (B ) P (B ∩ A ) P (A) ; P (B ) > 0 ; P (A) > 0 24 Probabilità composte Dati 2 eventi A e B per i quali P(A)>0 e P(B)>0, risulta: P (A ∩ B ) = P (A |B ) × P (B ) = P (A ) × P (B |A ) Indipendenza stocastica Se risulta: P P (A (B | B | A ) ) = P = P (A ); (B ) . allora A e B sono stocasticamente indipendenti. In questo caso: P ( A ∩ B ) = P ( A ) × P (B ) Esempi: •Probabilità che nasca una femmina dato che il primo figlio è maschio •Probabilità di estrarre una carta di cuori dopo averne estratta una di cuori ed averla reimmessa nel mazzo di carte. 25 Incompatibilità e indipendenza Incompatibilità: relazione tra eventi Conseguenza: la probabilità dell’unione di più eventi incompatibili è la somma delle singole probabilità Indipendenza: relazione tra probabilità (non rappresentabile sui diagrammi di Venn) Conseguenza: la probabilità dell’intersezione di più eventi indipendenti è il prodotto delle singole probabilità Legame tra indipendenza ed incompatibilità: se due eventi sono incompatibili non possono essere indipendenti 26 Teorema 1 Se A e B sono indipendenti lo sono anche A eB, A e B A eB Dimostrazione per A e B: ( A = ( A ∩ B) ∪ A ∩ B ) Quindi: ( ) ) P ( A ) = P ( A ) × P (B ) + P ( A ∩ B ) ; P ( A ) − P ( A ) × P ( B ) = P ( A ∩ B ) P ( A ) × 1 − P (B ) = P ( A ∩ B ) P ( A ) × P (B ) = P ( A ∩ B ) P ( A ) = P ( A ∩ B ) ∪ A ∩ B ; ( P ( A ) = P ( A ∩ B) + A ∩ B 27 Teorema 2 Se A e B sono eventi indipendenti, allora: ( ) ( ) P ( A ∪ B) = 1 − P A × P B Dimostrazione: ( P ( A ∪ B) = 1 − P A ∪ B ) Poiché per la Legge di De Morgan: A ∪B = A ∩B ( ) = 1 − P ( A ) × P (B ) ( ) P ( A ∪ B) = 1 − P A ∪ B = 1 − P A ∩ B = 28 Teorema delle Probabilità Totali Ω E2 E3 E1 Ei ∩ Ej = ∅ ∀i ≠ j P (Ω) = i A i E5 E4 ∑ P (E ) = 1 A⊂Ω ( ⇒ A ∩ Ei ≠ ∅) Data una partizione di Ω in n eventi Ei (necessari ed incompatibili) e dato un evento A ⊂ Ω, la probabilità di A può essere calcolata come: ( ) ( ) ( ) P ( A ) = P A E1 × p (E1 ) + P A E2 × p (E2 ) + + P A En × p (En ) = = n ∑ P ( A E ) × p (E ) i i i =1 Interpretazione: Ei = cause A = effetto La probabilità dell’effetto A è pari alla somma delle probabilità di A condizionate a ciascuna delle cause Ei 29 Teorema di Bayes È un’applicazione del teorema delle probabilità totali, dotata di un’interpretazione di notevole importanza, tale da generare un’intera branca della statistica, detta statistica Bayesiana, che si contrappone alla cosiddetta statistica classica. Il teorema è attribuito al rev. Thomas Bayes ed è stato utilizzato soprattutto da Laplace nella sua impostazione della probabilità delle cause. Su di esso si basa tutta la odierna teoria delle decisioni statistiche Indipendentemente dall’impostazione cui si aderisce, il teorema costituisce una pietra miliare nella teoria della conoscenza su basi statistiche, in quanto esplicita il ruolo delle differenti probabilità nella scelta tra decisioni alternative 30 Teorema di Bayes Ω E2 E3 E1 Teorema delle P (A) = probabilità totali: A = effetto ∀i ≠ j P (Ω) = i A P (Ei | A ) = ( ⇒ A ∩ Ei A⊂Ω ≠ ∅) k ∑ P (E ) ⋅ P ( A | E ) = P ( A ∩ E ) + P ( A ∩ E ) + … + P ( A ∩ E ) i i 1 2 k i =1 P(Ei) e P(A|Ei) note. Qual è P(Ei|A)? In molti casi, posto che l’evento A si sia verificato, ci si può chiedere quale sia la probabilità che, tra tutte le sue possibili cause, sia stato l’evento Ei a determinarlo. Poiché: ∑ P (E ) = 1 i E5 E4 Ei = cause Ei ∩ Ej = ∅ P (Ei ∩ A ) P (A) Teorema di Bayes: Esempi: E1, E2, …, Ek Malattie Docenti Macchine : P (Ei ∩ A ) = P (Ei ) ⋅ P ( A | Ei ) P (Ei | A ) = A Sintomi Esito esame Pezzi difettosi : P (Ei ) ⋅ P ( A | Ei ) k ∑ P (E ) ⋅ P ( A | E ) i i =1 i 31 Teorema di Bayes Ω E2 E3 E1 P (Ei | A ) = A E4 P (Ei ) ⋅ P ( A | Ei ) k ∑ P (E ) ⋅ P ( A | E ) i E5 i =1 P(Ei) = Probabilità a priori Sono le probabilità delle singole cause e non dipendono dal verificarsi o meno dall’effetto A. P(A|Ei) = Verosimiglianze Sono le probabilità con cui le singole cause Ei determinano l’effetto A. Sono note o determinabili. P(Ei|A) = Probabilità a posteriori Sapendo che l’effetto A si è verificato, è la probabilità con cui sia stato la causa Ei a determinarlo. Il teorema di Bayes consente di correggere le informazioni a priori, P(Ei), sulla base delle evidenze sperimentali, o verosimiglianze, P(A|Ei), fornendo le probabilità a 32 posteriori, P(Ei|A). Quanto più la probabilità a posteriori P(Ei|A) è diversa dalla probabilità a priori P(Ei), tanto più si può dire che la verosimiglianza ha modificato le informazioni a priori sulle cause Ei. i Esempio M1 30% della produzione 1% di pezzi difettosi M2 25% della produzione 1,2% di pezzi difettosi M3 45% della produzione 2% di pezzi difettosi Ω A M1 M2 M3 Problema: In una giornata si producono 10.000 pezzi. Si sceglie un pezzo a caso, e questo risulta difettoso. Qual è la probabilità che il pezzo sia stato prodotto da M1, M2 o M3? Sappiamo: A = pezzo difettoso M1, M2, M3 = macchine produttrici M1 M2 M3 Probabilità a priori: P(M1)=0,30 P(M2)=0,25 P(M3)=0,45 Verosimiglianze: P(A|M1)=0,01 P(A|M2)=0,012 P(A|M3)=0,02 P(M2|A) P(M3|A) Cerchiamo: Probabilità a posteriori: P(M1|A) Sapendo che: P (Mi | A ) = P (Mi ∩ A ) P (A) = P ( A | Mi ) ⋅ P (Mi ) P (A) = P ( A | Mi ) ⋅ P (Mi ) 33 ∑ P ( A | Mi ) ⋅ P (Mi ) i Soluzione: P (M i | A ) = P (M i ∩ A ) P (A ) P (M1 ∩ A ) = P ( A | M1 ) ⋅ P (M1 ) = 0, 010 × 0,30 = 0, 003 P (M2 ∩ A ) = P ( A | M2 ) ⋅ P (M2 ) = 0, 012 × 0,25 = 0, 003 P (M3 ∩ A ) = P ( A | M3 ) ⋅ P (M3 ) = 0, 020 × 0, 45 = 0, 009 Quindi: P (M1 | A ) = P (M2 | A ) = P (M3 | A ) = P (M1 ∩ A ) P (A) P (M2 ∩ A ) P (A) P (M3 ∩ A ) P (A) = 0, 003 = 0,20 0, 015 = 0, 003 = 0,20 0, 015 = 0, 009 = 0, 60 0, 015 P ( A ) = P (M1 ∩ A ) + P (M2 ∩ A ) + P (M3 ∩ A ) = 0, 003 + 0, 003 + 0, 009 = 0, 015 Esempio V = VIRUS: V0 99,9 % della popolazione (sani) V1 0,1 % della popolazione (malati) Ω T1 Tasso di penetrazione del virus V (1/1000 casi) V0 V1 T = TEST CLINICO: 98% dei casi diagnostica correttamente la presenza del virus 1% dei casi diagnostica il Virus a soggetti sani (c.d. “falso positivo”) Problema: Sappiamo: Una persona si sottopone al test e risulta positivo. Qual è la probabilità che abbia il virus? T0 Test diagnostica NO VIRUS V0 Il soggetto NON HA il Virus T1 Test diagnostica V1 Il soggetto HA il Virus VIRUS V1 V0 Probabilità a priori: P(V1)=0,001 P(V0)=0,999 Verosimiglianze: P(T1|V1)=0,98 P(T1|V0)=0,01 Cerchiamo: Probabilità a posteriori: P(V1|T1) = P ( V1 ) ⋅ P ( T1 | V1 ) P ( V1 ) ⋅ P ( T1 | V1 ) + P ( V0 ) ⋅ P ( T1 | V0 ) P(V0|T1) = Soluzione: P ( V1 | T1 ) = P ( V1 ∩ T1 ) P ( T1 ) 0, 001 × 0,98 = 0, 089 0,001 × 0, 98 + 0, 999 × 0, 01 35 = Probabilità composte e indipendenza stocastica su tabelle doppie di frequenza (approccio frequentista) Esperimento casuale: estrazione di 1 unità da un’urna contenente n unità X X1 X2 X3 X4 Totale Y1 n11 n12 n13 N14 n1. Y2 n21 n22 N23 N24 n2. Totale n.1 n.2 n.3 n.4 N X1 X2 X3 X4 Totale Y1 f11 f12 f13 f14 f1. Y2 f21 f22 f23 f24 f2. Totale f.1 f.2 f.3 f.4 1 Y X Y In caso di indipendenza tra X ed Y: n̂ij = ni•n• j n ossia f̂ij = fi• f• j P ( Yi ∩ Xj) = P ( Yi) ⋅ P ( Xj) N.B.: Se X ed Y non sono stocasticamente indipendenti bisogna passare per le probabilità condizionate (probabilità composta) Esempio La produzione di pneumatici in una fabbrica avviene in tre turni: il 50% di giorno – il 30% di sera – il 20% di notte. Il controllo della conformità dei pneumatici prodotti si basa su un campione di 200 pezzi, ripartiti secondo le proporzioni dei 3 turni di produzione, che ha rivelato ciò che segue: TURNO DI PRODUZIONE ESITO Giorno Conformità Non conformità totale Sera totale Notte 97 54 33 184 3 6 7 16 100 60 40 200 1) Calcolare la probabilità che un pneumatico scelto a caso: a) sia difettoso; b) sia difettoso e prodotto: b1) di giorno; b2) di sera; b3) di notte; c) sia difettoso, sapendo che è stato prodotto: c1) di giorno; c2) di sera; c3) di notte; d) sapendo che è difettoso, sia stato prodotto: d1) di giorno; d2) di sera; d3) di notte. 2) È lecito sostenere che la qualità del prodotto è influenzata dal turno di produzione? 37 Le probabilità cercate possono essere ottenute dalla tabella delle frequenze relative: TURNO DI PRODUZIONE ESITO Giorno (G) Notte (N) totale Conformità (C) 0,485 0,27 0,165 0,92 Non conformità (D) 0,015 0,03 0,035 0,08 0,5 0,3 0,2 1 totale a) Sera (S) P(D) = 0,08 (difettoso) b) b.1 P(D ∩ G) = 0,015 b.2 P(D ∩ S) = 0,03 b.3 P(D ∩ N) = 0,035 (difettoso e prodotto di giorno) (difettoso e prodotto di sera) (difettoso e prodotto di notte) c.1 P(D ∩ G) 0, 015 = = 0, 03 P(D|G) = P(G) 0,5 c.2 P(D|S) = P(D ∩ S) 0, 03 = = 0,1 P(S) 0,3 c.3 P(D|N) = P(D ∩ N) 0, 035 = = 0,175 P(N) 0,2 c) (che sia difettoso, sapendo che è stato prodotto di giorno) (che sia difettoso, sapendo che è stato prodotto di sera) (che sia difettoso, sapendo che è stato prodotto di notte) 38 d) d.1 P(G|D) = P(D ∩ G) 0, 015 = = 0,1875 P(D) 0, 08 (sapendo che è difettoso, sia prodotto di giorno) d.2 P(S|D) = P(D ∩ S) 0, 03 = = 0,375 P(D) 0,08 (sapendo che è difettoso, sia prodotto di sera) d.3 P(N|D) = P(D ∩ N) 0, 035 = = 0, 4375 P(D) 0, 08 (sapendo che è difettoso, sia prodotto di notte) N.B.: Ipotizzando un legame di causa-effetto tra turno di produzione (causa) ed esito del controllo (effetto), il quesito d può essere interpretato in termini di teorema di Bayes. 2) Se la qualità del prodotto non fosse influenzata dal turno di produzione, si dovrebbe avere: P(D|G) = P(D|S) = P(D|N) = P(D) ma evidentemente così non è. 39 Nell’esempio del virus: La seguente tabella mostra la distribuzione doppia da cui provengono le probabilità a priori e le verosimiglianze utilizzate nell’esempio precedente. VIRUS TEST Positivo (V1) Negativo (V0) totale 98 1.000 1.098 2 98.900 98.902 100 99.900 100.000 Positivo (T1) Negativo (T0) totale V1 100 = 0,001 100.000 Probabilità a priori: P ( V1 ) = Verosimiglianze: P ( T1 V1 ) = ( V0 98 = 0,98 100 ) Probabilità a posteriori: P V1 | T1 = 98 = 0, 089 1.098 P ( V0 ) = ( 99.900 = 0,999 100.000 ) P T1 V0 = 1.000 = 0,01 99.900