TEORIA DELLA PROBABILITA’
Anche se del concetto di probabilità si parla sin dagli albori della storia,
la sua formalizzazione scientifica come teoria avviene con l’assiomatizzazione introdotta da Kolmogorov nel 1933 e successivamente ripresa
ed ampliata da altri scienziati.
Alla base della attuale formalizzazione vi è la distinzione tra
concetto e misura della probabilità
1
La probabilità è un concetto primitivo,
primitivo ossia originario per l’essere
umano perché innato e sempre presente nelle sue regole di
comportamento.
In quanto tale, esso è regolato da criteri logici coerenti traducibili in un
insieme di assiomi dai quali si possono, con deduzioni rigorose,
dimostrare i teoremi.
2
La probabilità è una misura in quanto associa al concetto primitivo una
valutazione numerica
1
La probabilità di un evento
Nel Calcolo delle Probabilità si elaborano modelli matematici per la
valutazione rigorosa del concetto di
probabilità che un esperimento casuale si concretizzi in un
determinato evento.
Esperimento casuale (o probabilistico, o aleatorio)
È una generica operazione la cui singola esecuzione, detta prova, è
suscettibile di fornire un risultato – compreso in un insieme di risultati
necessari ed incompatibili – che non può essere previsto con certezza.
Esempio: Lancio di un dado
• necessarietà: si presenta almeno uno dei possibili risultati
• incompatibilità: si presenterà solo uno dei possibili risultati.
L’esperimento casuale è uno schema di riferimento per tutti i casi in cui bisogna effettuare una
previsione in condizioni di incertezza.
Nel formulare tale previsione, si esprime il “grado di incertezza” relativo al presentarsi di un
certo risultato con una valutazione numerica che prende il nome di probabilità.
Caratteristiche degli esperimenti casuali
Incertezza del risultato:
Per le situazioni esaminate sono possibili più esiti, che possono essere
elencabili (es. le 6 facce del dado) o non elencabili perché assimilabili
a tutti i numeri compresi in un intervallo reale (es. il tasso di inflazione
nell’anno x)
Ripetibilità dell’esperimento:
L’esito si verificherà nuovamente nelle medesime circostanze?
In senso stretto, un esperimento reale è sempre irripetibile; tuttavia,
si accetta di considerare circostanze simili, mantenendo fisse le
condizioni relative agli elementi ritenuti essenziali ai fini del risultato.
Equiprobabilità dei risultati
(Condizione non necessariamente verificata):
Esprime l’indifferenza rispetto al verificarsi di uno dei possibili esiti,
ossia che non esistono motivi per ritenere un risultato più possibile di
un altro.
3
Teoria e calcolo della probabilità
1.
Impostazione assiomatica:
a)
Concetti primitivi
“La prova genera l’evento con una certa probabilità”
i.
Prova: esperimento il cui risultato non è prevedibile con
certezza
ii.
Evento: possibile risultato di una prova
iii. Probabilita: numero associato al presentarsi di un evento
b)
2.
Assiomi: regole formali a cui deve sottostare una valutazione di
probabilità.
Impostazione classica:
classica la probabilità del verificarsi di un certo
risultato è data dal rapporto tra numero di casi favorevoli al
verificarsi di quel risultato ed il numero totale di casi possibili,
ammesso che questi possano essere considerati tutti ugualmente
possibili.
Critica: Non applicabile agli esperimenti in cui:
- i risultati non possono ritenersi tutti ugualmente possibili
- il numero di casi possibili non è finito
4
Concezioni alternative della probabilità
L’impostazione assiomatica permette di costruire tutta la teoria
della probabilità, a partire dagli assiomi (o postulati).
Nei casi più semplici la probabilità si calcola mediante
l’impostazione classica.
Quando questo non è possibile si ricorre a uno dei seguenti approcci:
3.
Impostazione soggettiva:
soggettiva la probabilità è l’espressione del grado
di fiducia che un individuo ripone nel verificarsi di un certo evento.
Critica: Le valutazioni della probabilità possono variare da individuo
ad individuo
4.
Impostazione frequentista:
frequentista all’aumentare del numero delle prove
(per n→∞) la probabilità del verificarsi di un evento A coincide con la
frequenza relativa di tale risultato.
nA
n →∞ n
a condizione che le prove si svolgano tutte nelle medesime condizioni.
P ( A ) ≡ lim
Critica: Non sempre tutte le prove si svolgono nelle stesse
condizioni.
5
Eventi e teoria degli insiemi
Le relazioni tra eventi possono essere espresse attraverso relazioni ed
operazioni tra insiemi e rappresentate attraverso Diagrammi di Venn
Alcune definizioni importanti:
• Dati due eventi A, B ⊆ Ω, si dice che A implica B se è A ⊂ B.
• I due eventi sono incompatibili se non esiste alcun risultato E che realizzi sia A
che B, ovvero se è A ∩ B = ∅, dove ∅ è l'insieme vuoto.
• Al contrario, se A e B non sono incompatibili, l'insieme non vuoto (A
∩ B) è
costituito da tutti i risultati E che realizzano sia A che B.
• L'insieme A ∪ B indica invece la realizzazione dell'evento A, oppure dell'evento
B, oppure di entrambi.
• Se non si realizza un evento A, allora si realizza il suo complementare in A in
A
Ω, negazione dell'evento A. Ne segue subito che Ω è l'evento certo e ∅
(negazione di Ω) è l'evento impossibile.
Diagrammi di Venn
Relazioni tra eventi
Operazioni tra eventi
SPAZIO CAMPIONARIO (o campione)
Ω
Insieme dei possibili risultati Ei ottenibili da una prova.
Esempi:
1. Lancio di una moneta:
Ω = {T, C}
2. Lancio di un dado:
Ω = {1,2,3, 4,5, 6}
3. Numero di minuti in cui una lampadina resta accesa prima
di bruciarsi:
Ω = {x : x > 0}
N.B. Nei primi due esempi Ω ha cardinalità finita, nel terzo esempio
Ω ha cardinalità infinita.
8
Eventi
Un evento A è un qualunque sottoinsieme dello spazio campionario Ω.
A ∈ Ω
Si verifica A = Si realizza il risultato
della prova appartenente ad A.
Tipi di Eventi (es: lancio di un dado):
Eventi Elementari
{1} , {2 } , {3 } , {4 } , {5 } , {6 }
Eventi Composti
{1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6}
Evento Certo
Ω
∅
Evento Impossibile
9
Eventi elementari e composti
Eventi Elementari
{1} , {2 } , {3 } , {4 } , {5 } , {6 }
• Non possono essere scritti come l’unione di altri eventi elementari.
• Tutti i possibili risultati di una prova sono eventi elementari
Eventi Composti
{1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6}
• Unione di più eventi elementari
E si è verificato
≡
si è verificato almeno un evento di
cui E costituisce l’unione
Condizione:
Al fine di attribuire a ciascun evento una misura di probabilità, si richiede a tali
eventi di soddisfare il seguente requisito fondamentale: qualunque operazione
su di essi deve essere a sua volta un evento definito in Ω.
Questa proprietaà si formalizza dicendo che gli eventi devono costituire un
campo C (o σ-algebra), ovvero una classe additiva di insiemi Ai
10
Spazio campionario della misura di una grandezza
Il valore teorico di una generica grandezza fisica è espresso da un numero reale e
può essere visto come il risultato dell’esperimento casuale “misura della
grandezza”:
alla misura sperimentale associamo uno spazio campione costituito
dall'asse reale (o da un suo intervallo, se siamo in grado di precisarlo).
Per definire una classe di eventi che sia compatibile con l'esperimento della
misurazione, suddividiamo l'asse reale in intervalli di ampiezza assegnata in modo
che qualsiasi risultato della misurazione possa appartenere ad uno di tali intervalli:
Esempio: esperimento “misura della durata di una lampadina”
( Ω = {x : x > 0})
{x
: x > 5 0 0 };
{x
: 6 0 0 ≤ x ≤ 7 0 0}; .........
Tali intervalli rappresentano altrettanti eventi elementari nello spazio
campionario Ω (di cardinalità infinita e numerabile)
Assiomi (o postulati) del calcolo delle probabilità
Siano Ei, i = 1, 2, … eventi di Ω.
La probabilità di un evento Ei è una funzione degli elementi di un
insieme (dominio) che assume valori reali (codominio).
La probabilità è indicata con P(Ei) e soddisfa i seguenti assiomi:
i) 0 ≤ P (Ei ) ≤ 1
P(·) = funzione di probabilità
ii) P ( Ω ) = 1
iii) ∀i ≠ j P (Ei ∪ Ej ) = P (Ei ) + P (Ej )
se
Ei ∩ Ej = ∅
Le impostazioni classica e frequentista soddisfano gli assiomi.
Solitamente, nel misurare la probabilità si fa riferimento alla
definizione classica.
L’assioma iii) permette di definire una misura
della probabilità per tutti gli eventi (elementari e
composti, unione di eventi elementari).
12
Esperimento casuale: estrazione di 1
pallina da un’urna contenente 10 palline
numerate da 1 a 10
Ω
Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}
1
2
Impostazione classica
P (Ω) =
numero totale di elementi di Ω
10
=
=1
numero totale di elementi di Ω
10
∀i = 1, … ,10 :
P (Ei ) =
1
1
=
= 0.1
numero totale di elementi di Ω 10
4
5
8
E1 = {1} ,E2 = {2} , … ,E10 = {10}
3
6
9
10
7
A = estrazione di numero pari
A = {2} ∪ {4} ∪ {6} ∪ {8} ∪ {10}
B = estrazione di numero > 7
B = {8} ∪ {9} ∪ {10}
A
B
4
2
6
10
8
8
10
9
Impostazione classica (III assioma)
numero di elementi pari
5
P (A) =
=
= 0,5
numero totale di elementi di Ω 10
P (B ) =
numero di elementi > 7
3
=
= 0,3
numero totale di elementi di Ω 10
14
Operazioni sugli eventi
a)
Unione (o Somma Logica) fra due eventi A e B è l'evento C che si
verifica quando si verifica A oppure B oppure A e B
contemporaneamente:
Esempio:
Ω
1
2
A
3
4
5
8
6
9
B
4
10
2
7
6
8
10
10
8
9
A∪B
C = A∪B
A∩B ≠ ∅
4
6
10
2
8
P ( A ∪ B) =
6
= 0, 6
10
9
15
3° teorema del calcolo delle probabilità
b)
Intersezione (o Prodotto Logico) fra due eventi A e B è l'evento D
che si verifica quando si verificano sia A che B contemporaneamente:
Esempio:
Ω
1
2
A
3
4
5
8
6
9
B
4
10
2
7
8
10
6
10
8
9
A∩B
D = A∩B
4
6
8
10
9
2
P ( A ∩ B) =
2
= 0,2
10
Probabilità composte e
condizionate
16
c)
Negazione (o Complementazione)
di un evento A è l'evento E che si
verifica allorquando A non si
verifica:
A
A
Esempio:
Ω
1
2
Ω
3
4
5
8
10
6
7
9
B
B
8
10
( )
P B =
9
numero di elementi ≤ 7
7
=
= 0,7
numero totale di elementi di Ω 10
1
2
3
5
4
6
7
2° teorema del calcolo
delle probabilità
17
Proprietà delle operazioni tra eventi
Sono mutuate dalla teoria degli insiemi
Proprietà
Unione
Intersezione
Idempotenza
A∪A=A
A∩A=A
Elemento neutro
A∪∅=A
A∩Ω=A
Commutativa
A∪B=B∪A
A∩B=B∩A
Associativa
(A ∪ B ) ∪ C = A ∪ (B ∪ C)
(A ∩ B ) ∩ C = A ∩ (B ∩ C)
Distributiva
A ∩ (B ∪ C) = (A ∩ B ) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B ) ∩ (A ∩ C)
18
Leggi di De Morgan
Definiscono un legame tra le 3 operazioni
1. La negazione dell’intersezione è
uguale all’unione delle negazioni:
Ω
A ∪B
A
A ∩B
B
A ∩B = A ∪B
2. La negazione dell’unione è
uguale all’intersezione delle
negazioni:
Ω
A ∩B
A
A ∪B
B
A ∪B = A ∩B
19
Relazioni tra eventi
Ω
Eventi incompatibili
Non contengono elementi comuni e quindi la loro
intersezione da luogo all’evento impossibile.
B
A
A ∩B = ∅
A = {3,5} ;
B= {1,2, 4} ; incompatibili
A ∩B ≠ ∅
A = {3,5} ;
In pratica, il verificarsi dell’uno implica il non
verificarsi dell’altro in una prova.
B= {1,3, 6} ; compatibili
Partizione dello spazio campionario
Suddivisione di Ω in un insieme di eventi Ei necessari ed incompatibili
Ω
P (Ω) =
E3
E2
∑ P (E ) = 1
i
i
E1
E4
E5
20
Relazioni tra eventi
Inclusione: A ⊂ B (A implica B)
Un evento A è incluso nell’evento B se tutte le volte
che si verifica A certamente si verifica B
B
Esempio:
A
Ω
A: {x partorisce}
B: {x è di sesso femminile}
Differenza tra relazioni ed operazioni tra eventi:
Un’operazione è una funzione che assegna ad 1, 2, …, n eventi un
altro evento. Il risultato di un’operazione è un evento.
Una relazione è un’affermazione che crea un collegamento e/o un
ordinamento tra eventi. Una relazione può essere vera o falsa.
21
Principali teoremi del calcolo delle probabilità
/ =0
1) P(O)
2) P(A) = 1-P(A)
3) P(A ∪ B) = P(A) + P(B)-P(A ∩ B)
Ω
A
B
A ∩B
Generalizzazione al caso di 3 eventi
P(A ∪ B ∪ C)=
= P(A) + P(B) + P(C)-P(A ∩ B) − P (A ∩ C ) − P (B ∩ C ) + P (A ∩ B ∩ C )
Ω
A
B
C
A ∩B ∩C
B∩C
Il teorema è
generalizzabile al caso
di n eventi
22
Eventi subordinati
Tra 2 eventi A e B può sussistere una relazione per la quale,
sapendo che una prova ha generato un risultato che appartiene
a B, si è indotti a modificare la valutazione del verificarsi di A.
Esempi:
•probabilità che una certa squadra vinca una partita dopo che alla fine
del primo tempo è in vantaggio di 3 reti a 0;
•probabilità di estrarre un numero maggiore di 7 (B) sapendo che è pari
(E2)
Ω
E1
1
3
7
E2
B
2
4
5
9
6
10
8
10
9
8
P(B) = 3/10 = 0,3
P(B|E2) = 2/5 = 0,4
23
Probabilità condizionata
• B si è verificato
• B è il nuovo spazio campionario
A
B
Ω
qualsiasi evento deve essere incluso in B; la
sua probabilità è misurata non più rispetto
all’area di Ω ma rispetto all’area di B)
•la probabilità di A subordinata a B è data
dall’area dell’intersezione rispetto all’area di
B
La probabilità dell'evento A, dato che si è verificato l'evento B, è il rapporto
fra la probabilità del contemporaneo verificarsi di A e B e la probabilità
di B, se questa è diversa da zero:
P ( A | B) =
P (B | A ) =
P ( A ∩ B)
P (B )
P (B ∩ A )
P (A)
;
P (B ) > 0
;
P (A) > 0
24
Probabilità composte
Dati 2 eventi A e B per i quali P(A)>0 e P(B)>0, risulta:
P (A ∩ B ) = P (A |B ) × P (B ) = P (A ) × P (B |A )
Indipendenza stocastica
Se risulta:
P
P
(A
(B
| B
| A
)
)
= P
= P
(A );
(B ) .
allora A e B sono stocasticamente
indipendenti.
In questo caso:
P ( A ∩ B ) = P ( A ) × P (B )
Esempi:
•Probabilità che nasca una femmina dato che il primo figlio è maschio
•Probabilità di estrarre una carta di cuori dopo averne estratta una di cuori
ed averla reimmessa nel mazzo di carte.
25
Incompatibilità e indipendenza
Incompatibilità: relazione tra eventi
Conseguenza: la probabilità dell’unione di più eventi
incompatibili è la somma delle singole probabilità
Indipendenza: relazione tra probabilità
(non rappresentabile sui diagrammi di Venn)
Conseguenza: la probabilità dell’intersezione di più eventi
indipendenti è il prodotto delle singole probabilità
Legame tra indipendenza ed incompatibilità:
se due eventi sono incompatibili non possono essere indipendenti
26
Teorema 1
Se A e B sono indipendenti lo sono anche A eB, A e B A eB
Dimostrazione per A e
B:
(
A = ( A ∩ B) ∪ A ∩ B
)
Quindi:
(
)
)
P ( A ) = P ( A ) × P (B ) + P ( A ∩ B ) ; P ( A ) − P ( A ) × P ( B ) = P ( A ∩ B )
P ( A ) × 1 − P (B )  = P ( A ∩ B )
P ( A ) × P (B ) = P ( A ∩ B )
P ( A ) = P ( A ∩ B ) ∪ A ∩ B  ;


(
P ( A ) = P ( A ∩ B) + A ∩ B
27
Teorema 2
Se A e B sono eventi indipendenti, allora:
( ) ( )
P ( A ∪ B) = 1 − P A × P B
Dimostrazione:
(
P ( A ∪ B) = 1 − P A ∪ B
)
Poiché per la Legge di De Morgan:
A ∪B = A ∩B
(
)
= 1 − P ( A ) × P (B )
(
)
P ( A ∪ B) = 1 − P A ∪ B = 1 − P A ∩ B =
28
Teorema delle Probabilità Totali
Ω
E2
E3
E1
Ei ∩ Ej = ∅
∀i ≠ j
P (Ω) =
i
A
i
E5
E4
∑ P (E ) = 1
A⊂Ω
( ⇒ A ∩ Ei
≠ ∅)
Data una partizione di Ω in n eventi Ei (necessari ed incompatibili) e dato un
evento A ⊂ Ω, la probabilità di A può essere calcolata come:
(
)
(
)
(
)
P ( A ) = P A E1 × p (E1 ) + P A E2 × p (E2 ) + + P A En × p (En ) =
=
n
∑ P ( A E ) × p (E )
i
i
i =1
Interpretazione:
Ei = cause
A = effetto
La probabilità dell’effetto A è pari alla somma delle probabilità di A
condizionate a ciascuna delle cause Ei
29
Teorema di Bayes
È un’applicazione del teorema delle probabilità totali, dotata di
un’interpretazione di notevole importanza, tale da generare un’intera branca
della statistica, detta statistica Bayesiana, che si contrappone alla cosiddetta
statistica classica.
Il teorema è attribuito al rev. Thomas Bayes ed è stato utilizzato
soprattutto da Laplace nella sua impostazione della probabilità delle
cause. Su di esso si basa tutta la odierna teoria delle decisioni
statistiche
Indipendentemente dall’impostazione cui si aderisce, il teorema
costituisce una pietra miliare nella teoria della conoscenza su basi
statistiche, in quanto esplicita il ruolo delle differenti probabilità nella
scelta tra decisioni alternative
30
Teorema di Bayes
Ω
E2
E3
E1
Teorema delle
P (A) =
probabilità totali:
A = effetto
∀i ≠ j
P (Ω) =
i
A
P (Ei | A ) =
( ⇒ A ∩ Ei
A⊂Ω
≠ ∅)
k
∑ P (E ) ⋅ P ( A | E ) = P ( A ∩ E ) + P ( A ∩ E ) + … + P ( A ∩ E )
i
i
1
2
k
i =1
P(Ei) e P(A|Ei) note. Qual è P(Ei|A)?
In molti casi, posto che l’evento A si sia verificato, ci si può
chiedere quale sia la probabilità che, tra tutte le sue possibili
cause, sia stato l’evento Ei a determinarlo.
Poiché:
∑ P (E ) = 1
i
E5
E4
Ei = cause
Ei ∩ Ej = ∅
P (Ei ∩ A )
P (A)
Teorema di Bayes:
Esempi:
E1, E2, …, Ek
Malattie
Docenti
Macchine
:
P (Ei ∩ A ) = P (Ei ) ⋅ P ( A | Ei )
P (Ei | A ) =
A
Sintomi
Esito esame
Pezzi difettosi
:
P (Ei ) ⋅ P ( A | Ei )
k
∑ P (E ) ⋅ P ( A | E )
i
i =1
i
31
Teorema di Bayes
Ω
E2
E3
E1
P (Ei | A ) =
A
E4
P (Ei ) ⋅ P ( A | Ei )
k
∑ P (E ) ⋅ P ( A | E )
i
E5
i =1
P(Ei) = Probabilità a priori
Sono le probabilità delle singole cause e non
dipendono dal verificarsi o meno dall’effetto A.
P(A|Ei) = Verosimiglianze
Sono le probabilità con cui le singole cause Ei
determinano l’effetto A. Sono note o determinabili.
P(Ei|A) = Probabilità a posteriori
Sapendo che l’effetto A si è verificato, è la probabilità
con cui sia stato la causa Ei a determinarlo.
Il teorema di Bayes consente di correggere le informazioni a priori, P(Ei), sulla base
delle evidenze sperimentali, o verosimiglianze, P(A|Ei), fornendo le probabilità a
32
posteriori, P(Ei|A).
Quanto più la probabilità a posteriori P(Ei|A) è diversa dalla probabilità a priori P(Ei),
tanto più si può dire che la verosimiglianza ha modificato le informazioni a priori sulle
cause Ei.
i
Esempio
M1
30% della produzione
1% di pezzi difettosi
M2
25% della produzione
1,2% di pezzi difettosi
M3
45% della produzione
2% di pezzi difettosi
Ω
A
M1
M2
M3
Problema:
In una giornata si producono 10.000 pezzi. Si sceglie un pezzo a caso, e questo
risulta difettoso.
Qual è la probabilità che il pezzo sia stato prodotto da M1, M2 o M3?
Sappiamo:
A = pezzo difettoso
M1, M2, M3 = macchine produttrici
M1
M2
M3
Probabilità a priori:
P(M1)=0,30
P(M2)=0,25
P(M3)=0,45
Verosimiglianze:
P(A|M1)=0,01
P(A|M2)=0,012
P(A|M3)=0,02
P(M2|A)
P(M3|A)
Cerchiamo:
Probabilità a posteriori: P(M1|A)
Sapendo che:
P (Mi | A ) =
P (Mi ∩ A )
P (A)
=
P ( A | Mi ) ⋅ P (Mi )
P (A)
=
P ( A | Mi ) ⋅ P (Mi ) 33
∑ P ( A | Mi ) ⋅ P (Mi )
i
Soluzione:
P (M i | A ) =
P (M i ∩ A )
P (A )
P (M1 ∩ A ) = P ( A | M1 ) ⋅ P (M1 ) = 0, 010 × 0,30 = 0, 003
P (M2 ∩ A ) = P ( A | M2 ) ⋅ P (M2 ) = 0, 012 × 0,25 = 0, 003
P (M3 ∩ A ) = P ( A | M3 ) ⋅ P (M3 ) = 0, 020 × 0, 45 = 0, 009
Quindi:
P (M1 | A ) =
P (M2 | A ) =
P (M3 | A ) =
P (M1 ∩ A )
P (A)
P (M2 ∩ A )
P (A)
P (M3 ∩ A )
P (A)
=
0, 003
= 0,20
0, 015
=
0, 003
= 0,20
0, 015
=
0, 009
= 0, 60
0, 015
P ( A ) = P (M1 ∩ A ) + P (M2 ∩ A ) + P (M3 ∩ A )
= 0, 003 + 0, 003 + 0, 009 = 0, 015
Esempio
V = VIRUS:
V0
99,9 % della popolazione (sani)
V1
0,1 % della popolazione (malati)
Ω
T1
Tasso di penetrazione del virus V (1/1000 casi)
V0
V1
T = TEST CLINICO:
98% dei casi diagnostica correttamente la presenza del virus
1% dei casi diagnostica il Virus a soggetti sani (c.d. “falso positivo”)
Problema:
Sappiamo:
Una persona si sottopone al test e risulta positivo.
Qual è la probabilità che abbia il virus?
T0
Test diagnostica NO VIRUS
V0
Il soggetto NON HA il Virus
T1
Test diagnostica
V1
Il soggetto HA il Virus
VIRUS
V1
V0
Probabilità a priori:
P(V1)=0,001
P(V0)=0,999
Verosimiglianze:
P(T1|V1)=0,98
P(T1|V0)=0,01
Cerchiamo:
Probabilità a posteriori: P(V1|T1)
=
P ( V1 ) ⋅ P ( T1 | V1 )
P ( V1 ) ⋅ P ( T1 | V1 ) + P ( V0 ) ⋅ P ( T1 | V0 )
P(V0|T1)
=
Soluzione:
P ( V1 | T1 ) =
P ( V1 ∩ T1 )
P ( T1 )
0, 001 × 0,98
= 0, 089
0,001 × 0, 98 + 0, 999 × 0, 01
35
=
Probabilità composte e indipendenza stocastica su tabelle doppie di
frequenza (approccio frequentista)
Esperimento casuale: estrazione di 1 unità da un’urna contenente n unità
X
X1
X2
X3
X4
Totale
Y1
n11
n12
n13
N14
n1.
Y2
n21
n22
N23
N24
n2.
Totale
n.1
n.2
n.3
n.4
N
X1
X2
X3
X4
Totale
Y1
f11
f12
f13
f14
f1.
Y2
f21
f22
f23
f24
f2.
Totale
f.1
f.2
f.3
f.4
1
Y
X
Y
In caso di indipendenza tra X ed Y:
n̂ij =
ni•n• j
n
ossia
f̂ij = fi• f• j
P ( Yi ∩ Xj) = P ( Yi) ⋅ P ( Xj)
N.B.: Se X ed Y non sono stocasticamente indipendenti bisogna passare per le
probabilità condizionate (probabilità composta)
Esempio
La produzione di pneumatici in una fabbrica avviene in tre turni: il 50% di giorno – il 30%
di sera – il 20% di notte. Il controllo della conformità dei pneumatici prodotti si basa su un
campione di 200 pezzi, ripartiti secondo le proporzioni dei 3 turni di produzione, che ha
rivelato ciò che segue:
TURNO DI PRODUZIONE
ESITO
Giorno
Conformità
Non conformità
totale
Sera
totale
Notte
97
54
33
184
3
6
7
16
100
60
40
200
1) Calcolare la probabilità che un pneumatico scelto a caso:
a) sia difettoso;
b) sia difettoso e prodotto: b1) di giorno;
b2) di sera;
b3) di notte;
c) sia difettoso, sapendo che è stato prodotto: c1) di giorno;
c2) di sera;
c3) di notte;
d) sapendo che è difettoso, sia stato prodotto: d1) di giorno;
d2) di sera;
d3) di notte.
2) È lecito sostenere che la qualità del prodotto è influenzata dal turno di produzione?
37
Le probabilità cercate possono essere ottenute dalla tabella delle frequenze relative:
TURNO DI PRODUZIONE
ESITO
Giorno (G)
Notte (N)
totale
Conformità (C)
0,485
0,27
0,165
0,92
Non conformità (D)
0,015
0,03
0,035
0,08
0,5
0,3
0,2
1
totale
a)
Sera (S)
P(D) = 0,08 (difettoso)
b)
b.1 P(D ∩ G) = 0,015
b.2 P(D ∩ S) = 0,03
b.3 P(D ∩ N) = 0,035
(difettoso e prodotto di giorno)
(difettoso e prodotto di sera)
(difettoso e prodotto di notte)
c.1
P(D ∩ G) 0, 015
=
= 0, 03
P(D|G) = P(G)
0,5
c.2
P(D|S) =
P(D ∩ S) 0, 03
=
= 0,1
P(S)
0,3
c.3
P(D|N) =
P(D ∩ N) 0, 035
=
= 0,175
P(N)
0,2
c)
(che sia difettoso, sapendo che è
stato prodotto di giorno)
(che sia difettoso, sapendo che è
stato prodotto di sera)
(che sia difettoso, sapendo che è
stato prodotto di notte)
38
d)
d.1
P(G|D) =
P(D ∩ G) 0, 015
=
= 0,1875
P(D)
0, 08
(sapendo che è difettoso, sia prodotto
di giorno)
d.2
P(S|D) =
P(D ∩ S) 0, 03
=
= 0,375
P(D)
0,08
(sapendo che è difettoso, sia prodotto
di sera)
d.3
P(N|D) =
P(D ∩ N) 0, 035
=
= 0, 4375
P(D)
0, 08
(sapendo che è difettoso, sia prodotto
di notte)
N.B.: Ipotizzando un legame di causa-effetto tra turno di produzione (causa) ed
esito del controllo (effetto), il quesito d può essere interpretato in termini di
teorema di Bayes.
2)
Se la qualità del prodotto non fosse influenzata dal turno di produzione, si dovrebbe
avere:
P(D|G) = P(D|S) = P(D|N) = P(D)
ma evidentemente così non è.
39
Nell’esempio del virus:
La seguente tabella mostra la distribuzione doppia da cui provengono le probabilità a priori
e le verosimiglianze utilizzate nell’esempio precedente.
VIRUS
TEST
Positivo (V1)
Negativo (V0)
totale
98
1.000
1.098
2
98.900
98.902
100
99.900
100.000
Positivo (T1)
Negativo (T0)
totale
V1
100
= 0,001
100.000
Probabilità a priori:
P ( V1 ) =
Verosimiglianze:
P ( T1 V1 ) =
(
V0
98
= 0,98
100
)
Probabilità a posteriori: P V1 | T1 =
98
= 0, 089
1.098
P ( V0 ) =
(
99.900
= 0,999
100.000
)
P T1 V0 =
1.000
= 0,01
99.900