Capitolo 3 Probabilità condizionata e indipendenza stocastica

Capitolo 3
Probabilità condizionata e
indipendenza stocastica
3.1 Considerazioni introduttive
Abbiamo trattato, finora, soltanto di probabilità di eventi che possono risultare Veri o
Falsi. Tuttavia, il calcolo delle probabilità si occupa, per soddisfare esigenze applicative concrete, anche di eventi il cui campo di possibilità è limitato da qualche specifica
condizione. Si parla, allora, di eventi condizionati o subordinati. Per esempio, relativamente a una partita di calcio che vedrà impegnate le squadre A e B, si può scommettere
sulla vittoria di A [ricevendo una somma di denaro prestabilita se A vince e perdendo la
posta se A non vince: perde o pareggia], ma si può scommettere sulla vittoria di A nell’ipotesi che la partita si chiuda con la vittoria di una delle squadre in campo. Dunque
l’evento “vittoria di A” viene subordinato alla condizione che una delle due squadre vinca. Di conseguenza, lo scommettitore incassa se A vince, perde se vince B, mentre vede
annullata la scommessa nel caso la partita non termini con la vittoria di una delle due
squadre. Si noti la differenza rispetto alla situazione precedente della scommessa sulla
vittoria di A.
Una situazione concettualmente analoga si presenta – con riferimento al cosiddetto
processo di apprendimento dall’esperienza – quando si debba valutare la probabilità di
una certa ipotesi H subordinatamente al fatto che un determinato esperimento abbia un
certo esito, fatto espresso a sua volta da un evento E. Si tratta di valutare la probabilità
di H condizionatamente a un ipotetico incremento d’informazione espresso dall’evento
35
36CAPITOLO 3. PROBABILITÀ CONDIZIONATA E INDIPENDENZA STOCASTICA
E.
Siano E, H, con E 6= ∅, eventi contenuti in una classe C di parti di Ω che includa anche l’intersezione E ∩ H. Ciò è automaticamente soddisfatto se C è un’algebra. L’evento
“H condizionato da E” (detto anche evento “H subordinato a E”) si può rappresentare,
come nella Figura 3.1, restringendo (come accennato all’inizio del paragrafo) le possibilità all’insieme dei casi elementari che costituiscono E e, quindi, considerando successo
[rispettivamente, insuccesso] il presentarsi di un caso elementare contenuto in H ∩ E
[rispettivamente, il presentarsi di un caso elementare contenuto in E \ H].
Si usa indicare l’evento “H condizionato da E” col simbolo H|E.
Si noti che vale H|E = H ∩ E|E ovvero, il generico evento condizionato H|E si può
scrivere in forma irriducibile come H ∩ E|E.
Figura 3.1: L’evento “H condizionato da E” è vero nella zona punteggiata, falso in quella
sfumata, indeterminato nella zona bianca.
Veniamo a fare qualche osservazione preliminare sulla valutazione della probabilità
di H|E. Supponiamo che un individuo giudichi P (E) = 0, 90 la probabilità che si verifichi E e P (H|E) = 0, 60 la probabilità che si verifichi H nell’ipotesi che E sia vero.
Possiamo reinterpretare questo sistema di valutazione così: l’individuo in questione si
impegna a pagare 0,60 euro nel caso si verifichi E, per ricevere 1 euro se si verifica
H ∩ E; per vincere 0,60 euro nel caso si verifichi E si impegna a pagare 0,60 · 0,90=0,54
euro. In definitiva, pagando 0,54 euro, il nostro giocatore acquista il diritto a ricevere 1
euro se si verificano simultaneamente H ed E; quindi, 0,54 si può riguardare come una
valutazione della probabilità di H ∩ E coerente con i valori di P (H|E) e P (E). Questo
punto di vista sarebbe in accordo con quanto suggerito dalla precedente immagine geometrica. Poiché, considerare H|E significa concentrare l’attenzione ai punti contenuti
in E (zona sfumata per l’insuccesso, punteggiata per il successo), allora la probabilità di
3.2. PRINCIPIO DELLE PROBABILITÀ COMPOSTE E TEOREMA DI BAYES
37
E va vista come nuova unità di misura, ovvero: P (H|E) = P (H ∩ E)/P (E), equivalente
a 0, 60 = P (H ∩ E)/0, 90.
3.2 Principio delle probabilità composte e teorema di
Bayes
Nell’impostazione assiomatica di Kolmogorov, la probabilità di H|E [nelle condizioni
dichiarate nella sezione precedente] viene definita, coerentemente alle osservazioni già
svolte, come un numero P (H|E) che soddisfa la relazione
(3.1)
P (H|E)P (E) = P (H ∩ E)
ossia il principio delle probabilità composte. Quando P (E) 6= 0, (3.1) determina la
probabilità di P (H|E),
P (H|E) = P (H ∩ E)/P (E),
prolungando P da C a C ∪ {H|E}.
A questo punto si pone in evidenza che, per un evento E fissato in un’algebra C con
P (E) > 0, la funzione
H 7→ P (H|E)
(H ∈ C)
è una misura di probabilità su C. Infatti, (1) P (H|E) = P (H ∩ E)/P (E) > 0; (2) se H
appartiene a C e contiene E, allora P (H|E) = P (H ∩ E)/P (E) = P (E)/P (E) = 1, da cui,
in particolare P (Ω|E) = 1; (3) se A1 , A2 , . . . e ∪n>1 An appartengono a C, con gli Ai a due
a due incompatibili, allora
1
P (E ∩ (∪n>1 An ))
P (E)
1
1 X
=
P (∪n>1 (E ∩ An )) =
P (E ∩ An )
P (E)
P (E)
P (∪n>1 An |E) =
n>1
=
X
n>1
X
1
P (E ∩ An ) =
P (An |E)
P (E)
n>1
In molti casi, praticamente significativi come quello dei procedimenti di apprendimento
(l’induzione statistica ne sarebbe esempio tipico), si suppongono assegnate le probabilità:
– P (E|H) del risultato sperimentale data l’ipotesi H, P (E|H c ) del risultato sperimentale data H c ,
– P (H) dell’ipotesi (probabilità iniziale)
38CAPITOLO 3. PROBABILITÀ CONDIZIONATA E INDIPENDENZA STOCASTICA
e si procede alla determinazione di P (H|E) (probabilità finale). Allora, dalla definizione
di P (E|H), cioè
P (E|H)P (H) = P (H ∩ E),
segue
P (E|H)P (H) = P (H|E)P (E)
ovvero
P (H|E) =
P (E|H)P (H)
P (E)
se
P (E) 6= 0
(3.2)
che fornisce l’espressione più elementare del teorema di Bayes.
Infatti, con considerazioni semplici è possibile generalizzare questo teorema a partizioni numerabili di ipotesi. Si dice che la famiglia di eventi {Hn : n > 1} è una
partizione dello spazio Ω dei casi elementari se Hn 6= ∅ per ogni n, Hn ∩ Hm = ∅ se
S
n 6= m, n>1 Hn = Ω. Quindi, per ogni (misura di ) probabilità P , vale

1 = P (Ω) = P 
[
n>1

Hn  =
Inoltre, per ogni evento E vale


[
[
E =E∩
(E ∩ Hn )
Hn  =
n>1
X
P (Hn ).
n>1
(proprietà distributiva).
n>1
Quindi, risultando gli eventi E ∩ Hn , n > 1, a due a due incompatibili, si ha [disintegrazione della probabilità di E su (Hn )n>1 ]
P (E) =
X
(3.3)
P (E ∩ Hn ).
n>1
Se in un problema sono assegnate le probabilità
– P (E|Hn ), n > 1 [n 7→ P (E|Hn ) è detta verosimiglianza delle ipotesi Hn , dato E],
– P (Hn ), n > 1 [n 7→ P (Hn ) è detta distribuzione iniziale],
si può determinare P (E) notando che (3.3) e il principio delle probabilità composte
implicano
P (E) =
X
P (E|Hn )P (Hn )
n>1
e, per il teorema “ristretto′′ di Bayes (3.2), a patto che P (E) sia strettamente positiva, si
perviene alla forma classica dello stesso teorema
P (E|Hn )P (Hn )
n>1 P (E|Hn )P (Hn )
P (Hn |E) = P
(n > 1).
(3.4)
3.2. PRINCIPIO DELLE PROBABILITÀ COMPOSTE E TEOREMA DI BAYES
3.2.1
39
Alcuni esempi
Concludiamo il paragrafo con qualche esempio nel quale si applicano i concetti e le
regole di calcolo esposti in precedenza.
Poker Si calcoli la probabilità di realizzare, in una data mano di poker, una scala reale
[la mano che comprende 10, J, Q, K, A dello stesso seme], nell’ipotesi che tutte le
mani possibili abbiano la stessa probabilità. Il numero delle mani possibili è 52
5 ;
quindi denotato con Ω l’insieme delle mani possibili e con ω la mano generica, si
ha
52
P (ω) = 1/
.
5
Indicato con R l’evento “la mano è una scala reale”, si vede che R è formato da 4
elementi di Ω e, quindi,
P (R) = 4/
52
.
5
Poniamo ora che il mazziere scopra l’ultima carta della tua mano (la quinta); valuta la probabilità di realizzare scala reale accettando la carta scoperta che, supponiamo, è l’asso di cuori. Se denotiamo con C l’evento “la quinta carta che ti si
distribuisce è l’asso di cuori”, l’evento di cui si chiede di valutare la probabilità è
l’evento condizionato R|C. Il numero delle mani con la caratteristica di avere l’asso
di cuori in quinta posizione (o una carta qualunque fissata in una data posizione)
è 51
4 e, pertanto,
51
52
P (C) =
/
4
5
e, perciò,
P (R ∩ C)
=
P (R|C) =
P (C)
51
52
P (R ∩ C)/
.
4
5
Inoltre, R ∩ C contiene un solo caso elementare: la scala reale di cuori. Pertanto,
−1
P (R ∩ C) = 52
e, di conseguenza,
5
51
13
P (R).
P (R|C) = 1/
=
5
4
40CAPITOLO 3. PROBABILITÀ CONDIZIONATA E INDIPENDENZA STOCASTICA
Probabilità di essere imbrogliati Un’industria automobilistica fabbrica uno stesso
modello in tre diversi stabilimenti: A, B, C. Si stima che A produce NA modelli, B produce NB modelli e C produce NC modelli, rispettivamente con una
frazione pA , pB , pC di difettosi. Se acquisti, presso un concessionario, un esemplare del modello, qual è la probabilità di trovarlo difettoso? Si possono formulare tre ipotesi, circa la provenienza dell’esemplare, che formano una partizione di
Ω: H1 =“l’esemplare proviene dallo stabilimento A”; H2 =“l’esemplare proviene dallo
stabilimento B”; H3 =“l’esemplare proviene dallo stabilimento C”. Indicato con D
l’evento “l’esemplare acquistato è difettoso”, si ha
P (D|H1 ) = pA ,
P (D|H2 ) = pB ,
P (D|H3 ) = pC .
Inoltre, è ragionevole valutare le P (Hi ) nel modo seguente
P (H1 ) =
NA
,
N
P (H2 ) =
NB
,
N
P (H3 ) =
NC
,
N
(N := NA + NB + NC )
Quindi,
P (D) = P (D ∩ H1 ) + P (D ∩ H2 ) + P (D ∩ H3 ) = pA
NA
NB
NC
+ pB
+ pC
.
N
N
N
Ora, nell’ipotesi che il modello acquistato sia difettoso, calcola la probabilità che
provenga, rispettivamente, da A, B, C:

NA


per i = 1
pA


N

1
1
NB
P (Hi ∩ D) =
×
P (Hi |D) =
pB
per i = 2 .
P (D)
P (D) 
N


N

 pC C per i = 3
N
Test clinico Si considera un test clinico ideato per rivelare una malattia rara che si
presenta in un caso su 100.000. Il test è abbastanza affidabile: per un individuo
affetto rivela la presenza della malattia con probabilità 0,95; per un individuo non
affetto segnala la malattia (sbagliando, dunque) con probabilità 0,005. Calcolare la
probabilità che un individuo, per il quale il test è positivo, sia affetto dalla malattia
in questione. Consideriamo gli eventi: M =“l’individuo è affetto dalla malattia”;
R=“il test è positivo”; dobbiamo valutare P (M |R), sapendo che P (R|M ) = 0.95,
P (R|M c ) = 0, 005, P (M ) = 0, 00001. Allora
P (R|M )P (M )
P (R|M )P (M ) + P (R|M c )P (M c )
0, 95 · 0, 00001
= 0, 0018964.
=
0, 95 · 0, 00001 + 0, 005 · 0.99999
P (M |R) =
3.2. PRINCIPIO DELLE PROBABILITÀ COMPOSTE E TEOREMA DI BAYES
41
Ancora i dadi. . . Una coppia di dadi equilibrati viene lanciata in aria. Nell’ipotesi che
la faccia presentata dal primo dado sia 3, qual è la probabilità che il punteggio
totale superi 6? Detto Ω lo spazio dei casi elementari (l’insieme delle coppie ordinate (i, j) con i=punteggio del primo dado e j=punteggio del secondo dado), si
ha |Ω| = 36. Indichiamo con E l’evento che si verifica se i = 3 e con F l’evento
{(i, j) ∈ Ω : 3 + j > 6}. La probabilità richiesta è
P (F |E) = P (F ∩ E)/P (E).
Mettendo a frutto la condizione espressa sui dadi, sarà ragionevole ritenere uguale
a 1/36 la probabilità di ogni caso elementare. Quindi: P (E) = 6/36, P (F ∩E) = 3/36
e, di conseguenza,
P (F |E) = 3/6 = 1/2.
Sesso dei figli Si considerano le famiglie con due figli. Questi ultimi, classificati in ordine di nascita e in base al sesso, danno luogo alle possibilità seguenti: {M M, M F,
F M, F F }. Nell’ipotesi che le quattro possibilità siano ugualmente probabili, si
chiede di calcolare la probabilità che i figli siano entrambi maschi, nell’ipotesi che
almeno uno sia maschio. Si ha
P (M M |M M ∨ M F ∨ F M ) =
1
1/4
= .
3/4
3
[Si badi, non 1/2] Calcolare la probabilità che i figli siano entrambi maschi nell’ipotesi che il più giovane sia maschio:
P (M M |M M ∨ M F ) =
1
1/4
= .
2/4
2
Urne Si considerano due urne contenenti palline colorate. La prima contiene 3 palline
bianche e 2 rosse, la seconda contiene 3 palline bianche e 4 rosse. Si estrae una
pallina a caso dalla prima urna e la si ripone nella seconda; quindi si estrae una
pallina a caso dalla seconda urna e si chiede di valutare che essa sia rossa. Indichiamo con R2 quest’ultimo evento, e con B1 e R1 , rispettivamente, l’estrazione
di bianca e di rossa dalla prima urna. Allora,
P (R2 ) = P (R2 ∩B1 )+P (R2 ∩R1 ) = P (R2 |B1 )P (B1 )+P (R2 |R1 )P (R1 ) =
22
43 52
+
=
.
85 85
40
42CAPITOLO 3. PROBABILITÀ CONDIZIONATA E INDIPENDENZA STOCASTICA
3.3 Correlazione fra eventi e indipendenza stocastica
Nel confronto fra P (H|E) e P (H) potrebbe presentarsi una delle circostanze seguenti:
(i)
P (H|E) > P (H),
(ii)
P (H|E) < P (H),
(iii)
P (H|E) = P (H).
La (iii) dice che assumere la verità di E non ha alcuna influenza sulla probabilità
di H; si dice allora che H non dipende stocasticamente da E. Analogamente, la (i)
[rispettivamente, la (ii)] dice che assumere la verità di E fa aumentare [rispettivamente, fa diminuire] la probabilità di H; quindi, si dice che H dipende positivamente
[rispettivemente, negativamente] da E. Ricordando le relazioni fondamentali
P (E ∩ H) = P (E|H)P (H) = P (H|E)P (E)
(3.5)
si scopre che la validità di (iii) implica
(3.6)
P (E ∩ H) = P (H)P (E)
e, se P (H) 6= 0, anche la validità di
(3.7)
P (E|H) = P (E)
(E non dipende stocasticamente da H). Da (3.6) segue (iii) quando P (E) > 0. Gli eventi
E, H si dicono (mutuamente o reciprocamente) stocasticamente indipendenti quando vale
(3.6). Questa è una delle proprietà più interessanti per gli sviluppi della teoria delle
probabilità. Si noti che si tratta di una proprietà di P , non degli eventi, a dispetto della
dizione. [N.B.: Non si confonda l’indipendenza stocastica di E ed H con la loro eventuale
incompatibilità. Gli eventi E,H possono essere indipendenti e non incompatibili, quando
P (E∩H) = P (E)P (H) con P (E∩H) > 0. Al contrario, gli eventi E ed H incompatibili con
P (E) > 0 e P (H) > 0 non possono, ovviamente, essere indipendenti, perché P (E ∩ H) =
0.]
Se E e H sono stocasticamente indipendenti, allora anche E e H c sono stocasticamente indipendenti (quindi, anche (E c , H c ) e (E c , H)). Infatti,
P (E ∩ H c ) = P (E) − P (E ∩ H)
= P (E) − P (E)P (H)
[per la (3.6)]
= P (E){1 − P (H)}
= P (E)P (H c ).
Quando si hanno n eventi E1 , . . . , En , con n > 2, essi si dicono stocasticamente indipendenti se lo sono a due a due, a tre a tre, ecc.; più precisamente, quando per ogni
3.3. CORRELAZIONE FRA EVENTI E INDIPENDENZA STOCASTICA
43
k = 2, . . . , n e per ogni sottoinsieme {j1 , . . . , jk } di {1, . . . , n} vale
P (Ej1 ∩ · · · ∩ Ejk ) = P (Ej1 ) · · · P (Ejk ).
Si dimostra facilmente che se E1 , . . . , En sono indipendenti, risultano indipendenti anche gli eventi Eic1 , . . . , Eick , Ei1 , . . . , Ein−k per ogni {i1 , . . . , ik } ⊂ {1, . . . , n} e {j1 , . . . , jn−k } =
{1, . . . , n} \ {i1 , . . . , ik }.
Come mostra il caso seguente, non basta l’indipendenza a due a due per avere, ad
esempio, quella a tre a tre. Si estrae una pallina da un’urna che ne contiene 4: una
bianca, una rossa, una verde, una bleu. Si scommette avendo diritto a scegliere due
colori, e tre individui scommettono scegliendo: il primo bianco o rosso (E1 ), il secondo
bianco o verde (E2 ), il terzo bianco o bleu (E3 ). Se la probabilità di ciascun colore è 1/4,
allora:
P (E1 ) = P (E2 ) = P (E3 ) = 1/2,
P (E1 ∩ E2 ) = P (E1 ∩ E3 ) = P (E2 ∩ E3 ) = 1/4 = P (Ei )P (Ej )
(i 6= j).
Così gli eventi E1 , E2 , E3 sono a due a due indipendenti: la probabilità che una fissata
coppia di scommettitori vinca è data dal prodotto delle probabilità che il singolo vinca.
Invece
P (E1 ∩ E2 ∩ E3 ) = 1/4 6= P (E1 )P (E2 )P (E3 ).
È interessante notare il fatto seguente:
Data la probabilità di ciascuno di n eventi indipendenti, si può determinare la probabilità di ogni altro evento che ne dipenda logicamente. (Per la nozione di dipendenza
logica, vedere Sezione 1.2 ed Esempio 1.2.2)
Infatti, si può incominciare con l’osservazione che se E1 , . . . , En sono gli n eventi dati,
allora ogni evento E che ne dipenda logicamente è unione dei costituenti Ei1 ∩ · · · ∩ Eik ∩
Ejc1 ∩· · ·∩Ejcn−k . Allora, sfruttando l’additività della probabilità e il fatto che i costituenti
sono a due a due incompatibili, si ha
P (E) =
X
P (Ei1 ∩ · · · ∩ Eik ∩ Ejc1 ∩ · · · ∩ Ejcn−k )
∗
con la somma estesa agli indici {i1 , . . . , ik } ⊂ {1, . . . , n} per cui Ei1 ∩ · · · ∩ Eik ∩ Ejc1 ∩ · · · ∩
Ejcn−k ⊂ E.
Se vale l’ipotesi di indipendenza, posto
pj = P (Ej ),
qj = P (Ejc ) = 1 − pj
(j = 1, . . . , n),
44CAPITOLO 3. PROBABILITÀ CONDIZIONATA E INDIPENDENZA STOCASTICA
si ha, in più,
P (Ei1 ∩ · · · ∩ Eik ∩ Ejc1 ∩ · · · ∩ Ejcn−k ) = pi1 · · · pik · qj1 · · · qjn−k
e anche la probabilità di E dipende soltanto dai valori di pj e qj assegnati. Ad esempio,
la probabilità che nessuno degli eventi Ei si verifichi è
ω0 = q1 · · · qn
La probabilità che se ne verifichi esattamente uno è
ω1 =
X
q1 · · · qi−1 · pi · qi+1 · · · qn = ω0
X pi
i
i
(se
qi
qi > 0 per ogni i)
come si può dedurre anche dalla formula generale (1.4) quando si assuma l’indipendenza
stocastica degli Ai .
La probabilità che se ne verifichino esattamente due è
ω2 =
X
q1 · · · qi−1 · pi · qi+1 · · · qj−1 · pj · qj+1 · · · qn
16i<j6n
X
= ω0
16i<j6n
pi pj
qi qj
(se ogni qi 6= 0)
e la probabilità che se ne verifichino esattamente k è
ωk =
X
q1 · · · qi1 −1 · pi1 · qi1 +1 · · · qik −1 · pik · qik +1 · · · qn
(3.8)
16i1 <···<ik 6n
= ω0
X
16i1 <···<ik 6n
pi1 · · · pik
qi1 · · · qik
(3.9)
se ogni qi 6= 0.
3.3.1 Ancora la distribuzione binomiale
Se gli eventi E1 , . . . , En , oltre ad essere stocasticamente indipendenti, sono ugualmente
probabili [P (Ei ) = p e qi = 1 − p per ogni i], allora la probabilità ωk che se ne verifichino
esattamente k si deduce da (3.8) come segue
ωk =
X
16i1 <···<ik 6n
k n−k
p q
n k n−k
=
p q
k
perché il numero degli addendi è uguale a quello dei sottoinsiemi, di k elementi, dell’insieme {1, . . . , n}. Confrontando questo risultato con la definizione di distribuzione
binomiale data nel Sottoparagrafo 2.2.2, si conclude che per n eventi indipendenti e con
probabilità costante p, il numero aleatorio di quelli che si verificano ha distribuzione
binomiale di parametro (n, p).
3.3. CORRELAZIONE FRA EVENTI E INDIPENDENZA STOCASTICA
3.3.2
45
Successioni di eventi indipendenti e, ancora, distribuzione
binomiale negativa
Gli eventi di una successione E1 , E2 , . . . si dicono indipendenti se, per ogni n, E1 , . . . , En
formano una n-upla di eventi stocasticamente indipendenti. Sia dunque (En )n>1 una
successione di eventi indipendenti, di probabilità costante uguale a p. Qual è la probabilità che l’n-esimo successo si verifichi in corrispondenza alla prova (n + r)-esima? Tale
probabilità è nulla se r < 0. Per r > 0, l’evento che interessa si verifica se e solo se si
verifica En+r , e fra i primi (n + r − 1) eventi se ne verificano esattamente (n − 1) [evento
che denotiamo con G(n + r − 1, n − 1)]. Allora, dall’indipendenza supposta segue che la
probabilità richiesta è P (G(n + r − 1, n − 1))P (En+r ) con P (En+r ) = p e, per il risultato
n−1 r
contenuto nel precedente sottoparagrafo, P (G(n + r − 1, n − 1)) = n+r−1
q . Quindi,
n−1 p
indicando con ξ l’istante (intero) in cui si ha l’n-esimo successo, si ottiene
n+r−1 n
P {ξ = n + r} =
p (1 − p)r
(r = 0, 1, 2, . . .)
r
ovvero, ξ ha la distribuzione binomiale negativa. Cf., ancora una volta, il Sottoparagrafo
2.2.2.
3.3.3
Indipendenza condizionata
Dati gli eventi A, B, C, si dice che A e B sono condizionatamente indipendenti dato C
se
P (A ∩ B|C) = P (A|C)P (B|C).
Più in generale, considerata la probabilità A 7→ P (A|C), con A variabile in una algebra
di eventi e C contenuto nella stessa algebra, se gli eventi H1 , . . . , Hn (appartenenti alla
stessa algebra) sono indipendenti rispetto alla distribuzione P (•|C), allora si dicono condizionatamente indipendenti dato C. Presentiamo una semplice applicazione di questo
concetto.
Testimonianza
Si considera un tribunale che sta indagando sopra un evento E [per esempio, l’eventualità che un certo delitto accaduto sia stato commesso da una certa specifica persona].
La corte si avvale della testimonianza di due individui, diciamo I e II, le cui testimonianze essa ritiene indipendenti condizionatamente sia a E sia a E c . La corte è anche
in grado di valutare la probabilità della veridicità delle due testimonianze; diciamo p1 e
46CAPITOLO 3. PROBABILITÀ CONDIZIONATA E INDIPENDENZA STOCASTICA
p2 , rispettivamente per I e II. Indicata con p la probabilità che la corte assegna a E, si
calcolino la probabilità:
– di E subordinatamente al fatto che I e II accusino l’indagato;
– di E subordinatamente al fatto che I accusi e II non accusi l’indagato.
Per rispondere, indichiamo con E1 [rispettivamente, E2 ] l’evento corrispondente alla
affermazione da parte di I [rispettivamente, II] che E è accaduto. Si tratta di calcolare
P (E|E1 ∩ E2 ) e P (E|E1 ∩ E2c ). Si ha:
P (E ∩ E1 ∩ E2 ) = P (E1 ∩ E2 |E)P (E)
= P (E1 |E)P (E2 |E)P (E)
[per l’indipendenza condizionata delle testimonianze]
= p1 · p2 · p
P (E ∩ E1 ∩ E2c ) = P (E1 ∩ E2c |E)P (E)
= P (E1 |E)P (E2c |E)P (E)
= p1 · (1 − p2 ) · p
P (E1 ∩ E2 ) = P (E1 ∩ E2 ∩ E) + P (E1 ∩ E2 ∩ E c )
= p1 · p2 · p + P (E1 ∩ E2 |E c ) · (1 − p)
= p1 · p2 · p + (1 − p1 )(1 − p2 )(1 − p)
P (E1 ∩ E2c ) = P (E1 ∩ E2c ∩ E) + P (E1 ∩ E2c ∩ E c )
= p1 · (1 − p2 ) · p + P (E1 ∩ E2c |E c )P (E c )
= p1 · (1 − p2 ) · p + (1 − p1 ) · p2 · (1 − p)
e
P (E|E1 ∩ E2 ) =
P (E|E1 ∩ E2c ) =
p1 · p2 · p
p1 · p2 · p + (1 − p1 )(1 − p2 )(1 − p)
p1 · (1 − p2 ) · p
.
p1 · (1 − p2 ) · p + (1 − p1 ) · p2 · (1 − p)
3.4 Osservazioni complementari
In molti libri di probabilità, passa sotto il nome di paradosso del progioniero il seguente
problema. Tre individui sono stati imprigionati senza processo. Tenuto presente che ci
troviamo in un paese governato da un signore spietato, il carceriere comunica loro la
notizia che questo signore ha deciso, in modo del tutto arbitrario, di liberarne uno e di
mandare a morte gli altri due. Aggiunge, inoltre, che gli è fatto divieto di rivelare a
chiunque la fine, determinata dal signore. Indicati con A, B e C i tre prigionieri, si sa
che A chiede al carceriere di indicargli – in segreto dagli altri – uno dei due condannati
3.4. OSSERVAZIONI COMPLEMENTARI
47
(diverso da A, per la regola testé richiamata), e che il carceriere gli risponde B. Si chiede
di esprimere la probabilità che A attribuisce alla propria condanna a morte.
A ben guardare, qui non ci troviamo di fronte a un problema di probabilità condizionata. Infatti, A è in possesso dell’informazione che B è condannato. Il significato di un
qualunque evento condizionato a tale eventualità (la condanna di B) sarebbe invece,
come più volte specificato, quello di un evento esaminato sotto l’ipotesi che B sia condannato quando l’ipotesi è ancora incerta. Ora, dopo che A ha avuto l’informazione del
c
carceriere, lo spazio degli eventi elementari è: {HB ∩ HA ∩ HCc , HB ∩ HA
∩ HC }, dove
HI denota che l’individuo I è condannato a morte. A questo punto, si vede che A è condannato se e solo se si verifica la prima eventualità. Quindi, la probabilità richiesta è
esattamente la probabilità di detta eventualità e, quindi, un qualunque numero compreso tra 0 e 1; fissata la valutazione α, il suo complemento a 1, 1 − α, è la probabilità
c
di HB ∩ HA
∩ HC . La probabilità richiesta è 1/2, in condizioni di simmetria.
Invece, se A intende valutare la probabilità di essere condannato nell’ipotesi che B
sia condannato [ma non gli è noto se questo sia Vero o Falso], allora deve apprestarsi a
c
c
calcolare P (HA |HB ). Lo spazio dei casi elementari è: {HB ∩HA ∩HCc , HB ∩HA
∩HC , HB
∩
HA ∩ HC } e supponiamo che essi abbiano rispettivamente probabilità p1 , p2 , p3 con
pi > 0 (i = 1, 2, 3) e p1 + p2 + p3 = 1. Si ha:
P (HA ∩ HB ) = P (HA ∩ HB ∩ HCc ) = p1
[perché HA ∩ HB ∩ HC è impossibile]
c
c
P (HB ) = P (HA ∩ HB ) + P (HA
∩ HB ) = p1 + P (HA
∩ HB ∩ HC ) = p 1 + p 2
e quindi, se p1 + p2 > 0 (p3 6= 1) otteniamo
P (HA |HB ) =
p1
p1 + p2
[=1/2 se p1 = p2 ; 2/3 se p1 = 2p2 , ecc.].
A questo punto del discorso, la situazione dovrebbe apparire paradossale solo a coloro
che, mischiando un po’ i ragionamenti, che (come si doveva) abbiamo tenuti distinti, non
sanno farsi una ragione del fatto che siano ammissibili valutazioni diverse. La risposta
è univoca, nella prima impostazione, se si fissa α e, nella seconda, se si fissano p1 e
p2 . Corrispondendo a stati di informazione diversi, non si può escludere (anzi, sarebbe
naturale attendersi) un divario fra α e p1 o 1 − α e p2 .
48CAPITOLO 3. PROBABILITÀ CONDIZIONATA E INDIPENDENZA STOCASTICA
Concludiamo con una osservazione sulla valutazione di probabilità in spazi finiti, con
casi elementari ugualmente probabili (simmetria), in relazione all’ipotesi di indipendenza stocastica. Ritorniamo al Paragrafo 1.4 (Estrazioni da un’urna) considerando la
famiglia di eventi {E1 , . . . , Em }, dove Ei è l’evento che è Vero se e solo se nella i-esima
estrazione si osserva pallina bianca (i = 1, . . . , m). Ci si sofferma sul caso in cui le
estrazioni sono con restituzione. Se gli eventi hanno probabilità costante= r/n [perché
l’urna contiene r palle bianche e n−r = s palle nere] e sono considerati come indipendenti [perché la composizione dell’urna è nota in corrispondenza a ogni estrazione], allora
possiamo applicare la formula di ωk , nel Sottoparagrafo 3.3.1, per ottenere la probabilità
che si verifichino h di detti eventi [in altre parole: si estraggono h palle bianche]:
r m−h
m
r h
1−
n
n
h
la stessa espressione trovata nel Capitolo I, sulla base di considerazioni di simmetria
e a prescindere da considerazioni di indipendenza stocastica. Lo studente mediti sul
guadagno, sul piano concettuale e dal punto di vista delle applicazioni, conseguito con
l’introduzione del concetto di indipendenza stocastica.