lezione.2.3 - Dipartimento di Scienze Politiche

LEZIONE 2.3
corso di statistica
Francesco Lagona
Università Roma Tre
LEZIONE 2.3 – p. 1/10
un esperimento composto
T
C
•
P (R) =? probabilità marginale, non immediata da calcolare
•
P (R|T ) =
1
:
4
probabilità condizionata: immediata da calcolare
•
P (R|C) =
1
:
2
probabilità condizionata: immediata da calcolare
•
dati due eventi A e B (con P (B) > 0), la probabilità condizionata
P (A|B) =
P (A ∩ B)
P (B)
indica la probabilità di A, dato che si è verificato l’evento B
LEZIONE 2.3 – p. 2/10
la definizione di probabilità condizionata
• insieme di eventi equiprobabili: Ω = {ω1 . . . ω8 } =
{(T, R), (T, B), (T, B), (T, B), (C, R), (C, R), (C, B), (C, B)}
R
1/8
2/8
3/8
T
C
• P (R|T ) =
1
4
=
P (R∩T )
P (T )
=
1/8
1/2
• P (R|C) =
1
2
=
P (R∩C)
P (C)
=
2/8
1/2
B
3/8
2/8
5/8
1/2
1/2
LEZIONE 2.3 – p. 3/10
probabilità condizionata
• può essere usata per calcolare le probabilità congiunte:
P (A ∩ B)
P (A|B) =
⇒ P (A ∩ B) = P (A|B)P (B)
P (B)
◦ ad esempio: P (R ∩ C) = P (R|C)P (C) =
11
22
=
1
4
• può essere usata per calcolare le probabilità marginali
◦ ad esempio:
P (R) = P (R ∩ C) + P (R ∩ T ) = P (R|C)P (C) +
1/4+2/4
(R|T )
=
= 3/8 = 0.375
P (R|T )P (T ) = P (R|C)+P
2
2
◦ ad esempio:
P (B) = P (B ∩ C) + P (B ∩ T ) = P (B|T )P (T ) +
P (B|C)P (C) =
P (B|T )+P (B|C)
2
=
3/4+2/4
2
= 5/8 = 0.625
LEZIONE 2.3 – p. 4/10
eventi indipendenti
• due eventi A e B si dicono indipendenti se
P (A|B) = P (A)
ovvero, ricordando che P (A ∩ B) = P (A|B)P (B), se
P (A ∩ B) = P (A)P (B)
• nota 1: la definizione generalizza quella di indipendenza tra
variabili statistiche
• nota 2: due eventi (non impossibili) indipendenti non sono
mai incompatibili:
0 = P (A ∩ B) = P (A)P (B)
LEZIONE 2.3 – p. 5/10
una variazione dell’esperimento
{1,2}
{3,4,5,6}
2
1
P (R) = 1/3 + 2/3 =
4
4
3
2
P (B) = 1/3 + 2/3 =
4
4
1
2
+2
4
4
5
/3 =
= 0.42
12
2
3
+2
4
4
7
/3 =
= 0.58
12
LEZIONE 2.3 – p. 6/10
un’altra variazione
S
S
P B
P P
B B
P B
• se P (S) = p, allora Prob(P ) = p × 3/4 + (1 − p) × 1/4
• ad esempio: se p = 0.1, allora
Prob(P )
= 0.1 × 3/4 + 0.9 × 1/4 = 0.3
LEZIONE 2.3 – p. 7/10
teorema di Bayes
P (S ∩ P )
P (P |S)P (S)
P (S|P ) =
=
P (P )
P (P |S)P (S) + P (P |S̄)P (S̄)
• se P (S) = p
P (P |S)p
P (S|P ) =
P (P |S)p + P (P |S̄)(1 − p)
• ad esempio, se p = 0.1
3/4 × 0.1
0.075
P (S|P ) =
=
= 0.25
0.3
0.3
LEZIONE 2.3 – p. 8/10
0.6
P(non ha studiato | bocciato)
0.4
P(ha studiato | promosso)
0.0
0.2
probabilità a posteriori
0.8
1.0
probabilità a posteriori e a priori
0.0
0.2
0.4
0.6
0.8
1.0
probabilità a priori
•
P (S|P ): probabilità a posteriori
•
p = P (S): probabilità a priori
P (S|P ) =
•
P (P |S)p
P (P |S)p + P (P |S̄)(1 − p)
nota 1: P (S|P ) + P (S̄|B) 6= 1
LEZIONE 2.3 – p. 9/10
1.0
la probabilità di commettere un errore
0.4
0.6
P(studiato | bocciato)
0.0
0.2
probabilità a posteriori
0.8
P(non ha studiato | promosso)
0.0
0.2
0.4
0.6
0.8
1.0
P(S): probabilità a priori
• P(non ha studiato | promosso)=1-P(ha studiato|promosso)
• P(ha studiato | bocciato)= 1 -P(non ha studiato | bocciato)
LEZIONE 2.3 – p. 10/10