Elementi di
Calcolo delle probabilità
PERCHÉ SI STUDIA IL CALCOLO DELLE PROBABILITÀ?
Calcolo delle probabilità
Stato di incertezza
In cui si formano le decisioni
Esperimento casuale - prova
Un esperimento casuale è un
fenomeno del mondo reale per
il quale vi è più di un risultato
possibile.
Evento elementare
L’evento elementare è uno dei
possibili
risultati
dell’esperimento casuale
L’esito è incerto
•
•
•
•
•
Lancio di una moneta
Sondaggio di opinione
Esame universitario
Partita di calcio
Controllo di qualità di un
prodotto
• PIL
• Analisi del sangue
• etc
Elementi di Calcolo delle probabilità
Spazio campione
L’insieme di tutti i possibili
esiti di un esperimento definisce lo spazio campione
• Deve necessariamente verificarsi un evento elementare
• Si può verificare un solo
evento elementare
Slide 2
Descrizione dell’esperimento
promosso
Esame universitario bocciato
vittoria
pareggio
sconfitta
Partita di calcio
molto favorevole
favorevole
indifferente
contrario
fortemente contrario
Sondaggio
di opinione
E2
E3
A={esce
E4
E5
E1
E3
E6
E5
E2
E6
Esempio lancio di un dado
E1
Evento
Un evento è un insieme di eventi elementari.
Eventi elementari: E1, E2,...,
En
A={E2, E3, E4}
L’evento A si verifica quando
l’esito dell’esperimento è uno
degli eventi elementari che lo
costituiscono.
S
E7
E4
Evento impossibile
∅, l’evento impossibile, è
l’evento che non si verifica
mai
}= E3
B={numero di puntini pari}=
={E2, E4, E6}=
E1
E2
E3
E4
E5
E6
Evento certo
S, l’evento certo, è l’evento
che si verifica sempre
C={numero di puntini > 3}=
={E4, E5, E6}=
E1
E2
E3
E4
E5
E6
Elementi di Calcolo delle probabilità
Slide 3
Altre operazioni sugli eventi
Diagrammi di Venn
• Unione
• Intersezione
• Negazione
S
A
B
Unione di eventi
A∪B
Dati due eventi A e B appartenenti ad S, l’unione A∪B è
l’evento costituito da tutti gli
eventi elementari che appartengono o ad A o a B o ad entrambi.
L’evento A∪B si verifica
quando:
• Si verifica A ma non si verifica B
• Si verifica B ma non si verifica A
• Si verificano sia A che B
A
Esempio: Unione
Lancio di un dado
S={E1, E2, E3, E4, E5, E6}
Spazio
campione
A={numero di puntini pari} =
{E2, E4, E6}
B={numero di puntini > 3} =
{E4, E5, E6}
A∪B = {E2, E4, E5, E6}
S
B
A∪B
Elementi di Calcolo delle probabilità
Slide 4
Intersezione di eventi
Dati due eventi A e B appartenenti ad S, l’intersezione A∩B
è l’evento costituito da tutti gli
eventi elementari che appartengono sia ad A che a B.
L’intersezione A∩B si verifica quando si verificano sia A
che B.
A
S
A∩B
B
Lancio di un dado
S={E1, E2, E3, E4, E5, E6}
A={numero di puntini pari} =
{E2, E4, E6}
B={numero di puntini > 3} =
{E4, E5, E6}
A∩B = { E4, E6}
Esempio: Negazione
Negazione di un evento
Ā
Dato un evento A appartenente ad S l’insieme di tutti gli
eventi elementari che appartengono ad S ma non appartengono ad A costituiscono la
negazione di A.
La negazione di A si verifica
quando A non si verifica
S
A
Esempio: Intersezione
Partita di calcio
S={E1, E2, E3}
E1: vittoria
E2: pareggio
E3: sconfitta
A={vittoria}= E1
Ā={pareggio, sconfitta} =
={E2, E3}
S
E1=A
E2
Ā
E3
Elementi di Calcolo delle probabilità
Ā
Slide 5
Relazioni tra eventi
• Inclusione
• Incompatibilità
• Necessarietà
Inclusione
Dati due eventi A e B appartenenti ad S, A è incluso in B se
il verificarsi di A implica, necessariamente, il verificarsi di
B.
A⊆B
S
A
N.B.
A⊆B e A⊇B
Incompatibilità
Due eventi A e B appartenenti
ad S si dicono incompatibili
quando non hanno eventi elementari in comune
B
A=B
Necessarietà
Gli eventi A1, A2, ..., An
Appartenenti ad S si dicono
necessari se
A1∪A2∪... ∪An = S
A∩B=∅
S
A
B
N.B.
Due eventi incompatibili non
possono verificarsi contemporaneamente.
Elementi di Calcolo delle probabilità
Slide 6
Partizione
Leggi del De Morgan
Gli eventi
A∪B= A∩B
A1, A2, ..., An
Costituiscono una partizione se
S
A
• A1∪A2∪... ∪An = S
• Ai∩Aj=∅ ∀ i≠j
S
A1
A3
A∩B= A∪B
A5
A2
A6
B
A7
A4
Probabilità
• Definizione classica
• Definizione frequentista
• Definizione soggettivista
Impostazione assiomatica
A
S
B
Definizione classica di Probabilità
Dato un esperimento in cui
• Vi è un numero finito di risultati possibili
• Gli eventi elementari sono
equiprobabili
La probabilità è definita come
# casi favorevoli
# casi totali
Pascal (1623-1662)
Bernoulli (1713), De Moivre (1718), Laplace
(1812)
Elementi di Calcolo delle probabilità
Slide 7
Definizione frequentista di
Probabilità
Dato un esperimento perfettamente ripetibile ed un evento
possibile E, la probabilità di E
è data dal limite della frequenza relativa con cui si verifica E
al divergere del numero di ripetizioni dell’esperimento.
af
fr a E f
af
n→∞
af
nE
n→∞ n
P E = lim fr E = lim
Definizione soggettivista di
Probabilità
Dato un esperimento ed un
evento possibile E, la probabilità di E è il grado di fiducia
che un soggetto ha nel verificarsi dell'evento E.
È la somma che un individuo
è pronto a scommettere per ricevere una somma unitaria se
l’evento E si verifica 0 altrimenti.
Bernoulli (1713)
Anni 20: Ramsey, De Finetti, Savage
Laplace, Venn, Von Mises
(prima metà del XIX secolo)
Impostazione assiomatica
Kolmogorov 1930-40
La probabilità è una funzione
che soddisfa i postulati
Teoremi
1. P(Ā)=1-P(A)
2. P(∅)=0
3. P(A)≤1
4. P(A∪B)=P(A)+P(B)-P(A∩B)
Postulati
1. P(A)≥0
2. P(S)=1
3. A∩B=∅ ⇒ P(A∪B)=P(A)+P(B)
Elementi di Calcolo delle probabilità
A
S
B
Slide 8
Misura della Probabilità
E1, E2, ..., En
• Ei∩ Ej=∅ (incompatibili)
n
• ∪ Ei = S (necessarietà)
i =1
• P(Ei)=costante (equiprobabilità)
A={E1, E2, ..., Ek}
# casi favorevoli
PA =
# casi totali
af
af
PA =
a
k
n
f
P A∩B
Dati due eventi A e B, dalla
definizione di probabilità condizionata (dato P B > 0):
P A∩B
P AB =
PB
si ha:
P A∩B = P AB ⋅P B
o in alternativa (dato P A > 0 )
essendo:
P A∩B
P BA =
PA
si ha:
P A ∩ B = P BA ⋅ P A
af
b g aaff
a f b g af
af
a
f
b g af
a f b g af
Elementi di Calcolo delle probabilità
Probabilità condizionata
Dati due eventi A e B la probabilità condizionata di A dato
B è:
P A∩B
P AB =
PB
posto P B > 0
NB la probabilità condizionata
soddisfa i postulati:
Infatti posto P C > 0 risulta:
1. P A C ≥ 0
2. P S C = 1
3. A∩B=∅ ⇒
P A ∪ BC = P A C + P BC
e valgono quindi tutti i teoremi
b g aaff
af
b g
b g
b
af
g b g b g
Esempio: Probabilità condizionata
3
P( ) =
8
5
P( ) =
8
Estrazione senza rimessa:
2
P(II= | I = )=
7
P(II= | I = )=
5
7
Slide 9
Esempio:
Probabilità condizionata 2
Estrazione di
due palline
senza rimessa
2 3
)=P(II= | I = )·P(I= )= ⋅
7 8
4 5
P( )=P(II= | I = )·P(I= )= ⋅
7 8
P( )=
=P[(I= ∩II= )∪(I= ∩II= )]=
=P(I= ∩II= )+P(I= ∩II= )=
5 3 3 5
= ⋅ + ⋅
8 7 8 7
P(
Eventi indipendenti
Due eventi A e B sono indipendenti se (posto P B > 0)
P AB = P A
l’indipendenza è una relazione
simmetrica (posti P B , P A > 0 ):
P A B = P A ⇔ P BA = P B
af
b g af
af af
b g af b g af
Se (e solo se) due eventi sono
indipendenti si ha:
P A∩B = P A ⋅P B
a
f af af
Elementi di Calcolo delle probabilità
Esempio:
Probabilità condizionata 3
3
P( ) =
8
5
P( ) =
8
Estrazione senza rimessa
2
P(II= | I = )=
7
3
P(II= | I = )=
7
P(II= )=
=P[(I= ∩II= )∪(I= ∩II= )]=
=P(I= ∩II= )+P(I= ∩II= )=
=P(II= | I = )·P(I= )+
+P(II= | I = )·P(I= )+=
2 3 3 5 21 3
= ⋅ + ⋅ =
=
7 8 7 8 56 8
Esempio: eventi indipendenti
Estrazione
con rimessa
P( )=P(I= )·P(II=
P( )=P(I= )·P(II=
P( )=
=P[(I= ∩II= )∪(I=
=P(I= ∩II= )+P(I=
5 3 3 5
= ⋅ + ⋅
8 8 8 8
)=3/8⋅3/8
)=5/8⋅5/8
∩II= )]=
∩II= )=
Slide 10
Teorema
Dati due eventi A e B si ha:
A e B indipendenti
A e B indipendenti
A e B indipendenti
A e B indipendenti
Domanda
Eventi incompatibili (con probabilità non nulla) possono essere indipendenti? NO
P(A∩B)=P(∅)=0
Incompatibilità
a
f
b g af
P A∩B
=0
PB
Che può essere uguale a P(A)
solo se P(A)=0
P AB =
Teorema di Bayes
Problema
Diretto
Teorema di Bayes
???
H0
Problema
inverso
H1
C
• H0∩H1=∅ (incompatibili)
• H0∪H1=S (necessari)
H0
P(H0)
P( |H0)
P(H0| )=?
???
H1
P(H1)
P( |H1)
P(H1| )=?
Elementi di Calcolo delle probabilità
Probabilità note:
P(H0) e P(H1)
← a priori
P(C|H0) e P(C|H1) ← probative
Probabilità da determinare:
P(H0|C) e P(H1|C) ← a posteriori
Slide 11
Formula di Bayes
P H0 C =
b
Rapporto di probabilità a
posteriori
g
a f b g
Pb H Cg Pa H f Pb C H g
a f b g a f b g P b H Cg = P a H f ⋅ P b C H g
P b H Cg =
Rapporto di
verosimiglianza
Pa H f ⋅ Pb C H g
=
Pa H f ⋅ Pb C H g + Pa H f ⋅ Pb C H g
N.B.: Pb H Cg + Pb H Cg = 1
=
P H0 ⋅ P C H0
P H 0 ⋅ P C H 0 + P H1 ⋅ P C H1
0
0
0
1
1
1
1
1
0
0
0
1
1
1
1
Variabili casuali
Una variabile casuale è una
funzione definita sullo spazio
campione che assume valori in
R:
E1
E3
E2
E4
x1 x2 x3
Esempio: lancio di un dado
E1
E2
E3
E4
E5
E6
R
X(E)=numero di puntini
R
X(E): S→R
• X(E) non è necessariamente
una funzione biunivoca
• Variabili casuali bivariate
Elementi di Calcolo delle probabilità
E1
E2
E3
E4
E5
E6
0
1
R
0: numero di puntini dispari
R
a f ST1: numero di puntini pari
X E =
Slide 12
Tipi di variabili casuali
Discrete
Una variabile casuale X è discreta se assume valori in un
insieme discreto (finito o infinito numerabile).
Es. Numero di goal, numero di
incidenti, numero di promossi
etc..
Continue
Una variabile casuale è continua
se assume valori in un insieme
continuo (con la potenza del continuo).
Variabili casuali discrete
X: x1, x2, .. .., xk.
p(x1), p(x2), ..,p(xk).
p(xi)=P(X=xi) i=1,2,...,k
1)
2)
a f
∑ pa x f = 1
p xi ≥ 0
∀i
k
i =1
i
X P(X=xi)
x1 p(x1)
x2 p(x2)
P(X=xi)
p(x2)
Es. Durata, peso, altezza, reddito,
etc..
p(x1)
xk
p(xk)
Es. Lancio del dado
X={1,2,3,4,5,6}
x1 x2
Variabili casuali continue
P(X=x)=1/6
funzione
densità di
probabilità
x=1,2,3,4,5,6
P(X=x)
xk
f(x)
x x+dx
P(x≤X≤ x+dx)=f(x)⋅dx
1/6
123456
x
Proprietà:
1)
2)
Elementi di Calcolo delle probabilità
af
f x ≥0
∀x
∞
−∞ f x ⋅ dx = 1
z af
Slide 13
x
Funzione densità di probabilità
Funzione di ripartizione
F(x)= P(X≤ x)
Variabili casuali discrete
f(x)
af
a f
F x = ∑ p xi
a
Variabili casuali continue
x
b
xi ≤ x
P(a≤X≤ b)=Area tratteggiata =
= ab f x ⋅ dx
z af
a f z f auf ⋅ du
x
F x =
−∞
f(x)
N.B. P(X=x) = 0
x
x
Funzione di ripartizione
per v.c. continue
Funzione di ripartizione
per v.c. discrete
1
F(x)
F(x)
1
F(xj+2)
F(xj)
0
0 xj xj+1 xj+2
x
x
F a x f = z f auf ⋅ du
af a f
F a x f = pa x f
d F a xf
da
cui:
f
x
=
a
f
F a x f = pa x f + pa x f
dx
F a x f = pa x f + pa x f+...+ pa x f = 1
x
F x = ∑ p xi
−∞
xi ≤ x
1
1
2
1
2
k
1
2
k
Elementi di Calcolo delle probabilità
Slide 14
Proprietà
della Funzione di ripartizione
af
lim F a x f = 0
F a x f è non decrescente
F a x f è continua a destra
RS lim F a xf − F a x − hf = pa xfUV
T
W
lim F x = 1
x→∞
x→−∞
v.c. identicamente distribuite
Due v.c. X ed Y, che hanno la stessa
distribuzione si dicono identicamente distribuite.
af
af
X e Y i.d. ⇔ FX u = FY u
Come si confrontano v.c. non identicamente distribuite?
Momenti
h→ 0+
Operatore valore atteso
Valore atteso di v.c.
k
Il valore atteso di una v.c. X si indi∑ g xi ⋅ p xi v.c.discrete
ca con E(X) ed è dato da:
i =1
E g x =
a f
R| a f a f
af S
|T z ga xf ⋅ f a xf ⋅ dx v.c.continue
∞
a f
E X = ∑ik=1 xi ⋅ p xi
per v.c. discrete
a f z
−∞
• uguale notazione per v.c. discrete e continue
• operatore lineare
E a⋅ X +b = a⋅E X +b
af
∞
E X = −∞
x ⋅ f x ⋅ dx
per v.c. continue
a
f
a f
f(x)
E(X)
x
Elementi di Calcolo delle probabilità
Slide 15
Momenti di una v.c.
Momento r-esimo della v.c. X:
µr = E X r
d i
R| ∑ x ⋅ pa x f v.c.discrete
=S
|T z x ⋅ f a xf ⋅ dx v.c.continue
k
µr
r
i
i =1
∞
r
Momenti di una X-µ
Variabile casuale scarto X-µ
• E X − µ = E X − µ =0
a
f a f
i
fX(u)
fX-µ(u)
−∞
a f
d i
0
µ1 = E X
µ2 = E X 2
momento r-esimo di X-µ
r
µr = E X − µ
0.5
0.5
Mediana
•
me: F(me)=1/2
Moda
moda
2
i =1
∞
−∞
2
2
i
2
3
Proprietà della varianza
• Var X = µ 2 − µ 2
• Var a ⋅ X + b = a 2 ⋅ Var X
• Disuguaglianza di Chebyshev
a f
a f
a f =σ
a
f
R| ∑ a x − µ f ⋅ pa x f v.c.dis.
=S
|T z a x − µ f ⋅ f a xf ⋅ dx v.c.cont. Pb X − µ ≤ ε g ≥ 1 − σε
k
2
µ3
a f
= Ea X − µf = 0
= E a X − µf = σ
= E a X − µf
x
Varianza
Var X = µ 2 = E X − µ
σ
µ1
µ2
x
me
•
E(X)= u
i
2
2
f(x)
x
E(X)
Scarto quadratico medio:
σ = Var X
a f
Elementi di Calcolo delle probabilità
a f
2
2
f(x)
µ-ε µ µ+ε
x
Slide 16
v.c. standardizzata
Z=
X −µ
σ
Momenti della v.c. standardizzata
r
X −µ
r
µr = E Z = E
a f FH X σ− µ IK = σ1 ⋅ E a X − µ f =
•
1
= ⋅ Ea X f − µ = 0
•
σ
E Z =E
LF X − µ I OP =
Var Z = E M
NH σ K Q
σ
1
=
⋅ E a X − µf =
=1
σ
σ
2
2
2
•
µ1
µ2
µ3
O
L
F
I
d i MNH σ K PQ
= E aZ f = 0
= E d Z i = Var a Z f = 1
L
X − µI O
F
= EM
HN σ K PQ=β
2
3
1
asimmetria
2
2
µ3 < 0
µ3 = 0
µ3 > 0
γ 2 = µ 4 − 3 → curtosi
Elementi di Calcolo delle probabilità
Slide 17
v.c. doppie
Una variabile casuale doppia è una
funzione (...) definita sullo spazio
campione che associa ad ogni evento
una coppia di valori reali (X, Y)
y
x1
x2
x
xk
Pk 1 Pk 2 ⋅⋅⋅ Pkh
P•1 P•2 ⋅⋅⋅ P• h
P11 P12 ⋅⋅⋅ P1h
P21 P22 ⋅⋅⋅ P2 h
P1•
P2•
xk
Pk 1 Pk 2 ⋅⋅⋅ Pkh
P•1 P•2 ⋅⋅⋅ P• h
Pk •
a
f c
Pij = P X = xi ∩ Y = y j
h
h
2) ∑ ∑ Pij = 1
i =1 j =1
Distribuzioni condizionate
d
i
P a X = x f ∩ cY = y h
P
=
=
P
PcY = y h
P X = xi Y = y j =
P1•
P2•
i
j
Pk •
i
ij
•j
j
a f c h
P = Pa X = x f =
= ∑ P a X = x f ∩ cY = y h = ∑ P
c
h
P cY = y h ∩ a X = x f
P
=
=
Pa X = x f
P
P Y = y j X = xi =
j
i
i
ij
i•
h
h
j =1
y1 y2 ⋅⋅⋅ yh
x1
x2
k
Pij = P X = xi ∩ Y = y j
i•
Y: y1, y2,..., yh
1) Pij ≥ 0
y1 y2 ⋅⋅⋅ yh
P11 P12 ⋅⋅⋅ P1h
P21 P22 ⋅⋅⋅ P2 h
Y
X
• Distribuzione congiunta
• Distribuzione marginale
• Distribuzione condizionata
→Discrete/continue
Distribuzioni marginali
X
X: x1, x2, .., xk
altezza
peso
Y
v.c. doppie discrete
Distribuzioni marginali
i
j
j =1
Elementi di Calcolo delle probabilità
ij
Slide 18
Indipendenza stocastica
Variabili casuali doppie continue
i a
h c
d
c
f
h
P X = xi Y = y j = P X = xi = Pi • Funzione
densità di
P Y = y j X = xi = P Y = y j = P• j probabilità
congiunta.
a
f c h
= Pa X = x f ⋅ PcY = y h
P X = xi ∩ Y = y j =
i
j
Pij = Pi• ⋅ P• j
∀ i=1,2,..., k
j=1,2, ...,h
Indipendenza stocastica
v.c. doppie
f(x,y)
1) f(x,y)≥0
2)
z z f a x, yf ⋅ dx ⋅ dy = 1
+∞ +∞
−∞ −∞
a f z f a x, yf ⋅ dy
f a y f = z f a x , y f ⋅ dx
Funzioni
densità di
probabilità
marginali
fX x =
Y
Momenti
v.c. doppie
−∞
+∞
−∞
µr,s momento misto
di ordine r+s
d
µ r ,s = E X r ⋅ Y s
X ed Y
indipendenti
+∞
i
v.c. discrete
k
h
µ r , s = ∑ ∑ xir ⋅ y sj ⋅ Pij
i = 1 j =1
v.c. continue
µ r ,s =
f(x,y)= fX(x) fY(y)
z z x ⋅ y ⋅ f a x, yf ⋅ dx ⋅ dy
+∞ +∞
r
s
−∞ −∞
Momenti marginali
µ r ,0 = E X r ⋅ Y 0 = E X r = µ r •
µ 0,s
Elementi di Calcolo delle probabilità
d
= Ed X
0
i d i
⋅ Y i = E dY i = µ
s
s
•s
Slide 19
Valore atteso→Operatore Lineare
Momenti in caso di indipendenza
d
i
a
µ r , s = E X r ⋅ Y s = ∑ ∑ xir ⋅ y sj ⋅ Pij =
k
af
Dimostrazione
= ∑ ∑ xir ⋅ y sj ⋅ Pi • ⋅ P• j =
=
a f
i = 1 j =1
h
i = 1 j =1
h
k
r
s
∑ xi ⋅ Pi • ∑ y j
i =1
j =1
r
s
f
= E a ⋅ X + b ⋅Y = a ⋅ E X + b ⋅ E Y
h
k
a
f
E a ⋅ X + b ⋅Y =
⋅ P• j =
k
h
c
h
= ∑ ∑ a ⋅ xi + b ⋅ y j ⋅ Pij =
d i ⋅ E dY i =
i =1 j =1
=E X
= µ r• ⋅ µ•s
k
h
k
h
= ∑ ∑ a ⋅ xi ⋅ Pij + ∑ ∑ b ⋅ y j ⋅ Pij =
i =1 j =1
i =1 j =1
k
h
h
k
i =1
j =1
j =1
i =1
= a ⋅ ∑ xi ∑ Pij ⋅ +b ⋅ ∑ y j ∑ Pij =
k
h
i =1
j =1
= a ⋅ ∑ xi Pi • ⋅ +b ⋅ ∑ y j P• j =
a f
af
= a⋅ E X +b⋅ E Y
Covarianza
Cov X , Y = E X − µ X ⋅ Y − µ Y
a f
a
fa
Coefficiente di correlazione
=
X − µX
Y − µY
f
a f LMFGH
N
ρ X ,Y = E
= σ XY
a
µ XY = E X ⋅ Y
σ XY = µ XY − µ X ⋅ µ Y
f
X ed Y ind. ⇒σ XY = 0
a
σY
σ XY
σ X ⋅σ Y
IJ OP =
KQ
a f
ρ X , Y è un indice che misura
l’intensità del legame lineare
f
Cov a ⋅ X + b, c ⋅ Y + d = a ⋅ c ⋅ σ X Y
Diseguaglianza di Cauchy-Schwaz:
σ XY ≤ σ X ⋅ σ Y
σ 2X = Var X
2
σ XY rivela se esiste σ Y
il segno del legame
lineare
=
σX
IJ ⋅ FG
KH
a f
= Var aY f
ρ=0,7
ρ=1
ρ=0
ρ=-0,8
È un indice di prevedibilità
Elementi di Calcolo delle probabilità
Slide 20
Varianza di a⋅X+b⋅Y
Proprietà ρ(X,Y)
a f
a f
a f a f
a
f a f
a f
1) ρ X , Y ≤ 1
2) ρ X , Y = ±1 ⇒ Y = a ⋅ X + b
3) ρ X , Y = ρ Y , X
4) ρ a ⋅ X + b, c ⋅ Y + d = ρ X , Y
5) X ed Y ind. ⇒ ρ X , Y = 0
a
a f
⋅ Var aY f + 2 ⋅ a ⋅ b ⋅ Cova X , Y f
f
Var a ⋅ X + b ⋅ Y = a 2 ⋅ Var X +
+b 2
X ed Y ind
⇓
Var a ⋅ X + b ⋅ Y = a 2 ⋅ Var X +
a
f
+b 2
a f
⋅ Var aY f
Combinazioni lineari
Combinazioni lineari
a⋅X+b⋅Y
W=a1⋅X1+a2⋅X2+...+anXn
a
a
f
E a ⋅ X + b ⋅ Y = a ⋅ µ X + b ⋅ µY
f
Var a ⋅ X + b ⋅ Y = a
2
⋅ σ 2X
+b
2
⋅ σ Y2
+
a f
+2 ⋅ a ⋅ b ⋅ σ XY
X+Y
a
f
E X + Y = µ X + µY
a
f
Var X + Y = σ 2X + σ Y2 +
+2 ⋅ σ XY
X-Y
a
f
E X − Y = µ X − µY
a
f
Var X − Y =
σ 2X
+ σ Y2
a f
n
n
E W = ∑ ai ⋅ E X i = ∑ ai ⋅ µ X i
a f
i =1
F
H
i =1
I
K
n
a f
µ Xi = E Xi
Var W = Var ∑ ai ⋅ X i =
n
i =1
n
= ∑ ai2 ⋅ σ 2X i + ∑ ∑ ai ⋅ a j ⋅ σ X i X j
i =1
+
−2 ⋅ σ XY
i =1 j ≠ i
a f
= Covc X , X h
σ 2X i = Var X i
σ Xi X j
i
j
Se le Xi sono indipendenti
Var aW f = Var F ∑ a ⋅ X I = ∑ a
H
K
n
i =1
Elementi di Calcolo delle probabilità
n
i
i
i =1
2
i
⋅ σ 2X i
Slide 21
Variabile casuale Normale
X ~ N µ ,σ 2
d i
1
f d x; µ , σ i =
e
2 ⋅π ⋅σ
2
F
H
v.c. Normale
I
K
1 x−µ 2
−
2 σ
µ−3σ
µ+3σ
99.7%
µ−2σ
µ+2σ
95.46%
µ−σ 68.26% µ+σ
−∞ < X < +∞
µ = E X , − ∞ < µ < +∞
σ 2 = Var X , 0 < σ 2 < +∞
Simmetrica
µ3 = 0
Unimodale
a f
a f
µ
µ=mediana
µ=moda
x
µ 4 = 3 ⇒ curtosi µ 4 − 3 = 0
v.c. Normale Standard
Z ~ N 0,1
a f
af
Aree Z~N(0,1)
a
f af
a
f
a
f bg
P Z≤z =Φ z
1
− z2
1
φ z =
e 2
2 ⋅π
af z af
z
z
af
P Z > z = 1− Φ z
Φ z = φ x ⋅ dx
z
−∞
af a
f
Φ z = P Z ≤ z ⇒ Tavole
P Z>z =Φ z
z2
af
−
1
φ z =
e 2
2 ⋅π
z
Z<0
a
f
bg
P Z ≤ z = 1− Φ z
z
Z<0
0
z
Elementi di Calcolo delle probabilità
a
f
P z1 < Z ≤ z2 =
a f af
= Φ z2 − Φ z1
z1
z2
Slide 22
Teorema
Uso tavole
Sia X ~ N µ X ,σ 2X
X ~ N µ X ,σ 2X
una v.c. Y trasformazione lineare di X:
P X ≤x
Y = a⋅ X +b
è ancora una v.c. Normale di parametri
µ Y = a ⋅ µ X + b; σ Y2 = a 2 ⋅ σ 2X
Y ~ N a ⋅ µ X + b, a 2 ⋅ σ 2X
0
x
Nota
P X ≤ x = P X −µ≤ x−µ =
X −µ 1
µ
= X−
X −µ x−µ
x−µ
d
i
d
d
Z=
σ
σ
d
X ~ N µ X ,σ 2X
X −µ
σ
a f
a f=?
i
a
σ
i
Fµ
~ NG
Hσ
⇓
X
f a
F ≤
H σ
F x − µI
=Φ
H σ K
=P
i
IJ
K
µ X σ 2X
−
,
=
σ σ 2X
f
I = PF Z ≤
K H
σ
σ
I ==
K
= N 0,1
Proprietà riproduttiva della
Normale
⇒ X ~ N µ X ,σ 2X
d
i
⇒Y ~ N d µ , σ i
Y
2
Y
X ed Y indipendenti
W=a⋅X+b⋅Y
2
⇒W ~ N µ W ,σ W
d
i
µW = a ⋅ µ X + b ⋅ µ Y
σ W2 = a 2 ⋅ σ 2X + b2 ⋅ σ Y2
Esempio: Proprietà riproduttiva
⇒ X ~ N µ X ,σ 2X
d
i
⇒Y ~ N d µ , σ i
X ed Y indipendenti
d
X + Y ~ N µ X + µ Y ,σ 2X + σ Y2
Generalizzazione
Date le v.c. X1, X2,⋅⋅⋅⋅⋅,Xn dove
X i ~ N µ , σ 2 ∀i
se tali v.c. sono indipendenti
d
n
i
d
2
∑ Xi ~ N n ⋅ µ X , n ⋅ σ X
i =1
Elementi di Calcolo delle probabilità
2
Y
Y
i
Slide 23
i
v.c. Indicatore/Bernulliana
Esperimento con
risultato
dicotomico
v.c. Indicatore/Bernulliana
a f
X
0
1
X ~ B 1, p
F(x)
P(X)
1-p=q
p
1
a f RST10 ↔↔ SI
v.c. Bernoulliana
X ~ Ba1, pf
1-p
X=I S =
X
0
1
P(X)
1-p=q
p
p=P(S)
q=P(I)
0
1
x
a f a f
E d X i = 0 ⋅ a1 − pf + 1 ⋅ p = p
Var a X f = E d X i − E a X f =
= p − p = p ⋅ a1 − pf
µ = E X = 0 ⋅ 1 − p + 1⋅ p = p
2
2
2
2
2
2
v.c. Binomiale
1)
2)
3)
v.c. Binomiale B(n,p)
X=0,1,....,n
n x
P X=x =
p ⋅ 1− p
x
Y1 , Y2 ,....., Yn indipendenti
n prove indipendenti
risultato dicotomico
probabilità p costante
X: numero di successi (in n prove)
X ~ B n, p
a xf
SSSSS
px
n− x
IIIIIIII
a1 − pf
F nI
Pa X = x f = G J p ⋅ a1 − pf
H xK
n− x
x
f FGH IJK a f
a
n− x
X = ∑Y
a f
E a X f = E aY + Y +.....+Y f =
= E aY f + E aY f+...+ E aY f = n ⋅ p
n
Yi = B 1, p
i =1
1
1
a f
2
2
i
n
n
a
f
= Var aY f+...+Var aY f =
= n ⋅ p ⋅ a1 − pf
Var X = Var Y1 + Y2 +.....+Yn =
n− x
Elementi di Calcolo delle probabilità
1
n
Slide 24
v.c. Poisson
X ~ P(µ )
X intero
0 ≤ X < +∞
X=0,1,2,3...
P( X ) =
µx
x!
e− µ
µ=0,5
µ=1
0 1 2 3 4
0 1 2 3 4
µ=4
0 1 2 3 4 5 6 7 8
E ( X ) = Var ( X ) = µ
v.c. Esponenziale Negativa
X ~ Exp λ
• X ≥0
• f x; λ = λ ⋅ e − λ ⋅ x λ > 0
af
a f
f a x; λ f
λ
x
af
af λ
1
⇒Var a x f =
λ
• F x = 1 − e− λ ⋅x
1
• E x =
2
Elementi di Calcolo delle probabilità
Processo di Poisson
Processo di conteggio
• Le v.c. che contano il numero di
eventi in intervalli disgiunti sono
indipendenti
• La probabilità che si verifichi un
evento in un intervallo piccolo è
proporzionale all’ampiezza
dell’intervallo
• La probabilità che si verifichi più
di un evento in un intervallo piccolo è trascurabile
X →numero di eventi in (0,t)
X ~ P ( µ ) con µ=λ⋅t
µ= numero medio di eventi in (0,t)
λ= numero medio di eventi in un ∆t
unitario
Momenti della media
X1, X2,⋅⋅⋅⋅⋅,Xn
Indipendenti
• E Xi = µ
• Var X i = σ 2 < +∞
a f
a f
Xn =
1 n
∑ Xi
n i =1
⇒E( Xn ) = µ
⇒Var ( X n ) =
σ2
n
Slide 25
Momenti della media
1 n
X n = ∑ Xi =
n i =1
1
1
1
= X 1 + X 2 +.....+ X n
n
n
n
a f
b g
Teorema del limite centrale
X1, X2,⋅⋅⋅⋅ ,Xn
• Indipendenti
• E X i = µ ∀i
• Var X i = σ 2 < +∞ ∀i
a f
a f
a f
1
1
E X 1 +.....+ E X n =
n
n
1
1
1
= µ +.....+ µ = ⋅ n ⋅ µ = µ
n
n
n
E Xn =
a f
b g
a f
1
1
Var X 1 +.....+ 2 Var X n =
2
n
n
σ2
1 2
1 2 1
2
= 2 σ +.....+ 2 σ = 2 ⋅ n ⋅ σ =
n
n
n
n
Var X n =
1 n
def. X n = ∑ X i
n i =1
b g
σ
Var b X g =
n
E Xn = µ
2
n
Xn − µ
Zn =
σ n
⇓
Zn
~ N ( 0,1)
n→∞
Teorema di De Moivre Laplace
X ~ B ( n, p )
a f
Var a X f = n ⋅ p ⋅ a1 − pf
E X = n⋅ p
Zn =
X − n⋅ p
n ⋅ p ⋅ (1 − p )
⇓
~ a f
Zn n→∞N 0,1
Elementi di Calcolo delle probabilità
Slide 26