SINTESI E PREMESSA
• Nelle situazioni caratterizzate da incertezza “valutazioni”
di diversa natura debbono essere necessariamente
fornite ed espresse in termini probabilistici.
• Il ricorso alle Variabili Casuali e alle corrispondenti
distribuzioni di probabilità agevola la trattazione
probabilistica di tali problemi.
MA:
?
dobbiamo per ogni specifica situazione individuare la
Variabile Casuale che la descrive e la corrisponente
distribuzione di probabilità
Modelli probabilistici
Non è possibile classificare tutti i possibili esperimenti casuali ma esistono
numerosi elementi in comune tra quelli che solitamente sono utilizzati nella
pratica
Esistono degli schemi standard per gli esperimenti e quindi per le v. casuali
a essi associati: tali schemi sono detti modelli probabilistici e sono descritti
mediante famiglie parametriche di variabili casuali
Una FAMIGLIA PARAMETRICA di v.c. è un insieme di variabili
casuali X∼
∼f(x;θ
θ) descritte da un parametro θ appartenente a
un insieme Ω(θ
θ), detto spazio parametrico
Le v. casuali di una famiglia parametrica si distinguono esclusivamente per
lo specifico valore numerico del parametro θ che le distingue
Distribuzione di Bernoulli
Il modello bernoulliano è adatto allo studio di esperimenti
con esiti di tipo “dicotomico”:
SI/NO Bianco/Nero Perde/Vince
Successo/Insuccesso
Tutte le prove che producono solo due possibili risultati generano
v.c. di Bernoulli: il lancio di una moneta, il sesso di un nascituro, il
superamento o meno di un certo livello di inflazione….
E' forse la v. casuale più semplice e serve
come base per lo studio di altre v. casuali
La funzione di distribuzione è immediata:
P ( X = x ) = π (1 − π )
x
1− x
x
1
0
P(X=x)
π
(1−
(1−π)
π
La v. casuale X si distribuisce come una
Bernoulliana di parametro π
Valore atteso e varianza della Bernoulliana
Ricordando che valore atteso e varianza di una v casuale discreta sono
E ( X ) = ∑ x iP ( x i )
V ( X ) =∑ xi -E ( X )  P ( xi )
2
i
i
possiamo calcolare valore atteso e varianza di una var. di Bernoulli
E ( X ) = 1 ⋅ π + 0 ⋅ (1 − π ) = π
VAR ( X ) =E(X2 )-[E(X)]2 =
= 1 ⋅ π + 0 (1 − π ) − π = π − π = π ⋅ (1 − π )
2
2
2
2
Consideriamo ora un caso più generale di un
esperimento dicotomico ripetuto più volte (n volte)
con π probabilità di successo nel singolo esperimento
e prove che sono tra loro indipendenti.
Sia X il n° di successi risultanti dalle n prove.
Evidentemente sarà un intero compreso tra 0 ed n.
Qual è la probabilità di ottenere esattamente x successi
in queste n prove?
Le n prove produrranno una sequenza di n risultati,
ciascuno dei quali sarà un S (successo) o un I
(insuccesso).
Ad esempio una delle possibili sequenze con x successi
ed (n-x) insuccessi potrebbe essere:
SS…S
II…I
(x volte)
(n-x volte)
Poiché le n prove sono indipendenti, la probabilità di
una determinata sequenza con la regola moltiplicativa
della probabilità (tenendo conto che è π la probabilità
di successo in ogni singolo esperimento e (1-π) quella
di insuccesso) è pari al prodotto dei singoli risultati.
La probabilità di osservare la sequenza di risultati
precedente è:
(π ×π ×K×π)×[(1−π)×(1−π)×K×(1−π)] = π (1−π)
x
(x volte)
(n-x volte)
n−x
Ora il problema iniziale non era relativo alla probabilità
di una particolare sequenza, ma alla probabilità di avere
esattamente x successi indipendentemente dall’ordine
dei risultati.
Ci sono diverse sequenze che contengono esattamente
x successi alternati ad (n-x) insuccessi: il loro numero è
dato dalle combinazioni di x oggetti scelti tra n dati:
n!
C =
x !( n − x )!
il precedente risultato va moltiplicato per tale
numero per ottenere la probabilità cercata.
n
x
Questo ragionamento ci porta alla
Distribuzione Binomiale
Nella realtà un esperimento (prova) viene ripetuto n volte: supponiamo che
ciascuna prova abbia solo due possibili risultati successo/insuccesso
Il n° di successi in n prove è una v. casuale discreta X che assume valori {0, 1, … , n}
Per determinarne la distribuzione di probabilità supponiamo che le prove
siano Bernoulliane, indipendenti e con costante probabilità di successo π
P ( X = x ) = π x (1 − π )
n− x
Probabilità di avere un successo nelle prime
x prove (e un insuccesso nelle altre n-x)
Poiché non ci interessa l'ordine di accadimento delle singole prove, è necessario
considerare tutte le sequenze che generano lo stesso numero di successi/insuccessi
SSS SIS SSI
IIS
ISI
...
III
...
...
Coefficiente binomiale
n
n!
 =
 x  x !( n − x )!
n° di combinazioni (sequenze)
di successi e insuccessi in n
prove
numero dei modi in cui si possono scegliere x oggetti su n
Funzione di probabilità della var. Binomiale
n x
n-x
P(X=x)=   ⋅ π (1- π )
x
n, π
La v. casuale X si distribuisce come una
Binomiale di parametro n e π
La distribuzione binomiale dipende da due parametri, n (numero di prove)
e π (prob. di successo): se si modificano l'intera distribuzione di
probabilità cambia
La distribuzione prima cresce e poi
decresce per cui generalmente è una
distribuzione unimodale (un valore
di X è più probabile di altri)
Esercizio
Il 20% dei componenti elettronici prodotti da una certa azienda è difettoso.
Supponendo di estrarre a caso 4 componenti da una linea di produzione,
qual è la probabilità che i componenti difettosi siano:
1) Uno
2) Tutti
3) Nessuno
In questo caso abbiamo n=4 e π=0,20, quindi:
4 ; 0,20
4
4!
24
1
3
P(X=1)=   0,20 ⋅ 0, 80 =
⋅ 0,20 ⋅ 0,512=
⋅ 0,1024 = 0, 41
3!1!
6
1
4
4!
4
0
P(X=4)=   0,20 ⋅ 0, 80 =
⋅ 0,0016=0,0016
4!0!
4
4
4!
0
4
P(X=0)=   0,20 ⋅ 0, 80 =
⋅ 0,41=0,41
0!4!
0
Valore atteso e varianza della Binomiale
La distribuzione Binomiale può essere ottenuta considerando la somma
di v.c. di Bernoulli, indipendenti e identicamente distribuite
Valore atteso
E ( X ) =E ( X1 +X2 +…+Xn ) = π + π + ........ + π = nπ
Varianza
V ( X ) =V ( X1 +X2 +…+Xn ) =
= π (1 − π ) + π (1 − π ) + ..... + π (1 − π ) = nπ (1 − π )
1.
Il valore atteso e la varianza crescono al crescere di n
2.
Per π=0,5 la distribuzione è simmetrica rispetto al valore atteso
3.
Per n→
→+∞
∞ la distribuzione tende ad essere simmetrica rispetto al v. atteso
Grafico della var. Binomiale
0.40
0.35
0.25
n=12
π=0,10
0.30
0.25
0.20
n=12
π =0,30
0.15
0.20
0.10
0.15
0.10
0.05
0.05
0.00
0.00
0 1 2 3 4 5 6 7 8 9 10 11 12
0 1 2 3 4 5 6 7 8 9 10 11 12
0.25
0.20
Per π =0,50 il grafico è
simmetrico intorno alla
moda: x=6
n=12
0.15
0.10
0.05
0.00
0 1 2 3 4 5 6 7 8 9 10 11 12
π =0,50
Funzione di ripartizione
La funzione di ripartizione quantifica la probabilità di avere un numero di
successi inferiori o uguali ad una soglia data
n k
n-k
P(X ≤ x)= ∑   ⋅ π (1- π )
k =0  k 
x
0
1
2
3
4
Esempio
Il monitoraggio di una linea di produzione su un periodo abbastanza lungo ha determinato
che un prodotto su dieci è difettoso. Un cliente effettua un acquisto se, scelti a caso e con
reimmissione cinque prodotti, trova non più di un prodotto difettoso
a) Qual è la probabilità che il cliente compri?
b) In media, quanti prodotti difettosi ci si deve aspettare scegliendone cinque a caso?
a)
b)
Esercizio
Un test consiste di n=25 domande a risposta multipla. Ogni domanda offre 4 scelte di cui
una sola è corretta. Il test si supera se si risponde esattamente a 13 domande (la metà più
uno). Maria è totalmente impreparata, tuttavia vorrebbe tentare il test rispondendo a caso
a tutte le domande. Qual è la probabilità che Maria superi il test?
Le domande sono delle prove bernoulliane con π=0,25
La probabilità cercata è che si verifichino almeno 13
successi su 25 prove
P( Maria supera il test ) = P ( B ≥ 13) = 1 − P( X < 12) =
k
 25   1   3 
= 1 − ∑     
k =0  k   4   4 
12
25 − k
= 1 − 0.9967 = 0.0033