La distribuzione binomiale
Detta anche di Bernoulli
o delle prove ripetute
(seguirà anche la presentazione della
distribuzione di Poisson o dei casi rari)
La variabile aleatoria x è discreta
Considerando n prove ripetute il cui esito può
verificare una proposizione (evento) con una
probabilità p , allora la probabilità Pn(x) che si
verifichi x volte l’evento è data da:
 n  x n x
Pn x     p q
 x
Essendo q = 1 – p la probabilità contraria al
verificarsi dell’evento.
Come si dimostra
Nell’ipotesi che le prove siano indipendenti,
cioè che il verificarsi dell’evento E non modifichi la
probabilità con cui può verificarsi nella prova
successiva,
allora:
L’evento composto “E si è verificato x volte e
(quindi) non si è verificato (n – x) volte”
ha probabilità data dalla somma di tutte le
probabilità in cui si possono combinare le n prove
negli x successi o,
che è lo stesso, in cui si possono combinare le n
prove negli (n – x) insuccessi.
Qualche spiegazione in più …
Calcolo della probabilità che nelle n ripetizioni
l’evento E (che ha probabilità p di verificarsi) si sia
verificato nelle prime x ripetizioni:
P(EE … EE E… E) =
x volte
(n – x) volte
= pp…pqq…q = pxqn-x
x volte
(n – x) volte
La probabilità che l’evento E si sia verificato
x volte indipendentemente dall’ordine:
P( permutazioni _ n _ esiti ) 
x n x
x n x
p
q

n
!
p
q

permutazioni
deg li _ n _ esiti
Tuttavia nelle permutazioni degli n esiti ci sono anche le
x! permutazioni e le (n-x)! permutazioni in ogni
combinazione: EE EE EEE la
combinazione non cambia se permuto le E o le E
Ecco perché:
n!
Pn x  
p x q n x
x!(n  x)!
Un esempio con n = 20 , p = 1/6
Bernoulli
0.25
0.2
0.15
0.1
0.05
0
0
4
8
12
16
20
Il valore medio di una variabile
binomiale è np (=)
• Dimostrazione:
n
 n  x n x n
n!
n!
x n x
x n x


x
p
q

x
p
q

p
q 



 x
x!(n  x)!
x 0  
x 1
x 1 ( x  1)! ( n  x)!
n
• Posto k = x – 1  x = k + 1 , la somma diventa:
n 1
n 1
n!
p
n!
k 1 n  k 1
k nk


p
q

n

k
p
q 


q k 0
k!(n  k )!
k  0 k!( n  k  1)!
n

p n
n!
p n
n!
n!
k nk
k nk
  n  k 
p q  n
p q  k
p k q nk  
q k 0
k!(n  k )!
q  k 0 k!(n  k )!
k 0 k!( n  k )!

Riassumendo:
Si ha che:
n
 n  x n x p 
 n  k nk 
x  p q  n   k   p q 

q  k 0  k 
x 0  x 

n
Ovvero:
Quindi:

p  n  n  x n x
p
1   x  p q  n
q
 q  x 0  x 
 n  x n x
p q
x  p q  n 
 np

q pq
x 0  x 
n
La varianza di una variabile binomiale
è npq
• Dimostrazione:
 n  x n x n 2
n!
2
x n x






x


p
q

x

2

x


p
q 


 x
x!(n  x)!
x 0
x 0
 
n
2
n
n!
x
p x q n  x  2    2 
( x  1)!(n  x)!
x 1
n
n!
(n  k )  n! k 1 n  k 1 2
k 1 n  k 1
2
  (k  1)
p q
    (k  1)
p q

k!(n  k  1)!
k!(n  k )!
k 0
k 0
n 1
continuazione
p n
n!
k nk 
  (k  1)( n  k )
p q   2 
q  k 0
k!(n  k )!

p n
n!
2
k nk 
  nk  k  n  k 
p q   2 
q  k 0
k!(n  k )!

n
n

p
n!
n!
k nk
 n  1 k
p q  k2
p k q n k  n  2 
q
k!(n  k )!
k!(n  k )!
k 0
k 0

Quindi:
n

 2
n
!
p
n!
2
x n x
2
k nk
x
p q  n  1np   k
p q  n  

x!(n  x)!
q
k!(n  k )!
x 0
k 0

n
infine

p n 2
n!
p 2
x n x
1   x
p q  n p  np  n 2
q
 q  x 0 x!(n  x)!
Quindi:

n

n!
p q
x n x
2
2
x
p
q

n
p

np

n




x!(n  x)!
q pq
x 0
2
 n p  np  np  np   np(1  p)  npq
2
2
2
2
Il massimo di probabilità si ha
in x = int[p(n+1)]
Valutiamo la differenza di probabilità tra due valori
successivi x e x + 1 :
• dP = P n (x+1) – P n (x) =

n!
n!
p x 1q n x 1 
p x q n x 
( x  1)!(n  x  1)!
x!(n  x)!
• Raccogliendo a fattor comune:

n!
p x q n  x 1n  x  p  x  1q 
( x  1)!(n  x)!
continuazione
n!

p x q n  x 1np  xp  xq  q 
( x  1)!(n  x)!
Ricordando che q = 1 – p e che p + q = 1 :
n!

p x q n  x 1np  x  1  p
( x  1)!(n  x)!
La differenza P n (x+1) – P n (x) risulta maggiore di
zero finché risulta: x < p(n+1) – 1
Quindi per x = int[p(n+1)] la probabilità è
massima
Nel caso in cui np  10 e n > 50
La distribuzione di Bernoulli è approssimata molto
bene dalla distribuzione di Poisson:
P ( x)  e


x
x!
In cui con  si è indicato il valor medio
N.B.: n > 50 e np  10 sono condizioni che
approssimano le ipotesi n   e p  0 da cui la
distribuzione di Bernoulli diviene quella di Poisson
Il caso n = 100 , p = 1/6 è così così
Il caso n = 100 , p = 1/20 va meglio
Dimostrazione
Sostituendo p = /n alla distribuzionen P n (x) :
n!
  
Pn ( x) 
1 
x 
x!(n  x)! n  n 
x
n x

 

n n  1 n  x  1         

...
1   1  
n n
n
x!  n   n  


x
x
n


Nel limite n   ( p  0 ma con np = )
Si ottiene proprio la distribuzione di Poisson.
La distribuzione di Poisson è detta
anche dei casi rari
Esempi:
• Probabilità che una squadra in un campionato
faccia x gol per partita
• Probabilità che un nucleo radioattivo decada
in un secondo
Il valore medio della variabile di
Poisson è 
Dimostrazione:


x
 xe

x!
x 0
e



x
 x 1! 
x 1
Effettuando la sostituzione k = x – 1  x = k + 1
e



k 0

k 1
k!

 e  

k 0

k
k!


 e  e  
La varianza della variabile di Poisson è
sempre 
Dimostrazione:

 x    e
2
x 0
e




x
x!

x
e


x
x 1
 x x 1!  2e


x
2
x!

 2e


 x x!  
x 1
e   
2
x 1
Con la solita sostiutzione k = x – 1 …

x
2

K=x–1x=k+1
si ottiene:
k 1
k
k



 2



2

 e  k  1
   e   k      
k!
k 0
 k 0 k! k 0 k! 






 e  e  e          
2
2
2
Il massimo di probabilità si ha
in k = int[-1]
Valutiamo la differenza di probabilità tra due valori
successivi x e x + 1 :
• dP = P(x+1) – P(x) =
x 1
x
x





  x  1
 e  
   e 
( x  1)!
 ( x  1)! x! 
La differenza P(x+1) – P(x) risulta maggiore di zero
finché risulta: x <  – 1
Quindi per x = int[ – 1] la probabilità è massima
L’esempio dei gol
L’istogramma
L’esempio del decadimento radioattivo
Dalla legge dedotta sperimentalmente:
dN = – Ndt
si è ricavata la legge: N = N0e–t
Ove N0 è il numero di nuclei radioattivi presenti
all’istante iniziale (t = 0)
La probabilità che uno degli N0 nuclei decada tra
t e t + dt è:
 t
dN
N0

N 0e dt
N0
 e t dt
Per t = 1 e dt = 1 si ha:
P(un decadimento tra 1 e 2 secondi) = e-
Che corrisponde alla probabilità di un caso raro
con valore medio 