La distribuzione binomiale Detta anche di Bernoulli o delle prove ripetute (seguirà anche la presentazione della distribuzione di Poisson o dei casi rari) La variabile aleatoria x è discreta Considerando n prove ripetute il cui esito può verificare una proposizione (evento) con una probabilità p , allora la probabilità Pn(x) che si verifichi x volte l’evento è data da: n x n x Pn x p q x Essendo q = 1 – p la probabilità contraria al verificarsi dell’evento. Come si dimostra Nell’ipotesi che le prove siano indipendenti, cioè che il verificarsi dell’evento E non modifichi la probabilità con cui può verificarsi nella prova successiva, allora: L’evento composto “E si è verificato x volte e (quindi) non si è verificato (n – x) volte” ha probabilità data dalla somma di tutte le probabilità in cui si possono combinare le n prove negli x successi o, che è lo stesso, in cui si possono combinare le n prove negli (n – x) insuccessi. Qualche spiegazione in più … Calcolo della probabilità che nelle n ripetizioni l’evento E (che ha probabilità p di verificarsi) si sia verificato nelle prime x ripetizioni: P(EE … EE E… E) = x volte (n – x) volte = pp…pqq…q = pxqn-x x volte (n – x) volte La probabilità che l’evento E si sia verificato x volte indipendentemente dall’ordine: P( permutazioni _ n _ esiti ) x n x x n x p q n ! p q permutazioni deg li _ n _ esiti Tuttavia nelle permutazioni degli n esiti ci sono anche le x! permutazioni e le (n-x)! permutazioni in ogni combinazione: EE EE EEE la combinazione non cambia se permuto le E o le E Ecco perché: n! Pn x p x q n x x!(n x)! Un esempio con n = 20 , p = 1/6 Bernoulli 0.25 0.2 0.15 0.1 0.05 0 0 4 8 12 16 20 Il valore medio di una variabile binomiale è np (=) • Dimostrazione: n n x n x n n! n! x n x x n x x p q x p q p q x x!(n x)! x 0 x 1 x 1 ( x 1)! ( n x)! n • Posto k = x – 1 x = k + 1 , la somma diventa: n 1 n 1 n! p n! k 1 n k 1 k nk p q n k p q q k 0 k!(n k )! k 0 k!( n k 1)! n p n n! p n n! n! k nk k nk n k p q n p q k p k q nk q k 0 k!(n k )! q k 0 k!(n k )! k 0 k!( n k )! Riassumendo: Si ha che: n n x n x p n k nk x p q n k p q q k 0 k x 0 x n Ovvero: Quindi: p n n x n x p 1 x p q n q q x 0 x n x n x p q x p q n np q pq x 0 x n La varianza di una variabile binomiale è npq • Dimostrazione: n x n x n 2 n! 2 x n x x p q x 2 x p q x x!(n x)! x 0 x 0 n 2 n n! x p x q n x 2 2 ( x 1)!(n x)! x 1 n n! (n k ) n! k 1 n k 1 2 k 1 n k 1 2 (k 1) p q (k 1) p q k!(n k 1)! k!(n k )! k 0 k 0 n 1 continuazione p n n! k nk (k 1)( n k ) p q 2 q k 0 k!(n k )! p n n! 2 k nk nk k n k p q 2 q k 0 k!(n k )! n n p n! n! k nk n 1 k p q k2 p k q n k n 2 q k!(n k )! k!(n k )! k 0 k 0 Quindi: n 2 n ! p n! 2 x n x 2 k nk x p q n 1np k p q n x!(n x)! q k!(n k )! x 0 k 0 n infine p n 2 n! p 2 x n x 1 x p q n p np n 2 q q x 0 x!(n x)! Quindi: n n! p q x n x 2 2 x p q n p np n x!(n x)! q pq x 0 2 n p np np np np(1 p) npq 2 2 2 2 Il massimo di probabilità si ha in x = int[p(n+1)] Valutiamo la differenza di probabilità tra due valori successivi x e x + 1 : • dP = P n (x+1) – P n (x) = n! n! p x 1q n x 1 p x q n x ( x 1)!(n x 1)! x!(n x)! • Raccogliendo a fattor comune: n! p x q n x 1n x p x 1q ( x 1)!(n x)! continuazione n! p x q n x 1np xp xq q ( x 1)!(n x)! Ricordando che q = 1 – p e che p + q = 1 : n! p x q n x 1np x 1 p ( x 1)!(n x)! La differenza P n (x+1) – P n (x) risulta maggiore di zero finché risulta: x < p(n+1) – 1 Quindi per x = int[p(n+1)] la probabilità è massima Nel caso in cui np 10 e n > 50 La distribuzione di Bernoulli è approssimata molto bene dalla distribuzione di Poisson: P ( x) e x x! In cui con si è indicato il valor medio N.B.: n > 50 e np 10 sono condizioni che approssimano le ipotesi n e p 0 da cui la distribuzione di Bernoulli diviene quella di Poisson Il caso n = 100 , p = 1/6 è così così Il caso n = 100 , p = 1/20 va meglio Dimostrazione Sostituendo p = /n alla distribuzione P n (x) : n! Pn ( x) 1 x x!(n x)! n n x n x n n 1 n x 1 ... 1 1 n n n x! n n x x n Nel limite n ( p 0 ma con np = ) Si ottiene proprio la distribuzione di Poisson. La distribuzione di Poisson è detta anche dei casi rari Esempi: • Probabilità che una squadra in un campionato faccia x goal per partita • Probabilità che un nucleo radioattivo decada in un secondo Il valore medio della variabile di Poisson è Dimostrazione: x xe x! x 0 e x x 1! x 1 Effettuando la sostituzione k = x – 1 x = k + 1 e k 0 k 1 k! e k 0 k k! e e La varianza della variabile di Poisson è sempre Dimostrazione: x e 2 x 0 e x x! x e x x 1 x x 1! 2e x 2 x! 2e x x! x 1 e 2 x 1 Con la solita sostiutzione k = x – 1 … x 2 K=x–1x=k+1 si ottiene: k 1 k k 2 2 e k 1 e k k! k 0 k 0 k! k 0 k! e e e 2 2 2 Il massimo di probabilità si ha in k = int[-1] Valutiamo la differenza di probabilità tra due valori successivi x e x + 1 : • dP = P(x+1) – P(x) = x 1 x x x 1 e e ( x 1)! ( x 1)! x! La differenza P(x+1) – P(x) risulta maggiore di zero finché risulta: x < – 1 Quindi per x = int[ – 1] la probabilità è massima L’esempio dei goal L’istogramma L’esempio del decadimento radioattivo Dalla legge dedotta sperimentalmente: dN = – Ndt si è ricavata la legge: N = N0e–t Ove N0 è il numero di nuclei radioattivi presenti all’istante iniziale (t = 0) La probabilità che uno degli N0 nuclei decada tra t e t + dt è: t dN N0 N 0e dt N0 e t dt Per t = 1 e dt = 1 si ha: P(un decadimento tra 1 e 2 secondi) = e- Che corrisponde alla probabilità di un caso raro con valore medio