1 1.1 Sulla distribuzione binomiale e le sue code. De…nizione e proprietà qualititive. Sia E (Ek )k2n una famiglia di n eventi stocasticamente indipendenti ed equiprobabili, e sia p la comune probabilità di realizzazione di ciascun evento della famiglia. Se chiamo indiscriminatamente “successo” il realizzarsi di uno qualunque degli eventi (Ek )k2n , e “fallimento” il suo mancato realizzarsi, i numeri aleatori somma di indicatori X X Fn n S n = Ek0 Sn Ek k2n k2n misurano il numero dei successi e quello dei fallimenti incontrati allorché sia risolta l’incertezza relativa alla famiglia E. Denoto Bn;p (bn;p (k))k2n0 la distribuzione di probabilità di Sn , che è chiamata distribuzione binomiale di parametri (n; p), poiché posto q 1 p si ha n bn;p (k) = pk q n k k e vale, in virtù della formula binomiale di Newton, X n bn;p (k) = (p + q) = 1 k2n0 La struttura della distribuzione Bn;p è nota allorché p = 21 = q, in quanto si riduce, a meno del fattore di normalizzazione 2 n , alla sequenza dei coe¢ cienti binomiali nk k2n . Poiché come è noto 0 8k 2 n0 ; n k = n n k le sue componenti sono disposte simmetricamente rispetto a quella/e massima/e, che si trova/no al centro: Mn; 21 max n0 X bn; 12 (k) = k2n0 * b 1 (j) = n; 2 n j 2 n n j bn; 12 (j) = bn; 21 (j + 1) = n 2 se n = 2j se n = 2j + 1 Allorché p varia in (0; 1) la distribuzione Bn;p si altera, ma senza perdere questa proprietà qualitativa “unimodale”. Infatti, il rapporto % (k) tra due componenti adiacenti bn;p (k) = bn;p (k 1) % (k) = = n! (n k)!k! n! (n k+1)!(k 1)! (n pk q n k + 1) p (n + 1) p k (1 = k q kq (n + 1) p k 1+ kq 1 k pk 1 q n k+1 q) 1 p e 1 + p nqnq = nq . è decrescente con k 2 n tra i valori estremi 1 + (n+1)p q Pertanto % (k) si mantiene comunque minore di 1 e, se già vale % (1) < 1, cioè se n< 1 p 1= q p o, equivalentemente, p < 1 n+1 allora Bn;p è a componenti costantemente decrescenti. In caso contrario, cioè per n su¢ cientemente grande, ossia se n q p o, equivalentemente, p 1 n+1 il rapporto tra le componenti adiacenti di Bn;p è inizialmente maggiore di 1, per divenire poi minore di 1 non appena l’indice k “abbia attraversato” la soglia1 (n + 1) p. Se tale soglia è un numero intero mn;p , vi sono due uguali componenti massime di Bn;p , precisamente bn;p (mn;p ) e bn;p (mn;p 1). Altrimenti, la componente massima è quella di massimo indice inferiore a (n + 1) p, cioè l’indice b(n + 1) pc (parte intera inferiore di (n + 1) p). Per de…nizione di parte intera inferiore, b(n + 1) pc = (n + 1) p quando (n + 1) p è intero, e quindi b(n + 1) pc (n + 1) p < b(n + 1) pc + 1 Ne segue che in entrambi i casi la posizione mn;p b(n + 1) pc identi…ca l’indice del massimo di Bn;p ; questo valore massimo è tuttavia raggiunto anche per l’indice precedente se mn;p = (n + 1) p, cioè se (n + 1) p è intero. q Proposizione: 1. Se n p , la distribuzione Bn;p è a componenti strettamente decrescenti, con la possibile eccezione delle prime due, che coincidono se n = pq . 2. Se n > pq , allorché k cresce tra 0 e n, i termini della sequenza …nita (bn;p (k))k2n0 prima aumentano e poi diminuiscono. 1 Nell’ipotesi fatta, la soglia (n + 1) p è appunto maggiore o uguale ad 1. 2 1.2 Media e varianza della distribuzione binomiale E (Sn ) = X k bn;p (k) = = k2n = X n! k pk q n (n k)!k! X n k 1 1 k2n X = np n 1 X k 2 bn;p (k) = k2n0 = np X n k k k2n = np X 1 1 = np @ X h2(n 1)0 = np ((n 1 q (n 1) (k 1) 1 1 ph q n 1 h ph q n h k 1 h 1 h + X h2(n 1)0 1) p + 1) = np (np + q) var (Sn ) = E Sn2 1.3 h k 1) (k 1) ph q n pk q n h n q (n n k n h2(n 1)0 0 k k2 pk (h + 1) 1 k = np k2n0 X 1 h = np (p + q) = pk n h2(n 1)0 E Sn2 pk q n (n 1)! pk q n (n k)! (k 1)! n k2n = np n k k k2n0 k2n0 X X E 2 (Sn ) = np (np + q) n 1 h ph q n n2 p2 = npq Una stima della probabilità che si veri…chino almeno r successi, allorché r è maggiore di np. Voglio ottenere una stima (per eccesso) della “coda destra” della distribuzione Bn;p , cioè della probabilità dell’evento (Sn r) allorché r è maggiore2 di np (e di mn;p ). A tal …ne procedo ad una maggiorazione delle componenti (bn;p (k))k2n\(r 1)c mediante quelle corrispondenti di una progressione geometrica, sostituendo (k) (che varia con k) con un numero indipendente da k, ma 2 S’intende che non ha senso parlare di stima se la coda si riduce al solo ultimo termine (che basta calcolare direttamente); pertanto posso anche supporre r < n. 3 1 1 hA sempre strettamente compreso tra (k) e 1. Tale numero è 1+ np r rq Infatti, per k > r > np, si ha 1+ np r (n + 1) p >1+ rq kq k np r (n + 1) p k > rq kq nkp rk > r (n + 1) p rk nk > r (n + 1) r k>r+ n () () () () dove la disuguaglianza …nale, per essere k ed n due interi, e veri…cata. Posso trarre una prima conseguenza: prob (Sn r) = < n X k=r +1 X bn;p (k) < n X bn;p (r) 1 + k=r bn;p (r) 1 + k=r np r rq r n np r rq k r = bn;p (r) minore di 1, è k r rq np r Per rendere la stima realmente signi…cativa devo ancora stimare bn;p (r); valore che è maggiorato da tutte le componenti di Bn;p il cui indice è compreso tra m ed r 1. Poiché tali indici non esauriscono l’insieme di quelli che descrivono la distribuzione, posso scrivere 1> r X r X bn;p (k) > k=mn;p bn;p (r) = (r mn;p + 1) bn;p (r) k=mn;p pervenendo così alla stima bn;p (r) < r 1 (mn;p 1) < 1 r np dove ho tenuto conto che la posizione reciproca di np e mn;p = b(n + 1) pc non è determinata, ma vale senz’altro mn;p 1 < mn;p p = b(n + 1) pc In conclusione, prob (Sn 1.4 r) < p rq (np 2 r) (n + 1) p p = np (r > np) Una stima della probabilità che non si veri…chino più r successi, allorché r è minore di np. Una analoga stima della “coda sinistra”della distribuzione binomiale Bn;p , cioè della probabilità dell’evento (Sn r), risulta immediatamente disponibile grazie 4 alla conclusione appena raggiunta. Infatti, a¤ermare che il numero dei successi non supera r equivale ad a¤ermare che il numero dei fallimenti non è inferiore a n r; posso allora applicare il procedimento del precedente paragrafo al numero aleatorio Fn , sostituendo r con n r, la probabilità di successo p con quella di fallimento q, e l’ipotesi r > np (così come l’ipotesi r > mn;p ) con l’ipotesi n r > nq, che diviene pertanto r < np (risp. n r > mn;p cioè r < n mn;p ). Ottengo prob (Fn n r) < rp (nq 2 n + r) e in de…nitiva prob (Sn 1.5 r) < = rp (np 2 r) rp (r 2 np) (r < np) (r < np) La legge “debole” dei grandi numeri per la distribuzione binomiale La stima delle code appena raggiunta assume un aspetto ancora più signi…cativo qualora si passi a considerare la famiglia di numeri aleatori Snn n2N , ciascuno dei quali conta il “numero medio di successi”. Come Sn , così anche Snn è descritto dalla distribuzione Bn;p ; essa però è riferita al dominio nk k2n anziché al 0 dominio n0 . In questo modo tutti i numeri aleatori della famiglia Snn n2N hanno dominio contenuto nell’intervallo [0; 1], ed è possibile “confrontare meglio” tra loro le distribuzioni della famiglia (Bn;p )n2N al variare del parametro n. In primo luogo, esse hanno la stessa media e varianza inferiore (la seconda addirittura in…nitesima al divergere di n) E var Sn n Sn n = = np 1 E (Sn ) = =p n n 1 npq pq var (Sn ) = 2 = n2 n n Inoltre è possibile concludere che, nella famiglia di queste distribuzioni binomiali riferite al numero medio di successi, la parte “centrale”, cioè quella concentrata in un intervallo che contiene la media p, assorbe la maggior parte della probabilità, in quantità via via esclusiva. Infatti, il risultato ottenuto nel paragrafo precedente prende un forma assai espressiva nella formulazione appena introdotta, che ha sempre a¤ascinato studiose e semplici utenti della teoria della probabilità. Dando ad r il valore n (p + ") nella stima della coda destra, ed il valore n (p ") nella stima di quella sinistra, posso scrivere prob prob Sn n Sn n n (p + ") q (p + ") q = n2 " 2 n"2 n (p ") p (p ") p ")) < = n2 " 2 n"2 p+" = prob (Sn n (p + ")) < p = prob (Sn n (p " 5 e concludere per l’evento complementare alle due “code” prob Sn n p <" (p + ") q + (p n"2 >1 ") p =1 p + (1 2p) " n"2 Proposizione (Legge “debole” dei grandi numeri per la distribuzione binomiale). Sia E (Ek )k2n una famiglia di n eventi stocasticamente indipendenti ed equiprobabili, e sia p la comune probabilità di realizzazione di ciascun evento della famiglia. Per ogni n 2 N, il numero aleatorio “frequenza di successi relativi agli n eventi” 1X Sn Ek n n k2n è retto dalla distribuzione binomiale n k Bn;p sul dominio E Sn n k k2no k n Dn e si ha pk q n [0; 1] k2no =p Sn n var = pq n Fissato " 2 (0; min fp; qg), la probabilità che Snn non appartenga all’intorno aperto della media p di raggio " è in…nitesima al divergere di n; in altre parole lim n !+1 1.6 prob Sn n p <" =1 Additività della media di numeri aleatori discreti arbitrari Siano X ed Y due numeri aleatori discreti a distribuzione congiunta P ( i;j )i2m;j2n = (prob [(X = xi ) ^ (Y = yj )]) Le due distribuzioni marginali sono3 PX = Pe = X i i2m 0 X =@ ij = ij j2n PY = e0 P = Y j j2n X i2m 3 Con 1 A !i2m j2n abuso di notazione, attribuisco dimensione variabile al vettore e, le cui componenti sono tutte uguali ad 1, in modo ch’esso sia moltiplicabile per la matrice P da ambo i lati. Precisamente, assumo e0 2 Rm (riga) e e 2 Rn (colonna). 6 Per la media di X e Y procedo in modo parallelo e speculare 0 1 X X X X X A= E (X) = xi i = xi @ xi ij E (Y ) = i2m i2m X X yj Y j j2n = j2n yj j2n X ij i2m ! i;j i2m;j2n X = yj i;j i2m;j2n Le distribuzioni condizionali reciproche si ottengono per normalizzazione tramite i valori delle marginali ! pj ij = (j 2 n) PXj(Y =yj ) = Y Y j PY j(X=xi ) = 0 ip X i = j i2m ij X i j2n (i 2 m) e da queste si costruiscono i numeri aleatori speranza condizionale E (XjY ) e E (Y jX) per E (XjY ) assume per E (Y jX) assume j 2 n, 8 valore E (Xj (Y = yj )) > > > > < > > > > : con probabilità > > > > : con probabilità 7 i2m = X i P i2m P Y j i 2 m, 8 valore E (Y j (X = xi )) > > > > < P i2m P j2n = P j2n P j2n xi prob (X = xi jY = yj ) xi ij Y j ij yj prob (Y = yj j (X = xi )) yj ij ij X i L’additività dell’operatore di calcolo della media può essere mostrata in due modi. Il primo è a questo punto molto più semplice e diretto, e ammonta a svolgere due riordinamenti speculari dell’ordine di sommatoria. Il secondo è più complesso e farraginoso, ma a¤ronta in maggiore dettaglio la struttura delle relazioni condizionali che intercorrono tra i due numeri aleatori. 1: E (X + Y ) = X (xi + y;j ) i2m;j2n X = i2m X = 0 xi @ X j2n X i xi + i2m ij 1 A+ ij X X yj j2n X i2m ij ! Y j yj j2n = E (X) + E (Y ) 2: E (X + Y ) = X (xi + y;j ) ij i2m;j2n = X i2m = X i2m = X i2m 0 X @ xi ij j2n 0 X xi @ j2n xi X i + ij + 1 X A+ X X i2m X i E i2m = E (X) + E [E (Y !X)] = E (X) + E (Y ) 8 yj j2n ij 1 A 0 X X@ yj i j2n (Y j (X = xi )) ij X i 1 A