SINTESI E PREMESSA • Nelle situazioni caratterizzate da incertezza “valutazioni” di diversa natura debbono essere necessariamente fornite ed espresse in termini probabilistici. • Il ricorso alle Variabili Casuali e alle corrispondenti distribuzioni di probabilità agevola la trattazione probabilistica di tali problemi. MA: ? dobbiamo per ogni specifica situazione individuare la Variabile Casuale che la descrive e la corrisponente distribuzione di probabilità Modelli probabilistici Non è possibile classificare tutti i possibili esperimenti casuali ma esistono numerosi elementi in comune tra quelli che solitamente sono utilizzati nella pratica Esistono degli schemi standard per gli esperimenti e quindi per le v. casuali a essi associati: tali schemi sono detti modelli probabilistici e sono descritti mediante famiglie parametriche di variabili casuali Una FAMIGLIA PARAMETRICA di v.c. è un insieme di variabili casuali X∼ ∼f(x;θ θ) descritte da un parametro θ appartenente a un insieme Ω(θ θ), detto spazio parametrico Le v. casuali di una famiglia parametrica si distinguono esclusivamente per lo specifico valore numerico del parametro θ che le distingue Distribuzione di Bernoulli Il modello bernoulliano è adatto allo studio di esperimenti con esiti di tipo “dicotomico”: SI/NO Bianco/Nero Perde/Vince Successo/Insuccesso Tutte le prove che producono solo due possibili risultati generano v.c. di Bernoulli: il lancio di una moneta, il sesso di un nascituro, il superamento o meno di un certo livello di inflazione…. E' forse la v. casuale più semplice e serve come base per lo studio di altre v. casuali La funzione di distribuzione è immediata: P ( X = x ) = π (1 − π ) x 1− x x 1 0 P(X=x) π (1− (1−π) π La v. casuale X si distribuisce come una Bernoulliana di parametro π Valore atteso e varianza della Bernoulliana Ricordando che valore atteso e varianza di una v casuale discreta sono E ( X ) = ∑ x iP ( x i ) V ( X ) =∑ xi -E ( X ) P ( xi ) 2 i i possiamo calcolare valore atteso e varianza di una var. di Bernoulli E ( X ) = 1 ⋅ π + 0 ⋅ (1 − π ) = π VAR ( X ) =E(X2 )-[E(X)]2 = = 1 ⋅ π + 0 (1 − π ) − π = π − π = π ⋅ (1 − π ) 2 2 2 2 Consideriamo ora un caso più generale di un esperimento dicotomico ripetuto più volte (n volte) con π probabilità di successo nel singolo esperimento e prove che sono tra loro indipendenti. Sia X il n° di successi risultanti dalle n prove. Evidentemente sarà un intero compreso tra 0 ed n. Qual è la probabilità di ottenere esattamente x successi in queste n prove? Le n prove produrranno una sequenza di n risultati, ciascuno dei quali sarà un S (successo) o un I (insuccesso). Ad esempio una delle possibili sequenze con x successi ed (n-x) insuccessi potrebbe essere: SS…S II…I (x volte) (n-x volte) Poiché le n prove sono indipendenti, la probabilità di una determinata sequenza con la regola moltiplicativa della probabilità (tenendo conto che è π la probabilità di successo in ogni singolo esperimento e (1-π) quella di insuccesso) è pari al prodotto dei singoli risultati. La probabilità di osservare la sequenza di risultati precedente è: (π ×π ×K×π)×[(1−π)×(1−π)×K×(1−π)] = π (1−π) x (x volte) (n-x volte) n−x Ora il problema iniziale non era relativo alla probabilità di una particolare sequenza, ma alla probabilità di avere esattamente x successi indipendentemente dall’ordine dei risultati. Ci sono diverse sequenze che contengono esattamente x successi alternati ad (n-x) insuccessi: il loro numero è dato dalle combinazioni di x oggetti scelti tra n dati: n! C = x !( n − x )! il precedente risultato va moltiplicato per tale numero per ottenere la probabilità cercata. n x Questo ragionamento ci porta alla Distribuzione Binomiale Nella realtà un esperimento (prova) viene ripetuto n volte: supponiamo che ciascuna prova abbia solo due possibili risultati successo/insuccesso Il n° di successi in n prove è una v. casuale discreta X che assume valori {0, 1, … , n} Per determinarne la distribuzione di probabilità supponiamo che le prove siano Bernoulliane, indipendenti e con costante probabilità di successo π P ( X = x ) = π x (1 − π ) n− x Probabilità di avere un successo nelle prime x prove (e un insuccesso nelle altre n-x) Poiché non ci interessa l'ordine di accadimento delle singole prove, è necessario considerare tutte le sequenze che generano lo stesso numero di successi/insuccessi SSS SIS SSI IIS ISI ... III ... ... Coefficiente binomiale n n! = x x !( n − x )! n° di combinazioni (sequenze) di successi e insuccessi in n prove numero dei modi in cui si possono scegliere x oggetti su n Funzione di probabilità della var. Binomiale n x n-x P(X=x)= ⋅ π (1- π ) x n, π La v. casuale X si distribuisce come una Binomiale di parametro n e π La distribuzione binomiale dipende da due parametri, n (numero di prove) e π (prob. di successo): se si modificano l'intera distribuzione di probabilità cambia La distribuzione prima cresce e poi decresce per cui generalmente è una distribuzione unimodale (un valore di X è più probabile di altri) Esercizio Il 20% dei componenti elettronici prodotti da una certa azienda è difettoso. Supponendo di estrarre a caso 4 componenti da una linea di produzione, qual è la probabilità che i componenti difettosi siano: 1) Uno 2) Tutti 3) Nessuno In questo caso abbiamo n=4 e π=0,20, quindi: 4 ; 0,20 4 4! 24 1 3 P(X=1)= 0,20 ⋅ 0, 80 = ⋅ 0,20 ⋅ 0,512= ⋅ 0,1024 = 0, 41 3!1! 6 1 4 4! 4 0 P(X=4)= 0,20 ⋅ 0, 80 = ⋅ 0,0016=0,0016 4!0! 4 4 4! 0 4 P(X=0)= 0,20 ⋅ 0, 80 = ⋅ 0,41=0,41 0!4! 0 Valore atteso e varianza della Binomiale La distribuzione Binomiale può essere ottenuta considerando la somma di v.c. di Bernoulli, indipendenti e identicamente distribuite Valore atteso E ( X ) =E ( X1 +X2 +…+Xn ) = π + π + ........ + π = nπ Varianza V ( X ) =V ( X1 +X2 +…+Xn ) = = π (1 − π ) + π (1 − π ) + ..... + π (1 − π ) = nπ (1 − π ) 1. Il valore atteso e la varianza crescono al crescere di n 2. Per π=0,5 la distribuzione è simmetrica rispetto al valore atteso 3. Per n→ →+∞ ∞ la distribuzione tende ad essere simmetrica rispetto al v. atteso Grafico della var. Binomiale 0.40 0.35 0.25 n=12 π=0,10 0.30 0.25 0.20 n=12 π =0,30 0.15 0.20 0.10 0.15 0.10 0.05 0.05 0.00 0.00 0 1 2 3 4 5 6 7 8 9 10 11 12 0 1 2 3 4 5 6 7 8 9 10 11 12 0.25 0.20 Per π =0,50 il grafico è simmetrico intorno alla moda: x=6 n=12 0.15 0.10 0.05 0.00 0 1 2 3 4 5 6 7 8 9 10 11 12 π =0,50 Funzione di ripartizione La funzione di ripartizione quantifica la probabilità di avere un numero di successi inferiori o uguali ad una soglia data n k n-k P(X ≤ x)= ∑ ⋅ π (1- π ) k =0 k x 0 1 2 3 4 Esempio Il monitoraggio di una linea di produzione su un periodo abbastanza lungo ha determinato che un prodotto su dieci è difettoso. Un cliente effettua un acquisto se, scelti a caso e con reimmissione cinque prodotti, trova non più di un prodotto difettoso a) Qual è la probabilità che il cliente compri? b) In media, quanti prodotti difettosi ci si deve aspettare scegliendone cinque a caso? a) b) Esercizio Un test consiste di n=25 domande a risposta multipla. Ogni domanda offre 4 scelte di cui una sola è corretta. Il test si supera se si risponde esattamente a 13 domande (la metà più uno). Maria è totalmente impreparata, tuttavia vorrebbe tentare il test rispondendo a caso a tutte le domande. Qual è la probabilità che Maria superi il test? Le domande sono delle prove bernoulliane con π=0,25 La probabilità cercata è che si verifichino almeno 13 successi su 25 prove P( Maria supera il test ) = P ( B ≥ 13) = 1 − P( X < 12) = k 25 1 3 = 1 − ∑ k =0 k 4 4 12 25 − k = 1 − 0.9967 = 0.0033