VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. – p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. Il risultato di una misura è trattata come una variabile casuale continua per applicare il calcolo differenziale e integrale. – p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. Il risultato di una misura è trattata come una variabile casuale continua per applicare il calcolo differenziale e integrale. Come generalizzare il concetto di probabilità ? Tutte le definizioni date (assiomatica ed empirica) si riferiscono a variabili discrete. nfav , nel caso continuo ntot → ∞, per cui p → 0. Assumendo p = ntot – p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. Il risultato di una misura è trattata come una variabile casuale continua per applicare il calcolo differenziale e integrale. Come generalizzare il concetto di probabilità ? Tutte le definizioni date (assiomatica ed empirica) si riferiscono a variabili discrete. nfav , nel caso continuo ntot → ∞, per cui p → 0. Assumendo p = ntot Nel caso continuo il valore della probabilità di un singolo evento è infinitesimo. – p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. Il risultato di una misura è trattata come una variabile casuale continua per applicare il calcolo differenziale e integrale. Come generalizzare il concetto di probabilità ? Tutte le definizioni date (assiomatica ed empirica) si riferiscono a variabili discrete. nfav , nel caso continuo ntot → ∞, per cui p → 0. Assumendo p = ntot Nel caso continuo il valore della probabilità di un singolo evento è infinitesimo. In pratica, si associa il concetto di probabilità ad intervalli finiti dell’asse reale di definizione della variabile. Quindi si passerà da p(x) → p(x1 ≤ x ≤ x2 ). – p. 1/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Supponiamo di avere a disposizione infinite misure, distribuite con continuità sull’asse x. – p. 2/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Supponiamo di avere a disposizione infinite misure, distribuite con continuità sull’asse x. In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞ tende alla probabilità p che una misura cada in quell’intervallo (Legge dei grandi numeri o Teorema di Bernoulli). – p. 2/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Supponiamo di avere a disposizione infinite misure, distribuite con continuità sull’asse x. In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞ tende alla probabilità p che una misura cada in quell’intervallo (Legge dei grandi numeri o Teorema di Bernoulli). Al crescere di N posso prendere intervalli sempre più piccoli: per N → ∞ assumeranno un’ampiezza infinitesima dx. – p. 2/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Supponiamo di avere a disposizione infinite misure, distribuite con continuità sull’asse x. In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞ tende alla probabilità p che una misura cada in quell’intervallo (Legge dei grandi numeri o Teorema di Bernoulli). Al crescere di N posso prendere intervalli sempre più piccoli: per N → ∞ assumeranno un’ampiezza infinitesima dx. La funzione discreta densità di frequenza dk tende a: N →∞ ∆xk → 0 pk dp fk → → ≡ f (x) dk → ∆xk ∆xk dxk – p. 2/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Supponiamo di avere a disposizione infinite misure, distribuite con continuità sull’asse x. In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞ tende alla probabilità p che una misura cada in quell’intervallo (Legge dei grandi numeri o Teorema di Bernoulli). Al crescere di N posso prendere intervalli sempre più piccoli: per N → ∞ assumeranno un’ampiezza infinitesima dx. La funzione discreta densità di frequenza dk tende a: N →∞ ∆xk → 0 pk dp fk → → ≡ f (x) dk → ∆xk ∆xk dxk La funzione discreta densità di frequenza dk tende alla funzione continua densità di probabilità f (x). – p. 2/1 Istogramma → funzione di densità di probabilità. – p. 3/1 Istogramma → funzione di densità di probabilità. – p. 3/1 Istogramma → funzione di densità di probabilità. – p. 3/1 Istogramma → funzione di densità di probabilità. – p. 3/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Ne segue che fk = dk ∆xk → f (x)dx – p. 4/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Ne segue che fk = dk ∆xk → f (x)dx L’istogramma → curva continua avente come ordinata dp y = f (x) = dx – p. 4/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Ne segue che fk = dk ∆xk → f (x)dx L’istogramma → curva continua avente come ordinata dp y = f (x) = dx La frazione di misure che cadono nell’intervallo tra x e x + dx tende alla probabilità dp di ottenere valori di x nell’intervallo (x, x + dx). – p. 4/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ Ne segue che fk = dk ∆xk → f (x)dx L’istogramma → curva continua avente come ordinata dp y = f (x) = dx La frazione di misure che cadono nell’intervallo tra x e x + dx tende alla probabilità dp di ottenere valori di x nell’intervallo (x, x + dx). – p. 4/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ – p. 5/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ La condizione di normalizzazione per una funzione densità di probabilità è: La probabilità di osservare un Z +∞ qualunque valore di una variabile f (x)dx = 1 −∞ continua è pari alla certezza. – p. 5/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ La condizione di normalizzazione per una funzione densità di probabilità è: La probabilità di osservare un Z +∞ qualunque valore di una variabile f (x)dx = 1 −∞ continua è pari alla certezza. La funzione densità di probabilità è positiva f (x) > 0. – p. 5/1 FUNZIONE DI DENSITÀ DI PROBABILITÀ La condizione di normalizzazione per una funzione densità di probabilità è: La probabilità di osservare un Z +∞ qualunque valore di una variabile f (x)dx = 1 −∞ continua è pari alla certezza. La funzione densità di probabilità è positiva f (x) > 0. la funzione densità di probabilità all’infinito deve tendere a zero f (x) → 0 per x → ±∞. – p. 5/1 FUNZIONE DI DISTRIBUZIONE CUMULATIVA F (x) = Z x f (t) dt −∞ Probabilità di osservare un valore non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1. – p. 6/1 FUNZIONE DI DISTRIBUZIONE CUMULATIVA F (x) = Z x f (t) dt −∞ Probabilità di osservare un valore non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1. P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 ) – p. 6/1 FUNZIONE DI DISTRIBUZIONE CUMULATIVA F (x) = Z x f (t) dt −∞ Probabilità di osservare un valore non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1. P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 ) Quindi la condizione di normalizrisulta soddisfatta: zazione Z +∞ f (x)dx = F (+∞)−F (−∞) ≡ 1 −∞ – p. 6/1 FUNZIONE DI DISTRIBUZIONE CUMULATIVA F (x) = Z x f (t) dt −∞ Probabilità di osservare un valore non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1. P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 ) Quindi la condizione di normalizrisulta soddisfatta: zazione Z +∞ f (x)dx = F (+∞)−F (−∞) ≡ 1 −∞ – p. 6/1 VALORE DI ASPETTAZIONE E VARIANZA Il valore di aspettazione della variabile x nel caso continuo R +∞ E(x) = −∞ x · f (x) dx – p. 7/1 VALORE DI ASPETTAZIONE E VARIANZA Il valore di aspettazione della variabile x nel caso continuo R +∞ E(x) = −∞ x · f (x) dx Il valore di aspettazione della variabile g(x) nel caso continuo R +∞ E[g(x)] = −∞ g(x) · f (x) dx – p. 7/1 VALORE DI ASPETTAZIONE E VARIANZA Il valore di aspettazione della variabile x nel caso continuo R +∞ E(x) = −∞ x · f (x) dx Il valore di aspettazione della variabile g(x) nel caso continuo R +∞ E[g(x)] = −∞ g(x) · f (x) dx La varianza è il valore di aspettazione della variabile errore y = x − E(x) nel caso continuo var(x) = σ2 R +∞ = −∞ (x − E(x))2 · f (x) dx – p. 7/1 VALORE DI ASPETTAZIONE E VARIANZA Il valore di aspettazione della variabile x nel caso continuo R +∞ E(x) = −∞ x · f (x) dx Il valore di aspettazione della variabile g(x) nel caso continuo R +∞ E[g(x)] = −∞ g(x) · f (x) dx La varianza è il valore di aspettazione della variabile errore y = x − E(x) nel caso continuo var(x) = σ2 R +∞ = −∞ (x − E(x))2 · f (x) dx La deviazione standard o errore quadratico medio è σ . – p. 7/1 DISTRIBUZIONE BINOMIALE Si applica a variabili casuali discrete di tipo dicotomico (variabili bernoulliane), ovvero che possono assumere solo 2 valori. – p. 8/1 DISTRIBUZIONE BINOMIALE Si applica a variabili casuali discrete di tipo dicotomico (variabili bernoulliane), ovvero che possono assumere solo 2 valori. L’evento si verifica → successo, e.g. y = 1 – p. 8/1 DISTRIBUZIONE BINOMIALE Si applica a variabili casuali discrete di tipo dicotomico (variabili bernoulliane), ovvero che possono assumere solo 2 valori. L’evento si verifica → successo, e.g. y = 1 L’evento non si verifica → insuccesso, e.g. y = 0 – p. 8/1 DISTRIBUZIONE BINOMIALE Si applica a variabili casuali discrete di tipo dicotomico (variabili bernoulliane), ovvero che possono assumere solo 2 valori. L’evento si verifica → successo, e.g. y = 1 L’evento non si verifica → insuccesso, e.g. y = 0 La distribuzione binomiale descrive la probabilità di ottenere un numero finito k di successi in n prove ripetute, sapendo che la probabilità di successo per il singolo evento è costante e vale p (probabilità di un evento bernoulliano). – p. 8/1 DISTRIBUZIONE BINOMIALE Sia E l’evento bernoulliano elementare con probabilità p – p. 9/1 DISTRIBUZIONE BINOMIALE Sia E l’evento bernoulliano elementare con probabilità p Sia Ē evento complementare con probabilità q = 1 − p. – p. 9/1 DISTRIBUZIONE BINOMIALE Sia E l’evento bernoulliano elementare con probabilità p Sia Ē evento complementare con probabilità q = 1 − p. Probabilità P (x; n) che in n prove ripetute E si verifichi esattamente x volte ? Probabilità di avere x successi in n prove ? – p. 9/1 DISTRIBUZIONE BINOMIALE Sia E l’evento bernoulliano elementare con probabilità p Sia Ē evento complementare con probabilità q = 1 − p. Probabilità P (x; n) che in n prove ripetute E si verifichi esattamente x volte ? Probabilità di avere x successi in n prove ? Supponiamo che tre persone (Francesca, Luigi e Marco) escano ciascuno dalla loro casa per andare a prendere il medesimo autobus e che ciascuno di essi abbia probabilità pari a p di riuscire ad arrivare in tempo alla fermata (e ovviamente probabilità 1 − p di perdere l’autobus). Ci si chiede quale sia la probabilità che due delle tre persone riesca nell’intento. – p. 9/1 DISTRIBUZIONE BINOMIALE L’evento due persone prendono l’autobus si può verificare in tre modi diversi ossia 1. Francesca e Luigi lo prendono, ma Marco no 2. Francesca e Marco lo prendono, ma Luigi no 3. Luigi e Marco lo prendono, ma Francesca no – p. 10/1 DISTRIBUZIONE BINOMIALE L’evento due persone prendono l’autobus si può verificare in tre modi diversi ossia 1. Francesca e Luigi lo prendono, ma Marco no 2. Francesca e Marco lo prendono, ma Luigi no 3. Luigi e Marco lo prendono, ma Francesca no L’evento in due prendono l’autobus sarà rappresentabile come B2 = F LM + F LM + F LM – p. 10/1 DISTRIBUZIONE BINOMIALE L’evento due persone prendono l’autobus si può verificare in tre modi diversi ossia 1. Francesca e Luigi lo prendono, ma Marco no 2. Francesca e Marco lo prendono, ma Luigi no 3. Luigi e Marco lo prendono, ma Francesca no L’evento in due prendono l’autobus sarà rappresentabile come B2 = F LM + F LM + F LM La probabilità corrispondente è : P (B2 ) = pp(1 − p) + p(1 − p)p + (1 − p)pp I tre eventi F ,L e M sono indipendenti, mentre ogni combinazione(terna) corrisponde ad un evento incompatibile rispetto alle altre. – p. 10/1 DISTRIBUZIONE BINOMIALE L’evento due persone prendono l’autobus si può verificare in tre modi diversi ossia 1. Francesca e Luigi lo prendono, ma Marco no 2. Francesca e Marco lo prendono, ma Luigi no 3. Luigi e Marco lo prendono, ma Francesca no L’evento in due prendono l’autobus sarà rappresentabile come B2 = F LM + F LM + F LM La probabilità corrispondente è : P (B2 ) = pp(1 − p) + p(1 − p)p + (1 − p)pp I tre eventi F ,L e M sono indipendenti, mentre ogni combinazione(terna) corrisponde ad un evento incompatibile rispetto alle altre. Ponendo 1 − p = q otteniamo in definitiva: P (B2 ) = 3p2 q – p. 10/1 DISTRIBUZIONE BINOMIALE In generale: si calcoli la probabilità che in n prove di un esperimento di Bernoulli, si abbiano esattamente x successi. – p. 11/1 DISTRIBUZIONE BINOMIALE In generale: si calcoli la probabilità che in n prove di un esperimento di Bernoulli, si abbiano esattamente x successi. Indichiamo con S il successo e con F il fallimento. Una sequenza di n prove darà come esito una sequenza di n fra S e F . Ad esempio, si abbiano i primi x successi: x volte n − x volte z }| { z }| { SSS · · · S F F F · · · F – p. 11/1 DISTRIBUZIONE BINOMIALE In generale: si calcoli la probabilità che in n prove di un esperimento di Bernoulli, si abbiano esattamente x successi. Indichiamo con S il successo e con F il fallimento. Una sequenza di n prove darà come esito una sequenza di n fra S e F . Ad esempio, si abbiano i primi x successi: x volte n − x volte z }| { z }| { SSS · · · S F F F · · · F La probabilità di ottenere proprio quella sequenza è: x volte n − x volte z }| {z }| { p · p · p · · · p q · q · q · · · q = px q n−x – p. 11/1 DISTRIBUZIONE BINOMIALE Qualunque altra sequenza contenente esattamente x successi avrà sempre come probabilità px nn−x (cambia l’ordine dei fattori ma non il prodotto). – p. 12/1 DISTRIBUZIONE BINOMIALE Qualunque altra sequenza contenente esattamente x successi avrà sempre come probabilità px nn−x (cambia l’ordine dei fattori ma non il prodotto). In base all’analisi combinatoria, il numero di combinazioni di classe x di n oggetti, ovvero tutte modalità di scegliere x oggetti da un insieme di n oggetti, indipendentemente dall’ordine è n! Cn, x = x! (n − x)! – p. 12/1 DISTRIBUZIONE BINOMIALE Qualunque altra sequenza contenente esattamente x successi avrà sempre come probabilità px nn−x (cambia l’ordine dei fattori ma non il prodotto). In base all’analisi combinatoria, il numero di combinazioni di classe x di n oggetti, ovvero tutte modalità di scegliere x oggetti da un insieme di n oggetti, indipendentemente dall’ordine è n! Cn, x = x! (n − x)! Dato che tutte le combinazioni sono reciprocamente eventi incompatibili (regola della propabilità totale), la distribuzione binomiale è quindi data da: x n−x P (x; n) = Cn, x · p q n! px q n−x = x! (n − x)! – p. 12/1 DISTRIBUZIONE BINOMIALE: esempi In un esame scritto si debba rispondere a 10 domande, scegliendo tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un punteggio 3 per ogni risposta V , e 0 per ogni risposta F . Qual è la probabilità che uno studente totalmente impreparato (che scelga a caso) ottenga 18/30 ? – p. 13/1 DISTRIBUZIONE BINOMIALE: esempi In un esame scritto si debba rispondere a 10 domande, scegliendo tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un punteggio 3 per ogni risposta V , e 0 per ogni risposta F . Qual è la probabilità che uno studente totalmente impreparato (che scelga a caso) ottenga 18/30 ? Equivale a calcolare la probabilità di ottenere x = 6 successi in n = 10 prove, con probabilità p = 0.5. – p. 13/1 DISTRIBUZIONE BINOMIALE: esempi In un esame scritto si debba rispondere a 10 domande, scegliendo tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un punteggio 3 per ogni risposta V , e 0 per ogni risposta F . Qual è la probabilità che uno studente totalmente impreparato (che scelga a caso) ottenga 18/30 ? Equivale a calcolare la probabilità di ottenere x = 6 successi in n = 10 prove, con probabilità p = 0.5. 10 · 9 · 8 · 7 · 6! 10! 0.56 · 0.510−6 = = 210 · 0.510 ∼ P (6; 10) = 6!(10 − 6)! 6!4 · 3 · 2 · 1 0.20 – p. 13/1 DISTRIBUZIONE BINOMIALE: esempi In un esame scritto si debba rispondere a 10 domande, scegliendo tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un punteggio 3 per ogni risposta V , e 0 per ogni risposta F . Qual è la probabilità che uno studente totalmente impreparato (che scelga a caso) ottenga 18/30 ? Equivale a calcolare la probabilità di ottenere x = 6 successi in n = 10 prove, con probabilità p = 0.5. 10 · 9 · 8 · 7 · 6! 10! 0.56 · 0.510−6 = = 210 · 0.510 ∼ P (6; 10) = 6!(10 − 6)! 6!4 · 3 · 2 · 1 0.20 Qual è la probabilità che o stesso studente superi l’esame, ovvero ottenga un voto ≥ 18/30 ? Deve prendere o 18 o 21 o 24 o 27 o 30. Eventi incompatibili → somma delle probabilità. – p. 13/1 DISTRIBUZIONE BINOMIALE: esempi In un esame scritto si debba rispondere a 10 domande, scegliendo tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un punteggio 3 per ogni risposta V , e 0 per ogni risposta F . Qual è la probabilità che uno studente totalmente impreparato (che scelga a caso) ottenga 18/30 ? Equivale a calcolare la probabilità di ottenere x = 6 successi in n = 10 prove, con probabilità p = 0.5. 10 · 9 · 8 · 7 · 6! 10! 0.56 · 0.510−6 = = 210 · 0.510 ∼ P (6; 10) = 6!(10 − 6)! 6!4 · 3 · 2 · 1 0.20 Qual è la probabilità che o stesso studente superi l’esame, ovvero ottenga un voto ≥ 18/30 ? Deve prendere o 18 o 21 o 24 o 27 o 30. Eventi incompatibili → somma delle probabilità. P (6 ≤ x ≤ 10; 10) = P (6; 10) + P (7; 10) + P (8; 10) + P (9; 10) + P (10; 10) = (C10, 6 + C10, 7 + C10, 8 + C10, 9 + C10, 10 ) · (0.5)10 = (210 + 120 + 45 + 10 + 1) · (0.5)10 = 386 · (0.5)10 ∼ 0.38 – p. 13/1 BINOMIALE: CARATTERISTICHE Distribuzione discreta, con dominio l’insieme dei numeri naturali. Univocamente definita dai parametri n e p. – p. 14/1 BINOMIALE: CARATTERISTICHE Distribuzione discreta, con dominio l’insieme dei numeri naturali. Univocamente definita dai parametri n e p. Vale normalizzazione Pn la condizione Pdi n n! x q n−x = (p + q)n ≡ 1 P (x; n) = p x=0 x=0 x! (n−x)! (formula di Newton per lo sviluppo della potenza n-esima di un binomio). – p. 14/1 BINOMIALE: CARATTERISTICHE Distribuzione discreta, con dominio l’insieme dei numeri naturali. Univocamente definita dai parametri n e p. Vale normalizzazione Pn la condizione Pdi n n! x q n−x = (p + q)n ≡ 1 P (x; n) = p x=0 x=0 x! (n−x)! (formula di Newton per lo sviluppo della potenza n-esima di un binomio). Valore di aspettazione: Pn n! px q n−x = n · p E(x) = x=0 x x! (n − x)! – p. 14/1 BINOMIALE: CARATTERISTICHE Distribuzione discreta, con dominio l’insieme dei numeri naturali. Univocamente definita dai parametri n e p. Vale normalizzazione Pn la condizione Pdi n n! x q n−x = (p + q)n ≡ 1 P (x; n) = p x=0 x=0 x! (n−x)! (formula di Newton per lo sviluppo della potenza n-esima di un binomio). Valore di aspettazione: Pn n! px q n−x = n · p E(x) = x=0 x x! (n − x)! Varianza σ 2 (x) = n · p · q – p. 14/1 BINOMIALE: ANDAMENTO La distribuzione binomiale è in generale asimmetrica, tranne che per p = q = 1/2 – p. 15/1 BINOMIALE: ANDAMENTO La distribuzione binomiale è in generale asimmetrica, tranne che per p = q = 1/2 Se p = q = 1/2 e n pari → unimodale – p. 15/1 BINOMIALE: ANDAMENTO La distribuzione binomiale è in generale asimmetrica, tranne che per p = q = 1/2 Se p = q = 1/2 e n pari → unimodale Se p = q = 1/2 e n dispari → bimodale – p. 15/1 BINOMIALE: ANDAMENTO Visualizza qui Visualizza qui – p. 16/1