VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
– p. 1/1
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.
– p. 1/1
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.
Come generalizzare il concetto di probabilità ? Tutte le definizioni
date (assiomatica ed empirica) si riferiscono a variabili discrete.
nfav
, nel caso continuo ntot → ∞, per cui p → 0.
Assumendo p =
ntot
– p. 1/1
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.
Come generalizzare il concetto di probabilità ? Tutte le definizioni
date (assiomatica ed empirica) si riferiscono a variabili discrete.
nfav
, nel caso continuo ntot → ∞, per cui p → 0.
Assumendo p =
ntot
Nel caso continuo il valore della probabilità di un singolo evento è
infinitesimo.
– p. 1/1
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.
Come generalizzare il concetto di probabilità ? Tutte le definizioni
date (assiomatica ed empirica) si riferiscono a variabili discrete.
nfav
, nel caso continuo ntot → ∞, per cui p → 0.
Assumendo p =
ntot
Nel caso continuo il valore della probabilità di un singolo evento è
infinitesimo.
In pratica, si associa il concetto di probabilità ad intervalli finiti
dell’asse reale di definizione della variabile. Quindi si passerà da
p(x) → p(x1 ≤ x ≤ x2 ).
– p. 1/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
– p. 2/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).
– p. 2/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).
Al crescere di N posso prendere intervalli sempre più piccoli: per
N → ∞ assumeranno un’ampiezza infinitesima dx.
– p. 2/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).
Al crescere di N posso prendere intervalli sempre più piccoli: per
N → ∞ assumeranno un’ampiezza infinitesima dx.
La funzione discreta densità di frequenza dk tende a:
N →∞
∆xk → 0
pk
dp
fk
→
→
≡ f (x)
dk →
∆xk
∆xk
dxk
– p. 2/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).
Al crescere di N posso prendere intervalli sempre più piccoli: per
N → ∞ assumeranno un’ampiezza infinitesima dx.
La funzione discreta densità di frequenza dk tende a:
N →∞
∆xk → 0
pk
dp
fk
→
→
≡ f (x)
dk →
∆xk
∆xk
dxk
La funzione discreta densità di frequenza dk tende alla funzione
continua densità di probabilità f (x).
– p. 2/1
Istogramma → funzione di densità di probabilità.
– p. 3/1
Istogramma → funzione di densità di probabilità.
– p. 3/1
Istogramma → funzione di densità di probabilità.
– p. 3/1
Istogramma → funzione di densità di probabilità.
– p. 3/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx
– p. 4/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx
L’istogramma → curva continua avente come ordinata
dp
y = f (x) =
dx
– p. 4/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx
L’istogramma → curva continua avente come ordinata
dp
y = f (x) =
dx
La frazione di misure che cadono nell’intervallo tra x e
x + dx tende alla probabilità dp di ottenere valori di x
nell’intervallo (x, x + dx).
– p. 4/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx
L’istogramma → curva continua avente come ordinata
dp
y = f (x) =
dx
La frazione di misure che cadono nell’intervallo tra x e
x + dx tende alla probabilità dp di ottenere valori di x
nell’intervallo (x, x + dx).
– p. 4/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
– p. 5/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
La condizione di normalizzazione per una funzione densità di probabilità
è:
La probabilità di osservare un
Z +∞
qualunque valore di una variabile
f (x)dx = 1
−∞
continua è pari alla certezza.
– p. 5/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
La condizione di normalizzazione per una funzione densità di probabilità
è:
La probabilità di osservare un
Z +∞
qualunque valore di una variabile
f (x)dx = 1
−∞
continua è pari alla certezza.
La funzione densità di probabilità è positiva f (x) > 0.
– p. 5/1
FUNZIONE DI DENSITÀ DI PROBABILITÀ
La condizione di normalizzazione per una funzione densità di probabilità
è:
La probabilità di osservare un
Z +∞
qualunque valore di una variabile
f (x)dx = 1
−∞
continua è pari alla certezza.
La funzione densità di probabilità è positiva f (x) > 0.
la funzione densità di probabilità all’infinito deve tendere a zero
f (x) → 0 per x → ±∞.
– p. 5/1
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
F (x) =
Z
x
f (t) dt
−∞
Probabilità di osservare un valore
non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.
– p. 6/1
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
F (x) =
Z
x
f (t) dt
−∞
Probabilità di osservare un valore
non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.
P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 )
– p. 6/1
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
F (x) =
Z
x
f (t) dt
−∞
Probabilità di osservare un valore
non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.
P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 )
Quindi la condizione di normalizrisulta soddisfatta:
zazione
Z
+∞
f (x)dx = F (+∞)−F (−∞) ≡ 1
−∞
– p. 6/1
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
F (x) =
Z
x
f (t) dt
−∞
Probabilità di osservare un valore
non superiore ad x. Valgono le relazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.
P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 )
Quindi la condizione di normalizrisulta soddisfatta:
zazione
Z
+∞
f (x)dx = F (+∞)−F (−∞) ≡ 1
−∞
– p. 6/1
VALORE DI ASPETTAZIONE E VARIANZA
Il valore di aspettazione della variabile x nel caso
continuo
R +∞
E(x) = −∞ x · f (x) dx
– p. 7/1
VALORE DI ASPETTAZIONE E VARIANZA
Il valore di aspettazione della variabile x nel caso
continuo
R +∞
E(x) = −∞ x · f (x) dx
Il valore di aspettazione della variabile g(x) nel caso
continuo
R +∞
E[g(x)] = −∞ g(x) · f (x) dx
– p. 7/1
VALORE DI ASPETTAZIONE E VARIANZA
Il valore di aspettazione della variabile x nel caso
continuo
R +∞
E(x) = −∞ x · f (x) dx
Il valore di aspettazione della variabile g(x) nel caso
continuo
R +∞
E[g(x)] = −∞ g(x) · f (x) dx
La varianza è il valore di aspettazione della variabile
errore y = x − E(x) nel caso continuo
var(x) =
σ2
R +∞
= −∞ (x − E(x))2 · f (x) dx
– p. 7/1
VALORE DI ASPETTAZIONE E VARIANZA
Il valore di aspettazione della variabile x nel caso
continuo
R +∞
E(x) = −∞ x · f (x) dx
Il valore di aspettazione della variabile g(x) nel caso
continuo
R +∞
E[g(x)] = −∞ g(x) · f (x) dx
La varianza è il valore di aspettazione della variabile
errore y = x − E(x) nel caso continuo
var(x) =
σ2
R +∞
= −∞ (x − E(x))2 · f (x) dx
La deviazione standard o errore quadratico medio è σ .
– p. 7/1
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.
– p. 8/1
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.
L’evento si verifica → successo, e.g. y = 1
– p. 8/1
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.
L’evento si verifica → successo, e.g. y = 1
L’evento non si verifica → insuccesso, e.g. y = 0
– p. 8/1
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.
L’evento si verifica → successo, e.g. y = 1
L’evento non si verifica → insuccesso, e.g. y = 0
La distribuzione binomiale descrive la probabilità di
ottenere un numero finito k di successi in n prove
ripetute, sapendo che la probabilità di successo per il
singolo evento è costante e vale p (probabilità di un
evento bernoulliano).
– p. 8/1
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p
– p. 9/1
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p
Sia Ē evento complementare con probabilità q = 1 − p.
– p. 9/1
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p
Sia Ē evento complementare con probabilità q = 1 − p.
Probabilità P (x; n) che in n prove ripetute E si verifichi
esattamente x volte ? Probabilità di avere x successi in
n prove ?
– p. 9/1
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p
Sia Ē evento complementare con probabilità q = 1 − p.
Probabilità P (x; n) che in n prove ripetute E si verifichi
esattamente x volte ? Probabilità di avere x successi in
n prove ?
Supponiamo che tre persone (Francesca, Luigi e
Marco) escano ciascuno dalla loro casa per andare a
prendere il medesimo autobus e che ciascuno di essi
abbia probabilità pari a p di riuscire ad arrivare in tempo
alla fermata (e ovviamente probabilità 1 − p di perdere
l’autobus). Ci si chiede quale sia la probabilità che due
delle tre persone riesca nell’intento.
– p. 9/1
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no
– p. 10/1
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no
L’evento in due prendono l’autobus sarà rappresentabile
come B2 = F LM + F LM + F LM
– p. 10/1
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no
L’evento in due prendono l’autobus sarà rappresentabile
come B2 = F LM + F LM + F LM
La probabilità corrispondente è :
P (B2 ) = pp(1 − p) + p(1 − p)p + (1 − p)pp
I tre eventi F ,L e M sono indipendenti, mentre ogni
combinazione(terna) corrisponde ad un evento
incompatibile rispetto alle altre.
– p. 10/1
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no
L’evento in due prendono l’autobus sarà rappresentabile
come B2 = F LM + F LM + F LM
La probabilità corrispondente è :
P (B2 ) = pp(1 − p) + p(1 − p)p + (1 − p)pp
I tre eventi F ,L e M sono indipendenti, mentre ogni
combinazione(terna) corrisponde ad un evento
incompatibile rispetto alle altre.
Ponendo 1 − p = q otteniamo in definitiva: P (B2 ) = 3p2 q
– p. 10/1
DISTRIBUZIONE BINOMIALE
In generale: si calcoli la probabilità che in n prove di un
esperimento di Bernoulli, si abbiano esattamente x
successi.
– p. 11/1
DISTRIBUZIONE BINOMIALE
In generale: si calcoli la probabilità che in n prove di un
esperimento di Bernoulli, si abbiano esattamente x
successi.
Indichiamo con S il successo e con F il fallimento. Una
sequenza di n prove darà come esito una sequenza di
n fra S e F . Ad esempio, si abbiano i primi x successi:
x volte n − x volte
z }| { z }| {
SSS · · · S F F F · · · F
– p. 11/1
DISTRIBUZIONE BINOMIALE
In generale: si calcoli la probabilità che in n prove di un
esperimento di Bernoulli, si abbiano esattamente x
successi.
Indichiamo con S il successo e con F il fallimento. Una
sequenza di n prove darà come esito una sequenza di
n fra S e F . Ad esempio, si abbiano i primi x successi:
x volte n − x volte
z }| { z }| {
SSS · · · S F F F · · · F
La probabilità di ottenere proprio quella sequenza è:
x volte n − x volte
z
}|
{z
}|
{
p · p · p · · · p q · q · q · · · q = px q n−x
– p. 11/1
DISTRIBUZIONE BINOMIALE
Qualunque altra sequenza contenente esattamente x successi avrà
sempre come probabilità px nn−x (cambia l’ordine dei fattori ma non il
prodotto).
– p. 12/1
DISTRIBUZIONE BINOMIALE
Qualunque altra sequenza contenente esattamente x successi avrà
sempre come probabilità px nn−x (cambia l’ordine dei fattori ma non il
prodotto).
In base all’analisi combinatoria, il numero di combinazioni di classe x
di n oggetti, ovvero tutte modalità di scegliere x oggetti da un insieme
di n oggetti, indipendentemente dall’ordine è
n!
Cn, x =
x! (n − x)!
– p. 12/1
DISTRIBUZIONE BINOMIALE
Qualunque altra sequenza contenente esattamente x successi avrà
sempre come probabilità px nn−x (cambia l’ordine dei fattori ma non il
prodotto).
In base all’analisi combinatoria, il numero di combinazioni di classe x
di n oggetti, ovvero tutte modalità di scegliere x oggetti da un insieme
di n oggetti, indipendentemente dall’ordine è
n!
Cn, x =
x! (n − x)!
Dato che tutte le combinazioni sono reciprocamente eventi
incompatibili (regola della propabilità totale), la distribuzione
binomiale è quindi data da:
x n−x
P (x; n) = Cn, x · p q
n!
px q n−x
=
x! (n − x)!
– p. 12/1
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
– p. 13/1
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.
– p. 13/1
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.
10 · 9 · 8 · 7 · 6!
10!
0.56 · 0.510−6 =
= 210 · 0.510 ∼
P (6; 10) =
6!(10 − 6)!
6!4 · 3 · 2 · 1
0.20
– p. 13/1
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.
10 · 9 · 8 · 7 · 6!
10!
0.56 · 0.510−6 =
= 210 · 0.510 ∼
P (6; 10) =
6!(10 − 6)!
6!4 · 3 · 2 · 1
0.20
Qual è la probabilità che o stesso studente superi l’esame, ovvero
ottenga un voto ≥ 18/30 ? Deve prendere o 18 o 21 o 24 o 27 o 30.
Eventi incompatibili → somma delle probabilità.
– p. 13/1
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.
10 · 9 · 8 · 7 · 6!
10!
0.56 · 0.510−6 =
= 210 · 0.510 ∼
P (6; 10) =
6!(10 − 6)!
6!4 · 3 · 2 · 1
0.20
Qual è la probabilità che o stesso studente superi l’esame, ovvero
ottenga un voto ≥ 18/30 ? Deve prendere o 18 o 21 o 24 o 27 o 30.
Eventi incompatibili → somma delle probabilità.
P (6 ≤ x ≤ 10; 10) = P (6; 10) + P (7; 10) + P (8; 10) + P (9; 10) +
P (10; 10) = (C10, 6 + C10, 7 + C10, 8 + C10, 9 + C10, 10 ) · (0.5)10 =
(210 + 120 + 45 + 10 + 1) · (0.5)10 = 386 · (0.5)10 ∼ 0.38
– p. 13/1
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.
– p. 14/1
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.
Vale
normalizzazione
Pn la condizione
Pdi
n
n!
x q n−x = (p + q)n ≡ 1
P
(x;
n)
=
p
x=0
x=0 x! (n−x)!
(formula di Newton per lo sviluppo della potenza
n-esima di un binomio).
– p. 14/1
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.
Vale
normalizzazione
Pn la condizione
Pdi
n
n!
x q n−x = (p + q)n ≡ 1
P
(x;
n)
=
p
x=0
x=0 x! (n−x)!
(formula di Newton per lo sviluppo della potenza
n-esima di un binomio).
Valore di aspettazione:
Pn
n!
px q n−x = n · p
E(x) = x=0 x
x! (n − x)!
– p. 14/1
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.
Vale
normalizzazione
Pn la condizione
Pdi
n
n!
x q n−x = (p + q)n ≡ 1
P
(x;
n)
=
p
x=0
x=0 x! (n−x)!
(formula di Newton per lo sviluppo della potenza
n-esima di un binomio).
Valore di aspettazione:
Pn
n!
px q n−x = n · p
E(x) = x=0 x
x! (n − x)!
Varianza σ 2 (x) = n · p · q
– p. 14/1
BINOMIALE: ANDAMENTO
La distribuzione binomiale è in generale asimmetrica,
tranne che per p = q = 1/2
– p. 15/1
BINOMIALE: ANDAMENTO
La distribuzione binomiale è in generale asimmetrica,
tranne che per p = q = 1/2
Se p = q = 1/2 e n pari → unimodale
– p. 15/1
BINOMIALE: ANDAMENTO
La distribuzione binomiale è in generale asimmetrica,
tranne che per p = q = 1/2
Se p = q = 1/2 e n pari → unimodale
Se p = q = 1/2 e n dispari → bimodale
– p. 15/1
BINOMIALE: ANDAMENTO
Visualizza qui
Visualizza qui
– p. 16/1