Due variabili aleatorie X ed Y si dicono in

annuncio pubblicitario
Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali
a e b si ha
P {X = a, Y = b} = P {X = a}P {Y = b}
Una variabile aleatoria χ che assume i soli valori
1, 2, ..., n è detta binomiale con parametri
(n, p) se
p(i) = P {X = i} =
n
i
!
pi(1 − p)n−i.
Il valore atteso di una tale variabile binomiale
è np; la varianza è np(p − 1).
La variabile aleatoria Xi che vale 1 se l’i-esima
prova ha successo e 0 altrimenti, è una variabile
di Bernoulli. Chiaramente
X = X1 + .... + Xn
è una somma di variabili indipendenti.
Ebbene si ha
np = E[X] =
n
X
i=1
E[Xi] =
n
X
i=1
p = np.
Analogamente per la varianza
np(1 − p) = V ar(X) =
n
X
i=1
V ar(Xi).
Una variabile aleatoria χ che assume i soli valori
1, 2, ... è detta di Poisson con parametro λ
se
λi
−λ
,
p(i) = P {X = i} = e
i!
i = 0, 1, 2, ...
La variabile di Poisson ha valore atteso e varianza uguali a λ.
Se X1 e X2 sono due variabili di Poisson indipendenti con parametri λ1 e λ2, allora X1 +
X2 è una variabile di Poisson con parametro
λ1 + λ2
In generale la somma di due variabili aleatorie X ed Y ha media uguale alla somma delle
medie. Affinchè la medesima cosa capiti per
la varianza è necessario che le variabili in questione siano indipendenti. Se questo non capita,
interviene un fattore di correzione che dipende
da una quantità detta covarianza delle due
variabili:
V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X, Y ).
Sia F un fenomeno per il quale:
1. La probabilità che F si verifichi esattamente
una volta in un intervallo di tempo pari ad h
sia uguale a λh + o(h).
2. La probabilità che F si verifichi due o più
volte in un intervallo di tempo pari ad h sia
uguale a o(h).
3. Siano n e j1, ..., jn numeri naturali. Dati n
intervalli di tempo disgiunti, indichiamo con Ei
l’evento “nel i-esimo intervallo di tempo F si è
verificato ji volte”. Ebbene gli eventi E1, ...,
En sono indipendenti.
Diremo allora che F è un processo di Poisson.
Il numero di volte N (t) che F si verifica in un
intervallo di tempo t è una variabile aleatoria
di Poisson con parametro λt. La costante λ,
che indica il numero di volte che F si verifica nell’unità di tempo, deve essere verificata
empiricamente.
In California si è valutato empiricamente che
si verificano due terremoti al mese. Supponiamo che il verificarsi di un terremoto soddisfi
le proprietà di un processo di Poisson.
Determinare la probabilità che vi siano almeno
quattro terremoti nei prossimi tre mesi e che
ve ne sia almeno uno nella prossima settimana.
Diciamo geometrica ogni variabile aleatoria
alla quale corrisponde una densità discreta del
tipo
p(n) = (1 − p)n−1p.
Corrisponde alla ripetizione di una prova, che
ha probabilità p di successo, sino a quando non
si ottiene un successo.
Determinare il valore atteso di una variabile
aleatoria geometrica.
Diciamo ipergeometrica ogni variabile aleatoria alla quale corrisponde una densità discreta
del tipo
p(i) =
m
i
!
N −m
n−i
N
n
!
!
per fissati N , n, m. Corrisponde alla estrazione
di n palline da un’urna contenente N palline,
di cui m bianche e le altre nere, e la variabile
aleatoria conta il numero di palline bianche
selezionate.
Diciamo continua una variabile aleatoria X
per la quale esiste una funzione non negativa f : R → R con la proprietà che per ogni
sottoinsieme misurabile B di R
P {X ∈ B} =
Z
B
f (x)dx
La funzione f è detta densità continua di X.
Il numero di ore che un computer funziona prima di rompersi è una variabile aleatoria continua con densità continua del tipo
(
f (x) =
x
− 100
λe
0
x≥0
x<0
Determinare il parametro λ e quindi determinare
la probabilità che il computer funzioni tra 50 e
150 ore prima di rompersi, e che funzioni per
meno di 100 ore.
Il valore atteso di una variabile continua con
densità continua f è
E[X] =
Z ∞
−∞
xf (x)dx.
Se g : R → R è una funzione e X una variabile
aleatoria continua, allora
E[g(X)] =
Z ∞
−∞
g(x)f (x)dx
Calcolare il valore atteso di eX con X variabile
aleatoria continua con densità continua
(
f (x) =
2x 0 ≤ x ≤ 1
0 altrimenti
La varianza di una variabile aleatoria continua
X è
V ar(X) = E[(X − µ)2].
Continua a valere la formula
V ar(X) = E[X 2] − (E[X])2.
Calcolare il valore atteso e la varianza della
variabile aleatoria continua X con densità continua
(
f (x) =
2x 0 ≤ x ≤ 1
0 altrimenti
Valgono ancora le formule
V ar(aX+b) = a2V ar(X),
E[aX+b] = aE[X]+b.
La somma di due variabili aleatorie continue X
ed Y ha media uguale alla somma delle medie.
Affinchè la medesima cosa capiti per la varianza è necessario che le variabili in questione
siano indipendenti. Se questo non capita, interviene un fattore di correzione che dipende
da una quantità detta covarianza delle due
variabili:
V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X, Y ).
Diciamo che una variabile aleatoria X è uniformemente distribuita su un intervallo [α, β]
della retta reale se la sua densità continua f è
costante nell’intervallo [α, β] e 0 altrove. Necessariamente f deve valere 1/(β − α) nell’intervallo [α, β].
L’autobus numero 9 parte dalla stazione ogni 15 minuti a partire dai minuti 00. Se la
mattina uno arriva alla fermata in un momento uniformemente distribuito tra le 7 e le 7.30,
determinare la probabilità che attenda meno di
5 minuti la partenza dell’autobus. E qual’è la
probabilità che attenda la partenza per più di
10 minuti?
Diciamo che X è una variabile aleatoria normale con parametri (µ, σ 2) se la sua densità
continua è data da
1
f (x) = √
2π
2 /2σ 2
−(x−µ)
e
σ
,
x ∈ R.
I parametri µ e σ 2 rappresentano il valore atteso e la varianza della variabile normale.
Se X è una variabile normale con parametri µ
e σ 2, allora dati a, b ∈ R, la variabile Y = aX +b
è normale con parametri aµ + b e a2σ 2.
X −µ
In particolare Z =
è una variabile norσ
male con parametri 0 e 1; una tale variabile
normale è detta avere distribuzione standard.
La funzione di distribuzione di una variabile
aleatoria normale X con distribuzione standard
si indica tradizionalmente con Φ:
Z y
1 −x2/2
√ e
Φ(y) = P {X ≤ y} =
−∞ 2π
A pag. 203 del libro avete la tabella. Si tenga presente che Φ(−x) = 1 − Φ(x), pertanto
Φ(−2) = 1 − Φ(2).
Se Y è una variabile normale con parametri µ
e σ 2, con funzione di distribuzione F , allora
F (a) = P {Y ≤ a} = P {
a−µ
a−µ
Y −µ
≤
} = Φ(
)
σ
σ
σ
Sia X una variabile normale con parametri µ =
3 e σ 2 = 9. Determinare P {2 < X < 5}, P {X >
0} e P {|X − 3| > 6}.
Sia X una variabile continua uniformemente
distribuita su (0, 1). Si consideri la variabile
Y = X n. Determinare la funzione di distribuzione
e la densità continua di Y .
Diseguaglianza di Markov Se X è una variabile aleatoria che assume solo valori non negativi, allora per ogni a > 0 si ha
P {X ≥ a} ≤
E[X]
a
Diseguaglianza di Chebyshev Se X è una
variabile aleatoria con valore atteso µ e varianza σ 2, allora per ogni k > 0 si ha
σ2
P {|X − µ| ≥ k} ≤ 2
k
Teorema. (Legge debole dei grandi numeri)
Siano X1, ..., Xn variabili aleatorie indipendenti con la medesima funzione di distribuzione,
ciascuna con media e varianza finite E[Xi] = µ
e V ar(Xi) = σ 2. Allora, per ogni > 0 si ha
X1 + ... + Xn
P − µ ≥ → 0
n
n → ∞.
Teorema del limite centrale
Sia X1, X2, ... una sequenza di variabile aleatorie indipendenti con la medesima funzione di
distribuzione, con media µ e varianza σ 2. Allora la funzione di distribuzione di
X1 + ... + Xn − nµ
√
σ n
tende alla distribuzione normale standard per
n → ∞. Pertanto per −∞ < a < ∞, si ha che
per n → ∞
(
P
)
a
1
X1 + ... + Xn − nµ
−x2 /2 dx
√
e
≤
a
→
√
σ n
2π −∞
Z
Quando n è grande, una variabile binomiale X
con parametri (n, p) può essere approssimata
con una variabile normale XN con parametri
E[X] = np e V ar(X) = np(1 − p).
Determinare la probabilità che lanciando 40
volte una moneta si ottenga 20 volte testa.
Un astronomo deve misurare in anni luce la
distanza di una stella. Il subitaneo cambio di
condizioni atmosferiche, normali errori di misurazione etc. fanno si che più che una misura,
riesca ad ottenere una stima della reale distanza. Supponendo che diverse misurazioni siano
variabile aleatorie tra loro indipendenti, con la
medesima distribuzione, aventi media comune
d (la distanza reale della stella), e varianza comune pari a 4 anni luce, quante misure è necessario fare per poter essere ragionevolmente
sicuri che la distanza stimata abbia un margine
di errore inferiore a 0.5 anni luce?
Il numero di studenti che fanno il primo compitino di Matematica D in teledidattica è una
variabile aleatoria di Poisson con media 90.
Decido che se i partecipanti sono almeno 100,
ho bisogno di due aule, altrimenti ne basta
una sola. Qual’è la probabilità che vengano
utilizzate davvero due aule?
Lanciamo dieci dadi. Determinare la probabilità che la somma sia compresa tra 30 e 40
inclusi.
Teorema (Legge dei grandi numeri)
Sia X1, X2, ... una sequenza variabili aleatorie
indipendenti, con la medesima distribuzione,
tutte aventi media finita µ. Allora con probabilità 1,
X1 + ... + Xn
→µ
n
n → ∞.
Scarica