caricato da aferazzoli

disp4-n

Capitolo 4
Distribuzioni di uso comune
4.1
Alcuni cenni sui processi stocastici
Denizione 4.1 Si dice
una famiglia di variabili aleatorie {Xt : t ∈ T } discrete o
continue e denite sullo stesso spazio di probabilità (Ω, F, P ), dove t rappresenta un indice (o parametro)
e T l'insieme dei suoi possibili valori.
processo stocastico
In generale si fa riferimento ad una famiglia di variabili aleatorie atte a descrivere diversi aspetti di un
fenomeno in esame (come ad esempio misurazioni eettuate in tempi o luoghi diversi). Per questo motivo
tali variabili aleatorie sono supposte opportunamente legate da relazioni di dipendenza.
Quando
ceversa se
T
T
è costituito da un'innità numerbile di valori il processo è detto
a parametro discreto,
vi-
è costituito da un insieme continuo di punti (come ad esempio un intervallo di numeri reali)
a parametro continuo. Sia St l'insieme di denizione della variabile aleaspazio degli stati di un processo stocastico l'insieme dei valori assumibili dalle variabili
processo dato da ST = ∪t∈T St . Si dice traiettoria una possibile realizzazione di un processo
il processo stocastico è detto
toria
Xt ,
si dice
aleatorie del
stocastico, data dall'insieme dei valori osservati per le variabili:
{xt : xt ∈ St , t ∈ T }.
Così come il com-
portamento probabilistico di una variabile aleatoria viene completamente espresso tramite la sua funzione
di ripartizione, il comportamento probabilistico di un processo stocastico, ovvero la sua distribuzione di
probabilità sullo spazio delle sue traiettorie possibili, è determinato qualora siano note le distribuzioni congiunte di tutti i possibili sottoinsiemi degli elementi
Xt
della famiglia (non è dunque suciente conoscere
le distribuzioni marginali delle singole variabili).
D'altra parte così come nel caso delle variabili aleatorie i momenti individuano valori caratteristici atti
a rappresentare la distribuzione, analogamente per un processo stocastico i valori attesi, le varianze e le
covarianze delle
Xt
ne sintetizzano il comportamento probabilistico al variare di
Denizione 4.2 Si dice
denita da
valore atteso del processo stocastico
µ(t) : E(Xt ),
t.
{Xt : t ∈ T } la funzione µ(t) : T → R
t∈T
Denizione 4.3 Si dice varianza del processo stocastico {Xt : t ∈ T } la funzione σ2 (t) : T
da
σ 2 (t) : Var (Xt ),
t∈T
(4.1)
→ R+ denita
(4.2)
Denizione 4.4 Si dice autocovarianza del processo stocastico {Xt : t ∈ T } la funzione γ(t1 , t2 ) : T ×T
R denita da
γ(t1 , t2 ) : Cov (Xt1 , Xt2 ),
91
(t1 , t2 ) ∈ T × T
→
(4.3)
92
A. Pollice - Appunti di Probabilità
Denizione 4.5 Si dice
autocorrelazione del processo stocastico
T × T → [−1, 1] denita da
ρ(t1 , t2 ) :
γ(t1 , t2 )
,
σ(t1 )σ(t2 )
{Xt : t ∈ T } la funzione ρ(t1 , t2 ) :
(t1 , t2 ) ∈ T × T
(4.4)
Esempio 4.1 Un processo stocastico {Xt : t ∈ T } formato da variabili aleatorie stocasticamente indipendenti ed identicamente distribuite (i.i.d.) con media e varianza comuni pari rispettivamente a E(Xt ) = µ
e Var (Xt ) = σ 2 per t ∈ T è detto rumore bianco (white noise). Un tale processo stocastico risulta completamente determinato quando è nota la distribuzione comune a tutte le variabili aleatorie del processo
Xt . In tal caso infatti le distribuzioni congiunte dei possibili sottoinsiemi degli elementi del processo sono ottenibili, grazie all'assunzione di indipendenza di questi, come prodotto delle distribuzioni marginali
delle Xt .
4.2
Processo bernoulliano
Si consideri un esperimento casuale
i
dicotomico, ovvero caratterizzato da due soli risultati detti rispetti-
vamente successo e insuccesso ed indicati con
si
e
si
e sia la probabilità di successo pari a
esperimento è possibile associare una variabile aleatoria
p)
e
0
in caso di insuccesso (con probabilità
e la sua funzione di probabilità (detta
1 − p).
Xi
che vale
1
Tale variabile aleatoria è detta
bernoulliana ) è data da
pXi (x) =
Si consideri ora il processo stocastico
p
1−p
{Xi : i, . . . , n}
P (si ) = p.
A tale
in caso di successo (con probabilità
indicatore di successo
x=1
x=0
(4.5)
costituito da una successione di
n
esperimenti
dicotomici mutuamente stocasticamente indipendenti e con probabilità di successo costante per tutte le
prove e pari a
Bernoulli
o
P (si ) = p
per
i = 1, . . . , n.
delle prove ripetute
Il modello di riferimento appena esposto è detto
processo di
(si noti come tale processo stocastico sia assimilabile ad una successione
di estrazioni con reinserimento da un'urna contenente palline di due colori). Il calcolo della media e della
varianza del processo stocastico
{Xi : i, . . . , n}
porta immediatamente a
µ(i) = E (Xi ) = 1 × p + 0 × (1 − p) = p
(4.6)
σ 2 (i) = Var (Xi ) = E Xi2 − [E (Xi )]2 = 12 × p + 02 × (1 − p) − p2 = p (1 − p)
(4.7)
X la variabile aleatoria che restituisce il numero (ovvero la frequenza) dei successi nella
n prove ripetute in un processo bernoulliano. La variabile aleatoria X è evidentemente
discreta ed il suo insieme di denizione è dato da RX = {x ∈ R : x = 0, . . . , n}. Al ne di determinare
la funzione di probabilità della X si noti innanzi tutto che le probabilità che nelle n prove ripetute si
n
n
verichino rispettivamente n successi ed n insuccessi sono date da pX (n) = p e da pX (0) = (1 − p) .
Inoltre la probabilità che si verichi un solo successo tra le n prove della successione (senza specicare quale)
Si indichi con
successione delle
può essere ottenuta come somma delle probabilità associate agli eventi (incompatibili) che si vericano
in corrispondenza dei successi di ciascuna prova, quando le altre
indicando rispettivemente con
si
ed
si
n−1
riportano un insuccesso. Infatti
il successo e l'insuccesso all'i-esima prova per
i = 1, . . . , n,
pX (1) = P [(s1 ∩ s2 ∩ · · · ∩ sn ) ∪ (s1 ∩ s2 ∩ · · · ∩ sn ) ∪ · · · ∪ (s1 ∩ s2 ∩ · · · ∩ sn )]
= p (1 − p)n−1 + p (1 − p)n−1 + · · · + p (1 − p)n−1 = np (1 − p)n−1
si ha
Cap.4: Distribuzioni di uso comune
93
n esperimenti è data dalla somma
delle probabilità delle possibili sequenze in cui possono essere disposti x successi ed n − x insuccessi. Tali
n
sequenze sono in numero di
x (numero dei modi in cui si possono scegliere gli x successi dalle n prove)
n−x
x
e ciascuna di esse ha probabilità p (1 − p)
, pertanto
n x
pX (x) =
p (1 − p)n−x x = 0, . . . , n
(4.8)
x
Generalizzando, la probabilità che si verichino
x
successi tra gli
binomiale
La funzione di probabilità appena determinata è detta
di parametri
collegamento con lo sviluppo in serie della potenza di un binomio [(a
+ b)n =
n e p a causa del suo
P
n
n x n−x
]. Tale
x=0 x a b
sviluppo permette di dimostrare immediatamente che l'espressione (4.8) è una funzione di probabilità,
infatti
n X
n x
p (1 − p)n−x = (p + 1 − p)n = 1
x
(4.9)
x=0
Si noti che la frequenza di successi
indicatori di successo
Xi
X
in
n
prove bernoulliane può essere ottenuta come somma degli
associati alle prove, in altri termini vale
E (X) = E
n
X
!
Xi
=
i=1
Var (X)
= Var
n
X
n
X
X=
Pn
i=1 Xi e di conseguenza
E (Xi ) = np
(4.10)
i=1
!
Xi
=
i=1
n
X
Var (Xi )
= np (1 − p)
(4.11)
i=1
La seconda espressione vale in virtù dell'indipendenza stocastica delle
X1 , . . . , Xn .
Inne è immediato ricavare la funzione caratteristica della distribuzione binomiale, infatti per lo
sviluppo in serie della potenza di un binomio si ha
iuX
ψX (u) = E e
=
n
X
t=0
e
iut
n
n t
p (1 − p)n−t = peiu + 1 − p
t
Si consideri ora un numero innito di prove ripetute di un processo bernoulliano (n
(4.12)
= ∞).
Sia
T(1)
la
variabile casuale che indica il numero di prove necessarie aché si verichi il primo successo (talvolta la
variabile aleatoria
T(1)
è denominata tempo di attesa del primo successo nel discreto, dove l'espressione
T(1) è evidentemente una variabile aleatoria
RT(1) = {x ∈ R : x = 1, 2, 3, . . .}. L'evento T(1) = x si
manifesta quando le prime x − 1 prove producono tutti insuccessi mentre l'x-esima produce un successo.
A causa dell'indipendenza delle prove tale probabilità, corrispondente alla funzione di probabilità di T(1) ,
tempo nel discreto è da intendersi come numero di prove).
discreta ed il suo insieme di denizione è dato da
è data semplicemente da
pT(1) (x) = (1 − p)x−1 p x = 1, 2, 3, . . .
La funzione di probabilità appena determinata è detta
geometrica
di parametro
(4.13)
p.
Per il calcolo dei
momenti della funzione di probabilità geometrica si noti che per la somma di inniti termini di una
progressione geometrica vale:
∞
X
(1 − p)t = (1 − p)
t=1
1
1−p
=
1 − (1 − p)
p
e derivando ambo i membri dell'uguaglianza rispetto a
∞
X
t=1
(−1) t (1 − p)t−1 =
p
si ottiene
−p − (1 − p)
1
=− 2
2
p
p
(4.14)
94
A. Pollice - Appunti di Probabilità
dalla quale si ha che
E T(1) =
∞
X
t (1 − p)t−1 p =
t=1
1
p
(4.15)
Inoltre derivando ulteriormente ambo membri della (4.14) si ha
∞
X
t (t − 1) (1 − p)t−2 =
t=1
2
p3
dalla quale si ottiene
∞
X
2 (1 − p)
2
2
− T(1) =
E T(1)
t (t − 1) (1 − p)t−1 p = 3 (1 − p) p =
p
p2
t=1
ovvero
2 (1 − p) 1
2−p
2
2
− T(1) + E T(1) =
E T(1)
= E T(1)
+ =
p2
p
p2
ed inne
Var
2 2 − p
1
1−p
2
T(1) = E T(1)
− E T(1)
=
− 2 =
p2
p
p2
(4.16)
Per la funzione caratteristica della distribuzione geometrica si ha
∞
X
ψT(1) (u) = E eiuT(1) =
eiut (1 − p)t−1 p =
t=1
=
∞
t
p X iu
e (1 − p)
1−p
t=1
eiu (1
peiu
− p)
p
=
,
iu
1 − p 1 − e (1 − p)
1 − eiu (1 − p)
eiu (1 − p) < 1
Una proprietà interessante della distribuzione geometrica è la cosiddetta
(4.17)
mancanza di memoria.
è una variabile aleatoria avente funzione di probabilità geometrica di parametro
Se
T(1)
p, allora si può dimostrare
che vale
PT1 |T1 T(1) ≤ x + t|T(1) > x = PT1 T(1) ≤ t
(4.18)
x prove allora la probabilità che se ne verichi
t prove è uguale alla probabilità che si verichi un successo in t prove. L'informazione
data dal fatto che non si sono avuti successi nelle prime x prove viene trascurata.
In una situazione analoga alla precedente si consideri ora la variabile casuale T(r) che indica il tempo
di attesa dell'r -esimo successo nel discreto, ovvero il numero di prove necessarie anché si verichino r
successi in una successione bernoulliana di prove. T(r) è evidentemente una variabile aleatoria discreta
ed il suo insieme di denizione è dato da RT(r) = {x ∈ R : x = r, r + 1, r + 2, . . .}. L'evento T(r) = x si
manifesta quando l'ultima prova (la x-esima) è un successo e nelle x − 1 prove precedenti si sono vericati
r − 1 successi. A causa dell'indipendenza delle prove tale probabilità, corrispondente alla funzione di
probabilità di T(r) , è data semplicemente da
In altri termini se non si verica alcun successo nelle prime
uno nelle successive
x − 1 r−1
x−1 r
x−r
pT(r) (x) = p
p
(1 − p)
=
p (1 − p)x−r
r−1
r−1
La funzione di probabilità appena determinata è detta
e
p.
x = r, r + 1, r + 2, . . .
binomiale negativa
o
di Pascal
(4.19)
di parametri
Incidentalmente si noti che la (4.19) è una funzione di probabilità anche per valori reali di
r
r
non
necessariamente interi. Si può dimostrare che per il valore atteso e la varianza della variabile aleatoria
T(r)
valgono le due espressioni seguenti
r
E T(r) =
p
(4.20)
Cap.4: Distribuzioni di uso comune
95
r (1 − p)
T(r) =
p2
Var
(4.21)
n prove indik possibili risultati. In altri termini ciascuna
(1) , . . . , s(k) con probabilidelle n prove possa avere come risultato uno di k eventi necessari e incompatibili s
Pk
(j)
tà pari a P s
= pj con j=1 pj = 1. Si consideri il vettore aleatorio X = (X1 , . . . , Xk ) in cui Xj rappresenta il numero di volte che si presenta il j -esimo risultato nelle n prove indipendenti. Il vettore aleatorio X
contiene dunque le frequenze dei k possibili risultati
pertann dell'esperimento riportabili in n prove ripetute,
o
Pk
k
to il suo insieme di denizione ha la forma RX = x ∈ R : xj = 0, . . . , n,
j = 1, . . . , k,
x
=
n
.
j
j=1
Pk
Si voglia calcolare la funzione di probabilità di X . Per un certo argomento x = (x1 , . . . , xk ) con
j=1 xj =
n questa è data da PX (x), ovvero dalla probabilità che le n prove ripetute diano luogo per x1 volte ad s(1) ,
(2) e così via. A causa dell'indipendenza delle prove, la probabilità di una specica sequenper x2 volte ad s
(1) si presenti x volte, s(2) si presenti x volte e così via è pari a px1 px2 · · · pxk . Si noti
za di n prove in cui s
1
2
1 2
k
che le possibili sequenze di questo tipo distinte per l'ordine in cui si presentano i risultati s1 , . . . , sk sono in
n!
numero di
x1 !···xk ! pertanto la funzione di probabilità associata al vettore aleatorio discreto k -dimensionale
X è data dall'espressione seguente
Una generalizzazione del modello bernoulliano è ottenuta considerando una successione di
pendenti in cui ciascuna prova sia un esperimento casuale con
pX1 ,...,Xk (x1 , . . . , xk ) =
n!
px1 px2 · · · pxk k
x1 ! · · · xk ! 1 2
La funzione di probabilità appena determinata è detta
buzione marginale di ciascuna componente
Xj
multinomiale
del vettore aleatorio
x ∈ RX
(4.22)
di parametri
X
n, p1 , . . . , pk .
La distri-
n
è binomiale di parametri
e
pj
e
pertanto
E (Xj ) = npj
Var (Xj )
(4.23)
= npj (1 − pj )
(4.24)
ed inoltre
Cov (Xj Xh )
= −npj ph
(4.25)
Il segno negativo della covarianza deriva dall'ovvia considerazione che, essendo
Xj
la variabile aleatoria
Xh
n
pressato, al crescere di
tende a decrescere.
Si consideri ora uno schema di estrazioni simile a quello bernoulliano dato da una successione di
esperimenti dicotomici corrispondenti a estrazioni senza reinserimento da un'urna contenente
ne di cui
m
M
n
palli-
bianche. Trattandosi di estrazioni senza reinserimento gli esperimenti della successione non
risultano più stocasticamente indipendenti come nello schema bernoulliano.
Tuttavia indicando con
la variabile aleatoria discreta associata al numero di palline bianche ottenute nelle
n
X
estrazioni, è pos-
sibile calcolarne la funzione di probabilità con considerazioni analoghe a quelle che hanno portato alla
RX di questa variabile aleatoria ha la forma
RX = {x ∈ N : max [0, n − (M − m)] ≤ x ≤ min [n, m]}. Detto si l'evento corrispondente all'estrazione di
una pallina bianca all'i-esimo tentativo applicando i principî delle probabilità totali e delle probabilità
distribuzione binomiale. Si noti che l'insieme di denizione
composte si ha
P (s1 ) =
m
M
P (s2 ) = P (s2 |s1 ) P (s1 ) + P (s2 |s1 ) P (s1 ) =
ed in generale
P (si ) =
m−1 m
m M −m
m
+
=
M −1M
M −1 M
M
m
M . In tal caso dunque, analogamente a ciò che accade nello schema bernoulliano,
si ha a che fare con una successione di eventi dicotomici aventi tutti la stessa probabilità di successo, ma
questa volta eventi successivi non risultano indipendenti. Inoltre dato che le
probabilità che si verichi la sequenza
si
s1 ∩ s2 ∩ . . . ∩ sx ∩ sx+1 ∩ sx+2 ∩ . . . ∩ sn
non sono indipendenti la
è data per il principio delle
probabilità composte da
m m−1
m−x+1 M −mM −m−1
M −m−n+x+1
···
···
=
M M −1
M −x+1 M −x M −x−1
M −n+1
(M −m)!
m!
(m−x)! (M −m−n+x)!
M!
(M −n)!
96
A. Pollice - Appunti di Probabilità
Tale probabilità coincide con quella di un qualunque altro ordinamento che contenga esattamente
n
x
bianche e poiché esistono
modi incompatibili di assegnare i posti alle
(M −m)!
m!
n (m−x)! (M −m−n+x)!
n!
pX (x) =
=
M!
x!
(n
− x)!
x
(M −n)!
(M −m)!
m!
(m−x)! (M −m−n+x)!
M!
(M −n)!
La funzione di probabilità appena determinata è detta
x
=
ipergeometrica
x palline
palline bianche si ha che
m
x
M −m
n−x
M
n
di parametri
x ∈ RX
n, M
ed
(4.26)
m.
Media
e varianza di una variabile aleatoria con distribuzione ipergeometrica sono ottenibili considerando che
X=
Pn
i=1 Xi dove le
Xi
sono variabili aleatorie bernoulliane stocasticamente dipendenti e con probabilità
m
M , pertanto
di successo costante pari a
n
X
E (X) = E
!
m
M
(4.27)
m
m M −n
= ··· = n
1−
M
M M −1
(4.28)
=n
Xi
i=1
Var (X)
= Var
n
X
!
Xi
i=1
4.3
Processo di Poisson
Si consideri una variabile aleatoria discreta
sia una funzione decrescente del parametro
Xn con distribuzione binomiale di parametri n
n tale che valgano le due condizioni seguenti
e
pn ,
dove
pn
lim pn = 0
n→∞
npn = µ ∀n
In altri termini si assume che
costante
µ
il prodotto
npn .
pn
decresca al crescere di
n
in modo da lasciare invariato e pari al valore
In tal caso si ha che
n 0
µ n
pXn (0) =
pn (1 − pn )n = 1 −
n
0
Ed inoltre
pXn (x)
=
pXn (x − 1)
n
x
n
x−1
pxn (1 − pn )n−x
px−1
(1 − pn )n−x+1
n
=
Si consideri ora la variabile aleatoria discreta
µ − nµ (x − 1)
n − x + 1 pn
=
x
(1 − pn )
1 − nµ x
X = limn→∞ Xn .
Per
n→∞
x = 1, . . . , n
il numero delle prove del
processo bernoulliano diverge e la probabilità di successo di ciascuna prova tende ad annullarsi. La variabile
aleatoria discreta
X
restituisce il numero di successi in una successione innita di eventi indipendenti la cui
probabilità di successo tende a
posto che
0:
si parla in tal caso di eventi o
limn→∞ pXn = plimn→∞ Xn = pX
e
Nella situazione suddetta,
pX (x) /pX (x − 1) = limn→∞ [pXn (x) /pXn (x − 1)],
pX (0) = lim pXn (0) = lim
n→∞
fenomeni rari.
n→∞
1−
µ n
= e−µ
n
µ − nµ (x − 1)
pX (x)
pXn (x)
µ
= lim
= lim
=
µ
n→∞
n→∞
pX (x − 1)
pXn (x − 1)
x
1− n x
x = 1, . . . , n
si ha
Cap.4: Distribuzioni di uso comune
97
e conseguentemente
pX (1)
pX (0) = µe−µ
pX (0)
pX (2)
µ
µ2 −µ
pX (1) = µe−µ =
e
pX (1)
2
2
pX (3)
µ µ2 −µ µ3 −µ
pX (2) =
e =
e
pX (2)
3 2
6
pX (1) =
pX (2) =
pX (3) =
ed in generale
pX (x) =
µx −µ
e
x!
x = 0, 1, 2, . . .
La funzione di probabilità appena determinata è detta
(4.29)
distribuzione di Poisson
di parametro
µ.
Tale
funzione di probabilità appare dunque come un'approssimazione della distribuzione binomiale quando
è molto grande e la probabilità di successo
aleatoria
X
p
avente distribuzione di Poisson di parametro
E (X) =
µ
t=1
X
coincide con il parametro
E X
2
∞
X
=
t2
t=0
∞
X
=
=
t=1
µ,
ax
x=0 x!
P∞
= ea .
Si noti che anche la varianza
infatti
µt −µ
e
t!
(t − 1 + 1)
t=1
∞
X
(4.30)
t=1
Nell'espressione precedente si è fatto uso del risultato
della variabile aleatoria
è data dal parametro stesso, infatti
∞
∞
∞
X
X
X
µt
µt
µt−1 −µ
t e−µ =
t e−µ = µ
e =µ
t!
t!
(t − 1)!
t=0
n
è molto piccola. La speranza matematica di una variabile
µt
e−µ
(t − 1)!
∞
X µt
µt
(t − 1)
e−µ +
e−µ
(t − 1)!
(t − 1)!
t=1
∞
∞
X
X
µt−2
µt−1
= µ2 e−µ
+ µe−µ
= µ2 + µ
(t − 2)!
(t − 1)!
t=2
t=1
e di conseguenza
Var (X)
= E X 2 − [E (X)]2 = µ
(4.31)
La funzione caratteristica di una variabile aleatoria distribuita con funzione di probabilità di Poisson
è data dall'espressione
ψX (u) =
∞
X
t=0
e
iut µ
t
t!
e
−µ
=e
−µ
∞
X
eiu µ
t!
t
= e−µ ee
iu µ
iu −1
= eµ(e
)
(4.32)
t=0
Oltre che come approssimazione della binomiale la funzione di probabilità di Poisson può essere ricavata
come distribuzione esatta con riferimeno a un processo stocastico a parametro continuo detto
Poisson.
Detta
Xt
processo di
la variabile aleatoria che indica il numero di volte che l'evento in questione si verica
in un intervallo di tempo di lunghezza pressata
t,
il processo di Poisson
{Xt : t ∈ T }
rappresenta il
vericarsi di un certo evento nel tempo posto che valgano le condizioni seguenti:
1. la probabilità che l'evento in questione si verichi una volta in un intervallo di tempo di lunghezza
t
sia proporzionale all'ampiezza dell'intervallo:
PXt (Xt = 1) = λt + o (t)
98
A. Pollice - Appunti di Probabilità
2. la probabilità che l'evento in questione si verichi più di una volta in un intervallo di tempo di
lunghezza
t
sia trascurabile:
PXt (Xt > 1) = o (t)
3. variabili aleatorie associate al numero di eventi che si vericano in intervalli di tempo disgiunti sono
stocasticamente indipendenti.
Se valgono queste tre condizioni, allora la variabile aleatoria
λt,
Xt ha distribuzione di Poisson di parametro
in altri termini
pXt (x) =
In tal caso
λ
(λt)x −λt
e
x!
x = 0, 1, 2, . . .
indica il numero medio di arrivi in un intervallo di tempo di ampiezza unitaria.
Xx rappresenti il numero di volte
x ed abbia funzione di probabilità
La variabile aleatoria discreta
intervallo di tempo di lunghezza
T1
(4.33)
che un certo evento si verica in un
di Poisson di parametro
λx.
Se con
viene indicata una variabile aleatoria continua che rappresenta il tempo necessario anché l'evento in
questione si presenti per la prima volta (tempo di attesa del primo successo nel continuo), allora la sua
funzione di ripartizione è data dall'espressione
FT1 (x) = PT1 (T1 ≤ x) = 1 − PT1 (T1 > x) = 1 − PXx (Xx = 0) = 1 − e−λx
La funzione di densità della variabile aleatoria
fT1 (x) =
T1
x≥0
è data dunque da
d dFT1 (x)
=
1 − e−λx = λe−λx
dx
dx
La funzione di densità appena determinata è detta
esponenziale
x≥0
di parametro
(4.35)
λ.
Dall'espressione della
funzione di densità si ricavano facilmente la media e la varianza della variabile aleatoria
Z
(4.34)
T1
∞
tλe−λt dt
∞ Z ∞ 1
1
−λt
= tλ −
−
λ −
e
e−λt dt
λ
λ
0
0
∞
1
1
= 0+ −
e−λt
=
λ
λ
0
E (T1 ) =
0
E
T12
(4.36)
∞
Z
t2 λe−λt dt
∞ Z ∞
1
1
2
−λt
= t λ −
e
−
2tλ −
e−λt dt
λ
λ
0
0 ∞ Z ∞ 1
1
−λt
2 −
= 0 + 2t −
e
−
e−λt dt
λ
λ
0
0 ∞
1
2
= 0 + 0 + 2 − 2 e−λt
= 2
λ
λ
0
=
0
(4.37)
e di conseguenza
2
Var (T1 ) =
−
λ2
2
1
1
= 2
λ
λ
(4.38)
Cap.4: Distribuzioni di uso comune
99
Per la funzione caratteristica, invece, si ricava l'espressione seguente
∞
Z
ψT1 (u) =
0
Z
eiut λe−λt dt
∞
λet(iu−λ) dt
=
0
= λ
=
∞
1
t(iu−λ)
e
iu − λ
0
λ
iu − λ < 0
λ − iu
(4.39)
Come la distribuzione geometrica anche la densità esponenziale gode della proprietà di mancanza di
memoria. Ciò signica che vale
PT1 |T2 (T1 ≤ x + t|T1 > x) =
=
PT1 (x < T1 ≤ x + t)
P (T1 > x)
FT1 (x + t) − FT1 (x)
1 − FT1 (x)
1 − e−λ(x+t) − 1 + e−λx
e−λx
= PT1 (T1 ≤ t)
=
(4.40)
[0, x] la probabilità che se ne verichi uno
(x, x + t] di ampiezza t è uguale alla probabilità che si verichi un evento
In altri termini se non si verica alcun evento nell'intervallo
nell'intervallo di tempo adiacente
nell'intervallo
[0, t].
A causa di questa proprietà si può aermare che una variabile aleatoria con densità
esponenziale può essere interpretata oltre che come il tempo di attesa del primo successo, come la durata
Tj che separa la (j − 1)-esima e la j -esima manifestazione dell'evento in un processo
j = 1, 2, . . ..
dell'intervallo di tempo
di Poisson, per
Da quanto appena detto si deduce che se ipotizziamo un processo di Poisson caratterizzato da un
numero medio di arrivi nell'intervallo di tempo unitario pari a
λ,
le lunghezze degli intervalli di tempo tra
T1 , T2 , . . .
arrivi successivi corrispondono ad altrettante variabili aleatorie
stocasticamente indipendenti
fT = fT1 = fT2 = · · · esponenziale di parametro λ. Pertanto
Tr∗ associata
Pr al tempo di attesa dell'r-esimo successo nel
∗
continuo è ricavata come densità della somma Tr =
j=1 Tj di r variabili aleatorie indipendenti ed
equidistribuite con distribuzione esponenziale di parametro λ. Per r = 2 si ha, applicando le formule di
ed aventi tutte la medesima distribuzione
la funzione di densità della variabile aleatoria
convoluzione
Z
Z
x
fT (x − t) fT (t) dt =
fT2∗ (x) =
R
λe−λ(x−t) λe−λt dt = λ2 xe−λx
x>0
0
r = 3 si ottiene
Z
Z
∗
∗
fT3 (x) =
fT (x − t) fT2 (t) dt =
Analogamente per
R
x
λe−λ(x−t) λ2 te−λt dt =
0
λ3 2 −λx
x e
2
x>0
ed iterando il procedimento si ha che in generale
fTr∗ (x) =
λr
xr−1 e−λx
(r − 1)!
La funzione di densità appena determinata è detta
λ.
Naturalmente essendo
Tr∗ =
Pr
j=1 Tj
distribuzione di Erlang
ed essendo le
E
(Tt∗ )
=
x>0
r
X
j=1
Tj
(4.41)
di indice
r
(intero) e parametro
mutuamente stocasticamente indipendenti si ha
E (Tj ) =
r
λ
(4.42)
100
A. Pollice - Appunti di Probabilità
∗
Var (Tt
)=
r
X
Var (Tj )
=
j=1
Si consideri ora l'integrale
R∞
0
ta−1 e−t dt
r
λ2
(4.43)
che esiste nito e positivo quando
positiva. In tal caso detto integrale prende il nome di
∞
Z
Γ (a) =
funzione di Eulero
o
a
è una costante reale e
funzione gamma
ta−1 e−t dt
(4.44)
0
Γ (a) =
Γ (a) = (a − 1)!. Inoltre
d'integrazione t = λs si ottiene
Incidentalmente si noti che risolvendo per parti l'integrale precedente si ottiene la relazione
(a − 1) Γ (a − 1)
a
che nel caso particolare di
intero porta iterativamente a
considerando nell'integrale (4.44) la trasformazione della variabile
Z
∞
Γ (a) =
a−1 −λs
(λs)
e
Z
∞
λds =⇒
0
0
Si noti come la parte variabile
sa−1 e−λs
λa a−1 −λs
s e ds = 1
Γ (a)
della funzione integranda risulti identica a quella della distri-
buzione di Erlang, mentre la parte costante
λa
Γ(a) dipenda dal parametro reale e positivo
denire una funzione di densità simile alla (4.41), per la quale l'indice
fX (x) =
λa a−1 −λx
x e
Γ (a)
La funzione di densità appena determinata è detta
a
reale e parametro (di scala)
cui l'indice
a
λ.
a
x>0
distribuzione gamma
a.
Ciò porta a
è un numero reale
(4.45)
di indice (o parametro di forma)
Evidentemente la (4.45) si riconduce alla (4.41) nel caso particolare in
è un numero intero. Per una variabile aleatoria
=
E Xk
=
=
=
E (X) =
=
con funzione di densità gamma si ha
∞
e di conseguenza
Var (X)
X
λa a−1 −λs
sk
s e ds
Γ (a)
0
Z
∞
λa
sa+k−1 e−λs ds
Γ (a) 0
λa Γ (a + k)
Γ (a) λk+a
(a + k − 1) · · · a
λk
Z
a
λ
(a + 1) a a 2
a
−
= 2
λ2
λ
λ
(4.46)
(4.47)
(4.48)
Inoltre la forma della funzione caratteristica associata alla densità gamma è la seguente
ψX (u) =
=
=
=
=
∞
λa a−1 −λs
eius
s e ds
Γ (a)
0
Z ∞
λa
sa−1 e−(λ−iu)s ds
Γ (a) 0
a−1
Z ∞
λa
z
1
e−z
dz
Γ (a) 0
λ − iu
λ − iu
Z ∞
λa
z a−1 e−z dz
Γ (a) (λ − iu)a 0
a
λ
iu < λ
λ − iu
Z
(4.49)
Cap.4: Distribuzioni di uso comune
101
λ−iu < 0, è stato risolto tramite la trasformazione
dove l'integrale precedente, che assume valore innito se
z = (λ − iu) s.
Dalla forma della funzione caratteristica appena ricavata deriva l'importante proprietà
che riguarda la somma di variabili aleatorie indipendenti ed aventi funzione di densità gamma con lo
λ (additività della densità
Xj ∼Gamma[aj , λ] allora vale
stesso parametro di scala
indipendenti con
ψPk
j=1
da cui discende che
Xj
(u) =
k
Y
ψXj (u) =
j=1
gamma).
k Y
j=1
hP
i
k
∼Gamma
j=1 aj , λ .
Pk
j=1 Xj
λ
λ − iu
Infatti se
aj
=
X1 , . . . , Xk
λ
λ − iu
sono mutuamente
Pkj=1 aj
(4.50)
Inne oltre alle densità esponenziale e a quella di
Erlang si considera spesso un altro caso particolare della funzione di densità gamma in cui
In tal caso si ottiene una funzione di densità detta
χ2g ). Si noti che in tal caso vale
chi-quadrato
con
g
a=
g
2 e
λ=
1
2.
gradi di libertà (spesso indicata con
E χ2g = g
2
Var χg = 2g
(4.51)
(4.52)
gamma con parametro di scala pari a
X e Y stocasticamente indipendenti ed aventi entrambe densità
1 e indici rispettivamente a e b, reali e positivi. In altri termini siano
X ∼Gamma[a, 1]
indipendenti, la loro funzione di densità congiunta sia pertanto data
Si considerino due variabili aleatorie
e
Y ∼Gamma[b, 1]
dal prodotto delle due densità
fX,Y (x, y) =
1
xa−1 y b−1 e−(x+y) ,
Γ (a) Γ (b)
x ∈ R+ , y ∈ R+
si voglia determinare la funzione di densità della variabile aleatoria continua
U=
X
X+Y . A tale proposito
si consideri la trasformazione biunivoca
per la quale lo jacobiano vale
X
U = X+Y
V =Y
X=V
Y =V
=⇒
U
1−U
V
. Si noti inoltre che
(1−U )2
RX,Y = (x, y) ∈ R2 : x ∈ R+ , y ∈ R+ =⇒ RU,V = (u, v) ∈ R2 : u ∈ (0, 1) , v ∈ R+
La densità congiunta di
U
ed
V
è data dall'espressione
fU,V (u, v) =
=
1
Γ (a) Γ (b)
u
v
1−u
a−1
u
v b−1 e−(v 1−u +v)
v
ua−1 v a+b−1 − 1−u
1
e
,
a+1
Γ (a) Γ (b) (1 − u)
pertanto la densità marginale della variabile aleatoria
U
v
(1 − u)2
0 < u < 1, v ∈ R+
è individuata dall'integrale seguente, dove la
funzione integranda ha la forma di una densità gamma di indice
a+b
e parametro
(1 − u)−1
a meno della
costante di normalizzazione:
fU (u) =
1
ua−1
Γ (a) Γ (b) (1 − u)a+1
Z
∞
h
i
v a+b−1 exp −v (1 − u)−1 dv
0
=
ua−1
Γ (a + b)
1
a+1
Γ (a) Γ (b) (1 − u)
(1 − u)−(a+b)
=
Γ (a + b) a−1
u
(1 − u)b−1 ,
Γ (a) Γ (b)
0<u<1
(4.53)
102
A. Pollice - Appunti di Probabilità
La funzione (4.53) è detta
densità beta
di parametri (di forma)
a
e
b.
Si noti che valgono
E (U ) =
E U
2
Γ (a + b)
Γ (a) Γ (b)
Γ (a + b)
=
Γ (a) Γ (b)
Z
1
1
Z
ua (1 − u)b−1 du =
0
ua+1 (1 − u)b−1 du =
0
Γ (a + b) Γ (a + 1) Γ (b)
a
=
Γ (a) Γ (b) Γ (a + b + 1)
a+b
(4.54)
Γ (a + b) Γ (a + 2) Γ (b)
(a + 1) a
=
Γ (a) Γ (b) Γ (a + b + 2)
(a + b + 1) (a + b)
e di conseguenza
Var (U )
La forma della funzione di densità varia al variare di
forma campanulare, mentre per
b.
Per
a=b=1
ab
(a + b + 1) (a + b)2
= E U 2 − [E (U )]2 = · · · =
a<1
e
b<1
a
e
b.
a>1
e
b>1
tale densità è di
è a forma di U, in particolare essa è simmetrica per
(0, 1). Inne
b ≤ 1 ≤ a e a ≤ 1 ≤ b.
la densità beta coincide con l'uniforme nell'intervallo
funzione monotona crescente o decrescente rispettivamente se
4.4
Infatti per
(4.55)
a=
tale densità è una
Funzione di densità gaussiana
Si consideri il seguente integrale improprio
∞
2
z
I=
exp −
dz
2
−∞
Z
(4.56)
l'integrale precedente esiste sempre nito, infatti la funzione integranda è continua e positiva ed è maggiorata dalla funzione
exp (− |z| + 1)
2
z
0 < exp −
< exp (− |z| + 1)
2
essendo
z 2 > 2 |z| − 2,
inoltre la funzione maggiorante ha integrale nito
Z
∞
exp (− |z| + 1) dz = 2e
−∞
Per risolvere l'integrale (4.56) ne considero il quadrato
I
2
2 Z ∞
2
2
ZZ
z
x
z + x2
=
exp −
dz
exp −
dx =
exp −
dzdx
2
2
2
−∞
−∞
R2
2
Z 2π Z ∞
Z 2π
√
r
=
exp −
r dr dθ =
dθ = 2π =⇒ I = 2π
2
0
0
0
Z
∞
Nella risoluzione dell'integrale doppio si è utilizzata la trasformazione a coordinate polari
per la quale si ha
|J| = r
x = r cos θ
z = r sin θ
ed inoltre si è considerato
Z
0
∞
2
Z ∞
r
exp −
r dr =
exp (−k) dk = 1
2
0
Dalle considerazioni precedenti ricavo che la funzione
2
1
z
fZ (z) = √ exp −
2
2π
z∈R
(4.57)
Cap.4: Distribuzioni di uso comune
103
è sempre positiva e il suo integrale esteso a tutto
di densità normale standardizzata
R
è pari ad
1.
La funzione (4.57) è detta
funzione
e viene indicata con N (0, 1). Essendo la (4.57) una funzione pari, il
fZ (z) è simmetrico rispetto all'asse delle ordinate, ed inoltre ha forma campanulare.
denisce la funzione di ripartizione FZ (z) della variabile aleatoria Z (detto integrale di
graco della funzione
L'integrale che
Laplace-Gauss) non ha soluzione esplicita ed i suoi valori calcolati tramite metodi numerici sono tabulati
al variare di
z.
Invece la funzione generatrice dei momenti della variabile aleatoria
Z
con funzione di densità normale
standardizzata è data da
∞
Z ∞
1 2
1 − t2
1
e √ e 2 dt = √
e− 2 (t −2ut) dt
2π
2π −∞
−∞
2
u2 Z
u2 Z
∞
∞
u
e2
e2
− 12 (t−u)2
− 12 k2
√
e
dt = √
e
dk = exp
2
2π −∞
2π −∞
|
{z
}
Z
φZ (u) =
=
ut
√
(4.58)
2π
Se si considerano la traslazione e il cambiamento di scala della variabile aleatoria
Z
deniti dalla trasfor-
mazione lineare
X = µX + ZσX
si ottiene la variabile aleatoria
X
la cui funzione di densità è
fX (x) =
detta
funzione di densità normale
e generalmente indicata con
σX
1
√
(x − µX )2
exp −
2
2σX
2π
!
z∈R
(4.59)
gaussiana
2
di parametri (rispettivamente di posizione e scala) µX e σX
2
µX , σX . Lo studio analitico di tale funzione evidenzia che il suo graco
N
o
x = µX e di due essi
aleatoria X con funzione di
ha forma campanulare simmetrica, è dotato di un solo punto di massimo nel punto
nei punti
x = µX ± σX .
La funzione generatrice dei momenti della variabile
densità normale di parametri
µX
e
2
σX
uµX
φX (u) = e
è data da
φZ (uσX ) = e
uµX
e
2
u2 σX
2
1 2 2
= exp uµX + u σX
2
Dall'espressione precedente si ottengono i primi due momenti ordinari della variabile aleatoria
E (X) =
d2 φX (u)
E X2 =
du2
dφX (u)
du
2
= µX + uσX
φX (u)
u=0
2
2
= σX
φX (u) + µX + uσX
2
u=0
= µX
φX (u)
u=0
u=0
(4.60)
X
(4.61)
2
= σX
+ µ2X
da cui
Var (X)
2
= E X 2 − [E (X)]2 = σX
(4.62)
Incidentalmente si noti come nel caso della normale standardizzata la (4.61) e la (4.62) diano luogo a
E (Z) = 0
e Var (Z)
normale: se
X
= 1.
Tramite la (4.60) si può dimostrare la proprietà di
è una variabile aleatoria con
X∼N
2
µX , σX
ed
a
e
b
linearità della distribuzione
sono costanti,
1
2
φaX+b (u) = eub E euaX = eub φX (ua) = exp ub + uaµX + u2 a2 σX
2
da cui si deduce che
2
aX + b ∼ N aµX + b, a2 σX
(4.63)
104
A. Pollice - Appunti di Probabilità
In altri termini qualsiasi trasformazione lineare
aX +b di una variabile aleatoria X
distribuita normalmente
2
con parametri µX e σX ha densità normale con media e varianza rispettivamente date da
2
2
a σX .
Sempre tramite la (4.60) si può dimostrare la proprietà di
X1 , . . . , Xn
Xj ∼ N
sono variabili aleatorie indipendenti con
aµX + b
e da
additività
della distribuzione normale:
2
µXj , σX
j
per
j = 1, . . . , n
ed
se
a1 , . . . , a n
costanti,
φP n
j=1
aj Xj
(u) =
n
Y
φaj Xj (u) =
j=1
n
Y
n
Y
φXj (aj u)
j=1
1 2 2 2
=
exp aj uµXj + aj u σXj
2
j=1


n
n
X
X
1
2 
= exp u
aj µXj + u2
a2j σX
j
2
j=1
da cui si deduce che
n
X
j=1


n
n
X
X
2 
aj Xj ∼ N 
aj µXj ,
a2j σX
j
j=1
j=1
(4.64)
j=1
Pn
j=1 aj Xj di n ≥ 2 variabili aleatorie stocasticamente indipen2
denti distribuite normalmente con parametri µXj e σX per j = 1, . . . , n, è una variabile aleatoria con
j
Pn
Pn
2 2
densità normale con media e varianza rispettivamente date da
j=1 aj σXj .
j=1 aj µXj e da
In altri termini una combinazione lineare
Si considerino due variabili aleatorie indipendenti
X
ed
Y
aventi entrambe densità normale standar-
dizzata. La loro funzione di densità congiunta sia pertanto data dal prodotto delle due densità
y2
x2
1
1 − x2 +y2
1
2
e
,
fX,Y (x, y) = √ e− 2 √ e− 2 =
2π
2π
2π
x ∈ R, y ∈ R
si voglia determinare la funzione di densità della variabile aleatoria continua
U =
X
Y . A tale proposito si
consideri la trasformazione biunivoca
per la quale lo jacobiano vale
|A|.
U=X
Y
A=Y
=⇒
X = UA
Y =A
Si noti inoltre che
RX,Y = (x, y) ∈ R2 =⇒ RU,A = (u, a) ∈ R2
Pertanto la densità congiunta di
U
ed
A
è data dall'espressione
fU,A (u, a) =
2
1
2 u +1
|a| e−a 2 ,
2π
quindi la densità marginale della variabile aleatoria
2
la trasformazione a
= b,
U
u ∈ R, a ∈ R
è individuata dall'integrale seguente in cui, dopo
la funzione integranda prende la forma della parte variabile di una densità
(u2 + 1)/2 a meno della costante di normalizzazione
Z ∞
Z
2
1
1 ∞ −a2 u2 +1
−a2 u 2+1
2 da
|a| e
ae
fU (u) =
da =
2π −∞
π 0
Z ∞
u2 +1
1
1
2
1 1
=
e−b 2 db =
=
,
u∈R
2
2π 0
2π u + 1
π u2 + 1
esponenziale di parametro
(4.65)
Cap.4: Distribuzioni di uso comune
105
La funzione di densità appena determinata, corrispondente al rapporto tra due variabili aleatorie indipendenti con densità normale standardizzata, è detta
di Cauchy.
Si noti che gli integrali che deniscono i
momenti ordinari di una variabile aleatoria con densità di Cauchy non esistono niti, pertanto tale variabile aleatoria non risulta dotata dei momenti. Inoltre la forma della funzione di densità è simile a quella
della
N (0, 1),
con una maggiore dispersione attorno al valore medio.
di Cauchy è ottenibile anche applicando la trasformazione
distribuzione uniforme nell'intervallo
Sia
Z
Si può dimostrare che la densità
ad una variabile aleatoria
Z
con
(0, 2π).
una variabile aleatoria continua con densità normale standardizzata. Per ricavare la funzione
X = Z2
di densità della trasformazione non biunivoca
x∈
U = tan Z
si consideri la funzione di ripartizione
FX (x)
per
R+
√
√ FX (x) = PZ Z 2 ≤ x = PZ − x ≤ Z ≤ x
Z √x
Z √x
2
t2
1
2
− t2
= √
e
dt = √
e− 2 dt
√
2π − x
2π 0
Z x
1
s
1
s− 2 e− 2 ds
= √
2π 0
X
da cui risulta che la funzione di densità della variabile aleatoria
ha la forma
1
x
1
fX (x) = √ x− 2 e− 2
2π
(4.66)
Si noti che l'espressione precedente è quella di una densità gamma di parametri
chi quadrato con
g=1
1
1
2 e 2 , ovvero quella di una
gradi di libertà. Quanto appena dimostrato, insieme all'additività della densità
gamma, consente di aermare che la somma dei quadrati di
g
variabili aleatorie indipendenti e aventi
g gradi di libertà.
N (0, 1) e una variabile aleatoria Y
densità normale standardizzata ha a sua volta densità chi quadrato con
Si considerino una variabile aleatoria
X
con densità
con densità
χ2g
stocasticamente indipendenti. La loro funzione di densità congiunta sia pertanto data dal prodotto delle
due densità
fX,Y
g
1 − x2 12 2 g −1 − y
y 2 e 2 ,
(x, y) = √ e 2
Γ g2
2π
x ∈ R, y ∈ R+
si voglia determinare la funzione di densità della variabile aleatoria continua
U =
qX . A tale proposito
Y
g
si consideri la trasformazione biunivoca
(
U=
qX
Y
g
(
=⇒
A=Y
per la quale lo jacobiano vale
q
X=U
q
A
g
Y =A
A
g . Si noti inoltre che
RX,Y = (x, y) ∈ R2 : x ∈ R, y ∈ R+ =⇒ RU,A = (u, a) ∈ R2 : u ∈ R, a ∈ R+
Pertanto la densità congiunta di
fU,A (u, a) =
=
U
ed
A
è data dall'espressione
g
r
1 − u2g2 a 12 2 g −1 − a a
2
2
√ e
a
e
g
Γ g2
2π
g+1
1
a
u2
−1
2
a
exp
−
1
+
,
g
√
2
g
2πgΓ g2 2 2
u ∈ R, a ∈ R+
106
A. Pollice - Appunti di Probabilità
quindi la densità marginale della variabile aleatoria
U
è individuata dall'integrale
seguente,
dove la funzione
integranda ha la forma di una densità gamma di indice
g+1
1
2 e parametro 2
1+
u2
g
a meno della costante
di normalizzazione, pertanto
fU (u) =
√
Z
1
a
g g2
2 2
2πgΓ
∞
a
u2
exp −
1+
da =
2
g
g+1
−1
2
0
g+1
Γ
2
1
√
i g+1
g g2 h 2πgΓ 2 2 1
2
u2
1
+
2
g
Γ g+1
2
1
u∈R
√
g g+1 ,
πgΓ 2
2
u2
1+ g
=
=
(4.67)
La funzione di densità appena determinata, corrispondente al rapporto tra una variabile aleatoria con
densità normale standardizzata e la radice quadrata di una variabile aleatoria indipendente dalla prima ed
g gradi di libertà, è detta t di Student con g gradi di libertà. Si noti
E (U ) = 0 e Var (U ) = g/ (g − 2) se g > 2. Inoltre la forma della funzione di densità è simile
a quella della N (0, 1) con una maggiore dispersione attorno al valore medio e tende ad essa all'aumentare
dei gradi di libertà. L'espressione della funzione di ripartizione della distribuzione t di Student non è nota
avente distribuzione chi quadrato con
che valgono
in forma esplicita ed i suoi valori calcolati tramite metodi numerici sono tabulati al variare dei gradi di
libertà
g.
Si considerino una variabile aleatoria
X
con densità
χ2g
e una variabile aleatoria
Y
con densità
χ2h
stocasticamente indipendenti. La loro funzione di densità congiunta sia pertanto data dal prodotto delle
due densità
fX,Y (x, y) =
1
2
Γ
g
2
g
−1 − x2
2
e
gx
2
1
2
Γ
h
2
h
2
y
g
h
−1
2
e
− y2
h
x+y
x 2 −1 y 2 −1 e− 2
=
g+h ,
Γ g2 Γ h2 2 2
x ∈ R+ , y ∈ R+
si voglia determinare la funzione di densità della variabile aleatoria continua
U =
X
g
Y
h
. A tale proposito si
consideri la trasformazione biunivoca
per la quale lo jacobiano vale
U = hX
gY
A=Y
=⇒
X = hg U A
Y =A
g
h A. Si noti inoltre che
RX,Y = (x, y) ∈ R2 : x ∈ R+ , y ∈ R+ =⇒ RU,A = (u, a) ∈ R2 : u ∈ R+ , a ∈ R+
Pertanto la densità congiunta di
U
ed
A
è data dall'espressione
g
fU,A (u, a) =
=
−1 h −1 − a ( g u+1)
g
2
a2 e 2 h
g
h ua
a
g+h
h
Γ g2 Γ h2 2 2
g
a g
g 2 g2 −1 g+h
u
a 2 −1 e− 2 ( h u+1)
h
,
g+h
Γ g2 Γ h2 2 2
quindi la densità marginale della variabile aleatoria
U
u ∈ R+ , a ∈ R+
è individuata dall'integrale seguente, dove la funzione
integranda ha la forma di una densità gamma di indice
g+h
1
2 e parametro 2
g
hu
+1
a meno della costante
Cap.4: Distribuzioni di uso comune
107
di normalizzazione, pertanto
g
g
Z ∞
g+h
u 2 −1
a g
a 2 −1 e− 2 ( h u+1) da =
g+h
Γ g2 Γ h2 2 2 0
g
g+h
g 2 g2 −1
Γ
u
2
h
g+h g+h
Γ g2 Γ h2 2 2 1 g u + 1 2
2 h
g
g g
Γ g+h
2
u 2 −1
2
u ∈ R+
g+h ,
h
g
Γ g2 Γ h2
u+1 2
g 2
h
fU (u) =
=
=
(4.68)
h
La funzione di densità appena determinata, corrispondente al rapporto tra due variabili aleatorie indipendenti con densità chi quadrato rapportate ai propri gradi di libertà, è detta
bertà. Si noti che valgono
se
h > 4.
E (U ) = h/ (h − 2) se h > 2 e Var (U ) =
F di Fisher.h
con g ed h gradi di lii
g (h − 2)2 (h − 4)
2h2 (g
L'espressione della funzione di ripartizione della distribuzione
+ h − 2)
F di Fisher
non è nota in forma
esplicita ed i suoi valori calcolati tramite metodi numerici sono tabulati al variare dei gradi di libertà
h.
Si osservi che il quadrato di una variabile aleatoria avente densità
F di Fisher con 1 e g gradi di libertà.
Z1 , . . . , Zk variabili aleatorie mutuamente
t
di Student con
g
g
ed
gradi di libertà
ha densità
Siano
normale standardizzata.
(Z1 , . . . , Zk )T
La funzione di densità congiunta del vettore aleatorio
z = (z1 , . . . , zk )T .

k
Y
k -dimensionale
k
1X
2
1
1
√ e−zj /2 =
exp −
k/2
2
2π
(2π)
j=1
Si consideri il vettore aleatorio
mazione lineare tramite la matrice quadrata
vettore
k -dimensionale Z =
è pertanto data dall'espressione
fZ1 ,...,Zk (z1 , . . . , zk ) =
dove
stocasticamente indipendenti aventi tutte densità
di costanti
k×k

zj2  =
j=1
1
1 T
z
k/2
e− 2 z
,
z ∈ Rk
(2π)
k -dimensionale X denito dalla seguente trasforC non singolare (ovvero invertibile) ed il
di costanti
b
X = CZ + b =⇒ Z = C −1 (X − b)
per la quale lo jacobiano vale
|C|−1 .
Si noti inoltre che
o
o
n
n
RZ = z ∈ Rk =⇒ RX = x ∈ Rk
Pertanto per
x = (x1 , . . . , xk ),
la densità congiunta del vettore aleatorio
fX1 ,...,Xk (x1 , . . . , xk ) =
=
1
k/2
(2π)
1
|C|
1
(2π)k/2 |C|
e− 2 [C
X
è data da
−1 (x−b) T C −1 (x−b)
]
T
1
T
e− 2 (x−b) (CC )
−1
(x−b)
,
x ∈ Rk
(4.69)
E (Z) = (E (Z1 ) , . . . , E (Zk ))T = (0, . . . , 0)T e che, data l'indipendenza delle componenti
Z , vale ΣZ = Var (Z) = Ik . Pertanto per il vettore aleatorio X si ha
Si noti inoltre che
del vettore
µX = E (X) = E (CZ + b) = b
ΣX = Var (X) = Var (CZ + b) = C Var (Z) C T = CΣZ C T = CC T
In conclusione sostituendo le due espressioni precedenti nella (4.69) si ha
fX1 ,...,Xk (x1 , . . . , xk ) =
1
(2π)
k/2
|ΣX |
1
1/2
T
e− 2 (x−µX )
Σ−1
X (x−µX )
,
x ∈ Rk
(4.70)
108
A. Pollice - Appunti di Probabilità
La funzione di densità
k -dimensionale
appena determinata è detta
normale k-dimensionale
di parame-
µX e ΣX , rispettivamente vettore delle medie e matrice di varianze e covarianze del vettore aleak -dimensionale X . Generalmente con X ∼ Nk (µX , ΣX ) si indica che X ha densità normale k dimensionale di parametri µX e ΣX . Nel seguito vengono enunciate le principali proprietà della densità
tri
torio
normale multivariata.
1.
Linearità.
Qualsiasi trasformazione lineare di un vettore aleatorio avente densità normale multiva-
riata ha a sua volta densità normale multivariata. In altri termini se
matrice
h×k
ed un vettore
h-dimensionale
A e a sono rispettivamente una
di costanti, si ha
X ∼ Nk (µX , ΣX ) =⇒ AX + a ∼ Nh AµX + a, AΣX AT
2.
Additività.
(4.71)
n ≥ 2 vettori aleatori aventi densità normale multivariata
ha a sua volta densità normale multivariata. In altri termini se X1 , . . . , Xn sono vettori aleatori
stocasticamente indipendenti con densità normale kj -dimensionale Xj ∼ Nkj µXj , ΣXj
per j =
1, . . . , n ed A1 , . . . , An matrici di costanti di dimensioni h × kj per j = 1, . . . , n, si ha


n
n
X
X
A1 X1 + · · · + An Xn ∼ Nh 
Aj µXj ,
Aj ΣXj ATj 
Una combinazione lineare di
j=1
3.
Densità marginali.
j=1
Le distribuzioni marginali degli elementi di un vettore aleatorio avente densità
normale multivariata hanno a loro volta densità normale univariata. In altri termini si ha
X = (X1 , . . . , Xk )T ∼ Nk (µX , ΣX ) =⇒ Xj ∼ N (µj , σj ) ,
dove
µj
e
σj2
sono rispettivamente il
j -esimo
elemento di
µX
e il
j -esimo
j = 1, . . . , k
(4.72)
elemento della diagonale di
ΣX .
4.
Incorrelazione e indipendenza.
L'assenza di correlazione tra le componenti di un vettore alea-
torio con densità normale multidimensionale è condizione necessaria e suciente per la loro indipendenza.
In altri termini, se
X
è un vettore aleatorio avente densità normale multivariata con
matrice di varianze e covarianze diagonale
ΣX =
diag
σ12 , . . . , σk2
, allora le componenti di
X
sono
stocasticamente indipendenti e viceversa.
5.
Densità condizionate.
Le densità condizionate di sottoinsiemi degli elementi di un vettore alea-
torio avente densità normale multivariata hanno a loro volte densità normale multivariata.