Variabili Aleatorie vettoriali
Variabili aleatorie vettoriali
• Variabili aleatorie vettoriali: Introduzione
• Variabili aleatorie indipendenti
• Indici di posizione per VA vettoriali
• Trasformazioni di VA vettoriali
• Indici di dispersione: Momenti
• Matrice di Covarianza
• Propagazione della Covarianza
1
V.A. VETTORIALI
• Spesso nelle esperienze aleatorie si osservano più quantità
contemporaneamente.
• E’ evidente che è possibile generalizzare il concetto di
variabile
i bil aleatoria
l t i iintroducendo
t d
d lla VA vettoriale:
tt i l
Y = Y1 , Y2 , ..., YN
T
• Una VA vettoriale ad N componenti è rappresentabile in uno
spazio ad N dimensioni.
2 gli eventi sono sottoinsiemi del piano.
• Se N=2
2
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
1
V.A. VETTORIALI
• Se in un esperimento aleatorio osserviamo 2 quantità
dobbiamo associare all’esperimento due variabili aleatorie: Y1
ed Y2.
• Ogni esecuzione dell’esperimento fornisce una coppia di
numeri (y1 ed y2)
Y2
b2
a2
a1
• Se si conosce la probabilità:
b1 Y
1
P {a1 < Y1 ≤ b1 , a2 < Y2 ≤ b2 }
3
V.A. VETTORIALI
• La distribuzione di probabilità della VA vettoriale Y è:
FY ( y10 , y20 ) = P(Y1 ≤ y10 , Y2 ≤ y20 )
P[a1 < Y1 ≤ b1 , a2 < Y2 ≤ b2 ] = FY (b1 , b2 ) − FY (a1 , b2 ) − FY (b1 , a2 ) + FY (a1 , a2 )
• La densità di probabilità è:
y1 y 2
FY ( y1 , y2 ) = ∫ ∫ f Y (u , v )du dv
−∞ −∞
P[a1 < Y1 ≤ b1 , a2 < Y2 ≤ b2 ] = ∫ ∫ f Y ( y1 , y2 )dy
d 1 dy
d 2
b2 b1
a 2 a1
+∞ +∞
∫ ∫ f Y ( y1 , y2 )dy1 dy2 = 1
−∞ −∞
4
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
2
V.A. VETTORIALI –
Distribuzioni Marginali
• Ad ogni distribuzione bidimensionale possiamo associare 2
distribuzioni marginali monodimensionali che sono dette
distribuzioni marginali:
g
FY1 ( y1 ) = P {Y1 ≤ y1 , −∞ < Y2 < ∞} =
y1 ∞
∫ ∫ f ( w, v ) dwdv
−∞ −∞
• Analogamente, si può osservare:
fY1 ( y1 ) =
+∞
∫ f ( w, v ) dv
−∞
fY2 ( y 2 ) =
+∞
∫ f ( w, v ) dw
−∞
• Le distribuzioni marginali fY1 e fY2 rappresentano le
probabilità che si verifichino, rispettivamente gli eventi Y1 e
Y2, indipendentemente dall’esito dell’altra componente
5
V.A. VETTORIALI –
Distribuzioni marginali
• La F della VA vettoriale si dice congiunta. Nel caso generico Ndimensionale si ha una F congiunta ed N marginali.
• Importante:
• Dalla funzione densità di probabilità (distribuzione) congiunta è
sempre possibile risalire alle funzioni densità di probabilità
(distribuzioni) marginali, mentre non è in genere vero il contrario
Distribuzione
congiunta
Distribuzioni
marginali
6
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
3
V.A. VETTORIALI –
Definizione VA indipendenti
• Esempio 2D
• Due VA Y1 ed Y2 di congiunta F(y1, y2) si dicono indipendenti se:
F ( y1 , y2 ) = Fy1 ( y1 ) Fy2 ( y2 )
f ( y1 , y2 ) = f y1 ( y1 ) f y2 ( y2 )
• In tal caso:
Distribuzione
congiunta
Distribuzioni
marginali
7
Indici di posizione per VA vettoriali
• La media della VA marginale Yi è data da:
+∞
μYi = E [Yi ] = ∫ yi fYi ( yi )dyi
caso continuo
μYi = E [Yi ] = ∑ yi fYi ( yi )
caso discreto
−∞
i
• La media della VA congiunta è un vettore μy le cui componenti iesime sono le medie delle corrispondenti marginali:
⎡ μY 1 ⎤
⎢μ ⎥
μY = ⎢ Y 2 ⎥
⎢ ... ⎥
⎢ ⎥
⎣ μYN ⎦
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
EY [Y ] = μ Y
8
4
Trasformazioni di Variabili Aleatorie
Vettoriali
• I concetti esposti per le trasformazioni di variabili scalari
possono essere estesi al caso vettoriale.
• Si consideri
id i lla generica
i ttrasformazione:
f
i
g1 (Y1 , Y2 ,..., Yn )
Y1
Y=
Y2
,
...
Yn
Y ∈ ℜn
Z=
g 2 (Y1 , Y2 ,..., Yn )
,
...
g m (Y1 , Y2 ,..., Yn )
Z ∈ ℜm
Z = g(Y )
o, equivalentemente
9
Trasformazioni di Variabili Aleatorie
Vettoriali
• Teorema della media per variabili aleatorie vettoriali:
• Si può dimostrare che:
EZ [Z ] = EY [g(Y )]
∀n, m
• Ne consegue che, per trasformazioni lineari:
Z
(m × 1)
=
A
(m × n )
⋅
Y
(n × 1)
+
B
(m × 1)
⇒
μZ = A ⋅ μY + B
• Nel caso di trasformazioni non lineari è possibile in genere
ricorrere all’espressione approssimata:
μ Z ≈ g (μ Y )
10
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
5
Indici di posizione e dispersione per le VA
vettoriali - Momenti
• Momenti centrali misti del secondo ordine.
μik = E [(Yi − μi )(Yk − μk )] = σ ik
• Proprietà:
• Per i ≠ k , lo scalare σik è definita covarianza delle componenti iesima e k-esima
• Ovviamente σik = σki
• Per i = k si ha invece la varianza della componente i-esima
[
]
μii = E (Yi − μi ) = σ i2
2
11
Indici di posizione e dispersione per le VA
vettoriali - Momenti
• In genere. i momenti centrali del secondo ordine sono
rappresentati in forma matriciale nella cosiddetta matrice di
covarianza:
[
VY = EY (Y − μ Y ) ⋅ (Y − μ Y )
T
]
⎡σ 12 σ 12 σ 13
⎢
2
⎢σ 12 σ 2 σ 23
= ⎢σ 13 σ 23 σ 32
⎢
M
M
⎢ M
⎢⎣σ n1 σ n 2 σ n 3
L σ 1n ⎤
⎥
L σ 2n ⎥
L σ 3n ⎥
⎥
O M ⎥
L σ n2 ⎥⎦
Varianze delle
componenti della
VA vettoriale
12
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
6
Indici di posizione e dispersione per le VA
vettoriali - Momenti
• Proprietà matrice di covarianza
• V è una matrice quadrata, simmetrica e sempre definita
positiva,
iti
ovvero
aT
⋅
(1 × n )
V
⋅
(n × n )
a
≥
(n × 1)
0
(1× 1)
∀a ∈ ℜn
• Nel caso di stretta positività si può derivare l’ulteriore
proprietà:
proprietà
det (V ) ≠ 0
• La matrice è regolare e quindi invertibile
13
Trasformazioni di VA vettoriali –
Propagazione della covarianza
• Si consideri la generica trasformazione Z = g(Y).
Z = g(Y )
Z ∈ Rn , Y ∈ Rm
• Siano noti
– Il vettore delle medie μY
– La matrice di covarianza VY
• Si intende determinare la matrice di covarianza VZ della nuova
VA vettoriale Z.
14
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
7
Trasformazioni di VA vettoriali –
Propagazione della covarianza
• Caso di trasformazione lineare
Z
=
(m × 1)
A
⋅
(m × n )
Y
+
(n × 1)
B
(m × 1)
• Si può facilmente dimostrare che:
[
]
= E [(A ⋅ Y + B − (A ⋅ μ + B )) ⋅ (A ⋅ Y + B − (A ⋅ μ
= E [A ⋅ (Y − μ ) ⋅ (A ⋅ (Y − μ )) ]
= E [A ⋅ (Y − μ ) ⋅ (Y − μ ) ⋅ A ]
= A ⋅ E [(Y − μ ) ⋅ (Y − μ ) ]⋅ A = A ⋅ V ⋅ A
VZ = EZ (Z − μ Z ) ⋅ (Z − μ Z )
T
Y
Y
+ B ))
T
Y
]
T
Y
Y
Y
T
Y
Y
Y
Y
Y
T
Y
T
T
T
Y
15
Trasformazioni di VA vettoriali –
Propagazione della covarianza
• Si consideri la trasformazione Z = g(Y).
• Approssimando
pp
la dipendenza
p
con lo sviluppo
pp in serie di Taylor
y
al
primo ordine:
⎛ ∂g ⎞
Z = g(Y ) ≈ g(μ Y ) + ⎜⎜ ⎟⎟ (Y − μ Y ) = g(μ Y ) + J ⋅ (Y − μ Y )
⎝ ∂y ⎠μ
Y
• dove J è lo jacobiano:
(J )
kl
=
∂g k
∂yl
k = 1,..., m
l = 1,...n
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
⎡ ∂g1
⎢ ∂y
⎢ 1
⎢ ∂g 2
J = ⎢ ∂y1
( m× n )
⎢ M
⎢ ∂g m
⎢
⎣ ∂y1
∂g1
∂y2
∂g 2
∂y2
M
∂g m
∂y2
∂g1 ⎤
∂yn ⎥
⎥
∂g 2 ⎥
L
∂yn ⎥
O
M ⎥
∂g m ⎥
L
⎥
∂yn ⎦
L
16
8
Trasformazioni di VA vettoriali –
Propagazione della covarianza
• Da cui, sfruttando le espressioni già ricavate per le
trasformazioni lineari:
VZ
≈
(m × m )
J
⋅
(m × n )
VY
⋅
(n × n )
JT
(n × m )
17
Trasformazioni di VA – Propagazione della
Covarianza
• Esempio – m =1, n=2
Z = g (Y1 , Y2 )
Y ∈ R2 , Z ∈ R
• Da una variabile aleatoria vettoriale ricavo una VA scalare
⎛ ∂g
σ Z2 = ⎜
⎜ ∂y1
μ
⎝
2
Y
⎞ 2 ⎛ ∂g
⎟ σ +⎜
⎟ Y 1 ⎜ ∂y2
⎝
⎠
2
μY
⎛
⎞ 2
⎟ σ + 2⎜ ∂g
Y2
⎜ ∂y1
⎟
μ
⎝
⎠
Y
⎞⎛ ∂g
⎟⎜
⎟⎜ ∂y2
⎠⎝
μY
⎞
⎟σ
⎟ Y 1Y 2
⎠
• Nel
N l caso
s di una
n ttrasformazione
sf m i n lin
lineare Z = a1 Y1+ a2 Y2:
σ Z2 = a12σ Y21 + a22σ Y2 2 + 2a1 a2 σ Y 1Y 2
18
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
9
Variabili Aleatorie Vettoriali – Funzione
densità di probabilità condizionata
• Nel caso di VA multidimensionale è possibile introdurre il
concetto di funzione densità di probabilità condizionata.
• Sia
Si Y œ Rn un vettore
tt
di variabili
i bili aleatorie
l t i ttale
l che:
h
⎡Y ⎤
Y = ⎢ 1⎥
⎣Y2 ⎦
Y1 ∈ R p , Y2 ∈ R n − p
• È possibile introdurre la probabilità di Y1 condizionata dalle
componenti Y2:
fY
Y2
1
(y
1
y2 ) =
f Y (y )
f Y2 (y 2 )
• E la funzione densità di probabilità di Y2 condizionata dalle
componenti Y1:
fY
2
Y1
(y y ) =
2
1
f Y (y )
f Y1 (y1 )
19
Variabili Aleatorie Vettoriali – Funzione
densità di probabilità condizionata
• Caso particolare: VA vettoriali bidimensionali
⎡Y ⎤
Y = ⎢ 1⎥
⎣Y2 ⎦
Y1 , Y2 ∈ R
fY 1 Y 2 ( y1 y2 ) =
f Y ( y1 , y2 )
;
f y ( y2 )
f y 2 ( y2 ) = ∫ f Y ( y1 , y2 )dy1 ≠ 0
f Y ( y1 , y2 )
;
f y ( y1 )
f y1 ( y1 ) = ∫ f Y ( y1 , y2 )dy2 ≠ 0
2
fY 2 Y 1 ( y2 y1 ) =
1
+∞
−∞
+∞
−∞
20
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
10
Variabili Aleatorie Vettoriali – Funzione
densità di probabilità condizionata
• Da notare che nel caso di variabili aleatorie Y1 e Y2 indipendenti:
f Y ( y1 , y2 ) = fY ( y1 ) fY ( y2 )
1
• si ha:
2
fY 1 Y 2 ( y1 y2 ) = fY ( y1 )
1
fY 2 Y 1 ( y2 y1 ) = fY ( y2 )
2
21
Statistica - M. Grosso
Variabili Aleatorie Vettoriali
11