Variabili Aleatorie vettoriali Variabili aleatorie vettoriali • Variabili aleatorie vettoriali: Introduzione • Variabili aleatorie indipendenti • Indici di posizione per VA vettoriali • Trasformazioni di VA vettoriali • Indici di dispersione: Momenti • Matrice di Covarianza • Propagazione della Covarianza 1 V.A. VETTORIALI • Spesso nelle esperienze aleatorie si osservano più quantità contemporaneamente. • E’ evidente che è possibile generalizzare il concetto di variabile i bil aleatoria l t i iintroducendo t d d lla VA vettoriale: tt i l Y = Y1 , Y2 , ..., YN T • Una VA vettoriale ad N componenti è rappresentabile in uno spazio ad N dimensioni. 2 gli eventi sono sottoinsiemi del piano. • Se N=2 2 Statistica - M. Grosso Variabili Aleatorie Vettoriali 1 V.A. VETTORIALI • Se in un esperimento aleatorio osserviamo 2 quantità dobbiamo associare all’esperimento due variabili aleatorie: Y1 ed Y2. • Ogni esecuzione dell’esperimento fornisce una coppia di numeri (y1 ed y2) Y2 b2 a2 a1 • Se si conosce la probabilità: b1 Y 1 P {a1 < Y1 ≤ b1 , a2 < Y2 ≤ b2 } 3 V.A. VETTORIALI • La distribuzione di probabilità della VA vettoriale Y è: FY ( y10 , y20 ) = P(Y1 ≤ y10 , Y2 ≤ y20 ) P[a1 < Y1 ≤ b1 , a2 < Y2 ≤ b2 ] = FY (b1 , b2 ) − FY (a1 , b2 ) − FY (b1 , a2 ) + FY (a1 , a2 ) • La densità di probabilità è: y1 y 2 FY ( y1 , y2 ) = ∫ ∫ f Y (u , v )du dv −∞ −∞ P[a1 < Y1 ≤ b1 , a2 < Y2 ≤ b2 ] = ∫ ∫ f Y ( y1 , y2 )dy d 1 dy d 2 b2 b1 a 2 a1 +∞ +∞ ∫ ∫ f Y ( y1 , y2 )dy1 dy2 = 1 −∞ −∞ 4 Statistica - M. Grosso Variabili Aleatorie Vettoriali 2 V.A. VETTORIALI – Distribuzioni Marginali • Ad ogni distribuzione bidimensionale possiamo associare 2 distribuzioni marginali monodimensionali che sono dette distribuzioni marginali: g FY1 ( y1 ) = P {Y1 ≤ y1 , −∞ < Y2 < ∞} = y1 ∞ ∫ ∫ f ( w, v ) dwdv −∞ −∞ • Analogamente, si può osservare: fY1 ( y1 ) = +∞ ∫ f ( w, v ) dv −∞ fY2 ( y 2 ) = +∞ ∫ f ( w, v ) dw −∞ • Le distribuzioni marginali fY1 e fY2 rappresentano le probabilità che si verifichino, rispettivamente gli eventi Y1 e Y2, indipendentemente dall’esito dell’altra componente 5 V.A. VETTORIALI – Distribuzioni marginali • La F della VA vettoriale si dice congiunta. Nel caso generico Ndimensionale si ha una F congiunta ed N marginali. • Importante: • Dalla funzione densità di probabilità (distribuzione) congiunta è sempre possibile risalire alle funzioni densità di probabilità (distribuzioni) marginali, mentre non è in genere vero il contrario Distribuzione congiunta Distribuzioni marginali 6 Statistica - M. Grosso Variabili Aleatorie Vettoriali 3 V.A. VETTORIALI – Definizione VA indipendenti • Esempio 2D • Due VA Y1 ed Y2 di congiunta F(y1, y2) si dicono indipendenti se: F ( y1 , y2 ) = Fy1 ( y1 ) Fy2 ( y2 ) f ( y1 , y2 ) = f y1 ( y1 ) f y2 ( y2 ) • In tal caso: Distribuzione congiunta Distribuzioni marginali 7 Indici di posizione per VA vettoriali • La media della VA marginale Yi è data da: +∞ μYi = E [Yi ] = ∫ yi fYi ( yi )dyi caso continuo μYi = E [Yi ] = ∑ yi fYi ( yi ) caso discreto −∞ i • La media della VA congiunta è un vettore μy le cui componenti iesime sono le medie delle corrispondenti marginali: ⎡ μY 1 ⎤ ⎢μ ⎥ μY = ⎢ Y 2 ⎥ ⎢ ... ⎥ ⎢ ⎥ ⎣ μYN ⎦ Statistica - M. Grosso Variabili Aleatorie Vettoriali EY [Y ] = μ Y 8 4 Trasformazioni di Variabili Aleatorie Vettoriali • I concetti esposti per le trasformazioni di variabili scalari possono essere estesi al caso vettoriale. • Si consideri id i lla generica i ttrasformazione: f i g1 (Y1 , Y2 ,..., Yn ) Y1 Y= Y2 , ... Yn Y ∈ ℜn Z= g 2 (Y1 , Y2 ,..., Yn ) , ... g m (Y1 , Y2 ,..., Yn ) Z ∈ ℜm Z = g(Y ) o, equivalentemente 9 Trasformazioni di Variabili Aleatorie Vettoriali • Teorema della media per variabili aleatorie vettoriali: • Si può dimostrare che: EZ [Z ] = EY [g(Y )] ∀n, m • Ne consegue che, per trasformazioni lineari: Z (m × 1) = A (m × n ) ⋅ Y (n × 1) + B (m × 1) ⇒ μZ = A ⋅ μY + B • Nel caso di trasformazioni non lineari è possibile in genere ricorrere all’espressione approssimata: μ Z ≈ g (μ Y ) 10 Statistica - M. Grosso Variabili Aleatorie Vettoriali 5 Indici di posizione e dispersione per le VA vettoriali - Momenti • Momenti centrali misti del secondo ordine. μik = E [(Yi − μi )(Yk − μk )] = σ ik • Proprietà: • Per i ≠ k , lo scalare σik è definita covarianza delle componenti iesima e k-esima • Ovviamente σik = σki • Per i = k si ha invece la varianza della componente i-esima [ ] μii = E (Yi − μi ) = σ i2 2 11 Indici di posizione e dispersione per le VA vettoriali - Momenti • In genere. i momenti centrali del secondo ordine sono rappresentati in forma matriciale nella cosiddetta matrice di covarianza: [ VY = EY (Y − μ Y ) ⋅ (Y − μ Y ) T ] ⎡σ 12 σ 12 σ 13 ⎢ 2 ⎢σ 12 σ 2 σ 23 = ⎢σ 13 σ 23 σ 32 ⎢ M M ⎢ M ⎢⎣σ n1 σ n 2 σ n 3 L σ 1n ⎤ ⎥ L σ 2n ⎥ L σ 3n ⎥ ⎥ O M ⎥ L σ n2 ⎥⎦ Varianze delle componenti della VA vettoriale 12 Statistica - M. Grosso Variabili Aleatorie Vettoriali 6 Indici di posizione e dispersione per le VA vettoriali - Momenti • Proprietà matrice di covarianza • V è una matrice quadrata, simmetrica e sempre definita positiva, iti ovvero aT ⋅ (1 × n ) V ⋅ (n × n ) a ≥ (n × 1) 0 (1× 1) ∀a ∈ ℜn • Nel caso di stretta positività si può derivare l’ulteriore proprietà: proprietà det (V ) ≠ 0 • La matrice è regolare e quindi invertibile 13 Trasformazioni di VA vettoriali – Propagazione della covarianza • Si consideri la generica trasformazione Z = g(Y). Z = g(Y ) Z ∈ Rn , Y ∈ Rm • Siano noti – Il vettore delle medie μY – La matrice di covarianza VY • Si intende determinare la matrice di covarianza VZ della nuova VA vettoriale Z. 14 Statistica - M. Grosso Variabili Aleatorie Vettoriali 7 Trasformazioni di VA vettoriali – Propagazione della covarianza • Caso di trasformazione lineare Z = (m × 1) A ⋅ (m × n ) Y + (n × 1) B (m × 1) • Si può facilmente dimostrare che: [ ] = E [(A ⋅ Y + B − (A ⋅ μ + B )) ⋅ (A ⋅ Y + B − (A ⋅ μ = E [A ⋅ (Y − μ ) ⋅ (A ⋅ (Y − μ )) ] = E [A ⋅ (Y − μ ) ⋅ (Y − μ ) ⋅ A ] = A ⋅ E [(Y − μ ) ⋅ (Y − μ ) ]⋅ A = A ⋅ V ⋅ A VZ = EZ (Z − μ Z ) ⋅ (Z − μ Z ) T Y Y + B )) T Y ] T Y Y Y T Y Y Y Y Y T Y T T T Y 15 Trasformazioni di VA vettoriali – Propagazione della covarianza • Si consideri la trasformazione Z = g(Y). • Approssimando pp la dipendenza p con lo sviluppo pp in serie di Taylor y al primo ordine: ⎛ ∂g ⎞ Z = g(Y ) ≈ g(μ Y ) + ⎜⎜ ⎟⎟ (Y − μ Y ) = g(μ Y ) + J ⋅ (Y − μ Y ) ⎝ ∂y ⎠μ Y • dove J è lo jacobiano: (J ) kl = ∂g k ∂yl k = 1,..., m l = 1,...n Statistica - M. Grosso Variabili Aleatorie Vettoriali ⎡ ∂g1 ⎢ ∂y ⎢ 1 ⎢ ∂g 2 J = ⎢ ∂y1 ( m× n ) ⎢ M ⎢ ∂g m ⎢ ⎣ ∂y1 ∂g1 ∂y2 ∂g 2 ∂y2 M ∂g m ∂y2 ∂g1 ⎤ ∂yn ⎥ ⎥ ∂g 2 ⎥ L ∂yn ⎥ O M ⎥ ∂g m ⎥ L ⎥ ∂yn ⎦ L 16 8 Trasformazioni di VA vettoriali – Propagazione della covarianza • Da cui, sfruttando le espressioni già ricavate per le trasformazioni lineari: VZ ≈ (m × m ) J ⋅ (m × n ) VY ⋅ (n × n ) JT (n × m ) 17 Trasformazioni di VA – Propagazione della Covarianza • Esempio – m =1, n=2 Z = g (Y1 , Y2 ) Y ∈ R2 , Z ∈ R • Da una variabile aleatoria vettoriale ricavo una VA scalare ⎛ ∂g σ Z2 = ⎜ ⎜ ∂y1 μ ⎝ 2 Y ⎞ 2 ⎛ ∂g ⎟ σ +⎜ ⎟ Y 1 ⎜ ∂y2 ⎝ ⎠ 2 μY ⎛ ⎞ 2 ⎟ σ + 2⎜ ∂g Y2 ⎜ ∂y1 ⎟ μ ⎝ ⎠ Y ⎞⎛ ∂g ⎟⎜ ⎟⎜ ∂y2 ⎠⎝ μY ⎞ ⎟σ ⎟ Y 1Y 2 ⎠ • Nel N l caso s di una n ttrasformazione sf m i n lin lineare Z = a1 Y1+ a2 Y2: σ Z2 = a12σ Y21 + a22σ Y2 2 + 2a1 a2 σ Y 1Y 2 18 Statistica - M. Grosso Variabili Aleatorie Vettoriali 9 Variabili Aleatorie Vettoriali – Funzione densità di probabilità condizionata • Nel caso di VA multidimensionale è possibile introdurre il concetto di funzione densità di probabilità condizionata. • Sia Si Y œ Rn un vettore tt di variabili i bili aleatorie l t i ttale l che: h ⎡Y ⎤ Y = ⎢ 1⎥ ⎣Y2 ⎦ Y1 ∈ R p , Y2 ∈ R n − p • È possibile introdurre la probabilità di Y1 condizionata dalle componenti Y2: fY Y2 1 (y 1 y2 ) = f Y (y ) f Y2 (y 2 ) • E la funzione densità di probabilità di Y2 condizionata dalle componenti Y1: fY 2 Y1 (y y ) = 2 1 f Y (y ) f Y1 (y1 ) 19 Variabili Aleatorie Vettoriali – Funzione densità di probabilità condizionata • Caso particolare: VA vettoriali bidimensionali ⎡Y ⎤ Y = ⎢ 1⎥ ⎣Y2 ⎦ Y1 , Y2 ∈ R fY 1 Y 2 ( y1 y2 ) = f Y ( y1 , y2 ) ; f y ( y2 ) f y 2 ( y2 ) = ∫ f Y ( y1 , y2 )dy1 ≠ 0 f Y ( y1 , y2 ) ; f y ( y1 ) f y1 ( y1 ) = ∫ f Y ( y1 , y2 )dy2 ≠ 0 2 fY 2 Y 1 ( y2 y1 ) = 1 +∞ −∞ +∞ −∞ 20 Statistica - M. Grosso Variabili Aleatorie Vettoriali 10 Variabili Aleatorie Vettoriali – Funzione densità di probabilità condizionata • Da notare che nel caso di variabili aleatorie Y1 e Y2 indipendenti: f Y ( y1 , y2 ) = fY ( y1 ) fY ( y2 ) 1 • si ha: 2 fY 1 Y 2 ( y1 y2 ) = fY ( y1 ) 1 fY 2 Y 1 ( y2 y1 ) = fY ( y2 ) 2 21 Statistica - M. Grosso Variabili Aleatorie Vettoriali 11