Variabili casuali a più dimensioni Tabella a doppia entrata

Variabili casuali a più dimensioni
Capita talvolta di osservare su una stessa unità
statistica due o più caratteristiche.
per esempio (xi,yj)
Per rappresentare il numero delle volte in cui le
diverse modalità si presentano si impiegano le
tabelle a più entrate (tabella a doppia entrata nel
caso di 2 caratteristiche )
Tabella a doppia entrata
Consideriamo un fenomeno casuale che si presenti con
due caratteristiche X ed Y rispettivamente, ciascuno dei
quali presenta valori discreti con n e m occorrenze
Possiamo dunque costruire una tabella dove per ogni
caratteristica xi ed yj rilevata congiuntamente viene
riportata la frequenza (assoluta) congiunta, cioè il
numero di volte Nij con cui si sono presentate
contemporaneamente le due caratteristiche.
1
Tabella a doppia entrata
x1
x1
x2
x2
y1
y1
N11
f11
N21
f21
y2
N12
f12
N22
f22
yj
N1j
f1j
N2j
f2j
ym
N1m
f1m
N2m
f2m
xi
xi
Ni1
fi1
Ni2
fi2
Nij
fij
Nim
fim
xn
xn
Nn1
ff1
Nn2
ff2
Nnj
ffj
Nnm
ffm
n
m
N = ∑∑ N ij
f ij =
i =1 j =1
N ij
N
= P[X = xi , Y = y j ]
frequenza congiunta relativa
Variabile casuale a più
dimensioni continua
Analogamente a quanto visto per una variabile casuale
a più dimensioni discreta si può pensare ad una
variabile casuale a più dimensioni continua.
Siano X e Y le due caratteristiche.
La funzione densità di probabilità e la funzione di
probabilità cumulativa assumeranno dunque le forme
di:
f xy ( x, y )
Fxy ( x, y ) = ∫
x
∫
y
−∞ −∞
f xy (u , v ) dv du = P[ X ≤ x, Y ≤ y ]
2
Distribuzioni marginali
A questo punto ha senso chiedersi come si distribuisce
la caratteristica X indipendentemente dai valori assunti
dalla caratteristica Y e viceversa.
Nel caso discreto si ha:
m
pi = ∑ f ij = P[ X = xi ]
j =1
q j = ∑ f ij = P[Y = y j ]
n
i =1
Mentre nel caso continuo:
p( x ) = f x ( x ) =
+∞
∫ f ( x, y ) dy
q( y ) = f y ( y ) =
+∞
∫ f ( x, y ) dx
−∞
−∞
Media
Le distribuzioni marginali si presentano come delle
variabili casuali ad una dimensione e dunque è
possibile calcolare la media di X e di Y semplicemente
con:
n
E [x ] = ∑ xi ⋅ pi
i =1
m
E[ y ] = ∑ y j ⋅ q j
j =1
e nel caso continuo:
+∞
E [ X ] = ∫ x ⋅ f x ( x ) dx
−∞
(µ
x
, µ y ) = ( E [ X ], E [Y ])
+∞
E [Y ] = ∫ y ⋅ f y ( y ) dy
−∞
viene chiamata media della
variabile casuale doppia
3
Varianza e covarianza
Analogamente a quanto visto per la media è possibile
calcolare la varianza delle distribuzioni marginali di X
e di Y con:
n
2
y
2
i =1
e nel caso continuo:
m
σ = ∑ ( y j − µ y )2 ⋅ q j
σ = ∑ ( xi − µ x ) ⋅ pi
2
x
j =1
+∞
σ x2 = ∫ ( x − µ x )2 ⋅ f x ( x ) dx
−∞
+∞
σ y2 = ∫
−∞
(y − µ )
2
y
⋅ f y ( y ) dy
Varianza e covarianza
Per la variabile casuale nel suo complesso è possibile
calcolare la quantità
n
m
σ xy = ∑∑ ( xi − µ x ) ⋅ ( y j − µ y )⋅ f ij
i =1 j =1
e nel caso continuo:
σ xy = ∫
∫ ( x − µ ) ⋅ ( y − µ )⋅ f ( x, y ) dy dx
+∞ +∞
x
−∞ −∞
La quantità C xy =
y
σ x2
σ xy
σ xy
σ y2
xy
viene chiamata
(matrice di) covarianza
4
Distribuzioni condizionate
Analogamente a quanto visto per la definizione di
probabilità condizionata, ha senso chiedersi come si
distribuisce la caratteristica X fissato un ben
determinato valore della caratteristica Y e viceversa.
Quindi si ha:
f x y (x) =
f ( x, y )
f y (y)
f y x (y) =
f ( x, y )
f x (x)
Regressione
La distribuzione di X condizionata ad Y è una variabile
casuale con argomento x che dipende da un
“parametro” y.
Di questa variabile casuale posso calcolare la media
che è data da:
E [x y ] = x( y ) =
+∞
∫ x ⋅ f ( x ) dx
xy
−∞
E viceversa
E [ y x ] = y ( x) =
+∞
∫ y ⋅ f ( y ) dy
yx
−∞
5
Variabile casuale funzione di
variabile casuale
Analogamente a quanto visto per le variabili casuali ad
una dimensione è interessante considerare una
variabile casuale Y (ad m dimensioni) funzione di una
variabile casuale X (ad n dimensioni), cioè:
 Y1 
 g1 ( X 1 , X 2 ,.., X n ) 

 

 g 2 ( X 1 , X 2 ,.., X n ) 
 Y2 
Y =   = g(X ) = 

..

 .. 


 

Ym 
 g m ( X 1 , X 2 ,.., X n )
Variabile casuale funzione di
variabile casuale
In alcuni casi semplici è possibile calcolare la
distribuzione di Y nota quella di X, tuttavia, sotto
alcune condizioni particolari è possibile pervenire ad
una stima di media e (matrice di ) covarianza di Y.
• Siano le relazioni Y=g(X) “morbide”, cioè si possano
pensare come sviluppo in serie troncate al termine del
primo ordine;
• Siano tutte le Xi ben concentrate attorno alla media.
6
Media
Allora è possibile calcolare la media di Y nel seguente
modo:
 µY1 
 g1 (µ X1 , µ X 2 ,.., µ X n ) 
 


(
)
,
,..,
µ
g
µ
µ
µ
 Y2 
 2 X1 X 2
Xn 




≅ g (µ X ) =
µY =
..
 .. 


 


 µYm 
 g m (µ X1 , µ X 2 ,.., µ X n )
Covarianza
E la matrice di covarianza può essere calcolare nel
seguente modo:
CYY ≅ J ⋅ C XX ⋅ J T
“Legge di propagazione della Covarianza”
7
Jacobiano
 ∂g1 (x1 , x2 ,.., xn )

∂x1

 ∂g 2 ( x1 , x2 ,.., xn )
J =
∂x1

..

 ∂g m (x1 , x2 ,.., xn )

∂x1
∂g1 (x1 , x2 ,.., xn )
∂x2
∂g 2 ( x1 , x2 ,.., xn )
∂x2
..
∂g m ( x1 , x2 ,.., xn )
∂x2
= Ji j =
∂g1 ( x1 , x2 ,.., xn ) 

∂xn

∂g 2 ( x1 , x2 ,.., xn ) 
..
=
∂xn

..

∂g m (x1 , x2 ,.., xn )
..

∂xn
..
∂g j ( x1 , x2 ,.., xn )
∂xi
8