Variabili casuali a più dimensioni Capita talvolta di osservare su una stessa unità statistica due o più caratteristiche. per esempio (xi,yj) Per rappresentare il numero delle volte in cui le diverse modalità si presentano si impiegano le tabelle a più entrate (tabella a doppia entrata nel caso di 2 caratteristiche ) Tabella a doppia entrata Consideriamo un fenomeno casuale che si presenti con due caratteristiche X ed Y rispettivamente, ciascuno dei quali presenta valori discreti con n e m occorrenze Possiamo dunque costruire una tabella dove per ogni caratteristica xi ed yj rilevata congiuntamente viene riportata la frequenza (assoluta) congiunta, cioè il numero di volte Nij con cui si sono presentate contemporaneamente le due caratteristiche. 1 Tabella a doppia entrata x1 x1 x2 x2 y1 y1 N11 f11 N21 f21 y2 N12 f12 N22 f22 yj N1j f1j N2j f2j ym N1m f1m N2m f2m xi xi Ni1 fi1 Ni2 fi2 Nij fij Nim fim xn xn Nn1 ff1 Nn2 ff2 Nnj ffj Nnm ffm n m N = ∑∑ N ij f ij = i =1 j =1 N ij N = P[X = xi , Y = y j ] frequenza congiunta relativa Variabile casuale a più dimensioni continua Analogamente a quanto visto per una variabile casuale a più dimensioni discreta si può pensare ad una variabile casuale a più dimensioni continua. Siano X e Y le due caratteristiche. La funzione densità di probabilità e la funzione di probabilità cumulativa assumeranno dunque le forme di: f xy ( x, y ) Fxy ( x, y ) = ∫ x ∫ y −∞ −∞ f xy (u , v ) dv du = P[ X ≤ x, Y ≤ y ] 2 Distribuzioni marginali A questo punto ha senso chiedersi come si distribuisce la caratteristica X indipendentemente dai valori assunti dalla caratteristica Y e viceversa. Nel caso discreto si ha: m pi = ∑ f ij = P[ X = xi ] j =1 q j = ∑ f ij = P[Y = y j ] n i =1 Mentre nel caso continuo: p( x ) = f x ( x ) = +∞ ∫ f ( x, y ) dy q( y ) = f y ( y ) = +∞ ∫ f ( x, y ) dx −∞ −∞ Media Le distribuzioni marginali si presentano come delle variabili casuali ad una dimensione e dunque è possibile calcolare la media di X e di Y semplicemente con: n E [x ] = ∑ xi ⋅ pi i =1 m E[ y ] = ∑ y j ⋅ q j j =1 e nel caso continuo: +∞ E [ X ] = ∫ x ⋅ f x ( x ) dx −∞ (µ x , µ y ) = ( E [ X ], E [Y ]) +∞ E [Y ] = ∫ y ⋅ f y ( y ) dy −∞ viene chiamata media della variabile casuale doppia 3 Varianza e covarianza Analogamente a quanto visto per la media è possibile calcolare la varianza delle distribuzioni marginali di X e di Y con: n 2 y 2 i =1 e nel caso continuo: m σ = ∑ ( y j − µ y )2 ⋅ q j σ = ∑ ( xi − µ x ) ⋅ pi 2 x j =1 +∞ σ x2 = ∫ ( x − µ x )2 ⋅ f x ( x ) dx −∞ +∞ σ y2 = ∫ −∞ (y − µ ) 2 y ⋅ f y ( y ) dy Varianza e covarianza Per la variabile casuale nel suo complesso è possibile calcolare la quantità n m σ xy = ∑∑ ( xi − µ x ) ⋅ ( y j − µ y )⋅ f ij i =1 j =1 e nel caso continuo: σ xy = ∫ ∫ ( x − µ ) ⋅ ( y − µ )⋅ f ( x, y ) dy dx +∞ +∞ x −∞ −∞ La quantità C xy = y σ x2 σ xy σ xy σ y2 xy viene chiamata (matrice di) covarianza 4 Distribuzioni condizionate Analogamente a quanto visto per la definizione di probabilità condizionata, ha senso chiedersi come si distribuisce la caratteristica X fissato un ben determinato valore della caratteristica Y e viceversa. Quindi si ha: f x y (x) = f ( x, y ) f y (y) f y x (y) = f ( x, y ) f x (x) Regressione La distribuzione di X condizionata ad Y è una variabile casuale con argomento x che dipende da un “parametro” y. Di questa variabile casuale posso calcolare la media che è data da: E [x y ] = x( y ) = +∞ ∫ x ⋅ f ( x ) dx xy −∞ E viceversa E [ y x ] = y ( x) = +∞ ∫ y ⋅ f ( y ) dy yx −∞ 5 Variabile casuale funzione di variabile casuale Analogamente a quanto visto per le variabili casuali ad una dimensione è interessante considerare una variabile casuale Y (ad m dimensioni) funzione di una variabile casuale X (ad n dimensioni), cioè: Y1 g1 ( X 1 , X 2 ,.., X n ) g 2 ( X 1 , X 2 ,.., X n ) Y2 Y = = g(X ) = .. .. Ym g m ( X 1 , X 2 ,.., X n ) Variabile casuale funzione di variabile casuale In alcuni casi semplici è possibile calcolare la distribuzione di Y nota quella di X, tuttavia, sotto alcune condizioni particolari è possibile pervenire ad una stima di media e (matrice di ) covarianza di Y. • Siano le relazioni Y=g(X) “morbide”, cioè si possano pensare come sviluppo in serie troncate al termine del primo ordine; • Siano tutte le Xi ben concentrate attorno alla media. 6 Media Allora è possibile calcolare la media di Y nel seguente modo: µY1 g1 (µ X1 , µ X 2 ,.., µ X n ) ( ) , ,.., µ g µ µ µ Y2 2 X1 X 2 Xn ≅ g (µ X ) = µY = .. .. µYm g m (µ X1 , µ X 2 ,.., µ X n ) Covarianza E la matrice di covarianza può essere calcolare nel seguente modo: CYY ≅ J ⋅ C XX ⋅ J T “Legge di propagazione della Covarianza” 7 Jacobiano ∂g1 (x1 , x2 ,.., xn ) ∂x1 ∂g 2 ( x1 , x2 ,.., xn ) J = ∂x1 .. ∂g m (x1 , x2 ,.., xn ) ∂x1 ∂g1 (x1 , x2 ,.., xn ) ∂x2 ∂g 2 ( x1 , x2 ,.., xn ) ∂x2 .. ∂g m ( x1 , x2 ,.., xn ) ∂x2 = Ji j = ∂g1 ( x1 , x2 ,.., xn ) ∂xn ∂g 2 ( x1 , x2 ,.., xn ) .. = ∂xn .. ∂g m (x1 , x2 ,.., xn ) .. ∂xn .. ∂g j ( x1 , x2 ,.., xn ) ∂xi 8