Capitolo 2 Eventi numerici e variabili aleatorie 2.1 Probabilità di eventi numerici Nel capitolo precedente si sono considerate le nozioni di esperimento, risultato, evento. Un evento è individuato dai risultati di un determinato esperimento che godono di una certa proprietà o che presentano un certo attributo. La probabilità viene assegnata ad eventi così definiti o a loro combinazioni ottenute tramite le operazioni logiche di unione e negazione. Allo scopo di garantire che tali combinazioni siano esse stesse degli eventi, si richiede che la classe degli eventi F sia chiusa rispetto alle due operazioni logiche (sia cioè una σ-algebra). Spesso il risultato di un esperimento è un numero (si pensi ad esperimenti che richiedono di contare o misurare). In molti altri casi invece, per una più agevole rappresentazione, a risultati non numerici vengono associati valori numerici. In entrambe le circostanze il numero X (ϖ) associato al risultato ϖ di un certo esperimento ha valore incerto (casuale o aleatorio) prima dell’esperimento stesso. Si noti come X (ϖ) sia una funzione a valori numerici degli elementi di Ω. Affinché si possa parlare di probabilità con riferimento alla rappresentazione numerica degli eventi (ovvero con riferimento alla funzione X (ϖ)) bisogna individuare i requisiti necessari per poter trasferire la probabilità dagli elementi di F (gli eventi) agli insiemi numerici corrispondenti. In generale si può assumere che gli insiemi numerici per i quali interessi effettuare delle attribuzioni di probabilità abbiano la forma di intervalli, ovvero che appartengano alla σ-algebra di Borel di R indicata con B. Detto B un qualsiasi intervallo vogliamo dunque poter determinarne la probabilità. Ma X ∈ B corrisponde all’evento X −1 (B) = {ϖ ∈ Ω : X (ϖ) ∈ B} che viene anche detto controimmagine di B tramite X. Quindi affinché X sia ben definita e si possa calcolare ( ) P ({ϖ ∈ Ω : X (ϖ) ∈ B}) = P X −1 (B) (2.1) è necessario che sia X −1 (B) ∈ F, ovvero che le controimmagini degli elementi di B appartengano ad F. In tal caso la funzione X (ϖ) è detta misurabile. 31 32 A. Pollice - Appunti di Probabilità X(ϖ) non è una variabile aleatoria ' F & X(ϖ) è una variabile aleatoria A $' A A ϖ XX A XX A XX −1 yXAX XXXXX X (B) X X z X(ϖ) AXXX XX A B A % U A 9 X −1 (B) & $ B % Definizione 2.1 Una funzione reale X definita sullo spazio Ω è detta variabile aleatoria se per qualsiasi elemento B della σ-algebra di Borel di R la controimmagine X −1 (B) di B tramite X è un evento. La definizione di variabile aleatoria porta a spostare l’attenzione dallo spazio Ω su cui la v.a. è definita allo spazio euclideo R in cui si trovano i valori da essa assunti, dalla σ-algebra F alla σ-algebra di Borel B. Definizione 2.2 La funzione PX (B) mette in corrispondenza le attribuzioni di probabilità relative agli elementi di F con quelle relative ai corrispondenti elementi di B ed è nota come distribuzione di probabilità della variabile aleatoria X. La distribuzione di probabilità permette di calcolare la probabilità con cui X assume valori appartenenti a qualsivoglia insieme B elemento di B. Si ottiene pertanto un nuovo spazio di probabilità dato dalla terna (R, B, PX ). Esempio 2.1 Si consideri un esperimento nel quale si scelga a caso una persona da un gruppo di n persone equiprobabili. In tal caso lo spazio dei risultati Ω è l’insieme delle n persone del gruppo e la probabilità di qualsiasi elemento A dell’insieme delle parti F di Ω è data da P (A) = # (”elem. di A”) /n. L’esperimento continui rilevando l’età in anni compiuti X della persona scelta a caso. Dire che X = 17 equivale all’evento che si verifica ( quando) la persona estratta ha compiuto 17 anni, quindi PX (17) = P ({ϖ ∈ Ω : X (ϖ) = 17}) = P X −1 (17) = # (”persone che hanno compiuto 17 anni”) /n. Operando in modo analogo per i diversi valori dell’età degli n individui si ottiene la distribuzione di probabilità dell’età degli stessi. 2.2 Variabili aleatorie discrete Nell’esempio precedente si è considerata una variabile aleatoria X (ϖ) che può assumere un numero finito di valori distinti (nella fattispecie le diverse età degli individui appartenenti al gruppo espresse in anni compiuti). Definizione 2.3 Una variabile aleatoria si dice discreta se può assumere un numero finito o al più un’infinità numerabile di determinazioni. Cap.2: Eventi numerici e variabili aleatorie 33 In tal caso risulta abbastanza agevole passare dallo spazio di probabilità dell’esperimento (Ω, F, P ) allo spazio della variabile aleatoria (R, B, PX ), infatti si ha PX (xi ) = P ({ϖ ∈ Ω : X (ϖ) = xi }) = ( di probabilità ) P X −1 (xi ) . ∪ Definizione 2.4 L’insieme RX = ϖ∈Ω X (ϖ) = {xi ∈ R, i = 1, 2, . . .} ha per elementi i possibili valori di X (ϖ) ed è detto insieme di definizione o campo di variazione della variabile aleatoria X. Definizione 2.5 Per una variabile aleatoria discreta X si dice funzione di probabilità la funzione definita su R data dall’espressione { PX (X = x) x ∈ RX pX (x) = (2.2) 0 altrove La funzione di probabilità di una variabile aleatoria discreta ha valori non negativi, inoltre, qualora l’argomento coincida con una delle possibili determinazioni della variabile aleatoria, la funzione ne restituisce la probabilità. Teorema 2.1 Per qualsiasi variabile aleatoria discreta X a valori in RX = {xi ∈ R : i = 1, 2, . . .} si ha ∑ pX (t) = 1 (2.3) t∈RX Dimostrazione: infatti dalla definizione di RX si ha che ∪ {ϖ ∈ Ω : X (ϖ) = t} Ω= t∈RX ed inoltre gli eventi {ϖ ∈ Ω : X (ϖ) = t} sono incompatibili al variare di t in RX , quindi ∑ ∑ ∪ pX (t) PX (X = t) = {ϖ ∈ Ω : X (ϖ) = t} = 1 = P (Ω) = P t∈RX t∈RX t∈RX Esempio 2.2 Si consideri il lancio di un dado e la variabile aleatoria X (ϖ) = ϖ2 definita dal quadrato del risultato. In tal caso Ω = {x ∈ R : x = 1, 2, 3, 4, 5, 6}, mentre RX = {x ∈ R : x = 1, 4, 9, 16, 25, 36}. Poiché a ciascun elemento di Ω corrisponde un solo elemento di RX e viceversa, la funzione di probabilità di X è la seguente 1 x ∈ RX 6 pX (x) = 0 x∈ / RX Si consideri ora la variabile aleatoria Y (ϖ) = (ϖ − 3)2 . In tal caso RY = {y ∈ R : y = 0, 1, 4, 9}. Si verifica facilmente che vale 1 y=0 6 2 y=1 6 2 y=4 pY (y) = 6 1 y=9 6 0 y∈ / RY 34 A. Pollice - Appunti di Probabilità Si noti che le due funzioni pX e PX differiscono in quanto la prima è strettamente positiva su RX ⊂ B (singoli numeri) mentre la seconda è definita su tutto B (insiemi di numeri). Dalla funzione di probabilità pX di una variabile aleatoria discreta è immediato ottenere la sua distribuzione PX , cioè la probabilità con cui X assume valori appartenenti a qualsiasi elemento di B ovvero a qualsiasi intervallo o unione di intervalli di R. Teorema 2.2 Data una variabile aleatoria discreta X e un insieme numerico A appartenente a B si ha ∑ PX (A) = pX (t) (2.4) t∈A Dimostrazione: esendo gli eventi {ϖ ∈ Ω : X (ϖ) = t} incompatibili al variare di t in RX , ( ) ∪ ∑ ∑ PX (A) = P {ϖ ∈ Ω : X (ϖ) = t} = PX (X = t) = pX (t) t∈A t∈A t∈A Esempio 2.3 Sia X una variabile aleatoria discreta a valori nell’insieme RX = {x ∈ R : x = 0, 1, 2, 3, 4} ( ) ( )4 e la sua funzione di probabilità sia data dall’espressione pX (x) = x4 21 per x ∈ RX . Se A è l’insieme appartenente a B dato da A = {x ∈ R : 0 ≤ x < 1.5}, allora PX (A) = PX (X = 0) + PX (X = 1) = (4 ) ( 1 )4 0 2 + (4) ( 1 )4 1 2 = ··· = 5 16 Esempio 2.4 Sia X una variabile aleatoria discreta a valori nell’insieme ( 1 )x RX = {x ∈ R : x = 1, 2, 3, . . .} e la sua funzione di probabilità sia data dall’espressione pX (x) = 2 per x ∈ RX . Se A è l’insieme appartenente a B e dato dai numeri interi dispari A = {x ∈ R : x = 1, 3, 5, 7, . . .}, allora ( ) ( )3 ( )5 1 1 1 2 PX (A) = + + + ··· = ··· = 2 2 2 3 2.3 Variabili aleatorie continue Alle variabili aleatorie discrete, che possono assumere al massimo un’infinità numerabile di valori, si contrappongono le variabili aleatorie continue che assumono probabilità positiva su intervalli di numeri reali. Definizione 2.6 La variabile aleatoria X si dice continua o dotata di densità se la probabilità che X assuma valori nell’insieme A ∈ B è assegnata nel modo seguente ∫ PX (A) = fX (t) dt (2.5) A dove la funzione fX è definita su tutto R ed è tale che ∫ fX (x) ≥ 0 per x ∈ R, fX (t) dt = 1 R La funzione fX viene detta funzione di densità (di probabilità) della variabile aleatoria X. (2.6) Cap.2: Eventi numerici e variabili aleatorie 35 Definizione 2.7 L’insieme RX ⊂ R in cui fX è strettamente positiva è detto insieme di definizione della variabile aleatoria continua X. Esempio 2.5 Sia X una variabile aleatoria continua la cui densità, individuata a meno di una costante c, abbia la forma seguente { 2 cx 0 < x < 1 fX (x) = 0 altrove L’intervallo (0, 1) è l’insieme di definizione di X. È possibile inoltre individuare la costante c osservando che ∫ ∫ 1 1 1= fX (t) dt = ct2 dt = c → c = 3 3 R 0 Si noti che (analogamente a quanto detto per la funzione di probabilità di una variabile aleatoria discreta) la funzione di densità fX permette di ricavare la distribuzione di probabilità PX , cioè la probabilità con cui X assume valori appartenenti a qualsiasi elemento di B ovvero a qualsiasi intervallo o unione di intervalli di R. Esempio 2.6 Sia X una variabile aleatoria continua la cui densità abbia la forma seguente { −x e x>0 fX (x) = 0 altrove La probabilità assegnata all’intervallo (0, 1] è data da ∫ PX ((0, 1]) = 1 e−t dt = 1 − e−1 0 2.4 Funzione di ripartizione Un’altra funzione di notevole utilità per la descrizione del comportamento probabilistico delle variabili aleatorie è la funzione di ripartizione. Definizione 2.8 Si dice funzione di ripartizione di una variabile aleatoria (discreta o continua) X la funzione FX (x) definita per valori di x con x ∈ R e data da FX (x) = PX (X ≤ x) x∈R (2.7) L’ordinata di FX calcolata nel punto x indica la probabilità con cui la variabile aleatoria X assume valori non maggiori di x. Si noti che la funzione di ripartizione di una variabile aleatoria discreta è data da ∑ FX (x) = pX (t) x∈R (2.8) t≤x In altri termini per calcolare FX nel punto x basta sommare la probabilità di tutti i punti t di RX che soddisfano la disuguaglianza t ≤ x. 36 A. Pollice - Appunti di Probabilità Esempio 2.2 (cnt) Le funzioni di ripartizione delle variabili aleatorie sono rispettivamente date da 0 x<1 1 1≤x<4 0 6 2 1 4 ≤ x < 9 6 6 3 3 9 ≤ x < 16 FX (x) = F (y) = Y 6 6 4 5 6 16 ≤ x < 25 6 5 25 ≤ x < 36 1 6 1 x ≥ 36 X ed Y definite nell’esempio 2.2 y<0 0≤y<1 1≤y<4 4≤y<9 y≥9 Esempio 2.3 (cnt) Per l’esempio 2.3 la funzione di ripartizione è data per x = 0, 1, 2, 3, 4 da FX (x) = ∑ ∑x (4) ( 1 )4 t≤x pX (t) = t=1 t 2 , ovvero da 0 1 16 5 x<0 0≤x<1 1≤x<2 16 FX (x) = 11 16 15 6 1 2≤x<3 3≤x<4 x≥4 Esempio 2.4 (cnt) Per l’esempio 2.4 la funzione di ripartizione è data per x = 1, 2, . . . da FX (x) = ∑ pX (t) = x ( )t ∑ 1 t≤x t=1 2 = 1 1 1 − 21x =1− x 1 2 1− 2 2 Teorema 2.3 Per la funzione di ripartizione FX di una variabile aleatoria discreta X valgono le seguenti proposizioni: 1. FX è non decrescente; 2. FX è continua a destra; 3. limx→∞ FX (x) = 1 e limx→−∞ FX (x) = 0; 4. PX (X = x) = FX (x) − limh→0+ FX (x − h). Cap.2: Eventi numerici e variabili aleatorie 37 Dimostrazione: 1. Se x1 ≤ x2 con x1 , x2 ∈ R, allora PX (x1 < X ≤ x2 ) = PX (X ≤ x2 ) − PX (X ≤ x1 ) = FX (x2 ) − FX (x1 ) pertanto poiché la probabilità PX (x1 < X ≤ x2 ) deve essere non negativa si ha FX (x1 ) ≤ FX (x2 ). 2. Poiché l’insieme limh→0+ (x, x + h] è vuoto, allora vale FX (x + h) = PX (X ≤ x + h) = PX (X ≤ x) + PX (x < X ≤ x + h) ∑ lim FX (x + h) = FX (x) + lim h→0+ h→0+ pX (t) = FX (x) x<t≤x+h 3. Basta scrivere la funzione di ripartizione FX in termini della funzione di probabilità pX ∑ lim FX (x) = lim x→∞ x→∞ pX (t) = t≤x pX (t) = 1 t∈RX lim FX (x) = lim x→−∞ ∑ ∑ x→−∞ pX (t) = 0 t≤x 4. Essendo limh→0+ (x − h, x] = {x} si ha che FX (x − h) = lim FX (x − h) = h→0+ = PX (X ≤ x − h) = PX (X ≤ x) − PX (x − h < X ≤ x) ∑ pX (t) FX (x) − lim h→0+ x−h<t≤x FX (x) − PX (X = x) Dall’ultima proprietà enunciata si ottiene che per x ∈ RX vale PX (X = x) = FX (x)−limh→0+ FX (x − h) = pX (x). L’altezza del salto della funzione di ripartizione nel punto x ∈ RX coincide con la probabilità con cui X assume il valore x. Si noti inoltre che, analogamente a quanto fatto nella dimostrazione del punto (a) del teorema precedente, è possibile utilizzare la funzione di ripartizione per ottenere le probabilità di diversi eventi: 1. PX (X < a) = FX (a− ); 2. PX (X = a) = FX (a) − FX (a− ); 3. PX (X > a) = 1 − FX (a); 4. PX (X ≥ a) = 1 − FX (a− ); 5. PX (a < X ≤ b) = FX (b) − FX (a); 6. PX (a ≤ X ≤ b) = FX (b) − FX (a− ); 7. PX (a ≤ X < b) = FX (b− ) − FX (a− ); 8. PX (a < X < b) = FX (b− ) − FX (a). 38 A. Pollice - Appunti di Probabilità Esempio 2.2 (cnt) Tramite le funzioni di ripartizione già determinate risulta immediato il calcolo delle seguenti probabilità per X ed Y : PX (X < 4) = 1 6 2 6 − PX (X > 1) = 1 − PY (Y < 4) = 2 3 1 6 PY (Y = 4) = 1 3 1 6 PY (Y > 1) = 1 − 3 6 PX (X ≥ 1) = 1 − 0 PY (Y ≥ 1) = 1 − 1 6 PX (X = 4) = PX (9 < X ≤ 36) = 1 − 3 6 PY (9 < Y ≤ 36) = 1 − 1 PX (9 ≤ X ≤ 36) = 1 − 2 6 PY (9 ≤ Y ≤ 36) = 1 − 5 6 PX (9 ≤ X < 36) = 5 6 − 2 6 PY (9 ≤ Y < 36) = 1 − 5 6 PX (9 < X < 36) = 5 6 − 3 6 PY (9 < Y < 36) = 1 − 1 Esempio 2.3 (cnt) Tramite la funzione di ripartizione già determinata risulta immediato il calcolo delle seguenti probabilità per X: 5 PX (X < 2) = 16 PX (X = 2) = 11 16 − 5 16 PX (X > 1) = 1 − 5 16 PX (X ≥ 1) = 1 − 1 16 PX (3 < X ≤ 6) = 1 − 15 16 PX (3 ≤ X ≤ 6) = 1 − 11 16 PX (3 ≤ X < 6) = 1 − 11 16 PX (3 < X < 6) = 1 − 15 16 Cap.2: Eventi numerici e variabili aleatorie 39 Esempio 2.4 (cnt) Tramite le funzioni di ripartizione già determinata risulta immediato il calcolo delle seguenti probabilità per X: PX (X < 2) = PX (X = 2) = 1 2 ( )2 2 ( )x i ∑ 1 1 1 1 − = = 2 2 2 4 xi =1 PX (X > 1) = 1 − 1 1 = 2 2 PX (X ≥ 1) = 1 6 ( )t 3 ( )t ∑ ∑ 1 1 PX (3 < X ≤ 6) = − 2 2 t=1 t=1 6 ( )t 2 ( )t ∑ ∑ 1 1 PX (3 ≤ X ≤ 6) = − 2 2 t=1 t=1 5 ( )t 2 ( )t ∑ ∑ 1 1 PX (3 ≤ X < 6) = − 2 2 t=1 t=1 5 ( )t 3 ( )t ∑ ∑ 1 1 PX (3 < X < 6) = − 2 2 t=1 = 7 64 = 15 64 = 7 32 = 3 32 t=1 Considerata la definizione generale di funzione di ripartizione di una variabile aleatoria, la funzione di ripartizione di una variabile aleatoria continua X con funzione di densità fX è data da ∫ x fX (t) dt x ∈ R (2.9) FX (x) = PX (X ≤ x) = −∞ Tutte le proprietà riportate per le funzioni di ripartizione delle variabili aleatorie discrete valgono per quelle continue. Inoltre qualora A ∈ B sia un intervallo aperto a sinistra e chiuso a destra, ovvero della forma (a, b] si ha: ∫ PX ((a, b]) = ∫ b fX (t) dt = a b −∞ ∫ fX (t) dt − a −∞ fX (t) dt = FX (b) − FX (a) Si noti che se A = {t ∈ R : t = a} è un intervallo degenere, allora ∫ a PX (A) = PX (X = a) = fX (t) dt = 0 (2.10) (2.11) a Ciò significa che è nulla la probabilità che una variabile aleatoria continua assuma un qualsiasi valore a specificato. Di conseguenza si può scrivere la seguente uguaglianza ∫ b PX ((a, b)) = PX ((a, b]) = PX ([a, b)) = PX ([a, b]) = fX (t) dt (2.12) a In generale la funzione di densità fX di una variabile aleatoria continua X risulta uguale (eccetto che negli eventuali punti di discontinuità) alla derivata della funzione di ripartizione FX fX (x) = FX′ (x) = dFX (x) dx (2.13) 40 A. Pollice - Appunti di Probabilità Esempio 2.7 Data la variabile casuale continua X con funzione di ripartizione x<0 0 x2 FX (x) = 0≤x<2 4 1 x≥2 si ricava facilmente la funzione di densità, data da { x 2 0≤x<2 fX (x) = 0 altrove Inoltre la probabilità associata all’intervallo (1.35, 2.48) è data da ∫ ∫ 2.48 2 fX (t) dt = 1.35 ovvero ∫ 2.48 1.35 ) 11( 2 t dt = 2 − 1.352 2 22 fX (t) dt = FX (2.48) − FX (1.35) = 1 − 1.35 1.352 4 Esempio 2.8 (distribuzione uniforme) Data la variabile casuale continua X con funzione di ripartizione x<m 0 x−m m ≤ x<M FX (x) = M −m 1 x≥M si ricava facilmente la funzione di densità data da { 1 M −m fX (x) = 0 m≤x<M altrove La funzione di ripartizione e la funzione di densità appena definite individuano la cosiddetta distribuzione uniforme sull’intervallo (m, M ). Si noti come la densità, costante nell’intervallo (m, M ), assegni un peso uguale a tutti i punti dell’intervallo (la probabilità di ciascun punto è comunque nulla). Inoltre la probabilità associata all’intervallo (a, b), posto che m ≤ a < b ≤ M , è data da ∫ ∫ b fX (t) dt = a a b 1 b−a dt = M −m M −m In altri termini in questo caso la probabilità di un intervallo è proporzionale alla sua lunghezza b − a. Un importante caso particolare della distribuzione uniforme si ha quando m ed M sono rispettivamente uguali a 0 e 1. In tal caso la funzione di ripartizione e la funzione di densità hanno la forma seguente { x<0 0 1 0≤x<1 x 0≤x<1 FX (x) = fX (x) = 0 altrove 1 x≥1 Cap.2: Eventi numerici e variabili aleatorie 41 Esempio 2.9 Data la variabile casuale continua X con funzione di ripartizione 0 x<0 x 0 ≤ x<2 8 FX (x) = 2 x 2≤x<4 16 1 x≥4 si ricava facilmente la funzione di densità data da 1 8 x fX (x) = 8 0 0≤x<2 2≤x<4 altrove Inoltre la probabilità associata all’intervallo (−1.35, 2.48) è data da ∫ −1.35 ovvero ∫ 2.48 fX (t) dt = 0 ∫ 2.48 −1.35 2.5 2 1 dt + 8 ∫ 2.48 2 ) t 1 11( dt = (2 − 0) + 2.482 − 22 8 8 82 fX (t) dt = FX (2.48) − FX (−1.35) = 2.482 −0 16 Vettori aleatori Sullo stesso insieme Ω si possono definire più funzioni X1 (ϖ) , . . . , Xk (ϖ) a valori numerici, ciascuna delle quali quantifica un aspetto collegato ad ogni possibile risultato elementare ϖ dell’esperimento. Se si considerano simultaneamente le k funzioni per un certo risultato sperimentale ϖ ∈ Ω si ottiene il vettore X (ϖ) = (X1 (ϖ) , . . . , Xk (ϖ)) le cui determinazioni sono aleatorie come lo è il risultato dell’esperimento ϖ. Trasponendo quanto detto per le variabili aleatorie semplici o unidimensionali è evidente che una variabile aleatoria k-dimensionale o vettore aleatorio è una funzione misurabile da Ω a Rk . Esempio 2.10 Si supponga di lanciare una sola volta due dadi. Si definiscano X1 =”minimo dei due punti riportati” X2 =”somma dei due punti riportati” Si indica con (X1 , X2 ) il corrispondente vettore aleatorio bidimensionale. Esempio 2.11 Si supponga di estrarre a caso un individuo da un certo gruppo di soggetti. Siano X1 =”peso del soggetto estratto” X2 =”perimetro toracico del soggetto estratto” X3 =”altezza del soggetto estratto” Si indica con (X1 , X2 , X3 ) il corrispondente vettore aleatorio tridimensionale. { } ∪ Definizione 2.9 L’insieme RX = ϖ∈Ω X (ϖ) = (xi1 , . . . , xik ) ∈ Rk , i = 1, 2, . . . ha per elementi le possibili configurazioni del vettore X (ϖ) avente per componenti variabili aleatorie discrete ed è detto insieme di definizione o campo di variazione del vettore aleatorio discreto X. 42 A. Pollice - Appunti di Probabilità Definizione 2.10 Sia X = (X1 , . . . , Xk ) un vettore aleatorio discreto, si dice funzione di probabilità (congiunta) di X la funzione definita su Rk data dall’espressione { PX (X = x) 0 pX (x) = x ∈ RX altrove (2.14) Nell’espressione precedente l’uguaglianza in parentesi è da intendersi valida per tutte le componenti dei vettori X ed x, in altri termini la funzione di probabilità del vettore aleatorio X restituisce la probabilità congiunta associata alla k-upla di valori x = (x1 , . . . , xk ), ovvero pX (x) = pX1 ,...,Xk (x1 , . . . , xk ) (2.15) = PX1 ,...,Xk (X1 = x1 , . . . , Xk = xk ) = PX (X = x) Analogamente al caso unidimensionale si dimostra che vale ∑ pX (t1 , . . . , tk ) = 1 (2.16) (t1 ,...,tk )∈RX Inoltre anche in questo caso se A appartiene alla σ-algebra di Borel di Rk indicata con B k si ha che la probabilità di A ⊂ RX ⊂ Rk è uguale alla somma delle probabilità dei singoli elementi di A ∑ PX (A) = pX (t1 , . . . , tk ) (2.17) (t1 ,...,tk )∈A ( ) Esempio 2.10 (cnt) La funzione di probabilità della variabile aleatoria bidimensionale X = X1 , Ẋ2 può essere agevolmente rappresentata nella seguente tabella pX1 ,X2 (x1 , x2 ) x2 2 3 4 5 6 7 8 9 10 11 12 x1 1 1/36 2/36 2/36 2/36 2/36 2/36 0 0 0 0 0 2 0 0 1/36 2/36 2/36 2/36 2/36 0 0 0 0 3 0 0 0 0 1/36 2/36 2/36 2/36 0 0 0 4 0 0 0 0 0 0 1/36 2/36 2/36 0 0 5 0 0 0 0 0 0 0 0 1/36 2/36 0 6 0 0 0 0 0 0 0 0 0 0 1/36 ( ) Si verifica facilmente che PX X1 = Ẋ2 = 0 (risultato ovvio: il minimo non può mai essere uguale alla somma). Inoltre se { } A = (x1 , x2 ) ∈ R2 : (x1 , x2 ) = (3, 6) , (3, 7) , (3, 8) , (3, 9) si ha che PX (A) = 1+2+2+2 . 36 Cap.2: Eventi numerici e variabili aleatorie 43 Esempio 2.12 Da un’urna contenente tre palline numerate da 1 a 3 si estraggano due palline senza reimmissione. Siano X1 =”numero più piccolo fra i due estratti” X2 =”numero più grande fra i due estratti” ( ) La funzione di probabilità del vettore aleatorio X = X1 , Ẋ2 può essere rappresentata dalla seguente tabella pX1 X2 (x1 , x2 ) x1 x2 1 2 2 1/3 0 3 1/3 1/3 ) ( Anche in questo caso ovviamente PX X1 = Ẋ2 = 0. Inoltre se { } A = (x1 , x2 ) ∈ R2 : (x1 , x2 ) = (1, 2) , (1, 3) si ha che PX (A) = 1+1 3 . ( ) Esempio 2.13 Sia X = X1 , Ẋ2 una variabile aleatoria bidimensionale discreta con distribuzione individuata a meno di una costante c { cx1 x2 (x1 , x2 ) ∈ RX pX1 X2 (x1 , x2 ) = 0 altrove con { } RX = (x1 , x2 ) ∈ R2 : (x1 , x2 ) = (1, 1) , (2, 1) , (2, 2) , (3, 2) Si può calcolare il valore della costante c osservando che 1= ∑ pX1 X2 (t1 , t2 ) = c + 2c + 4c + 6c → c = (t1 ,t2 )∈RX 1 13 ( ) Si noti che la funzione di probabilità di X1 , Ẋ2 può essere scritta in forma tabellare nel modo seguente pX1 X2 (x1 , x2 ) x2 1 2 ( ) In questo caso PX X1 = Ẋ2 = 1+4 13 . 1 1/13 0 x1 2 2/13 4/13 3 0 6/13 Inoltre se { } A = (x1 , x2 ) ∈ R2 : (x1 , x2 ) = (1, 2) , (2, 1) , (3, 2) si ha che PX (A) = 0+2+6 13 . 44 A. Pollice - Appunti di Probabilità Definizione 2.11 Il vettore aleatorio k-dimensionale X = (X1 , . . . , Xk ) si dice continuo o dotato di densità se la probabilità che X assuma valori nell’insieme A ∈ B k è assegnata nel modo seguente ∫ ∫ PX (A) = · · · fX (t) dt1 · · · dtk = PX (A) (2.18) A dove la funzione fX è definita su tutto Rk ed è tale che ∫ ∫ k fX (x) ≥ 0 per x ∈ R , ··· Rk fX (t) dt1 · · · dtk = 1 (2.19) La funzione fX viene detta funzione di densità (congiunta) del vettore aleatorio (X1 , . . . , Xk ). Definizione 2.12 L’insieme RX ⊂ Rk in cui fX è strettamente positiva è detto insieme di definizione del vettore aleatorio continuo. Esempio 2.14 Sia (X1 , X2 ) un vettore aleatorio continuo dotato della seguente funzione di densità definita a meno della costante c ) 0 < x1 < 1 ( 2 c 7x1 + x22 0 < x2 < 1 fX1 ,X2 (x1 , x2 ) = 0 altrove L’insieme di definizione RX del vettore aleatorio (X1 , X2 ) coincide con il quadrato di vertici opposti nei punti (0, 0) e (1, 1) del piano (x1 , x2 ). È possibile determinare il valore della costante c nel modo seguente 1 = ) ∫1∫1 ( 2 2 0 0 c 7t1 + t2 dt1 dt2 ∫1∫1 = 7c 0 ∫1 = 7c = 0 7 3c 0 t21 dt1 dt2 + c t21 dt1 + c + 13 c → c = ∫1 0 ∫1∫1 0 0 t22 dt1 dt2 t22 dt2 3 8 Inoltre la probabilità associata ad { } A = (x1 , x2 ) ∈ R2 : 0 < x1 < 0.3, 0.2 < x2 < 3 è data da 3 PX (A) = 8 ∫ 0.3 ∫ 1 0 7t21 + t22 dt1 dt2 = · · · ∼ = 0.0561 0.2 Si noti che per tutti gli insiemi di volume nullo (come gli insiemi degeneri: il punto, la retta in un dominio almeno bidimensionale, il piano in un dominio almeno tridimensionale e così via) la probabilità associata è uguale a zero essendo nulla la misura del dominio di integrazione nella (2.18). Cap.2: Eventi numerici e variabili aleatorie 45 Esempio 2.15 Sia X = (X1 , X2 ) un vettore aleatorio continuo dotato della seguente funzione di densità { 8x1 x2 0 < x2 ≤ x1 < 1 fX1 ,X2 (x1 , x2 ) = 0 altrove La particolarità di questo esempio è costituita dalla forma dell’insieme di definizione RX del vettore aleatorio (X1 , X2 ) che coincide con il triangolo avente vertici nei punti (0, 0), (1, 0) e (1, 1) del piano (x1 , x2 ). Si noti innanzi tutto che ∫ 1 ∫ t1 PX (RX ) = 8 0 t1 t2 dt1 dt2 = · · · = 1 0 Inoltre la probabilità associata all’insieme A = {(x1 , x2 ) : 0 < x1 < 0.9, 0.2 < x2 < 3} è data da ∫ 0.9 ∫ t1 PX (A) = 8 0.2 t1 t2 dt1 dt2 = · · · ∼ = 0.5929 0.2 Invece la probabilità associata all’insieme B = {(x1 , x2 ) : x1 = 0.9, 0.2 < x2 < 3} è uguale a zero, essendo B rappresentato da un segmento in R2 . Definizione 2.13 Si dice funzione di ripartizione di un vettore aleatorio X = (X1 , . . . , Xk ) la funzione FX (x) definita per valori di x = (x1 , . . . , xk ) con x ∈ Rk e data da FX (x) = PX (X ≤ x) x ∈ Rk (2.20) La disuguaglianza in parentesi è da intendersi valida per tutte le componenti dei vettori X ed x, in altri termini X ≤ x equivale a X1 ≤ x1 , . . . , Xk ≤ xk . L’ordinata di FX calcolata nel punto x indica la probabilità con cui le componenti del vettore aleatorio X assumono valori non maggiori di x1 , . . . , xk rispettivamente. Si noti che la funzione di ripartizione di un vettore aleatorio discreto è data da ∑ FX (x) = pX (t) x ∈ Rk (2.21) t≤x In altri termini per calcolare FX nel punto x = (x1 , . . . , xk ) basta sommare la probabilità di tutti i punti k-dimensionali t = (t1 , . . . , tk ) di RX ⊂ B k che soddisfano simultaneamente le k disuguaglianze t1 ≤ x1 , . . . , tk ≤ xk . 46 A. Pollice - Appunti di Probabilità Esempio 2.10 (cnt) Anche per la funzione di ripartizione del vettore aleatorio discreto (X1 , X2 ) può essere fornita la seguente rappresentazione in forma tabellare FX1 X2 (x1 , x2 ) x2 2⊢3 3⊢4 4⊢5 5⊢6 6⊢7 7⊢8 8⊢9 9 ⊢ 10 10 ⊢ 11 11 ⊢ 12 12 ⊢ x1 1⊢2 1/36 3/36 5/36 7/36 9/36 11/36 11/36 11/36 11/36 11/36 11/36 2⊢3 1/36 3/36 6/36 10/36 14/36 18/36 20/36 20/36 20/36 20/36 20/36 3⊢4 1/36 3/36 6/36 10/36 15/36 21/36 25/36 27/36 27/36 27/36 27/36 4⊢5 1/36 3/36 6/36 10/36 15/36 21/36 26/36 30/36 32/36 32/36 32/36 5⊢6 1/36 3/36 6/36 10/36 15/36 21/36 26/36 30/36 33/36 35/36 35/36 6⊢ 1/36 3/36 6/36 10/36 15/36 21/36 26/36 30/36 33/36 35/36 1 Esempio 2.12 (cnt) Anche per la funzione di ripartizione del vettore aleatorio discreto (X1 , X2 ) può essere fornita la seguente rappresentazione in forma tabellare FX1 X2 (x1 , x2 ) x2 2⊢3 3⊢ x1 1⊢2 2⊢ 1/3 1/3 2/3 1 Esempio 2.13 (cnt) Anche per la funzione di ripartizione del vettore aleatorio discreto (X1 , X2 ) può essere fornita la seguente rappresentazione in forma tabellare FX1 X2 (x1 , x2 ) x2 1⊢2 2⊢ 1⊢2 1/13 1/13 x1 2⊢3 3/13 7/13 3⊢ 3/13 1 Considerata la definizione generale di funzione di ripartizione di un vettore aleatorio, la funzione di ripartizione di un vettore aleatorio continuo X = (X1 , . . . , Xk ) con funzione di densità fX è data da ∫ FX (x) = PX (X ≤ x) = x1 −∞ ∫ ··· xk −∞ fX (t) dt1 · · · dtk x ∈ Rk (2.22) In generale la funzione di densità fX di un vettore aleatorio k-dimensionale continuo X risulta uguale (eccetto che negli eventuali punti di discontinuità) alla derivata k-esima mista della funzione di ripartizione FX fX (x) = ∂ k FX (x1 , . . . , xk ) ∂x1 · · · ∂xk (2.23) Cap.2: Eventi numerici e variabili aleatorie 47 Esempio 2.14 (cnt) Il calcolo della funzione di ripartizione per l’esempio 2.14 porta alla seguente funzione a tratti 0 x1 < 0 ∨ x2 < 0 ( 2 ) 1 2 0 < x1 < 1 ∧ 0 < x2 < 1 8 x1 x2 7x1 + x2 ( ) 1 x2 7 + x22 x1 > 1 ∧ 0 < x2 < 1 FX1 ,X2 (x1 , x2 ) = 8 ( 2 ) 1 0 < x1 < 1 ∧ x2 > 1 8 x1 7x1 + 1 1 x1 > 1 ∧ x2 > 1 La determinazione della funzione di ripartizione implica il calcolo dei seguenti tre integrali 3 8 ∫ x ∫ x 1 2 0 0 2 ∫ 1∫ x 3 2 8 0 0 ∫ x ∫ 1 1 3 8 0 0 2 7t1 + t2 dt1 dt2 = 2 1 8 2 7t1 + t2 dt1 dt2 = 2 2 7t1 + t2 dt1 dt2 = ( ) 2 2 x1 x2 7x1 + x2 1 8 1 8 ( ) 2 x2 7 + x2 ( ) 2 x1 7x1 + 1 Esempio 2.15 (cnt) La funzione di ripartizione relativa all’esempio 2.15 è la seguente 0 2x21 x22 − x42 x41 FX1 ,X2 (x1 , x2 ) = 2x22 − x42 1 x1 < 0 ∨ x2 < 0 0 < x2 < x1 < 1 0 < x 1 < 1 ∧ x1 < x 2 x1 > 1 ∧ 0 < x 2 < 1 x1 > 1 ∧ x2 > 1 A causa della particolare forma dell’insieme di definizione della variabile aleatoria doppia, la determinazione della funzione di ripartizione implica il calcolo dei seguenti tre integrali 8 ∫ x ∫ t 2 1 0 t1 t2 dt1 dt2 + 8 x2 8 ∫ x ∫ t 1 1 0 8 ∫ x ∫ t 2 1 0 2.6 ∫ x ∫ x 1 2 0 0 0 t1 t2 dt1 dt2 + 8 0 2 2 4 t1 t2 dt1 dt2 = 2x1 x2 − x2 4 t1 t2 dt1 dt2 = x1 ∫ 1 ∫ x 2 x2 0 2 4 t1 t2 dt1 dt2 = 2x2 − x2 Distribuzioni marginali e condizionate Dato un vettore aleatorio k-dimensionale X si può essere interessati al comportamento probabilistico di un sottoinsieme di un numero h < k di sue componenti. Definizione 2.14 Sia X un vettore aleatorio discreto k-dimensionale con funzione di probabilità pX . La 48 A. Pollice - Appunti di Probabilità funzione di probabilità marginale di un sottoinsieme di h < k delle sue componenti è data da ∑ ∑ pX1 ,...,Xh (x1 , . . . , xh ) = ··· pX (x1 , . . . , xh , th+1 , . . . , tk ) (th+1 ,...,tk )∈A (2.24) { } con A = (th+1 , . . . , tk ) ∈ Rk−h : (x1 , . . . , xh , th+1 , . . . , tk ) ∈ RX Quindi la funzione di probabilità marginale di un sottoinsieme di h componenti di un vettore aleatorio k-dimensionale X restituisce la probabilità associata alla h-upla di valori x1 , . . . , xh , ovvero pX1 ,...,Xh (x1 , . . . , xh ) = PX1 ,...,Xh (X1 = x1 , . . . , Xh = xh ) (2.25) Esempio 2.10 (cnt) Le due funzioni di probabilità marginali del minimo e della somma dei risultati del lancio di due dadi sono facilmente ottenibili sommando le righe e le colonne della tabella in cui è rappresentata la funzione di probabilità congiunta pX1 X2 (x1 , x2 ) x2 2 3 4 5 6 7 8 9 10 11 12 pX1 (x1 ) x1 1 1/36 2/36 2/36 2/36 2/36 2/36 0 0 0 0 0 11/36 2 0 0 1/36 2/36 2/36 2/36 2/36 0 0 0 0 1/4 3 0 0 0 0 1/36 2/36 2/36 2/36 0 0 0 7/36 4 0 0 0 0 0 0 1/36 2/36 2/36 0 0 5/36 5 0 0 0 0 0 0 0 0 1/36 2/36 0 1/12 6 0 0 0 0 0 0 0 0 0 0 1/36 1/36 pX2 (x2 ) 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36 Esempio 2.12 (cnt) Le due funzioni di probabilità marginali del numero più piccolo e di quello più grande ottenuti estraendo in blocco due numeri dai primi tre interi sono facilmente ottenibili sommando le righe e le colonne della tabella in cui è rappresentata la funzione di probabilità congiunta pX1 X2 (x1 , x2 ) x2 2 3 pX1 (x1 ) x1 1 1/3 1/3 2/3 2 0 1/3 1/3 pX2 (x2 ) 1/3 2/3 Esempio 2.13 (cnt) Come nel caso precedente si ha pX1 X2 (x1 , x2 ) x2 1 2 pX1 (x1 ) 1 1/13 0 1/13 x1 2 2/13 4/13 6/13 3 0 6/13 6/13 pX2 (x2 ) 3/13 10/13 Cap.2: Eventi numerici e variabili aleatorie 49 Definizione 2.15 Sia X un vettore aleatorio continuo k-dimensionale con funzione di densità fX . La densità marginale di h < k delle sue componenti è data da ∫ ∫ fX1 ···Xh (x1 , . . . , xh ) = · · · fX (x1 , . . . , xh , th+1 , . . . , tk ) dth+1 · · · dtk (2.26) Rk−h Esempio 2.14 (cnt) L’applicazione della definizione precedente porta alle due seguenti densità marginali ∫ ∞ fX1 (x1 ) = fX1 X2 (x1 , t2 ) dt2 −∞ ∫ 1 3 = 8 ∫ fX2 (x2 ) = 7x21 + t22 dt2 = 0 ∞ 3 8 0 < x1 < 1 fX1 X2 (t1 , x2 ) dt1 −∞ ∫ 1 = ) 1( 21x21 + 1 8 7t21 + x22 dt1 = 0 ) 1( 7 + 3x22 8 0 < x2 < 1 Esempio 2.15 (cnt) Con ragionamento analogo all’esempio precedente, e considerando il particolare insieme di definizione della variabile doppia si ottiene ∫ ∞ fX1 X2 (x1 , t2 ) dt2 fX1 (x1 ) = −∞ ∫ x1 = 8 x1 t2 dt2 = 4x31 0 < x1 < 1 0 ∫ ∞ fX2 (x2 ) = fX1 X2 (t1 , x2 ) dt1 −∞ ∫ 1 = 8 ) ( t1 x2 dt1 = 4x2 1 − x22 0 < x2 < 1 x2 Tramite la funzione di probabilità marginale e la funzione di densità marginale è possibile ricavare la funzione di ripartizione marginale di un sottoinsieme di h componenti del vettore aleatorio k-dimensionale X a seconda che esso sia rispettivamente discreto o continuo (mediante somma o integrazione). Inoltre in entrambi i casi la funzione di ripartizione marginale può essere ricavata dalla funzione di ripartizione congiunta della X FX1 ,...,Xh (x1 , . . . , xh ) = FX (x1 , . . . , xh , th+1 , . . . , tk ) lim th+1 → ∞ .. . tk → ∞ = FX (x1 , . . . , xh , ∞, . . . , ∞) = PX (X1 ≤ x1 , . . . , Xh ≤ xh , Xh+1 ≤ ∞, . . . , Xk ≤ ∞) = PX1 ,...,Xh (X1 ≤ x1 , . . . , Xh ≤ xh ) L’estensione del concetto di probabilità condizionata alle variabili aleatorie porta alla considerazione di funzioni di probabilità e di densità condizionate. 50 A. Pollice - Appunti di Probabilità Definizione 2.16 Dato un vettore aleatorio discreto X con funzione di probabilità pX , la funzione di probabilità condizionata di un sottoinsieme di h < k elementi di X restituisce la probabilità associata a tali elementi dato che i restanti k − h assumano un certo valore pX1 ···Xh |Xh+1 ···Xk (x1 , . . . , xh |xh+1 , . . . , xk ) = PX1 ···Xh |Xh+1 ···Xk (X1 = x1 , . . . , Xh = xh | Xh+1 = xh+1 , . . . , Xk = xk ) = pX (x1 , . . . , xh , xh+1 , . . . , xk ) pXh+1 ···Xk (xh+1 , . . . , xk ) (2.27) La definizione precedente è valida a condizione che sia pXh+1 ···Xk (xh+1 , . . . , xk ) > 0. Esempio 2.10 (cnt) La funzione di probabilità condizionata pX1 |X2 (x1 |4) è ottenuta dividendo per la loro somma gli elementi della terza riga della tabella in cui è rappresentata la funzione di probabilità congiunta. Risulta 2 x1 = 1 3 1 x1 = 2 pX1 |X2 (x1 |4) = 3 0 altrove Viceversa la funzione di probabilità condizionata pX2 |X1 (x2 |4) è ottenuta dividendo per la loro somma gli elementi della quarta colonna della tabella 1 x2 = 8 5 x2 = 9 25 pX2 |X1 (x2 |4) = 2 x2 = 10 5 0 altrove Definizione 2.17 Dato un vettore aleatorio continuo X con funzione di densità fX , la funzione di densità di un sottoinsieme di h < k elementi di X condizionata a che i restanti k − h assumano un valore noto è definita da fX (x1 , . . . , xh , xh+1 , . . . , xk ) (2.28) fX1 ···Xh |Xh+1 ···Xk (x1 , . . . , xh |xh+1 , . . . , xk ) = fXh+1 ···Xk (xh+1 , . . . , xk ) La definizione precedente è valida a condizione che sia fXh+1 ···Xk (xh+1 , . . . , xk ) > 0. Cap.2: Eventi numerici e variabili aleatorie 51 Esempio 2.14 (cnt) Le due funzioni di densità condizionate sono date da fX1 |X2 (x1 |x2 ) = 3(7x21 +x22 ) 7+3x22 0 < x1 < 1 fX2 |X1 (x2 |x1 ) = 3(7x21 +x22 ) 21x21 +1 0 < x2 < 1 Esempio 2.15 (cnt) Le due funzioni di densità condizionate sono date da fX1 |X2 (x1 |x2 ) = fX2 |X1 (x2 |x1 ) = 2.7 x2 ≤ x1 < 1 2x1 x2 x2 (1−x22 ) 2x1 x2 x31 0 < x2 ≤ x1 Indipendenza tra variabili aleatorie In questo paragrafo viene introdotto un concetto che generalizza quello di indipendenza tra due o più eventi e che riguarda le variabili aleatorie. Definizione 2.18 Se FX1 X2 è la funzione di ripartizione congiunta di X1 e X2 ed FX1 e FX2 sono le due distribuzioni marginali, le due variabili aleatorie si dicono stocasticamente indipendenti se vale FX1 X2 (x1 , x2 ) = FX1 (x1 ) FX2 (x2 ) (x1 , x2 ) ∈ R2 (2.29) In particolare per le variabili aleatorie discrete la definizione di indipendenza è trasferita alla funzione di probabilità pX1 X2 (x1 , x2 ) = pX1 (x1 ) pX2 (x2 ) (x1 , x2 ) ∈ R2 (2.30) Esempio 2.10 Gli elementi della variabile doppia in questione non sono stocasticamente indipendenti. Per verificare ciò si consideri ad esempio la coppia (x1 , x2 ) = (2, 7) (si può procedere analogamente con altre coppie di valori) 2 1 1 pX1 X2 (2, 7) = ̸= · = pX1 (2) · pX2 (7) 36 4 6 Per le variabili aleatorie continue la definizione di indipendenza riguarda la funzione di densità fX1 X2 (x1 , x2 ) = fX1 (x1 ) fX2 (x2 ) (x1 , x2 ) ∈ R2 (2.31) Esempio 2.14 (cnt) Anche in questo caso le due variabili X1 e X2 non sono indipendenti, infatti fX1 X2 (x1 , x2 ) = )1( ) 1( ) 3( 2 7x1 + x22 ̸= 21x21 + 1 7 + 3x22 = fX1 (x1 ) fX2 (x2 ) 8 8 8 La definizione precedente è generalizzabile a un numero di variabili aleatorie superiore a due. 52 A. Pollice - Appunti di Probabilità Definizione 2.19 Se FX1 ···Xk è la funzione di ripartizione congiunta del vettore aleatorio X = (X1 , . . . , Xk ) ed FXi sono le distribuzioni marginali delle componenti unidimensionali Xi per i = 1, . . . , k, queste ultime si dicono (stocasticamente) mutualmente indipendenti se vale FX1 ···Xk (x1 , . . . , xk ) = k ∏ FXi (xi ) (x1 , . . . , xk ) ∈ Rk (2.32) i=1 Si noti che la mutua indipendenza delle componenti del vettore aleatorio X = (X1 , . . . , Xk ) implica quella di tutti i possibili accoppiamenti delle sue componenti unidimensionali. Il contrario non è altrettanto vero: se tutte le possibili coppie di componenti unidimensionali di X sono indipendenti, non è detto che lo siano mutuamente tutte le k componenti. La funzione di ripartizione di un vettore aleatorio (X1 , . . . , Xk ) permette di studiare dal un punto di vista probabilistico il comportamento di tale vettore aleatorio e quindi anche le relazioni tra le variabili aleatorie componenti Xi . Al contrario le funzioni di ripartizione marginali non forniscono alcuna informazione sulle relazioni tra le stesse variabili aleatorie. 2.8 Trasformazioni di variabili aleatorie Sia g (·) una funzione misurabile definita su Rk e a valori in Rh ed X una variabile aleatoria k-dimensionale, allora Y = g (X), ovvero Y1 = g1 (X1 , . . . , Xk ) .. . Yh = gh (X1 , . . . , Xk ) è una variabile aleatoria h-dimensionale. In tal caso, poiché Y è funzione di X, la funzione di ripartizione di Y può essere ottenuta attraverso la funzione di probabilità (nel caso discreto) o la funzione di densità (nel caso continuo) della X ({ }) FY (y) = PY (Y ≤ y) = PX t ∈ Rk : g (t) ≤ y (2.33) In particolare nel caso in cui X ed Y = g (X) siano variabili aleatorie discrete unidimensionali (k = h = 1) si può ricavare la funzione di probabilità della Y da quella della X pY (y) = PY (Y = y) = PX (g (X) = y) = PX ({t ∈ R : g (t) = y}) ∑ = pX (t) {t∈R:g(t)=y} (2.34) Cap.2: Eventi numerici e variabili aleatorie 53 Esempio 2.15 Si consideri la variabile aleatoria discreta X corrispondente al risultato del lancio di un dado e la sua trasformazione Y = (X − 4)2 . Tale trasformazione non è biunivoca: alcuni punti nell’insieme di definizione della Y , dato da RY = {x ∈ R : x = 0, 1, 4, 9}, corrispondono a coppie di punti dell’insieme di definizione della X, dato da RX = {x ∈ R : x = 1, 2, 3, 4, 5, 6}. Pertanto la funzione di probabilità di Y è data da 1 y=0 6 1 1 y=1 6 + 6 1 1 y=4 pY (y) = 6 + 6 1 y=9 6 0 altrove Si noti che qualora la funzione g sia anche biunivoca, ovvero invertibile, cioè qualora vi sia corrispondenza biunivoca tra i valori di Y e quelli di X, le due variabili aleatorie assumono valori diversi tra loro, ( ) ma con le stesse probabilità, infatti in tal caso PY (Y = y) = PX X = g −1 (y) . Nel caso in cui la variabile aleatoria X sia unidimensionale e continua e la funzione g sia strettamente monotona con derivata prima continua (ovvero nel caso in cui esista la funzione inversa di g e sia derivabile), anche la variabile aleatoria Y = g (X) è unidimensionale e continua, inoltre se fX è la funzione di densità della X si ha FY (y) = PX (g (X) ≤ y) ( ) = PX X ≤ g −1 (y) ∫ g−1 (y) fX (t)dt = −∞ ∫ y ( −1 ) dg −1 (s) ds = fX g (s) ds (2.35) −∞ Per ottenere l’espressione∫ finale si è operata la trasformazione s = g (t) della variabile di integrazione. y Inoltre essendo FY (y) = −∞ fY (s) ds dall’espressione precedente si ricava ( fY (y) = fX g −1 ) dg −1 (y) (y) dy (2.36) Esempio 2.16 Sia X una variabile aleatoria continua con densità uniforme nell’intervallo (0, 1). La trasformazione Y = − log X ha come dominio l’intervallo (0, 1) e come codominio la semiretta (0, ∞), pertanto l’insieme di definizione della variabile aleatoria Y è (0, ∞). La funzione di densità della variabile aleatoria Y è data da y>0 1 × |−e−y | = e−y fY (y) = 0 altrove Tale funzione di densità è detta esponenziale di parametro 1. 54 A. Pollice - Appunti di Probabilità Quanto appena asserito per le variabili aleatorie unidimensionali discrete e continue può essere facilmente esteso al caso di vettori aleatori. Infatti se X = (X1 , . . . , Xk ) ed Y = (Y1 , . . . , Yh ) sono vettori aleatori discreti, vale analogamente ∑ pY (y1 , . . . , yh ) = pX (t1 , . . . , tk ) (2.37) k :g(t ,...,t )=(y ,...,y ) (t ,...,t )∈R { 1 k 1 1 k h } Esempio 2.17 Si consideri il vettore aleatorio discreto (X1 , X2 ) corrispondente al risultato del lancio di due dadi distinti e la sua trasformazione { Y1 = X1 + X2 Y2 = X1 − X2 La funzione di probabilità di (X1 , X2 ) è rappresentata da pX1 X2 (x1 , x2 ) x2 1 2 3 4 5 6 x1 1 1/36 1/36 1/36 1/36 1/36 1/36 2 1/36 1/36 1/36 1/36 1/36 1/36 3 1/36 1/36 1/36 1/36 1/36 1/36 4 1/36 1/36 1/36 1/36 1/36 1/36 5 1/36 1/36 1/36 1/36 1/36 1/36 6 1/36 1/36 1/36 1/36 1/36 1/36 Con qualche calcolo si perviene alla seguente funzione di probabilità per il vettore aleatorio (Y1 , Y2 ) pY1 Y2 y2 −5 −4 −3 −2 −1 0 1 2 3 4 5 2 0 0 0 0 0 1/36 0 0 0 0 0 3 0 0 0 0 1/36 0 1/36 0 0 0 0 4 0 0 0 1/36 0 1/36 0 1/36 0 0 0 5 0 0 1/36 0 1/36 0 1/36 0 1/36 0 0 6 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 y1 7 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 8 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 9 0 0 1/36 0 1/36 0 1/36 0 1/36 0 0 10 0 0 0 1/36 0 1/36 0 1/36 0 0 0 11 0 0 0 0 1/36 0 1/36 0 0 0 0 12 0 0 0 0 0 1/36 0 0 0 0 0 Si noti che tale trasformazione è biunivoca: ciascuna coppia di punti dell’insieme di definizione della Y corrisponde a una sola coppia di punti dell’insieme di definizione della X. Cap.2: Eventi numerici e variabili aleatorie 55 Nel caso in cui il vettore aleatorio k-dimensionale X sia continuo, la funzione g sia invertibile e la sua inversa g −1 sia derivabile, allora anche il vettore aleatorio Y = g (X) è k-dimensionale e continuo, Y1 = g1 (X1 , . . . , Xk ) .. (2.38) . Yk = gk (X1 , . . . , Xk ) inoltre se fX è la funzione di densità della X si ha FY (y) = ( ) FX g −1 (y) ∫ g−1 (y1 ,...,yk ) 1 = −∞ ∫ y1 = −∞ ∫ ··· yk −∞ ∫ ··· −1 gk (y1 ,...,yk ) −∞ fX (t1 , . . . , tk ) dt1 · · · dtk (2.39) ( ) fX g1−1 (s1 , . . . , sk ) , . . . , gk−1 (s1 , . . . , sk ) |det J| dṡ1 · · · dsk Dove nell’espressione precedente si è operata la trasformazione s1 = g1 (t1 , . . . , tk ) .. . sk = gk (t1 , . . . , tk ) delle variabili di integrazione, e J è la matrice jacobiana della trasformazione data da J = Inoltre essendo FY (y) = ∫ y1 ∫ yk −∞ · · · −∞ fY ∂g1−1 ∂s1 ··· .. . ∂gk−1 ∂s1 ∂g1−1 ∂sk .. . ··· ∂gk−1 ∂sk (2.40) (s1 , . . . , sk ) ds1 · · · dsk dall’espressione precedente si ricava ( ) fY (y) = fX g1−1 (y1 , . . . , yk ) , . . . , gk−1 (y1 , . . . , yk ) |det J| (2.41) 56 A. Pollice - Appunti di Probabilità Esempio 2.18 Sia (X1 , X2 ) un vettore aleatorio continuo le cui componenti siano indipendenti ed abbiano entrambe distribuzione uniforme nell’intervallo (0, 1). La trasformazione biunivoca { Y1 = X1 − X2 Y2 = X2 ha come dominio l’insieme (0, 1) × (0, 1). La trasformazione inversa è { X1 = Y1 + Y2 X2 = Y2 pertanto la matrice jacobiana della trasformazione è data da ( ) 1 1 J= 0 1 la funzione di densità del vettore aleatorio (Y1 , Y2 ) è dunque data da ( ) fY1 Y2 (y1 , y2 ) = fX1 X2 g1−1 (y1 , y2 ) , g2−1 (y1 , y2 ) |det J| = 1 × 1 × |1| 0 < y1 + y2 < 1, 0 < y2 < 1 1 = 0 altrove Si noti come la trasformazione g (X) dia luogo a un insieme di defizione non banale per la Y , in corrispondenza di quello della X. Tale insieme di definizione ha infatti la forma di un parallelepipedo delimitato dalle rette y2 = 0, y2 = 1, y2 = −y1 ed y2 = 1 − y1 . Se si vuole ottenere la densità marginale fY1 (y1 ) della variabile aleatoria Y1 = X1 − X2 bisogna integrare la densità congiunta fY1 Y2 (y1 , y2 ) rispetto a y2 nel dominio di integrazione opportuno, ovvero nell’insieme di definizione della sola Y2 . Risulta che ∫ fY1 (y1 ) = fY1 Y2 (t1 , t2 ) dt2 RY2 ∫1 −y1 dt2 = 1 + y1 ∫ 1−y1 = dt2 = 1 − y1 0 0 −1 < y1 < 0 0 < y1 < 1 altrove Per la sua forma grafica l’espressione precedente è detta densità triangolare. Operando in modo analogo all’esempio appena riportato è possibile individuare l’epressione generale della densità della somma S di due variabili aleatorie X1 e X2 indipendenti, aventi rispettivamente densità fX1 ed fX2 ∫ fS (s) = fX1 (s − t2 ) fX2 (t2 ) dt2 (2.42) R Nell’integrale precedente, anche detto convoluzione per funzioni di densità, il dominio di integrazione va adattato opportunamente all’insieme di definizione delle variabili aleatorie X1 e X2 , dove le funzioni di densità sono positive. Cap.2: Eventi numerici e variabili aleatorie 57 Esempio 2.19 Siano X1 e X2 due variabili aleatorie indipendenti entrambe con distribuzione esponenziale di parametro 1. Si noti che la densità esponenziale è positiva per valori positivi della variabile aleatoria, pertanto l’insieme di integrazione dell’espressione precedente deve essere tale che valgano simultaneamente s − t2 > 0 e t2 > 0 ∫ s fS (s) = e−(s−t2 ) e−t2 dt2 = s e−s s > 0 0 L’espressione precedente è detta densità gamma di parametri 1 e 2.