Indipendenza di Variabili Casuali Definizione Le v.c. X1 , . . . , Xn si dicono INDIPENDENTI se e solo se, per ogni scelta di a1 , b1 , . . . , an , bn con a1 ≤ b1 , . . . , an ≤ bn , si ha P [a1 ≤ X1 ≤ b1 , . . . , an ≤ Xn ≤ bn ] = P [a1 ≤ X1 ≤ b1 ]×· · ·×P [an ≤ Xn ≤ bn ] n v.c. sono indipendenti se la conoscenza dei valori assunti da alcune di esse non dà informazioni che modifichino la previsione di quelli assunti dalle altre. n=2 P [a1 ≤ X1 ≤ b1 , a2 ≤ X2 ≤ b2 ] = P [a1 ≤ X1 ≤ b1 ] P [a2 ≤ X2 ≤ b2 ] che non significa altro che i due eventi {a1 ≤ X1 ≤ b1 } e {a2 ≤ X2 ≤ b2 } sono indipendenti per ogni scelta di a1 ≤ b1 , a2 ≤ b2 . Osservazione Nel caso discreto, scegliendo a1 = b1 = x1 , . . . , an = bn = xn si ha P [X1 = x1 . . . , Xn = xn ] = P [X1 = x1 ] × · · · × P [Xn = xn ] ESEMPIO Da un’urna contenente 6 palline numerate da 1 a 6, se ne estraggono 2 con rimpiazzo. Indichiamo con X1 il risultato della prima estrazione e con X2 il risultato della seconda estrazione. S = {(i, j) : i = 1, . . . , 6, j = 1, . . . , 6} Le variabili casuali X1 e X2 prendono entrambe i valori interi da 1 a 6 ognuno con probabilità 1/6 perchè i valori sono equiprobabili. ( 1 per z = 1, 2, 3, 4, 5, 6 P[X1 = z] = P[X2 = z] = 6 0 altrimenti ( P[X1 = ī, X2 = j̄] = 1 36 0 per (ī, j̄) ∈ S altrimenti Proposizione Se X e Y sono variabili casuali indipendenti ed hanno speranza matematica finita, allora anche il prodotto XY ha speranza matematica finita e si ha E[XY ] = E[X ]E[Y ]