"variabile casuale"

annuncio pubblicitario
Variabili casuali
&1. Valore medio.
Data una variabile casuale
X = ( x1 ,x2 ,K ,xn )
(1.1)
i cui valori assumono le rispettive probabilità
P = ( p1 , p2 ,K , pn )
(1.2)
si definisce valore medio la quantità
n
m = M X = M [ X ] = XP T = ∑ xi pi
(1.3)
i =1
Significato: il valore medio di una variabile casuale rappresenta il valore che si realizza
eseguendo un gran numero di prove e quindi nell’ipotesi che le frequenze possano
sostituire le rispettive probabilità. (vc e valore medio.xls)
Si definisce, infine, valore medio del quadrato di una variabile casuale la quantità:
n
M ⎡⎣ X 2 ⎤⎦ = ∑ xi2 pi
(1.4)
i =1
(vc e valore medio.xls).
&2. Scarto.
Indicando con m il valore medio della variabile casuale si definisce scarto di tale variabile il vettore:
X − M [ X ] = [ x1 − m
x2 − m
x3 − m
L
xn − m
]
(1.5)
da cui si evince che
M [ X − m] = 0
(1.6)
Si definisce varianza della variabile casuale il valore medio del quadrato dello scarto:
2
var [ X ] = σ 2 [ X ] = M ⎡( X − m ) ⎤ ≥ 0
⎣
⎦
(1.7)
ovvero (come si ricava facilmente)
Pag. 1
var [ X ] = M ⎡⎣ X 2 ⎤⎦ − ( m )
2
(1.8)
Significato: la varianza misura il grado di variabilità della variabile casuale.
Indicando con a e b due costanti arbitrarie si verifica facilmente:
var [ a ] = 0
(1.9)
var [ a X ] = a 2 var [ X ]
(1.10)
var [ a + X ] = var [ X ]
(1.11)
var [ a X + b ] = a 2 var [ X ]
(1.12)
Infine si definisce scarto quadratico medio o deviazione standard la quantità:
σ [ X ] = var [ X ]
(1.13)
vc e valore medio.xls
&3. Applicazioni alla finanza.
Quando in una operazione finanziaria i flussi di cassa non possono essere considerati come somme
certe ( ad esempio, nel caso di un prestito, il rischio di insolvenza del debitore) tutta l’operazione
deve essere trattata da un punto di vista probabilistico e le somme diventano variabili aleatorie
aventi una certa probabilità di realizzarsi.
Da un punto di vista matematico il valore medio di queste somme aleatorie dà la misura della
possibilità del loro realizzo e prende il nome di valore atteso o speranza matematica.
Se p è la probabilità di ricevere una somma S e quindi 1-p la probabilità di non riceverla, allora
l’importo X ha valore atteso:
E [ X ] = Sp + 0 (1 − p ) = Sp
(1.14)
Più generalmente, se X ≡ ( X 1 , X 2 ,K , X n ) è la variabile aleatoria di probabilità p ≡ ( p1 , p2 ,K , pn )
che rappresenta un certo flusso di cassa il suo valore atteso è
n
E [ X ] = ∑ X k pk
(1.15)
k =1
Nell’ipotesi che i è il tasso di interesse periodale ed n il numero di periodi di durata dell’operazione,
il valore atteso attualizzato
n
Va ( E ) = ∑ X k pk (1 + i )
−k
(1.16)
k =1
rappresenta il valore, all’istante attuale, della operazione stessa.
Pag. 2
Nel caso di prestiti a rischio, volendo determinare l’interesse da applicare, occorre prima
determinare il valore attuale della speranza matematica utilizzando l’interesse privo di rischio con la
(1.19), e poi considerare tale valore come l’attualizzazione al tasso cercato (i* ) della somma da
dare in prestito. Per cui, se S è la somma, il periodo unitario, p la probabilità di riceverla ed i il tasso
del periodo privo di rischio, si ha:
−1
Va = Sp (1 + i )
(*)
Per cui l’equivalenza finanziaria è data da:
Va = S (1 + i *)
e quindi, dal confronto delle (*) e (**) segue:
Sp (1 + i ) = S (1 + i *)
−1
−1
−1
(**)
⇒ i* =
1+ i
−1
p
[esercizi su somme aleatorie.doc]
Variabili casuali doppie o bivariate
Date due variabili X e Y si possono eseguire con esse le operazioni di somma e prodotto
ottenendo così due nuove variabili:
Z = X+Y
(1.17)
ovvero
Z=X Y
(1.18)
Poiché, in ogni caso, la variabile Z è funzione di due variabili casuali essa prende il nome di
variabile casuale doppia o bivariata. Resta il problema di conoscere i valori delle probabilità da
associare ai valori che compongono il vettore Z .
Supponiamo che la variabile X assuma valori xi con probabilità pi
variabile Y valori yk con probabilità p'k
( k = 1, 2,K m ) .
( i = 1, 2,K ,n )
e la
Per determinare le probabilità pik da
assegnare alle variabili zik = xi + yk ovvero zik = xi yk occorre distinguere se le variabili X e
Y sono indipendenti o dipendenti.
Se gli eventi sono indipendenti, per il teorema della probabilità composta, segue che la probabilità
da associare alla coppia ( xi , yk ) è pik = pi p'k . Se, mediante queste operazioni, il vettore Z presenta
valori ripetuti questi devono essere considerati una sola volta assegnando ad ogni valore ripetuto
una probabilità data dalla somma delle probabilità degli eventi che hanno prodotto tale valore
Pag. 3
poiché le varie coppie ( xi , yk ) rappresentano sempre eventi fra loro incompatibili. [bivariata (eventi
indipendenti).xls].
La probabilità pi p'k assegnata al valore zik della variabile Z prende il nome di probabilità
congiunta mentre le pi e qk sono dette probabilità marginali.
Se gli eventi sono dipendenti non può assegnarsi al valore zik della variabile Z la distribuzione di
probabilità congiunta costruita con il precedente metodo (prodotto delle probabilità marginali) . In
tal caso tale distribuzione congiunta, pik , deve essere assegnata a priori prima di procedere al
calcolo (somma) della distribuzione di probabilità da assegnare ai valori ripetuti di Z . [bivariata
(eventi dipendenti).xls].
In ogni caso, in virtù del teorema della probabilità totale, essendo le coppie
incompatibili, si ha:
m
( xi , yk )
e
( yk ,xi )
pi = ∑ pi k
( i = 1, 2,K n )
(1.19)
n
( k = 1, 2,K ,m )
(1.20)
k =1
qk = ∑ pi k
i =1
Per la variabile Z possono essere calcolate le medie e gli scarti.
Cominciamo ad osservare che qualunque sia la relazione fra due variabili casuali (dipendenti o
indipendenti) si ha sempre:
M [ X + Y] = M X + M Y
(1.21)
Infatti:
n
m
n
M [ X + Y ] = ∑∑ ( xi + yk ) pi k = ∑ xi
i =1 k =1
i =1
m
m
k =1
k =1
∑ pi k +∑ yk
n
∑p
i =1
ik
che, in virtù delle (1.19) e (1.20), fornisce:
n
m
i =1
k =1
M [ X + Y ] = ∑ xi pi + ∑ yk p'k
ossia
M [ X + Y] = M X + M Y
(1.22)
Date due variabili casuali, si definisce loro covarianza la quantità:
cov [ X , Y ] = M ⎡⎣( X − M X )( Y − M Y ) ⎤⎦
(1.23)
Pag. 4
Osserviamo che la covarianza sarà positiva quando gli scarti X − M X e Y − M Y hanno lo stesso
segno con probabilità alta, mentre assumerà valori negativi quando tendono con alta probabilità ad
avere segno opposto
La (1.26) , opportunamente sviluppata, può scriversi nella forma:
cov [ X , Y ] = M [ X Y ] − M X M Y
(1.24)
cov [ X , X ] = var [ X ]
(1.25)
cov [ X , Y ] = cov [ Y , X ]
(1.26)
Dalla definizione (1.26) segue:
Inoltre, se X, Y e Z sono tre variabili casuali risulta:
cov [ aX + bY ; Z ] = a cov [ X , Z ] + b cov [ Y , Z ]
(1.27)
dimostrazione della (1.30)
Utilizzando la (1.27) risulta:
cov [ aX + bY; Z ] = M ⎡⎣( aX + bY ) Z ⎤⎦ − M [ aX + bY ] M Z =
= M [ aXZ + bYZ ] − a M X M Z − b M Y M Z =
= a M [ XZ ] + b M [ YZ ] − a M X M Z − b M Y M Z =
= a ( M [ XZ ] − M X M Z ) + b ( M [ YZ ] − M Y M Z ) =
= a cov [ X , Z ] + b cov [ Y , Z ]
c.d.d.
Dalle (1.28)-(1.30) risulta poi:
var [ aX + bY ] = cov [ aX + bY;aX + bY ] =
= a cov [ X ; aX + bY ] + b cov [ Y ; aX + bY ] =
= a 2 cov [ X ; X] + a b cov [ X ; Y ] + b a cov [ X ; Y ] + b 2 cov [ Y ; Y ]
e quindi
var [ a X + b Y ] = a 2 var [ X ] + b 2 var [ Y ] + 2 a b cov [ X ; Y ]
(1.28)
Se le due variabili casuali sono indipendenti allora la loro covarianza è nulla.
Infatti, come è stato già mostrato, se le variabili X ≡ ( xi ) (di probabilità pi ) e Y ≡ ( yk ) (di
probabilità qk ) sono indipendenti le loro probabilità marginali determinano la probabilità
congiunta; ad esempio la variabile ( xi yk ) ha probabilità zik = pi qk .
Poiché gli scarti hanno le stesse probabilità della variabile a loro relazionata segue che:
Pag. 5
n
m
cov [ X ; Y ] = ∑∑ ( xi − M X )( yk − M Y ) pi qk =
i =1 k =1
⎛ n
⎞⎛ m
⎞
= ⎜ ∑ ( xi − M X ) pi ⎟ ⎜ ∑ ( yk − M Y ) qk ⎟ = 0
⎝ i =1
⎠ ⎝ k =1
⎠
Pag. 6
Scarica