Capitolo 4 Distribuzioni di uso comune 4.1 Alcuni cenni sui processi stocastici Denizione 4.1 Si dice una famiglia di variabili aleatorie {Xt : t ∈ T } discrete o continue e denite sullo stesso spazio di probabilità (Ω, F, P ), dove t rappresenta un indice (o parametro) e T l'insieme dei suoi possibili valori. processo stocastico In generale si fa riferimento ad una famiglia di variabili aleatorie atte a descrivere diversi aspetti di un fenomeno in esame (come ad esempio misurazioni eettuate in tempi o luoghi diversi). Per questo motivo tali variabili aleatorie sono supposte opportunamente legate da relazioni di dipendenza. Quando ceversa se T T è costituito da un'innità numerbile di valori il processo è detto a parametro discreto, vi- è costituito da un insieme continuo di punti (come ad esempio un intervallo di numeri reali) a parametro continuo. Sia St l'insieme di denizione della variabile aleaspazio degli stati di un processo stocastico l'insieme dei valori assumibili dalle variabili processo dato da ST = ∪t∈T St . Si dice traiettoria una possibile realizzazione di un processo il processo stocastico è detto toria Xt , si dice aleatorie del stocastico, data dall'insieme dei valori osservati per le variabili: {xt : xt ∈ St , t ∈ T }. Così come il com- portamento probabilistico di una variabile aleatoria viene completamente espresso tramite la sua funzione di ripartizione, il comportamento probabilistico di un processo stocastico, ovvero la sua distribuzione di probabilità sullo spazio delle sue traiettorie possibili, è determinato qualora siano note le distribuzioni congiunte di tutti i possibili sottoinsiemi degli elementi Xt della famiglia (non è dunque suciente conoscere le distribuzioni marginali delle singole variabili). D'altra parte così come nel caso delle variabili aleatorie i momenti individuano valori caratteristici atti a rappresentare la distribuzione, analogamente per un processo stocastico i valori attesi, le varianze e le covarianze delle Xt ne sintetizzano il comportamento probabilistico al variare di Denizione 4.2 Si dice denita da valore atteso del processo stocastico µ(t) : E(Xt ), t. {Xt : t ∈ T } la funzione µ(t) : T → R t∈T Denizione 4.3 Si dice varianza del processo stocastico {Xt : t ∈ T } la funzione σ2 (t) : T da σ 2 (t) : Var (Xt ), t∈T (4.1) → R+ denita (4.2) Denizione 4.4 Si dice autocovarianza del processo stocastico {Xt : t ∈ T } la funzione γ(t1 , t2 ) : T ×T R denita da γ(t1 , t2 ) : Cov (Xt1 , Xt2 ), 91 (t1 , t2 ) ∈ T × T → (4.3) 92 A. Pollice - Appunti di Probabilità Denizione 4.5 Si dice autocorrelazione del processo stocastico T × T → [−1, 1] denita da ρ(t1 , t2 ) : γ(t1 , t2 ) , σ(t1 )σ(t2 ) {Xt : t ∈ T } la funzione ρ(t1 , t2 ) : (t1 , t2 ) ∈ T × T (4.4) Esempio 4.1 Un processo stocastico {Xt : t ∈ T } formato da variabili aleatorie stocasticamente indipendenti ed identicamente distribuite (i.i.d.) con media e varianza comuni pari rispettivamente a E(Xt ) = µ e Var (Xt ) = σ 2 per t ∈ T è detto rumore bianco (white noise). Un tale processo stocastico risulta completamente determinato quando è nota la distribuzione comune a tutte le variabili aleatorie del processo Xt . In tal caso infatti le distribuzioni congiunte dei possibili sottoinsiemi degli elementi del processo sono ottenibili, grazie all'assunzione di indipendenza di questi, come prodotto delle distribuzioni marginali delle Xt . 4.2 Processo bernoulliano Si consideri un esperimento casuale i dicotomico, ovvero caratterizzato da due soli risultati detti rispetti- vamente successo e insuccesso ed indicati con si e si e sia la probabilità di successo pari a esperimento è possibile associare una variabile aleatoria p) e 0 in caso di insuccesso (con probabilità e la sua funzione di probabilità (detta 1 − p). Xi che vale 1 Tale variabile aleatoria è detta bernoulliana ) è data da pXi (x) = Si consideri ora il processo stocastico p 1−p {Xi : i, . . . , n} P (si ) = p. A tale in caso di successo (con probabilità indicatore di successo x=1 x=0 (4.5) costituito da una successione di n esperimenti dicotomici mutuamente stocasticamente indipendenti e con probabilità di successo costante per tutte le prove e pari a Bernoulli o P (si ) = p per i = 1, . . . , n. delle prove ripetute Il modello di riferimento appena esposto è detto processo di (si noti come tale processo stocastico sia assimilabile ad una successione di estrazioni con reinserimento da un'urna contenente palline di due colori). Il calcolo della media e della varianza del processo stocastico {Xi : i, . . . , n} porta immediatamente a µ(i) = E (Xi ) = 1 × p + 0 × (1 − p) = p (4.6) σ 2 (i) = Var (Xi ) = E Xi2 − [E (Xi )]2 = 12 × p + 02 × (1 − p) − p2 = p (1 − p) (4.7) X la variabile aleatoria che restituisce il numero (ovvero la frequenza) dei successi nella n prove ripetute in un processo bernoulliano. La variabile aleatoria X è evidentemente discreta ed il suo insieme di denizione è dato da RX = {x ∈ R : x = 0, . . . , n}. Al ne di determinare la funzione di probabilità della X si noti innanzi tutto che le probabilità che nelle n prove ripetute si n n verichino rispettivamente n successi ed n insuccessi sono date da pX (n) = p e da pX (0) = (1 − p) . Inoltre la probabilità che si verichi un solo successo tra le n prove della successione (senza specicare quale) Si indichi con successione delle può essere ottenuta come somma delle probabilità associate agli eventi (incompatibili) che si vericano in corrispondenza dei successi di ciascuna prova, quando le altre indicando rispettivemente con si ed si n−1 riportano un insuccesso. Infatti il successo e l'insuccesso all'i-esima prova per i = 1, . . . , n, pX (1) = P [(s1 ∩ s2 ∩ · · · ∩ sn ) ∪ (s1 ∩ s2 ∩ · · · ∩ sn ) ∪ · · · ∪ (s1 ∩ s2 ∩ · · · ∩ sn )] = p (1 − p)n−1 + p (1 − p)n−1 + · · · + p (1 − p)n−1 = np (1 − p)n−1 si ha Cap.4: Distribuzioni di uso comune 93 n esperimenti è data dalla somma delle probabilità delle possibili sequenze in cui possono essere disposti x successi ed n − x insuccessi. Tali n sequenze sono in numero di x (numero dei modi in cui si possono scegliere gli x successi dalle n prove) n−x x e ciascuna di esse ha probabilità p (1 − p) , pertanto n x pX (x) = p (1 − p)n−x x = 0, . . . , n (4.8) x Generalizzando, la probabilità che si verichino x successi tra gli binomiale La funzione di probabilità appena determinata è detta di parametri collegamento con lo sviluppo in serie della potenza di un binomio [(a + b)n = n e p a causa del suo P n n x n−x ]. Tale x=0 x a b sviluppo permette di dimostrare immediatamente che l'espressione (4.8) è una funzione di probabilità, infatti n X n x p (1 − p)n−x = (p + 1 − p)n = 1 x (4.9) x=0 Si noti che la frequenza di successi indicatori di successo Xi X in n prove bernoulliane può essere ottenuta come somma degli associati alle prove, in altri termini vale E (X) = E n X ! Xi = i=1 Var (X) = Var n X n X X= Pn i=1 Xi e di conseguenza E (Xi ) = np (4.10) i=1 ! Xi = i=1 n X Var (Xi ) = np (1 − p) (4.11) i=1 La seconda espressione vale in virtù dell'indipendenza stocastica delle X1 , . . . , Xn . Inne è immediato ricavare la funzione caratteristica della distribuzione binomiale, infatti per lo sviluppo in serie della potenza di un binomio si ha iuX ψX (u) = E e = n X t=0 e iut n n t p (1 − p)n−t = peiu + 1 − p t Si consideri ora un numero innito di prove ripetute di un processo bernoulliano (n (4.12) = ∞). Sia T(1) la variabile casuale che indica il numero di prove necessarie aché si verichi il primo successo (talvolta la variabile aleatoria T(1) è denominata tempo di attesa del primo successo nel discreto, dove l'espressione T(1) è evidentemente una variabile aleatoria RT(1) = {x ∈ R : x = 1, 2, 3, . . .}. L'evento T(1) = x si manifesta quando le prime x − 1 prove producono tutti insuccessi mentre l'x-esima produce un successo. A causa dell'indipendenza delle prove tale probabilità, corrispondente alla funzione di probabilità di T(1) , tempo nel discreto è da intendersi come numero di prove). discreta ed il suo insieme di denizione è dato da è data semplicemente da pT(1) (x) = (1 − p)x−1 p x = 1, 2, 3, . . . La funzione di probabilità appena determinata è detta geometrica di parametro (4.13) p. Per il calcolo dei momenti della funzione di probabilità geometrica si noti che per la somma di inniti termini di una progressione geometrica vale: ∞ X (1 − p)t = (1 − p) t=1 1 1−p = 1 − (1 − p) p e derivando ambo i membri dell'uguaglianza rispetto a ∞ X t=1 (−1) t (1 − p)t−1 = p si ottiene −p − (1 − p) 1 =− 2 2 p p (4.14) 94 A. Pollice - Appunti di Probabilità dalla quale si ha che E T(1) = ∞ X t (1 − p)t−1 p = t=1 1 p (4.15) Inoltre derivando ulteriormente ambo membri della (4.14) si ha ∞ X t (t − 1) (1 − p)t−2 = t=1 2 p3 dalla quale si ottiene ∞ X 2 (1 − p) 2 2 − T(1) = E T(1) t (t − 1) (1 − p)t−1 p = 3 (1 − p) p = p p2 t=1 ovvero 2 (1 − p) 1 2−p 2 2 − T(1) + E T(1) = E T(1) = E T(1) + = p2 p p2 ed inne Var 2 2 − p 1 1−p 2 T(1) = E T(1) − E T(1) = − 2 = p2 p p2 (4.16) Per la funzione caratteristica della distribuzione geometrica si ha ∞ X ψT(1) (u) = E eiuT(1) = eiut (1 − p)t−1 p = t=1 = ∞ t p X iu e (1 − p) 1−p t=1 eiu (1 peiu − p) p = , iu 1 − p 1 − e (1 − p) 1 − eiu (1 − p) eiu (1 − p) < 1 Una proprietà interessante della distribuzione geometrica è la cosiddetta (4.17) mancanza di memoria. è una variabile aleatoria avente funzione di probabilità geometrica di parametro Se T(1) p, allora si può dimostrare che vale PT1 |T1 T(1) ≤ x + t|T(1) > x = PT1 T(1) ≤ t (4.18) x prove allora la probabilità che se ne verichi t prove è uguale alla probabilità che si verichi un successo in t prove. L'informazione data dal fatto che non si sono avuti successi nelle prime x prove viene trascurata. In una situazione analoga alla precedente si consideri ora la variabile casuale T(r) che indica il tempo di attesa dell'r -esimo successo nel discreto, ovvero il numero di prove necessarie anché si verichino r successi in una successione bernoulliana di prove. T(r) è evidentemente una variabile aleatoria discreta ed il suo insieme di denizione è dato da RT(r) = {x ∈ R : x = r, r + 1, r + 2, . . .}. L'evento T(r) = x si manifesta quando l'ultima prova (la x-esima) è un successo e nelle x − 1 prove precedenti si sono vericati r − 1 successi. A causa dell'indipendenza delle prove tale probabilità, corrispondente alla funzione di probabilità di T(r) , è data semplicemente da In altri termini se non si verica alcun successo nelle prime uno nelle successive x − 1 r−1 x−1 r x−r pT(r) (x) = p p (1 − p) = p (1 − p)x−r r−1 r−1 La funzione di probabilità appena determinata è detta e p. x = r, r + 1, r + 2, . . . binomiale negativa o di Pascal (4.19) di parametri Incidentalmente si noti che la (4.19) è una funzione di probabilità anche per valori reali di r r non necessariamente interi. Si può dimostrare che per il valore atteso e la varianza della variabile aleatoria T(r) valgono le due espressioni seguenti r E T(r) = p (4.20) Cap.4: Distribuzioni di uso comune 95 r (1 − p) T(r) = p2 Var (4.21) n prove indik possibili risultati. In altri termini ciascuna (1) , . . . , s(k) con probabilidelle n prove possa avere come risultato uno di k eventi necessari e incompatibili s Pk (j) tà pari a P s = pj con j=1 pj = 1. Si consideri il vettore aleatorio X = (X1 , . . . , Xk ) in cui Xj rappresenta il numero di volte che si presenta il j -esimo risultato nelle n prove indipendenti. Il vettore aleatorio X contiene dunque le frequenze dei k possibili risultati pertann dell'esperimento riportabili in n prove ripetute, o Pk k to il suo insieme di denizione ha la forma RX = x ∈ R : xj = 0, . . . , n, j = 1, . . . , k, x = n . j j=1 Pk Si voglia calcolare la funzione di probabilità di X . Per un certo argomento x = (x1 , . . . , xk ) con j=1 xj = n questa è data da PX (x), ovvero dalla probabilità che le n prove ripetute diano luogo per x1 volte ad s(1) , (2) e così via. A causa dell'indipendenza delle prove, la probabilità di una specica sequenper x2 volte ad s (1) si presenti x volte, s(2) si presenti x volte e così via è pari a px1 px2 · · · pxk . Si noti za di n prove in cui s 1 2 1 2 k che le possibili sequenze di questo tipo distinte per l'ordine in cui si presentano i risultati s1 , . . . , sk sono in n! numero di x1 !···xk ! pertanto la funzione di probabilità associata al vettore aleatorio discreto k -dimensionale X è data dall'espressione seguente Una generalizzazione del modello bernoulliano è ottenuta considerando una successione di pendenti in cui ciascuna prova sia un esperimento casuale con pX1 ,...,Xk (x1 , . . . , xk ) = n! px1 px2 · · · pxk k x1 ! · · · xk ! 1 2 La funzione di probabilità appena determinata è detta buzione marginale di ciascuna componente Xj multinomiale del vettore aleatorio x ∈ RX (4.22) di parametri X n, p1 , . . . , pk . La distri- n è binomiale di parametri e pj e pertanto E (Xj ) = npj Var (Xj ) (4.23) = npj (1 − pj ) (4.24) ed inoltre Cov (Xj Xh ) = −npj ph (4.25) Il segno negativo della covarianza deriva dall'ovvia considerazione che, essendo Xj la variabile aleatoria Xh n pressato, al crescere di tende a decrescere. Si consideri ora uno schema di estrazioni simile a quello bernoulliano dato da una successione di esperimenti dicotomici corrispondenti a estrazioni senza reinserimento da un'urna contenente ne di cui m M n palli- bianche. Trattandosi di estrazioni senza reinserimento gli esperimenti della successione non risultano più stocasticamente indipendenti come nello schema bernoulliano. Tuttavia indicando con la variabile aleatoria discreta associata al numero di palline bianche ottenute nelle n X estrazioni, è pos- sibile calcolarne la funzione di probabilità con considerazioni analoghe a quelle che hanno portato alla RX di questa variabile aleatoria ha la forma RX = {x ∈ N : max [0, n − (M − m)] ≤ x ≤ min [n, m]}. Detto si l'evento corrispondente all'estrazione di una pallina bianca all'i-esimo tentativo applicando i principî delle probabilità totali e delle probabilità distribuzione binomiale. Si noti che l'insieme di denizione composte si ha P (s1 ) = m M P (s2 ) = P (s2 |s1 ) P (s1 ) + P (s2 |s1 ) P (s1 ) = ed in generale P (si ) = m−1 m m M −m m + = M −1M M −1 M M m M . In tal caso dunque, analogamente a ciò che accade nello schema bernoulliano, si ha a che fare con una successione di eventi dicotomici aventi tutti la stessa probabilità di successo, ma questa volta eventi successivi non risultano indipendenti. Inoltre dato che le probabilità che si verichi la sequenza si s1 ∩ s2 ∩ . . . ∩ sx ∩ sx+1 ∩ sx+2 ∩ . . . ∩ sn non sono indipendenti la è data per il principio delle probabilità composte da m m−1 m−x+1 M −mM −m−1 M −m−n+x+1 ··· ··· = M M −1 M −x+1 M −x M −x−1 M −n+1 (M −m)! m! (m−x)! (M −m−n+x)! M! (M −n)! 96 A. Pollice - Appunti di Probabilità Tale probabilità coincide con quella di un qualunque altro ordinamento che contenga esattamente n x bianche e poiché esistono modi incompatibili di assegnare i posti alle (M −m)! m! n (m−x)! (M −m−n+x)! n! pX (x) = = M! x! (n − x)! x (M −n)! (M −m)! m! (m−x)! (M −m−n+x)! M! (M −n)! La funzione di probabilità appena determinata è detta x = ipergeometrica x palline palline bianche si ha che m x M −m n−x M n di parametri x ∈ RX n, M ed (4.26) m. Media e varianza di una variabile aleatoria con distribuzione ipergeometrica sono ottenibili considerando che X= Pn i=1 Xi dove le Xi sono variabili aleatorie bernoulliane stocasticamente dipendenti e con probabilità m M , pertanto di successo costante pari a n X E (X) = E ! m M (4.27) m m M −n = ··· = n 1− M M M −1 (4.28) =n Xi i=1 Var (X) = Var n X ! Xi i=1 4.3 Processo di Poisson Si consideri una variabile aleatoria discreta sia una funzione decrescente del parametro Xn con distribuzione binomiale di parametri n n tale che valgano le due condizioni seguenti e pn , dove pn lim pn = 0 n→∞ npn = µ ∀n In altri termini si assume che costante µ il prodotto npn . pn decresca al crescere di n in modo da lasciare invariato e pari al valore In tal caso si ha che n 0 µ n pXn (0) = pn (1 − pn )n = 1 − n 0 Ed inoltre pXn (x) = pXn (x − 1) n x n x−1 pxn (1 − pn )n−x px−1 (1 − pn )n−x+1 n = Si consideri ora la variabile aleatoria discreta µ − nµ (x − 1) n − x + 1 pn = x (1 − pn ) 1 − nµ x X = limn→∞ Xn . Per n→∞ x = 1, . . . , n il numero delle prove del processo bernoulliano diverge e la probabilità di successo di ciascuna prova tende ad annullarsi. La variabile aleatoria discreta X restituisce il numero di successi in una successione innita di eventi indipendenti la cui probabilità di successo tende a posto che 0: si parla in tal caso di eventi o limn→∞ pXn = plimn→∞ Xn = pX e Nella situazione suddetta, pX (x) /pX (x − 1) = limn→∞ [pXn (x) /pXn (x − 1)], pX (0) = lim pXn (0) = lim n→∞ fenomeni rari. n→∞ 1− µ n = e−µ n µ − nµ (x − 1) pX (x) pXn (x) µ = lim = lim = µ n→∞ n→∞ pX (x − 1) pXn (x − 1) x 1− n x x = 1, . . . , n si ha Cap.4: Distribuzioni di uso comune 97 e conseguentemente pX (1) pX (0) = µe−µ pX (0) pX (2) µ µ2 −µ pX (1) = µe−µ = e pX (1) 2 2 pX (3) µ µ2 −µ µ3 −µ pX (2) = e = e pX (2) 3 2 6 pX (1) = pX (2) = pX (3) = ed in generale pX (x) = µx −µ e x! x = 0, 1, 2, . . . La funzione di probabilità appena determinata è detta (4.29) distribuzione di Poisson di parametro µ. Tale funzione di probabilità appare dunque come un'approssimazione della distribuzione binomiale quando è molto grande e la probabilità di successo aleatoria X p avente distribuzione di Poisson di parametro E (X) = µ t=1 X coincide con il parametro E X 2 ∞ X = t2 t=0 ∞ X = = t=1 µ, ax x=0 x! P∞ = ea . Si noti che anche la varianza infatti µt −µ e t! (t − 1 + 1) t=1 ∞ X (4.30) t=1 Nell'espressione precedente si è fatto uso del risultato della variabile aleatoria è data dal parametro stesso, infatti ∞ ∞ ∞ X X X µt µt µt−1 −µ t e−µ = t e−µ = µ e =µ t! t! (t − 1)! t=0 n è molto piccola. La speranza matematica di una variabile µt e−µ (t − 1)! ∞ X µt µt (t − 1) e−µ + e−µ (t − 1)! (t − 1)! t=1 ∞ ∞ X X µt−2 µt−1 = µ2 e−µ + µe−µ = µ2 + µ (t − 2)! (t − 1)! t=2 t=1 e di conseguenza Var (X) = E X 2 − [E (X)]2 = µ (4.31) La funzione caratteristica di una variabile aleatoria distribuita con funzione di probabilità di Poisson è data dall'espressione ψX (u) = ∞ X t=0 e iut µ t t! e −µ =e −µ ∞ X eiu µ t! t = e−µ ee iu µ iu −1 = eµ(e ) (4.32) t=0 Oltre che come approssimazione della binomiale la funzione di probabilità di Poisson può essere ricavata come distribuzione esatta con riferimeno a un processo stocastico a parametro continuo detto Poisson. Detta Xt processo di la variabile aleatoria che indica il numero di volte che l'evento in questione si verica in un intervallo di tempo di lunghezza pressata t, il processo di Poisson {Xt : t ∈ T } rappresenta il vericarsi di un certo evento nel tempo posto che valgano le condizioni seguenti: 1. la probabilità che l'evento in questione si verichi una volta in un intervallo di tempo di lunghezza t sia proporzionale all'ampiezza dell'intervallo: PXt (Xt = 1) = λt + o (t) 98 A. Pollice - Appunti di Probabilità 2. la probabilità che l'evento in questione si verichi più di una volta in un intervallo di tempo di lunghezza t sia trascurabile: PXt (Xt > 1) = o (t) 3. variabili aleatorie associate al numero di eventi che si vericano in intervalli di tempo disgiunti sono stocasticamente indipendenti. Se valgono queste tre condizioni, allora la variabile aleatoria λt, Xt ha distribuzione di Poisson di parametro in altri termini pXt (x) = In tal caso λ (λt)x −λt e x! x = 0, 1, 2, . . . indica il numero medio di arrivi in un intervallo di tempo di ampiezza unitaria. Xx rappresenti il numero di volte x ed abbia funzione di probabilità La variabile aleatoria discreta intervallo di tempo di lunghezza T1 (4.33) che un certo evento si verica in un di Poisson di parametro λx. Se con viene indicata una variabile aleatoria continua che rappresenta il tempo necessario anché l'evento in questione si presenti per la prima volta (tempo di attesa del primo successo nel continuo), allora la sua funzione di ripartizione è data dall'espressione FT1 (x) = PT1 (T1 ≤ x) = 1 − PT1 (T1 > x) = 1 − PXx (Xx = 0) = 1 − e−λx La funzione di densità della variabile aleatoria fT1 (x) = T1 x≥0 è data dunque da d dFT1 (x) = 1 − e−λx = λe−λx dx dx La funzione di densità appena determinata è detta esponenziale x≥0 di parametro (4.35) λ. Dall'espressione della funzione di densità si ricavano facilmente la media e la varianza della variabile aleatoria Z (4.34) T1 ∞ tλe−λt dt ∞ Z ∞ 1 1 −λt = tλ − − λ − e e−λt dt λ λ 0 0 ∞ 1 1 = 0+ − e−λt = λ λ 0 E (T1 ) = 0 E T12 (4.36) ∞ Z t2 λe−λt dt ∞ Z ∞ 1 1 2 −λt = t λ − e − 2tλ − e−λt dt λ λ 0 0 ∞ Z ∞ 1 1 −λt 2 − = 0 + 2t − e − e−λt dt λ λ 0 0 ∞ 1 2 = 0 + 0 + 2 − 2 e−λt = 2 λ λ 0 = 0 (4.37) e di conseguenza 2 Var (T1 ) = − λ2 2 1 1 = 2 λ λ (4.38) Cap.4: Distribuzioni di uso comune 99 Per la funzione caratteristica, invece, si ricava l'espressione seguente ∞ Z ψT1 (u) = 0 Z eiut λe−λt dt ∞ λet(iu−λ) dt = 0 = λ = ∞ 1 t(iu−λ) e iu − λ 0 λ iu − λ < 0 λ − iu (4.39) Come la distribuzione geometrica anche la densità esponenziale gode della proprietà di mancanza di memoria. Ciò signica che vale PT1 |T2 (T1 ≤ x + t|T1 > x) = = PT1 (x < T1 ≤ x + t) P (T1 > x) FT1 (x + t) − FT1 (x) 1 − FT1 (x) 1 − e−λ(x+t) − 1 + e−λx e−λx = PT1 (T1 ≤ t) = (4.40) [0, x] la probabilità che se ne verichi uno (x, x + t] di ampiezza t è uguale alla probabilità che si verichi un evento In altri termini se non si verica alcun evento nell'intervallo nell'intervallo di tempo adiacente nell'intervallo [0, t]. A causa di questa proprietà si può aermare che una variabile aleatoria con densità esponenziale può essere interpretata oltre che come il tempo di attesa del primo successo, come la durata Tj che separa la (j − 1)-esima e la j -esima manifestazione dell'evento in un processo j = 1, 2, . . .. dell'intervallo di tempo di Poisson, per Da quanto appena detto si deduce che se ipotizziamo un processo di Poisson caratterizzato da un numero medio di arrivi nell'intervallo di tempo unitario pari a λ, le lunghezze degli intervalli di tempo tra T1 , T2 , . . . arrivi successivi corrispondono ad altrettante variabili aleatorie stocasticamente indipendenti fT = fT1 = fT2 = · · · esponenziale di parametro λ. Pertanto Tr∗ associata Pr al tempo di attesa dell'r-esimo successo nel ∗ continuo è ricavata come densità della somma Tr = j=1 Tj di r variabili aleatorie indipendenti ed equidistribuite con distribuzione esponenziale di parametro λ. Per r = 2 si ha, applicando le formule di ed aventi tutte la medesima distribuzione la funzione di densità della variabile aleatoria convoluzione Z Z x fT (x − t) fT (t) dt = fT2∗ (x) = R λe−λ(x−t) λe−λt dt = λ2 xe−λx x>0 0 r = 3 si ottiene Z Z ∗ ∗ fT3 (x) = fT (x − t) fT2 (t) dt = Analogamente per R x λe−λ(x−t) λ2 te−λt dt = 0 λ3 2 −λx x e 2 x>0 ed iterando il procedimento si ha che in generale fTr∗ (x) = λr xr−1 e−λx (r − 1)! La funzione di densità appena determinata è detta λ. Naturalmente essendo Tr∗ = Pr j=1 Tj distribuzione di Erlang ed essendo le E (Tt∗ ) = x>0 r X j=1 Tj (4.41) di indice r (intero) e parametro mutuamente stocasticamente indipendenti si ha E (Tj ) = r λ (4.42) 100 A. Pollice - Appunti di Probabilità ∗ Var (Tt )= r X Var (Tj ) = j=1 Si consideri ora l'integrale R∞ 0 ta−1 e−t dt r λ2 (4.43) che esiste nito e positivo quando positiva. In tal caso detto integrale prende il nome di ∞ Z Γ (a) = funzione di Eulero o a è una costante reale e funzione gamma ta−1 e−t dt (4.44) 0 Γ (a) = Γ (a) = (a − 1)!. Inoltre d'integrazione t = λs si ottiene Incidentalmente si noti che risolvendo per parti l'integrale precedente si ottiene la relazione (a − 1) Γ (a − 1) a che nel caso particolare di intero porta iterativamente a considerando nell'integrale (4.44) la trasformazione della variabile Z ∞ Γ (a) = a−1 −λs (λs) e Z ∞ λds =⇒ 0 0 Si noti come la parte variabile sa−1 e−λs λa a−1 −λs s e ds = 1 Γ (a) della funzione integranda risulti identica a quella della distri- buzione di Erlang, mentre la parte costante λa Γ(a) dipenda dal parametro reale e positivo denire una funzione di densità simile alla (4.41), per la quale l'indice fX (x) = λa a−1 −λx x e Γ (a) La funzione di densità appena determinata è detta a reale e parametro (di scala) cui l'indice a λ. a x>0 distribuzione gamma a. Ciò porta a è un numero reale (4.45) di indice (o parametro di forma) Evidentemente la (4.45) si riconduce alla (4.41) nel caso particolare in è un numero intero. Per una variabile aleatoria = E Xk = = = E (X) = = con funzione di densità gamma si ha ∞ e di conseguenza Var (X) X λa a−1 −λs sk s e ds Γ (a) 0 Z ∞ λa sa+k−1 e−λs ds Γ (a) 0 λa Γ (a + k) Γ (a) λk+a (a + k − 1) · · · a λk Z a λ (a + 1) a a 2 a − = 2 λ2 λ λ (4.46) (4.47) (4.48) Inoltre la forma della funzione caratteristica associata alla densità gamma è la seguente ψX (u) = = = = = ∞ λa a−1 −λs eius s e ds Γ (a) 0 Z ∞ λa sa−1 e−(λ−iu)s ds Γ (a) 0 a−1 Z ∞ λa z 1 e−z dz Γ (a) 0 λ − iu λ − iu Z ∞ λa z a−1 e−z dz Γ (a) (λ − iu)a 0 a λ iu < λ λ − iu Z (4.49) Cap.4: Distribuzioni di uso comune 101 λ−iu < 0, è stato risolto tramite la trasformazione dove l'integrale precedente, che assume valore innito se z = (λ − iu) s. Dalla forma della funzione caratteristica appena ricavata deriva l'importante proprietà che riguarda la somma di variabili aleatorie indipendenti ed aventi funzione di densità gamma con lo λ (additività della densità Xj ∼Gamma[aj , λ] allora vale stesso parametro di scala indipendenti con ψPk j=1 da cui discende che Xj (u) = k Y ψXj (u) = j=1 gamma). k Y j=1 hP i k ∼Gamma j=1 aj , λ . Pk j=1 Xj λ λ − iu Infatti se aj = X1 , . . . , Xk λ λ − iu sono mutuamente Pkj=1 aj (4.50) Inne oltre alle densità esponenziale e a quella di Erlang si considera spesso un altro caso particolare della funzione di densità gamma in cui In tal caso si ottiene una funzione di densità detta χ2g ). Si noti che in tal caso vale chi-quadrato con g a= g 2 e λ= 1 2. gradi di libertà (spesso indicata con E χ2g = g 2 Var χg = 2g (4.51) (4.52) gamma con parametro di scala pari a X e Y stocasticamente indipendenti ed aventi entrambe densità 1 e indici rispettivamente a e b, reali e positivi. In altri termini siano X ∼Gamma[a, 1] indipendenti, la loro funzione di densità congiunta sia pertanto data Si considerino due variabili aleatorie e Y ∼Gamma[b, 1] dal prodotto delle due densità fX,Y (x, y) = 1 xa−1 y b−1 e−(x+y) , Γ (a) Γ (b) x ∈ R+ , y ∈ R+ si voglia determinare la funzione di densità della variabile aleatoria continua U= X X+Y . A tale proposito si consideri la trasformazione biunivoca per la quale lo jacobiano vale X U = X+Y V =Y X=V Y =V =⇒ U 1−U V . Si noti inoltre che (1−U )2 RX,Y = (x, y) ∈ R2 : x ∈ R+ , y ∈ R+ =⇒ RU,V = (u, v) ∈ R2 : u ∈ (0, 1) , v ∈ R+ La densità congiunta di U ed V è data dall'espressione fU,V (u, v) = = 1 Γ (a) Γ (b) u v 1−u a−1 u v b−1 e−(v 1−u +v) v ua−1 v a+b−1 − 1−u 1 e , a+1 Γ (a) Γ (b) (1 − u) pertanto la densità marginale della variabile aleatoria U v (1 − u)2 0 < u < 1, v ∈ R+ è individuata dall'integrale seguente, dove la funzione integranda ha la forma di una densità gamma di indice a+b e parametro (1 − u)−1 a meno della costante di normalizzazione: fU (u) = 1 ua−1 Γ (a) Γ (b) (1 − u)a+1 Z ∞ h i v a+b−1 exp −v (1 − u)−1 dv 0 = ua−1 Γ (a + b) 1 a+1 Γ (a) Γ (b) (1 − u) (1 − u)−(a+b) = Γ (a + b) a−1 u (1 − u)b−1 , Γ (a) Γ (b) 0<u<1 (4.53) 102 A. Pollice - Appunti di Probabilità La funzione (4.53) è detta densità beta di parametri (di forma) a e b. Si noti che valgono E (U ) = E U 2 Γ (a + b) Γ (a) Γ (b) Γ (a + b) = Γ (a) Γ (b) Z 1 1 Z ua (1 − u)b−1 du = 0 ua+1 (1 − u)b−1 du = 0 Γ (a + b) Γ (a + 1) Γ (b) a = Γ (a) Γ (b) Γ (a + b + 1) a+b (4.54) Γ (a + b) Γ (a + 2) Γ (b) (a + 1) a = Γ (a) Γ (b) Γ (a + b + 2) (a + b + 1) (a + b) e di conseguenza Var (U ) La forma della funzione di densità varia al variare di forma campanulare, mentre per b. Per a=b=1 ab (a + b + 1) (a + b)2 = E U 2 − [E (U )]2 = · · · = a<1 e b<1 a e b. a>1 e b>1 tale densità è di è a forma di U, in particolare essa è simmetrica per (0, 1). Inne b ≤ 1 ≤ a e a ≤ 1 ≤ b. la densità beta coincide con l'uniforme nell'intervallo funzione monotona crescente o decrescente rispettivamente se 4.4 Infatti per (4.55) a= tale densità è una Funzione di densità gaussiana Si consideri il seguente integrale improprio ∞ 2 z I= exp − dz 2 −∞ Z (4.56) l'integrale precedente esiste sempre nito, infatti la funzione integranda è continua e positiva ed è maggiorata dalla funzione exp (− |z| + 1) 2 z 0 < exp − < exp (− |z| + 1) 2 essendo z 2 > 2 |z| − 2, inoltre la funzione maggiorante ha integrale nito Z ∞ exp (− |z| + 1) dz = 2e −∞ Per risolvere l'integrale (4.56) ne considero il quadrato I 2 2 Z ∞ 2 2 ZZ z x z + x2 = exp − dz exp − dx = exp − dzdx 2 2 2 −∞ −∞ R2 2 Z 2π Z ∞ Z 2π √ r = exp − r dr dθ = dθ = 2π =⇒ I = 2π 2 0 0 0 Z ∞ Nella risoluzione dell'integrale doppio si è utilizzata la trasformazione a coordinate polari per la quale si ha |J| = r x = r cos θ z = r sin θ ed inoltre si è considerato Z 0 ∞ 2 Z ∞ r exp − r dr = exp (−k) dk = 1 2 0 Dalle considerazioni precedenti ricavo che la funzione 2 1 z fZ (z) = √ exp − 2 2π z∈R (4.57) Cap.4: Distribuzioni di uso comune 103 è sempre positiva e il suo integrale esteso a tutto di densità normale standardizzata R è pari ad 1. La funzione (4.57) è detta funzione e viene indicata con N (0, 1). Essendo la (4.57) una funzione pari, il fZ (z) è simmetrico rispetto all'asse delle ordinate, ed inoltre ha forma campanulare. denisce la funzione di ripartizione FZ (z) della variabile aleatoria Z (detto integrale di graco della funzione L'integrale che Laplace-Gauss) non ha soluzione esplicita ed i suoi valori calcolati tramite metodi numerici sono tabulati al variare di z. Invece la funzione generatrice dei momenti della variabile aleatoria Z con funzione di densità normale standardizzata è data da ∞ Z ∞ 1 2 1 − t2 1 e √ e 2 dt = √ e− 2 (t −2ut) dt 2π 2π −∞ −∞ 2 u2 Z u2 Z ∞ ∞ u e2 e2 − 12 (t−u)2 − 12 k2 √ e dt = √ e dk = exp 2 2π −∞ 2π −∞ | {z } Z φZ (u) = = ut √ (4.58) 2π Se si considerano la traslazione e il cambiamento di scala della variabile aleatoria Z deniti dalla trasfor- mazione lineare X = µX + ZσX si ottiene la variabile aleatoria X la cui funzione di densità è fX (x) = detta funzione di densità normale e generalmente indicata con σX 1 √ (x − µX )2 exp − 2 2σX 2π ! z∈R (4.59) gaussiana 2 di parametri (rispettivamente di posizione e scala) µX e σX 2 µX , σX . Lo studio analitico di tale funzione evidenzia che il suo graco N o x = µX e di due essi aleatoria X con funzione di ha forma campanulare simmetrica, è dotato di un solo punto di massimo nel punto nei punti x = µX ± σX . La funzione generatrice dei momenti della variabile densità normale di parametri µX e 2 σX uµX φX (u) = e è data da φZ (uσX ) = e uµX e 2 u2 σX 2 1 2 2 = exp uµX + u σX 2 Dall'espressione precedente si ottengono i primi due momenti ordinari della variabile aleatoria E (X) = d2 φX (u) E X2 = du2 dφX (u) du 2 = µX + uσX φX (u) u=0 2 2 = σX φX (u) + µX + uσX 2 u=0 = µX φX (u) u=0 u=0 (4.60) X (4.61) 2 = σX + µ2X da cui Var (X) 2 = E X 2 − [E (X)]2 = σX (4.62) Incidentalmente si noti come nel caso della normale standardizzata la (4.61) e la (4.62) diano luogo a E (Z) = 0 e Var (Z) normale: se X = 1. Tramite la (4.60) si può dimostrare la proprietà di è una variabile aleatoria con X∼N 2 µX , σX ed a e b linearità della distribuzione sono costanti, 1 2 φaX+b (u) = eub E euaX = eub φX (ua) = exp ub + uaµX + u2 a2 σX 2 da cui si deduce che 2 aX + b ∼ N aµX + b, a2 σX (4.63) 104 A. Pollice - Appunti di Probabilità In altri termini qualsiasi trasformazione lineare aX +b di una variabile aleatoria X distribuita normalmente 2 con parametri µX e σX ha densità normale con media e varianza rispettivamente date da 2 2 a σX . Sempre tramite la (4.60) si può dimostrare la proprietà di X1 , . . . , Xn Xj ∼ N sono variabili aleatorie indipendenti con aµX + b e da additività della distribuzione normale: 2 µXj , σX j per j = 1, . . . , n ed se a1 , . . . , a n costanti, φP n j=1 aj Xj (u) = n Y φaj Xj (u) = j=1 n Y n Y φXj (aj u) j=1 1 2 2 2 = exp aj uµXj + aj u σXj 2 j=1 n n X X 1 2 = exp u aj µXj + u2 a2j σX j 2 j=1 da cui si deduce che n X j=1 n n X X 2 aj Xj ∼ N aj µXj , a2j σX j j=1 j=1 (4.64) j=1 Pn j=1 aj Xj di n ≥ 2 variabili aleatorie stocasticamente indipen2 denti distribuite normalmente con parametri µXj e σX per j = 1, . . . , n, è una variabile aleatoria con j Pn Pn 2 2 densità normale con media e varianza rispettivamente date da j=1 aj σXj . j=1 aj µXj e da In altri termini una combinazione lineare Si considerino due variabili aleatorie indipendenti X ed Y aventi entrambe densità normale standar- dizzata. La loro funzione di densità congiunta sia pertanto data dal prodotto delle due densità y2 x2 1 1 − x2 +y2 1 2 e , fX,Y (x, y) = √ e− 2 √ e− 2 = 2π 2π 2π x ∈ R, y ∈ R si voglia determinare la funzione di densità della variabile aleatoria continua U = X Y . A tale proposito si consideri la trasformazione biunivoca per la quale lo jacobiano vale |A|. U=X Y A=Y =⇒ X = UA Y =A Si noti inoltre che RX,Y = (x, y) ∈ R2 =⇒ RU,A = (u, a) ∈ R2 Pertanto la densità congiunta di U ed A è data dall'espressione fU,A (u, a) = 2 1 2 u +1 |a| e−a 2 , 2π quindi la densità marginale della variabile aleatoria 2 la trasformazione a = b, U u ∈ R, a ∈ R è individuata dall'integrale seguente in cui, dopo la funzione integranda prende la forma della parte variabile di una densità (u2 + 1)/2 a meno della costante di normalizzazione Z ∞ Z 2 1 1 ∞ −a2 u2 +1 −a2 u 2+1 2 da |a| e ae fU (u) = da = 2π −∞ π 0 Z ∞ u2 +1 1 1 2 1 1 = e−b 2 db = = , u∈R 2 2π 0 2π u + 1 π u2 + 1 esponenziale di parametro (4.65) Cap.4: Distribuzioni di uso comune 105 La funzione di densità appena determinata, corrispondente al rapporto tra due variabili aleatorie indipendenti con densità normale standardizzata, è detta di Cauchy. Si noti che gli integrali che deniscono i momenti ordinari di una variabile aleatoria con densità di Cauchy non esistono niti, pertanto tale variabile aleatoria non risulta dotata dei momenti. Inoltre la forma della funzione di densità è simile a quella della N (0, 1), con una maggiore dispersione attorno al valore medio. di Cauchy è ottenibile anche applicando la trasformazione distribuzione uniforme nell'intervallo Sia Z Si può dimostrare che la densità ad una variabile aleatoria Z con (0, 2π). una variabile aleatoria continua con densità normale standardizzata. Per ricavare la funzione X = Z2 di densità della trasformazione non biunivoca x∈ U = tan Z si consideri la funzione di ripartizione FX (x) per R+ √ √ FX (x) = PZ Z 2 ≤ x = PZ − x ≤ Z ≤ x Z √x Z √x 2 t2 1 2 − t2 = √ e dt = √ e− 2 dt √ 2π − x 2π 0 Z x 1 s 1 s− 2 e− 2 ds = √ 2π 0 X da cui risulta che la funzione di densità della variabile aleatoria ha la forma 1 x 1 fX (x) = √ x− 2 e− 2 2π (4.66) Si noti che l'espressione precedente è quella di una densità gamma di parametri chi quadrato con g=1 1 1 2 e 2 , ovvero quella di una gradi di libertà. Quanto appena dimostrato, insieme all'additività della densità gamma, consente di aermare che la somma dei quadrati di g variabili aleatorie indipendenti e aventi g gradi di libertà. N (0, 1) e una variabile aleatoria Y densità normale standardizzata ha a sua volta densità chi quadrato con Si considerino una variabile aleatoria X con densità con densità χ2g stocasticamente indipendenti. La loro funzione di densità congiunta sia pertanto data dal prodotto delle due densità fX,Y g 1 − x2 12 2 g −1 − y y 2 e 2 , (x, y) = √ e 2 Γ g2 2π x ∈ R, y ∈ R+ si voglia determinare la funzione di densità della variabile aleatoria continua U = qX . A tale proposito Y g si consideri la trasformazione biunivoca ( U= qX Y g ( =⇒ A=Y per la quale lo jacobiano vale q X=U q A g Y =A A g . Si noti inoltre che RX,Y = (x, y) ∈ R2 : x ∈ R, y ∈ R+ =⇒ RU,A = (u, a) ∈ R2 : u ∈ R, a ∈ R+ Pertanto la densità congiunta di fU,A (u, a) = = U ed A è data dall'espressione g r 1 − u2g2 a 12 2 g −1 − a a 2 2 √ e a e g Γ g2 2π g+1 1 a u2 −1 2 a exp − 1 + , g √ 2 g 2πgΓ g2 2 2 u ∈ R, a ∈ R+ 106 A. Pollice - Appunti di Probabilità quindi la densità marginale della variabile aleatoria U è individuata dall'integrale seguente, dove la funzione integranda ha la forma di una densità gamma di indice g+1 1 2 e parametro 2 1+ u2 g a meno della costante di normalizzazione, pertanto fU (u) = √ Z 1 a g g2 2 2 2πgΓ ∞ a u2 exp − 1+ da = 2 g g+1 −1 2 0 g+1 Γ 2 1 √ i g+1 g g2 h 2πgΓ 2 2 1 2 u2 1 + 2 g Γ g+1 2 1 u∈R √ g g+1 , πgΓ 2 2 u2 1+ g = = (4.67) La funzione di densità appena determinata, corrispondente al rapporto tra una variabile aleatoria con densità normale standardizzata e la radice quadrata di una variabile aleatoria indipendente dalla prima ed g gradi di libertà, è detta t di Student con g gradi di libertà. Si noti E (U ) = 0 e Var (U ) = g/ (g − 2) se g > 2. Inoltre la forma della funzione di densità è simile a quella della N (0, 1) con una maggiore dispersione attorno al valore medio e tende ad essa all'aumentare dei gradi di libertà. L'espressione della funzione di ripartizione della distribuzione t di Student non è nota avente distribuzione chi quadrato con che valgono in forma esplicita ed i suoi valori calcolati tramite metodi numerici sono tabulati al variare dei gradi di libertà g. Si considerino una variabile aleatoria X con densità χ2g e una variabile aleatoria Y con densità χ2h stocasticamente indipendenti. La loro funzione di densità congiunta sia pertanto data dal prodotto delle due densità fX,Y (x, y) = 1 2 Γ g 2 g −1 − x2 2 e gx 2 1 2 Γ h 2 h 2 y g h −1 2 e − y2 h x+y x 2 −1 y 2 −1 e− 2 = g+h , Γ g2 Γ h2 2 2 x ∈ R+ , y ∈ R+ si voglia determinare la funzione di densità della variabile aleatoria continua U = X g Y h . A tale proposito si consideri la trasformazione biunivoca per la quale lo jacobiano vale U = hX gY A=Y =⇒ X = hg U A Y =A g h A. Si noti inoltre che RX,Y = (x, y) ∈ R2 : x ∈ R+ , y ∈ R+ =⇒ RU,A = (u, a) ∈ R2 : u ∈ R+ , a ∈ R+ Pertanto la densità congiunta di U ed A è data dall'espressione g fU,A (u, a) = = −1 h −1 − a ( g u+1) g 2 a2 e 2 h g h ua a g+h h Γ g2 Γ h2 2 2 g a g g 2 g2 −1 g+h u a 2 −1 e− 2 ( h u+1) h , g+h Γ g2 Γ h2 2 2 quindi la densità marginale della variabile aleatoria U u ∈ R+ , a ∈ R+ è individuata dall'integrale seguente, dove la funzione integranda ha la forma di una densità gamma di indice g+h 1 2 e parametro 2 g hu +1 a meno della costante Cap.4: Distribuzioni di uso comune 107 di normalizzazione, pertanto g g Z ∞ g+h u 2 −1 a g a 2 −1 e− 2 ( h u+1) da = g+h Γ g2 Γ h2 2 2 0 g g+h g 2 g2 −1 Γ u 2 h g+h g+h Γ g2 Γ h2 2 2 1 g u + 1 2 2 h g g g Γ g+h 2 u 2 −1 2 u ∈ R+ g+h , h g Γ g2 Γ h2 u+1 2 g 2 h fU (u) = = = (4.68) h La funzione di densità appena determinata, corrispondente al rapporto tra due variabili aleatorie indipendenti con densità chi quadrato rapportate ai propri gradi di libertà, è detta bertà. Si noti che valgono se h > 4. E (U ) = h/ (h − 2) se h > 2 e Var (U ) = F di Fisher.h con g ed h gradi di lii g (h − 2)2 (h − 4) 2h2 (g L'espressione della funzione di ripartizione della distribuzione + h − 2) F di Fisher non è nota in forma esplicita ed i suoi valori calcolati tramite metodi numerici sono tabulati al variare dei gradi di libertà h. Si osservi che il quadrato di una variabile aleatoria avente densità F di Fisher con 1 e g gradi di libertà. Z1 , . . . , Zk variabili aleatorie mutuamente t di Student con g g ed gradi di libertà ha densità Siano normale standardizzata. (Z1 , . . . , Zk )T La funzione di densità congiunta del vettore aleatorio z = (z1 , . . . , zk )T . k Y k -dimensionale k 1X 2 1 1 √ e−zj /2 = exp − k/2 2 2π (2π) j=1 Si consideri il vettore aleatorio mazione lineare tramite la matrice quadrata vettore k -dimensionale Z = è pertanto data dall'espressione fZ1 ,...,Zk (z1 , . . . , zk ) = dove stocasticamente indipendenti aventi tutte densità di costanti k×k zj2 = j=1 1 1 T z k/2 e− 2 z , z ∈ Rk (2π) k -dimensionale X denito dalla seguente trasforC non singolare (ovvero invertibile) ed il di costanti b X = CZ + b =⇒ Z = C −1 (X − b) per la quale lo jacobiano vale |C|−1 . Si noti inoltre che o o n n RZ = z ∈ Rk =⇒ RX = x ∈ Rk Pertanto per x = (x1 , . . . , xk ), la densità congiunta del vettore aleatorio fX1 ,...,Xk (x1 , . . . , xk ) = = 1 k/2 (2π) 1 |C| 1 (2π)k/2 |C| e− 2 [C X è data da −1 (x−b) T C −1 (x−b) ] T 1 T e− 2 (x−b) (CC ) −1 (x−b) , x ∈ Rk (4.69) E (Z) = (E (Z1 ) , . . . , E (Zk ))T = (0, . . . , 0)T e che, data l'indipendenza delle componenti Z , vale ΣZ = Var (Z) = Ik . Pertanto per il vettore aleatorio X si ha Si noti inoltre che del vettore µX = E (X) = E (CZ + b) = b ΣX = Var (X) = Var (CZ + b) = C Var (Z) C T = CΣZ C T = CC T In conclusione sostituendo le due espressioni precedenti nella (4.69) si ha fX1 ,...,Xk (x1 , . . . , xk ) = 1 (2π) k/2 |ΣX | 1 1/2 T e− 2 (x−µX ) Σ−1 X (x−µX ) , x ∈ Rk (4.70) 108 A. Pollice - Appunti di Probabilità La funzione di densità k -dimensionale appena determinata è detta normale k-dimensionale di parame- µX e ΣX , rispettivamente vettore delle medie e matrice di varianze e covarianze del vettore aleak -dimensionale X . Generalmente con X ∼ Nk (µX , ΣX ) si indica che X ha densità normale k dimensionale di parametri µX e ΣX . Nel seguito vengono enunciate le principali proprietà della densità tri torio normale multivariata. 1. Linearità. Qualsiasi trasformazione lineare di un vettore aleatorio avente densità normale multiva- riata ha a sua volta densità normale multivariata. In altri termini se matrice h×k ed un vettore h-dimensionale A e a sono rispettivamente una di costanti, si ha X ∼ Nk (µX , ΣX ) =⇒ AX + a ∼ Nh AµX + a, AΣX AT 2. Additività. (4.71) n ≥ 2 vettori aleatori aventi densità normale multivariata ha a sua volta densità normale multivariata. In altri termini se X1 , . . . , Xn sono vettori aleatori stocasticamente indipendenti con densità normale kj -dimensionale Xj ∼ Nkj µXj , ΣXj per j = 1, . . . , n ed A1 , . . . , An matrici di costanti di dimensioni h × kj per j = 1, . . . , n, si ha n n X X A1 X1 + · · · + An Xn ∼ Nh Aj µXj , Aj ΣXj ATj Una combinazione lineare di j=1 3. Densità marginali. j=1 Le distribuzioni marginali degli elementi di un vettore aleatorio avente densità normale multivariata hanno a loro volta densità normale univariata. In altri termini si ha X = (X1 , . . . , Xk )T ∼ Nk (µX , ΣX ) =⇒ Xj ∼ N (µj , σj ) , dove µj e σj2 sono rispettivamente il j -esimo elemento di µX e il j -esimo j = 1, . . . , k (4.72) elemento della diagonale di ΣX . 4. Incorrelazione e indipendenza. L'assenza di correlazione tra le componenti di un vettore alea- torio con densità normale multidimensionale è condizione necessaria e suciente per la loro indipendenza. In altri termini, se X è un vettore aleatorio avente densità normale multivariata con matrice di varianze e covarianze diagonale ΣX = diag σ12 , . . . , σk2 , allora le componenti di X sono stocasticamente indipendenti e viceversa. 5. Densità condizionate. Le densità condizionate di sottoinsiemi degli elementi di un vettore alea- torio avente densità normale multivariata hanno a loro volte densità normale multivariata.