I SEGNALI GAUSSIANI 1 - Variabili aleatorie normali o gaussiane. Sia W una variabile aleatoria caratterizzata dalla seguente densità di probabilità: 1 pW ( w) = (1.1) 2π e − w2 2 rappresentata in Fig. 1. pw(w) Una tale variabile aleatoria presenta: a) valor medio nullo. Infatti è: μW = E {W } = (1.2) ∫ 1 wpW ( w)dw = 2π ∞ ∫−∞ we − w2 2 dw = 0 poiché l’integrando è una funzione dispari di w . b) varianza unitaria. w Fig. 1 Densità di probabilità di una variable aleatoria normale Infatti, essendo il valor medio nullo, è: 2 σW (1.3) σW2 = 1 w pW ( w)dw = 2 2π ∞ ∫−∞ w e 2 − w2 2 dw { ( )} = −w exp ( ) dw , diviene, sviluppando l’integrale per parti: 1 1 ⎡ 1 wd ⎡ − exp ( ) ⎤ = − w ⋅ exp ( ) ⎤ + ∫ ∫ e dw = 1 ⎣ ⎦ ⎣ ⎦ 2π 2π 2π che, notando che è d exp (1.4) { }=∫ =E W 2 − w2 2 − ∞ − −∞ w2 2 w2 2 − w2 2 ∞ ∞ −∞ −∞ − w2 2 avendo tenuto conto che è, per la condizione di normalizzazione: 1 2π (1.5) ∫ ∞ −∞ e − w2 2 dw = 1 Una variabile aleatoria siffatta si definisce normale (o gaussiana) a valor medio nullo e varianza unitaria e si scrive: W ≈ N (0,1) (1.6) Di particolare interesse è la funzione Q , definita dalla Q( x) = (1.7) 1 ∫ 2π ∞ x e− w 2 /2 dw Essa non può essere espressa in forma chiusa; tuttavia se ne possono dare efficaci approssimazioni. A tale scopo si ha, integrando per parti: ∞ ∞ 1 ∞ 1 − w2 / 2 − w2 / 2 − w2 / 2 ∫x e dw = ∫x w we dw = ∫x w d −e dw = (1.8) 2 ∞ ∞ 1 ∞ 1 1 e− x / 2 2 2 2 = −e − w / 2 − ∫ 2 e− w / 2 dw = − ∫ 2 e− w / 2 dw x w x w w x x ( ( ) ( ) ) Poiché, per x > 0 , è: (1.9) 0<∫ ∞ x ∞ w 2 1 − w2 / 2 1 e dw = ∫ 3 e − w / 2 dw < 3 2 x w w x ∫ ∞ x 2 we − w2 / 2 si ottiene: (1.10) 1 ⎞ e− x / 2 ⎛ ⎜1 − 2 ⎟ < Q( x) < 2π x ⎝ x ⎠ 2π x e− x 2 /2 2 ( x > 0) e− x / 2 dw = 3 x -2- G. Mamola: Lezioni di Complementi di Comunicazioni Elettriche 1 Nella Fig.2 sono riportati i diagrammi dei Q( x) limiti inferiore e superiore, forniti dalla (1.10), 2 1 unitamente a quello della funzione Q( x) . 10−1 2π Sia X una variabile aleatoria definita dalla −x / 2 x X = aW + b (1.11) con a e (a ≠ 0) e b costanti reali. Per determinare 10−2 la densità di probabilità di X , basta osservare che la probabilità che all’intervallo I x ≡ ⎡⎣ x − probabilità che W I w ≡ ⎡⎣ w − Δw 2 ,w + Δw 2 Δx 2 ,x + appartenga X Δx 2 2 1 10−3 ⎤ è eguale alla ⎦ e −x / 2 2π x ⎛1 − 1 ⎞ ⎝ x2 ⎠ appartenga all’intervallo ⎤ (v. Fig. 3). In altre parole si ⎦ 0,5 1 1,5 2 x 3 Fig. 2 – Funzione Q(x) e suoi limiti. deve avere: p X ( x) Δx = pW ( w) Δw (1.12) X dove si è tenuto conto del fatto che le probabilità interessate sono quantità positive. La (1.12), essendo w = x −a b , può essere riscritta come segue: x Δx Δw w pX ( x) = (1.13) X = aW + b W Fig. 3 – Determinazione della d.d.p. della v.a. X . ( ) x −b a pW dx dw e cioè: pX ( x) = (1.14) − 1 2πa 2 e ( x − b )2 2 a2 Dalla (1.11) si ricava il valore medio: (1.15) μ X = E { X } = aE {W } + b = b e la varianza; (1.16) σ X2 = E {( X − μ X ) 2 } = E {( X − b) 2 } = E {(aW ) 2 } = a 2 per cui la (1.14) assume la forma: (1.17) pX ( x) = − 1 2πσ 2 x e ( x −μ x )2 2 σ 2x che costituisce la più generale espressione delle densità di probabilità di una variabile aleatoria gaussiana caratterizzata da un valor medio μ x e da una varianza σ 2x . Si scrive: (1.18) X ≈ N (μ x , σ 2X ) 2 – Vettori aleatori a valori reali, normali o gaussiani. Le considerazioni sopra esposte possono essere facilmente estese ai vettori aleatori. Sia: (2.1) W = [W1 W2 Wn ] T un vettore aleatorio a valori reali, ad n dimensioni caratterizzato da una densità di probabilità congiunta delle sue componenti data dalla: I segnali gaussiani pW (w ) = (2.2) n ⎛ ⎞ exp ⎜ − 12 ∑ wi2 ⎟ = n i =1 ⎝ ⎠ (2 π ) 1 È facile verificare che le quantità Wi - 3- 1 (2 π ) n ( exp − 12 w T w ) sono variabili aleatorie gaussiane, stati- (i = 1, 2… n) sticamente indipendenti, con valor medio nullo e varianza unitaria. Infatti, integrando la (2.2) rispetto a tutte le W j (con j ≠ i ) si deduce la densità di probabilità del primo ordine della variabile aleatoria Wi : pWi (wi ) = (2.3) 1 2π e − wi2 2 n ∏∫ ∞ 1 −∞ j =1 ( j ≠i ) e quindi: (2π)( n −1) { } E {wi } = 0 ; E wi2 = 1 (2.4) e − w2j 2 dw j = 1 2π e − wi2 2 i = 1, 2, … , n In modo analogo, dalla (2.2), si ottiene la densità di probabilità congiunta delle variabili aleatorie Wr e Ws : pWrWs ( wr , ws ) = (2.5) 1 2π e − wr2 2 1 2π e − ws2 2 = pWr (wr ) ⋅ pWs (ws ) dalla quale si deduce che le variabili aleatorie Wr e Ws sono statisticamente indipendenti. Ciò comporta: ⎧1 E {wr ws } = ⎨ ⎩0 (2.6) r = s r ≠ s Le (2.4) e (2.6) sono riassunte nelle: E {W } = 0 (2.7) { ; ΣW = E WW T } ⎡1 ⎢0 =⎢ ⎢ ⎢ ⎣0 0 1 0 0⎤ 0 ⎥⎥ =I ⎥ ⎥ 1⎦ Un vettore aleatorio di questo tipo è pertanto caratterizzato da un vettore dei valori medi nullo e da una matrice di correlazione ΣW unitaria. Esso si dice normale (o gaussiano) e si denota con: W ≈ N (0, I ) (2.8) Sia ora X = AW + b (2.9) un vettore aleatorio a valori reali ottenuto da W per trasformazione affine la cui matrice A , di dimensioni n × n , si suppone non singolare. Per dedurre la densità di probabilità congiunta p X ( x ) delle componenti del vettore X in funzione della analoga densità pW (w ) delle componenti del vettore W , basta osservare che, detto Δx un elemento infinitesimo dello spazio (2.10) n , si deve avere: p X ( x ) Δx = pW (w ) Δw dove Δw denota l’elemento dello spazio n che porta a Δx per effetto della trasformazio- ne (2.9). È noto dalla Geometria che è (2.11) Δx = det( J ) Δw essendo J la matrice jacobiana della trasformazione, il cui generico elemento è definito dalla J ij = ∂xi . Si ha J = A . Pertanto, ricordando la (2.2) è: ∂w j -4- G. Mamola: Lezioni di Complementi di Comunicazioni Elettriche pX ( x ) = (2.12) = pW ⎡⎣ A−1 ( x − b)⎤⎦ = det( A) 1 (2π) det( A) n 1 (2π) det( A) n exp ⎡⎣ − 12 ( x − b)T ( AT )−1 A−1 ( x − b)⎤⎦ = exp ⎡⎣ − 12 ( x − b )T ( AAT )−1 ( x − b)⎤⎦ Dalla (2.9), tenendo conto delle (2.7), si deducono le espressioni del vettore dei valori medi e della matrice di covarianza del vettore aleatorio X . (2.13) { μ X = E{X } = AE{W} + b = b } { } Σ X = E ( x − μ X )( x − μ X )T = E Aww T AT = AAT (2.14) e di conseguenza la (2.12) può essere riscritta nella forma: 1 (2.15) pX (x ) = exp − 12 ( x − μ X ) T (Σ X ) −1 (x − μ X ) n (2π) det(Σ X ) [ ] essendo det(Σ X ) = det( AAT ) = det( A )det( AT ) = [det( A )] . 2 Generalizzando un vettore aleatorio è definito gaussiano quando la sua densità di probabilità congiunta è della forma espressa dalla (2.15) purché il determinante della matrice di covarianza è non negativo o, che è lo stesso, quando la matrice di covarianza è definita positiva. La statistica di un vettore gaussiano è completamente determinata se si conosce il vettore dei valori medi μ X e la matrice di covarianza Σ X . Poiché è: (2.16) { } { } { } Σ X = E ( x − μ X )( x − μ X )T = E xx T − xμTX − μ X x T + μ X μTX = E xx T − μ X μTX tale statistica è anche definita dal vettore dei valori medi μ X e dalla matrice di correlazio- { } ne RX = E ( xx T . Si scrive: X ≈ (2.17) N (μ X , Σ X ) Un’utile grandezza associata ad un vettore aleatorio X è la cosiddetta funzione caratteristica. Essa è definita dalla: (2.18) { }=∫ FX (u) = E e ju T T x n e ju x p X ( x ) d x T cioè come la media della funzione e ju x , essendo u un vettore ad n dimensioni. La (2.18) può essere invertita per dare luogo alla: T 1 (2.19) pX ( x ) = FX (u)e − ju x dx n (2π) n ∫ per cui la statistica di un vettore aleatorio può essere individuata o assegnando la densità di probabilità congiunta delle sue componenti o la funzione caratteristica di ordine n . È possibile dimostrare (v. Appendice A) che la funzione caratteristica di un vettore gaussiano si può esprimere nella forma: (2.20) FX (u) = exp ⎡⎣ juT μ X − 12 uT Σ X u ⎤⎦ 3. - Proprietà dei vettori aleatori gaussiani. I vettori aleatori gaussiani godono delle seguenti proprietà: a) Ogni trasformazione lineare di un vettore gaussiano (3.1) Y = HX + h I segnali gaussiani in cui X ≈ e Y X N (μ X , Σ X - 5- denotano due vettori di dimensioni n e m rispettivamente con ) e dove H è una matrice di dimensioni (m × n) e h un vettore non aleatorio anch’esso di dimensioni m , conduce ad un vettore anch’esso gaussiano. DIM. La funzione caratteristica del vettore Y vale (3.2) { } = E {e FY (u) = E e ju T y juT ( Hx + h ) }=e juT l { T E e ju Hx }=e juT l { E e j(H T u )T x }=e juT h FX ( H T u) Poiché X obbedisce ad una statistica di tipo gaussiano, la sua funzione caratteristica è espressa dalla (2.20) che sostituita nella (3.2) conduce alla: FY (u) = e ju h e T (3.3) juT H μ X − 12 uT H Σ X H T u =e juT ( H μ X + h ) − 12 uT H Σ X H T u Notando infine che dalla (3.1) si deducono: il vettore dei valori medi (3.4) μY = E {Y } = H μ X + h e la matrice di covarianza { } { } { } (3.5) ΣY = E ( y − μY )( y − μY )T = E H ( x − μ X )( x − μ X )T H T = HE ( x − μ X )( x − μ X )T H T = H Σ X H T la (3.3) può essere riscritta come segue (3.6) FY (u) = exp ⎡⎣ juT μY − 12 uT ΣY u ⎤⎦ che confrontata con la (2.20) permette di concludere che il vettore Y è un vettore gaussiano caratterizzato dal vettore dei valori medi e dalla matrice di covarianza date dalle (3.4) e (3.5) rispettivamente. In particolare se si pone H = [ k1 k2 kn ] , e h = 0 , la proprietà di cui sopra assicura che la combinazione lineare di un insieme di n variabili aleatorie congiuntamente gaussiane produce una variabile aleatoria anch’essa gaussiana. b) Un qualunque sottovettore X k di dimensioni k estratto da un vettore aleatorio X gaussiano è anche gaussiano. DIM. Basti osservare che il vettore X k può essere ottenuto a mezzo di una trasformazione lineare del tipo X k = H k X . Ad esempio se da un vettore X tridimensionale si vuole estrarre un vettore che contiene solo le prime due componenti, si deve porre ⎡1 0 0 ⎤ H3 = ⎢ ⎥ e h = 0. ⎣0 1 0⎦ c) Se le componenti di un vettore aleatorio X gaussiano sono a due a due incorrelate, esse sono anche statisticamente indipendenti. DIM. La matrice di covarianza del vettore X vale: ⎡σ12 0 0⎤ ⎢ ⎥ 2 0 0 σ 2 ⎥ (3.7) ΣX = ⎢ ⎢ ⎥ ⎢ ⎥ 2 σ n ⎥⎦ ⎢⎣ 0 0 per cui la funzione caratteristica è: ⎡ n ⎤ FX (u) = exp ⎡⎣ juT μ X − 12 uT Σ X u ⎤⎦ = exp ⎢ ∑ jui μ Xi − 12 σi2 ui2 ⎥ = ⎣ i =1 ⎦ ( (3.8) n ) n = ∏ exp ⎡⎣ jui μ Xi − 12 σi2 ui2 ⎤⎦ = ∏ FXi (ui ) i =1 i =1 essendo FXi (ui ) = exp ⎡⎣ jui μ Xi − σ u ⎤⎦ . La funzione caratteristica si fattorizza nel prodotto 1 2 2 2 i i delle funzioni caratteristiche delle componenti del vettore e ciò comporta che la densità di -6- G. Mamola: Lezioni di Complementi di Comunicazioni Elettriche probabilità congiunta delle componenti del vettore X è fattorizzata nel prodotto delle densità di probabilità delle singole componenti. 4 – Vettori aleatori a valori complessi, normali o gaussiani. Un vettore aleatorio di n dimensioni a valori complessi X = X R + jX I si dice normale o gaussiano quando il vettore ⎡X ⎤ ⎢ R⎥ ⎢⎣ X I ⎥⎦ composto dalla parte reale e dal coefficiente della parte immaginaria del vettore X costituisce un vettore gaussiano e pertanto definito da una densità di probabilità di ordine 2n come quella data dalla (2.15). Ciò comporta che, per caratterizzare un vettore gaussiano a valori complessi è necessario conoscere il vettore dei valori medi ⎡ E { X R }⎤ μ=⎢ ⎥ ⎣⎢ E { X I } ⎦⎥ (4.1) e la matrice di correlazione: (4.2) { { ⎡ E X R X RT ⎪⎫ X IT ⎤⎦ ⎬ = ⎢ T ⎭⎪ ⎢⎣ E X I X R ⎧⎪ ⎡ X ⎤ ⎡ X ⎤T ⎫⎪ ⎪⎧ ⎡ X ⎤ R = E ⎨ ⎢ R ⎥ ⎢ R ⎥ ⎬ = E ⎨ ⎢ R ⎥ ⎡⎣ X RT ⎪⎩ ⎣ X I ⎦ ⎣ X I ⎦ ⎪⎭ ⎩⎪ ⎣ X I ⎦ } } { { } } E X R X IT ⎤ ⎡ R ⎥=⎢ R T ⎥ RIR E XI XI ⎦ ⎣ RRI ⎤ RI ⎦⎥ dove si sono denotate con RR , RI le matrici di correlazione associate ai vettori X R e X I rispettivamente e con RRI e RIR le matrici di correlazione mutua fra X R e X I . Si noti che T è RRI = RIR . È da osservare che mentre per caratterizzare un vettore aleatorio gaussiano a valori reali occorre conoscere il vettore dei valori medi e la matrice di correlazione, per la determinazione della statistica di un vettore aleatorio gaussiano a valori complessi non basta conoscere, oltre il vettore dei valori medi, la sua matrice di correlazione; infatti quest’ultima è: (4.3) { } { = E { X X + X X } + jE { X } { } RX = E XX H = E ( X R + jX I )( X R + jX I ) H = E ( X R + jX I )( X RT − jX IT ) = R T R I T I I X − XR X T R T I } = (R R + RI ) + j ( RIR − RRI ) Per definire completamente la statistica del vettore X occorre aggiungere un’ulteriore condizione. Di norma è introdotta la cosiddetta matrice di pseudo correlazione definita dalla: (4.4) { } { = E { X X − X X } + jE { X } { } RX = E XX T = E ( X R + jX I )( X R + jX I )T = E ( X R + jX I )( X RT + jX IT ) = R T R I T I I X + XR X T R T I } = (R R − RI ) + j ( RIR + RRI ) Dalle (4.3) e (4.4) si deduce: RR = 12 Re ⎡⎣ RX + RX ⎤⎦ , RI = 12 Re ⎡⎣ RX − RX ⎤⎦ (4.5) RRI = 12 Im ⎡⎣ − RX + RX ⎤⎦ , RIR = 12 Im ⎡⎣ RX + RX ⎤⎦ Una particolare classe di vettori aleatori gaussiani a valori complessi è costituita dai cosiddetti vettori gaussiani propri. Essi sono definiti dalla condizione: (4.6) RX = 0 che comporta: (4.7) RR = RI RIR = − RRI I segnali gaussiani - 7- T È da notare che, poiché è RRI = RIR , dalla seconda delle (4.7) si ha: T RRI = − RRI (4.8) e cioè le parti reali e i coefficienti delle parti immaginarie X R e X I di un vettore gaussiano proprio hanno identiche matrici di correlazione e la matrice di correlazione incrociata è antisimmetrica e, in particolare, la diagonale principale è costituita da valori tutti nulli. Per determinare la statistica di un vettore gaussiano proprio occorre quindi conoscere il vettore dei valori medi μ X e la sola matrice di correlazione RX . Un’ulteriore particolare classe di vettori gaussiani è costituita dai vettori che godono della cosiddetta proprietà di simmetria circolare. Un vettore gaussiano X è circolarmente simmetrico (o a simmetria circolare) se per ogni ϑ ∈ [ 0, 2π ) la statistica di X è la stessa di quella di e jϑ X . Devono perciò coincidere il vettore dei valori medi e le funzioni di correlazione e di pseudo correlazione. Basta, in particolare, che risulti, per ogni ϑ : { } E e jϑ X )( e E e jϑ X = e jϑ E { X } = E { X } (4.9) e {( (4.10) Le (4.9) e (4.10) comportano: (4.11) jϑ XT )} = e j 2ϑ RX = RX E {X} = 0 e RX = 0 (4.12) È opportuno osservare che un vettore gaussiano proprio a valor medio nullo è circolarmente simmetrico e ciò si esprime scrivendo: (4.13) X ≈ CN ( 0, Σ X ) 5 – Segnali gaussiani. Un segnale aleatorio s (t, ζ ) , a valore reale, si dice normale o gaussiano se l’insieme dei suoi campioni presi in corrispondenza ad una generica n -upla d’istanti t1, t2 , …, tn , costituisce un vettore aleatorio gaussiano. In altri termini se, detto x = [ x1 x2 xn ] T risulta: (5.1) ps1 , s2 …, sn ( x ) = 1 ( 2π ) n dove μ s = [ ms (t1 ), ms (t2 ), …, ms (tn ) ] T Σs exp ⎡⎣ − 12 ( x − μ s )T Σ −s 1 ( x − μ s ) ⎤⎦ ∀n ∈ , ∀ (t1 , t 2 , … , t n ) ∈ n è un vettore la cui i -esima componente è pari al valore medio ms (t ) = E {s (t , ζ )} del segnale nell’istante ti , e il generico elemento della matrice Σ s (5.2) { { }} σ s (ti , t j ) = E ⎡⎣ s (ti , ζ ) − E {s (ti , ζ )}⎤⎦ ⎡ s (t j , ζ ) − E s (t j , ζ ) ⎤ ⎣ ⎦ è la covarianza delle variabili aleatorie individuate dal segnale agli istanti ti e t j . Ci si rende facilmente conto del fatto che un segnale gaussiano stazionario in senso lato lo è anche in senso stretto. Infatti, se il segnale è stazionario in senso lato, almeno fino al secondo ordine, gli elementi della sua matrice di covarianza dipendono soltanto dalle differenze tra gli istanti di tempo ti e t j e il valore medio del segnale è indipendente dal tempo, quindi tale è anche il vettore μ s che compare nella sua densità di probabilità. -8- G. Mamola: Lezioni di Complementi di Comunicazioni Elettriche La statistica del segnale è allora invariante rispetto a qualsiasi traslazione dell’origine dei tempi. Poiché dalla (5.2) discende: (5.3) σ s (ti , t j ) = Rs (ti , t j ) − E {s (ti , ζ )} E s (t j , ζ ) = Rs (ti , t j ) − ms (ti )ms (t j ) { } la funzione di covarianza può essere espressa in termini della funzione di autocorrelazione e del valore medio; la statistica di un segnale gaussiano, quindi, risulta perfettamente nota se si conosce il valore medio e la funzione di autocorrelazione. Un segnale s( t, ζ) a valore complesso s (t , ζ ) = sR (t , ζ ) + jsI (t , ζ ) (5.4) si dirà gaussiano se un qualsiasi insieme di campioni presi sulla parte reale e sulla parte immaginaria costituisce un vettore di variabili aleatorie congiuntamente gaussiane. Questo significa che per caratterizzare la statistica del segnale s (t , ζ ) occorre definire i valori medi delle parti reali ed immaginarie (5.5) e le funzioni di correlazione: μ R (t ) = E {sR (t , ζ )} μ I (t ) = E {sI (t , ζ )} { } R (t , t ) = E {s (t , ζ ) s (t , ζ )} R (t , t ) = E {s (t , ζ ) s (t , ζ )} R (t , t ) = E {s (t , ζ ) s (t , ζ )} = R RR (ti , t j ) = E sR (ti , ζ ) sR (t j , ζ ) (5.6) I i j I i RI i j R IR i j I I i i j I j R j RI (t j , ti ) Se i valori medi, definiti dalle (5.5) non dipendono dal tempo e le funzioni di autocorrelazione, date dalle (5.6) dipendono dalla differenza fra gli istanti ti e t j , il segnale s(t , ζ ) è stazionario in senso stretto poiché la sua statistica è invariante rispetto a qualsiasi traslazione dell’origine dei tempi. È interessante osservare che la conoscenza della funzione di correlazione data dalla: R (ti , t j ) = E s* (ti , ζ ) s(t j , ζ ) = { (5.7) { } } = E [ sR (ti , ζ ) − jsI (ti , ζ ) ] ⎡⎣ sR (t j , ζ ) + jsI (t j , ζ ) ⎤⎦ = = ⎡⎣ RR (ti , t j ) + RI (ti , t j ) ⎤⎦ + j ⎡⎣ RRI (ti , t j ) − RIR (ti , t j ) ⎤⎦ non consente di definire completamente le funzioni RR (ti , t j ) , RI (ti , t j ) e RRI (ti , t j ) che intervengono nella definizione della statistica del segnale. Per definire quindi la statistica di un segnale gaussiano a valori complessi occorre, analogamente a quanto proposto a proposito del vettore aleatorio gaussiano a valori complessi, introdurre la cosiddetta funzione di pseudo correlazione definita dalla: R (ti , t j ) = E s(ti , ζ ) s (t j , ζ ) = { (5.8) { } } = E [ sR (ti , ζ ) + jsI (ti , ζ ) ] ⎡⎣ sR (t j , ζ ) + jsI (t j , ζ ) ⎤⎦ = = ⎡⎣ RR (ti , t j ) − RI (ti , t j ) ⎤⎦ + j ⎡⎣ RRI (ti , t j ) + RIR (ti , t j ) ⎤⎦ Dalle (5.7) e (5.8) si deduce facilmente: I segnali gaussiani - 9- RR (ti , t j ) = 2! Re ⎡⎣ R (ti , t j ) + R (ti , t j ) ⎤⎦ RI (ti , t j ) = 2! Re ⎡⎣ R (ti , t j ) − R (ti , t j ) ⎤⎦ (5.9) RRI (ti , t j ) = 12 Im ⎡⎣ R (ti , t j ) + R (ti , t j ) ⎤⎦ RIR (ti , t j ) = 12 Im ⎡⎣ − R (ti , t j ) + R (ti , t j ) ⎤⎦ Una classe particolarmente interessante di segnali gaussiani a valori complessi è costituita dai cosiddetti segnali gaussiani propri. Essi sono caratterizzati dalla condizione che, per ogni valore di ti e t j , si ha: R (ti , t j ) = 0 (5.10) per cui risulta: RR (ti , t j ) = RI (ti , t j ) = 2! Re ⎡⎣ R(ti , t j ) ⎤⎦ (5.11) RRI (ti , t j ) = 12 Im ⎡⎣ R(ti , t j ) ⎤⎦ = − RIR (ti , t j ) La statistica di un segnale gaussiano proprio pertanto è completamente determinata se si conosce la sua funzione di autocorrelazione. È da osservare che dalla seconda delle (5.11) si deduce che è RRI (t , t ) = RIR (t , t ) = 0 . Le parti reali ed immaginarie di un segnale gaussiano proprio sono incorrelate in ti = t j = t . Come nel caso di vettore aleatorio a valori complessi gaussiano a simmetria circolare, un segnale gaussiano si dice circolarmente simmetrico (o a simmetria circolare) se per ogni valore di ϑ ∈ [ 0, 2π ) la statistica del segnale s(t, ζ ) è uguale a quella di e jϑ s(t, ζ ) . Ciò comporta che, per ogni ϑ , si deve avere: { } E e jϑ s(t, ζ ) = e jϑ E {s(t, ζ )} = E {s(t, ζ )} (5.12) e questo comporta E {s(t, ζ )} = 0 . Inoltre, sempre per ogni ϑ , basta che si abbia: (5.13) { } { } { } E ⎡⎣ e jϑ s(ti , ζ )⎤⎦ ⎡⎣ e jϑ s(t j , ζ )⎤⎦ = e 2 jϑ E s(ti , ζ )s(t j , ζ ) = E s(ti , ζ )s(t j , ζ ) e questo comporta (5.14) R(ti , t j ) = 0 Un segnale gaussiano proprio a valor medio nullo è a simmetria circolare. 6 - Trasformazioni lineari di segnali gaussiani. Sia y (t , ζ ) un segnale aleatorio dipendente dal segnale x(t , ζ ) mediante una trasformazione lineare del tipo: (6.1) ∞ y (t , ζ ) = ∫ h(t , τ) x(τ, ζ )d τ −∞ in cui h(t , τ) denota una funzione peso dipendente dalle variabili t e τ . Dividendo il dominio d’integrazione nella (6.1) in intervalli disgiunti di ampiezza Δ , l’integrale può essere calcolato mediante la: (6.2) N y (t , ζ ) = lim Δ ∑ h(t , iΔ ) x(iΔ, ζ ) N →∞ Δ→ 0 Valutando la precedente in t = jΔ , con j ∈ (6.3) i =− N , si ha: N y ( j Δ, ζ ) = lim Δ ∑ h( j Δ, iΔ ) x(iΔ, ζ ) N →∞ Δ→ 0 i =− N j∈ -10- G. Mamola: Lezioni di Complementi di Comunicazioni Elettriche L’argomento del limite nella (6.3) può essere interpretato per fissati N e Δ come la N ∑ h( j Δ, iΔ) x(iΔ, ζ ) componente j -esima y j = di un vettore aleatorio Y ottenuto dal pro- i =− N dotto tra una matrice H il cui generico elemento è Δ ⋅ h( j Δ, iΔ ) e un 2N + 1 vettore aleatorio gaussiano la cui i -esima componente vale x (iΔ, ζ ) . Y è pertanto, indipendentemente dai valori di N e Δ , un vettore aleatorio gaussiano e tale resta passando al limite per N → ∞ e Δ → 0 . Quindi y( t, ζ) è un segnale gaussiano, la sua densità di probabilità, a qualunque ordine, dipende soltanto dal valor medio e dalla funzione di autocorrelazione. Dalla (6.1), prendendo il valore medio statistico di ambo i membri, si ha, con ovvio significato dei simboli: ∞ ∞ −∞ −∞ my (t ) = E { y (t , ζ )} = ∫ h(t , τ) E { x(τ, ζ )} d τ = ∫ h(t , τ)mx (τ)d τ (6.4) La funzione di autocovarianza vale: σ y (t1 , t2 ) = E =E (6.5) =∫ {( y(t , ζ) − m (t ) )( y(t , ζ) − m (t ) )} = {∫ ∫ =∫ ∫ y 2 2 } ∞ −∞ ∞ −∞ −∞ ∞ 1 h(t1 , τ1 ) ( x(τ1 , ζ ) − mx (τ1 ) ) d τ1 ∫ h(t2 , τ2 ) ( x(τ2 , ζ ) − mx (τ2 ) ) d τ 2 = −∞ ∞ y 1 ∞ ∞ −∞ −∞ E {[ x(τ1 , ζ ) − mx (τ1 )][ x(τ2 , ζ ) − mx (τ2 ) ]} h(t1 , τ1 )h(t2 , τ2 )d τ1d τ 2 = σ x (τ1 , τ2 )h(t1 , τ1 )h(t2 , τ2 )d τ1d τ 2 avendo denotato con σ x (t1, t2 ) la funzione di autocovarianza di x(t,ζ ) . Sia a(ζ ) una variabile aleatoria dedotta da un segnale x (t, ζ ) gaussiano mediante una trasformazione lineare della forma: ∞ a(ζ ) = ∫ h(τ) x(τ, ζ )d τ (6.6) −∞ essendo h(τ) una funzione peso. Procedendo come prima e cioè dividendo il dominio d’integrazione nella (6.6) in intervalli disgiunti di ampiezza Δ , l’integrale può essere calcolato mediante la: N a(ζ ) = lim Δ ∑ h(iΔ ) x(iΔ, ζ ) (6.7) N →∞ Δ→ 0 i =− N Per fissati N e Δ fissati è immediato riconoscere che la quantità a(ζ ) , in quanto combinazione lineare di quantità congiuntamente gaussiane, è una variabile aleatoria gaussiana la cui densità di probabilità del primo ordine dipende dal valor medio e dalla funzione di autocorrelazione. Dalla (6.6), prendendo il valore medio statistico di ambo i membri, si ha, con ovvio significato dei simboli: e: { σ 2a = E ( a (ζ ) − μ a ) (6.9) ∞ ∞ −∞ −∞ μ a = E {a (ζ )} = ∫ h(τ) E { x(t , ζ )} d τ = ∫ h(τ)mx (τ)d τ (6.8) =E =∫ {∫ ∞ ∞ −∞ ∫ =∫ ∫ ∞ −∞ −∞ ∞ ∞ −∞ −∞ 2 }= ∞ } h(τ1 ) ( x(τ1 , ζ ) − mx (τ1 ) ) d τ1 ∫ h(τ2 ) ( x(τ2 , ζ ) − mx (τ2 ) ) d τ2 = −∞ E {[ x(τ1 , ζ ) − mx (τ1 ) ][ x(τ2 , ζ ) − mx (τ2 ) ]} h(τ1 )h(τ2 )d τ1d τ2 = σ x (τ1 , τ2 )h(τ1 )h(τ2 )d τ1d τ2 I segnali gaussiani - 11- APPENDICE FUNZIONE CARATTERISTICA DI UN VETTORE ALEATORIO GAUSSIANO 1 – Premessa. La funzione caratteristica associata ad un vettore aleatorio gaussiano di n dimensioni X si ottiene dal seguente integrale: FX (u) = ∫ n e ju x p X ( x )dx T (1) in cui 1 pX ( x) = (2) (2π) det(Σ ) n exp ⎡⎣ − 12 x T Σ −1 x ⎤⎦ L’integrale (1) diventa: FX (u) = (3) 1 (2π) det(Σ ) n ∫ n exp ⎡⎣ juT x − 12 ( x − μ )T Σ −1 ( x − μ ) ⎤⎦ dx Introducendo la trasformazione x − μ → x si ottiene: T FX (u) = (4) e ju μX (2π) det(Σ ) n ∫ n exp ⎡⎣ juT x − 12 x T Σ −1 x ⎤⎦ dx Per risolvere l’integrale (4) è conveniente ricorrere all’ortogonalizzazione della matrice di covarianza. 2 – Ortogonalizzazione della matrice di covarianza. Sia {λi }i =1 n l’insieme degli autovalori (supposti distinti) della matrice di covarianza Σ . Se u( i ) denota il corrispondente autovettore (supposto normalizzato) si ha: Σu ( i ) = λ i u ( i ) (5) Si definisca con T la matrice composta da tutti gli autovettori e cioè ⎡ ⎡u1(1) ⎤ ⎡u1(2) ⎤ ⎡u1( n ) ⎤ ⎤ ⎢ ⎢ (1) ⎥ ⎢ (2) ⎥ ⎢ (n) ⎥ ⎥ u2 ⎥ ⎢u2 ⎥ (1) (2) (n) ⎢ ⎢ ⎢u2 ⎥ ⎥ T = ⎡⎣ u u u ⎤⎦ = (6) ⎢⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎥ ⎢ ⎢ (1) ⎥ ⎢ (2) ⎥ ⎢ (n) ⎥ ⎥ ⎢⎣un ⎥⎦ ⎦⎥ ⎣⎢ ⎣⎢un ⎦⎥ ⎣⎢un ⎦⎥ Sia ha: ΣT = ⎡⎣ Σu(1) (7) ⎡ ⎡ λ1u1(1) ⎤ ⎢ ⎢ (1) ⎥ λu = ⎢⎢ 1 2 ⎥ ⎢⎢ ⎥ ⎢ ⎢ (1) ⎥ ⎢⎣ ⎢⎣ λ1un ⎥⎦ ⎡ ⎡u1(1) ⎤ ⎢ ⎢ (1) ⎥ u = ⎢⎢ 2 ⎥ ⎢⎢ ⎥ ⎢ ⎢ (1) ⎥ ⎣⎢ ⎢⎣un ⎦⎥ e cioè: Σu(2) ⎡λ 2 u1(2) ⎤ ⎢ (2) ⎥ ⎢ λ 2 u2 ⎥ ⎢ ⎥ ⎢ ⎥ (2) ⎢⎣λ 2 un ⎥⎦ ⎡u1(2) ⎤ ⎢ (2) ⎥ ⎢u2 ⎥ ⎢ ⎥ ⎢ (2) ⎥ ⎢⎣un ⎥⎦ Σu( n ) ⎤⎦ = ⎡⎣ λ1u(1) λ n u( n ) ⎤⎦ = λ 2 u(2) ⎡λ n u1( n ) ⎤ ⎤ ⎢ ( n) ⎥ ⎥ ⎢ λ n u2 ⎥ ⎥ ⎢ ⎥⎥ ⎢ ⎥⎥ ( n) ⎢⎣λ n un ⎥⎦ ⎥⎦ ⎡u1( n ) ⎤ ⎤ ⎡ λ1 ⎢ (n) ⎥ ⎥ ⎢ ⎢u2 ⎥ ⎥ ⎢ 0 ⎢ ⎥⎥ ⎢ ⎢ (n) ⎥ ⎥ ⎢ ⎢⎣un ⎥⎦ ⎦⎥ ⎣ 0 0 λ2 0 0⎤ 0 ⎥⎥ = ⎥ ⎥ λn ⎦ -12- G. Mamola: Lezioni di Complementi di Comunicazioni Elettriche ΣT = T diag(λ1 , λ 2 , (8) dove diag(λ1 , λ 2 , , λn , λ n ) rappresenta la matrice diagonale ⎡ λ1 ⎢0 , λn ) = ⎢ ⎢ ⎢ ⎣0 diag(λ1 , λ 2 , (9) 0⎤ 0 ⎥⎥ ⎥ ⎥ λn ⎦ 0 λ2 0 Dalla (8) si deduce, premoltiplicando per T −1 : T −1ΣT = diag(λ1 , λ 2 , (10) , λn ) Prendendo la trasposta della precedente si ha: (11) T T ΣT (T −1 )T = [ diag(λ1 , λ 2 , , λ n ) ] = diag(λ1 , λ 2 , T , λ n ) = T −1 Σ T dove si è tenuto conto della (10). Osservando che la matrice di correlazione è simmetrica ( Σ = ΣT ), dalla precedente si deduce premoltiplicando per T e postmoltiplicando per T T : TT T Σ (T −1 )T T T = TT −1ΣTT T (12) da cui: (TT T )Σ = Σ(TT T ) (13) e cioè la matrice di covarianza commuta con la matrice TT T . Questo comporta che la matrice TT T deve essere proporzionale alla matrice unitaria di ordine n . Ma poiché gli autovettori si sono supposti normalizzati e cioè tali che si abbia: ⎧1 i = j (14) u ( i ) u ( j )T = ⎨ ⎩0 i ≠ j la matrice TT T coincide con la matrice unitaria e quindi T −1 = T T (15) La matrice T è pertanto una matrice ortogonale ed è caratterizzata dal fatto che il suo determinante vale ±1 . La (10) in questo caso diventa: T T ΣT = diag(λ1 , λ 2 , (16) , λn ) Dalla predente, tenendo conto della (15), si ricava: (17) (T T ΣT ) −1 = T T Σ −1T = [ diag(λ1 , λ 2 , ⎛1 1 −1 , λ n ) ] = diag ⎜ , , ⎝ λ1 λ 2 , 1 ⎞ ⎟ λn ⎠ 3 - Trasformazione di variabili Introducendo la seguente trasformazione di variabili: x = Ty (18) l’argomento dell’esponenziale che interviene nell’espressione della funzione integranda che compare nella (4), tenendo conto della (17), diventa: (19) ⎛1 1 juT x − 12 x T Σ −1 x = juT Ty − 12 yT T T Σ −1Ty = jv T y − 12 yT diag ⎜ , , ⎝ λ1 λ 2 1 λn dove si è posto: v T = uT T (20) 4 - Funzione caratteristica Con la posizione (18) la (4) si scrive: T (21) FX (u) = e ju μX (2π) det(Σ ) n ∫ n ⎡ ⎛ 1 1 exp ⎢ jv T y − 12 yT diag ⎜ , , ⎢⎣ ⎝ λ1 λ 2 1 ⎞ ⎤ ⎟ y ⎥ dy λ n ⎠ ⎥⎦ ⎞ ⎟y ⎠ I segnali gaussiani - 13- poiché lo jacobiano della trasformazione (18) è unitario. Si ottiene infine: T FX (u) = (22) e ju ∞ (2π) det(Σ ) n T = μX e ju μX −∞ −∞ ⎡ n ⎛ y2 exp ⎢ ∑ ⎜ jvi yi − 12 i −∞ λ1 ⎢⎣ i =1 ⎝ ∫ ∞ ⎞⎤ ⎟ ⎥ dy1dy2 ⎠ ⎥⎦ ⎡ y2 ⎤ exp ⎢ jvi yi − 12 i ⎥ dyi −∞ λ1 ⎦ ⎣ n (2π) n det(Σ ) ∞ ∫ ∫ ∏∫ i =1 ∞ È facile riconoscere che si ha: (23) ∞ ⎡ ⎡ v2 ⎤ y2 ⎤ 2π exp ⎢ − 12 i ⎥ I i = ∫ exp ⎢ jvi yi − 12 i ⎥ dyi = −∞ λ1 ⎦ λi ⎣ ⎣ λ1 ⎦ Per cui risulta: T FX (u) = (24) e ju (2π) n det(Σ ) n ∏ i =1 ⎡ v2 ⎤ 2π exp ⎢ − 12 i ⎥ = λi ⎣ λ1 ⎦ n ⎡ v2 ⎤ exp ⎢ − 12 ∑ i ⎥ = i =1 λ i ⎦ ⎣ T μX = e ju T μX exp ⎡ − 12 v T [ diag(λ1 , λ 2 , ⎣ = e ju μX exp ⎣⎡ uT Σ − !u ⎦⎤ = e ju T Si ha pertanto: (25) μX λ n )] v ⎤ = ⎦ FX (u) = exp ⎡⎣ juT μ X + uT Σ − !u ⎤⎦ −1 dyn =