Capitolo VI
I SEGNALI GAUSSIANI
VI.1 – Variabili aleatorie normali o gaussiane.
Sia W una variabile aleatoria caratterizzata dalla seguente densità di probabilità:
1
pW ( w) =
(VI.1.1)
e
2π
−
w2
2
rappresentata in Fig. VI.1.
Una tale variabile aleatoria presenta:
a) valor medio nullo.
pW (w)
Infatti è:
mW ≡ E {W } =
(VI.1.2)
∞
1
2π
∫−∞ we
−
w2
2
dw = 0
essendo l’integrando una funzione dispari di w .
b) varianza unitaria.
w
Infatti, essendo il valor medio nullo, è:
Fig.VI.1 Densità di probabilità di una
variable aleatoria normale o gaussiana.
2
σW
(VI.1.3)
{ }=
=E W
2
∞
1
2π
∫−∞ w e
2
−
w2
2
dw
{ ( )} = −w exp ( ) dw , diviene, sviluppando l’integrale per parti:
che, notando che è d exp
(VI.1.4)
σW2 =
1
−
w2
2
−
∞
∫ wd ⎡⎣ − exp
2π −∞
( )
−
w2
2
w2
2
1 ⎡
− w exp
2π ⎣
⎤=
⎦
( )
−
w2
2
∞
⎤ +
⎦ −∞
1
2π
∫
∞
−∞
e
−
w2
2
dw = 1
dove si è tenuto conto che è, per la condizione di normalizzazione:
w2
∞ −
1
(VI.1.5)
∫ e 2 dw = 1
2π −∞
Una variabile aleatoria siffatta si definisce normale (o gaussiana) a valor medio nullo e
varianza unitaria e si scrive:
W ≈ N (0,1)
(VI.1.6)
Di particolare interesse è la funzione Q , definita dalla
Q( x) =
(VI.1.7)
1
2π
∫
∞
x
e
−
w2
2
dw
Essa non può essere espressa in forma chiusa; tuttavia se ne possono dare efficaci approssimazioni per valori elevati del suo argomento. A tale scopo si ha:
∞
∞ 1
∞ 1
− w2 / 2
− w2 / 2
− w2 / 2
∫x e dw = ∫x w we dw = ∫x w d −e dw =
(VI.1.8)
2
∞
∞ 1
∞ 1
2
1
2
2
e− x / 2
=
−e− w / 2 − ∫ 2 e − w / 2 dw =
− ∫ 2 e − w / 2 dw
x
x
w
x
w
w
x
(
(
)
(
)
)
D’altra parte poiché, per x > 0 , è:
∞ 1
∞ w
1
2
2
0 < ∫ 2 e − w / 2 dw = ∫ 3 e− w / 2 dw < 3
(VI.1.9)
x w
x w
x
∫
∞
x
2
we − w / 2 dw =
2
e− x / 2
x3
-48-
G. Mamola: Fondamenti di Comunicazioni Elettriche
si ottiene:
1
1 ⎞
e− x / 2
⎛
⎜1 − 2 ⎟ < Q( x) <
2π x ⎝ x ⎠
πx
e− x
(VI.1.10)
Q( x)
2
1
10−1
e
2π
−x / 2
2 /2
2
( x > 0)
Nella Fig.VI.2 sono riportati i limiti dati dalla
x
(VI.1.10) unitamente all’andamento della funzione
Q( x) .
−2
10
Sia X una variabile aleatoria definita dalla
X = aW + b
(VI.1.11)
2
1
10−3
e
2π
−x / 2
x
con a
⎛1 − 1 ⎞
⎝ x2 ⎠
e b costanti reali. Per determinare la
(a ≠ 0)
densità di probabilità di X , basta osservare che la
probabilità
0,5
1
1,5
2
x
che
Fig. VI.2 – Funzione Q e suoi limiti.
I x ≡ ⎡⎣ x −
che
I w ≡ ⎡⎣ w −
Δx
2
,x +
W
Δw
2
Δx
2
X
appartenga
all’intervallo
3
X
⎤⎦ è eguale alla probabilità
appartenga
all’intervallo
, w + ⎤⎦ (v. Fig. VI.3). In altre
Δw
2
parole, supponendo Δw
e Δx
x
Δx
X = aW + b
abbastanza
Δw
piccoli, si deve avere:
p X ( x) Δx = pW ( w) Δw
(VI.1.12)
w
W
Fig.VI.3– Determinazione della d.d.p. della v.a. X .
dove si è tenuto conto del fatto che le
probabilità interessate sono quantità positive. La (VI.1.12), essendo w =
riscritta come segue:
(VI.1.13)
pX ( x) =
pW
( )=
x −b
a
Δx
Δw
1
pW
a
x −b
a
, può essere
( )
x −b
a
e cioè:
pX ( x) =
(VI.1.14)
−
1
2πa
2
e
( x − b )2
2 a2
Dalla (VI.1.11) si ricava il valore medio:
mX = E { X } = aE {W } + b = b
(VI.1.15)
e la varianza;
(VI.1.16)
σ X2 = E {( X − mX ) 2 } = E {( X − b)2 } = E {(aW )2 } = a 2
per cui la (VI.1.14) assume la forma:
(VI.1.17)
pX ( x) =
−
1
2πσ
2
X
e
( x − m X )2
2 σ 2X
che costituisce la più generale espressione delle densità di probabilità di una variabile aleatoria gaussiana caratterizzata da un valor medio μ x e da una varianza σ 2x . Si scrive:
(VI.1.18)
48
X ≈ N (m X , σ 2X )
I segnali gaussiani
-49-
VI.2 – Vettori aleatori a valori reali, normali o gaussiani.
Sia W un vettore aleatorio a valori reali ad n dimensioni:
⎡W1 ⎤
⎢W ⎥
(VI.2.1)
W = ⎢ 2⎥
⎢ ⎥
⎢ ⎥
⎣Wn ⎦
caratterizzato dalla densità di probabilità congiunta delle sue componenti:
n
⎛
⎞
1
1
(VI.2.2)
pW (w ) =
exp ⎜ − 12 ∑ wi2 ⎟ =
exp − 12 wT w
⎜
⎟
n
n
(2 π )
(2 π )
i =1
⎝
⎠
(
)
È facile verificare che le componenti Wi (i = 1, 2 … n) sono variabili aleatorie gaussiane, statisticamente indipendenti, con valor medio nullo e varianza unitaria. Infatti dalla (VI.2.2) si
ha:
pW (w ) =
(VI.2.3)
n
∏
1
− wi2
e 2
1
2π
i =1
La pW (w ) è ottenuta dal prodotto delle n densità di probabilità marginali:
1
pWi (wi ) =
(VI.2.4)
Risulta:
(VI.2.5)
2π
e
1
− wi2
2
{ }
2
mWi = E {Wi } = 0 ; σW
= E Wi 2 = 1
i
(i = 1, 2, … , n )
Inoltre le componenti di W sono, come è facile verificare, statisticamente indipendenti;
cioè:
⎧1
E {WrWs } = ⎨
⎩0
(VI.2.6)
r = s
r ≠ s
Le (VI.2.5) e (VI.2.6) sono riassunte nelle:
(VI.2.7)
mW = E {W } = 0
{
; ΣW = E WW T
}
⎡1
⎢0
=⎢
⎢
⎢
⎣0
0
1
0
0⎤
0 ⎥⎥
=I
⎥
⎥
1⎦
Un vettore aleatorio di questo tipo è pertanto caratterizzato da un vettore dei valori medi
nullo e da una matrice di correlazione ΣW unitaria. Un vettore siffatto si dice normale (o
gaussiano) e si denota come segue:
W ≈ N (0, I )
(VI.2.8)
Sia ora
X = AW + a
(VI.2.9)
un vettore aleatorio a valori reali ottenuto da W per trasformazione affine la cui matrice A ,
di dimensioni n × n , si suppone non singolare. Per dedurre la densità di probabilità congiunta p X ( x ) delle componenti del vettore X in funzione dell’analoga densità pW ( w ) delle
componenti del vettore W , basta osservare che, detto Δx un elemento infinitesimo dello
spazio n , si deve avere:
(VI.2.10)
p X ( x ) Δx = pW (w ) Δw
dove Δw denota l’elemento dello spazio
n
che, per effetto della trasformazione (VI.2.9),
porta a Δ x . È noto dalla Geometria che è
49
-50-
G. Mamola: Fondamenti di Comunicazioni Elettriche
Δx = det( J ) Δw
(VI.2.11)
essendo J la matrice jacobiana della trasformazione, il cui generico elemento è definito
dalla J ij =
∂xi
. Si ha J = A . Pertanto, ricordando la (VI.2.9) è:
∂w j
pW ⎡ A−1( x − b )⎤
⎣
⎦ =
pX ( x ) =
det( A)
(VI.2.12)
=
1
(2π) det( A)
n
1
(2π) det( A)
n
exp ⎡ − 12 ( x − b )T ( AT )−1 A−1( x − b)⎤ =
⎣
⎦
exp ⎡ − 12 ( x − b )T ( AAT )−1( x − b )⎤
⎣
⎦
Dalla (VI.2.9), tenendo conto delle (VI.2.7), si deducono le espressioni del vettore dei valori medi e della matrice di covarianza del vettore aleatorio X .
m X = E { X } = AE {W } + a = a
(VI.2.13)
Σ X = E ( X − m X )( X − m X )T = E AwwT AT = AAT
{
} {
}
e di conseguenza la (VI.2.12) può essere riscritta nella forma:
1
exp ⎡⎣ − 12 ( x − m X )T (Σ X ) −1 ( x − m X ) ⎤⎦
pX ( x) =
(VI.2.14)
n
(2π) det(Σ X )
essendo det(Σ X ) = det( AAT ) = det( A) det( AT ) = [ det( A) ] .
2
Viceversa è facile mostrare che è sempre possibile definire almeno una trasformazione
affine, del tipo della (VI.2.9), che conduca ad un vettore X ≈ N ( m X , Σ X ) , a partire dal vettore W ≈ N (0, I ) . In altre parole ciò equivale a dire che, dati i parametri m X e Σ X che caratterizzano un vettore aleatorio X , è sempre possibile determinare un vettore a e una
matrice A che soddisfino le (VI.2.13). Per quanto riguarda il vettore a è:
a = mX
(VI.2.15)
mentre una possibile soluzione per la matrice A è (v. Appendice):
(VI.2.16)
A = U diag( λ1 , λ 2 , , λ n )U T
dove U denota la matrice composta dagli autovettori ui e diag( λ1 , λ 2 ,
, λ n ) una matri-
ce diagonale composta dagli autovalori della matrice Σ X :
U = [ u1
(VI.2.17)
u2
un ] ; diag( λ1 , λ 2 ,
⎡ λ1
⎢
⎢ 0
, λn ) = ⎢
⎢
⎢ 0
⎣
0
λ2
0
0 ⎤
⎥
0 ⎥
⎥
⎥
λ n ⎥⎦
Un vettore aleatorio è definito normale (o gaussiano) quando la sua densità di probabilità congiunta è della forma espressa dalla (VI.2.14). La statistica di un vettore gaussiano è
pertanto completamente determinata se si conosce il vettore dei valori medi m X e la matrice di covarianza Σ X . Poiché è:
{
} {
} {
}
(VI.2.18) Σ X = E ( X − m X )( X − m X )T = E XX T − Xm TX − m X X T + m X m TX = E XX T − m X m TX
tale statistica è anche definita dal vettore dei valori medi m X e dalla matrice di correlazio-
{
}
ne RX = E XX T . Si scrive:
(VI.2.19)
X ≈ N (mX , Σ X )
È importante osservare che ogni trasformazione lineare di un vettore gaussiano produce
un vettore anch’esso gaussiano. Sia:
50
I segnali gaussiani
-51-
Y = TX + h
(VI.2.20)
un generica trasformazione lineare in cui Y denota un vettore ad m dimensioni, T la matrice di trasformazione, supposta non singolare, di dimensioni (m × n) ed h un vettore di n
dimensioni. Tenendo conto della (VI.2.9) si ha:
Y = T ( AW + b) + h = (TA)W + (Tb + h)
(VI.2.21)
che definisce un vettore gaussiano ad n dimensioni.
VI.3 – I segnali gaussiani.
Un segnale aleatorio s (t, ζ ) , a valore reale, si dice normale o gaussiano se l’insieme dei
suoi campioni presi in corrispondenza a una generica n -pla d’istanti t1, t2 , …, tn , costituisce
un vettore aleatorio gaussiano. In altri termini se, detto x = [ x1
x2
xn ] , con xi = s (ti , ζ )
T
risulta:
(VI.3.1)
ps1 , s2 …, sn ( x ) =
1
( 2π )
n
det(Σ s )
dove ms = [ ms (t1 ), ms (t2 ),…, ms (tn )]
T
exp ⎡⎣ − 12 ( x − ms )T Σ −s 1 ( x − ms ) ⎤⎦
∀n ∈ , ∀(t1 , t 2 , … , t n ) ∈
n
è un vettore la cui i -esima componente è ottenuta calco-
lando il valore medio del segnale ms (t ) = E {s (t , ζ )} nell’istante ti , e il generico elemento della
matrice Σ s
(VI.3.2)
{
}
σ s (ti , t j ) = E ⎡ s (ti , ζ ) − s (ti , ζ ) ⎤ ⎡ s (t j , ζ ) − s (t j , ζ ) ⎤
⎣
⎦⎣
⎦
esprime la covarianza delle variabili aleatorie individuate dal segnale agli istanti ti e t j .
Ci si rende facilmente conto del fatto che un segnale gaussiano stazionario in senso lato
lo è anche in senso stretto. Infatti, se il segnale è stazionario in senso lato, almeno fino al
secondo ordine, gli elementi della sua matrice di covarianza dipendono soltanto dalle differenze tra gli istanti di tempo ti e t j e il valore medio del segnale è indipendente dal tempo,
quindi tale è anche il vettore ms che compare nella sua densità di probabilità. La statistica
del segnale è allora invariante rispetto a qualsiasi traslazione dell’origine dei tempi.
Poiché dalla (VI.3.2) discende:
σs (ti , t j ) = Rs (ti , t j ) − E {s(ti , ζ)} E s(t j , ζ) = Rs (ti , t j ) − ms (ti )ms (t j )
(VI.3.3)
{
}
la funzione di covarianza può essere espressa in termini della funzione di autocorrelazione
e del valore medio; la statistica di un segnale gaussiano, quindi, risulta perfettamente nota
se si conosce il valore medio e la funzione di autocorrelazione.
VI.4 - Trasformazioni lineari di segnali gaussiani.
Sia y (t , ζ ) un segnale aleatorio dipendente dal segnale x(t , ζ ) mediante una trasformazione lineare del tipo:
(VI.4.1)
∞
y (t , ζ ) = ∫ ϕ(t , τ) x(τ, ζ )d τ
−∞
dove ϕ(t , τ) denota una funzione peso dipendente dalle variabili t e τ .
Dividendo il dominio d’integrazione nella (VI.4.1) in intervalli disgiunti di ampiezza Δ ,
l’integrale può essere calcolato mediante la:
51
-52-
G. Mamola: Fondamenti di Comunicazioni Elettriche
N
y (t , ζ ) = lim Δ ∑ ϕ(t , iΔ) x(iΔ, ζ )
(VI.4.2)
N →∞
Δ→ 0
i =− N
Valutando la precedente in t = jΔ , con j ∈
, si ottiene:
N
y ( j Δ, ζ ) = lim Δ ∑ ϕ( j Δ, iΔ ) x(iΔ, ζ )
(VI.4.3)
N →∞
Δ→ 0
j∈
i =− N
L’argomento del limite nella (VI.4.3) può essere interpretato, per fissati N e Δ , come la
componente j -esima y j = y ( j Δ, ζ ) =
N
∑ ϕ( jΔ, iΔ) x(iΔ, ζ)
di un vettore aleatorio Y ottenuto dal
i =− N
prodotto tra una matrice T il cui generico elemento è Δ ⋅ ϕ( j Δ, iΔ ) e un 2 N + 1 vettore aleatorio gaussiano la cui i -esima componente vale x(iΔ,ζ ) . Y pertanto, indipendentemente dai
valori di N e Δ , è un vettore aleatorio gaussiano e tale resta passando al limite per N → ∞
e Δ → 0 . Quindi y(t,ζ) è un segnale gaussiano, la sua densità di probabilità, a qualunque
ordine, dipende soltanto dal valor medio e dalla funzione di autocorrelazione.
Dalla (VI.4.1), prendendo il valore medio statistico di ambo i membri, si ha, con ovvio
significato dei simboli:
(VI.4.4)
∞
∞
−∞
−∞
my (t ) = E { y (t , ζ )} = ∫ ϕ(t , τ) E { x(τ, ζ )} d τ = ∫ ϕ(t , τ)mx (τ)d τ
La funzione di autocorrelazione vale:
Ry (t1 , t2 ) = E { y (t1 , ζ ) y (t2 , ζ )} =
=E
(VI.4.5)
=∫
{∫
∞
∞
−∞
∫
=∫ ∫
∞
−∞ −∞
∞
∞
−∞ −∞
}
∞
ϕ(t1 , τ1 ) x (τ1 , ζ )d τ1 ∫ ϕ(t2 , τ2 ) x(τ2 , ζ )d τ2 =
−∞
E { x(τ1 , ζ ) x(τ2 , ζ )} ϕ(t1 , τ1 )ϕ(t2 , τ 2 )d τ1d τ2 =
Rx (τ1 , τ2 )ϕ(t1 , τ1 )ϕ(t2 , τ2 )d τ1d τ2
avendo denotato con Rx (t1 , t2 ) la funzione di autocorrelazione di x(t,ζ ) .
Sia a(ζ ) una variabile aleatoria dedotta da un segnale x(t,ζ ) gaussiano mediante una
trasformazione lineare della forma:
(VI.4.6)
∞
a(ζ ) = ∫ ϕ(τ) x(τ, ζ )d τ
−∞
essendo ϕ(τ) una funzione peso. Procedendo come prima e cioè dividendo il dominio
d’integrazione nella (VI.4.6) in intervalli disgiunti di ampiezza Δ , l’integrale può essere calcolato mediante la:
(VI.4.7)
N
a (ζ ) = lim Δ ∑ ϕ(iΔ) x(i Δ, ζ )
N →∞
Δ→ 0
i =− N
Per fissati N e Δ è immediato riconoscere che la quantità a(ζ) , in quanto combinazione
lineare di quantità congiuntamente gaussiane, è una variabile aleatoria gaussiana la cui
densità di probabilità del primo ordine dipende dal valor medio e dalla funzione di autocorrelazione.
Dalla (VI.4.6), prendendo il valore medio statistico di ambo i membri, si ha:
(VI.4.8)
e:
52
∞
∞
−∞
−∞
ma = E {a(ζ )} = ∫ ϕ(τ) E { x(t , ζ )} d τ = ∫ ϕ(τ)mx (τ)d τ
I segnali gaussiani
{
}
Ra2 = E a 2 (ζ ) =
=E
(VI.4.9)
=∫
{∫
∞
∞
−∞
∫
=∫ ∫
∞
−∞ −∞
∞
∞
−∞ −∞
∞
-53-
}
ϕ(τ1 ) x(τ1 , ζ )d τ1 ∫ ϕ(τ2 ) x(τ2 , ζ )d τ2 =
−∞
E { x(τ1 , ζ ) x(τ2 , ζ )} ϕ(τ1 )ϕ(τ2 )d τ1d τ2 =
Rx (τ1 , τ2 )ϕ(τ1 )ϕ(τ2 )d τ1d τ2
53
-54-
G. Mamola: Fondamenti di Comunicazioni Elettriche
APPENDICE
Ortogonalizzazione della matrice di covarianza.
Sia {λ i }i =1 l’insieme degli autovalori (supposti distinti) della matrice di covarianza Σ di
n
una vettore gaussiano X . Se ui rappresenta l’autovettore (supposto normalizzato) corrispondente all’autovalore λ i si ha:
Σui = λ i ui
(1)
Sia U la matrice composta da tutti gli autovettori e cioè:
⎡ ⎡ u11 ⎤ ⎡ u21 ⎤
⎢⎢ ⎥ ⎢ ⎥
u
u
(2)
U = [ u1 u2
un ] = ⎢ ⎢ 12 ⎥ ⎢ 22 ⎥
⎢⎢ ⎥ ⎢ ⎥
⎢⎢ ⎥ ⎢ ⎥
⎢⎣ ⎣u1n ⎦ ⎣u2 n ⎦
in cui uij rappresenta la componente j -esima del vettore ui .
ΣU = [ Σu1 Σu1
(3)
dove diag(λ1 , λ 2 ,
(4)
⎡ ⎡ λ1u11 ⎤
⎢⎢
λu ⎥
= ⎢ ⎢ 1 12 ⎥
⎢⎢
⎥
⎢⎢
⎥
⎣⎢ ⎣λ1u1n ⎦
Σun ] = [ λ1u1
⎡ λ 2 u21 ⎤
⎢λ u ⎥
⎢ 2 22 ⎥
⎢
⎥
⎢
⎥
⎣ λ 2 u2 n ⎦
⎡ ⎡ u11 ⎤ ⎡ u21 ⎤
⎢⎢ ⎥ ⎢ ⎥
u
u
= ⎢ ⎢ 12 ⎥ ⎢ 22 ⎥
⎢⎢ ⎥ ⎢ ⎥
⎢⎢ ⎥ ⎢ ⎥
⎣⎢ ⎣u1n ⎦ ⎣u2 n ⎦
= U diag(λ1 , λ 2 ,
⎡ λ n un1 ⎤ ⎤
⎢λ u ⎥ ⎥
⎢ n n2 ⎥ ⎥ =
⎢
⎥⎥
⎢
⎥⎥
⎣ λ n unn ⎦ ⎦⎥
⎡ un1 ⎤ ⎤ ⎡λ1
⎢u ⎥ ⎥ ⎢ 0
⎢ n2 ⎥ ⎥ ⎢
⎢ ⎥⎥ ⎢
⎢ ⎥⎥ ⎢
⎣ unn ⎦ ⎥⎦ ⎣ 0
54
0⎤
0 ⎥⎥
=
⎥
⎥
λn ⎦
0
λ2
0
, λn )
, λ n ) denota la matrice diagonale
diag(λ1 , λ 2 ,
⎡ λ1
⎢0
, λn ) = ⎢
⎢
⎢
⎣0
0⎤
0 ⎥⎥
⎥
⎥
λn ⎦
0
λ2
0
U −1ΣU = diag(λ1 , λ 2 ,
, λn )
da cui:
(6)
λ n un ]
λ 2 u1
Dalla (3) si deduce, premoltiplicando per U −1 :
(5)
⎡ un1 ⎤ ⎤
⎢u ⎥ ⎥
⎢ n2 ⎥ ⎥
⎢ ⎥⎥
⎢ ⎥⎥
⎣ unn ⎦ ⎥⎦
Si ha:
Σ = U diag(λ1 , λ 2 ,
, λ n )U −1