PROCESSI CASUALI
1
PROCESSI CASUALI
Segnali deterministici e casuali
Un segnale x(t) si dice DETERMINISTICO se è una funzione nota di t, cioè se, fissato
un qualunque istante di tempo to, il valore x(to) assunto dal segnale è noto con
esattezza a priori.
Tutti i segnali visti sino ad ora sono deterministici. Ad esempio i valori assunti dal
segnale x(t)=cos(2πt) sono noti con certezza per ogni valore di t
t
x(t)
…
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4
…
… -0.809 -0.309 0.309 0.809 1 0.809 0.309 -0.309 -0.809 ...
Spesso il segnale non è rappresentabile (se non in forma approssimata) con una
semplice e comoda funzione matematica quale il coseno, ma se il suo valore è noto
in modo univoco ad ogni istante di tempo è comunque un segnale deterministico.
Un segnale x(t) si dice PROCESSO CASUALE se, fissato un qualunque istante di
tempo to, il valore x(to) assunto dal segnale è caratterizzabile solo in senso statistico,
cioè è una variabile casuale descritta dalla sua densità di probabilità.
Un esempio di processo casuale è il rumore presente in ogni dispositivo elettronico.
Questo tipo di segnale non è prevedibile a priori, il suo valore è noto con certezza
solo una volta che sia stato misurato.
2
PROCESSI CASUALI
Introduzione ai processi casuali (1)
Il rumore termico
Un classico e importante esempio utile a introdurre il concetto di processo casuale
è rappresentato dalla debole tensione elettrica v1(t) esistente ai capi di un resistore.
Questa tensione, variabile nel tempo, è causata dal movimento caotico degli
elettroni dovuto ad una temperatura del materiale superiore allo zero assoluto.
Se si registra la tensione v1(t) si ottiene (dopo aver effettuato la misura!) un segnale
che può essere considerato deterministico.
v1(t)
t
3
PROCESSI CASUALI
Introduzione ai processi casuali (2)
Se però si prende un secondo resistore identico al primo, posto alla stessa temperatura,
e si esegue la misura della tensione elettrica ai suoi capi, si ottiene un nuovo segnale
v2(t), con caratteristiche simili ma diverso dal precedente poiché gli elettroni si
muovono in modo diverso, ed indipendentemente, nei due resistori.
v2(t)
t
v1(t)
t
4
PROCESSI CASUALI
Introduzione ai processi casuali (3)
Se lo scopo è determinare l’effetto del rumore termico prodotto dal resistore su
un’apparecchiatura elettronica o un sistema di trasmissione, non è di alcuna utilità
aver visto l’andamento delle tensioni v1(t) o v2(t) ai capi dei due resistori se il
resistore effettivamente montato nell’apparecchiatura è un altro (o anche il primo, ma
in un tempo successivo: il rumore termico non si ripete in modo prevedibile!).
E’ utile invece riuscire a descrivere le caratteristiche della tensione di rumore comuni
a tutti i resistori dello stesso tipo e a quella temperatura.
In questo modo, qualsiasi sia il resistore (di quel valore e a quella temperatura)
montata nell’apparecchiatura, potremo dire, per esempio, con quale probabilità si
presenteranno certi valori di tensione o quale sarà la potenza di rumore.
Si abbandona dunque il concetto di certezza (proprio dei segnali deterministici) per
passare a quello dell’incertezza, descritto dalla teoria delle probabilità, proprio dei
processi casuali.
I valori del processo in generici istanti di tempo sono considerati variabili casuali, e
descritti come tali (attraverso le relative densità di probabilità).
5
PROCESSI CASUALI
Dimensione temporale e di insieme
Le tensioni elettriche esistenti ai capi di tutti i resistori dello stesso tipo e temperatura
costituiscono le realizzazioni del processo casuale rumore termico.
Dimensione
d’insieme
tempo
realizzazioni
Dimensione
temporale
x1 (t )
6
x2 (t )
....
xi (t )
....
xN (t )
PROCESSI CASUALI
Descrizione dei processi casuali
Di un processo casuale è utile conoscere le caratteristiche comuni a tutte le realizzazioni
Un processo casuale è descritto completamente dalle densità di probabilità congiunte di
tutti gli ordini e per tutti gli istanti di tempo. Tuttavia in molti casi questa informazione
completa non è disponibile. In pratica per descrivere il processo casuale x(t) si utilizzano
soprattutto:
la densità di probabilità delle ampiezze del processo px(a)
che descrive con quale probabilità una realizzazione del processo casuale x(t) assume un
valore uguale ad a. In generale px(a) dipende anche dal tempo. Tuttavia noi ci
occuperemo di una classe di processi casuali detti stazionari le cui caratteristiche
statistiche non dipendono dal tempo t .
la funzione di autocorrelazione del processo Rx(τ )
che descrive quantitativamente il legame tra il valore assunto da una realizzazione del
processo casuale al tempo t +τ e quello assunto dalla stessa realizzazione al tempo t .
Anche in questo caso, limitando l’analisi ai processi casuali stazionari, Rx(τ ) non dipende
dal tempo t ma solo dal ritardo τ tra le due misure.
7
PROCESSI CASUALI
Densità di probabilità del processo casuale (1)
Per un prefissato tempo t, il processo x(t) è una variabile casuale con densità di
probabilità px(a) (chiamata d.d.p. del processo casuale):
P(a < x(t ) ≤ a + da )
da →0
da
p x (a ) = lim
che ci dice con quale probabilità una qualsiasi realizzazione del processo assume valori in
un intorno infinitesimo di a. A partire dalla d.d.p. si possono definire:
+∞
µ x = E[ x(t )] = ∫ ap x (a )da
• Valore medio:
• Valore quadratico medio:
• Varianza:
[
[
2
∫
a p x (a )da
2
−∞
σ = E x(t ) − µ x
2
x
]
E x(t ) =
−∞
+∞
]= ∫ a − µ
+∞
2
2
x
[
]
p x (a )da = E x(t ) − µ x2
2
−∞
• La probabilità che una qualsiasi realizzazione assuma valori in un dato intervallo:
P[a1 < x(t ) ≤ a2 ] =
8
a2
∫ p (a )da
x
a1
PROCESSI CASUALI
Densità di probabilità del processo casuale (2)
I parametri che caratterizzano il processo casuale x(t) possono essere calcolati in modo
approssimato attraverso medie aritmetiche su un numero molto elevato di realizzazioni:
• Valore medio:
1
µx ≈
N
• Valore quadratico medio:
[
E x(t )
2
]
N
∑ x (t )
1
≈
N
• Varianza:
σ x2 ≈
1
N
i
i =1
N
N
∑ x (t )
i =1
N
2
∑ x j (t )
j =1
∑ x (t ) − N
1
i
i =1
2
i
L’indice i della sommatoria si riferisce a diverse realizzazioni
9
PROCESSI CASUALI
Densità di probabilità di un processo gaussiano
p (a )
1
p(a) =
⎛ (a − µ x )
exp⎜⎜ −
2σ x2
2πσ x2
⎝
2
1
2πσ x2
⎞
⎟
⎟
⎠
0 .606
2πσ x2
0 .135
2πσ
P (µ x − σ x < x ≤ µ x + σ x ) =
∫
µ x + 2σ x
∫
µ x − 2σ x
µ x + 3σ x
∫
µ x −3σ x
10
2σ X
µX
1
m x −σ x
P (µ x − 3σ x < x ≤ µ x + 3σ x ) =
2σ X
⎛ (a − µ x )2 ⎞
⎟ da ≈ 0.683
exp⎜⎜ −
2
⎟
σ
2
2π σ x2
x
⎝
⎠
m x +σ x
P (µ x − 2σ x < x ≤ µ x + 2σ x ) =
2
x
σX σX
⎛ (a − µ x )2 ⎞
⎟ da ≈ 0.954
exp⎜⎜ −
2
⎟
2
σ
2
2π σ x
x
⎝
⎠
1
⎛ (a − µ x )2 ⎞
⎟ da ≈ 0.997
exp⎜⎜ −
2
⎟
2
2
σ
2π σ x
x
⎝
⎠
1
PROCESSI CASUALI
a
Funzione Q e funzione errore complementare (erfc)
B = P(x > µ x + β )
p (a )
∞
2πσ
2
x
µx +β
σx σx
⎛ β ⎞
⎛β ⎞ 1
⎟
= Q⎜⎜ ⎟⎟ = erfc⎜⎜
⎟
σ
2
2
σ
⎝ x⎠
x ⎠
⎝
B
C=B
µX
β
t
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
0,45
0,50
0,60
∫
=
0 .606
Q(t)
5,000E-01
4,801E-01
4,602E-01
4,404E-01
4,207E-01
4,013E-01
3,821E-01
3,622E-01
3,446E-01
3,264E-01
3,085E-01
2,743E-01
t
0,8
1,0
1,2
1,4
1,6
1,8
2,0
2,4
2,8
3,2
3,6
4,0
⎛ (a − µ x )2 ⎞
⎟ da
exp⎜⎜ −
2
⎟
2
2
σ
2πσ x
x
⎝
⎠
1
β
a
Q(t)
2,119E-01
1,587E-01
1,151E-01
8,080E-02
3,806E-01
3,590E-02
2,280E-02
8,200E-03
2,600E-03
6,871E-04
1,591E-04
3,167E-05
s
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
1,0
1,2
1,4
erfc(s)
1,000E+00
8,875E-01
7,730E-01
6,714E-01
5,716E-01
4,795E-01
3,961E-01
3,222E-01
2,579E-01
1,573E-01
9,700E-02
4,770E-02
s
1,6
1,8
2,0
2,2
2,4
2,6
2,8
3,0
3,3
3,7
4,0
5,0
erfc(s)
2,370E-02
1,090E-02
4,700E-03
1,900E-03
6,885E-04
2,360E-04
7,502E-05
2,209E-05
3,057E-06
1,671E-07
1,542E-08
1,537E-12
per t > 3 Q(t ) ≈
(
exp − t 2 / 2
2π t
( )
exp − s 2
per s > 2 erfc( s ) ≈
πs
11
PROCESSI CASUALI
Processi casuali stazionari con valor medio non nullo
Un processo casuale con valor medio diverso da zero può essere rappresentato come
la somma di un processo a valor medio nullo e di una costante (segnale
deterministico) uguale al valor medio.
Una realizzazione di
x(t) ed y(t)
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-0.5
-0.6
-0.7
-0.8
-40
yi(t)
xi(t)
-20
0
tempo
12
Le d.d.p delle ampiezze di
x(t) ed y(t)
y(t) = x(t) + 0.5
20
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-0.5
-0.6
-0.7
40 -0.8
d.d.p.
0
)
0.05
0.1PROCESSI0.15
0.2
CASUALI
Autocorrelazione dei processi casuali stazionari (1)
L’autocorrelazione del processo x(t) è definita come valor medio di x*(t)x(t+τ).
Se il processo è stazionario l’autocorrelazione non dipende da t, ma solo da τ.
[
Rx (τ ) = E x * (t ) x (t + τ )
]
Per τ =0 si ottiene
Rx (0) = E[| x (t ) |2 ]
L’autocorrelazione è interpretabile come media aritmetica, su un gran numero
di realizzazioni, dei prodotti dei valori del processo agli istanti t e t+τ.
1
Rx (τ ) ≈
N
N
∑ x (t ) x (t + τ )
i =1
*
i
i
L’indice i della sommatoria si riferisce a diverse realizzazioni
13
PROCESSI CASUALI
Autocorrelazione dei processi casuali stazionari (2)
Consideriamo per esempio due processi casuali stazionari a valor medio nullo, ma con
caratteristiche differenti. Il primo ha realizzazioni che variano lentamente nel tempo (ad
es. il rumore di un motore di un’auto al minimo), mentre il secondo ha realizzazioni che
variano con grande rapidità (ad es. Il fruscio di fondo di un disco rovinato) ...
[
Rx (τ ) = E x * (t ) x (t + τ )
µx = 0
]
[
]
Rx (0 ) = E | x (t ) |2 = σ x2
τ
x(t)
x(t+τ)
x(t)
2
2
1
1
0
0
-1
-1
-2
-2
0
14
τ
50
100
150
200
0
50
100
150
x(t+τ)
200
PROCESSI CASUALI
Autocorrelazione dei processi casuali stazionari (3)
Alcune realizzazioni di un
processo che varia lentamente
Se x(t) varia lentamente nel
tempo, x(t+τ ) è solitamente
poco diverso da x(t): il
prodotto xi(t)xi(t+τ ) ha segno
positivo per quasi tutte le
realizzazioni.
Per τ=0 l’autocorrelazione Rx(0)
è la varianza del processo; per
τ>0 l’autocorrelazione Rx(τ) è
sempre minore di Rx(0).
Rx (τ ) ≈
1
N
N
∑ x (t )x (t + τ ) > 0
i =1
i
i
2
0
-2
0
50
100
150
200
0
50
100
150
200
0
50
100
150
200
0
50
100
150
200
0
50
100
150
200
2
0
-2
2
0
-2
2
0
-2
2
0
-2
valore elevato!
x(t)
15
τ
x(t+τ )
PROCESSI CASUALI
L’autocorrelazione dei processi casuali stazionari (4)
Alcune realizzazioni di un
processo che varia rapidamente
Se x(t) varia rapidamente nel
tempo , x(t+τ ) è spesso molto
diverso da x(t): il prodotto
xi(t)xi(t+τ ) ha segno casuale
nelle varie realizzazioni e
quindi l’autocorrelazione ha un
valore prossimo a zero.
1
Rx (τ ) ≈
N
16
N
∑ x (t )x (t + τ ) ≈ 0
i =1
i
i
2
0
-2
0
50
100
150
200
0
50
100
150
200
0
50
100
150
200
0
50
100
150
200
0
50
100
2
0
-2
2
0
-2
2
0
-2
2
0
-2
τ
x(t)
x(t+τ )
150
PROCESSI CASUALI
200
Esempio di valutazione dell’autocorrelazione (1)
xi* (t ) xi (t + τ )
0.5
0.5
0.5
0
0
0
-0.5
τ =0
-0.5
i =1
τ =0.2
-0.5
i =100
0.5
0.5
0.5
0
0
0
-0.5
τ =0.6
-0.5
τ =0.8
-0.5
0.5
0.5
0.5
0
0
0
-0.5
τ =0.4
τ =1.2
-0.5
τ =1.4
-0.5
17
τ =1
τ =1.6
PROCESSI CASUALI
Esempio di valutazione dell’autocorrelazione(2)
Rx (τ ) = E[ x* (t ) x (t + τ )]
1
Risultato del calcolo
0.8
0.6
0.4
0.2
0
τ
-0.2
-0.4
-4
18
-2
0
2
Nota: è evidente, dalla
definizione di
autocorrelazione, che per
qualsiasi processo casuale
stazionario Rx(τ) è una
funzione pari, cioè
Rx(-τ)=Rx(τ)
4
PROCESSI CASUALI
Proprietà dell’autocorrelazione
1. L’autocorrelazione in τ=0 coincide con la potenza media del processo casuale.
[
]
Rx (0 ) = E x (t ) = E [Px ] = P ≈
2
1
N
N
∑ x (t )
i =1
2
i
2. Rx(0 ) è il massimo valore che può assumere l’autocorrelazione.
Rx (τ ) ≤ Rx (0)
3. Rx(τ) è inoltre una funzione pari
Rx (τ ) = Rx (−τ )
4. Dato un processo y(t) con media µy possiamo scrivere y(t)=x(t)-µy, ove x(t) è un
processo a media 0. Vale la seguente relazione
R y (τ ) = Rx (τ ) + µ y2
19
PROCESSI CASUALI
Autocovarianza dei processi casuali stazionari
[
C x (τ ) = E ( x (t ) - µ x )
*
(x(t + τ ) - µx ) ] = Rx (τ ) − µ x 2
Per un processo a valor medio nullo, l’autocovarianza coincide con
l’autocorrelazione
[
]
C x (0 ) = E | x (t ) - µ x |2 = Rx (0 ) − µ x = σ x2
20
2
PROCESSI CASUALI
Il coefficiente di correlazione (1)
Dato un processo casuale, si definisce coefficiente di correlazione del
processo, l’autocovarianza normalizzata:
[
]
C (τ ) E (x(t) −µx ) (x(t +τ) −µx ) Cx(τ )
= 2
ρx (τ) = x =
2
Cx(0)
E | x(t) −µx |
σx
ρ x (τ ) =
*
[
C x (τ )
≤1
C x (0)
]
ρ x (0) = 1
21
PROCESSI CASUALI
Il coefficiente di correlazione (2)
Il coefficiente di correlazione del processo è una funzione i cui valori sono
limitati tra -1 e +1. Ovviamente il suo valore in τ=0 è unitario e, salvo casi
molto particolari, è l’unico massimo.
Il valore del coefficiente di correlazione in funzione di τ è una misura della
predicibilità di una realizzazione del processo all’istante t+τ noto il valore
della realizzazione all’istante t.
••Se
(τ)=±1:x(t)
x(t)eex(t+
x(t+ττ))sisidicono
diconocompletamente
completamentecorrelati,
correlati,c’è
c’èun
unlegame
legame
Seρρxx(τ)=±1:
deterministico
fra
i
due
campioni
e
quindi
è
possibile
predire
deterministico fra i due campioni e quindi è possibile predire
perfettamente
perfettamenteililvalore
valoredell’uno
dell’unonoto
notoililvalore
valoredell’altro.
dell’altro.
••Se
ρ
(τ)=0
[cioè
se
C
(τ)=0]:
x(t)
e
x(t+
τ
)
sono
Se ρxx(τ)=0 [cioè se Cxx(τ)=0]: x(t) e x(t+τ) sono incorrelati,
incorrelati, non
non èè possibile
possibile
predire
il
valore
dell’uno
noto
il
valore
dell’altro.
predire il valore dell’uno noto il valore dell’altro.
22
PROCESSI CASUALI
Una semplice dimostrazione del legame
correlazione/predicibilità
Consideriamo il processo casuale stazionario a valor medio nullo x(t). Indichiamo per
brevità con x1 e x2 le due variabili casuali x(t1) e x(t2) e per semplicità assumiamo x1 e x2
reali. Dimostreremo che:
1 - quanto più due variabili casuali x1 e x2 (a valor medio nullo) sono correlate, tanto
meglio possiamo stimare dall’una il valore dell’altra.
2 - la stima sarà la migliore possibile, se l’errore di stima è incorrelato con i dati.
Dire che la variabile casuale x2 è correlata con la variabile casuale x1 equivale a dire
che il valore assunto da x2 è in parte proporzionale a quello assunto da x1 più una
variabile casuale indipendente da x1 e quindi non predicibile. In breve:
x2 = rx1 + n
dove n è una variabile casuale indipendente da x1, a valore medio nullo e varianza
σ n2 = E[n 2 ]
23
PROCESSI CASUALI
La stazionarietà del processo ci dice che la varianza σ2 delle due variabili casuali x1 e x2 è
la medesima, imponendo un legame tra la varianza di n e il coefficiente r.
In formule abbiamo:
[ ] [ ]
⇒ E [x ] = E [(rx + n ) ] = σ
r E [x ]+ E [n ]+ 2r E [x n] = σ
⇒ r σ + E [n ] = σ
123
E x12 = E x22 = σ 2
2
2
1
2
2
2
2
2
1
2
2
2
2
2
1
=0
da cui:
perchè indipendenti
σ n2 = (1 − r 2 )σ 2
Piu’ |r| è prossimo a 1, piu’ σn2 è piccolo e tanto meno x1 si discosta da x2.
Si può dimostrare che il coefficiente di correlazione fra x1 e x2 è uguale a r:
ρ x (τ ) = E [x1 x2 ] / E [x12 ] = r
Infatti:
[ ]
E [x1 x2 ] = E [x1 (rx1 + n )] = rE x12
Piu’ il coefficiente di correlazione è in modulo prossimo a 1, piu’ x2 è predicibile da x1.
24
PROCESSI CASUALI
Stima lineare di x2 da x1 (predire il futuro)
Conoscendo il valore assunto da x1, cerchiamo di predire al meglio (stimare) il
valore che assumerà x2 cercando il coefficiente di proporzionalità a
xˆ 2 = ax1
Il valore ottimo di a si ha se la differenza (in media quadratica) tra il valore
stimato e il valore effettivamente assunto da x2 è minima, cioè se è minimo
[
]
[
)
E ( x2 − x2 ) 2 = E ( x2 − ax1 ) 2
]
Derivando rispetto ad a e uguagliando a zero si ottiene il valore ottimo di a
[ ]
a = E [x1 x2 ] / E x12 = r
Il valore ottimo di a coincide, ovviamente, con il coefficiente r, infatti:
[ ]
E [x1 x2 ] = E [x1 (rx1 + n )] = rE x12
25
PROCESSI CASUALI
Come si fa a predire il futuro?
IlIlvalore
valoreottimo
ottimodidiaacoincide
coincidecon
conrrche
cheèèililcoefficiente
coefficientedidicorrelazione
correlazionedelle
delle
e
x
variabili
casuali
x
variabili casuali x1 e x2
1
2
[ ]
a = E [x1 x2 ] / E x12 = ρ x (τ )
Questa considerazione ci consente di definire una procedura per stimare al
meglio il valore che assumerà x2 una volta noto il valore assunto da x1
1a fase: apprendimento - Analizzando N (numero grande) realizzazioni del
processo casuale, si calcola il coefficiente di correlazione (ricordare che µx=0)
E [x (t ) x (t + τ )] N
ρ x (τ ) =
≈ ∑ xi (t )xi (t + τ )
E[ x 2 (t )]
i =1
N
∑ x (t )
i =1
2
i
2a fase: predizione - Si stima x(t+τ ) da x(t)
xˆ (t + τ ) = ρ x (τ ) x (t )
26
PROCESSI CASUALI
L’errore di stima
Si nota che l’errore di stima, essendo causato solo dalla variabile casuale n, ha
valore quadratico medio pari a quello di n
[
]
[
]
)
E ( x2 − x2 ) 2 = E ( x2 − ax1 ) 2 = σ x2 (1 − r 2 )
Da questa espressione si capisce subito che:
1 - l’errore di stima è nullo se le variabili casuali sono totalmente correlate (|r|=1)
2 - l’errore di stima è massimo se le variabili casuali sono incorrelate (|r|=0)
Infine, è importante notare che l’errore di stima è incorrelato con il dato (x1),
infatti:
[
]
= E [x x ] − aE [x ] = rE [x ] − rE [x ] = 0
E [x1 ( x2 − ax1 )] = E x1 x2 − ax12 =
1 2
2
1
2
1
2
1
27
PROCESSI CASUALI
Valor medio e autocorrelazione temporale
Si abbia un processo casuale stazionario x(t) di cui si conosce una sua realizzazione
limitata nel tempo da –T/2 a T/2 che indichiamo con xT(t)
Valor medio temporale
1
η x = lim
T →∞ T
T /2
∫x
T
( t ) dt
−T / 2
Autocorrelazione temporale
1
ℜ x (τ ) = lim
T →∞ T
T /2
∫x
*
T
( t ) x T ( t + τ ) dt
−T / 2
1
ℜ x ( 0 ) = lim
T →∞ T
T /2
∫| x
T
( t ) |2 dt = Px
−T / 2
Per un processo stazionario
E [η x ] = µ x
E [ℜ x (τ )] = R x (τ )
E [ℜ x ( 0 )] = E [ Px ] = R x ( 0 ) = P = potenza del processo
28
PROCESSI CASUALI
Processi casuali ergodici
Tra i processi casuali stazionari esistono alcuni processi per i quali si possono ricavare
la densità di probabilità e la funzione di autocorrelazione da una sola realizzazione.
Questi processi sono detti ERGODICI.
Nota importante:
Per un processo
ergodico tutte le
realizzazioni hanno
la medesima
potenza.
tempo
realizzazioni
Osservare tutte le realizzazioni ad un istante di tempo (o per una coppia di istanti)
permette di ricavare le stesse informazioni statistiche ottenibili dall’osservazione
prolungata nel tempo di una singola realizzazione.
Un esempio di processo ERGODICO è rappresentato dal rumore termico.
29
PROCESSI CASUALI
Processi casuali ergodici (d.d.p. ampiezze)
La
Ladensità
densitàdidiprobabilità
probabilitàdei
deivalori
valoriassunti
assuntida
daun
unprocesso
processocasuale
casualeergodico
ergodicopuò
può
essere
esserevalutata,
valutata,oltre
oltreche
chedall’insieme
dall’insiemedelle
dellerealizzazioni
realizzazioni(ad
(adun
unsolo
soloistante
istantediditempo,
tempo,
arbitrario,
anche
da
una
sola
realizzazione,
come
percentuale
del
tempo
in
cui
il
arbitrario, anche da una sola realizzazione, come percentuale del tempo in cui il
processo
processoassume
assumeampiezze
ampiezzefra
fraaaeea+da
a+dadiviso
divisoper
perl’ampiezza
l’ampiezzadell’intervallo
dell’intervalloda.
da.
Realizzazione del processo casuale
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-0.5
-0.6
-0.7
-0.8
-40
30
-20
0 tempo 20
40
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-0.5
-0.6
-0.7
-0.8
0
0.05
0.1
PROCESSI CASUALI
0.15
Processi casuali ergodici
Il valor medio temporale coincide col valor medio di insieme (processo ergodico per la
media).
L’autocorrelazione temporale coincide con l’autocorrelazione di insieme (processo
ergodico per l’autocorrelazione).
T /2
1
η x = lim
T →∞ T
1
ℜ x (τ ) = lim
T →∞ T
∫x
( t ) dt = µ x
−T / 2
T /2
∫x
T
*
T
( t ) x T ( t + τ ) dt = R x (τ )
−T / 2
31
PROCESSI CASUALI
Densità spettrale di potenza (1)
La densità spettrale di potenza di un processo casuale stazionario x(t) è definita
come la trasformata di Fourier dell’autocorrelazione Rx(τ )
∞
Sx ( f ) =
∫ R (τ ) exp{− j 2πfτ }dτ
Rx (τ ) =
x
−∞
∞
∫ S ( f ) exp{ j 2πfτ }df
x
−∞
Perchè la Sx(f) è una densità spettrale di potenza?
1 - Come si è visto l’autocorrelazione in τ=0, per un processo stazionario,
rappresenta la potenza del processo stesso
Rx (0) = E[ℜ x (0)] = E[ Px ] = P
2 - L’autocorrelazione in τ=0 è uguale all’integrale della sua TDF (th. valore origine):
∞
R x ( 0) =
∫ S ( f ) df
x
=P
−∞
La densità spettrale di potenza per un processo casuale x(t) rappresenta quindi
come è distribuita, statisticamente, la potenza alle varie frequenze.
32
PROCESSI CASUALI
Densità spettrale di potenza (2)
Dato un processo y(t) con media µy possiamo scrivere:
y (t ) = x (t ) − µ y
Ove x(t) è un processo a media 0.
Valgono le seguenti relazioni
R y (τ ) = Rx (τ ) + µ y
2
S y (τ ) = S x (τ ) + µ y δ ( f )
2
Un processo stazionario, con media diversa da 0, ha una densità spettrale di potenza
con un impulso nell’origine di area pari al quadrato della media.
Viceversa un processo con media 0 ha una densità spettrale di potenza senza impulsi
per f=0.
33
PROCESSI CASUALI
Densità spettrale di potenza (significato fisico)
Si supponga che il processo casuale y(t) sia ottenuto da x(t) attraverso un filtro ideale
passa banda centrato sulla frequenza f0 (e, simmetricamente, -f0) con piccola banda ∆f. Si
può ben dire che y(t) contiene le sole frequenze di x(t) nella banda del filtro, cioè in un
intorno di ±fo. Se ∆f è sufficientemente piccolo si ha
Sy ( f ) = Sx ( f0 )
per
f0 − ∆f / 2 < f < f0 + ∆f / 2
e simmetricamente intorno a -f0. La potenza di y(t), cioè la potenza di x(t) nelle bande ∆f ,
è data da
+∞
P=
∫S
y
( f ) df = 2S x ( f 0 ) ∆ f
−∞
Dunque Sx(f0) ha effettivamente il significato di potenza per unità di banda in un intorno di
f0, cioè di densità spettrale di potenza. Nota: l’aggettivo “spettrale” viene usato per
indicare tutto ciò che si riferisce al “dominio” delle frequenze. Si noti che metà della
potenza è attribuita alle frequenze negative! Poiché ciò ha poco senso fisico, spesso si
preferisce definire una densità spettrale unilatera (doppia della “bilatera”; è ovvio che poi
nei calcoli si considerano le sole frequenze positive!)
IMPORTANTE: la densità spettrale di potenza non può essere negativa (a nessuna
frequenza, filtrando, si otterrebbe un processo y(t) con potenza negativa!!)
34
PROCESSI CASUALI
Processi casuali attraverso sistemi LTI (1)
Se un processo casuale x(t) stazionario passa attraverso un sistema lineare tempoinvariante con risposta all’impulso h(t) e risposta in frequenza H(f), il processo casuale in
uscita y(t) è stazionario ed ha le seguenti caratteristiche:
1. In generale la densità di probabilità del processo in uscita y(t) è diversa da quella di
x(t). Solo la densità di probabilità Gaussiana rimane tale nel passaggio del processo
casuale attraverso il sistema LTI: cambiano solo valor medio e varianza.
2. Il valor medio del processo in uscita è legato a quello d’ingresso dalla seguente
relazione:
µ y = µ x ⋅ H ( 0)
3. L’autocorrelazione del processo d’uscita è legata a quella d’ingresso dalla seguente
relazione:
R y (τ ) = Rx (τ ) ∗ h (τ ) ∗ h (− τ )
4. La densità spettrale di potenza del processo in uscita è legata a quella d’ingresso dalla
seguente relazione:
S y ( f ) = Sx ( f ) ⋅ H ( f )
2
35
PROCESSI CASUALI
Processi casuali attraverso sistemi LTI (2)
5. La potenza del processo in uscita dipende dalla densità spettrale di potenza del
processo d’ingresso e dalla risposta in frequenza del sistema LTI secondo la relazione
∞
Py = ∫ S y ( f )df =
−∞
∞
∫ S x ( f ) ⋅ H ( f ) df
2
−∞
6. La varianza del processo in uscita dipende dalla densità spettrale di potenza e dal valor
medio del processo d’ingresso e dalla risposta in frequenza del sistema LTI:
∞
∞
σ = Py − µ y = ∫ S y ( f )df − µ y = ∫ S x ( f ) ⋅ H ( f ) df − µ x H (0 )
2
y
2
−∞
36
2
2
2
−∞
PROCESSI CASUALI
2
Processi casuali bianchi (1)
Si definisce bianco (a valor medio nullo) un processo casuale stazionario con densità
spettrale di potenza costante.
Quindi un processo casuale bianco (a valor medio nullo) ha autocorrelazione
impulsiva.
ATTENZIONE: questa caratteristica è indipendente dalla densità di probabilità delle
ampiezze che può essere di tipo qualsiasi (ad es. Gaussiana, uniforme …)
Si tratta, evidentemente, di una idealizzazione (anche la luce che diciamo “bianca”, da cui
deriva il nome, ha spettro che non si estende all’infinito). Notiamo che un processo
veramente bianco avrebbe potenza infinita!
Nel mondo reale osserviamo solo processi filtrati (con banda più o meno larga). Se la
banda del processo in ingresso è più larga di quella del filtro, possiamo assegnare valori
arbitrari alla densità spettrale fuori banda (senza che cambino i risultati del calcolo). Un
valore costante è il più comodo dal punto di vista matematico.
37
PROCESSI CASUALI
Processi casuali bianchi (2)
x(t)
2
Rx(τ)
0
Sx(f)
N0/2
-2
0
100
τ
px(a)
-5
0
N0/2
f
5
Nota: autocorrelazione impulsiva significa che il valore x(t+τ) del processo bianco al
tempo t+τ è assolutamente impredicibile dal valore x(t) all’istante t : il processo varia in
modo infinitamente rapido!
Se il processo bianco ha valor medio µx diverso da zero, si ha Sx(f)=(N0/2)+|µx|2 δ(f) e
Rx(τ)= (N0/2)δ(τ)+|µx|2
38
PROCESSI CASUALI
Processi casuali bianchi (3)
Solitamente la densità spettrale (bilatera) di un processo casuale x(t) bianco viene indicata
con Sx(f)=N0/2 e quindi la funzione di autocorrelazione con Rx(τ)= N0/2 δ(τ)
Nota: si indica quindi con N0 la densità spettrale di potenza unilatera.
E’ importante saper calcolare la potenza di un processo y(t) ottenuto da un processo bianco
x(t) attraverso un filtro con risposta all’impulso h(t) e risposta in frequenza H(f). Si ha
+∞
+∞
σ = ∫ S y ( f )df = ∫ Sx ( f ) H ( f ) df =
2
2
y
−∞
−∞
+∞
+∞
N
N
2
= 0 ∫ Sx ( f ) H ( f ) df = 0 ∫ h2 (t )dt
2 −∞
2 −∞
39
PROCESSI CASUALI
Correlazione tra uscita e ingresso di un sistema LTI
La correlazione tra due processi casuali ergodici y(t) e x(t) è definita nel modo seguente:
ℜ
yx
1
(τ ) = Tlim
→∞ T
T /2
∫
y * ( t ) x ( t + τ )dt = R yx (τ
)
−T / 2
Se i due processi casuali y(t) e x(t) sono rispettivamente l’uscita e l’ingresso di un sistema
LTI la loro correlazione è uguale alla convoluzione tra l’autocorrelazione dell’ingresso e la
risposta all’impulso del sistema LTI:
R yx (τ ) = R x (τ ) ∗ h (τ
)
Si nota che se il processo d’ingresso è bianco (autocorrelazione impulsiva), la correlazione
tra uscita e ingresso coincide con la risposta all’impulso del sistema.
R yx (τ ) = δ (τ ) ∗ h (τ ) = h (τ
)
Questa proprietà è spesso utilizzata nei sistemi di telecomunicazione per stimare la
risposta impulsiva del canale di trasmissione che è ignoto a priori.
40
PROCESSI CASUALI
Correlazione tra uscita e ingresso bianco
x(t)
Processo bianco
y(t)
?
h(t)
Processo correlato
h(τ)
ℜ
yx
1
(τ ) = Tlim
→∞ T
T /2
∫
y * ( t ) x ( t + τ )dt
=
−T / 2
41
se Sx(f)=1 e
quindi Rx(τ)=δ(τ)
PROCESSI CASUALI
Un esempio importante di processo bianco (1)
Si consideri il processo x(t) le cui realizzazioni sono costituite da treni di impulsi equispaziati
a passo T, con ritardo iniziale τ casuale e area a casuale indipendente da impulso a impulso
con valor medio nullo e varianza σ 2.
x(t ) =
∞
∑ a δ (t − nT − τ )
n = −∞
n
x1(t)
T
τ
t
x2(t)
T
42
τ
t
PROCESSI CASUALI
Un esempio importante di processo bianco (2)
Si può dimostrare che il processo casuale x(t) è STAZIONARIO ed ERGODICO,
con le seguenti proprietà
1. Il valor medio è nullo: µx = 0
2. La varianza è: σ 2 / T
3. L’autocorrelazione è impulsiva (processo bianco): Rx (τ ) = (σ 2 / T ) δ (τ )
4. La densità spettrale di potenza è costante (processo bianco): Sx (τ ) = (σ 2 / T )
43
PROCESSI CASUALI
Se il processo casuale x(t) passa attraverso un sistema LTI con risposta in frequenza
H(f) e risposta all’impulso h(t), in uscita si ottiene un processo y(t) con:
Densità spettrale di potenza: Sy (f ) = (σ 2 / T) |H(f)|2
h(t)
y1(t)
T
H(f)
Sx (f)
f
44
τ
t
Sy (f)
f
f
PROCESSI CASUALI
Il processo casuale y(t) costruito nel modo indicato precedentemente può essere
usato per rappresentare (nel tempo) una sequenza casuale di bit. Ciascuno di essi
sarà codificato, ad esempio, con un impulso rettangolare, di base T, ed ampiezza:
+A (“1”) o -A (“0”):
A
y1(t)
h(t)
+1
+1
T
-1
+1
+1
-1
τ
-1
t
T
1/T
Sx (f)
f
Sx ( f ) = 1 / T
45
|H(f)|2
(AT)2
A2T
Sy (f)
f
h(t ) = A ⋅ rect (t / T )
H ( f ) = AT ⋅ sinc(Tf )
f
S y ( f ) = A2T ⋅ sinc2 (Tf )
PROCESSI CASUALI