Cap.1. GENERALITÀ SUI PROCESSI STOCASTICI Si è a volte fatto

Cap.1. GENERALITÀ SUI PROCESSI STOCASTICI
1.1. SEGNALI ALEATORI E LORO SORGENTI
Si è a volte fatto riferimento ai segnali quali veicoli di informazione: in proposito
occorre tuttavia precisare che si tratta di segnali aleatori, in quanto quelli determinati,
ossia già noti nel loro intero andamento temporale, non sono ovviamente portatori di
alcuna informazione. Nei problemi di telecomunicazioni si incontrano sovente dei
segnali la cui evoluzione nel tempo sfugge a caratterizzazioni di tipo deterministico,
quali quelle richiamate in precedenza; vengono allora considerati di tipo casuale e
trattati in forma statistica. È necessario prendere in considerazione tutti i possibili
segnali con probabilità non nulla di essere osservati, poiché in generale ciascuno di essi
considerato isolatamente non è sufficientemente rappresentativo. Allo scopo si vuole in
questo paragrafo introdurre alcuni cenni sulle sorgenti dei flussi di informazione, anche
per la migliore comprensione, in senso stocastico, tanto dei contenuti informativi,
quanto delle caratteristiche dei segnali aleatori, oggetto della analisi condotta nei
paragrafi successivi.
In primo luogo, la emissione elementare di una informazione può essere schematizzata
con la scelta del valore di una variabile aleatoria reale, nel seguito indicata con la
notazione v.a.. La sorgente è denominata analogica se la v.a., Z, è continua, ossia se la
sua generica determinazione, z, può assumere uno qualsiasi dei valori non numerabili in
un intervallo noto, di norma finito; è invece denominata numerica, se la v.a., Zq, è
discreta, ossia se la sua determinazione può assumere uno qualsiasi dei simboli che
costituiscono un insieme, {zq} con q = 1, 2,.., M, discreto, numerabile e finito.
Con riferimento al caso numerico, la considerata emissione elementare è riconducibile
alla scelta di un simbolo, zq, tra gli M possibili diversi elementi che nel loro complesso
formano un alfabeto M-nario. A tale evento si associa la quantità di informazione:
1
[1.1] I(zq) =ˆ log 2
,
P(zq )
dove P(zq) è la probabilità di zq. La occorrenza di una delle due cifre binarie in
condizione di equiprobabilità [P(0)=P(1)=!] corrisponde dunque alla unità di quantità
di informazione, denominata bit. Sempre che i simboli siano equiprobabili, ossia si
abbia:
1
[1.2] P(zq) =
,
M
e che nella M = 2b sia b intero, la quantità di informazione, identica, di ciascun simbolo
coincide con il numero b delle cifre binarie ad esso associabili.
Considerando l’evoluzione di una sorgente, si passa al flusso di informazione. Nel caso
analogico si ha molto spesso un flusso continuo nel tempo: volta per volta, si è allora di
fronte alla generazione di una funzione campione, x(t), che costituisce la realizzazione
di un processo stocastico continuo reale, indicato con X(t), comprendente tutte le
realizzazioni possibili; il processo per ogni generico tempo t di saggiatura si riduce alla
2
v.a. continua Xt= X(t), come quella già precedentemente introdotta. Nella figura 1.1
sono mostrate alcune realizzazioni di un processo continuo, ponendo in evidenza le
determinazioni della v.a. Xt, nell’istante t, così come quelle della v.a. Xt+!, nell’istante t+
!.
x(t)
t
x(t)
t
. . . . . . . . . . . . . . . . . . . . . . . .
x(t)
t
t
t+!
Fig. 1.1 - Esempio di realizzazioni di un processo continuo.
Si ha anche il caso di flusso discreto di informazione analogica, contemplando ad
esempio una sorgente che, volta per volta, genera una sequenza, z(n), che costituisce la
realizzazione di un processo stocastico discreto reale, indicato con Z(n), comprendente
tutte le realizzazioni possibili; il processo per ogni valore di saggiatura k della variabile
intera n si riduce alla v.a. continua Zk, come quella già precedentemente introdotta; ossia
il processo è una sequenza di v.a. continue.
Il flusso di informazione di una sorgente numerica corrisponde sempre a un processo
discreto reale, Zq(n), comprendente come realizzazioni tutti i flussi numerici volta per
volta generabili, zq(n); ma, a differenza del caso immediatamente precedente, si ha un
processo stocastico discreto a valori discreti, dato che per ogni generico valore intero di
saggiatura, k, esso si riduce a una v.a. discreta: Zqk, che come già esposto ha per
determinazione uno degli M possibili simboli dell'insieme {zq}. Il tipo di processo
considerato è perciò una sequenza di v.a. discrete.
I segnali aleatori che veicolano la informazione nei sistemi di telecomunicazione si
ottengono dalle sorgenti a valle di opportuni procedimenti di conversione della natura
fisica dei flussi di informazione: da quella generica con cui esso nasce, alla natura
elettrica. Tali trattamenti sono attuati da trasduttori, apparati che non interessano la
trasmissione e pertanto verranno in seguito ignorati, ritenendoli interni alle sorgenti. Se
la sorgente è analogica, la forma emessa in modo casuale, ossia un segnale analogico,
ha andamento aleatorio nel tempo analogo a quello del flusso di informazione
considerato: di conseguenza anch'esso è la realizzazione di un processo continuo. Se
invece la sorgente è numerica, si ha in corrispondenza un segnale numerico, con vario
3
andamento aleatorio, ma comunque sempre associato al flusso numerico di
informazione considerato: tralasciando il caso astratto del segnale campionato
numerico, nella pratica sia ha pertanto ancora la realizzazione di un processo continuo,
seppure dipendente da un processo discreto a valori discreti.
In definitiva, tutti i possibili segnali fisici aventi probabilità non nulla di transitare in un
sistema di trasmissione, ma sempre generabili da sorgenti dello stesso tipo, nel loro
insieme costituiscono un processo stocastico continuo reale, di cui la singola forma
d'onda, x(t), è la realizzazione .
1.2. CARATTERIZZAZIONE DEI PROCESSI CONTINUI
In un processo continuo reale X(t), ad ogni generico istante di saggiatura, t, corrisponde
una v.a. continua, Xt=X(t), e i valori istantanei, xt = x(t), di tutte le possibili realizzazioni
sono quelli che la v.a. Xt può assumere. La distribuzione dei valori xt è caratterizzata
tramite la funzione:
p(xt ; t) ,
denominata densità di distribuzione o anche densità di probabilità all'istante t; il valore
di p(xt; t) dxt esprime infatti la probabilità che la Xt assuma al tempo t un valore compreso
tra xt e xt+dxt. Più in generale, occorre la conoscenza della interdipendenza statistica di
una ennupla di v.a., X1, X2,.., Xn, ottenute in corrispondenza degli istanti di saggiatura t1,
t2, .., tn, tutti arbitrari. Si ricorre allora alla densità di distribuzione congiunta o anche
densità di probabilità congiunta di ordine n:
pn = pn (x1, x2,.., xn ; t1, t2, .., tn) ;
ad esempio p2dx1dx2 rappresenta la probabilità che ai tempi t1 e t2 i valori assunti da X1 e
X2 siano compresi rispettivamente tra x1 e x1+ dx1 e tra x2 e x2+ dx2. La conoscenza della
funzione pn è sufficiente affinché siano note tutte le funzioni di ordine inferiore; si ha
infatti:
[1.3] pn-1 = ! p n dx n .
Generalmente la v.a. Xn al tempo tn è condizionata dalla eventuale conoscenza delle v.a.
estratte in corrispondenza dei precedenti istanti tn-1,.., t2, t1; si definisce quindi la densità
di distribuzione condizionata o anche densità di probabilità condizionata di ordine uno
e con n-1 condizionamenti:
p|n-1 = p|n-1(xn ; tn | xn-1,.., x2, x1; t n-1,.., t2, t1) ;
il valore di p|n-1dxn esprime la probabilità che al tempo tn la Xn assuma un valore
compreso tra xn e xn+ dxn, sotto il condizionamento dei valori xn-1,.., x2, x1. Si ha poi:
[1.4] pn = p|n-1pn-1(xn-1,.., x2, x1; t n-1,.., t2, t1) ,
4
e reiterando la stessa [1.4]:
[1.5] pn= p|n-1 p|n-2 p|n-3....p|1 p(x1; t1).
Per caratterizzare completamente un processo non è sempre necessaria la conoscenza
delle densità di probabilità di ordine comunque elevato, come nel seguito mostrato.
Un caso particolarmente semplice è quello in cui si verifica la ipotesi di completa
indipendenza statistica tra tutte le v.a. Xt, in corrispondenza di istanti di saggiatura
diversi: allora tutte le funzioni condizionate si riducono alla densità di distribuzione del
primo ordine e dalla [1.5] si ottiene che la densità di probabilità congiunta di ordine n si
esprime semplicemente come il prodotto di n funzioni del primo ordine.
Per particolari processi stocastici, detti processi di Markoff del primo ordine, la
dipendenza statistica tra diversi valori di Xt si esaurisce con il valore contiguo, ossia
vale per le funzioni condizionate di qualsiasi ordine la proprietà:
[1.6]
p|k-1 = p|1(xk; tk | xk-1;tk-1) ;
dalla [1.5] risulta allora:
[1.7]
pn= p|1(xn ; tn | xn-1, tn-1)"""p|1(x2; t2| x1; t1) p(x1; t1).
Ne segue che i processi del tipo considerato sono completamente descritti dalla densità
di probabilità di secondo ordine (vedi [1.3]). Nei processi di Markoff di ordine n la
descrizione è completa se si conosce la densità di probabilità di ordine n +1.
Pur arrestando la conoscenza alla densità di probabilità del secondo ordine, è possibile il
calcolo di alcune grandezze di un generico processo, atte a rappresentare sinteticamente
almeno le sue più importanti caratteristiche. Nel seguito si rimarrà pertanto entro tale
limitazione.
Si adotti per l’operatore di media statistica la notazione:
E {Fn } = ! Fn (v1, v 2 ,.., v n )p n (v1, v 2 ,.., v n )dv1 dv 2 ..dv n ,
n
dove Fn è una funzione delle v.a. V1,V2,..,Vn e l’integrale è ennuplo. Al generico istante
di saggiatura t1, stante la v.a. X1 = X(t1), si definiscono il valore medio statistico del
processo (o speranza matematica), la potenza media statistica del processo e la
varianza del processo, rispettivamente mediante le:
[1.8] E{x1} = ! x1p(x1;t1 )dx1 =ˆ #(t1) ,
[1.9] E{|x1|2} = ! x1 p(x1;t1 )dx1 =ˆ P(t1) ,
2
[1.10] E{|x1- E{x1}|2} = ! x1 -E(x1 ) p(x1;t1 )dx1 =ˆ $2(t1) ,
2
5
che in generale risultano dipendenti dall'istante di saggiatura t1.
si ha poi la proprietà:
[1.11] $2(t1) = P(t1) - |#(t1)|2 .
In corrispondenza della coppia di generici istanti di saggiatura t1 e t2 e tramite la
intercorrelazione statistica tra le v.a. X1 = X(t1) e X2 = X(t2), espressa dalla densità di
probabilità di secondo ordine, si definiscono la funzione di autocorrelazione del
processo e la funzione di autocovarianza del processo, rispettivamente mediante le
relazioni (1):
[1.12] E {x1x!2 } = "" x1x!2 p 2 (x1, x 2 ;t1,t2 )dx1 dx 2 =ˆ R(t1,t2) ,
{
[1.13] E !" x1 -E { x1 }#$!" x2 -E { x2 }#$
K(t1,t2);
%
} = "" (x -E{x }) (x -E{x }) p (x ,x ;t ,t )dx dx
1
1
2
2
!
2
1
2 1 2
1
2
=ˆ
vale inoltre la proprietà:
[1.14] K(t1,t2) = R(t1,t2) - #( t1) #*(t2),
ed è immediato constatare che per t2= t1 si hanno le relazioni:
[1.15] R(t1,t1) = P(t1) ,
K(t1, t1) = $2(t1) ,
e quindi la [1.14] coincide in tale caso con la [1.11].
Si noti che tutte le grandezze introdotte sono caratteristiche del processo, ma sono in
generale funzioni di una o di entrambe le variabili temporali indipendenti di saggiatura,
t1 e t2. È rilevante inoltre osservare che, grazie alle proprietà [1.14] e [1.15], tutte le
grandezze considerate risultano note o ricavabili a partire dalla sola conoscenza delle
due grandezze:
#(t1)
,
R(t1,t2) ,
che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica, limitata
al secondo ordine, del processo.
1.3. PROCESSI CONTINUI STAZIONARI
La notazione con il segno della operazione di coniugio, superflua nel caso
considerato di processo reale, torna successivamente utile nella estensione ai processi
complessi.
(1)
6
Nella realtà operativa della trasmissione i segnali, utili o indesiderati che siano, sono
realizzazioni di processi stocastici. Se si considerano osservazioni molto prolungate le
caratteristiche dei segnali nel dominio statistico (in particolare il valore medio e la
funzione di autocorrelazione) non risultano invariate nel tempo: basti fare riferimento
alla durata finita delle comunicazioni, nonché alla possibilità che su uno stesso
collegamento transitino in tempi anche immediatamente successivi i segnali, in teoria
tutti di energia finita, generati da sorgenti assai diverse (ad esempio sorgente vocale o di
dati in banda fonica); d'altra parte il progetto e l'esercizio in opera degli apparati e dei
mezzi che costituiscono i sistemi di trasmissione può essere basato sulle prestazioni di
larga media osservabili in numerosi intervalli di breve durata. Ciò giustifica la prassi
comune di estrapolare, su tutto l'asse dei tempi, le caratteristiche dei segnali, quali esse
risultano da valutazioni statistiche compiute su intervalli temporali limitati, purché di
durata sufficiente; in altri termini è spesso accettabile la ipotesi di invarianza nel tempo
della natura aleatoria dei segnali in transito. Concludendo, è lecito concentrare
l'attenzione su quella particolare categoria di processi, denominata dei processi
stocastici continui stazionari, che a prescindere dalle caratteristiche che verranno
precisate in seguito, hanno come realizzazioni segnali aleatori di potenza.
Nei processi continui stazionari tutte le funzioni di densità di probabilità risultano
invarianti rispetto a una traslazione temporale; in particolare, quindi, godono di tale
proprietà anche le grandezze sintetiche poco sopra introdotte. I processi stocastici più
interessanti per le telecomunicazioni, in quanto costituiscono una classe che comprende
i precedenti, ma è molto più ampia, sono quelli debolmente stazionari o stazionari in
senso lato, per i quali la proprietà considerata vale in riferimento alle funzioni del primo
e secondo ordine; ossia ponendo t1 = t + ! e t2= t con ! qualsiasi, si ottiene una densità di
probabilità del generico valore istantaneo x1 = x(t + !) indipendente dal tempo:
[1.16] p(x1 ; t1) = p(x2 ; t2) = p(x1) = p(x2) ,
e una densità di probabilità congiunta della coppia di valori istantanei x1 = x(t + !) e
x2 = x(t) che dipende da ! :
[1.17] p2(x1, x2 ; t1, t2) = p2(x1, x2; !) .
Nell’ambito della prassi qui seguita, di limitare la caratterizzazione dei processi al
secondo ordine, non è dunque apprezzabile la differenza tra la stazionarietà effettiva e
quella in senso lato: pertanto nel seguito tale distinzione verrà trascurata, ma il lettore
ricordi che quanto ricavato per i processi della classe più ristretta è valido per quelli
stazionari in senso lato.
In un processo stazionario il valore medio statistico, la potenza e la varianza risultano
delle costanti; si ottiene rispettivamente:
[1.18] E{x(t)} = ! x1p(x1 )dx1 =ˆ #x ,
[1.19] E{|x(t)|2} = ! x1 p(x1 )dx1 =ˆ Px ,
2
7
[1.20] E{|x(t) - E{x(t)}|2} = ! x1 -! p(x1 )dx1 =ˆ ! 2x .
2
Inoltre, le funzioni di autocorrelazione e di autocovarianza dipendono dalla differenza !
tra i due istanti di saggiatura e non dai loro valori in assoluto, ossia si ha (1) :
[1.21] E {x(t+!)x" (t)} = "" x1 x2! p2 (x1,x 2 ;! )dx1 dx2 =ˆ Rxx(!) ,
{
}
[1.22] E !" x(t+! )-E { x(t+! )}#$!" x(t)-E { x(t)}#$ =
%
"" (x -! )(x -! ) p (x ,x ;" )dx dx
1
!
2
2
1
2
1
2
=ˆ
Kxx(!),
dove sia Rxx(!) che Kxx(!) sono funzioni hermitiane:
[1.23] Rxx(!) = R !xx (- " ) ,
Kxx(!) = K!xx (- " ) ;
valgono poi le proprietà:
[1.24] Rxx(!) = Kxx(!) + | #x|2 ,
|Rxx(!)| % Rxx(0) = Px
,
|Kxx(!)| % ! 2x ,
[1.25] Rxx(0) = Px = ! 2x + | #x|2 = Kxx(0) + | #x|2 .
Sempre nell’ipotesi di stazionarietà si dimostrano le relazioni:
[1.26] #x = E{ x } ,
Px = E{P xx} ,
Rxx(!) = E{Rxx(!)} ,
Kxx(!) = E{Kxx(!)} ,
dove x , P xx, Rxx(!) e Kxx(!) sono le rispettive grandezze relative alla generica singola
realizzazione del processo, ossia il valore medio temporale, la potenza media temporale,
la funzione di autocorrelazione temporale e la funzione di autocovarianza temporale.
È rilevante osservare che, in virtù delle [1.24] e [1.25], tutte le grandezze considerate
risultano note o ricavabili a partire dalla sola conoscenza del valore medio statistico e
della funzione di autocorrelazione:
#x ,
Rxx(!) ,
che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica di un
processo stazionario.
Mantenendo la ipotesi di stazionarietà, è possibile la definizione della densità spettrale
di potenza o anche spettro di potenza del processo, tramite la relazione di WienerKhintchine:
La notazione con il segno della operazione di coniugio, superflua nel caso
considerato di processo reale, torna successivamente utile nella estensione ai processi
complessi.
(1)
8
[1.27] Px( f ) =ˆ F{Rxx(!)} ;
si ha la espressione:
2
1
[1.28] Px(f) = lim E X T (f) ,
T!" T
{
}
dove con XT(f) si è indicata la trasformata di Fourier della generica realizzazione
troncata nell’intervallo finito di osservazione T. Si noti che la funzione Px( f ) è reale per
definizione, essendo Rxx(!) hermitiana, ed è non negativa in virtù della [1.28]; essa
diviene una funzione pari nel caso, molto frequente, di processo reale. Servendosi delle
[1.24] e [1.27] si ricava la espressione:
[1.29] Px(f) = F{Kxx(!) + |#x|2} = F{Kxx(!)}+ | #x|2 &(f) ,
che evidenzia la esistenza di una componente spettrale discreta nella origine, legata al
quadrato del modulo del valore medio statistico. Calcolando in ! = 0 l’antitrasformata di
Fourier della [1.27] e rammentando la [1.25] si ricava:
[1.30] Px = ! Px (f)df .
Grazie alla relazione di Wiener-Khintchine, per caratterizzare un processo stazionario
sono sufficienti il suo valore medio statistico, #x, e la sua densità spettrale di potenza,
Px( f ). A patto di fare riferimento a tale ultima funzione, valgono le considerazioni
sviluppate a proposito della estensione spettrale dei segnali determinati: nel caso di
processi fisici stazionari è dunque sempre possibile adottare le denominazioni di
processi in banda base e di processi in banda traslata, adoperando rispettivamente le
condizioni fM>>fm e fM<2fm dove fm e fM sono gli estremi della banda monolatera del
processo.
Un sottoinsieme particolarmente interessante di processi stazionari è quello dei processi
ergodici, per i quali la singola realizzazione, x(t), osservata su tutto l'asse dei tempi,
contiene tutte le proprietà statistiche del processo, così che le grandezze medie
temporali convergono tutte, con probabilità tendente a uno, alle corrispondenti medie
statistiche. Indicati sempre con x , P xx, Rxx(!) e Kxx(!) rispettivamente il valore medio, la
potenza e le funzioni di autocorrelazione e di autocovarianza della generica singola
realizzazione del processo, si hanno le relazioni:
[1.31]
x = #x , P xx = Px , Rxx (!) = Rxx(!) , Kxx(!) = Kxx(!) .
La conoscenza dell'intero andamento temporale di una sola realizzazione consente
quindi la determinazione delle grandezze sintetiche del processo stazionario ergodico a
cui essa appartiene.
1.4. INTERCORRELAZIONE NEI PROCESSI STAZIONARI
9
Si consideri una coppia di processi reali continui, X(t) e Y(t), congiuntamente stazionari,
ossia per cui entrambe le densità di probabilità del primo ordine siano indipendenti dal
tempo (vedi [1.16]) e la densità di probabilità congiunta della coppia di valori istantanei
x1 = x(t + !) e y2 = y(t) dipenda dalla differenza ! = t1- t2 tra gli istanti di saggiatura e non
dai loro valori assoluti. Oltre alle grandezze caratteristiche già introdotte per ciascun
processo (nel seguito distinte tramite l’aggiunta del pedice singolo x o y), in analogia
con le [1.21] e [1.22] si definiscono la funzione di intercorrelazione e la funzione di
covarianza mutua della coppia di processi(1), che risultano entrambe funzioni di !:
[1.32] E{x(t + !) y*(t)} =ˆ Rxy(!) ,
[1.33] E{[x(t + !) - #x][y(t) - #y]*} =ˆ Kxy(!) ,
dove #x e #y sono i valori medi statistici; scambiando tra loro i pedici nelle [1.32] e
[1.33], si dimostrano le (con il cambio di variabile z = t + ! ):
[1.34] Ryx(!) =R !xy (-! )
,
Kyx(!) = K!xy (- " ) .
Tra le funzioni sussiste la relazione:
[1.35] Rxy(!) = Kxy(!) + #x !"y ;
valgono inoltre le proprietà:
[1.36] |Rxy(!)|2 % Rxx(0)Ryy(0) = PxPy ,
[1.37] |Kxy(!)|2 % Kxx(0)Kyy(0) = ! 2x ! 2y ,
avendo indicato con Px e Py e con ! 2x e ! 2y rispettivamente le potenze e le varianze dei
processi.
Definita poi la densità spettrale mutua di potenza dei processi:
[1.38] Pxy( f ) =ˆ F{Rxy(!)},
si ha la relazione:
[1.39] Pxy( f ) = lim
T!"
1
E X (f)YT# (f)} ,
T { T
dove XT(f) e YT(f)sono le trasformate di Fourier delle generiche realizzazioni troncate
nell’intervallo finito di osservazione T; scambiando tra loro i pedici, si ottiene:
La notazione con il segno della operazione di coniugio, superflua nel caso
considerato di processo reale, torna successivamente utile nella estensione ai processi
complessi.
(1)
10
[1.40] Pxy! (f ) = Pyx( f ) = F{Ryx(!)} .
Dalla [1.39] si nota che la densità spettrale mutua di potenza è diversa da zero solo alle
frequenze per cui sono entrambe non nulle le densità spettrali di potenza dei processi
X(t) e Y(t) considerati.
Si osservi che nel caso di processi congiuntamente stazionari entrambi reali, le funzioni
di intercorrelazione e di covarianza sono sempre funzioni reali, mentre la densità
spettrale mutua di potenza è in generale una funzione hermitiana della frequenza.
Due processi congiuntamente stazionari si dicono incoerenti se la funzione di
intercorrelazione è nulla per ogni !, ossia si ha:
[1.41] Rxy(!) ' 0 ;
servendosi della [1.38] si ricava in tal caso che la densità spettrale mutua di potenza si
annulla anch’essa per ogni frequenza:
[1.42] Pxy( f ) ' 0
,
se: Rxy(!) ' 0 .
Se invece la funzione di covarianza è nulla per ogni !:
[1.43] Kxy(!) = Rxy(!) - #x !"y ' 0 ,
i due processi si denominano incorrelati; sempre dalla [1.38] risulta allora che la densità
spettrale mutua di potenza consiste in una sola componente discreta nella origine:
[1.44] Pxy( f ) = #x !"y &(f) , se: Kxy(!) ' 0 .
Qualora sia nullo il valore in ! = 0 della funzione di intercorrelazione, ossia si abbia:
[1.45] Rxy(0) = E{x(t) y*(t)} = 0,
i due processi, nel medesimo generico istante di saggiatura, danno luogo a una coppia di
v.a. X(t) e Y(t) ortogonali; risulta in tal caso (vedi [1.40]):
[1.46]
" Pxy (f)df= " !{ P (f)} df=0 ,
xy
se: Rxy(0) = 0.
Due processi continui stazionari statisticamente indipendenti , per cui le densità di
probabilità congiunte di vario ordine si riducono ai prodotti delle densità congiunte di
ciascun processo preso separatamente:
[1.47] pn+m(x1, x2,.., xn, y1, y2,.., ym) = pn(x1, x2,.., xn) pm(y1, y2,.., ym),
sono sempre incorrelati. Se almeno uno ha valore medio nullo sono anche incoerenti.
11
1.5. PROCESSO SOMMA E PROCESSO COMPLESSO
Si consideri il processo continuo, A(t), con realizzazioni a(t) = x(t) + y(t) date dalla
somma di quelle di due processi reali congiuntamente stazionari, e si applichino le
[1.18] e [1.21]. Data la linearità dell'operatore di media statistica, E{•}, il valore medio
statistico risulta:
[1.48] #a= E{x(t)+y(t)}= E{x(t)}+E{y(t)}= #x+#y.
Si ottiene poi la funzione di autocorrelazione:
[1.49] Raa(!) = E{[x(t + !) + y(t + !)] [x(t) + y(t)]*} =
= E{x(t + !)x*(t)}+ E{y(t + !) y*(t)}+ E{x(t + !)y*(t)}+E{y(t+!)x*(t)}=
= Rxx(!)+Ryy(!)+Rxy(!)+Ryx(!) .
Il processo somma considerato è dunque anch'esso stazionario. Grazie alle [1.28] e
[1.40] si ha inoltre:
[1.50] Pa( f ) = Px( f ) + Py( f ) + 2({Pxy( f )} .
La incoerenza dei due processi addendi (vedi [1.41] e [1.42]) è allora condizione
sufficiente affinché i processi X(t) e Y(t) si sommino in potenza, così come in densità
spettrale di potenza:
[1.51] Pa= Px+ Py ,
Pa( f ) = Px( f ) + Py( f )
,
se: Rxy(!) ' 0 .
La regola della semplice somma in potenza vale inoltre anche nel caso che i due
processi reali diano luogo a v.a. ortogonali, come dimostrabile integrando la [1.50] e
applicando la [1.46]; pertanto qualora la funzione di intercorrelazione sia nulla nella
origine si usa la denominazione di processi additivi in potenza:
[1.52] Pa= Px+ Py ,
se: Rxy(0) =
" Pxy (f)df= " !{ P (f)} df=0 .
xy
Si rammenti che in generale non risultano però sommabili gli spettri di potenza, ossia si
ha Pa( f ) ) Px( f ) + Py( f ).
Si noti infine che l'indipendenza statistica tra i due processi addendi, che risultano allora
incorrelati, permette la semplice somma delle potenze e degli spettri solo a patto che
almeno uno dei due processi abbia valore medio nullo (vedi [1.42] e [1.43]).
Un secondo caso interessante, per cui è ancora sfruttabile la linearità dell’operatore di
media statistica, è quello del processo complesso, B(t), con realizzazioni b(t)=x(t)+jy(t)
dove X(t) e Y(t) sono ancora due processi reali congiuntamente stazionari.
Applicando le [1.18] e [1.21], si ricava il valore medio statistico:
12
[1.53] #b = E{x(t)+jy(t)} = E{x(t)}+jE{y(t)}= #x+j#y.
Si ottiene poi la funzione di autocorrelazione:
[1.54] Rbb(!) = E{[x(t+!)+jy(t+!)][x(t)+jy(t)]*}=
= E{x(t + !)x*(t)}+ E{y(t + !)y*(t)}-jE{x(t+!)y*(t)}+jE{y(t+!)x*(t)}=
= Rxx(!)+Ryy(!)-j[Rxy(!)-Ryx(!)] .
Il processo complesso considerato è dunque anch'esso stazionario. Grazie alle [1.27],
[1.38] e [1.40] si ha inoltre:
[1.55] Pb(f) = Px(f)+Py(f)+2*{Pxy(f)}.
Ponendo ! = 0 nelle [1.36] e [1.54], si ricava che la potenza del processo complesso
considerato è sempre la somma delle potenze dei due processi che si compongono:
[1.56] Pb = Px + Py ;
la loro eventuale incoerenza (vedi [1.42]) è allora condizione sufficiente affinché sia
valida anche la semplice relazione riguardante le densità spettrali di potenza:
[1.57] Pb(f) = Px(f)+Py(f),
se: Rxy(!) ' 0 .
1.6. PROCESSI DISCRETI REALI STAZIONARI
1.6.1. Processi discreti reali stazionari a valori contini
A valle di quanto sopra richiamato, è semplice da esaminare il caso di un processo
discreto reale, indicato con Z(n), costituito da una sequenza di infinite v.a. reali
continue, Zk, caratterizzate dalle funzioni di densità di probabilità di vario ordine
riguardanti le determinazioni zk = z(k). In corrispondenza di due generiche variabili
intere di saggiatura, k1 e k2, della variabile intera n, con lo stesso formalismo delle [1.8] [1.15] si ottengono il valore medio statistico, #(k1), la potenza media statistica, P(k1), la
varianza, $2(k1), così come la funzione di autocorrelazione, R(k1,k2), e la funzione di
autocovarianza del processo discreto, K(k1,k2).
Nel caso di interesse, dei processi discreti stazionari o stazionari in senso lato, la
densità di probabilità del primo ordine è indipendente da k e quella del secondo ordine é
invariante rispetto a una sua generica traslazione. Di conseguenza il valore medio
statistico, la potenza e la varianza risultano delle costanti, indipendenti dalla variabile
intera di saggiatura, mentre le funzioni di autocorrelazione e di autocovarianza
dipendono dalla differenza intera, + = k1-k2, delle due variabili di saggiatura e non dai
loro valori in assoluto; si hanno poi le seguenti espressioni:
13
[1.58] E{z(k)} = ! z k p(z k )dz k =ˆ #z ,
[1.59] E{ z 2 (k)} = ! z 2k p(z k )dz k =ˆ Pz ,
[1.60] E{[z(k) - E{z(k)}]2} = " ( z k -!z ) p(z k )dz k =ˆ ! 2z ,
2
[1.61] E{z(k + +) z(k)} = "" z k +!z k p 2 (z k +!,z k ;!)dz k +! dz k =ˆ Rzz(+) ,
[1.62] E{[z(k + +) - #z] [z(k) - #z]}= ## (z k +! -"z )(z k -"z )p 2 (z k +!,z k ;!)dz k +! dz k =ˆ Kzz(+) ,
dove entrambe le grandezze Rzz(+) e Kzz (+) sono funzioni pari e valgono le proprietà:
[1.63] Rzz(+) = Kzz(+) + !2z ,
|Rzz(+)| % Rzz(0) = Pz ,
|Kzz(+)| % Kzz(0) = ! 2z ,
[1.64] Rzz(0) = Pz = ! 2z + !2z = Kzz(0) + !2z .
Come nel caso di processo continuo, il valore medio statistico e la funzione di
autocorrelazione sono sufficienti a caratterizzare un processo discreto stazionario.
Considerando una coppia di processi discreti reali, Z(n) e V(n), entrambi
congiuntamente stazionari, in aggiunta alle grandezze sintetiche sopra introdotte per
ciascun processo, e in seguito distinte tramite l'aggiunta del pedice singolo z o v , si
definiscono la funzione di intercorrelazione e la funzione di covarianza mutua della
coppia di processi:
[1.65] E{z(k + +) v(k)} =ˆ Rzv(+) ,
[1.66] E{[z(k + +) - #z] [v(k) - #v]} =ˆ Kzv(+) ,
dove #z e #v sono i valori medi statistici; scambiando tra loro i pedici nelle [1.65] e
[1.66], si dimostrano le:
[1.67] Rvz(+) = Rzv(-+) ,
Kvz(+) = Kzv(-+) .
Tra le due funzioni sussiste la relazione:
[1.68] Rzv(+) = Kzv(+) + #z #v ;
valgono inoltre le proprietà:
[1.69] R 2zv ( !) % Rzz(0) Rvv(0) = PzPv ,
14
[1.70]
K 2zv ( !) % Kzz(0) Kvv (0) = ! 2z ! 2v ,
avendo indicato con Pz e Pv e con ! 2z e ! 2v rispettivamente le potenze e le varianze dei
due processi discreti.
Due processi discreti congiuntamente stazionari si dicono incoerenti se la funzione di
intercorrelazione è nulla per ogni +, ossia si ha:
[1.71] Rzv(+) ' 0 .
Se invece tutti i valori della funzione di covarianza sono nulli:
[1.72] Kzv(+) = Rzv(+) - #z #v ' 0 ,
i due processi si denominano incorrelati. Due processi discreti stazionari statisticamente
indipendenti sono sempre incorrelati; se almeno uno ha valore medio nullo sono anche
incoerenti.
1.6.2. Processi discreti reali stazionari a valori discreti
Tutte le espressioni riportate sono applicabili anche a un processo discreto a valori
discreti, indicato con Zq(n), che corrisponde a una sequenza di infinite v.a. discrete, Zqk,
capaci di assumere uno dei precisati valori di un insieme discreto, {zq}, di cardinalità
finita M. Poiché, sempre nel caso stazionario e con limitazione al solo secondo ordine,
le v.a. discrete sono caratterizzate dalle probabilità:
[1.73] P(zq1; k1) = P(z q2; k2) = P(zq) =ˆ ,q ,
q = 1, 2 ,.., M ,
indipendenti dalla variabile intera di saggiatura, e dalle probabilità congiunte:
[1.74] P2(zi1, zj2; k1,k2) = P2(xi, xj; +) =ˆ ,ij (+) ,
i , j = 1, 2 ,.., M ,
che dipendono dalla differenza intera + = k1- k2, occorre però che l’operatore di media
statistica assuma le forme specifiche:
[1.75] E{F1} =ˆ
M
" F1! q
q=1
, E{F2} =ˆ
M M
# # F2 ! i j ( ")
i=1 j=1
,
dove F1 è funzione della v.a. discreta Zqk e F2 è in generale una funzione di entrambe le
v.a. discrete Zi1 e Zj2.