Cap.1. GENERALITÀ SUI PROCESSI STOCASTICI 1.1. SEGNALI ALEATORI E LORO SORGENTI Si è a volte fatto riferimento ai segnali quali veicoli di informazione: in proposito occorre tuttavia precisare che si tratta di segnali aleatori, in quanto quelli determinati, ossia già noti nel loro intero andamento temporale, non sono ovviamente portatori di alcuna informazione. Nei problemi di telecomunicazioni si incontrano sovente dei segnali la cui evoluzione nel tempo sfugge a caratterizzazioni di tipo deterministico, quali quelle richiamate in precedenza; vengono allora considerati di tipo casuale e trattati in forma statistica. È necessario prendere in considerazione tutti i possibili segnali con probabilità non nulla di essere osservati, poiché in generale ciascuno di essi considerato isolatamente non è sufficientemente rappresentativo. Allo scopo si vuole in questo paragrafo introdurre alcuni cenni sulle sorgenti dei flussi di informazione, anche per la migliore comprensione, in senso stocastico, tanto dei contenuti informativi, quanto delle caratteristiche dei segnali aleatori, oggetto della analisi condotta nei paragrafi successivi. In primo luogo, la emissione elementare di una informazione può essere schematizzata con la scelta del valore di una variabile aleatoria reale, nel seguito indicata con la notazione v.a.. La sorgente è denominata analogica se la v.a., Z, è continua, ossia se la sua generica determinazione, z, può assumere uno qualsiasi dei valori non numerabili in un intervallo noto, di norma finito; è invece denominata numerica, se la v.a., Zq, è discreta, ossia se la sua determinazione può assumere uno qualsiasi dei simboli che costituiscono un insieme, {zq} con q = 1, 2,.., M, discreto, numerabile e finito. Con riferimento al caso numerico, la considerata emissione elementare è riconducibile alla scelta di un simbolo, zq, tra gli M possibili diversi elementi che nel loro complesso formano un alfabeto M-nario. A tale evento si associa la quantità di informazione: 1 [1.1] I(zq) =ˆ log 2 , P(zq ) dove P(zq) è la probabilità di zq. La occorrenza di una delle due cifre binarie in condizione di equiprobabilità [P(0)=P(1)=!] corrisponde dunque alla unità di quantità di informazione, denominata bit. Sempre che i simboli siano equiprobabili, ossia si abbia: 1 [1.2] P(zq) = , M e che nella M = 2b sia b intero, la quantità di informazione, identica, di ciascun simbolo coincide con il numero b delle cifre binarie ad esso associabili. Considerando l’evoluzione di una sorgente, si passa al flusso di informazione. Nel caso analogico si ha molto spesso un flusso continuo nel tempo: volta per volta, si è allora di fronte alla generazione di una funzione campione, x(t), che costituisce la realizzazione di un processo stocastico continuo reale, indicato con X(t), comprendente tutte le realizzazioni possibili; il processo per ogni generico tempo t di saggiatura si riduce alla 2 v.a. continua Xt= X(t), come quella già precedentemente introdotta. Nella figura 1.1 sono mostrate alcune realizzazioni di un processo continuo, ponendo in evidenza le determinazioni della v.a. Xt, nell’istante t, così come quelle della v.a. Xt+!, nell’istante t+ !. x(t) t x(t) t . . . . . . . . . . . . . . . . . . . . . . . . x(t) t t t+! Fig. 1.1 - Esempio di realizzazioni di un processo continuo. Si ha anche il caso di flusso discreto di informazione analogica, contemplando ad esempio una sorgente che, volta per volta, genera una sequenza, z(n), che costituisce la realizzazione di un processo stocastico discreto reale, indicato con Z(n), comprendente tutte le realizzazioni possibili; il processo per ogni valore di saggiatura k della variabile intera n si riduce alla v.a. continua Zk, come quella già precedentemente introdotta; ossia il processo è una sequenza di v.a. continue. Il flusso di informazione di una sorgente numerica corrisponde sempre a un processo discreto reale, Zq(n), comprendente come realizzazioni tutti i flussi numerici volta per volta generabili, zq(n); ma, a differenza del caso immediatamente precedente, si ha un processo stocastico discreto a valori discreti, dato che per ogni generico valore intero di saggiatura, k, esso si riduce a una v.a. discreta: Zqk, che come già esposto ha per determinazione uno degli M possibili simboli dell'insieme {zq}. Il tipo di processo considerato è perciò una sequenza di v.a. discrete. I segnali aleatori che veicolano la informazione nei sistemi di telecomunicazione si ottengono dalle sorgenti a valle di opportuni procedimenti di conversione della natura fisica dei flussi di informazione: da quella generica con cui esso nasce, alla natura elettrica. Tali trattamenti sono attuati da trasduttori, apparati che non interessano la trasmissione e pertanto verranno in seguito ignorati, ritenendoli interni alle sorgenti. Se la sorgente è analogica, la forma emessa in modo casuale, ossia un segnale analogico, ha andamento aleatorio nel tempo analogo a quello del flusso di informazione considerato: di conseguenza anch'esso è la realizzazione di un processo continuo. Se invece la sorgente è numerica, si ha in corrispondenza un segnale numerico, con vario 3 andamento aleatorio, ma comunque sempre associato al flusso numerico di informazione considerato: tralasciando il caso astratto del segnale campionato numerico, nella pratica sia ha pertanto ancora la realizzazione di un processo continuo, seppure dipendente da un processo discreto a valori discreti. In definitiva, tutti i possibili segnali fisici aventi probabilità non nulla di transitare in un sistema di trasmissione, ma sempre generabili da sorgenti dello stesso tipo, nel loro insieme costituiscono un processo stocastico continuo reale, di cui la singola forma d'onda, x(t), è la realizzazione . 1.2. CARATTERIZZAZIONE DEI PROCESSI CONTINUI In un processo continuo reale X(t), ad ogni generico istante di saggiatura, t, corrisponde una v.a. continua, Xt=X(t), e i valori istantanei, xt = x(t), di tutte le possibili realizzazioni sono quelli che la v.a. Xt può assumere. La distribuzione dei valori xt è caratterizzata tramite la funzione: p(xt ; t) , denominata densità di distribuzione o anche densità di probabilità all'istante t; il valore di p(xt; t) dxt esprime infatti la probabilità che la Xt assuma al tempo t un valore compreso tra xt e xt+dxt. Più in generale, occorre la conoscenza della interdipendenza statistica di una ennupla di v.a., X1, X2,.., Xn, ottenute in corrispondenza degli istanti di saggiatura t1, t2, .., tn, tutti arbitrari. Si ricorre allora alla densità di distribuzione congiunta o anche densità di probabilità congiunta di ordine n: pn = pn (x1, x2,.., xn ; t1, t2, .., tn) ; ad esempio p2dx1dx2 rappresenta la probabilità che ai tempi t1 e t2 i valori assunti da X1 e X2 siano compresi rispettivamente tra x1 e x1+ dx1 e tra x2 e x2+ dx2. La conoscenza della funzione pn è sufficiente affinché siano note tutte le funzioni di ordine inferiore; si ha infatti: [1.3] pn-1 = ! p n dx n . Generalmente la v.a. Xn al tempo tn è condizionata dalla eventuale conoscenza delle v.a. estratte in corrispondenza dei precedenti istanti tn-1,.., t2, t1; si definisce quindi la densità di distribuzione condizionata o anche densità di probabilità condizionata di ordine uno e con n-1 condizionamenti: p|n-1 = p|n-1(xn ; tn | xn-1,.., x2, x1; t n-1,.., t2, t1) ; il valore di p|n-1dxn esprime la probabilità che al tempo tn la Xn assuma un valore compreso tra xn e xn+ dxn, sotto il condizionamento dei valori xn-1,.., x2, x1. Si ha poi: [1.4] pn = p|n-1pn-1(xn-1,.., x2, x1; t n-1,.., t2, t1) , 4 e reiterando la stessa [1.4]: [1.5] pn= p|n-1 p|n-2 p|n-3....p|1 p(x1; t1). Per caratterizzare completamente un processo non è sempre necessaria la conoscenza delle densità di probabilità di ordine comunque elevato, come nel seguito mostrato. Un caso particolarmente semplice è quello in cui si verifica la ipotesi di completa indipendenza statistica tra tutte le v.a. Xt, in corrispondenza di istanti di saggiatura diversi: allora tutte le funzioni condizionate si riducono alla densità di distribuzione del primo ordine e dalla [1.5] si ottiene che la densità di probabilità congiunta di ordine n si esprime semplicemente come il prodotto di n funzioni del primo ordine. Per particolari processi stocastici, detti processi di Markoff del primo ordine, la dipendenza statistica tra diversi valori di Xt si esaurisce con il valore contiguo, ossia vale per le funzioni condizionate di qualsiasi ordine la proprietà: [1.6] p|k-1 = p|1(xk; tk | xk-1;tk-1) ; dalla [1.5] risulta allora: [1.7] pn= p|1(xn ; tn | xn-1, tn-1)"""p|1(x2; t2| x1; t1) p(x1; t1). Ne segue che i processi del tipo considerato sono completamente descritti dalla densità di probabilità di secondo ordine (vedi [1.3]). Nei processi di Markoff di ordine n la descrizione è completa se si conosce la densità di probabilità di ordine n +1. Pur arrestando la conoscenza alla densità di probabilità del secondo ordine, è possibile il calcolo di alcune grandezze di un generico processo, atte a rappresentare sinteticamente almeno le sue più importanti caratteristiche. Nel seguito si rimarrà pertanto entro tale limitazione. Si adotti per l’operatore di media statistica la notazione: E {Fn } = ! Fn (v1, v 2 ,.., v n )p n (v1, v 2 ,.., v n )dv1 dv 2 ..dv n , n dove Fn è una funzione delle v.a. V1,V2,..,Vn e l’integrale è ennuplo. Al generico istante di saggiatura t1, stante la v.a. X1 = X(t1), si definiscono il valore medio statistico del processo (o speranza matematica), la potenza media statistica del processo e la varianza del processo, rispettivamente mediante le: [1.8] E{x1} = ! x1p(x1;t1 )dx1 =ˆ #(t1) , [1.9] E{|x1|2} = ! x1 p(x1;t1 )dx1 =ˆ P(t1) , 2 [1.10] E{|x1- E{x1}|2} = ! x1 -E(x1 ) p(x1;t1 )dx1 =ˆ $2(t1) , 2 5 che in generale risultano dipendenti dall'istante di saggiatura t1. si ha poi la proprietà: [1.11] $2(t1) = P(t1) - |#(t1)|2 . In corrispondenza della coppia di generici istanti di saggiatura t1 e t2 e tramite la intercorrelazione statistica tra le v.a. X1 = X(t1) e X2 = X(t2), espressa dalla densità di probabilità di secondo ordine, si definiscono la funzione di autocorrelazione del processo e la funzione di autocovarianza del processo, rispettivamente mediante le relazioni (1): [1.12] E {x1x!2 } = "" x1x!2 p 2 (x1, x 2 ;t1,t2 )dx1 dx 2 =ˆ R(t1,t2) , { [1.13] E !" x1 -E { x1 }#$!" x2 -E { x2 }#$ K(t1,t2); % } = "" (x -E{x }) (x -E{x }) p (x ,x ;t ,t )dx dx 1 1 2 2 ! 2 1 2 1 2 1 2 =ˆ vale inoltre la proprietà: [1.14] K(t1,t2) = R(t1,t2) - #( t1) #*(t2), ed è immediato constatare che per t2= t1 si hanno le relazioni: [1.15] R(t1,t1) = P(t1) , K(t1, t1) = $2(t1) , e quindi la [1.14] coincide in tale caso con la [1.11]. Si noti che tutte le grandezze introdotte sono caratteristiche del processo, ma sono in generale funzioni di una o di entrambe le variabili temporali indipendenti di saggiatura, t1 e t2. È rilevante inoltre osservare che, grazie alle proprietà [1.14] e [1.15], tutte le grandezze considerate risultano note o ricavabili a partire dalla sola conoscenza delle due grandezze: #(t1) , R(t1,t2) , che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica, limitata al secondo ordine, del processo. 1.3. PROCESSI CONTINUI STAZIONARI La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna successivamente utile nella estensione ai processi complessi. (1) 6 Nella realtà operativa della trasmissione i segnali, utili o indesiderati che siano, sono realizzazioni di processi stocastici. Se si considerano osservazioni molto prolungate le caratteristiche dei segnali nel dominio statistico (in particolare il valore medio e la funzione di autocorrelazione) non risultano invariate nel tempo: basti fare riferimento alla durata finita delle comunicazioni, nonché alla possibilità che su uno stesso collegamento transitino in tempi anche immediatamente successivi i segnali, in teoria tutti di energia finita, generati da sorgenti assai diverse (ad esempio sorgente vocale o di dati in banda fonica); d'altra parte il progetto e l'esercizio in opera degli apparati e dei mezzi che costituiscono i sistemi di trasmissione può essere basato sulle prestazioni di larga media osservabili in numerosi intervalli di breve durata. Ciò giustifica la prassi comune di estrapolare, su tutto l'asse dei tempi, le caratteristiche dei segnali, quali esse risultano da valutazioni statistiche compiute su intervalli temporali limitati, purché di durata sufficiente; in altri termini è spesso accettabile la ipotesi di invarianza nel tempo della natura aleatoria dei segnali in transito. Concludendo, è lecito concentrare l'attenzione su quella particolare categoria di processi, denominata dei processi stocastici continui stazionari, che a prescindere dalle caratteristiche che verranno precisate in seguito, hanno come realizzazioni segnali aleatori di potenza. Nei processi continui stazionari tutte le funzioni di densità di probabilità risultano invarianti rispetto a una traslazione temporale; in particolare, quindi, godono di tale proprietà anche le grandezze sintetiche poco sopra introdotte. I processi stocastici più interessanti per le telecomunicazioni, in quanto costituiscono una classe che comprende i precedenti, ma è molto più ampia, sono quelli debolmente stazionari o stazionari in senso lato, per i quali la proprietà considerata vale in riferimento alle funzioni del primo e secondo ordine; ossia ponendo t1 = t + ! e t2= t con ! qualsiasi, si ottiene una densità di probabilità del generico valore istantaneo x1 = x(t + !) indipendente dal tempo: [1.16] p(x1 ; t1) = p(x2 ; t2) = p(x1) = p(x2) , e una densità di probabilità congiunta della coppia di valori istantanei x1 = x(t + !) e x2 = x(t) che dipende da ! : [1.17] p2(x1, x2 ; t1, t2) = p2(x1, x2; !) . Nell’ambito della prassi qui seguita, di limitare la caratterizzazione dei processi al secondo ordine, non è dunque apprezzabile la differenza tra la stazionarietà effettiva e quella in senso lato: pertanto nel seguito tale distinzione verrà trascurata, ma il lettore ricordi che quanto ricavato per i processi della classe più ristretta è valido per quelli stazionari in senso lato. In un processo stazionario il valore medio statistico, la potenza e la varianza risultano delle costanti; si ottiene rispettivamente: [1.18] E{x(t)} = ! x1p(x1 )dx1 =ˆ #x , [1.19] E{|x(t)|2} = ! x1 p(x1 )dx1 =ˆ Px , 2 7 [1.20] E{|x(t) - E{x(t)}|2} = ! x1 -! p(x1 )dx1 =ˆ ! 2x . 2 Inoltre, le funzioni di autocorrelazione e di autocovarianza dipendono dalla differenza ! tra i due istanti di saggiatura e non dai loro valori in assoluto, ossia si ha (1) : [1.21] E {x(t+!)x" (t)} = "" x1 x2! p2 (x1,x 2 ;! )dx1 dx2 =ˆ Rxx(!) , { } [1.22] E !" x(t+! )-E { x(t+! )}#$!" x(t)-E { x(t)}#$ = % "" (x -! )(x -! ) p (x ,x ;" )dx dx 1 ! 2 2 1 2 1 2 =ˆ Kxx(!), dove sia Rxx(!) che Kxx(!) sono funzioni hermitiane: [1.23] Rxx(!) = R !xx (- " ) , Kxx(!) = K!xx (- " ) ; valgono poi le proprietà: [1.24] Rxx(!) = Kxx(!) + | #x|2 , |Rxx(!)| % Rxx(0) = Px , |Kxx(!)| % ! 2x , [1.25] Rxx(0) = Px = ! 2x + | #x|2 = Kxx(0) + | #x|2 . Sempre nell’ipotesi di stazionarietà si dimostrano le relazioni: [1.26] #x = E{ x } , Px = E{P xx} , Rxx(!) = E{Rxx(!)} , Kxx(!) = E{Kxx(!)} , dove x , P xx, Rxx(!) e Kxx(!) sono le rispettive grandezze relative alla generica singola realizzazione del processo, ossia il valore medio temporale, la potenza media temporale, la funzione di autocorrelazione temporale e la funzione di autocovarianza temporale. È rilevante osservare che, in virtù delle [1.24] e [1.25], tutte le grandezze considerate risultano note o ricavabili a partire dalla sola conoscenza del valore medio statistico e della funzione di autocorrelazione: #x , Rxx(!) , che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica di un processo stazionario. Mantenendo la ipotesi di stazionarietà, è possibile la definizione della densità spettrale di potenza o anche spettro di potenza del processo, tramite la relazione di WienerKhintchine: La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna successivamente utile nella estensione ai processi complessi. (1) 8 [1.27] Px( f ) =ˆ F{Rxx(!)} ; si ha la espressione: 2 1 [1.28] Px(f) = lim E X T (f) , T!" T { } dove con XT(f) si è indicata la trasformata di Fourier della generica realizzazione troncata nell’intervallo finito di osservazione T. Si noti che la funzione Px( f ) è reale per definizione, essendo Rxx(!) hermitiana, ed è non negativa in virtù della [1.28]; essa diviene una funzione pari nel caso, molto frequente, di processo reale. Servendosi delle [1.24] e [1.27] si ricava la espressione: [1.29] Px(f) = F{Kxx(!) + |#x|2} = F{Kxx(!)}+ | #x|2 &(f) , che evidenzia la esistenza di una componente spettrale discreta nella origine, legata al quadrato del modulo del valore medio statistico. Calcolando in ! = 0 l’antitrasformata di Fourier della [1.27] e rammentando la [1.25] si ricava: [1.30] Px = ! Px (f)df . Grazie alla relazione di Wiener-Khintchine, per caratterizzare un processo stazionario sono sufficienti il suo valore medio statistico, #x, e la sua densità spettrale di potenza, Px( f ). A patto di fare riferimento a tale ultima funzione, valgono le considerazioni sviluppate a proposito della estensione spettrale dei segnali determinati: nel caso di processi fisici stazionari è dunque sempre possibile adottare le denominazioni di processi in banda base e di processi in banda traslata, adoperando rispettivamente le condizioni fM>>fm e fM<2fm dove fm e fM sono gli estremi della banda monolatera del processo. Un sottoinsieme particolarmente interessante di processi stazionari è quello dei processi ergodici, per i quali la singola realizzazione, x(t), osservata su tutto l'asse dei tempi, contiene tutte le proprietà statistiche del processo, così che le grandezze medie temporali convergono tutte, con probabilità tendente a uno, alle corrispondenti medie statistiche. Indicati sempre con x , P xx, Rxx(!) e Kxx(!) rispettivamente il valore medio, la potenza e le funzioni di autocorrelazione e di autocovarianza della generica singola realizzazione del processo, si hanno le relazioni: [1.31] x = #x , P xx = Px , Rxx (!) = Rxx(!) , Kxx(!) = Kxx(!) . La conoscenza dell'intero andamento temporale di una sola realizzazione consente quindi la determinazione delle grandezze sintetiche del processo stazionario ergodico a cui essa appartiene. 1.4. INTERCORRELAZIONE NEI PROCESSI STAZIONARI 9 Si consideri una coppia di processi reali continui, X(t) e Y(t), congiuntamente stazionari, ossia per cui entrambe le densità di probabilità del primo ordine siano indipendenti dal tempo (vedi [1.16]) e la densità di probabilità congiunta della coppia di valori istantanei x1 = x(t + !) e y2 = y(t) dipenda dalla differenza ! = t1- t2 tra gli istanti di saggiatura e non dai loro valori assoluti. Oltre alle grandezze caratteristiche già introdotte per ciascun processo (nel seguito distinte tramite l’aggiunta del pedice singolo x o y), in analogia con le [1.21] e [1.22] si definiscono la funzione di intercorrelazione e la funzione di covarianza mutua della coppia di processi(1), che risultano entrambe funzioni di !: [1.32] E{x(t + !) y*(t)} =ˆ Rxy(!) , [1.33] E{[x(t + !) - #x][y(t) - #y]*} =ˆ Kxy(!) , dove #x e #y sono i valori medi statistici; scambiando tra loro i pedici nelle [1.32] e [1.33], si dimostrano le (con il cambio di variabile z = t + ! ): [1.34] Ryx(!) =R !xy (-! ) , Kyx(!) = K!xy (- " ) . Tra le funzioni sussiste la relazione: [1.35] Rxy(!) = Kxy(!) + #x !"y ; valgono inoltre le proprietà: [1.36] |Rxy(!)|2 % Rxx(0)Ryy(0) = PxPy , [1.37] |Kxy(!)|2 % Kxx(0)Kyy(0) = ! 2x ! 2y , avendo indicato con Px e Py e con ! 2x e ! 2y rispettivamente le potenze e le varianze dei processi. Definita poi la densità spettrale mutua di potenza dei processi: [1.38] Pxy( f ) =ˆ F{Rxy(!)}, si ha la relazione: [1.39] Pxy( f ) = lim T!" 1 E X (f)YT# (f)} , T { T dove XT(f) e YT(f)sono le trasformate di Fourier delle generiche realizzazioni troncate nell’intervallo finito di osservazione T; scambiando tra loro i pedici, si ottiene: La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna successivamente utile nella estensione ai processi complessi. (1) 10 [1.40] Pxy! (f ) = Pyx( f ) = F{Ryx(!)} . Dalla [1.39] si nota che la densità spettrale mutua di potenza è diversa da zero solo alle frequenze per cui sono entrambe non nulle le densità spettrali di potenza dei processi X(t) e Y(t) considerati. Si osservi che nel caso di processi congiuntamente stazionari entrambi reali, le funzioni di intercorrelazione e di covarianza sono sempre funzioni reali, mentre la densità spettrale mutua di potenza è in generale una funzione hermitiana della frequenza. Due processi congiuntamente stazionari si dicono incoerenti se la funzione di intercorrelazione è nulla per ogni !, ossia si ha: [1.41] Rxy(!) ' 0 ; servendosi della [1.38] si ricava in tal caso che la densità spettrale mutua di potenza si annulla anch’essa per ogni frequenza: [1.42] Pxy( f ) ' 0 , se: Rxy(!) ' 0 . Se invece la funzione di covarianza è nulla per ogni !: [1.43] Kxy(!) = Rxy(!) - #x !"y ' 0 , i due processi si denominano incorrelati; sempre dalla [1.38] risulta allora che la densità spettrale mutua di potenza consiste in una sola componente discreta nella origine: [1.44] Pxy( f ) = #x !"y &(f) , se: Kxy(!) ' 0 . Qualora sia nullo il valore in ! = 0 della funzione di intercorrelazione, ossia si abbia: [1.45] Rxy(0) = E{x(t) y*(t)} = 0, i due processi, nel medesimo generico istante di saggiatura, danno luogo a una coppia di v.a. X(t) e Y(t) ortogonali; risulta in tal caso (vedi [1.40]): [1.46] " Pxy (f)df= " !{ P (f)} df=0 , xy se: Rxy(0) = 0. Due processi continui stazionari statisticamente indipendenti , per cui le densità di probabilità congiunte di vario ordine si riducono ai prodotti delle densità congiunte di ciascun processo preso separatamente: [1.47] pn+m(x1, x2,.., xn, y1, y2,.., ym) = pn(x1, x2,.., xn) pm(y1, y2,.., ym), sono sempre incorrelati. Se almeno uno ha valore medio nullo sono anche incoerenti. 11 1.5. PROCESSO SOMMA E PROCESSO COMPLESSO Si consideri il processo continuo, A(t), con realizzazioni a(t) = x(t) + y(t) date dalla somma di quelle di due processi reali congiuntamente stazionari, e si applichino le [1.18] e [1.21]. Data la linearità dell'operatore di media statistica, E{•}, il valore medio statistico risulta: [1.48] #a= E{x(t)+y(t)}= E{x(t)}+E{y(t)}= #x+#y. Si ottiene poi la funzione di autocorrelazione: [1.49] Raa(!) = E{[x(t + !) + y(t + !)] [x(t) + y(t)]*} = = E{x(t + !)x*(t)}+ E{y(t + !) y*(t)}+ E{x(t + !)y*(t)}+E{y(t+!)x*(t)}= = Rxx(!)+Ryy(!)+Rxy(!)+Ryx(!) . Il processo somma considerato è dunque anch'esso stazionario. Grazie alle [1.28] e [1.40] si ha inoltre: [1.50] Pa( f ) = Px( f ) + Py( f ) + 2({Pxy( f )} . La incoerenza dei due processi addendi (vedi [1.41] e [1.42]) è allora condizione sufficiente affinché i processi X(t) e Y(t) si sommino in potenza, così come in densità spettrale di potenza: [1.51] Pa= Px+ Py , Pa( f ) = Px( f ) + Py( f ) , se: Rxy(!) ' 0 . La regola della semplice somma in potenza vale inoltre anche nel caso che i due processi reali diano luogo a v.a. ortogonali, come dimostrabile integrando la [1.50] e applicando la [1.46]; pertanto qualora la funzione di intercorrelazione sia nulla nella origine si usa la denominazione di processi additivi in potenza: [1.52] Pa= Px+ Py , se: Rxy(0) = " Pxy (f)df= " !{ P (f)} df=0 . xy Si rammenti che in generale non risultano però sommabili gli spettri di potenza, ossia si ha Pa( f ) ) Px( f ) + Py( f ). Si noti infine che l'indipendenza statistica tra i due processi addendi, che risultano allora incorrelati, permette la semplice somma delle potenze e degli spettri solo a patto che almeno uno dei due processi abbia valore medio nullo (vedi [1.42] e [1.43]). Un secondo caso interessante, per cui è ancora sfruttabile la linearità dell’operatore di media statistica, è quello del processo complesso, B(t), con realizzazioni b(t)=x(t)+jy(t) dove X(t) e Y(t) sono ancora due processi reali congiuntamente stazionari. Applicando le [1.18] e [1.21], si ricava il valore medio statistico: 12 [1.53] #b = E{x(t)+jy(t)} = E{x(t)}+jE{y(t)}= #x+j#y. Si ottiene poi la funzione di autocorrelazione: [1.54] Rbb(!) = E{[x(t+!)+jy(t+!)][x(t)+jy(t)]*}= = E{x(t + !)x*(t)}+ E{y(t + !)y*(t)}-jE{x(t+!)y*(t)}+jE{y(t+!)x*(t)}= = Rxx(!)+Ryy(!)-j[Rxy(!)-Ryx(!)] . Il processo complesso considerato è dunque anch'esso stazionario. Grazie alle [1.27], [1.38] e [1.40] si ha inoltre: [1.55] Pb(f) = Px(f)+Py(f)+2*{Pxy(f)}. Ponendo ! = 0 nelle [1.36] e [1.54], si ricava che la potenza del processo complesso considerato è sempre la somma delle potenze dei due processi che si compongono: [1.56] Pb = Px + Py ; la loro eventuale incoerenza (vedi [1.42]) è allora condizione sufficiente affinché sia valida anche la semplice relazione riguardante le densità spettrali di potenza: [1.57] Pb(f) = Px(f)+Py(f), se: Rxy(!) ' 0 . 1.6. PROCESSI DISCRETI REALI STAZIONARI 1.6.1. Processi discreti reali stazionari a valori contini A valle di quanto sopra richiamato, è semplice da esaminare il caso di un processo discreto reale, indicato con Z(n), costituito da una sequenza di infinite v.a. reali continue, Zk, caratterizzate dalle funzioni di densità di probabilità di vario ordine riguardanti le determinazioni zk = z(k). In corrispondenza di due generiche variabili intere di saggiatura, k1 e k2, della variabile intera n, con lo stesso formalismo delle [1.8] [1.15] si ottengono il valore medio statistico, #(k1), la potenza media statistica, P(k1), la varianza, $2(k1), così come la funzione di autocorrelazione, R(k1,k2), e la funzione di autocovarianza del processo discreto, K(k1,k2). Nel caso di interesse, dei processi discreti stazionari o stazionari in senso lato, la densità di probabilità del primo ordine è indipendente da k e quella del secondo ordine é invariante rispetto a una sua generica traslazione. Di conseguenza il valore medio statistico, la potenza e la varianza risultano delle costanti, indipendenti dalla variabile intera di saggiatura, mentre le funzioni di autocorrelazione e di autocovarianza dipendono dalla differenza intera, + = k1-k2, delle due variabili di saggiatura e non dai loro valori in assoluto; si hanno poi le seguenti espressioni: 13 [1.58] E{z(k)} = ! z k p(z k )dz k =ˆ #z , [1.59] E{ z 2 (k)} = ! z 2k p(z k )dz k =ˆ Pz , [1.60] E{[z(k) - E{z(k)}]2} = " ( z k -!z ) p(z k )dz k =ˆ ! 2z , 2 [1.61] E{z(k + +) z(k)} = "" z k +!z k p 2 (z k +!,z k ;!)dz k +! dz k =ˆ Rzz(+) , [1.62] E{[z(k + +) - #z] [z(k) - #z]}= ## (z k +! -"z )(z k -"z )p 2 (z k +!,z k ;!)dz k +! dz k =ˆ Kzz(+) , dove entrambe le grandezze Rzz(+) e Kzz (+) sono funzioni pari e valgono le proprietà: [1.63] Rzz(+) = Kzz(+) + !2z , |Rzz(+)| % Rzz(0) = Pz , |Kzz(+)| % Kzz(0) = ! 2z , [1.64] Rzz(0) = Pz = ! 2z + !2z = Kzz(0) + !2z . Come nel caso di processo continuo, il valore medio statistico e la funzione di autocorrelazione sono sufficienti a caratterizzare un processo discreto stazionario. Considerando una coppia di processi discreti reali, Z(n) e V(n), entrambi congiuntamente stazionari, in aggiunta alle grandezze sintetiche sopra introdotte per ciascun processo, e in seguito distinte tramite l'aggiunta del pedice singolo z o v , si definiscono la funzione di intercorrelazione e la funzione di covarianza mutua della coppia di processi: [1.65] E{z(k + +) v(k)} =ˆ Rzv(+) , [1.66] E{[z(k + +) - #z] [v(k) - #v]} =ˆ Kzv(+) , dove #z e #v sono i valori medi statistici; scambiando tra loro i pedici nelle [1.65] e [1.66], si dimostrano le: [1.67] Rvz(+) = Rzv(-+) , Kvz(+) = Kzv(-+) . Tra le due funzioni sussiste la relazione: [1.68] Rzv(+) = Kzv(+) + #z #v ; valgono inoltre le proprietà: [1.69] R 2zv ( !) % Rzz(0) Rvv(0) = PzPv , 14 [1.70] K 2zv ( !) % Kzz(0) Kvv (0) = ! 2z ! 2v , avendo indicato con Pz e Pv e con ! 2z e ! 2v rispettivamente le potenze e le varianze dei due processi discreti. Due processi discreti congiuntamente stazionari si dicono incoerenti se la funzione di intercorrelazione è nulla per ogni +, ossia si ha: [1.71] Rzv(+) ' 0 . Se invece tutti i valori della funzione di covarianza sono nulli: [1.72] Kzv(+) = Rzv(+) - #z #v ' 0 , i due processi si denominano incorrelati. Due processi discreti stazionari statisticamente indipendenti sono sempre incorrelati; se almeno uno ha valore medio nullo sono anche incoerenti. 1.6.2. Processi discreti reali stazionari a valori discreti Tutte le espressioni riportate sono applicabili anche a un processo discreto a valori discreti, indicato con Zq(n), che corrisponde a una sequenza di infinite v.a. discrete, Zqk, capaci di assumere uno dei precisati valori di un insieme discreto, {zq}, di cardinalità finita M. Poiché, sempre nel caso stazionario e con limitazione al solo secondo ordine, le v.a. discrete sono caratterizzate dalle probabilità: [1.73] P(zq1; k1) = P(z q2; k2) = P(zq) =ˆ ,q , q = 1, 2 ,.., M , indipendenti dalla variabile intera di saggiatura, e dalle probabilità congiunte: [1.74] P2(zi1, zj2; k1,k2) = P2(xi, xj; +) =ˆ ,ij (+) , i , j = 1, 2 ,.., M , che dipendono dalla differenza intera + = k1- k2, occorre però che l’operatore di media statistica assuma le forme specifiche: [1.75] E{F1} =ˆ M " F1! q q=1 , E{F2} =ˆ M M # # F2 ! i j ( ") i=1 j=1 , dove F1 è funzione della v.a. discreta Zqk e F2 è in generale una funzione di entrambe le v.a. discrete Zi1 e Zj2.