SPETTRO DI POTENZA DI UN PROCESSO STOCASTICO I segnali aleatori vengono comunemente denominati processi stocastici. Per un processo stocastico non è definibile, e dunque calcolabile, la trasformata di Fourier. La ragione di ciò è qualitativamente evidente: la trasformata di Fourier presuppone la conoscenza (se non in forma analitica esplicita, almeno in termini di sequenza numerica) dell’andamento del segnale. Questo è sempre possibile, fermi restando i limiti di applicabilità della trasformata, per un segnale determinato, la cui evoluzione temporale è nota ed univocamente assegnata, mentre non è possibile per un processo stocastico, la cui evoluzione temporale può solo essere descritta statisticamente. Quanto sopra osservato, comunque, non implica che per un processo stocastico non sia individuabile una descrizione in frequenza; semplicemente non si tratterà della trasformata di Fourier del segnale ma di un’altra funzione, che chiameremo “spettro di potenza del processo”, e la cui utilizzazione pratica, ad esempio ai fini della valutazione della banda occupata, avrà molte similitudini con quella della classica trasformata. Per introdurre appropriatamente il concetto di spettro di potenza (o “densità spettrale di potenza”) di un processo stocastico, è preliminarmente opportuno ricordare alcune definizioni e proprietà di validità generale. Si consideri la Figura 1 la quale illustra alcune possibili realizzazioni di un generico processo stocastico x(t). Al fine di descrivere statisticamente il processo, si può fissare l’attenzione sul valore assunto da x(t) in un generico istante (ad esempio t1) e valutare la densità di probabilità f1(x1; t1) 1 della variabile aleatoria estratta x1 = x(t1). Allo stesso modo si può considerare un altro istante (ad esempio t2) e valutare la corrispondente f2(x2; t2) che in questo caso rappresenterà la densità di probabilità della variabile aleatoria estratta x2 = x(t2). La procedura può ovviamente essere estesa ad un numero arbitrario di istanti (e quindi di variabili aleatorie estratte). Figura 1 La conoscenza delle densità di probabilità del primo ordine costituisce una prima e più semplice descrizione statistica del processo stocastico. Una descrizione più accurata si ottiene prendendo in 1 Rispetto ad altra parte del Corso, qui viene utilizzata una notazione leggermente semplificata; in particolare, come indice della funzione densità di probabilità si utilizza il numero d’ordine della variabile e non il nome per esteso della variabile. Inoltre, le variabili aleatorie estratte vengono indicate con la lettera minuscola. 1 esame, contemporaneamente, due istanti generici (ad esempio t1 e t2) e valutando la densità di probabilità congiunta f12(x1, x2; t1, t2). Anche in questo caso, può essere in tal modo costruito un numero arbitrario di funzioni densità di probabilità del secondo ordine (vale a dire: densità di probabilità congiunte di due variabili aleatorie estratte dal processo). Come si avrà modo di verificare nel seguito, la conoscenza di f12(x1, x2; t1, t2) costituisce una descrizione sufficientemente dettagliata per la soluzione della maggior parte dei problemi. Nondimeno, si può rendere il metodo sempre più completo considerando 3, 4, 5, …, n istanti di tempo, e valutando la corrispondente densità di probabilità di ordine n, vale a dire f12…n(x1, x2, …, xn; t1, t2,…, tn). Per le variabili aleatorie estratte dal processo sono ovviamente calcolabili le medie d’insieme (vale a dire: momenti e momenti centrali delle singole variabili aleatorie estratte, nonché momenti e momenti centrali congiunti) in accordo con le definizioni più generali. Così il valore medio di x1 sarà dato da: +∞ x1 = ∫ x1 f1 ( x1; t1 )dx1 (1) −∞ Analogamente, il momento congiunto di ordine (1, 1) delle variabili x1 e x2 si otterrà come: +∞ +∞ x1 x2 = ∫ ∫ x1x2 f12 ( x1, x2 ; t1 , t2 )dx1dx2 (2) −∞ −∞ Il momento congiunto di ordine (1, 1), che rappresenta la correlazione tra le variabili aleatorie estratte x1 e x2; prende anche il nome di autocorrelazione statistica del processo e si indica con R(t1, t2). Si noti che nelle definizioni delle densità di probabilità, e delle medie d’insieme (1) e (2), le variabili aleatorie sono le xi mentre il tempo svolge il ruolo di parametro. In generale, le densità di probabilità del primo ordine sono diverse al variare dell’istante ti considerato e le densità di ordine superiore dipendono singolarmente dagli istanti ti, tj, …, tk. Processi stocastici con queste caratteristiche sono però di interesse solo in particolari applicazioni. Più frequentemente, si può ritenere vera la circostanza che una traslazione arbitraria dell’origine dei tempi dell’intero processo non ne modifichi le caratteristiche statistiche; con riferimento alle definizioni precedenti, ciò comporta che: 1) la densità del primo ordine è indipendente da t, ed è quindi la stessa per ogni possibile variabile aleatoria estratta; 2) la densità del secondo ordine dipende solo dalla differenza τ = t2 – t1; 3) la densità di probabilità di ordine n dipende solo dagli n – 1 parametri τi = ti+1 – ti, per i = 1, 2, …, n – 1. Un processo di questo tipo si dice stazionario in senso stretto e, per esso, le densità di probabilità del primo e del secondo ordine si scrivono f(x) e f12(x1, x2; τ), rispettivamente. Accanto alla stazionarietà in senso stretto si può definire anche la stazionarietà in senso lato; gode di tale proprietà un processo il cui valore medio (1) è indipendente da t e la cui autocorrelazione statistica (2) dipende dalla sola differenza τ = t2 – t1. La stazionarietà in senso stretto implica, ovviamente, la stazionarietà in senso lato, mentre non è vero il viceversa. 2 La proprietà di stazionarietà è propedeutica ad un altro fondamentale concetto: quello di ergodicità. In un processo ergodico ogni realizzazione 2 è tipica del processo nel senso che la sua osservazione per un tempo sufficientemente lungo consente di estrarre tutte le proprietà del processo. Per comprendere il senso di questa affermazione si pensi alla procedura che consente di ricavare, ad esempio sperimentalmente, la densità di probabilità del primo ordine del processo. Si può pensare di osservare un numero sufficientemente elevato (pari a N) di realizzazioni del processo: fissando l’attenzione sull’istante t1, così come mostrato in Figura 2, si registrano i valori delle ampiezze assunte dal processo e si riportano i valori ottenuti in un istogramma. A partire da un’assegnata discretizzazione dei valori di x1, l’istogramma fornisce quindi la frequenza relativa con la quale sono stati registrati i valori appartenenti a distinti intervalli della discretizzazione. Normalizzato al numero di osservazioni effettuate, l’istogramma fornisce quindi una stima f1*(x1; t1) della densità di probabilità f1(x1; t1). L’accuratezza della stima può essere arbitrariamente migliorata aumentando il livello della risoluzione orizzontale (vale a dire, riducendo l’estensione degli intervalli) ed assumendo un valore di N via via più elevato. Figura 2 Supponiamo ora di considerare, in luogo di N distinte realizzazioni del processo, un’unica realizzazione (ad esempio x(1)(t)) e di ripetere la costruzione dell’istogramma questa volta a partire da N “spezzoni” della realizzazione considerata, ciascuno di durata Δt e con inizio in istanti ϑi 2 Alcuni testi usano il termine “manifestazione” anziché “realizzazione” del processo. 3 equispaziati di Δϑ. La procedura è illustrata in Figura 3: gli spezzoni vengono allineati in modo da far coincidere l’origine dei tempi e accanto alla realizzazione di partenza x(1)(t) se ne considerano altre N – 1, indicate con x’(i)(t) (i = 2, 3, …, N) e tali che x’(i)(t) = x(1)[t + (i – 1) Δϑ]. Come detto, la stima della densità di probabilità può essere ora ricavata a partire dalle x(1)(t), x’(2)(t), …, x’(N)(t); se il risultato che in tal modo si ottiene è identico a quello ottenuto in precedenza, qualunque sia la realizzazione x(1)(t) considerata, il processo x(t) si dice ergodico nella densità di probabilità del primo ordine. Figura 3 In modo analogo l’istogramma può essere utilizzato per stimare la densità di probabilità del secondo ordine o una qualunque media di insieme (valore medio, autocorrelazione statistica, …); se la generica proprietà del processo può essere ricavata, nel senso precisato, dall’osservazione di una sua unica realizzazione, il processo si dirà ergodico nella corrispondente proprietà. Un processo ergodico in tutte le sue densità di probabilità (di ordine qualsiasi) si dirà, genericamente, ergodico. Se le considerazioni qualitative precedenti fossero state formalizzate in termini rigorosamente analitici, ci saremmo resi conto che l’ergodicità presuppone la stazionarietà; in altre parole, non può essere ergodico un processo che non è stazionario. Ci si domanda allora se, e quali, processi reali possono essere considerati ergodici. Un esempio tipico che si considera ai fini della comprensione è quello di una persona che parla davanti a un microfono, ed il processo stocastico consiste nell’andamento temporale della tensione ai capi del microfono stesso. A rigore, la proprietà di stazionarietà dovrebbe essere verificata su un intervallo temporale arbitrariamente esteso; in altre parole, ciò significa che la sorgente dovrebbe rimanere “identica a sé stessa” (dal punto di vista delle proprietà statistiche) per un tempo illimitato. E’ chiaro che nessuna sorgente reale (e men che meno il parlatore davanti al microfono) può essere esaminata per un tempo infinito; sarà allora sufficiente che la proprietà di stazionarietà risulti verificata per il tempo, più o meno lungo, di osservazione. Ciò posto, è noto che la struttura della voce umana è diversa da parlatore a parlatore, in funzione dell’età, del sesso, della nazionalità, ecc., e questo si riflette in una diversa struttura probabilistica dei segnali aleatori emessi. Su queste basi, sembra impossibile che l’osservazione di un’unica realizzazione consenta di individuare le caratteristiche statistiche dell’intero processo che dunque, viene da concludere, non sarà ergodico. Tuttavia, in molti casi, si può supporre che il parlatore non sia una generica persona, ma una di caratteristiche fonetiche precisate (una sorta di “parlatore medio”) per il quale dunque le caratteristiche delle varie realizzazioni siano effettivamente identiche tra loro. Da un diverso punto 4 di vista, si può dire che la maggior parte dei processi reali non sono “intrinsecamente” ergodici ma possono essere “separati” in (ovvero “ridotti” a) processi più semplici e singolarmente ergodici. Se il numero di sottoinsiemi che contengono la totalità delle realizzazioni è finito questa riduzione ha significato operativo e consente di studiare in maniera efficace tutte le situazioni di pratico interesse. D’altro canto, si dimostra che in un processo stazionario riducibile vi è coincidenza tra media d’insieme e corrispondenti valori medi temporali valutati per ciascuna sorgente ridotta e mediati probabilisticamente rispetto alle probabilità di ciascuna sorgente ridotta. Quest’ultima proprietà introduce, indirettamente, il vantaggio che si ha nel considerare sorgenti ergodiche rispetto a sorgenti che non lo sono. Accanto alle medie statistiche (1) e (2) è sempre possibile, per un processo stocastico, considerare anche le medie temporali; arrestandoci alle medie del primo e del secondo ordine, il valore medio temporale di una generica realizzazione del processo x(t) è definito come: ____ Δt / 2 1 ∫ x(t )dt Δt →∞ Δt −Δt / 2 x(t ) = lim (3) mentre la sua autocorrelazione temporale vale 3 : Δt / 2 _____ 1 R(τ ) = lim ∫ x(t ) x(t + τ )dt Δt →∞ Δt −Δt / 2 (4) La generica realizzazione del processo, una volta specificata (vale a dire, misurata o registrata), può essere riguardata come un particolare segnale determinato a potenza finita. Per esso si può dunque definire una densità spettrale di potenza (o, semplicemente, spettro di potenza) p(ω) che, in accordo con quanto visto a suo tempo sui segnali determinati, sarà data da: p(ω ) = lim Δt →∞ X Δ (ω ) 2 (5) Δt dove XΔ(ω) è la trasformata di Fourier del segnale che si ottiene considerando x(t) entro un intervallo, centrato nell’origine e di estensione Δt. In generale, peraltro, la (5) fornisce un andamento diverso a seconda della particolare realizzazione considerata. Nel caso di processo ergodico, invece, si dimostra il seguente fondamentale risultato: le medie d’insieme (vale a dire le medie statistiche) coincidono con le medie temporali e possono essere calcolate a partire da un’unica, e generica, realizzazione del processo. Così, se il processo è ergodico almeno nel suo valor medio la (3) coincide con la (1) e fornisce lo stesso risultato qualunque sia la realizzazione considerata. Analogamente, se il processo è ergodico nella sua autocorrelazione statistica tutte le realizzazioni del processo hanno la stessa funzione di autocorrelazione (4) e quest’ultima coincide con il momento congiunto di ordine (1, 1) delle variabili aleatorie estratte x1 e x2, a distanza τ, fornito dalla (2). L’importanza pratica di queste proprietà è notevolissima: in primo luogo si ribadisce la possibilità di caratterizzare il processo dall’osservazione di un’unica realizzazione; inoltre, le quantità di interesse possono essere calcolate utilizzando indifferentemente i parametri statistici o quelli temporali, in funzione di ciò che si conosce o che è più opportuno valutare. Nella parte relativa ai segnali determinati l’autocorrelazione di un segnale s(t) era stata indicata con Rs(τ). Qui, per evitare confusione, si è preferito utilizzare una notazione più esplicita, introducendo la sopralineatura, come per il valore medio temporale. 3 5 Per ultimo, si può enunciare il seguente fondamentale risultato, la cui dimostrazione è ovvia alla luce delle considerazioni precedenti e che va sotto il nome di teorema di Wiener-Khintchine: se il processo x(t) è stazionario ed ergodico, almeno nella sua autocorrelazione, lo spettro di potenza del processo ad esso associato risulta la trasformata di Fourier della sua autocorrelazione statistica R(τ). Come esempio di applicazione del teorema si può considerare il caso, importante in pratica, di un segnale binario completamente causale. Per esso si trova che la funzione di autocorrelazione statistica vale 4 : ⎧ τ ⎪1 − R (τ ) = ⎨ T ⎪ ⎩0 τ ≤T (6) τ >T essendo T il tempo di simbolo. Visto che tale processo è stazionario e può essere considerato ergodico, la trasformata di Fourier della (6) fornisce lo spettro di potenza che sarà 5 : ⎛ ωT ⎞ sin 2 ⎜ ⎟ ⎝ 2 ⎠ p (ω ) = T 2 ⎛ ωT ⎞ ⎜ ⎟ ⎝ 2 ⎠ (7) Sempre in virtù dell’ergodicità, e delle proprietà ad essa associate, si può osservare che la potenza del processo stocastico coincide con il momento di ordine 2 (valore quadratico medio) della generica variabile aleatoria estratta. Visto che le medie d’insieme coincidono con le medie temporali, si ha infatti: Δt / 2 _____ 1 2 P = lim x t dt = R (0) = R(0) = x12 ( ) Δt →∞ Δt ∫ − Δt / 2 (8) ove l’ultimo membro della (8) dà lo stesso risultato qualunque sia l’istante t1 considerato. D’altro canto, dallo conoscenza dello spettro p(ω), ora associato univocamente al processo ergodico, è possibile, come già si faceva per i segnali determinati, definire la banda (vale a dire l’occupazione spettrale del segnale) come l’intervallo di frequenze, centrato sul valore massimo, che contiene una percentuale prefissata della potenza complessiva. Ciò in ragione del fatto che facendo passare il segnale attraverso un filtro con banda passante pari a tale intervallo, se la percentuale di potenza è stata scelta appropriatamente la distorsione subita dal segnale sarà minima. Così, ad esempio, per semplice integrazione numerica si trova che il 95% della potenza complessiva del segnale binario completamente casuale, il cui spettro di potenza è fornito dalla (7), è contenuto nell’intervallo [–B, B] con B ≈ 1.5/T. Infine giova ricordare che, come già nel transito di un segnale di potenza determinato attraverso un sistema lineare, anche lo spettro di potenza di un processo stocastico ergodico viene alterato in ragione del modulo al quadrato della funzione di trasferimento H(ω) del sistema che attraversa. Indicando con y(t) il processo in uscita e con x(t) il processo in ingresso si ha cioè: 4 Il segnale binario completamente casuale è discusso in dettaglio in un’altra dispensa. Si tratta della trasformata di una funzione triangolare, che è già stata calcolata nella parte relativa ai segnali determinati. 5 6 2 p y (ω ) = H (ω ) p x (ω ) (9) Questa relazione è estremamente utile nelle applicazioni. 7 TEOREMA DI WIENER-KHINTCHINE GENERALIZZATO Benché l’ipotesi di stazionarietà (semplice da verificare) e in subordine quella di ergodicità (più difficile da verificare) siano spesso soddisfatte entro i limiti della “ragionevolezza” per la specifica applicazione 6 , possono esservi situazioni, pure di pratico interesse, in cui ciò non è vero. Per questa classe di segnali, dei quali risultano validi esponenti, come si vedrà successivamente, i segnali in modulazione, sembrerebbe allora venir meno lo strumento operativo per il calcolo dello spettro di potenza (e, con esso, la possibilità di ricavare la rappresentazione in frequenza del processo stocastico). In realtà, si definisce il seguente Teorema di Wiener-Khintchine generalizzato: • se per ogni valore finito di τ e per ogni intervallo A di estensione pari a |τ| la funzione di autocorrelazione del segnale aleatorio x(t) soddisfa la condizione: ∫R X (t + τ, t )dt < ∞ (10) A allora la densità spettrale di potenza di x(t) è la trasformata di Fourier della funzione RX(t + τ, t) mediata rispetto a t; in formule, indicando con SX(f) la densità spettrale di potenza, si ha: T /2 ⎡ ⎤ 1 S X ( f ) = F ⎢ lim R X (t + τ, t )dt ⎥ ⎢T →∞ T ⎥ −T / 2 ⎣ ⎦ ∫ (11) dove F[⋅] sta ad indicare la trasformata di Fourier. La dimostrazione del teorema è omessa per semplicità. 6 Come si è detto in precedenza, la stazionarietà deve essere verificata all’interno dell’intervallo di osservazione del processo; mentre, per quanto concerne l’ergodicità, è spesso conveniente suddividere le realizzazioni in classi, considerando cioè sorgenti ridotte che, singolarmente, possono essere considerate ergodiche. 8 SEGNALI CICLOSTAZIONARI Un importante esempio di applicazione del teorema di Wiener-Khintchine generalizzato si ha con i segnali ciclostazionari. Si definisce ciclostazionario un segnale aleatorio x(t) il cui valore medio E[x(t)] e la cui funzione di autocorrelazione RX(t + τ, t) sono funzioni periodiche di periodo (comune) T0; risultano, cioè, verificate le condizioni 7 : E[ x(t + T0 )] = E[ x(t )] , (12) R X (t + τ + T0 , t + T0 ) = R X (t + τ, t ) . (13) Perché un processo ciclostazionario verifichi le ipotesi del teorema di Wiener-Khintchine generalizzato è sufficiente che risulti: T0 ∫R X (t + τ, t )dt < ∞ . (14) 0 Se dunque la (14) è verificata, la densità spettrale di potenza del processo vale: ⎡ _______ ⎤ S X ( f ) = F ⎢ R X (τ) ⎥ ⎣ ⎦ (15) essendo _______ 1 R X (τ) = T0 T0 / 2 ∫R X (t + τ, t )dt . (16) −T0 / 2 Un esempio molto significativo di segnale ciclostazionario è costituito dal segnale in modulazione di ampiezza con portante sinusoidale 8 : y (t ) = x(t ) cos(2πf 0 t ) (17) con x(t) (segnale modulante) per ipotesi stazionario ed ergodico nella sua funzione di autocorrelazione RX(τ) = E[x(t)x(t + τ)]. Per il segnale modulato y(t) si ha: E[ y (t )] = E[ x(t ) cos(2πf 0 t )] = E[ x(t )] cos(2πf 0 t ) , (18) in quanto il cos(2πf0t) è un segnale determinato, mentre: 7 In questo paragrafo il valore medio statistico viene indicato usando il simbolo E[⋅] (Expectation). A rigore, quello considerato è un segnale BLD-PS (Banda Laterale Doppia – Portante Soppressa), in cui la portante non viene trasmessa, che necessita di un ricevitore coerente. Peraltro, considerazioni analoghe possono essere ripetute anche per gli altri formati di modulazione (ad esempio, la modulazione di ampiezza convenzionale, con trasmissione della portante). 8 9 RY (t + τ , t ) = E [ x(t + τ ) cos(2π f 0 (t + τ )) x(t ) cos(2π f0t )] = = E [ x(t + τ ) x(t ) ] [ cos(2π f 0 (t + τ )) cos(2π f 0t ) ] = (19) 1 ⎡1 ⎤ = RX (τ ) ⎢ cos(2π f 0τ ) + cos(4π f 0t + 2π f 0τ ) ⎥ 2 ⎣2 ⎦ avendo applicato note formule di trigonometria. Sia il valore medio che la funzione di autocorrelazione di y(t) sono funzioni di t periodiche, con periodo comune T0 = 1/f0 9 . Di conseguenza, si applicano le (15)-(16). In particolare, la (16) fornisce: _______ 1 RY (τ ) = T0 = T0 / 2 T /2 RX (τ ) 0 R t + t dt = ( τ , ) ∫ Y ∫ [cos(2π f0τ ) + cos(4π f0t + 2π f0τ )] dt = T 2 0 −T / 2 −T / 2 0 0 T0 / 2 RX (τ ) R (τ ) cos(2π f 0τ ) + X cos(4π f 0t + 2π f 0τ )dt 2 2T0 −T∫ / 2 . (20) 0 D’altro il secondo contributo è nullo, avendosi infatti 10 : T0 / 2 ∫ cos(4π f 0t + 2π f 0τ )dt = −T0 / 2 = = = 1 4π f 0 1 4π f 0 1 4π f 0 1 4π f 0 T /2 0 /2 sin(4π f 0t + 2π f 0τ ) −0T = [sin(2π f0T0 + 2π f0τ ) + sin(2π f0T0 − 2π f0τ )] = (21) [sin(2π + 2π f0τ ) + sin(2π − 2π f0τ )] = [sin(2π f0τ ) − sin(2π f0τ )] = 0 Si resta dunque con: _______ RY (τ ) = RX (τ ) cos(2π f 0τ ) . 2 (22) e, applicando la (15), si ottiene: SY ( f ) = 1 [S X ( f − f 0 ) + S X ( f + f 0 )] 4 (23) 9 In realtà, la funzione di autocorrelazione è periodica con periodo 1/(2f0) ma, come già si è osservato, ciò che conta è il periodo “comune” ad ambedue le funzioni. Inoltre, nel caso specifico della modulazione, si impone E[x(t)] = 0, e questo comporta E[y(t)] = 0. Peraltro, ciò non ha alcuna implicazione sulle affermazioni fatte nel testo, configurandosi come un caso particolare in cui v’è necessità di verificare la sola periodicità della funzione di autocorrelazione. 10 Sulla base della nota precedente riguardo al periodo della funzione di autocorrelazione, questo calcolo è perfino superfluo. 10 dove SX(f) è lo spettro di potenza del processo x(t). Ne concludiamo che lo spettro di potenza del segnale modulato y(t) si ottiene per traslazione alla frequenza f0 (e, simmetricamente, alla frequenza −f0, per quanto concerne il contenuto alle frequenze negative) dello spettro di potenza del segnale modulante x(t). 11