Ripasso segnali e processi casuali 1 Trasmissione dell’Informazione Breve ripasso di segnali e trasformate • • Dato un segnale s(t), la sua densità spettrale si calcola come G( f ) = S( f ) 2 dove S(f) è la trasformata di Fourier. L’energia di un segnale dunque si calcola come 2 E = " S ( f ) df = " s 2 (t ) dt ! • Un segnale che passa attraverso un filtro viene trasformato in maniera che !S0 ( f ) = H ( f )S ( f ) • s0 (t ) = s(t ) " h(t ) La sua densità spettrale cambia come ! G0 ( f ) = S0 ( f ) 2 = S ( f ) H ( f ) 2 = S ( f ) 2 H ( f ) 2 = G( f ) H ( f ) 2 ! 2 Trasmissione dell’Informazione Processo aleatorio • Un processo aleatorio è una relazione che lega al risultato (casuale) di un esperimento una funzione nel tempo. A A1 A1 A1 • Noi considereremo solo i processi aleatori tempo-continui, che si rappresentano con la lettera maiuscola e la dipendenza dal tempo X(" i ,t) # xi (t ) • Attenzione: per i fissato, il segnale xi(t) NON è casuale, ma deterministico, mentre a t fissato X(t) può assumere tutti i valori che le varie (infinite) xi(t) assumono in t e dunque Xt= X(t) è una variabile casuale. 3 Trasmissione dell’Informazione Caratterizzazione statistica • Dato che Xt = X(t) è una variabile casuale, si potrà definire una funzione cumulativa di probabilità FX ( x,t) = P( X (t ) " x ) • • Tale funzione però non è sufficiente per caratterizzare il processo: a volte, ad esempio, serve sapere cosa succede al tempo t1 e al tempo t2: FX ( x,t) = P( X (t ) " x ) … il che a sua volta richiede la conoscenza della funzione cumulativa congiunta (del secondo ordine): FX ( x1,x2,t1,t2 ) = P ( X (t1) " x1 ,X (t2 ) " x2 ) • In generale, servirà la conoscenza della funzione cumulativa di probabilità di ordine n, per ogni possibile n! FX ( x1,x2 ,K ,xn,t1 ,t 2 ,K tn ) = P ( X (t1) " x1 ,X (t2 ) " x2 ,K ,X (tn ) " xn ) 4 Trasmissione dell’Informazione Valor medio, potenza, varianza • Per semplificarci la vita, è possibile ridursi a considerare solo alcuni indici statistici semplificati, come il valor medio: +# mX (t ) = E ( X (t )) = $ x f X ( x,t ) dx "# • f X (x,t) = d FX ( x,t) dx …la potenza: ( ) +# PX (t ) = E X (t ) = $ x 2 f X ( x,t ) dx • "# … e la varianza: " 2X • 2 2 ' +* $ 2 (t ) = E &%( X (t ) #m X (t )) )( = + ( x # m x (t )) f X ( x,t ) dx = PX (t ) # m 2X (t ) #* Si noti che la media NON corrisponde necessariamente ad una delle possibili realizzazioni del processo, cioè ad una xi(t). 5 Trasmissione dell’Informazione Autocorrelazione e covarianza • E’ interessante considerare anche degli indici del secondo ordine, come la autocorrelazione (correlazione tra le variabili casuali corrispondenti a due istanti di tempo, t1 e t2): +# +# RX (t1,t2 ) = E ( X (t1 ) X (t 2 )) = $ $ x1 x2 f X ( x1,x2 ,t1 ,t 2 ) dx1 dx2 "# "# • … e la loro autocovarianza (misura indipendente dal valor medio): +# +# CX (t1 ,t2 ) = E (( X (t1) " m x (t1))( X (t2 ) " m x (t2 ))) = $ $ ( x1 " m x (t1))( x2 " m x (t2 )) f X ( x1 ,x2 ,t1,t2 ) dx1 dx2 "# "# = RX (t1 ,t2 ) " m x (t1) m x (t2 ) • Si noti che si parla di autocorrelazione e di autocovarianza perché, nonostante si considerino due istanti di tempo diversi, il processo è lo stesso. 6 Trasmissione dell’Informazione Processi stazionari • • In un generico processo aleatorio, tutte le quantità introdotte precedentemente sono funzione del tempo, possono cambiare al variare degli istanti. Se tutte le funzioni statistiche che caratterizzano un processo sono invarianti rispetto al tempo, allora il processo si dice stazionario in senso stretto. f X (x1,x2 ,K ,xn,t1,t2 ,K tn ) = f X (x1 ,x2 ,K ,xn,t1 + "t,t2 + "t,K tn + "t) • • Si noti che l’uguaglianza deve valere per ogni Δt, il che è praticamente impossibile da verificare. Inoltre, la stazionarietà in senso stretto (o forte) significa che non posso distinguere due processi che sono diversi, ma differiscono tra loro solo per una traslazione nel tempo utilizzando misure statistiche. 7 Trasmissione dell’Informazione Statistiche del 1° ordine per processi stazionari • • Se un processo è stazionario in senso stretto, la sua funzione densità di probabilità del primo ordine deve soddisfare f x ( x,t ) = f x ( x,t + "t ) , il che significa che deve essere indipendente dal tempo. Di conseguenza, la media di un processo stazionario in senso stretto soddisfa la stessa condizione, cioè è costante nel tempo. +# +# "# "# mx (t ) = $ x f x ( x,t ) dx = $ x f x ( x) dx = m X • … e similmente per le altre statistiche del primo ordine, come la potenza e la varianza: Px (t ) = PX " 2X (t ) = " 2X 8 Trasmissione dell’Informazione Statistiche di ordine superiore • La stazionarietà di ordine due implica che f x ( x1,x2 ,t1,t 2 ) = fx ( x1,x2 ,t1 + "t,t2 + "t ) • … e che, di conseguenza, la funzione densità di probabilità congiunta, così come le statistiche come la autocorrelazione e la autocovarianza, risulta dipendente solo dalla differenza t1-t2 e non dai particolari valori di t1 e t2. +# +# RX (t1,t2 ) = $ $ x1 x2 f X ( x1 ,x2 ,t1 " t2 ) dx1 dx2 = RX (t1 " t2 ) "# "# • Generalizzando, si può affermare che, in un processo stazionario in senso stretto, la funzione densità di probabilità di ordine n dipenderà solo dalle n-1 differenze di tempo t1-t2, t2-t3, …, tn-1-tn che ci sono tra gli n istanti di tempo t1, t2, …, tn. Tali differenze, infatti, sono indipendenti dalla traslazione nel tempo. 9 Trasmissione dell’Informazione Stazionarietà in senso lato • Dato che la stazionarietà in senso stretto risulta praticamente impossibile da verificare, ci riduciamo a considerare una stazionarietà in senso lato, nel caso in cui siano valide: mX ( t ) = m X RX (t1,t2 ) = Rx (t1 " t2 ) • Facciamo un esempio: X (t ) = a cos( 2"f0t + #) f# ($ ) = &$ % " ) 1 rect ( + ' 2" * 2" f# ($ ) = &$ % " /2 ) 1 rect( + ' " * " è stazionario in senso lato, mentre X (t ) = a cos( 2"f0t + #) non lo è. 10 Trasmissione dell’Informazione Autocorrelazione di un processo stazionario • La autocorrelazione di un processo stazionario può essere scritta nella stessa forma di quella di un segnale deterministico: RX (t1,t2 ) = RX (t1 ,t1 + " ) # Rx (t1 $ t 2 ) = RX (" ) • … e per di più soddisfa le stesse condizioni: ( ) RX ( 0) = E X 2 (t ) = PX RX ( " # ) = E ( X ( t ) X ( t " # ) ) = E ( X ( t + # ) X ( t ) ) = RX ( # ) RX ( 0) $ RX (# ) • %# In particolare, l’ultima condizione viene dall’espansione della condizione 2 E#%( X (t ) ± X (t + " )) &( ) 0 $ ' ( ) E X 2 (t ) + X 2 (t + " ) ± 2X (t ) X (t + " ) ) 0 RX ( 0) + RX ( 0) ± 2RX (" ) ) 0 Trasmissione dell’Informazione 11 Filtraggio di un processo stazionario • • • Se un processo aleatorio X(t) passa in un filtro, quanto ne esce può essere scritto come Y (t ) = X (t ) " h(t ) , dove h(t) è la risposta impulsiva del filtro e la convoluzione va intesa nel senso che, ad ogni funzione xi(t) si associa una funzione yi (t ) = xi (t ) " h(t ) In generale, però, non si riesce a sapere cosa succede delle funzioni densità di probabilità congiunte in uscita a partire da quelle in ingresso. Limitandoci alla media, si può osservare che +$ & +$ ) +$ mY (t ) = E (Y (t)) = E ( % h(" ) X (t # ") d" + = % E (h(" ) X (t # ")) d" = % h(" ) E ( X (t # " )) d" = ' #$ * #$ #$ +$ = % h(" ) m X (t # " ) d" = h(t) & m X (t ) #$ … cioè il filtro agisce “normalmente” sulla parte “deterministica” del processo aleatorio. 12 Trasmissione dell’Informazione Filtraggio di … (II) • Per la autocorrelazione succede che ( ( )) RY (t1,t2 ) = E (Y (t1),Y (t2 )) = E X (t1 ) " h(t1 ) # X (t2 ) " h t +& )+& , +& +& = E + ' X ($ ) h(t1 % $ ) d$ # ' X (( )h(t2 % () d( . = ' ' E ( X ($ )h(t1 % $ ) # X ( () h(t 2 % ()) d$ d( = *%& - %& %& %& +& +& +& +& %& %& %& %& = ' ' h(t1 % $ )h(t2 % ( ) E ( X ($ ) X ( ()) d$ d( = ' ' RX ($ ,() h(t1 % $ )h(t2 % () d$ d( = = RX (t1 ,t2 ) " h(t1 ) " h(t2 ) • Perciò, se il processo in ingresso è stazionario (in senso lato) si ottiene dunque che la media in uscita è costante e l’autocorrelazione dipende solo dalla differenza dei tempi, cioè il processo in uscita è pure stazionario. 13 Trasmissione dell’Informazione Filtraggio di … (III) • Più precisamente, se il segnale in ingresso è stazionario si ricava che +$ mY (t ) = h(t) " m X (t ) = h(t) " m X = m X % h(t )dt = m X H (0) #$ • … mentre per la autocorrelazione vale +& RY (t,t " # ) = RX (t,t " # )$ h(t ) $ h(t " # ) = ' h(% )[R(t " % ,t " # ) $ h(t " # )] d% = +& +& "& +& "& +& "& "& +& "& = ' h(() ' h(% ) R(t " % ,t " # " () d% d( = ' h( () ' h(% ) R("% + # + ( ) d% d( = +& = ' h(( )[ R(( + # ) $ h(# ) ] d( = ' h(") ) [R(# " ) ) $ h(# ) ] d) = R(# ) $ h("# ) $ h(# ) "& • "& … e dunque anche il segnale in uscita è stazionario in senso lato. 14 Trasmissione dell’Informazione Densità spettrale di potenza dei segnali stazionari • • I segnali aleatori stazionari non possono avere energia finita. Altrimenti, andrebbero a zero all’infinito, con loro la media, e questa non potrebbe essere costante come richiesto. Essendo segnali di potenza, si definisce la loro densità di potenza come ciò che si ottiene invertendo la loro autocorrelazione. S X ( f ) = F ( RX (" )) • SX(f) soddisfa le condizioni: ! S X ( f ) è reale e pari ( 2 ) +# +# "# 0 PX = E X (t) = $ S X ( f ) df = 2 $ SX ( f ) df SX ( f ) % 0 15 Trasmissione dell’Informazione Processi ergodici • • • Per caratterizzare un processo, fosse anche stazionario, dovremmo conoscerne tutte le funzioni campione (impossibile!). Ci farebbe comodo invece ricavare le informazioni statistiche sul processo da UNA SOLA funzione campione. La cosa è possibile se il processo è ergodico. Un processo ergodico nella media soddisfa: 1 T /2 mX (t ) = m X = X m = lim % X (t) dt T"# T $T /2 • • cioè la variabile casuale Xm, ottenuta mediando nel tempo ogni possibile funzione campione, ha una funzione densità di probabilità con media pari a mX e varianza nulla. In pratica, si può calcolare la media su una finestra mobile 1 T /2 XT = # X (t ) dt T "T /2 X m = lim XT t"# 16 Trasmissione dell’Informazione Rumore • • Il rumore nei sistemi digitali è spesso rappresentato mediante l’acronimo AWGN: Rumore Bianco Additivo e Gaussiano. Si considera il rumore a media nulla e la densità spettrale del rumore (costante perché bianco) si indica come η/2. Di conseguenza, la variabile causale n(t) è una variabile Gaussiana, cioè con densità di probabilità esprimibile mediante la funzione f (n(t )) = f (n) 1 2 "# 2 n2 (t) $ 2 e 2# • La varianza del rumore, indicata nella formula, è pari alla potenza del rumore. Infatti, per un processo casuale la potenza è definita come ! P = " n 2 f (n) dn • … e dunque P = n2 = " 2 # m2 = " 2 ! Trasmissione dell’Informazione ! 17 Rumore II • La probabilità di avere rumore peggiore di un valore fissato K è & P( n " K ) = & ' f (n) dn = ' K • • K 1 2 #$ 2 n2 (t ) % 2 e 2$ ( K + 1 dn = Erfc* 2 2 $ ) , dove la la funzione Erfc è una funzione con argomento positivo, decrescente da 1 a 0 all’aumentare dell’argomento stesso: ! 2 $ #u 2 Erfc( x ) = % e du " x Ultima nota: il rumore Gaussiano in ingresso ad un filtro con funzione di trasferimento H(f) produce un rumore pure Gaussiano in uscita, con varianza (= potenza) ! 2 P0 = " 02 = # Gn ( f ) H ( f ) df = $ $ 2 2 H f df = # ( ) # h(t ) dt 2 2 18 Trasmissione dell’Informazione !