Argomenti della Lezione 1) Entropia di variabili aleatorie continue 2) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropia di una variabile aleatoria continua Sia X una variabile aleatoria continua che assume valori in A con d.d.p. fX(x). La sua ENTROPIA (o entropia differenziale) è definita come: ∆ +∞ ∫f h( X ) = − X ( x) log 2 f X ( x)dx (1) −∞ se tale integrale esiste. A differenza dell’ENTROPIA definita nel caso discreto: ∆ M M 1 H ( X ) = ∑ pi log 2 = −∑ pi log 2 pi pi i =1 i =1 (2) 2 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropia di una variabile aleatoria continua L'unità di misura dell'entropia differenziale è il bit/campione. La h(X) definita dalla (1) può avere qualsiasi valore in (-inf,+inf). Infatti, mentre per le pi si ha: per la fX(x) si ha solo: 0 ≤ pi ≤ 1, i = 1,…,M fX(x) ≥ 0 A differenza del caso discreto, per una variabile aleatoria continua non si può interpretare l'entropia differenziale come una misura dell'incertezza media o come una misura del numero minimo di bit necessari a rappresentare ogni campione. Infatti per una variabile aleatoria continua, ogni campione dovrebbe essere rappresentato con un numero infinito di bit. 3 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Relazione tra entropia ed entropia differenziale Sia X una variabile aleatoria continua che assume valori in A=[a,b] con d.d.p. fX(x). Dividiamo l'intervallo A=[a,b] in sottointervalli di lunghezza ∆ . Per il teorema del valor medio, in ogni sottointervallo esiste un valore xi tale che: ( i +1)⋅∆ ∫f f X ( xi ) ⋅ ∆ = X ( x)dx i ⋅∆ Si consideri la variabile aleatoria discreta X ∆ ottenuta come quantizzazione della variabile aleatoria continua X e definita come: X ∆ = xi se i ⋅ ∆ ≤ X < (i + 1) ⋅ ∆ di conseguenza: ( i +1)⋅∆ P( X ∆ = xi ) = pi = ∫f X ( x)dx = f X ( xi ) ⋅ ∆ i ⋅∆ Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 4 Relazione tra entropia ed entropia differenziale L'entropia della variabile aleatoria X ∆ è data da: +N H ( X ) = − ∑ pi log 2 pi = ∆ i=− N +N = − ∑ f X ( xi ) ⋅ ∆ ⋅ log 2 ( f X ( xi ) ⋅ ∆ ) = i=− N +N = − ∑ f X ( xi ) ⋅ ∆ ⋅ log 2 f X ( xi ) − i=− N +N ∑f X ( xi ) ⋅ ∆ ⋅ log 2 ∆ i =− N Andando al limite per N→∞, al posto di ∆ possiamo sostituire dx e se fX(x)log2 fX(x) è integrabile secondo Riemann, le sommatorie diventano un integrale: +∞ +∞ lim H ( X ) = − ∫ f X ( x) log 2 f X ( x)dx − lim+ log 2 ∆ ∫ f X ( x)dx = ∆ ∆ →0 + ∆ →0 −∞ −∞ = h( X ) − lim+ log 2 ∆ ∆ →0 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 5 Relazione tra entropia ed entropia differenziale Di conseguenza, l'entropia differenziale della variabile aleatoria continua X è pari all'entropia della stessa variabile aleatoria quantizzata in diversi intervalli più il logaritmo della dimensione di ogni intervallo, calcolati al limite per la dimensione degli intervalli che tende a zero: h( X ) = lim+ H ( X ∆ ) + log 2 ∆ ∆ →0 6 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Esempio 1 Sia X una variabile aleatoria continua che assume valori in [a,b] e con d.d.p. uniforme: f X ( x) = 1 b−a Si ha: ∆ b h( X ) =− ∫ f X ( x) log 2 f X ( x)dx = a b 1 1 =− log 2 dx = ∫ b−a b−a a = log 2 (b − a ) bit/campione 7 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Esempio 2 Sia X una variabile aleatoria continua Gaussiana con d.d.p. f X ( x) = 1 2πσ X2 − e ( x−µ X )2 2σ X2 Considerando che in generale si ha: 8 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Massima entropia differenziale Teorema: sia X una variabile aleatoria continua con d.d.p. fX(x) e varianza σX2 . La sua entropia differenziale soddisfa la disuguaglianza: h( X ) ≤ 1 log 2 2πeσ X2 2 con il segno di uguaglianza se X è una variabile aleatoria Gaussiana. Osservazione: la variabile aleatoria continua Gaussiana ha la massima entropia differenziale tra tutte le variabili aleatorie continue con la stessa varianza. 9 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropia congiunta e condizionata Date due variabili aleatorie X e Y con funzione di densità di probabilità congiunta fXY(x,y), e condizionate fX|Y(x|y) fYX(y|x), vengono definite le seguenti: Entropia congiunta: ∆ +∞ +∞ ∫∫f h( X , Y ) = − XY ( x, y ) log 2 f XY ( x, y )dxdy − ∞− ∞ Entropie condizionate: ∆ h( X | Y ) = − +∞ +∞ ∫∫f XY ( x, y ) log 2 f X |Y ( x | y )dxdy − ∞− ∞ ∆ h(Y | X ) = − +∞ +∞ ∫∫f XY ( x, y ) log 2 fY | X ( y | x)dxdy − ∞− ∞ Mutua informazione: ∆ +∞ +∞ f XY ( x, y ) i ( X ; Y ) = ∫ ∫ f XY ( x, y ) log 2 dxdy f X ( x) fY ( y ) − ∞− ∞ Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 10 Proprietà delle entropie Se h(X) e h(Y) sono finite, valgono le seguenti relazioni: h(X,Y) ≤ h(X) + h(Y) h(X,Y) = h(X) + h(Y|X) = h(Y) + h(X|Y) h(Y|X) ≤ h(Y) h(X|Y) ≤ h(X) dove le disuguaglianze diventano uguaglianze nel caso in cui X e Y sono statisticamente indipendenti. Inoltre: i(X;Y) ≥ 0 i(X;Y) = h(X) - h(X|Y) = h(Y) - h(Y|X) = h(X) + h(Y) - h(X,Y) 11 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale a valori continui Un canale a valori continui ha come ingresso la variabile aleatoria continua X e come uscita la variabile aleatoria continua Y. La trasmissione può essere tempo-continua o tempo discreta. Se la trasmissione è tempo continua il canale è detto waveform channel. Il comportamento di un canale continuo è definito tramite la d.d.p. condizionata f(y|x). La capacità di un canale a valori continui è definita come: C = max i ( X , Y ) f X ( x) Spesso la capacità viene calcolata ponendo un vincolo su X, per esempio in potenza. Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 12 Canale con rumore additivo Gaussiano L'importanza del modello Gaussiano è legata al teorema del limite centrale secondo cui l'effetto cumulativo di un grande numero di effetti aleatori indipendenti è distribuito in modo Gaussiano. Il modello Gaussiano viene utilizzato per tenere conto del rumore termico che è presente in ogni circuito elettronico. E' un modello semplice per il quale è possibile esprimere la capacità in forma chiusa. 13 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale con rumore additivo Gaussiano Canale additivo Gaussiano discreto nel tempo, continuo in ampiezza X + Y N X (ingresso) è una variabile aleatoria continua che assume valori reali x con densità di probabilità fX(x) Y (uscita) è una variabile aleatoria continua che assume valori reali y con densità di probabilità fY(y) N è una variabile aleatoria continua Gaussiana con media nulla e varianza σN2 che rappresenta il rumore. Considerare variabili aleatorie al posto di processi aleatori corrisponde ad assumere che il canale sia senza memoria. Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 14 Canale con rumore additivo Gaussiano Canale additivo Gaussiano discreto nel tempo, continuo in ampiezza La variabile aleatoria Y è data da: Y = X + N Assumiamo che le variabili aleatorie X e N siano indipendenti. Consideriamo il caso in cui la variabile aleatoria X sia limitata in potenza e cioè sia σX2 finita. Calcoliamo le entropie: h(Y | X ) = h( X + N | X ) = h( X | X ) + h( N | X ) = h( N | X ) = h( N ) = 1 log 2 2πeσ N2 2 =0 variabili aleatorie indipendenti variabili aleatorie indipendenti 15 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale con rumore additivo Gaussiano Canale additivo Gaussiano discreto nel tempo, continuo in ampiezza Possiamo calcolare la capacità di questo canale come: 1 C = max i ( X ; Y ) = max h(Y ) − h(Y | X ) = max h(Y ) − log 2 2πeσ N2 f X ( x) f X ( x) f X ( x) 2 Per il Teorema sul massimo dell'entropia differenziale, il massimo di h(Y) si ha quando Y è una variabile aleatoria continua Gaussiana e tale massimo è 1/2 log22πeσY2 Poichè N è Gaussiana, Y è Gaussiana se anche X è Gaussiana e in tale caso, poichè X ed N sono indipendenti, la varianza di Y è pari alla somma delle varianze: σY2 = σX2 + σN2 La capacità risulta quindi: σ X2 1 1 1 2 2 2 C = log 2 2πe(σ X + σ N ) − log 2 2πeσ N = log 2 1 + 2 2 2 2 σN Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 16 Canale con rumore additivo Gaussiano bianco (AWGN) Canale additivo Gaussiano continuo nel tempo, continuo in ampiezza (a banda limitata) X(t) + Y(t) N(t) X(t) (ingresso) è un processo aleatorio continuo che assume valori reali x con densità di probabilità fX(x) e densità spettrale di potenza limitata nell'intervallo [-B,B]. Y(t) (uscita) è un processo aleatorio continuo che assume valori reali y con densità di probabilità fY(y) e con potenza PX. N(t) è un processo aleatorio continuo Gaussiano bianco, stazionario in senso lato, con media nulla, varianza σN2 e densità spettrale di potenza: PN(f) = N0/2. N(t) sia indipendente da X(t). 17 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale con rumore additivo Gaussiano bianco (AWGN) Canale additivo Gaussiano continuo nel tempo, continuo in ampiezza (a banda limitata) Poichè il segnale aleatorio di ingresso è strettamente limitato in banda nell’intervallo (-B, B), esso può essere rappresentato impiegando almeno 2B campioni al secondo (Teorema del campionamento). Di conseguenza, l'uscita Y(t) viene campionata ogni 1/2B secondi e in questo modo si campiona sia il segnale di ingresso che il rumore. Poichè il rumore è bianco, due campioni qualsiasi del rumore sono incorrelati, essendo la funzione di autocorrelazione RNN(τ) =N0/2 δ(τ) 18 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale con rumore additivo Gaussiano bianco (AWGN) Canale additivo Gaussiano continuo nel tempo, continuo in ampiezza (a banda limitata) Un processo bianco ha una potenza media infinita su una banda infinita, ma ha una potenza media finita se viene filtrato per poi essere campionato. Se N(t) è Gaussiano ed è stazionario in senso lato allora è anche stazionario in senso stretto. Inoltre se un processo Gaussiano viene posto in ingresso ad un filtro lineare, l’uscita è ancora un processo Gaussiano. Se N(t) è un processo Gaussiano e bianco, il fatto che due campioni presi in istanti diversi siano scorrelati significa anche che i due campioni sono variabili aleatorie statisticamente indipendenti (senza memoria). Ogni campione di X(t) ha una varianza pari alla potenza Px mentre ogni campione di N(t) ha una varianza pari alla potenza di rumore N0B. 19 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale con rumore additivo Gaussiano bianco (AWGN) Canale additivo Gaussiano continuo nel tempo, continuo in ampiezza (a banda limitata) Possiamo quindi considerare le variabili aleatorie X, Y e N ottenute dal campionamento di Y(t) ed applicare il risultato sulla capacità valido per il canale Gaussiano tempo discreto senza memoria. La potenza del rumore è pari a N0B e si ottiene integrando la densità spettrale di potenza in [-B,B]. σ X2 1 C = log 2 1 + 2 2 σN 1 P = log 2 1 + X 2 N0 B bit/campio ne Poichè vengo generati 2B campioni al secondo, la capacità può anche essere espressa come: PX CT = B log 2 1 + N0 B bit/s 20 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale con rumore additivo Gaussiano bianco (AWGN) Canale additivo Gaussiano continuo nel tempo, continuo in ampiezza (a banda limitata) La quantità: SNR = PX N0 B viene detto rapporto segnale rumore. Esso rappresenta una metrica di prestazioni del sistema di comunicazioni poichè determina la capacità del canale e la probabilità di errore. 21 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale con rumore additivo Gaussiano bianco (AWGN) Canale additivo Gaussiano continuo nel tempo, continuo in ampiezza (a banda illimitata) Passando al limite per B→+∞ possiamo calcolare la capacità del canale AWGN con banda illimitata. Poniamo: α= CT = PX , N0 B α → 0 per B → +∞ ln(1 + α ) PX PX P lim = = 1.44 X N 0 ln 2 α →0 α N 0 ln 2 N0 bit/s 22 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Limite di Shannon Ricordiamo la capacità in bit/s del canale AWGN continuo nel tempo, continuo in ampiezza e a banda limitata: P CT = B log 2 1 + X N0 B bit/s Definiamo efficienza spettrale ηB = Rb/B , la capacità di trasmettere una certa quantità di dati al secondo Rb con una piccola quantità di banda B. Definiamo efficienza in potenza, la capacità di ricevere con una data probabilità di errore utilizzando un basso rapporto segnale rumore SNR. Partendo dalla capacità del canale AWGN continuo nel tempo e continuo in ampiezza con banda illimitata possiamo ricavare la relazione tra efficienza spettrale ed efficienza in potenza. Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 23 Limite di Shannon Per il Teorema inverso della codifica, non si può avere una trasmissione con probabilità di errore piccola a piacere se h(X)>C o, dividendo per il tempo di simbolo, se la frequenza di informazione è maggiore della capacità per secondo, Rb>CT. Sia SNR = PX/N0B = RbEb/N0B = ηEb/N0, ponendoci al limite con Rb = CT si ha: E Rb = B log 2 1 + η b N0 η = log 2 1 + η Eb N0 Eb 2η − 1 = N0 η Eb 2η − 1 lim = lim = ln 2 = 0.693 = −1.59 dB η →0 + N η →0 + η 0 Limite ultimo di Shannon Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 24 Limite di Shannon Grafico di: Eb 2η − 1 = N0 η 25 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Limite di Shannon Esiste un compromesso tra l’efficienza spettrale e l’efficienza in potenza. Fissata l’efficienza spettrale esiste un valore limite dell’efficienza in potenza e, analogamente, fissata l’efficienza in potenza esiste un valore limite dell’efficienza spettrale. In ogni caso (per qualsiasi valore dell’efficienza spettrale piccola a piacere) il rapporto segnale rumore non può scendere al di sotto di -1.59 dB se si vuole una trasmissione affidabile. Se voglio aumentare l’efficienza spettrale devo aumentare la potenza e quindi far diminuire l’efficienza in potenza per avere stessa probabilità di errore. Se voglio aumentare l’efficienza in potenza devo diminuire l’efficienza spettrale per avere stessa probabilità di errore. 26 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Esempio Il progettista di un sistema di comunicazione numerico cerca di scegliere i parametri del sistema in modo da raggiungere quanto più possibile la capacità C con un tasso d’errore pre-assegnato Si calcoli la capacità C di un canale Gaussiano con banda B = 2500 Hz e rapporto segnale-rumore pari a 30 dB Soluzione: Con B = 2500 e P /N0B =103 dalla formula si ottiene: C = 24.918 bit/s 27 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata