Argomenti della Lezione 1) Coppie di variabili aleatorie 2) Canale discreto senza memoria 3) Entropie condizionate, entropie congiunte ed informazione mutua 4) Esempi di canali 1 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Coppie di variabili aleatorie Fino ad ora è stata considerata una sola variabile aleatoria (o processo aleatorio) che modellizza la sorgente. Consideriamo una coppia variabili aleatorie discrete X e Y con alfabeti rispettivamente: A = {x1 , x2 ,..., xN X } B = { y1 , y2 ,..., y NY } con masse di probabilità rispettivamente: P(Y = y j ) = P( y j ) P( X = xi ) = P( xi ) e con distribuzione congiunta e condizionata rispettivamente: ∆ P( X = xi , Y = y j ) = P( xi , y j ) ∆ P( X = xi | Y = y j ) = P( xi | y j ) ∆ P(Y = y j | X = xi ) = P( y j | xi ) Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 2 Canale discreto senza memoria Un canale discreto accetta ogni T secondi un simbolo appartenente all'alfabeto discreto di ingresso e fornisce un simbolo appartenente all'alfabeto discreto di uscita. Supponiamo di trasmettere la sequenza di simboli x' x''... e di ricevere la sequenza di simboli y' y''... Un canale discreto è detto senza memoria (Discrete Memoryless Channel - DMC) se è verificata la seguente proprietà: P( y ' , y ' ' ,... | x' , x' ' ,...) = P( y ' | x' ) ⋅ P ( y ' ' | x' ' ) ⋅ ... In generale l'alfabeto d'ingresso e di uscita hanno cardinalità diversa. Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 3 Canale discreto senza memoria Utilizziamo una coppia di variabili aleatorie discrete X e Y per modellizzare rispettivamente l'ingresso e l'uscita di un canale discreto senza memoria. Un canale discreto senza memoria è definito completamente da: 1) l'alfabeto di ingresso: A = {x1 , x2 ,..., xN X } 2) l'alfabeto di uscita: B = { y1 , y2 ,..., y NY } 3) l'insieme completo delle probabilità condizionate: ∆ ∆ P(Y = y j | X = xi ) = P( y j | xi ) = pi , j Le probabilità condizionate pi,j sono dette probabilità di transizione del canale 4 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale discreto senza memoria Generalmente si organizzano le probabilità condizionate pij in una matrice di canale P, di dimensioni NX x NY : Per le probabilità condizionate pij valgono le relazioni: 1) 0 ≤ pij ≤ 1 NY 2) ∑p ij j =1 = 1, i = 1,2,..., N X (la somma degli elementi di ogni riga di P è unitaria) 5 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale discreto senza memoria Freccia: transizione da un simbolo di X a un simbolo di Y, ovvero dalla trasmissione di un simbolo di X alla ricezione di uno di Y. Ogni transizione è etichettata con la relativa probabilità pi,j la somma delle pi,j che etichettano le frecce uscenti dallo stesso simbolo di ingresso è pari a 1 6 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte A partire dagli alfabeti X e Y e dai loro legami specificati dalla matrice di canale P, sono definite 5 diverse entropie ed una informazione mutua 1) Entropia d’ingresso H(X) (contenuto informativo medio dell’alfabeto d’ingresso): 1 H ( X ) = ∑ P ( xi ) log i =1 P ( xi ) ∆ NX bit/simbol o 2) Entropia d’uscita H(Y) (contenuto informativo medio dell’alfabeto d’uscita): 1 H (Y ) = ∑ P ( y j ) log P( y ) j =1 j ∆ NY bit / simbolo 7 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte 3) Entropia congiunta H(X,Y) (contenuto informativo medio di una coppia di simboli di ingresso e uscita): 1 H ( X , Y ) = ∑∑ P ( xi , y j ) log P( x , y ) i =1 j =1 i j N X NY bit /(coppia di simboli ) L’entropia congiunta H(X,Y) rappresenta l’incertezza media del sistema di comunicazione formato dall’alfabeto d’ingresso, il canale e l’alfabeto d’uscita. 8 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte 4) Entropia condizionata H(Y|X) (incertezza media rimanente sul simbolo di uscita y quando il simbolo d’ingresso x è noto): ∆ N X NY H (Y | X ) = ∑∑ i =1 j =1 1 P (xi , y j )log P(y | x ) j i bit/ simbolo 5) Entropia condizionata H(X|Y) (incertezza media rimanente sul simbolo di ingresso x quando il simbolo di uscita y è noto): 1 H ( X | Y ) = ∑∑ P(xi , y j )log P(x | y ) i =1 j =1 i j ∆ N X NY bit / simbolo 9 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte 6) Informazione mutua I(X;Y) (quantità di informazione media condivisa tra l'ingresso X e l'uscita Y): P (xi , y j ) I ( X ; Y ) = ∑∑ P (xi , y j )log P(x )⋅ P(y ) i =1 j =1 i j ∆ N X NY bit/ simbolo 10 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte Proprietà: Non negatività delle entropie condizionate: H(X) ≥ H(X|Y) ≥ 0 H(Y) ≥ H(Y|X) ≥ 0 Non coincidenza, in generale, delle entropie condizionate: H(X|Y) ≠ H(Y|X) Calcolo della entropia congiunta: H(X,Y) = H(X) + H(Y|X) = H(Y) + H(X|Y) = H(Y,X) 11 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte Proprietà: Minimo valore dell'entropia congiunta: H(X,Y) ≥ max{H(X),H(Y)} Massimo valore dell'entropia congiunta: H(X,Y) ≤ H(X) + H(Y) 12 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte Proprietà: Variabili aleatorie indipendenti: H(X|Y) = H(X) e H(Y|X) = H(Y) se e solo se X ed Y sono indipendenti Variabili aleatorie coincidenti: H(X|X) = 0 Informazione mutua: I(X;Y) ≤ H(X) I(X;Y) ≤ H(Y) 13 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte Proprietà: Non negatività dell'informazione mutua: I(X;Y) ≥ 0 Calcolo dell'informazione mutua: I(X;Y) = H(X) - H(X|Y) = = H(Y) - H(Y|X) = = H(X) + H(Y) - H(X,Y) = H(X,Y) - H(X|Y) - H(Y|X) Simmetria dell'informazione mutua: I(X;Y) = I(Y;X) 14 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte Analogia con un tubo di flusso: L'entropia condizionata H(X|Y) viene detta equivocazione e rappresenta la quantità media di informazione su X persa nel canale. L'informazione mutua I(X;Y) viene detta flusso di informazione e rappresenta la quantità media di informazione su X che riesce ad attraversare il canale. Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte Formule alternative per il calcolo delle entropie condizionate Se definiamo l’entropia di X condizionata all’evento Y=yj come: ∆ NX H ( X | Y = y j ) = ∑ P( X = xi | Y = y j ) log i =1 1 P( X = xi | Y = y j ) L’entropia condizionata si può calcolare come: NY H ( X | Y ) = ∑ P( y j ) H ( X | Y = y j ) j =1 Simmetricamente, una formula analoga vale per H(Y|X) 16 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Entropie, entropie condizionate e entropie congiunte Formule alternative per il calcolo delle entropie condizionate Definiamo l’entropia di Y condizionata all’evento X=xi come: ∆ NY H (Y | X = xi ) = ∑ P(Y = y j | X = xi ) log j =1 1 P(Y = y j | X = xi ) L’entropia condizionata si può calcolare come: NX H (Y | X ) = ∑ P( xi ) H (Y | X = xi ) i =1 Poiché il calcolo di H(Y|X) richiede l’utilizzo delle probabilità di transizione del canale, H(Y|X) è generalmente più semplice da calcolare rispetto a H(X|Y) . 17 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale simmetrico e canale uniforme Un canale discreto e senza memoria è detto uniforme se ogni riga della matrice di canale è la permutazione di un'altra riga. Un canale discreto e senza memoria è detto simmetrico se ogni riga della matrice di canale è la permutazione di un'altra riga e se ogni colonna della matrice di canale è la permutazione di un'altra colonna. Un canale simmetrico è anche uniforme, ma non è vero il viceversa. 18 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale simmetrico e canale uniforme Teorema: per un canale uniforme l'entropia condizionata H(Y|X) non dipende dalla massa di probabilità di X e si può calcolare come: 1 H (Y | X ) = ∑ q j log q j =1 j ∆ NY = H N (q1 , q2 ,..., q N ) Y Y bit / simbolo in cui ogni riga della matrice di canale è una permutazione dello stesso insieme di probabilità qj, j=1,...,NY. Teorema: per un canale simmetrico, una distribuzione uniforme in ingresso produce una distribuzione uniforme in uscita. 19 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canali in cascata Teorema: si considerino tre variabili aleatorie discrete X, Y e Z con stessa cardinalità. Sia X l'ingresso ad un primo blocco di processamento e Y la sua uscita e sia Y l'ingresso ad un secondo blocco di processamento e Z la sua uscita. Si ha: 20 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale rumoroso Per un canale discreto rumoroso si ha che NX=NY=N e: pi ,i ≠ 1, i = 1,2,..., N 21 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale non rumoroso Per un canale non rumoroso si ha NX=NY=N e: pi , j = 0 se i ≠ j , altrimenti pi ,i = 1 H(X|Y) = 0 H(Y|X) = 0 H(X,Y) = H(X) = H(Y) 22 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale inutile Per un canale inutile si ha NX = NY = N ed i simboli d’uscita sono indipendenti da quelli d’ingresso, ovvero: P( y j | xi ) = P ( y j ) H(X|Y) = H(X) H(Y|X) = H(Y) H(X,Y) = H(X) + H(Y) 23 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale non rumoroso e canale inutile I canali senza rumore e inutile rappresentano gli estremi del possibile comportamento del canale: nel primo i simboli d’uscita specificano univocamente quelli d’ingresso nel secondo il canale confonde completamente i simboli di ingresso, ed i simboli d’uscita non danno informazioni utili per decidere su quelli trasmessi 24 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale binario simmetrico (BSC) Un canale binario simmetrico (Binary Symmetric Channel - BSC) è un canale con NX=NY=2 e con la seguente matrice di probabilità di transizione: Per un canale binario simmetrico, la quantità r è detta probabilità di inversione. Si verifica facilmente che tale canale è simmetrico, da cui deriva il suo nome. 25 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale binario simmetrico (BSC) Essendo il canale BSC simmetrico e quindi uniforme per il teorema sui canali uniformi: 1 H (Y | X ) = ∑ q j log q j =1 j ∆ NY = H N ( q1 , q2 ,..., q N ) Y Y bit / simbolo nel caso del BSC si ha: 1 H (Y | X ) = ∑ q j log = H 2 ( r ) q j =1 j Ponendo P(x1) = q si può calcolare: ∆ 2 bit / simbolo P(y1) = q(1-r) + (1-q)r P(y2) = (1-q)(1-r) + qr = 1 - P(y1) H(Y) = H2(q(1-r) + (1-q)r) I(X;Y) = H(Y) – H(Y|X) = H2(q(1-r) + (1-q)r) – H2(r) Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata 26 Canale binario a cancellazione (BEC) Un canale binario a cancellazione (Binary Erasure Channel - BEC) ha due ingressi e tre uscite ed è caratterizzato dalla seguente matrice delle probabilità di transizione: Per un canale binario a cancellazione, la quantità r è detta probabilità di cancellazione. Tale canale è uniforme poichè la seconda riga di P è una permutazione della prima riga. 27 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata Canale binario a cancellazione (BEC) Essendo il canale BEC uniforme, per il teorema sui canali uniformi: 1 H (Y | X ) = ∑ q j log q j =1 j ∆ NY = H N ( q1 , q2 ,..., q N ) Y Y bit / simbolo nel caso del BEC si ha: 1 H (Y | X ) = ∑ q j log q j =1 j ∆ 3 = H 2 (r ) bit / simbolo Ponendo P(x1) = q si può calcolare: H(Y) = – [ r log r + (1 – r) log(1 – r) + q (1 – r) log q + (1 – q )(1 – r) log(1 – q) ] = H2(r) + (1 – r)H2(q) I(X;Y) = H(Y) – H(Y|X) = (1 – r)H2(q) 28 Mauro De Sanctis – corso di Informazione e Codifica – Università di Roma Tor Vergata