Trasmissione Numerica
Università di Trento
3. TEORIA DELL’INFORMAZIONE
„
INTRODUZIONE
„
MISURA DI INFORMAZIONE
„
SORGENTE DISCRETA SENZA MEMORIA
„
ENTROPIA DI UNA SORGENTE NUMERICA
„
CODIFICA DI SORGENTE
„
1° TEOREMA DI SHANNON
„
CODICI UNIVOCAMENTE DECIFRABILI
Trasmissione Numerica
Università di Trento
3. TEORIA DELL’INFORMAZIONE
„
DISUGUAGLIANZA DI KRAFT
„
CODICE DI SHANNON-FANO
„
CODICE DI HUFFMAN
„
MISURA DI INFORMAZIONE MUTUA
„
CANALE BINARIO SIMMETRICO
„
CAPACITA’ DI UN CANALE DISCRETO
„
CODIFICA DI CANALE
Trasmissione Numerica
Università di Trento
3. TEORIA DELL’INFORMAZIONE
„
2° TEOREMA DI SHANNON
„
CANALI CONTINUI
„
CAPACITA’ DI UN CANALE CONTINUO
„
SISTEMA DI TELECOMUNICAZIONE IDEALE
„
LEGGE DI HARTLEY-SHANNON
„
CONFRONTI DELLE PRESTAZIONI DI SISTEMI REALI
Trasmissione Numerica
Università di Trento
INTRODUZIONE
„
Sino ad ora abbiamo considerato i sistemi di TLC dal punto
di vista dei messaggi emessi da una sorgente e dei segnali
ad essi associati.
„
Obiettivo di un sistema di TLC: trasferire informazione da
una sorgente ad una destinazione mediante un canale di
trasmissione.
„
E’ importante studiare i sistemi di TLC sulla base
dell’informazione associata ad un messaggio.
Trasmissione Numerica
Università di Trento
INTRODUZIONE
„
Teoria dell’Informazione: un sistema di TLC viene studiato
dal punto di vista del processo di trasferimento
dell’informazione contenuta nei messaggi emessi dalla
sorgente, indipendentemente dal segnale con cui questa
informazione viene rappresentata.
„
Cenni storici: la Teoria dell’Informazione è stata formulata
da Shannon (1948).
Trasmissione Numerica
Università di Trento
INTRODUZIONE
OBIETTIVO DELLA TEORIA DELL’INFORMAZIONE
Dato un messaggio prodotto da una sorgente, l’obiettivo della
teoria dell’informazione è capire come si deve rappresentare
tale messaggio per ottenere una trasmissione efficiente
dell’informazione in esso contenuta su di un canale di
comunicazione reale (con inevitabili limitazioni fisiche).
X={x1 , x2 , …, xM}
Sorgente
?
Canale
?
Destinazione
Trasmissione Numerica
Università di Trento
INTRODUZIONE
„
La teoria dell’informazione utilizza 3 concetti base:
„
misura di informazione di una sorgente;
„
capacità di informazione di un canale;
„
codifica: mezzo per utilizzare la capacità di canale
per trasferire informazione.
Trasmissione Numerica
Università di Trento
INTRODUZIONE
„
Codifica ottima: “adatta” sorgente e canale in modo da
avere
la
massima
“efficienza”
nel
trasferimento
dell’informazione.
„
Nella teoria dell’informazione, il processo di codifica viene
separato in 2 fasi distinte:
„
codifica di sorgente;
„
codifica di canale.
Trasmissione Numerica
Università di Trento
INTRODUZIONE
CODIFICA DI SORGENTE
„
La
codifica
di
sorgente
adatta
la
sorgente
alla
trasmissione su di un opportuno canale equivalente privo
di rumore.
„
La codifica di sorgente è governata dal 1° Teorema di
Shannon.
Trasmissione Numerica
Università di Trento
INTRODUZIONE
CODIFICA DI CANALE
„
La codifica di canale permette di trasmettere l’informazione
emessa dalla sorgente (opportunamente trattata mediante la
codifica di sorgente) in maniera affidabile su un canale reale
caratterizzato da limitazioni fisiche (es. rumore).
„
La codifica di canale è governata dal 2° Teorema di Shannon
Trasmissione Numerica
Università di Trento
INTRODUZIONE
Sorgente
Codifica di
sorgente
Canale equivalente
privo di rumore
Decodifica di
sorgente
Codifica di
canale
Canale reale
(rumoroso)
Decodifica di
canale
Destinazione
Trasmissione Numerica
Università di Trento
INTRODUZIONE
„
Nel seguito, dapprima analizzeremo il caso di informazione
legata ad una sorgente discreta.
„
Successivamente i risultati ottenuti nel caso discreto
verranno generalizzati al caso continuo.
„
Il
primo
passo
da
fare
nello
studio
della
teoria
dell’informazione è definire in maniera formale una sorgente
discreta e la quantità di informazione da essa emessa.
Trasmissione Numerica
Università di Trento
SORGENTE DISCRETA: DEFINIZIONE
„
Sorgente discreta: esperimento con diversi valori di uscita
caratterizzati da una conoscenza probabilistica del tasso
di emissione.
x1, x2, … , xM
VALORE DI USCITA
P1,P2, … , PM
PROBABILITA’
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE
„
La misura
di
informazione è legata all’incertezza
associata all’emissione di ciascun simbolo
xi (ovvero è
legata all’incertezza sul fatto che il valore di uscita
dell’esperimento sia proprio xi)
Forte incertezza
grande contenuto informativo
Messaggi “poco probabili”
grande contenuto informativo
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE
„
Quindi l’informazione associata ad un messaggio è legata
alla sua probabilità
le probabilità degli eventi
definiscono la funzione informazione (o la funzione
incertezza).
„
Shannon definì misura di informazione la quantità:
def
1
I i = − log b Pi = log b
Pi
I
L
b
autoinformazione del messaggio xi
base del logaritmo
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE:
PROPRIETA’
Ii ≥0
per
b)
Ii →0
per
Pi → 1
c)
Ii > Ij
per
Pi < Pj
a)
0≤ Pi ≤1
HYHQWR PROWR
SUREDELOH
SRFD
LQIRUPD]LRQH
i q PHQR SUREDELOH GL
j
i FRQWLHQH SL
LQIRUPD]LRQH GL j
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE:
PROPRIETA’
d) Consideriamo due messaggi indipendenti xi, xj :
P (xi , xj) = Pi ·Pj
(
)
I ij = − log b P xi , x j = − log b Pi Pj = − log b Pi − log b Pj = I i + I j
L’informazione
totale
è
uguale
alla
somma
dell’informazione associata ai singoli messaggi.
N.B.: La misura di informazione definita da Shannon è l’unica
funzione che soddisfa le 4 proprietà viste.
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE
„
Solitamente si lavora nel caso binario (b=2):
I i = log 2
„
Per una sorgente binaria con simboli equiprobabili:
P(x1 ) = P(x2 ) =
„
1
[bit ]
Pi
1
2
I 1 = I 2 = log 2 2 = 1 [bit ]
Questo significa che 1 bit è l’informazione necessaria per
distinguere tra 2 messaggi equiprobabili.
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE:
NOTAZIONE
„
„
E’ necessario distinguere tra:
„
bit intesi come misura di informazione;
„
bit intesi come vere e proprie cifre di un codice binario.
Nel seguito si userà il termine binit per indicare le cifre
binarie quali elementi fisici di un messaggio o di un
codice.
„
Il termine bit verrà associato alla misura di informazione.
Trasmissione Numerica
Università di Trento
SORGENTE DISCRETA SENZA
MEMORIA: DEFINIZIONE
„
„
Definiamo sorgente discreta senza memoria una sorgente
caratterizzata delle seguenti proprietà:
ƒ
sorgente che può emettere un insieme di M simboli X={x1, x2,
… , xM} ciascuno caratterizzato da probabilità Pi e
autoinformazione Ii ;
ƒ
Pi costanti nel tempo (sorgente stazionaria);
ƒ
simboli emessi in istanti differenti statisticamente indipendenti.
Indichiamo con r [simboli/sec] la symbol rate (velocità di
simbolo) media di emissione della sorgente.
Trasmissione Numerica
Università di Trento
ENTROPIA DI UNA SORGENTE
DISCRETA SENZA MEMORIA
„
L’informazione media per simbolo è data dalla media
statistica delle autoinformazioni dei simboli della sorgente
(I1 , I2 ,… , IM ):
def M
H (X ) =
„
M
∑ Pi I i = ∑ Pi log 2
i =1
i =1
1
[bit / simbolo]
Pi
Tale quantità è definita entropia della sorgente.
Trasmissione Numerica
Università di Trento
ENTROPIA DI UNA SORGENTE
BINARIA
„
Nel caso di sorgente binaria (M=2), l’entropia della sorgente
può assumere i seguenti valori:
0 ≤ H (X ) ≤ log2 M = 1
„
In particolare, note le probabilità di emissione dei simboli
(P1 =p e P2 =1-p), l’entropia di una sorgente binaria è data
da:
H (X ) = Ω ( p ) = p log 2
1
1
+ (1 − p )log 2
p
1− p
Trasmissione Numerica
Università di Trento
ENTROPIA DI UNA SORGENTE
BINARIA
Ω (p)
IL MASSIMO DELL’ENTROPIA SI
VERIFICA NELLE CONDIZIONI DI
EQUIPROBABILITA’ (p=0.5) E VALE
log22=1 [bit/simbolo]
p
Trasmissione Numerica
Università di Trento
ENTROPIA DI UNA
SORGENTE M-ARIA
„
Nel caso di sorgente M-aria, l’entropia H(X) dipende dalla
probabilità Pi dei simboli emessi dalla sorgente e dalla
dimensione M dell’alfabeto (M=numero di simboli).
„
Si può dimostrare che:
0 ≤ H (X ) ≤ log2 M
NESSUNA INCERTEZZA SUL
SIMBOLO EMESSO DALLA
SORGNTE (Pi =1, Pj =0 ∀j ≠i )
MASSIMA INCERTEZZA SUL
SIMBOLO EMESSO DALLA
SORGENTE (Pi =1/M, ∀i )
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
„
Se la sorgente emette una sequenza di n simboli (con
n>>1), l’informazione totale da trasferire è pari a circa
nH(X) bit.
„
Si definisce velocità di informazione della sorgente
(“information rate”) R la seguente quantità:
R=
DURATA DELLA
SEQUENZA NEL TEMPO
nH (X )
= rH (X ) [bit / sec]
nr
SONO BIT DI
INFORMAZIONE
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
„
Shannon: l’informazione proveniente da una sorgente
discreta senza memoria può essere codificata con cifre
binarie e trasmessa su di un canale senza rumore con
una bit rate rb che deve soddisfare il seguente vincolo:
rb ≥ R [binit / sec]
SONO CIFRE DI UN
CODICE BINARIO
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
NOTAZIONE
„
r è la symbol rate misurata in [simboli/sec];
„
R è la information rate misurata in [bit/sec];
„
rb è la signalling rate (o bit rate) misurata in [binit/sec].
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
„
Consideriamo una sorgente discreta senza memoria
caratterizzata dalla possibilità di emettere M simboli
differenti:
ƒ
se i simboli sono equiprobabili
ƒ
se i simboli non sono equiprobabili
R = r log 2 M
R = rH (X ) < r log 2 M
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
OSSERVAZIONI
„
Nel caso di simboli equiprobabili, l’informazione può essere
efficacemente trasmessa per mezzo di simboli M-ari con
symbol rate r.
„
Nel caso di simboli non equiprobabili, conviene usare una
un processo di codifica che tenga conto dell’informazione
variabile associata ai simboli e che consenta di trasmettere
ad una velocità prossima a R.
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
Consideriamo il caso di codifica binaria dei simboli di
sorgente.
Il codificatore produce un’uscita uguale a quella che
avrebbe una sorgente binaria con entropia
Ω(p) e
information rate rbΩ(p) (con p opportuno).
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
Poiché il codificatore non aggiunge né distrugge informazione,
allora l’information rate di ingresso deve essere uguale a quella
di uscita:
Information rate in
ingresso al codificatore
R = rH (X ) = rb( p ) ≤ rb
Bit rate in uscita dal
codificatore
Information rate in uscita
dal codificatore
Sorgente discreta
senza memoria
rb ≥ R
Codificatore
binario
R = rH (X )
R = rbΩ ( p )
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE
„
Si definisce lunghezza media di un codice la quantità:
rb
N=
r
„
Si può scrivere:
M
N = ∑ Pi N i
LUNGHEZZA DELLA
PAROLA DI CODICE
RELATIVA AL SIMBOLO
i-ESIMO
i =1
„
Parola di codice (caso binario): sequenza di “1” e “0” con
cui viene codificato un determinato simbolo.
Trasmissione Numerica
Università di Trento
1° TEOREMA DI SHANNON
„
Siano H (X ) l’entropia di una sorgente discreta senza
memoria e N il valore medio delle lunghezze delle parole
di codice che rappresentano i simboli emessi dalla
sorgente. Si può dimostrare che vale la seguente
condizione:
„
N ≥ H (X )
Il limite inferiore di N è quindi dato da
N = H (X ) .
Trasmissione Numerica
Università di Trento
EFFICIENZA DI UN CODICE
„
Un codice per cui vale
N = H (X )
si dice assolutamente
ottimo.
„
Un codice per cui si ottiene il valore minimo possibile di
N per una determinata sorgente si dice ottimo (anche se
N > H (X ) ).
„
Un codice con valore di N superiore a quello di un codice
ottimo si dice sub-ottimo.
Trasmissione Numerica
Università di Trento
EFFICIENZA DI UN CODICE
„
Il rapporto tra entropia e lunghezza media del codice:
R H (X )
=
≤1
rb
N
rappresenta una buona misura dell’efficienza di un codice
ottimo o sub-ottimo. Pertanto, si può definire l’efficienza
come:
efficienza % =
H (X )
⋅ 100
N
Trasmissione Numerica
Università di Trento
CODICE UNIVOCAMENTE
DECIFRABILE
„
Proprietà fondamentale di un codice: la sequenza di
simboli codificati non deve dare luogo ad ambiguità in
sede di decodifica.
„
Un codice che rispetta la suddetta proprietà è detto
unicamente decifrabile (ud).
„
Esempio: codice non ud
A→0, B→1, C→10, D→11
10011 può essere decodificato come
BAABB
CAD
CABB
Trasmissione Numerica
Università di Trento
CODICE UNIVOCAMENTE
DECIFRABILE ISTANTANEO
ƒ
Definizione: Codice ud istantaneo (o codice a prefisso)
Si dice codice ud istantaneo un codice in cui ogni parola è
identificabile non appena finita la sequenza binaria che la
rappresenta.
„
Per costruire un codice ud istantaneo, ogni parola di
codice deve essere scelta in modo tale che non risulti
prefisso di altre parole di codice.
„
Esempio di codice ud istantaneo:
A → 0, B → 10, C → 110, D → 111
Trasmissione Numerica
Università di Trento
DISUGUAGLIANZA DI
KRAFT-MCMILLAN
„
Data una sorgente discreta senza memoria che può emettere
uno tra M simboli, un codice binario ud che rappresenta tale
sorgente è sempre costituito da parole di codice aventi
lunghezze
che
soddisfano
la
seguente
Ni
disuguaglianza di Kraft-McMillan:
M
K = ∑ 2 − Ni ≤ 1
i =1
„
Viceversa, se si scelgono per le parole di codice che
rappresentano la sorgente lunghezze che soddisfano la
condizione di Kraft-McMillan, allora è sempre possibile
costruire un codice ud.
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE: ESEMPIO
„
Consideriamo una sorgente che emette 4 simboli non
equiprobabili:
P1 =
„
1
2
P2 =
1
4
P3 =
1
8
P4 =
1
8
L’entropia H(X) di questa sorgente è data da:
4
H (X ) = ∑ Pi log 2
i =1
1
1
1
1 1
= log 2 2 + log 2 4 + log 2 8 + log 2 8 = 1.75 [ bit / simbolo ]
8
Pi 2
4
8
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE: ESEMPIO
xi
Pi
&RG
&RG
&RG
&RG
$
%
&
'
N
.
Trasmissione Numerica
Università di Trento
CODIFICA DI SORGENTE: ESEMPIO
„
Codice 1 (codice a lunghezza fissa)
„ N =2
=1 → ud, efficienza 88%
N
„
Codice 2
„
Codice 3 (codice a virgola)
„ N = 1.25 < H (X ) , N>1 → non è ud!
„
„
N = 1.875 ,
<1 → ud, efficienza 93%
N
Codice 4 (codice ad albero)
„ N = 1.75 = H (X )
=1 → ud, efficienza 100% →
codice assolutamente ottimo
.
Trasmissione Numerica
Università di Trento
CODICE ASSOLUTAMENTE OTTIMO:
CONDIZIONE NECESSARIA
„
Un codice binario può essere assolutamente ottimo (cioè
N = H (X ) ) se e solo se k=1 e le probabilità dei simboli
sono tali per cui:
Pi =
„
1
2 Ni
i=1,2,…,M
Ni=LUNGHEZZA PAROLA i-ESIMA
Pertanto, il codice assolutamente ottimo dovrà avere:
Ni = − log2 Pi = Ii
Trasmissione Numerica
Università di Trento
CODICE ASSOLUTAMENTE
OTTIMO
ESEMPIO
1
1
P2 =
8
16
N1 = 3 N 2 = 4
P1 =
1
1
... PM =
2
64
N 3 = 1 ... N M = 6
P3 =
CONCLUSIONE
„
La strategia da adottare per effettuare la codifica di sorgente
prevede di assegnare ai simboli che hanno probabilità più
alta parole di codice più corte rispetto a quelle dei simboli
con probabilità più bassa.
Trasmissione Numerica
Università di Trento
CODICE DI SHANNON-FANO
„
Si tratta di un codice sub-ottimo univocamente decifrabile
semplice ed efficiente.
STRATEGIA DI CODIFICA
1.
I
simboli
vengono
ordinati
in
colonna
con
probabilità
decrescente.
2.
I simboli vengono divisi in due gruppi, tramite una riga
orizzontale, in modo che le probabilità cumulative dei due gruppi
siano le più simili possibili.
Trasmissione Numerica
Università di Trento
CODICE DI SHANNON-FANO
3.
Si aggiunge una cifra 0 a destra delle parole di codice del I°
gruppo e una cifra 1 a destra di quelle del II° gruppo.
4.
Per ognuno dei due gruppi si ripetono i passi dal 2 in poi.
5.
Quando tutti i gruppi sono stati ridotti ad un simbolo ⇒ il codice
è completo.
Trasmissione Numerica
Università di Trento
CODICE DI SHANNON-FANO:
ESEMPIO
Trasmissione Numerica
Università di Trento
CODICE DI SHANNON-FANO:
ESEMPIO
„
Se la symbol rate fosse r = 1000 [simboli/ sec] , la information
„
Il codice di Shannon-Fano avente
rate sarebbe pari a R = rH (X ) = 2150 [bit / sec] .
N = 2.18
richiede
una
bit rate rb = N ⋅ r = 2180 [binit/ sec] (si noti che, come atteso,
per i codici sub-ottimi rb > R ).
„
L’efficienza di tale codice vale:
efficienza % =
H (X )
2.15
⋅ 100 =
⋅ 100 = 98.6%
N
2.18
Trasmissione Numerica
Università di Trento
CODICE DI SHANNON-FANO:
ESEMPIO
„
Per confronto, vediamo quale efficienza e quale bit rate rb
avrebbe un codice a lunghezza di parola fissa.
„
Utilizzando il codice a lunghezza fissa con N = N i = log 2 8 = 3
si ottiene:
rb = N ⋅ r = 3 ⋅ 1000 = 3000 [binit / sec ]
efficienza % =
H (X )
2.15
⋅ 100 =
⋅ 100 = 71.6%
N
3
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN
„
Il codice di Huffman è un codice ottimo (ovvero permette di
ottenere il minimo N
possibile per una determinata
sorgente), ma non necessariamente assolutamente ottimo.
„
Pertanto si tratta di un codice che permette di avvicinarsi il
più possibile al limite del 1° teorema di Shannon ( N = H (X ) ).
Trasmissione Numerica
Università di Trento
CONDIZIONI DI OTTIMALITÀ
DI UN CODICE
Si può dimostrare che affinché un codice ud istantaneo sia
ottimo devono essere verificate le seguenti condizioni:
1. Si devono assegnare parole di codice più lunghe ai simboli meno
probabili:
Pi > Pj
Ni < Nj
2. Le due parole di codice meno probabili (che sono anche le più
lunghe) devono avere la stessa lunghezza:
NM-1=NM
3. Tra le parole di codice che hanno la stessa lunghezza, almeno 2
devono coincidere in tutti i bit tranne l’ultimo.
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN
Sulla base delle condizioni precedenti, Huffman ha sviluppato la
seguente strategia di codifica dimostrando che conduce ad un
codice ottimo (ovvero il più vicino possibile al limite di Shannon):
ƒ
Supponiamo di dover codificare i simboli xi emessi da una
sorgente S con M uscite caratterizzate dalle probabilità P1 ,…,PM.
ƒ
Analogamente a quanto fatto per il codice di Shannon-Fano, gli M
simboli da codificare vengono ordinati secondo le loro probabilità.
Supponiamo di essere nella seguente situazione :
P1 ≥ P2 ≥ ... ≥ PM
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN
ƒ
Consideriamo una sorgente S’ con M-1 uscite yi caratterizzate
dalle seguenti probabilità di emissione:
P’1 = P1
N’1
P’2 = P2
N’2
P’M-1 = PM-1 + PM
Lunghezza delle
parole di un codice
ottimo per S’
N’M-1= N’M-2
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN
Se conosciamo un codice ottimo per la sorgente S’, il codice ottimo
per la sorgente S può essere ottenuto nel modo seguente:
ƒ
Le prime M-2 parole di codice della sorgente S sono uguali a
quelle della sorgente S’. Pertanto:
Ni=N’i
ƒ
i=1,…,M-2
Le ultime 2 parole di codice della sorgente S vengono
generate aggiungendo alla parola yM-1 di S’ rispettivamente
un bit “0” e un bit “1”. Quindi, si ottiene:
NM = NM-1 = N’M-1+1
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN
CODICE OTTIMO PER LA
SORGENTE S’
Le prime M-2 parole di
codice non cambiano
CODICE OTTIMO PER LA
SORGENTE S
N1
N’1
Parola di codice
relativa al simbolo
xM-1
N’M-2= N’M-1
NM-2= N’M-2
0
Parola di codice relativa al
simbolo yM-1
1
Parola di codice
relativa al simbolo
xM
NM-1= NM = N’M-1 +1
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN
Tale strategia può essere iterata all’indietro fino a risalire ad una
sorgente binaria equivalente. Arrivati alla sorgente binaria
possiamo attribuire facilmente un codice ai due simboli emessi:
y1
y2
Simboli della sorgente binaria
0
1
Migliore codice possibile
(assolutamente ottimo solo se i simboli y1 e y2
sono equiprobabili)
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN: ESEMPIO
„
Consideriamo una sorgente discreta senza memoria
X={A,B,C,D,E} che può emettere uno tra 5 simboli
caratterizzati dalle seguenti probabilità:
P(A) = P1 = 0.4
„
P(B ) = P2 = 0.2 P(C ) = P3 = 0.2 P(D ) = P4 = 0.1 P(E ) = P5 = 0.1
L’entropia H(X) di questa sorgente è data da:
H (X ) =
5
∑ Pi log 2
i =1
1 2
5 1
= log 2 + log 2 5 +
Pi 5
2 5
1
1
1
+ log 2 5 + log 2 10 + log 2 10 ≅ 2.12 [bit / simbolo]
5
10
10
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN: ESEMPIO
Vediamo ora di costruire il codice di Huffman per tale sorgente
Simbolo
Probabilità di emissione
A
0.4
A
0.4
A
0.4
B+C+D+E
0.6
B
0.2
B
0.2
C+D+E
0.4
A
0.4
C
0.2
C
0.2
B
0.2
D
0.1
D+E
0.2
E
0.1
Raggruppiamo iterativamente i simboli meno probabili sino ad avere una sorgente binaria
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN: ESEMPIO
A questo punto possiamo costruire un codice ottimo per la
sorgente binaria ottenuta e derivare un codice ottimo per la
sorgente originaria
B+C+D+E (0.6)
A (0.4)
0
A (0.4)
1
A (0.4)
1
A (0.4)
1
1
C+D+E (0.4)
00
B (0.2)
01
B (0.2)
01
B (0.2)
01
C (0.2)
000
C (0.2)
000
D+E (0.2)
001
D (0.1)
0010
E (0.1)
0011
Migliore codice possibile per questa
sorgente binaria
(non è assolutamente ottimo)
Codice ottimo per la sorgente
considerata
Trasmissione Numerica
Università di Trento
CODICE DI HUFFMAN: ESEMPIO
ƒ
Calcoliamo ora la lunghezza media del codice ottenuto:
N=
ƒ
5
∑ Pi N i = 0.4 ⋅ 1 + 0.2 ⋅ 2 + 0.2 ⋅ 3 + 0.1 ⋅ 4 + 0.1 ⋅ 4 = 2.2 [binit / simbolo]
i =1
Il codice ottenuto è ottimo (la codifica di Huffman è sempre
ottima), ma non assolutamente ottimo. Infatti:
N ≠ H (X ) = 2.12 [bit / simbolo]
Trasmissione Numerica
Università di Trento
EFFICIENZA DI UN CODICE
UD ISTANTANEO
ƒ
Si può dimostrare che per un codice ud istantaneo valgono le
seguenti relazioni:
log 2
1
1
≤ N i < log 2 + 1
Pi
Pi
H ( X ) ≤ N < H (X ) + 1
Trasmissione Numerica
Università di Trento
EFFICIENZA DI UN CODICE
UD ISTANTANEO
ƒ
Sulla base delle precedenti relazioni, si può dire che un codice
ud istantaneo ha buona efficienza se
tutti i simboli si ha
ƒ
N i ≈ log 2
1
Pi
H (X ) >> 1
oppure se per
.
Se nessuna di queste condizioni è verificata, al fine di migliorare
le caratteristiche del codice, è possibile ricorrere ad un artificio
noto come “estensione della sorgente”.
Trasmissione Numerica
Università di Trento
ESTENSIONE DELLA SORGENTE
ƒ
Si dice che una sorgente S’ è un’estensione di ordine n di una
sorgente S, se i suoi simboli sono ottenuti raggruppando in
sequenze di lunghezza n i simboli emessi dalla sorgente S.
ƒ
E’ possibile codificare i simboli della sorgente estesa S’ anziché
i simboli della sorgente originale S senza perdere informazione.
ƒ
Si può dimostrare che codificando i simboli della sorgente
estesa di ordine n con un codice ud istantaneo si ottiene un
codice che soddisfa la seguente condizione:
H ( X ) ≤ N < H (X ) +
1
n
Trasmissione Numerica
Università di Trento
ESTENSIONE DELLA SORGENTE
ƒ
Per quanto visto, si può concludere che il meccanismo di
estensione della sorgente permette di avvicinarsi quanto si
vuole al limite di Shannon agendo sul valore di n. In particolare,
quando n → ∞ allora N → H (X ) .
OSSERVAZIONE
ƒ
N
Nella pratica aumentare n (ovvero avvicinare
a H (X ) )
significa incrementare significativamente la complessità del
decodificatore ed introdurre un ritardo di trasmissione.
Trasmissione Numerica
Università di Trento
SORGENTE DISCRETA
CON MEMORIA
ƒ
Sino ad ora abbiamo considerato sorgenti in cui i simboli
emessi sono statisticamente indipendenti.
ƒ
Molte sorgenti informative reali hanno una memoria: la
probabilità
di
emissione
di
un
simbolo
all’istante
considerato dipende dai simboli emessi precedentemente.
Trasmissione Numerica
Università di Trento
SORGENTE DISCRETA CON
MEMORIA: DEFINIZIONE
„
Definiamo sorgente discreta con memoria, una sorgente con
le seguenti proprietà:
ƒ
sorgente che può emettere un insieme di M simboli X={x1, x2,
… , xM} ciascuno caratterizzato da probabilità Pi e
autoinformazione Ii ;
ƒ
Pi costanti nel tempo (sorgente stazionaria);
ƒ
simboli emessi dalla sorgente in istanti differenti correlati:
( ) ( )
P xi x ≠ P xi
La probabilità che venga emesso il simbolo xi dipende dalla sequenza di simboli x
emessa precedentemente dalla sorgente
Trasmissione Numerica
Università di Trento
ORDINE DELLA MEMORIA
„
Definiamo ordine della memoria della sorgente il numero
di simboli precedentemente emessi che influenzano la
probabilità di emissione del simbolo corrente.
ƒ
Nel seguito considereremo il caso di una sorgente con
memoria di primo ordine (la probabilità del simbolo
emesso dipende solo dal simbolo precedente):
( ) (
P xi x = P xi x j
)
dove xj è il simbolo emesso prima di xi .
Trasmissione Numerica
Università di Trento
ENTROPIA DI UNA SORGENTE
DISCRETA CON MEMORIA
ƒ
Data una sorgente X con memoria di primo ordine, si
può definire la sua entropia condizionata al simbolo xj
come:
(
)
H X xj =
ƒ
∑ P(xi
def M
i =1
)
x j log 2
(
1
P xi x j
)
Mediando su tutti i possibili simboli xj , si ottiene:
M
( ) (
H ( X )= ∑ P x j H X x j
j =1
)
Valido solo per il caso di
memoria di primo ordine
Trasmissione Numerica
Università di Trento
ENTROPIA DI UNA SORGENTE
DISCRETA CON MEMORIA
ƒ
Le probabilità condizionate hanno l’effetto di ridurre il
valore dell’entropia (la memoria introduce una certa
prevedibilità
riducendo
la
quantità
di
informazione
associata ai simboli).
ƒ
Come si deve trattare una sorgente con memoria dal punto
di vista della codifica di sorgente?
Trasmissione Numerica
Università di Trento
CODIFICA PREDITTIVA
ƒ
Un modo di sfruttare la memoria della sorgente è quello di
utilizzare un meccanismo di codifica predittivo.
ƒ
Consideriamo il seguente schema:
Predizione del bit i-esimo
Sorgente M-aria
con memoria
~
x (i )
Predittore
Conversione da
simboli M-ari
a binari
x(i)
bit i-esimo della
sequenza binaria
ε(i)
sommatore modulo 2
Codificatore
errore di predizione
(vale o “0” o “1”)
Trasmissione Numerica
Università di Trento
CODIFICA PREDITTIVA
ƒ
L’ingresso ε(i) al codificatore è costituito da una sequenza di
bit.
ƒ
Se usiamo un “buon predittore” sbagliamo poco
nella
sequenza ε(i) compaiono molti “0” e pochi “1”.
ƒ
Essendo molto sbilanciate le probabilità degli “0” e degli “1”, la
sequenza ha un’entropia molto bassa.
Trasmissione Numerica
Università di Trento
CODIFICA PREDITTIVA
P{ε (i ) = 0} = p con
p >>
1
2
Essendo l’entropia della sequenza “errore” molto bassa, in uscita
dal codificatore è possibile ottenere una sequenza codificata con
una bit rate “bassa”.
Trasmissione Numerica
Università di Trento
CODIFICA RUN-LENGTH
ƒ
Abbiamo detto che la sequenza ε(i) è costituita da lunghe
stringhe di bit “0” intervallate da qualche bit “1”.
ƒ
Definizione: si dice run di lunghezza n una sequenza di n bit “0”
seguiti da 1 bit “1”.
ESEMPIO
«
0 0 1 0 0 0 0 0 0 0 0 0 0 0 1
«
run di lunghezza 11 (n=11)
Trasmissione Numerica
Università di Trento
CODIFICA RUN-LENGTH
ƒ
La codifica run-length sfrutta la presenza dei run
precedentemente definiti.
ƒ
Invece di trasmettere l’intera stringa, si trasmette il
valore n che caratterizza la sua lunghezza.
ƒ
Usando parole di codice composte da k bit, è possibile
rappresentare stringhe con lunghezza massima pari a
n=2k-1.
Trasmissione Numerica
Università di Trento
CODIFICA RUN-LENGTH
Esprime la lunghezza del run
ESEMPIO: k=3.
„
n
Parola di
codice
0
000
1
001
…
…
2k-2=6
110
2k-1=7
111
Rappresenta una situazione con un run
con n ≥ 7. In questa evenienza, il
codificatore deve attendere la parola di
codice successiva per ricostruire il run.
N.B.: Se si verifica troppo spesso la stringa “111” si deve
aumentare il valore di k.
Trasmissione Numerica
Università di Trento
CODIFICA RUN-LENGTH:
EFFICIENZA
ƒ
La codifica risulta efficiente se in media le parole di
codice hanno meno bit dei run che rappresentano.
ƒ
Indichiamo con E la media dei bit presenti in un run e
con N il numero medio dei bit delle di parole di codice
necessarie per codificare il run.
ƒ
La bit rate rb sarà data da:
N
rb = 
E

ƒ

r


Il rapporto N E dice quanto è efficiente la codifica. Più
piccolo è il rapporto, migliore è la codifica.
Trasmissione Numerica
Università di Trento
INTRODUZIONE ALLA CODIFICA
DI CANALE
Sorgente
Codifica di
sorgente
Canale equivalente
privo di rumore
Decodifica di
sorgente
Codifica di
canale
Canale reale
rumoroso
Decodifica di
canale
Destinazione
Trasmissione Numerica
Università di Trento
INTRODUZIONE ALLA CODIFICA
DI CANALE
„
Quanto visto per la codifica di sorgente ha senso solo nell’ipotesi
che il canale non introduca errori (Pbe=0). Infatti, per i codici visti,
un errore in ricezione distruggerebbe l’intero messaggio!
„
La codifica di canale affronta il problema di trasmettere in
maniera affidabile su un canale non-affidabile.
„
In pratica si realizza un processo di codifica a controllo d’errore
per ridurre gli effetti del rumore presente sul canale.
„
La codifica di canale è governata dal 2° Teorema di Shannon.
Trasmissione Numerica
Università di Trento
INTRODUZIONE ALLA CODIFICA
DI CANALE
„
Per semplicità, nel seguito assumeremo che sia la sorgente
sia il canale di trasmissione siano discreti (l’assunzione di
canale discreto è poco realistica).
„
In queste ipotesi, verranno definite la quantità di informazione
trasferita e la capacità di un canale.
Trasmissione Numerica
Università di Trento
CANALE DISCRETO: DEFINIZIONE
L’ingresso è costituito da un insieme
L’uscita è costituita da un insieme
finito X di simboli xi.
finito Y di simboli yj.
X = {x1 ,...,xM }
CANALE
Y = {y1 ,...,yK }
Il rumore e altre possibili distorsioni del canale alterano i simboli trasmessi, producendo
un alfabeto a destinazione Y che può essere diverso da quello di
ingresso X (K può essere diverso da M).
Trasmissione Numerica
Università di Trento
CANALE DISCRETO: NOTAZIONE
ƒ
P(xi) probabilità che la sorgente emetta il simbolo xi;
ƒ
P(yj) probabilità che a destinazione venga ricevuto il simbolo yj;
ƒ
P(xi,yj) probabilità congiunta che sia stato trasmesso il simbolo xi
e venga ricevuto il simbolo yj;
ƒ
P(xi / yj) probabilità condizionata che sia stato trasmesso il simbolo
xi dato che è stato ricevuto il simbolo yj;
ƒ
P(yj / xi) probabilità condizionata che sia stato ricevuto il simbolo yj
dato che è stato trasmesso il simbolo xi.
Trasmissione Numerica
Università di Trento
CANALE DISCRETO SENZA MEMORIA
TEMPO-INVARIANTE: DEFINIZIONE
ƒ
Si definisce canale discreto senza memoria tempo-invariante un
canale discreto:
ƒ
in cui l’uscita in un determinato istante dipende solo dal
simbolo in ingresso al canale in quell’istante e non dai simboli
precedentemente trasmessi.
ƒ
le cui proprietà non variano nel tempo;
ƒ
Un canale discreto senza memoria tempo-invariante è univocamente
definito dall’alfabeto di ingresso X, da quello di uscita Y e dalle
probabilità condizionate di transizione in avanti P(yj / xi).
Trasmissione Numerica
Università di Trento
CANALE DISCRETO SENZA MEMORIA
TEMPO-INVARIANTE: ESEMPIO
P(y1 / x1)
y1
x1
y2
P(y1 / x2)
P(y2 / x1)
P(y2 / x2)
x2
y3
P(y3 / x1)
P(y3 / x2)
PROBABILITÀ DI TRANSIZIONE IN AVANTI PER UN CANALE DISCRETO CON DUE SIMBOLI IN
INGRESSO (M=2) E TRE SIMBOLI IN USCITA (K=3)
Trasmissione Numerica
Università di Trento
CANALE DISCRETO SENZA
MEMORIA TEMPO-INVARIANTE
ƒ
Talvolta può essere utile scrivere le probabilità di transizione
di un canale in forma matriciale:
Matrice delle
probabilità di
transizione
ƒ
 P(y1 x1 ) P(y2 x1 )
 P(y x )
1 2
P=


P( y1 xM )
P(yK x1 ) 




P(yK xM )
Nota: per semplicità di notazione, da qui in poi assumeremo
implicita la tempo-invarianza ed indicheremo un canale discreto
senza memoria tempo-invariante semplicemente con la dicitura
canale discreto senza memoria.
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA
ƒ
Obiettivo: misurare l’informazione trasferita da un canale
(ipotesi: canale discreto senza memoria).
ƒ
Vediamo innanzitutto di introdurre l’entropia condizionata
alla ricezione di un particolare simbolo H(X/yj):
 1
H X y j = ∑ P xi y j log2 
 P xi y j
xi∈X
(
ƒ
)
(
)
(



)
Questa quantità esprime quanto vale l’incertezza sul
simbolo trasmesso (ovvero il simbolo emesso dalla
sorgente) una volta che è stato ricevuto il simbolo yj.
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA
ƒ
Il valore medio di H(X/yj) (ovvero la media calcolata su tutte
le possibili uscite) è chiamato entropia condizionata H(X/Y)
e rappresenta l’incertezza che rimane in media sul simbolo
trasmesso dopo l’osservazione del simbolo ricevuto:
 1
H (X Y ) = ∑ H X y j P y j = ∑ ∑ P xi , y j log2 
 P xi y j
y j∈Y
y j∈Y xi∈X
(
ƒ
)( )
(
)
(



)
H(X/Y) è anche chiamata equivocazione e può essere vista
come l’informazione perduta nel canale rumoroso.
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA
ƒ
L’entropia della sorgente H(X) rappresenta l’incertezza sul
simbolo inviato sul canale prima dell’osservazione dell’uscita.
ƒ
Sulla base di quanto visto fin qui, possiamo definire
l’informazione mutua media I(X;Y) di un canale come:
def
I (X ;Y ) = H (X ) − H (X Y )
ƒ
L’informazione mutua media I(X;Y) dice di quanto si sia ridotta
in media l’incertezza sul simbolo emesso dalla sorgente una
volta osservato il simbolo ricevuto.
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA
ƒ
L’informazione mutua media I(X;Y) può essere calcolata
anche come:
∑ P(xi , y j )I (xi ; y j ) [bit simbolo]
I (X ;Y ) = ∑
xi∈X y j∈Y
dove I(xi;yi) è l’informazione mutua associata alla trasmissione
del simbolo xi ed alla ricezione del simbolo yi (ovvero la
quantità di informazione trasferita sul canale quando viene
trasmesso xi e viene ricevuto yi). I(xi;yi) è definita come:
(
)
(
P xi y j
I xi ; y j = log2
P(xi )
def
) [bit]
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE
MUTUA: PROPRIETÀ
1. L’informazione mutua media di un canale è simmetrica,
ovvero:
I (X ;Y ) = I (Y ; X )
2. L’informazione mutua media è sempre una quantità nonnegativa:
I (X ;Y ) ≥ 0
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE
MUTUA: PROPRIETÀ
3. L’informazione mutua media di un canale può essere espressa
come:
I (X ;Y ) = H (Y ) − H (Y X )
dove H(Y) è l’entropia a destinazione e H(Y/X) è chiamata
entropia di rumore. H(Y) e H(Y/X) sono date rispettivamente da:
( )
H (Y ) = ∑ P y j log2
y j∈Y
H (Y X ) = ∑
(
1
P yj
( )
)
∑ P xi , y j log 2
xi∈X y j ∈Y
(
1
P y j xi
)
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE
MUTUA: PROPRIETÀ
4. L’ informazione mutua media di un canale è legata all’entropia
congiunta di ingresso e uscita H(X,Y) secondo la seguente
relazione:
I (X ;Y ) = H (X ) + H (Y ) − H (X ,Y )
dove H(X,Y) è definita come:
H (X ,Y ) =
∑ ∑
xi∈X y j ∈Y
(
)
P xi , y j log 2
1
P xi , y j
(
)
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA
ƒ
Abbiamo già detto che descrivere un canale discreto senza
memoria significa stabilire gli alfabeti X, Y e le probabilità di
transizione in avanti P(yj/xi).
ƒ
Per calcolare I(X;Y) sono necessarie:
‚
le probabilità congiunte P(xi,yj) , le probabilità condizionate
P(xi / yj) e le probabilità di emissione dei simboli P(xi);
oppure:
‚
le probabilità congiunte P(xi,yj) , le probabilità condizionate
P(yi / xj) e le probabilità P(yi).
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA
ƒ
In realtà, fissate le probabilità di emissione dei simboli di
sorgente P(xi) e note le probabilità di transizione P(yj|xi), si
hanno tutti i dati per il calcolo dell’informazione mutua.
ƒ
Infatti, utilizzando il Teorema di Bayes, si può scrivere:
(
) (
)
P xi , y j = P y j xi P(xi )
I (X ;Y ) = ∑
∑ P(xi , y j )log2
xi∈X y j∈Y
( )=
P y j xi
( )
xi∈X y j∈Y
( )
(
P yj
( )
∑ ∑ P y j xi P(xi )log2
( )
∑ P(y j xi )P(xi )
P y j xi
xi∈X
)
(
)
P y j = ∑ P xi , y j = ∑ P y j xi P(xi )
xi∈X
xi∈X
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA:
CASI PARTICOLARI
ƒ
CANALE SENZA RUMORE (IDEALE)
Esempio: M=K=3
Ogni simbolo yj identifica solo un determinato xi:
(
)
P xi y j = 1
 1 
I xi , y j = log2 
 = Ii
(
)
P
x
 i 
(
)
x1
x2
y1
y2
x3
y3
L’informazione trasferita è identica all’autoinformazione del
simbolo xi . Ragionando in media si ha:
I (X ;Y ) = H (X )
Trasmissione Numerica
Università di Trento
MISURA DI INFORMAZIONE MUTUA:
CASI PARTICOLARI
ƒ
RUMORE INFINITO (CANALE “INUTILE”)
L’osservazione di yj non riduce l’incertezza sul simbolo xi
trasmesso:
(
)
P xi y j = P(xi )
(
)
I xi , y j = log2 1 = 0
L’informazione trasferita è nulla. Ragionando in media si ha:
I (X ;Y ) = 0
Trasmissione Numerica
Università di Trento
CANALE BINARIO SIMMETRICO:
DEFINIZIONE
ƒ
Si definisce canale binario simmetrico un canale discreto con le
seguenti caratteristiche:
‚
l’alfabeto di sorgente è composto da due simboli x1 e x2
caratterizzati da probabilità P(x1)=p e P(x2)=1-p;
‚
l’alfabeto di destinazione è composto da due simboli y1 e y2;
‚
le probabilità di transizione valgono:
P( y1 x2 ) = P( y2 x1 ) = α
P( y1 x1 ) = P( y2 x2 ) = 1 − α
Trasmissione Numerica
Università di Trento
ESEMPIO: CANALE BINARIO
SIMMETRICO
P(x1 ) = P1 = p
P(x2 ) = P2 = 1 − p
 P( y1
P=
P( y1
1-α
x1
x2
x1 ) P( y2
x2 ) P( y2
α
y1
α
y2
1- α
x1 ) 1 − α α 
=

x2 )  α 1 − α 
Trasmissione Numerica
Università di Trento
ESEMPIO: CANALE BINARIO
SIMMETRICO
ƒ
È possibile verificare che per un canale binario simmetrico
valgono le seguenti relazioni:
H (Y ) = Ω [P(y1 )] = Ω (α + p − 2αp)
H (Y X ) = Ω (α )
dove Ω(p) è l’entropia di una sorgente binaria definita come:
Ω ( p ) = p log 2
1
1
+ (1 − p )log 2
p
1− p
Trasmissione Numerica
Università di Trento
ESEMPIO: CANALE BINARIO
SIMMETRICO
ƒ
Nel caso di canale binario simmetrico, l’informazione mutua
è quindi data da:
I (X ;Y ) = H (Y ) − H (Y X ) = Ω (α + p − 2αp) − Ω (α )
I(X;Y)
α=0
1
0<α<1/2
0.5
p
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN CANALE DISCRETO
ƒ
ƒ
L’informazione mutua di un canale I (X ;Y ) dipende dalle
probabilità di transizione in avanti P(yj|xi) e dalle probabilità
di emissione dei simboli della sorgente P(xi). Pertanto,
I ( X ;Y ) non dipende solo dal tipo di canale considerato, ma
anche dall’uso che viene fatto del canale.
Al fine di caratterizzare un canale discreto senza memoria
indipendentemente dalla sorgente in ingresso, si definisce
capacità del canale il valore massimo dell’informazione
mutua rispetto a tutte le possibili distribuzioni delle
probabilità dei simboli di ingresso:
CS = max {I (X ;Y )} [bit / simbolo]
{P(xi )}
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN CANALE DISCRETO
ƒ
La capacità di canale rappresenta il massimo trasferimento
di informazione possibile per simbolo di un canale, ottenuto
in presenza di una particolare statistica di sorgente.
ƒ
La capacità di canale può essere anche misurata in termini
di velocità nel trasferimento dell’informazione (information
rate).
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN CANALE DISCRETO
ƒ
Se s [simboli/sec] indica la massima velocità dei simboli
(symbol rate) permessa dal canale, allora la capacità del
canale per unità di tempo è data da:
C = s ⋅ CS [bit / sec]
ƒ
La capacità di canale per unità di tempo C rappresenta la
massima velocità di trasferimento dell’informazione permessa
dal canale.
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
ƒ
La capacità di canale è una caratteristica propria del canale
(non dipende dall’ingresso considerato) ed è legata alla
matrice di transizione.
ƒ
In generale non è semplice calcolare la capacità di un
canale.
ƒ
In ipotesi di canale è simmetrico, il calcolo della capacità di
canale si semplifica.
Trasmissione Numerica
Università di Trento
CANALE DISCRETO SIMMETRICO
ƒ
Definizione: canale discreto simmetrico
Un canale discreto simmetrico è un canale in cui le
probabilità di transizione sono tali per cui la probabilità di
transire risulta uguale per tutti i simboli (la matrice di
transizione è formata da righe e colonne caratterizzate dagli
stessi valori di probabilità).
ƒ
In un canale discreto simmetrico l’entropia condizionata
H (Y xi ) è indipendente dal simbolo xi (non dipende dalla
riga della matrice di transizione su cui si fa il calcolo).
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
ƒ
Vediamo quanto vale la capacità di canale CS nel caso di
canale discreto simmetrico:


CS = max{H (Y ) − H (Y X )}= maxH (Y ) − ∑ P(xi )H (Y xi ) =
{P( x )}
{P( x )}
i
i

xi ∈X



= max H (Y ) − H (Y xi ) ∑ P(xi ) = max {H (Y ) − H (Y xi )}
{P(xi )}
 {P(xi )}
xi∈X
È indipendente da xi
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
ƒ
Pertanto l’informazione mutua I(X;Y) è massima quando
H(Y) è massima. Ciò è verificato quando i simboli yj sono
equiprobabili.
ƒ
Vediamo quale condizione deve essere verificata sui
simboli di ingresso xi al fine di ottenere simboli in uscita yj
equiprobabili:
( ) ∑ P(y j , xi ) = ∑ P(y j xi )P(xi ) = M1 ∑ P(y j xi )
x ∈X
x ∈X
x ∈X
P yj =
i
i
sono equiprobabili
i
Se gli M ingressi sono equiprobabili
Non dipende da j
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
ƒ
Quindi, nel caso di canale discreto simmetrico, i simboli in
uscita sono equiprobabili quando anche i simboli in
ingresso sono equiprobabili.
ƒ
La capacità del canale può quindi essere determinata
assumendo equiprobabili i simboli di ingresso.
Trasmissione Numerica
Università di Trento
ESEMPIO: CAPACITÀ DI UN
CANALE BINARIO SIMMETRICO
ƒ
Nel caso di canale binario simmetrico, abbiamo già visto
che la media dell’informazione mutua vale:
I (X ;Y ) = H (Y ) − H (Y X ) = Ω (α + p − 2αp) − Ω (α )
I(X;Y)
α=0
ƒ
1
0<α<1/2
0.5
p
Per ogni α la curva che
descrive
l’informazione
mutua ha un massimo per
p=0.5, ovvero per simboli
equiprobabili.
Trasmissione Numerica
Università di Trento
ESEMPIO: CAPACITÀ DI UN
CANALE BINARIO SIMMETRICO
ƒ
Pertanto, ponendo p =0.5 si ottiene:
Cs = Ω (α + p − 2αp) − Ω (α ) = 1 − Ω (α )
CS
1
0.5
1
α
Trasmissione Numerica
Università di Trento
ESEMPIO: CAPACITÀ DI UN
CANALE BINARIO SIMMETRICO
ƒ
Quindi la capacità di canale CS dipende dalla probabilità di
transizione α.
Osservazioni (sorgente binaria)
ƒ
Canale ideale (senza rumore):
α=0
ƒ
CS=1 [bit/simbolo]
Canale molto rumoroso:
α→1/2
CS→0 [bit/simbolo]
Trasmissione Numerica
Università di Trento
CODIFICA DI CANALE
ƒ
A questo punto diventa importante studiare come sia
possibile utilizzare la capacità di un canale per trasferire
l’informazione emessa da una sorgente.
ƒ
Dato un canale reale (ovvero “rumoroso”) caratterizzato da
una capacità di informazione data, è possibile utilizzare una
strategia che permetta di ottenere dal punto di vista del
trasferimento dell’informazione un canale equivalente senza
rumore?
Trasmissione Numerica
Università di Trento
CODIFICA DI CANALE
ƒ
In un sistema di trasmissione numerica, la presenza di un
canale “rumoroso” causa delle discrepanze (errori) tra la
sequenza di dati in ingresso al sistema e quella in uscita.
ƒ
Per canali “relativamente” rumorosi la probabilità di errore sul bit
è dell’ordine di 10-2.
ƒ
Per applicazioni reali, tipicamente è necessario ottenere una
probabilità di errore sul bit di informazione dell’ordine di 10-6.
ƒ
Tali valori di probabilità d’errore si possono raggiungere
effettuando una codifica della sequenza da trasmettere (codifica
di canale).
Trasmissione Numerica
Università di Trento
CODIFICA DI CANALE
ƒ
L’obiettivo della codifica di canale consiste nell’aumentare
la resistenza di un sistema di telecomunicazione al rumore
presente sul canale.
ƒ
La codifica di canale “trasforma” la sequenza di dati in
ingresso al canale in una nuova sequenza intrinsecamente
più robusta agli effetti del rumore.
ƒ
La decodifica di canale effettua l’operazione inversa in
uscita dal canale al fine di ricostruire le sequenza orginale
(che rappresenta l’informazione della sorgente).
Trasmissione Numerica
Università di Trento
CODIFICA DI CANALE
ƒ
L’approccio adottato nella codifica di canale solitamente consiste
nell’introdurre ridondanza.
ƒ
Sfruttando tale ridondanza, il decodificatore può ricostruire il
messaggio originale anche in presenza di bit errati.
OSSERVAZIONE
ƒ
L’obiettivo della codifica di sorgente è quello di ridurre la
ridondanza per incrementare l’efficienza del sistema di
trasmissione.
ƒ
L’obiettivo della codifica di canale è quello di introdurre ridondanza
per incrementare l’affidabilità del sistema di trasmissione.
Trasmissione Numerica
Università di Trento
ESEMPIO: CODICI A BLOCCHI
ƒ
I codici a blocchi costituiscono un semplice approccio alla
codifica di canale.
ƒ
La sequenza da trasmettere viene divisa in blocchi di k bit di
informazione. Ogni blocco viene codificato con n bit (n>k).
k
ƒ
n-k
Il numero di bit ridondanti è quindi pari a n-k. Tali bit
vengono scelti in modo da ottenere una protezione
dell’informazione dal rumore (vedi parte 4 del corso).
Trasmissione Numerica
Università di Trento
ESEMPIO: CODICI A BLOCCHI
ƒ
Se una sorgente emette M simboli equiprobabili, ogni
simbolo della nuova parola di codice ha associata
un’informazione pari a log2 M n .
ƒ
Si definisce code rate la quantità Rc = k n .
ƒ
Aumentando n aumenta la ridondanza introdotta e quindi la
resistenza del codice al rumore, ma aumenta il tempo
necessario alla trasmissione della sequenza (a parità di
altre condizioni).
Trasmissione Numerica
Università di Trento
CODIFICA DI CANALE
ƒ
A questo punto ci si può porre la seguente domanda:
Esiste uno schema di codifica (eventualmente anche molto
complicato) tale da rendere la probabilità di errore di un
canale reale rumoroso arbitrariamente piccola?
ƒ
Il 2° Teorema di Shannon fornisce una risposta precisa alla
domanda precedente.
Trasmissione Numerica
Università di Trento
2° TEOREMA DI SHANNON: IPOTESI
ƒ
Supponiamo di avere una sorgente discreta senza memoria
con alfabeto X, entropia H(X) e symbol rate r.
ƒ
Per quanto visto precedentemente, l’information rate della
sorgente vale R=rH(X).
ƒ
Supponiamo di disporre di un canale discreto senza
memoria con capacità per unità di tempo pari a C [bit/sec].
Trasmissione Numerica
Università di Trento
2° TEOREMA DI SHANNON
Nelle ipotesi precedenti, il 2° Teorema di Shannon afferma che:
ƒ
Se R≤C allora esiste un sistema di codifica tale da
permettere la trasmissione dell’informazione emessa dalla
sorgente sul canale con una probabilità di errore
arbitrariamente piccola.
ƒ
Se invece R>C non è possibile trasmettere l’informazione
senza errori.
Trasmissione Numerica
Università di Trento
2° TEOREMA DI SHANNON:
OSSERVAZIONI
ƒ
Il 2° Teorema di Shannon non fornisce dettagli sul sistema
di codifica necessario per ottenere probabilità d’errore
arbitrariamente piccola, ma afferma solo che, se R≤C, esso
esiste.
ƒ
Nella pratica, si può verificare che per ridurre la probabilità
d’errore si deve incrementare il numero di bit di ridondanza
(n-k).
ƒ
Per (n-k) → ∞ il tempo necessario per la trasmissione del
messaggio codificato tende però all’infinito.
Trasmissione Numerica
Università di Trento
SORGENTI E CANALI CONTINUI
ƒ
Fino ad ora è stato considerato il caso in cui sia la sorgente che il
canale sono discreti.
ƒ
Nel seguito si generalizzerà la trattazione al caso più realistico di
sorgente che emette un segnale continuo e di canale anch’esso
continuo.
ƒ
La capacità del canale sarà espressa in termini di larghezza di
banda e di rapporto segnale-rumore (legge di Hartley-Shannon).
ƒ
Si arriverà alla definizione di un sistema di telecomunicazione
ideale che serve come riferimento per il confronto con i sistemi
reali.
Trasmissione Numerica
Università di Trento
SORGENTI CONTINUE
ƒ
Nel caso continuo, la sorgente può produrre un insieme di
possibili segnali nel tempo x(t) che può essere visto come
un processo aleatorio che si assume essere ergodico.
ƒ
Si effettua inoltre l’ipotesi che il processo abbia larghezza di
banda limitata, in modo da poterlo campionare senza
perdita
di
informazione
(vedi
Teorema
del
Campionamento).
Trasmissione Numerica
Università di Trento
SORGENTI CONTINUE
ƒ
Ad ogni istante di campionamento, l’insieme dei possibili
valori assunti dal campione costituisce una variabile
aleatoria continua x descritta dalla sua funzione di densità
di probabilità pX(x).
ƒ
La quantità di informazione media per campione è misurata
tramite la funzione entropia così definita:
H (X ) =
+∞
∫
−∞
p X (x )⋅ log 2
1
dx
p X (x )
Trasmissione Numerica
Università di Trento
SORGENTI CONTINUE
OSSERVAZIONE
ƒ
In realtà l’entropia assoluta associata ad una sorgente
continua è sempre ∞. Ciò è facilmente verificabile
applicando il concetto di limite alla definizione di entropia
per una sorgente discreta:
1
H ass (X ) = lim ∑ p X (xi )∆x log 2
=
∆x →0 i
p X (xi )∆x
=
+∞
∫
−∞
p X (x )log 2
1
p X (x )
dx − lim log 2 ∆x
Questa è la H(x) definita precedentemente e
rappresenta una misura di entropia relativa
(o differenziale)
∆ x →0
Questo termine vale sempre
-∞
non è informativo
Trasmissione Numerica
Università di Trento
CANALI CONTINUI
ƒ
La sorgente emette il segnale x(t) che, dopo essere stato
corrotto dal rumore presente sul canale, arriva a destinazione
come segnale y(t). In analogia al caso discreto, la media
dell’informazione mutua trasferita dal canale può essere
calcolata come:
I ( X ;Y ) =
+∞ +∞
∫ ∫
−∞ −∞
p XY (x , y )log 2
p X (x y )
p X (x )
dx dy
dove pX(x) è la densità di probabilità della sorgente, pXY(x,y) è la
densità di probabilità congiunta e pX (x|y) è la densità di
probabilità di transizione all’indietro.
Trasmissione Numerica
Università di Trento
CANALI CONTINUI
ƒ
Tipicamente, si conosce la densità di probabilità di transizione
in avanti pY(y/x) del canale; pertanto, conviene calcolare
l’informazione mutua mediante la seguente espressione:
I (X ;Y ) = H (Y ) − H (Y X )
ƒ
Si noti che, come nel caso discreto, l’informazione mutua è
una quantità simmetrica per cui può anche essere calcolata
come:
I (X ; Y ) = H ( X ) − H (X Y )
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN
CANALE CONTINUO
ƒ
La capacità di un canale continuo è data da:
C S = max {I (X ; Y )}
p X (x )
ƒ
[bit / campione]
Se il canale ha larghezza di banda fissata B, allora y(t) è
anch’esso a banda limitata. Campionando al limite di Nyquist
( fc=2B ) si ottengono 2B campioni (o simboli) al secondo.
Trasmissione Numerica
Università di Trento
CAPACITÀ DI UN
CANALE CONTINUO
ƒ
Pertanto, la massima velocità di trasferimento dell’informazione è
data da:
C = 2BCS
[bit / sec]
ƒ
C definisce la capacità per unità di tempo di un canale continuo a
banda limitata.
ƒ
Per calcolare la capacità di un canale continuo, dobbiamo quindi
determinare Cs. Vediamo come si può fare nell’ipotesi di canale
che introduca un rumore additivo gaussiano bianco (AWGN).
Trasmissione Numerica
Università di Trento
CANALE CONTINUO CON
RUMORE AWGN
Consideriamo un canale con le seguenti caratteristiche:
ƒ
il canale non provoca distorsioni all’interno della banda B e ogni
attenuazione è compensata da opportune amplificazioni;
ƒ
il canale vincola il segnale in ingresso x(t) ad essere un segnale a
banda limitata con potenza media fissata S = x 2 ;
ƒ
il segnale y(t) a destinazione è contaminato da rumore n(t) additivo
gaussiano bianco a media nulla e potenza media N= σ2 =ηB;
ƒ
il segnale e il rumore sono indipendenti:
y(t)=x(t)+n(t)
y2 = S + N
Potenza media
di y(t)
Trasmissione Numerica
Università di Trento
LEGGE DI HARTLEY-SHANNON
ƒ
Shannon ha dimostrato che la capacità di una canale continuo
AWGN con le caratteristiche descritte in precedenza può essere
calcolata come:
 S
C = B log2 1 + 
 N
[bit / sec]
LEGGE DI
HARTLEY-SHANNON
dove B è la banda del canale espressa in [Hz] e
il rapporto segnale-rumore a destinazione.
ƒ
S
N
è
Come atteso, C aumenta se aumenta la banda B o se aumenta
S
.
N
Trasmissione Numerica
Università di Trento
LEGGE DI HARTLEY-SHANNON:
DIMOSTRAZIONE
ƒ
Abbiamo visto prima che la capacità di canale è data da:
C = 2BCS = 2B max{I (X ;Y )} = 2B max{H (Y ) − H (Y X )}
p X (x )
ƒ
p X (x )
In analogia al caso discreto, l’entropia di rumore H(Y/X) si
può scrivere come:
H (Y X ) =
+∞ +∞
∫ ∫
−∞ − ∞
p X (x ) pY (y x )log 2
1
dxdy
PY (y x )
Trasmissione Numerica
Università di Trento
LEGGE DI HARTLEY-SHANNON:
DIMOSTRAZIONE
ƒ
Nell’ipotesi di rumore additivo indipendente si può scrivere:
pY ( y x ) = pY (x + n ) = pn ( y − x )
ƒ
Quindi, l’entropia di rumore H(Y/X) si può scrivere come:
H (Y X ) =
+∞
∫
pn (n )log 2
−∞
ƒ
1
p n (n )
dn =
1
log 2 2πeN
2
L’entropia di rumore non
dipende da pX(x)
Pertanto la capacità Cs sarà data da:
[
]
1
Cs = max H (Y ) − H (Y X ) = max{H (Y )}− log2 2π eN
p X (x )
p X (x )
2
Trasmissione Numerica
Università di Trento
LEGGE DI HARTLEY-SHANNON:
DIMOSTRAZIONE
ƒ
La potenza media del segnale in ricezione è data da:
y(t ) = x(t ) + n(t ) ⇒ y 2 = S + N
ƒ
1
H (Y ) ≤ log2 2π e(S + N )
2
Si può dimostrare che H(Y) è uguale al suo massimo quando
pX(x) è gaussiana a media nulla. In tali condizioni si ha:
1
1
1
S+N
Cs = log2 2π e (S + N ) − log2 2π e N = log2 

2
N
2
2


 S
C = B log2  1 + 
 N
C.V.D.
Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
ƒ
Al fine di ottenere una probabilità d’errore circa nulla, deve essere
verificata la condizione R ≤ C .
ƒ
Si definisce sistema di telecomunicazione ideale un sistema che
ha un tasso d’errore quasi nullo (Perr≅0) con un’information rate
pari a:
S

R = B log 2  1 + 
N

Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
ƒ
La legge di Hartley-Shannon dice qual’è l’ottimo
compromesso sullo scambio tra banda e potenza. In
particolare, essendo N=ηB, con B banda del canale e
η
densità spettrale di potenza del rumore AWGN, si può
2
scrivere:

S 

C = B log 2 1 +
 ηB 
Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
ƒ
Assumendo che η e R abbiano valori fissati, si ricava una
espressione utile che identifica le condizioni affinché la
trasmissione dell’informazione avvenga ad una rate R≤C:
R
S
B B 
≥  2 − 1
ηR R 

Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
comunicazioni reali
R<C
R=C
B
<1
R
R>C
impossibile per comunicazioni reali
Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE: OSSERVAZIONI
ƒ
ƒ
ƒ
Nella regione corrispondente a R>C è impossibile ottenere
un trasmissione affidabile.
B
< 1 (compressione di banda) occorre aumentare
R
Se
notevolmente la potenza del segnale al fine di trasmettere
in maniera affidabile.
B
>1
R
Se
(espansione di banda) si può effettuare una
trasmissione affidabile anche con basse potenze del
B
S
≈ 1.6 [dB] ).
→∞ ,
segnale (per
ηR
R
Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
ƒ
Un canale ideale con larghezza di banda infinita ha
capacità C∞ finita data da:

 S ln(1 + λ )

S 
S
S
 = lim 
C∞ = lim  B log 2  1 +
1
.
44
=
≅

B →∞ 
B →∞ η λ
B
ln
2
η
η


 η ln 2



λ=
ƒ
S
→ 0
η B B →∞
ln(1 + λ )
→ 1
λ
λ →0
In pratica se:
B
> 10
R
C ≅ C∞
Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
ƒ
I risultati ottenuti sulla base della legge di Hartley- Shannon
si riferiscono ad un sistema di telecomunicazione ideale
(pertanto non realizzabile nella pratica).
ƒ
Tuttavia, tali risultati sono molto utili nella progettazione di
un sistema di telecomunicazioni reale, in quanto
definiscono il limite superiore delle prestazioni ottenibili da
un sistema modellabile con un canale corrotto da rumore
AWGN.
Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
ESEMPIO
ƒ
Sia dato un canale AWGN con B = 1 [KHz ]
e
η = 1 [µW / Hz ] .
ƒ
Trovare il minimo valore della potenza S (espressa in
[mW]) per avere un collegamento affidabile a R =100
[bit/sec] , R =1000 [bit/sec], R = 10000 [bit/sec].
Trasmissione Numerica
Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
SOLUZIONE
ƒ
ƒ
Usando la relazione:
R
S
B B 
≥  2 − 1
ηR R 

si ricava:
R
B B 
S ≥ η R  2 − 1
R

−3
Poiché η B = 10 allora:
 R

− 3  1000

−1
S ≥ 10 ⋅ 2




 R = 100 → S ≥ 0.072 [mW ]

 R = 1000 → S ≥ 1 [mW ]
 R = 10000 → S ≥ 1023 [mW ]

Trasmissione Numerica
Università di Trento
CONFRONTO CON I SISTEMI DI
TELECOMUNICAZIONE ANALOGICI
ƒ
I parametri essenziali per effettuare un confronto tra un
sistema ideale e i sistemi di comunicazione analogici sono:
‚
il rapporto segnale-rumore;
‚
l’occupazione di banda.
ƒ
Consideriamo un sistema analogico generico in cui il
segnale a destinazione abbia banda W e rapporto segnalerumore (S/N)D.
ƒ
Consideriamo un canale AWGN con banda BT e rapporto
SR
segnale-rumore dato da
(dove SR è la potenza del
η BT
segnale in ricezione).
Trasmissione Numerica
Università di Trento
CONFRONTO CON I SISTEMI DI
TELECOMUNICAZIONE ANALOGICI
 S 
R = W log 2 1 +   
  N D 
MODULATORE
CANALE AWGN

S
C = BT log 2 1 +
 η BT
SORGENTE
ANALOGICA
ƒ



DEMOD.
DESTINAZIONE
La massima information rate ottenibile in uscita è data da:
 S 
R = W log 2 1 +   
  N D 
ƒ
In ogni caso, l’information rate non può superare la capacità
del canale:

SR 

R ≤ C = BT log 2  1 +
 η BT 
Trasmissione Numerica
Università di Trento
CONFRONTO CON I SISTEMI DI
TELECOMUNICAZIONE ANALOGICI
ƒ
Ponendo R≤C e risolvendo rispetto a (S/N)D si ottiene:

SR
S
  ≤ 1 +
 N  D  η BT



BT
W
 γ
− 1 = 1 +  − 1
 b
b
dove:
b=
BT
S
, γ = R
W
ηW
Trasmissione Numerica
Università di Trento
CONFRONTO CON I SISTEMI DI
TELECOMUNICAZIONE ANALOGICI
ƒ
La relazione trovata fornisce un termine di confronto per
tutti i sistemi di comunicazione analogici (è sufficiente
fornire a b e a γ i valori che caratterizzano il sistema in
esame).
ƒ
Solitamente, si usa confrontare grafici che rappresentano
(S/N)D in funzione di γ (avendo fissato b) oppure che
rappresentano γ in funzione di b (avendo fissato (S/N)D).
Trasmissione Numerica
Università di Trento
CONFRONTO CON I SISTEMI DI
TELECOMUNICAZIONE ANALOGICI