Progetto del ricevitore
1. Considerazioni generali
Nelle descrizione delle tecniche di modulazione numerica in banda base e passa banda il progetto
del ricevitore segue sempre regole di carattere generale: ricevere il segnale riducendo al minimo
l’interferenza di intersimbolo e gli effetti del rumore.
In realtà, date le differenti tecniche di modulazione e di canale possibili, non è detto che tale criterio
del tutto generale possa essere anche l’ottimale, tenuto conto che si dovrebbe per lo meno
quantificare gli effetti di una riduzione di interferenza di intersimbolo (ISI) e del rumore. Serve
quindi un approccio più sistematico al progetto di un ricevitore numerico.
Il segnale che giunge al ricevitore, supponendo tale segnale da solo (quindi per ora non
consideriamo l’intersimbolo), si può riassumere come uno tra una collezione di segnali possibili
(tutti quelli permessi dal sistema di modulazione) più del rumore (di natura statistica). Un semplice
approccio potrebbe essere quindi quello di calcolare l’energia della differenza tra il segnale ricevuto
e tutti i possibili modelli di segnale permesso nella costellazione e scegliere il segnale che dà luogo
alla minima energia:
Ei  


y(t )  si (t ) dt
2
(1)
essendo y (t )  s j (t )  n(t ) il segnale ricevuto e si (t ) i  1,..., N la costellazione di segnali.
Questo criterio, noto con il nome di criterio di minima energia, corrisponde anche al criterio di
minima distanza se interpretato nello spazio dei vettori. In tale spazio la rappresentazione di ogni
segnale è data da un vettore, la cui norma è la radice quadrata dell’energia di quel segnale. Secondo
tale definizione quindi il segnale da scegliere è quello che si trova più vicino a quello della
costellazione data.
S4
S1
y
S3
S2
Figura 1: esempio di decisione basato su minima distanza schematizzato nel piano dei simboli, per un QPSK
Nell’esempio in figura, dato il tipo di costellazione presente, la scelta basata sul criterio a minima
distanza è anche la scelta basata sul quadrante nel quale cade il segnale ricevuto y (t ) . Questo
principio si basa sul fatto che il sistema di trasmissione numerico funzioni correttamente, cioè che
l’evento errore sia abbastanza raro e che quindi la scelta di tale criterio si possa considerare
ragionevole. Se la presenza del rumore fosse eccessiva infatti, accadrebbe raramente che il segnale
della costellazione più vicino a quello ricevuto corrisponde effettivamente a ciò che è stato
trasmesso.
I sistemi di trasmissione numerica si basano quindi sempre sull’ipotesi che gli effetti di disturbo
(ISI, rumore, distorsione del canale, parziale sincronizzazione del timer) siano sempre contenuti
entro limiti ragionevolmente bassi.
2. Il modello del segnale
Un modello molto utile per la rappresentazione del segnale in ambito della trasmissione numerica è
quello di un vettore appartenente ad uno spazio vettoriale, nel quale sia stata definita anche
un’operazione di prodotto interno. Questo modello permette di generalizzare il ragionamento,
prescindendo così dal tipo di modulazione numerica adottata.
In tale modello il segnale ricevuto sia Y, consistente in uno dei possibili segnali di un certo set
S1, S2 ..., S L  più del rumore additivo di entità ignota. Il ricevitore non conosce né quale tra gli L
segnali è stato trasmesso, né l’entità del rumore. La trasmissione di ogni segnale Sl comporta la
trasmissione di un informazione di log2L bit.
L’operazione di prodotto interno è così definita per segnali analogici e numerici:

X ,Y   x(t ) y* (t )dt
(2)
x y
(3)


X ,Y 
k  
X
k
*
k
 X , X (energia del segnale)
2
(4)
Per molti tipi di modulazione il numero di segnali L è grande e può risultare molto vantaggioso
ridurre tale numero, dato che la dimensionalità dello spazio vettoriale nel quale è definita la
modulazione risulta sempre uguale ad un N  L. In tal caso scegliamo una base ortonormale dello
spazio vettoriale in questione 1, 2 ...,  N , tale che:
N
Sl   S n ,l  n  S n ,l  Sl ,  n
(5)
n1
3. Criterio di decisione a minima distanza
Si assuma il segnale della forma: Y  Sl  N , con Sl il segnale ignoto ed N il rumore. Il criterio di
decisione a minima distanza sceglie il segnale Sl per il quale risulta che

Y  Sl
2

  y(t )  s (t ) y(t )  s (t ) dt 
*
l


l
 Y  Sl
2
è minimo. Poiché il valore di Y
si può imporre che:
2
2
 2 Re  Y , Sl

Y  Sl
2
2



  y (t ) sl* (t )dt  y * (t ) sl (t )dt  





(6)
non varia al variare di l, può essere ignorato nel criterio e quindi
1 

max Re Y , Sl  El 
l 
2 
El  Sl
2
(7)
Il ricevitore calcola, idealmente, tutti i prodotti scalari Y, Sl e li confronta con El fino a che non
trova il segnale l per il quale quella differenza è massima.
Lo stesso ragionamento si può fare se al posto di tutti i segnali l si considera la base ortonormale
nella quale il set di segnali si può scomporre:
N

N

Re Y , Sl   Re  Sn*,l Y , n   Re  S n*,l cn 
 n1

 n1

(8)
se con cn  Y , n si indicano i prodotti interni che permettono di scomporre il segnale di arrivo
nella base ortonormale. Il criterio, si può mostrare, porta alla seguente relazione:
min Y  Sl
2
 min
N

n 1
N
min
l
c
n 1
n
 Sn,l
2
cn n 
N

n 1
2
Sl ,n  n
 min
N

2
(cn  Sl ,n )n 
n 1
(9)
cioè la minimizzazione della distanza nello spazio vettoriale, fatta sulle componenti della base
ortonormale.
In base a questa considerazione è evidente che sistemi di modulazione con i segnali disposti nello
spazio abbastanza lontani tra loro sono avvantaggiati rispetto a sistemi di modulazione nei quali i
segnali sono tutti ammassati in una piccola area. Dal punto di vista dell’immunità del sistema al
rumore, quello che conta è la distanza relativa tra le posizioni dei vettori ed in particolare, tra tutte
le possibili distanze che si possono calcolare, la minima tra queste:
d min  min Si  S j
i j
(10)
Quando si dimensiona un sistema supponendo il rumore di tipo gaussiano questo parametro è
l’unico che conta nel calcolo della probabilità d’errore del sistema e quindi nel progetto del
ricevitore numerico.
Quanto finora riportato vale sia se il sistema di modulazione è passa basso, sia se il sistema di
modulazione risulta passa banda, dato che in quest’ultimo caso è sempre possibile pensare di
demodulare il segnale y (t ) e successivamente confrontarlo con i segnali si (t )  Re pi (t )  e o t ,
equivalenti passa basso del set di segnali passa banda che danno luogo al sistema di modulazione.


4. Applicazione del criterio m.d. alle tecniche di modulazione
PAM senza ISI
In questo caso si può considerare il segnale, dopo l’applicazione del filtro e del campionatore, come
un campione (eventualmente complesso se derivante da un segnale passa banda) composto dalla
somma di un segnale (non noto) della costellazione più un campione di rumore:
y  al  n
(11)
dove al  am m  1,..., M  è il set di valori (genericamente complessi) della costellazione. Si noti
che qui si è scesi nel caso particolare di un ricevitore che fa filtraggio e campionamento, quindi i
valori y, al , n sono numeri complessi, non vettori di uno spazio vettoriale.
L’applicazione del criterio di minima distanza comporta che si cerchi il valore l tale che:
min
Y  Sl
l
2

 min
y  al  max 2 Re yal*  al
l
2
l
2

(12)
dove a secondo membro il calcolo è fatto con il valore assoluto.
(Esempio: si consideri la modulazione PSK, dove am  e j m e y  Ae j . Il criterio comporta la
ricerca
del
segnale
l
per
il
quale
risulta
che:
2
j ( l )
*
 1  max
A cos  l  ).
max 2 Re yal  al  max 2 Re A  e
l
l
l


Il criterio di minima distanza si riduce alla ricerca del valore assoluto delle distanze tra i valori della
costellazione:
amin  min ai  a j .
(13)
i j
PAM senza ISI: studio del filtro adattato
Facendo un passo indietro, il segnale in arrivo prima del filtraggio è un segnale analogico, che si
può scrivere nella forma:
y(t )  al h(t )  n(t )
(14)
Con h(t ) la forma dell’impulso ricevuto (quindi trasmesso e passato attraverso il canale) ed al il
simbolo trasmesso. Nel caso unidimensionale si può scegliere una base ortonormale fatta da un solo
2
segnale: h(t )   h (t ) , con  h l’energia dell’impulso h(t ) .
Il criterio di minima distanza diventa quindi:

2



 
2
*
*
max 2 Re   y(t )al  h (t )dt    al h (t ) dt   max 2 Re al* h  c   h2 al
l
l



 
equivalente anche a:
min c   h al


2

(16)
(17)
l
(infatti: c   h al  c   h al c   h al *   c  2 Re  h al *c  h2 al2  ),
2
2

dove la variabile di decisione c 
 y(t ) (t )dt  y(t )   (t )
*
*

t 0
è quella che giustifica all’interno
del progetto l’uso del moltiplicatore più l’integratore (progetto con correlatore) o l’uso di un filtro
adattato più un campionatore in t=0 (progetto con filtro adattato).
y (t )



decisore a
soglia con
 h al
 * (t )
Figura 2: progetto di un ricevitore numerico con moltiplicatore e integratore
y (t )
 * (t )
campionatore
t=0
decisore a
soglia con
 h al
Figura 3: progetto di un filtro numerico con filtro adattato e campionatore a t=0.
Come si vede il ricevitore numerico ottimo, con il filtro adattato, è stato ricavato seguendo il criterio
di minima distanza. Tuttavia il progetto non ha tenuto conto della presenza dell’intersimbolo. In
presenza di ISI allora tale progetto potrebbe non essere più l’ottimo.
La distanza minima tra i segnali del set è:

d2 
 (a
2
i
 a j )h(t ) dt ,
d min   h amin (18)

Da cui si evince che la minima distanza non dipende dalla forma dell’impulso ma dalla sua energia,
e cresce al crescere dell’energia dell’impulso trasmesso.
Modulazione ortogonale multipulse
In questa situazione si ha a disposizione un set di N segnali ortogonali tra loro (come può essere per
esempio nel caso della modulazione FSK, code multiple access, etc) del tipo: 1,2 ...,  N  e il
segnale ricevuto vale: y(t )   hl (t )  n(t ) . Riapplicando il criterio di minima distanza già visto in
precedenza












2
*
(cioè: max
2 Re  h  y(t )l (t )dt     hl  dt  ), si arriva ad una condizione del tipo:
l
max Recl 
(19)
l

essendo
cl 
 y(t )
*
l
(t )dt . Il corrispondente schema del ricevitore numerico dovrebbe
 l
comprendere (almeno in teoria) N ricevitori, in ciascuno dei quali, mediante correlatore o filtro
adattato si ricavano i vari cn e un decisore a soglia che seleziona il più grande.
Naturalmente nelle modulazioni che si possono considerare una combinazione di PAM (pulse
amplitiude modulation) e orthogonal multipulse, quindi nelle situazioni più generali, avremo una
combinazione delle due situazioni viste sopra, e cioè un set di L segnali s k (t ) che si possono
scomporre tramite un set di N funzioni ortonormali n (t ) , così che il segnale ricevuto si possa
scrivere:
N
y(t )  sl (t )  n(t )   h   an,ln (t )  n(t )
(20)
n 1
Questo set di segnali sono ortogonali tra loro, hanno tutti la stessa energia  h2 e sono modulati in
ampiezza dai valori an ,l (come accade per esempio in alcune particolari modulazioni che sono
varianti della QAM usate negli standard per i modem telefonici analogici).
In queste ipotesi il criterio di minima distanza generalizzato diventa:
N
min
l
c
n 1
n
  h a n ,l
2
(21)
5. PAM con l’interferenza di intersimbolo
La situazione più generale di ricezione di segnale numerico è quella in cui il segnale ricevuto non è
isolato, bensì sovrapposto ad una serie di altri segnali che rappresentano la sequenza di simboli
complessivamente trasmessa:
K
y (t )   ak h(t  kT )  e(t )
(22)
k 1
dove sul segnale ricevuto h(t ) non facciamo per ora alcuna ipotesi sul fatto che sia limitato nel
tempo o che soddisfi il criterio di Nyquist. Supporremo tuttavia che sia ad energia finita  h2 .
L’effetto complessivo del rumore e di altri disturbi verrà complessivamente indicato con e(t ) . I
simboli giunti si suppongano anche indipendenti tra di loro.
Se i simboli derivano da un alfabeto di M simboli, allora l’intero set di segnali possibili sarà dato
da: L  M K , numero che può diventare rapidamente grande, se dovessimo fare una scelta
(contemporanea) su tutti i possibili risultati.

K

k 1
2

Il criterio di minima distanza generalizzato può essere scritto come: min
 y(t )   ak h(t  kT)  , da cui
ak

si ricava:

*

 

  y(t )  k ak h(t  kT)   y(t )  m am h(t  mT ) dt 



y (t )  dt 
2

* *
 y(t )   am h (t  mT )dt 

m

*
 y (t )   ak h(t  kT)dt 

k

  a a h(t  kT)h (t  mT )dt 
k
 k
*
m
*
m


K
 K K
max 2 Re  uk ak*    ak am*  h (m  k )
ak ,1 k  K 
 k 1
 k 1 m 1


(23)

dove  h (k )   h(t )h* (t  kT )dt è l’autocorrelazione (campionata) dell’impulso (singolo) ricevuto,

il cui spettro sarà quindi la ripetizione periodica a passo 1/T della densità spettrale di potenza di
h(t ) ; inoltre si ha

uk   y(t )h* (t  kT )dt , che sono i valori campionati dell’output del filtro

adattato.
Si osservi che nel caso precedente di modulazioni con ricezione di un singolo segnale si arrivava ad
uno schema di ricezione nel quale si ha un campionatore all’istante t  0 ; ora si ha la
generalizzazione di questo ragionamento, e il campionatore campiona ad ogni istante t  kT .
y (t )
h* (t )
filtro adattato
campionatore
t=kT
Figura 4: progetto di un ricevitore numerico
uk
La complicata formula (23) ci dice complessivamente una cosa: che la scelta della giusta sequenza
di simboli viene effettuata in una sola volta, rilevando prima tutti i simboli e poi scegliendo la
combinazione che dà la minima norma euclidea (quindi considerando tutte le possibili condizioni di
ISI). Inoltre mentre il progetto classico di ricevitore numerico viene effettuato utilizzando un filtro
di ricezione che elimini l’ISI, in questo ragionamento generalizzato tale assunto non è
indispensabile, dato che la compensazione dell’ISI è fatta in modo del tutto differente
(complessivo).
Si osservi inoltre che il criterio di Nyquist dice che la minima banda di un segnale modulato PAM
deve essere metà del simbol rate. Questo significa che, praticamente, il criterio di progetto di un
ricevitore numerico introduce sempre aliasing nelle operazioni di ricezione. Di questo si deve tenere
conto nel progetto (proprio per questo esistono, nella pratica comune, ricevitori detti fractionally
spaced, che operano inizialmente ad un passo di campionamento più elevato).
Infine si osservi che se il progetto rimanesse quello descritto qui, le difficoltà progettuali
crescerebbero esponenzialmente al crescere di K. Fortunatamente esistono progetti alternativi in cui
entra in gioco anche l’equalizzazione o sistemi in grado di abbassare la complessità, come i sistemi
basati sull’algoritmo di Viterbi.
Progetto pratico del ricevitore
Il progetto del ricevitore può essere diviso in due casi: il caso il cui abbiamo una serie di impulsi in
ricezione ortogonali tra loro ed il caso generalizzato in cui questo non avviene.
Nel primo caso l’output del filtro adattato soddisfa il criterio di Nyquist, cioè:  h (k )   h2 k e
quindi gli spettri del segnale h(t) si sovrappongono in modo da dare una costante (o
equivalentemente il campionamento del segnale ad ogni istante t=kT ‘legge’ uno solo dei valori,
dato che tutti gli altri valgono zero in quegli istanti).
La formula precedente si semplifica notevolmente, dato che diventa:
K
min
u   h2 ak
a ,1k K   k
k
2
(24)
k 1
(infatti la relazione precedente porta a :
min
ak
 u
k
2
k


2

  h4 ak  2 Re u k ak*  h2  max 2 Re 
ak



u a     a
k
*
k
k
2
h
2
k
k

,

da cui si riottene la (23) in assenza di ISI, dato che in quel caso  h (m  k )   h2   mk ).
Intuitivamente, viene fatta la minimizzazione complessiva di tutti i K errori sul segnale ricevuto
(dato che in questo caso u k si semplifica in u k   h2 ak  ek ). La struttura del ricevitore è quella
illustrata in figura.
y (t )
h* (t )
filtro
campionatore
t=kT
uk
+
accopiato

 h2 ak
decisore a
norma euclidea
-
Figura 5: progetto generalizzato di un ricevitore numerico
Poiché inoltre si ha la somma di tanti termini positivi, la minimizzazione può essere fatta
distintamente per ciascuno di loro. Questo riduce il progetto precedente, in sistemi di modulazione
relativamente semplici, ad un progetto più semplice, in cui il confronto è fatto non
complessivamente (situazione che diventerebbe rapidamente ingestibile al crescere di K), ma
separatamente k per k.
y (t )
h* (t )
filtro adattato
campionatore
t=kT
uk
decisore a
soglia
 h2 a k
Figura 6: progetto di un ricevitore numerico con decisione su singolo simbolo
(Nota: nella figura precedente si noti che il decisore a soglia ha il livello della soglia fissato in base
al valore:  h2 a k e non  h ak come in figura 2 o 3. Ciò è dovuto al fatto che il filtro adattato qui è:
h* (t ) e non  * ( t ) ).
Un esempio in cui la semplificazione precedente non funziona è la codifica AMI. In tale codifica la
ridondanza è richiesta al codificatore per altri motivi, (si ricordi: per assicurare che la componente
d.c. sia nulla e vi sia una buona densità di alternanze di simboli). Questa semplice ‘complicazione’
impedisce di utilizzare il ricevitore numerico proposto in figura 6 come ricevitore ottimo. Nella
codifica AMI infatti si ha alternanza di livelli, +1 e -1 per descrivere il bit 1. Se allora la decisione
sui simboli è fatta indipendentemente è possibile che si scelga una sequenza di simboli non lecita
complessivamente, anche se le singole scelte sono state fatte in modo localmente ottimale.
E’ necessario in tal caso ritornare ad utilizzare il ricevitore generalizzato di figura 5, dato che
quest’ultimo calcolerebbe la norma euclidea soltanto di sequenze lecite - in cui vi sono le
alternanze di +1 e -1. In particolare per una sequenza di K bit in ingresso vi sono soltanto 2K
sequenze valide tra tutte le 3K sequenze possibili.
In generale: una qualunque codifica in cui sia presente dipendenza tra i simboli richiederà una
decisione che, in ipotesi di ottimalità teorica, richiede l’insieme complessivo dei simboli, così che si
possa scegliere soltanto tra un gruppo di sequenze (quelle lecite) tra tutte le sequenze possibili.
Progetto generalizzato
Il calcolo diretto della (23) risulta in situazioni pratiche sempre troppo difficile da far effettuare ad
un ricevitore efficiente, dato che il calcolo del criterio di minima distanza diventa, secondo la (23)
proporzionale a K2, ed inoltre la decisione stessa si basa su una serie di opzioni che cresce
esponenzialmente con K (MK).
Si è visto che precedentemente il caso speciale in cui non vi è ISI riduce il ricevitore a minima
distanza tempo continuo ad un ricevitore tempo discreto, in cui le operazioni di verifica del criterio,
per trovare la sequenza a minima distanza, si possono fare dopo il campionamento. Anche nel caso
di presenza di ISI le cose possono procedere in questo modo, e questo permette di ridurre la
complessita computazionale per singola decisione da K2 a K.
Il passo fondamentale consiste nel supporre che lo spettro replicato di h (k ) (che ricordiamo è
l’autocorrelazione campionata a passo T –l’inverso del symbol rate-, dell’impulso ricevuto h(t ) ),
S h (z ) , si possa scomporre nella seguente forma:
S h ( z )  Ah2Gh ( z )  Gh* (1 / z * )
(25)
dove Gh (z ) risulta una funzione di trasferimento a fase minima, cioè con i suoi zeri all’interno della
circonferenza di raggio unitario. Chiaramente Gh* (1 / z * ) avrà gli zeri all’esterno della circonferenza
di raggio unitario. Nel dominio temporale (discreto) si avrebbe:
h (k )  Ah2  gh, k  gh*, k 
(26)
Il progetto del ricevitore numerico nel caso generalizzato può essere così cambiato: all’uscita del
campionatore si faccia passare il segnale u k attraverso un filtro numerico, 1 / Ah2  Gh* (1 / z * ) :

W ( z )  U ( z ) / A  G (1 / z )
2
h
*
h

*
uk

1 / Ah2Gh* (1 / z* )
wk

Figura 7
um  A  wm  g
2
h

*
h,  m
 A   wk g h*, k  m .
2
h
k m
Questo filtro numerico è detto (per motivi che saranno chiari in seguito) ‘precursor equalizer’.
Tale filtro si suppone stabile.
Il segnale in uscita da questo equalizzatore, wk , si confronta non più con  h2 ak come in precedenza,
ma con una generalizzazione di questa quantità: ak  g h , k , cioè la sequenza di tutti i possibili
(eventualmente leciti, se la codifica ha ridondanza) ak fatti passare attraverso il filtro Gh (z ) . Il
confronto viene fatto in termini di norma euclidea, sommando tutti gli errori residui e scegliendo tra
tutte le sequenze lecite quella che rende tale norma minima.
Il criterio matematicamente diventa:

K

max 2 Re  uk ak*  
 ak ,1k  K 
 k 1



 a min
,1k  K 
k
K

K
 a a  (s  k ) 
k
k 1
*
s
h
s 1

2
K
 w  a g
m
m1
Si provi infatti a scomporre la relazione precedente:
k
k 1
h , m k
(27)
2
K

K
K
K
K


*
*
wm   ak g h ,mk    wm wm*   wm ak g * h ,mk   w* m ak g h ,mk   ak as g h ,mk g * h ,m s  
ak 
m 1
k 1
m 1 
k 1
k 1
k 1 s 1










max  2 Re wm  ak* g h*,mk    ak as* g h ,mk g h*,ms   max 2 Re  ak*  wm g h*,mk    ak as*  g h ,mk g h*,m s  
ak
ak
m 1 
k
m
m

 k s
 k
 k s






u 
 (s  k )
max 2 Re  ak* k2    ak as* h 2

ak
A
Ah
k
s


h 
 k

min
Che conduce facilmente alla (27). La struttura è mostrata di seguito.
y (t )
h* (t )
filtro
uk
campionatore
t=kT
accopiato
equalizzatore
precursivo
1 / Ah2Gh* (1 / z* )
wk
+

k
decisore a
norma euclidea
ak
Gh (z )
-
Figura 8: schema di un ricevitore numerico con equalizzatore precursivo
Questa struttura si può pensare come la struttura generalizzata di un ricevitore: in presenza di ISI
non confrontiamo più il simbolo isolato a k con l’uscita del campionatore, bensì la sequenza
ak  g h , k , effettuando il confronto per tutte le possibili sequenze a k . Quando si ha una data
sequenza ak ,1  k  K e il filtro Gh (z ) è FIR, allora il carico computazionale è proporzionale a K.
Questa soluzione permette di ovviare il problema della (23) in cui il carico computazionale è
proporzionale a K2, ma non permette di eliminare il problema dello studio di tutte le possibili
combinazioni di sequenze, che rende il carico proporzionale anche a M K. Se la sequenza Gh (z ) non
è FIR si può sempre pensare di approssimare come una sequenza FIR. Si osservi infine che la
sommatoria in (27) è calcolata per un numero infinito di termini. Infatti, sebbene la sequenza di
simboli può essere finita, così non è per l’ISI, che può facilmente essere infinito.
Il termine ‘precursor equalizer’ deriva dal fatto che tale filtro funziona come un equalizzatore, nel
senso che esso elimina una parte dell’ISI, cioè inverte (anche se solo parzialmente) la risposta del
canale e del filtro adattato. Il termine precursore è dovuto quindi al fatto che questo filtro possiede
la desiderabile proprietà di eliminare la parte anticasuale della risposta all’impulso del canale e del
filtro adattato.
Se il filtro Gh (z ) è a fase minima e stabile (gh,k causale), allora G*h (1 / z* ) è a fase massima, con i
poli esterni alla circonferenza di raggio unitario, e così è anche 1 / G* h (1 / z * ) . Allora per essere
stabile un filtro del genere (con i poli esterni alla circonferenza di raggio unitario) deve essere
anticausale, il che lo rende in teoria impraticabile.
La scomposizione di S h (z ) è stata fatta supponendo che Gh (z ) dovesse essere a fase minima.
Tuttavia se si riuscisse a trovare una scomposizione che dia la stessa sequenza di simboli rilevati
ak ,1  k  K , per noi tale scomposizione sarebbe equivalente. Se questa scomposizione esiste,
allora il criterio (nel tempo discreto) di minima distanza non è univoco. In particolare, essendo
K
wk   am g h ,k m   k , si può sempre pensare di far passare i campioni di rumore attraverso un filtro
m1
passa tutto che non cambi la norma euclidea finale:
k
H allpass(z )
 'k
decisore a
norma euclidea
Figura 9: modifica allo schema in Fig. 8 nel caso di scomposizione del canale differente dalla Eq. (25)


  m    'm
m 1
2
2
(28)
m 1
Se la sequenza di rumore passa attraverso questo filtro il decisore a norma euclidea non cambierà la
sua scelta della particolare sequenza di valori di ak . Questo significa che il filtraggio
1 / Ah2G*h (1 / z * ) può essere sostituito con H allpass( z) / Ah2G*h (1 / z* ) , ed equivalentemente anche
Gh (z ) con H allpass( z )Gh ( z ) . Se il filtro passa tutto è stabile, esso ha i poli interni alla circonferenza
di raggio unitario e gli zeri esterni (in corrispondenza ai poli). Questo fatto renderà H allpass( z )Gh ( z )
non più a fase minima1.
Una delle proprietà della risposta di un sistema a fase minima è che concentra la maggior parte
dell’energia nel primi campioni, cioè vicino allo zero. Per un filtro del tipo H allpass( z )Gh ( z ) questo
non accade più e quindi anche l’ISI sarà meno concentrato attorno allo zero. Questa struttura è
molto importante per gli effetti pratici di un altro tipo di equalizzatore (decision-feedback
equalizer).
6. Il rumore in un ricevitore numerico con equalizzatore precursivo
Si analizzano ora le prestazioni di un ricevitore numerico con equalizzatore precursivo. Una
conclusione notevole è che il rumore in uscita da tale ricevitore è bianco (campionato), tant’è che
l’insieme dei blocchi: filtro adattato, campionatore, equalizzatore precursivo è detto filtro adattato
sbiancante. (whitened matched filter, WMF).
K
Dato il generico segnale in ingresso, y (t )   ak h(t  kT )  e(t ) , e considerando a parte il rumore,
k 1
il
adattato
filtro
ha
risposta
all’impulso
pari
a
h* (t ) .
L’uscita
è
quindi:

 h (k )   h(t )h* (t  kT )dt , la cui trasformata Zeta è: S h ( z )  Ah2  Gh ( z )Gh* (1 / z * ) . Il passaggio

1
Si ricordi che un filtro passa tutto è un filtro con i poli e gli zeri simmetrici rispetto alla circonferenza di raggio
unitario. Se quindi è stabile, ha tutti i poli interni e, corrispondentemente tutti gli zeri esterni ed in posizione reciproca
N
rispetto ai poli. La sua formulazione generale è del tipo: H a p ( z ) 
a z
n
n
n 0
N
a z
n
n 0
N n
attraverso l’equalizzatore precursivo elimina il termine Ah2  Gh* (1 / z* ) , lasciando soltanto la parte
causale dell’interferenza di intersimbolo (equalizzando la parte anti-causale).
La statistica del rumore si può determinare facilmente.
N (t )
h* (t )
filtro adattato
Z (t )
campionatore
t=kT
equalizzatore
precursivo
1 / Ah2Gh* (1 / z* )
Zk
Vk
e  jt
Figure 10: Filtro adattato sbiancante
Il rumore gaussiano e bianco N (t ) con densità spettrale di potenza bilatera N 0 / 2 , dopo
demodulazione entra nel filtro adattato h* (t ) . Il rumore in uscita ha densità spettrale di potenza:
SZ ( f )  N0  H ( f )
2
(29)
Poiché il rumore è circolarmente simmetrico, la densità spettrale di potenza lo caratterizza
pienamente (è anche stazionario in senso lato). La sua versione campionata è anche stazionaria in
senso lato e circolarmente simmetrica, con densità spettrale di potenza:
S Z (e jT )  N 0  S h ( z )
(30)
ma non è bianco. Infine il processo di rumore in uscita dall’equalizzatore precursivo è gaussiano,
circolarmente simmetrico, ed è anche bianco:
SV ( z )  N 0  S h ( z ) 
dato che
N
1
1
 2
 20
*
A G (1/ z ) Ah Gh ( z ) Ah
2
h
*
h
(31)
1
 z , quando valutato in z  e jT .
*
z
La parte reale e la parte immaginaria del rumore sono statisticamente indipendenti ed hanno la
stessa altezza della densità spettrale di potenza:
N0
2 Ah2
e varianza
N0 1
 .
2 Ah2 T
In conclusione: la presenza del filtro adattato (utile a massimizzare l’energia relativa al singolo
simbolo e quindi il SNR) introduce l’ISI ed inoltre rende il rumore non bianco; l’equalizzatore
precursivo serve ad eliminare la parte non causale dell’ISI ed a sbiancare il rumore.
7. La probabilità d’errore
Si consideri un vettore formato da un segnale noto più del rumore gaussiano complesso,
circolarmente simmetrico e bianco:
Y  Sm  Z
con Y  Y1, Y2 ,..., YN  è il segnale ricevuto e
T
(34)
T
Sm   Sm,1, Sm,2 ,..., Sm, N 
è il vettore di simboli ricevuti,
scelto da un alfabeto noto: Sl ,1  l  L (e dove N è il numero di eventi).
Applicando il criterio di minima distanza si ha:
min Y  Sl
2
(35)
l
Ora ci si chiede: qual è la probabilità d’errore?
Si sbaglia se si sceglie un simbolo Si differente da S m . In tal caso si deve cercare la probabilità che
questo accada. Poiché il ricevitore è configurato per scegliere il simbolo che rende minima la (35),
allora la probabilità d’errore è la probabilità che si scelga un simbolo Si differente da S m perché
esso è più vicino ad Y . Questo ci dà:
Y  Si  Y  S m  Z  ( Si  S m )  Z 
2
2
2
2
Z  ( Si  Sm )  2 Re Z , Si  Sm   Z
2
Semplificando Z
ha:
2
2
e dividendo per d m,i 
Si  S m

S  Sm

Re  Z , i
d m,i



 d m,i

2


2
2
, cioè la distanza tra i due simboli Si ed S m , si
(36)

S  S m 
Si  S m
è di lunghezza unitaria e quindi la variabile aleatoria Re  Z , i
 è
d m,i 
d m ,i

d
gaussiana, reale e con varianza  2 . La probabilità che questa v.a. sia  m,i dà il risultato voluto:
2
Il vettore
d 
PWm,i   Q m,i 
 2 
(37)
detto Wm,i l’evento: Y più vicino ad Si che ad Sm . La funzione Qx  è la funzione di Marcum
(integrale della coda di una gaussiana a media nulla e varianza unitaria).
La probabilità d’errore trovata precedentemente non conclude il discorso: infatti la (37) è la
probabilità che un simbolo Si sia stato confuso con un simbolo Sm . Per determinare la probabilità
d’errore sul singolo simbolo (da trasformare poi in probabilità d’errore sul bit) si dovrebbe
determinare la stessa (37) per ogni simbolo che si può confondere con Sm , al variare di tutti i
possibili simboli Sm . La cosa risulta quasi sempre molto difficile, ed è proprio per questo che si
preferisce trovare un limite superiore alla probabilità d’errore. Questo limite superiore si può
trovare partendo dall’osservazione che, dati N eventi, En ,1  n  N , il limite superiore dell’evento
unione è:
L
 L

P  En  
P  En 


n2  n2

(38)
Se si suppone trasmesso il simbolo S1 , si può supporre En l’evento errore quando si confonde S n
con S1 (gli eventi En non si possono supporre in una situazione generica mutuamente esclusivi tra
loro). In tal caso la probabilità dell’evento W1 , cioè l’evento: ‘ S1 non è il simbolo più vicino a Y ’
ha probabilità di accadere:
L
L
 L

 d1, n 
P W1   P  En  
P  En  
Q



2 
n2 
n2  n2


(39)
La (39) si può semplificare. Infatti la funzione Q  è una funzione molto sensibile al suo
argomento (tende a diventare rapidamente piccola al crescere del suo argomento). Questo significa
che il limite precedente può essere approssimato con la somma di tutte le quantità Q  relative ai
termini d1,n più piccoli:
d
PW1   K1  Q 1,min
 2



(40)
dove il K1 precedente dice quanti sono i simboli che si trovano a distanza minima dal simbolo S1 .
La (40) precedente non è più il limite superiore, dato che abbiamo scartato termini positivi dalla
sommatoria in (39), tuttavia ne è una buona approssimazione.
La probabilità d’errore sul simbolo trasmesso, per il teorema delle probabilità totali vale quindi:
L
d

d 
(41)
P   pm  K mQ m, min   K  Q min 
 2 
m 1
 2 
Con K che rappresenta il numero medio di simboli che si trovano tra di loro a distanza minima. Il
valore K ha normalmente un piccolo impatto sulla probabilità d’errore, dato che il termine
d
predominante è dato dalla funzione Q  e quindi principalmente dal rapporto min , direttamente
2
collegato al rapporto segnale rumore. In alcune situazioni il conto precedente si può fare con
sufficiente accuratezza. Un semplice esempio è il caso della modulazione 16-QAM.
8. Il problema dell’ottimizzazione
Il progetto del ricevitore è stato fatto nei paragrafi precedenti basandosi su un principio: il principio
della distanza minima tra segnale trasmesso e ricevuto. In queste condizioni è ragionevole supporre
che il segnale trasmesso sia quello più vicino al ricevitore. Tuttavia questa ipotesi non tiene conto di
un aspetto fondamentale: la statistica del trasmettitore. Quanto fatto quindi si è basato sul senso
comune che il trasmettitore abbia una statistica uniformemente distribuita per tutti i suoi simboli,
cosa che può anche non essere. È necessario quindi distinguere i casi ed effettuare un progetto che
sia ancora più generale del precedente.
Il problema precedente ricade sotto la casistica dei problemi di ‘detection’ (rivelazione), che si
possono distinguere da quelli di ‘estimation’ (stima). I problemi di stima si riferiscono alla
determinazione di un parametro statistico continuo, a cui si è aggiunto del rumore. La stima
migliore non permetterà mai, virtualmente, di determinare il parametro in modo esatto. La stima
risulterà tanto migliore quanto più riesce ad avvicinarsi al valore vero. Il problema della rivelazione
invece coinvolge una sorgente discreta (ed è il nostro caso), a cui si è aggiunta una quantità di
rumore continuo. Poiché la rivelazione implica alla fine una scelta su un alfabeto finito e noto, è
possibile, con una probabilità non nulla, determinare esattamente il simbolo iniziale trasmesso, al
contrario di ciò che succede nella stima.
Il problema che ci poniamo è quindi quello della rivelazione di un simbolo trasmesso, tra un
numero finito di simboli, e deteriorato dal rumore (che ha reso il valore continuo/discreto a seconda
del tipo di rumore che si considera: continuo o discreto).
Tale problema ha una serie di approcci nell’ambito della teoria delle stima bayesiana, cioè la teoria
che si occupa di stimare un valore statistico in presenza di rumore statisticamente aggiunto. Tale
teoria cerca sempre di minimizzare una funzione costo e, in base a come tale funzione è definita,
cambia il metodo applicato.
Gli approcci che considereremo in ambito della trasmissione numerica sono due:
 A massima verosimiglianza (maximum likelihood, ML)
 Massimo a posteriori (Maximum a Posteriori, MAP)
Il primo metodo è quello più comunemente adottato nell’ambito dei ricevitori numerici, dato che
esso è di più semplice implementazione ed inoltre perché il ricevitore basato sul metodo MAP,
sebbene più preciso, spesso aggiunge un guadagno molto basso rispetto al ricevitore basato sul
metodo ML, aggiungendo tuttavia una complessità di implementazione notevole.
Il ricevitore numerico a minima distanza progettato nei par. precedenti è un ricevitore a massima
verosimiglianza.
8.1 Rivelazione di un segnale reale e discreto
Sia a il segnale emesso dalla sorgente e scelto in un alfabeto di un numero finito di simboli. In
ricezione giunga il valore discreto y  a  n , cioè a a cui si è aggiunta una quantità discreta di
rumore.
Per progettare il ricevitore è necessario conoscere la statistica dei possibili segnali ricevuti y
condizionati alla trasmissione di un dato simbolo a :
pY | A ( y | aˆ )
(44)
Questa conoscenza caratterizza completamente la generazione di rumore.
Il ricevitore a massima verosimiglianza sceglie il simbolo â che massimizza la probabilità
condizionata pY | A ( y | aˆ ) :
a : max pY | A  y | aˆ 
a
(45)
cioè il simbolo che massimizza la probabilità che sia y ricevuto, noto che â è stato trasmesso. La
semplicità di tale ricevitore sta nel fatto che pY | A ( y | aˆ ) è facilmente calcolabile dalla conoscenza di
tutti i possibili simboli a e dalla statistica del rumore.
Il ricevitore massimo a posteriori massimizza invece la probabilità che sia stato trasmesso proprio
â , noto che è stato ricevuto y :
a : max pA|Y aˆ | y 
a
(46)
La quantità precedente si può calcolare dalla (45) utilizzando il teorema di Bayes (ed è per questo
detta rivelazione bayesiana):
pA|Y (aˆ | y) 
pY | A ( y | aˆ )  pA (aˆ )
pY ( y)
(47)
Poiché pY ( y) non dipende dalla decisione su â , massimizzare la (47) equivale a massimizzare
pY | A ( y | aˆ )  p A (aˆ ) , che differisce dalla (45) per la presenza della probabilità a priori pA (aˆ ) . La
presenza di questa ulteriore informazione, non considerata nei progetti precedenti, rende la MAP
migliore della ML, e quindi i progetti basati sulla MAP sono progetti di ricevitori ottimali nel senso
che rendono realmente minima la probabilità d’errore media.
Si osservi inoltre che nel caso in cui la sorgente emetta simboli tutti ugualmente probabili i due
metodi sono equivalenti tra loro.
8.2 Rivelazione di un segnale reale e continuo
In questo caso il rumore ha statistica continua e quindi è caratterizzato da una densità di probabilità
che si suppone nota. Anche il segnale ricevuto Y è continuo.
fY|A ( y | aˆ) , mentre un ricevitore MAP massimizza:
Un ricevitore ML massimizza f Y | A ( y | aˆ ) : max
a
pA|Y (aˆ | y) 
fY | A ( y | aˆ ) pA (aˆ )
(47)
fY ( y)
fY|A ( y | aˆ) pA aˆ .
che equivale anche a massimizzare fY | A ( y | aˆ ) p A (aˆ ) : max
a
Esempio. Si supponga di considerare una sorgente che emette due simboli -1 ed 1 con probabilità
rispettivamente pari a 0.25 e 0.75. Il rumore sia questa volta continuo e distribuito uniformemente tra i valori
-1.5,1.5. Vediamo la differenza tra i due ricevitori.
Mentre per il ricevitore ML le due densità di probabilità condizionate sono uguali (dato che non sono
condizionate alla conoscenza della probabilità a priori dei simboli emessi) nel caso del ricevitore MAP le due
densità di probabilità condizionate sono differenti poiché conta anche la conoscenza a priori dei simboli
emessi.
Nel caso di un ricevitore MAP la soglia è posta a -0.5, dato che selezionerà il simbolo +1 per y>-0.5.
Conseguentemente l’errore è quello segnato in figura e ha probabilità di accadere pari a 1/12.
fN(n)
1/3
-1.5
fY|A(y|-1)
1.5
fY|A(y|1)
fY|A(y|1)pA(1)
1/4
1/3
fY|A(y|-1)pA(-1)
1/12
-1
1
-1
0.5
1
Figura 11: schematizzazione delle probabilità di ricezione del simbolo nell’esempio 2
Nel caso di un ricevitore ML si ha che la soglia può essere messa in un qualunque punto tra -0.5 e 0.5 (non
contando la statistica di ingresso si pone infatti la soglia a metà, che è la scelta più ovvia in mancanza di altre
informazioni, ma che rappresenta una scelta non ottimale se i simboli sono emessi in modo non
equiprobabile), dato che in questa regione vi è uguale possibilità, per questo ricevitore, di scegliere tra -1 ed
1. Se si pone la soglia a 0 la probabilità di sbagliare diventa
1
1
1
P  p(0.5  y  0)  p A (1)  p(0  y  0.5)  p A (1)  0.5   0.75  0.5   0.25 
3
3
6
Appendice. Risultati fondamentali sui processi gaussiani complessi
Processo gaussiano complesso
Un processo aleatorio si dice gaussiano complesso se consiste di una parte reale e di una parte
immaginaria che sono due processi aleatori congiuntamente gaussiani. Questi processi hanno
importanti proprietà che li distinguono dai processi aleatori gaussiani reali e sono molto importanti
nell’ambito delle comunicazioni analogiche e numeriche.
In particolare detto Z (t )  a(t )  jb(t ) , a(t ) e b(t ) sono processi aleatori gaussiani. Si supponga
anche che siano a media nulla.
Per caratterizzare pienamente Z (t ) occorre la sua statistica del second’ordine. In particolare si può
dire che Z (t ) è stazionario in senso lato (WSS) se la sua funzione di autocorrelazione:
RZ ( )  E Z (t   ) Z * (t ) non è funzione di t. Tuttavia ciò non equivale a dire che la parte reale ed
immaginaria sono congiuntamente WSS, dato che per decidere questo è necessario dire che sono
indipendenti da t le seguenti funzioni di autocorrelazione: Ra ( )  Ea(t   )a(t ) ,
Rb ( )  Eb(t   )b(t ) , Rab ( )  Ea(t   )b(t ) .
È necessario allora caratterizzare la statistica del second’ordine anche mediante l’uso della funzione
~
~
di autocorrelazione complementare: RZ ( )  EZ (t   ) Z (t ) . A partire da RZ ( ) e da RZ ( ) si
possono facilmente ricavare Ra ( ) , Rb ( ) , Rab ( ) :


~
2Ra ( )  ReRZ ( ) Re RZ ( )
~
2Rb ( )  ReRZ ( ) Re RZ ( )
~
2Rab ( )  Im RZ ( )  ImRZ ( )




(32)
(infatti: RZ ( )  Ea(t   )  jb (t   )a( )  jb ( ) e RZ ( )  Ea(t   )  jb(t   )a( )  jb( ) ).
Se allora sono note le proprietà di entrambe le funzioni (di autocorrelazione e di autocorrelazione
complementare) si possono determinare le proprietà dei singoli processi aleatori parte reale e parte
immaginaria. Similmente, la statistica del second’ordine di a(t ) e b(t ) (senza quella congiunta)
non sono sufficienti a determinare la statistica di Z (t ) .
Inoltre la stazionarietà in senso largo per Z (t ) non implica quella in senso stretto (sino al
~
second’ordine), dato che per questa sarebbe necessaria che anche RZ (t , ) sia indipendente da t.
Riassumendo:
 Un processo gaussiano complesso è caratterizzato dalla funzione di autocorrelazione e dalla
funzione complementare di autocorrelazione. Inoltre non può essere caratterizzato
pienamente dalla densità spettrale di potenza (dato che è la trasformata solo di RZ ( ) ).
 Un processo gaussiano complesso WSS non è necessariamente anche SSS, ma lo è se
~
entrambe le funzioni RZ ( ) e RZ ( ) non dipendono da t.
~
Processi gaussiani circolarmente simmetrici
Si consideri una variabile aleatoria Z  R  jI complessa e gaussiana a media nulla. Il calcolo
E Z 2   E R 2   E I 2   2 jE RI  è nullo se e solo se i processi hanno uguale varianza e sono incorrelati (e
quindi indipendenti, dato che sono gaussiani). Il concetto può essere generalizzato anche ai
processi.
I processi aleatori gaussiani circolarmente simmetrici, sono quelli per i quali accade che:
~
2
2
2
RZ (t , )  0 per ogni t , . Poiché E Z (t )   E a(t )   E b(t )   2 jE a(t )b(t ) , si ha che E Z (t ) 2   0 se e
solo se E a(t ) 2   E b(t ) 2  e Ea(t )b(t )  0 .
In questa ipotesi i due processi parte reale ed immaginaria hanno la stessa varianza e hanno la
funzione di autocorrelazione complementare identicamente nulla (si osservi che un processo
gaussiano reale non può essere circolarmente simmetrico, dato che per tale processo essendo RZ ( )
~
e RZ ( ) uguali, risulterebbe identicamente nulla anche la funzione di autocorrelazione).
Ne consegue che la stazionarietà WSS implica la stazionarietà SSS (dato che l’autocorrelazione
complementare è identicamente nulla); inoltre la statistica della parte reale ed immaginaria è uguale
e i due processi sono statisticamente indipendenti allo stesso istante: a(t ) e b(t ) sono tali che
Ea(t )b(t )  0 , sebbene possano non esserlo ad istanti differenti.
Se infine il processo aleatorio gaussiano circolare ha anche la funzione di autocorrelazione reale,
allora i processi a(t ) e b(t ) sono indipendenti per qualunque coppia di istanti di tempo si consideri
(infatti in tal caso vale: RZ ( )  EZ (t   )Z * (t )  Ea(t   )  jb(t   ) a(t )  jb(t )*  , da cui si
ha Rba ( )  Rab ( )  0 ).
La simmetria circolare gaussiana è preservata al passaggio in un sistema lineare tempo invariante,
ma anche dal passaggio in sistemi lineari tempo-varianti (come i modulatori/demodulatori).
Estensione ai processi gaussiani tempo discreti
Tutte le proprietà viste per i processi aleatori tempo continui si applicano anche a processi che
evolvono per tempi discreti, Z k .
Processi gaussiani bianchi
Ulteriore caratterizzazione dei processi aleatori gaussiani complessi deriva dall’ipotizzare il
processo come bianco. Il processo è detto bianco se accade: RZ ( )  N 0   ( )  2 2   ( )
(similmente per i processi discreti). Per questi processi Z (t ) e Z (t   ) sono incorrelati per tutti i
  0.
Infine se un processo gaussiano complesso è sia bianco, sia circolarmente simmetrico, allora:
 La parte reale ed immaginaria sono distribuite nello stesso modo e sono processi aleatori
gaussiani reali
 La parte reale ed immaginaria sono indipendenti e la funzione di autocorrelazione del
processo complesso è reale.
Un processo gaussiano bianco che passi attraverso un filtro in generale non mantiene tale proprietà
in uscita.
Processi gaussiani vettoriali
Si supponga ora che sia Z  Z1 , Z 2 ,...,Z N T un vettore di p.a. complessi, a media nulla e gaussiani, con
le seguenti (e semplificanti) ulteriori proprietà:
i j

Le componenti di Z sono incorrelate: EZ i Z * j   0,
1  i, j  N . Questa

Le componenti di Z sono circolarmente simmetriche, cioè: EZ i Z j   0,
proprietà, unita alla precedente fa si che le componenti di Z siano mutuamente indipendenti e che
anche le parti reali ed immaginarie lo siano.
2

Le componenti di Z sono distribuite identicamente: E Z i  2 2 .
(Se Z è reale, non può essere più circolarmente simmetrico, tuttavia le sue componenti sono ancora
mutuamente indipendenti e con la stessa varianza).
 
Sia dato ora un vettore complesso C definito come:
C  Z , e  Z T e*
(33)
Con e vettore a norma unitaria: e  1 . C è ancora gaussiano, poiché combinazione lineare di
vettori gaussiani e anche circolarmente simmetrico. La varianza di C è pari alla varianza di Z (si
può dimostrare facilmente) e quindi anche la parte reale e la parte immaginaria di C hanno la stessa
varianza  2 . Quindi qualunque componente di Z , su qualunque direzione, è ancora gaussiana e
circolarmente simmetrica (e con la stessa varianza), non solo le proiezioni lungo gli assi principali
dello spazio vettoriale da cui deriva.