Appunti dalle lezioni di Trasmissioni numeriche II Teoria del ricevitore ottimo (Ing. A. Fasano) 1 1. Il problema della decisione Il problema della rivelazione ottima di segnali numerici immersi in rumore può essere ascritto al più generale problema della decisione statistica. Ciò in ragione del fatto che dei contributi di rumore, inevitabilmente presenti, si ha in genere una sola descrizione di tipo statistico (probabilistico). Il ricevitore in questo senso opera una decisione attuando quella che viene detta una regola di decisione, cioè una procedura (soddisfacente preassegnati criteri) che sulla base del segnale ricevuto stabilisce quale tra M possibili segnali distinti è stato trasmesso. Nell’ambito delle trasmissioni numeriche il criterio che appare (ragionevolmente) più opportuno è quello che conduce ad una regola di decisione che minimizza la probabilità di errore. Trattandosi di un criterio applicabile in molti ambiti diversi (non limitato quindi alle sole trasmissioni numeriche) vogliamo ora derivare la regola di decisione a cui conduce, analizzando il problema sotto condizioni molto generali. Sistema Σ x r sk decisore sˆ = d (r ) n disturbi Schema di principio per un problema di decisione Si supponga di avere un sistema Σ (il nostro trasmettitore ad esempio) che possa trovarsi in uno (il possibile segnale trasmesso) di M distinti stati s k (k = 1,…, M ) che rappresentano le M possibili ipotesi H k che possono farsi sul sistema Σ ( H k stato(Σ) = s k ) . Il sistema produce un’uscita x (funzione del suo stato) non direttamente accessibile e, dopo essersi combinata in vario modo con possibili disturbi presenti n , produce la grandezza osservabile r che assumiamo essere un vettore con valori in uno spazio Ω ( Ω ⊆ ℝ N ) detto spazio di osservazione. Si presume inoltre che sia nota (perché data o calcolabile dal problema) la densità di probabilità condizionata in avanti pR|S (r | s k ) . Si ammette infine di conoscere le probabilità a priori delle M ipotesi H k , cioè Pk = Pr { H k } = Pr {stato(Σ) = s k } . 2 Il decisore attua la cosiddetta regola di decisione definita come la funzione d : Ω → {s1 , s 2 ,⋯, s M } che ad ogni vettore osservato r associa la decisione sˆ = d (r ) . Ogni regola di decisione d (⋅) individua una partizione dello spazio di osservazione Ω in regioni di decisione Ri ≐ {r ∈ Ω | d (r ) = si } Ri ∩ R j = ∅ per i ≠ j e M ∪R i i =1 = Ω . Viceversa, una partizione di Ω in regioni Rɶ j ( j = 1,…, M ) definisce una regola di decisione dɶ (⋅) . È quindi evidente che individuare la regola di decisione d (⋅) è equivalente a determinare le regioni di decisione Ri ( i = 1,… , M ), che costituiscono una partizione di Ω . La regola, a sua volta, è individuata una volta specificato il criterio di ottimalità che si decide di seguire. Nel caso in esame il criterio è la minimizzazione della probabilità media di errore nella decisione, indicata con Pe . Poiché inoltre Pe = 1 − Pc , dove Pc è la probabilità media di decisione corretta, il criterio può equivalentemente essere visto in termini di massimizzazione della probabilità di corretta decisione. Seguendo questo criterio andiamo ora a determinare le regioni Ri che individuano la corrispondente regola di decisione. M Pc = ∑ Pr {sˆ = si & stato(Σ) = si } i =1 M = ∑ Pr {sˆ = si | stato(Σ) = si } Pr {stato(Σ) = si } i =1 M = ∑ ∫ [ pR|S (r | si ) ⋅ Pi ]dr i =1 Ri M ≤∑ dove f (r ) = max ( pR|S (r | s k ) ⋅ Pk ) ∫ f (r)dr k =1,…, M i =1 Ri M essendo Ri = Ω e Ri ∩ R j = ∅ i ≠ ∪ i =1 = ∫ f (r )dr = cost Ω j Da ciò segue che Pc ≤ ∫ f (r )dr ed il valore costante dell’integrale a secondo membro può essere Ω raggiunto se le regioni Ri sono scelte in modo che si abbia r ∈ Ri ⇒ Pi ⋅ pR|S (r | si ) = f (r ) ≐ max Pk ⋅ pR|S (r | s k ) k =1,…, M cioè ∀r ∈ Ω assegnando r alla regione Ri per cui è massimo il prodotto Pi ⋅ pR|S (r | si ) . In realtà il decisore non deve realmente calcolare le regioni Ri ma limitarsi a calcolare per ogni r ricevuto le 3 quantità Pk ⋅ pR|S (r | s k ) per k = 1,… , M e decidere in favore dell’indice k che produce il valore massimo, cioè sˆ = d (r ) = arg max Pk ⋅ pR|S (r | s k ) (1) sk dove l’operatore “arg max” ritorna l’argomento che massimizza la funzione a cui è applicato (ad esempio arg max 2 − ( x − 1)2 = 1 ) x∈ℝ Alla (1) è possibile dare un’altra forma osservando che la massimizzazione è condotta rispetto a s k ed eventuali fattori non dipendenti da questo sono ininfluenti. Si ha: sˆ = arg max Pk ⋅ pR|S (r | s k ) sk P ⋅ p (r | sk ) = arg max k R|S pR (r ) sk = arg max PS|R (s k | r ) ( pR (r) non dipende da s k ) ( teorema di Bayes ) sk Applicare la regola di decisione (1) equivale quindi a cercare il particolare s k che presenta la massima probabilità a posteriori PS|R (s k | r ) per fissata osservazione r . Per questa ragione la regola (1) è nota come decisione a massima probabilità a posteriori o decisione MPA (maximum a posteriori o MAP in letteratura anglosassone) e con analoga terminologia ci si riferisce al corrispondente decisore. Quando le probabilità a priori sono uguali Pk = 1 ( ⇔ le ipotesi H k sono equiprobabili) nella M (1) si può eliminare Pk (costante rispetto a k) e la regola di decisione diviene sˆ = arg max pR|S (r | s k ) (ipotesi equiprobabili) sk che in generale costituisce una procedura distinta da quella MPA ed alla quale si da il nome di decisione a massima verosimiglianza o decisione MV (maximum likelihood o ML in letteratura anglosassone) poiché la densità di probabilità condizionata in avanti pR|S (r | s k ) , vista come funzione di s k per r fissato, è detta verosimiglianza. In conclusione la politica di decisione che garantisce la minima probabilità di errore è quella a massima probabilità a posteriori (è anche detta procedura dell’osservatore ideale) e corrisponde alla seguente regola 4 sˆ MPA = arg max Pk ⋅ pR|S (r | s k ) (decisione MPA) sk Oltre a questa esiste la procedura a massima verosimiglianza che, non facendo uso dell’informazione a priori sulle ipotesi, in generale non gode di particolari proprietà di ottimo ed è caratterizzata dalla seguente regola sˆ MV = arg max pR|S (r | s k ) (decisione MV) sk Questa coincide con la decisione MPA nella sola circostanza in cui le ipotesi siano equiprobabili. Cioè Ipotesi equiprobabili ⇒ sˆ MV ≡ sˆ MPA Vale la pena mettere l’accento sul fatto che la decisione MV garantisce la minima probabilità di errore solo quando coincide con la decisione MPA e questo accade, come detto sopra, quando le probabilità a priori sono uguali. Quest’ultima tuttavia è un’assunzione frequente nel caso delle trasmissioni numeriche. ο 5 2. Cenni sulla rappresentazione discreta di segnali continui In questo paragrafo daremo brevissimi cenni riguardo alla possibilità di associare a segnali continui di energia una rappresentazione discreta in termini di una sequenza numerica, con un numero di termini eventualmente finito o infinito ma al più numerabile. Tale tipo di rappresentazione poggia le basi sulla teoria degli spazi vettoriali e consente di interpretare o risolvere geometricamente problemi che coinvolgono segnali. La classe dei segnali di energia presenta una struttura di spazio vettoriale rispetto alle usuali operazioni di somma tra segnali e moltiplicazione per uno scalare. Ciò significa che ogni segnale può essere riguardato alla stregua di un vettore in relazione alle proprietà di cui godono le operazioni di composizione tra segnali (somma e moltiplicazione per uno scalare) che sono analoghe, mutatis mutandis, alle corrispondenti proprietà delle operazioni tra vettori di ℝ3 . L’analogia è in realtà molto stretta nel senso che, come per i vettori di ℝ3 , anche per i segnali è possibile introdurre il concetto di prodotto scalare che risulta definito come segue x(t ), y (t ) = ∫ +∞ −∞ x(t ) y (t )dt (1) e gode delle stesse proprietà di cui gode il prodotto scalare tra vettori di ℝ3 . In particolar modo due segnali si diranno ortogonali se risulta x(t ), y (t ) = 0 . Un aspetto fondamentale dei vettori di ℝ3 è la possibilità, fissati tre versori, di poter rappresentare qualunque generico vettore in termini delle sue componenti. Nello specifico dette componenti sono ottenute facendo il prodotto scalare (proiezione) tra il vettore ed il generico versore . Volendo estendere tale caratteristica anche allo spazio vettoriale dei segnali di energia nasce spontaneo considerare quelli che sono possibili candidati ad essere versori e cioè sistemi di segnali ortonormali. Un insieme di segnali {ϕ1 (t ),ϕ2 (t ),⋯,ϕ N (t )} dove N ≤ ∞ è detto un sistema ortonormale se i suoi componenti hanno energia unitaria e risultano mutuamente ortogonali, cioè 1, k = j 0 , k ≠ j ϕ k (t ),ϕ j (t ) = ( k , j = 1,2,…) . (2) Scelto ora un generico segnale (vettore) di energia x(t ) si calcolino le componenti rispetto a ciascuno dei possibili “versori” ϕ k (t ) utilizzando il prodotto scalare xk = x(t ),ϕ k (t ) . (3) 6 A questo punto è lecito domandarsi se, analogamente a quanto avviene per i vettori di ℝ3 , è possibile scrivere la seguente uguaglianza (il punto interrogativo evidenzia il quesito) N ? x(t ) = ∑ xk ϕk (t ) . (4) k =1 Sfortunatamente la risposta è in generale negativa anche prendendo N = ∞ e la ragione di ciò risiede nel fatto che lo spazio dei segnali di energia ha dimensione non finita. Esistono tuttavia sistemi ortonormali particolari per cui nella (4) vale l’uguaglianza. In tale circostanza si dice che il sistema ortonormale è completo per il segnale x(t ) o equivalentemente che è una base completa per x(t ) e il segnale stesso può essere rappresentato dall’insieme dei suoi coefficienti { x1 , x2 ,⋯, xN } o equivalentemente dal vettore x = [ x1 x2 ⋯ xN ] ∈ ℝ N . T L’utilità di tale rappresentazione risulta evidente quando si osserva che è possibile effettuare operazioni tra segnali per il tramite delle loro rappresentazioni vettoriali. Si considerino infatti due segnali di energia x(t ) e y (t ) e sia {ψ 1 (t ),ψ 2 (t ),⋯,ψ N (t )} una base completa per entrambi. Ciò significa che valgono le relazioni N ∞ x(t ) = ∑ xkψ k (t ) con xk = ∫ x(t )ψ k (t )dt ; (5) −∞ k =1 N ∞ y (t ) = ∑ ykψ k (t ) con yk = ∫ y (t )ψ k (t )dt ; −∞ k =1 indicando inoltre con x = [ x1 x2 ⋯ xN ] T e y = [ y1 y2 ⋯ yN ] T (6) i corrispondenti vettori di ℝ N rappresentativi dei due segnali, si verifica immediatamente che valgono le seguenti relazioni Ex = ∫ +∞ −∞ Exy = ∫ [ x(t )] +∞ −∞ 2 dt = xT x = x 2 x(t ) y (t )dt = xT y (7) (8) Dimostriamo la (8) visto che la (7) si ottiene da questa ponendo y (t ) = x(t ) . Si ha infatti Exy = ∫ +∞ N N x ψ ( t ) y jψ j (t ) dt ∑ ∑ k k −∞ j =1 k =1 −∞ x(t ) y (t )dt = ∫ N N +∞ +∞ = ∑∑ xk y j ∫ ψ j (t )ψ k (t )dt k =1 j =1 N N −∞ = ∑∑ xk y jδ k , j k =1 j =1 1, k = j δk, j = 0 , k ≠ j 7 N Exy = ∑ xk yk = xT y . (9) k =1 Specializziamo ora quanto detto alla situazione che incontreremo nei paragrafi successivi. Si immagini di avere un insieme di M ( M < ∞ ) segnali di energia {s1 (t ), s2 (t ),⋯, sM (t )} che assumono valori non nulli (solo) nell’intervallo [0, T ] . Si è interessati a determinare, ammesso che esista, una base completa {ψ 1 (t ),ψ 2 (t ),⋯,ψ N (t )} per detto insieme che abbia un numero finito (possibilmente il minimo) di funzioni. È possibile provare che detta base esiste sempre ed è caratterizzata da un numero di funzioni N ≤ M . La si ottiene applicando la procedura di ortogonalizzazione di Gram-Schmidt all’insieme dei segnali {s1 (t ), s2 (t ),⋯, sM (t )} ed è formata dal minimo numero possibile di funzioni della base. Se gli M segnali sk (t ) ( k = 1,… , M ) sono linearmente indipendenti risulta N = M , se invece risultano linearmente dipendenti si avrà N < M . Il parametro N acquista quindi il significato di dimensione dello spazio di segnali {s1 (t ), s2 (t ),⋯, sM (t )} . Indicando con {ψ 1 (t ),ψ 2 (t ),⋯,ψ N (t )} la base completa ottenuta dalla procedura di GramSchmidt, si verifica facilmente che a meno di un differente ordinamento dei segnali le funzioni della base sono date dalle seguenti espressioni ψ 1 (t ) = ψ 2 (t ) = ψ 3 (t ) = s1 (t ) ; s1 (t ) (10) s2 (t ) − s2 (t ),ψ 1 (t ) s2 (t ) − s2 (t ),ψ 1 (t ) ; (11) s3 (t ) − s3 (t ),ψ 2 (t ) − s3 (t ),ψ 1 (t ) s3 (t ) − s3 (t ),ψ 2 (t ) − s3 (t ),ψ 1 (t ) ; (12) ⋮ ⋮ ⋮ N −1 ψ N (t ) = sN (t ) − ∑ sN (t ),ψ k (t ) k =1 N −1 . (13) sN (t ) − ∑ sN (t ),ψ k (t ) k =1 Individuata quindi la base completa tramite la procedura sopra descritta ad ogni segnale sk (t ) ( k = 1,… , M ) risulta associato un vettore s k = [ sk(1) sk(2) ⋯ sk( N ) ]T appartenente allo spazio euclideo ℝ N , le cui componenti sono calcolate come segue 8 T sk( j ) = sk (t ),ψ j (t ) = ∫ sk (t )ψ j (t )dt (14) 0 Ciascun vettore s k può essere inoltre interpretato come punto di ℝ N e l’insieme degli M punti nello spazio ad N dimensioni prende il nome di costellazione di segnale e fornisce un utile strumento geometrico per analizzare le tecniche di modulazione. Si rammenta in conclusione che un’applicazione della (7) e della (8) alla circostanza in esame porta a scrivere senza difficoltà le seguenti relazioni Ek = ∫ [ sk (t ) ] dt = s k T 2 0 2 = s Tk s k , T Ekj = ∫ sk (t ) s j (t )dt = s Tk s j , 0 ∫ T 0 2 sk (t ) − s j (t ) dt = s k − s j 2 = sk 2 + sj 2 − 2s Tk s j , ( k = 1,… , M ); (15) ( k = 1,… , M ); (16) ( k ≠ j ). (17) ο 9 3. Demodulatore coerente Si supponga che il modulatore dal lato trasmettitore generi nell’intervallo [0, T ] (intervallo di segnalazione) una tra M possibili segnali reali ad energia finita sk (t ) , k = 1,… , M . Si ammette inoltre che i segnali siano equiprobabili e che il demodulatore dal lato ricevitore veda nel medesimo intervallo [0, T ] una copia del segnale trasmesso più rumore additivo n(t ) che si assume essere una realizzazione di un processo gaussiano a valore atteso nullo, stazionario ed ergodico con spettro di densità di potenza (bilatero) uniforme1 PN ( f ) = N0 statisticamente indipendente dal segnale 2 trasmesso. Il segnale ricevuto nell’intervallo di segnalazione risulta quindi r (t ) = sk (t ) + n(t ) t ∈ [0, T ] (1) Il modello di canale descritto dalla (1) è non distorcente ( sk (t ) non viene alterato) e l’unico effetto che ha è l’aggiunta di rumore gaussiano bianco (cioè con PN ( f ) = N0 ); per questa ragione è 2 noto in letteratura come canale AWGN (Additive White Gaussian Noise). Deriveremo ora la struttura del ricevitore ottimo nell’ipotesi che gli M segnali siano perfettamente noti al ricevitore. Questa ipotesi qualifica il ricevitore come coerente. Per quanto visto nei paragrafi precedenti, il ricevitore ottimo è quello che attua la decisione MPA che, stante l’ipotesi fatta di segnali trasmessi equiprobabili, coincide con la decisione MV. Nasce un primo problema legato al fatto che nel paragrafo 1 la regola di decisione ottima (MPA) è stata ricavata supponendo di osservare un vettore di valori. In questo caso invece l’osservazione è costituita dal segnale r (t ) osservato per t ∈ [0, T ] . Il problema può essere risolto o cercando di derivare la corrispondente regola di decisione ottima quando l’osservazione è continua (approccio complesso e che non muta nella sostanza il risultato a cui si perviene) oppure cercando di ricavare dal modello di osservazione, che coinvolge i segnali nel tempo, un corrispondente modello vettoriale che risulti equivalente dal punto di vista della decisione. Seguiremo appunto quest’ultima strada ricorrendo alla rappresentazione del segnale ricevuto in un’opportuna base ortonormale. La scelta di quest’ultima deve essere fatta in modo tale che la rappresentazione tramite i coefficienti dello sviluppo non perda informazione in merito alla porzione di segnale utile ( sk (t ) ). 1 La corrispondente funzione di autocorrelazione è RN (τ ) = E {n(t )n(t + τ )} = N0 δ (τ ) . 2 10 Relativamente al rumore una perdita può essere tollerata a patto che questa risulti irrilevante ai fini della successiva decisione statistica. Quanto detto euristicamente trova supporto teorico nel fatto, dimostrabile, che: “Nelle ipotesi di rumore bianco additivo una qualunque base ortonormale completa per l’insieme dei possibili segnali trasmessi ( {s1 (t ), s2 (t ), ⋯ , sM (t )} ) dà origine ad un vettore r che risulta equivalente, ai fini della decisione statistica, all’intera osservazione r (t ) per t ∈ [0, T ] ”. Il vettore r così ottenuto è detto rilevante ed in termini tecnici questo significa che costituisce una statistica sufficiente nei riguardi del problema di decisione. Per quanto detto sopra risulta inoltre che la struttura del ricevitore è indipendente dalla particolare base scelta, purché completa per la parte di segnale utile ( sk (t ) , k = 1,… , M ). In particolare la base ortonormale {ψ 1 (t ), ψ 2 (t ), ⋯ , ψ N (t )} che porta ad un vettore r rilevante con il minimo numero di componenti N è quella che si ottiene applicando la procedura di ortogonalizzazione di Gram-Schmidt all’insieme dei possibili M segnali trasmessi {s1 (t ), s2 (t ), ⋯ , sM (t )} (per quanto detto nel paragrafo 2 risulta ovviamente N ≤ M ). Scelta quindi la base ortonormale {ψ 1 (t ), ψ 2 (t ), ⋯ , ψ N (t )} , completa per l’insieme dei possibili segnali trasmessi {s1 (t ), s2 (t ), ⋯ , sM (t )} , si proietti in essa il segnale ricevuto r (t ) , ottenendo i seguenti coefficienti dello sviluppo T T T 0 0 0 r ( j ) = ∫ r (t )ψ j (t )dt = ∫ sk (t )ψ j (t )dt + ∫ n(t )ψ j (t )dt = sk( j ) + n( j ) , j = 1,…, N (2) che raccolti nei vettori r (1) (2) r r= , ⋮ (N) r sk(1) (2) s sk = k , ⋮ (N ) sk n(1) (2) n n= , ⋮ (N ) n (3) portano al seguente modello vettoriale di osservazione equivalente a (1) dal punto di vista della decisione statistica r = sk + n . (4) Vale la pena osservare che si ha N sk (t ) = ∑ sk( j )ψ j (t ) j =1 ( dove s ( j) k T = ∫ sk (t )ψ j (t )dt 0 ) t ∈ [0, T ] (5) 11 essendo la base completa per i segnali sk (t ) ( k = 1,… , M ), mentre in generale N n(t ) ≠ ∑ n( j )ψ j (t ) t ∈ [0, T ] (6) j =1 ma per quanto detto prima ciò non comporta alcuna perdita ai fini della decisione. A questo punto avendo a disposizione un’osservazione vettoriale possiamo applicare la teoria sviluppata nel paragrafo 1 e concludere che il ricevitore ottimo (nell’ipotesi di segnali sk (t ) equiprobabili) è quello che attua la seguente regola di decisione a massima verosimiglianza sˆ MV = arg max pRS| (r | s k ) ( s k equiprobabili) sk (7) Il calcolo della pRS| (r | s k ) si effettua a partire dalla descrizione statistica del vettore di rumore n. Questo è ottenuto per trasformazione lineare di un processo gaussiano e quindi risulta a sua volta un vettore gaussiano. Rimane da caratterizzarne il vettore dei valori attesi e la matrice di covarianza. Relativamente al primo si osserva E {n (1) } E {n (2) } mn = E {n} = =0 ⋮ (N ) E {n } (8) dove 0 è il vettore nullo di dimensione N, poiché E {n( j ) } = E {∫ n(t )ψ (t )dt} = ∫ E{n(t)}ψ (t)dt = 0 . T 0 T j j 0 (9) In merito alla seconda si ha K n = E {nn T } = σ ij i , j =1,… N = N0 I 2 (10) dove I è la matrice identità di dimensioni N×N, risultando σ ij = E {n(i ) n( j ) } = E =∫ T 0 {∫ n(t)ψ (t)dt ⋅ ∫ n(τ )ψ (τ )dτ } T T i 0 0 T ∫ E {n(t )n(τ )}ψ (t )ψ 0 i j (τ )dtdτ N0 δ ( t − τ )ψ i (t )ψ j (τ )dtdτ 0 0 2 N0 i= j N0 T = ( t ) ( t ) dt = ψ ψ 2 i j 2 ∫0 i≠ j 0 =∫ T ∫ j T (11) Le componenti di n (vettore gaussiano) essendo incorrelate risultano anche statisticamente indipendenti. In conclusione si ha che 12 N n ∼ 0, 0 I . 2 (12) Da ciò segue facilmente che, essendo rumore e segnale trasmesso indipendenti, il vettore r condizionatamente a s k (in simboli r | ) ha ancora distribuzione gaussiana, ma con vettore dei sk valori attesi s k e matrice di covarianza quella del rumore. In sintesi N r | ∼ sk , 0 I sk 2 (13) da cui segue immediatamente che 1 pR|S (r | s k ) = (π N 0 ) N e ( r −s k ) T ( r −s k ) N0 r −sk 1 = (π N 0 ) e N 2 N0 . (14) Tenendo poi conto del fatto che arg max sk 1 (π N 0 ) N e ( r − s k )T ( r − s k ) N0 = arg min r − s k 2 = arg min r − s k , sk (15) sk il ricevitore ottimo attua la seguente regola di decisione sˆ MV = arg min r − s k . (16) sk Essendo r − s k la distanza euclidea tra i vettori r e s k si ha il notevole risultato che, nelle ipotesi in cui si è analizzato il problema, cioè di segnali trasmessi equiprobabili osservati in rumore additivo gaussiano bianco, il ricevitore ottimo coincide con il ricevitore a minima distanza euclidea. Un primo schema realizzativo dello stesso che proietta il segnale ricevuto nella base {ψ 1 (t ),ψ 2 (t ),⋯,ψ N (t )} , è quindi il seguente T ∫ r − s1 r (1) 0 r (t ) ψ 1 (t ) M Calcolo delle distanze di r da s1,s2,..,sM T ∫ r(N ) I sˆ MV N r − sM 0 ψ N (t ) 13 È possibile tuttavia derivare strutture alternative del ricevitore in dipendenza delle diverse forme (equivalenti) in cui è possibile scrivere la (16). Sviluppando la norma ivi presente (o meglio il suo quadrato) si ottiene sˆ MV = arg min r − s k sk { 2 2 = arg min r + s k sk 2 − 2r T s k } 1 2 = arg min −2 r T s k − s k 2 sk 1 2 = arg max r T s k − s k . 2 sk ( essendo r 2 costante rispetto a s k (17) ) Esprimendo ora i prodotti scalari che compaiono nella (17) in termini dei corrispondenti integrali tra le funzioni del tempo (vedi paragrafo 2) è facile verificare che si ha T r T s k = ∫ r (t ) sk (t )dt , 0 sk 2 = s T s k = ∫ [ sk (t ) ] dt = Ek , T 2 0 ( k = 1,…, M ) ; (18) ( k = 1,…, M ) ; (19) essendo Ek l’energia del k-esimo possibile segnale trasmesso. Sulla base delle (18) e (19) si ottiene una prima forma equivalente della (16) 1 T sˆ MV = arg max ∫ r (t ) sk (t )dt − Ek 2 sk 0 (20) a cui corrisponde la seguente struttura di demodulatore cosiddetto a correlazione, per via della circostanza che il primo termine tra parentesi graffe nella (20) è un integrale di correlazione tra il segnale ricevuto r (t ) ed il generico possibile segnale trasmesso sk (t ) ( k = 1,…, M ) . T ∫ crs1 0 r (t ) 1 E1 2 s1 (t ) M A sˆ MV X T ∫ crsM 0 sM (t ) 1 EM 2 14 Un ulteriore schema si ottiene osservando che il generico integrale di correlazione presente nella (20) può calcolarsi equivalentemente facendo transitare il segnale ricevuto r (t ) in un filtro (causale) avente risposta impulsiva hk (t ) = sk (T − t ) e campionando la corrispondente uscita all’istante t = T , infatti r (t ) ∗ hk (t ) | = r (t ) ∗ sk (T − t ) t =T = | t =T +∞ ∫ r (τ ) s (T − t + τ )dτ | (21) k t =T −∞ T = ∫ r (τ ) sk (τ )dτ 0 che consente di riscrivere la (16) sˆ MV = arg max r (t ) ∗ hk (t ) sk | t =T 1 − Ek 2 (22) da cui segue senza difficoltà il seguente schema del demodulatore cosiddetto a filtro adattato, in quanto ciascuno dei filtri hk (t ) è adattato al corrispondente segnale sk (t ) . t =T h1 (t ) = s1 (T − t ) crs1 1 E1 2 r (t ) M A t =T hM (t ) = sM (T − t ) sˆ MV X crsM 1 EM 2 In sintesi la regola di decisone attuata dal ricevitore ottimo può porsi nelle forme seguenti sˆ MV = arg min r − s k sk 1 T = arg max ∫ r (t ) sk (t )dt − Ek 2 sk 0 1 = arg max r (t ) ∗ hk (t ) − Ek 2 sk t =T | ( demodulatore a correlazione ) ( demodulatore a filtro adattato ) cui corrispondono rispettivamente gli schemi (tutti equivalenti) riportati nelle ultime tre figure. 15 A conclusione vale la pena osservare che la struttura di decisione che conduce alla minima distanza euclidea dipende fortemente dalle ipotesi fatte. In particolare il fatto che il rumore sia gaussiano e bianco garantisce che la massimizzazione della densità di probabilità in avanti sia equivalente alla minimizzazione della forma quadratica presente ad esponente nella gaussiana (la bianchezza in particolare implica che detta forma quadratica sia proprio una distanza euclidea). In ultimo si sottolinea l’assunta ipotesi di equiprobabilità dei segnali trasmessi; è infatti possibile dimostrare che quando questa non è verificata il ricevitore ottimo, che sarà necessariamente del tipo a massima probabilità a posteriori, non è in generale a minima distanza euclidea. ο 16 4. Prestazioni del ricevitore ottimo coerente Le prestazioni del ricevitore ottimo coerente sono valutate in termini dello stesso parametro che esso minimizza e cioè della probabilità di errore sul simbolo. Tenendo conto del fatto che il modulatore associa in maniera biunivoca ad ognuno degli M distinti simboli che la sorgente emette un diverso segnale sk (t ) ( k = 1,… , M ), la probabilità di errore sul simbolo è definita (utilizzando la rappresentazione tramite vettori) come segue P(e) = Pr {sˆ MV ≠ s} (1) dove s ed sˆ MV rappresentano rispettivamente il segnale trasmesso e quello per il quale si è deciso. Tenendo conto del fatto che la probabilità di errore è il complemento ad 1 della probabilità di corretta decisione P(c) = Pr {sˆ = s} ed inoltre che i segnali trasmessi sono assunti equiprobabili la (1) può porsi equivalentemente nella forma P(e) = 1 − P(c) = 1 − Pr {sˆ MV = s} M = 1 − ∑ Pr {sˆ MV = s k , s = s k } k =1 (2) M = 1 − ∑ Pr {sˆ MV = s k | s = s k } Pr {s = s k } k =1 = 1− 1 M M ∑ Pr {sˆ MV = sk | s = sk } . k =1 Il calcolo esplicito della (2) può essere condotto tenendo presente quanto detto nel paragrafo 1 riguardo al fatto che applicare una regola di decisione equivale a partizionare lo spazio di osservazione in regioni di accettazione R j ( r ∈ R j ⇒ sˆ MV = s j ). Nel caso specifico del ricevitore coerente lo spazio di osservazione è lo spazio euclideo ℝ N i cui punti sono possibili vettori ricevuti. Le regioni R j ( j = 1,…, M ) sono facilmente ricavabili come luogo geometrico dei punti di ℝ N a distanza minima dagli M punti di costellazione associati ai segnali trasmessi s j ( j = 1,…, M ). Tali regioni sono dette regioni di decisione a massima verosimiglianza o regioni di Voronoi e sono definite formalmente come segue { R j = r ∈ ℝ N | r − s j ≤ r − s k , k ∈ {1,2,⋯, M } { j}} j −1 ∪ Ri . i=1 (3) Da notare che nella definizione della generica R j sono stati rimossi i punti appartenenti alle regioni Rk con k < j . Ciò si rende necessario per far si che le M regioni R j costituiscano una 17 partizione di ℝ N . Ciascuna regione R j ammette come frontiera punti che sono equidistanti da due punti di costellazione prossimi. L’attribuzione di detti punti di frontiera ad una regione piuttosto che ad un’altra è del tutto arbitraria non avendo alcuna influenza sulle prestazioni, cioè sulla probabilità di errore. { r −s k La = r −sj Sulla ragione di ciò è legata al } ≡ {il vettore ricevuto r è equidistante da s base di quanto detto k sopra fatto che eventi del tipo e da s j } hanno probabilità nulla. risulta quindi evidente che Pr {sˆ MV = s k | s = s k } = Pr {r ∈ Rk | s = s k } e quindi la (2) può scriversi come P ( e) = 1 − 1 M 1 = 1− M M ∑ Pr {sˆ = s k | s = sk } k =1 (4) M ∑∫ k =1 Rk pR|S (r | s k )dr ; ricordando poi i risultati del paragrafo precedente si giunge facilmente alla seguente espressione generale per il calcolo della probabilità di errore media sul simbolo 1 P (e ) = 1 − M M ∑∫ k =1 r −s k 1 Rk (π N 0 ) N e N0 2 dr . (5) Una volta noti i punti della costellazione s k ( k = 1,… , M ) le regioni Rk si ricavano facilmente per mezzo della (3) o più semplicemente tramite considerazioni geometriche e la (5) fornisce il ricercato indice prestazionale. Vale la pena fare alcune considerazioni in merito alla (5). La funzione integranda risulta essere a simmetria circolare rispetto a s k (cioè in punti equidistanti da s k assume lo stesso valore). Questo porta a concludere che ciascuno degli integrali nella (5) dipende solo dalla forma e dall’estensione della corrispondente regione di decisione Rk e non dalla sua posizione nello spazio di osservazione. Da ciò segue che qualunque trasformazione che altera la costellazione, lasciando invariate forma e dimensioni delle regioni Rk non muta la probabilità di errore. In particolare questo è vero per traslazioni, rotazioni e riflessioni. Ad esempio le costellazioni di seguito riportate, fanno riferimento ad un sistema di M = 4 segnali rappresentabili in una base ortonormale di dimensione N = 2 . ψ2 ψ2 ψ2 R1 R1 Rɶ1 ψ1 ψ1 ψ1 18 A tratteggio sono indicate le frontiere delle regioni di decisione (nella prima figura coincidono con gli assi). Risultando dette regioni, uguali per forma ed estensione (ad esempio R1 , Rɶ1 ed R1 differiscono solo per la loro posizione nel piano (ψ 1 ,ψ 2 ) ), le tre diverse costellazioni presentano la medesima probabilità di errore. Questo non significa tuttavia che possano ritenersi equivalenti sotto tutti gli altri punti di vista, in particolar modo quello energetico. L’obiettivo che si cerca di raggiungere infatti è la riduzione dell’energia impiegata nella trasmissione a parità di probabilità di errore. L’energia media richiesta per la trasmissione di M segnali equiprobabili è data da E= 1 M M ∑ Ek = k =1 1 M M ∑s 2 k (6) k =1 da cui si deduce immediatamente la terza configurazione di figura richiede in media più energia delle altre due avendo i punti della costellazione più distanti dall’origine. È interessante rilevare che il valore minimo della (6) si ottiene quando i punti della costellazione presentano valor medio nullo, cioè quando M ∑s k =0 . (7) k =1 La prova di quanto detto si basa sull’osservazione che la (6) può essere interpretata come il momento d’inerzia rispetto all’origine del sistema di punti descritti dai vettori s k ( k = 1,… , M ) ed aventi massa 1 . È noto che il momento d’inerzia è minimo se calcolato rispetto al centro di M massa. La costellazione a minima energia media è quindi quella che ha il centro di massa nell’origine, cioè 1 M M ∑s k = 0 , da cui la (7). k =1 Relativamente al calcolo della (5) si fa notare che a dispetto del fatto che le regioni Rk sono facilmente individuabili, risulta in generale piuttosto complicato calcolare gli integrali e, salvo casi particolari in cui esiste un’espressione in forma chiusa, la valutazione va condotta per via numerica. Nasce quindi la necessità di individuare limiti superiori alla probabilità di errore che consentano da una parte di fornire stime alla (5) e dall’altra di mettere in evidenza i parametri chiave utili in sede di sintesi della costellazione. Con questo obiettivo in mente richiamiamo alcuni risultati, noti da altri corsi, che serviranno per gli sviluppi successivi. Nel caso di trasmissione binaria ( M = 2 ) è noto che la probabilità di errore media sul simbolo binario coincide con le probabilità di errore condizionate ( P(e | s1 ) e P(e | s 2 ) ) ed assume la seguente espressione 19 il vettore ricevuto r è più vicino a s 2 che a s1 , P(e) = P(e | s1 ) ≡ Pr posto che sia stato trasmesso s1 il vettore ricevuto r è più vicino a s1 che a s 2 , = P(e | s 2 ) ≡ Pr posto che sia stato trasmesso s 2 d2 1 12 = erfc 2 4 N0 (8) dove il parametro d122 è l’energia del segnale differenza tra i due possibili segnali trasmessi s1 (t ) e s2 (t ) o equivalentemente la distanza al quadrato tra gli stessi d122 = ∫ [ s1 (t ) − s2 (t ) ] dt = s1 − s 2 T 2 2 0 ; (9) poiché inoltre si ha d122 = s1 − s 2 2 2 2 = s1 + s 2 − 2s1T s 2 (10) = E1 + E2 − 2 ρ E1 E2 essendo ρ = s1T s 2 E1 E2 = ∫ T 0 s1 (t ) s2 (t )dt ∫ [ s (t )] dt ∫ [ s (t )] T T 2 0 2 E + E − 2ρ E E 1 2 1 2 P(e) = erfc 1 2 4 N0 . 0 1 il coefficiente di correlazione tra i due segnali, la 2 dt (8) diviene (11) È noto che nel caso in cui le energie siano vincolate a non superare un prefissato valore E, la miglior configurazione di segnali (quella cioè che garantisce la minima probabilità di errore) è quella per cui E1 = E2 = E e ρ = −1 cioè segnali antipodali ( s1 (t ) = − s2 (t ) ) e la (11) diviene E 1 erfc . Questa costituisce quindi la miglior configurazione nel caso di trasmissione binaria 2 N0 (con vincolo sull’energia) e demodulazione coerente. Si noti che in questo caso le prestazioni non dipendono dalla forma del segnale ma solo dalla sua energia. Svilupperemo ora un limite superiore alla (5) sfruttando i risultati sopra richiamati. Partendo dalla definizione di probabilità di errore media sul simbolo, valgono i seguenti sviluppi 20 P(e) = Pr {sˆ MV ≠ s} M = ∑ Pr {sˆ MV ≠ s k , s = s k } k =1 M = ∑ Pr {sˆ MV ≠ s k | s = s k } Pr {s = s k } (12) k =1 = 1 M M ∑ Pr {sˆ MV ≠ sk | s = sk } k =1 Per individuare una maggiorazione dei termini ad argomento della sommatoria è utile richiamare il seguente risultato, noto nell’ambito della teoria della probabilità come limite dell’unione (union bound): Siano A1 , A2 , ⋯, AL generici eventi aventi probabilità rispettivamente Pr { A1 } , Pr { A2 } , ⋯ , Pr { AL } , allora per la probabilità dell’evento unione vale la seguente maggiorazione L L Pr ∪ Ak ≤ ∑ Pr { Ak } k =1 k =1 (13) dove l’uguaglianza si ha se gli eventi sono disgiunti ( Ai ∩ Aj = ∅ , i ≠ j ). Prendendo in considerazione il generico termine della sommatoria nella (12) si osservi che l’evento {sˆ MV il vettore ricevuto r non è più vicino a s k , ≠ sk | s = sk } ≡ posto che sia stato trasmesso s k il vettore ricevuto r è più vicino a s1 oppure a s 2 oppure .... oppure a s k −1 ≡ oppure a s k +1 .... oppure a s M −1 oppure a s M , posto che sia stato trasmesso s k può essere scritto come unione dei seguenti eventi (non disgiunti) indicati con il simbolo Ek → j il vettore ricevuto r è più vicino a s j che a s k , Ek → j = posto che sia stato trasmesso s k M cioè {sˆ MV ≠ s | s = s k } = ∪ Ek → j , per cui si può concludere che j =1 j ≠k M ˆ Pr {s MV ≠ s k | s = s k } = Pr ∪ Ek → j jj =≠1k ( applicando il limite dell'unione (13) ) (14) M ≤ ∑ Pr { Ek → j } j =1 j≠k 21 Confrontando ora la definizione degli eventi Ek → j con quanto riportato nella (8) si conclude che il generico termine Pr { Ek → j } rappresenta la probabilità di errore di un sistema di trasmissione binario in cui gli unici segnali trasmessi sono s k e s j . Indicando con d k j = s k − s j la distanza tra i due segnali, dalla (8) segue quindi che dk j 1 Pr { Ek → j } = erfc 2 N 2 0 (15) che sostituito nella (14) e poi nella (12) porta alla seguente maggiorazione per la probabilità di errore P ( e) ≤ 1 2M M M dk j , N 0 ∑∑ erfc 2 k =1 j =1 j ≠k (16) nota in letteratura come limite superiore dell’unione (union upper bound). Per il suo calcolo è sufficiente conoscere le distanze tra i possibili segnali generati dal modulatore o equivalentemente tra i punti della costellazione. È importante far notare che il limite nella (16) diviene sempre più stretto al diminuire del livello di rumore N 0 e per N 0 → 0 è asintoticamente esatto. Risulta quindi una buona approssimazione di P(e) per alti SNR. Dalla (16) è possibile derivare un altro limite superiore più semplice ma più lasco. Basandosi infatti sulla circostanza che la funzione erfc( x) è decrescente, indicando con d min = min d k j k≠ j la minima distanza esistente tra i punti della costellazione, si ha ovviamente dk j erfc 2 N 0 d ≤ erfc min 2 N 0 (17) da cui segue P ( e) ≤ 1 2M dk j erfc ∑∑ 2 N k =1 j =1 0 j ≠k ≤ 1 2M d min erfc ∑∑ 2 N k =1 j =1 0 j ≠k = d 1 M ( M − 1)erfc min 2 N 2M 0 M M M M (18) e quindi in definitiva 22 P ( e) ≤ d M −1 erfc min 2 N 2 0 (19) che costituisce il limite superiore dell’unione semplificato. In merito a quest’ultimo vale la pena osservare che per il calcolo e sufficiente conoscere la sola distanza minima tra i punti della costellazione. L’importanza della (18) è inoltre legata al fatto che mette in luce il parametro da ottimizzare per migliorare le prestazioni. Almeno nel caso di basso livello di rumore dalla (18) si evince infatti che la distanza minima d min rappresenta il parametro dominante ai fini delle prestazioni di un insieme di segnali e la sua massimizzazione è infatti un criterio comunemente seguito nella sintesi della costellazione. Vale la pena tuttavia sottolineare che per valori non piccoli della probabilità di errore (cioè livello di rumore non basso) è necessario tener conto di altri aspetti per conseguire un miglioramento delle prestazioni. ο 23 5. Demodulatore incoerente Il modello del segnale ricevuto può esprimersi come segue: { r (t ) = s j (t ;θ ) + n(t ) = Re s j (t )e j( 2π f ot +θ ) } + n(t ) t ∈ [ 0, T ] (1) dove s j (t ) è l’inviluppo complesso di s j (t ) rispetto alla frequenza f o . Anche in questo caso si procede nel ricercare il modello vettoriale equivalente espandendo il segnale ricevuto r (t ) in una base di sviluppo ortonormale che sia, al solito, completa per la componente di segnale utile s j (t ;θ ) ( con j = 1,⋯ , M e θ ∈ [ 0, 2π ) ) . Si fa notare che in questo caso la base ortonormale è in generale “più ricca” rispetto alla corrispondente base impiegata nel caso di ricevitore coerente; ciò in ragione della necessità di dover tenere conto del termine di fase θ . È possibile dimostrare che a parità di segnali s j (t ) con j = 1,⋯ , M , la base che consente di avere il minimo numero di coefficienti per lo sviluppo ha dimensione doppia rispetto alla corrispondente nel caso coerente. Indicando con {ψ 1 (t ),ψ 2 (t ),⋯,ψ N (t )} la suddetta base ed introducendo, come solito i vettori: r (1) (2) r r= ⋮ (N ) r s (1) j (θ ) (2) s (θ ) s j (θ ) = j ⋮ (N ) s j (θ ) n(1) (2) n n= ⋮ (N ) n T con r ( k ) = ∫ r (t )ψ k (t )dt ; 0 T con s (θ ) = ∫ s j (t ;θ )ψ k (t )dt ; (k ) j 0 T con n( k ) = ∫ n(t )ψ k (t )dt ; 0 il modello vettoriale equivalente della (1) è 24 r = s j (θ ) + n . (2) Sulla base di quanto detto nei paragrafi precedenti il ricevitore ottimo, nell’ipotesi che gli M segnali trasmessi siano equiprobabili, si concretizza in un sistema che realizza la seguente decisione a massima verosimiglianza sˆ = arg max pR S ( r s k ) . (3) sk La presenza del termine di fase aleatoria θ rende più articolato il calcolo della densità di probabilità “in avanti” pR S ( r s k ) . Quest’ultima tuttavia può essere espressa in termini di grandezze facilmente ricavabili dal modello di osservazione (sulla base delle ipotesi fatte) mediante i seguenti passaggi: pR S ( r s k ) = +∞ ∫p R ,Θ S ( r,θ s ) dθ ( ddp marginale ottenuta per saturazione della ddp congiunta ) k −∞ +∞ = ∫p R Θ ,S ( r θ , s ) p (θ s ) dθ ΘS k k −∞ +∞ = ∫p R Θ ,S (r θ , s ) p Θ k (θ )dθ ricorda che p ( x, y | z ) = p( x | y, z ) p( y, z ) = p( z ) p( x | y, z ) p( y | z ) ( indipendenza tra fase aleatoria Θ e segnale trasmesso S ) −∞ 1 = 2π 2π ∫p R Θ ,S ( r θ , s ) dθ ( fase aleatoria a distribuzione uniforme in [ 0, 2π ) ) k (4) 0 A questo punto pR Θ ,S ( r θ , s k ) si ricava immediatamente dal modello di osservazione poiché l’assunta indipendenza tra rumore, segnali trasmessi e fase aleatoria porta a concludere che il vettore (aleatorio) di osservazione r, condizionatamente al segnale trasmesso s k ed alla fase θ (indicato con r r θ , sk ) ha la seguente distribuzione N ∼ s k (θ ), 0 I θ , sk 2 (dove I è la matrice identità di dimensione N) da cui segue pR Θ,S ( r θ , s k ) = = (π N 0 ) N (π N 0 ) N N0 2 N0 e s k (θ ) 2 N0 e r 1 = A(r ) e r −sk (θ ) − 1 2 e s k (θ ) N0 2 T + r sk (θ ) N0 2 + 2 T r s k (θ ) N0 (5) A(r ) = r 1 (π N 0 ) N e 2 N0 25 dove si è enucleato il termine che non dipende dall’indice k e che quindi risulterà ininfluente ai fini della successiva decisione. Sostituendo la (5) nella (4) si ottiene 1 pR S ( r s k ) = A(r ) 2π 2π ∫e s k (θ ) N0 2 + 2 T r sk (θ ) N0 dθ . (6) 0 Al fine di semplificare ulteriormente tale espressione è opportuno considerare i termini che 2 compaiono ad esponente nell’integrando. Per quanto riguarda s k (θ ) , questo rappresenta l’energia della componente utile (alterata nella fase) del segnale ricevuto ed è facile convincersi che questa coincide con l’energia del segnale trasmesso sk (t ) poiché la presenza di un termine di fase costante non comporta variazioni dell’energia. Si ha quindi T T s k (θ ) = ∫ [ sk (t ;θ )] dt = ∫ [ sk (t )] dt = Ek 2 2 2 0 (7) 0 che ne evidenzia la conseguente indipendenza da θ . Il termine r Ts k (θ ) rappresenta invece l’intercorrelazione tra il segnale ricevuto r (t ) e la componente utile dello stesso (alterata nella fase) sk (t ;θ ) . Può quindi esprimersi in termini del corrispondente integrale tra le funzioni del tempo T T 0 0 { } r s k (θ ) = ∫ r (t ) sk (t ;θ )dt = ∫ r (t ) Re s k(t )e jθ e j 2π fot dt T jθ T = Re e ∫ r (t ) s k(t )e j 2π fot dt 0 T j 2π f t definendo zk ≐ ∫ r (t ) s k(t )e o dt 0 = zk cos(θ + ϕ k ) . ( avendo scritto z = Re {e jθ zk } k = zk e jϕk , poiché zk ∈ ℂ (8) ) T La procedura di valutazione di zk ≐ ∫ r (t ) s k(t )e j 2π fot dt sarà analizzata in dettaglio più avanti. 0 Andando ora a sostituire la (7) e la (8) nella (6) si ottiene pR S ( r s k ) = A(r ) e Ek N0 1 2π 2π ∫e 2 zk cos(θ +ϕ k ) N0 dθ ; (9) 0 l’integrale nella (9) presenta una struttura particolare potendo infatti essere scritto in termini della funzione speciale I 0 ( x) nota come funzione di Bessel modificata di prima specie di ordine zero e definita come segue 26 Io ( x) ≜ 1π π x cos θ ∫ e dθ = 0 2π 1 2π ∫e x cos(θ +ϕ ) dθ ∀ϕ ∈ ℝ (10) 0 ed il cui grafico è rappresentato in figura. Vale la pena osservare che I 0 ( x) risulta essere una funzione crescente per argomenti non negativi. Io(x) 1 x 0 Grafico della I 0 ( x) A questo punto è immediato riconoscere che la (9) assume la seguente forma finale pR S ( r s k ) = A(r ) e Ek N0 2 z I0 k . N0 (11) Tenendo conto infine del fatto che il termine A(r ) non dipende dall’indice k e che quindi è ininfluente ai fini della decisione rispetto a s k il ricevitore incoerente ottimo è quello che realizza la seguente regola di decisione sˆ = arg max e sk Ek N0 z I0 k N0 , T ≐ dove z r (t ) s k(t )e j 2π fot dt , k ∫ 0 (12) Esso opera quindi nella seguente modalità. Sulla base del segnale ricevuto r (t ) nell’intervallo di segnalazione [ 0,T ] , calcola le M statistiche zk ( k = 1,… , M ) e quindi decide in favore del segnale che rende massima l’espressione e Ek N0 z I0 k N0 . Vale la pena osservare che il ricevitore, oltre a dover conoscere i possibili segnali trasmessi sk (t ) ( k = 1,… , M ), deve avere anche informazioni in merito al livello di rumore N 0 . Nell’ipotesi in cui i segnali sk (t ) abbiano la stessa energia, circostanza tipica nei sistemi in cui si utilizza rivelazione incoerente, la regola di decisione si semplifica notevolmente 27 sˆ = arg max e k =1,…, M Ek N0 z I0 k N0 z = arg max I 0 k k =1,…, M N 0 ( Ek = cost ) = arg max zk . ( essendo I 0 ( x) crescente per x ≥ 0 ) k =1,…, M (13) Da notare che in questo caso ( Ek = cost ) il ricevitore non necessita della conoscenza del livello di rumore ed inoltre la decisione si basa semplicemente sulla ricerca dell’indice k a cui corrisponde il massimo valore per zk . Vediamo ora, limitatamente alla circostanza considerata di segnali equienergia, la struttura a blocchi del ricevitore. Per la derivazione è necessario calcolare le statistiche zk T zk = ∫ r (t ) sk (t )e j 2π fot dt (14) 0 in cui sk (t ) è l’inviluppo complesso del segnale sk (t ) rispetto alla frequenza f o . Lo studente attento avrà riconosciuto che il prodotto sk (t )e j 2π fot è proporzionale al segnale analitico sk+ (t ) associato a sk (t ) . Ricordando la definizione di quest’ultimo si giunge facilmente alla seguente catena di uguaglianze sk (t )e j 2π fot = 2 sk+ (t ) = sk (t ) + jsˆk (t ) dove sˆk (t ) = { (t )} è la trasformata di Hilbert di sk (t ) . Ne consegue che zk si ottiene calcolando T T 0 0 zk = ∫ r (t ) sk (t )dt + j ∫ r (t ) sˆk (t )dt . (15) Il ricevitore dovrà quindi essere in grado di generare localmente sia i segnali sk (t ) che le loro trasformate di Hilbert. Trattandosi tuttavia di segnali in banda traslata il calcolo della trasformata di Hilbert risulta grandemente semplificato poiché si riduce ad un’operazione di sfasamento. Vale infatti la seguente notevole proprietà (dimostrare per esercizio). Proprietà. Sia x(t ) un segnale reale e sia x (t ) il suo inviluppo complesso rispetto alla frequenza { } f o , per cui x(t ) = Re x (t )e j 2π fot . Allora la trasformata di Hilbert di x(t ) assume la forma 28 j (2π f ot xˆ (t ) = { x(t )} = Re x (t )e π 2 ) . Sfruttando la proprietà indicata e tenendo inoltre conto del fatto che sˆ = arg max zk = arg max zk k =1,…,M 2 (16) k =1,…,M si giunge allo schema del ricevitore incoerente a correlazione per segnali equienergia. T ∫ ( ) 2 0 z1 s1 (t ) 2 π/2 T ∫ ( ) 2 0 M ŝ r (t ) A X T ∫ ( ) 2 0 zM sM (t ) 2 π/2 T ∫ ( ) 2 0 Da notare che rispetto al caso di ricevitore coerente qui sono richieste due correlazioni per ciascun segnale sk (t ) . Limitatamente a questo aspetto la complessità è aumentata, per contro il ricevitore incoerente non richiede dispositivi per la stima e l’inseguimento della fase del segnale ricevuto e questa è la fondamentale ragione della sua maggior semplicità realizzativa. Quest’ultima è ancor più evidente quando si va a considerare l’altra forma comune del demodulatore incoerente (usata in particolare per le modulazioni FSK) cosiddetta a filtro adattato in banda traslata (bandpass matched filter in letteratura anglosassone). È infatti possibile provare che la statistica zk ( k = 1,… , M ) può essere equivalentemente 29 ricavata facendo transitare r (t ) in un filtro adattato a sk (t ) (che appunto è in banda traslata), estraendo l’inviluppo[2] dell’uscita e campionando all’istante t = T . Lo schema del ricevitore incoerente a filtro adattato per segnali equienergia è il seguente h1 (t ) = s1 (T − t ) t =T w1 (t ) Rivelatore d’inviluppo z1 M ŝ r (t ) A hM (t ) = sM (T − t ) t =T wM (t ) Rivelatore d’inviluppo X zM Lo studente interessato potrà trovare nei seguenti passaggi la giustificazione teorica allo schema sopra sviluppato T T T 0 0 0 zk = ∫ r (t ) sk (t )e j 2π fot dt = ∫ r (t ) sk (t )dt + j ∫ r (t ) sˆk (t )dt = r (t ) ∗ sk (T − t ) | t =T + jr (t ) ∗ sˆk (T − t ) | t =T 1 ma sˆk (T − t ) = − sk (T − t ) ∗ πt zk = r (t ) ∗ sk (T − t ) − jr (t ) ∗ sk (T − t ) ∗ ( posto 1 πt t =T w(t ) = r (t ) ∗ sk (T − t ) ) zk = w(t ) − jwˆ (t ) t =T = w(t ) t =T essendo w(t ) = 2 w+ (t )e − j 2π fot = 2 w+ (t ) = w(t ) + jwˆ (t ) = w(t ) − jwˆ (t ) . 2 Ricorda che l’inviluppo di un segnale x(t ) è il modulo del suo inviluppo complesso x (t ) . Quindi Inviluppo [ x(t ) ] = x (t ) = xc2 (t ) + xs2 (t ) . 30 Cenni sulle prestazioni Ci limitiamo a considerare solo il caso di trasmissione binaria. È possibile provare che avendo un vincolo sull’energia massima (E), quando l’informazione sulla fase del segnale ricevuto non è nota, la migliore configurazione (quella cioè che garantisce la minima probabilità di errore) è quella di segnali ortogonali con la stessa energia. T ∫ s1 (t )s2 (t )dt = 0 0 e T T 0 0 2 2 ∫ s1 (t )dt = ∫ s2 (t )dt = E In questo caso si dimostra che la probabilità di errore è data da E 1 − Pe = e 2 N0 2 ο 31