CLASSIFICAZIONE DEI SEGNALI Per segnale si intende una funzione del tempo che rappresenta l’evoluzione temporale di una grandezza fisica. Evidentemente tale definizione prescinde dalla natura fisica della grandezza considerata che può allora essere, ad esempio, una temperatura, una pressione, …, etc. Nondimeno, nell’ambito di questo Corso si sarà interessati a considerare, essenzialmente, grandezze di natura elettrica; i segnali che verranno presi in esame nel seguito saranno allora, prevalentemente, tensioni, correnti, potenze, … etc. Va anche detto che, per maggiore generalità e per semplificare la trattazione, i segnali verranno definiti e trattati come adimensionali. Questa precisazione andrà tenuta in conto soprattutto nell’utilizzo dei parametri e delle quantità che, a partire dai segnali, saranno via via definite; esse andranno infatti riferite a funzioni adimensionali A partire da un segnale adimensionale è possibile ricavare l’andamento della corrispondente grandezza dimensionale semplicemente moltiplicando per un coefficiente di dimensioni opportune ([Volt] per una tensione, [Ampere] per una corrente, [Watt] per una potenza, e così via). Come detto nel titolo, una prima esigenza che si pone, ai fini di una loro corretta interpretazione ed utilizzazione, è quella della classificazione dei segnali; il che può essere fatto in diversi modi. Un prima importante distinzione è tra segnali determinati e segnali aleatori. Per segnale determinato si intende un segnale il cui andamento temporale è completamente noto a priori, per tutti i valori della variabile indipendente t da t = −∞ a t = +∞. La conoscenza “a priori” consente di rappresentare il segnale determinato per il tramite di un’espressione matematica, un grafico, una registrazione magnetica, una sequenza di numeri, …, etc. Dal punto di vista pratico, ciò significa che è sufficiente specificare l’istante temporale di interesse per poter individuare immediatamente in maniera univoca il valore che il segnale assumerà in quell’istante. Al più, in funzione delle modalità e della precisione della rappresentazione, grafica o numerica, adottata, potrà essere necessaria una qualche operazione di interpolazione, che però potrà essere gestita in maniera semplice ed efficiente con strumenti classici. Fissando l’attenzione sul caso, più frequente, in cui il segnale sia noto attraverso un’espressione matematica, esempi di segnali determinati sono i seguenti: s( t ) = A ⋅ cos(2πf o t ) (1a) s( t ) = B ⋅ exp(− t 2 ) (1b) s( t ) = C ⋅ exp[i(2πf o t + ϕ)] (1c) Ovviamente nelle (1) si sottintende che A, B, C, fo e ϕ siano costanti assegnate. Come si vede, s(t) può essere una funzione a valori reali ((1a) e (1b)) ma anche a valori complessi (1c). Guardando al segnale come all’evoluzione, nel senso specificato, di una grandezza fisica, la prima scelta sembrerebbe la più naturale; nondimeno si avrà modo di constatare che la definizione di segnali complessi risulta utile in molti contesti ed applicazioni. Con argomentazioni analoghe sembrerebbe doversi imporre che le funzioni che rappresentano i segnali siano ovunque limitate e continue; in realtà anche questo è un vincolo che, pur tenendo conto degli aspetti fisici, sarà ben rimuovere per poter disporre di una maggiore flessibilità e generalità. I segnali determinati sono importanti al fine di fissare un primo fondamentale insieme di definizioni e proprietà che, in quanto tali, stanno alla base della Teoria dei segnali. Tranne rare eccezioni, è sufficiente allo scopo utilizzare i concetti e i postulati dell’analisi matematica tradizionale. Accanto ad essi è però necessario modellare e studiare un’altra famiglia di segnali che invece necessitano di più ostici (almeno tradizionalmente) concetti di Teoria delle probabilità: i segnali aleatori. Contrariamente al caso di segnale determinato, non è possibile conoscere a priori con esattezza il valore assunto in un certo istante da un segnale aleatorio. E questo perché il segnale è 1 completamente non noto, ovvero perché è noto a meno di certi parametri. Nel primo come nel secondo caso la descrizione a priori del segnale è allora possibile solo in termini statistici. In pratica, si può stabilire a priori il range di variabilità del segnale (vale a dire l’insieme dei valori che esso potrà assumere) o dei suoi parametri non fissi, dopo di che sarà al più possibile descrivere la probabilità con la quale questi valori potranno essere assunti. Un segnale aleatorio diventa determinato a valle di una sua registrazione: ciò significa poter disporre di una conoscenza “a posteriori” del segnale che comunque andrà intesa come una particolare realizzazione del processo stocastico considerato, utile per approfondirne le caratteristiche statistiche o per validare le previsioni iniziali, ma che comunque non potrà modificare il carattere aleatorio del segnale stesso. I segnali aleatori sono assolutamente importanti nell’ambito della caratterizzazione, ad esempio, di un sistema di comunicazione, perché ad essi è intimamente legato il concetto di informazione. Come si avrà modo di puntualizzare nel contesto di altri Corsi, l’informazione associata ad un segnale può essere definita come la riduzione di incertezza che si poteva avere a priori sul suo valore (in un certo istante o in un certo intervallo di tempo) e scopo di un sistema di comunicazione è di consentire la trasmissione a distanza di tale informazione con la minima degradazione possibile. Un segnale determinato non porta informazione perché non ha alcuna incertezza a priori: esso è semplicemente noto per qualunque istante di tempo. Ecco allora che un segnale cosinusoidale del tipo della (1a) può essere utilizzato, come risulterà meglio chiaro nel seguito, per testare una linea telefonica ma non corrisponderà ad alcun messaggio telefonico “informativo” da una sorgente a un destinatario. Per essere “informativo” il messaggio telefonico non sarà noto a priori al destinatario, che di esso, rispondendo alla chiamata, potrà allora formulare, al più, solo una previsione statistica. Considerazioni analoghe valgono per tutti (o quasi tutti) gli altri segnali di interesse per le comunicazioni: il segnale televisivo, il facsimile, la trasmissione dati tra calcolatori o via Internet, e così via. Tutti questi segnali sono dunque esempi di processi aleatori. La significatività di questi esempi, sulla base dell’esperienza quotidiana, potrebbe far pensare che, di fatto, i segnali aleatori siano gli unici di interesse pratico e che dunque lo studio dei segnali determinati sia inutile o quantomeno ridondante. In realtà ci si convincerà, attraverso l’esposizione, che proprio la disponibilità di un corpo matematico semplice e consolidato quale quello proprio dei segnali determinati consente di indirizzare opportunamente anche lo studio dei segnali aleatori. Alcuni concetti (potremmo dire quelli fondamentali) verranno allora introdotti per i segnali determinati e successivamente estesi al caso dei segnali aleatori. Una ulteriore importante classificazione dei segnali fa riferimento ai valori assunti dalla variabile indipendente (tempo t) e dalla grandezza che essi rappresentano (ampiezza). Si distingue allora tra: a) segnali a tempo continuo ed ampiezza continua; b) segnali a tempo continuo ed ampiezza discreta; c) segnali a tempo discreto ed ampiezza continua; d) segnali a tempo discreto ed ampiezza discreta. Le quattro possibili combinazioni sono illustrate, in maniera schematica e a partire da una comune forma d’onda elementare, in Figura 1. I segnali di tipo a) si dicono analogici e sono quelli che più frequentemente associamo ai fenomeni naturali (si pensi ad un’onda acustica). Per essi, il tempo e l’ampiezza possono assumere con continuità tutti i valori compresi entro certi intervalli, eventualmente illimitati. E’ un esempio di segnale analogico il tracciato elettrocardiografico (ECG) mostrato in Figura 2. Talvolta può essere opportuno o necessario imporre che l’ampiezza assuma un numero finito di valori; si pensi al monitoraggio di una temperatura in un processo chimico: il sensore di temperatura produrrà una tensione che verrà passata al computer cui è demandata l’azione di controllo. Il computer convertirà la tensione registrata in un certo istante in un numero appartenente ad un insieme finito. In pratica, l’azione di monitoraggio sarà legata alla capacità di risoluzione prefissata: se il range di temperatura da monitorare è compreso tra 0°C e 100°C e il computer discrimina 1000 possibili valori, questo significherà che il potere risolvente è pari a 0.1°C ed il computer considera indistinguibili, ad esempio, le temperature di 47.51°C e 47.52°C. Si è soliti affermare che il 2 computer tratta un segnale quantizzato e, come avremo modo di approfondire nel seguito, l’operazione di quantizzazione è uno dei passi fondamentali per la trasformazione di un segnale analogico in segnale numerico (o digitale). E i segnali numerici sono quelli che maggiormente interessa considerare nelle principali applicazioni, presenti e future, dei sistemi di comunicazione. Il segnale che si ottiene operando la quantizzazione delle ampiezze è di tipo b) e il suo elemento caratterizzante, come mostrato in Figura 1, è l’ampiezza dell’intervallo di quantizzazione. Per il resto, il segnale rimane costante per intervalli temporali di durata variabile, in funzione della dinamica del segnale, coprendo comunque l’intero asse dei tempi. Figura 1 Figura 2 D’altro canto, la discretizzazione delle ampiezze prelude, quale operazione complementare, alla discretizzazione dell’asse dei tempi. In questo caso (segnali di tipo c)) il dominio della funzione ha la cardinalità dell’insieme discreto dei numeri interi. Il segnale viene dunque considerato in corrispondenza di una successione di istanti normalmente (anche se non necessariamente) assunti equispaziati. In linea di principio, anzi, non v’è neanche più l’esigenza di esplicitare la variabile tempo in quanto la sequenza dei valori assunti dal segnale costituisce essa stessa una successione che può essere indicata come sn o, più propriamente, una sequenza s[n]. Come esempio di segnale a tempo discreto ed ampiezza continua può essere citato il segnale cinematografico. Esso è ottenuto proiettando 24 fotogrammi (immagini) al secondo perché questa velocità di proiezione garantisce all’occhio umano l’illusione di un’immagine che varia con continuità (segnale continuo); lo stesso principio si applica anche al segnale televisivo, nel qual caso il numero di immagini al secondo, in accordo con lo standard europeo, è pari a 25. Il segnale cinematografico può allora essere visto come una funzione tridimensionale di due variabili spaziali 3 continue, x1 e x2, che identificano i pixel dell’immagine, e di una ulteriore variabile temporale discreta, n, che identifica i vari fotogrammi in successione. La situazione è schematicamente illustrata in Figura 3. L’operazione di discretizzazione del dominio del tempo va sotto il nome di campionamento, ed è un altro passo fondamentale nella conversione di un segnale analogico in segnale numerico. Figura 3 Ma un segnale propriamente numerico, è tale sia nel tempo che nelle ampiezze (segnale di tipo d)). Sono questi segnali che regolano il funzionamento dei circuiti elettronici digitali o che sono trattati dagli elaboratori numerici. La più volte citata operazione di trasformazione di un segnale analogico in segnale digitale ha come obiettivo tanto il campionamento nel dominio del tempo quanto la quantizzazione nel dominio delle ampiezze. Come conseguenza, la maggior parte dei segnali trattati dai circuiti elettronici, dai mezzi trasmessivi e dagli apparati di comunicazione è di tipo d), o perché il segnale ha intrinsecamente una natura di questo tipo o perché è il risultato della conversione di un segnale analogico. Il campionamento nel dominio del tempo deve essere effettuato in accordo con regole ben precise delle quali si avrà modo di discutere ampiamente nel seguito, mentre la quantizzazione nel dominio delle ampiezze produce un numero di livelli M che è frequentemente pari a una potenza di 2 (si ha cioè M = 2k). Come eventuale conseguenza di un’ulteriore operazione, ove necessaria, e che va sotto il nome di codifica, si fa infatti in modo da ricondursi frequentemente ad un segnale binario, in quanto tale suscettibile cioè di assumere due soli valori. Un esempio di segnale binario è riportato in Figura 4(a). Evidentemente è facile prevedere che la Figura 4(a) è un’astrazione matematica nel senso che un segnale diverso da zero in un insieme di istanti non potrà essere né generato né processato da alcun dispositivo reale, per cui l’implementazione pratica di Figura 4(a) potrà essere, ad esempio, quella di Figura 4(b). E quest’ultimo ha più le parvenze di un segnale di tipo b) che di tipo d). Resta il fatto che, in questo caso, l’informazione è tutta e sola associata al valore assunto in corrispondenza degli istanti di campionamento, mentre il prolungamento temporale è solo legato alle esigenze di realizzabilità fisica. In questo senso, il segnale di Figura 4(b) è, ad esempio, equivalente al segnale di Figura 4(c): l’unica differenza risiede infatti nella forma d’onda (fisica) elementare con cui è stato rappresentato il dato binario; in particolare, in Figura 4(b) si parla di rappresentazione unipolare e in Figura 4(c) di rappresentazione bipolare. D’altro canto non è neppure detto che la forma d’onda elementare con cui viene rappresentato il dato binario debba essere necessariamente rettangolare. Un esempio, per la stessa sequenza binaria, è riportato in Figura 4(d). 4 1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0 s[n] n (a) 1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0 s[t] t (b) 1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0 s[t] t (c) 1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0 s[t] t (d) Figura 4 Un caso particolare molto importante è costituito dai cosiddetti segnali periodici. Per essi vale la proprietà: s( t + T ) = s( t ) . (2) In pratica, ciò corrisponde a dire che il segnale s(t) si ripete ad intervalli regolari di estensione pari a T. Quest’ultima quantità prende il nome di periodo del segnale. Sono esempi di segnali periodici la funzione sinusoidale (1a) e la funzione esponenziale complesso (1c). In queste espressioni compare anzi esplicitamente il parametro fo che prende il nome di frequenza fondamentale del segnale periodico ed è legato a T dalla relazione: fo = 1 . T (3) 5 In luogo della frequenza fondamentale, espressa in Hertz = 1/s, sarà spesso conveniente utilizzare nel seguito la pulsazione fondamentale ωo = 2πfo, espressa in rad/s. Il significato di ωo è analogo a quello di fo, da quest’ultima differendo solo per un fattore di scala. In generale, per una data forma del segnale, maggiore è il valore di fo maggiore è la sua velocità di variazione nel tempo; d’altro canto, all’aumentare di fo, aumenta il numero di periodi che il segnale descrive nell’unità di tempo. Nel caso di segnali a tempo discreto la proprietà di periodicità può essere meglio espressa come: s[ n + N ] = s[ n ] , (4) ed il periodo N è in questo caso un numero intero. Sulla scorta delle precedenti definizioni, il segnale periodico è completamente caratterizzato dalla sua evoluzione all’interno di un periodo; ciò significa che il segnale è completamente noto quando se ne conosce l’andamento all’interno di un intervallo di durata T (comunque allocato). Un altro esempio di segnale periodico è mostrato in Figura 5. Figura 5 Un segnale aperiodico (cioè non periodico) può essere visto, al limite, come un segnale periodico di periodo infinito. Dato un segnale s(t) (o s[n]), una prima grandezza che lo caratterizza è il valore medio temporale così definito (rispettivamente per un segnale a tempo continuo e per un segnale a tempo discreto): ΔT / 2 ___ 1 s(t) = lim s(t)dt , ∫ ΔT →∞ ΔT −ΔT / 2 (5a) N 1 ∑ s[n] . N→∞ 2 N + 1 n = − N s m = lim (5b) D’altro canto, per un segnale periodico, posto ΔT = kT, la (5a) ad esempio fornisce: ___ ΔT / 2 kT / 2 T/2 T/2 1 1 k 1 s(t)dt = lim s(t)dt = lim s(t)dt = s(t)dt , ∫ ∫ ∫ ΔT →∞ ΔT kT →∞ kT k →∞ kT T − T∫/ 2 −ΔT / 2 − kT / 2 −T / 2 s(t) = lim (6) ad ulteriore conferma di come le caratteristiche del segnale (in questo caso il suo valor medio) siano completamente specificate dall’andamento all’interno di un periodo. Vogliamo chiudere questo Capitolo con la definizione di una funzione che in realtà, a rigore, funzione non è, ma che risulta estremamente utile nello sviluppo di alcune delle tematiche considerate nell’ambito del Corso (tanto da giustificare il minor rigore formale che essa richiede): si tratta della “funzione” impulso matematico, altrimenti nota anche come delta di Dirac. In realtà, più 6 che una funzione, si tratta del limite di una successione di funzioni, al tendere di un parametro ad un valore opportuno. Si consideri la Figura 6: le funzioni rectΔt(t) che in essa compaiono, costanti all’interno di intervalli prefissati, simmetrici rispetto all’asse delle ordinate, sono caratterizzate da durata ed ampiezza diverse. Nondimeno, tutte hanno area unitaria. Al diminuire della durata Δt la generica funzione viene ad avere una durata sempre minore ed un’ampiezza sempre maggiore, preservando però la proprietà sull’area. Al limite, per Δt→0, la funzione viene ad essere diversa da zero solo in un istante (l’origine degli assi) ove l’ampiezza diventa, corrispondentemente, infinita. rect Δt (t) 1/Δt 1 1/Δt 2 1/Δt 3 Δt1 Δt 2 t Δt3 Figura 6 E’ questa la definizione di impulso matematico di area unitaria, che verrà qui indicato con δ(t) e che dunque, formalmente, si scrive: 1 rect Δt ( t ) . Δt →0 Δt δ( t ) = lim (7) Per quanto sopra, valgono le relazioni: δ( t ) = ∞ per t = 0 e δ( t ) = 0 per t ≠ 0 (8a) ∞ ∫ δ(t)dt = 1 (8b) −∞ Una delta di Dirac di area A non unitaria si ottiene dalla precedente moltiplicando per A, mentre una delta di Dirac allocata in un istante to≠0 sarà δ(t−to). E’ poi facile verificare, con il consueto passaggio al limite, la seguente fondamentale relazione, che definisce la cosiddetta proprietà di campionamento ideale della delta di Dirac che sarà utile in molti e sostanziali argomenti della teoria delle Comunicazioni Elettriche: ∞ ∫ s(t)δ(t − t o )dt = s( t o ) . (9) −∞ 7 Infine, benché ovvio, è opportuno precisare che la stessa definizione di impulso matematico può essere ottenuta a partire da successioni di funzioni diverse dalla rectΔt(t) sopra utilizzata, al tendere a zero (o all’infinito) di un parametro da cui esse dipendono. Esempi in questo senso sono i seguenti: 1 sin( t / Δt ) t Δt →0 π (10a) lim lim 1 Δt →0 Δt π e −( t / Δt ) 2 (10b) 1 − t / Δt e Δt →0 2Δt (10c) lim lim Δt →0 π (Δt Δt 2 + t2 ). (10d) 8