CLASSIFICAZIONE DEI SEGNALI
Per segnale si intende una funzione del tempo che rappresenta l’evoluzione temporale di una
grandezza fisica. Evidentemente tale definizione prescinde dalla natura fisica della grandezza
considerata che può allora essere, ad esempio, una temperatura, una pressione, …, etc. Nondimeno,
nell’ambito di questo Corso si sarà interessati a considerare, essenzialmente, grandezze di natura
elettrica; i segnali che verranno presi in esame nel seguito saranno allora, prevalentemente, tensioni,
correnti, potenze, … etc.
Va anche detto che, per maggiore generalità e per semplificare la trattazione, i segnali verranno
definiti e trattati come adimensionali. Questa precisazione andrà tenuta in conto soprattutto
nell’utilizzo dei parametri e delle quantità che, a partire dai segnali, saranno via via definite; esse
andranno infatti riferite a funzioni adimensionali A partire da un segnale adimensionale è possibile
ricavare l’andamento della corrispondente grandezza dimensionale semplicemente moltiplicando
per un coefficiente di dimensioni opportune ([Volt] per una tensione, [Ampere] per una corrente,
[Watt] per una potenza, e così via).
Come detto nel titolo, una prima esigenza che si pone, ai fini di una loro corretta interpretazione ed
utilizzazione, è quella della classificazione dei segnali; il che può essere fatto in diversi modi.
Un prima importante distinzione è tra segnali determinati e segnali aleatori.
Per segnale determinato si intende un segnale il cui andamento temporale è completamente noto a
priori, per tutti i valori della variabile indipendente t da t = −∞ a t = +∞. La conoscenza “a priori”
consente di rappresentare il segnale determinato per il tramite di un’espressione matematica, un
grafico, una registrazione magnetica, una sequenza di numeri, …, etc. Dal punto di vista pratico, ciò
significa che è sufficiente specificare l’istante temporale di interesse per poter individuare
immediatamente in maniera univoca il valore che il segnale assumerà in quell’istante. Al più, in
funzione delle modalità e della precisione della rappresentazione, grafica o numerica, adottata, potrà
essere necessaria una qualche operazione di interpolazione, che però potrà essere gestita in maniera
semplice ed efficiente con strumenti classici. Fissando l’attenzione sul caso, più frequente, in cui il
segnale sia noto attraverso un’espressione matematica, esempi di segnali determinati sono i
seguenti:
s( t ) = A ⋅ cos(2πf o t )
(1a)
s( t ) = B ⋅ exp(− t 2 )
(1b)
s( t ) = C ⋅ exp[i(2πf o t + ϕ)]
(1c)
Ovviamente nelle (1) si sottintende che A, B, C, fo e ϕ siano costanti assegnate. Come si vede, s(t)
può essere una funzione a valori reali ((1a) e (1b)) ma anche a valori complessi (1c). Guardando al
segnale come all’evoluzione, nel senso specificato, di una grandezza fisica, la prima scelta
sembrerebbe la più naturale; nondimeno si avrà modo di constatare che la definizione di segnali
complessi risulta utile in molti contesti ed applicazioni. Con argomentazioni analoghe sembrerebbe
doversi imporre che le funzioni che rappresentano i segnali siano ovunque limitate e continue; in
realtà anche questo è un vincolo che, pur tenendo conto degli aspetti fisici, sarà ben rimuovere per
poter disporre di una maggiore flessibilità e generalità.
I segnali determinati sono importanti al fine di fissare un primo fondamentale insieme di definizioni
e proprietà che, in quanto tali, stanno alla base della Teoria dei segnali. Tranne rare eccezioni, è
sufficiente allo scopo utilizzare i concetti e i postulati dell’analisi matematica tradizionale. Accanto
ad essi è però necessario modellare e studiare un’altra famiglia di segnali che invece necessitano di
più ostici (almeno tradizionalmente) concetti di Teoria delle probabilità: i segnali aleatori.
Contrariamente al caso di segnale determinato, non è possibile conoscere a priori con esattezza il
valore assunto in un certo istante da un segnale aleatorio. E questo perché il segnale è
1
completamente non noto, ovvero perché è noto a meno di certi parametri. Nel primo come nel
secondo caso la descrizione a priori del segnale è allora possibile solo in termini statistici. In
pratica, si può stabilire a priori il range di variabilità del segnale (vale a dire l’insieme dei valori che
esso potrà assumere) o dei suoi parametri non fissi, dopo di che sarà al più possibile descrivere la
probabilità con la quale questi valori potranno essere assunti. Un segnale aleatorio diventa
determinato a valle di una sua registrazione: ciò significa poter disporre di una conoscenza “a
posteriori” del segnale che comunque andrà intesa come una particolare realizzazione del processo
stocastico considerato, utile per approfondirne le caratteristiche statistiche o per validare le
previsioni iniziali, ma che comunque non potrà modificare il carattere aleatorio del segnale stesso.
I segnali aleatori sono assolutamente importanti nell’ambito della caratterizzazione, ad esempio, di
un sistema di comunicazione, perché ad essi è intimamente legato il concetto di informazione.
Come si avrà modo di puntualizzare nel contesto di altri Corsi, l’informazione associata ad un
segnale può essere definita come la riduzione di incertezza che si poteva avere a priori sul suo
valore (in un certo istante o in un certo intervallo di tempo) e scopo di un sistema di comunicazione
è di consentire la trasmissione a distanza di tale informazione con la minima degradazione
possibile. Un segnale determinato non porta informazione perché non ha alcuna incertezza a priori:
esso è semplicemente noto per qualunque istante di tempo. Ecco allora che un segnale cosinusoidale
del tipo della (1a) può essere utilizzato, come risulterà meglio chiaro nel seguito, per testare una
linea telefonica ma non corrisponderà ad alcun messaggio telefonico “informativo” da una sorgente
a un destinatario. Per essere “informativo” il messaggio telefonico non sarà noto a priori al
destinatario, che di esso, rispondendo alla chiamata, potrà allora formulare, al più, solo una
previsione statistica. Considerazioni analoghe valgono per tutti (o quasi tutti) gli altri segnali di
interesse per le comunicazioni: il segnale televisivo, il facsimile, la trasmissione dati tra calcolatori
o via Internet, e così via. Tutti questi segnali sono dunque esempi di processi aleatori. La
significatività di questi esempi, sulla base dell’esperienza quotidiana, potrebbe far pensare che, di
fatto, i segnali aleatori siano gli unici di interesse pratico e che dunque lo studio dei segnali
determinati sia inutile o quantomeno ridondante. In realtà ci si convincerà, attraverso l’esposizione,
che proprio la disponibilità di un corpo matematico semplice e consolidato quale quello proprio dei
segnali determinati consente di indirizzare opportunamente anche lo studio dei segnali aleatori.
Alcuni concetti (potremmo dire quelli fondamentali) verranno allora introdotti per i segnali
determinati e successivamente estesi al caso dei segnali aleatori.
Una ulteriore importante classificazione dei segnali fa riferimento ai valori assunti dalla variabile
indipendente (tempo t) e dalla grandezza che essi rappresentano (ampiezza). Si distingue allora tra:
a) segnali a tempo continuo ed ampiezza continua;
b) segnali a tempo continuo ed ampiezza discreta;
c) segnali a tempo discreto ed ampiezza continua;
d) segnali a tempo discreto ed ampiezza discreta.
Le quattro possibili combinazioni sono illustrate, in maniera schematica e a partire da una comune
forma d’onda elementare, in Figura 1.
I segnali di tipo a) si dicono analogici e sono quelli che più frequentemente associamo ai fenomeni
naturali (si pensi ad un’onda acustica). Per essi, il tempo e l’ampiezza possono assumere con
continuità tutti i valori compresi entro certi intervalli, eventualmente illimitati. E’ un esempio di
segnale analogico il tracciato elettrocardiografico (ECG) mostrato in Figura 2.
Talvolta può essere opportuno o necessario imporre che l’ampiezza assuma un numero finito di
valori; si pensi al monitoraggio di una temperatura in un processo chimico: il sensore di temperatura
produrrà una tensione che verrà passata al computer cui è demandata l’azione di controllo. Il
computer convertirà la tensione registrata in un certo istante in un numero appartenente ad un
insieme finito. In pratica, l’azione di monitoraggio sarà legata alla capacità di risoluzione prefissata:
se il range di temperatura da monitorare è compreso tra 0°C e 100°C e il computer discrimina 1000
possibili valori, questo significherà che il potere risolvente è pari a 0.1°C ed il computer considera
indistinguibili, ad esempio, le temperature di 47.51°C e 47.52°C. Si è soliti affermare che il
2
computer tratta un segnale quantizzato e, come avremo modo di approfondire nel seguito,
l’operazione di quantizzazione è uno dei passi fondamentali per la trasformazione di un segnale
analogico in segnale numerico (o digitale). E i segnali numerici sono quelli che maggiormente
interessa considerare nelle principali applicazioni, presenti e future, dei sistemi di comunicazione. Il
segnale che si ottiene operando la quantizzazione delle ampiezze è di tipo b) e il suo elemento
caratterizzante, come mostrato in Figura 1, è l’ampiezza dell’intervallo di quantizzazione. Per il
resto, il segnale rimane costante per intervalli temporali di durata variabile, in funzione della
dinamica del segnale, coprendo comunque l’intero asse dei tempi.
Figura 1
Figura 2
D’altro canto, la discretizzazione delle ampiezze prelude, quale operazione complementare, alla
discretizzazione dell’asse dei tempi. In questo caso (segnali di tipo c)) il dominio della funzione ha
la cardinalità dell’insieme discreto dei numeri interi. Il segnale viene dunque considerato in
corrispondenza di una successione di istanti normalmente (anche se non necessariamente) assunti
equispaziati. In linea di principio, anzi, non v’è neanche più l’esigenza di esplicitare la variabile
tempo in quanto la sequenza dei valori assunti dal segnale costituisce essa stessa una successione
che può essere indicata come sn o, più propriamente, una sequenza s[n].
Come esempio di segnale a tempo discreto ed ampiezza continua può essere citato il segnale
cinematografico. Esso è ottenuto proiettando 24 fotogrammi (immagini) al secondo perché questa
velocità di proiezione garantisce all’occhio umano l’illusione di un’immagine che varia con
continuità (segnale continuo); lo stesso principio si applica anche al segnale televisivo, nel qual
caso il numero di immagini al secondo, in accordo con lo standard europeo, è pari a 25. Il segnale
cinematografico può allora essere visto come una funzione tridimensionale di due variabili spaziali
3
continue, x1 e x2, che identificano i pixel dell’immagine, e di una ulteriore variabile temporale
discreta, n, che identifica i vari fotogrammi in successione. La situazione è schematicamente
illustrata in Figura 3. L’operazione di discretizzazione del dominio del tempo va sotto il nome di
campionamento, ed è un altro passo fondamentale nella conversione di un segnale analogico in
segnale numerico.
Figura 3
Ma un segnale propriamente numerico, è tale sia nel tempo che nelle ampiezze (segnale di tipo d)).
Sono questi segnali che regolano il funzionamento dei circuiti elettronici digitali o che sono trattati
dagli elaboratori numerici. La più volte citata operazione di trasformazione di un segnale analogico
in segnale digitale ha come obiettivo tanto il campionamento nel dominio del tempo quanto la
quantizzazione nel dominio delle ampiezze. Come conseguenza, la maggior parte dei segnali trattati
dai circuiti elettronici, dai mezzi trasmessivi e dagli apparati di comunicazione è di tipo d), o perché
il segnale ha intrinsecamente una natura di questo tipo o perché è il risultato della conversione di un
segnale analogico. Il campionamento nel dominio del tempo deve essere effettuato in accordo con
regole ben precise delle quali si avrà modo di discutere ampiamente nel seguito, mentre la
quantizzazione nel dominio delle ampiezze produce un numero di livelli M che è frequentemente
pari a una potenza di 2 (si ha cioè M = 2k). Come eventuale conseguenza di un’ulteriore operazione,
ove necessaria, e che va sotto il nome di codifica, si fa infatti in modo da ricondursi frequentemente
ad un segnale binario, in quanto tale suscettibile cioè di assumere due soli valori.
Un esempio di segnale binario è riportato in Figura 4(a). Evidentemente è facile prevedere che la
Figura 4(a) è un’astrazione matematica nel senso che un segnale diverso da zero in un insieme di
istanti non potrà essere né generato né processato da alcun dispositivo reale, per cui
l’implementazione pratica di Figura 4(a) potrà essere, ad esempio, quella di Figura 4(b). E
quest’ultimo ha più le parvenze di un segnale di tipo b) che di tipo d). Resta il fatto che, in questo
caso, l’informazione è tutta e sola associata al valore assunto in corrispondenza degli istanti di
campionamento, mentre il prolungamento temporale è solo legato alle esigenze di realizzabilità
fisica. In questo senso, il segnale di Figura 4(b) è, ad esempio, equivalente al segnale di Figura 4(c):
l’unica differenza risiede infatti nella forma d’onda (fisica) elementare con cui è stato rappresentato
il dato binario; in particolare, in Figura 4(b) si parla di rappresentazione unipolare e in Figura 4(c)
di rappresentazione bipolare. D’altro canto non è neppure detto che la forma d’onda elementare con
cui viene rappresentato il dato binario debba essere necessariamente rettangolare. Un esempio, per
la stessa sequenza binaria, è riportato in Figura 4(d).
4
1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0
s[n]
n
(a)
1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0
s[t]
t
(b)
1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0
s[t]
t
(c)
1 1 0 1 0 1 0 1 1 0 1 1 0 1 0 0
s[t]
t
(d)
Figura 4
Un caso particolare molto importante è costituito dai cosiddetti segnali periodici. Per essi vale la
proprietà:
s( t + T ) = s( t ) .
(2)
In pratica, ciò corrisponde a dire che il segnale s(t) si ripete ad intervalli regolari di estensione pari a
T. Quest’ultima quantità prende il nome di periodo del segnale. Sono esempi di segnali periodici la
funzione sinusoidale (1a) e la funzione esponenziale complesso (1c). In queste espressioni compare
anzi esplicitamente il parametro fo che prende il nome di frequenza fondamentale del segnale
periodico ed è legato a T dalla relazione:
fo =
1
.
T
(3)
5
In luogo della frequenza fondamentale, espressa in Hertz = 1/s, sarà spesso conveniente utilizzare
nel seguito la pulsazione fondamentale ωo = 2πfo, espressa in rad/s. Il significato di ωo è analogo a
quello di fo, da quest’ultima differendo solo per un fattore di scala. In generale, per una data forma
del segnale, maggiore è il valore di fo maggiore è la sua velocità di variazione nel tempo; d’altro
canto, all’aumentare di fo, aumenta il numero di periodi che il segnale descrive nell’unità di tempo.
Nel caso di segnali a tempo discreto la proprietà di periodicità può essere meglio espressa come:
s[ n + N ] = s[ n ] ,
(4)
ed il periodo N è in questo caso un numero intero.
Sulla scorta delle precedenti definizioni, il segnale periodico è completamente caratterizzato dalla
sua evoluzione all’interno di un periodo; ciò significa che il segnale è completamente noto quando
se ne conosce l’andamento all’interno di un intervallo di durata T (comunque allocato). Un altro
esempio di segnale periodico è mostrato in Figura 5.
Figura 5
Un segnale aperiodico (cioè non periodico) può essere visto, al limite, come un segnale periodico di
periodo infinito.
Dato un segnale s(t) (o s[n]), una prima grandezza che lo caratterizza è il valore medio temporale
così definito (rispettivamente per un segnale a tempo continuo e per un segnale a tempo discreto):
ΔT / 2
___
1
s(t) = lim
s(t)dt ,
∫
ΔT →∞ ΔT
−ΔT / 2
(5a)
N
1
∑ s[n] .
N→∞ 2 N + 1 n = − N
s m = lim
(5b)
D’altro canto, per un segnale periodico, posto ΔT = kT, la (5a) ad esempio fornisce:
___
ΔT / 2
kT / 2
T/2
T/2
1
1
k
1
s(t)dt = lim
s(t)dt = lim
s(t)dt =
s(t)dt ,
∫
∫
∫
ΔT →∞ ΔT
kT →∞ kT
k →∞ kT
T − T∫/ 2
−ΔT / 2
− kT / 2
−T / 2
s(t) = lim
(6)
ad ulteriore conferma di come le caratteristiche del segnale (in questo caso il suo valor medio) siano
completamente specificate dall’andamento all’interno di un periodo.
Vogliamo chiudere questo Capitolo con la definizione di una funzione che in realtà, a rigore,
funzione non è, ma che risulta estremamente utile nello sviluppo di alcune delle tematiche
considerate nell’ambito del Corso (tanto da giustificare il minor rigore formale che essa richiede): si
tratta della “funzione” impulso matematico, altrimenti nota anche come delta di Dirac. In realtà, più
6
che una funzione, si tratta del limite di una successione di funzioni, al tendere di un parametro ad un
valore opportuno.
Si consideri la Figura 6: le funzioni rectΔt(t) che in essa compaiono, costanti all’interno di intervalli
prefissati, simmetrici rispetto all’asse delle ordinate, sono caratterizzate da durata ed ampiezza
diverse. Nondimeno, tutte hanno area unitaria. Al diminuire della durata Δt la generica funzione
viene ad avere una durata sempre minore ed un’ampiezza sempre maggiore, preservando però la
proprietà sull’area. Al limite, per Δt→0, la funzione viene ad essere diversa da zero solo in un
istante (l’origine degli assi) ove l’ampiezza diventa, corrispondentemente, infinita.
rect Δt (t)
1/Δt 1
1/Δt 2
1/Δt 3
Δt1
Δt 2
t
Δt3
Figura 6
E’ questa la definizione di impulso matematico di area unitaria, che verrà qui indicato con δ(t) e che
dunque, formalmente, si scrive:
1
rect Δt ( t ) .
Δt →0 Δt
δ( t ) = lim
(7)
Per quanto sopra, valgono le relazioni:
δ( t ) = ∞
per t = 0
e
δ( t ) = 0
per t ≠ 0
(8a)
∞
∫ δ(t)dt = 1
(8b)
−∞
Una delta di Dirac di area A non unitaria si ottiene dalla precedente moltiplicando per A, mentre
una delta di Dirac allocata in un istante to≠0 sarà δ(t−to). E’ poi facile verificare, con il consueto
passaggio al limite, la seguente fondamentale relazione, che definisce la cosiddetta proprietà di
campionamento ideale della delta di Dirac che sarà utile in molti e sostanziali argomenti della teoria
delle Comunicazioni Elettriche:
∞
∫ s(t)δ(t − t
o )dt
= s( t o ) .
(9)
−∞
7
Infine, benché ovvio, è opportuno precisare che la stessa definizione di impulso matematico può
essere ottenuta a partire da successioni di funzioni diverse dalla rectΔt(t) sopra utilizzata, al tendere a
zero (o all’infinito) di un parametro da cui esse dipendono. Esempi in questo senso sono i seguenti:
1 sin( t / Δt )
t
Δt →0 π
(10a)
lim
lim
1
Δt →0 Δt
π
e −( t / Δt )
2
(10b)
1 − t / Δt
e
Δt →0 2Δt
(10c)
lim
lim
Δt →0 π
(Δt
Δt
2
+ t2
).
(10d)
8