Segnali e Sistemi
Dispensa integrativa per l’insegnamento di Elementi di Controlli Automatici
Gianni Borghesan e Giovanni Marro
Indice
1 Introduzione
1.1 Notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2
2 Classificazione dei segnali
2.1 Segnali a tempo continuo e a tempo
2.2 Segnali pari, dispari, periodici . . .
2.3 Energia e potenza di un segnale . .
2.4 Segnali singoli e multipli . . . . . .
3
3
5
5
6
discreto
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
3 Classificazione dei sistemi
3.1 Sistemi puramente algebrici e sistemi dinamici .
3.2 Sistemi causali e non causali . . . . . . . . . . .
3.3 Sistemi lineari e non lineari . . . . . . . . . . .
3.4 Sistemi stazionari e non stazionari . . . . . . . .
3.5 Sistemi stabili e instabili ingresso limitato-uscita
3.6 Lo stato iniziale dei sistemi dinamici causali . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
. . . . .
limitata
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
6
. 7
. 8
. 9
. 9
. 10
. 10
4 Analisi spettrale
4.1 Rappresentazione della serie di Fourier con esponenti
complessi o polare . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Rappresentazione della serie di Fourier in forma trigonometrica o cartesiana . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Rappresentazione della serie di Fourier in forma armonica . .
4.4 La trasformata di Fourier . . . . . . . . . . . . . . . . . . . .
4.5 La trasformata di Laplace . . . . . . . . . . . . . . . . . . .
1
12
. 12
.
.
.
.
13
15
16
17
1
Introduzione
Questo fascicoletto riporta alcuni complementi allo studio di Controlli
Automatici .
1.1
∈
∀
R
Rn
C
Cn
x∗
Z
C0
Ci
x(·)
x̃(·)
[α, β]
[α, β)
Notazione
appartenente a
per ogni
insieme dei numeri reali
insieme delle n-uple (vettori) di numeri reali
insieme dei numeri complessi
insieme delle n-uple (vettori) di numeri complessi
coniugato del numero complesso x
insieme dei numeri interi
classe delle funzioni limitate e continue a tratti
classe delle funzioni derivabili i volte q.o. con i-esima derivata ∈ C0
segnale a tempo continuo (x : R → R o x : R → C)
segnale a tempo discreto (x : Z → R o x : Z → C)
intervallo chiuso
intervallo aperto a destra
2
2
Classificazione dei segnali
Un segnale è una funzione che rappresenta il succedersi dei valori di una
grandezza fisica variabile nel tempo.
2.1
Segnali a tempo continuo e a tempo discreto
I segnali possono essere a tempo continuo o a tempo discreto. Questi si
rappresentano tipicamente come è indicato in Fig.1. Con il simbolo x(·) o x̃(·)
si indicherà l’ intero segnale a tempo continuo o discreto (la tilde caratterizza
il tempo discreto), mentre con x(t) o x̃(k) si indicherà il valore del segnale
all’ istante t o k.
x
0
x̃
-5 -4 -3 -2 -1 0 1 2
t
3
4 5
6
k
Figura 1: Segnali a tempo continuo e a tempo discreto.
Si noti che in entrambe le rappresentazioni è stata definita ed indicata con 0
un’ origine dei tempi , che determina la scala dei tempi. Quando l’ intervallo
di tempo in cui è definito il segnale non è specificato, si assume implicitamente
che sia t ∈ (−∞, ∞) o k ∈ (−∞, ∞). In altri casi esso viene dato, ad esempio
t ≥ 0 o k ≥ 0, oppure t ∈ [ta , tb ] o k ∈ [ka , kb ]. Anche l’ intervallo dei valori che
può assumere il segnale può essere o non essere esplicitamente specificato.
Esempi di segnali a tempo continuo: la temperatura in un ambiente, la corrente in un circuito elettrico, la pressione dell’ aria in un punto, che produce
un suono, rivelabile dall’ orecchio o da un microfono. Il microfono è un trasduttore, cioè un dispositivo che converte un segnale (pressione dell’ aria) in
un segnale di diverso tipo (tensione elettrica fra due terminali o corrente
elettrica in un circuito).
Esempi di segnali a tempo discreto: l’ indice di chiusura giornaliero della
Borsa di Milano, il traffico giornaliero in una stazione ferroviaria.
I segnali deterministici sono segnali i cui valori sono completamente assegnati
in ogni istante, mentre i segnali stocastici sono caratterizzati solo statisticamente. Ad esempio l’ indice di chiusura giornaliero della Borsa di Milano per
3
il passato è un segnale deterministico, per il futuro è un segnale stocastico.
Nel nostro contesto ci si occuperà solo di segnali deterministici.
x, x̃
x̃, x
0
0
t, k
k, t
Figura 2: Conversione da tempo continuo a tempo discreto e viceversa.
Spesso i segnali a tempo discreto si ottengono eseguendo il campionamento di
segnali a tempo continuo, come è indicato in Fig.2 a sinistra. Al campionamento in genere è associata la quantizzazione: al valore del segnale a tempo
continuo, espresso da un numero reale, viene associato un valore numerico
espresso da un numero finito di cifre, per cui esso può variare solo per incrementi finiti in un dato intervallo. La conversione inversa, da segnali a tempo
continuo a segnali a tempo discreto, viene eseguita mediante dispositivi di
tenuta, come è indicato in Fig.2 a destra.
I segnali a tempo continuo a valori reali si dicono anche segnali analogici ,
mentre i segnali a tempo discreto e a valori discreti si dicono segnali digitali .
I dispositivi che eseguono la conversione da segnali analogici a segnali digitali
si dicono convertitori analogico-digitale, mentre i dispositivi che eseguono la
conversione inversa si dicono convertitori digitale-analogico. I due tipi di
dispositivi vengono rappresentati negli schemi a blocchi come è indicato in
Fig.3.
x
A/D
x̃
x̃
D/A
x
Figura 3: Convertitore analogico-digitale e digitale-analogico.
Esempio: un suono registrato su un CD audio è campionato e quantizzato e
può essere riconvertito in segnale a tempo continuo mediante un dispositivo
di tenuta, amplificato e riconvertito in suono con un altoparlante.
È intuitivo che se il campionamento avviene a frequenza sufficientemente
elevata e la quantizzazione è sufficientemente fine la conversione di un segnale
4
analogico (a valori reali in un dato intervallo) in un segnale digitale (con un
numero finito di valori in un dato intervallo) e la conversione inversa possono
essere eseguite con errore trascurabile.
2.2
Segnali pari, dispari, periodici
Un segnale si dice pari se soddisfa la relazione
x(−t) = x(t) ∀ t
o
x̃(−k) = x̃(k) ∀ k
Un segnale si dice dispari se soddisfa la relazione
x(−t) = −x(t) ∀ t
o
x̃(−k) = −x̃(k) ∀ k
Gli esempi più comuni di segnali pari e dispari sono, rispettivamente, i segnali
x(t) = cos(ωt) e x(t) = sin(ωt).
Un segnale si dice periodico di periodo T o N se soddisfa la relazione
x(t + T ) = x(t) ∀ t
o
x̃(k + N ) = x̃(k) ∀ k
Il periodo fondamentale T0 o N0 è il più piccolo valore di T o N per cui le
precedenti relazioni sono soddisfatte.
2.3
Energia e potenza di un segnale
x
x
t
t
Figura 4: Segnale a energia finita e a potenza media finita.
L’ energia di un segnale a tempo continuo o discreto si definisce come
Z ∞
∞
X
2
E=
|x(t)| dt
o
E=
|x̃(k)|2
∞
k=−∞
5
La potenza media o valore efficace di un segnale a tempo continuo o discreto
si definisce come
1
P = lim
T →∞ T
Z
N
X
1
P = lim
|x̃(k)|2
N →∞ 2N + 1
k=−N
T /2
2
|x(t)| dt
o
−T /2
Esempi di segnali a tempo continuo ad energia finita e potenza media finita
sono rappresentati in Fig.4.
Per segnali periodici il valore efficace si riferisce al periodo e si definisce come
Z
1 X
1
|x(t)|2 dt
o
P =
|x̃(k)|2
(1)
P =
T T
N N
2.4
Segnali singoli e multipli
Nelle precedenti considerazioni con i simboli x(·) o x̃(·) ci si può riferire ad
una funzione che lega un solo valore reale alla variabile indipendente tempo
o ad una funzione che lega un vettore (n-upla di numeri reali) alla variabile
indipendente tempo. Nei due casi il segnale si dice rispettivamente singolo o
multiplo.
3
Classificazione dei sistemi
Un sistema è un modello matematico approssimante il comportamento di un
processo fisico, che lega un segnale di uscita o risposta y(·) ad un segnale di
ingresso o eccitazione x(·).
x
sistema
monovariabile
x1
x2
y
xp
sistema
multivariabile
y1
y2
yq
Figura 5: Sistema monovariabile e sistema multivariabile.
I sistemi si dicono a tempo continuo o a tempo discreto, a seconda del tipo di
segnale da essi elaborato. Nel caso dei sistemi a tempo continuo il segnale di
ingresso si suppone limitato e continuo a tratti (cioè con un numero finito di
punti di discontinuità per ogni intervallo temporale di misura finita), mentre
nel caso dei sistemi a tempo discreto il segnale di ingresso si suppone limitato.
6
Quindi un sistema equivale ad una trasformazione fra due funzioni. Nel caso
dei sistemi a tempo continuo si può scrivere
y(·) = F x(·) con x(·), y(·) definite in t ∈ (−∞, ∞)
(2)
mentre nel caso dei sistemi a tempo discreto si ha
ỹ(·) = F x̃(·) con x̃(·), ỹ(·) definite in k ∈ (−∞, ∞)
(3)
I segnali di ingresso e di uscita possono essere singoli o multipli. Nel primo
caso il sistema si dice monovariabile o SISO (single input-single output), nel
secondo si dice multivariabile o MIMO (multi input-multi output). In questo
secondo caso il valore della funzione di ingresso è un vettore a p componenti
reali e quello della funzione di uscita è un vettore a q componenti reali. Gli
schemi corrispondenti sono rappresentati in Fig.5.
3.1
Sistemi puramente algebrici e sistemi dinamici
Un sistema si dice puramente algebrico o privo di memoria se la sua uscita
all’ istante generico t o k dipende solo dal valore dell’ ingresso in quello stesso
istante. In caso contrario il sistema si dice dinamico o fornito di memoria.
R1
vi
R2
R
vu
vi
C
vu
Figura 6: Sistema puramente algebrico e sistema dinamico.
Esempi: Le relazioni
R2
vi (t) ,
t ∈ (−∞, ∞)
R1 + R2
Z t
1
vi (τ ) − vu (τ ) dτ ,
t, τ ∈ (−∞, ∞)
vu (t) =
R C −∞
vu (t) =
(4)
(5)
che si riferiscono ai circuiti elettrici di Fig.6, descrivono rispettivamente un
sistema a tempo continuo privo di memoria e un sistema a tempo continuo
fornito di memoria.
7
Le relazioni
ỹ(k) = k 2 x̃(k) ,
ỹ(k) =
k
X
p
k ∈ (−∞, ∞)
x̃(h) ,
k, h ∈ (−∞, ∞)
(6)
(7)
h=−∞
descrivono rispettivamente un sistema a tempo discreto privo di memoria e
un sistema a tempo discreto fornito di memoria.
3.2
Sistemi causali e non causali
Un sistema si dice causale se per ogni valore del tempo l’ uscita y(t) o ỹ(k)
all’ istante generico t o k dipende solo dai valori dell’ ingresso all’ istante
attuale o agli istanti precedenti, cioè da valori della funzione x(τ ), τ ∈ (−∞, t]
o x̃(h), h ∈ (−∞, k]. In caso contrario il sistema si dice non causale.
Esempi. I sistemi (4), (5), (6), (7) sono causali. Altri esempi di sistemi
causali sono
y(t) = x(t − t0 ) ,
t ∈ (−∞, ∞)
ỹ(k) = x̃(k − k0 ) ,
k ∈ (−∞, ∞)
(8)
(9)
con t0 reale non negativo e k0 intero non negativo. Questi sistemi sono detti
ritardi finiti, in quanto il segnale di uscita è uguale al segnale di ingresso
ritardato di t0 o k0 , mentre i sistemi
y(t) = x(t + t0 ) ,
t ∈ (−∞, ∞)
ỹ(k) = x̃(k + k0 ) ,
k ∈ (−∞, ∞)
detti anticipi finiti , sono non causali. L’ integratore
Z t
x(τ ) dτ ,
t, τ ∈ (−∞, ∞)
y(t) =
(10)
(11)
(12)
−∞
è un sistema causale, mentre il derivatore
d
x(t) ,
t ∈ (−∞, ∞)
(13)
dt
è non causale. Si considerino infatti i segnali gradino unitario, rappresentato
a sinistra in Fig.7 e rampa unitaria, rappresentato a destra nella stessa figura.
Per integrare il gradino ricavandone la rampa è sufficiente conoscerne i valori
fino all’ istante attuale, mentre il calcolo della derivata della rampa all’ istante
0 è un’ operazione non causale, in quanto per eseguire il limite destro (e quindi
ricostruire la discontinuità del gradino) occorre conoscere valori futuri.
y(t) =
8
1
1
1
0
t
0
t
Figura 7: Gradino unitario e rampa unitaria.
3.3
Sistemi lineari e non lineari
Un sistema a tempo continuo descritto dall’ equazione (2), si dice lineare se,
essendo
y1 (·) = F x1 (·) ,
y2 (·) = F x2 (·)
vale la relazione
α1 y1 (·) + α2 y2 (·) = F α1 x1 (·) + α2 x2 (·)
per ogni coppia di numeri reali α1 , α2 . La definizione di linearità per un
sistema a tempo discreto descritto dall’ equazione (3) è del tutto analoga.
Un sistema che non sia lineare si dice non lineare.
Esempi: i sistemi (4), (5), (6), (8), (9), (10), (11), (12), (13) sono lineari,
mentre il sistema (7) è non lineare.
3.4
Sistemi stazionari e non stazionari
Un sistema a tempo continuo si dice stazionario o tempo invariante se una
traslazione nel tempo in anticipo o in ritardo del segnale di ingresso produce
la stessa traslazione nel tempo del segnale di uscita, cioè se
y(t − t0 ) = F x(t − t0 ) ,
t ∈ (−∞, ∞)
per ogni valore reale di t0 , positivo o negativo. Un sistema che non sia
stazionario si dice non stazionario o tempo variante. Analogamente, per un
sistema a tempo discreto la stazionarietà corrisponde alla relazione
ỹ(k − k0 ) = F x̃(k − k0 ) ,
k ∈ (−∞, ∞)
per ogni valore intero di k0 , positivo o negativo.
Esempi: i sistemi (4), (5), (7), (8), (9), (10), (11), (12), (13) sono stazionari,
mentre il sistema (6) è non stazionario.
9
3.5
Sistemi stabili e instabili ingresso limitato-uscita
limitata
Un sistema a tempo continuo si dice stabile ingresso limitato-uscita limitata
(i.l.u.l.) se per ogni costante reale k1 tale che il segnale di ingresso soddisfi
la relazione
|x(t)| ≤ k1 ,
t ∈ (−∞, ∞)
esiste una costante reale k2 tale che il corrispondente segnale di uscita soddisfa
la relazione
|y(t)| ≤ k2 ,
t ∈ (−∞, ∞)
Un sistema che non sia stabile i.l.u.l. si dice instabile ingresso limitato-uscita
limitata. Nel caso dei sistemi a tempo discreto la definizione di stabilità
i.l.u.l. è del tutto analoga.
Esempi: i sistemi (4), (5), (7), (8), (9), (10), (11), (13) sono stabili i.l.u.l.,
mentre i sistemi (6), (12) sono instabili i.l.u.l.
3.6
Lo stato iniziale dei sistemi dinamici causali
In molti casi il comportamento dei sistemi dinamici causali viene analizzato
a partire da un certo istante, in genere l’ origine 0 dell’ asse tempi. In questi
casi in luogo dei modelli (2), (3) si usano modelli del tipo
y(·) = F s0 , x(·) con x(·), y(·) definite in t ∈ [0, ∞)
(14)
ỹ(·) = F s0 , x̃(·) con x̃(·), ỹ(·) definite in k ∈ [0, ∞)
(15)
in cui s0 indica lo stato iniziale, consistente in un parametro (numero reale,
vettore o funzione) che compendia l’ informazione necessaria per determinare
il comportamento futuro del sistema.
In questi casi si definisce la risposta libera, cioè dovuta al solo stato iniziale,
con segnale di ingresso identicamente nullo
y1 (·) = F(s0 , 0) ,
ỹ1 (·) = F(s0 , 0)
e la risposta forzata, dovuta al solo segnale di ingresso, con stato iniziale
nullo,
y2 (·) = F 0, x(·) ,
ỹ2 (·) = F 0, x̃(·)
Nel caso dei sistemi lineari la risposta è data dalla somma della risposta
libera e della risposta forzata ed entrambe le risposte sono funzioni lineari.
Esempi: il sistema (5) si può descrivere con la relazione
Z t
1
vu (t) = s0 +
vi (τ ) − vu (τ ) dτ ,
t, τ ∈ [0, ∞)
(16)
RC 0
10
con s0 = vu (0). La conoscenza della tensione di carica del condensatore
all’ istante t = 0 equivale pertanto alla conoscenza del segnale di ingresso vi (·)
nell’ intervallo t ∈ (−∞, 0). Il sistema (7) equivale a
ỹ(k) = s0 +
k
X
p
x̃(h) ,
s0 = ỹ(0) , k, h ∈ [0, ∞)
h=0
Il sistema (12) equivale a
Z t
x(τ ) dτ ,
y(t) = s0 +
s0 = y(0) , t, τ ∈ [0, ∞)
0
11
4
Analisi spettrale
L’ analisi spettrale permette di caratterizzare un segnale attraverso le sue
frequenze. Gli strumenti utilizzati per trovare il contenuto frequenziale di
un segnale sono lo sviluppo in serie in serie di Fourier e la trasformata di
Fourier , rispettivamente per i segnali periodici e i segnali aperiodici, definiti
in t ∈ (−∞, ∞). Dalla trasformata di Fourier si deduce la trasformata di
Laplace, per segnali definiti in t ∈ [0, ∞), di largo impiego nello studio dei
sistemi causali il cui segnale di uscita dipende sia dalla funzione applicata
all’ ingresso sia dallo stato iniziale.
4.1
Rappresentazione della serie
esponenti complessi o polare
di
Fourier
con
Lo sviluppo in serie di Fourier di una funzione x(t) periodica di periodo T
continua a tratti e a valori complessi corrisponde ad un cambio di coordinate
dal dominio del tempo al dominio delle frequenze. Come nel caso dello
sviluppo in serie di Taylor, lo sviluppo in serie di Fourier rappresenta un
cambio di coordinate in cui la base è rappresentata da funzioni, cioè la
funzione oggetto è espressa da una combinazione lineare di altre funzioni
ϕn (t), n ∈ Z, in genere a valori complessi, che si suppongono ortogonali, cioè
soddisfacenti la proprietà
Z
ϕn (t) ϕ∗m (t)dt = T δnm
(17)
T
in cui con ϕ∗ si indica il coniugato del numero complesso ϕ e con δnm , si indica
il simbolo di Kronecker , che per definizione vale 1 se n = m, 0 se m 6= n.
La (17) è soddisfatta dalle funzioni
ϕn (t) = ejnΩt ,
con Ω =
2π
T
Infatti in questo caso è
ϕn (t) ϕ∗m (t) = ej(n−m)Ωt = cos(n − m)Ωt + j sin(n − m)Ωt
funzione manifestamente uguale ad 1 per n = m e periodica di periodo T , il
cui integrale in T vale pertanto T per n = m e 0 per n 6= m. Lo sviluppo in
serie di Fourier della funzione x(t) è espresso dalla relazione
x(t) =
∞
X
n=−∞
12
cn ejnΩt
(18)
in cui i coefficienti cn si calcolano con le relazioni
Z
1
x(t) e−jnΩt dt
cn =
T T
(19)
che si deducono moltiplicando per e−jmΩt /T ambo i membri della (18) e
integrando nel periodo:
Z
Z
∞
∞
X
1
1 X
jnΩt −jmΩt
−jmΩt
cn e
e
dt =
cn δnm = cm
x(t) e
dt =
T T
T n=−∞
T
n=−∞
Le (18) e (19) si dicono equazione di sintesi ed equazione di analisi . I
coefficienti ck sono numeri complessi, detti coefficienti complessi di Fourier.
Nel caso in cui il segnale sia reale vale la relazione
cn = c∗−n
(20)
Consideriamo ora il valore efficace, partendo dalla definizione data in precedenza, e dimostriamo il teorema di Parseval , che lega la potenza media o
valore efficace ai coefficienti della serie di Fourier:
Z
∞
X
1
2
(21)
|x(t)| dt =
|cn |2
T T
n=−∞
che si dimostra con i seguenti passaggi
Z
Z
∞
X
1
1
2
|x(t)| dt =
cn c∗m ejnΩt e−jmΩt dt
P =
T T
T T n,m=−∞
Z
∞
1 X
∗
jnΩt −jmΩt
=
cn cm
e
e
dt
T n,m=−∞
T
=
∞
X
n,m=−∞
4.2
cn c∗m δnm
=
∞
X
|cn |2
n=−∞
Rappresentazione della serie di Fourier in forma
trigonometrica o cartesiana
Si considera il caso in cui la funzione x(t) sia reale, caso in cui è soddisfatta
la (20). Si noti che nello sviluppo (18) il termine corrispondente ad n = 0,
che si può scrivere
Z
1
c0 =
x(t) dt
T T
13
rappresenta il valor medio nel periodo, mentre le coppie corrispondenti ciascuna ad un dato valore di n ed al suo opposto danno luogo a termini in seno
e coseno dei tipi an cos nΩt e bn sin nΩt. Infatti per ciascuna di tali coppie
valgono le relazioni
c−n e−jnΩt + cn ejnΩt = (Re cn − j Im cn ) (cos nΩt − j sin nΩt) +
(Re cn + j Im cn ) (cos nΩt + j sin nΩt)
= 2 Re cn cos nΩt − 2 Im cn sin nΩt
mentre la (19) si può scrivere
1
cn = Re cn + j Im cn =
T
Z
T
1
x(t) cos nΩt dt − j
T
Z
x(t) sin nΩt dt
T
Posto
a0 = 2 c 0 ,
an = 2 Re cn ,
bn = −2 Im cn ,
(n > 0)
(22)
si deduce immediatamente la forma trigonometrica dello sviluppo in serie di
Fourier, le cui equazioni di sintesi e analisi sono
∞
a0 X
x(t) =
+
an cos nΩt + bn sin nΩt
2
n=1
2
an =
T
Z
T
2
x(t) cos nΩt dt , bn =
T
Z
x(t) sin nΩt dt (n ≥ 0)
(23)
(24)
T
Questo tipo di rappresentazione mostra con chiarezza le propietà che hanno
gli sviluppi in serie di segnali pari e dispari; un segnale pari può essere
sviluppato in serie di soli coseni:
∞
a0 X
x(t) =
+
an cos nΩt
2
n=1
Analogamente, un segnale periodico dispari si sviluppa come somma di soli
seni:
∞
X
x(t) =
bn sin nΩt
n=1
Altro vantaggio di questa rappresentazione è la possibilità di scomporre il
segnale nella somma di un segnale pari ed un segnale dispari. Utilizzando
questa propietà si possono caratterizzare i segnali reali pari e dispari sviluppati in serie polare: un segnale pari avrà coefficienti cn reali, mentre uno
dispari avrà coefficienti immaginari puri, con cn = − c−n .
14
La potenza media in questo caso è data da
∞
P =
4.3
a20 X 2
+
an + b2n
4
n=1
(25)
Rappresentazione della serie di Fourier in forma
armonica
Questa rappresentazione è adatta a rappresentare solamente segnali reali.
Essa mette in evidenza con chiarezza ampiezza Cn e angolo di fase ϑn della nesima armonica. C0 è detta componente continua, mentre la prima armonica
è detta fondamentale. Le equazioni di sintesi ed analisi sono rispettivamente
x(t) = C0 +
∞
X
Cn cos(nΩt − ϑn )
(26)
n=1
C0 =
a0
,
2
Cn =
p
a2n + b2n ,
ϑn = arg(an + j bn )
(27)
e la potenza media è
∞
X
P =
Cn2
(28)
n=0
La (26) si ricava applicando relazione trigonometrica
cos α cos β + sin α sin β = cos (α − β)
alla (23), considerando che le (27) esprimono le relazioni
an = Cn cos ϑn ,
bn = Cn sin ϑn
Una forma armonica equivalente alle (26), (27) è
x(t) = C0 +
∞
X
Cn sin(nΩt + ϕn )
n=1
C0 =
a0
,
2
Cn =
p
a2n + b2n ,
15
ϕn = arg(bn + j an )
4.4
La trasformata di Fourier
Si applichi lo sviluppo in serie (18) ad una funzione periodica f (t) a valori
reali o complessi, si ponga F (nΩ) = cn (funzione discreta con periodo Ω della
pulsazione continua ω) e si applichi il fattore 1/T . Contemporaneamente si
applichi il fattore T alla (19), ottenendo le relazioni
∞
1 X
f (t) =
F (nΩ) ejnΩt
T n=−∞
F (nΩ) =
(29)
T /2
Z
f (t) e−jnΩt dt
(30)
−T /2
che sono, ovviamente, anch’ esse legate dalla proprietà di biunivocità. Si
suppone che la funzione f (t), non necessariamente periodica, sia ad energia
finita, cioè che soddisfi la condizione
Z ∞
|f (t)| dt ≤ M < ∞
(31)
−∞
Posto ω = nΩ, ∆Ω = ω/n = Ω, la (30) si può scrivere
Z π/∆Ω
f (t) e−jωt dt
F (ω) =
−π/∆Ω
e, per ∆Ω → 0 (n → ∞),
F (ω) =
∞
Z
f (t) e−jωt dt
(32)
−∞
mentre la (29), che si può scrivere
f (t) =
∞
1 X
F (nΩ) ejnΩt ∆Ω
2π n=−∞
al limite per ∆Ω → 0 diventa
1
f (t) =
2π
Z
∞
F (ω) ejωt dω
(33)
−∞
Le (32) e (33) definiscono rispettivamente la trasformata di Fourier e
l’ antitrasformata di Fourier , che si applicano a funzioni impulsive, definite nell’ intervallo t ∈ (∞, ∞), limitate, continue a tratti e ad energia limitata,
16
f
f
e−σc t
0
t
0
a)
1
σc
t
b)
Figura 8: Segnali trasformabili secondo Fourier e secondo Laplace.
cioè soddisfacenti la (31). Un esempio è riportato in Fig.8,a. Il teorema
di Parseval consente di calcolare l’ energia del segnale dalla trasformata di
Fourier. Esso è espresso dalla relazione
Z ∞
Z ∞
1
2
|F (ω)|2 dω
|f (t)| dt =
E=
(34)
2π
−∞
−∞
4.5
La trasformata di Laplace
Si consideri ora una funzione f (t) a valori reali o complessi del tipo rappresentato in Fig.8,b, definita in [0, ∞), continua a tratti, limitata per ogni
valore finito del tempo e tale che esista un numero reale σ̄ per cui è
Z ∞
|f (t)| e−σ̄t dt ≤ M < ∞
(35)
0
Se la (35) è soddisfatta per un dato valore di σ̄, essa è soddisfatta per
ogni valore maggiore di esso. L’ estremo inferiore σc dell’ intervallo (in molti
casi aperto) dei valori di σ̄ per cui la (35) è soddisfatta si dice ascissa di
convergenza di f (t). Sotto tali condizioni la funzione f (t) e−σt ammette
trasformata di Fourier per ogni σ > σc . Tale trasformata di Fourier è
Z ∞
f (t) e(−σ−jω)t dt
(36)
F (σ + jω) =
0
definita nel semipiano del piano complesso Re s > σc . L’ antitrasformata è
Z j∞
1
−σt
f (t) e
=
F (σ + jω) ejωt dω
2π −j∞
cioè
1
f (t) =
2π
Z
j∞
F (σ + jω) e(σ+jω)t dω
−j∞
17
e, operando il cambio di variabili s = σ + jω,
1
f (t) =
2πj
Z
σ0 +j∞
F (s) est ds
(37)
σ0 −j∞
in cui l’ integrale nel piano complesso si intende eseguito lungo una retta parallela all’ asse imaginario, di ascissa σ0 , contenuta nel semipiano di convergenza. Lungo tale retta si ha ds = dσ + jdω = jdω. La trasformata di Laplace
di f (t) è definita dalla (36), che si può scrivere nella forma più compatta
F (s) =
Z
∞
f (t) e−st dt
0
mentre la (37) definisce l’ antitrasformata di Laplace di F (s).
18
(38)