Teoria dei Segnali 1
G.V. Pallottino 2009
segnali 1-15
sistemi 1-11
rumore 1- 24
bibliografia
Dipartimento di Fisica
Università di Roma Sapienza
1. SEGNALI, INFORMAZIONE E TEOREMA DEL CAMPIONAMENTO
Chiamiamo segnali le grandezze fisiche delle quali ci interessa
l’andamento in funzione del tempo e che trasportano informazione.
Si possono considerare anche segnali (immagini) funzione di coordinate
spaziali, ma qui ci limiteremo alle funzioni del tempo.
L’informazione I associata a un campione di segnale che può assumere n
diversi valori con la medesima probabilità è data dalla formula di Hartley
(1)
I = log2 n
(in unità di bit)
che Shannon ha poi generalizzato al caso di probabilità arbitrarie
(1a)
I = Σi pi log2(1/pi)
L’informazione associata a una grandezza analogica (numero reale) s
sembrebbe dunque infinita
ma non è così: quanti sono i valori di s effettivamente distinguibili?
C’è sempre infatti, per motivi fondamentali o per motivi strumentali, una
incertezza s sul valore effettivo di s, sicchè il numero di livelli
effettivamente distinguibili è finito, almeno per una grandezza compresa in
un intervallo finito s:
(2)
n  s/s

I<
Sembra pure infinita l’informazione associata a una funzione del tempo
s(t), dato che t è una grandezza reale. E dunque, anche in un intervallo di
tempo finito, si hanno infiniti valori di s. Ma questi valori non sono
evidentemente (statisticamente) indipendenti fra loro.
Portano informazione solo i valori indipendenti, separati l’uno dall’altro da
un tempo caratteristico t, sicchè in un intervallo t l’informazione totale,
finita, è  (t/t) log2(s/s).
segnali 1
La valutazione dell’informazione associata a un segnale s(t) può farsi
utilizzando il teorema del campionamento. Questo stabilisce che un
segnale può essere ricostruito dai suoi campioni, presi a intervalli regolari
Tc, se la frequenza di campionamento fc=1/Tc soddisfa la relazione
(3)
fc  fN = 2B
dove B è la larghezza di banda del segnale, definita qui come la massima
frequenza dello spettro di Fourier del segnale stesso, e la frequenza fN è
chiamata frequenza di Nyquist.
Si conclude allora che l’informazione associata a un segnale s(t) in un
intervallo di tempo t, contenente t/Tc campioni strettamente necessari, è
(4)
I  2 t B log2(s/s)
Alcune precisazioni sul teorema del campionamento
(chi lo ha introdotto? Nyquist? Shannon? V.A. Kotelnikov nel 1933)
1) Il contenuto spettrale del segnale non si estende sempre da frequenza
zero a una frequenza limite superiore (segnali passabasso). La banda
del segnale può riguardare infatti una regione spettrale dotata di un
limite inferiore e di uno superiore, entrambi finiti, per esempio la
regione attorno a una frequenza di risonanza (segnali passabanda). In
tal caso non vi è alcuna relazione fra la massima frequenza del segnale
e la banda B che va considerata nelle precedenti relazioni.
2) Se un segnale viene campionato a frequenza inferiore a quella di
Nyquist, allora il segnale ricostruito dai suoi campioni non coincide
più con quello originale, perchè il suo contenuto spettrale che eccede
fc/2 viene ribaltato in banda, con effetto di distorsione.
Più precisamente, una frequenza f> fc/2, con f-fc/2=f, nel segnale
ricostruito verrà a trovarsi spostato alla frequenza fc/2-f (fenomeno
chiamato aliasing).
segnali 2
3) Questo significa che è errato campionare un segnale a frequenza
inferiore a quella espressa dalla (3) qualora il contenuto spettrale “utile”
del segnale abbia larghezza di banda inferiore a B, e si consideri dunque
“rumore” la parte residua. Perchè questo “rumore”, per quanto detto in 2),
si manifesterà poi nel segnale ricostruito, a frequenze diverse da quelle
originali. In questo caso, infatti, prima di campionare il segnale, occorre
filtrarlo opportunamente per eliminare le frequenze indesiderate.
4) Nel caso limite del campionamento eseguito esattamente alla frequenza
di Nyquist, la ricostruzione del segnale è possibile soltanto moltiplicando
la serie temporale sk per i valori corrispondenti della funzione sinc e
sommando poi quanto si ottiene:
s  t    k s(kTc )
sin c (t  kTc ) / 2
c (t  kTc ) / 2
(interpretazione: il generico campione viene moltiplicato per una funzione
interpolante che vale 1 all’istante del campione, 0 al tempo degli altri campioni)
5) Campionando a frequenze maggiori di quanto strettamente necessario
si può ottenere un’ottima ricostruzione del segnale anche usando algoritmi
assai più semplici: interpolatore di ordine zero a campionamento e tenuta
(sample and hold), interpolatore lineare, interpolatore quadratico, ecc.
Nel mondo fisico esistono soltanto segnali reali funzione del tempo
reale (segnali analogici)
Nella strumentazione si considerano anche segnali discreti,
nei valori dell’ampiezza (possono assumere soltanto due o più valori
appartenti a un insieme finito)
nei valori del tempo (si considerano significativi i valori dei segnali
soltanto a istanti discreti del tempo)
Nei calcolatori i segnali non possono essere rappresentati altro che in
forma discreta. Ma spesso ci dimentichiamo della discretizzazione
d’ampiezza, con effetti perversi.
segnali 3
1. Campionamento e ricostruzione di segnali periodici
frequenze del segnale f1 := 1.00 f2 := 3.00
banda del segnale B := max f1 , f2
B=3
(
frequenza di campionamento
periodo di campionamento
)
(tutte le grandezze espresse in unità SI)
frequenza di Nyquist
fc := fN + .1
fc = 6.1
1
Tc :=
Tc = 0.164
fc
(
)
s ( t) := sin 2⋅ π⋅ f1⋅ t +
K := 1000 k := 0 .. K
(
)
1
sin 2⋅ π⋅ f2⋅ t
3
1
K⋅ Tc = 163.934
estendono da 0 a
fN = 6
(il calcolatore non sa che lim x--->0 sin(x)/x =1)
segnale analogico, che tenta di assomigliare a un'onda quadra
i tempi discreti si
fN := 2⋅ B
0.5
(
1
0.5
ssk
0
− 0.5
−1
)
ssk := s k⋅ Tc
segnale campionato
s ( t)
0
− 0.5
−1
0
5
10
k
15
0.5
K
∑
sr( t) :=
k=0
meno bene agli estremi dell'intervallo
1
0.5
0.5
sr ( t)
0
0
− 0.5
0
0.5
1
t
1.5
−1
80
2
come indica anche l'andamento dello scarto fra l'originale e il ricostruito
80.5
81
t
81.5
82
sca ( t) := sr( t) − s ( t)
0.1
0.2
0.01
0.1
5×10
0
0.05
−3
sca ( t)
− 0.1
sca ( t)
− 0.2
− 0.3
2
molto bene al centro dell'intervallo
− 0.5
sca ( t)
1.5
⎛ sin (π⋅ fc t − k⋅ π) ⎞
⎜ ssk⋅
⎟
π⋅ fc t − k⋅ π
⎝
⎠
1
−1
1
t
20
segnale ricostruito dai suoi campioni
sr ( t)
0
0
− 0.05
−3
− 5×10
0 0.5 1 1.5 2
t
− 0.01
80
0
− 0.1
159
80.5
81
t
81.5
82
160
t
161
2. Campionamento a frequenza inferiore a quella di Nyquist: due frequenze che diventano una
frequenze del segnale f1 := 1.00 f2 := 5.20
(
)
B := max f1 , f2
banda del segnale
frequenza di campionamento
periodo di campionamento
B = 5.2
frequenza di Nyquist
fc := fN + .2
fc = 10.6
1
Tc :=
Tc = 0.161
fc
K := 1000 k := 0 .. K
(
)
s ( t) := sin 2⋅ π⋅ f1⋅ t +
(
)
1
sin 2⋅ π⋅ f2⋅ t
3
2
K⋅ Tc = 161.29
estendono da 0 a
fN = 10.4
fc := 6.2
e invece si sceglie
segnale analogico, con spettro che eccede il limite posto da fc
i tempi discreti si
fN := 2⋅ B
1
(
1
0.5
ssk
0
− 0.5
−1
)
ssk := s k⋅ Tc
segnale campionato
s ( t)
0
−1
−2
0
5
10
k
15
0
0.5
1
t
1.5
2
20
K
sr( t) :=
segnale ricostruito dai suoi campioni
∑
k=0
⎛ sin (π⋅ fc t − k⋅ π) ⎞
⎜ ssk⋅
⎟
π⋅ fc t − k⋅ π
⎝
⎠
1
il segnale ricostruito ora contiene soltanto una
sinusoide a 1 Hz, combinazione della sinusoide
originale a 1 Hz e di quella prodotta dal
ribaltamento in banda di quella a 5.2 Hz, che
appare alla frequenza 6.2 - 5.2 = 1 Hz
0.5
sr ( t)
0
− 0.5
−1
0
1
2
t
3
4
3. Campionamento a frequenza inferiore a quella di Nyquist:
due frequenze scelte in modo da ottenere una "quasi" onda quadra
frequenze del segnale f1 := 1.00 f2 := 9.20
(
)
B := max f1 , f2
banda del segnale
frequenza di campionamento
periodo di campionamento
B = 9.2
frequenza di Nyquist
fc := fN + .2
fc = 18.6
1
Tc :=
Tc = 0.161
fc
K := 1000 k := 0 .. K
(
)
s ( t) := sin 2⋅ π⋅ f1⋅ t +
(
)
1
sin 2⋅ π⋅ f2⋅ t
3
2
K⋅ Tc = 161.29
estendono da 0 a
fN = 18.4
fc := 6.2
e invece si sceglie
segnale analogico, con spettro che eccede il limite posto da fc
i tempi discreti si
fN := 2⋅ B
1
(
1
0.5
ssk
0
− 0.5
−1
)
ssk := s k⋅ Tc
segnale campionato
s ( t)
0
−1
−2
0
5
10
k
15
0
0.5
1
t
1.5
2
20
K
sr( t) :=
segnale ricostruito dai suoi campioni
∑
k=0
⎛ sin (π⋅ fc t − k⋅ π) ⎞
⎜ ssk⋅
⎟
π⋅ fc t − k⋅ π
⎝
⎠
1
il segnale ricostruito ora contiene la sinusoide
originale a 1 Hz e quella prodotta dal
ribaltamento in banda di quella originariamente
a 9.2 Hz, che viene ribaltata in banda
alla frequenza 9.2 - 6.2 = 3 Hz con fase tale
da produrre una "quasi" onda quadra
0.5
sr ( t)
0
− 0.5
−1
0
1
2
t
3
4
3. Campionamento di un segnale passabanda a una frequenza inferiore a quella di Nyquist,
scelta in modo da spostare il segnale dalla "frequenza portante" a frequenza zero
mantenendo però l'informazione utile
frequenza centrale del segnale f1 := 1.00
banda del segnale
(
)
B := max f1 , f2
frequenza di campionamento
periodo di campionamento
f2 := 0
B=1
trascuriamo il fatto che lo spettro si estende oltre 1 Hz
fc := fN + .1
fc = 2.1
1
Tc :=
Tc = 1
fc
estendono da 0 a
⎛ −t ⎞ ⋅ cos 2⋅ π⋅ f ⋅ t
⎟ (
1 )
⎝ 50 ⎠
s ( t) := exp ⎜
K := 1000 k := 0 .. K
1
3
K⋅ Tc = 1 × 10
(
0.5
s ( t)
)
ssk := s k⋅ Tc
segnale campionato
− t⎞
⎟
⎝ 50 ⎠
exp ⎛⎜
0
− 0.5
0.8
ssk
fN = 2
fc := 1
e invece si sceglie
ora il segnale analogico è una sinusoide smorzata
i tempi discreti si
fN := 2⋅ B
frequenza di Nyquist
−1
10
0.4
11
12
13
14
15
t
0
0
10
20
30
k
K
sr( t) :=
segnale ricostruito dai suoi campioni
∑
k=0
sr ( t)
il segnale ricostruito contiene ora
soltanto l'onda esponenziale, che
modulava l'ampiezza della sinusoide a 1
Hz
(e ora modula la frequenza zero dove la
sinusoide è stata spostata)
0.8
0.6
− t⎞
0.4
⎟
⎝ 50 ⎠
0.2
exp ⎛⎜
0
10
⎛ sin (π⋅ fc t − k⋅ π) ⎞
⎜ ssk⋅
⎟
π⋅ fc t − k⋅ π
⎝
⎠
11
12
13
t
14
15
2. SEGNALI DETERMINISTICI
Segnali deterministici sono quelli suscettibili di una rappresentazione
analitica, perchè seguono leggi ben definite, come
x(t) = A cos(t)
oppure
y(t) = e-t/
generalmente usando sia funzioni ordinarie che funzioni generalizzate.
Queste ultime le indicheremo con i seguenti simboli:
funzione delta: (t)
funzione gradino unitario (step function, Heaviside function): u(t)
nella letteratura indicata anche con le notazioni:
1(t), H(t), (t), -1(t), (t)
I segnali deterministici, oltre che nel dominio del tempo, possono
rappresentarsi nel dominio della frequenza. Reale o complessa, a seconda
che se ne consideri la trasformata di Fourier oppure di Laplace.
Una distinzione importante riguarda il supporto temporale dei segnali. Se
questo è limitato abbiamo segnali transitori (per esempio pacchetti
d’onda), tipicamente Fourier trasformabili. Altrimenti i segnali non sono
generalmente Fourier trasformabili, se non ricorrendo a funzioni
generalizzate.
Per segnali di forma gaussiana, aventi quindi trasformata gaussiana, il
prodotto della “durata” per la “larghezza di banda ha valore costante. Tale
proprietà vale anche, approssimativamente, per segnali transitori di forma
arbitraria (principio d’indeterminazione tempo- frequenza). Ciò significa
che un segnale “breve”, fortemente localizzato sull’asse dei tempi, avra’
uno spettro poco localizzato in frequenza, e viceversa per un segnale
“lungo”.
segnali 4
3. SEGNALI CASUALI
I segnali casuali non hanno rappresentazione analitica. Uno specifico
segnale casuale, per esempio il rumore di un resistore, è rappresentato dal
suo andamento temporale, o da una opportuna sequenza dei suoi campioni
(ottenuti sperimentalmente o mediante simulazione al calcolatore).
I segnali casuali, in generale, possono essere rappresentati soltanto in
termini delle loro proprietà statistiche. Proprietà statiche, riguardanti i
valori del segnale, a prescindere dalla loro posizione sull’asse del tempo.
Proprietà dinamiche, in cui intervengono le relazioni fra i valori assunti a
diversi istanti di tempo e i tempi in questione.
Un modello usato spesso, sebbene non faccia intervenire in alcun modo la
dipendenza dal tempo, e dunque possa rappresentare soltanto le proprietà
statiche di un segnale casuale: variabile casuale
(valori estratti a caso con determinate probabilita’)
In tal caso il segnale viene caratterizzato con la sua funzione di
distribuzione
Fs(x) = P(s<x)
cioè la probabilità che il segnale s assuma valori inferiori al livello di
riferimento x. Fs(x) è una probabilita’ e pertanto rientra nell’intervallo fra
0 e 1. Generalmente
Fs(-) = 0, Fs() = 1.
Oppure viene caratterizzato con la sua densità di probabilità
fs(x) = dFs(x)/dx
cioè la derivata della precedente rispetto a x.
segnali 5
Caratterizzazione alternativa (utile perché più compatta) di una variabile
casuale è quella basata sui momenti della densità di probabilità:
valor medio s = E[s]
(momento del primo ordine)
2
2
varianza
 = E[(s-s) ] (momento centrale del secondo ordine)
eccetera
dove l’operatore di aspettazione E[ ] è l’integrale da meno infinito a più
infinito del suo argomento pesato con la funzione densità, che rappresenta
l’operazione di media d’insieme.
Se il segnale ha distribuzione Gaussiana, esso è completamente
caratterizzato dal valor medio e dalla varianza. Altrimenti, in generale,
occorre specificare infiniti momenti.
I segnali reali hanno densità di probabilità espresse da funzioni ordinarie.
I segnali discreti hanno densità espresse da funzioni delta. Per esempio la
densità di un segnale che rappresenti i numeri di un dado sarà:
(1/6) i (s-i)
con i =1, 2, ... 6.
Miscele di funzioni ordinarie e delta rappresentano la densità di probabilità
di segnali particolari.
Per esempio un segnale con densità Gaussiana che abbia attraversato un
limitatore simmetrico avrà densità ancora Gaussiana, ma solo fra i due
valori limite, più la somma di due funzioni delta, che rappresentano tali
valori, su cui appunto il segnale gradisce soffermarsi.
Questa rappresentazione è usata talvolta anche per i segnali deterministici.
In tal caso la densità di probabilità viene chiamata densità d’ampiezza.
Un’onda quadra ha densità d’ampiezza costituita da due funzioni delta. La
densità di una sinusoide di ampiezza A è compresa fra –A e A secondo la
legge:
f s ( x) 
1
 A x
2
2
nell’intervallo fra –A e A
segnali 6
Notiamo che il comportamento di molti strumenti dipende dalla densità dei
segnali sottoposti a misura. Pensiamo al caso di un voltmetro per corrente
alternata (un comune tester) tarato per fornire il valore efficace di segnali
sinusoidali. Esso non darà il corretto valore efficace quando vede un’onda
quadra, un’onda triangolare oppure un segnale a densità Gaussiana (a
meno che non sia del tipo “a vero valore efficace”).
Teorema importante per il calcolo della densità di probabilità di un segnale
funzione di un segnale casuale dato. Particolarmente utile quando il
sistema (statico) è nonlineare.
x(t)
sistema statico
y = g(x)
y(t)
Il sistema è rappresentato dalla funzione g(x), che è continua e non assume
valori costanti in nessun intervallo. Cioè per un dato valore di y
l’equazione y=g(x) possiede al più un numero contabile di radici x1, x2, ...
xn. Teorema: se l’ingresso ha densità fx(x), la densità dell’uscita è
f y ( y )  i
f x ( xi )
dg ( xi )
dx
sommando sulle n radici
Si dimostra considerando la probabilità fy(y)dy che l’uscita si trovi in un
intervallino fra y e y+dy.
Il risultato si estende facilmente al caso in cui la funzione y=g(x) assuma
valori costanti yk, corrispondenti a determinati intervalli di x.
In tal caso all’espressione precedente si sommano altrettante funzioni
delta, ciascuna del tipo P(yk) y-yk) con
P( yk )   f x ( x) dx
(integrando sui corrispondenti intervalli di x)
segnali 7
PROCESSI STOCASTICI
Modello assai più potente, per la rappresentazione dei segnali casuali, è il
processo stocastico. Dove l’estrazione a caso, con probabilità
preassegnate, non riguarda numeri, ma funzioni del tempo.
Più precisamente, un processo stocastico è definito da un esperimento
probabilistico nel quale a ciascun risultato, che si verifica con una data
probabilità, è assegnata una funzione del tempo. Queste funzioni si
chiamano realizzazioni del processo. Che è definito dal loro insieme e
dalle rispettive probabilità.
ESEMPIO
Lancio di una moneta (truccata) con i seguenti risultati
testa, con probabilità Pt = 0.4 e funzione ft(t) = t
croce, con probabilità Pc = 0.6 e funzione fc(t) = t2
Processi stazionari hanno proprietà statistiche tutte invarianti nel tempo. Il
processo di sopra non è stazionario: infatti, in particolare, il suo valor
medio è: 0.4 t + 0.6 t2
Nei processi ergodici la conoscenza di una sola realizzazione consente di
determinare tutte le proprietà statistiche del processo. Allora le medie
d’insieme sono sostituibili con medie temporali su una qualsiasi delle
realizzazioni.
Per esempio, per il valor medio, abbiamo:
x 



f ( x ) x dx   x  limT 
1
2T
T
 x(t ) dt
T
segnali 8
FUNZIONI DI CORRELAZIONE
Grande importanza ha la funzione di autocorrelazione di un processo x(t),
definita nel caso generale con la seguente media d’insieme
Rxx(t1, t2) = E[x(t1) x(t2)]
che rappresenta il grado di relazione statistica fra i valori del processo agli
istanti t1 e t2. Dunque anche la prevedibilita’ del processo fra t1 e t2.
Per un processo stazionario ed ergodico, data l’invarianza delle proprietà
statistiche rispetto a traslazione sull’asse dei tempi, la dipendenza dai
tempi diventa una dipendenza dalla differenza fra i tempi:  = t1 - t2.
Si ha allora:
Rxx    E  x(t   ) x(t )  limT 
1
2T
T
 x(t   ) x(t )dt
T
Qualche proprietà generale dell’autocorrelazione:
Rxx(0) = E[x(t)2] = 2 + 2
valore quadratico medio del processo
(nel caso di segnali elettrici esprime il fatto che la potenza totale è la
somma di quella in continua e di quella in alternata)
Rxx(0)  Rxx()
Rxx() = Rxx(-)

uguaglianza solo in casi particolari (quali?)
si tratta dunque di una funzione pari
l’ultima proprietà mostra che si possono fare previsioni in avanti sull’asse
dei tempi altrettanto bene che all’indietro.
Si considera talvolta la funzione di autocorrelazione normalizzata

() = R()/R(0)
compresa dunque nell’intervallo fra –1 e 1
segnali 9
Consideriamo due casi limite.
incertezza totale: conoscere il valore del processo a un certo istante t non
dà nessuna informazione per prevederne i valori ad altri istanti
in tal caso Rxx()=0 dovunque salvo che per =0, cioè:
Rxx() = 2 
determinazione totale: conoscere il processo a un istante significa
conoscerlo dovunque. E’ il caso di un segnale costante x(t) = a (unica
realizzazione, con probabilità 1), la cui autocorrelazione è
Rxx() = a2
In generale si hanno situazioni intermedie: Rxx() decresce al crescere (del
modulo) dell’argomento, magari oscillando, dal massimo per =0
a zero per  infinito.
Si definisce allora un tempo di correlazione c per cui
|Rxx(c)| = Rxx()/e oppure come
1 
c 
 R( ) d
R(0) 0
ESEMPIO
Il rumore bianco filtrato da un filtro del primo ordine (per esempio un
circuito RC) con costante di tempo to ha autocorrelazione:
Rxx() = Rxx() exp(-|to)
In questo caso il tempo di correlazione coincide con la costante di tempo.
ESEMPIO
Processo costituito da una sinusoide di ampiezza, frequenza e fase date
(oppure con fase casuale, per esempio avente distribuzione uniforme fra –
 e ) : A sin(ot+
L’autocorrelazione è: R(t) = (A2/2) cos(ot)
che dipende solo dall’ampiezza e dalla frequenza, ma non dalla fase, della
sinusoide originale.
segnali 10
La correlazione fra due processi x(t) e y(t) è rappresentata dalla funzione di
correlazione incrociata
1 T
Rxy ( )  E[ x(t   ) y (t )]  lim T 
 x(t   ) y (t ) dt
2T T
che è nulla ovunque se i due processi sono scorrelati, e non è in generale
una funzione pari, essendo Rxy() diversa da Rxy()
Rxy() = Ryx()
e non avendo generalmente massimo all’origine.
Si ha inoltre: |Rxy()|2  Rxx()Ryy(

Esempio di uso pratico della correlazione incrociata: determinare il ritardo
fra due segnali casuali (per esempio la velocità di propagazione di un
fluido turbolento in un condotto, usando due trasduttori di vibrazione)
Funzioni di covarianza
Hanno definizioni identiche alle funzioni di correlazione viste sinora, salvo
che alle funzioni vengono sottratti i rispettivi valori medi
in modo da rappresentare soltanto correlazioni fra “variazioni”
Cxx() = E[(x(t + ) - x) (x(t) - x)]
Cxy() = E[(x(t + ) - x) (y(t) - y)]
Si ha in particolare:
C(0) = 2
C(0) = R(0) - 2
segnali 11
SPETTRI DI POTENZA
Le proprietà spettrali dei segnali deterministici sono descritte dalla loro
trasformata di Fourier. I segnali casuali non sono Fourier trasformabili, ma
possiedono generalmente una funzione di autocorrelazione.
Per caratterizzarli nel dominio della frequenza si usa la trasformata di
Fourier dell’autocorrelazione R(τ), chiamata spettro di potenza o densità
spettrale di potenza S() (power spectrum, power spectral density)

S ( )   R( ) e j d

1 
j
R( ) 
d
 S ( ) e
2 
relazioni che costituiscono il teorema di Wiener-Khintchin
Lo spettro di potenza S() è una funzione reale di , non negativa, che
rappresenta la distribuzione di energia del segnale sull’asse delle
frequenze.
L’energia totale, in particolare, cioè il valore quadratico medio del segnale,
si ottiene integrando lo spettro si tutto l’asse delle frequenze:
1 
R(0) 
 S ( ) d
2 
Unita’ di misura degli spettri di potenza? Quella al quadrato della
grandezza fisica rappresentata per un tempo o su Hz.
Per una forza e una corrente elettrica: N2/Hz, A2/Hz.
E per una frequenza?
segnali 12
Cosi’ definito, lo spettro di potenza S() si estende fra meno e piu’
infinito, e per questo si chiama spettro bilatero (two-sided). Ma siccome
R() = R(-), ne consegue che S()=S(-), sicchè basta conoscere lo
spettro per 
Talvolta, allo scopo di avere a che fare solo con frequenze positive, si
usano gli spettri unilateri:
SU() = 2SB()
dove SB()=S() è lo spettro definito prima
La varianza di un segnale con spettro continuo S(f) in un intervallino di
frequenza df attorno a fo è infatti 2 = 2S(f)df = SU(f) df.
Spesso si considerano in pratica spettri di ampiezza, definiti come radice
quadrata di spettri unilateri (con l’unita’ di misura della grandezza
rappresentata su radice di Hz: per esempio V/ Hz ).
SPETTRI INCROCIATI
Trasformando una funzione di correlazione incrociata Rxy() si ha lo
spettro incrociato Sxy(j): una funzione complessa di che esprime in
termini spettrali le proprieta’ di correlazione fra due segnali x(t) e y(t).
Per qualsiasi frequenza si ha
|Sxy()|2  Sxx() Syy()
con l’uguaglianza alle frequenze in cui la correlazione spettrale fra i due
segnali e’ totale.



segnali 13
R() = ()
S() = cost
rumore bianco


R()=a2
S(
segnale costante
x(t) = a

segnale casuale
filtrato passabasso
(a banda limitata)

segnali 14
SEGNALI A BANDA STRETTA
Osservando all’oscilloscopio un segnale a banda stretta, per esempio
rumore bianco filtrato da da un sistema risonante ad alto Q, si vede una
sinusoide, di cui varia lentamente nel tempo l’ampiezza e la fase.
Da questa osservazione deriva l’importante rappresentazione di Rice:
un segnale passabanda s(t), avente cioè contenuto spettrale (trasformata di
Fourier o spettro di potenza) apprezzabile soltanto in una ristretta regione
di frequenza angolare  attorno alla pulsazione o, può essere
rappresentato con ottima approssimazione dalla legge
s(t) = a(t) cos(ot) – b(t) sin(ot)
dove le funzioni a(t) e b(t) variano nel tempo assai più lentamente del
segnale s(t), con contenuto spettrale fra zero e 
cioè sono due segnali passabasso

Si tratta di una sorta di sviluppo in serie di Fourier al primo ordine, ma con
coefficienti variabili nel tempo.
La conseguenza è che il segnale s(t) è noto, cioè ricostruibile, se si
conoscono o e gli andamenti temporali di a(t) e b(t).
E dunque è possibile campionare a(t) e b(t) a bassa velocità, assai inferiore
a quella richiesta per il campionamento di s(t).
segnali 15
SISTEMI
Aggregati di oggetti fisici che qui interessano solo in quanto eseguono
elaborazioni sui segnali. O anche, semplicemente, modelli matematici di
sistemi fisici.
Dove nella modellizzazione è centrale la rappresentazione delle sole
proprietà che interessano effettivamente (economia e specificità).
Prescindendo comunque dalla effettiva natura fisica dei sistemi, che
intendiamo come enti che trasformano un segnale (ingresso) in un altro
(uscita).
Comportamento ingresso-uscita
Comportamento ingresso-stato-uscita
(scatola nera)
(scatola grigia)
A seconda che si considerino solo le relazioni fra segnali d’ingresso e di
uscita,
oppure si vogliano rappresentare anche certe variabili interne al sistema
(variabili di stato): quelle che sono legate all’immagazzinamento di
energia, e dunque alle proprieta’ di memoria.
sistemi 1
1. CLASSIFICAZIONE
sistemi stazionari (time invariant): sono descritti da equazioni a
coefficienti costanti, hanno proprietà invarianti nel tempo:
se
allora
x(t)  y(t)
x(t+T)  y(t+T)
T
sistemi lineari: sono descritti da equazioni lineari,
vale il principio di sovrapposizione degli effetti:
se
e
allora

x1(t)  y1(t)
x2(t)  y2(t)
x1(t) + x2(t)  y1(t)  y1(t)
, 
(a partire da condizioni iniziali nulle)
Ciò comporta sia l’omogeneità che l’additività.
sistemi statici: sono descritti da equazioni algebriche,
l’uscita a un dato istante dipende esclusivamente dall’ingresso all’istante
considerato,
sono privi di memoria (non immagazzinano energia)
alternativi ai precedenti sono i sistemi dinamici: descritti da equazioni
differenziali (equazioni alle differenze nel tempo discreto),
l’uscita a un dato istante non dipende solo dall’ingresso all’istante
considerato, ma anche ad altri istanti
soltanto istanti precedenti per i sistemi causali (fisicamente
realizzabili) dotati di memoria
anche istanti successivi per i sistemi non causali (in particolare nella
elaborazione di dati già registrati)
sistemi a costanti concentrate: descritti da equazioni differenziali ordinarie
sistemi a costanti distribuite: descritti da equazioni differenziali a derivate
parziali (corde vibranti, linee di trasmissione, ecc.)
sistemi 2
ALCUNI ESEMPI
y
Sistema nonlineare statico
x
Sistema lineare dinamico
a costanti concentrate
H(s) = 1/(1+τs)
Sistema lineare dinamico
a costanti distribuite
y(t) = x(t - T)
H(s) = exp(-Ts)
sistemi 3
2. SISTEMI LINEARI E STAZIONARI
Ci occupiamo sopratutto dei sistemi lineari e stazionari (generalmente
dinamici)
perchè sono ottimi modelli di molti sostemi fisici
perchè sono descritti da equazioni differenziali lineari a coefficienti
costanti, agevolmente risolubili
perchè solo ad essi si applicano i metodi delle trasformate di Fourier
e Laplace che ne semplificano grandemente la trattazione
ESEMPIO
nel caso dell’oscillatore armonico
abbiamo l’equazione differenziale
m x(t )  R x (t )  K x(t )  f (t )
Applicando la trasformata di Laplace e trascurando le condizioni iniziali
otteniamo la seguente equazione algebrica nelle grandezze trasformate
ms2X(s) + RsX(s) +KX(s) = F(s)
da cui si ricava immediatamente la trasformata dello spostamento in
funzione della trasformata delle forza applicata
X(s) = [ms2 + Rs + K]-1 F(s)
L’andamento del segnale d’uscita x(t) nel dominio del tempo si ottiene
antitrasformando la relazione precedente, per un dato ingresso f(t) con
trasformata F(s).
sistemi 4
x(t)
sistema
X(s
)
y(t)
Y(s)
Il comportamento ingresso-uscita dei sistemi lineari e stazionari è descritto
completamente da una delle seguenti funzioni:
risposta impulsiva h(t)
risposta a una eccitazione costituita da una funzione delta unitaria
x(t) = (t)  y(t) = h(t)
funzione di trasferimento H(s)
rapporto fra le trasformate del segnale d’uscita e d’ingresso
H(s) = Y(s)/X(s)
Per l’oscillatore armonico: H(s) = X(s)/F(s) = 1/(ms2 + Rs + K)
Legame fra le due funzioni: all’eccitazione impulsiva x(t) = (t)
corrisponde la trasformata X(s) = 1
pertanto la trasformata dell’uscita è Y(s) = H(s)
Quindi la funzione di trasferimento H(s) rappresenta la trasformata di
Laplace della risposta impulsiva h(t).
Vantaggio dell’impiego delle funzioni di trasferimento nella trattazione dei
sistemi costituiti da più sottosistemi disposti in cascata: la funzione di
trasferimento totale è il prodotto delle funzioni dei sottosistemi:
H(s) = H1(s) H2(s)... Hn(s)
X(s)
H1(s)
H2(s)
Hn(s)
Y(s)
sistemi 5
funzioni di trasferimento
sono funzioni reali della variabile complessa
s = j + 
funzioni razionali fratte di s per i sistemi a costanti concentrate,
caratterizzate allora da un numero finito di singolarità (poli e zeri)
funzioni trascendenti di s per i sistemi a costanti distribuite
Calcolando H(s) alla frequenza angolare  (cioè per s = j) si ottiene un
numero complesso
il modulo rappresenta l’amplificazione
la fase rappresenta lo sfasamento
che subisce un segnale armonico di pulsazione  applicato in ingresso
H(j) rappresenta dunque la risposta in frequenza del sistema
risposta impulsiva
per sistemi fisicamente realizzabili si ha
h(t) = 0 per t<0
per sistemi stabili (BIBO) deve essere
h() = 0
per sistemi statici si ha una funzione delta nell’origine
Permette il calcolo diretto della risposta y(t) a una eccitazione qualsivoglia
x(t) usando l’integrale di convoluzione
t


0
y (t )   h(t   ) x( ) d   h( ) x(t   ) d
(estremi d’integrazione per sistemi causali, altrimenti fra - e +)
Tale operazione è molto usata nel tempo discreto, dove gli integrali si
riducono a sommatorie, ma generalmente sconsigliata nel tempo continuo
(usando le trasformate, la convoluzione corrisponde a un semplice prodotto)
L’integrale nel tempo della risposta impulsiva h(t) rappresenta la risposta
al gradino unitario (risposta indiciale, step response), da cui si ricavano il
tempo di salita, il ritardo e altre grandezze caratteristiche.
sistemi 6
FILTRI
La risposta in frequenza H(j) e’ una funzione continua di 
Ha grande importanza il suo andamento asintotico per
  0 cioè la risposta in continua
   cioè la risposta alle alte frequenze
La dipendenza dalla frequenza del modulo di H(j) di un sistema ne
definisce le proprietà filtranti.
Si hanno così sistemi passabasso, passaalto, passabanda, eliminabanda
Particolare interesse hanno i sistemi passabasso, per esempio 1/(1+j) e i
sistemi passabanda risonanti.
Le risposte in frequenza di questi ultimi sono caratterizzate dalla presenza
di un denominatore che si scrive usualmente nella forma
1 + jQ – 
che alla risonanza si riduce a jQ)

oppure
 + jo/Q – 2
dove Q rappresenta il fattore di merito, che definisce la larghezza di banda
attorno alla risonanza (Q = ), per Q>>1.
La risposta alla risonanza è dunque direttamente proporzionale a Q.
sistemi 7
3. SEGNALI CASUALI NEI SISTEMI LINEARI E STAZIONARI
x(t)
y(t)
H(j)
Sxx()
Syy()
Teorema fondamentale
se il segnale d’ingresso x(t) è un segnale casuale con spettro Sxx(), lo
spettro del segnale d’uscita y(t) è:
Syy() = |H(j)|2 Sxx()
Si dimostra esprimendo l’autocorrelazione dell’uscita in termini di segnali
espressi con l’integrale di convoluzione, e applicando poi la trasformata di
Fourier a quanto si ottiene.
ESEMPIO
Filtro passabasso RC con costante di tempo to e funzione di trasferimento
H ( j ) 
1
1  j to
eccitato da rumore bianco con spettro Sxx().
Lo spettro d’uscita è:
S yy ( ) 
S xx ( )
1   2 to2
Se lo spettro d’ingresso è costante (rumore bianco), l’autocorrelazione
dell’uscita si ottiene immediatamente antitrasformando:
R yy ( ) 
  
S xx
exp   
2 to
 to 
da cui per =0 si ha la varianza 2 = Sxx/2to
sistemi 8
Assai meno immediata è l’espressione dell’autocorrelazione dell’uscita in
funzione di quella dell’ingresso e della funzione di trasferimento (o della
risposta impulsiva) del sistema.
Considerazioni opposte valgono nel caso dei sistemi nonlineari (in
particolare sistemi statici), per cui il teorema precedente non vale, e
l’unico approccio sensato di calcolo passa per le autocorrelazioni.
ESEMPIO
Rivelatore quadratico: y(t) = x2(t)
Se il segnale d’ingresso ha media nulla, densità normale e autocorrelazione
Rxx(),
sfruttando la relazione E[x2y2]=E[x2]E[y2] + 2E2[xy], che a sua volta
deriva dalla relazione E[g1(x)g2(y)] = E[g1(x)E[g2(y)|x]], si ha:
Ryy() = E[x2(t+)x2(t)] = E[x2(t+)]E[x2(t)] + 2E2[x(t+)x(t)]
da cui
Ryy() = Rxx2() + 2Rxx2()
e in particolare
Ryy() = 3Rxx2()
Lo spettro dell’uscita si ottiene dal teorema di convoluzione in frequenza
della trasformata di Fourier:
Syy() = 2 Rxx2(0) () + Sxx()*Sxx()/
Dato che l’uscita ha valor medio E[y(t)] = E[x2(t)] = Rxx(0)
si conclude che la varianza dell’uscita è
y2 = E[y2(t)] – E2[y(t)] = 2Rxx2()
sistemi 9
BANDA EQUIVALENTE DI RUMORE 
La varianza del rumore all’uscita di un sistema eccitato da rumore si
ottiene calcolando lo spettro d’uscita, antitrasformando tale spettro e poi
calcolando l’autocorrelazione a ritardo zero:
1) Syy() = |H(j)|2 Sxx
2) Ryy() = FT-1[Syy()]
3) 2 = Ryy(0)
Il calcolo è molto abbreviato quando l’eccitazione è a spettro costante
(rumore bianco) e si utilizza la banda equivalente di rumore Bn del
sistema. Allora la varianza d'uscita si calcola semplicemente così:

2 = Sxx A2 Bn
Bn 
1
dove A è il guadagno massimo e

 H  j  d
2
2 A 2 
Questa definizione non è generale, ma vale per le funzioni passabasso e
per le funzioni passabanda di tipo risonante, che sono quelle di maggiore
interesse in pratica
ESEMPIO
Sia H(j) = /( + jper cuiil guadagno è A=1.
1
2

Bn 
d



 2
2    2
2
funzioni di trasferimento
con una costante di tempo
con due costanti di tempo
risonanti (Q>>1) a o
banda di rumore
[Hz]
1/2
1 / 2(1+2)
o / 2Q
banda usuale a 3dB
[Hz]
1 / 2
1 / 2(1+2)
o / 2Q
sistemi 10
SPETTRI INCROCIATI
x(t)
y(t)
H(j)
Sxx()
Syy()
Valgono le seguenti relazioni:
Sxy(j) = H*(j) Sxx()
Syx(j) = H(j) Sxx()
sistemi 11
RUMORE
Distinguiamo innanzitutto il rumore, inteso come fluttuazioni generate da
fenomeni fondamentali della materia, dai disturbi prodotti da altri
fenomeni (effetti dovuti alla rete elettrica o a onde radio, a vibrazioni
acustiche e alla sismicità naturale del terreno, ai raggi cosmici e alla
radioattività naturale, ecc.).
Il rumore, in linea di principio, è ineliminabile. I disturbi possono essere
invece ridotti o eliminati mediante opportune schermature o altri mezzi.
Il rumore si manifesta generalmente nella forma di segnali casuali a spettro
continuo. I disturbi hanno più spesso spettro costituito da righe.
LE TRE CATEGORIE
Rumore termico: fluttuazioni spontanee della materia, quando si trova a
temperatura diversa dallo zero assoluto.
Rumore shot: derivante dalla quantizzazione della carica elettrica; più in
generale è associato a fluttuazioni di numero quando entrano in gioco
“correnti” di particelle discrete.
Rumore 1/f: così chiamato perchè presenta uno spettro con andamento
proporzionale a 1/f con  1. Si manifesta in una estesa varietà di
fenomeni fisici. Costituisce un rompicapo e dunque fonte di diletto e
ragione di vita per gli studiosi del settore.
Il rumore 1/f pone comunque un problema: la divergenza del valore
quadratico medio, a fronte della forma dello spettro. Che misure (infinita
pazienza e buona salute) eseguite su semiconduttori indicano seguire la
legge 1/f fino a 10-5 Hz.
rumore 1
RUMORE SHOT
Studiato da W. Schottky investigando il rumore nei tubi elettronici
(Schroteffekt, effetto mitraglia) nel 1918. Ma è un effetto assai più
generale.
Consideriamo una corrente di particelle che attraversano una barriera a
istanti di tempo casuali (corrente elettrica di cariche elementari che
attraversano la barriera di potenziale di un tubo a vuoto o di una giunzione
pn, ma anche correnti di particelle di altra natura: persone che entrano in
un bar, gocce di pioggia che cadono su una tegola, ecc.).
La corrente media (numero di particelle nell’unità di tempo) è costante:
per una corrente elettrica l’intensità media è
I = q
dove  e’ la frequenza media di arrivo e q la carica elementare.
Ma non è costante il numero n di particelle che passano effettivamente in
intervalli di tempo di durata data.
Se la statistica di arrivo segue la legge di Poisson, la probabilità che in un
tempo T arrivino n particelle è:

 T n
P ( n) 
exp(  T )
n!
da cui si ricavano
il valor medio di n
il valore quadratico medio
e quindi la varianza
n = E[n] = nnPn = T
E[n2] = n n2Pn = T + (T)2
n2 = E[(n-E[n])2] = T
Da quest’ultima si ricavano le fluttuazioni della corrente in intervalli di
durata T:
i2 = n2 (q/T)2 = q2/T = qI/T
rumore 2
Osservando direttamente la corrente di particelle, vedremmo una sequenza
di impulsi a tempi casuali (Poissoniani): una sequenza di funzioni delta se
il tempo di passaggio delle particelle è trascurabile rispetto alla velocità di
risposta dello strumento.
Osserviamola invece usando un filtro di media che sia abbastanza lento
perchè la sua uscita sia la somma pesata dell’effetto di un gran numero di
impulsi, cioè con risposta impulsiva lunga rispetto al tempo medio fra due
impulsi.
Per esempio un filtro con risposta impulsiva rettangolare di durata T e
ampiezza 1/T, e dunque con risposta in frequenza
H ( j ) 
sin(T 2)
exp(  j T 2)
(T 2)
Vogliamo ricavare lo spettro Sii della corrente d’ingresso, che assumiamo
costante (impulsi brevissimi).
Lo spettro d’uscita S() è evidentemente:
S() = |H(j)|2 Sii
Integrando il quale si ottiene la varianza d’uscita: i = Sii/T
Uguagliando con l’espressione precedente (i2 = qI/T) si ottiene infine:
Sii = qI
Osservazioni:
- a spettro costante corrisponde l’assurdo di varianza infinita per il
processo originale. Ma in realtà non è così perchè la velocità di transito è
finita e dunque lo spettro ha un limite in frequenza (approssimativamente
pari al reciproco del tempo di transito delle particelle)
- il risultato ottenuto ha validità generale (non dipende dal particolare filtro
di osservazione)
rumore 3
ESEMPIO
Diodo a giunzione pn, governato dalla legge I = Is (exp(qV/kT) –1)
Nella giunzione in corto (tensione V=0) la corrente I è nulla, sicchè non
c’è rumore shot.
Errore!
La corrente totale è nulla in media, per effetto dell’equilibrio fra due
correnti di uguale intensità e segni opposti: Is e -Is
A ciascuna di queste correnti è associato effetto shot,
pertanto lo spettro totale delle fluttuazioni di corrente è:
Sii = 2qIs
e così risulta sperimentalmente.
E’ affascinante osservare che a questo stesso risultato (per I=0) si arriva
calcolando il rumore termico del diodo:
la cui resistenza differenziale, dall’equazione di Shockley, è r = kT/q(I+Is)
Pertanto, calcolando lo spettro del rumore termico di corrente per I=0 si
ottiene:
Sii = 2kT/r = 2kT (qIs/kT) = 2qIs
rumore 4
RUMORE SHOT MECCANICO
Mechanical shot noise induced by creep .... Phys. Lett. A (1997) pag.21
La denominazione di rumore shot viene applicata anche nel caso di
fenomeni meccanici, come l’allungamento di un filo (sotto carico) prodotto
da fenomeni di cedimento (deformazione permanente)
Qui l’interesse riguarda le sospensioni di parti di rivelatori gravitazionali,
dove la componente continua dello spostamento (lenta deriva) viene
compensata da un sistema di controllo, mentre la parte variabile può
produrre effetti indesiderati sul segnale osservato, simulando la risposta a
determinati eventi astrofisici.
La legge di crescita della lunghezza l(t) del filo viene così espressa:
 l l   l  ns (t )
dove l è la costante di rilassamento del filo e ns(t) è un rumore shot: una
sequenza di impulsi di forma esponenziale (s) con valore integrato qs
(glitch size) che occorrono a istanti ti con distribuzione di Poisson e
frequenza media .
Lo spettro del rumore ha una delta all’origine - allungamento medio nel
tempo, di cui non ci occupiamo - e un andamento Ss() = qs2 /(1+2s2),
che rappresenta la parte variabile. Dall’equazione differenziale precedente
si ricava lo spettro delle fluttuazioni della lunghezza del filo
Sl() = Ss()/2(1+2s2)
Lo spettro del rumore di spostamento della massa sospesa al filo si calcola
infine rappresentando il sistema come un oscillatore armonico smorzato
eccitato dalle anzidette variazioni di lunghezza
nei fili considerati (esperimento VIRGO) si stima
qs=10-10 m
 = qualche unità al giorno
rumore 5
RUMORE TERMICO
L’origine dello studio del rumore termico risale al lavoro di Einstein del
1905 sulla teoria del moto Browniano.
In seguito Langevin (1908) propone un metodo, con cui ritrova i risultati di
Einstein, basato sull’introduzione di una forza casuale che agisce sulle
particelle che manifestano moto Browniano.
Nel fascicolo di luglio 1928 di Physical Review troviamo
due lavori fondamentali riguardanti il rumore elettrico di origine termica
 J.B. Johnson (Thermal Agitation of Electricity in Conductors) riferisce
sui risultati sperimentali di misure di rumore termico su resistori,
introducendo una formula universale
 H. Nyquist (Thermal Agitation of Electric Charge in Conductors)
calcola il rumore termico in base ai principi della termodinamica e della
meccanica statistica, in accordo con gli esperimenti di Johnson.
Formula di Johnson-Nyquist
Lo spettro di potenza della f.e.m. ai terminali di un conduttore elettrico di
resistenza R, dovuta all’agitazione termica dei portatori, è:
Svv() = 2 k T R
[volt2/hertz]
dove T è la temperatura del conduttore
(si tratta di uno spettro bilatero, in forma unilatera lo spettro è 4kTR)
 questa formula venne ricavata in base a considerazioni termodinamiche,
utilizzando il principio di equipartizione, ma si può ricavare anche con
un approccio corpuscolare, basato sulla conoscenza della distribuzione
delle velocità degli elettroni
 nonostante le apparenze.... la varianza totale non diverge
rumore 6
In effetti lo spettro non si mantiene costante con la frequenza:
- una spiegazione classica è che fra i terminali di qualsiasi conduttore reale
c’è sempre una capacità elettrostatica, che dunque limita la banda
- introducendo la correzione quantistica la formula si modifica così:
Svv ( ) 
2  R
 
exp 
 1
k
T


coincidendo con la precedente per frequenze sufficientemente basse, cioè
per    k T (notate che la correzione interviene prima alle basse
temperature).
Considerando lo spettro del rumore di corrente attraverso un resistore in
cortocircuito si trova
Sii() = 2 k T  R
In generale, lo spettro del rumore di tensione fra due terminali di un
circuito elettrico che presenta impedenza Z(j) è
Svv() = 2 k T Re[Z(j)]
purchè il circuito comprenda soltanto elementi passivi (resistori,
condensatori, induttori e trasformatori) che si trovino tutti a una stessa
temperatura T (gli elementi attivi sono vietati, perchè fuori dall’equilibrio
termodinamico).
Quanto sopra suggerisce che un resistore rumoroso possa rappresentarsi
con la disposizione in serie di un resistore ideale (non rumoroso) e di un
generatore di tensione di rumore con spettro 2kTR (se soggetto soltanto a
rumore termico, altrimenti lo spettro avrà un’altra espressione).
Cosa avviene per due resistori in serie? In parallelo?
Quando si trovano alla stessa temperatura? A temperature diverse?
rumore 7
ESEMPIO
Condensatore in parallelo a un resistore
Lo spettro della tensione ai terminali del condensatore (e del resistore) si
può calcolare in vari modi, per esempio:
- come prodotto dello spettro di potenza del generatore di tensione di
rumore per il modulo quadro della funzione di trasferimento fra il
generatore e l’uscita:
Svv() = 2 k T R  1/(1 + 2 2) = 2 k T R / (1 + 2 2)
- in base alla parte reale dell’impedenza del circuito
Z(j) = R/(1 + j) = R (1 - j)/(1 + 2 2)
ottenendo ancora:
Svv() = 2 k T Re[Z(j)] = 2 k T R / (1 + 2 2)
La varianza della tensione si ottiene integrando lo spettro, o più
semplicemente moltiplicando lo spettro in continua per la banda
equivalente di rumore della funzione di trasferimento, Bn = 1/4
2 = Svv(0)/4 = kT/2C
risultato felicemente in accordo con il principio di equipartizione
(2C/2 = kT/2)
Si noti che
- che questo risultato non dipende
da R e dunque è valido anche per
un condensatore (R)
- che lo spettro del rumore ha valore
in continua proporzionale a R, ma
frequenza di taglio inversamente proporzionale a R, e quindi l’area
sottesa dal suo grafico è costante al variare di R e dipende soltanto da C
rumore 8
RAPPRESENTAZIONE DEL RUMORE NEI CIRCUITI ELETTRICI
Qualsiasi circuito (o elemento di) circuito si rappresenta in generale come
un circuito (o un elemento) ideale (cioè non rumoroso), corredato da
generatori che ne rappresentano esplicitamente il rumore.
Rete a una porta (bipolo): la rappresentazione del rumore richiede
l’aggiunta di un generatore, con spettro assegnato
rappresentiamo la rete con la legge
V = ZI + Vn
oppure
I = YV + In
dove Vn e In sono opportuni generatori di rumore
I
I
bipolo
rumoroso
+
V
V
bipolo non
rumoroso
-
+
V
-
La rappresentazione del rumore in una rete a due porte richiede due
generatori di rumore.
Per esempio (rappresentando la rete con i parametri Z)
V1 = Z11 I1 + Z12 I2 + Vn1
V2 = Z21 I1 + Z22 I2 + Vn2
con due generatori di tensione di rumore disposti in serie alle due porte
(ma vi sono vari altri modi di collegare i generatori di rumore, di tensione
o di corrente)
Così facendo il rumore della rete a due porte è caratterizzato dagli spettri
di potenza dei due generatori e dallo spettro incrociato (che ne rappresenta
le proprietà di correlazione spettrale): 4 funzioni reali di 
(che si riducono a due in assenza di correlazione fra i due generatori)
rumore 9
Il rumore di una rete a due porte (per esempio un amplificatore) si
rappresenta di solito con due generatori disposti all’ingresso:
un generatore di tensione in serie e uno di corrente in parallelo
con spettri di potenza (autospettri e spettro incrociato) assegnati.
Vn
In
rete
priva di
rumore
TEMPERATURA DI RUMORE DI UNA RETE A UNA PORTA
Se una rete è puramente passiva sappiamo calcolare il rumore in base alla
parte reale della sua impedenza, ma solo se tutti gli elementi dissipativi si
trovano a una stessa temperatura T, che in tal caso assumiamo come
temperatura equivalente di rumore della rete:
Teq = Svv()/(2 kRe[Z(j)]) = T
Se gli elementi dissipativi si trovano a temperature diverse, possiamo
ancora calcolare lo spettro Svv() ai terminali della porta:
questo sarà la somma dei contributi dei generatori di rumore associati ai
vari elementi, ciascuno moltiplicato per il modulo quadro della funzione di
trasferimento da quel generatore alla porta d’uscita della rete.
In tal caso avremo:
Teq = Svv()/(2 kRe[Z(j)])
Un calcolo analogo può farsi anche per le reti attive, questa volta tenendo
conto anche dei contributi degli elementi attivi, ciascuno rappresentato con
i due generatori di rumore visti sopra.
rumore 10
ESEMPIO
Il caso della resistenza fredda
Ovvero calcolo della temperatura equivalente di rumore all’ingresso
invertente (terra virtuale) di un amplificatore operazionale.
Consideriamo un amplificatore operazionale con un resistore R disposto in
retroazione fra l’uscita e l’ingresso invertente. L’impedenza d’ingresso a
tale porta (trascurando quella propria dell’amplificatore stesso,
generalmente assai elevata) si calcola con il teorema di Miller
Zin(j) = R/(1+A(j))
se l’amplificazione dell’operazionale è –A(j).
Per esempio se a bassa frequenza assumiamo reale il guadagno con
A = 102 e assumiamo R = 106 ohm, otteniamo: Zin  R/A = 104 ohm.
Il calcolo dello spettro di rumore richiede di valutare e sommare i
contributi del rumore termico del resistore e dei due generatori di rumore
(di tensione e di corrente) associati all’amplificatore, con spettri Svn ed Sin,
che per semplicità supponiamo bianchi e scorrelati.
In uscita si ha approssimativamente lo spettro 2kTR + SvnA2 + SinR2
e dunque riportandolo in ingresso si ha:
Svv  Svn + (2kTR + SinR2)/A2
La temperatura equivalente di rumore della rete è dunque:
Teq 
Svv
A Svn
R Sin
T



2 k Zin
A
2 k R
2 k A
che per un amplificatore privo di rumore si ridurrebbe a T/A = 0.3 K.
Con valori realistici degli spettri di rumore di un buon amplificatore
(1 nV/Hz, 10 fA/Hz, cioè Svn = 10-18 V2/Hz, Sin = 10-28 A2/Hz),
A = 102, R = 106 ohm e T =300 K si ha,
evidenziando i tre contributi:
Teq  (0.3 + 3 + 0.03) K
rumore 11
LA RESISTENZA DI RUMORE
Il rumore di una rete a una porta può essere caratterizzato anche in termini
di resistenza equivalente di rumore.
Una grandezza che evidentemente non si misura con l’ohmetro!
La resistenza di rumore di una rete con spettro Svv() è
Rn() = Svv()/(2kT)
assumendo di solito (per convenzione) T =300 K
Tale grandezza è generalmente una funzione della frequenza.
Per una rete passiva in equilibrio a 300 K, essa coincide evidentemente
con la parte reale dell’impedenza.
Nel caso delle reti a due porte questo tipo di rappresentazione è ancora
applicabile, non è sufficiente.
Dato che si hanno due generatori di rumore, alla resistenza di rumore (che
esprime il rumore di tensione e va disposta in serie alla porta d’ingresso)
occorre aggiungere una conduttanza di rumore, che rappresenta il rumore
di corrente e va disposta in parallelo alla porta d’ingresso.
E anche una impedenza (o ammettenza) di correlazione nel caso di
correlazione fra i due generatori.
rumore 12
CARATTERIZZAZIONE DEL RUMORE NELLE RETI A DUE PORTE
Calcoliamo lo spettro totale del rumore alla porta d’ingresso di una rete a
due porte. Dal quale si può ottenere immediatamente il rumore d’uscita
tenendo conto del guadagno, più generalmente della funzione di
trasferimento, della rete.
Nel calcolo che segue assumiamo che
 il rumore della rete sia rappresentato da due generatori di rumore, di
tensione e di corrente, con spettri Svv() e Sii(), collegati alla porta
d’ingresso
 che questi generatori non siano correlati
 e che la porta sia terminata su una sorgente d’impedenza
Zs(j) = Rs() + jXs() che si trovi alla temperatura Ts
Vn
Zs(j)
In
rete
priva di
rumore
Trascurando l’impedenza d’ingresso Zin(j) della rete
(senza perdita di generalità per quanto ci interessa dato che questa non
introduce rumore e che il suo effetto sullo spettro totale sarà solo quello di
attenuarlo secondo il fattore |1 + Zs/Zin|-2 ), si ottiene:
Stt() = Svv() + Sii()|Zs()|2 + 2kTs Re[Zs(j)] =
= Svv() + Sii() [Rs() + Xs()2] + 2kTs Rs()
rumore 13
Evidentemente il rumore è minimo, pari a quello del solo generatore di
tensione, quando l’impedenza della sorgente si annulla. Poi aumenta fino a
diventare proporzionale a |Zs()|2
Introduciamo la grandezza, chiamata impedenza di rumore
(nulla a che vedere con la resistenza di rumore vista prima)
che risulterà utile in quanto segue
Z n ( ) 
Svv ( )
Sii ( )
e che è reale dato che gli spettri sono reali.
IL FATTORE DI RUMORE
Le prestazioni di rumore di una rete a due porte, in particolare di un
amplificatore, sono generalmente basate sulla valutazione del rumore che
essa introduce “in più” rispetto al rumore termico della sorgente.
Che dunque non può essere una reattanza pura.
E che si assume convenzionalmente trovarsi alla temperatura fissa
To = 290 K
(cosa spesso assai poco significativa in pratica)
Una grandezza, in realtà una funzione della frequenza, molto significativa
allo scopo anzidetto, è il
fattore di rumore (cifra di rumore, noise factor) della rete,
che è definito in vari modi equivalenti, fra cui:
 rapporto fra la potenza del rumore totale e quella del solo rumore
termico della sorgente all’uscita della rete (o all’ingresso della rete, ma
a valle dei generatori di rumore, che è lo stesso)
 rapporto fra il rapporto segnale/rumore spettrale alla sorgente e quello
all’uscita della rete
rumore 14
Eseguendo il calcolo all’ingresso della rete (sempre nel caso semplificato
di assenza di correlazione fra i due generatori di rumore) si ha:
F() = Stt()/(2kToRs()) =
= 1 + [Svv() + Sii()(Rs()2 + Xs()2)]/(2kToRs())
Per una rete con caratteristiche di rumore date (spettri Svv() e Sii())
ha interesse individuare il campo dei valori dei parametri della
sorgente (Rs e Xs) per cui il fattore di rumore è sufficientemente basso e in
particolare i valori per cui tale grandezza è minima.
Quest’ultima condizione si determina uguagliando a zero le derivate del
fattore di rumore rispetto a Xs ed Rs, ottenendo così:
Xs = Xso = 0
Rs = Rso = (Svv/Sii)1/2 = Zn
per cui si ha
F = Fmin = 1 + (SvvSii)1/2 /kTo
Il fattore di rumore minimo è dunque indipendente dalle proprietà della
sorgente (a parte la temperatura standard di 290 K)
ed è tanto minore (cioè prossimo all’unità) quanto minore è il rapporto fra
l’energia di rumore della rete, cioè (SvvSii)1/2 (si tratta di joule)
e l’energia termica.
Il fattore di rumore si può esprimere in generale anche nella seguente
forma, assai significativa:
F = Fmin + [(Rs – Rso)2 + (Xs - Xso)2)]/(2kToRs)
cioè in funzione degli scostamenti dei parametri della sorgente da quelli
ottimali.
rumore 15
Considerando una sorgente puramente resistiva (Xs=0) e occupandosi
dell’andamento del fattore di rumore con la frequenza, si tracciano i
contorni di rumore nel piano frequenza, resistenza
cioè i luoghi dove il fattore di rumore (generalmente espresso in decibel)
assume valori costanti.
Questo permette di individuare immediatamente le regioni del piano dove
il fattore di rumore è inferiore a un valore dato (per esempio 3 dB cioè 2),
la cui estensione è un indice importante della versatilità di un
amplificatore.
resistenza
3 dB
1 dB
3 dB
frequenza
Per esempio il preamplificatore commerciale PAR 113, nella regione delle
frequenze attorno al kHz, presenta F  3dB per resistenze di sorgente fra
circa 10 k e 100 M.
In genere un limite a bassa frequenza è dato dal rumore 1/f.
Un limite ad alta frequenza è dato dalla diminuzione del guadagno
dell’amplificatore.
rumore 16
TEMPERATURA DI RUMORE
Meno usata, sebbene particolarmente significativa, è la caratterizzazione
del rumore di una rete a due porte in termini di temperatura di rumore
Tn. Che è definita come la temperatura a cui va portata la sorgente perchè
il rumore all’uscita della rete si raddoppi rispetto a quando la sorgente si
trova allo zero assoluto.
(ciò svincola dal riferimento alla temperatura di 290 K insito nella
definizione del fattore di rumore)
Si ricava la seguente relazione fra la temperatura di rumore e il fattore di
rumore:
Tn = To (F - 1)
In realtà spesso si considera come temperatura di rumore quella che in
effetti è la temperatura minima di rumore, cioè quella che si ottiene
quando la sorgente è ottimizzata (cioè Rs=Rso, Xs=Xso):
Tn min = To (Fmin - 1)
E allora si ha
Tn min 
Svv Sii
k
che mostra come la temperatura di rumore sia una grandezza fisicamente
più significativa di altre, in quanto rappresenta sostanzialmente l’energia di
fluttuazione all’ingresso della rete.
Si possono realizzare dispositivi con temperatura di rumore piccola a
piacere? No.
Heffner ha dimostrato, in base al principio di indeterminazione, che la
temperatura di rumore di qualsiasi oggetto ha il seguente limite inferiore:
Tn 
 ln( 2)
k
rumore 17
DISPOSITIVI A BASSO RUMORE
tabella indicativa delle prestazioni di rumore di alcuni dispositivi
(alla frequenza di 1 kHz)
dispositivo
transistore bipolare
transistore JFET
JFET raffreddato
operazionale OP27
DC-SQUID
Tn [K]
20
0.1 - 1
15 m
40
1-10 
Rso []
10 - 100 k
1M
1M
7k
In genere gli spettri di rumore dei vari dispositivi sono costanti in una
regione intermedia di frequenza, in cui dominano effetti a larga banda,
termici (rumore del canale dei FET e della resistenza di base dei BJT) e
shot (corrente di gate dei FET e correnti di giunzione nei BJT).
A bassa frequenza intervengono contributi 1/f (rumore di corrente nei BJT
e rumore di tensione dei FET). Ad alta frequenza il rumore riportato in
ingresso generalmente aumenta perchè diminuisce il guadagno, ma anche
per effetti di accoppiamenti capacitivi interni (come nei FET).
E’ spesso possibile ridurre il rumore dei dispositivi semplicemente
raffreddandoli, ma non al di sotto della temperatura alla quale smettono di
funzionare. Questa tecnica è poco utile con i BJT, il cui guadagno in
corrente diminuisce abbastanza rapidamente al calare della temperatura.
Più utile nel caso dei JFET, che hanno una temperatura ottimale di lavoro
fra 100 e 150 K.
rumore 18
PROGETTAZIONE A BASSO RUMORE
La chiave è la scelta del dispositivo d’ingresso, che determina le
prestazioni di rumore del circuito.
Queste non saranno mai migliori di quelle del dispositivo.
Il problema, casomai, è di non peggiorarle troppo.
La scelta del dispositivo è basata sulla regione di frequenza d’interesse e
soprattutto sui valori della resistenza di sorgente. Per esempio, transistori
bipolari per basse resistenze di sorgente, JFET per resistenze più alte.
Si noti che un dispositivo può essere adattato alla sorgente (noise
matching) per minimizzare il fattore di rumore (e la temperatura di
rumore) in vari modi.
 Usando un trasformatore (purchè questo non introduca rumore
apprezzabile, cioè abbia perdite bassissime, e sia ben schermato)
 Disponendo più dispositivi in parallelo. In tal caso il rumore d’ingresso
viene alterato: il rumore di tensione diminuisce e quello di corrente
aumenta. n dispositivi identici con spettri Svv ed Sii equivalgono a un
unico dispositivo con spettri Svv/n ed nSii e dunque con impedenza di
rumore n volte minore.
Il dispositivo va poi inserito in un circuito, in particolare polarizzandolo in
modo che presenti il minimo rumore (e che dissipi potenza tale da non
provocare aumenti di temperatura, con ovvie conseguenze sul rumore).
Il primo stadio dovrà poi avere guadagno sufficiente a rendere trascurabile
il contributo del rumore degli stadi successivi.
Queste esigenze di basso rumore conducono spesso a scelte abbastanza
diverse dall’usuale: resistori di polarizzazione di altissimo valore (10 G)
per non degradare il rumore di corrente, resistori di reazione serie di
bassissimo valore (1 ohm) per non degradare il rumore di tensione,
dispositivi polarizzati per correnti intense (da cui dipende il guadagno e il
rumore) ma tensioni molto basse per ridurre la dissipazione VI, ecc.
E attenzione ai condensatori di accoppiamento, perché le loro perdite
introducono rumore!
rumore 19
Un caso interessante: l’amplificatore di carica
Questa è la denominazione ( a rigore impropria) degli amplificatori usati
per misurare la carica elettrica rilasciata in un rivelatore da una particella o
da una radiazione ionizzante.
Si tratta infatti di convertitori carica-tensione.
Lo schema base è un amplificatore ad alto guadagno A (per esempio un
operazionale) controreazionato con un condensatore CF, il cui ingresso è
collegato al rivelatore.
Se questo produce un breve impulso di corrente, di carica totale Q,
la tensione d'uscita dell'amplificatore (invertente) si porta rapidamente alla
tensione: V = - Q/CF
che non dipende nè dalla capacità del rivelatore, nè dalla capacità
d’ingresso dell’amplificatore, nè da cavi e altre capacità parassite, se
queste restano ben inferiori a CF/A (effetto Miller).
Di solito non interessa un gradino, ma un impulso breve (di ampiezza
proporzionale a Q), in modo da poter osservare altri impulsi che si
susseguano con una certa cadenza. Per questo l’amplificatore di carica è
generalmente seguito da un formatore d’impulsi, che spesso ha funzione di
trasferimento H(s) = s/(1+s)2
La risoluzione in carica (e dunque in energia della particella) è limitata
evidentemente dal rumore dell’amplificatore. Si esprime generalmente in
unità di ENC (equivalent noise charge), in valore efficace (rms).
Se gli spettri di rumore dell’amplificatore sono bianchi nella banda di
osservazione (determinata dal formatore), allora si ha:
ENCeff
e

qe
Svn CT 2
S 
 in
8
8
dove CT è la capacità totale del nodo d’ingresso (inclusa CF).
rumore 20
SISTEMI MECCANICI
Nel 1951 Callen e Welton generalizzano la legge di Johnson-Nyquist sul
rumore termico al caso di un sistema fisico arbitrario, purchè lineare, per
cui sia definita una impedenza generalizzata come rapporto fra causa ed
effetto: teorema fluttuazione-dissipazione.
Il rumore (fluttuazione) viene così associato a qualsiasi dissipazione del
sistema. Lo spettro del rumore si calcola anche qui in base alla temperatura
e alla parte reale dell’impedenza (esprimendo gli spettri e le impedenze
nelle unità di misura appropriate).
In questo una guida preziosa è costituita dalle analogie, in particolare dalle
analogie di Maxwell fra sistemi elettrici e meccanici. La più usata di
queste stabilisce le seguenti corrispondenze
forza (newton)
spostamento (metri)
velocità (m/s)
massa (kg)
attrito (kg/s)
costante elastica (kg/s2)
tensione elettrica (volt)
carica elettrica (coulomb)
corrente elettrica (ampere)
induttanza (henry)
resistenza elettrica (ohm)
1/capacità elettrica (farad-1)
In tal modo l’impedenza meccanica Zm(j)si misura in unità di kg/s e lo
spettro del rumore di forza si esprime come
Sff() = 2 k T Re[Zm(j) 
in unità di N2/Hz
Ricordiamo che esistono altre analogie. Una di queste riguarda i sistemi
termici, facendo corrispondere la temperatura al potenziale elettrico, il
flusso di calore alla corrente elettrica, la capacità termica alla capacità
elettrica, ecc.
rumore 21
ESEMPIO
Calcolo del rumore di velocità nell’oscillatore armonico smorzato
m x(t )  R x (t )  K x(t )  f (t )
Per calcolare il rumore introduciamo il generatore di rumore di forza,
associato all’elemento dissipativo secondo la formula:
Sff() = 2 k T R
Lo spettro del rumore di velocità si ottiene moltiplicando Sff per il modulo
quadro della funzione di trasferimento fra forza e velocità
H(j) = (jm + R + K/j)-1
con pulsazione di risonanza o=(K/m)1/2, fattore di merito Q=om/R e
guadagno massimo H(j) =1/R.
Si ha pertanto
S xx  S ff | H ( j ) |2
e quindi lo spettro del rumore di velocità è uno spettro risonante con picco
Sff/R2 = 2kT/R a o
Poiché la banda di rumore è Bn = o/2Q, la varianza della velocità è
2 = Sff A2 Bn = 2kTR (1/R2) (R/2m) = kT/m
in accordo con il principio di equipartizione
(m2 /2 = kT/2)
rumore 22
IMPIEGHI UTILI DEL RUMORE
(M.S.Gupta, Proc.IEEE, 996, 1975)
1) Misure di costanti fisiche:
costante di Boltzmann dal rumore termico
carica dell’elettrone dal rumore shot
2) Misure di temperatura (Johnson noise termometry)
anche a temperature relativamente basse, usando strumentazione
con temperatura di rumore sufficientemente bassa (con SQUID si è
ottenuta una temperatura di rumore di 1 mK)
3) Misure di parametri di dispositivi a semiconduttori
4) Misure elettriche: resistenza elettrica, perdite di condensatori,
larghezza di banda di circuiti, funzioni di trasferimento di sistemi
(come segnale di eccitazione)
5) Valutazione dell’affidabilità di dispositivi
6) Strumento concettuale:
scatola nera di Slepian, motore di Penfield, ecc.
R2 = LC
R
L
R
R
C
Ma vediamo brevemente altre due applicazioni molto interessanti
rumore 23
DITHER Introdotto da Bennet (Bell Telephone) nel 1948:
consiste nel sommare rumore a un segnale quantizzato per migliorarne la
qualità, più precisamente la risoluzione ottenibile.
Consideriamo un segnale binario, per esempio la spia luminosa che
segnala che il serbatoio dell’auto è in riserva. Se l’auto è ferma, la luce è
permanentemente accesa oppure spenta. Se l’auto è in moto, può darsi che
la luce si accenda e spenga continuamente. Integrando a occhio si può
stabilire se siamo lontani dalla riserva (sempre spenta); se siamo prossimi a
entrare in riserva (poco accesa e molto spenta); se siamo già entrati in
riserva, ma c’è ancora carburante (molto accesa e poco spenta); se siamo
pesantemente in riserva (sempre accesa).
Questo principio è sfruttato nell’elaborazione delle immagini:
anche usando dati a bassa risoluzione (pixel codificati con pochi bit) si
possono ottenere immagini in cui la scala dei grigi è tale da non avvertire
più l’effetto di quantizzazione.
E anche nei convertitori A/D del tipo delta-sigma, nei quali la conversione
è affidata a un comparatore (1 bit), ma ripetuta un grandissimo numero di
volte e seguita da integrazione del risultato per ottenere una risoluzione
finale corrispondente ad un numero di bit anche assai alto (16-20).
RISONANZA STOCASTICA
Concetto introdotto da Benzi nel 1981, che ha trovato applicazioni in varie
scienze ed è trattato ampiamente in un recente lavoro di rassegna (Rev.
Mod. Phys. gennaio 1998)
Una particella, fortemente smorzata e soggetta a fluttuazioni, si trova in un
potenziale simmetrico a doppia buca: per metà del tempo si troverà in uno
stato, per metà nell’altro.
Che succede in presenza di una forza periodica, anche debolissima (cioè di
per sè largamente insufficiente a superare la barriera? I salti fra l’uno e
l’altro stato risultano sincronizzati, con un effetto di forte amplificazione
della forza.
rumore 24
Bibliografia
L.E. Franks, Signal theory, Prentice Hall, 1969
A. Papoulis, Probability, Random Variables, and Stochastic Processes,
McGraw Hill, 1991
J.S. Bendat, A.G. Piersol, Random Data – Analysis and Measurement
Procedures, Wiley, 1986
A.D. Whalen, Detection of signals in noise, Academic Press, 1971
Electrical Noise: Fundamentals & Sources, a cura di M. S. Gupta, IEEE
Press, 1977 (raccolta di lavori classici e bibliografia)
A. Van der Ziel, History of Noise Research, in Advances in Electronics
and Electron Physics, vol. 50, pp.351-409.
Selected papers on noise and stochastic processes, a cura di N. Wax,
Dover, 1954
Selected papers on noise in circuits and systems, a cura di M. S. Gupta,
IEEE Press, 1988
G.V. Pallottino, Appunti di elettronica, parte IX, Dipartimento di Fisica
della Sapienza
http://www.phys.uniroma1.it/DipWeb/web_disp/d2/dispense/pallottino/pallo9.pdf