Capitolo 4
Sistema ottico
4.1
Introduzione
Nel processo di formazione dell’immagine, il sistema ottico genera in un piano (il piano
immagine) l’immagine bidimensionale degli oggetti 3D del mondo la cui superficie è normalmente illuminata da luce propria e dalla luce dell’ambiente.
Il sistema ottico di un qualunque sistema di acquisizione delle immagini (macchine fotografiche, telecamera, ecc.) caratterizza fortemente la qualità dell’immagine generata, in
termini di:
• risoluzione geometrica capacità di riprodurre dettagli geometrici degli oggetti
• proiezione geometrica modalità di propagazione dei raggi di luce incidenti il sistema
ottico
• intensità di luce proiettata
• nitidezza dell’immagine.
I raggi di luce provenienti dagli oggetti nella scena attraversano il sistema ottico, il
quale, modifica in modo adeguato il loro cammino ottico. Infine, generano l’immagine della
scena proiettata nel piano immagine perpendicolare all’asse ottico. Il processo di formazione
dell’immagine è schematizzato in figura 6.1.
Dal sistema ottico, la superficie visibile degli oggetti può essere vista come decomposta
in superfici elementari S che si comportano come tante piccole sorgenti di luce ciascuna delle
quali emette onde sferiche elettromagnetiche che propagano la luce radialmente in tutte le
direzioni. In questo scenario, alcuni raggi di luce emergenti da un elemento di superficie S
Figura 4.1: Sistema ottico per la formazione dell’immagine
87
88
CAPITOLO 4. SISTEMA OTTICO
dell’oggetto, colpiscono il sistema ottico, il quale li converge in un punto P noto come punto
focale del fascio di raggi di luce emergenti dal punto S dell’oggetto.
Un sistema ottico con questa caratteristica è detto di essere stigmatico per i due punti
S e P, e l’energia luminosa che raggiunge P genera una perfetta immagine del punto S. La
luce proveniente da altri punti S dell’oggetto possono produrre l’immagine di S anche non
perfetta, ossia il sistema ottico può convergere raggi di luce risultando non completamente
a fuoco e generando intorno a P uno spot luminoso.
Figura 4.2: Sezioni trasversali di lenti semplici sferiche. La prima interfaccia da sinistra ha
raggio di curvatura R1 , mentre quella destra R2 .
Figura 4.3: Pupilla e diaframma in un sistema ottico con tre lenti semplici sferiche.
In questo schema di formazione dell’immagine, non si considerano alcuni fenomeni di
propagazione della luce come la riflessione, dispersione, assorbimento che possono attenuare
l’intensità del punto immagine P, ed il fenomeno della diffrazione dovuto alla propagazione
ondulatoria della luce invece della propagazione con raggi rettilinei assunta nello schema
4.2. LENTI SOTTILI
89
precedente. Gli effetti della diffrazione sono trascurabili quando la lunghezza d’onda della
luce considerata è molto piccola rispetto alle dimensioni del sistema ottico. Nel contesto
dell’ottica geometrica la lunghezza d’onda λ si assume con valore zero e conseguentemente
si considerano totalmente trascurabili i fenomeni della diffrazione e della interferenza.
In analogia al sistema visivo umano che utilizza una coppia di lenti (i due cristallini),
anche i sistemi ottici artificiali impiegano gruppi di lenti opportunamente sagomate (con
superficie sferica) per focalizzare correttamente l’immagine acquisita.
4.2
Lenti sottili
Un sistema ottico che consiste solo di una lente, ossia presenta un elemento con due superfici
di rifrazione è chiamato lente semplice. Quando gli elementi ottici sono più di uno si parla di
sistema ottico con lenti composte. Una lente è definita lente sottile quando lo spessore della
lente è trascurabile. La figura 6.2 mostra lenti semplici convesse e concave e la figura 6.3
mostra un sistema ottico composto di tre elementi. Generalmente la sagoma delle lenti sono
sferiche e caratterizzati dal raggio di curvatura R1 ed R2 e dall’asse ottico che è simmetrico
rispetto alle due interfacce della lente. Si definisce interfaccia della lente la superficie di
separazione tra i due mezzi di propagazione della luce che, nel caso di una lente sottile
risultano aria-vetro oppure vetro-aria, e nel caso di lente composta si aggiungono anche le
interfacce vetro-vetro.
Le lenti convesse (o convergenti o positive) hanno lo spessore più grande in corrispondenza dell’asse ottico e tendono a decrescere il raggio di curvatura dei raggi di luce incidente,
ossia tendono a far convergere i raggi luminosi che la attraversano assumendo che l’indice di
rifrazione della stessa lente sia più grande di quello dell’aria dove generalmente è immersa
(n2 >n1 ).
Le lenti concave (o divergenti oppure negative), al contrario, hanno uno spessore minimo
sull’asse ottico e tendono a far divergere i raggi luminosi che l’attraversano. Le lenti concave
hanno la funzione di modificare la forma di un fascio di luce che li attraversa in modo controllato sulla base dei suoi parametri caratteristici (asse ottico, raggi di curvatura e sagoma
della lente). Una buona lente deve convergere la luce proveniente dagli oggetti generando
un’immagine nitida. Normalmente l’immagine formatasi, presenta delle deformazioni ed
errori causati da alcuni difetti delle lenti, noti come aberrazioni, dovuti per esempio alla
non sfericità o imperfetta simmetria della lente. Tali aberrazioni possono essere controllate correggendo adeguatamente le lenti, mentre rimangono quelli dovuti al fenomeno della
diffrazione.
θr
θi
A
li
lo
h
S
V
R
p
ϕ
θi
P
q
n2
n1
Figura 4.4: Rifrazione su un’interfaccia sferica.
Vediamo ora cosa accade (vedi figura 6.4) quando un raggio di luce proveniente dal
90
CAPITOLO 4. SISTEMA OTTICO
Figura 4.5: Raggi incidenti con lo stesso angolo.
punto S dell’oggetto colpisce la superficie sferica della lente che ha un raggio di curvatura
R e centrata in C.
Sia A il punto di incidenza relativo al raggio SA che viene rifratto (n2 > n1 ) intersecando
in P l’asse ottico. Per avere in P una immagine nitida di S ogni raggio di luce emesso da S
deve convergere in P nello stesso intervallo di tempo come proposto da Huygens, oppure per
il principio di Fermat applicato alla rifrazione, qualunque raggio proveniente da S esegue
un cammino ottico più corto per raggiungere P. Se S è immerso in un mezzo con indice di
rifrazione n1 e P in un mezzo più denso con indice di rifrazione n2 (ossia n2 > n1 ) si ha la
seguente relazione:
lo n1 + li n2 = pn1 + qn2
(4.1)
dove p è la distanza del punto S (oggetto) dal vertice V, q è la distanza da V del punto
P (l’immagine di S), l 0 è la lunghezza del segmento SA , ed l i è la lunghezza del segmento
AP .
La figura 6.4 evidenzia come i raggi che entrano in un mezzo con più alto indice di
rifrazione si rifrangono verso la normale della superficie incidente e verso l’asse ottico. Si
assume anche che nello stesso punto P converge ogni altro raggio luminoso incidente, avente
lo stesso angolo θi come mostrato in figura 6.5.
L’asse ottico è dato da SP ed i punti S e P sono chiamati punti coniugati ossia anche
P può diventare sorgente e la sua immagine diventa S. In generale, dato un sistema ottico
si chiamano punti coniugati il punto oggetto (in questo caso S) ed il corrispondente punto
immagine (nell’esempio il punto P ) dato dal sistema ottico.
Dal punto di vista fisico la (4.1) si spiega come segue. La luce proveniente dall’oggetto
S attraversando la lente che è un materiale più denso dell’aria, viaggia con velocità minore
rispetto a quando viaggiava nell’aria. Quando da S i raggi di luce simultaneamente passano
dal vertice V e dal punto A viaggiando nello stesso mezzo n1 , si verifica che arriva prima
(con velocità c/n1 ) il raggio in V propagandosi poi con una minore velocità c/n2 nel mezzo
più denso (ricordiamo che n2 > n1 ). Il raggio che arriva in A invece, percorre nello stesso
tempo un cammino più lungo (lo + li > p + q) ma convergendo in P nello stesso tempo.
Definiti i valori di p e q, la relazione (4.1) diventa:
lo n1 + li n2 = costante = cammino ottico stazionario
(4.2)
Si può concludere che se una sorgente puntiforme è posizionata nel punto S, sull’asse
ottico di una lente, i raggi di luce convergono nel punto coniugato P ottenendo una immagine nitida (a fuoco) della sorgente S che si può osservare ponendo in P uno schermo
perpendicolare all’asse ottico della lente convessa. L’immagine della sorgente S ottenuta è
chiamata immagine reale. Se la sorgente è considerata localizzata all’infinito, i raggi incidenti su una lente concava arrivano paralleli ed emergono divergendo. Tali raggi appaiono
provenienti dal punto P ma non si osserva nessuna immagine nitida su uno schermo posto
4.2. LENTI SOTTILI
91
F2
F1
a)
F2
b)
Figura 4.6: a) Lente doppia iperbolica e b) lente piana concava iperbolica.
in P . In questo caso si parla di immagine virtuale analogamente all’immagine generata da
uno specchio piano. La distanza q tra l’immagine virtuale in P (che appare alla sinistra del
vertice V ) ed il vertice V risulterà negativa (figura 6.4).
Ritornando al processo di rifrazione della luce incidente sulla lente sferica, considerando
il lato vicino alla sorgente S (vedi figura 6.4), possiamo affermare che tutti i raggi con lo
stesso angolo di incidenza θi convergono in P avendo lo stesso cammino ottico. Se il punto
di incidenza A si sposta verso V assumendo pertanto valori di ϕ molto piccoli con l 0 ≈ p
ed l i ≈ q, si dimostra, con buona approssimazione, valida la seguente relazione dei punti
coniugati S e P :
n1
n2
n2 − n1
+
=
p
q
R
(4.3)
dove R è il raggio di curvatura della lente del lato vicino alla sorgente. Questa relazione
risulta valida per raggi poco inclinati rispetto all’asse ottico e sono chiamati raggi parassiali
che generano normalmente una immagine nitida in P alla distanza q. Analizziamo tre casi
speciali.
Nel primo caso (vedi figura 6.7a), l’immagine si forma all’infinito ossia q = ∞ e
dalla equazione (4.3) considerato che il termine n∞2 si annulla, si ricava la distanza singolare
dell’oggetto chiamata lunghezza focale dell’oggetto f0 risultando:
f0 = p =
n1
R
n2 − n1
(4.4)
ed il punto S è chiamato primo fuoco o fuoco dell’oggetto.
Nel secondo caso (vedi figura 6.7b), l’oggetto si considera all’infinito. Nella equazione
(4.3) il primo termine n∞1 si annulla e l’immagine si forma in P alla distanza chiamata
lunghezza focale dell’immagine f i data da:
fi = q =
n2
R
n2 − n1
(4.5)
92
CAPITOLO 4. SISTEMA OTTICO
Figura 4.7:
Figura 4.8: Rifrazione su una interfaccia sferica.
ed il punto P sull’asse ottico è chiamato secondo fuoco o fuoco dell’immagine. Analogamente si ha per l’immagine virtuale (i raggi divergono dal fuoco dell’immagine come evidenziato in figura 6.7c) e per l’oggetto virtuale dove i raggi convergono verso il fuoco dell’oggetto
(vedi figura 6.7d). L’oggetto virtuale si forma alla destra del vertice V, la distanza p diventa negativa e l’immagine virtuale si forma alla sinistra di V con raggio R negativo come
richiesto dalla (4.4) con la distanza focale f0 negativa.
Nel terzo caso, se si assume p molto grande, per un fissato valore costante di n2 − n1 /R
per la (4.3) risulterebbe associato un valore di q molto piccolo. Se p decresce, la distanza q
aumenta, ossia l’immagine P di S si allontana dal vertice V (θi e θt aumentano, vedi figura
6.4), fino a quando p diventa uguale ad f 0 ed fi = ∞. In questo caso n1 /p = (n2 − n1 )/R e
conseguentemente, se p diventa ancora più piccolo il fuoco dell’immagine si forma a sinistra
di V con il valore di q negativo e con la (4.3) che risulterebbe ancora valida (vedi figura 6.8).
I punti coniugati per una lente convessa con indice di rifrazione nl immersa nell’aria che
ha indice di rifrazione na (con nl > na ) possono essere localizzati considerando ancora valida
l’equazione (4.3). In figura 6.9 è visualizzato il processo di rifrazione quando un raggio
attraversa entrambe le due interfacce della lente sferica. Un raggio incidente la prima faccia
della lente viene rifratto entrando nella lente ed inclinato verso la normale alla superficie
della lente nel punto di incidenza, e quando emerge dalla seconda faccia subisce un ulteriore
rifrazione, e giacché nl > na, si propaga in modo inclinato verso l’asse ottico allontanandosi
dalla normale alla seconda faccia.
Nell’ipotesi di raggi parassiali che attraversano la prima faccia della lente della sorgente
S localizzata alla distanza p1 dal vertice V1 , si forma l’immagine in P1 alla distanza q1 da
V1 e la relazione dei punti coniugati diventa:
nl
nl − na
na
+
=
p1
q1
R1
(4.6)
4.2. LENTI SOTTILI
93
P1
P
C2
S
nl
na
nl
R2
na
V1
C1
C2
V2 C1
R
1
na
na
d
p1
q2
q1
P2
Figura 4.9: Rifrazione in una lente sferica sottile e geometria dei punti coniugati.
La seconda superficie vede i raggi (propagandosi nella lente con indice di rifrazione nl )
provenienti da P1 , che lo considera come un oggetto alla distanza p2 dal vertice V2 , formando
l’immagine in P alla distanza q2 . Inoltre, i raggi che arrivano sulla seconda superficie sono
immersi nel mezzo con indice di rifrazione n l , e lo spazio oggetto per questa superficie
che contiene P1 ha indice di rifrazione n l . Infatti, i raggi luminosi provenienti da P1 sono
rettilinei senza subire rifrazione come se la prima superficie della lente non esistesse. In tale
contesto la relazione dei punti coniugati ricordando la (4.3) diventa:
nl
na
na − nl
+
=
p2
q2
R2
(4.7)
considerando p2 = -q1 + d, R2 <0 e nl >na (vedi figura 6.9). Si osserva che l’equazione (4.7)
rimane valida considerando che la distanza q1 risulta negativa dato che P1 si trova a sinistra
di V1. Combinando la (4.6) e (4.7) si ha la relazione dei punti coniugati per una lente sottile:
na
nl
+
= (nl − na )
p1
q2
µ
1
1
−
R1
R2
¶
+
nl d
(q1 − d) q1
(4.8)
Per una lente sottile, con lo spessore della lente trascurabile (d→0), l’ultimo termine della
(4.8) è trascurabile e considerando l’indice di rifrazione dell’aria na = 1, l’equazione dei
punti coniugati per la lente sottile diventa:
1 1
+ = (nl − 1)
p q
µ
1
1
−
R1
R2
¶
(4.9)
Per una lente sottile i vertici V1 e V2 possono coincidere con V ossia il centro della lente e
le distanze p e q sono considerate calcolate rispetto al centro V della lente. Ricordiamo che
anche per una lente sottile se l’oggetto è all’infinito l’immagine è focalizzata alla distanza fi
ed analogamente se l’immagine è focalizzata all’infinito il fuoco dell’oggetto è alla distanza f0
che per l’equazione precedente risulta fi = f0 e pertanto possiamo definire un’unica distanza
focale (per l’immagine e per l’oggetto) come:
1
= (nl − 1)
f
µ
1
1
−
R1
R2
¶
(4.10)
La relazione dei punti coniugati per la lente sottile diventa:
1 1
1
+ =
p q
f
nota anche come la formula della lente Gaussiana.
(4.11)
94
CAPITOLO 4. SISTEMA OTTICO
4.2.1
Esempio
Utilizziamo l’equazione (4.10) per calcolare la lunghezza focale di una lente avente una faccia
piana (ossia con R1 = ∞) e l’altra faccia sferica con raggio R2 di -50mm (vedi figura 6.2).
Sia l’indice di rifrazione nl uguale a 1.5 applicando la (4.10) la lente risulterebbe avere una
lunghezza focale di 100mm considerando la luce entrante dalla faccia piana e la lente immersa
nell’aria (na ∼
= 1). La stessa focale si avrebbe se la prima faccia della lente risultasse sferica
(ossia R1 = 50 mm) e la seconda faccia fosse piana. Si può inoltre osservare che ponendo
un oggetto a diverse distanze 600, 200, 150, 100 e 50 con la (2) si calcola che l’immagine si
forma alla distanza di
µ
¶
µ
¶
1
1
1
1
q = 1/
−
= 1/
−
= 120mm
(4.12)
f
p
100 600
Per le altre distanze p le immagini si formano rispettivamente alle seguenti distanze 200mm,
300mm, ∞ e 100mm. Quando p = ∞ si ha che q = f. All’avvicinarsi di S verso la lente, ossia
p diminuisce, il valore di q aumenta positivamente fino a quando p = f e conseguentemente
q risulta negativo.
Si può sperimentare direttamente con una lente convessa ed avvicinando una lampadina
piccola accesa verso di essa, quindi ponendo un foglio di carta bianca nel piano di formazione
dell’immagine si proietterà la lampadina in modo chiaro o sfocato in relazione alla sua
distanza dalla lente. Nel caso di p < f l’immagine svanisce ossia si forma una immagine
virtuale.
Formalizziamo ora il piano focale dove si forma l’immagine. Nell’ipotesi della teoria
parassiale, raggi di luce paralleli incidenti sulla superficie di una lente sottile convessa (R1 > 0
ed R2 < 0, con nl > na ) sono rifratti e convergono in un unico punto di un piano perpendicolare all’asse ottico della lente e passante per il fuoco dell’immagine. Tale piano si chiama
piano focale di formazione dell’immagine. Fasci di luce paralleli all’asse ottico sono rifratti
e convergono nel punto focale, mentre fasci paralleli leggermente inclinati rispetto all’asse
ottico convergono in un punto del piano focale ottenuto dall’intersezione del raggio non deviato (ossia passante per il centro della lente sottile) ed un raggio deviato. Le dimensioni
dell’immagine prodotta da una lente sottile sono determinate conoscendo la posizione dei
punti focali della lente e considerando i raggi che soddisfano ad alcune proprietà:
1. due raggi passando attraverso un punto focale devono emergere dalla lente paralleli
all’asse ottico (figura 6.10a);
2. viceversa raggi parassiali paralleli incidenti la lente convergono nel punto focale (figura
6.10b);
3. il raggio incidente passante per il centro della lente emerge senza subire nessuna
deviazione (figura 6.10c);
4. due raggi sono sufficienti a localizzare l’immagine P di un punto S dell’oggetto (figura
6.11).
Le informazioni di orientazione, localizzazione e dimensione dell’immagine rispetto ai
parametri noti dalla lente (distanza focale f ) e dell’oggetto (distanza p dalla lente e altezza
y0 rispetto all’asse ottico) sono facilmente determinati osservando (vedi figura 6.11) che i
triangoli AOFi e PQFi sono simili e consegue la relazione seguente:
f
y0
=
|yi |
(q − f )
Dalla similitudine dei triangoli SRO e PQO segue la relazione:
y0
p
=
|yi |
q
(4.13)
(4.14)
4.2. LENTI SOTTILI
95
Figura 4.10: Cammino ottico di un raggio luminoso attraverso una lente positiva e negativa.
Figura 4.11: Posizione dell’oggetto e dell’immagine per una lente sottile.
Dalle relazioni (4.13) e (4.14) si ricava facilmente l’equazione gaussiana per le lenti sottili:
1
1 1
= +
f
p q
(4.15)
Ed infine, dalla similitudine dei triangoli SRF0 e BOF0 si ottiene la relazione:
f
|yi |
=
(p − f )
y0
(4.16)
che combinando con la (4.13) e considerando le distanze Z e z dai fuochi, possiamo derivare
le seguente relazione:
Z · z = f2
(4.17)
dalla quale è possibile determinare la distanza del piano focale z = f 2 /Z.
L’equazione (4.17) è la formulazione di Newton dell’equazione fondamentale delle lenti.
Per convenzione si assumono valori positivi di Z se l’oggetto è a sinistra del fuoco F0 , mentre z è considerato positivo se l’immagine è formata alla destra di Fi (vedi figura 6.11). Va
ricordato pertanto, che oggetto ed immagine devono trovarsi ai lati opposti dei rispettivi
fuochi, affinché le distanze Z e z risultino positive. L’inversione dell’immagine (ossia l’immagine capovolta) è considerata valutando il segno di yi , che se negativo, significa oggetto
capovolto nell’immagine.
Il rapporto tra le distanze verticali del punto immagine P e del punto oggetto S rispetto
all’asse ottico, rispettivamente indicato con P Q ed RS , è chiamato fattore di ingrandimento
M introdotto dal sistema ottico (vedi figura 6.11), ossia:
M=
q
PQ
=−
p
SR
(4.18)
Il segno meno indica che l’immagine è stata invertita. Le distanze p e q sono sempre
entrambe positive per oggetti e immagini reali. Questo implica che l’immagine formata da
una lente sottile è sempre invertita.
96
CAPITOLO 4. SISTEMA OTTICO
Figura 4.12: Formazione dell’immagine con una lente sottile convessa.
Considerando equazioni le equazioni (4.13), (4.15), (4.16) e (4.17) si possono derivare
alcune relazioni utili all’analisi del sistema ottico:
M =−
z
f
f
Z
M
f =p
M +1
M =−
q = f · (M + 1)
p=f
(M + 1)
M
(4.19)
(4.20)
(4.21)
(4.22)
(4.23)
Il valore di M assume valore 1 (nessun ingrandimento) quando l’oggetto e l’immagine hanno
uguale distanza e dall’equazione (4.15) dei punti coniugati si osserva che questo accade
quando p = q = 2f. In questa configurazione l’oggetto e l’immagine si trovano ad una
distanza di 4f che è la più vicina possibile. In figura 6.12 sono mostrate le altre possibili
configurazioni variando la distanza dell’oggetto rispetto alla lente sottile. Si osserva che
avvicinando l’oggetto alla lente si produce un’immagine reale che si allontana da essa, e
quando si avvicina alla lente con distanza inferiore a f l’immagine prodotta risulta:
• ingrandita, dalla(4.20) con |Z| < f ⇒ M > 1;
• non invertita,dalla (4.20) con Z < 0 ⇒ M positivo;
• virtuale,dalla (4.19) con M > 0 si ha che z < 0.
Quando l’oggetto si allontana dalla lente (∞ > Z > 2f ) si ottiene un’immagine reale, invertita, rimpicciolita (M < 1) e localizzata alla distanza z nell’intervallo (f, 2f ) . La situazione
singolare con la produzione di nessuna immagine (z = ∞) si verifica con l’oggetto localizzato
alla distanza focale (Z = f ).
Nelle realtà, non esiste una lente sottile ma una lente convessa con uno spessore molto
piccolo che si comporta otticamente come una lente sottile. I sistemi ottici commerciali si
compongono invece con un gruppo assemblato di lenti convesse e concave.
Un sistema ottico con N lenti aventi focali f1 , f2 , . . . , fN può essere visto come tante lenti
a contatto che costituiscono un’unica lente spessa e con lunghezza focale effettiva f tale che
soddisfa la seguente relazione:
1
1
1
1
=
+
+ ··· +
.
f
f1
f2
fN
(4.24)
4.3. ABERRAZIONI OTTICHE
97
Figura 4.13: Sistema ottico composto di lente positiva (convessa) e di lente negativa
(concava).
4.3
Aberrazioni ottiche
I sistemi ottici realizzati con un gruppo di lenti producono immagini non perfette in quanto
la luce si propaga attraverso le lenti spesse violando le leggi di propagazione (riflessione e
rifrazione) della luce, assunte per una lente sottile con la teoria parassiale.
Per avere una misura quantitativa di come il sistema ottico introduce delle deformazioni
nell’immagine si analizzano tali difetti che in ottica sono chiamate aberrazioni ottiche. Si
hanno pertanto:
• aberrazioni monocromatiche, che si verificano per qualunque tipo di luce (colore o singola frequenza) e producono immagini poco chiare per effetto delle aberrazioni sferiche,
l’astigmatismo, il coma, la curvatura del campo, la distorsione;
• aberrazioni cromatiche sono dovute al diverso indice di rifrazione delle lenti rispetto
alle diverse radiazioni monocromatiche che le attraversano (figura 6.15a).
La distanza focale di una lente è funzione della lunghezza d’onda della luce incidente che
viene rifratta dagli elementi ottici, formando tante immagini diverse di una stessa sorgente
luminosa per quante sono le componenti cromatiche dominanti di cui è composta. Questa
aberrazione si elimina con componenti ottici acromatici.
L’aberrazione sferica si ha nei sistemi ottici con simmetria circolare (specchi sferici, lenti
normali, ecc.) per i quali i raggi provenuti dalle zone periferiche e dalle zone centrali di una
lente o di uno specchio (detta zona parassiale ossia vicina all’asse della lente) non convergono
in un punto, ma il loro inviluppo presenta una figura di rivoluzione chiamato caustica di
rifrazione per lenti convesse e caustica di riflessione per lenti concave. Per attenuare gli
effetti dell’aberrazione sferica normalmente si diaframma adeguatamente il sistema ottico
(figura 6.15b).
L’aberrazione di astigmatismo si ottiene quando l’oggetto puntiforme (o sorgente) non
giace sull’asse ottico. L’oggetto ed il sistema ottico non hanno una simmetria rotazionale
rispetto all’asse ottico, ne consegue che anche il fascio emergente del sistema ottico non è più
conico, ma presenta un solo piano di simmetria rappresentato dall’oggetto e dall’asse ottico.
Le sezioni del fascio non sono più circolari, ma si presentano ellittiche con dimensioni sempre
più piccole man mano che ci si allontana dal sistema ottico sino a ridursi ad un segmento.
Questo fenomeno si evidenzia restringendo adeguatamente il diaframma circolare. Una volta
formatosi il segmento, il fascio continua ad aumentare di dimensione e la sua forma ellittica
si allarga in modo indefinito (figura 6.15c).
L’aberrazione del coma (una forma particolare di astigmatismo) si ha quando l’oggetto
ed il diaframma sono spostati rispetto all’asse ottico (figura 6.15da). Le sezioni del fascio
emergente non sono di forma ellittica ma assumono la configurazione di una cometa 1 (figura
6.15db).
L’aberrazione di curvatura del campo generalizza l’aberrazione di astigmatismo. Si evidenzia disponendo un oggetto non più puntiforme, ma piano, e per ogni punto dell’oggetto
1 Il
termine coma deriva dal nome cometa.
98
CAPITOLO 4. SISTEMA OTTICO
Figura 4.14: Aberrazioni ottiche.
si hanno due linee focali. Le due superfici inviluppate corrispondenti sono ricurve e costituiscono i luoghi delle immagini sfumate corrispondenti ai punti dell’oggetto. Il nome di
curvatura di campo deriva dalla curvatura di queste superfici che non sono piane. Per ridurre
questa aberrazione si tenta di far coincidere le superfici curve su un piano (figura 6.15c).
L’aberrazione di distorsione si genera nei sistemi ottici per i quali l’ingrandimento trasversale lineare non è costante, ma può variare in funzione della distanza dell’oggetto dall’asse
ottico. Per esempio, per un segmento rettilineo (non passante per l’asse ottico) l’immagine
prodotta è distorta poiché ogni elemento del segmento subisce diversi ingrandimenti. Si
hanno distorsioni a cuscinetto quando l’ingrandimento aumenta col crescere della distanza dell’oggetto dall’asse, viceversa l’ingrandimento diminuisce quando l’oggetto si avvicina
all’asse ottico generando la distorsione a barile.
L’aberrazione cromatica extra-assiale si ha quando l’ingrandimento trasversale lineare
varia anche in funzione della lunghezza d’onda della luce utilizzata.
4.3.1
Parametri di un sistema ottico
I primi due parametri, già discussi, che caratterizzano un sistema ottico sono la lunghezza
focale f ed il diametro D che determina la quantità massima di luce che può raggiungere il
piano immagine.
La quantità di luce che colpisce il piano immagine, definita come energia luminosa per
unità di area per unità di tempo (densità di flusso luminoso) è inversamente proporzionale
all’area dell’immagine.
I parametri diametro D e focale f di una lente ne caratterizzano il suo campo di vista.
In altre parole determinano l’angolo di campo di una lente delimitando il cono di vista del
mondo 3D che può essere osservabile (figura 4.15). Per un sistema ottico di diametro D,
4.3. ABERRAZIONI OTTICHE
99
Figura 4.15:
l’energia luminosa è proporzionale al quadrato di D. L’area immagine varia anche con il
quadrato della dimensione trasversale che risulta per l’equazione (4.18) proporzionale ad f2 .
Conseguentemente nel piano immagine la densità di flusso luminoso varia in funzione di (D/
f)2 .
Il rapporto D/f tra il diametro D e la focale f è chiamato apertura relativa ed il suo
inverso è chiamato apertura del diaframma a, dato da:
a=
f
D
Nella letteratura anglosassone è indicato anche con il simbolo f/# (che si legge f - number).
Il diaframma è un meccanismo per limitare la quantità di luce che attraversa il sistema ottico
per raggiungere il piano immagine dove si trovano gli elementi sensibili (fotorecettori di una
telecamera CCD oppure emulsione fotografica). Il diaframma si compone di tante lamelle
incernierate su un anello che in modo sincronizzato ruotano facendo variare le dimensioni
dell’apertura circolare limitando in questo modo il passaggio della luce.
L’apertura a varia da un valore minimo quando il diaframma è completamente aperto
(corrispondente al diametro D dell’ottica) ad un valore massimo ottenuto diaframmando
al massimo ossia riducendo al minimo il diametro del diaframma.√La scala di valori dell’apertura a varia secondo una progressione geometrica di ragione 2 il cui primo valore è
1 e prosegue con i valori 1.4, 2, 2.8, 4, 5.6, 8, 11, 16, 32, 45, 60, . . .
Questa scala di valori è stata standardizzata a livello internazionale e tutti i sistemi ottici
commerciali hanno le stesse scale di diaframma come sopra indicato. Tutti gli obiettivi
in commercio riportano sugli anelli esterni incisa la grandezza focale (esempio f=50mm)
espressa in millimetri ed il valore della apertura massima dell’obiettivo stesso (per esempio
a=2) che definisce la sua luminosità. Gli obiettivi più costosi a parità di focale hanno una
maggiore luminosità ossia l’apertura massima con valore di a molto piccolo.
La scala è motivata dal fatto che tra un valore dell’apertura e quello successivo si dovrebbe
poter diaframmare per far passare una quantità di luce dimezzata rispetto al valore corrente
(esempio a=2√
). Questo si ottiene riducendo il diametro del foro, attraverso cui passa la luce,
di un fattore 2 = 1.4 che come è noto la sezione circolare è proporzionale al quadrato del
foro stesso. Normalmente il sistema ottico è configurato dinamicamente per proiettare una
determinata quantità di luce sulla superficie sensibile di un sistema di acquisizione immagini,
indipendentemente dalla tipologia di dispositivo sensibile utilizzato, film oppure fotorecettori
di una telecamera. Questo è realizzato variando il diaframma f/# e compensando con
il tempo di esposizione impostato adeguatamente dall’otturatore. Per esempio, la stessa
quantità di luce è ottenuta impostando il sistema di acquisizione con f/2 e 1/1000 sec., f/2.8
100
CAPITOLO 4. SISTEMA OTTICO
Figura 4.16: Macchina fotografica con modello pinhole: Immagine acquisita con valori diversi
del diametro del foro ottenendo diversi gradi di sfocamento.
e 1/500 sec., f/4 e 1/250 sec., ecc. Si osserva come passando da un valore di diaframma
al successivo si dimezza la luce che passa ma si raddoppia il tempo di esposizione dell’area
sensibile del sistema per proiettare sempre la stessa quantità di luce.
In relazione alla tipologia e dinamica della scena viene selezionata adeguatamente la
coppia diaframma e tempo di esposizione. Una scena con oggetti in movimento è acquisita
selezionando la coppia di parametri con tempo di esposizione molto piccolo se si vuole
evitare l’effetto sfocamento nell’immagine. Al contrario è selezionato un diaframma molto
grande se si vuole aumentare la profondità di campo ossia aumentare l’intervallo fra distanza
minima e massima di oggetti che risultano ancora a fuoco nel piano immagine del sistema
di acquisizione.
4.4
Acquisizione dell’immagine
Fin qui abbiamo analizzato le teorie fondamentali alla base dei meccanismi di formazione
dell’immagine: la teoria parassiale dei sistemi ottici e l’interazione luce-materia.
La natura attraverso i sistemi visivi degli esseri viventi offre uno spettro ampio di sistemi
di acquisizione delle immagini con diversi livelli di complessità.
Quasi tutti gli animali mostrano una particolare sensibilità alla radiazione luminosa,
persino quelli non dotati di organi fotorecettori (Protozoi). Esistono organi visivi dalle forme
più semplici che si limitano a distinguere il buio dalla presenza di luce, fino ad arrivare a
quelli più evoluti capaci di percepire la forma ed il movimento degli oggetti.
Per esempio gli organi visivi di alcuni animali determinano solo l’intensità di luce. In
altri, gli organi visivi sono costituiti (Meduse) da più cellule localizzate in una cavità che
vengono stimolate in tempi diversi dalla luce esterna a causa del movimento di un oggetto.
Quando si ha una cavità più profonda con una fessura molto stretta senza lente (modello
pinhole) si può avere la formazione di una immagine sulla parete opposta come avviene nella
cosiddetta camera oscura (prototipo di una macchina fotografica). Si osserva (vedi figura
4.16) lo sfocamento dell’immagine in corrispondenza del foro grande per effetto della non
convergenza dei raggi luminosi. Analogo sfocamento si verifica nel foro molto piccolo a causa
del fenomeno della diffrazione. Questo principio di formazione dell’immagine era noto sin
dai tempi di Aristotele. Leonardo Da Vinci lo descrive nei suoi appunti e Giovanni della
Porta lo descrive dettagliatamente in Magic Naturalis.
Una evoluzione degli organi visivi si ha quando in corrispondenza della fessura si formano
mezzi diottrici, ossia una lente, come si riscontra nei vertebrati ottenendo in tal modo una
immagine più luminosa e di qualità. Una ulteriore evoluzione si riscontra negli organi visivi
composti degli Artropodi costituiti da una molteplicità di piccoli occhi ciascuno composto
di propri mezzi diottrici (cornea, cono cristallino) e da elementi fotorecettori (retina). Nei
4.5. IL SISTEMA OTTICO UMANO
101
Figura 4.17: Sistema visivo di un vertebrato.
vertebrati il sistema visivo diventa ancora più evoluto. La figura 4.17b mostra uno schema
dell’occhio elementare chiamato ommatidio che assemblati come evidenziato in 4.17a formano l’occhio composto di molti Artropodi. L’occhio è costituito da una lente corneale
bi-convessa di chitina trasparente, sotto la quale quattro cellule formano una seconda lente,
il cono cristallino, omogeneo e trasparente. Segue la retinula costituita da 7-8 celle fotorecettori a forme allungate e sottili. Ciascuna di queste ultime celle trasmettono gli stimoli al
dendrite della cellula conducente tramite il nervo ottico al cervello.
Si riscontra un globo oculare, con retina, una sclerotica robusta, una cornea trasparente,
una coroide pigmentata ed un cristallino (lente convergente). Sono inoltre sviluppate le
strutture muscolari portanti per garantire le funzionalità di adattamento degli elementi
ottici per ciascuna tipologia di animale (pesci, rettili, uccelli, cetacei, ecc.).
I sistemi visivi biologici esistenti sulla terra anche se presentano differenti soluzioni nel sistema ottico, presentano processi elettro-chimici dei meccanismi di trasduzione dell’immagine
molto simili.
4.5
Il sistema ottico umano
Il sistema visivo umano può essere pensato come costituito da una lente doppia convergente che forma una immagine reale nella zona sensibile alla luce (retina). Il sistema visivo
umano (vedi figura 4.18) si integra con le seguenti componenti: sistema ottico, nervo ottico
e corteccia cerebrale.
Nell’uomo il sistema ottico (l’occhio) ha una struttura consistente ed elastica, ed è tenuto
in posizione oltre che dai muscoli, da fasce, nervi e vasi che in esso penetrano. Nella parte
anteriore presenta all’esterno la cornea che è trasparente, nel cui centro sono visibili l’iride,
variamente colorata, e la pupilla, il foro attraverso cui passa la luce, e vengono recepite le
immagini. La pupilla si dilata o si restringe (2÷8mm) a seconda della minore o maggiore
intensità degli stimoli luminosi.
La parte posteriore della struttura sferica è formata dalla sclera, ed è sede della componente convessa del sistema ottico. Da questa sede della sclera emerge il nervo ottico
avvolto da materiale fibroso che impedisce la riflessione e rifrazione dei raggi luminosi. I
raggi di luce incidente penetrano nell’occhio dall’interfaccia aria-cornea subendo la massima
deviazione (l’indice di rifrazione della cornea è n c ∼
=1.376 ). Nelle immersioni subacquee la
vista diminuisce proprio perché i raggi di luce non vengono adeguatamente rifratti a causa
dell’indice di rifrazione dell’acqua (n a ∼
=1.33 ) molto vicino a quello della cornea. La luce,
superando la cornea, entra in uno spazio cavo contenente l’umor acqueo (n ua ∼
=1.336 ), un
liquido incolore e trasparente, viene solo leggermente deviata nell’interfaccia cornea–umor
acqueo poiché quest’ultimo ha un indice di rifrazione quasi identico a quello della cornea.
L’iride si trova anche immersa nel liquido acquoso ed espleta le funzioni di diaframma che
102
CAPITOLO 4. SISTEMA OTTICO
Figura 4.18: Il sistema ottico umano
controlla la quantità di luce che entra nell’occhio attraverso la pupilla. I muscoli radiali e
circolare dell’occhio consentono all’iride di aprirsi in pessime condizioni di luce e di chiudersi in buone condizioni di luce. Adiacenti all’iride verso l’interno del bulbo è localizzata la
lente cristallina di 9 mm di diametro e 4 mm di spessore, costituita da una massa fibrosa
multistrato (22000 strati) e trasparente, ed avvolta da una membrana sottile ed elastica.
Abbiamo già analizzato l’architettura biologica del sistema visivo umano. Analizziamo
ora alcune sue caratteristiche più dal punto di vista di sistema ottico di acquisizione delle
immagini. A differenza delle lenti artificiali realizzate in vetro, il cristallino per la caratteristica della sua struttura lamellare può aumentare di dimensioni e presenta un indice
di rifrazione che varia da 1.406, nel nucleo centrale, a circa 1.386 nelle parti meno dense.
La lente cristallina, variando in forme e dimensioni, permette un’eccellente meccanismo di
messa a fuoco fine variando la sua lunghezza focale.
Dal punto di vista ottico, il sistema cornea-cristallino può essere pensato come un sistema
ottico a due lenti con il fuoco dell’oggetto di circa 15.6mm (dal lato della cornea) ed il fuoco
immagine di circa 24.3mm dietro la retina. Per semplificare si può considerare il sistema
ottico come un’unica lente avente il centro ottico a 17.1mm davanti la retina e posizionato
subito dopo la lente cristallina.
Dopo il cristallino si trova il corpo vitreo e il corpo ciliare. Il corpo vitreo consiste in una
massa trasparente e gelatinosa che riempie lo spazio esistente tra l’interfaccia posteriore della
lente cristallina e la membrana interna del globo oculare. Questa massa è denominata umor
vitreo: liquido gelatinoso trasparente (indice di rifrazione n uv =1.337 ) formato da sostanza
amorfa, fibre e cellule, tenute assieme dalla membrana ialoidea.
Nella zona più interna aderente alla sclera si trova una membrana fibrosa sottile chiamata coroide o corioride di natura vascolare e pigmentata con melanina. Uno strato sottile
(0.1÷0.5mm) di celle fotorecettori coprono una zona estesa della superficie interna della
coroide che è denominata retina dal latino rete. La luce focalizzata è assorbita attraverso
un processo elettrochimico in questa struttura multistrato.
Nei paragrafi precedenti abbiamo evidenziato che il sistema visivo umano presenta due
tipologie di fotorecettori: coni e bastoncelli. La retina è considerata come una espansione
del nervo ottico, che come una membrana, si applica sulla coroide fino all’ora serrata.
L’area dove esce il nervo ottico dall’occhio non contiene fotorecettori ed è insensibile alla
luce. La piccola zona di contatto tra nervo e retina è chiamata pupilla ottica. Il meccanismo
di messa a fuoco (potere di accomodazione) delle immagini sulla retina per il sistema visivo
umano, è realizzato dalla lente cristallina che, grazie alla sua natura elastica, può essere
più o meno stirata dai muscoli ciliari. Più grande è la stiratura tanto maggiore diventa la
curvatura delle sue facce (diminuisce il raggio R della lente) e conseguentemente diminuisce
la sua lunghezza focale (come previsto dall’equazione (4.10)) con la diminuzione del suo
potere diottrico (unità di misura della convergenza di un sistema ottico centrato).
Il potere diottrico di una lente è una misura della capacità di una lente a convergere i
raggi luminosi incidenti. E’ noto che una lente grandangolare (con lunghezza focale corta)
4.5. IL SISTEMA OTTICO UMANO
Figura 4.19: Accomodamento dell’occhio.
contratti.
103
a)Muscoli ciliari rilassati; b)Muscoli ciliari
ha la capacità di convergere i raggi incidenti meglio di una lente con grande lunghezza focale.
Consegue che il potere diottrico è inversamente proporzionale alla lunghezza focale.
La grandezza fisica associata alla misura della convergenza è chiamato potere diottrico
ed è definito come l’inverso della distanza focale di un sistema ottico centrato. La distanza
focale è misurata in metri e la convergenza in diottria. Se vi sono più lenti la convergenza
è data dalla somma algebrica delle singole convergenze di ciascuna lente. Per una lente con
focale f di 1 metro la diottria è definita con l’inverso della focale di un metro o diottria
indicata con 1D=1m−1 . Se una lente divergente ha focale di -2m, le diottrie sono -1/2D. Per
una lente convergente con f=100mm il valore di diottria è 1/0.1D ossia 10D. L’equazione
(4.10) è utilizzata per il calcolo delle diottrie di una lente, noti i raggi di curvatura e gli indici
di rifrazione. Il grado di miopia, presbiopia si misura in diottria, riferendosi alla convergenza
delle lenti correttrici.
Il potere diottrico del cristallino del sistema visivo umano considerato immerso nell’aria
è di +19D mentre per la cornea fornisce circa +43D per un totale di 59.6D considerato
l’occhio con i muscoli rilassati. Tale valore è stimato considerando il sistema ottico come
una lente composta (cristallino + cornea) il centro della quale dista 17.1 mm dalla retina
(1/f=1/0.0171∼
=59D).
Normalmente quando i muscoli dell’occhio sono rilassati, il cristallino non subisce nessun
stiramento ed opera con la massima lunghezza focale e la luce di oggetti che si trovano
all’infinito sono ben focalizzati sulla retina. Man mano che l’oggetto si avvicina all’occhio i
muscoli ciliari si contraggono, generano un forte stiramento sulla lente cristallina (processo
di accomodamento) per la messa a fuoco sulla retina dell’oggetto vicino.
La minima distanza di un oggetto per essere visto correttamente varia con l’età. Per
i giovani adolescenti, per un occhio normale, la distanza minima è di 70mm, per i giovani
adulti è di 120mm e per età sempre maggiore la distanza varia da 250mm a 1000mm. La
perdita progressiva del potere di accomodamento è detta presbiopia. Molti animali hanno la
stessa capacità di accomodamento dell’uomo. Altri muovono solo la lente avanti ed indietro
rispetto alla retina giusto per mettere a fuoco l’immagine come viene fatto nelle comuni
macchine fotografiche.
I molluschi invece effettuano l’adattamento contraendo o espandendo completamente il
corpo dell’occhio per allontanare o avvicinare la lente dalla retina. Alcuni uccelli rapaci
invece che focalizzare costantemente la preda, mentre si muovono velocemente anche per
una considerevole distanza, per la loro sopravvivenza, hanno sviluppato un meccanismo di
accomodamento in un modo molto diverso cambiando la curvatura della cornea.
Il sistema ottico garantisce il processo di formazione dell’immagine sulla retina. Il processo di percezione dell’immagine (visione) è il risultato dell’attività sinergica e congiunta
dell’occhio e del cervello. Tale attività si sviluppa in frazioni di secondi e comprende le
seguenti fasi:
1. la formazione dell’immagine reale rimpicciolita e capovolta sulla retina in analogia
a quanto avviene in uno strumento di acquisizione immagini (telecamera, macchina
fotografica, ecc.);
104
CAPITOLO 4. SISTEMA OTTICO
2. stimolazione dei fotorecettori localizzati sulla retina in relazione all’energia luminosa
della scena osservata;
3. trasmissione attraverso il nervo ottico degli impulsi prodotti dai fotorecettori al cervello;
4. la ricostruzione della scena 3D partendo dalle immagini 2D prodotte capovolte sulla
retina;
5. la interpretazione degli oggetti della scena.
Nel paragrafo Sistema visivo umano sono stati descritti le capacità sensoriali di esso
compreso gli aspetti di percezione del colore.
4.6
Sistemi di acquisizione immagini
Diversi sono i dispositivi disponibili per acquisire le immagini digitali. Le caratteristiche
di tali dispositivi variano in relazione alle modalità di formazione delle immagini. Il primo
dispositivo di acquisizione delle immagini, noto già ad Aristotele, è la camera oscura. Consiste in un ambiente impermeabile alla luce, di dimensioni variabile tra quelle di una piccola
scatola a quelle di una stanza, su una parete delle quali è praticato un piccolo foro (foro
stenopeico) attraverso cui una immagine capovolta, degli oggetti che si trovano all’esterno,
è generata e proiettata sulla parete opposta (vedi figura 4.16).
Leonardo da Vinci suggerı̀ di sostituire il foro stenopeico con una lente per migliorare la
qualità dell’immagine in termini di nitidezza e luminosità. Per diversi secoli, rimase l’unico
dispositivo per l’acquisizione delle immagini e successivamente, inserendo alla parete di
proiezione una superficie fotosensibile ed introducendo obiettivi di buona qualità, la camera
oscura diventa il prototipo delle moderne macchine fotografiche e delle telecamere con lo
sviluppo della microelettronica.
Tali dispositivi hanno entrambi le ottiche con lunghezza focale fissa e per mettere a fuoco
l’immagine dell’oggetto l’ottica deve essere avvicinata o allontanata dal piano immagine
(area sensibile del film o dei fotorecettori). Ricordiamo che ciò è controllato dai parametri
del sistema di acquisizione delle immagini relazionati tra loro dalle equazioni (4.14), (4.15)
e (4.18) già discusse nel paragrafo Sistema ottico.
Riscriviamo la relazione dei punti coniugati
1
1 1
= +
f
p q
(4.25)
e la relazione di ingrandimento
M=
q
Dim vert i
=−
Dim vert o
p
(4.26)
dove f è la lunghezza focale dell’ottica, p è la distanza dell’oggetto dal centro lente, q
è la distanza del piano immagine dal centro della lente, M è il fattore di ingrandimento
o di rimpicciolimento dell’immagine rispetto all’oggetto, Dim vert i e Dim vert o sono le
altezze misurate rispetto all’asse ottico rispettivamente dell’immagine e dell’oggetto. Il
segno negativo indica che l’immagine è capovolta.
Della scena osservata, il sistema ottico ne acquisisce solo una sua porzione circolare, nota
come campo angolare di vista α. La scena osservata, compresa in corrispondenza del campo
angolare di vista, è proiettata attraverso la lente nel piano immagine 2D rappresentato in
figura 4.20 con l’area circolare. Considerando l’oggetto all’infinito per la (7.26) l’immagine si
forma alla distanza q che coincide con la distanza focale. Man mano che l’oggetto si avvicina
4.6. SISTEMI DI ACQUISIZIONE IMMAGINI
105
Figura 4.20: Angolo di campo del sistema ottico e piano immagine.
alla lente l’immagine si allontana dalla lente formandosi a distanze q maggiori di f per essere
a fuoco, come spiegato in dettaglio nel paragrafo Sistema ottico.
Normalmente tutti i dispositivi di acquisizione delle immagini hanno l’area sensibile
rettangolare e soltanto una porzione di tale area circolare è acquisita. Le dimensioni dell’area
sensibile, dove è focalizzata in modo uniforme l’immagine, è caratterizzata geometricamente
dalla diagonale maggiore dell’area sensibile rettangolare.
In genere, la diagonale maggiore dell’area sensibile è scelta approssimativamente uguale
alla focale dell’obiettivo. Consegue che α2 ∼
= 1/tg 21 ed α corrisponde a circa 53◦ . Un
obiettivo cosiddetto normale per una macchina fotografica con area sensibile di 24×36mm
ha una lunghezza focale intorno a 50mm ed un angolo di campo di circa 50◦ . E’ chiamato
normale in quanto le caratteristiche dell’immagine create con queste ottiche sono molto
simili in senso di resa prospettica a quelle generate dal sistema ottico umano. Con focale
più corte si ha un angolo di campo più ampio che da 50◦ può raggiungere valori superiori
a 180◦ (fish-eye con f < 6 mm). Tali obiettivi si chiamano grandangolari che quando molto
spinti possono produrre immagini molto distorte. Obiettivi con lunghezza focale maggiore
di 50mm riducono l’angolo di campo fino a qualche grado in corrispondenza di focali di
≈1000mm (teleobiettivi). La qualità dei moderni obiettivi è tale da produrre immagini
qualitativamente eccellenti per tutte le lunghezze focali e luminosità espressa con il simbolo
f/# introdotto nel paragrafo Sistema ottico. L’area sensibile delle moderne telecamere è
normalmente di 10×10mm2 e conseguentemente gli obiettivi standard hanno una lunghezza
focale intorno a 15mm.
I sistemi ottici dei dispositivi considerati, macchina fotografica e telecamera, producono
una immagine ottica degli oggetti della scena osservata. In altre parole il sistema ottico produce una immagine fisica che è la distribuzione spaziale dell’intensità di energia luminosa.
Quando l’immagine fisica è osservabile dagli umani si dice che è una immagine nel visibile.
Immagini fisiche che non sono nel visibile potrebbero essere per esempio le immagini per
rappresentare grandezze come l’altezza del terreno, la temperatura, l’umidità, ecc. generate
normalmente da sistemi di acquisizione non ottici. Senza perdere in generalità, consideriamo tra le immagini fisiche quelle generate da una macchina fotografica e da una telecamera
Vidicon (dispositivo basato su tubo elettronico).
I dispositivi di acquisizione delle immagini (telecamera e macchina fotografica) realizzano
una corrispondenza tra gli oggetti della scena e le immagini fisiche generate (figura 4.21).
Il film di una macchina fotografica è il supporto fisico che cattura il negativo dell’immagine corrispondente all’immagine ottica. Il tubo elettronico Vidicon è il supporto fisico che
106
CAPITOLO 4. SISTEMA OTTICO
Figura 4.21: Componenti di un sistema di acquisizione immagini.
Figura 4.22: Sistema di digitalizzazione a scansione elettronica.
cattura elettronicamente l’immagine corrispondente all’immagine ottica della telecamera. A
differenza del film della macchina fotografica (sul quale si produce una immagine negativa
dopo il suo sviluppo attraverso un processo fisico-chimico), una telecamera Vidicon produce
una immagine elettronica dell’immagine ottica formatasi.
Attraverso il processo di scansione elettronica, l’immagine ottica (disponibile sotto forma
di energia luminosa), formata sulla zona detta target del tubo Vidicon, è trasdotta sotto
forma di variazione di corrente, dai dispositivi elettronici che producono un segnale video
standard (per esempio, RS170) per riprodurre simultaneamente su monitor monocromatici
televisivi l’immagine acquisita.
Ricordiamo che il nostro obbiettivo primario, una volta acquisita l’immagine, è quello
di analizzare gli oggetti della scena. Abbiamo visto come il sistema visivo umano elabora
l’immagine acquisita sulla retina propagando, attraverso il nervo ottico, le informazioni
di intensità luminosa ed elaborandole con un modello neurale per la percezione completa
(riconoscimento, localizzazione e dinamica) degli oggetti osservati.
In analogia al sistema umano, abbiamo la necessità di elaborare il contenuto informativo
delle immagini ottiche acquisite per esempio dalla telecamera Vidicon e quelle registrate
sul film. I sistemi di elaborazione possibili sono i calcolatori elettronici digitali che sono
capaci di elaborare informazioni solo di tipo numerico. Risulta necessario perciò tradurre in
formato numerico, ossia in formato digitale, il contenuto informativo della scena acquisita
attraverso il processo di formazione dell’immagine con i vari dispositivi disponibili.
Se si considera l’immagine registrata su film fotografico, è necessario un processo di
scansione meccanico oppure elettronico che, muova un pennello di luce punto per punto
sul film trasparente e misurare la luce trasmessa o riflessa come stima dell’intensità di luce
corrispondente al punto della scena osservato durante il processo di acquisizione dell’immagine. Un fotosensore misura la luce trasmessa o riflessa punto per punto ed il segnale
elettrico prodotto è adeguatamente trasdotto dal dispositivo di digitalizzazione che converte
il segnale analogico sotto forma numerica (figura 4.22). Se si considera l’immagine acquisita
dalla telecamera Vidicon, è necessaria una conversione in forma numerica del segnale video
generato con la completa scansione elettronica della superficie sensibile del vidicon. In particolare, lo standard europeo RS-170 prevede la scansione dell’intera immagine (frame) in
625 linee orizzontali con una frequenza di 25 frame al secondo (figura 4.23).
In figura 4.24 è rappresentata l’immagine analogica (continua) acquisita come video
frame ed il segnale analogico video corrispondente ad una linea orizzontale (figura 4.24b).
Per la conversione del segnale video analogico in formato digitale, gestibile dal computer, è
4.6. SISTEMI DI ACQUISIZIONE IMMAGINI
107
Figura 4.23: Telecamera con tubo Vidicon.
Figura 4.24: Segnale video standard RS170.
necessario un dispositivo hardware chiamato frame-grabber. Quest’ultimo converte il segnale
video analogico in immagine digitale campionando il segnale continuo con un intervallo
temporale costante. In figura 4.25 è schematizzato il processo di campionamento di una
linea del segnale video campionato attraverso la misura istantanea del valore del segnale
elettrico ad intervalli di tempo costanti. Il valore del segnale elettrico, per ciascun intervallo
di tempo, è convertito in un valore numerico e memorizzato. Tale valore è correlato al valore
di intensità luminosa dell’immagine in quel punto. Questo processo è ripetuto per ciascuna
linea del segnale video dell’intero frame ed al termine si ottiene l’immagine digitale che può
essere elaborata direttamente dal computer.
I valori di intensità luminosa campionati sono inoltre quantizzati in valori digitali per
soddisfare le esigenze di accuratezza numerica. Tale accuratezza dipende dal numero di bit
assegnati per rappresentare l’informazione di intensità luminosa per ciascun punto campionato. Normalmente sono assegnati 8 bit generando cosı̀ 256 livelli di intensità luminosa.
L’intervallo dei livelli di intensità è chiamato anche intervallo dinamico e nel caso di immagini
digitali quantizzate a 8 bit si ha un range dinamico da 0 a 255.
Una immagine digitale dopo l’elaborazione può essere ulteriormente visualizzata. Si
rende necessario un processo inverso a quello di digitalizzazione che si propone di ricostruire l’immagine continua partendo dall’immagine numerica precedentemente digitalizzata ed
elaborata. A tal scopo è necessario un dispositivo hardware di conversione da digitale ad
analogico. La figura 4.26 mostra lo schema completo di conversione dell’immagine da digitale
108
CAPITOLO 4. SISTEMA OTTICO
Figura 4.25: Conversione in digitale del segnale video.
Figura 4.26: Sistema di visualizzazione immagini.
ad analogico.
Nei paragrafi seguenti verranno analizzati gli effetti introdotti dal processo di digitalizzazione per valutare qualitativamente e quantitativamente eventuali perdite di informazioni
rispetto all’immagine originale. Si può anticipare che tali effetti sono ormai minimi considerando la buona qualità dei dispositivi di digitalizzazione oggi disponibili. Le telecamere
più recenti sono realizzate con sensori di acquisizione immagini di tipo a stato solido con
l’elettronica di scansione contenuta in un vettore o matrice di sensori. Le più diffuse hanno una matrice di sensori del tipo charge-coupled device (CCD) ed a matrice di fotodiodi.
I fotosensori sono integrati in un singolo chip che comprende l’elettronica necessaria per
determinare la carica elettrica generata nel piano immagine incidente. Il processo di campionamento avviene direttamente nel punto ove è localizzato ciascun sensore nella matrice
sensoriale mono o bidimensionale.
Il processo di digitalizzazione è completato con la quantizzazione dei valori di intensità
luminosa nel caso di telecamere digitali oppure è generato un segnale video standard (segnale
analogico) ed in questo caso le informazioni spaziali di campionamento relativo a ciascun
sensore sono perse. In appendice saranno approfonditi alcuni aspetti della tecnologia dei
moderni sistemi di acquisizione delle immagini.
4.7
Rappresentazione dell’immagine digitale
Nei paragrafi precedenti abbiamo descritto i fondamenti del processo di formazione dell’immagine analizzando come l’energia luminosa dell’ambiente interagisce con il sistema ottico
che genera una immagine fisica 2D degli oggetti 3D della scena osservata. Si è descritto inoltre, come dall’immagine fisica continua, che contiene le varie tonalità di intensità luminosa
dei punti corrispondenti della scena, attraverso il processo di digitalizzazione, si perviene ad
una immagine discreta digitale (vedi figura 4.27).
L’immagine fisica continua f(x,y) generata dal sistema ottico o in generale da qualunque
altro sistema di acquisizione (radar, raggi x, infrarosso, sonar, chimico, ecc.) rappresenta
l’informazione di intensità luminosa (o livelli di grigio) in ciascun punto (x,y) del piano bidi-
4.8. RISOLUZIONE E FREQUENZA SPAZIALE
109
Figura 4.27: Immagine digitale.
mensionale g(i,,j), che rappresenta i valori dell’intensità luminosa derivata dall’immagine fisica continua f(x,y) in corrispondenza della griglia di campionamento definita da (i ∆x,j ∆y),
dove ∆x e ∆y rappresentano gli intervalli di campionamento rispettivamente lungo l’asse
delle x e l’asse delle y.
Dal processo di quantizzazione è generata l’immagine digitale I(i,j) con i valori digitali
dell’intensità luminosa g(i,j) riportati per ciascun elemento (i,j) dell’immagine, chiamato
pixel (dall’inglese picture element). Il valore di ciascun pixel I(i,j) rappresenta l’elemento
discreto digitale dell’immagine digitalizzata. Il valore del pixel I(i,j) rappresenta il valore medio dell’intensità luminosa corrispondente ad una cella della griglia con superficie
rettangolare di dimensioni ∆x ×∆y.
L’insieme dei pixel I(i,∗) rappresenta la colonna i-ma dell’immagine digitale, mentre la
riga j-ma è rappresentata dai pixel I( ∗,j). L’immagine digitale I risulta una buona approssimazione dell’immagine continua originale f se sono scelti in modo adeguato i seguenti
parametri: gli intervalli di campionamento ∆x e ∆y, e l’intervallo dei valori di intensità I
assegnati a ciascun pixel nella fase di quantizzazione.
Da questi parametri dipende quello che è definito come qualità dell’immagine ossia la
risoluzione spaziale e la risoluzione radiometrica (o di intensità luminosa o di colore). Un
altro parametro che definisce la qualità dell’immagine è rappresentato dalla risoluzione temporale come l’abilità di catturare la dinamica della scena nel caso di oggetti in movimento.
In questo caso è considerato il parametro frame rate che definisce la velocità di acquisizione
di una o più sequenze di immagini (numero di frame al secondo).
4.8
Risoluzione e frequenza spaziale
L’immagine digitale acquisita è il risultato del processo di digitalizzazione realizzato partendo
dall’immagine ottica generata dal sistema ottico. Possiamo allora affermare che la risoluzione
dell’immagine digitale, che indica come l’intero sistema di acquisizione sia capace di risolvere
i più piccoli dettagli degli oggetti della scena osservata, dipende dalle varie componenti del
sistema di acquisizione complessivo: ambiente, sistema ottico, sistema di digitalizzazione.
Per semplificare possiamo affermare che la risoluzione dell’immagine digitale dipenda
dalla risoluzione dell’immagine ottica e dalla risoluzione del sistema di digitalizzazione. Ipotizziamo di avere una immagine ottica di buona qualità nel senso che risolve bene le strutture spaziali della scena originale e valutiamo gli effetti del processo di digitalizzazione sulla
risoluzione spaziale.
Quando osserviamo una foto di buona qualità abbiamo un esempio di immagine con livelli
di colore continuo ed osservando col sistema visivo umano gli oggetti della scena appaiono con
una buona risoluzione geometrica con tutti i dettagli geometrici e senza discontinuità. Questo
avviene per due motivi. Il primo è che la macchina fotografica utilizzata ed il supporto
cartaceo su cui è stata riprodotta l’immagine, hanno una buona risoluzione spaziale ed una
buona riproduzione cromatica. Il secondo motivo riguarda l’alta risoluzione spaziale del
110
CAPITOLO 4. SISTEMA OTTICO
Figura 4.28: Risoluzione spaziale del sistema visivo umano.
sistema visivo umano legato all’elevato numero di fotorecettori (coni e bastoncelli) presenti,
ed alle piccole dimensioni dei fotorecettori stessi.
In altre parole l’immagine che si forma sulla retina presenta un elevato numero di pixel con dimensioni puntiformi producendo l’effetto di immagine continua. In figura 4.28
è rappresentata la risoluzione spaziale del sistema visivo umano a diverse condizioni di
illuminazione.
La scelta della risoluzione spaziale del pixel e quindi dell’intera immagine digitale è
strettamente legato alle varie applicazioni. Esistono numerosi sistemi di acquisizione che
possono digitalizzare immagini da 256×256 pixel fino a 8K×8K pixel per varie applicazioni.
Formalizziamo ora il concetto di risoluzione nel contesto di immagine digitale che dovrà
essere elaborata e successivamente visualizzata (ipotizziamo che il monitor sia ad altissima
risoluzione). In una immagine digitale i dettagli geometrici della scena appaiono come
variazione di intensità luminosa presente tra pixel adiacenti. Se tali pixel corrispondenti
non registrano variazioni di livelli significativi, le strutture geometriche non sono risolte e
possiamo affermare che la risoluzione spaziale è scarsa. Il concetto di risoluzione spaziale è
correlato al concetto di frequenza spaziale che indica con quale rapidità variano i valori dei
pixel spazialmente.
Per semplicità consideriamo la figura 4.29 che mostra diverse immagini includendo solo
barre nere verticali intervallate da strisce bianche e presenta i valori d’intensità dei pixel
della riga i-ma di ciascuna immagine.
Si osserva come i pixel sulla riga variano in modo ciclico dal bianco al nero ripetutamente.
La frequenza ν indica la velocità di variazione dei valori dei pixel spazialmente. Nell’esempio
si osserva che il valore di intensità varia da zero (barra nera) al valore massimo (barre
bianche). Nella figura 4.29 sono indicate barre con frequenze spaziali man mano più alte
corrispondenti a strutture geometriche sempre più fine.
Nella figura 4.30 è rappresentata una immagine complessa ed il profilo dell’intensità
luminosa di una riga evidenzia zone dello spazio geometrico con strutture uniformi, con
piccole variazioni di intensità, ed altre zone che variano più rapidamente. In corrispondenza
delle zone tra gli oggetti si hanno pochi dettagli pertanto poca variabilità dell’intensità e
quindi basse frequenze spaziali. Si hanno alte frequenze spaziali e quindi alta variabilità
d’intensità in corrispondenza di strutture geometriche con maggiori dettagli.
Siamo ora interessati a definire adeguatamente i parametri del processo di digitalizzazione
allo scopo di ottenere una immagine digitale che riproduca fedelmente tutte le strutture
spaziali presenti nell’immagine ottica originale. Questo è realizzato modellando il processo
di formazione dell’immagine applicando la teoria dei sistemi lineari e successivamente appli-
4.8. RISOLUZIONE E FREQUENZA SPAZIALE
Figura 4.29: Frequenze nel dominio spaziale.
Figura 4.30: Immagine con alte e basse frequenze spaziali.
111
112
CAPITOLO 4. SISTEMA OTTICO
y
y
P(x,y)
x
x
P(
x,
y,
z)
z
P’
do
di
Figura 4.31: Geometria dell’oggetto e dell’immagine nel modello pinhole.
cando il teorema del campionamento per determinare in modo appropriato i parametri della
conversione analogica-digitale (numero di pixel richiesti e spazio di campionamento).
4.9
Modello geometrico della formazione dell’immagine
Nei paragrafi precedenti abbiamo discusso l’importanza del sistema ottico per la formazione
dell’immagine ottica. Gli oggetti 3D della scena sono proiettati dal sistema ottico nel piano
immagine 2D. Abbiamo già evidenziato come l’immagine ottica prodotta è influenzata dagli
effetti della diffrazione e dalle aberrazioni dell’ottica.
Possiamo già affermare che la proiezione da 3D a 2D comporta una perdita di informazione sulla scena osservata. Il modello geometrico più semplice che proietta un punto
luminoso dell’oggetto nel piano immagine è il modello pinhole o prospettico. Come evidenziato in figura 4.31 il punto luminoso P(X,Y,Z) dell’oggetto genera un raggio luminoso
rettilineo, passante per il centro O del sistema ottico, ipotizzato come un foro infinitesimale,
che produce un punto luminoso p localizzato in (x,y,d i ) sul piano immagine.
Se consideriamo gli oggetti referenziati rispetto al sistema di riferimento (X,Y,Z) con
origine nel centro del sistema ottico ed il piano immagine (con assi x,y), perpendicolare
all’asse Z localizzato alla distanza d i , le relazioni tra le coordinate spaziali (X,Y,Z ) degli
oggetti e le coordinate 2D nel piano immagine (x,y) sono date da:
x
y
=
=
− diZX = −sX
iY
− dZ
= −sY
(4.27)
dove il rapporto s=d i /Z è il fattore di scala del sistema prospettico. Si può osservare che
le equazioni (7.28) non sono lineari (per la presenza di Z al denominatore) e non è possibile
calcolare la distanza e le dimensioni degli oggetti, rispetto all’origine del sistema ottico.
Tutti i punti dell’oggetto che giacciono sulla linea di proiezione risultano proiettati nella
stessa locazione (x,y) nell’immagine. Per esempio i punti P e P’ (figura 4.31) che si trovano
a distanze diverse giacciono sullo stesso raggio di proiezione e sono proiettati entrambi in p
nel piano immagine nella stessa locazione (x,y).
Un segmento rettilineo 3D è comunque proiettato nel piano immagine generando un
segmento 2D. Tutti i raggi emessi dai punti del segmento rettilineo 3D giacciono nello stesso
piano (figura 4.32).
Da queste considerazioni, consegue che la proiezione di un oggetto 3D opaco e geometricamente complesso, genera nel piano immagine 2D una perdita di informazione riducendo
lo spazio di origine di una dimensione. Per la proiezione inversa ossia per la ricostruzione
4.10. FORMAZIONE DELL’IMMAGINE CON UN SISTEMA OTTICO REALE
113
1111
0000
0000
1111
0000 Ombra
1111
0000
1111
Oggetto
000
111
111
000
000
111
000
111
Superfice
O
00Ombra
11
11
00
00
11
Figura 4.32:
3D della scena, descritta dalla funzione di livello di grigio f(x,y,z) che rappresenta l’immagine della scena, dovrebbero essere note due funzioni bidimensionali: la funzione inversa
dell’immagine I(x,y) che rappresenta i livelli di grigio nel piano immagine e la funzione
mappa di profondità Z(x,y) che rappresenta la distanza di ciascun punto visibile nella scena
(proiettato nel punto (x,y) del piano immagine) dal sistema ottico.
La corrispondenza uno a uno tra un punto (X,Y,Z) della scena e la sua proiezione nel
piano immagine (x,y) è garantita, dal modello di proiezione prospettica, solo se ciascun
raggio proietta un solo punto della scena. Nel caso di oggetti trasparenti e di oggetti opachi
con superfici concave (in presenza di superfici occluse) tale condizione non è più valida poiché
più punti sono allineati sullo stesso raggio di proiezione.
Il sistema umano di percezione visiva ricostruisce la scena 3D (modellata da una funzione
di luminosità g(X,Y,Z) ) attraverso il proprio sistema visivo binoculare acquisendo due immagini 2D della scena (visione stereo) e valutando la mappa di profondità Z(x,y) attraverso
un processo neurale che fonde le due immagini.
4.10
Formazione dell’immagine con un sistema ottico
reale
L’immagine prodotta con il modello geometrico di proiezione pin-hole è indipendente dalla
distanza degli oggetti dal sistema ottico ideale ed assume che il processo di formazione
dell’immagine sia priva di qualunque disuniformità.
Un sistema ottico reale, per esempio costituito da una semplice lente convessa sottile,
proietta un punto luminoso di un oggetto nel piano immagine producendo una immagine bidimensionale (spot luminoso con intensità variabile) normalmente chiamata: Point
Spread Function (PSF). Se l’oggetto si trova all’infinito lo spot luminoso è completamente a fuoco nel piano immagine che si forma alla distanza focale f ed il sistema ottico si
comporta come il sistema ideale pin-hole.
Nella realtà, gli oggetti sono a distanza finita dal sistema ottico, e, nell’immagine generata
dalla proiezione di un punto luminoso, anche se apprezzabilmente ancora a fuoco, si osserva
quanto segue:
1. L’immagine del punto luminoso diventa un’area circolare meno luminosa e leggermente
sfocata ma ancora accettabile come nitidezza;
2. Il piano focale dove si forma l’immagine non è più alla distanza f dalla lente ma diventa
q spostandosi verso il sistema ottico (ossia, q < f ), e con l’aumentare della distanza p
dell’oggetto dal sistema ottico l’immagine si allontana (q > f ). Ricordiamo l’equazione
() del paragrafo Sistema ottico, ossia la relazione che lega i parametri ottici dei punti
coniugati:
1 1
1
= +
f
p q
dove f è la lunghezza focale della lente;
114
CAPITOLO 4. SISTEMA OTTICO
Figura 4.33: Processo di formazione dell’immagine. a) Sistema ottico che proietta l’immagine di un punto dell’oggetto; b) PSF: l’immagine irradiata generata sul piano immagine del
sistema ottico.
3. Il modello geometrico di proiezione prospettico (pin-hole) si può considerare ancora
valido se le dimensioni del disco generato come proiezione del punto luminoso si mantengono le più piccole possibili e le equazioni (7.28) sono ancora valide considerando
le coordinate del centro del disco in luogo del punto immagine del modello pin-hole;
4. La luminosità del disco nel piano immagine aumenta in proporzione all’aumentare
della luminosità del punto-oggetto. Questa condizione ci suggerisce che il processo di
formazione dell’immagine soddisfa la condizione di omogeneità di un sistema lineare.
Questi aspetti della formazione dell’immagine, l’immagine PSF ed il diametro dello spot,
incominciano a definire in modo quantitativo la risoluzione spaziale dell’immagine ottica
generata che è strettamente dipendente dalle caratteristiche del sistema ottico considerato.
Con l’osservazione 4. si deduce che il sistema ottico è un sistema lineare bidimensionale
ed è plausibile modellare il processo di formazione dell’immagine con la teoria dei sistemi
lineari.
Siamo allora motivati ad affermare quanto segue:
a) due punti luminosi dell’oggetto producono una immagine (nel piano immagine) in cui si
sovrappongono (si sommano) gli effetti delle aree circolari luminose;
b) considerando punti luminosi in posizioni diverse nel piano dell’oggetto (X,Y) l’immagine
dello spot luminoso si sposta in una nuova posizione in relazione alle equazioni (7.28);
c) un sistema ottico ottimale genera immagini di spot luminosi di forma simile se la distanza
dall’asse ottico è limitata ragionevolmente. Questo significa che la PSF è spazialmente
invariante.
In altre parole l’affermazione c) ci dice che il sistema ottico risulta stazionario, ossia che
cambiando la posizione del punto luminoso (sorgente) di input nel piano oggetto, si ha in
corrispondenza il cambiamento della posizione nel piano immagine (affermazione b), senza
che vi sia una variazione della forma della PSF che descrive il punto luminoso sorgente.
Se le condizioni precedenti sono mantenute, si può assumere che il sistema ottico di
formazione dell’immagine è un sistema lineare: invariante spazialmente, lineare e
la PSF rappresenta la risposta impulsiva dello stesso.
Il processo di formazione dell’immagine per un oggetto 3D luminoso può essere pensato
come la sovrapposizione delle singole immagini spot, descritte dalla PSF del sistema ottico,
generata in corrispondenza di tutti i punti luminosi che costituiscono l’oggetto 3D.
In sostanza l’immagine complessiva dell’oggetto è la sovrapposizione spaziale di tutti gli
spot luminosi descritti dalle PSF corrispondenti a tutti i punti luminosi costituenti l’oggetto
3D.
4.10. FORMAZIONE DELL’IMMAGINE CON UN SISTEMA OTTICO REALE
115
Figura 4.34: Applicazione per due punti luminosi dell’oggetto del principio di omogeneità e
sovrapposizione.
In figura 4.33 è rappresentato il sistema ottico con uno spot luminoso nel piano oggetto
(X,Y) che emette una intensità luminosa di ∆X ∆Yf(X,Y). Il sistema ottico proietta
questa intensità luminosa nel piano immagine (x,y) che per effetto della diffrazione (o per
la presenza di aberrazioni ottiche) produce uno spot luminoso leggermente sfocato. Questo
effetto di sfocamento introdotto dal sistema ottico è descritto dalla PSF ed in termini
quantitativi l’intensità luminosa che arriva nel punto (x,y) del piano immagine è data dalla
relazione:
∆I(x, y) = h(X, Y ; x, y)f (X, Y )∆X∆Y
(4.28)
dove con h(X, Y ; x, y) è indicata la PSF che descrive come uno spot luminoso sorgente
in (X,Y) nel piano dell’oggetto viene modificato nel piano immagine centrato nella locazione (x,y). Per semplicità la proiezione della sorgente luminosa elementare è supposta
uno a uno senza produrre un fattore di ingrandimento. L’intensità luminosa I(x,y) nel
piano immagine, in ciascuna locazione (x,y), è data dal contributo di tutte le aree elementari dell’oggetto (pensate come sorgenti elementari luminose) attraverso un processo di
sovrapposizione (seconda condizione dei sistemi lineari) come segue:
+∞ Z
+∞
Z
I(x, y) =
f (X, Y )h(X, Y ; x, y)dXdY
(4.29)
−∞ −∞
Abbiamo già osservato che nel contesto di sistema invariante spazialmente considerando altre aree luminose nello spazio dell’oggetto (X,Y) l’unico effetto che si riscontra è lo
spostamento nel piano immagine dello spot luminoso, mentre rimane invariata la forma della PSF , ossia la modalità di proiezione in punti diversi nell’immagine dello spot luminoso
sorgente.
Nella realtà sappiamo che questo non è sempre possibile ma considerando il piano immagine partizionato in regioni limitate si può considerare invariante la forma della PSF. La
figura 4.34 mostra nel monodimensionale il valore dell’intesità luminosa nel piano immagine in un punto x derivato dalla sovrapposizione di due punti luminosi X 0 e X 00 nel piano
oggetto.
La figura 4.35 mostra invece sempre nel monodimensionale una situazione più complessa
ossia come l’intensità luminosa nel piano immagine in ciascun punto x è il risultato della
sovrapposizione dell’intensità di ciascun punto dell’oggetto, quest’ultimo modellato da impulsi di Dirac scalati e da una funzione di luminosità continua, entrambi poi modificati dalla
PSF con forma gaussiana.
Nelle condizioni di sistema invariante spazialmente, i valori della PSF h(x0 , y 0 ; x, y) non
dipendono dalle coordinate (x,y) nel piano immagine I , ma dipendono solo dagli spostamenti (x − x0 , y − y 0 ) rispetto a tali locazioni della forma gaussiana con h centrata in
(x = x0 , y = y 0 ). Per esempio, considerando (x = x0 , y = y 0 ) l’immagine della PSF è
116
CAPITOLO 4. SISTEMA OTTICO
Figura 4.35:
Figura 4.36:
4.11. RISOLUZIONE DEL SISTEMA OTTICO
117
centrata nel piano immagine in (x0 , y 0 ) dove il valore di h è massimo come evidenziato in
figura 4.36.
Conseguentemente l’equazione (7.30) diventa:
I(x, y) =
+∞ Z
+∞
Z
0
0
f (x, y)h(x − x , y − y )dxdy
(4.30)
−∞ −∞
che è nota come l’integrale di CONVOLUZIONE . Nella (7.31) f(x,y) è la funzione di
intensità luminosa nel piano immagine identica a quella dell’oggetto con intensità luminosa
f(X,Y) e senza degradazione in accordo alle equazioni (7.28) ed ipotizzando una proiezione
con fattore di ingrandimento uguale a 1
f (x, y) = f (M X, M Y ) = f (X, Y ) .
Più in generale se si trascurano gli effetti di degradazione ottica, la proiezione dell’oggetto
nel piano immagine si può considerare come il processo combinato di proiezione geometrica e di convoluzione nel piano immagine attraverso la funzione PSF caratteristica
del sistema ottico.
L’immagine cosı̀ ottenuta dell’oggetto, attraverso la convoluzione è il risultato della distribuzione dell’energia luminosa proiettato nel piano immagine e modulata in ciascun punto
P(x,y) dell’immagine pesando con la PSF i contributi dei punti immagine compresi in un
intorno di P. Il processo che modifica una funzione f(x,y) in ciascun punto del suo dominio attraverso un’altra funzione h(x − x0 , y − y 0 ) producendo una nuova funzione I(x,y)
è chiamato operatore di convoluzione e si dice che la funzione I deriva da f convoluta
con h.
La convoluzione, oltre a modellare il processo di formazione dell’immagine, vedremo
che avrà un ruolo fondamentale nel campo della elaborazione dell’immagine. Nel processo
di formazione dell’immagine, la convoluzione ha l’effetto di smussare i livelli di intensità
dell’immagine e conseguentemente comporta una riduzione della risoluzione spaziale. In
figura 4.37 si osserva come viene livellato il profilo dell’intensità corrispondente ad una linea
dell’immagine f(x) quando è convoluta con la PSF gaussiana h(x-x ’), mentre quando è
convoluta con una PSF ideale, la funzione Delta δ(x − x0 ), si ottiene solo una replica di
f(x).
In generale, in presenza di frequenza spaziale la cui lunghezza d’onda è superiore al
dominio di azione della PSF, gli effetti di livellamento della convoluzione sono limitati.
Al contrario, se i livelli di intensità si ripetono spazialmente con alta frequenza (lunghezza
d’onda piccola) gli effetti del livellamento sull’immagine sono significativi, riducendo sensibilmente la sua risoluzione spaziale. Lo strumento matematico che può quantificare l’effetto
della convoluzione è dato dalla trasformata di Fourier , che come è noto, decompone
i valori di intensità dell’immagini in variazioni periodiche dell’intensità luminosa presenti
nell’immagine stessa.
4.11
Risoluzione del sistema ottico
La qualità di un sistema di acquisizione immagini dipende dalla sua capacità di riprodurre
fedelmente le strutture spaziali degli oggetti conservando le variazioni di luminosità delle
strutture stesse osservate. La risoluzione spaziale e radiometrica esprimono in termini
quantitativi il concetto espresso di qualità del sistema.
La risoluzione spaziale è strettamente connessa al concetto espresso in precedenza delle
frequenze spaziali, espressa in cicli oppure in linee per unità di lunghezza. La risoluzione
radiometrica è detta anche contrasto ed indica la differenza di luminosità tra aree diverse di
un oggetto e tra oggetti diversi.
118
CAPITOLO 4. SISTEMA OTTICO
Figura 4.37: Procedura di convoluzione.
La risoluzione del sistema di formazione dell’immagine combina i due aspetti ossia il
contrasto degli oggetti ed i dettagli geometrici a scale diverse. Nel processo di formazione
dell’immagine si è visto che un elemento dell’oggetto assimilato ad una sorgente di luce
puntiforme proiettato dal sistema ottico nel piano immagine diventa un disco luminoso
descritto da h(x,y) la PSF . L’immagine complessiva dell’oggetto, attraverso il processo di
convoluzione, è ottenuta in ciascun punto come sovrapposizione di dischi luminosi che si
sommano linearmente.
Anche con un sistema ottico di alta qualità, privo di aberrazioni, un punto luminoso dell’oggetto è proiettato nel piano immagine come un’area luminosa estesa, a causa dell’effetto
della diffrazione che limita la risoluzione spaziale dell’immagine. Per quantificare il livello
di risoluzione massima possibile, consideriamo due punti luminosi dell’oggetto di uguale intensità. Vogliamo valutare nel piano immagine quale può essere la distanza minima tra i
centri delle rispettive aree luminose circolari descritti dalla PSF . Per un sistema ottico con
focale f il primo zero della PSF si ha in corrispondenza del raggio
λf
(4.31)
d
dove d è il diametro della lente e λ è la lunghezza d’onda della luce. Nel visibile, il
diametro del disco luminoso, detto anche disco di Airy , è uguale approssimativamente ad
f/# delle lenti espresso in milionesimi di metro (vedi figura 4.38).
In corrispondenza di δ si ha una misura angolare di
δ = 1.22
∆θ= 1.22 λ/d
poiché δ/f=sin∆θ ∼
= ∆θ (vedi figura 4.39a).
I dischi corrispondenti ai due punti luminosi dell’oggetto saranno visibili e separati nel
piano immagine (vedi figura 4.39a) se la loro separazione angolare ∆ϕ sarà molto più grande
4.11. RISOLUZIONE DEL SISTEMA OTTICO
119
Figura 4.38: Profilo del disco di Airy
di ∆θ. Considerando punti luminosi sull’oggetto sempre più vicini tra loro, nel piano immagine, i corrispondenti dischi di Airy si sovrappongono e tendono a diventare un unico
oggetto ossia non sono più discriminabili.
Il criterio di Rayleigh suggerisce che due punti luminosi sono ancora separati nel piano
immagine se il centro di un disco si trova sul primo minimo del disco corrispondente all’altro
punto luminoso (vedi figura 4.39b).
La separazione angolare minima solvibile è data da:
∆ϕmin = ∆θ = 1.22λ/d
(4.32)
mentre la distanza minima δ descrivibile dai due dischi nel piano immagine è calcolata
con la (7.32) che è chiamata la distanza di Rayleigh.
Una misura quantitativa del potere risolutivo per un sistema di formazione dell’immagine è dato dall’inverso della distanza di separazione oppure dall’inverso della separazione
angolare.
La qualità di un sistema può essere valutata considerando un oggetto piano campione
dove sono presenti strisce verticali e orizzontali, bianche e nere a diverso spessore e con
frequenza spaziale variabile. Tali strutture geometriche note possono essere espresse in
cicli per millimetro oppure numero di strisce (linee) per millimetro. Per separare strutture
geometriche con alte frequenze spaziali il sistema deve avere un alto potere risolutivo.
Una alternativa al criterio di Rayleigh, per valutare la risoluzione di un sistema ottico, è
data considerando la distanza di Abbe r 0 che esprime in modo approssimato il diametro
del disco di Airy considerato accettabilmente a fuoco nel piano immagine alla distanza q dal
centro ottico:
λq
r0 ∼
(4.33)
=
d
Si può osservare come r 0 varia inversamente al diametro del sistema ottico aumentando
in questo modo la risoluzione. Analogamente, per avere una buona risoluzione, può essere
utilizzata luce con lunghezza d’onda λ più corta, usando per esempio, luce ultravioletta
piuttosto che luce visibile come avviene in microscopia per evidenziare strutture geometriche
molto piccole.
120
CAPITOLO 4. SISTEMA OTTICO
Figura 4.39:
Vediamo ora l’altro aspetto che influenza la risoluzione dell’immagine, il contrasto o
la modulazione dell’intensità luminosa definita come:
M=
Imax − Imin
Imax + Imin
(4.34)
La modulazione esprime una misura quantitativa di come il sistema ottico proietta
l’energia luminosa dell’oggetto nel piano immagine. Per semplicità consideriamo un oggetto target con luminosità I i che illuminato produce una immagine di output I 0 , ciascuna linea della quale rappresenta la modulazione dell’intensità luminosa in ciascun punto
dell’immagine (vedi figura 4.40).
Nell’esempio, l’intensità luminosa di ciascuna linea è descritta dalla funzione seno che
ha una modulazione più alta rispetto alla stessa linea dell’immagine di output che è anche
funzione seno ma con modulazione minore.
Tale funzione rappresenta solo una frequenza spaziale (1 ciclo per 2 cm) con un periodo
spaziale T (uguale a 2 cm per un ciclo). In generale, anche per alte frequenze spaziali la
modulazione dell’oggetto è diversa dalla modulazione dell’immagine. Per quantificare complessivamente il concetto di risoluzione di un sistema acquisizione dell’immagine è definita
la funzione MTF, la funzione di modulazione di trasferimento che indica il rapporto della
modulazione dell’immagine alla modulazione dell’oggetto per tutte le frequenze spaziali.
La figura 4.41 rappresenta la funzione MTF di un sistema ottico con due tipi di lenti.
Se Tmin è il periodo spaziale minimo presente nell’oggetto target (distanza di separazione
tra due linee), Fmax =1/Tmin rappresenta la frequenza spaziale più alta presente. La curva
interseca l’asse orizzontale individuando una frequenza Fc detta Frequenza di soglia al di
sopra della quale non riesce a separare le strutture spaziali di input. Questa limitazione è
dovuta al fenomeno della diffrazione, ed applicando il criterio di Abbe, la frequenza di Soglia
Fc può essere calcolata con la seguente relazione:
Fc =
d
λf
(4.35)
che evidenzia come la risoluzione migliora con un diametro d della lente più grande.
4.11. RISOLUZIONE DEL SISTEMA OTTICO
121
Figura 4.40:
Figura 4.41: Funzione di Modulazione rispetto alle frequenze spaziali (linee per mm) per
due lenti.
122
CAPITOLO 4. SISTEMA OTTICO
Figura 4.42: Risposta di un sistema ottico ipotetico pe una singola frequenza spaziale.
4.12
Funzioni di Trasferimento Ottico (OTF)
In generale possiamo assumere che il sistema ottico operando come sistema lineare trasforma
il segnale di input sinusoidale in un altro segnale di output sinusoidale non distorto con
una variazione del contrasto (riduzione dell’ampiezza delle funzioni sinusoidale) dovuta alla
diffrazione ed alle aberrazioni (4.42).
L’informazione associata ad una linea dell’immagine può essere trasformata in una serie di
funzioni sinusoidali con diversi valori di ampiezza e di frequenze spaziali di Fourier. In questo
scenario, se consideriamo l’oggetto composto dalle componenti di Fourier, le modalità con
cui tutte le singole componenti armoniche sono trasformate dal sistema ottico per produrre
l’immagine, composta da armoniche con ampiezza diversa e senza essere sfasati, costituisce
l’aspetto fondamentale del processo di formazione dell’immagine (figura 4.43). La funzione
che modella tale processo è la funzione di trasferimento ottico (OTF).
In questo scenario, oggetti geometricamente complessi visualizzano la natura continua
delle loro trasformate di Fourier. La (4.35) suggerisce inoltre che un sistema ottico, estendendo la possibilità di avere diametro infinito, si comporta come un operatore di filtraggio
che rigetta le alte frequenze spaziali superiori ad un certo valore Fc , caratteristico di un dato
sistema ottico, lasciando alterate tutte quelle inferiori.
La funzione OTF è complessa, e nel dominio delle frequenze spaziali, i moduli rappresentano la funzione MTF, mentre la fase (Phase Transfer Funtcion – PTF) è trascurata
nell’ipotesi di sistema ottico privo di aberrazioni che modificano la fase. La funzione MTF
misura la riduzione del contrasto nel processo di formazione dell’immagine ottica (proiezione
dell’oggetto nel piano immagine). La funzione PTF quantifica gli spostamenti di fase e nei
sistemi ottici parassiali possono essere trascurati.
In sostanza la funzione MTF è lo strumento analitico che descrive le caratteristiche di
tutte le componenti di un sistema di acquisizione immagini (lente, sensori, convertitori,
ecc.). Se sono noti le MTF di ciascuna componente, la MTF del sistema completo è dato dal
prodotto delle singole MTF note. Ricordiamo che il processo di formazione dell’immagine
era stato modellizzato attraverso la convoluzione della funzione di luminosità dell’oggetto
f(X,Y) e la funzione PSF:
Z
+∞
Z
+∞
I(x, y) =
f (X, Y ) · h(x − X, y − Y )dXdY = f (X, Y ) ⊗ h(X, Y )
−∞
(4.36)
−∞
e per il teorema di convoluzione possiamo scrivere:
= (I(x, y)) = F (u, v) · H(u, v)
(4.37)
dove il simbolo = indica la trasformata di Fourier, F(u,v) e H(u,v) sono rispettivamente le
trasformate di Fourier dell’oggetto e della PSF, ed u e v sono le frequenze spaziali orizzontali
e verticali.
Alcuni aspetti rilevanti:
1. Lo spettro delle frequenze dell’oggetto è modificato attraverso l’operatore di moltiplicazione dallo spettro delle frequenze della PSF, denotato con H(u,v), che converte lo
4.13. CAMPIONAMENTO
123
Figura 4.43: Relazione tra spettro dell’oggetto e dell’immagine modificato da OTF; e
relazione tra oggetto e immagine nel dominio della luminosità modificata dalla PSF.
spettro dell’oggetto nello spettro delle immagini.
2. Lo spettro delle frequenze dell’immagine I è ottenuto con l’operatore di convoluzione
che nel dominio delle frequenze spaziali si riduce alla moltiplicazione dello spettro delle frequenze della luminosità dell’oggetto e la trasformata della PSF.
3. La (4.37) esprime la modalità con cui H(u,v) proietta lo spettro dell’oggetto nello spettro dell’immagine. Questa modalità l’avevano considerato espletata dalla funzione OTF che
possiamo allora identificarla con H:
H(u, v) = = (h(X, Y ))
(4.38)
1. Ricordiamo che siamo interessati a modificare con il modulo di H(u,v) le ampiezze
delle varie componenti di frequenza dello spettro dell’oggetto e la fase di tali componenti è
anche modificata per produrre lo spettro dell’immagine dell’oggetto.
2. Nel processo di convoluzione, la funzione caratteristica del sistema ottico è data dalla
funzione PSF mentre la funzione OTF rappresenta la corrispondente funzione nello spazio
di Fourier che caratterizza il sistema ottico. In tale spazio l’oggetto è rappresentato in termini di frequenze spaziali e la funzione di trasferimento ottico OTF modellizza come queste
strutture geometriche periodiche sono modificate dal sistema ottico.
3. Ricordiamo che noto h e calcolato la sua trasformata di Fourier H, il modulo di quest’ultimo rappresenta MTF mentre la fase la funzione di trasferimento della fase (PTF). Se h è
simmetrica (cioè dispari) non si hanno spostamenti di fase nel segnale di input, diversamente
accade se è una funzione asimmetrica. (Nell’esempio h è una funzione simmetrica).
Nelle condizioni di luce visibile (non coerente), la figura 4.43 mostra le relazioni tra
oggetto e spettro dell’immagine attraverso la funzione di trasferimento ottico (OTF), e la
relazione tra oggetto e Intensità luminosa dell’immagine attraverso la funzione PSF.
4.13
Campionamento
Dopo aver analizzato il modello fisico-matematico del processo di formazione dell’immagine
(generazione dell’immagine ottica) ed analizzato i parametri che lo caratterizzano (risoluzione
geometrica e radiometrica, funzione di modulazione e PSF), siamo ora in grado di digitalizzare l’immagine ottica ottenuta, ossia campionare la funzione continua di intensità luminosa
g(x,y) scegliendo una griglia di punti adeguatamente spaziati alla distanza (∆X,∆Y) nel
dominio spaziale dell’oggetto oppure nel dominio spaziale dell’immagine (∆x, ∆y).
Il processo di digitalizzazione comporta una perdita di informazione, nel senso che dell’immagine ottica continua g(x,y) solo l’intensità luminosa in corrispondenza dei nodi della
124
CAPITOLO 4. SISTEMA OTTICO
Figura 4.44: Griglia di campionamento funzione di Dirac
griglia (punti di campionamento) rimangono per rappresentare l’immagine. In altre parole, con il campionamento l’immagine continua g(x,y) è rappresentata con una matrice
bidimensionale I(m,n) dove m indica le righe e n indica le colonne.
E’ ragionevole pensare che la risoluzione della griglia di campionamento dovrà esser scelta
in accordo alla equazione (4.35) tale che se Fc è la frequenza spaziale più alta di interesse
nel piano dell’oggetto, corrispondente al periodo spaziale Tc che rappresenta il dettaglio
geometrico significativo più fine, la frequenza di campionamento Fs dovrà essere scelta con
il criterio che l’immagine campionata dovrà conservare i dettagli ancora ben contrastati.
Questo è possibile considerando il teorema del campionamento di Nyquist il quale stabilisce che per poter ricostruire perfettamente un segnale continuo attraverso dei suoi campioni generati con periodo spaziale Ts , ossia con frequenza spaziale Fs =1/Ts , è necessario
che il periodo spaziale Ts sia uguale o inferiore alla metà del periodo spaziale Tc corrispondente ai dettagli più fini presenti nell’immagine (Ts ≤ 12 Tc ). Equivalentemente si può dire
che la condizione di Nyquist è soddisfatta se la frequenza spaziale di campionamento Fs è
maggiore o uguale al doppio della frequenza massima Fc presente nell’immagine: Fs ≥2Fc .
Questa condizione di Nyquist, espressa in termini di frequenza spaziale, significa che campionando l’immagine con periodo spaziale Ts è possibile ricostruirla con tutte le frequenze
spaziali compreso la massima frequenza Fc :
1
2TS
Fc =
(4.39)
che è chiamata frequenza di Nyquist nell’ipotesi di una griglia quadrata.
Il processo di digitalizzazione può essere modellizzato matematicamente considerando il
prodotto tra l’immagine continua f(x,y) e la funzione ideale di campionamento spaziale
descritta dalla funzione Delta di Dirac bidimensionale che graficamente è rappresentata
come una griglia di punti equamente spaziati di ∆x e ∆y lungo gli assi coordinati (vedi
figura 4.44a).
Ricordiamo che la funzione Delta di Dirac è data da:
+∞
X
δ(x, y, ∆x, ∆y) =
X
δ(x − m∆x)(y − n∆y)
(4.40)
m,n=−∞
che soddisfa le seguenti relazioni:
Z∞ Z∞
0
f (x, y) =
0
0
0
0
f (x , y )δ(x − x , y − y )dx dy
0
(4.41)
−∞ −∞
Z² Z²
lim
²→0
−² −²
δ(x, y)dxdy = 1
(4.42)
L’immagine campionata I risulterebbe:
I(x, y) = f (x, y) · δ(x, y; ∆x, ∆y) =
+∞
X
m,n=−∞
X
f (m∆x, n∆y)δ(x − m∆x, x − n∆y) (4.43)
4.13. CAMPIONAMENTO
125
Figura 4.45: a) Lo spettro dell’immagine originale; b) lo spettro dell’immagine campionata.
La (4.43) evidenzia che l’immagine campionata eredita le informazioni di f(x,y) solo
campionandola nei nodi della griglia (m∆x, n∆y). Per il teorema di convoluzione la (4.43)
diventa:
= (I(x, y)) = F (u, v) ∗ D(u, v)
(4.44)
dove =(I), F e D sono le trasformate di Fourier rispettivamente delle funzioni I , f ed δ.
La trasformata di Fourier della funzione delta che descrive la griglia bidimensionale (∆x, ∆y)
è un’altra funzione delta che nello spazio delle
³ frequenze
´ rappresenta la griglia bidimensionale
1
1
con spaziatura lungo gli assi coordinati di ∆X , ∆Y descritta da:
+∞ X
X
D(u, v) = us · vs
δ(u − kus , v − lvs )
(4.45)
k,l=−∞
1
1
dove us = ∆x
e vs = ∆y
sono le frequenze di campionamento dell’immagine nel dominio di
Fourier.
Considerando l’immagine continua f(x, y) da campionare una funzione limitata, ossia
con la sua trasformata di Fourier con valore zero esterno ad una delimitata regione, dalla
equazione di convoluzione (4.44) sostituendo la (4.45) si ottiene la trasformata di Fourier
dell’immagine campionata:
= (I(u, v)) =
1 1
∆x ∆y
+∞ X
X
F (u − kus , v − lvs )
(4.46)
k,l=−∞
La (4.46) è ricavata considerando anche la proprietà di sifting della funzione delta (vedi
figura 4.44b):
XX
δ(x − x0 , y − y0 ) · f (x, y) = f (x0 , y0 )
(4.47)
La figura 4.45 mostra l’immagine originale e l’immagine campionata nello spazio delle
frequenze. Quest’ultima è ottenuta replicando in modo indefinito lo spettro
´
³ dell’immagine
1
1
, ∆y
.
ideale originale nello spazio delle frequenze con una griglia con risoluzione ∆x
Verifichiamo ora come nelle condizioni imposte dal teorema del campionamento (4.44)
l’immagine campionata possa essere ricostruita fedelmente anche se sono state perse le
informazioni dell’immagine tra i nodi della griglia.
In altri termini è possibile riavere f(x,y) partendo dall’immagine campionata I(x,y)?
Questo è possibile se potessimo ricavare F(u,v) da =(I(x, y)). Dalle figure precedenti
si osserva che questo è possibile eliminando da =(I(x, y)) tutte le repliche di F(u,v) ad
eccezione dello spettro centrato sull’origine di =(I(x, y)).
F(u,v) è ottenuto
moltiplicando =(I) con la funzione rettangolare di campionamento
Q³ u v ´
(figura 4.46)
2ux 2vy :
126
CAPITOLO 4. SISTEMA OTTICO
Figura 4.46: La funzione rettangolare di campionamento.
Figura 4.47: Interpolazione con sinx/x dell’immagine campionata.
Yµ u v ¶
F (u, v) = =(I(x, y)) ·
2ux 2vy
uc ≤ ux ≤
1
− uc
∆x
vc ≤ vx ≤
1
− vc
∆y
(4.48)
(4.49)
L’immagine originale continua f è ottenuta applicando la trasformata di Fourier di F
come segue:
·Y µ
¶
¸
u
v
f (x, y) = =−1 (F (u, v)) = =−1
,
· =(I(x, y))
2ux 2vy
Per il teorema di convoluzione la (4.48) diventa:
f (x, y) = I(x, y) ∗ 2ux vy
2ux vy
2ux vy +∞
X X
k,l= −∞
sin(2πux x) sin(2πvy y)
=
2πux x
2πvy y
f (k∆x, l∆y)
sin(2πux x) sin(2πvy y)
(2πux x) (2πvy y)
(4.50)
che indica l’operazione di convoluzione tra la funzione campionata I(x,y) e la funzione di
interpolazione del tipo sin(x)/x .
La (4.50) ci informa anche che l’operazione di convoluzione, moltiplicando la funzione
campionata con la funzione di interpolazione nei punti di campionamento produce la replica
della funzione
sin x
x e garantisce la ricostruzione esatta dalla funzione originale (come indicato in figura
1
1
4.47) attraverso la sommatoria che sovrappone le funzioni sin(x)/x con ux = 2∆x
e 2∆y
. La
funzione di interpolazione diventa
sin [2π(x/2∆x)] sin [2π(y/2∆y)]
·
2π(x/2∆x)
2π(y/2∆y)
di cui è rappresentata in figura 4.47 la versione monodimensionale.
Se le condizioni di Nyquist non sono mantenute si può verificare per esempio il sottocampionamento in cui le frequenze di campionamento sono inferiore a quelle di Nyquist:
4.13. CAMPIONAMENTO
127
Figura 4.48: Spettro di immagine sottocampionata.
us < 2uc e vs < 2vc
ossia
∆x >
1
1
e ∆y >
2uc
2vc
(4.51)
(4.52)
Se risultano soddisfatte le relazioni (4.51) o (4.52) le repliche periodiche di F(u,v) si
sovrappongono (vedi figura 4.48) ottenendo uno spettro distorto =(I(x, y)) da cui non è
possibile recuperare integralmente lo spettro F(u,v) e la (4.48) non è più soddisfatta dal segno
di uguaglianza. Questo tipo di distorsione introdotta, per il non corretto campionamento, è
chiamato l’effetto di Moirè per
le immagini mentre nel caso monodimensionale viene chiamato errore di aliasing. Un
modo per rimuovere questo errore consiste nel filtrare con un filtro passa-basso l’immagine
allo scopo di aumentare il periodo spaziale delle strutture geometriche presenti nell’immagine
(ossia diminuire la frequenza spaziale di campionamento) per soddisfare le condizioni di
Nyquist.
Riassumiamo gli aspetti fondamentali della teoria di campionamento:
1. Immagine con dimensioni finite: vista come una funzione bidimensionale è assunta
con banda limitata (la trasformata di Fourier è zero nell’intervallo esterno delle frequenze
considerate).
2. Campionamento modellizzato come replica dello spettro dell’immagine originale. L’immagine campionata è rappresentata (vedi figura 4.50) dai campioni f (k∆x, l∆y) ricavata campionando l’immagine continua originale f(x,y) con una griglia bidimensionale con
risoluzione (∆x, ∆y).
3. Le condizioni di Nyquist consentono di ricostruire fedelmente l’immagine originale partendo dall’immagine campionata se quest’ultima è stata campionata con banda limitata da
Fc (massima frequenza presente nell’immagine) e nel rispetto della equazione (4.49) che lega
l’intervallo spaziale di campionamento (∆x, ∆y) con la frequenza limite Fc .
4. Le condizioni di Nyquist in termini di frequenza impongono che la frequenza di campionamento deve essere maggiore o uguale alla frequenza limite della banda
¢
¡ 1
1
.
∆x = us ≥ 2extuc
∆y = vs ≥ 2extvc
5. Il fenomeno di Aliasing (effetto di Moire nel caso 2D) si verifica se le condizioni 3 e 4
non sono mantenute ossia us <2uc e vs <2vc , e produce distorsioni nell’immagine campionata.
6. Il fenomeno di Aliasing produce nelle immagini distorsioni osservabili che non possono
essere eliminati con filtraggi successivi. Può essere eliminato solo se prima del campionamento l’immagine è filtrato per attenuare le alte frequenze e soddisfare la condizione del
128
CAPITOLO 4. SISTEMA OTTICO
Figura 4.49: a) L’immagine originale. b) L’effetto di Moirè ottenuto campionando l’immagine a) ogni quattro punti. c) L’effetto di Moirè ottenuto campionando l’immagine a)
ogni cinque punti. d) Effetto di aliasing generato con un segnale con lunghezza d’onda 10λ
campionando con ∆x uguale a 9/10 della lunghezza d’onda il segnale sinusoidale di input.
Figura 4.50: Scansione elettronica per la digitalizzazione con una telecamera con sensori
CCD.
punto 4.
7. La ricostruzione dell’immagine originale f(x,y) è ottenuta attraverso un processo di
interpolazione descritta dalla equazione (4.50).
Nella realtà i sistemi di acquisizione delle immagini (scanner, machina fotografica, telecamera, ecc.) non operano nelle condizioni idealizzate sopra indicate. L’immagine non può
essere descritta come una funzione con banda limitata. La griglia di campionamento non
sempre è regolare e questo genera il fenomeno di aliasing.
Per esempio, in una telecamera con sensori CCD che deve campionare l’immagine ottica
continua f(x,y) con una griglia bidimensionale con risoluzione
(∆x, ∆y), il meccanismo di scansione elettronica che digitalizza l’immagine è costituito
da una matrice di fotorecettori di 512x512 come evidenziato in figura 4.50, dove ciascun
fotorecettore ha dimensioni 10µmx10µm. La figura 4.50 mostra come per ragioni fisiche
esiste uno spazio tra fotorecettori e conseguentemente il periodo spaziale di campionamento
è più piccolo violando le condizioni di Nyquist (equazioni 4.51 o 4.52). Questo comporta il
fenomeno di Moirè che elimina le alte frequenze spaziali presenti nell’immagine.
I fotorecettori possiamo considerarli come il segnale di campionamento modellizzato da
un impulso rettangolare (esprime la sensibilità del sensore) la cui larghezza è data dalle
4.14. QUANTIZZAZIONE
129
dimensioni del fotorecettore. Con il segnale di campionamento più piccolo si ha l’effetto
di ridurre l’energia delle alte frequenze presente nell’immagine. Abbiamo già osservato in
precedenza che questo problema può essere eliminato prima del campionamento (prima
dell’acquisizione) defocalizzando per esempio l’immagine, minimizzando cosı̀ con l’effetto di
Moirè.
4.14
Quantizzazione
Mentre il campionamento ha definito la risoluzione spaziale ottimale dell’immagine, per completare il processo di digitalizzazione dell’immagine è necessario definire la risoluzione radiometrica (livelli di luminosità) adeguata ossia con quale accuratezza il pixel rappresenterà
l’intensità luminosa dell’oggetto originale.
Il processo di quantizzazione converte i valori continui di intensità, in corrispondenza
di ciascun punto campionato dell’immagine, in un valore numerico che può assumere valori
compresi in un intervallo definito che dipende dal numero di bit assegnati.
Per un’immagine binaria (ciascun pixel rappresentato con valore 0 oppure 1) è sufficiente
assegnare 1 bit a ciascun pixel. Normalmente a ciascun pixel sono assegnati 8 bits e in questo
modo l’intervallo di input di intensità luminosa (imin , imax ) può essere convertito in 256
livelli normalmente tra 0 e 255 memorizzando il valore del pixel in un byte nella memoria
del calcolatore.
In figura 4.51 sono visualizzate immagini quantizzate a diverse risoluzioni di intensità
luminosa e si osserva come partendo dall’immagine a 8 bit di buona qualità man mano
che diminuiscono i bit di quantizzazione (ossia livelli di intensità) si degrada la qualità
dell’immagine.
La quantizzazione ossia l’assegnazione di un valore di intensità a ciascun pixel campione
dell’immagine, e di codifica (nel caso della digitalizzazione delle immagini significa trasformazione del segnale intensità luminosa in una forma binaria adeguata per l’elaborazione e
memorizzazione digitale) sono processi distinti anche se nella caso della digitalizzazione delle
immagini è realizzato dallo stesso dispositivo: convertitore da analogico a digitale.
Se la scala di quantizzazione è composta da intervalli di uguale ampiezza, la quantizzazione è detta lineare o uniforme altrimenti è chiamata non lineare. L’operazione di quantizzazione, essendo un processo di discretizzazione comporta di assegnare valori approssimati
definiti con l’errore di quantizzazione.
In figura 4.52 è evidenziata graficamente la funzione di trasformazione a gradino per
quantizzare l’intervallo di input delle ascisse in un intervallo definito dai livelli di quantizzazione significativi. Nella digitalizzazione delle immagini ai fini della visualizzazione la
codifica delle intensità in 8 bit è sufficiente per avere una buona qualità dell’immagine a livelli di grigio quantizzandola con una scala logaritmica che meglio si adatta alla risposta dei
fotorecettori visivi. In Questo modo si produce una risoluzione più alta in corrispondenza
della intensità luminosa più bassa dove l’occhio presenta una buona sensibilità alle deboli
variazioni di luminosità, ed al contrario si ha risoluzione più bassa in corrispondenza di pixel
più luminosi dove comunque l’occhio ha una peggiore sensibilità.
In molte applicazioni di visione artificiale 8 bit sono sufficienti per la quantizzazione
dell’immagine. In altre applicazioni, per esempio in astronomia, oppure in astrofisica oppure
in biomedica, è richiesta una quantizzazione con risoluzione più alta con 12 e perfino 16 bits
di quantizzazione.
130
CAPITOLO 4. SISTEMA OTTICO
Figura 4.51:
Per valutare l’errore introdotto dal processo di quantizzazione, si può utilizzare il metodo
di LLOYD-MAX che minimizza l’errore quadratico medio dato da:
Z Imax
2
2
² = E (I − Iq ) =
(I − Iq ) p(I)dI
(4.53)
Imin
dove I rappresenta l’intensità luminosa di input, Iq il valore quantizzato e p(I) è la
distribuzione densità di probabilità dei valori dell’immagine di input (vedi figura 4.53).
Ipotizzando una distribuzione gaussiana per p(I) con variazione σ I e media MI, se gli L
livelli di quantizzazione sono uniformemente spaziati di ∆I=(I
min
¡ max -I∆I
¢)/L, l’errore di quantizzazione ² risulta uniformemente distribuito nell’intervallo − ∆I
2 , 2 . L’errore quadratico
medio è dato da:
Z ∆I/2
∆I 2
1
2
(I − Iq ) dI =
(4.54)
²=
∆I ∆I/2
12
Se l’immagine I ha un range dinamico Imax -Imin e distribuzione uniforme, la varianza
σ I 2 è data da (Imax -Imin )2 /12. Con un quantizzatore uniforme con Q bit risulta: ∆I=(Imax Imin )/2Q .
Da ciò consegue che
∈
= 2−2Q ⇒ SN R = 10 log10 22Q = 6Q dB
σI2
(4.55)
4.15. ESEMPI DI SISTEMI DI ACQUISIZIONE REALI
131
Figura 4.52:
Figura 4.53:
ossia, il rapporto segnale rumore raggiunto da un ottimo quantizzatore quadratico medio
per una distribuzione uniforme è di 6 dB per bit espresso in decibel.
La teoria dell’informazione di codifica che in generale calcola l’entità dell’errore introdotto
in relazione al numero di bit associati per pixel, anche se non assicura la funzione di quantizzazione ideale, presenta una linea guida sulle condizioni ottimali per minimizzare l’errore
di quantizzazione che non può mai essere zero.
In generale il rapporto segnale rumore per la quantizzazione è dato da:
µ
SN R = 10 log
4.15
NI2
²
¶
(4.56)
Esempi di sistemi di acquisizione reali
Analizziamo ora alcuni parametri caratteristici dei sistemi reali di acquisizione delle immagini, analizzando le loro differenze significative.
Figura 4.54: Prestazioni di un quantizzatore Gaussiano.
132
CAPITOLO 4. SISTEMA OTTICO
Figura 4.55: Profondità di campo per una lente sottile.
4.16
Telecamera e macchina fotografica
Tali dispositivi utilizzano in particolare sistemi ottici che operano nella condizione in cui la
distanza degli oggetti do è normalmente molto maggiore della distanza focale (do >>di ∼
=f) e
per l’eq.() il fattore di ingrandimento S≤1.
Un punto luminoso dell’oggetto se è perfettamente a fuoco è proiettato nel piano immagine che si trova alla distanza di =f del centro della lente. Se non risulta a fuoco il vertice del
cono di proiezione si troverà ad una distanza minore di f e superiore in relazione al valore di
do in accordo alla equazione dei punti coniugati. In tale contesto il punto luminoso nel piano
immagine diventa un disco di diametro ² che può essere accettato a fuoco se non raggiunge
un valore del diametro non superiore ad un valore di soglia d.
Se si considera la pupilla di entrata uguale a quella di uscita, con do >0 il diametro del
disco è calcolata dai triangoli simili e risolto in termini dei parametri della lente e della
distanza dell’oggetto (vedi figura 4.56):
µ
¶
µ
¶ µ
¶
Sia − Soa
do
f
²=D
= f2
−1 /
(do − f )
(4.57)
Sia
Soa
D
con do =∞ segue che
²=
f2
D
= f2
= f · D/s
f
f soa
D soa
(4.58)
Per distinguere se il disco è focalizzato prima o dopo il piano focale ² è rispettivamente
positivo o negativo anche se dovrà essere sempre considerato positivo come valore assoluto.Per macchina fotografica con formato da 35 mm un disco accettabile risulta con diametro
0.03 per la maggior parte delle ottiche commerciali.
Se la lente è focalizzata all’infinito, l’immagine si trova alla distanza focale f mentre
l’oggetto più vicino al centro ottico che risulta accettabilmente a fuoco si trova ad una
distanza chiamata distanza iperfocale D.I.:
dI = f D/d = f 2 /fstop · ²
(4.59)
dove fstop = f /D con D diametro della pupilla d’entrata.
Se l’oggetto si trova ad una distanza finita l’oggetto più vicino a fuoco ancora accettabile
si trova alla distanza do min:
domin = di do / (di + (do − f ))
(4.60)
mentre l’oggetto più lontano ancora a fuoco si trova alla distanza do max:
domax = di do / (di − (do − f ))
(4.61)
4.17. MICROSCOPIA
133
che diventa uguale all’infinito se il denominatore diventa zero oppure negativo. La profondità
di campo di un oggetto alla distanza do dalla lente è data dalla differenza do max- do min.
Una telecamera CCD con buona risoluzione utilizza fotorecettori di dimensioni 10µmx10µm.
L’aerea sensibile nel piano immagine in questo caso ha le dimensioni di circa 12 × 12mm2 ,
dipende dal numero di fotorecettori presenti del chip, attualmente possono superare 3 milioni
di fotorecettori nelle telecamere a colori.
Se si considera una lente con f=16mm e con un diametro f# =fstop =f/D=f/2 per un
oggetto alla distanza di 2m e considerando luce visibile dominante λ=555nm si hanno:
diametro del disco ² = 2.43934·λ·f# = 2.43934·555·f#
per ²=0.03mm
c
f# = 0.00135383
= 22.16
per la fotografia
f# =
0.05
0.00135383
= 36
f# = 0.005 = 3.6
per la fotografia
per le telecamera
f# = 0.013 = 2.2
domin = 25.600 · 2.000/(25.600 + (2.000 · 16)) = 1.856mm
DI = f 2 /(f /# · ²) = 162 /2 · 0.005 = 25.600mm
domax = 25.600 · 2.000/(25.600 − (2.000 − f )) = 2.168mm
si osserva una buona profondità di campo (2.168÷1.856) di circa 312mm.
Quando d o ∼
f = 16
= d i considerando f 6= = 2
d o = 2f i = 32mm
domin = 25.600 · 32/(25.600 + (32 − 16)) = 31
domax = 25.600 · 32/(25.600 − (32 − 16)) = 32.02
Si osserva come la profondità di campo si riduce moltissimo e pertanto solo oggetti piani
e piccoli possono essere acquisiti.
4.17
Microscopia
Per questi dispositivi la lente che attraversa un supporto meccanico è allontanato dal piano
immagine per avere una distanza d i >>f mentre la distanza dell’oggetto è quasi uguale alla
focale f della lente (d o ∼
=f ). In queste condizioni il fattore di ingrandimento s = d i /d o >>1
e l’ottica diventa in questo caso fondamentale per ottenere immagini fortemente ingranditi
e di qualità. Galileo fu il secondo che annunciò l’invenzione del microscopio dopo Zacharias
Janken. La lente vicina all’oggetto è chiamata obiettivo che forma l’immagine reale, invertita
ed ingrandita con focale f o .
L’immagine è formato nel piano field stop della lente oculare con focale f e . I raggi
luminosi che emigrano da questo piano immagine passano attraverso la lente oculare come
fascio di raggi paralleli all’asse ottico. In questo seconda lente, l’immagine è ulteriormente
ingrandita ed il risultato dell’ingrandimento finale P I è il prodotto di quello traverso S o
134
CAPITOLO 4. SISTEMA OTTICO
Figura 4.56: Telescopio di Galileo.
causato dall’obiettivo di focale f o e dall’ingrandimento oculare S e . C i e C ie sono le quantità
x o indicati nella figura 6.11 distanza dell’oggetto (o immagine) dal fuoco.
µ ¶µ
¶
Ci
Cie
P T = So · Se =
(4.62)
fo
fe
dove d i in questo caso deve considerarsi la distanza, tra il secondo fuoco dell’obiettivo con
focale f o e il primo fuoco dell’oculare f e che normalmente è standard con valore L=160mm,
nota come la lunghezza del tubo ottico di separazione delle lenti ossia la distanza dell’immagine dall’obiettivo (pupilla di entrata). P t è chiamato potenza di ingrandimento di uno
strumento di visione definita come il rapporto delle dimensioni dell’immagine sulla retina
quando l’oggetto si osserva con lo strumento di visione ad occhio nudo. Si osserva inoltre
che se l’oggetto è posto alla distanza f o dall’obiettivo, l’ingrandimento So = −di /do tende
all’infinito ossia l’immagine si forma all’infinito.
Nell’ipotesi che la focale dell’obiettivo sia uguale a 32, l’ingrandimento S o è di un fattore
5, che indica la potenza di ingrandimento (detto anche 5x). Se l’oculare ha una focale
f e =25,4 e l’oggetto è posto alla d i 254 dal fuoco dell’obiettivo, l’ingrandimento P t del
microscopio per la (4.62) risulta 50x. Uno strumento di visione in generale ed in particolare
un microscopio è caratterizzato oltre che dalla potenza di ingrandimento P t anche dalla
qualità e luminosità dell’immagine ottenuta. Quest’ultima dipende dalla quantità di luce
acquisita dall’obiettivo che è caratterizzato dal parametro f # .
Quando la distanza dell’oggetto e dell’immagine sono finite, un parametro più adeguato
per esprimere la luminosità del sistema ottico è dato dalla apertura numerica NA:
N A = no · sin θ ∼
= D/2f
(4.63)
dove n o è l’indice di rifrazione del mezzo adiacente all’obiettivo (olio, aria, acqua, ecc.), e
θ è l’angolo di massima apertura angolare di luce acquisita dell’obiettivo rispetto all’origine
del piano oggetto. Per l’aria l’indice di rifrazione è circa 1. Per il microscopio, i parametri di
risoluzione del sistema di acquisizione (distanza tra pixel) sono meglio definiti se si ragiona
sul piano dell’oggetto piuttosto che sul piano immagine. In questo caso l’oggetto è posto
alla distanza dall’obiettivo che risulta quasi sempre uguale ad f. In queste condizioni, noto
il fattore di ingrandimento S o dell’obiettivo del microscopio, la frequenza di soglia nel piano
oggetto è data da:
Fe = So D/λf = D/λf ∼
(4.64)
= 2N A/λ
ed il diametro del disco calcolato con la distanza di Ryleagh è data da:
² = 0.61λ/N A
(4.65)
Se la potenza di ingrandimento è adeguata, con una apertura angolare non molto alta,
l’immagine risulta di buona qualità con un diametro del disco con valore compreso nell’intervallo 0.025:0.05mm per la fotografia e telecamere. Con le potenze di ingrandimento di
4.18. TELESCOPIA
135
Figura 4.57: Telescopico astronomico.
50x ed una luminosità di f/1 si può verificare con le formule precedenti che la profondità di
campo si riduce decisamente diventando di qualche frazione di micron di millimetro.
4.18
Telescopia
Al contrario della microscopia, nella telescopia un oggetto lontano è osservato apparendo ben
ingrandito. Come si osserva in figura 4.57, dell’oggetto che si trova ad una distanza finita
dell’obiettivo con focale f o , si forma l’immagine subito dopo il secondo fuoco dell’obiettivo
stesso. Questa immagine diventa l’oggetto della seconda lente di focale f e che è l’oculare.
Quest’ultima forma una immagine virtuale ingrandita se l’immagine intermedia si forma ad
una distanza uguale o minore di f e rispetto all’oculare. In sostanza, l’immagine intermedia
risulta costante e solo l’oculare è mosso per mettere a fuoco il telescopio.
Per il telescopio d o >> d i ∼
= f. La frequenza di soglia F c (espressa in cicli/radianti) nel
sistema di coordinate angolari centrate rispetto al telescopio è data:
Fc =
D
λ
(4.66)
mentre il disco di Airy ha il diametro:
δ = 2.44λ/D
(4.67)
L’ingrandimento del telescopio è dato dal rapporto fra l’angolo θ sotto il quale si osserva
l’oggetto e l’angolo sotto cui si vede lo stesso oggetto senza telescopio. L’ingrandimento è
proporzionale alla lunghezza focale f o del telescopio ed inversamente proporzionale a quella
dell’oculare ST = −fo /fe . Normalmente f o è fisso mentre si cambiano gli oculari con focali
diverse. Per esempio, un telescopio con f o = 10.000mm produce un ingrandimento di 1000
se si utilizza un oculare con f e =10mm.
4.19
La funzione MTF del sistema di acquisizione
Un sistema completo di acquisizione, elaborazione e restituzione dell’immagine possiamo
considerarlo come una catena sequenziale di sistemi lineari invarianti linearmente ed il
loro effetto risultante può essere modellato con una singola funzione PSF oppure con la
corrispondente unica funzione di trasferimento.
Il sottosistema di acquisizione è descritto dalle funzioni PSF h1 ed h2 rispettivamente
corrispondenti alla componente ottica ed alla componente di digitalizzazione (per esempio
una telecamera) del sistema.
Il sottosistema di elaborazione descritto da p(x,y) ipotizziamo che non introduca nessuna
alterazione dell’immagine digitale. Il sottosistema di restituzione, per esempio un monitor, è
modellato dalla funzione di trasferimento h3 (x,y). La funzione di modulazione MTF dell’intero sistema è dato combinando per moltiplicazione le funzioni MTF di ciascuna componente
del sistema.
136
CAPITOLO 4. SISTEMA OTTICO
h(x,y)=I-1(H)
+
Sistema
Processo
Output
Rumore
H(u,v)=H1*H2*H3
Figura 4.58:
Figura 4.59: Sistema di acquisizione e di restituzione immagini.
La funzione PSF o le funzioni di trasferimento sono note analiticamente oppure calcolate sperimentalmente oppure fornite direttamente dai costruttori delle singole componenti
del sistema. In figura 4.60 sono rappresentate le PSF e le funzioni di trasferimento delle
componenti del sistema.
La funzione di trasferimento dell’intero sistema è dato dal prodotto delle funzioni di
trasferimento di ciascuna componente del sistema e si osserva come quest’ultima sia un’ampiezza minore mentre la funzione PSF corrispondente h(x,y) dell’intero sistema presenta una
ampiezza maggiore dimostrando come il sistema introduce un leggero effetto di sfocamento.
Un buon sistema di acquisizione e visualizzazione immagine deve avere una funzione di
modulazione MTF di trasferimento dell’immagine caratterizzato ad attenuare le alte frequenze generalmente dominate dal rumore mentre dovrebbe lasciare le altre frequenze generalmente dominate dal rumore mentre dovrebbe lasciare inalterate le frequenze corrispondenti
ai dettagli delle immagini in accordo al criterio di Nyquist che definisce la frequenza limite
di taglio ossia la più alta frequenza presenta un’immagine da mantenere, ed in accordo al
criterio di Raylegh che fissa la spaziatura di campionamento a metà della risoluzione del
diametro dello spot di campionamento.
Concludiamo, inoltre, con l’aver modellizzato il sottosistema ottico come un sistema lineare invariante spazialmente e considerato valido entro certi limiti di apertura del sistema
al di sopra di determinati valori. In condizioni di illuminazione con luce coerente il sistema ottico è considerato lineare in intensità luminosa. La funzione PSF che descrive il
Figura 4.60: Funzioni di trasferimento delle varie componenti del sistema.
4.19. LA FUNZIONE MTF DEL SISTEMA DI ACQUISIZIONE
137
sistema ottico è finita e tendenzialmente ampia per l’effetto dell’aberrazione ottica e della
natura ondulatoria della propagazione della luce. Un modo semplificato per modellizzare
la caratteristica (PSF e OTF) del sistema è quello di considerare la componente ottica con
diffrazione limitata ossia con assenza di aberrazioni.
Con questa assunzione la risoluzione del sistema dipende solo dalla diffrazione (limitata).
Un sistema ottico con diffrazioni limitate ha la caratteristica di trasformare onde sferiche
divergenti entranti in onde sferiche che escono convergenti dal sistema ottico. L’energia luminosa che attraversa il sistema ottico è caratterizzato dalla pupilla di entrata che rappresenta
il piano contenente l’apertura del sistema ottico stesso.
138
CAPITOLO 4. SISTEMA OTTICO