Sensori
 Un sensore per immagini è un dispositivo che converte la
luce incidente sulla sua superficie in impulsi elettrici che,
a loro volta, sono convertiti in immagini.
 In un certo senso si parte da un’immagine continua
(quella del mondo reale) e attraverso una serie di
operazioni di quantizzazione/ricostruzione, si torna ad
un’immagine continua, la foto.
 I fotoni incidenti passano attraverso la lente che li dirige
verso il sensore.
 La lente ha il compito fondamentale di far pervenire sul
sensore quanta più luce possibile, evitando distorsioni e
aberrazioni cromatiche di sorta.
Struttura di un sensore
 Si tratta di una matrice di pixel nxm, disposti a reticolo




non necessariamente quadrato.
Come ogni dispositivo digitale, anche i sensori delle
fotocamere e delle videocamere fanno uso dei soliti 3
colori (rosso, verde e blu) che combinati tra di loro, con la
luminanza (ovvero l’intensit{ luminosa registrata) a fare
da funzione peso, permettono di ricavare tutti gli altri
colori.
In pratica esistono due tipi di sensore, indipendentemente
dalla tecnologia adottata e dalla forma dei pixel:
matrice bayer
tecnologia X3 di Foveon
Bayer pattern (1)
 Presentano una disposizione dei 3 colori che chiameremo,
impropriamente, di base, sullo stesso piano;
 Nei sensori con pattern di tipo bayer, sul sensore, che è di
tipo monocromatico, è applicata una maschera su cui, per
ogni pixel, si attua una suddivisione in 4 subpixel, 1 rosso,
1 blu e 2 verdi (perchè l’occhio umano è più sensibile al
verde e, di conseguenza, è opportuno che su quelle
frequenze l’informazione catturata sia massima) nel modo
indicato in figura
Bayer pattern (2)
 Il sensore vero e proprio, quello al di sotto della
maschera, cattura l’intensit{ luminosa ed è formato,
sia che si parli di cmos che di ccd, di una matrice di
fotodiodi; la maschera fornisce le informazioni sul
colore, filtrando le componenti indesiderate; in
pratica, la maschera non fa altro che permettere alle
componenti del colore indicato per ogni subpixel, di
attraversarla per raggiungere il sensore, riflettendo
tutte le altre (per questo motivo si schematizza con
quadratini rossi, blu e verdi).
Bayer pattern (3)
 Il processore, ricevute le informazioni necessarie, abbina al
colore corrispondente ad una determinata locazione sulla
maschera la relativa intensità luminosa ricevuta.
 Quindi fa lo stesso per i subpixel contigui e, interpolando i 4
valori di un rosso, un blu e due verdi, ricava il valore di un
singolo pixel.
 Nell’immagine, ad esempio, il primo pixel lo si ricava partendo
dal subpixel rosso in alto a sinistra e, muovendosi in senso
orario, andando a toccare il subpixel verde al suo fianco e poi,
in ordine, il blu ed il verde posti al di sotto dei primi due.
 Il pixel successivo, sulla stessa riga, invece, lo si ricava partendo
dal subpixel verde immediatamente successivo al primo rosso e
così vie.
Problemi legati al demosaicing
 L’operazione di demosaicing, per quanto possa essere
sofisticata, dà luogo ad artefatti, il più comune tra i quali è
noto come moire e risulta evidente quando si tenta di
ricostruire qualcosa assimilabile ad un reticolo periodico
utilizzando un altro reticolo periodico a diversa frequenza
spaziale, oppure con differente angolo (il pattern del
sensore).
 Nelle immagini in basso, uno schema che spiega la
formazione del moire in caso di pattern con differente
angolazione
Aliasing (1)
 La presenza di questo tipo di artefatti viene chiamato
aliasing spaziale, obbligano all’uso di appositi filtri che,
nella fattispecie, sono di tipo fisico, costituiti da una lente
posta sul sensore che ha il compito fare quello che
solitamente viene fatto dal filtro antialiasing
 In pratica, il filtro antimoire, definito anche filtro
antialiasing, non fa altro che fare operazione di blurring
tra 4 subpixel contigui, secondo uno schema riconducibile
ad un pattern di tipo rotated grid; in tal modo, si riduce
l’effetto dell’aliasing ma si rendono più morbide le
immagini.
Aliasing (2)
 Alcuni metodi per ridurre il moire sono quelli di
aumentare la frequenza di campionamento spaziale,
ovvero aumentare la risoluzione del sensore, ma, oltre un
certo limite, si può incorrere in problemi devivanti dalla
diffrazione e si ha un incremento del rumore digitali ad
alti ISO.
 Alcuni produttori scelgono di implementare filtri
antimoire meno aggressivi (ad esempio Pentax con la
K20D) col risultato di aumentare il potere risolvente del
sistema lente sensore (quella che in gergo si definisce
risoluzione assoluta e si misura il LPH ) ma di diminuire
la risoluzione di estinzione a causa del moire.
Foveon (1)
 Questo tipo di sensori presentano una disposizione di
tipo stratificata, con il blu a comporre lo strato
superiore con a seguire il verde ed il rosso.
 Sfrutta il principio che una radiazione incidente è in
grado di penetrare tanto più in profondità quanto più
è grande la sua lunghezza d’onda.
 Partendo da questo principio, un sensore foveon si
compone di tre strati di silicio,
uno per ogni colore,
come illustrato in figura
Foveon (2)
 Come per il sensore bayer, è ancora necessaria l’operazione di
interpolazione tra le 3 componenti cromatiche di base per
ottenere la crominanza del singolo fotosito.
 Quello che cambia è il fatto che, in questo caso, i subpixel di
un singolo pixel sono usati solo per determinare il valore
cromatico di quel pixel e non sono riutilizzati per determinare
anche i valori dei pixel vicini.
 Non è dunque necessaria l’operazione di demosaicing anche se
si deve, comunque ricorrere ad un’interpolazione.
 Questo diminuisce l’impatto dell’aliasing e permette alle
fotocamere che fanno uso di sensore X3 di non avere il filtro
antimoire
Riepilogo
 Quindi, ricapitolando e volendo schematizzare al
massimo, un sensore è un collettore di fotoni a cui
sono collegati dei circuiti elettronici che hanno il
compito di “leggere” l’intensit{ luminosa per ogni
componente cromatica delle tre di base, tradurla in
segnali elettrici (una carica o un livello di tensione a
seconda della tipologia di sensore) interpretabili da
un processore che ha il compito di ricostruire
l’immagine finale.
Obiettivi
 Per svolgere al meglio questo compito, la matrice di




fotodiodi di cui è composto il sensore, ha bisogno di
raccogliere quanta più informazione possibile, cercando
di evitare o ridurre interferenze o disturbi di varia natura.
A tal fine, il sensore deve essere “aiutato”
tramite l’uso di lenti di buona qualit{,
deve avere opportune dimensioni dei fotositi, non
inferiori a certe dimensioni (per evitare la diffrazione e per
raccogliere il maggior quantitativo di fotoni)
Utilizzo di microlenti focalizzanti, per concentrare il
maggior quantitativo possibile di fotoni sulla parte
fotosensibile del pixel
Struttura di un fotodiodo (1)
 Quello riportao qui sopra è lo schema tipico di un
sensore, sia esso cmos, ccd, nmos (i live mos di
Olympus)
Struttura di un fotodiodo (2)
 A seconda della tipologia di sensore, alcuni elementi




possono o meno essere presenti: alcune medio formato
con risoluzioni non troppo elevate, hanno sensori privi di
microlenti, oppure le fotocamere con sensore X3 non
hanno il filtro antimoire;
alcune fotocamere non hanno filtro per infrarossi;
Nei sensori più “affollati” e con fotositi più piccoli, le
microlenti sono di tipo gapless o, addirittura, presentano
un doppio strato di microlenti, uno di tipo gapless
ed uno, più interno,
di tipo tradizionale.
Efficienza quantica QE
 un sensore per la cattura delle immagini ha il compito di
trasformare la luce in segnale elettrico e per farlo si serve di
fotodiodi o fototransistor basati sul maccanismo della
giunzione p-n.
 Una delle caratteristiche importanti, dunque, di questi
dispositivi, è la loro capacità di convertire i fotoni in elettroni.
Una misura di questa capacità è data dalla cosiddetta efficienza
quantica (QE), definita come il rapporto tra il numero di
coppie elettrone-lacuna prodotte (soprattutto) nella zona di
svuotamento della giunzione p-n e quello dei fotoni incidenti.
 L’efficienza quantica è un parametro intrinseco del tipo di
materiale utilizzato e non presenta un valore uniforme lungo
tutta la banda ma dipende dalla lunghezza d’onda della
radiazione incidente.
Efficienza di rivelazione DQE
 Un altro parametro che tiene conto anche dello
spessore dei materiali fotosensibili, delle tensioni di
alimentazione e di eventuali accoppiamenti ottici, è
l’efficienza di rivelazione (DQE), definita come
rapporto tra fotoelettroni prodotti e fotoni incidenti.
Differenza tra QE e DQE
 La QE ci può permettere di dire che un sensore è più efficiente
di un altro;
 ma non ci permette di dire se ciò è dovuto al fatto che sia
effettivamente migliore il materiale fotosensibile utilizzato,
oppure se dipende dalla minor quantità di rumore o se ha
microlenti di qualità superiore; o se alimentato da tensioni
differenti ci dice soltanto che il segnale elettrico generato in
uscita (comprensivo del relativo rumore) rapportato al segnale
(ottico) in ingresso, fornisce un valore superiore per una
fotocamera anzichè per un’altra.
 Il DQE, al contrario, tiene conto di questi fattori, fornendo la
misura del rapporto tra i segnali di uscita e di ingresso di un
elemento fotosensibile quasi ideale con le caratteristiche di
quello reale che stiamo esaminando.
Coefficente di assorbimento
 Misura della capacità di uno strato di materiale fotoassorbente di
“catturare” la luce incidente. Quando la radiazione luminosa incide su
una lastra di materiale fotosensibile o trasparente, una parte di essa si
perde da subito, la restante penetra all’interno del materiale e continua
ad avanzare, perdendo, man mano intensità, fino a che non viene
completamente assorbita o riesce ad uscire dall’altro lato della lastra.
 La capacità di penetrazione dipende, qualitativamente, dal coefficiente
di assorbimento, in maniera tale che all’aumentare di quest’ultimo
aumenta la quantità di radiazione che si perde per ogni strato del
materiale che attraversa.
 Più il materiale è fotoassorbente, più la radiazione non riesce a
penetrare in profondità.
 Ma anche il coefficiente di assorbimento non è un valore costante ma
vari al variare della frequenza della luce incidente
Full well capacity (1)
 Un fotosito è dotato di elementi in grado di raccogliere questi elettroni
generati per effetto fotoelettrico, esattamemte nello stesso modo in cui
un vaso raccoglie acqua piovana.
 Ad ogni “refresh” si contano quanti elettroni sono stati collezionati da
ciascun fotosito e questo conteggi d{ la misura dell’intensit{ luminosa
ricevuta.
 In teoria, al nero dovrebbe corrispondere un contenitore vuoto, mentre
al bianco uno completamente pieno. Ovviamente non tutti i
contenitori sono di uguali dimensioni e quindi non tutti sono in grado
di raccogliere la stessa
quantità di fotoni.
Full well capacity (2)
 Questo parametro influenza la QE di un sensore e, di
conseguenza, il valore del dymanic range possibile.
 Infatti un fotosito più grande potrà raccogliere, nello
stesso intervallo di tempo, un maggior quantitativo di luce
rispetto ad uno di dimensioni minori, aumentando la QE.
 Questa capacità permette di ridurre gli effetti del
blooming che si manifesta quando il “contenitore” dei
fotoni è pieno e i fotoni in eccesso vengono riversati sui
pixel adiacenti, provocando alterazioni dell’intensit{ del
segnale rilevato.
 A questo tipo di effetto sono molto più soggetti i sensori
di tipo CCD per i motivi che saranno chiari una volta
affrontatane l’architettura.
Full well capacity (3)
 I moderni sensori hanno installate delle microlenti
sempre più perfezionate, in alcuni casi di tipo gapless,
in altri casi addirittura disposte in doppio strato per
mantenere la QE a buoni livelli anche in caso di
riduzione delle dimensioni dei fotositi, come pure
presentano delle “trincee”, insensibili alla luce, tra
pixel contigui che costituiscono delle vere barriere
antiblooming
Varianti del Bayer pattern
 L’occhio non presenta lo stesso tipo di risposta a tutte le
lungheze d’onda della radiazione incidente (ma chge
strano, finora non abbiamo ancora incontrato un
“dispositivo che non si comporti in maniera differente in
base alla frequenza); questo significa che uguali quantità
di energia radiante non sono percepite come avere la
stessa intensità.
 La risposta è illustrata in figura
da cui si vede che la sensibilità
maggiore si ha nella banda del
Verde-giallo e la minore in
quella del rosso.
Varianti del Bayer pattern (1)
 Questo è il motivo per cui un filtro a matrice bayer classica si
basa su gruppi di 4 fotodiodi per ogni pixel che presentano una
sequenza di colori che prevede un rosso, un blu e due verdi
come il primo a sinistra nella successiva figura
 Nell’immagine compaiono altri tipi di pattern 2×2;
 Il secondo è stato ideato da Sony per alcune delle sue
fotocamere, di cui la più celebre è senz’altro la DSC F828, e
sostituisce un verde “tradizionale” con un verde smeraldo;
questo pattern di tipo RGBE (red, green, blu, emerald) a detta
di Sony dovrebbe servire a riprodurre i colori in maniera più
fedele a quella che è la visione dell’occhio umano.
Varianti del Bayer pattern (2)
 Il terzo filtro, di tipo CYYM (ciano, yellow*2, magenta) è usato
su alcune fotocamere Kodak, mentre il quarto di tipo CYGM
(ciano, yellow, green, magenta) è maggiormente usato sulle
videocamere. Caratteristica comune di questi 4 tipi di pattern
è la presenza di 2 elementi su 4 appartenenti alla banda del
giallo-verde, ossia quella a cui, abbiamo visto che l’occhio è più
sensibile.
 Il quinto, invece, ai tre classici colori RGB affianca il bianco.
Anche questo tipo di cella è stata ideata da Kodak ed esiste in
diverse varianti. L’idea è quella di utilizzare un fotodiodo di
tipo “panchromatic”, ovvero sensibile a tutte le lunghezze
d’onda (anche agli IR) ed in grado, quindi, di raccogliere una
notevole (se rapportata agli altri) quantità di luce.
SNR/Canali
 Per la presenza di due fotodiodi per la banda del giallo-
verde, il canale verde sarà quello che avrà miglior SNR.
 Nel grafico si nota come la componente relativa al verde
sia sempre quella che presenta il miglior SNR e, d’altra
parte, a parità di condizioni con le altre sarebbe anche
quella il cui rumore sarebbe percepito con maggior
evidenza.
 Dall’immagine si vede inoltre
che il rumore presenta valori
più bassi per il giallo e per il
verde lungo tutta la gamma
degli ISO
Rumore di un sensore (1)
Rumore di un sensore (2)
 le componenti di quello che viene comunemente definito
rumore digitale sono molteplici e diverse tra loro.
 Oltre alle tre componenti connesse alle operazioni di
acquisizione dell’immagine da parte della superficie
fotosensibile,
 con n(PNRU) (photoresponse non-uniformity),
 p(shot) che comprende
 il photon noise
 dark current noise
 n(KTc) o reset noise,
 si vedono anche il read noise (o amplifier noise) indicato con
n(1/f), il rumore di quantizzazione recante la sigla n(q) e
n(cod) ossia il rumore introdotto dalla codifica, ossia dalla
compressione in formato non lossless.
Rumore di un sensore (3)
 Il rumore dovuto alla dark current è un fenomeno intrinseco al
tipo di materiale di cui è composta la giunzione e si manifesta
anche quando nessun fotone colpisce il sensore, il rumore
dovuto alla PRNU si manifesta quando la radiazione colpisce i
fotositi e prima che il sensore raggiunga la saturazione
 Infine, un ulteriore criterio di suddivisione del rumore può
essere quello che ci permette di classificarlo in base alla
tipologia del suo pattern specifico; possiamo, quindi
distinguere il rumore di tipo fixed pattern (come ad esempio
quello da dark current) da quello dovuto a transitori (come il
reset noise).
 Questa ulteriore classificazione è particolarmente importante
per chi progetta sensori, perchè il fixed pattern noise è
facilmente trattabile, al contrario del temporal noise.
CCD e CMOS (1)
 Nelle due figure successive sono riportati,
rispettivamente, un esempio di un sensore a CCD e di
uno a CMOS di tipo APS (active pixel sensor, per
distinguerlo dai CMOS di tipo passivo, quelli di
vecchia generazione economici).
CCD e CMOS (2)
CCD e CMOS (3)
 Dalle immagini mostrate, appare evidente una prima
sostanziale differenza tra le due tipologie di sensori: in un
CCD la carica raccolta dai fotositi è immagazzinata in dei
registri a scorrimento verticali ed orizzontali ed è
trasferita verso l’uscita del sensore senza alcun tipo di
trattamento.
 E’ presente uno stadio di amplificazione per ogni canale
di read out (nell’esempio dell’immagine c’è un solo
canale).
 Nei CMOS, invece, è presente stadio di amplificazione su
ogni singolo pixel, oltre che su ogni colonna e, infine, su
ciascun read out channel
CCD e CMOS (4)
 La presenza di elettronica sul sensore e, addirittura, in ciascun




pixel, introduce, come si vede dalla precedente tabella, un
rumore extra nei CMOS, a livello di singolo pixel.
In precedenza abbiamo visto come la corrente di buio sia
originata dalla polarizzazione inversa di una giunzione p-n.
Questa componente della corrente totale presente ha un moto
contrario rispetto a quello della corrente generata dalle coppie
elettrone-lacuna formatesi a causa della radiazione incidente e
costituisce uno dei tipi di rumore sin qui elencati
Sui sensori CMOS di tipo attivo, la presenza di uno stadio di
amplificazione per ogni pixel d{ origine ad un’altra
componente di rumore non di tipo fixed pattern.
Mentre il reset noise è presente in entrambi i tipi di sensore.
CMOS passivo
 Inoltre, le prime implementazioni dei CMOS prevedevano il







ricorso a sensori di tipo passivo, ossia con solo un elemento
fotosensibile ed uno switching mosfet per ogni pixel.
Come è facile intuire, questo portava a progettare sensori con
caratteristiche di funzionamento simili ai CCD ma senza la
qualità dei CCD.
L’idea alla base è che si cerca di massimizzare l’area riservata
alla cattura della luce. Inoltre, un siffatto
circuito è piuttosto semplice
da progettare e realizzare e ha
determinato la nascita della leggenda
Di un minor costo dei CMOS rispetto
ai CCD.
CCD e CMOS (5)
 In effetti, nel CMOS passivi è proprio così, inoltre questo
tipo di dispositivi sono qualitativamente inferiori ai CCD e
sono spesso destinati alla fascia di prodotti più bassa,
anche in virtù del fatto che occupano uno spazio molto
limitato e sono economici da produrre.
 Ben diverso il discorso relativo ai ben più costosi e
complessi APS, i cui costi di progettazione superano di
gran lunga quelli dei CCD.
 Oggi i vari produttori adottano sempre più
frequentemente sensori di tipo CMOS per apparecchi di
fascia alta mentre i CCD sono spesso confinati su
dispositivi più economici.
CCD e CMOS (6)
 Un sensore CMOS APS ha, rispetto al CCD, una parte più
ampia della superficie dedicata ad elementi circuitali che
non si occupano di catturare la luce incidente.
 Un CCD, per la natura intrinseca del suo principio di
funzionamento, ha bisogno di tensioni di alimentazione
dei circuiti di clock molto più elevate per funzionare
correttamente; infatti, si ha la necessità di sincronizzare
perfettamente tutte le operazioni di charging/resetting
dei registri a scorrimento e questo rende preponderante il
reset noise che, essendo di tipo temporal è anche difficile
da trattare
CCD e CMOS (7)
 Un CMOS ha meno superficie utile per catturare la luce, almeno nella
sua versione FSI (front side illuminated), presenta un maggior rumore
di tipo temporal dovuto alla presenza degli stadi di amplificazione ed
elaborazione del segnale su ogni singolo pixel ma mostra un molto più
contenuto valore di reset noise.
 Il problema della minor superficie utile alla cattura dei fotoni è stato
risolto con la diminuzione delle dimensioni degli elementi circuitali e
con l’adozione di lenti sempre più sofisticate e in grado di catturare la
stragrande maggioranza della radiazione incidente per dirottarla sui
fotositi;
 la situazione migliora ulteriormente con l’adozione della tecnologia BSI
(back side illuminated) che si oppone alla molto più diffusa FSI (front
side illuminated) in quanto posiziona i circuiti elettronici nella parte
inferiore del sensore anzichè in quella superiore.
CCD e CMOS (8)
CCD e CMOS (9)
 Dall’immagine appare evidente che lo strato
contenente i circuiti elettronici e i registri costituisce
un ostacolo alla possibilità di catturare luce da parte
della sottostante superficie fotosensibile e che lo
scopo delle lenti è quello di convogliare la maggior
quantità di fotoni tra gli spazi esistenti tra i gruppi di
registri e circuiti, verso i fotositi. E’ anche evidente
che, per semplici ragioni geometriche, un CCD, il cui
strato non fotosensibile si limita ai soli registri, ragion
per cui risulta meno profondo, la capacità di catturare
luce è maggiore di quella di un APS di tipo CMOS.
CCD e CMOS (10)
 Dalle immagini si vede anche che i fotositi non
costituiscono un continuum ma sono distanziati tra loro;
gli interstizi tra fotositi servono a ridurre gli effetti della
diffrazione e delle reciproche interferenze di natura
elettrica e il rapporto tra dimensioni dei fotositi e misura
di questi “corridoi” decresce al diminuire delle dimensioni
degli elementi fotosensibili. Da queste considerazioni
appaiono chiari alcuni punti: l’importanza delle lenti; il
vantaggio di ridurre le dimensioni dei circuiti elettronici
che possono schermare la luce incidente; il vantaggio di
adottare un’architettura di tipo BSI
CCD e CMOS (11)
 Dell'importanza delle microlenti si è già fatto cenno;
la diminuzione delle dimensioni dei transistor ha
permesso ai CMOS di ridurre, fin quasi ad azzerare, il
gap con i migliori CCD, in fatto di capacità di
catturare fotoni; le architetture BSI, invece, pur non
costituendo una innovazione, si stanno iniziando a
diffondere solo ora a causa della fragilità strutturale
che aveva caratterizzato in passato questo tipo di
architetture, elemento che ancora ne impedisce
l’adozione per chip di grandi dimensioni.
Quanti MPixel?
 Il web è disseminato di news in cui si dà notizia o si commenta
l’adozione di qualche nuovo sensore che incrementa il numero
di Mpixel rispetto ai modelli precedenti.
 Al di là di commenti e dei confronti improbabili, dove si
comparano i 50 ISO di un cameraphone contro i 400 di una
compatta digitale, la domanda è se esista un approccio al
problema, tale da togliere ogni dubbio e da stabilire delle
regole certe.
 prendere in considerazione ciò che limita il potere risolvente, e
non solo quello, di un sistema lente-sensore, sia ad ISO alti
(rumore) che ad ISO bassi (diffrazione in primo luogo).
Lente Sensore
 Partiamo innanzitutto da una formula, quella che calcola la risolvenza
del sistema lente-sensore:
 lpmm (totale) = 1/[1/lpmm (sensore) + 1/lpmm (obbiettivo)]
 dove lpmm indica la coppia di linee per millimetro. Il motivo per cui si
utilizza questa grandezza nel calcolo dei valori di MTF (che è un
parametro più complesso in quanto tiene conto anche dei valori di
contrasto) è presto detto: il teorema di Shannon prevede che la per la
corretta ricostruzione di un segnale campionato siano necessari almeno
due campioni per ciclo e questo, riferito ad una matrice ideale di punti,
equivale a due pixel contigui.
 Dalla formula precedente, appare evidente una cosa: premesso che il
potere risolvente di una lente, per quanto buona, non è infinito, la
risolvenza dell’intero sistema è inferiore al valore più basso tra i poteri
risolventi di ciascuno dei due elementi
Problemi legati alle lenti
 Una lente, alle maggiori aperture presenta fenomeni di
aberrazione e distorsione, mentre, quando si inizia a
chiudere il diaframma, inizia ad essere affetta dalla
diffrazione. Quest’ultima ha origine quando la radiazione
incidente ha una lunghezza d’onda comparabile
all’apertura della fessura che si trova ad attraversare.
Quando si verifica questa condizione, la fessura diventa, a
sua volta, origine di segnali che producono sul bersaglio
(il sensore, in questo caso) delle frange di interferenza
circolari, con una campana più alta al centro, seguita da
anelli ad andamento sinusoidale con ampiezza
decrescente.
 elaborati dal processore e trasformati in immagini
Problemi legati alle lenti (2)
 Questa figura, nota come disco di Airy, fornisce la
distribuzione della luce (dischi chiari) e delle zone di
buio, sul bersaglio. Il cerchio centrale è quello che
contiene l’informazione, in forma di fotoni, che il
sistema di fotodiodi e circuiti presenti sul sensore,
raccoglie e trasforma in segnali elettrici che vengono
elaborati dal processore e trasformati in immagini
Problemi legati alle lenti (3)
 Allo stesso modo, avere una minor diffrazione
permette di ridurre la larghezza della distribuzione di
Airy e a concentrare la maggior parte della luce
all’interno del disco centrale.
Poiché, però, la diffrazione, al diminuire del
diaframma, è un fenomeno ineliminabile, si deve
allora fare in modo che la stessa penalizzi il meno
possibile il potere risolvente del sistema. Sono,
dunque, importanti, le dimensioni dei singoli pixel e
la loro distanza
Problemi legati alle lenti (4)
Dimensione minima
 Su un approfondito articolo pubblicato da luminous landscape
si arriva a concludere che i pixel non dovrebbero essere
inferiori a 5 micron (considerando che la diffrazione è
funzione della lunghezza d’onda e che la radiazione verde è
quella usata come riferimento per la progettazione dei sistemi
di elaborazione delle immagini, in quanto è quella a cui
l’occhio umano risulta più sensibile).
 Con tale misura, si arriva a concludere che, se prendiamo come
valore di apertura al di sotto del quale iniziamo a ritenere
tollerabile l’effetto della diffrazione, quello di f/8, un sensore
4:3 non dovrebbe superare i 10 Mpixel, mentre ci si ferma a 15
per il formato DX, a 35 per il 35 mm e a 70 per il medio
formato. Se si scende a valori di apertura inferiori,
automaticamente scendono anche le dimensioni minime dei
pixel (a f/4, ad esempio, si hanno 2,7 micron).
Potere risolvente
 problema della diffrazione che limita il potere risolvente del sistema
lente-sensore a partire da un determinato valore di apertura. Questo
valore dipende dalla dimensione e dalla spaziatura dei singoli fotositi:
più sono piccoli e ravvicinati, maggiore è il valore di apertura del
diaframma al quale iniziano a manifestarsi gli effetti della diffrazione
 Anche a bassi ISO e per ampie aperture, dunque, rifrazione, distorsioni
e aberrazioni limitano il potere risolvente del sistema; al diminuire
dell’apertura, a seconda dell’affollamento del sensore, inizia a
manifestarsi la diffrazione. Quindi, il massimo del potere risolvente si
ha in un range ristretto di valori di aperture (tipicamente tra f/4 e f/8),
dipendenti dalla qualità della lente e dalle geometrie del sensore.
Esistono, però, altri elementi e fenomeni che limitano la risolvenza
complessiva sia a bassi che ad alti ISO.
 Il primo è il filtro antialiasing fisico che viene applicato sul
sensore; si tratta di una lente che serve ad eliminare un
particolare tipo di aliasing, il moire che si origina quando
si tenta di campionare un oggetto assimilabile ad un
reticolo simmetrico (ad esempio la trama di un tessuto)
tramite un dispositivo che presenta, a sua volta, un
reticolo simmetrico con frequenza e/o inclinazione
differente dall’oggetto campionato (in questo caso, il
sensore della fotocamera); il disturbo si presenta su
qualsiasi tipo di sensore digitale ma risulta molto più
evidente nei sensori a matrice bayer a causa della
necessità di interpolare quattro subpixel (RGBG) disposti
sullo stesso piano per ricostruire un singolo pixel.
 Un altro fenomeno va, genericamente, sotto il nome di
“rumore digitale” e si manifesta in forma più marcata
all’aumentare degli ISO. In realt{ si dovrebbe parlare di
“rumori”, poiché i tipi di rumore digitale sono diversi come
diversi i metodi utilizzati per tentare di ridurne gli effetti.
 Se, ad esempio, è facile intervenire sul fixed pattern noise (si
tratta di un rumore di tipo additivo, originato dalla dark
current di un frame non illuminato, eliminabile sottraendo
all’immagine da “pulire” un dark frame), diventa molto più
complesso combattere le tipologie di rumore che rientrano
nella categoria nota come pixel non uniformity noise, originati
dalla non uniforme risposta dei pixel alla radiazione incidente.
 Per migliorare il SNR di tipo quantico, ad esempio, si fa ricorso
a microlenti applicate sulla superficie del sensore, che hanno il
compito di focalizzare la luce sulla parte fotosensibile. Più
sono ridotte le dimensioni dei singoli pixel e le loro reciproche
distanze, più tali microlenti assumono importanza. Su reflex
di ultima generazione si sono adottate lenti gapless, ovvero
senza separazione tra l’una e l’altra. Un elevato valore del SNR
di tipo quantico è importante anche ai fini dell’ottenimento di
una più ampia gamma dinamica
 Purtroppo, però, il rumore quantico non è l’unico tipo di
rumore con distribuzione di tipo random e le microlenti non
sono sufficienti ad eliminarne completamente gli effetti che,
anzi, all’aumentare dell’affollamento dei sensori, peggiorano
nonostante le misure adottate.
 Il rimedio più comune nei confronti del rumore è, dunque un
filtro che fa una sorta di sovracampionamento dell’immagine,
interpolando i valori di pixel contigui, fino a ricavare un unico
valore di luminanza e crominanza, in maniera analoga a come
agisce un filtro antialiasing di tipo supersampling applicato a
tutta l’immagine.
 Il risultato varia da produttore a produttore e da modello a
modello, a seconda dell’aggressivit{ del filtro utilizzato.
 Gli algoritmi più sofisticati (serie 1Ds Mark di Canon o
D3x di Nikon) tendono a “spalmare” il croma noise, che si
presenta in forma di bande di colore, in maniera uniforma
tra tutte le frequenza, rendendolo meno visibile e, quindi
meno fastidioso (l’occhio è più sensibile al rumore in
bassa frequenza che si presenta a grana più grossa). In tal
modo si riesce a minimizzare l’effetto del rumore
mantenendo un buon livello di dettaglio.
Nella stragrande maggioranza delle fotocamere, invece, si
tende a intervenire in maniera pesante sull’immagine,
riducendone, di conseguenza, anche il dettaglio
Dimensione dei sensori (1)
 Chi ha una reflex digitale sa che
il suo sensore di norma è più
piccolo del formato classico
24x36.
 Gli obiettivi tradizionali, infatti,
se usati su una reflex digitale, si
"spostano" tutti verso una focale
più da teleobiettivo, secondo un
fattore intorno a 1.5:
 un 50 mm diventa quindi un 75
mm e così via.
 Probabilmente chi usa una
compatta digitale immagina che
il suo sensore sia piuttosto
piccolo. Ma quanto piccolo?
Dimensione dei sensori (2)
 La maggior parte delle compatte digitali di fascia alta ha il
sensore da 1/1.8". Avreste mai detto che è così piccolo?!
Solo poche macchine di prestigio, qualche anno fa, avevano il
sensore da 2/3", ad esempio la Minolta Dimage 7, che poi si è
evoluta nella A200, prima che Minolta abbandonasse la
produzione fotografica.
 Adesso addirittura pressoché tutte le compatte fino a 10-12
Megapixel hanno il sensore da 1/2.5": praticamente la
dimensione della vecchia pellicola Super 8 (la si può vedere
nella slide che riassume i formati).
 Infine le compatte di classe super-economica di solito
sfruttano il veramente minuscolo sensore da 1/3.2", analogo al
vecchio 8 mm (che era appunto più piccolo del Super 8).
Dimensione dei sensori (3)
 Il problema non è elettronico, ma prima di tutto fisico (ottico).
 Proviamo a calcolare il numero di ingrandimenti necessari per





stampare una foto in formato 20x30 cm.
Su pellicola 24x36 sono 8 ingrandimenti.
Su digitale reflex sono mediamente 12.
Con le compatte si parte da 34 e si arriva fino a 66.
Cioè le compatte dovrebbero avere un obiettivo di qualità
migliore, rispetto a quello di una reflex, perché esso deve
"reggere" un numero di ingrandimenti enormemente
superiore, a pari risultato finale.
In termini tecnici, deve avere un potere risolvente superiore,
per non perdere dettagli minuscoli che, ingranditi nel rapporto
che abbiamo visto, diventano tutt'altro che trascurabili.
Dimensione dei sensori (4)
 Se aumento i Megapixel, la dimensione unitaria dei pixel
ovviamente diminuisce, e più i pixel sono piccoli, più è
difficile non avere rumore.
 Quindi passare da 6 a 12 Megapixel a pari dimensione del
sensore (come è stato fatto di recente da quasi tutte le
macchine) spesso significa perdere in rumore quello che si
guadagnerebbe teoricamente in risoluzione.
 Ad esempio che se uso pixel della stessa grandezza di
quelli della 350D e li piazzo su un sensore da 1/1.8", ce ne
stanno appena 1100 sul lato maggiore, cioè ho una
risoluzione di neanche 1 MP.
 Ovvero i pixel di una compatta sono enormemente più
piccoli di quelli di una reflex.
Dimensione dei sensori (5)
 Tutto questo, naturalmente, non vuole essere una "bocciatura" per tutte
le compatte digitali. Le mie prime due digitali (Dimage 7 e Canon
A200) hanno rispettivamente sensori da 2/3" e da 1/3.2" e la qualità di
entrambe mi appare molto buona, ognuna nel proprio campo d'azione.
E analogamente le classiche Powershot di Canon (A710, A720, A590),
con cui è stata scattata quasi la totalità delle foto attuali che vedete su
questo sito, hanno il sensore da 1/2.5", e una qualità encomiabile,
naturalmente se rapportata al prezzo
 Tuttavia è evidente che una reflex digitale parte fortemente
avvantaggiata, in primo luogo proprio per il suo sensore, che ha una
dimensione molto più favorevole da un punto di vista sia ottico, sia
elettronico.
Infine il QuattroTerzi si piazza poco sotto le reflex Canon e Nikon e - da
questo punto di vista - dovrebbe essere comunque superiore a
qualunque compatta.
Sensore Videocamera
 Videocamere Full HD 1920*1080
 Basterebbe un sensore di 2MP!!!
 Modelli base hanno proprio questo tipo di sensori,
utilizzando sia CCD che CMOS.
 Perchè avere + MP?
 Scattare foto
 Zoom
 Maggior luminosità
Tecnologia 3CCD
 Tecnologia creata da Panasonic
 1 CCD per ogni canale
 Miglioramento della qualità delle immagini
I sensori e le webcam
 Fino a qualche tempo fa si utilizzavano sulle webcam
da PC (bassa qualità) esclusivamente i CMOS
 Su quelle di fascia alta i CCD
 Oggi troviamo entrambe le tipologie di sensori
Acquisizione di una immagine
 Tramite scanner
 sotto il vetro sul quale è posata l'immagine scorre un
carrello, sul quale è montata l'ottica.
 Il carrello è un componente fondamentale, in quanto
dalla precisione dei suoi micromovimenti dipende la
risoluzione verticale (risoluzione meccanica), che oggi
può toccare ben 9.600 DPI reali.
Sensori e gli scanner
 Ormai praticamente tutti gli scanner di fascia media e
alta utilizzano sensori CCD, in quanto i sensori CIS,
pur col vantaggio delle dimensioni ridotte (infatti
vengono usati negli scanner più sottili e in alcuni
multifunzione per limitare gli ingombri) hanno lo
svantaggio di una minore luminosità e fedeltà colore.
Funzionamento di uno scanner con
sensore CCD
 Il compito del sensore è quello di trasformare in
impulsi elettrici la luce riflessa dall'immagine
originale, ma per poterla misurare è necessaria una
sorgente luminosa.
 Presenza di una lampada, oggi quasi sempre a catodo
freddo, che ha una durata maggiore del precedente
tipo a catodo caldo e caratteristiche spettrali simili.
 A essa sono abbinate le lenti, uno specchio e una o più
righe di sensori CCD, dotati di filtri dei tre colori
principali RGB, che traducono in impulsi elettrici le
variazioni di luminosità.
Struttura di uno scanner con
sensore CCD
 la luce emessa da una lampada viene riflessa
dall'originale, poi da uno specchio che la indirizza su
una serie di lenti le quali la focalizzano sul sensore
CCD.
 Qui viene trasformata in impulsi elettrici a loro volta
trasformati in dati digitali tramite un ADC
(Convertitore Analogico/Digitale)
Funzionamento di uno scanner con
sensore CIS
 Negli scanner CIS la lampada è invece sostituita da una serie di
LED dei tre colori RGB che si accendono e spengono in rapida
sequenza illuminando l'originale, e da una fila di sensori CIS
per registrare le variazioni di luminosità, senza usare specchi o
lenti.
 Il sistema CIS è dunque meno luminoso, ma dato che i LED
sono più piccoli di una lampada, le ottiche CIS avranno un
ingombro minore.
 L'ultimo svantaggio dei CIS è la minore profondità di campo:
uno scanner CCD riesce anche a mettere a fuoco immagini non
perfettamente aderenti al vetro, e può riuscire ad acquisire
anche immagini di piccoli oggetti appoggiati sul vetro, mentre
uno scanner CIS ha pochi millimetri di profondità di campo.
Struttura di uno scanner con
sensore CIS
 ha un'ottica molto più semplice, in quanto il sensore è
subito sotto il vetro e include i LED che illuminano
l'immagine.
Rispetto a un CCD mancano lampada, specchio e
lenti, il che consente dimensioni inferiori e minori
consumi.
Scena
Ottica
Dispositivo di acquisizione
Post-Acquisizione
RAW IMAGE
Color Filter Array (CFA) Image
Sensor
1) Microlenses focus light onto the CFA filter.
2) The CFA allows only one color component per pixe
3)
Photosites
receive
electrons
and
accumulate
them.
The
voltages
are
transformed into numerical values by analog
to digital converters.
DSC applications mainly use the red, green, and blue (RGB) primary color filter array.
CFA Image Sensor (1)