Sensori Un sensore per immagini è un dispositivo che converte la luce incidente sulla sua superficie in impulsi elettrici che, a loro volta, sono convertiti in immagini. In un certo senso si parte da un’immagine continua (quella del mondo reale) e attraverso una serie di operazioni di quantizzazione/ricostruzione, si torna ad un’immagine continua, la foto. I fotoni incidenti passano attraverso la lente che li dirige verso il sensore. La lente ha il compito fondamentale di far pervenire sul sensore quanta più luce possibile, evitando distorsioni e aberrazioni cromatiche di sorta. Struttura di un sensore Si tratta di una matrice di pixel nxm, disposti a reticolo non necessariamente quadrato. Come ogni dispositivo digitale, anche i sensori delle fotocamere e delle videocamere fanno uso dei soliti 3 colori (rosso, verde e blu) che combinati tra di loro, con la luminanza (ovvero l’intensit{ luminosa registrata) a fare da funzione peso, permettono di ricavare tutti gli altri colori. In pratica esistono due tipi di sensore, indipendentemente dalla tecnologia adottata e dalla forma dei pixel: matrice bayer tecnologia X3 di Foveon Bayer pattern (1) Presentano una disposizione dei 3 colori che chiameremo, impropriamente, di base, sullo stesso piano; Nei sensori con pattern di tipo bayer, sul sensore, che è di tipo monocromatico, è applicata una maschera su cui, per ogni pixel, si attua una suddivisione in 4 subpixel, 1 rosso, 1 blu e 2 verdi (perchè l’occhio umano è più sensibile al verde e, di conseguenza, è opportuno che su quelle frequenze l’informazione catturata sia massima) nel modo indicato in figura Bayer pattern (2) Il sensore vero e proprio, quello al di sotto della maschera, cattura l’intensit{ luminosa ed è formato, sia che si parli di cmos che di ccd, di una matrice di fotodiodi; la maschera fornisce le informazioni sul colore, filtrando le componenti indesiderate; in pratica, la maschera non fa altro che permettere alle componenti del colore indicato per ogni subpixel, di attraversarla per raggiungere il sensore, riflettendo tutte le altre (per questo motivo si schematizza con quadratini rossi, blu e verdi). Bayer pattern (3) Il processore, ricevute le informazioni necessarie, abbina al colore corrispondente ad una determinata locazione sulla maschera la relativa intensità luminosa ricevuta. Quindi fa lo stesso per i subpixel contigui e, interpolando i 4 valori di un rosso, un blu e due verdi, ricava il valore di un singolo pixel. Nell’immagine, ad esempio, il primo pixel lo si ricava partendo dal subpixel rosso in alto a sinistra e, muovendosi in senso orario, andando a toccare il subpixel verde al suo fianco e poi, in ordine, il blu ed il verde posti al di sotto dei primi due. Il pixel successivo, sulla stessa riga, invece, lo si ricava partendo dal subpixel verde immediatamente successivo al primo rosso e così vie. Problemi legati al demosaicing L’operazione di demosaicing, per quanto possa essere sofisticata, dà luogo ad artefatti, il più comune tra i quali è noto come moire e risulta evidente quando si tenta di ricostruire qualcosa assimilabile ad un reticolo periodico utilizzando un altro reticolo periodico a diversa frequenza spaziale, oppure con differente angolo (il pattern del sensore). Nelle immagini in basso, uno schema che spiega la formazione del moire in caso di pattern con differente angolazione Aliasing (1) La presenza di questo tipo di artefatti viene chiamato aliasing spaziale, obbligano all’uso di appositi filtri che, nella fattispecie, sono di tipo fisico, costituiti da una lente posta sul sensore che ha il compito fare quello che solitamente viene fatto dal filtro antialiasing In pratica, il filtro antimoire, definito anche filtro antialiasing, non fa altro che fare operazione di blurring tra 4 subpixel contigui, secondo uno schema riconducibile ad un pattern di tipo rotated grid; in tal modo, si riduce l’effetto dell’aliasing ma si rendono più morbide le immagini. Aliasing (2) Alcuni metodi per ridurre il moire sono quelli di aumentare la frequenza di campionamento spaziale, ovvero aumentare la risoluzione del sensore, ma, oltre un certo limite, si può incorrere in problemi devivanti dalla diffrazione e si ha un incremento del rumore digitali ad alti ISO. Alcuni produttori scelgono di implementare filtri antimoire meno aggressivi (ad esempio Pentax con la K20D) col risultato di aumentare il potere risolvente del sistema lente sensore (quella che in gergo si definisce risoluzione assoluta e si misura il LPH ) ma di diminuire la risoluzione di estinzione a causa del moire. Foveon (1) Questo tipo di sensori presentano una disposizione di tipo stratificata, con il blu a comporre lo strato superiore con a seguire il verde ed il rosso. Sfrutta il principio che una radiazione incidente è in grado di penetrare tanto più in profondità quanto più è grande la sua lunghezza d’onda. Partendo da questo principio, un sensore foveon si compone di tre strati di silicio, uno per ogni colore, come illustrato in figura Foveon (2) Come per il sensore bayer, è ancora necessaria l’operazione di interpolazione tra le 3 componenti cromatiche di base per ottenere la crominanza del singolo fotosito. Quello che cambia è il fatto che, in questo caso, i subpixel di un singolo pixel sono usati solo per determinare il valore cromatico di quel pixel e non sono riutilizzati per determinare anche i valori dei pixel vicini. Non è dunque necessaria l’operazione di demosaicing anche se si deve, comunque ricorrere ad un’interpolazione. Questo diminuisce l’impatto dell’aliasing e permette alle fotocamere che fanno uso di sensore X3 di non avere il filtro antimoire Riepilogo Quindi, ricapitolando e volendo schematizzare al massimo, un sensore è un collettore di fotoni a cui sono collegati dei circuiti elettronici che hanno il compito di “leggere” l’intensit{ luminosa per ogni componente cromatica delle tre di base, tradurla in segnali elettrici (una carica o un livello di tensione a seconda della tipologia di sensore) interpretabili da un processore che ha il compito di ricostruire l’immagine finale. Obiettivi Per svolgere al meglio questo compito, la matrice di fotodiodi di cui è composto il sensore, ha bisogno di raccogliere quanta più informazione possibile, cercando di evitare o ridurre interferenze o disturbi di varia natura. A tal fine, il sensore deve essere “aiutato” tramite l’uso di lenti di buona qualit{, deve avere opportune dimensioni dei fotositi, non inferiori a certe dimensioni (per evitare la diffrazione e per raccogliere il maggior quantitativo di fotoni) Utilizzo di microlenti focalizzanti, per concentrare il maggior quantitativo possibile di fotoni sulla parte fotosensibile del pixel Struttura di un fotodiodo (1) Quello riportao qui sopra è lo schema tipico di un sensore, sia esso cmos, ccd, nmos (i live mos di Olympus) Struttura di un fotodiodo (2) A seconda della tipologia di sensore, alcuni elementi possono o meno essere presenti: alcune medio formato con risoluzioni non troppo elevate, hanno sensori privi di microlenti, oppure le fotocamere con sensore X3 non hanno il filtro antimoire; alcune fotocamere non hanno filtro per infrarossi; Nei sensori più “affollati” e con fotositi più piccoli, le microlenti sono di tipo gapless o, addirittura, presentano un doppio strato di microlenti, uno di tipo gapless ed uno, più interno, di tipo tradizionale. Efficienza quantica QE un sensore per la cattura delle immagini ha il compito di trasformare la luce in segnale elettrico e per farlo si serve di fotodiodi o fototransistor basati sul maccanismo della giunzione p-n. Una delle caratteristiche importanti, dunque, di questi dispositivi, è la loro capacità di convertire i fotoni in elettroni. Una misura di questa capacità è data dalla cosiddetta efficienza quantica (QE), definita come il rapporto tra il numero di coppie elettrone-lacuna prodotte (soprattutto) nella zona di svuotamento della giunzione p-n e quello dei fotoni incidenti. L’efficienza quantica è un parametro intrinseco del tipo di materiale utilizzato e non presenta un valore uniforme lungo tutta la banda ma dipende dalla lunghezza d’onda della radiazione incidente. Efficienza di rivelazione DQE Un altro parametro che tiene conto anche dello spessore dei materiali fotosensibili, delle tensioni di alimentazione e di eventuali accoppiamenti ottici, è l’efficienza di rivelazione (DQE), definita come rapporto tra fotoelettroni prodotti e fotoni incidenti. Differenza tra QE e DQE La QE ci può permettere di dire che un sensore è più efficiente di un altro; ma non ci permette di dire se ciò è dovuto al fatto che sia effettivamente migliore il materiale fotosensibile utilizzato, oppure se dipende dalla minor quantità di rumore o se ha microlenti di qualità superiore; o se alimentato da tensioni differenti ci dice soltanto che il segnale elettrico generato in uscita (comprensivo del relativo rumore) rapportato al segnale (ottico) in ingresso, fornisce un valore superiore per una fotocamera anzichè per un’altra. Il DQE, al contrario, tiene conto di questi fattori, fornendo la misura del rapporto tra i segnali di uscita e di ingresso di un elemento fotosensibile quasi ideale con le caratteristiche di quello reale che stiamo esaminando. Coefficente di assorbimento Misura della capacità di uno strato di materiale fotoassorbente di “catturare” la luce incidente. Quando la radiazione luminosa incide su una lastra di materiale fotosensibile o trasparente, una parte di essa si perde da subito, la restante penetra all’interno del materiale e continua ad avanzare, perdendo, man mano intensità, fino a che non viene completamente assorbita o riesce ad uscire dall’altro lato della lastra. La capacità di penetrazione dipende, qualitativamente, dal coefficiente di assorbimento, in maniera tale che all’aumentare di quest’ultimo aumenta la quantità di radiazione che si perde per ogni strato del materiale che attraversa. Più il materiale è fotoassorbente, più la radiazione non riesce a penetrare in profondità. Ma anche il coefficiente di assorbimento non è un valore costante ma vari al variare della frequenza della luce incidente Full well capacity (1) Un fotosito è dotato di elementi in grado di raccogliere questi elettroni generati per effetto fotoelettrico, esattamemte nello stesso modo in cui un vaso raccoglie acqua piovana. Ad ogni “refresh” si contano quanti elettroni sono stati collezionati da ciascun fotosito e questo conteggi d{ la misura dell’intensit{ luminosa ricevuta. In teoria, al nero dovrebbe corrispondere un contenitore vuoto, mentre al bianco uno completamente pieno. Ovviamente non tutti i contenitori sono di uguali dimensioni e quindi non tutti sono in grado di raccogliere la stessa quantità di fotoni. Full well capacity (2) Questo parametro influenza la QE di un sensore e, di conseguenza, il valore del dymanic range possibile. Infatti un fotosito più grande potrà raccogliere, nello stesso intervallo di tempo, un maggior quantitativo di luce rispetto ad uno di dimensioni minori, aumentando la QE. Questa capacità permette di ridurre gli effetti del blooming che si manifesta quando il “contenitore” dei fotoni è pieno e i fotoni in eccesso vengono riversati sui pixel adiacenti, provocando alterazioni dell’intensit{ del segnale rilevato. A questo tipo di effetto sono molto più soggetti i sensori di tipo CCD per i motivi che saranno chiari una volta affrontatane l’architettura. Full well capacity (3) I moderni sensori hanno installate delle microlenti sempre più perfezionate, in alcuni casi di tipo gapless, in altri casi addirittura disposte in doppio strato per mantenere la QE a buoni livelli anche in caso di riduzione delle dimensioni dei fotositi, come pure presentano delle “trincee”, insensibili alla luce, tra pixel contigui che costituiscono delle vere barriere antiblooming Varianti del Bayer pattern L’occhio non presenta lo stesso tipo di risposta a tutte le lungheze d’onda della radiazione incidente (ma chge strano, finora non abbiamo ancora incontrato un “dispositivo che non si comporti in maniera differente in base alla frequenza); questo significa che uguali quantità di energia radiante non sono percepite come avere la stessa intensità. La risposta è illustrata in figura da cui si vede che la sensibilità maggiore si ha nella banda del Verde-giallo e la minore in quella del rosso. Varianti del Bayer pattern (1) Questo è il motivo per cui un filtro a matrice bayer classica si basa su gruppi di 4 fotodiodi per ogni pixel che presentano una sequenza di colori che prevede un rosso, un blu e due verdi come il primo a sinistra nella successiva figura Nell’immagine compaiono altri tipi di pattern 2×2; Il secondo è stato ideato da Sony per alcune delle sue fotocamere, di cui la più celebre è senz’altro la DSC F828, e sostituisce un verde “tradizionale” con un verde smeraldo; questo pattern di tipo RGBE (red, green, blu, emerald) a detta di Sony dovrebbe servire a riprodurre i colori in maniera più fedele a quella che è la visione dell’occhio umano. Varianti del Bayer pattern (2) Il terzo filtro, di tipo CYYM (ciano, yellow*2, magenta) è usato su alcune fotocamere Kodak, mentre il quarto di tipo CYGM (ciano, yellow, green, magenta) è maggiormente usato sulle videocamere. Caratteristica comune di questi 4 tipi di pattern è la presenza di 2 elementi su 4 appartenenti alla banda del giallo-verde, ossia quella a cui, abbiamo visto che l’occhio è più sensibile. Il quinto, invece, ai tre classici colori RGB affianca il bianco. Anche questo tipo di cella è stata ideata da Kodak ed esiste in diverse varianti. L’idea è quella di utilizzare un fotodiodo di tipo “panchromatic”, ovvero sensibile a tutte le lunghezze d’onda (anche agli IR) ed in grado, quindi, di raccogliere una notevole (se rapportata agli altri) quantità di luce. SNR/Canali Per la presenza di due fotodiodi per la banda del giallo- verde, il canale verde sarà quello che avrà miglior SNR. Nel grafico si nota come la componente relativa al verde sia sempre quella che presenta il miglior SNR e, d’altra parte, a parità di condizioni con le altre sarebbe anche quella il cui rumore sarebbe percepito con maggior evidenza. Dall’immagine si vede inoltre che il rumore presenta valori più bassi per il giallo e per il verde lungo tutta la gamma degli ISO Rumore di un sensore (1) Rumore di un sensore (2) le componenti di quello che viene comunemente definito rumore digitale sono molteplici e diverse tra loro. Oltre alle tre componenti connesse alle operazioni di acquisizione dell’immagine da parte della superficie fotosensibile, con n(PNRU) (photoresponse non-uniformity), p(shot) che comprende il photon noise dark current noise n(KTc) o reset noise, si vedono anche il read noise (o amplifier noise) indicato con n(1/f), il rumore di quantizzazione recante la sigla n(q) e n(cod) ossia il rumore introdotto dalla codifica, ossia dalla compressione in formato non lossless. Rumore di un sensore (3) Il rumore dovuto alla dark current è un fenomeno intrinseco al tipo di materiale di cui è composta la giunzione e si manifesta anche quando nessun fotone colpisce il sensore, il rumore dovuto alla PRNU si manifesta quando la radiazione colpisce i fotositi e prima che il sensore raggiunga la saturazione Infine, un ulteriore criterio di suddivisione del rumore può essere quello che ci permette di classificarlo in base alla tipologia del suo pattern specifico; possiamo, quindi distinguere il rumore di tipo fixed pattern (come ad esempio quello da dark current) da quello dovuto a transitori (come il reset noise). Questa ulteriore classificazione è particolarmente importante per chi progetta sensori, perchè il fixed pattern noise è facilmente trattabile, al contrario del temporal noise. CCD e CMOS (1) Nelle due figure successive sono riportati, rispettivamente, un esempio di un sensore a CCD e di uno a CMOS di tipo APS (active pixel sensor, per distinguerlo dai CMOS di tipo passivo, quelli di vecchia generazione economici). CCD e CMOS (2) CCD e CMOS (3) Dalle immagini mostrate, appare evidente una prima sostanziale differenza tra le due tipologie di sensori: in un CCD la carica raccolta dai fotositi è immagazzinata in dei registri a scorrimento verticali ed orizzontali ed è trasferita verso l’uscita del sensore senza alcun tipo di trattamento. E’ presente uno stadio di amplificazione per ogni canale di read out (nell’esempio dell’immagine c’è un solo canale). Nei CMOS, invece, è presente stadio di amplificazione su ogni singolo pixel, oltre che su ogni colonna e, infine, su ciascun read out channel CCD e CMOS (4) La presenza di elettronica sul sensore e, addirittura, in ciascun pixel, introduce, come si vede dalla precedente tabella, un rumore extra nei CMOS, a livello di singolo pixel. In precedenza abbiamo visto come la corrente di buio sia originata dalla polarizzazione inversa di una giunzione p-n. Questa componente della corrente totale presente ha un moto contrario rispetto a quello della corrente generata dalle coppie elettrone-lacuna formatesi a causa della radiazione incidente e costituisce uno dei tipi di rumore sin qui elencati Sui sensori CMOS di tipo attivo, la presenza di uno stadio di amplificazione per ogni pixel d{ origine ad un’altra componente di rumore non di tipo fixed pattern. Mentre il reset noise è presente in entrambi i tipi di sensore. CMOS passivo Inoltre, le prime implementazioni dei CMOS prevedevano il ricorso a sensori di tipo passivo, ossia con solo un elemento fotosensibile ed uno switching mosfet per ogni pixel. Come è facile intuire, questo portava a progettare sensori con caratteristiche di funzionamento simili ai CCD ma senza la qualità dei CCD. L’idea alla base è che si cerca di massimizzare l’area riservata alla cattura della luce. Inoltre, un siffatto circuito è piuttosto semplice da progettare e realizzare e ha determinato la nascita della leggenda Di un minor costo dei CMOS rispetto ai CCD. CCD e CMOS (5) In effetti, nel CMOS passivi è proprio così, inoltre questo tipo di dispositivi sono qualitativamente inferiori ai CCD e sono spesso destinati alla fascia di prodotti più bassa, anche in virtù del fatto che occupano uno spazio molto limitato e sono economici da produrre. Ben diverso il discorso relativo ai ben più costosi e complessi APS, i cui costi di progettazione superano di gran lunga quelli dei CCD. Oggi i vari produttori adottano sempre più frequentemente sensori di tipo CMOS per apparecchi di fascia alta mentre i CCD sono spesso confinati su dispositivi più economici. CCD e CMOS (6) Un sensore CMOS APS ha, rispetto al CCD, una parte più ampia della superficie dedicata ad elementi circuitali che non si occupano di catturare la luce incidente. Un CCD, per la natura intrinseca del suo principio di funzionamento, ha bisogno di tensioni di alimentazione dei circuiti di clock molto più elevate per funzionare correttamente; infatti, si ha la necessità di sincronizzare perfettamente tutte le operazioni di charging/resetting dei registri a scorrimento e questo rende preponderante il reset noise che, essendo di tipo temporal è anche difficile da trattare CCD e CMOS (7) Un CMOS ha meno superficie utile per catturare la luce, almeno nella sua versione FSI (front side illuminated), presenta un maggior rumore di tipo temporal dovuto alla presenza degli stadi di amplificazione ed elaborazione del segnale su ogni singolo pixel ma mostra un molto più contenuto valore di reset noise. Il problema della minor superficie utile alla cattura dei fotoni è stato risolto con la diminuzione delle dimensioni degli elementi circuitali e con l’adozione di lenti sempre più sofisticate e in grado di catturare la stragrande maggioranza della radiazione incidente per dirottarla sui fotositi; la situazione migliora ulteriormente con l’adozione della tecnologia BSI (back side illuminated) che si oppone alla molto più diffusa FSI (front side illuminated) in quanto posiziona i circuiti elettronici nella parte inferiore del sensore anzichè in quella superiore. CCD e CMOS (8) CCD e CMOS (9) Dall’immagine appare evidente che lo strato contenente i circuiti elettronici e i registri costituisce un ostacolo alla possibilità di catturare luce da parte della sottostante superficie fotosensibile e che lo scopo delle lenti è quello di convogliare la maggior quantità di fotoni tra gli spazi esistenti tra i gruppi di registri e circuiti, verso i fotositi. E’ anche evidente che, per semplici ragioni geometriche, un CCD, il cui strato non fotosensibile si limita ai soli registri, ragion per cui risulta meno profondo, la capacità di catturare luce è maggiore di quella di un APS di tipo CMOS. CCD e CMOS (10) Dalle immagini si vede anche che i fotositi non costituiscono un continuum ma sono distanziati tra loro; gli interstizi tra fotositi servono a ridurre gli effetti della diffrazione e delle reciproche interferenze di natura elettrica e il rapporto tra dimensioni dei fotositi e misura di questi “corridoi” decresce al diminuire delle dimensioni degli elementi fotosensibili. Da queste considerazioni appaiono chiari alcuni punti: l’importanza delle lenti; il vantaggio di ridurre le dimensioni dei circuiti elettronici che possono schermare la luce incidente; il vantaggio di adottare un’architettura di tipo BSI CCD e CMOS (11) Dell'importanza delle microlenti si è già fatto cenno; la diminuzione delle dimensioni dei transistor ha permesso ai CMOS di ridurre, fin quasi ad azzerare, il gap con i migliori CCD, in fatto di capacità di catturare fotoni; le architetture BSI, invece, pur non costituendo una innovazione, si stanno iniziando a diffondere solo ora a causa della fragilità strutturale che aveva caratterizzato in passato questo tipo di architetture, elemento che ancora ne impedisce l’adozione per chip di grandi dimensioni. Quanti MPixel? Il web è disseminato di news in cui si dà notizia o si commenta l’adozione di qualche nuovo sensore che incrementa il numero di Mpixel rispetto ai modelli precedenti. Al di là di commenti e dei confronti improbabili, dove si comparano i 50 ISO di un cameraphone contro i 400 di una compatta digitale, la domanda è se esista un approccio al problema, tale da togliere ogni dubbio e da stabilire delle regole certe. prendere in considerazione ciò che limita il potere risolvente, e non solo quello, di un sistema lente-sensore, sia ad ISO alti (rumore) che ad ISO bassi (diffrazione in primo luogo). Lente Sensore Partiamo innanzitutto da una formula, quella che calcola la risolvenza del sistema lente-sensore: lpmm (totale) = 1/[1/lpmm (sensore) + 1/lpmm (obbiettivo)] dove lpmm indica la coppia di linee per millimetro. Il motivo per cui si utilizza questa grandezza nel calcolo dei valori di MTF (che è un parametro più complesso in quanto tiene conto anche dei valori di contrasto) è presto detto: il teorema di Shannon prevede che la per la corretta ricostruzione di un segnale campionato siano necessari almeno due campioni per ciclo e questo, riferito ad una matrice ideale di punti, equivale a due pixel contigui. Dalla formula precedente, appare evidente una cosa: premesso che il potere risolvente di una lente, per quanto buona, non è infinito, la risolvenza dell’intero sistema è inferiore al valore più basso tra i poteri risolventi di ciascuno dei due elementi Problemi legati alle lenti Una lente, alle maggiori aperture presenta fenomeni di aberrazione e distorsione, mentre, quando si inizia a chiudere il diaframma, inizia ad essere affetta dalla diffrazione. Quest’ultima ha origine quando la radiazione incidente ha una lunghezza d’onda comparabile all’apertura della fessura che si trova ad attraversare. Quando si verifica questa condizione, la fessura diventa, a sua volta, origine di segnali che producono sul bersaglio (il sensore, in questo caso) delle frange di interferenza circolari, con una campana più alta al centro, seguita da anelli ad andamento sinusoidale con ampiezza decrescente. elaborati dal processore e trasformati in immagini Problemi legati alle lenti (2) Questa figura, nota come disco di Airy, fornisce la distribuzione della luce (dischi chiari) e delle zone di buio, sul bersaglio. Il cerchio centrale è quello che contiene l’informazione, in forma di fotoni, che il sistema di fotodiodi e circuiti presenti sul sensore, raccoglie e trasforma in segnali elettrici che vengono elaborati dal processore e trasformati in immagini Problemi legati alle lenti (3) Allo stesso modo, avere una minor diffrazione permette di ridurre la larghezza della distribuzione di Airy e a concentrare la maggior parte della luce all’interno del disco centrale. Poiché, però, la diffrazione, al diminuire del diaframma, è un fenomeno ineliminabile, si deve allora fare in modo che la stessa penalizzi il meno possibile il potere risolvente del sistema. Sono, dunque, importanti, le dimensioni dei singoli pixel e la loro distanza Problemi legati alle lenti (4) Dimensione minima Su un approfondito articolo pubblicato da luminous landscape si arriva a concludere che i pixel non dovrebbero essere inferiori a 5 micron (considerando che la diffrazione è funzione della lunghezza d’onda e che la radiazione verde è quella usata come riferimento per la progettazione dei sistemi di elaborazione delle immagini, in quanto è quella a cui l’occhio umano risulta più sensibile). Con tale misura, si arriva a concludere che, se prendiamo come valore di apertura al di sotto del quale iniziamo a ritenere tollerabile l’effetto della diffrazione, quello di f/8, un sensore 4:3 non dovrebbe superare i 10 Mpixel, mentre ci si ferma a 15 per il formato DX, a 35 per il 35 mm e a 70 per il medio formato. Se si scende a valori di apertura inferiori, automaticamente scendono anche le dimensioni minime dei pixel (a f/4, ad esempio, si hanno 2,7 micron). Potere risolvente problema della diffrazione che limita il potere risolvente del sistema lente-sensore a partire da un determinato valore di apertura. Questo valore dipende dalla dimensione e dalla spaziatura dei singoli fotositi: più sono piccoli e ravvicinati, maggiore è il valore di apertura del diaframma al quale iniziano a manifestarsi gli effetti della diffrazione Anche a bassi ISO e per ampie aperture, dunque, rifrazione, distorsioni e aberrazioni limitano il potere risolvente del sistema; al diminuire dell’apertura, a seconda dell’affollamento del sensore, inizia a manifestarsi la diffrazione. Quindi, il massimo del potere risolvente si ha in un range ristretto di valori di aperture (tipicamente tra f/4 e f/8), dipendenti dalla qualità della lente e dalle geometrie del sensore. Esistono, però, altri elementi e fenomeni che limitano la risolvenza complessiva sia a bassi che ad alti ISO. Il primo è il filtro antialiasing fisico che viene applicato sul sensore; si tratta di una lente che serve ad eliminare un particolare tipo di aliasing, il moire che si origina quando si tenta di campionare un oggetto assimilabile ad un reticolo simmetrico (ad esempio la trama di un tessuto) tramite un dispositivo che presenta, a sua volta, un reticolo simmetrico con frequenza e/o inclinazione differente dall’oggetto campionato (in questo caso, il sensore della fotocamera); il disturbo si presenta su qualsiasi tipo di sensore digitale ma risulta molto più evidente nei sensori a matrice bayer a causa della necessità di interpolare quattro subpixel (RGBG) disposti sullo stesso piano per ricostruire un singolo pixel. Un altro fenomeno va, genericamente, sotto il nome di “rumore digitale” e si manifesta in forma più marcata all’aumentare degli ISO. In realt{ si dovrebbe parlare di “rumori”, poiché i tipi di rumore digitale sono diversi come diversi i metodi utilizzati per tentare di ridurne gli effetti. Se, ad esempio, è facile intervenire sul fixed pattern noise (si tratta di un rumore di tipo additivo, originato dalla dark current di un frame non illuminato, eliminabile sottraendo all’immagine da “pulire” un dark frame), diventa molto più complesso combattere le tipologie di rumore che rientrano nella categoria nota come pixel non uniformity noise, originati dalla non uniforme risposta dei pixel alla radiazione incidente. Per migliorare il SNR di tipo quantico, ad esempio, si fa ricorso a microlenti applicate sulla superficie del sensore, che hanno il compito di focalizzare la luce sulla parte fotosensibile. Più sono ridotte le dimensioni dei singoli pixel e le loro reciproche distanze, più tali microlenti assumono importanza. Su reflex di ultima generazione si sono adottate lenti gapless, ovvero senza separazione tra l’una e l’altra. Un elevato valore del SNR di tipo quantico è importante anche ai fini dell’ottenimento di una più ampia gamma dinamica Purtroppo, però, il rumore quantico non è l’unico tipo di rumore con distribuzione di tipo random e le microlenti non sono sufficienti ad eliminarne completamente gli effetti che, anzi, all’aumentare dell’affollamento dei sensori, peggiorano nonostante le misure adottate. Il rimedio più comune nei confronti del rumore è, dunque un filtro che fa una sorta di sovracampionamento dell’immagine, interpolando i valori di pixel contigui, fino a ricavare un unico valore di luminanza e crominanza, in maniera analoga a come agisce un filtro antialiasing di tipo supersampling applicato a tutta l’immagine. Il risultato varia da produttore a produttore e da modello a modello, a seconda dell’aggressivit{ del filtro utilizzato. Gli algoritmi più sofisticati (serie 1Ds Mark di Canon o D3x di Nikon) tendono a “spalmare” il croma noise, che si presenta in forma di bande di colore, in maniera uniforma tra tutte le frequenza, rendendolo meno visibile e, quindi meno fastidioso (l’occhio è più sensibile al rumore in bassa frequenza che si presenta a grana più grossa). In tal modo si riesce a minimizzare l’effetto del rumore mantenendo un buon livello di dettaglio. Nella stragrande maggioranza delle fotocamere, invece, si tende a intervenire in maniera pesante sull’immagine, riducendone, di conseguenza, anche il dettaglio Dimensione dei sensori (1) Chi ha una reflex digitale sa che il suo sensore di norma è più piccolo del formato classico 24x36. Gli obiettivi tradizionali, infatti, se usati su una reflex digitale, si "spostano" tutti verso una focale più da teleobiettivo, secondo un fattore intorno a 1.5: un 50 mm diventa quindi un 75 mm e così via. Probabilmente chi usa una compatta digitale immagina che il suo sensore sia piuttosto piccolo. Ma quanto piccolo? Dimensione dei sensori (2) La maggior parte delle compatte digitali di fascia alta ha il sensore da 1/1.8". Avreste mai detto che è così piccolo?! Solo poche macchine di prestigio, qualche anno fa, avevano il sensore da 2/3", ad esempio la Minolta Dimage 7, che poi si è evoluta nella A200, prima che Minolta abbandonasse la produzione fotografica. Adesso addirittura pressoché tutte le compatte fino a 10-12 Megapixel hanno il sensore da 1/2.5": praticamente la dimensione della vecchia pellicola Super 8 (la si può vedere nella slide che riassume i formati). Infine le compatte di classe super-economica di solito sfruttano il veramente minuscolo sensore da 1/3.2", analogo al vecchio 8 mm (che era appunto più piccolo del Super 8). Dimensione dei sensori (3) Il problema non è elettronico, ma prima di tutto fisico (ottico). Proviamo a calcolare il numero di ingrandimenti necessari per stampare una foto in formato 20x30 cm. Su pellicola 24x36 sono 8 ingrandimenti. Su digitale reflex sono mediamente 12. Con le compatte si parte da 34 e si arriva fino a 66. Cioè le compatte dovrebbero avere un obiettivo di qualità migliore, rispetto a quello di una reflex, perché esso deve "reggere" un numero di ingrandimenti enormemente superiore, a pari risultato finale. In termini tecnici, deve avere un potere risolvente superiore, per non perdere dettagli minuscoli che, ingranditi nel rapporto che abbiamo visto, diventano tutt'altro che trascurabili. Dimensione dei sensori (4) Se aumento i Megapixel, la dimensione unitaria dei pixel ovviamente diminuisce, e più i pixel sono piccoli, più è difficile non avere rumore. Quindi passare da 6 a 12 Megapixel a pari dimensione del sensore (come è stato fatto di recente da quasi tutte le macchine) spesso significa perdere in rumore quello che si guadagnerebbe teoricamente in risoluzione. Ad esempio che se uso pixel della stessa grandezza di quelli della 350D e li piazzo su un sensore da 1/1.8", ce ne stanno appena 1100 sul lato maggiore, cioè ho una risoluzione di neanche 1 MP. Ovvero i pixel di una compatta sono enormemente più piccoli di quelli di una reflex. Dimensione dei sensori (5) Tutto questo, naturalmente, non vuole essere una "bocciatura" per tutte le compatte digitali. Le mie prime due digitali (Dimage 7 e Canon A200) hanno rispettivamente sensori da 2/3" e da 1/3.2" e la qualità di entrambe mi appare molto buona, ognuna nel proprio campo d'azione. E analogamente le classiche Powershot di Canon (A710, A720, A590), con cui è stata scattata quasi la totalità delle foto attuali che vedete su questo sito, hanno il sensore da 1/2.5", e una qualità encomiabile, naturalmente se rapportata al prezzo Tuttavia è evidente che una reflex digitale parte fortemente avvantaggiata, in primo luogo proprio per il suo sensore, che ha una dimensione molto più favorevole da un punto di vista sia ottico, sia elettronico. Infine il QuattroTerzi si piazza poco sotto le reflex Canon e Nikon e - da questo punto di vista - dovrebbe essere comunque superiore a qualunque compatta. Sensore Videocamera Videocamere Full HD 1920*1080 Basterebbe un sensore di 2MP!!! Modelli base hanno proprio questo tipo di sensori, utilizzando sia CCD che CMOS. Perchè avere + MP? Scattare foto Zoom Maggior luminosità Tecnologia 3CCD Tecnologia creata da Panasonic 1 CCD per ogni canale Miglioramento della qualità delle immagini I sensori e le webcam Fino a qualche tempo fa si utilizzavano sulle webcam da PC (bassa qualità) esclusivamente i CMOS Su quelle di fascia alta i CCD Oggi troviamo entrambe le tipologie di sensori Acquisizione di una immagine Tramite scanner sotto il vetro sul quale è posata l'immagine scorre un carrello, sul quale è montata l'ottica. Il carrello è un componente fondamentale, in quanto dalla precisione dei suoi micromovimenti dipende la risoluzione verticale (risoluzione meccanica), che oggi può toccare ben 9.600 DPI reali. Sensori e gli scanner Ormai praticamente tutti gli scanner di fascia media e alta utilizzano sensori CCD, in quanto i sensori CIS, pur col vantaggio delle dimensioni ridotte (infatti vengono usati negli scanner più sottili e in alcuni multifunzione per limitare gli ingombri) hanno lo svantaggio di una minore luminosità e fedeltà colore. Funzionamento di uno scanner con sensore CCD Il compito del sensore è quello di trasformare in impulsi elettrici la luce riflessa dall'immagine originale, ma per poterla misurare è necessaria una sorgente luminosa. Presenza di una lampada, oggi quasi sempre a catodo freddo, che ha una durata maggiore del precedente tipo a catodo caldo e caratteristiche spettrali simili. A essa sono abbinate le lenti, uno specchio e una o più righe di sensori CCD, dotati di filtri dei tre colori principali RGB, che traducono in impulsi elettrici le variazioni di luminosità. Struttura di uno scanner con sensore CCD la luce emessa da una lampada viene riflessa dall'originale, poi da uno specchio che la indirizza su una serie di lenti le quali la focalizzano sul sensore CCD. Qui viene trasformata in impulsi elettrici a loro volta trasformati in dati digitali tramite un ADC (Convertitore Analogico/Digitale) Funzionamento di uno scanner con sensore CIS Negli scanner CIS la lampada è invece sostituita da una serie di LED dei tre colori RGB che si accendono e spengono in rapida sequenza illuminando l'originale, e da una fila di sensori CIS per registrare le variazioni di luminosità, senza usare specchi o lenti. Il sistema CIS è dunque meno luminoso, ma dato che i LED sono più piccoli di una lampada, le ottiche CIS avranno un ingombro minore. L'ultimo svantaggio dei CIS è la minore profondità di campo: uno scanner CCD riesce anche a mettere a fuoco immagini non perfettamente aderenti al vetro, e può riuscire ad acquisire anche immagini di piccoli oggetti appoggiati sul vetro, mentre uno scanner CIS ha pochi millimetri di profondità di campo. Struttura di uno scanner con sensore CIS ha un'ottica molto più semplice, in quanto il sensore è subito sotto il vetro e include i LED che illuminano l'immagine. Rispetto a un CCD mancano lampada, specchio e lenti, il che consente dimensioni inferiori e minori consumi. Scena Ottica Dispositivo di acquisizione Post-Acquisizione RAW IMAGE Color Filter Array (CFA) Image Sensor 1) Microlenses focus light onto the CFA filter. 2) The CFA allows only one color component per pixe 3) Photosites receive electrons and accumulate them. The voltages are transformed into numerical values by analog to digital converters. DSC applications mainly use the red, green, and blue (RGB) primary color filter array. CFA Image Sensor (1)