Capitolo 3 Riduzione dei dati osservativi

Capitolo 3
Riduzione dei dati osservativi
3.1
Procedure di riduzione
Una volta eseguite le osservazioni si pone il problema di utilizzare i dati osservativi per ottenere le informazioni fisiche più adatte a caratterizzare gli oggetti
astronomici. Nel seguito ci occuperemo di approfondire il caso delle immagini
ottenute con un rivelatore di tipo CCD seguendo una logica che va a considerare
la sequenza degli effetti strumentali che sistematicamente hanno “sporcato” il segnale astronomico durante le osservazioni. La tecnica che generalmente si adotta
è quella di eliminare, per quanto possibile, questi effetti indesiderati seguendo
una sequenza inversa a quella nella quale questi sono stati introdotti nel segnale
raccolto.
Considerando per prime le operazioni di “riduzione dei dati” che si applicano
in tutti i casi, sia per la spettroscopia che per l’imaging, abbiamo che le possibili
correzioni includono:
- Correzione A/D, utilizzata per correggere eventuali non-linearità della conversione tra segnale analogico e digitale; si tratta tuttavia di una correzione che viene applicata piuttosto raramente dato che ormai si hanno a
disposizione ottimi convertitori lineari;
- Sottrazione del livello del “bias”: questa è una operazione che deve essere
sempre eseguita per eliminare il segnale sistematico di base che viene “impresso” sul CCD prima dell’esposizione e che serve sia a garantire un segnale
positivo anche con bassi livelli di luce sia a minimizzare la inefficienza del
trasferimento di carica (vedi Fig. 2.6).
81
82
F.Strafella
- Sottrazione delle strutture del bias (superbias), una operazione che spesso
viene eseguita, ma la cui buona riuscita non sempre è garantita.
- Correzioni della linearità: raramente applicata ai CCD, ma di solito usata
con osservazioni fatte con gli array IR.
- Sottrazione della dark current (superdark): viene fatta occasionalmente
dipendendo dal tipo di rivelatore (più o meno rumoroso) e dal tempo di
integrazione usato.
- Sottrazione della carica differita (cosiddetto “preflash subtraction”): operazione rara con i moderni CCD.
- Correzione per l’ombra prodotta dall’otturatore sull’array (shutter shading): da applicare quando l’effetto dell’otturatore è significativo (solo per
tempi di esposizione brevissimi).
- Correzione di “flat field” da applicarsi sempre.
- Correzioni più complesse come quelle legate alla presenza di luce diffusa (che
produce flat field con caratteristiche differenti da quelle vere), l’eliminazione
dei pixel saturi (hot pixels), la sottrazione dell’eventuale immagine residua
(detta anche ghost)....
- Sottrazione del fringing e del fondo del cielo (sky subtraction): da applicarsi
occasionalmente quando sono disponibili le misure accessorie che permettono di valutare la brillanza del fondo del cielo e le frange di interferenza
prodotte da eventuali filtri usati per isolare le regioni spettrali di interesse
durante le osservazioni. Queste frange sono prodotte da interferenza tra
riflessioni multiple all’interno dei filtri usati oppure anche all’interno degli
strati trasparenti di un CCD (specialmente se si usano CCD thinned).
3.1.1
Sottrazione del bias
Se durante l’acquisizione delle immagini viene anche acquisito il segnale da una
regione cosiddetta di overscan, allora questo segnale rappresenta il segnale di bias
da sottrarre a tutta l’immagine. La regione di overscan, infatti, non è altro che
una parte del rivelatore che viene accuratamente schermata dalla radiazione ed i
cui pixel vengono trattati nello stesso identico modo degli altri. La loro lettura
fornisce quindi il livello del segnale (detto anche pedestal o piedistallo) a partire
dal quale l’immagine è stata poi costruita sui pixel esposti alla radiazione. La
Dip. di Fisica @ UNISALENTO
83
Figura 3.1: Frange di interferenza che tipicamente appaiono nelle immagini ottenute in banda I con un CCD “thinned”. Sono prodotte dalla presenza, specie in
banda I, di righe spettrali emesse dai gas atmosferici (vedi Figura 1.4). Questa
radiazione di fondo, soggetta alle riflessioni interne tra le superfici ottiche presenti sullo stesso CCD, produce la figura di interferenza che è osservata come un
disturbo sovrapposto al fondo del cielo. Si tratta di un disturbo di cui soffrono
parrticolarmente i CCD thinned (vedi $ 2.2)
successiva sottrazione di questo segnale quindi elimina il “piedistallo” su cui è stata costruita l’immagine restituendo quindi ai pixel il valore del segnale prodotto
dalla sola radiazione. Nel caso non vi sia l’overscan si usa acquisire le cosiddette immagini di bias oppure delle immagini ad otturatore chiuso (dette “dark
frames”) con tempo di integrazione pari a quello delle immagini astronomiche.
Notare che gli array IR dovrebbero già dare delle immagini “bias subtracted” se
operano con lettura a doppia correlazione (che corrisponde ad una lettura non
distruttiva, vedi paragrafo 2.3), tuttavia spesso rimane un bias residuo di minore entità ma che va considerato perchè è spesso dipendente dall’esposizione. In
questo caso è utile acquisire immagini dark con lo stesso tempo di integrazione
delle osservazioni, da sottrarre poi alle osservazioni stesse ottenendo cosı̀ automaticamente anche la sottrazione del segnale “dark”. Siccome il bias può subire
84
F.Strafella
delle fluttuazioni durante le osservazioni è buona norma acquisire molti frames
per controllarne il livello; per questo è pratica comune acquisire molti frames di
bias (anche alcune decine) prima e dopo le osservazioni.
3.1.2
Sottrazione delle strutture del bias
Abbiamo visto che l’elettronica di lettura introduce un rumore di lettura (detto
RON) che in alcuni casi può mostrare delle sistematicità (dette anche “pattern”)
che possono essere poi evidenziate e sottratte dai nostri dati. Naturalmente
per sottrarre le sistematicità dobbiamo prima individuarle come tali e quindi ci
aspettiamo che esse appaiano nelle immagini di bias sempre uguali come dovrebbe
essere per i difetti ripetibili. Attenzione per esempio a verificare che il pattern non
cambi con il puntamento del telescopio o col tempo, nel qual caso la correzione
basata su un pattern fisso peggiora il risultato finale se applicata ad immagini
ottenute con tempi e puntamenti diversi.
Attraverso l’istogramma dei bias ottenuti si può controllare se si ottiene una
gaussiana con ampiezza data dal rumore di lettura. Questo istogramma del bias
ci permette di valutare il RON e se notiamo che questo è maggiore di quanto ci
aspettiamo vale la pena di verificare se non vi siano dei pattern spaziali nel RON
e se questi siano ripetibili. Se acquisiamo molti bias frames allora li possiamo
combinare per ottenere un frame che viene detto di “superbias”. Costruendo
cosı̀ più superbias si potrà poi verificare se i loro istogrammi sono effettivamente
ripetibili.
Il numero di bias richiesti dipende molto dalla qualità del singolo bias: se
questo è davvero peggiore di quanto prevedibile in base al RON del rivelatore
allora basterà mediare pochi bias per migliorare la situazione. Tuttavia la maggior
parte delle volte la struttura del bias è tanto modesta da essere di ampiezza
minore del RON stesso. In questi casi ricavare un superbias potrebbe addirittura
peggiorare la situazione rischiando di aggiungere rumore piuttosto che eliminarlo.
In assenza di strutture nel bias possiamo calcolare il rumore nel superbias.
Se
√
questo è ottenuto come media di N bias, il rumore è dato da RON/ N e quindi
l’immagine alla quale
p avremo sottratto il superbias avrà un rumore di lettura
efficace pari a σ ≃ RON 2 (1 + 1/N), dove abbiamo considerato la composizione
di due incertezze indipendenti. Dalla relazione si vede che è sensato usare almeno
N=10 frames di bias per ridurre il rumore di lettura dell’immagine bias subtracted
al livello praticamente del RON.
I dati IR non dovrebbero richiedere correzioni per la struttura del bias a
causa della tecnica di lettura a doppia correlazione alla quale si è accennato nel
paragrafo 2.3. Ricordiamo infine che è possibile accorpare insieme la sottrazione
Dip. di Fisica @ UNISALENTO
85
del bias e del dark se si acquisiscono dark frames (che contengono già il segnale
di bias) di durata pari a quella delle osservazioni.
3.1.3
Correzioni di linearità
Per alcuni rivelatori, specialmente quelli sensibili alla regione IR si deve tenere
conto della non linearità. Per stimare la correzione si deve poter misurare l’output ottenuto al variare dell’intensità della radiazione incidente sul rivelatore. Per
far questo è necessario poter controllare accuratamente le intensità in ingresso
oppure, cosa che è più facile da farsi, usare diversi tempi di integrazione mantenendo costante l’intensità della luce incidente. Una buona determinazione della
linearità richiede comunque di poter disporre di sorgenti di luce che siano stabili
almeno entro l’ 1% su una scala temporale dell’ordine del tempo necessario alle
misure di linearità che andiamo a fare. Si tenga presente che la condizione di
stabilità entro l’ 1% non è sempre facile da ottenere per una sorgente di luce. Se
la si ottiene, tenendo conto che gli otturatori utilizzati sono di solito molto precisi
nel determinare i tempi di esposizione, il rapporto dei flussi integrati nel tempo
sarà uguale al rapporto dei rispettivi tempi di integrazione usati. Quindi, facendo
misure con diversi tempi di integrazione, si potrà costruire una sequenza di valori
sperimentali che riportati in un grafico chiariscono il tipo di relazione che avrete
tra il livello del segnale ottenuto con il tempo di integrazione utilizzato.
Le eventuali non linearità nel segnale ottenuto sul rivelatore, appariranno
chiaramente come una deviazione da una retta ideale che passi attraverso i punti
sperimentali. Da un punto di vista pratico la misura si potrebbe realizzare come
una sequenza di esposizioni con tempi di texp = 1s, 2s, 1s, 4s, 1s, 8s, 1s, 16s ....
in cui le misure ottenute con tempo di integrazione crescente servono a costruire
la curva di linearità, mentre le misure ripetute con texp =1s servono a controllare
e valutare la effettiva stabilità della sorgente di radiazione utilizzata.
Una volta ottenuta la curva di linearità del rivelatore e accertata la ripetibilità
di questa curva, si potranno correggere le osservazioni per gli effetti di non non
linearità di quel particolare rivelatore.
Nella maggior parte degli osservatori non sarà necessario costruirsi la curva di linearità perchè questa viene fornita come una informazione di supporto
all’osservatore.
3.1.4
Sottrazione della “dark current”
Ogni rivelatore, oltre a produrre un segnale in seguito alla interazione con la
radiazione incidente, produce un segnale che viene detto di “oscurità”(o anche
86
F.Strafella
“dark”) e che è riconducibile alla agitazione termica del materiale con cui il rivelatore viene realizzato. Questo segnale di oscurità è prodotto anche in assenza
di radiazione incidente ed e’ una funzione del tempo per cui spesso viene anche
indicato come“corrente di oscurità” (dark current). In generale in un array la
dark current cambia da un pixel all’altro, anche se di solito questo segnale è reso
minimo abbassando la temperatura di operazione dell’array. I pixel che mostrano
una dark current più alta del dovuto vengono detti “warm pixels”, mentre quelli
che sono particolarmente rumorosi vengono indicati come “hot pixels”. In questa
nomenclatura entrano anche i “cold pixels” che sono quelli che non mostrano
alcuna o pochissima sensibilità sia alla radiazione incidente che alla dark current.
Per quanto abbiamo detto, il segnale dark è ovviamente legato al tempo di integrazione usato per acquisire le immagini e quindi la correzione da applicare, per
compensare questo segnale non voluto, deve essere stimata a partire dal tempo di
integrazione usato per ogni frame acquisito. Una stima della dark current si può
fare sia acquisendo una immagine con otturatore chiuso di pari durata, sia utilizzando molti dark frames, da mediare, per realizzare il cosiddetto “superdark”
in cui il rumore di lettura (RON) ed il rumore di conteggio (shot noise, o rumore
poissoniano) sono meno importanti che in un singolo frame.
In un caso ideale acquisiremo dark frames con tempi di integrazione uguali a
quelli usati per le osservazioni; nella realtà però si deve tener conto che i dark
frames consumano una parte consistente di tempo e quindi si preferisce acquisirli
nei momenti in cui le osservazioni sono impedite o dalla luce del crepuscolo o
dalle nuvole. In generale si evita di acquisirli di giorno per evitare la possibilità
che gli strumenti al piano focale del telescopio non siano perfettamente schermati
rispetto alla luce diurna dell’ambiente.
Disponendo di moltissimi dark frames si possono raggiungere ottimi livelli
di accuratezza nella correzione anche di quei pixel con bassissima dark current
che sono dominati dal RON. Di solito tuttavia non si dispone di moltissimi dark
frames e la strategia di riduzione può essere di mediare su tutti i frames per
produrre un superdark, ma considerando nulla la dark current per i pixel con
basso contributo dark. In questo modo si correggono i pixel “warm” (che sono
dominati dalla dark current) senza aggiungere rumore di lettura ai pixel buoni.
3.1.5
Sottrazione del pre-flash e correzione per “deferred
charge”
Per i CCD con problemi di deferred charge ai bassi livelli di luce (problema più
importante per i CCD più vecchi, vedi anche Figura 2.6), le non-linearità possono
essere evitate con un pre-flash di luce che crei un “piedistallo” di segnale cui poi
Dip. di Fisica @ UNISALENTO
87
si costruisce l’immagine durante l’esposizione. Per poter sottrarre il valore del
segnale di piedistallo si deve valutare bene il suo livello prendendo una serie di
frames con lo stesso valore di pre-flashing che possono poi essere combinati per
determinarne uno medio. Questa procedura e’ comunque ormai poco utilizzata
grazie al miglioramento dell’efficienza di trasferimento della carica nei CCD.
3.1.6
Correzione dell’ombra prodotta dall’otturatore
Poichè un otturatore impiega un tempo finito per aprirsi e chiudersi, il tempo di
esposizione effettivo è una funzione della posizione sull’array. Naturalmente le
osservazioni che potranno subire una influenza significativa da questo fenomeno
saranno quelle con un breve o brevissimo tempo di integrazione. Si tenga tuttavia
presente che l’aumento delle dimensioni dei rivelatori tende a fare riemergere
questo problema anche per osservazioni con tempi brevi di esposizione.
Se ci proponiamo di ottenere una una precisione fotometrica dell’1% ancdhe con tempi brevi di esposizione (attenzione: spesso l’osservazione di campi
contenenti stelle di calibrazione impone l’uso di tempi brevi) allora dovremmo
correggere questo effetto. Per valutare la correzione da apportare alle osservazioni si va a confrontare il risultato di N esposizioni di breve durata t con una unica
esposizione di pari tempo di integrazione nominale N t. Per ogni frame il numero
di conteggi osservati sarebbe Ot = S(t+∆t(x, y)), dove con S abbiamo indicato il
flusso di conteggi veri, t è il tempo di integrazione utilizzato, ∆t è la differenza tra
tempo di integrazione nominale ed effettivo in funzione della posizione del pixel.
Si può scrivere quindi che, con tempi di integrazione brevi, per ogni esposizione
avremo:
NOt = NS(t + ∆t)
mentre per un’unica lunga esposizione di durata N t:
ON t = S(Nt + ∆t)
Dalle precedenti si vede che se il tempo di esposizione è abbastanza lungo il
∆t dovuto all’otturatore diventa trascurabile e quindi in prima approssimazione
possiamo scrivere ON t ≃ NOt . Otteniamo allora:
(t + ∆t)
NOt
=
ON t
t
e quindi dal rapporto di due frames possiamo calcolare ∆t ed usare la prima
equazione per correggere le esposizioni brevi ricavando il valore vero del segnale:
Ot
NS(t + ∆t)
=
S=
NS t
t + ∆t
88
F.Strafella
Si noti che il ∆t è una quantità che dipende dalla posizione del pixel e quindi la
relazione precedente andrà utilizzata pixel per pixel.
3.1.7
Correzione di flat field
Questa correzione corrisponde alla compensazione delle differenze di sensibilità
totale che sono sempre presenti tra i pixel di un array. Queste possono essere
dovute sia ad una differente sensibilità intrinseca (che dipende dal processo di
costruzione dell’array) tra i diversi pixel, sia a differenze nel cammino ottico
(filtri, ottica, diaframmi, ...) che la radiazione percorre prima di raggiungere i
diversi pixel dove viene poi rivelata. Tutte queste cause producono un errore di
tipo moltiplicativo che dipendente dalla posizione sull’array.
La procedura per correggere queste differenze è , in linea di principio, abbastanza semplice e corrisponde ad osservare una sorgente di radiazione che sia
ugualmente brillante (cioè “flat”, ovvero “piatta”) su tutto il campo osservato (da
cui il nome di flat field). In questo modo tutte le differenze di segnale osservate
sui pixel saranno riconducibili alle effettive differenze in sensibilità tra i pixel e tra
i cammini ottici della radiazione. Si ottiene cosı̀ una mappa della sensibilità dei
pixel che viene anche detta pixel to pixel sensitivity map. Da quanto detto appare
evidente che le osservazioni ottenute con un dato array saranno influenzate dalla
particolare struttura di sensibilità dello stesso array e quindi richiederanno una
qualche forma di correzione per ripristinare i rapporti di segnale effettivamente
raccolto sui pixel. A questo scopo è necessario dividere, pixel per pixel, i frame ottenuti durante le osservazioni per il frame del flat-field che, di solito, viene
prima normalizzato rispetto alla media dei valori dei pixel.
La difficoltà più importante, nel procedere a questa operazione di correzione, consiste nel trovare un campo da osservare che sia davvero uniformemente
brillante per garantire una correzione accurata. In effetti, questa richiesta non è
facile da soddisfare e quindi si usano più tecniche per ottenere il flat-frame per
il quale divideremo le nostre immagini originali. A questa difficoltà di ottenere
un buon flat frame si aggiunge anche il fatto che c’è anche una dipendenza dal
colore della radiazione e quindi sarà necessario determinare un flat-field per ogni
lunghezza d’onda coinvolta nelle osservazioni. Se poi si usano filtri a banda larga diventa anche importante considerare che lo spettro delle sorgenti usate per
ottenere i flat-frames differisce da quello delle sorgenti astronomiche osservate e
questo puo’ portare ad errori sistematici.
Un’altro aspetto importante riguarda la precisione con cui si richiede generalmente di conoscere la risposta di un pixel che è dell’ordine di qualche frazione
di percento, il che corrisponde a richiedere ad un alto rapporto S/N per il flat
Dip. di Fisica @ UNISALENTO
89
frame. A questo proposito va anche detto che un alto S/N in una data regione di
un flat-frame non garantisce, di per se, che tutto il frame abbia lo stesso valore di
S/N. Questo proprio a causa delle limitazioni sulla uniformità dell’illuminazione
del campo e sul colore della sorgente usata. Quanto abbiamo detto ci fa concludere che il principale fattore che limita l’accuratezza di un flat-field non sono gli
errori casuali, ma quelli sistematici.
Le tecniche più usate per valutare il flat-field sono tre, e precisamente:
Dome flat: con una lampada a spettro continuo (luce bianca) si illumina
l’interno della cupola (o uno schermo in cupola) su cui si punta il telescopio
per acquisire i flat-frames. Siccome la cupola è un oggetto fuori fuoco la
sua immagine non sarà coniugata al rivelatore e quindi le irregolarità nell’illuminazione della cupola, che sono sempre presenti, tendono a mediarsi
sul rivelatore. Nonostante questo vantaggio, i flat ottenuti in cupola sono sufficienti a correggere solo ad un primo livello di accuratezza perchè
le condizioni di illuminazione del rivelatore da parte di un oggetto non a
fuoco non sono le stesse di quando si fanno immagini del cielo. P.es., se
un oggetto e’ fuori fuoco i cammini ottici dei raggi che vanno su un dato
pixel passano da parti diverse dell’ottica rispetto al caso di una immagine
a fuoco.
Questo tipo di flat è utile per valutare la variazione di sensibilità tra i
pixel se la corrispondenza tra il colore della radiazione usata per il flat e
quello delle sorgenti astronomiche è abbastanza buona, cosa che di solito è
abbastanza verificata. In ogni caso, a causa dei problemi di illuminazione
a cui si è prima accennto, l’accuratezza di questa tecnica sulle grandi scale
spaziali è dell’ordine di alcuni percento e non di frazioni di percento come
auspicabile per una fotometria accurata.
Twilight flat Con questa tecnica si utilizzano i momenti di crepuscolo per
ottenere immagini del cielo quando questo è ancora abbastanza brillante
per richiedere brevi tempi di integrazione. Tuttavia, a causa della breve
durata del crepuscolo, questa modalità è applicabile solo se abbiamo a che
fare con un numero limitato di filtri e se i tempi di lettura dell’array non
sono troppo lunghi. Anche con il crepuscolo i flats possono avere problemi
di non perfetta corrispondenza tra la forma spettrale della luce usata per
il flat e quella delle osservazioni ma, come si è potuto intuire, il problema
principale è quello della breve durata del crepuscolo per cui si cerca di
utilizzare sia il momento dell’alba che quello del tramonto.
Un problema minore che spesso si verifica con questa tecnica è che nei
flat-frames possono apparire le stelle più brillanti del campo. Per superare
90
F.Strafella
questo inconveniente si usa ottenere più flats nello stesso filtro, spostando
leggermente il puntamento del telescopio di una decina di secondi d’arco
tra un frame e l’altro. Questa tecnica (detta anche dithering ) permette
di eliminare successivamente le stelle quando, combinando i diversi frames
acquisiti, se ne ricava uno finale e senza stelle.
Dark sky flat Un’altra tecnica per ottenere un flat-frame si basa sull’osservazione di una regione di cielo presumibilmente vuota, ovvero senza stelle
o nebulosità rilevanti. Il problema è che la brillanza del cielo è bassa (nella
regione ottica) e quindi si ottengono spesso bassi valori del rapporto S/N.
Il vantaggio di questa tecnica è che il colore della sorgente (cioè del cielo
notturno) corrisponde esattamente a quello del cielo durante le osservazioni.
Per ottenere la miglior correzione di flat field possibile si può procedere ad
utilizzare prima i flat ottenuti con una lampada in cupola per valutare la pixel-topixel response function, cioè le variazioni relative tra un pixel ed i suoi adiacenti
(variazioni a piccola scala). Poi, per avere anche una buona correzione a più
grande scala spaziale, è opportuno evitare l’uso del “dome flat” usando invece il
flat ottenuto sul cielo che non contiene l’errore sistematico (che agisce alle scale
spaziali piu’ grandi) prodotto dalla non uniforme illuminazione del dome-flat.
Figura 3.2: Immagine rozza.
Figura 3.3: Immagine di Bias.
Errori nella correzione di flat-field
Per valutare le incertezze in gioco in queste operazioni di data-reduction consideriamo che, in assenza di background, gli errori relativi che avremmo nelle
91
Dip. di Fisica @ UNISALENTO
Figura 3.4: Immagine di flat-field.
Figura 3.5: Immagine finale.
osservazioni sarebbero pari a quelli che facciamo nel flat-field per il quale dividiamo le osservazioni. Nella realtà però abbiamo a che fare con immagini che
presentano sempre un fondo e quindi ci poniamo il problema di valutare come
l’incertezza sul flat si propaga quando valutiamo il flusso di una sorgente astronomica. Il flusso rivelato F è infatti la somma di quello della sorgente S più quello
del fondo B e siccome non possiamo valutare il fondo esattamente sulla posizione
della sorgente dobbiamo accontentarci di farne una valutazione nelle vicinanze
della sorgente.
In questo caso, se invece di stimare correttamente il background come B lo
valutiamo come x · B avremo che, quando lo sottrarremo al flusso osservato F
per ottenere il segnale originale faremo un errore relativo dato da:
(S + B) − xB
B
∆S
=
= 1 + (1 − x)
S
S
S
(3.1)
Si vede quindi che, quando il segnale da rivelare è pari al fondo, un errore
dell’1% (cioè x=0.99) nella valutazione di questo fondo corrisponde ad un errore
relativo dell”1% sul segnale ricavato per la sorgente. Se però il fondo è dell’ordine
di B ∼ 100 S allora l’errore sarebbe di un fattore 2, ovvero del 100% da cui
si capisce che la correzione di flat-field è cruciale nel caso della fotometria di
sorgenti deboli rispetto al fondo. Questo caso si realizza nella regione ottica
solo per sorgenti particolarmente deboli ma è invece la regola nella regione IR
dove la brillanza del cielo è particolarmente alta. Si noti anche che il problema
non cambia nel caso noi avessimo a che fare con sorgenti brillanti su un fondo
spazialmente non uniforme come spesso accade nella regione IR nella quale il
contributo dell’emissione termica del telescopio e della cupola sono importanti.
92
F.Strafella
Questo contributo termico è un grosso problema perchè può cambiare nel corso
della notte con il cambiare della temperatura dell’ambiente e con la direzione di
puntamento.
Da quanto abbiamo visto possiamo considerare che, se tutti i frame sono
soggetti agli stessi errori di background (additivi) e flat field (moltiplicativi) allora
possiamo risolvere il nostro problema di minimizzare gli errori osservando il cielo
sugli stessi pixel che hanno osservato l’oggetto. In questo caso sottraendo il frame
ottenuto sul cielo da quello sull’oggetto otteniamo come risultato un’immagine
in cui il livello del fondo del cielo è molto minore che nel frame di partenza. Di
conseguenza si attenueranno gli errori provenienti dalla procedura di flat-field
come abbiamopvisto in accordo alla relazione 3.1. Si paga per questo un aumento
di un fattore (2) (se il cielo è il contributo dominante) nel rumore poissoniano
dell’immagine finale ottenuta dalla sottrazione “oggetto-cielo”.
Due cose ancora: i) questa procedura è vantaggiosa solo nei casi in cui il cielo
è più brillante dell’oggetto da studiare; ii) se l’oggetto da studiare è angolarmente piccolo rispetto al campo coperto da un frame allora si può osservare il
cielo contemporaneamente alle osservazioni dell’oggetto semplicemente facendo
più esposizioni con la tecnica cosiddetta del dithering, che consiste nel muovere
l’oggetto nel campo prima di ogni successiva esposizione.
Infine ricordiamo che la principale sorgente di inaccuratezza nella fotometria
sono gli errori sistematici e pertanto una stima degli errori per via analitica è
impraticabile. La miglior cosa da farsi per stimare l’accuratezza del flat field è di
acquisire diverse immagini dello stesso oggetto che occupa diverse posizioni nel
campo di vista (cioe’ la suddetta tecnica del dithering). Con queste osservazioni
a disposizione si può provare a determinare empiricamente il grado di ripetibilità
delle misure. Questa tecnica è assolutamente consigliabile se si usano strumenti
di osservazione nell’IR.
3.1.8
Flat-field nell’IR
La correzione di flat-field è particolarmente complicata nella regione IR dello spettro poichè ogni frame che si acquisisce, compresi i flat frames, contiene una componente additiva del segnale che è prodotta dall’emisione propria del telescopio e
della sua cupola. Per le osservazioni da terra questo problema è particolarmente
serio a lunghezze d’onda λ > 2µm dove l’emissione termica del telescopio domina
sulla componente del fondo del cielo. In questi casi una tecnica può essere quella
di puntare la cupola ed ottenere frames con e senza illuminamento, in modo tale
da poter procedere poi successivamente ad una sottrazione dei due frame per
ottenere una stima del flat field. Naturalmente questa modalità lascia irrisolti i
Dip. di Fisica @ UNISALENTO
93
tipici problemi dei flat in cupola: l’illuminamento non uniforme della cupola e
la non corrispondenza del colore della radiazione usata con quella del cielo. Se
si vuol provare a far meglio, sarà utile acquisire anche i flat sul cielo (sky-flats).
Questi ultimi potranno essere usati con miglori risultati nel caso in cui il contributo additivo e spazialmente variabile del telescopio sia modesto rispetto a quello
del cielo.
3.2
Operazioni durante le osservazioni
• Bias Il numero di immagini da acquisire dipende dalla natura e dall’ampiezza del pattern di rumore sistematico. Non implicano perdite di tempo
di osservazione perchè si possono acqisire durante il giorno.
• Flat Sono frames critici perchè determinano la qualità del risultato scientifico. Se possibile conviene prenderne sia in cupola (dome flats) che sul cielo
(twilight flats) per poter correggere le immagini con grande accuratezza sia
a grande che a piccola scala spaziale. Se si prendono frames sul cielo (sky
flats) bisogna usare la tecnica del dithering per avere la possibilità di eliminare le stelle che inevitabilmente compaiono nei flat frames presi sul cielo.
Se si acquisiscono immagini di twilight flats conviene prenderli a diverse
altezze sull’orizzonte, se possibile.
• Dark Il numero di frames da acquisire dipende dalla natura e ampiezza
del segnale dark. Naturalmente bisogna accertarsi che effettivamente durante il tempo di esposizione le condizioni di illuminamento del CCD siano
effettivamente “dark”.
• Istogramma Per un controllo rapido della qualità dei dati e del comportamento del rivelatore è consigliabile dare uno sguardo all’istogramma delle
immagini.
• Linearità Usualmente nel caso degli array IR è consigliabile prendere una
sequenza di immagini per un controllo della linearità nella risposta.
• Rumore di lettura (RON) e guadagno (G) Consideriamo di aver acquisito un insieme di misure ad un livello di luce L con uno strumento il cui
guadagno sia G. Il rumore in elettroni che ci aspettiamo su un pixel di queste immagini sarà dato da σ 2 = LG + RON 2 . Se facessimo questo tipo di
considerazioni per diversi livelli di illuminamento L potremmo ottenere un
grafico di σ 2 vs. L, la cui pendenza ed intercetta darebbero rispettivamente
94
F.Strafella
il guadagno G ed il quadrato del rumore di lettura RON 2 . Questo tipo di
grafico è un ottimo test per un rivelatore e permette anche di valutarne la
linearità.
Questo test richiede però di acquisire per ogni valore di illuminazione L un
gran numero, diciamo N, di immagini che dovranno poi essere analizzate
per valutare il rumore di lettura RON ed il guadagno G per ogni pixel.
Data la mole di dati da trattare si preferisce allora utilizzare l’insieme dei
valori dei pixel come rappresentativi delle diverse misure alla stessa illuminazione. Tuttavia questo non si può fare direttamente poichè ogni pixel ha
una diversa sensibilità ed un differente livello di RON cosicchè non possiamo considerarli un vero insieme statistico rappresentativo delle N misure
per ogni valore di L. Per evitare questi problemi possiamo utilizzare invece
più immagini ottenute con una data illuminazione L, per considerere poi
le loro differenze in modo da eliminare cosı̀ su ogni pixel, il segnale ed evidenziare il rumore. In pratica il rumore che ci aspettiamo nella differenza
tra due immagini alla stessa L è :
σ 2 = 2(LG + RON 2 )
Poichè la relazione tra elettroni e conteggi è tale che σ 2 (elettroni)=Gσconteggi ,
in termini dei conteggi la precedente si scrive:
2
σconteggi
= 2(
L RON 2
+
)
G
G2
(3.2)
2
Un’immagine differenza darà direttamente il valore di σconteggi
per cui sarà
abbastanza semplice prendere differenze di immagini per diversi livelli di il2
luminamento e quindi realizzare un grafico di σconteggi
in funzione di L. Da
un grafico di questo tipo si potrà ricavare il valore di 2/G e di 2RON 2 /G2 )
che sono rispettivamente la pendenza e l’intercetta. Se una retta non rappresenta bene l’andamento dei punti sul grafico allora questo è un sintomo
che qualcosa non funziona correttamente e sarà bene capirne il motivo.
È anche possibile abbreviare i tempi di queste stime se vogliamo solo avere
un’idea di prima approssimazione. In questo caso prenderemo un paio di
bias frames, che corrispondono al livello zero di illuminamento, e ne faccia2
2
mo la differenza. Quindi il rumore della differenza sarà 2σdif
f = 2 RON .
Ora acquisiamo due frames ad alto valore di illuminamento: in questa condizione il RON è praticamente trascurabile e la valutazione del guadagno è
presto ottenuta dalla precedente eq. 3.2:
L
)
G = 2( 2
σconteggi
Dip. di Fisica @ UNISALENTO
3.3
95
Trattamento delle immagini astronomiche
La maggior parte dell’informazione raccolta dalle osservazioni astronomiche è in
forma di immagini e con il termine “trattamento delle immagini” (image processing) si intende indicare una serie di operazioni che sono legate a specifici
strumenti operativi che ci consentono di indagare i nostri dati attraverso:
- operazioni di lettura e/o scrittura che vengono generalmente indicate con
l’abbreviazione I/O (da Input/Output);
- produzione di una appropriata rappresentazione grafica (display);
- un’aritmetica che operi sulle imagini
- una statistica che dia informazioni sul segnale contenuto nelle immagini.
Questi strumenti costituiscono la base per l’analisi delle immagini astronomiche che può avere vari scopi tra cui:
- fotometria di campi stellari (oggetti puntiformi o non risolti);
- fotometria di superficie (oggetti estesi);
- simulazione di immagini;
- analisi di Fourier;
- riduzioni ed analisi spettroscopiche.
3.3.1
Display delle immagini
Per ottenere una corretta rappresentazione delle immagini è essenziale capire
come rendere i dati come “vedere” tutta l’informazione che essi contengono. Le
complicazioni nascono dal fatto che l’intervallo dinamico (dynamic range) dell’occhio umano e della maggior parte dei display normalmente usati è sempre minore
di quello dei dati astronomici. La maggior parte dei display usa 8 bit, e quindi
solo 256 valori, per rappresentare l’intensità del segnale. È quindi comprensibile
come un’immagine che contiene pixel con intensità variabili, per esempio, nell’intervallo [0 − 65535 ] se “riscalata” (rescaling) in 8 bit perderà fatalmente tutta
l’informazione che corrisponde alle variazioni più fini delle intensità dei pixel.
Alternativamente si può scegliere di rappresentare correttamente, cioè a risoluzione piena, solo una parte del segnale contenuto nell’immagine in modo che
tra il massimo ed il minimo segnale vi siano meno dei 256 livelli disponibili per
96
F.Strafella
il display. In quest’ultimo caso nel display avremo preservato l’informazione contenuta nella regione prescelta, ma avremo rinunciato a “vedere” correttamente i
dettagli in tutta la restante parte dell’immagine. Converrà quindi evitare l’uso
di software che stabiliscono automaticamnete lo scaling di un’immagine perchè
questa comodità si paga poi con la perdita di informazione apparente. La scelta
manuale delle modalità con cui si andrà a rappresentare l’immagine rende invece
consapevoli dei valori che i pixel assumono nelle immagini analizzate e quindi
anche di eventuali problemi che sono intervenuti durante l’acquisizione dei dati.
P.es. sarà più o meno facile capire se i valori dei pixel sono vicini o lontani dal
livello di saturazione.
I parametri per lo scaling di un’immagine saranno dati in termini di un limite
inferiore ed uno superiore ( oppure di un limite inferiore ed un intervallo ): entro
questi limiti i valori nei dati verranno poi scalati ad 8 bit nella rappresentazione
sul display. Naturalmente si potrà anche stabilire uno scaling non lineare dei dati
che potrà essere variamente definito da una funzione come p.es. il logaritmo, la
radice quadrata, ....
Una volta stabilito lo scaling si potrà poi stabilire la tabella dei colori con la
quale si realizza una corrispondenza tra il valore (livello) del segnale da rappresentare e colore da usare. Questa tabella può consistere in vari livelli di grigio
(immagini in greylevels) oppure ad una particolare sequenza di colori (immagini
in pseudo-colors)). La maggior parte dei software permettono di variare anche
la brillanza ed il contrasto nel display per mettere in maggiore evidenza particolari dettagli: se si utilizzano queste possibilità allora è consigliabile scegliere un
intervallo di valori dell’immagine da rappresentare che sia sempre maggiore dei
256 valori disponibili nel display. Oltre a questo i software permettono anche di
leggere il valore individuale di un generico pixel puntato dal cursore sul display.
Naturalmente in questi casi si pretende che il valore restituito dal software non
sia il valore della tabella di colori usata nel display, ma il valore vero del segnale
sul pixel puntato dal cursore.
Il software in generale dovrà anche fornire la possibilità di effettuare zoom
sull’immagine, alternare due o più immagini, avere una qualche funzione di analisi
interattiva come mediare sui valori dei pixel vicini al cursore, valutare il picco e
la FWHM di una regione definita dal cursore, selezionare “oggetti”, etc....
3.3.2
Formato FITS
Avendo a che fare con grandi quantità di dati, specialmente nel caso delle immagini astronomiche, ci si pone il problema di immagazzinarli in un formato che
sia efficiente sia nel minimizzare lo spazio di memoria richiesto sia nel recuperare
Dip. di Fisica @ UNISALENTO
97
tutta l’informazione al momento dell’analisi. Per questo motivo le immagini non
sono quasi mai immagazzinate come numeri “formattati” (cioè leggibili con un
editor). Siccome il valore di un pixel viene codificato generalmente in 16 bit,
potrà coprire l’intervallo da -32768 a 32767 e se vogliamo scriverlo formattato
abbiamo bisogno di almeno 5 byte quando evidentemente basterebbero solo 2
bytes (cioè 16 bit) per rappresentarli in una memoria binaria. Per questo motivo le immagini in memoria vengono rappresentate con numeri “sformattati” (in
forma binaria) che però vengono rappresentati con modalità che dipendono dai
diversi hardware/software. Nella maggior parte dei casi la modalità usata nella
rappresentazione è quella del complemento a 2 per rappresentare gli interi, mentre si usa lo standard IEEE per i numeri reali (floating point). Invece ci sono
sempre delle differenze tra le diverse macchine per quanto riguarda l’ordine in
cui vengono interpretati i bytes di queste rappresentazioni: alcune architetture
usano il primo byte come il più significativo, altre come il meno significativo !
Comunque, una volta scelta la rappresentazione, i valori dei pixel possono
essere semplicemente scaricati sequenzialmente in un file. Questo file dovrà però
anche contenere qualche altra informazione, come p.es. le 2 dimensioni (x,y) in
pixel dell’immagine, che potrà poi consentire la ricostruzione fedele dell’immagine
originale a partire dalla lettura sequenziale dei numeri. All’informazione di base
sulle dimensioni dell’immagine se ne potranno poi aggiungere altre per specificare
la scala lungo i due assi, il telescopio usato, il tempo di esposizione, ecc. ecc.
Il formato usato come standard per rappresentare e trasportare i dati astronomici prende il nome di FITS (Flexible Image Transportation System) ed è
descritto in dettaglio in una serie di articoli ( A&AS 44, 363; A&AS 44, 371;
A&AS 73, 359 ). Questo formato usa la codifica del complemento a 2 per gli
interi e quella IEEE per i floating point, con il byte più significativo per primo.
Nel formato FITS i dati sono organizzati in due sezioni: una detta di intestazione, detta image header , alla quale è collegata l’altra, detta image data , che
cointiene i dati veri e propri in formato binario. L’header è la parte leggibile
con un normale editor ed è costituito da un numero variabile di linee di 80 byte,
scritte con caratteri ASCII, che contengono l’informazione necessaria per interpretare i dati e per “spacchettare” correttamente i dati binari che, nello stesso
file, seguono l’header. L’header contiene una serie di chiavi di lettura dette image
keywords che possono avere lunghezza fino ad 8 caratteri. Quelle sempre presenti
nell’header sono
1. SIMPLE = T (per “True”) oppure F (per “False”), a seconda che si tratti
o no di una estensione speciale del formato FITS
2. BITPIX che dà il numero di bit/pixel e quindi informa sulla codifica dei
98
F.Strafella
numeri (p.es. 16 bit interi, a 32 bit floating, ...)
3. NAXIS che dà il numero di assi, cioè la dimensionalità dei dati, che può
essere 1 nel caso di immagini 1-dimensionali (spettri), NAXIS = 2 per le
immagini, ma può avere anche valori maggiori come NAXIS = 3 se vi sono
più immagini 2-dimensionali “impilate” (stacked) l’una sull’altra. È possibile anche avere dimensionalità maggiore se è necessario rappresentare
opportunamente dati multidimensionali. Nella ricostruzione di un’immagine bidimensionale l’ordine in un file FITS è tale che l’indice delle colonne
varia prima di quello delle righe.
4. NAXIS[n] una serie di keywords di questo tipo per indicare per ogni dimensione la lunghezza dell’asse
5. END per indicare la fine dell’header
Nel seguito diamo altri esempi di keywords opzionali che sono riferite in particolare al caso di immagini del cielo: CRVAL[N], CRPIX[N], CRDELT[N], CTYPE[N], OBJECT, DATE-OBS, INSTRUME, OBSERVER, TELESCOP, RA, DEC,
EPOCH, COMMENT, HISTORY, etc...
L’utilità di queste informazioni è evidente se notiamo che per un arbitrario
sistema di assi (p.es. RA, DEC, lunghezza d’onda, ...) la coordinata di un pixel
lungo l’asse n-esimo è data da:
coordinata[n] = CRVAL[n] + (pixel-CRPIX[n])*CRDELT[n]
dove:
- CRVAL[n] rappresenta la coordinata del punto indicato da CRPIX
- CRPIX[n] è il pixel corrispondente al centro dell’immagine
- CRDELT[n] è la distanza angolare coperta da un pixel nel cielo (la scala
dei pixel)
Spesso per aumentare l’intervallo dinamico dei dati rappresentati si utilizzano
due altre keywords, BZERO e BSCALE, attraverso le quali il valore di un pixel
può essere recuperato da
valore vero = (valore nel pixel * BSCALE) + BZERO
Si noti che, per assicurare la compatibilità del formato FITS con diversi tipi di
macchine, la sezione dell’header e quella dei dati sono completate rispettivamente
da blank e da zeri fino a raggiungere una lunghezza totale pari ad un multiplo
di 2880 bytes. Quindi aprendo con un editor un file FITS ci dobbiamo aspettare
una serie di righe di 80 caratteri (header) che terminano con la riga di END. A
Dip. di Fisica @ UNISALENTO
99
seguire ci saranno un numero variabile di blank fino a raggiungere una lunghezza
pari ad un multiplo di 2880 bytes. Seguiranno subito dopo i dati originali (raw
data) in un flusso continuo di bytes che alla fine sono completati da tanti zeri
quanti ne servono per raggiungere la lunghezza di un multiplo di 2880 bytes.
La lettura/scrittura di questi files è facilitata da molte routine distribuite
pubblicamente e sempre presenti nei software di riduzione ed analisi di dati
astronomici. I software di analisi dati più diffusi in ambito astronomico sono
tre:
IDL (Interactive Data Analysis): è un pacchetto commerciale di larghissima diffusione e per il quale sono state sviluppate moltissime librerie di
procedure per scopi specifici. Una vasta raccolta di procedure si può trovare all’indirizzo: http://idlastro.gsfc.nasa.gov/homepage.html Si tratta di
un linguaggio di programmazione nel quale l’operatore ha massima libertà
di intervenire ad ogni livello dei codici.
MIDAS (Munich Image Data Analysis System) sviluppato dall’ESO (European Southern Observatory) e distribuito gratuitamente (http://www.eso.org).
L’operatore utilizza delle procedure di riduzione ed analisi dei dati nelle
quali può variare una serie di parametri.
IRAF (Image Reduction and Analysis Facility) sviluppato dall’NOAO (National Optical Astronomy Observatory, http://iraf.noao.edu/). Come nel
caso di MIDAS l’operatore, variando i parametri di input delle procedure,
può svolgere il suo compito di riduzione ed analisi dei dati.
Va detto infine che il formato FITS ha subito negli anni varie modifiche, dette
anche estensioni, per permettere di immagazzinare più informazioni e non solo
dati relativi ad immagini. In particolare anche dati in forma di tabelle (dati tabulari) i cui elementi possono rappresentare diversi tipi di dati. File FITS di questo
tipo vengono anche detti “FITS tables” e possono essere scritti sia in ASCII che
in formato binario. Un’altra estensione FITS che si può incontrare è stata introdotta per rappresentare nello stesso file un gruppo di immagini diverse, ciascuna
con il proprio header, e con un header comune a tutte le immagini. Questo tipo di estensione è utile per immagazzinare un’immagine ripresa da un rivelatore
composito che viene realizzato come un mosaico di rivelatori che coprono una
ampia regione di cielo durante l’osservazione.
100
3.3.3
F.Strafella
Combinare immagini
In molte situazioni osservative si acquisiscono numerose immagini che poi vengono
combinate per ottenere un dato risultato. Esempi di casi di questo tipo sono la
determinazione del flat field, la realizzazione del superdark, la valutazione del
fondo del cielo (specialmente nell’IR) ottenuta con la tecnica del “dithering”, la
ricerca di un migliore rapporto S/N ripetendo la misura più volte e poi sommando
i frames, etc.
Sappiamo che, una volta ottenuto un campione di misure della stessa grandezza fisica, la migliore stima del valore intrinseco della grandezza è data, nel
senso della massima probabilità, dalla media del campione. Tuttavia la media
campionaria non è particolarmente robusta quando siamo in presenza di outliers,
ovvero di misure che danno valori molto al di fuori di quello che è ragionevolmente atteso. Gli outliers sono infatti spesso associati alle misure sperimentali
e sono il prodotto di eventi inattesi come l’arrivo di raggi cosmici sul rivelatore,
flickering delle stelle, letture del rivelatore con “bad data”. Qui ci occupiamo di
un aspetto cruciale nella riduzione ed analisi dei dati astronomici che consiste
nel saper combinare più immagini per ottenere il risultato voluto, escludendo allo
stesso tempo gli “outliers”.
È intuitivo che la combinazione di più immagini di uguale formato può essere
fatta mediando tutti i valori ottenuti su un dato pixel. Siccome la presenza di
“outliers” è inevitabile, per valutare il valore di un pixel sull’immagine combinata possiamo utilizzare la mediana che, in presenza di outliers, è uno stimatore
più robusto, anche se in linea di principio meno accurato, della media della popolazione campionata dalle misure. Alternativamente si potrebbe utilizzare la
conoscenza a-priori degli outliers sfruttando p.es. il fatto che i segnali di raggi cosmici e stelle sono sempre positivi: in questo caso potremmo eliminare dal
computo della media il massimo valore ottenuto su ogni pixel. Tuttavia questa
scelta porterebbe ad un bias per tutti i pixel che non hanno outliers e quindi
si preferisce cercare di compensare questo bias eliminando sia il valore massimo
che il minimo. Anche questa procedura ha i suoi inconvenienti perchè produce
un bias (anche se minore) sui pixel con un outlier e toglie comunque segnale (i 2
valori min e max) sui pixel buoni. Probabilmente la procedura migliore è quella
di eliminare dai dati i valori che si trovano al difuori di n-sigma per poi ricalcolare la media. Il problema in questo caso viene dal fatto che la valutazione della
sigma è molto sensibile proprio alla presenza degli outliers che vogliamo isolare
ed eliminare e quindi questa procedura è di semplice applicazione solo quando si
ha una conoscenza del modello giusto che descrive la distribuzione (non sempre
è la gaussiana) del mix tra outliers e valori del segnale. Comunque in generale si
Dip. di Fisica @ UNISALENTO
101
può adottare un modo di procedere abbastaza diffuso, cioè si calcola la media e la
varianza della distribuzione dopo aver eliminato il valore massimo dal campione.
Un caso più complicato lo incontriamo quando le immagini da combinare sono
riferite a diverse intensità. È il caso per esempio dei flats che vengono ottenuti sul
cielo crepuscolare e quindi sono ottenuti ad intensità che crescono o decrescono
a seconda che siano riferiti all’alba o al tramonto. Bisognerà trovare quindi un
modo per normalizzarli prima di combinarli considerando eventualmente anche
il diverso livello di rumore.
Un’altra situazione che implica la combinazione di più immagini è legata alla
determinazione della brillanza superficiale del cielo eliminando dall’immagine gli
oggetti astronomici. Ricordiamo che un’immagine stellare è costituita da un picco
di intensità che decresce rapidamente allontanandosi dal massimo e producendo
poi ali estese sulle quali l’intensità va lentamente a zero. Queste ali non hanno
grande importanza se si considerano gli effetti su un solo pixel, mentre sono un
notevole problema se si vuole sottrarre la brillanza del cielo ad una immagine
prima di fare la fotometria degli oggetti astronomici. Infatti anche se la brillanza
dell’immagine stellare su questi pixel è modesta rispetto al picco, il fatto che moti
pixel sono coinvolti nelle ali rende importante questo punto.
Finora, nel fare le nostre considerazioni, abbiamo pensato ad un singolo pixel alla volta senza sfruttare nessuna informazione su quello che accade ai pixel
adiacenti. Un caso in cui emergono molte delle sottigliezze insite nel trattamento delle immagini che facciamo è quello della valutazione (e poi sottrazione) del
background del cielo prima di passare all’analisi scientifica delle immagini. Ovviamente avremo bisogno di determinare il valore della brillanza del fondo e per
far questo si adotta spesso la tecnica di ottenere più immagini dithered, cioè con
piccoli shift nel puntamento (tipicamente una decina di arcsec), della stessa regione di cielo vogliamo sottrarre le sorgenti per ottenere un’immagine contenente
il solo segnale di fondo. Ovviamente tutte questi immagini conterranno sia il
fondo che gli oggetti astronomici e quindi per eliminare questi ultimi potremmo
estrarre un’immagine in cui ogni pixel è dato dalla mediana dei pixel della pila
di immagini ottenute (le immagini “impilate” sono dette anche “stack” di immagini). Il risultato di questa semplice operazione, che chiameremo supersky ,
potrebbe sembrare più che soddisfacente ad occhio, anche se non bisogna farsi
ingannare dalle apparenze perchè si tratta solo di una prima approssimazione
del background effettivo. Infatti, se proviamo a ripetere la procedura per ottenere un altro supersky e dividiamo poi i due supersky tra loro ci accorgeremo
che appaiono gli effetti della brillanza contenuta nelle ali degli oggetti presenti
nell’immagine. Queste ali permangono nel supersky e quindi aggiungono un’effetto sistematico nelle analisi successive. Per evitare questa situazione è utile
102
F.Strafella
individuare prima le posizioni delle stelle e quindi mascherare i pixel adiacenti
intorno ad ognuna di esse prima di combinare i frames dello stack per ottenere
il supersky. Per un risultato migliore conviene prima allineare (ricentraggio o
recentering) e sommare le immagini per ottenere una buona rivelazione anche di
stelle deboli. Poi si adotterà una opportuna mascheratura da applicare a tutte
le immagini originali prima di valutare il fondo del cielo. Naturalmente nel valutare la mediana su ogni pixel non terremo conto dei frames in cui quel pixel sia
stato mascherato. Siccome il background valutato in questo modo utilizza tutti
i frames acquisiti, permetterà di rivelare anche gli oggetti più deboli che usando
la semplice mediana sarebbero irrimediabilmente persi.
Nel caso il fondo del cielo cambi col tempo allora con questa tecnica si potranno ottenere più immagini del background, usando in particolare le due più
vicine in tempo ad ogni immagine che si voglia ridurre.
La tecnica che abbiamo descritto, prevedendo la mascheratura degli oggetti
(in particolare le stelle), funziona bene solo quando i campi osservati non sono
affollati. Nei casi in cui il campo sia affollato di stelle (si usa il termine “crowded
field”) bisognerà individuare un campo vicino non affollato su cui ricavare il
background tenendo conto che si tratterà sempre di una approssimazione.
Sommare immagini
Una condizione essenziale per sommare immagini ottenute con il dithering sulla
stessa regione di cielo è di saper individuare una trasformazione che riposizioni
tutti i frames su uno stesso sistema di riferimento spaziale. In altre parole bisognerà individuare lo shift che interviene nelle due coordinate delle immagini per
far sı̀ che l’immagine di un oggetto capiti nella stessa posizione spaziale in ogni
frame prima di poter sommare coerentemente. Precisiamo che in questa discussione abbiamo a che fare con immagini ottenute con shift di piccola ampiezza in
modo tale che eventuali distorsioni dell’ottica, presenti sul campo dell’immagine,
non siano un problema. Infatti ricentrare immagini con forti distorsioni è molto
più complicato e diventa una necessità nel caso si vogliano realizzare dei mosaici a
partire da immagini che ne costituiscono le tessere. Questo perchè le tessere sono
da sorapporre l’una sul bordo dell’altra e quindi proprio laddove le aberrazioni
dell’ottica sono maggiori.
La tecnica del dithering è essenziale nelle osservazioni IR che quindi si svolgono
ottenendo un gran numero di frames con piccoli shift di puntamento. Questo
approccio ha molti vantaggi:
si possono ottenere lunghi tempi di integrazione senza rischiare la saturazione del rivelatore
Dip. di Fisica @ UNISALENTO
103
si può valutare il fondo del cielo
si possono eliminare i pixel difettosi senza perdere parti dell’immagine finale
si possono eliminare le tracce eventualmente lasciate dai raggi cosmici
Ci sono poi altri casi in cui può essere richiesto di shiftare e ricampionare le
immagini come nel caso in cui si vogliano combinare e sommare immagini ottenute
da diversi telescopi, oppure ottenute a due diverse lunghezze d’onda, magari con
lo stesso strumento ma con ottiche interne diverse (p.es.: shift causati dal cambio
del filtro usato).
Prima di applicare gli shift opportuni abbiamo quindi bisogno di valutarne
accuratamente l’ampiezza a partire dalle immagini che sono state ottenute al
telescopio. Per questo scopo possiamo utilizzare varie tecniche:
valutare il primo momento (cioè la media) dell’immagine lungo le due
dimensioni:
P
P
xI
ij
ij yIij
ij
hyi = P
hxi = P
ij Iij
ij Iij
per poi shiftare le immagini di quantità definite dalle differenze delle medie
in x ed y;
utilizzare una gaussiana per fare un fit all’immagine di molte stelle rispetto
ad x, y ed all’intensità; quindi, determinati i centroidi delle immagini stellari, utilizzarli per determinare i ∆x e ∆y di tutte le stelle per valutarne
poi una media che fornisce lo shift migliore da applicare alle immagini;
fit gaussiani alle distribuzioni marginali (proiettando le immagini delle stelle
lungo x ed y) delle stelle per individuare con accuratezza i centroidi
Questi metodi ovviamente implicano la presenza nel campo osservato di immagini
stellari con alto rapporto S/N e quindi incontrano difficoltà in quei casi in cui
l’immagine contiene solo oggetti estesi e/o solo stelle deboli. In questo caso si
può usare la correlazione tra due immagini (cross-correlation). In pratica questa
operazione si può realizzare cosı̀
- moltiplicate le due immagini pixel per pixel;
- ripetete l’operazione avendo shiftato le due immagini progressivamente in
x ed y;
- costruite un’immagine le cui coordinate siano gli shift che sono stati applicati e riportate i valori ottenuti per la correlazione ai vari shift
104
F.Strafella
- approssimate una superficie a questi valori e trovatene il massimo: le coordinate del massimo indicano lo shift da applicare per la sovrapposizione
delle due immagini.
La correlazione è la tecnica che si usa anche in spettroscopia per valutare lo
shift doppler delle linee spettrali. Attenzione però: lo shift doppler non è uguale
a tutte le lunghezze d’onda per cui la correlazione va calcolata tra spettri espressi
in funzione del logaritmo della lunghezza d’onda !
“Shiftare” immagini
La richiesta di acquisire immagini con shift diversi ci porta a ridiscutere il tema
del campionamento di un’immagine: ci domandiamo che informazione si ottiene
e che cosa si perde dell’immagine originale se abbiamo a che fare solo con un
suo campionamento spaziale ottenuto con i nostri pixel. Ci interessa sapere se
lo shift delle immagini conserva il flusso e mantiene l’informazione spaziale, due
caratteristiche che noi certamente richiediamo alle nostre osservazioni e che sono
cruciali se poi andiamo a sommare immagini che sono state ricentrate con un
certo shift. La Figura 3.6 illustra questo problema in modo schematico.
Immaginiamo quindi di campionare, col nostro rivelatore a pixel, un’immagine che possiamo rappresentare come una funzione continua della posizione. Se
teniamo presente che il seeing limita l’osservazione delle caratteristiche spaziali
ad alta frequenza, possiamo pensare di avere a che fare con una funzione limitata
in frequenza. In queste condizioni l’analisi di Fourier ci assicura, attraverso il
cosiddetto “teorema del campionamento”, che un segnale limitato in frequenza
può essere completamente ricostruito se viene opportunamente campionato. In
questo caso la “ricetta” del buon campionamento dice che è necessario prelevare
segnale ad una frequenza spaziale pari almeno al doppio della frequenza di cut-off
imposta dal seeing. Per. esempio, se il seeing sparpaglia la luce stellare su una
scala spaziale di 0.8 arcsec noi l dove dovremmo campionare almeno ogni 0.4
arcsec.
Generalmente in astronomia si intende per “campionamento critico” (o campionamento di Nyquist) quello che corrispondente a due punti per una FWHM
(Full Width at Half Maximum) del disco di seeing. Nel caso di osservazioni al
limite di diffrazione (p.es.: da piattaforma spaziale o utilizzando tecniche di ottica adattiva) si parlerà invece della FWHM del disco di Airy 1 . In pratica però
le immagini vengono ottenute con pixel quadrati e non circolari per cui è generalmente consigliabile usare la regola approssimativa di tre campionamenti per
FWHM.
1
La funzione di Airy descrive il fenomeno della diffrazione da parte di una apertura circolare
Dip. di Fisica @ UNISALENTO
105
Figura 3.6: Sono illustrati nove pixel adiacenti (quadrati) e tre possibili posizioni
(indicate dai cerchi) in cui si può venire a trovare il centroide di una immagine
stellare. Si noti che se la FWHM delle immagini stellari fosse dell’ordine del
pixel-size il flusso totale misurato sarebbe dipendente dalla posizione del centroide
rispetto alla geometria dei pixel. In conseguenza è preferibile che più pixel siano
contenuti nella FWHM delle immagini stellari (vedi testo).
A questo punto la domanda è : come ci comportiamo se lo shift che determiniamo per ricentrare un’immagine non è un numero intero di pixel ? La risposta
non è univoca e dipende da come il nostro apparato osservativo ha campionato
le immagini.
caso A) Se disponiamo di immagini campionate a frequenze maggiori di quella critica (sovracampionate) possiamo pensare di convolvere l’immagine campionata con una funzione sinc di opportuna ampiezza spaziale. Questa
viene determinata usando il fatto che l’immagine originale non contiene
frequenze spaziali superiori alla frequenza spaziale del seeing, per cui una
funzione a box di larghezza pari a 1/FWHM può essere usata nello spazio
delle frequenze (spazio di Fourier) per delimitare lo spettro delle frequenze
106
F.Strafella
dell’immagine. Siccome questa operazione corrisponde, nello spazio dell’immagine, ad una convoluzione con una funzione Sinc di periodo pari alla
FWHM allora se convolviamo la nostra immagine sovracampionata con
una funzione sinc otterremo una nuova immagine che comunque rappresenterà correttamente l’immagine originale. Con questa tecnica possiamo
quindi ricampionare le nostre immagini originali ottenute con pixel shiftati
di quantità anche frazionarie, rispettando comunque la conservazione del
flusso e delle caratteristiche spaziali delle sorgenti.
caso B) Se le immagini di cui disponiamo sono campionate alla frequenza critica o
sono addirittura sottocampionate, l’operazione di Fourier non funziona più
bene e quindi è meglio evitare ricostruzioni azzardate dell’immagine originale attraverso la convoluzione dell’immagine campionata con una funzione
Sinc. Il rischio è di non conservare il flusso e introdurre artefatti nella distribuzione spaziale dell’intensità. Conclusione: molto meglio, se possibile,
shiftare le immagini di un numero di pixel interi scegliendo questo numero il
più vicino possibile a quello che si stima possa essere un ragionevole valore
per lo shift.
Molte routines calcolano lo shift frazionario di immagini usando schemi di
interpolazione sofisticati piuttosto che la convoluzione con una Sinc. Tuttavia
queste non necessariamente fanno un lavoro migliore dello shift intero quando si
hanno immagini campionate alla frequenza critica o subcritica. Spesso si usano
polinomi di ordine n che interpolano gli n + 1 punti intorno al punto interessato
dall’interpolazione (interpolazione Lagrangiana). Se n = 1 l’interpolazione è
quella lineare, o bi-lineare se in due dimensioni. L’ordine dell’interpolazione può
essere aumentato e spesso si usa anche l’interpolazione bi-cubica. Per andare
oltre bisogna essere cauti perchè gli schemi di interpolazione più semplici non
conservano il flusso. Ribadiamo che nel caso di immagini ben campionate tutti
gli schemi funzionano bene, ma passando ad immagini campionate meno bene i
problemi crescono e conviene usare valori di shift che corrispondano ad un numero
intero di pixel.
3.4
L’Arte della fotometria
In questa parte ci occuperemo delle tecniche che si usano per la fotometria di
oggetti puntiformi (stelle) e per la calibrazione della fotometria a larga banda.
Per altri tipi di fotometria (p.es. la fotometria di oggetti estesi) si rimanda ad
approfondimenti esterni al programma di questo corso.
Dip. di Fisica @ UNISALENTO
3.4.1
107
Fotometria con diaframma (aperture photometry)
Al piano focale di un telescopio la luce di una stella è usualmente distribuita su
alcuni pixel del rivelatore secondo una forma bidimensionale detta PSF(i, j) (da
Point Spread Function), dove i e j rappresentano indici che identificano le due
coordinate di un pixel. Il segnale raccolto S è tuttavia prodotto dalla somma dei
contributi della stella Stella(i, j) e del fondo del cielo B(i, j) per cui si pone il
problema di sottrarre quest’ultimo per valutare correttamente la brillanza della
sorgente stellare.
Per differenza possiamo determinare il segnale netto S della stella come
X
S=
[Stella(i, j) + B(i, j)] − N B
i,j
dove la somma è estesa ad N pixel ed il background medio per pixel è B. Il linea
di principio il segnale dovuto alla sola stella si ottiene quando N → ∞ visto che
le ali della PSF si estendono molto oltre la dimensione del seeing e quindi coprono
molti pixel sull’immagine. In pratica cerchiamo di scegliere il numero di pixel N
in modo che la frazione di luce stellare che cade entro la regione prescelta non sia
dipendente dal particolare tempo di esposizione usato per una data immagine.
Per determinare l’incertezza, teniamo conto della statistica di Poisson dei
fotoni e scriviamo
X
σS2 =
[Stella(i, j) + B(i, j) + RON 2 ] + N 2 σB2
(3.3)
i,j
= S + N RON 2 + N B + N 2 σB2
(3.4)
Per valutare il fondo del cielo B nel caso più semplice ci allontaniamo dalla
posizione della stella e misuriamo il fondo in una regione adiacente di cielo adottandone un valore medio da sottrarre al segnale della nostra stella. Per attenuare
il problema posto dalla non uniformità del cielo si preferisce valutare la media su
un anello intorno alla stella per cui se l’anello contiene Na pixel il valore medio
del fondo per pixel sarà:
1 X
B(i, j)
B=
Na a
con un errore associato
σB2 =
1 X
(B(i, j) + RON 2 )
Na2 a
Da quest’ultima si vede che l’errore sulla valutazione del background è molto
ridotto se viene valutato utilizzando molti pixel, come spesso avviene.
108
F.Strafella
Se quindi gli errori sulla determinazione del fondo diventano trascurabili allora
il rapporto segnale/rumore è dato da:
S/N = √
S
S + N RON 2 + N B
un importante risultato che abbiamo già visto prima, con la differenza che ora
compare esplicitamente il numero di pixel interessati. Usando questo risultato
si può ora valutare il numero ottimale di pixel per ottenere il segnale/rumore
più favorevole. Chiaramente il S/N tende a diminuire all’aumentare del numero
dei pixel contenuti nel diaframma (l’apertura) che usiamo. Questo aspetto è
particolarmente critico per le stelle deboli tanto che, mentre per le stelle brillanti
conviene aumentare l’apertura più possibile per non perdere il segnale nelle ali,
per quelle deboli vale il contrario. Ma attenzione, se si stringe troppo l’apertura
il numero di pixel considerati può diventare troppo piccolo per garantire una
stabilità della fotometria tra frames diversi a causa della variazione della PSF da
una esposizione all’altra o anche tra una regione e l’altra della stessa immagine.
Queste considerazioni portano alla tecnica, abbastanza diffusa, di considerare
piccole aperture per tutte le stelle, eccetto che per poche stelle più brillanti per le
quali si usa un’apertura più grande. Le poche stelle più brillanti vengono assunte
come rappresentative della PSF dell’immagine e quindi la fotometria fatta usando
aperture più piccole sulle stelle più deboli può essere successivamente corretta
per la parte di area della PSF che viene tagliata dall’apertura scelta (aperture
corrected photometry).
In questo ultimo caso il rapporto S/N viene migliorato per il fatto che usiamo
l’informazione supplementare sulla forma della PSF che possiamo ottenere dalle
sorgenti più brillanti nel campo.
Se conosciamo bene la PSF e la posizione (centroide) della nostra sorgente
possiamo, utilizzando argomenti legati ai minimi quadrati, ricavare che:
σS = S + Nef f (B + RON 2 )
dove
Nef f = P
1
P SF 2(i, j)
Si noti che il rapporto S/N sarà effettivamente aumentato solo se la PSF
che abbiamo valutato sulle stelle brillanti è effettivamente la PSF applicabile a
tutte le stelle dell’immagine. Questo ci porta naturalmente a considerare ora il
caso di campi stellari molto affollati in cui l’apertura non può mai essere scelta
molto ampia per evitare di mescolare la luce di una data sorgente con quella
Dip. di Fisica @ UNISALENTO
109
proveniente da altre sorgenti adiacenti. In questi casi la fotometria di apertura è
sconsigliabile e dobbiamo usare un approccio diverso basato sulla PSF valutata
sulle stelle brillanti.
3.4.2
Campi affollati (Crowding)
La tecnica a cui abbiamo accennato nel precedente paragrafo è tanto meno consigliabile quanto più la densità superficiale delle stelle in una immagine cresce. Si
parla in questo caso di “affollamento” (crowding) del campo, cosa che porta a due
conseguenze: le immagini stellari si sovrappongono in parte e le regioni anulari su
cui si valuta il fondo del cielo contengono stelle. In queste condizioni è necessario utilizzare opportuni accorgimenti che permettano di ottenere comunque una
fotometria delle singole sorgenti in campi affollati (crowded field photometry).
In queste applicazioni l’idea di base è di cercare di sfruttare la conoscenza della
PSF per ottenere simultaneamente la brillanza di tutte le stelle che si affollano
(anche sovrapponendosi in parte) in una data regione dell’immagine. In poche
parole la tecnica consiste nel realizzare una sequenza di operazioni che nell’ordine
sono:
- Identificazione delle stelle. Si tratta di trovare, in modo automatico, le posizioni delle stelle sull’immagine utilizzando i picchi del segnale
2-dimensionale. Naturalmente in questa fase sarà importante considerare
la fluttuazione del fondo del cielo per cui si definirà una soglia di rumore al
disotto della quale eventuali picchi non hanno senso. In modo più attento si
può dire che, tra tutti i picchi di segnale che sono rappresentati nell’immagine cerchiamo di selezionare solo quelli che più somigliano ad una immagine
stellare (PSF, vedi punto successivo). Per svolgere questo compito vi sono
diverse tecniche, la più diffusa delle quali è quella di usare una specie di
wavelet che convolve l’immagine per cercare le posizioni dei picchi significativi (fuori dal rumore). Questa fase è poi seguita da una selezione dei
picchi sulla base di criteri di “sharpness” e “roundness” che distinguono le
immagini di stelle da immagini di oggetti estesi, di raggi cosmici, di difetti
del rivelatore, ecc. Alla fine, per avere una lista con le posizioni dei soli oggetti che appaiono stellari, bisognerà escludere gli oggetti spuri sulla base
del rispetto dei criteri stabiliti di roundness e sharpness.
Point Spread Function (PSF) che caratterizza l’immagine . Per
questo si utilizzano le stelle più isolate e brillanti dell’immagine, riportando
in una tabella il segnale letto sui vari pixel il cui segnale sia dovuto alle
stelle prescelte. Siccome il posizionamento dei picchi (che abbiamo anche
110
F.Strafella
chiamato centroidi) delle stelle rispetto ai pixel del rivelatore è vario, è necessario determinare una funzione che interpoli accuratamente tra i valori
tabulati per ricavare una em PSF analitica da utilizzare nella stima delle brillanze di tutte le altre stelle. Siccome si tratta pur sempre di una
approssimazione sarà utile memorizzare anche i residui ottenuti dopo aver
fittato la PSF analitica. Se questi residui sono sistematici, cioe’ se tutte
le stelle mostrano le stesse deviazioni dalla funzione analitica, è opportuno
registrarli in una tabella (detta “look-up table”) che potrà poi essere usata
per correggere il risultato ottenuto fittando la funzione analitica su tutte le
sorgenti del campo. Un esempio di come si presenta una PSF è mostrato
in Figura 3.7 in cui sono evidenti le differenze tra una funzione analitica
regolare e la realtà del segnale ottenuto.
Figura 3.7: Point Spread Function (PSF) di due immagini ottenute con due
strumenti diversi e corrispondenti ad oggetti stellari. Si noti che nella figura in
alto compare un piccolo oggetto visibile sotto la sorgente astronomica: la sua
estensione angolare molto più piccola rispetto alla PSF ed è quindi considerato
come un artefatto.
Dip. di Fisica @ UNISALENTO
111
Raggruppare le stelle in “cluster”. In linea di principio si dovrebbero
contemporaneamente fittare tutte le stelle in una immagine perche’ in teoria
le ali nel segnale prodotto da una stella coinvolgono l’intera immagine.
Tuttavia, siccome il fit implica un processo iterativo che richiede un tempo
tanto maggiore quante più stelle si vogliono risolvere contemporaneamente,
è necessario raggrupparle in cluster che vengono poi considerati uno alla
volta. Un criterio ragionevole per farlo è di determinare le zone in cui le
stelle si sovrappongono di più rispetto all’ambiente adiacente. In questo
modo il bordo di un cluster è scelto in modo che la luce delle stelle più
vicine al bordo non influenzi molto la brillanza delle stelle del cluster.
Approssimazione del profilo stellare Per ogni cluster si vanno a “fittare” simultaneamente le brillanze stellari e le posizioni usando una prima
stima ottenuta adattando la PSF alle posizioni delle stelle che sono state
individuate in fase di rivelazione (detta di “detection”). Prima di fittare la
PSF ad una singola stella però bisognerà aver cura di sottrarre il contributo delle stelle adiacenti alla brillanza dei pixel interessati dal fit della data
sorgente. Questo contributo stimato proprio utilizzando la forma della PSF
che abbiamo ottenuto nei passi precedenti. Una volta ottenuta una stima
della brillanza delle stelle, avendo sottratto il contributo delle stelle adiacenti, si possono sottrarre le singole stelle dall’immagine originale, ottenendo
in questo modo un’immagine dei residui che potrà essere opportunamente
utilizzata per raffinare la nostra fotometria attraverso una nuova iterazione
dell’operazione di fit fino ad ottenere una soluzione soddisfacente.
- Sottigliezze: nella stima del cielo si potrà usare la regola
sky = 3 ∗ mediana − 2 ∗ media
che tiene conto della difficoltà che si ha in campi affollati nell’avere un buon
numero di pixel che si trovano sul cielo e che quindi misurano il fondo. Si
noti che nel caso di distribuzioni simmetriche media e mediana coincidono
ed il risultato è pari alla media.
Se si itera l’intera procedura si potrà meglio definire la PSF perchè nel determinarla si potrà anche tenere conto di eventuali contributi dalle stelle
vicine. Se questi contributi vengono sottratti, allora sarà possibile ottenere
una PSF più accurata. Questa stessa possibilità di sottrarre all’immagine
iniziale il modello di PSF che ci siamo costruiti permette inoltre di evidenziare eventuali altre stelle deboli che ricadono spazialmente sulle ali delle
immagini di stelle più brillanti.
112
F.Strafella
Completezza: dare la “completezza” della nostra fotometria significa dare un valore della brillanza che risponde alla domanda: “qual’è la brillanza
delle stelle pi˘’ deboli che riusciamo a rivelare al 100%, cioè senza perderne
?”. È intuitivo che ci sarà un limite di brillanza al disotto del quale non
riusciamo a rivelare tutte le stelle. Si intuisce infatti che una sorgente debole sarà più probabilmente rivelata se è isolata piuttosto che in condizioni
di crowding. La completezza quindi dipende non solo dalla sensibilità dei
nostri strumenti di osservazine, ma anche dal tipo di campo che andiamo
ad indagare. In genere la magnitudine di completezza di una fotometria
si giudica a partire da un istogramma logaritmico delle magnitudini stellari. In Figura 3.8 si vede un simile diagramma che mostra un andamento
lineare per una gran parte dell’intervallo di magnitudini fino a cambiare
andamento per valori che superano un dato limite (detto magnitudine di
completezza). L’altra indicazione data da questa figura è la magnitudine
limite che corrisponde alla più piccola brillanza rivelata.
Figura 3.8: Istogramma delle magnitudini per un campo osservato a 4 lunghezze
d’onda (indicate su ogni diagramma). Il numero di stelle con una data magnitudine è mostrato con la linea continua. Si noti come questo numero cresca
linearmente all’aumentare della magnitudine (cioè al diminuire della brillanza) fino ad un valore di magnitudine, detto magnitudine di completezza (linea verticale
tratteggiata) oltre il quale l’andamento non è più lineare. La magnitudine limite
di queste osservazioni corrisponde al limite massimo dei valori di magnitudine
riportati (vedi testo).
113
Dip. di Fisica @ UNISALENTO
3.4.3
Estinzione atmosferica
Abbiamo già incontrato (nella prima parte delle lezioni) questo tema dell’estinzione della luce causata da scattering e assorbimento nell’atmosfera terrestre. Se
Fλ ed Fλ0 sono rispettivamente il flusso osservato ad una data lunghezza d’onda
ed il corrispondente flusso incidente al di fuori dell’atmosfera
Fλ = Fλ0 e−[X
τλ (z=0)]
(3.5)
dove con X, z e τλ (z = 0) abbiamo rispettivamente indicato la massa d’aria
dell’osservazione, l’angolo zenitale , e la profondità ottica (o spessore ottico) dell’atmosfera in direzione dello zenit. Questa relazione in termini di magnitudini si
riscrive:
mλ = mλ0 + 1.086 τλ (z = 0)X = m0 + κλ X
(3.6)
dove con κλ abbiamo indicato il coefficiente di assorbimento. Come si è già detto
κλ può variare da notte a notte cosicchè , se siamo interessati ad una fotometria
accurata (migliore di ∆F/F . 2%), il coefficiente di assorbimento va misurato
con una certa frequenza: se le condizioni atmosferiche sono buone almeno una
volta ogni notte, altrimenti anche di più.
Il coefficiente di estinzione κ può essere determinato facendo una serie di
misure F di una stella a differenti masse d’aria X. Questo permette di ottenere
un grafico di m in funzione di X da cui si potrà ricavare m0 e κ usando un fit
ai minimi quadrati della equazione 3.6 . Nel far questo è buona norma cercare
di ottenere misure su un grande intervallo di masse d’aria per meglio definire la
retta fittante e per comprendere all’interno di questo intervallo le masse d’aria a
cui si sono ottenute le osservazioni degli oggetti in studio.
Tuttavia, nel lavorare con filtri a larga banda entra in gioco una altra accortezza che è necessario considerare se si vuole ottenere una fotometria accurata.
Si tratta di considerare il fatto che entro un filtro a banda larga la lunghezza
d’onda della radiazione può cambiare notevolmente e quindi anche il coefficiente
di estinzione da applicare può essere una quantità che varia sensibilmente entro
la banda passante. Siccome stelle fredde e calde hanno una diversa proporzione
tra radiazione a corte e lunghe lunghezze d’onda, ne discende che osservando due
stelle di colore diverso (e quindi diverso tipo spettrale) potremmo ottenere valori
diversi per il coefficiente di estinzione, pur utilizzando lo stesso filtro.
Questo inconveniente si supera se si introduce una correzione, detta di “secondo ordine”, che sia funzione non solo della lunghezza d’onda ma anche del
colore della stella:
mλ = mλ0 + κλ X + κ′colore X
(3.7)
114
F.Strafella
È intuitivo che più grande è la banda passante di un filtro più sarà importante
la correzione dovuta al colore della stella considerata. Per lo stesso motivo, se
l’oggetto osservato ha colori estremi oppure il κλ varia rapidamente nella banda
passante del filtro usato (come avviene nella regione UV), le correzioni di colore
saranno importanti.
3.4.4
Stelle standard
La definizione delle cosiddette stelle standard è un passo essenziale se si vogliono
rendere confrontabili le osservazioni fatte da due diversi osservatori. La ragione
di questo sta nel fatto che due diversi apparati osservativi avranno efficienze di
raccolta e rivelazione del segnale astronomico molto diverse e quindi in generale
non danno risultati direttamente confrontabili, nemmeno se si facessero solo misure relative. Le differenze nella risposta di diversi apparati dipendono in effetti
da molti fattori tra cui la dimensione e le condizioni dell’ottica del telescopio,
il numero e tipo delle ottiche utilizzate nello strumento di piano focale utilizzato, la qualità e banda passante dei filtri, la risposta del rivelatore, ..... A causa
di questa situazione, siccome è molto difficile misurare in senso assoluto tutti
questi parametri, è praticamente impossibile risalire con una certa affidabilità al
flusso di energia che effettivamente ha raggiunto l’apparato di misura durante le
osservazioni.
Per aggirare questo tipo di difficoltà nel corso del tempo ci si è posto il problema di individuare dei gruppi di stelle che, per le loro particolari caratteristiche
di stabilità, vengono adottate come stelle campione (da cui il nome di stelle
standard) alle quali tutti gli osservatori riferiscono le osservazioni effettuate sulle
sorgenti celesti. In generale un sistema fotometrico corrisponde ad una scelta più
o meno arbitraria di un apparato strumentale (filtri, rivelatore, ...) che abbia
caratteristiche di grande stabilità nel tempo e con il quale qualcuno abbia speso una gran quantità di tempo di osservazione per caratterizzarlo rispetto alle
osservazioni di stelle standard. Con procedure di questo tipo un sistema fotometrico viene sempre calibrato dall’osservazione di stelle di “calibrazione primaria”
(dette anche stelle standard primarie) di cui sia già noto il flusso assoluto ottenuto in precedenza per altra via. In questo modo tutte le osservazioni fatte con
quell’apparato stumentale potranno poi essere convertite in unità fisiche di flusso.
Per esemplificare diciamo che se usassimo due strumenti identici con due telescopi dello stesso diametro ci aspetteremmo di ottenere esattamente gli stessi
flussi da una data sorgente osservata. Se ora un sistema differisce di poco dall’altro per effetto di una diversa efficienza ottica (throughput), avremo un fattore
moltiplicativo che, producendo una differenza nel segnale ottenuto nei due casi, si
Dip. di Fisica @ UNISALENTO
115
traduce in un fattore additivo nelle magnitudini. Se però osserviamo con gli stessi
apparati anche delle stelle standard, di cui conosciamo a priori la magnitudine,
diventa allora facile determinare la correzione da applicare alle magnitudini (dette
anche magnitudini strumentali) ottenute con l’uno e l’altro apparato osservativo
per riportarle in un sistema di riferimento standard delle brillanze. La costante
additiva cosı̀ determinata prende il nome di zeropoint ed è legata al flusso prodotto da una stella che nel sistema di magnitudni calibrate avrebbe magnitudine
zero ad una data lunghezza d’onda.
Finora abbiamo considerato il caso in cui la differenza tra gli apparati osservativi sia legata al solo throughput ottico ed è quindi di tipo moltiplicativo e
non dipendente dalla lunghezza d’onda. Nel caso più generale però abbiamo a
che fare anche con una risposta dei nostri strumenti di misura che dipende anche
dalla lunghezza d’onda, come accade per esempio nel caso si utilizzino dei filtri
con curve di trasmissione leggermente differenti da quelle utilizzate per stabilire
il sistema fotometrico. Se si utilizza un filtro con un diverso cut-off, diciamo
con una caduta più rapida a grandi lunghezze d’onda, otterremo ovviamente una
diminuzione del segnale in conteggi che sarà tanto più evidente quanto più la
sorgente osservata ha uno spettro che cresce verso il rosso (come le stelle fredde).
è chiaro quindi che per ristabilire un corretto paragone tra misure fatte con filtri
leggermente diversi dobbiamo poter correggere questo effetto che dipende dalla
pendenza dello spettro osservato. Una correzione al primo ordine potrebbe essere
di valutare una costante additiva delle magnitudini che dipenda dalla pendenza
dello spettro osservato. Tuttavia siccome non conosciamo a priori lo spettro della
sorgente che andremo ad osservare è necessario utilizzare un qualche parametro
che sia facilmente accessibile e legato alla forma spettrale della sorgente. Un tale
parametro è proprio il colore che si può ricavare a partire da misure della sorgente ottenute a due diverse lunghezze d’onda, preferibilmente vicine alla regione
spettrale del filtro che vogliamo meglio calibrare tenendo conto dell’effetto della
forma spettrale.
La trasformazione dai conteggi alla magnitudine calibrata in un sistema fotometrico standard è :
m = 2.5 log (conteggi/s) + zpsoft
m0 = m − kX
mcal = m0 + tcolor + zp
dove con zp (zero point) si è indicato il punto zero della fotometria, con k ed
X rispettivamente il coefficiente di estinzione atmosferica e la massa d’aria al
116
F.Strafella
momento delle osservazioni. Con zpsoft si è indicato invece il punto zero che normalmente viene adottato dal software di analisi utilizzato per ottenere valori di
magnitudine “ragionevoli” a partire dai conteggi ottenuti dalla lettura del rivelatore. Si tratta quindi di un valore arbitrario che di solito viene scelto pari a 25
magnitudini e che rappresenta la magnitudine che attribuiamo arbitrariamente
(e temporaneamente) ad una sorgente che produca un segnale di 1 conteggio.
Questo valore arbitrario diventa poi ininfluente quando si passa alla procedura
di confronto con le stelle di calibrazione per ottenere i valori delle magnitudini
nel sistema fotometrico standard. Con ttcolor è indicato infine il coefficiente di
trasformazione, detto anche termine di colore, che dipende dal colore della sorgente osservata. Dalle precedenti relazioni deriva l’uso comune di rappresentare il
tutto con un’unica relazione le magnitudini calibrate nel sistema di magnitudini
standard:
mcal = m − kX + tcolor + zp
(3.8)
Come abbiamo già visto il colore è dato dalla differenza di magnitudini (ovvero
dal rapporto tra due flussi) a due lunghezze d’onda diverse che, nel caso che
stiamo discutendo, vengono scelte vicine a quella delle osservazioni da correggere.
Per esempio nel correggere le magnitudini in banda V si usa utilizzare il colore
B-V oppure V-R o V-I. Per definirlo possiamo usare due modi a seconda che
lo consideriamo nel sistema strumentale oppure in quello standard in cui alla
fine vogliamo esprimere le magnitudini. Si noti che non è necessario conoscere
“a priori” il colore della sorgente perchè basterà considerare solo le osservazioni
ottenute a due diverse lunghezze d’onda per ricavare indicazioni sulla pendenza
dello spettro.
Se le curve di trasmissione dei filtri usati non sono molto diverse da quelle per
cui è definito il sistema fotometrico standard, e se le forme spettrali degli oggetti
osservati non sono molto diverse da quelle delle stelle standard usate, allora le
correzioni al primo ordine di cui abbiamo parlato basteranno per ottenere una
buona accuratezza nelle magnitudini.
Solo quando queste condizioni non sono soddisfatte può essere utile applicare
correzioni di ordine superiore, ricordando che se gli spettri degli oggetti osservati
sono molto diversi da quelli delle stelle standard gli errori possono comunque
rimanere molto rilevanti. Naturalmente se le differenze tra il sistema fotometrico
standard e quello delle nostre osservazioni saranno troppo grandi allora non ci
sarà più alcuna relazione tra le misure fatte nei due sistemi. In questo ultimo caso
non sarà più possibile tradurre le misure nel nostro sistema fotometrico in quelle
che si sarebbero ottenute utilizzando la stessa strumentazione che ha permesso
di stabilire il sistema standard. Comunque, proprio per rispondere alle diverse
esigenze che possono sorgere nell’indagine scientifica, sono stati stabiliti diversi
Dip. di Fisica @ UNISALENTO
117
sistemi fotometrici standard, ognuno con i suoi vantaggi e svantaggi e quindi con
caratteristiche che possono essere più o meno utili a particolari indagini.
Per esempio, se si vuole evitare di coinvolgere nelle misure linee di emissione
o di assorbimento si possono realizzare appositi filtri che sono tipicamente più
stretti dei classici filtri a larga banda e che quindi richiedono una loro propria
calibrazione attraverso la determinazione dei valori assoluti delle magnitudini per
un set di stelle standard.
Si noti che il termine di correzione per l’estinzione atmosferica nell’eq. (3.8)
lo possiamo ricavare se osserviamo una stelle standard (conosciamo mcal e misuriamo m) in diverse direzioni nel cielo e quindi a diversi valori di massa d’aria
X. Siccome per far questo sarebbe necessario aspettare un tempo molto lungo
(perchè la posizione di un astro nel cielo cambi sensibilmente), di solito si preferisce osservare più stelle standard (di colori diversi) a varie altezze sull’orizzonte
in modo da ottenere una valutazione, ad un dato momento della notte, del coefficiente di estinzione atmosferica k, del termine di colore tcolor , e del punto zero
zp. Possiamo infatti scrivere tante relazioni del tipo dell’eq. (3.8) dalle quali si
estrarranno i migliori valori (nel senso dei minimi quadrati) delle tre quantità
suddette.
118
F.Strafella