NIHIL SUB ASTRIS NOVUM
N.
13
– 09 NOVEMBRE 1997
a cura di Cristina Bernasconi, Elia Cozzi e Massimo Zoggia
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
A Newsletter of
Gruppo Astrofili “Giovanni e Angelo Bernasconi”
Via S. Giuseppe, 34–36
21047 Saronno (VA)
Italy
http://www.pangea.va.it/Bernasconi
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
ALTEZZA E AZIMUT DI PRIMA VISIBILITÀ DELLE STELLE
di A. Gaspani ([email protected])
Nel campo dell’Archeoastronomia la letteratura relativa all’esistenza vera o presunta, in taluni siti, di allineamenti diretti verso il
punto di levata o di tramonto di oggetti astronomici è abbondante. Capita spesso di leggere che talune linee di pietre o buche di palo
sarebbero orientate verso il punto di sorgere o di tramonto del Sole, della Luna o di qualche stella luminosa in corrispondenza di qualche
data o posizione particolare. Il Sole e la Luna sono astri molto luminosi che possono essere osservati non appena il loro lembo superiore fa
capolino al limite dell’orizzonte locale apparente o di quello fisico se nel luogo considerato esistono dei rilievi che si elevano di alcuni
gradi sopra l’orizzonte astronomico. Talvolta si legge anche di orientazioni stellari e generalmente nella letteratura viene preso in
considerazione, dopo le debite correzioni per la rifrazione atmosferica, l’azimut di levata della stella all’orizzonte astronomico locale.
In realtà un simile approccio non è metodologicamente corretto in quanto non vengono quasi mai presi in considerazione gli effetti
dell’estinzione atmosferica la quale gioca un ruolo determinante facendo si che la stella diventi visibile solamente quando la sua altezza
rispetto all’orizzonte astronomico locale abbia già raggiunto un consistente valore, che chiameremo in questa sede “altezza di prima
visibilità”, abbreviata in HPV. La HPV dipende grosso modo dalla trasparenza dell’atmosfera in prossimità dell’orizzonte in direzione
della stella che sorge e dalla sua magnitudine visuale apparente.
In letteratura possiamo trovare il termine “angolo di estinzione” per designare HPV e qualche studio relativamente ad esso è stato fatto
in passato. L’archeoastronomo A. Thom (1967) propose una semplice regola messa a punto da O. Neugebauer sulla base di antiche
osservazioni stellari registrate su tavolette babilonesi. La regola di Thom–Neugebauer ci dice che una stella di magnitudine visuale “m”
diverrà visibile nel cielo mattutino ad un’altezza sull’orizzonte approssimativamente pari alla sua magnitudine visuale. In questo modo una
stella di prima magnitudine diverrà visibile a 1 grado di altezza sull’orizzonte astronomico locale. Una di seconda magnitudine sarà
visibile a due gradi e cosi via. Al tramonto le cose si invertono nel senso che la stella di seconda magnitudine sparirà al tramonto a due
gradi dall’orizzonte, quella di prima grandezza ad un grado e così via.
La dipendenza di HPV dalla trasparenza atmosferica può essere tecnicamente quantificata mediante il coefficiente di estinzione
atmosferica K nella banda visuale, ben noto a chi lavora nel campo della fotometria fotoelettrica. I fotometristi sanno determinare
sperimentalmente notte per notte il valore di K, per le lunghezze d’onda di osservazione, ma volendo stimare l’azimut di prima visibilità di
una stella ad esempio 3000 anni fa, nessuna determinazione sperimentale è ovviamente possibile.
Gli effetti dell’estinzione atmosferica agiscono grosso modo sul cammino dei fotoni provenienti dalla stella attraverso tre differenti
strati all’interno dell’atmosfera terrestre. Il primo strato importante è quello della fascia di ozono a circa 20 Km di altezza dal suolo, il
secondo è quello che si stende a circa 8.2 Km di quota e contribuisce al cosiddetto “Rayleigh scattering” e il terzo è lo strato degli aerosol,
posizionato a circa 1500 metri di altezza e in cui possiamo trovare particelle di acqua nebulizzata, polveri portate dal vento, pollini degli
alberi e altre particelle solide che interagiscono con la luce che giunge dalla stella.
In letteratura è possibile reperire alcuni modelli utili alla quantificazione degli effetti di estinzione attraverso i vari strati. Ad esempio
Hayes e Latham (1975) si sono occupati di tutte e tre le zone, Bower e Ward (1982) si sono occupati dello strato di ozono e vari autori, tra
i quali Shafer (1993) si sono occupati dello strato in cui predominano gli aerosol.
Una formula rigorosa e chiusa per mettere in relazione “m” e “Kv” non esiste, ma esistono dati sperimentali e dati di simulazione al
computer ottenuti da Schafer e Liller (1990) a cui è possibile fare riferimento. Al fine di stabilire un algoritmo di calcolo pratico
sufficientemente semplice risulta molto utile applicare una rete neuronale artificiale e addestrarla sui dati sperimentali disponibili sia
derivanti dalle simulazioni che dalle osservazioni chiedendo ad essa di ottimizzare una forma funzionale approssimata, ma
sufficientemente accurata. Esaminando i modelli messi a punto da questi autori siamo in grado di estrarre le informazioni che ci
permettono di mettere a punto la topologia iniziale (mesostruttura) della rete neuronale artificiale da addestrare in modo che
l’approssimazione ottenuta permetta di predire con un buon margine di affidabilità l’altezza di prima visibilità delle stelle in funzione
della loro magnitudine e di alcuni parametri atmosferici locali e dell’incertezza con cui la valutazione di HPV è possibile. Nota HPV la sua
conversione nell’“azimut di prima visibilità” ad una data latitudine geografica diventa solamente una questione di semplice calcolo
trigonometrico.
Impiegando le funzioni che descrivono la “massa d’aria” pertinenti a ciascun strato, è stato possibile mettere a punto un modello
numerico capace di fornire la HPV di una stella in funzione della sua magnitudine visuale apparente, della latitudine geografica e della
quota sul livello del mare del luogo e del tasso di umidità relativa dell’aria.
Il problema è comunque mal determinato e il grado di incertezza insito in esso è molto elevato, tale da richiedere l’utilizzo di
particolari tecniche matematiche di valutazione quali sono le reti neuronali artificiali dette a Link Funzionale, sviluppate per la prima volta
da Pao (1989) al fine di migliorare la potenza di calcolo delle reti neuronali artificiali, aumentandone la capacità di approssimare il
comportamento di sistemi nonlineari, diminuendone nel contempo il tempo richiesto dalla fase di apprendimento. Tornando al presente
problema, la mesostruttura ritenuta più efficiente per permettere alla rete neuronale artificiale di stimare HPV è stata la seguente:
1
a(1)
-1 o-----------[>-------------------------+
____
|
w(1)
| 1 |
c(1)
|
+----[>------| x |--[>-+
|
|
:
|____|
|
|
: . :
:
.
|
|
| . :
:
. _|___
__|__
|/
:
:
\|
| n(1) |
|
m o-- :
:
--| Σ |---[>--| Σ |-----> HPV
|\
:
:
/|_____|
|_____|
: . :
_:__ .
|
|||
|
:
| 5 |
|
||| F{z}=max(Ho,z)
+----[>------| x |--[>-+
|||
w(5)
|____|
c(5)
|||
|||
b(1)
|||
K o-----[>------------------------------+||
r(1)
||
-1 o-------------[>-----------------------+|
______
|
| 1/2 |
u(1)
|
H o----| x
|------[>-------------------+
|______|
Formata da una sottorete FLN a cinque link funzionali non lineari più un elemento sommatore e da un neurone addizionale con
attivazione a rampa capace di aggiungere gli effetti dovuti alla rifrazione atmosferica e alla quota del sito.
La fase di apprendimento ha permesso di arrivare alla determinazioni del seguente insieme ottimale di pesi:
a(1) = -2.01
b(1) = 0.36
c(1) = 1.2
c(2) = 0.36
n(1) = (K+0.35)
r(1) = R
u(1) = -0.95
c(3) = 0.072
c(4) = 0.0108
c(5) = 0.001296
w ( j) = (K − 0.4833) j
(j=1,...,5)
ottenuti minimizzando l’energia complessiva della rete.
Il modello proposto è quindi il seguente:
5

1 


HPV = max H 0 , a (1) + b(1) ⋅K + n (1) ⋅∑ c( j) ⋅w ( j) ⋅m j − r(1) + u (1) ⋅H 2 


j=1


in cui il peso sinaptico r(1) è il contributo R della rifrazione atmosferica, calcolato analiticamente più avanti, H è la quota del sito rispetto
al livello del mare (in Km), K è il coefficiente di estinzione atmosferica che misura il cammino ottico totale verso lo zenith e che è
misurato in magnitudini per unità di massa d’aria, H 0 è l’altezza apparente dell’orizzonte fisico rispetto a quello astronomico.
Il contributo dovuto alla rifrazione astronomica può essere valutato mediante la seguente relazione:
−
H
0.00467 ⋅P ⋅e 8.4
R=

7.31 

(273 + T ) ⋅tan
H m + H + 4.4 
m


in funzione della pressione atmosferica P (in millibar), della temperatura dell’aria T in °C, della quota dell’osservatore H (in Km) e
dell’elevazione H m che vale:
Hm

H

= max H 0 ,− 2.71 + 11.7 ⋅K + (2 ⋅K + 0.7) ⋅e (0.6⋅K + 0.29 )⋅m − 
H p



1 
 2
 

 

che rappresenta l’altezza di prima visibilità, ottenuta trascurando la rifrazione atmosferica, in cui H p = 1.1 Km.
Il coefficiente di estinzione è legato alla profondità ottica “q” nel modo seguente:
2
K = 1.086 q
e al grado di trasmissione atmosferica T come segue:
K = –2.5 Log(T)
Il coefficiente K dipende dalla lunghezza d’onda della luce incidente e dai materiali predominanti nei vari strati di atmosfera
attraversati dalla luce della stella. Esso consta di tre distinte componenti, vale a dire: una componente che dipende dalla scattering di
Rayleigh ( K r ) che può essere facilmente determinato in funzione della lunghezza d’onda ( λ ) della luce incidente, della quota H
dell’osservatore e dell’indice di rifrazione dell’aria secondo quanto indicato da Hayes and Latham (1975):
K r = 113700 ⋅(n − 1) ⋅e
2
H
Hr
−
⋅λ4
che per le osservazioni visuali diventa ( λ =0.55 micron (V-band)):
K r = 0.1066 ⋅e
−
H
Hr
in cui H r =8.2 Km
La componente dovuta agli effetti dell’ozono stratosferico è determinabile in base ala modello di Bower and Ward (1982):
K 0 = 0.031 + 0.0041 ⋅[
f ⋅cos( A s ) − cos(3 ⋅f )]
dove “f” è latitudine geografica del sito e A s è l’Ascensione Retta del Sole la quale codifica le variazioni stagionali dello strato di Ozono.
L’ultima componente è quella dipendente dal contenuto di aerosol nella bassa atmosfera. Questo è di gran lunga il termine più
difficoltoso da valutare in quanto dipende da numerosissimi fattori quali la concentrazione delle polveri, dei pollini degli alberi dispersi
dal vento nell’atmosfera, dalle goccioline di acqua di mare nebulizzata nella bassa atmosfera e così via. Al contrario di oggi
l’inquinamento atmosferico può essere trascurato per quanto riguarda l’antichità. Nonostante queste difficoltà è possibile eseguire una
stima conveniente anche di questo fattore:
0.55 
K a = 0.12 ⋅

 λ 
1
3
⋅e
−
H
Ha
4
 0.32 
⋅
1 − ln(S) 



3
⋅(1 + 0.33 ⋅sin (A s ))
in cui S è il grado di umidità relativa dell’aria e H a vale 1.5 Km.
L’incertezza sulla valutazione di K a può essere stimata mediante la seguente semplice approssimazione:
e[
k (a )]= 0.01 + 0.4 ⋅K a
Il coefficiente di estinzione totale K vale quindi approssimativamente:
K = Kr + K0 + Ka
che tutto sommato rappresenta comunque un’approssimazione molto grossolana.
L’azimut di prima visibilità, FVA, sarà facilmente determinato mediante la seguente relazione trigonometrica:
sin(D ) − sin(f ) ⋅sin(HPV ) 

FVA = ar cos 


cos(f ) ⋅cos( HPV )


dove D è la declinazione della stella che sorge.
L’Archeoastronomia si occupa prevalentemente di allineamenti diretti verso taluni punti dell’orizzonte, quindi gli oggetti celesti
interessati hanno generalmente altezze molto ridotte, qualche grado al massimo. È quindi facile rilevare che per astri bassi sull’orizzonte
l’effetto dello strato di aerosol a 1.5 Km di altezza è quello determinante e quindi il valore del coefficiente di estinzione generale K è
prevalentemente dominato dalle particelle solide disperse nell’atmosfera attraversata dai fotoni provenienti dall’astro che sta sorgendo o
tramontando.
L’intensità di luminosità di un astro osservato attraverso l’atmosfera è esprimibile mediante la seguente relazione matematica:
I = I 0 ⋅10− 0.4⋅Dm
In cui I 0 è la luminosità extraatmosfrica e Dm è la perdita di magnitudine causata dell’estinzione.
3
Per un astro molto basso sull’orizzonte, abbiamo una variazione della luminosità apparente proporzionale grosso modo a:
10 − 0.4⋅K⋅X
con un valore di massa d’aria X~40.
L’intensità di luminosità di un astro osservato molto basso sull’orizzonte è quindi approssimativamente calcolabile mediante la
seguente relazione matematica:
I = I 0 ⋅10 − 16⋅K
da cui appare chiaro che variando, ad esempio, K da 0.24 a 0.25 si ottengono variazioni di intensità di luminosità osservata visualmente
dell’ordine del 45%, quindi la sorgente più consistente di “fuzziness” sulle altezze (e quindi sugli azimut) di prima e ultima visibilità
proviene proprio dall’incertezza relativa a quello che succede nei primi 1500 metri di altezza dal suolo, dove il contributo degli aerosol è
dominante.
Bibliografia
Bower, F. A., Ward, R. B., 1982, “Stratospheric Ozone and Man”, CRC Press.
Hayes, D. S., Latham, D. W., 1975, Astrophys. J., Vol. 197, 593-601.
Pao Y. H., 1989, “Adaptive Pattern Recognition and Neural Networks” Addison Wesley, Reading, MA.
Shafer B. E., 1993, Vistas in Astronomy, Vol.36, pp. 311-361.
Thom, A., 1967, “Megalithic Sites in Britain”, Clarendon Press, Oxford.
UN POKER D’ASSI: UFO, CIARLATANI, CACCIA
ALLE STREGHE E FORMULA 1
Molto spesso (troppo spesso) mi chiedo se alle soglie del
Terzo Millennio il livello culturale degli italiani sia rimasto
quello di 65 milioni di anni fa (Stupidaurus Rex) o sia
peggiorato. E’ praticamente impossibile elencare gli
innumerevoli argomenti che giustificano questa mia
affermazione, mi limiterò ad una breve digressione lasciando ad
ognuno di Voi il dovere di meditare sulla reale situazione dei
fatti, che probabilmente è ancora più grave di quanto appare a
prima vista.
Il primo argomento di discussione trae spunto da un
comunicato del Comitato Italiano per il Controllo delle
Affermazioni sul Paranormale (CICAP) che riporto
testualmente.
PSEUDOSCIENZA ALL’UNIVERSITÀ
All’Istituto di Igiene dell’Università di Padova sta per
iniziare un corso di bioarchitettura che prevede l’insegnamento
di alcune discipline totalmente prive di fondamento scientifico.
L’Università apre così le porte alla superstizione.
Gli scienziati aderenti al CICAP (Comitato Italiano per il
Controllo delle Affermazioni sul Paranormale), di cui fanno
parte tra gli altri i fisici Tullio Regge, Adalberto Piazzoli e
Giuliano Toraldo di Francia, il farmacologo Silvio Garattini,
l’astrofisica Margherita Hack e i premi Nobel Rita Levi
Montalcini e Carlo Rubbia, sono rimasti allibiti
nell’apprendere che dal mese di ottobre l’Università di Padova
ospiterà un corso di bioarchitettura in cui, mescolate a serie
ricerche sul binomio ambiente–architettura, verranno spacciate
per scientifiche delle assurdità quali i “nodi di Hartmann”, le
“geopatie” e il “Feng–Shui”, tre invenzioni del tutto prive di
credibilità scientifica. “La rilevazione dei cosiddetti nodi di
Hartmann”, spiega il fisico Roberto Vanzetto, “sembra possa
essere effettuata tramite le millantate capacità sensitive di un
“rabdomante”: nessun altro strumento scientifico, infatti, è in
grado di rilevare tali “nodi”. Tuttavia, tale rilevazione sarebbe
necessaria perché, a dire dei rabdomanti, la sosta prolungata
sopra uno di questi nodi provocherebbe una serie di malattie
gravissime. Il Feng–Shui, invece, è l’arte di arredare tenendo
4
conto delle “energie positive e negative” che si
sprigionerebbero dalla mobilia: secondo Stewart Park (un
luminare del Feng–Shui) una scrivania “disturbata”’ porta a
“problemi di lavoro e disaccordi familiari”. Le prove
dell’esistenza dei nodi di Hartmann, delle geopatie e degli
influssi dei mobili, tuttavia, sono del tutto inesistenti. Dal punto
di vista epistemologico queste trovate hanno la stessa dignità di
una discussione sulla pericolosità degli “stormi di mucche
volanti”. Una delle cose più negative del corso, che vanta la
collaborazione dell’Università di Padova”, continua il dr.
Vanzetto, “è che queste credenze pseudoscientifiche e
irrazionali vengono propinate assieme a temi di tutt’altra
caratura, tenuti da professori e ricercatori universitari che
probabilmente nulla sanno dei moduli didattici adiacenti ai
propri. Il rischio che si corre mettendo sullo stesso piano i nodi
di Hartmann e il piombo nell’aria, il Feng–Shui e la
radioattività del radon, è quello da una parte di legittimare le
pseudoscienze (ponendole a livello delle scienze) e dall’altra di
delegittimare le scienze (mescolandole con fantasie e
superstizioni assurde). Oltre a ciò si spingono le associazioni
ambientaliste (e i cittadini) a spendere denaro ed energie a
causa di allarmismi insensati, distogliendo così l’attenzione da
reali problemi di inquinamento e da reali pericoli per la
salute”. Il CICAP ha già inoltrato una protesta ufficiale presso
il magnifico Rettore dell’Università di Padova, presso il
direttore dell’Istituto di Igiene e presso il Preside della facoltà
di medicina.
Dopo un lungo periodo di “astinenza” per vari motivi, in
queste ultime sere ho ripreso a guardare le trasmissioni
televisive e, con profondo rammarico, devo constatare che il
livello culturale dei programmi è riuscito ad abbassarsi ancora
notevolmente; evidentemente una volta raggiunto il fondo si può
sempre scavare!! Non mi riferisco, in questo contesto, alle
normali trasmissioni demenziali, ma a quelle che dovrebbero
portare gli italiani ad una conoscenza più approfondita dei fatti
quotidiani. Ebbene, sembra che non ci sia sera senza una
trasmissione in cui si parli di nodi di hartmann (lo scrivo
minuscolo perché non meritano di più), di UFO, che, chissà
perché vengono associati esclusivamente ad esseri extraterrestri
trascurando completamente il vero significato della sigla, di
rabdomanti e di oroscopi.
Qualunque persona che abbia visto una bussola sa che le
linee del campo magnetico terrestre non escono
perpendicolarmente (come sostengono gli hartmanniani) dalla
superficie del pianeta (se si esclude la zona dei poli magnetici),
questo lo sapevano già i vichinghi!
Vi ricordate telescemenze? Il noto programma televisivo
trasmesso a reti unificate in ogni telegiornale ai tempi della
Hale–Bopp? La cometa che si allontanerà dalla Galassia (!) per
tornare tra 2000 anni? Ebbene, la Formula 1 era arrivata
all’ultima gara della stagione e così, per sapere in anticipo chi
avrebbe vinto, qualcuno ha ben pensato di rivolgersi agli
astrologi (vedi Tg2 delle 20:30 di giovedì 23 ottobre u.s.):
computer, ascendenti, pianeti, stelle, ecc., ed ecco la previsione:
“Il favorito è Schumacher”. Ops! E’ andata diversamente! Questi
astrologi non sono nemmeno fortunati perché non indovinano
neanche quando hanno il 50% di probabilità di non sbagliare.
Evidentemente le leggi fisiche che dominano le forze occulte
conosciute solo da loro non hanno molta conferma sperimentale.
Ognuno pianga se stesso.
galassie sono situate ad una distanza di 63 milioni di anni luce
nella costellazione meridionale del Corvo.
ASTRONOMIA PER TUTTI
L’immagine ripresa dal Telescopio Spaziale Hubble si
concentra sulla regione centrale delle due galassie in collisione
in cui è possibile vedere i due nuclei ben separati (le due
concentrazioni più scure in questa immagine in negativo)
attraversati da filamenti di polvere. Una vasta regione di polvere
si estende tra i nuclei delle due galassie, mentre nei bracci
deformati si evidenzia un’intensa attività di formazione stellare
incrementata dalla collisione.
L’immagine è una sovrapposizione di quattro immagini
riprese in altrettanti filtri il 20 gennaio 1996 mediante la Wide
Field and Planetary Camera. La risoluzione dell’immagine
originaria è di circa 15 anni luce per pixel.
di Gianfranco Bonfiglio
L’uomo da sempre è stato attratto dal cielo notturno. I primi
osservatori non sapevano nulla della natura delle stelle e su
come è sconfinato l’universo, eppure i nostri antenati iniziarono
a studiare le meraviglie astronomiche usando solo i propri occhi
e ne traevano grande soddisfazione; con questo sistema ottico
naturale osservavano il cielo con grande successo. Questo
proseguì fino al periodo di Galileo; con l’arrivo dello strumento
ottico si ebbe un cambiamento drastico, ma legittimo, del
sistema di osservare. Da quel momento le scoperte si sono
susseguite a catena e gli strumenti sono diventati sempre più
grandi e sofisticati.
Ai nostri giorni, in commercio per noi astrofili, c’è una
grande scelta di telescopi: si parte dai piccoli 6 cm per arrivare
tranquillamente ai 30 cm e oltre.
Per l’astrofilo che segue un programma osservativo serio,
scientifico e continuativo, la scelta di strumenti costosi è
giustificata, ma per quelle persone che pensano di usare il
telescopio poche volte durante l’anno e poi lasciare lo strumento
in cantina, è assurdo investire capitali; a questo tipo di persone è
bene ricordare che per hobby si possono trarre molte
soddisfazioni anche con strumenti modesti, l’importante è amare
l’astronomia e poi le grandi gioie arriveranno.
Prendiamo per esempio le osservazioni che eseguiva Walter
Ferreri negli anni Settanta; sono stupefacenti perché sfruttava al
massimo il suo 6 cm di diametro ed era spinto da grande
entusiasmo. Oggi invece c’è tendenza a pensare che grossi
strumenti diano grossi risultati; in parte è vero ma solo per le
persone che hanno una preparazione specifica ed eseguono
programmi di ricerca.
Per dare un’occhiata saltuariamente al cielo non serve
investire molto per avere poco, è meglio un piccolo telescopio,
ma conoscere bene il cielo e soprattutto non stancarsi di
osservare sempre con l’entusiasmo della prima volta.
GALASSIE IN COLLISIONE
A sinistra
Un’immagine ripresa da terra delle Antenne (conosciute
anche come NGC 4038 e NGC 4039) così denominate a causa
della loro forma generata dalle interazioni gravitazionali
reciproche che le fa assomigliare alle antenne di un insetto. Le
A destra
NOTE DI RADIOASTRONOMIA
Associazione Astrofili Trentini
Nel 1931 l’ingegnere americano Jansky aprì una nuova
finestra sull’universo, conosciuto sino ad allora solo attraverso
la finestra della radiazione visibile. Perché si parla di
“finestre”? Perché l’atmosfera che avvolge la terra è opaca a
quasi tutte le radiazioni elettromagnetiche esistenti
nell’universo. Infatti le radiazioni di grande energia e
piccolissima lunghezza d’onda (i raggi gamma ed X) che pure
sono capaci di attraversare corpi solidi, sono arrestati dallo
spessore dell’atmosfera, equivalente a circa 10 metri d’acqua.
Anche le radiazioni con lunghezza d’onda al di sotto dei 10 µm
(infrarosso) sono per la maggior parte assorbite dall’atmosfera
insieme a quelle di pochi millimetri. Le onde radio più lunghe,
dalle onde chilometriche a quelle di circa 15 m di lunghezza
sono assorbite o riflesse da quegli strati superiori dell’atmosfera
rarefatti che chiamiamo ionosfera.
Esistono solo tre “finestre”, cioè tre campi di lunghezza
d’onda, in cui l’atmosfera nel suo complesso è trasparente o
quasi: la finestra ottica, da 1 micron a qualche decimo di micron,
comprendente la luce visibile e piccole porzioni di infrarosso e
ultravioletto; la finestra infrarossa intorno a 10 micron; la
finestra “radio”, tra 15 metri e qualche millimetro di lunghezza
d’onda. I confini delle finestre non sono ben definiti perché
dipendono dalle condizioni meteorologiche e dal grado di
ionizzazione della ionosfera legato all’attività solare. Solo la
finestra radio tra 3 m e 3 cm è praticamente sempre aperta, in
qualunque ora, stagione o fase del ciclo solare.
5
La Croce del Nord di Medicina (BO)
La scoperta di Jansky ci ha dato perciò la possibilità di
osservare l’universo giorno e notte, col sereno e con la pioggia,
senza bisogno di entrare in orbita con osservatori spaziali.
Un radioamatore americano, Reber, proseguì gli esperimenti
interrotti da Jansky nel 1935, e riuscì con un radiotelescopio
fatto in casa a disegnare nel 1940 la prima mappa radio della
galassia.
Solo dopo la seconda guerra mondiale le esperienze di
Jansky, di Reber e di alcuni “radaristi”, che avevano riscontrato
disturbi ai loro apparati provocati dalla radiazione del sole,
spinsero l’astronomia ufficiale a interessarsi di questo nuovo
canale di comunicazione con l’universo. I progressi tecnici degli
anni ‘50 e ‘60 hanno sconvolto poi l’astronomia tradizionale
fornendo un’immagine nuova e diversa dell’universo.
altro per effetto della loro propria temperatura. Ma perché un
corpo celeste emetta una radiazione misurabile deve avere delle
determinate caratteristiche:
1) essere relativamente vicino
2) essere molto grande
3) essere molto efficiente.
A tale proposito cercherò di fare alcuni esempi. La Luna è
relativamente vicina ma piccola e pochissimo efficiente. Il Sole
è meno vicino della Luna ma più grande e discretamente
efficiente ne deriva quindi una fortissima radiosorgente. Alpha
Centauri, è più grande del Sole, probabilmente altrettanto
efficiente ma molto difficilmente ricevibile perché troppo
lontana. Le pulsar sono piccolissime e almeno cento volte più
lontane, ma sono così efficienti che alcune di esse sono
radiosorgenti di media intensità.
Le Galassie sono miliardi di volte più grandi del Sole:
alcune, anche se relativamente vicine sono debolissime
radiosorgenti mentre tra le più lontane troviamo qualche forte
emettitrice. Infine alcune Quasar anche se all’estremo
dell’universo sono ricevibili con facilità.
L’antenna parabolica del radiotelescopio di Noto (SR)
Il Sole
La nostra stella, come si sa, è formata in realtà da diverse
“bucce” concentriche ad ognuna delle quali è associata una radio
emissione a diversa lunghezza d’onda via via crescente mano a
mano che ci allontaniamo dal centro. Il Sole quindi nella sua
totalità è una stella con discreta efficienza. Ma mentre nel
visibile emette in maniera quasi costante, nel campo radio, si
comporta in maniera piuttosto bizzarra: la radiazione non scende
mai al di sotto di un determinato livello ma talvolta aumenta in
maniera graduale anche di cento volte rispetto al valore di
fondo, ogni tanto poi emette “scoppi” o “tempeste” di radiazioni
variabili da qualche secondo a qualche giorno. Da notare che
queste stranezze non sono in via teorica un’esclusività della
nostra stella, ma molto probabilmente questi fenomeni
appartengono a qualsiasi stella dell’universo solo che date le
distanze in gioco noi con i nostri radiotelescopi non le possiamo
percepire.
L’antenna parabolica del radiotelescopio di Medicina
L’importanza definitiva della radioastronomia è stata
definitivamente sanzionata nel 1974 con l’attribuzione al
radioastronomo inglese Martin Ryle del Premio Nobel per la
fisica.
Le radiosorgenti
Chiamiamo “radiosorgenti una serie di oggetti di varia
natura e dimensione che hanno però in comune una importante
caratteristica: emettono una radiazione ricevibile con gli attuali
radiotelescopi. In realtà tutti i corpi emettono onde radio se non
6
La Galassia
La nostra galassia se fosse vista dall’esterno non sarebbe
classificata come radiosorgente apprezzabile, ma per noi che la
abitiamo, l’emissione di radioonde è stata e sarà sicuramente di
grande importanza per capire i segreti nascosti all’interno di
essa. Il nucleo galattico ad esempio non è osservabile
otticamente in quanto velato da nubi di polveri e gas, nubi che
però permettono il passaggio delle onde radio, cosicché con uno
strumento di adeguate proporzioni possiamo stimarne molto
precisamente la posizione.
STORIA DELLA RICERCA DI SUPERNOVAE
Un astrofilo australiano
A cura dell’Associazione Astrofili Trentini
(1ª parte)
Ricerca Visuale
La prima SN ad essere scoperta visualmente in tempi
moderni è stata SN 1885A in M31. È stata anche la più
luminosa fino alla scoperta di SN 1987A. C’è un po’ di
incertezza sul vero scopritore; si ritiene, tuttavia, che sia stato
Hartwig dell’osservatorio di Dorpat. Egli era un astronomo
professionista e la sua scoperta è avvenuta per caso, non essendo
parte di alcun programma sistematico di ricerca. La prima
scoperta di un amatore è anch’essa avvenuta per caso. Si trattava
di una SN di magnitudine 11 trovata in prossimità del nucleo di
M83 dall’astrofilo sudafricano Jack Bennet, nel luglio 1968.
Egli stava usando un rifrattore da 15cm per la ricerca di comete.
SN così luminose sono alquanto rare e fortunatamente Jack si
accorse subito che la galassia “non appariva normale”. La SN
risultò essere di tipo II (plateau) e fu studiata dagli astronomi
professionisti per circa due mesi, dopodiché la sua luminosità
diminuì a tal punto da non essere più discernibile dalla
nebulosità della galassia.
La Supernova 1987A ripresa dall’HST
Negli anni ‘70 l’AAVSO iniziò un programma di ricerca di
SN all’interno della sezione di ricerca novae, ed osservatori
come Ernst Mayer e Tom Fetterman fecero alcune osservazioni
di galassie finalizzate alla scoperta di SN. Furono preparate
anche un piccolo numero di carte galattiche.
La seconda scoperta di un astrofilo avvenne nell’aprile 1979,
ed anche in questo caso è da considerarsi un evento fortuito.
Certamente Gus Johnson, Maryland, USA, svolgeva un po’ di
ricerca di SN. Ma questa era solo uno dei suoi molteplici
interessi. Gus scoprì la SN nella zona periferica di M100,
usando un riflettore newtoniano da 20cm. Fu trovata poco prima
che raggiungesse il massimo, di magnitudine 11. E’ considerata
oggi, una dei prototipi di SN di tipo II “lineare”. Fu studiata
intensamente anche nelle onde radio e nell’ultra–violetto.
Usando le tecniche radio della VLBI (“very large base
interferometry”), questa SN è un “metro” misuratore della
distanza delle galassie dell’ammasso della Vergine.
Fu poco prima di questa data che James Bryan del Texas
incominciò a formalizzare alcune carte galattiche di galassie a
spirale “face–on”, pubblicando due articoli. Come molti
astrofili, viveva e lavorava in città e non poteva osservare con
molta regolarità. Egli fece una scoperta indipendente della SN
del 1980 in NGC 6946, pochi giorni dopo la scoperta di
astronomi professionisti. Anche questa SN raggiunse la
magnitudine 11 e fu di tipo II “lineare”.
Analogamente, prima del 1981, Gregg Thompson di
Brisbane, Australia, incominciò a lavorare su una raccolta di
230 carte di galassie luminose. Steve Lee, un assistente presso il
telescopio Anglo–Australiano, aveva fatto ingrandimenti da foto
di survey e le carte vennero disegnate da queste foto, mostrando
tuttavia le stelle con la magnitudine visuale. Nel corso del 1980
alcune di queste carte divennero disponibili in una forma
alquanto “rozza”, ad uso dei suoi amici. Lo scopo ultimo era di
pubblicarle, cosa che effettivamente avvenne nel 1990 in una
veste grafica di gran lunga superiore a quella originale.
Sul finire del 1979, quando il numero di Sky and Telescope
contenente notizia della SN in M100 arrivò in Australia, cercai
ancora una volta di superare i numerosi ostacoli che avevo
incontrato nei miei primi tentativi di ricerca. Una telefonata in
cerca d’aiuto cambiò radicalmente le mie possibilità. Arthur
Page era il coordinatore della sezione stelle variabili
dell’Associazione Astronomica del Queensland. Mi mise in
contatto con Gregg, il quale mi inviò alcune carte da lui
preparate. Mi suggerì, inoltre, di contattare Tom Cragg a Siding
Spring. Tom era disponibile a controllare i miei numerosi falsi
allarmi e mi diede l’opportunità di preparare gli ingrandimenti
delle galassie dalle foto di survey. Incominciai, quindi, a
costruirmi un grande archivio di fotografie, sia delle galassie già
coperte dalle carte di Gregg, sia di altre galassie che desideravo
osservare. Naturalmente, tutto ciò fu dispendioso sia per il
tempo dedicatovi che per il suo costo. L’archivio non venne fatto
né in una notte né in due anni.
Nel corso del 1980 incominciai lentamente a sviluppare la
sistematicità della mia ricerca di SN, migliorando anche
l’efficienza del mio 25cm. L’anno culminò con la scoperta
indipendente della SN 1980N in NGC 1316, scoperta qualche
giorno prima da professionisti cileni. Il 1981 fu l’anno di svolta.
In solo 15 giorni, a partire dal 24 febbraio, feci due scoperte,
perdendo l’opportunità di una terza. Queste furono SN 1981A in
NGC 1532, una stella di magnitudine 13.0 tipo II “plateau”, e
SN 1981D in NGC 1316, una SN di magnitudine 12.0 tipo I
classico. Quella che mi sfuggì fu la SN 1981B in NGC 4536.
Dato che Tom era molto preoccupato sulla possibilità di
commettere un errore annunciando la mia prima scoperta,
passarono parecchi giorni prima che effettuasse la
comunicazione sulla SN 1981A. Inoltre, la stella si comportava
in un modo anomalo, con variazioni impreviste della sua
luminosità. SN 1981D fu un caso totalmente diverso. Fu trovata
con il 25cm di fronte al garage di Tom nella sua casa di Siding
Spring; la stella fu scoperta, verificata e comunicata al Central
Bureau nel giro di poche ore. Caso volle che gli astronomi cileni
avessero fatto nelle notti precedenti fotografie della SN 1980N
esplosa nella stessa galassia, e non si fossero accorti della salita
di luminosità della nuova SN dalla magnitudine 20.5 alla 15.0. I
mesi rimanenti del 1981 e tutto il 1982 non produssero alcuna
SN sufficientemente luminosa, anche se tentai varie volte di
osservare la SN in NGC 1187.
Tuttavia, ulteriori migliorie al telescopio, ed un
ampliamento del mio programma osservativo spianarono la
strada a nuovi successi. Otto nuove scoperte seguirono nel 1983
e 1984. Tre di queste SN risultarono di particolare interesse,
perché permisero di riconoscere una nuova tipologia di SN,
inizialmente Tipo I peculiare, poi Tipo Ib. Alcuni, addirittura,
ritengono che questo gruppo includa anche la classe Tipo Ic. La
7
prima di queste tre, SN 1983N in M83, fu scoperta una
settimana prima che raggiungesse il massimo. Sfiorò la
magnitudine 11.0 e venne studiata intensamente. Gli astronomi
con il Very Large Array Radio Telescope registrarono una curva
radio diversa da qualsiasi altro caso precedente. La scoperta di
un’identica SN, l’anno successivo, SN 1984L in NGC 991,
mostrò che queste SN formano una classe a sé e non erano
semplicemente oggetti peculiari. Furono le analisi
spettroscopiche condotte continuativamente per sei mesi dopo il
massimo a chiarire che si trattava di una tipologia a sé stante di
SN. Le SN 1983N e 1984L sono i due prototipi di questa nuova
classe Tipo Ib. La SN 1983V in NGC 1365 divenne un esempio
di Tipo Ic, assieme ad altre scoperte minori effettuate dai
professionisti. Da allora le opinioni divergono sul fatto che le
SN di Tipo Ib e Ic debbano essere considerate due classi
separate o varianti di una stessa classe. Il Tipo Ib è scarso in
elio, al contrario del Tipo Ic.
I grandi osservatori eseguono programmi di osservazioni che
vengono fissati con vari mesi di anticipo, e non è affatto facile
per un astronomo cambiare questi piani per poter osservare un
fenomeno transiente come una SN. Spesso, la strumentazione
utilizzata con uno strumento può non essere idonea allo studio di
SN. Ci sono, tuttavia, casi dove coincidenze conducono a grosse
opportunità, favorendo l’avanzamento della conoscenza.
L’astronomo Marshall McCall stava usando il telescopio Anglo–
Australiano proprio in durante una esplosione di SN. Riuscì ad
effettuare spettropolarimetria su due delle SN citate in
precedenza, al fine di determinare se i gusci stellari esplosi
fossero sferici o meno (un punto importante in alcuni studi
teorici). I gusci del Tipo Ia risultavano sferici, mentre quelli del
Tipo Ib non lo erano. Un altro studio condotto a seguito di
scoperte fatte da astrofili, fu la misurazione della presenza di
ferro in spettri avanzati di SN. Tale misurazione fu eseguita
osservando le righe spettrali nell’infrarosso di una SN di Tipo Ib
dopo circa un anno dal suo massimo. Molte altre SN mostrarono
inusuali caratteristiche spettrali che devono essere ancora
spiegate.
Negli anni ‘60, l’astrofilo giapponese Kaoru Ikeya si rese
famoso per la scoperta di una cometa alquanto luminosa. Negli
anni ‘80 i suoi interessi si spostarono alla ricerca di SN. La sua
prima scoperta fu fatta sul finire del 1984, quando trovò SN
1984R in NGC 3675. Sfortunatamente, nessun astronomo riuscì,
o volle, ottenere uno spettro di questo oggetto, per cui si sa ben
poco sulla natura di questa SN. La sua seconda scoperta, SN
1988A in M58, ottenne un trattamento decisamente migliore.
Ikeya usava un 25cm da casa sua, un sito con parecchio
inquinamento luminoso; le sue scoperte sono, quindi, un grosso
successo. Un’altra interessantissima scoperta fu quella di SN
1986G nella banda di polveri di NGC 5128, conosciuta come
Centaurus A. Questa fu una SN Tipo I classico che raggiunse la
magnitudine 11.0, nonostante il notevole oscuramento della
polveri. Se non fosse stata oscurata probabilmente avrebbe
raggiunto la magnitudine 8.5, rendendola una delle SN più
luminose in età moderna. La luminosità massima fu raggiunta
dopo una settimana dalla scoperta.
Anche la SN 1987A nella Grande Nube di Magellano
dovrebbe essere classificata, almeno in parte, come una scoperta
amatoriale. Sicuramente fu trovata per caso, non essendo oggetto
di alcun programma sistematico di ricerca. Ma due dei tre
scopritori ufficiali la videro visualmente, ed uno è un astrofilo.
In questo caso, l’astrofilo Albert Jones della Nuova Zelanda
avrebbe meritato maggiore attenzione per la sua scoperta. Albert
esegue annualmente un numero altissimo di osservazioni di
stelle variabili, e ne stava osservando una quando ha notato la
SN. La 1987A è stata studiata intensamente, e questo ha aiutato
a riscrivere molti aspetti delle nostra conoscenza su queste
stelle.
Si giunge poi all’agosto del 1987, quando Dana Patchick, di
Culver City, California, ha scoperto SN 1987L in NGC 2336,
8
con un dobsoniano da 45cm, nell’ambito di un programma
ristretto di osservazioni di galassie. Si trattava di una SN di
Tipo I, trovata alcune settimane dopo il massimo.
Un’altra SN di eccezionale luminosità fu SN 1989B in NGC
3627, ossia M66. Fu scoperta circa una settimana prima del
massimo e raggiunse magnitudine 11.8 nonostante
l’assorbimento delle polveri della galassia. Anche questa SN
venne studiata intensamente dagli astronomi, ed è classificata
Tipo Ia.
La SN 1991T in NGC 4527 è una scoperta che
probabilmente segna l’inizio di una nuova epoca nella ricerca
visuale di questi oggetti. Fu trovata ufficialmente da ben cinque
astrofili situati in quattro punti diversi della Terra. Tra questi
Stephen Knight e Wayne Johnson degli USA, Mirko Villi e
Giancarlo Cortini dell’Italia. Un’altra astrofila giapponese,
Reiki Kushida, ha fatto la sua prima scoperta visuale nel
dicembre 1991, trovando una SN di magnitudine 14.5 in M84.
Si trattava di una SN di tipo Ia, tre magnitudini più debole del
solito. N. Brown, di Perth, Australia, è indicato come co–
scopritore visuale di NGC 1380. Infine, SN 1992H in NGC 5377
è stata scoperta in febbraio da William Wren, usando il più
piccolo dei telescopi dell’Osservatorio McDonald. Lavora
all’osservatorio presso il centro visitatori, e nel suo tempo libero
si dedica alla ricerca di SN, di solito con il suo telescopio. Lo
stesso Wren, nell’agosto del 1994 scopriva la sua seconda
supernova della galassia NGC 5371.
Il 28 marzo 1993 un astrofilo spagnolo, Francisco Garcia
Diaz trovava una delle supernovae più luminose degli ultimi
anni: la SN 1993I nella galassia M81. La supernova raggiunse la
magnitudine 10.5 e risultò essere di tipo II.
Un’altra scoperta di Cortini e Villi è avvenuta il 31 luglio
1994 con la supernova 1994W in NGC 4041, una galassia
nell’Orsa Maggiore. La stella fu trovata con un 28cm e venne
confermata dall’osservatorio astronomico di Loiano, vicino a
Bologna.
Se ci riferiamo solamente al periodo dal 1983 alla metà del
1988, su un totale di 99 SN scoperte con ogni mezzo, 18 sono
state trovate visualmente da astrofili. Il 18% rappresenta un
enorme contributo a questo tipo di ricerca. Con le tecniche
automatiche di ricerca che molti osservatori astronomici stanno
sviluppando, tale percentuale potrà declinare nel futuro. Ma se
si esamina in dettaglio le SN scoperte dagli astrofili, notiamo
che si tratta nella maggior parte dei casi delle stelle più
luminose e, quindi, di maggiore importanza per una loro analisi.
(continua)
For further information about this paper please
contact:
Elia Cozzi
Via Borghi 14
22076 Mozzate (CO)
Italy
Phone and Fax: +39–331–830704
Fidonet: 2:331/101
E–mail: [email protected]