SCIENzA IN pRImO pIANO - Società Italiana di Fisica

annuncio pubblicitario
scienza in primo piano
La missione Cassini-Huygens:
4 anni in orbita attorno a Saturno
Fabrizio Capaccioni
Istituto di Astrofisica Spaziale e Fisica Cosmica, INAF-ROMA
La nostra conoscenza di Saturno, dei suoi
anelli e dei suoi satelliti è stata completamente
rivoluzionata dai dati che dal 2004 la missione
Cassini-Huygens ha inviato a Terra. Gli strumenti
a bordo della sonda hanno mostrato nuovi
mondi prima inesplorati, hanno fornito preziose
informazioni sulla composizione ed origine dei
satelliti ghiacciati, hanno rivelato i meccanismi
di interazione che sono alla base della struttura e
della evoluzione dinamica degli anelli.
1 Introduzione
Con uno spettacolare lancio alle
prima luci dell’alba del 16 ottobre
1997 partiva, per il suo lungo
viaggio verso Saturno, la missione
Cassini la più complessa e ambiziosa
missione mai realizzata nell’ambito
dell’esplorazione planetaria per mezzo
di sonde automatiche. Si realizzava
così l’ambizioso sogno di un gruppo
di scienziati europei e americani che,
riuniti in un Joint Working Group ESA/
NASA, fin dal 1982 avevano individuato
proprio nel sistema di Saturno uno
straordinario laboratorio naturale dove
studiare i principali fenomeni attivi nella
evoluzione del Sistema Solare nel suo
complesso ed avevano quindi proposto
e selezionato gli obiettivi scientifici per
una missione che andasse a studiare
da vicino questo mondo interessante e
remoto [1].
Gli obiettivi scientifici della missione
sono infatti di ampio respiro e
riguardano da vicino tematiche e
campi di interesse diversi. In generale
la planetologia, ovvero lo studio
del Sistema Solare e dei corpi che
lo compongono, è una scienza che
richiede il contributo sinergico di
discipline tra loro molto distanti e che
vanno dall’astrofisica alla fisica della
materia, dalla fisica dell’atmosfera
alla geologia, alla geochimica e alla
geofisica. I pianeti giganti Giove e
Saturno rappresentano in modo
straordinario la multidisciplinarietà
delle scienze planetarie: i sistemi di
satelliti e di anelli che orbitano intorno
a questi due pianeti riproducono
vol24 / no3-4 / anno2008 >
un Sistema Solare in miniatura con
tutte le problematiche scientifiche
associate e permettono tra l’altro di
studiare meccanismi di interazione
gravitazionale molto simili a quelli
che ebbero luogo nel disco di materia
(la nebulosa primordiale) da cui ebbe
origine il nostro Sistema Solare.
Nella sua fase realizzativa iniziata nel
1987 la missione Cassini ha concentrato
l’attività di centinaia di ingegneri e di
scienziati, coordinati e finanziati da
tre agenzie spaziali: l’agenzia spaziale
USA (NASA) che ha realizzato l’orbiter
Cassini e che gestisce la missione nel
suo complesso, l’Agenzia Spaziale
Europea (ESA) responsabile della
realizzazione e gestione della sonda
Huygens, e l’Agenzia Spaziale Italiana
(ASI) che dell’orbiter ha realizzato
alcuni sottosistemi cruciali per le
comunicazioni e parti di alcuni
strumenti scientifici sia a bordo
dell’orbiter che della sonda Huygens.
Questo complesso sforzo internazionale
ha portato alla progettazione ed alla
realizzazione di una possente macchina
alta 6,7 metri , del diametro di 4 metri
e dal peso al lancio di 5712 kg (fig .1)
1
< il nuovo saggiatore
a bordo della quale sono ospitati i 12
strumenti dell’orbiter (tab. I) e la suite di
6 strumenti che formano il payload della
sonda Huygens progettati per studiare
l’atmosfera e la superficie di Titano
(tab. II). Gli strumenti dell’orbiter sono
raggruppati in tre categorie principali:
remote sensing ottico (ISS, VIMS, UVIS,
CIRS), remote sensing nelle microonde
(RADAR, Radio Science) e strumenti
per la misura in situ di onde, campi e
particelle (CAPS, INMS,CDA, MAG, MIMI,
RPWS).
Il contributo italiano è rilevante e
qualificato. Oltre ad una componente
industriale comprendente le antenne
in fibra di carbonio, che ancora oggi
rappresentano lo stato dell’arte in
termini di progettazione e tecnologia,
e la sezione a radiofrequenza del Radio
Science Subsystem e del RADAR, l’Italia
ha anche dato un contributo al payload
scientifico realizzando il canale visibile
dello strumento VIMS sull’orbiter e lo
strumento HASI sulla sonda Huygens.
Un folto gruppo di scienziati italiani
fanno parte dei team scientifici di diversi
strumenti del payload [2-7].
Dopo il lancio la missione Cassini ha
scienza
in primo
piano
abbandonato la Terra e ha iniziato
il suo lungo viaggio attraverso il
Sistema Solare effettuando incontri
ravvicinati con Venere (Aprile 1998
e Giugno 1999), con la Terra (Agosto
1999) e con Giove (Dicembre 2000) allo
scopo di modificare la propria orbita e
guadagnare quella velocità orbitale che
le ha permesso di raggiungere Saturno
(fig. 2).
L’1 luglio 2004, con una perfetta
manovra di decelerazione durante
la quale la navicella è stata protetta
dalla grande antenna da urti distruttivi
con le particelle degli anelli, la CassiniHuygens dopo aver attraversato il piano
degli anelli si è inserita in orbita intorno
a Saturno ed ha finalmente raggiunto
l’obiettivo formulato 22 anni prima
dal gruppo di scienziati che l’avevano
ideata.
Il 25 dicembre 2004 è stata rilasciata
la sonda Huygens che dopo circa due
settimane è penetrata nell’atmosfera
di Titano, il più grande dei satelliti
di Saturno e l’unico satellite del
Sistema Solare a possedere una densa
atmosfera, e si è posata al suolo
inviando le prime informazioni dirette
F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno
Strumento
Obiettivo Scientifico
Cassini Plasma Spectrometer (CAPS)
Studio del plasma nella magnetosfera di Saturno
Ion and Neutral Mass Spectrometer (INMS)
Studio delle atmosfere estese e ionosfere di Saturno e Titano,
delle esosfere dei satelliti ghiacciati
Cosmic Dust Analyser (CDA)
Studio dei grani di ghiacci e polveri nel sistema di Saturno
Dual Technique Magnetometer (MAG)
Studio del campo magnetico di Saturno, della sua interazione
con gli anelli, i satelliti ed il vento solare
Radio Science Subsystem (RSS)
Studio del campo gravitazionale di Saturno e dei suoi satelliti,
determinazione delle masse; ricerca di onde gravitazionali
Magnetospheric Imaging Instrument (MIMI)
Visualizzazione tridimensionale della distribuzione delle
particelle cariche nel campo magnetico di Saturno
Radio Plasma Wave Science (RPWS)
Studio delle onde di plasma, dell’emissione radio e delle polveri
Radar
Studio della superficie dei satelliti (in particolare Titano):
morfologia, altimetria ed emissività
Composite Infrared Spectrometer (CIRS)
Remote sensing nell’Infrarosso della composizione e
temperatura superficiale di Saturno, i satelliti e gli anelli
Imaging Science Subsystem (ISS)
Remote Sensing nel visibile e vicino IR
Ultraviolet Imaging Spectrograph (UVIS)
Studio della struttura e composizione chimica delle atmosfere e
degli anelli
Visual and Infrared Mapping Spectrometer (VIMS)
Studio della composizione chimica e mineralogica delle
superfici dei satelliti, delle atmosfere e degli anelli
Tab. I Il payload dell’orbiter Cassini.
Strumento
Obiettivo Scientifico
Aerosol Collector and Pyroliser (ACP)
Composizione chimica degli aerosol atmosferici
Descent Imager / Sectral Radiometer (DISR)
Studio della morfologia e composizione superficiale
Doppler Wind Experiment (DWE)
Velocità dei venti nell’atmosfera
Gas Cromatograph / Mass Spectrometer (GCMS)
Identificazione dei composti chimici nell’atmosfera
Huygens Atmospheric Structure Instrument (HASI)
Studio delle proprietà fisiche ed elettriche dell’atmosfera
Surface Science Package (SSP)
Studio delle proprietà fisiche della superficie di Titano
Tab. II Il payload della sonda Huygens.
2
Fig. 1 La sonda CASSINI-HUYGENS con
indicati tutti i sottosistemi più importanti e
la localizzazione degli strumenti.
Fig. 2 In figura è riportata in rosso la
traiettoria seguita dalla sonda. Tratteggiate
in nero sono riportate le orbite di Venere,
della Terra, di Giove e di Saturno. Sono
riportati inoltre i principali eventi: Lancio
il 15 Ottobre 1997, i due incontri con
Venere (26 Aprile 1998 e 24 Giugno 1999)
con la terra (18 Agosto 1999), con Giove
(30 Dicembre 2000) e infine con l’arrivo
a Saturno (1 Luglio 2004). La minima
distanza dal sole è stata di 0,62 Unità
Astronomiche equivalenti a circa 90
milioni di km.
vol24 / no3-4 / anno2008 >
sull’atmosfera e sulla superficie di
Titano. Intanto l’orbiter ha continuato il
suo tour che ha permesso di effettuare
una indagine sistematica e prolungata
delle varie componenti del sistema di
Saturno: il pianeta con la sua atmosfera
e magnetosfera, gli anelli e i satelliti
regolari.
La missione nominale dell’orbiter
terminerà nel luglio 2008, ma visti
i successi scientifici e le ottime
condizioni di salute della sonda (i
generatori a radioisotopi garantiscono
sufficiente energia per almeno altri 15
anni) la missione è stata prolungata
ufficialmente dalla NASA almeno fino
al 2010, e probabilmente fino al 2017
nel caso in cui venga approvata in via
definitiva la seconda estensione della
missione proposta dagli scienziati della
Cassini-Huygens.
Non soltanto la missione CassiniHuygens è caratterizzata da una forte
multidisciplinarietà ma è anche una
missione scientificamente molto
prolifica. I circa 400 scienziati che
complessivamente fanno parte dei team
scientifici dei vari strumenti, coadiuvati
3
< il nuovo saggiatore
da un folto gruppo di associated o
participating scientists, hanno prodotto
dal 2004 ad oggi più di 400 articoli su
riviste con referees, con diversi numeri
speciali di “Nature” e “Science” (e di
riviste più specialistiche) dedicati ai
risultati più importanti ottenuti.
Siamo pertanto costretti a limitare
la trattazione ad alcuni argomenti
principali, in particolare gli anelli ed
i satelliti, indirizzando il lettore, per
quel che riguarda il pianeta, al sito
della NASA citato ed ai riferimenti
bibliografici in esso contenuti.
2 Titano
Titano è il più grande dei satelliti
di Saturno, un satellite così grande
che con Ganimede e Callisto (due
dei satelliti Galileiani di Giove) forma
la triade dei satelliti “giganti” , di
dimensioni addirittura superiori a quelle
del pianeta Mercurio; inoltre Titano è
l’unico satellite del Sistema Solare a
possedere una densa atmosfera.
La densità globale di Titano di circa
1,8 g/cm3 implica che il satellite
scienza
in primo
piano
è composto prevalentemente di
ghiaccio d’acqua e materiali rocciosi
in parti uguali; la pressione al suolo
è di circa 1500 mbar (1,5 volte quella
della Terra) e la temperatura al suolo
di 95 K. La composizione atmosferica
è dominata dall’azoto, ma è presente
anche il metano con un’abbondanza
che aumenta dal 2% negli strati alti
dell’atmosfera fino a raggiungere il
10% al suolo; la presenza del metano
nell’atmosfera di Titano riveste un ruolo
molto importante per la struttura e
la dinamica dell’atmosfera stessa in
quanto è proprio la fotoionizzazione
del metano a determinare la formazione
di una ampia varietà di composti
organici.
La discesa della sonda Huygens
sulla superficie di Titano ha messo in
evidenza come l’ipotesi prevalente
tra gli scienziati prima della missione
Cassini-Huygens, secondo la quale
la superficie di Titano sarebbe stata
ricoperta da estesi laghi (o addirittura
oceani) di idrocarburi generati
dalla precipitazione di metano,
etano ed altri idrocarburi complessi
F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno
(benzene) si basava in realtà su di
una semplificazione eccessiva della
dinamica atmosferica e delle interazioni
superficie-atmosfera. Le immagini
riprese durante la discesa hanno
infatti messo in evidenza la presenza
di strutture geologiche riconducibili a
fenomeni erosivi legati a flussi di liquidi
(fiumi, precipitazioni, ecc.), quali canali
tortuosi e profonde valli (fig. 4), ma della
ipotizzata presenza diffusa di mari e di
altri corpi liquidi in un primo momento
non è stata trovata alcuna traccia [8].
Al contrario, le successive immagini
radar (fig. 5) hanno evidenziato un
suolo ricco di campi di dune, orientate
in direzione Est-Ovest, la cui presenza
testimonia dell’azione di due importanti
agenti volti a determinare l’aspetto della
superficie di Titano: un campo di venti,
con direzione prevalente Est-Ovest e
velocità dell’ordine dei 2 km/h, e l’aridità
del suolo. La abrasione della superficie
da parte di particelle solide trasportate
dal vento richiede infatti la presenza di
sedimenti e di grani che possano essere
sollevati dal vento, come la sabbia nel
Sahara; ovviamente, viste le condizioni
ambientali, non si tratterà di sabbia ma
di grani di idrocarburi misti a ghiaccio.
Le misure nell’atmosfera da parte della
sonda Huygens e le osservazioni degli
strumenti dell’orbiter hanno confermato
la presenza di idrocarburi complessi.
In seguito alla fotodissociazione e
ionizzazione dei composti primari,
azoto molecolare e metano, si
formano molecole organiche (etano,
acetilene, etc.) nonché idrocarburi
policiclici aromatici (benzene) e nitrili
che danno quindi luogo a nebbie di
condensati molto scuri e catramosi
noti con il nome di toline (dal greco
“fangoso”), un termine inventato da
Carl Sagan nel 1979 per indicare degli
eteropolimeri che sono alla base della
chimica prebiotica [9, 10] (fig. 6). Questi
condensati e gli idrocarburi in essi
intrappolati vengono quindi trasportati
dalle precipitazioni al suolo dove il
metano e l’etano possono ricondensare.
Le condizioni di pressione e
temperatura al suolo sono compatibili
con lo stato liquido di tali idrocarburi
e si stima che i processi atmosferici,
nel corso dei 4,5 miliardi di anni
Fig. 3 Il pianeta Saturno ed, indicati, i suoi
anelli ed i satelliti regolari.
Fig. 4 Le immagini della sonda Huygens, in
alto, sono state elaborate per generare una
mappa topografica, mostrata a colori nella
parte bassa della figura.
4
vol24 / no3-4 / anno2008 >
scienza
in primo
piano
5
Fig. 5 Vasti campi di dune caratterizzano
le regioni equatoriali di Titano. L’immagine
radar evidenzia dune orientate nella
direzione prevalente del vento.
dalla formazione del Sistema Solare,
abbiano prodotto una quantità di etano
equivalente a circa 600 m di sedimenti.
In altre parole su Titano ci possiamo
aspettare una quantità di idrocarburi
centinaia di volte più abbondante di
quella presente sulla Terra.
Finalmente lo scorso anno le immagini
radar hanno rilevato nelle regioni
polari dell’emisfero nord del satellite
la presenza di numerosi laghi anche
di vaste dimensioni [11, 12]. Le
regioni scure in fig. 7 rappresentano
zone caratterizzate da un valore di
scattering nelle microonde molto basso,
una caratteristica tipica di superfici
estremamente lisce, compatibile con
strutture liquide in assenza di venti. Le
recenti immagini del Polo Sud mostrano
viceversa un numero molto più limitato
di regioni lacustri.
L’interpretazione di queste osservazioni
radar è stata integrata dagli scienziati
con le misure del profilo di velocità dei
venti ottenute dalla sonda Huygens che
mostrano due inversioni della direzione
dei venti a 6 km e a 0,7 km dal suolo.
Sulla base di queste misure è stato
sviluppato un modello di circolazione
globale atmosferica secondo il
quale un’unica cella di convezione
si estenderebbe dal Polo Sud al Polo
Nord di Titano [13,14]. L’emisfero sud
del satellite è attualmente in estate
10 < il nuovo saggiatore
e pertanto l’energia immessa dalla
radiazione solare rappresenta il motore
principale che permette all’aria calda
di salire ed attivare una cella di Hadley
che determina il trasporto verso il Polo
Nord, forzando quindi l’aria più fredda
dal nord a muoversi verso sud; in base a
questo modello si ha un trasporto netto
di “condensabili”, metano ed etano, dal
Polo Sud, che diventa progressivamente
più arido, al Polo Nord che, come
mostrano le immagini radar, diviene più
ricco di laghi. Questo meccanismo di
circolazione è ovviamente stagionale,
pertanto ci si aspetta che il moto della
cella si invertirà intorno al 2010 alla
fine dell’estate Sud , fornendo così alla
missione Cassini-Huygens, che sarà
ancora lì, l’opportunità di monitorare i
cambiamenti climatici del satellite.
3 Gli anelli
Gli anelli sono senz’altro la caratteristica
più spettacolare di Saturno (fig. 8 e
fig. 3 per la nomenclatura degli anelli):
occupano una regione di spazio
maggiore della distanza Terra-Luna
ma il loro spessore (eccetto che per
l’anello G) è soltanto di poche centinaia
di metri, ed in alcuni casi di poche
decine, il che dimostra che gli anelli
sono un sistema stabile ed ordinato
dove i fenomeni collettivi di interazione
gravitazionale (onde, risonanze) non
sono disturbati da turbolenza. Essi
sono formati essenzialmente da grani
di ghiaccio d’acqua mescolato ad altro
materiale “contaminante”, presente in
piccola quantità, caratterizzato da una
composizione cosiddetta CHON (dalle
iniziali inglesi degli elementi carbonio,
idrogeno, ossigeno ed azoto) tipica
dei materiali trovati nelle comete. Le
dimensioni degli oggetti che formano
questa struttura così caratteristica
del sistema di Saturno vanno dai
micrometri delle particelle più piccole ai
chilometri dei piccoli satelliti interni agli
anelli stessi.
La densità di materia varia
considerevolmente in direzione radiale
sia su piccola scala, dove le particelle
degli anelli urtandosi a bassa velocità
tendono a formare dei conglomerati che
raggiunta una dimensione limite sono
distrutti dalle interazioni gravitazionali
reciproche [15] (fig. 9), che su larga
scala: in questo caso è la perturbazione
gravitazionale dovuta a risonanze con i
satelliti che determina lo spopolamento
di regioni ampie (le divisioni di Cassini
ed Encke ad esempio) e innesca dei
fenomeni ondulatori che si riflettono
poi nella distribuzione della materia
negli anelli (fig. 10). Il fenomeno della
risonanza si attiva quando due corpi
orbitanti attorno ad un corpo centrale
F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno
6
7
8
Fig. 6 La dissociazione del metano e la
formazione di idrocarburi nell’atmosfera di
Titano [9].
Fig. 7 Immagine Radar dei laghi intorno al Polo
Nord di Titano.
Fig. 8 Immagine sovraesposta che mette in
evidenza anche i più tenui anelli F, E, G (per la
nomenclatura vedi fig. 3).
vol24 / no3-4 / anno2008 >
11
9
10
scienza
in primo
piano
Fig. 9 Una rappresentazione della struttura degli anelli. Il
pianeta si vede sullo sfondo. I grani degli anelli, composti
essenzialmente di ghiaccio, tendono a coagularsi e a formare
strutture allungate e sinuose, delle dimensioni di alcune
decine di metri, che continuamente si formano e disperdono.
Fig. 10 L’immagine, ottenuta nel 2004 durante il massimo
avvicinamento agli anelli, mostra delle onde di densità
all’interno della Gap di Encke nell’anello A. La risoluzione è di
circa 300 m/pixel (immagine CCD 1024 × 1024).
si trovano ad avere periodi orbitali
i cui rapporti sono rappresentabili
come frazioni di due numeri interi.
In tal caso ad ogni n/m periodi i due
corpi si trovano in fase, amplificando
così l’effetto di interazione tra essi. Nel
caso dell’interazione di un satellite con
le particelle degli anelli, e per valori
particolari del rapporto tra i periodi,
queste ultime vengono rimosse dalle
orbite originarie.
L’origine degli anelli non è nota con
certezza eccetto che per l’anello E
che, come vedremo più avanti, è
generato e continuamente rifornito
dal ghiaccio espulso dal satellite
Encelado. Per quel che riguarda gli
anelli più interni A, B, C e D la loro
origine è molto probabilmente legata
alla frammentazione catastrofica di
uno o più satelliti preesistenti ed alla
conseguente ulteriore frammentazione
ed erosione del materiale residuo.
12 < il nuovo saggiatore
4 I satelliti ghiacciati
A tutt’oggi si conoscono circa 60
satelliti orbitanti attorno a Saturno, la
maggior parte dei quali sono oggetti
dal diametro non superiore ad alcune
decine di chilometri che orbitano
all’interno o nelle vicinanze degli
anelli e che sono pertanto in equilibrio
dinamico con essi. La missione Cassini
ci ha permesso di svelare proprietà e
fenomeni inaspettati che riguardano
i satelliti ghiacciati del sistema di
Saturno: tralasciando Titano, del quale
si è già diffusamente parlato, le nuove
scoperte che riguardano principalmente
Giapeto, Febe, Iperione ed Encelado,
sono così straordinarie che cambiano
la nostra visione della formazione del
Sistema Solare.
Giapeto (fig. 11) in orbita intorno a
Saturno alla distanza di circa 60 raggi
saturniani (3,6 milioni di chilometri),
è il più distante dei satelliti regolari di
Saturno; come tutti gli altri satelliti
regolari di Saturno, si trova in rotazione
sincrona con un periodo di rotazione
uguale a quello di rivoluzione e pari a
79 giorni. La densità di questo satellite
di 1,083 g/cm3 è di poco superiore a
quella dell’acqua, il che suggerisce
che sia composto essenzialmente da
ghiaccio di acqua con la inclusione
di elementi volatili intrappolati sotto
forma di clatrati e con una componente
rocciosa pari a circa il 20% del totale.
Fin dai tempi del Voyager è nota la
dicotomia della superficie di Giapeto
per cui un emisfero mostra una elevata
riflettanza (dell’ordine del 40%)
compatibile con una composizione
superficale di ghiaccio relativamente
puro mentre l’altro emisfero,
caratterizzato da una riflettanza di
appena il 5%, è una superficie scura
come l’asfalto e di composizione
probabilmente simile alle toline di
F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno
11
12
Fig. 11 Giapeto uno dei più interessanti satelliti di Saturno.
Fig. 12 Giapeto in bianco e nero. Materiale scuro ricopre la
superficie ghiacciata di Giapeto nella zona di transizione tra i
due emisferi (vedi testo per dettagli). L’immagine della camera
della Cassini ha una risoluzione di 36 m/pixel.
Titano; l’emisfero più scuro è quello che
si trova nella direzione del moto attorno
a Saturno (va ricordato che i satelliti in
rotazione sincrona rivolgono sempre
lo stesso emisfero nella direzione del
loro moto orbitale attorno al pianeta).
Nelle regioni di contatto tra i due
emisferi la differenza di riflettanza
risulta particolarmente evidente [16]
(fig. 12). Una delle possibili ipotesi
che spiega questa dicotomia è che il
materiale scuro presente sulla superficie
sia formato da un sottile strato di
materiale esogeno raccolto da Giapeto
nel suo moto attorno a Saturno. L’analisi
spettrale del materiale nella regione
infrarossa tra 3 e 5 micron mostra infatti
spiccate somiglianze con il materiale
presente sulla superficie di Febe, il
satellite più esterno di Saturno.
Febe, un corpo di circa 220 km di
diametro, non è un satellite regolare di
Saturno: esso si trova infatti su un’orbita
retrograda a più di 200 raggi saturniani
e, dalle analisi spettrali dello strumento
VIMS [17], la sua composizione è
compatibile con quella degli oggetti
presenti nella fascia di Kuiper situata
oltre l’orbita di Nettuno. Questi corpi
denominati KBO (Kuiper Belt Objects)
sono tra i più antichi del Sistema Solare
ed essendosi formati a grandi distanze
dal Sole non sono stati mai soggetti
a temperature elevate; potrebbero
pertanto contenere molecole ed altri
composti risalenti alle prime fasi di
formazione del Sistema Solare. Febe è
stato probabilmente iniettato all’interno
del Sistema Solare in seguito ad una
perturbazione gravitazionale da
parte di un pianeta o un altro KBO e
successivamente catturato da Saturno;
gli impatti hanno considerevolmente
eroso la sua superficie e parte del
materiale espulso è stato raccolto da
Giapeto che è il satellite più vicino a
Febe muovendosi dall’esterno verso
Saturno [18].
Ma la dicotomia superficiale non è
l’unica caratteristica stupefacente di
Giapeto. Esso infatti è uno sferoide
oblato con una differenza tra raggio
polare ed equatoriale di quasi 35 km,
un valore che stupisce se si tiene conto
del fatto che un corpo in equilibrio
idrostatico con un periodo di rotazione
di 79 giorni dovrebbe avere una
differenza massima tra i raggi di circa
10 m. Facendo il ragionamento inverso
ci possiamo chiedere quale dovrebbe
essere il periodo di rotazione di un
oggetto di composizione omogenea
avente 1000 km di diametro e con
una ellitticità di 35 km: si ottiene così
l’incredibile valore di 16 ore! La grande
differenza tra i valori previsti dalla
dinamica e quelli osservati suggerisce
che Giapeto non abbia ancora
raggiunto un equilibrio idrostatico:
vol24 / no3-4 / anno2008 >
13
13
14
Fig. 13 L’Himalaya di Giapeto, una catena montuosa che
percorre tutto il diametro equatoriale
Fig. 14 Encelado nonostante abbia un diametro di appena
500 km è un satellite geologicamente attivo. Nella foto
si alternano regioni craterizzate (più antiche) a zone
estremamente lisce. La regione in colore turchese in basso
è il Polo Sud dove è presente una vasta regione di fratture
attive.
molto probabilmente quel che stiamo
osservando è una “topografia fossile”,
un’istantanea di quando il corpo si
trovava ancora in rapida rotazione ma
con una litosfera solida e abbastanza
estesa da mantenere la forma attuale.
Un’altra caratteristica di Giapeto è
l’imponente rilievo che si osserva lungo
gran parte del diametro equatoriale
(fig. 11 e fig.13); caratterizzato da
un’altezza media di circa 18 km
con tutta probabilità va anch’esso
fatto risalire al congelamento della
topografia.
I modelli di evoluzione termica di
Giapeto sviluppati alla luce di queste
osservazioni permettono di datare il
momento di formazione del satellite
con una certa accuratezza [19]. La sua
evoluzione termica è guidata infatti
dalla presenza di isotopi radioattivi
a vita breve (principalmente 26Al e in
misura molto minore 60Fe che hanno
tempi di dimezzamento dell’ordine
dei 700 000 anni) necessari per fornire
l’energia sufficiente a ridurre la viscosità
e la porosità all’interno di Giapeto
e di conseguenza ad aumentare la
conducibilità termica tanto da ottenere
14 < il nuovo saggiatore
una crosta di sufficiente spessore
da congelare la forma originaria del
satellite.
La presenza di isotopi radioattivi a vita
breve determina la cronologia degli
eventi (a partire da una abbondanza
iniziale fissata di 26Al il progressivo
decadimento riduce la quantità di
radioisotopo presente e quindi l’energia
a disposizione); si ricava che i tempi di
formazione dei pianeti giganti (e dei
loro satelliti regolari) debbono essere
stati estremamente rapidi, nell’ordine di
2-5 milioni di anni.
Encelado (fig. 14) ha attratto
l’attenzione degli scienziati fin dai tempi
delle osservazioni Voyager in quanto
risulta essere l’oggetto con l’albedo più
elevata del Sistema Solare. Il ghiaccio
d’acqua che copre la sua superficie è
estremamente puro e non contaminato
da materiale meteoritico come avviene
per gli altri satelliti ghiacciati. Poiché
tutti i satelliti, e anche gli anelli, sono
soggetti a bombardamento meteoritico
e contaminazione (abbiamo visto poco
sopra il caso eclatante di Giapeto) la
presenza di materiale così puro sulla
superficie di Encelado fa supporre
che su questo satellite debba esistere
un meccanismo di ringiovanimento
superficiale [20]. Inoltre va ricordato
che Encelado orbita immerso nell’anello
E, il più tenue e diffuso degli anelli di
Saturno.
Il 14 Luglio 2005, la sonda Cassini è
passata a meno di 200 km dal Polo
Sud di Encelado e tutti gli strumenti
a bordo dell’orbiter hanno effettuato
una serie di misure coordinate con
l’obiettivo di studiare nel dettaglio
l’origine dell’intenso flusso di ioni
dalla regione polare rilevato dal
magnetometro [21]. Quel che si è visto
ha superato qualunque aspettativa.
Tutti gli strumenti in situ hanno rilevato
la presenza di particelle di ghiaccio, di
molecole (acqua, CO2, CH4, acetilene e
propano) e di ioni, mentre gli strumenti
di remote sensing hanno osservato
intensi jet di gas provenienti da fratture
lineari localizzate al polo sud (fig. 14 e
fig. 15).
Nell’IR la temperatura delle zone di
frattura è considerevolmente più alta
che nel resto della superficie (circa
145 K contro 70 K) il che dimostra la
presenza di sorgenti di calore interne
F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno
15
16
Fig. 15 Getti di ghiaccio provenienti dal Polo Sud di
Encelado
Fig. 16 Foto della regione più densa dell’anello E, con al
centro il satellite Encelado.
che determinano la frattura della
crosta ghiacciata e la fuoriuscita di
gas. La presenza di questi criovulcani
presuppone l’esistenza di acqua liquida
in qualche strato subsuperficiale con
notevoli ed interessanti implicazioni di
carattere astrobiologico.
Alla luce di queste osservazioni è
stato possibile tra l’altro dimostrare
che proprio Encelado è all’origine del
materiale che forma l’anello E, come
ben evidenziato anche dall’immagine
in fig. 16.
È necessario quindi chiedersi quale
possa essere il meccanismo energetico
che permette una attività di tipo
“tettonico” su un satellite di soli 250
km di raggio. Per rispondere a questa
domanda è stato necessario formulare
un modello della storia termica di
Encelado [22] che, analogamente ai
risultati ottenuti per Giapeto, prende
in considerazione l’azione degli isotopi
radioattivi a vita breve (26Al, 60Fe) per
determinare la differenziazione del
corpo e la formazione di un nucleo
roccioso, un oceano subsuperficiale
ed una crosta solida. In una fase
successiva della storia termica del
satellite il riscaldamento dovuto
all’azione degli isotopi a vita lunga
(235U, 238U, 232Th, 40K aventi tempi
di dimezzamento dell’ordine dei
miliardi di anni), la cui presenza è
giustificata dalla maggiore frazione di
materiale roccioso rispetto a Giapeto,
contribuisce a mantenere bassa la
viscosità del mantello ghiacciato. La
bassa viscosità è necessaria per poter
ipotizzare che siano le deformazioni
mareali, dovute all’ellitticità dell’orbita
di Encelado, ad essere responsabili delle
fratture osservate e della conseguente
fuoriuscita di materiale; laddove invece
le stesse deformazioni mareali non
potrebbero in alcun modo spiegare
l’attività osservata qualora si trovassero
ad agire su di un corpo freddo e rigido.
5 Conclusioni
All’ultimo PSG (Project Science Group)
tenutosi lo scorso gennaio 2008 al
JPL è stato definito il futuro ultimo
dell’orbiter, che verrà messo su di un
orbita molto eccentrica il cui pericentro
si trova all’interno degli anelli a poche
decine di migliaia di chilometri dalla
superficie delle nubi del pianeta. Dopo
alcuni passaggi sempre più ravvicinati
l’orbiter si inabisserà all’interno
dell’atmosfera di Saturno inviando
a Terra preziose informazioni sulla
composizione e dinamica degli strati alti
dell’atmosfera.
Ma l’aspetto più entusiasmante è
che si prevede che tutto ciò avverrà
nel 2017. Fino ad allora la missione
rimarrà attiva e, seppur con modalità
operative ridotte, continuerà ad inviare
dati ed immagini del pianeta, degli
anelli e dei satelliti. Potremo seguire
l’alternarsi delle stagioni su Titano e su
Saturno e verificare le teorie correnti
della circolazione atmosferica, potremo
continuare a monitorare l’attività dei
criovulcani di Encelado. Inoltre, tenuto
conto che l’attività di interpretazione
scientifica dei dati si estende ben oltre la
conclusione di una missione possiamo
aspettarci che i dati della Cassini ci
accompagneranno ancora per svariati
decenni verso una comprensione più
profonda del sistema di Saturno, dei
meccanismi di formazione del Sistema
Solare nel suo insieme e quindi delle
nostre stesse origini.
vol24 / no3-4 / anno2008 >
15
Bibliografia
[1]Il sito della NASA http://saturn.jpl.nasa.gov viene
aggiornato quotidianamente e contiene una grande quantità di
materiale informativo e divulgativo, una dettagliata ed completa
galleria di immagini e risultati scientifici su tutti gli aspetti della
missione.
[2]E. Flamini e R. Somma, “Science & Technology: A Synergic
Cooperation. The Italian Experience In The Cassini Mission”, Earth
Moon and Planets, 96 (2005) 101.
[3]R. H. Brown, K. H. Baines, G. Bellucci, J.-P. Bibring, B. J. Buratti,
F. Capaccioni, P. Cerroni, R. N. Clark, A. Coradini, D. P. Cruikshank,
P. Drossart, V. Formisano, R. Jaumann, Y. Langevin, D. L. Matson,
T. B. McCord, V. Mennella, E. Miller, R. M. Nelson, P. D. Nicholson,
B. Sicardy and C. Sotin , “The Cassini VIMS investigation”, Space Sci.
Rev., 115 (2004) 111.
[4] F. Capaccioni, A. Coradini, P. Cerroni e S. Amici, “Imaging
spectroscopy of Saturn and its satellites: VIMS-V onboard CASSINI”,
Planet. Space Sci., 46 (1998) 1263.
[5]C. Elachi, M. D. Allison, L. Borgarelli, P. Encrenaz, E. Im,
M. A. Janssen, W. T. K. Johnson, R. L. Kirk, R. D. Lorenz, J. I. Lunine,
D. O. Muhleman, S. J. Ostro, G. Picardi, F. Posa, C. G. Rapley,
L. E. Roth, R. Seu, L. A. Soderblom, S. Vetrella, S. D. Wall, C. A.Wood,
H. A. Zebker. “RADAR: The Cassini Titan Radar Mapper”. Space Sci.
Rev., 115 (2004) 71.
[6]A. J. Kliore, J. D. Anderson, J. W. Armstrong, S. W. Asmar,
C. L. Hamilton, N. J. Rappaport, H. D. Wahlquist, R. Ambrosini,
F. M. Flasar, R. G. French, L. Iess, E. A. Marouf and A. F. Nagy. “Cassini
Radio Science”. Space Sci. Rev., 115 (2004) 1.
[7]M. Fulchignoni, F. Ferri, F. Angrilli, A. Bar-Nun, M. A. Barucci,
G. Bianchini, W. Borucki, M. Coradini, A. Coustenis, P. Falkner,
E. Flamini, R. Grard, M. Hamelin, A. M. Harri, G. W. Leppelmeier,
J. J. Lopez-Moreno, J. A. M. McDonnell, C. P. Mckay,
F. H. Neubauer, A. Pedersen, G. Picardi, V. Pirronello, R. Rodrigo,
K. Schwingenschuh, A. Seiff, H. Svedhem, V. Vanzani and
J. Zarnecki. “The characteristics of Titan’s atmospheric physical
properties by the Huygens Atmospheric Structure Instrument (HASI)”,
Space Sci. Rev., 104 (2002) 395.
[8]L. A. Soderblom, M. G. Tomasko, B. A. Archinal, T. L. Becker,
W. L. Bushroe, D. A. Cook, L. R. Doose, D. M. Galuszka, T. M. Hare,
E. Howington-Kraus, E. Karkoschka, R. L. Kirk, J. I. Lunine,
E. A. McFarlane, B. L. Redding, B. Rizk, M. R. Rosiek, C. See,
P. H. Smith, “Topography and geomorphology of the Huygens
landing site on titan”, Planet. Space Sci., 55 (2007) 2015.
[9] J. H. Waite Jr., D. T. Young, T. E. Cravens, A. J. Coates, F. J. Crary,
B. Magee, J. Westlake, “The Process of Tholin Formation in Titan’s
Upper Atmosphere ”, Science, 316 (2007) 870.
[10]S. K. Atreya, E. Y. Adams, H. B. Niemann, J. E. Demick-Montelara,
T. C. Owen, M. Fulchignoni, F. Ferri, E. H. Wilson, “Titan’s methane
cycle”, Planet. Space Sci., 54 (2006) 1177.
[11]E. R. Stofan, C. Elachi, J. I. Lunine, R. D. Lorenz, B. Stiles,
K. L. Mitchell, S. Ostro, L. Soderblom, C. Wood, H. Zebker, S. Wall,
M. Janssen, R. Kirk, R. Lopes, F. Paganelli, J. Radebaugh, L. Wye,
Y. Anderson, M. Allison, R. Boehmer, P. Callahan, P. Encrenaz,
E. Flamini, G. Francescetti, Y. Gim, G. Hamilton, S. Hensley,
W. T. K. Johnson, K. Kelleher, D. Muhleman, P. Paillou, G. Picardi,
F. Posa, L. Roth, R. Seu, S. Shaffer, S. Vetrella & R. West, “The lakes of
Titan”, Nature, 445 (2007) 61.
[12]C. Sotin, “News and Views: Titan’s lost seas found”, Nature, 445 (2007)
29.
[13]T. Tokano, “Near-surface winds at the Huygens site on Titan:
Interpretation by means of a general circulation model”, Planet.
Space Sci., 55 (2007) 1990.
[14]R. D. Lorenz, “Titan atmosphere profiles from Huygens engineering
(temperature and acceleration) sensors”, Planet. Space Sci., 55 (2007)
1949.
[15] H. Salo, R. Karjalainen e R. G. French, “Photometric modeling of
Saturn’s rings. II. Azimuthal asymmetry in reflected and transmitted
light”, Icarus, 170 (2004) 70.
[16]C. C. Porco, E. Baker, J. Barbara, K. Beurle, A. Brahic, J. A.
Burns, S. Charnoz, N. Cooper, D. D. Dawson, A. D. Del Genio,
T. Denk, L. Dones, U. Dyudina, M. W. Evans, B. Giese, K. Grazier,
P. Helfenstein, A. P. Ingersoll, R. A. Jacobson, T. V. Johnson,
A. McEwen, C. D. Murray, G. Neukum, W. M. Owen, J. Perry,
T. Roatsch, J. Spitale, S. Squyres, P. C. Thomas, M. Tiscareno,
E. Turtle, A. R. Vasavada, J. Veverka, R. Wagner, R. West, “Cassini
Imaging Science: Initial Results on Phoebe and Iapetus”, Science, 307
(2005) 1237.
[17]R. N. Clark, R. H. Brown, R. Jaumann, D. P. Cruikshank, R. M. Nelson,
B. J. Buratti, T. B. McCord, J. Lunine, K. H. Baines, G. Bellucci,
J.-P. Bibring, F. Capaccioni, P. Cerroni, A. Coradini, V. Formisano,
Y. Langevin, D. L. Matson, V. Mennella, P. D. Nicholson, B. Sicardy,
C. Sotin, T. M. Hoefen, J. M. Curchin, G. Hansen, K. Hibbits e
K.-D. Matz, “Compositional maps of Saturn’s moon Phoebe from
imaging spectroscopy”, Nature, 435 (2005) 66.
[18]T. V. Johnson e J. I. Lunine, “Saturn’s moon Phoebe as a captured
body from the outer Solar System”, Nature, 435 (2005) 69.
[19] J. C. Castillo-Rogez , D. L. Matson, C. Sotin, T. V. Johnson, J.I. Lunine,
P. C. Thomas, “Iapetus’ geophysics: Rotation rate, shape, and
equatorial ridge”, Icarus, 190 (2007) 179.
[20] J. K. Kargel, “Enceladus: Cosmic Gymnast,Volatile Miniworld”, Science,
311 (2006) 1389.
[21] Vedi numero speciale 311 di Science del 2006 tutto dedicato alle
osservazioni di Encelado da parte degli strumenti della Cassini.
[22] G. Schubert , J. D. Anderson , B. J. Travis , J. Palguta, “Enceladus:
Present internal structure and differentiation by early and long-term
radiogenic heating”, Icarus , 188 (2007) 345.
Fabrizio Capaccioni
Lavora a Roma presso l’Istituto di Astrofisica Spaziale dell’INAF (Istituto Nazionale di
Astrofisica). Si occupa della realizzazione ed utilizzo di camere iperspettrali, nel visibile
e vicino infrarosso, montate a bordo di sonde automatiche e dedicate allo studio della
composizione superficiale dei corpi del Sistema Solare. È coinvolto in molte delle missioni
in corso, sia NASA che ESA, dedicate all’esplorazione del Sistema Solare: la missione
Rosetta in fase di crociera verso la cometa Churyumov-Gerasimenko che raggiungerà nel
2014, la missione Dawn che prevede lo studio degli asteroidi Vesta e Ceres, la missione
BepiColombo per lo studio del pianeta Mercurio, e ovviamente anche la missione Cassini
come membro del team scientifico dello strumento VIMS.
16 < il nuovo saggiatore
scienza in primo piano
Alla ricerca degli aggregati
nucleari kaonici
Tullio Bressani1, Alberto Panzarasa2
Dipartimento di Fisica Sperimentale, Università di Torino
Istituto Nazionale di Fisica Nucleare – Sezione di Torino
2
Istituto di Istruzione Superiore “A. Volta”, Pavia
Dipartimento di Fisica Nucleare e Teorica, Università di Pavia
1
Una delle problematiche più affascinanti della fisica nucleare moderna è il tentativo di riprodurre
e studiare in laboratorio la materia nucleare ad alta densità (anche 10 volte superiore a quella
dei nuclei ordinari) che si ritiene costituisca le stelle di neutroni. Recentemente è stata ipotizzata
teoricamente l’esistenza di aggregati nucleari di pochi nucleoni legati da uno o più antikaoni che
potrebbero verificare queste condizioni di alta densità. Gli esperimenti FINUDA e OBELIX hanno
riportato segnali compatibili con l’esistenza di tali sistemi.
1 Introduzione
Dall’inizio del secolo è entrata in funzione presso i Laboratori
Nazionali di Frascati dell’Istituto Nazionale di Fisica Nucleare
il complesso di macchine acceleratici DAΦNE, acronimo di
“Double Annular Φ-factory for Nice Experiments”.
L’acronimo è azzeccato, in quanto sintetizza bene le
caratteristiche e lo scopo del complesso di macchine. Si tratta
di un collisionatore (e+, e−), in cui due fasci di elettroni (e−)
e positroni (e+) da 510 MeV ciascuno circolano in due anelli
separati e si incontrano in due zone di interazione poste
simmetricamente rispetto al centro della macchina, “quasi”
a π. Una descrizione più dettagliata è già stata pubblicata su
questa rivista [1]. Contrariamente a quanto succedeva per
collisionatori (e+, e−) in funzione negli anni passati, in cui
l’interesse era concentrato sulla ricerca di nuove particelle
prodotte nell’interazione (e+, e-) da cui la necessità di variare
con continuità l’energia dei fasci collidenti, DAΦNE funziona
ad un’energia fissa (510 MeV per fascio) corrispondente
all’energia di massa del mesone Φ, 1020 MeV. Le particelle
prodotte nel decadimento del mesone Φ, kaoni K (K+, K0) e
antikaoni (K-, 0) sono quelle che vengono utilizzate per
eseguire esperimenti. Da ciò deriva la definizione factory,
fabbrica di Φ. È chiaro che per ottenere una fabbrica di Φ è
necessario ottimizzare la produzione di Φ, utilizzando tutte
le tecniche e le idee per portare al massimo la luminosità
del collisionatore. Questo spiega l’utilizzo di due anelli
separati ed un angolo di collisione di “quasi” π, esattamente
(π – 0,0012) rad. Per fornire un paragone, il glorioso
collisionatore (e+, e−) ADONE, installato nello stesso elegante
edificio che oggi ospita DAΦNE, utilizzava un solo anello e
sfruttava collisioni (e+, e−) a π, ma permetteva di ottenere una
luminosità di più di tre ordini di grandezza inferiore. Detto per
inciso, tra le idee sviluppate per incrementare la luminosità,
quella di aumentare, rispetto a π, l’angolo di collisione tra i
fasci sembra essere quella vincente. Proprio in questi giorni
studi di macchina a DAΦNE con questo accorgimento hanno
fornito eccellenti risultati.
Il flusso (numero di particelle al secondo) di K e prodotto a
DAΦNE non è eccezionale: qualche centinaio. Eccezionale è
invece la qualità: sono di energia molto bassa (circa 16 MeV
per K+ e K-), prodotti sempre in coppie ed emessi a π l’uno
rispetto all’altro, praticamente immuni da fondi dovuti ad
altre particelle, come succede ad altre macchine acceleratici
di protoni di alta energia, usate per produrre K o . Pochi
ma buoni, in sintesi, i K di DAΦNE e questo giustifica le
ultime due lettere dell’acronimo (NE = Nice Experiments).
Progettando apparati di misura che utilizzino al meglio le
tecniche sperimentali più avanzate è infatti possibile eseguire
esperimenti di caratteristiche uniche, non possibili alle altre
macchine.
vol24 / no3-4 / anno2008 >
17
scienza
in primo
piano
Fig. 1 Previsione teorica dei potenziali K−N e K−-nucleo e dei relativi stati
legati previsti. Le zone ombreggiate in rosso indicano le larghezze degli
stati. Da [3].
Fig. 2 Variazione di volume e conseguentemente della
densità di materia nucleare in un nucleo ordinario 3He e
in un ipotetico 3 H, con deformazione del nucleo.
Fig. 3 (a) Massa invariante di un protone e un π– per tutti gli eventi osservati in [6]. È stato eseguito un best fit con una gaussiana
e un “fondo” lineare nell’intervallo di massa invariante compreso tra 1100 e 1130 MeV. (b) Distribuzione del coseno dell’angolo di
apertura tra una Λ e un protone: la linea continua si riferisce ai bersagli 6Li, 7Li e 12C mentre quella tratteggiata a quelli di 27Al e 51V.
Gli eventi back-to-back sono stati selezionati imponendo la condizione cosθlab < − 0,8. Da [6].
18 < il nuovo saggiatore
T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici
Chiarita la semantica di DAΦNE, ricordiamo che tre apparati
sperimentali sono stati costruiti ed hanno accumulato dati
dal 2000 ad oggi: KLOE, dedicato alla Fisica delle Particelle,
FINUDA, dedicato alla Fisica Nucleare e DEAR, dedicato alla
Fisica Atomica.
FINUDA era stato proposto ed ottimizzato per effettuare
studi di spettroscopia e successivo decadimento di Ipernuclei
Lambda prodotti dai K- fermati in bersagli solidi nucleari.
Una descrizione dettagliata della Fisica proposta può essere
trovata su questa rivista [2].
Come è successo sempre, ma ancora più oggi, in cui i tempi
tra la proposta di un esperimento ad una nuova macchina
acceleratrice e la relativa esecuzione si dilatano a dismisura
non per motivi tecnico-scientifici, ma di altra natura
(finanziaria, burocratica, politica, sociologica,…), trascorsero
più di dieci anni tra la proposta dell’esperimento (1992) e la
prima presa dati (2003–2004). Il programma di Fisica degli
Ipernuclei Lambda originariamente proposto era ancora in
buona parte valido, ma fortunatamente si verificò un fatto
nuovo, che contribuì ad aumentare considerevolmente la
valenza scientifica dell’esperimento.
È ben noto che i diversi dati sperimentali relativi
all’interazione di una particella elementare (nel nostro caso
il ) con un nucleone N (diffusione, reazioni, stati legati,…)
vengono utilizzati per determinare un potenziale generale
di interazione. I parametri caratteristici di questo potenziale
(attrattivo o repulsivo, profondità, raggio d’azione) e le
funzioni analitiche più adatte a rappresentarlo possono
essere determinati dai modelli teorici ipotizzati per la
descrizione dell’interazione e dal successivo paragone delle
previsioni teoriche con i dati sperimentali a disposizione.
Ipotizzato un certo potenziale -N, il passo successivo è
quello di estenderlo ad un sistema di molti nucleoni (un
nucleo), e di ricavare alla fine un potenziale fenomenologico
-Nucleo in grado di descrivere le osservabili relative
(diffusione, ipernuclei, ecc...).
Secondo la metodologia accettata dall’indagine fisica, la
validità di un’ipotesi teorica non è suffragata tanto dalla
spiegazione dei dati sperimentali esistenti, quanto dalla
previsione di fenomeni nuovi, a volte inaspettati, da verificare
sperimentalmente.
Nel 2002 Akaishi e Yamazaki [3, 4], hanno previsto la
formazione di stati discreti, stretti e legati di in sistemi
nucleari costituiti da pochi corpi. Il potenziale -nucleo viene
derivato da un potenziale -nucleone ( N) fenomenologico
costruito in modo da tenere in considerazione le lunghezze di
scattering libere N , gli spostamenti dei raggi X degli atomi
kaonici e l’energia e la larghezza della risonanza Λ(1405).
Quest’ultima viene vista più come un sistema legato K-p che
come uno stato eccitato di 3 quark con l = 1. Il potenziale
con I = 0, che è molto più profondo del consueto potenziale
N-N, produce lo stato legato instabile Λ(1405) con una
energia di legame B = - 27 MeV e una larghezza Γ = 40 MeV,
come mostrato in fig. 1, mentre l’interazione con I = 1 non
produce alcun stato legato. Come si può vedere in figura, per
il sistema legato pp, indicato anche come 2H, sono previste
B = − 48 MeV e Γ = 61 MeV. Per i sistemi 3N e 4N (3H, 3He,
4
H, 4He) le energie di legame previste sono piuttosto
grandi, circa -100 MeV e le larghezze sono piuttosto
strette (20–30 MeV) (fig. 1). Le larghezze sono strette
poiché le energie di legame sono così grandi, per cui il
principale canale di decadimento K-p (I = 0) → Σπ è proibito
energeticamente e il decadimento in Lp0 è soppresso dalle
regole di selezione dell’isospin. La densità nucleare prevista
è da 4 fino a 9 volte superiore rispetto a quella normale
(r0 = 0,17 fm-1) e ciò potrebbe anche essere un modo per
studiare in laboratorio la materia nucleare ad alta densità
nelle stelle di neutroni. La fig. 2 rappresenta in maniera
intuitiva la variazione di densità di materia nucleare in un
nucleo ordinario 3H e in un ipotetico 3H. Questi sistemi sono
chiamati aggregati nucleari kaonici (KNC = kaonic nuclear
clusters) o stati kaonici profondamente legati (DBKS = deeply
bound kaon states). Si sottolinea che nella semantica abituale
(KNC o DBKS) non si precisa che si tratta in realtà di antikaoni
(K- o 0).
2 Osservazioni sperimentali con K– a riposo
Queste considerazioni hanno stimolato alcuni gruppi
sperimentali ad accertare l’esistenza dei KNC. In un primo
tentativo la loro identificazione è stata tentata mediante
un’analisi cinematica diretta della reazione di produzione
(metodo della massa mancante). I risultati deludenti ottenuti
da un esperimento eseguito presso il laboratorio giapponese
KEK di Tsukuba [5], dovuti alla presenza di un fondo non
correlato di eventi che mascherava l’eventuale presenza di
picchi riconducibili alla formazione di KNC, hanno convinto
i ricercatori dell’esperimento FINUDA ad imboccare un’altra
via. Sembrò più promettente esaminare qualche canale
di decadimento del KNC eventualmente prodotto che
includesse un iperone (Λ o Σ) ed uno o più nucleoni (metodo
della massa invariante).
Ricordiamo che la massa invariante M di una particella che
decade in due particelle 1 e 2 aventi energie totali E1 e E2 e
quantità di moto p1 e p2 è definita come:
(1)
.
Nella (1) si è posto c = 1. È ben noto che M è invariante per
ogni sistema di riferimento di Lorentz. La definizione vale per
il decadimento in un numero qualsiasi n di particelle.
Una caratteristica dello spettrometro FINUDA è l’elevata
risoluzione in quantità di moto (∆p/p ≈ 0.5%), ottenuta
utilizzando bersagli nucleari molto sottili (meno di 200
vol24 / no3-4 / anno2008 >
19
scienza
in primo
piano
Pannello 1
Schema di principio della sequenza di processi elementari
alla base dell’ osservazione di un possibile stato 2H prodotto a
seguito dell’assorbimento di un K- a riposo su nuclei. Il K-, in
un’orbita idrogenoide attorno al nucleo, interagisce con una
coppia correlata di protoni alla superficie del nucleo, formando
2
H. Questo sistema, quasi a riposo, decade immediatamente
in un protone e un iperone L, che decade successivamente in
(p-p). L e p sono emessi circa a 180°, e la determinazione
dei loro quadrimpulsi (energia cinetica e quantità di moto)
permette di determinare la massa invariante del sistema Lp e
quindi di risalire all’energia di legame dell’ipotetico 2H.
Fig. 4 Rappresentazione grafica della risposta dei rivelatori di FINUDA ad un evento probabilmente dovuto alla
produzione di 2 H e successivo decadimento in un piano perpendicolare all’asse dello spettrometro e quindi
all’asse dei fasci e+e− collidenti. Nell’inserto è rappresentato, ingrandito, l’insieme dei rivelatori di vertice posti
attorno alla zona di interazione e+e− da cui appare che la coppia K+K− è prodotta back-to-back. Il K+ si arresta nel
bersaglio e decade in µ+ (o π+) mentre il K− si arresta nel bersaglio opposto e produce un evento candidato ad
essere il decadimento del KNC 2 H. Un protone e un iperone Λ sono emessi in direzioni opposte. L’iperone Λ è
riconosciuto mediante il decadimento in (π−p).
20 < il nuovo saggiatore
T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici
Fig. 5 Massa invariante di una Λ e un protone in correlazione backto-back (cosθlab < − 0,8) da bersagli leggeri prima della correzione di
accettanza. L’inserto mostra i risultati dopo la correzione. Solo i canali
dell’istogramma compresi tra 2,22 e 2,33 GeV/c2 sono stati utilizzati
nel best fit per ricavare energia di legame e larghezza dell’aggregato
nucleare kaonico 2 H. Da [6].
Fig. 6 Distribuzione di massa invariante della coppia Λd osservata nella
reazione 6Li(K-stop, Ld)3N (istogramma con linea continua). Le altre curve
rappresentano simulazioni dello spazio delle fasi di Λdnnp, Λdnd eΛdt
(t = tritio). La linea con punti ingranditi rappresenta il fit dei dati con una
combinazione dei canali precedenti e una gaussiana (curva grigia piena).
La linea continua rappresenta il “fondo” simulato. La freccia indica la
massa del sistema non legato K−ppn . L’inserto mostra la distribuzione di
cos θΛd per gli eventi che popolano il picco a 3250 MeV. Da [7].
mg/cm2) e camere a deriva con miscele a base di He. Inoltre
tutto lo spettrometro è immerso in una atmosfera di He.
Le coppie K provenienti dal decadimento della Φ(1020),
in particolare i K- sono pressoché monocromatici e sono
completamente fermati nei bersagli. Lo spettrometro
copre un angolo solido superiore a 2π sr. Una descrizione
dettagliata delle tecniche sperimentali può essere trovata in
[1]. Nel primo periodo di presa dati (2003–2004) sono stati
utilizzati i seguenti bersagli 6Li, 7Li, 12C, 27Al e 51V. Anche se
FINUDA è stato progettato per effettuare spettroscopia ad
alta risoluzione di Ipernuclei Lambda prodotti dai K- fermati
nei bersagli [2], lo spettrometro si è dimostrato molto
efficiente anche nell’identificazione di iperoni Λ. Essi possono
essere ricostruiti dagli spettri in massa invariante di un
protone e di un π- come mostrato in fig. 3a [6].
Dalla (1) è chiaro che per poter determinare la massa
mancante non basta disporre di una buona determinazione
sperimentale della quantità di moto ma anche di una buona
capacità di riconoscimento delle particelle per determinare
E1 e E2.
La posizione del picco è in buon accordo con la massa della
Λ e la larghezza molto stretta (6 MeV/c2 FWHM). Quando un
K− interagisce con due protoni, ci si aspetta che una coppia
iperone-nucleone (Λ + p, Σ0+ p o Σ++ n) sia emessa con
angolo di π tra le due particelle, ignorando l’interazione di
stato finale all’interno del nucleo (pannello 1).
La correlazione angolare tra una Λ e un protone provenienti
dallo stesso punto del bersaglio (fig. 3b) indica chiaramente
l’esistenza di questa reazione. Si sottolinea che con FINUDA
gli angoli di emissione delle particelle sono misurati con
una precisione di 0,04 rad. Queste correlazioni furono
osservate anche per nuclei di medie dimensioni come 27Al
e 51V e questo potrebbe suggerire che l’assorbimento abbia
luogo sulla superficie del nucleo. La fig. 4 rappresenta la
visualizzazione di uno degli eventi che hanno costituito
la base per questa analisi. Nell’analisi finale [6] sono state
considerate solo coppie Λ-p emesse in versi opposte
(cosθlab< - 0,8) da nuclei leggeri (6Li, 7Li, 12C). La correlazione
angolare tra la Λ e il protone è così evidente che ci si attende
che le due particelle siano emesse da uno stato intermedio
K-pp. Inoltre, se il processo di reazione fosse semplicemente
un processo di assorbimento da due protoni, la massa del
sistema dovrebbe essere vicina alla somma delle masse
del kaone e dei due protoni (2370 MeV). In fig. 5 la massa
invariante della coppia Λp mostra invece una significativa
diminuzione di massa del sistema K-pp. Questo può essere
interpretato come la prova dell’esistenza di uno stato legato
composto da un kaone e due protoni, 2H. Nell’inserto di
fig. 5 è mostrata la distribuzione di massa invariante corretta
per l’accettanza strumentale. L’energia di legame
vol24 / no3-4 / anno2008 >
21
Pannello 2
Schema di principio della sequenza di processi elementari
alla base dell’ osservazione di un possibile stato prodotto a
seguito dell’assorbimento di un K- a riposo sul 6Li. Questo
nucleo si comporta in molte reazioni come una “molecola”
composta da 4He(a) e 2H(d). Il K- interagisce con 4He, visto a
sua volta come (3He + n), formando 3H + n. 3H, quasi a riposo,
decade immediatamente in uno stato formato da un deutone
e un iperone Λ, che a sua volta decade in (π−p). Λ e d sono
emessi circa a 180°, e la determinazione dei loro quadrimpulsi
(energia cinetica e quantità di moto) permette di determinare
la massa invariante del sistema Λp e quindi di risalire all’energia
dell’ipotetico 3H.
Pannello 3
Schema di principio della sequenza dei processi elementari
alla base dell’ osservazione di un possibile stato 2H prodotto a
seguito dell’annichilazione di a riposo su 4He. L’antiprotone,
in un’orbita idrogenoide attorno al nucleo, interagisce con
un nucleone (un neutrone nel caso rappresentato), con la
produzione di un K0, rivelato attraverso il suo decadimento in
π+π−, un K- ed un certo numero di pioni, carichi e/o neutri. Il K-,
con una quantità di moto cha ha una distribuzione continua con
un massimo a 400 MeV/c, interagisce con la coppia correlata
di protoni rimasti, formando un KNC 2H. Questo sistema, che
ha una certa quantità di moto, decade immediatamente in un
protone e in un iperone Λ, che decade successivamente in (π−p). Λ e p sono emessi con un angolo relativo minore
di 180°, in quanto 2H viene prodotto con una certa quantità di moto. La determinazione dei quadrimpulsi (energia
cinetica e quantità di moto) di Λ e p permette di determinare la massa invariante del sistema (Λp) e quindi di risalire
all’energia di legame dell’ipotetico 2H.
Pannello 4
Schema di principio della sequenza dei processi elementari
alla base dell’ osservazione di un possibile stato 3H prodotto a
seguito dell’annichilazione di a riposo su 4He. L’antiprotone,
in un’orbita idrogenoide attorno al nucleo, interagisce con
un nucleone (un neutrone nel caso rappresentato), con
la produzione di un K0, rivelato a volte attraverso il suo
decadimento in π+π−, un K- ed un certo numero di pioni,
carichi e/o neutri. Il K-, con una quantità di moto che ha una
distribuzione continua con un massimo intorno a 400 MeV/c,
interagisce con i restanti 3 nucleoni correlati (ppn), formando
il KNC 3H. Questo sistema, che ha una certa quantità di moto,
decade immediatamente in un deutone e in un iperone Λ, che
decade successivamente in (π−p) ed un deutone. Λ e d sono emessi con un angolo relativo inferiore a 180°, in
quanto 3H possiede una certa quantità di moto. La determinazione del quadrimpulso (energia cinetica e quantità di
moto) di Λ e d permette di determinare la massa invariante del sistema Λd e quindi di risalire all’energia di legame
dell’ipotetico 3H.
22 < il nuovo saggiatore
T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici
+3
B (2H) = − 115+6
−5(stat) −4(sist) MeV e la larghezza di
+2
Γ = 67 ± 14(stat) -3(sist) sono state ottenute da un fit con
una funzione di Lorentz convoluta con una gaussiana con
σ = 4 MeV/c2, corrispondente alla risoluzione del rivelatore.
Questo valore dell’energia di legame è più di due volte quello
previsto in [3], mentre quello per la larghezza è in buon
accordo con le previsioni teoriche. La produzione del picco è
dell’ordine di 10−3 per K− fermato.
Incuriositi da questo risultato abbastanza incoraggiante, i
ricercatori di FINUDA hanno effettuato un’altra analisi basata
sullo studio delle masse invarianti osservate nel sistema Λ-d
(deutone). Il metodo è del tutto simile a quello utilizzato per
il sistema Λ-p, con la differenza che è necessario partire dalla
selezione dei d presenti negli spettri globali delle particelle
prodotte a seguito dell’interazione di K- a riposo con nuclei
con una frequenza di circa tre ordini di grandezza inferiore a
quella dei protoni. Omettiamo per brevità tutte le sofisticate
procedure di selezione adottate, descritte in [7] e riportiamo
soltanto il risultato finale. Sottolineiamo il fatto che in questo
caso è stato studiato soltanto il nucleo 6Li, per motivi spiegati
nel seguito.
Lo spettro della massa invariante del sistema Λd è riportato
in fig.6. Si può notare la presenza di un picco, con una
significatività statistica di circa 3σ, a 3250 MeV, circa 60 MeV
al di sotto della somma delle masse delle particelle libere
(K-ppn).
Interpretando questo segnale come dovuto alla presenza di
un KNC 3H, B (3H) dovrebbe essere –58 ± 6 MeV con una
Γ = 36,6 ± 14,1 MeV. Per gli eventi che popolano il picco esiste
tra la Λ e il d una correlazione angolare molto accentuata a
π (vedi l’inserto di figura 6). È da notare che in questo caso
l’energia di legame misurata è circa la metà di quella prevista
teoricamente (fig. 1) e che la larghezza è inferiore a quanto
ci si può aspettare dalla circostanza cha la massa osservata è
superiore a quella del sistema (Σ + π)
Il pannello 2 illustra in maniera pittorica i processi ipotizzati
per spiegare le osservazioni sperimentali. È un fatto
sperimentale ben noto [8] che il nucleo 6Li si comporta,
nell’assorbimento di K− a riposo, come una “molecola”
4
He + d. Il K− verrebbe catturato dall’ 4He, visto a sua volta
come (3He + n), e, formerebbe il KNC 3H, che dovrebbe
quindi decadere in (Λ + d). L’andamento di altre osservabili
sperimentali suffraga questa interpretazione.
3 Osservazioni sperimentali con antiprotoni a
riposo
Di recente è stata pubblicata un’analisi degli eventi con 5
particelle cariche (π±, K±, d, p) identificate e caratterizzate
nello stato finale, prodotte dall’annichilazione di antiprotoni
( ) a riposo su nuclei di 4He [9]. In questo caso l’eventuale
produzione di KNC dovrebbe avvenire attraverso un processo
secondario all’interno del nucleo. Il processo primario è
l’annichilazione di un su N, con produzione di K0 ( 0 nel
caso dell’annichilazione primaria su un protone, K- su un
neutrone), accompagnata da un numero variabile di pioni
carichi e neutri, compatibile con le leggi di conservazione
dell’energia totale e della quantità di moto. La frequenza di
produzione di una coppia K + pioni è di circa 5 ∙ 10−2 per
catturato, e lo spettro di quantità di moto dei (K) è continuo,
con un massimo attorno a 400 MeV/c, come ci si aspetta da
una distribuzione statistica di spazio delle fasi. Riferendoci
per semplicità al K-, come nel caso di FINUDA, esso potrebbe
interagire con una coppia correlata pp dei 3 nucleoni rimasti,
o addirittura con tutti e 3 (ppn) e formare rispettivamente i
KNC 2H o 3H identificati tramite i loro decadimenti in (Λ + p)
e (Λ + d), come nel caso di FINUDA. I pannelli 3 e 4 illustrano
pittoricamente i processi ipotizzati.
I dati sono stati raccolti dall’ormai smantellato spettrometro
OBELIX, che operò presso l’acceleratore LEAR del CERN dal
1990 al 1996. Il rivelatore, ottimizzato per la spettroscopia
mesonica, aveva una bassa risoluzione sperimentale per
identificare particelle Λ (un fattore di circa 5 volte peggiore
di quella dello spettrometro FINUDA) e non riusciva a
distinguere vertici secondari dovuti al decadimento di
particelle con vita media lunga prodotte nel vertice primario
di annichilazione. Inoltre, le particelle Λ sono prodotte
solo in una piccola frazione di eventi (1,1%) e il picco
atteso a 1115 MeV nella distribuzione di massa invariante
(π−p) è invisibile nel fondo dovuto allo spazio delle fasi
e alle risonanze barioniche N e ∆ con ampia larghezza
(100–400) MeV. La ricerca di eventi Λp è stata effettuata
analizzando la distribuzione di massa invariante ppπ- per una
massa invariante del sistema (π−p) in diversi intervalli intorno
a 1115 MeV (massa dell’iperone Λ).
La distribuzione di massa invariante ppπ- senza alcuna
selezione, non mostrava segnali significativi rispetto alla
distribuzione di ppπ+. Invece, un picco stretto vicino a
2200 MeV è chiaramente visibile in sottoinsiemi di eventi
ottenuti selezionando masse invarianti pπ- vicine alla
massa della Λ (in intervalli che variano tra 1115 ± 10 MeV e
1115 ± 70 MeV). Per intervalli più stretti il picco scompare
a causa della bassa statistica e della bassa risoluzione
sperimentale, per intervalli più grandi il picco è coperto
dal fondo. Per l’analisi finale è stato scelto l’intervallo
1115 ± 30 MeV. La fig. 7a mostra la distribuzione di massa
invariante ppπ- ottenuta con la precedente selezione e
la distribuzione di massa invariante ppπ+ (fig. 7b), dove la
massa invariante pπ+ è stata selezionata in corrispondenza
della massa della Λ. La linea continua in fig. 7a è il risultato
di un best fit nell’intervallo 2100–2400 MeV con uno spazio
delle fasi più una gaussiana per considerare il picco. La
funzione di spazio delle fasi si adatta anche alla massa
invariante 2pπ+ nello stesso intervallo di energia (fig. 7b). La
vol24 / no3-4 / anno2008 >
23
scienza
in primo
piano
Fig. 7 Eventi con massa invariante (π−p) prossima alla massa della Λ (1115 ± 30) MeV: (a) Distribuzione di
massa invariante 2pπ−: la linea continua mostra un fit con uno spazio delle fasi dedotto da (b) e una gaussiana
per considerare il picco riportata anche in basso. (b) Distribuzione di massa invariante 2pπ+, la linea continua
rappresenta una funzione di best fit. Da [9].
Fig. 8 Distribuzione degli eventi mostrati in fig. 7 con l’ulteriore
condizione di una correlazione angolare opportuna tra il sistema (ppπ)
e la coppia (π+π−) che risulta dal decadimento del K0. L’istogramma
grigio si riferisce agli eventi di fig. 7b mentre quello bianco a quelli
rappresentati in fig. 7a. Da [9].
24 < il nuovo saggiatore
Fig. 9 Distribuzione della massa invariante (pdπ−) per gli eventi con
massa invariante (π−p) prossima a quella della Λ (1115 ± 30) MeV. Da [9].
T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici
massa del picco presunto è 2212,1 ± 4,9 MeV, la larghezza
24,4 ± 8,0 MeV FWHM; la significatività statistica del picco
è 3,0 σ per l’intero picco e per il suo massimo. Una migliore
significatività statistica di 3,7 σ è stata ottenuta richiedendo
una correlazione angolare tra il sistema 2pπ- e la coppia
π+π-, che risulta dal decadimento del K0 (vedi fig. 8). Anche
se il segnale si riduce, il rapporto segnale/rumore migliora.
Il limite inferiore per la probabilità di produzione del picco
è 1,5 ∙ 10-4 per fermato. Nell’ipotesi, già prospettata in [6],
che il picco osservato nello spettro di massa invariante Λp sia
un indizio del decadimento del 2H, l’energia di legame B del
sistema dovrebbe essere −160,9 ± 4,9 MeV. Questo valore è 3
volte maggiore di quello previsto in [3] e maggiore di 45 MeV
del valore sperimentale riportato in [6]. D’altra parte il valore
ottenuto per la larghezza Γ è meno della metà di quello
previsto in [3] e di quello misurato in [6].
Nello stesso articolo [9] viene riportata un’analisi dello spettro
della massa invariante Λd osservato nell’annichilazione
di su 4He. L’analisi segue gli stessi criteri usati per il caso
precedente, a parte l’ovvia differenza di identificare il deutone
al posto del protone. Lo spettro misurato di massa invariante
è mostrato in fig. 9. Il numero totale di eventi è più basso, ma
anche il fondo. Viene osservato un picco a 3190 ± 15 MeV,
con una significatività statistica di 2,6 σ, e una larghezza
inferiore a 60 MeV. Se questo segnale fosse davvero un indice
di formazione di uno stato legato, la sua energia di legame e
la larghezza sarebbero rispettivamente di −121 ± 15 MeV e
inferiore a 60 MeV. Questi valori sono in buon accordo con i
valori teorici previsti in [3] (−108 MeV e 20 MeV) ma non con
quelli sperimentali riportati da FINUDA [7]. Il limite inferiore
per la probabilità di produzione del picco è 0,39 ∙ 10-4 per
fermato.
−
4 KNC con 2K (S=−2)?
Continuando ed estendendo le considerazioni teoricofenomenologiche che avevano portato alla previsione degli
stati KNC, con energie di legame elevate e notevolmente
stretti, venne avanzata l’ipotesi che potessero esistere KNC in
cui 2 si erano legati a pochi nucleoni [10]. Gli stati previsti
erano ancora stretti e con energie di legame B maggiori.
Ad esempio, lo stato pp è previsto avere B = − 117 MeV e
Γ = 35 MeV e quello ppn B = − 221 MeV e Γ = 37 MeV.
Se la ricerca dei KNC con S = − 1 è difficile, quella dei KNC
con S = − 2 lo è ben di più, in quanto è necessario identificare
reazioni elementari in grado di trasferire una stranezza S = − 2
ad un aggregato di pochi nucleoni. Usando K− incidenti
(S = − 1) su nuclei, bisognerebbe utilizzare reazioni con K+
uscenti (S = + 1) per trasferire una stranezza S = − 2 ad un
insieme di nucleoni, sì da poter eventualmente formare un
KNC con S = − 2. Sarebbe necessario utilizzare K− in volo da
circa 2 GeV/c. Mediante è possibile avere annichilazioni
con 2K2 nello stato finale, ma non con a riposo catturati
da nuclei, almeno a prima vista. Nell’annichilazione a riposo
di l’energia rilasciata alle particelle prodotte è uguale
alla massa del sistema p o n (~ 1876 MeV), e questa
semplice considerazione esclude che i prodotti finali
dell’annichilazione includano, assieme a due kaoni, due
antikaoni, in quanto l’energia corrispondente alla massa
di 2K2 è 1974 MeV. L’annichilazione su un nucleone con
produzione di 2K2 è possibile mediante in volo, che
forniscano cioè parte dell’energia di massa mediante la loro
energia cinetica.
Se però si ipotizza che l’annichilazione avvenga non su uno
ma su due nucleoni correlati, con produzione di iperoni Λ o Σ
nello stato finale, si constata che stati finali con S = − 2 quali
ΛΛ, Λ, ΛΣ e ΣΣ sono possibili energeticamente anche con
a riposo.
Queste considerazioni indussero alcuni ricercatori di OBELIX a
cercare eventi con 2K+ nello stato finale negli eventi prodotti
dall’annichilazione di a riposo su 4He.
Si trattava della classica ricerca dell’ago nel pagliaio, in
quanto bisognava identificare pochi (se c’erano!) eventi con
2K+ nello stato finale tra tutti quelli (più di trecentomila) con 2
pioni positivi o 2 protoni nello stato finale.
Non è possibile descrivere in termini semplici i passi della
ricerca, troppo tecnici [11], basati sull’identificazione delle
particelle mediante misure di perdita di energia (∆E/∆x)
e velocità β = v/c tramite tempo di volo (TOF) in funzione
della quantità di moto misurata tramite analisi magnetica.
Il risultato fu positivo e vennero così isolati una trentina di
eventi con 2K+ nello stato finale, cioè con un trasferimento di
stranezza S = − 2 ai 3 nucleoni rimasti.
La fig. 10 rappresenta la distribuzione in ∆E/∆x e β in funzione
della quantità di moto p per gli eventi selezionati.
La certezza che si trattava degli eventi cercati, con 2K+ nello
stato finale, fu data dal fatto che, sottoponendo agli stessi
criteri di selezione gli eventi risultanti dall’annichilazione
di su protone, energeticamente non permessi, si trovò un
numero molto minore (il “fondo” strumentale).
Le frequenze di produzione dei diversi possibili canali con
produzione di 2K+ è dell’ordine di 10−4 per arrestato.
La scarsità statistica del campione raccolto non permise
però di validare l’ipotesi della produzione di KNC con S = − 2,
in quanto altri meccanismi potrebbero essere invocati
per spiegare l’osservazione. I dati sono compatibili con
l’ipotesi di KNC con S = − 2 con B = −150 MeV, coerenti con
la previsione teorica, ma il giudizio sull’affidabilità statistica,
come sottolineano gli stessi autori del lavoro [11], è lasciato al
lettore…
vol24 / no3-4 / anno2008 >
25
scienza
in primo
piano
5 Osservazioni finali e conclusione
Fig. 10 (a) Distribuzione della perdita di energia specifica ∆E/∆x (in
unità arbitrarie) in funzione dell’impulso p e distribuzione della velocità
β in funzione dell’impulso p per le particelle prodotte negli eventi
selezionati. Le linee continue in (a) delimitano le bande corrispondenti
ai mesoni K. Le linee continue in (b) rappresentano gli andamenti attesi
per protoni, kaoni e pioni. Le due linee punteggiate rappresentano la
banda entro cui si possono distribuire le β dei kaoni tenuto conto delle
risoluzioni sperimentali. Da [11].
2
H
(K−pp)
3
H
−
(K ppn)
Esistono alcune altre ricerche di KNC in corso presso altri
Laboratori, con risultati ancora in fase di elaborazione e
presentati a Conferenze e Workshop, che non sono stati
riportati qui in quanto ancora preliminari. La tab. I riassume
i dati sperimentali discussi nelle sezioni 2 e 3 e le previsioni
teoriche.
Ci possono essere due atteggiamenti nell’analizzare i numeri
riportati. Il primo, pessimistico e cautelativo, è che non c’è
compatibilità tra gli esperimenti e tra questi e la teoria,
a parte qualche eccezione. La significatività statistica dei
segnali riportati varia tra 2,6 e 3,7 σ. I segnali potrebbero
anche essere dovuti a reazioni o processi non presi in
considerazione. Il secondo, ottimistico e positivo, è che
le energie di legame B per 2H e 3H sono spostate di circa
50–60 MeV in ambedue i casi (maggiori nell’esperimento
con a riposo) e le larghezze Γ non molto dissimili. Diverse
motivazioni potrebbero essere invocate per spiegare la
discrepanza (diverse quantità di moto del sistema che decade
nei due esperimenti, variazioni della massa e larghezza
di una risonanza in diversi mezzi nucleari, diversi stati
iniziali dei bersagli nucleari). La significatività statistica è
adeguata, almeno secondo i canoni abituali. La discrepanza
con la teoria potrebbe forse essere risolta da una diversa
parametrizzazione del potenziale fenomenologico utilizzato
in [3] e [4].
Come talvolta è accaduto in Fisica Adronica, e molto spesso
in Fisica, la previsione di un nuovo, inaspettato, fenomeno
accende un grosso dibattito. La cautela è motivata da
situazioni che avevano scosso la comunità adronica in
passato (gli ipernuclei Σ, prima “scoperti” in esperimenti
a bassa statistica e poi spariti in esperimenti successivi, il
pentaquark Θ+, non ancora del tutto ritrattato, ma sempre più
criticato).
L’interesse teorico è molto vivo, come dimostrato dalle
discussioni a recenti congressi e dagli articoli pubblicati.
Diversi gruppi hanno studiato la possibile esistenza di KNC
B (MeV)
G (MeV)
Rif.
-
− 115 ± 9
67 ± 15
[6]
a riposo
− 160,9 ± 4,9
< 24,4 ± 8,0
[9]
Teoria
− 48
61
[3]
K- a riposo
− 58 ± 6
36,6 ± 14,1
[7]
− 121 ± 15
< 60
[9]
− 108
20
[4]
K a riposo
a riposo
Teoria
Tab. I Confronto tra i dati sperimentali e le previsioni teoriche
26 < il nuovo saggiatore
T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici
con approcci teorici diversi (vedi ad esempio [12]), ottenendo
energie di legame dell’ordine di 100 MeV, ma larghezze dello
stesso ordine di grandezza tali da impedire l’osservazione
sperimentale. Altri autori [13] hanno interpretato il picco
riportato in [6] come un effetto dell’interazione di stato finale
delle particelle (Λ e p) prodotte da un’interazione primaria del
K- con una coppia correlata di protoni. Gli sforzi teorici si sono
focalizzati fino ad ora principalmente sulla spettroscopia dei
sistemi, non molto invece sulle probabilità di produzione. Il
motivo è che calcoli attendibili di sezioni d’urto e di velocità
di produzione sono piuttosto difficili e probabilmente i
teorici attendono una chiara conferma dell’esistenza di questi
sistemi.
Dal punto di vista sperimentale, l’esistenza dei picchi che
dovrebbe essere dovuta all’esistenza di KNC è stata rilevata
da esperimenti non dedicati a questo scopo. Vengono attesi
con impazienza i risultati definitivi degli esperimenti in corso.
FINUDA ha recentemente concluso una fase di presa dati che
ha permesso di raccogliere una statistica 6-7 volte superiore
a quella che ha portato ai lavori [6] e [7]. Dovrebbe quindi
essere possibile incrementare di conseguenza la precisione
statistica e forse rivelare qualche altro prodotto degli schemi
di reazione rappresentati nei pannelli 1 e 2.
Recentemente è stato approvato con massima priorità
l’esperimento E15 [14] presso il nuovo complesso di
acceleratori J-PARC a Tokai (Giappone). L’esperimento
propone di studiare la reazione 3He (K-, n) a 1 GeV/c, con una
ricostruzione cinematica completa degli eventi, rivelando sia
il neutrone emesso sia i prodotti del decadimento in Λ + p
del KNC 2H eventualmente prodotto. L’obbiettivo è quello
di confermare i risultati di [6]. Infine è stata presentata una
lettera di intenti [15] per la costruzione di un complesso
rivelatore (AMADEUS) per lo studio di KNC prodotti
dall’interazione di K- fermati in un bersaglio di 4He a DAΦNE
(LNF).
Se i risultati descritti nei paragrafi 2 e 3 verranno confermati si
potrebbe aprire un nuovo capitolo della Fisica Adronica.
Bibliografia
[1]E. Botta et al., Il Nuovo Saggiatore 18, no. 5-6 (2002) 49.
[2]E. Botta e T. Bressani, Il Nuovo Saggiatore, 18, no. 3-4 (2002) 11.
[3] Y. Akaishi e T. Yamazaki, Phys. Rev. C, 65(2002)044005.
[4]T. Yamazaki e Y. Akaishi, Phys. Lett B, 535(2002) 70.
[5]T. Suzuki et al., Nucl. Phys. A, 754(2005) 375c.
[6]M. Agnello et al., Phys. Rev. Lett., 94(2005)212303.
[7]M. Agnello et al., Phys. Lett. B, 654(2007)80.
[8]M. Agnello et al., Nucl. Phys. A, 775(2006)35.
[9] G. Bendiscioli et al., Nucl. Phys. A, 789(2007)222.
[10]T. Yamazaki et al., Phys. Lett. B, 587(2004)167.
[11] G. Bendiscioli et al., Nucl. Phys. A, 797(2007)109.
[12]N. V. Shevchenko et al., Phys. Rev. Lett., 98(2007)082301.
[13] V. K. Magas et al., Phys. Rev. C, 74(2006)025206.
[14] T. Nagae in Proc. HYP2006, The IX International Conference on
Hypernuclear and Strange Particle Physics, Mainz, Germania, Ottobre
10-14, 2006 a cura di J. Pochodzalla e T. Walcher (SIF, Springer
2007) 73.
[15] P. Kienle in Proc. HYP2006 The IX International Conference on
Hypernuclear and Strange Particle Physics, Mainz Germania Ottobre
10-14, 2006 a cura di J. Pochodzalla e T. Walcher (SIF, Springer
2007) 225.
Tullio Bressani
Professore Associato di Fisica Nucleare ininterrottamente dal 1964
al 1976, presso l’Università di Cagliari (fino al 1968) e Torino (fino
al 1976). Professore ordinario di Fisica Generale dal 1976 ad oggi,
presso l’Università di Cagliari (fino al 1984) e Torino (fino ad oggi).
Fellowship al CERN dal 1966 al 1968, poi Research Associate dal
1969. Responsabile nazionale o generale di esperimento al CERN
o altri laboratori dal 1970. Ultimi esperimenti: OBELIX-CERN e
FINUDA-LNF. Direttore del Dipartimento di Fisica dell’Università di
Cagliari dal 1983 al 1984, Direttore della sezione INFN di Torino dal
1986 al 1992. Rappresentante italiano al RECFA dal 1987 al 1992.
Rappresentante italiano in NuPECC dal 2001. Rappresentante
del MIUR nel C.D. dell’ INFN dal 2004. Autore di più di 280
pubblicazioni su riviste internazionali. Ha presentato più di 50
relazioni su invito a Conferenze, Workshop internazionali o Scuole.
È stato membro del Comitato Editoriale de Il Nuovo Cimento A dal
1992 al 2000. È Associate Editor di “Nuclear Physics A” dal 2002. È
membro dell’Editorial Board di “Nuclear Physics News International“
dal 2007. È membro del Comitato Scientifico di J-PARC (TokaiGiappone) dal 2006.
vol24 / no3-4 / anno2008 >
27
scienza in primo piano
TRASPORTO IN NANOFILI DI
SEMICONDUTTORE
STEFANO RODDARO*
Scuola Normale Superiore - Piazza dei Cavalieri 7, 56126 Pisa
Il progresso nella sintetizzazione dei nanofili di semiconduttore permette la realizzazione
di nanostrutture quasi-unidimensionali in cui le energie di banda possono essere
ingegnerizzate con grande libertà. Queste caratteristiche aprono nuove possibilità per
lo studio del trasporto di carica in dispositivi orientati alla computazione quantistica e
alla spintronica. Più in generale i nanofili presentano proprietà uniche che li rendono
promettenti come elementi attivi in una vasta gamma di nanodispositivi.
1 Introduzione
2 Nanofili di semiconduttore
I processi di fabbricazione in ambito nanotecnologico
vengono tipicamente suddivisi secondo due approcci
generali e contrapposti: la fabbricazione “top-down” e quella
“bottom-up”. Il paradigma top-down è quello classicamente
associato all’industria elettronica e ci ha abituati, nel corso
degli ultimi decenni, ad un inesorabile progresso della
miniaturizzazione. Secondo questo approccio, i dispositivi
di scala nanometrica vengono fabbricati a partire da
oggetti di dimensioni maggiori sfruttando tecniche
litografiche altamente sofisticate. Il successo di questo tipo
di nanofabbricazione richiede che i margini di precisione
diventino via via più stringenti al decrescere delle dimensioni
delle strutture da realizzare, pena la crescente imprevedibilità
delle proprietà dell’oggetto nanoscopico. All’altro estremo,
il paradigma bottom-up si basa su una filosofia alternativa
che mira piuttosto a “costruire” i sistemi fisici o i dispositivi su
scala nanometrica struttando invece opportuni meccanismi
di auto-organizzazione a livello atomico/molecolare. Questo
approccio trova una dimostrazione estrema nei meccanismi
operanti in ambito biologico ed offre il vantaggio
fondamentale di affidare i margini di precisione richiesti dalla
fabbricazione a processi di auto-assemblamento.
I nanofili di semiconduttore costituiscono un esempio di
successo nell’ambito della fabbricazione bottom-up ed
hanno attratto un significativo interesse nella comunità
scientifica della materia condensata durante gli ultimi
anni. La principale motivazione per questa particolare
attenzione è legata al fatto che i nanofili permettono di
realizzare sistemi elettronici confinati quantisticamente in
una o zero dimensioni con relativa facilità e con un grado di
miniaturizzazione, controllo e libertà per quanto concerne
la scelta dei materiali che è difficilmente eguagliabile
sfruttando gli altri sistemi di fabbricazione oggi disponibili.
I nanofili sono nanostrutture cristalline altamente anisotrope
(con un rapporto lunghezza su diametro che può facilmente
raggiungere l’ordine delle centinaia e con diametri tipici di
10–100 nm) che vengono tipicamente ottenute tramite un
processo di crescita guidata da nanoparticelle metalliche.
Questo tipo di meccanismo può essere utilizzato con diverse
tecniche di crescita e la fabbricazione di nanofili è stata
dimostrata usando sia la deposizione da fase di vapore (CVD)
che la crescita epitassiale da fasci chimici (CBE) e molecolari
(MBE). La fig. 1 riporta alcune immagini SEM a diverso
ingrandimento di nanofili InAs cresciuti con tecnica CBE a
partire da nanoparticelle di oro depositate su un substrato
InAs orientato in direzione cristallina (111), secondo la
notazione di Miller per un cristallo a simmetria cubica. Le
nanoparticelle sono state in questo caso depositate in modo
*e-mail: [email protected]
28 < il nuovo saggiatore
S. RoDdaro: trasporto in nanofili di semiconduttore
nanoparticella
di oro
200 nm
(a)
(b)
1 µm
(c)
5 µm
Fig. 1 Immagini al microscopio elettronico (inclinate di 52 gradi rispetto alla normale del
campione) di nanofili InAs cresciuti utilizzando un sistema epitassiale a fasci chimici a
partire da un substrato monocristallino di InAs. Pannello (a): dettaglio di un singolo nanofilo
con un diametro di circa 50 nm (la scala corrisponde a 200 nm). Pannello (b): matrice
ordinata di nanofili; i nanocristalli possono essere cresciuti con una grande omogeneità
(la scala corrisponde a 1 µm). Pannello (c): immagine a più piccolo ingrandimento (scala di
5 µm) di una matrice di nanofili.
ordinato tramite litografia a fascio elettronico e sono ancora
visibili sulla sommità dei vari nanofili. Durante la crescita,
le impurezze metalliche formano una lega con il substrato
e giocano il ruolo di collettori dei materiali di crescita e
rendono possibile – data una opportuna scelta dei parametri
(pressioni parziali dei vari precursori chimici e temperatura
del substrato) – una crescita preferenziale alla posizione della
nanoparticella. L’analisi di questo meccanismo di crescita
risale agli studi pionieristici di R. S. Wagner e W. C. Ellis sui fili
di silicio presso il laboratori della Bell [1] e viene tipicamente
indicato come un processo VLS (crescita in fase vaporeliquido-solido). Recenti studi hanno tuttavia mostrato
come l’effettivo meccanismo per i semiconduttori III-V vada
effettivamente al di là di questi modelli iniziali [2, 3] e la fisica
della crescita di queste nanostrutture è ancora oggi al centro
di una significativa attività di ricerca [4, 5]. Tralasciando in
questa sede il dettaglio della fisica della crescita, uno degli
eventi che ha più catalizzato l’interesse verso i nanofili, dopo
i lavori pionieristici di K. Hiruma nei primi anni novanta [4],
è stata la possibilità di sviluppare eterostrutture all’interno
dei nanofili, ossia di controllare in fase di crescita la
composizione chimica del nanocristallo [6-8]. La realizzazione
di eterogiunzioni monocristalline di precisione quasi atomica
ha aperto grandi possibilità per la realizzazione di sistemi
confinati quantisticamente anche perché, come discusso
più nel dettaglio nel seguito, i nanofili permettono di
combinare una vasta gamma dei semiconduttori in modo
più facile rispetto alle altre tecniche di fabbricazione per le
eterostrutture.
La fig. 2 ritrae un nanofilo la cui composizione chimica è
stata modulata in fase di crescita nella direzione assiale in
modo da realizzare varie sezioni InAs e InP [6]. I pannelli (a)
e (b) riportano immagini HAADF-STEM (High Angle Annular
Dark Field-Scanning Transmission Electron Microscopy) dove
le diverse specie chimiche presenti nel nanofilo possono
essere distinte in base alla luminosità. Il dettaglio di una
singola interfaccia InAs/InP è visibile nell’immagine ad alta
risoluzione nel pannello (b) e dimostra come le giunzioni fra
i vari materiali siano monocristalline e prive di dislocazioni.
L’immagine ad alta risoluzione di (c) permette di individuare
con chiarezza la struttura atomica del nanocristallo, che è di
tipo “wurzite” invece della normale “zinco-blenda” dell’InAs.
Queste variazioni nella struttura cristallina sono piuttosto
comuni per i nanofili di semiconduttore del gruppo III-V e
costituiscono un ulteriore elemento di interesse in quanto
la loro presenza rappresenta già di per sè la realizzazione
di un nuovo materiale con proprietà (energia di gap, masse
efficaci, accoppiamento spin-orbita, ecc) diverse dal “normale”
InAs macroscopico [9]. L’importanza degli effetti di superficie
durante la crescita può essere apprezzata nel pannello (d), in
cui è chiaramente visibile la sezione esagonale di un nanofilo.
Questa forma riflette di nuovo l’inusuale struttura cristallina
del nanofilo, come anche confermato dalla trasfomata di
Fourier del pannello (e), e dimostra la grande precisione con
vol24 / no3-4 / anno2008 >
29
scienza
in primo
piano
Fig. 2 Studio TEM di un nanofilo InAs/InP eterostrutturato assialmente [6]. Pannelli (a) e (b): immagini del
nanofilo e dettaglio dell’interfaccia InAs/InP. Le micrografie con risoluzione atomica sono state ottenute con
una tecnica di miscroscopia elettronica a trasmissione con contrasto chimico. Pannello (c): immagine ad alta
risoluzione della giunzione dimostrante l’assenza di dislozazioni. Pannelli (d) e (e): immagine al microscopio
elettronico della sezione del nanofilo e relativa analisi di Fourier. Queste immagini permettono anche di
individuare inequivocabilmente la struttura wurtzite del cristallo del nanofilo.
cui è possibile realizzare queste strutture.
La fig. 3 mostra un altro esempio di nanofilo eterostutturato,
in questo caso in direzione radiale [8]. Mentre le
eterostrutture assiali possono essere realizzate cambiando
opportunamente i precursori chimici rilasciati nella
camera crescita, quelle radiali vengono ottenute giocando
ulteriormente sui parametri di crescita – in particolare la
temperatura – in modo da passare in modo controllato da
una modalità di crescita anisotropa localizzata all’impurezza
metallica ad una isotropa e non selettiva sulla posizione.
In questo modo il nanofilo può essere incapsulato da una
crescita cristallina basata su un materiale differente. La
figura ritrae un nanofilo coassiale in cui la parte centrale è
costituita da un monocristallo di Ge, avvolto da una sottile
guaina cristallina di Si. Questo tipo di eterostrutture, oltre
a permettere la passivazione degli stati alla superficie del
nanofilo interno, sono di grande utilità nella progettazione
dei sistemi confinati, come discusso più nel dettaglio nella
prossima sezione.
3 Eterostrutture e nanofili
La tecnologia dei semiconduttori eterostrutturati è ormai ben
consolidata sia nell’ambito della ricerca fondamentale (su di
essa si fonda una parte significativa degli studi su trasporto
30 < il nuovo saggiatore
ed ottica quantistici e sugli effetti Hall quantistici) che delle
applicazioni industriali (amplificatori a microonde, laser
inter/intra banda, ecc). Uno dei vantaggi fondamentali nella
creazione di cristalli artificialmente eterostrutturati consiste
nella possibilità di ottenere una così detta “ingegnerizzazione
di banda”. Sotto opportune condizioni di compatibilità nella
geometria cristallina e nelle approssimazione di massa
efficace [10], gli elettroni in banda di conduzione sentono
l’influenza della diversa composizione chimica del cristallo
nelle diverse posizioni spaziali semplicemente in termini di
uno pseudopenziale, legato alle diverse energie di banda
nelle diverse posizioni spaziali. In queste approssimazioni
i portatori obbediscono ad una equazione di Schrödinger
effettiva
per le funzioni di inviluppo y (x), dove Ec (x) e f (x) indicano
l’energia del minimo di banda e il potenziale elettrostatico
esterno nella posizione x e dove m*(x) è il tensore di massa
efficace. Un simile approccio si applica anche per le buche,
sebbene la presenza di varie bande di valenza porti ad una
pittura più complessa. L’ingenerizzazione di banda permette
quindi di “progettare” con libertà l’hamiltoniana di singola
particella per i portatori all’interno dell’eterostruttura e,
S. RoDdaro: trasporto in nanofili di semiconduttore
E
Ec
gap InP
gap InAs
Ev
Fig. 3 (a) Immagine TEM di nanofili coassiali Ge/Si e relativa analisi
spazialmente risolta della localizzazione del germanio (b) e del silicio (c);
la scala indicata nel pannello (a) corrisponde a 50 nm. (d) Profilo radiale
delle concentrazioni di Ge e Si e relativo fit teorico [8].
Fig. 4 Nelle opportune approssimazioni, i portatori carichi in un
semiconduttore eterostrutturato InAs/InP si muovono sotto l’effetto
di un potenziale efficace legato alla diversa composizione chimica
nelle varie posizioni del cristallo. In blu e rosso gli estremi della
banda di conduzione e della più energetica banda di valenza nel
nanofilo. Gli effetti di carica e sforzo meccanico interno sono stati
trascurati. La linea tratteggiata indica il livello energetico per gli
elettroni nel vuoto.
quando le condizioni sperimentali e la qualità del cristallo
lo permettono, di osservare fenomeni di confinamento
quantistico. Un esempio di struttura a bande per un nanofilo
InAs/InP è illustrato in fig. 4 e mostra come le sezioni InP
realizzino delle barriere sia per gli elettroni che per le
buche. La discontinuità in banda di conduzione può essere
determinata tramite trasporto termo-attivato e risulta essere
di ∆E = 570 meV. È opportuno notare che tale valore non può
essere determinato con precisione a partire dalle proprietà
note dell’InAs e InP per via della loro diversa struttura
cristallina quando inglobati in un nanofilo.
Una delle limitazioni centrali nello sviluppo degli eterocristalli
è – come ovvio – la compatibilità geometrica delle strutture
cristalline coinvolte: in particolare, solo materiali con passi
reticolari sufficientemente simili possono essere usati per
ottenere giunzioni di buona qualità e con un basso numero
di dislocazioni. L’utilizzo dei nanofili permette di aggirare
alcune difficoltà della crescita planare: le dimensioni laterali
relativamente piccole dei nanofili (10-100 nm) permettono
un efficace rilassamento radiale degli sforzi elastici interni
del cristallo e rendono possibile la realizzazione di giunzioni
senza dislocazioni fra strutture cristalline con passi reticolari
anche significativamente diversi (circa 3% nel caso InAs/InP)
e su grossi spessori. La flessibilità offerta dalla tecnica di
crescita dei nanofili permette persino di combinare materiali
normalmente fortemente incompatibili e realizzare, per
esempio, fili InAs su substrati di Si, aprendo quindi una nuova
strada per l’integrazione di elementi III-V ad alta mobilità ed
otticamente attivi all’interno della tecnologia attualmente
dominante nell’ambito dell’elettronica [11].
4 Sistemi a dimensionalità ridotta
Lo studio dei sistemi elettronici confinati in una o più
dimensioni ha aperto la strada ad una vera rivoluzione
nella fisica della materia condensata. I gas elettronici
bidimensionali ad alta mobilità hanno portato alla
scoperta degli effetti Hall quantistici intero e frazionario e
costituiscono tuttora una piattaforma ideale per lo studio
dei sistemi fortemente correlati, del trasporto coerente e dei
sistemi mesoscopici in genere. Lo studio del trasporto in una
dimensione ha portato alla scoperta della quantizzazione del
conduttanza e varie problematiche fondamentali rimangono
tuttora aperte in questo ambito, come l’anomalia a “0,7” [12]
e l’effettiva applicabilità dei risultati della teoria del liquido di
Luttinger in un sistema unidimensionale reale [13]. In questo
contesto, i nanofili realizzano un sistema elettronico quasiunidimensionale naturale e costituiscono un interessante
punto di partenza per lo sviluppo di nanostrutture più
complesse: il recente sviluppo di nanofili coassiali Ge/Si ha
vol24 / no3-4 / anno2008 >
31
(b)
(a)
CG
S
'S , CS
(c)
'D , CD
M.
M.
M.
.
$VG dI/dV
D
VG
(d)
scienza
in primo
piano
M.
M.
M.
Fig. 5 (a) Struttura di un transistor a singolo elettrone. (b) Oscillazioni
di Coulomb ottenute dall’alternarsi fra condizioni di bloccaggio
elettrostatico (d) e conduzione (c) attraverso l’isola.
per esempio permesso di ottenere buoni valori di mobilità
di osservare effetti di trasporto balistico nelle le singole
sottobande dovute al confinamento fino a lunghezze di
0,5 µm [14,15].
Il caso più interessante per la discussione che segue rimane
tuttavia quello dei sistemi zero-dimensionali, ossia dei
così detti “punti quantici” o – focalizzando la discussione
sul trasporto – dei transistori a singolo elettrone (SET). La
struttura di base di un SET è indicata in fig. 5 e consiste in
un’isola conduttiva accoppiata a due elettrodi di conduzione
S e D tramite barriere tunnel. Un ulteriore elettrodo G,
accoppiato esclusivamente in modo capacitivo, può essere
utilizzato per controllare il riempimento del punto quantico.
Quando l’isola ha capacità elettrostatica e dimensioni
molto piccole ed è sufficientemente disaccoppiata da S e D
(con resistenze di barriera molto superiori al quanto e 2/h),
l’energia elettrostatica richiesta per cambiare di una unità la
popolazione elettronica dell’isola può diventare determinante
e portare ad effetti di “bloccaggio Coulombiano” (CB)
nel trasporto a bassa temperatura. I sistemi CB basati su
semiconduttori sono particolarmente interessanti in quanto
le piccole masse efficaci in questi materiali (circa 0,023me
per il bordo della banda di conduzione nell’InAs) fanno sì
che le energie di confinamento quantistico siano, a parità di
geometria, significativamente più grandi che nei metalli e
possano giocare un ruolo importante. Nel regime
quantistico, i SET realizzano essenzialmente degli atomi
– o molecole, nel caso di più punti quantici accoppiati –
artificiali i cui singoli livelli possono essere progettati con
libertà e studiati tramite spettroscopia tunnel e analizzando
accuratamente il trasporto di carica attraverso l’isola. Dal
punto di vista della ricerca fondamentale, questo tipo
di sistemi è particolarmente interessante per lo studio
della manipolazione degli stati di spin di singoli portatori
intrappolati e della computazione quantistica.
Il bloccaggio o trasmissione della corrente per effetto della
32 < il nuovo saggiatore
repulsione coulombiana fra i portatori nell’isola di fig. 5a può
essere compreso in termini relativamente elementari nel limite
classico. Gli effetti di caricamento possono essere descritti
con il modello elettrostatico di fig. 5a dal quale l’energia
elettrostatica immagazzinata dell’isola quando contiene N
elettroni può essere valutata come
,
dove CS = CS + CD + CG è la capacità totale del punto quantico.
L’energia richiesta per aggiungere l’N-esimo elettrone sull’isola
sarà
,
dove i coefficienti αi = Ci / CΣ sono le “leve” dei vari elettrodi
sul potenziale dell’isola e possono servire per controllarne
il riempimento. Trascurando l’effetto capacitivo degli
elettrodi responsabili del trasporto (piccoli valori di VS/D
e/o dei coefficienti αS/D) il riempimento dell’isola sarà
controllato semplicemente dall’elettrodo G. Nel limite di
temperatura nulla gli elettroni potranno fluire attraverso
l’isola solamente quando uno dei µN si viene a trovare
nella finestra di polarizzazione degli elettrodi: in fig. 5c
è energeticamente possibile fare fluire un elettrone da
S all’isola portando il riempimento ad N e quindi ancora
trasmetterlo a D riportando l’isola a N – 1 elettroni; in
fig. 5d l’isola è stabilmente occupata da N – 1 elettroni e sia
aumentare che diminuire il suo riempimento richiede una
energia finita. A temperatura non nulla lo stesso meccanismo
funziona fintanto che l’energia termica kBT è piccola rispetto
alla distanza fra due µN consecutivi, la così detta energia di
addizione, che in questo caso semplificato corrisponde a
S. RoDdaro: trasporto in nanofili di semiconduttore
a
b
c
Fig. 6 (a) Realizzazione di un transistore a singolo elettrone utilizzando
un nanofilo eterostrutturato InAs/InP (in (b) immagine STEM, la scala
indica 10 nm). (c) Conduttanza differenziale dI/dV in funzione del
potenziale di controllo VG e del voltaggio a cavallo del dispositivo VSD ad
una temperatura di 4,2K [16].
∆µ = e2/ CΣ. In presenza di un piccolo bias e al variare della
tensione dell’elettrodo G le condizioni per la conduzione
attraverso l’isola si ripresentano periodicamente con
∆VG = |e| / CG, come mostrato nelle oscillazioni di Coulomb
della conduttanza dI/dV delineata di fig. 5b.
La presenza dei livelli quantizzati Ej nell’isola può essere
valutata in prima approssimazione tenendo conto delle
repulsioni coulombiane in termini di un accoppiamento
capacitivo, come già visto nel limite classico. In questa
approssimazione (detta di “interazione costante”), la relazioni
indicate in precedenza richiedono una semplice modifica
.
In questo caso l’energia di addizione non contiene solo
un termine di caricamento ma anche uno dovuto al
confinamento quantico ∆Ejk = Ej – Ek. Nel caso del CB
quantistico si possono individuare quindi diverse energie
di addizione a seconda degli specifici livelli quantistici
conivolti, che possono essere effettivamente distinti nel
trasporto quando la temperatura è sufficientemente bassa
(kBT << ∆E) e l’accoppiamento dell’isola è sufficientemente
piccolo (hΓS/D << ∆Ejk). Chiaramente, sarà il più piccolo ∆Ejk
disponibile a determinare le condizioni per il bloccaggio
di Coulomb dell’isola mentre l’apertura di nuovi canali di
trasporto attraverso gli stati eccitati disponibili nel punto
quantico saranno visibili nel regime non bloccato in termini di
risonanze nella conduttanza differenziale dI/dV.
La fig. 6 riporta una realizzazione di una struttura SET che
si basa su un nanofilo InAs/InP [16]. Come mostrato in
Fig. 6a, il nanoscristallo viene depositato su un substrato
conduttivo (Si degenere) con in superficie un sottile strato
dielettrico (SiO2) e contattato in cima da elettrodi metallici.
L’immagine STEM del pannello (b) ritrae la zona attiva del
nanofilo, che contiene un’isola InAs da 10 nm separata dal
resto del nanofilo tramite due barriere InP da 3 nm; l’intero
filo presenta un diametro di circa 50 nm. La fig. 6c mostra
una misura di conduttanza differenziale dI/dV ad una
temperatura di 4,2 K attraverso il dispositivo, in funzione non
solo del potenziale di controllo dell’elettrodo G, ma anche del
voltaggio VSD. Gli intervalli di CB visibili in fig. 5b evolvono a
polarizzazione finita fino a formare dei rombi di bloccaggio
(dI / dV=0, bianco in figura) che si estendono fino al valore
∆µ/|e| nella direzione VSD, con ogni rombo corrispondente
ad un diverso riempimento dell’isola. L’oscillazione periodica
nella dimensione delle regioni di stabilità si può ricollegare
al riempimento sequenziale di stati con degenerazione di
spin (∆EN, N–1= 0 e quindi ∆µ e ∆VG sono minimi quando il
riempimento è dispari) e la presenza di energie di addizione
più grosse, come indicato in figura dalla sequenza 2, 6, 8,
12, 16, 22, corrisponde al riempimento completo di intere
“shell” elettroniche, separate da un grosso contributo
∆EN,N–1 dai livelli successivi nel punto quantico. Sulla base
del diagramma di stabilità di fig. 6c è relativamente facile
configurare l’isola elettronica di InAs/InP in un ben definito
stato a pochi elettroni. La possibilità di inglobare un tale
mattone elementare in un dispositivo più complesso (per
esempio contenente elementi ibridi super-semiconduttore o
in dispositivi nanomeccanici) apre interessanti possibilità di
ricerca.
5 Punti quantici accoppiati in un sistema
unidimensionale di buche
I punti quantici eterostrutturati forniscono una piattaforma
molto robusta per realizzare dispositivi a singolo elettrone
in cui la popolazione dei singoli livelli può essere controllata
con precisione [16, 17], ma hanno il difetto di non permettere
di regolare le barriere tunnel e quindi di studiare sistemi di
punti quantici multipli con un accoppiamento controllabile.
Questa sezione presenta brevemente, tramite un caso
specifico, una strategia alternativa più flessibile che si ispira ai
vol24 / no3-4 / anno2008 >
33
scienza
in primo
piano
(a)
Vg2 (mV)
(b)
50
40
(b)
20
30
10
28
10
20
30 40
Vg2 (V)
50
60
(d)
-2.0 0.0 2.0
V (mV)
T = 250mK
300pA
0
Vg4(mV)
T = 250mK
30
26
24
22
20
g5
g1
15
20
30
25
Vg2 (mV)
35
40
0pA
Current (pA)
40
transistori ad effetto campo e si basa sull’utilizzo di una serie
di nanocontatti Schottky metallici per svuotare il nanofilo
localmente in modo da produrre delle barriere regolabili.
La fig. 7a mostra una immagine SEM in falsi colori di un
dispositivo basato su nanofili Ge/Si dove questa tecnica
viene sfruttata. Il nanofilo è stato in questo caso prima
contattato con due elettrodi di Ni (in giallo) e quindi isolato
in maniera conforme da un sottile strato di HfOx. In cima a
questo strato sono stati infine fabbricati tramite litografia
elettronica una serie di nanocontatti metallici Ti/Au (in blu)
con una periodicità di 80 nm: questi permettono di creare e
controllare una o più isole conduttive nel nanofilo per effetto
campo. Il nanofilo Ge/Si su cui si basa il dispositivo contiene
un gas di buche unidimensionale [14, 15]: come mostrato
nella parte superiore di fig. 7, le discontinuità di banda e gli
stati di superficie del Si inducono una popolazione degli stati
di buca nella banda di valenza del Ge, in una sorta di variante
della tecnica di modulazione di drogaggio ben nota per le
strutture bidimensionali. Il comportamento di un tale sistema
di buche presenta caratteristiche del tutto non banali per
via della forte interazione spin-orbita nelle bande di valenza
e del confinamento. Gli stati di buca confinati presentano
34 < il nuovo saggiatore
Fig. 7 Singoli e doppi punti quantici realizzati a partire da nanofili
coassiali Ge/Si[21]. Pannello (a): immagine al microscopio elettornico
del dispositivo in falsi colori; il nanofilo in diagonale è contattato dai
due elettrodi S e D (giallo) mentre la densità di carica è controllata
dai nanocontatti Schottky superiori (blu). Pannelli (b) e (c): misure di
bloccaggio di Coulomb attraverso il nanofilo in regime di singolo punto
quantico. Pannello (d): misura di bloccaggio di Coulomb in regime di
doppio punto quantico.
infatti una forte correlazione fra spin e moto orbitale e
di conseguenza ci si aspetta che l’accoppiamento con il
campo magnetico sia anisotropo e fortemente dipendente
dal singolo livello confinato considerato [18]. La possibilità
di controllare l’accoppiamento di spin con la geometria di
confinamento unita al fatto che la maggior parte degli isotopi
del Ge ha uno spin nucleare nullo, con un conseguente
atteso aumento nei tempi di coerenza di spin per l’assenza
di interazione iperfine, rende questo tipo di dispositivi
potenzialmente interessanti come possibili bit quantistici [19].
Le fig. 7b e 7c mostrano le oscillazioni di Coulomb e le regioni
di stabilità ottenute una configurazione a singolo punto
quantico ottenuta polarizzando le barriere g1 e g3 fino allo
svuotamento del nanofilo (Vg > 2V) e usando l’elettrodo
intermedio g2 per controllare il riempimento dell’isola.
Utilizzando i vari elettrodi disponibili è anche possibile
definire isole multiple accoppiate: la fig. 7d mostra un tipico
diagramma honeycomb per il trasporto attraverso un sistema
di due isole ottenute usando g1, g3 e g5 per definire delle
barriere sul filo Ge/Si, al variare del voltaggio applicato ai
due elettrodi di controllo g2 e g4 ( per approfondimenti vedi
[20,21]).
S. RoDdaro: trasporto in nanofili di semiconduttore
(a)
zona di
deposizione
trasduttore
4 mm
(b)
(c)
1 Mm
Fig. 8 Pannello (a): immagine ottica e di un dispositivo in sviluppo al
centro NEST-INFM-CNR di Pisa per lo studio dell’interazione fra onde
acustiche di superficie generate su substrati piezoelettrici tramite
trasduttori interdigitati e trasporto in nanofili eterostrutturati InAs/
InP/InSb. Pannello (b): micrografia al microscopio elettronico di un
singolo nanofilo contattato elettricamente con nanoelettrodi metallici
di Ni/Au. Pannello (c): le proprietà nanomeccaniche dei fili sono ancora
in larga parte inesplorate, in particolare in relazione al trasporto di
carica; l’immagine dimostra la flessibilità meccanica dei nanofili in una
configurazione ottenuta in modo sporadico durante la deposizione dei
nanofili su un substrato di SiO2.
6 Conclusioni
I nanofili di semiconduttore offrono una solida piattaforma
per la realizzazione di punti quantici con proprietà
d’eccezione come il controllo della popolazione fino all’ultimo
elettrone e le grandi energie di addizione elettronica. La
ricerca sui nanofili è ai suoi albori e promette, anche senza
citare le prospettive nel campo dell’ottica, varie eccitanti
direzioni di studio per il trasporto. Oltre alla spintronica e alla
computazione quantistica, l’investigazione dell’interazione
fra trasporto di carica e nanomeccanica [22] (fig. 8) o lo
sviluppo di sistemi ibridi [23] sono solo alcune delle possibili
evoluzioni di questo nuovo campo di ricerca.
Ringraziamenti
L’autore ringrazia il “Nanometer Structure Consortium” della
“Lunds Tekniska Högskola” per l’utilizzo di alcune delle
immagini non pubblicate riportate in questo articolo.
Stefano Roddaro
Laureato in fisica all’Università di Pisa, ha conseguito il
diploma e il dottorato in fisica alla Scuola Normale Superiore.
Attualmente è ricercatore della Scuola Normale Superiore di
Pisa presso il laboratorio NEST-INFM-CNR. Svolge attività di
ricerca nei seguenti campi: punte di contatto quantiche in gas
bidimensionali singoli ed accoppiati basati su eterostrutture
GaAs/AlGaAs ad alta mobilità; sistemi Hall quantistici in regime
mesoscopico; proprietà ottiche e visibilità della grafite sottile su
multistrati dielettrici; trasporto in nanofili di semiconduttore;
bloccaggio di Coulomb ed integrazione di nanofili in dispositivi
ad onde acustiche di superficie.
Bibliografia
[1]R. S. Wagner et al. Appl.Phys.Lett., 4 (1964) 89.
[2] K. A. Dick et al., Nano Lett., 5 (2005) 761.
[3]A. I. Persson et al., Nature Mater., 3 (2004) 677.
[4] K. Hiruma et al., J. Appl.Phys., 77 (1995) 447.
[5]L. E. Jensen et al., Nano Lett., 4 (2004) 1961.
[6]M. W. Larsson et al., Nanotechnol., 18 (2007) 015504.
[7]M. T. Björk et al., Nano Lett., 2 (2002) 87.
[8]L. J. Lauhon et al., Nature, 420 (2002) 57.
[9] J. Bao et al., Nano Lett., 8 (2008) 836.
[10] S. Datta, “Quantum Phenomena” (Addison-Wesley) 1989.
[11]T. Mårtensson et al., Nano Lett., 4 (2004) 1987.
[12] P. Roche et al., Phys. Rev. Lett., 93 (2004) 116602.
[13]O. M. Auslaender et al., Science, 308 (2005) 88.
[14] W. Lu et al., Proc. Natl. Acad. Sci. U.S.A., 102 (2005) 10046.
[15] J. Xiang et al., Nat. Nanotechnol., 1 (2006) 208.
[16]M. T. Björk et al., Nano Lett., 4 (2004) 1621.
[17]A. Fuhrer et al., Nano Lett., 7 (2007) 243.
[18] D. Csontos and U. Zülicke, Phys. Rev. B, 76 (2007) 073313.
[19] Y. Hu et al., Nature Nanotechnol., 2 (2007) 622.
[20]S. Roddaro et al., cond-mat/0706-2883.
[21] W. G. van der Weil et al., Rev. Mod. Phys., 75 (2003) 1.
[22] F. Pistolesi et al. Phys. Rev. B, 76 (2007) 165317.
[23] Y.-J. Doh et al., Science, 309 (2005) 272­.
vol24 / no3-4 / anno2008 >
35
scienza in primo piano
Il caos quantistico
Giulio casati*
Centro per i Sistemi Complessi, Università degli Studi dell’Insubria, Como
Il caos deterministico rappresenta una delle scoperte più affascinanti dello scorso secolo.
La scoperta che leggi semplici e rigorose, possono dar luogo ad un comportamento
talmente complesso da essere indistinguibile da un moto puramente caotico ha permesso
un significativo avanzamento non solo nella comprensione dei fenomeni fisici ma anche in
altre discipline che vanno dalla chimica alla economia, dalla sociologia alla psicologia.
Lo studio delle manifestazioni del comportamento caotico a livello microscopico, nel regno
della meccanica quantistica, è più recente. In questo articolo vengono presentati i concetti
fondamentali di questa disciplina che avrà un ruolo essenziale per lo sviluppo di attuali
settori di ricerca quali le nanotecnologie, il calcolo e l’informazione quantistica.
1 Il caos in meccanica classica
Lo studio del comportamento caotico dei sistemi quantistici
è un campo di indagine abbastanza recente. Esso è
importante non solo a livello fondamentale ma anche per
diversi settori di ricerca come la fisica atomica, la fisica degli
stati condensati, la fisica nucleare e, più recentemente, per il
campo della informazione e del calcolo quantistico. Al fine di
una comprensione più chiara del cosidetto “caos quantistico”
è opportuno richiamare alcuni elementi di base del caos
classico [1].
Il concetto di caos deterministico mette in crisi la nostra
immagine tradizionale di una fisica classica deterministica
e mostra invece che le soluzioni delle equazioni
deterministiche della meccanica classica sono di fatto
random ed impredicibili. L’origine di questa sorprendente
proprietà − apparentemente auto-contradditoria − è da
ricercarsi nella instabilità esponenziale del moto classico. Per
caratterizzare questa instabilità è sufficiente considerare le
equazioni del moto linearizzate attorno ad una data orbita.
*e-mail: [email protected]
URL: http://scienze-como.uninsubria.it/complexcomo/
web-casati.html
36 < il nuovo saggiatore
Per semplicità di presentazione ci limitiamo
qui alla considerazione dei sistemi hamiltoniani (non
dissipativi):
,
(1)
,
dove H = H (q, p; t) è la hamiltoniana, (q, p) sono le coordinate
dello spazio delle fasi a 2f dimensioni e x = dq, h = dp sono i
vettori f-dimensionali nel cosidetto spazio tangente. Si noti
che i coefficienti delle eq. (1) sono valutati sulla traiettoria di
riferimento e pertanto dipendono esplicitamente dal tempo.
La quantità importante che caratterizza la stabilità del moto
attorno all’orbita di riferimento è il cosidetto esponente di
Lyapounov l che è così definito:
(2)
,
dove d2 = x2 + h2 è la lunghezza del vettore tangente. È
evidente che se l > 0 allora il moto è esponenzialmente
instabile.
Il motivo per il quale la instabilità esponenziale viene
associata al moto caotico è il seguente: poichè la precisione
con la quale si possono specificare i dati iniziali è comunque
G. Casati: Il caos quantistico
finita, ne segue che, a causa della instabilità esponenziale,
quasi tutte le orbite, benchè deterministiche, sono
impredicibili. In termini più precisi, un teorema di AlekseevBrudno [2] nella teoria algoritmica dei sistemi dinamici,
afferma che l’informazione I (t) associata ad un segmento di
orbita lungo t è asintoticamente uguale a
,
(3)
dove h è la così detta entropia di Kolmogorov-Sinai che è
positiva se l > 0. Questo significa che se si vuole predire un
nuovo segmento di traiettoria è necessaria una informazione
addizionale proporzionale alla lunghezza stessa del segmento
ed indipendente dalla lunghezza precedente dell’orbita. In
altre parole questo vuol dire che non si può estrarre nessuna
informazione dalla osservazione della storia passata del
sistema. Si noti che se l’instabilità, anzichè esponenziale, fosse
solo a potenza, allora l’informazione richiesta per unità di
tempo sarebbe inversamente proporzionale alla precedente
lunghezza della traiettoria e pertanto, asintoticamente, la
predizione sarebbe possibile.
Naturalmente anche per un sistema caotico la predizione
è possibile all’interno di un intervallo di tempo
sufficientemente piccolo. Infatti possiamo introdurre il
cosidetto “parametro di caoticità” [3]
(4)
,
dove m è la accuratezza con la quale viene registrata una
traiettoria. La predizione è allora possibile all’interno di un
intervallo di tempo finito corrispondente ad r < 1 mentre per
r > 1 il moto diventa indistinguibile da una moto puramente
casuale.
L’instabilità esponenziale implica in particolare spettro
(trasformata di Fourier della funzione di autocorrelazione)
continuo, e decadimento delle correlazioni. Ciò significa che
segmenti diversi di una stessa orbita sono statisticamente
indipendenti e questa proprietà è alla base della descrizione
statistica, in termini di poche variabili macroscopiche, di
sistemi con molti gradi di libertà.
Il caos dinamico sopra descritto si riferisce ad un tipo di
comportamento delle soluzioni delle equazioni del moto
in meccanica classica. Al limite opposto di questo ci sono i
sistemi completamente integrabili che sono quei sistemi che
hanno un numero f di costanti del moto pari al loro numero f
di gradi di libertà. Le orbite di questi sistemi non sono libere
di muoversi sulla ipersuperficie della energia H (q, p) = E a
2f – 1 dimensioni ma sono confinate su tori f-dimensionali
sui quali si avvolgono con f frequenze discrete. Il moto risulta
pertanto quasi-periodico e l’instabilità solo lineare.
È utile ricordare che la dinamica classica, invece che
per mezzo delle orbite, può anche essere descritta in
termini della funzione di distribuzione che ubbidisce alla
equazione di Liouville che è una equazione lineare. In questa
descrizione, il caos dinamico implica che una qualunque
distribuzione iniziale, sufficientemente piana, tende ad
uno stato stazionario: la nube di punti iniziali si allunga
ed assottiglia esponenzialmente fino a ricoprire tutta la
superficie dell’energia con densità uniforme. Si noti che, a
seguito della reversibilità delle equazioni della dinamica, il
processo di rilassamento è reversibile nel tempo così come lo
è il moto sulle traiettorie. Tuttavia l’evoluzione della funzione
di distribuzione è non ricorrente mentre ciascuna singola
traiettoria, in accordo al teorema di ricorrenza di Poincarè
ritorna arbitrariamente vicino al punto iniziale infinite volte.
2 Il modello standard del caos deterministico
Il problema del caos quantistico nasce dal tentativo di
comprendere il fenomeno del caos dinamico classico in
termini della meccanica quantistica. Una difficoltà che si
presenta naturalmente è legata al fatto che le condizioni
per il caos classico e cioè instabilità esponenziale e spettro
continuo sono violate dalla meccanica quantistica. Infatti lo
spettro di un sistema quantistico, confinato in una regione
finita e con un numero finito di particelle, è sempre discreto
e ciò, nella teoria generale dei sistemi dinamici, corrisponde
al caso di moto regolare o integrabile. Si presenta perciò
una difficoltà concettuale: come si può riconciliare il
principio di corrispondenza − che richiede la transizione al
comportamento classico come caso limite della meccanica
quantistica − con lo spettro quantistico discreto di un
sistema che è classicamente caotico? La risposta si trova nella
esistenza di scale temporali diverse, dipendenti da ħ. Come
vedremo il moto quantistico può manifestare le proprietà
caotiche del moto classico però solo all’interno di scale
temporali finite che divergono quando ħ→ 0.
Al fine di illustrare questo meccanismo consideriamo un
modello molto semplice, il cosidetto kicked rotator [4] che è
descritto dalla seguente hamiltoniana:
(5)
,
dove k e T sono rispettivamente l’intensità e il periodo della
perturbazione , dT (t) una funzione delta periodica di periodo
T ed I il momento di inerzia.
Questo modello, pur avendo una singola coppia di variabili
coniugate, l’angolo q e il momento angolare (azione) p con
parentesi di Poisson { p, q} = 1, porta a comportamento
caotico a causa della forzante periodica.
Infatti, a causa della presenza della perturbazione deltiforme,
vol24 / no3-4 / anno2008 >
37
scienza
in primo
piano
le equazioni del moto si riducono ad una mappa che prende
il nome di Chirikov’s standard map
,
dove l’intero t è il numero dei delta impulsi. Il moto (6) si
svolge nello spazio delle fasi cilindrico |p| < ∞, 0 ≤ q ≤ 2p.
Il modello del kicked rotator (6) si presenta come molto
conveniente per lo studio del moto caotico classico e
quantistico essendo un modello molto semplice ma che
tuttavia contiene gran parte della ricchezza e complessità
dei sistemi dinamici. Inoltre questo modello fornisce una
descrizione locale per una vasta classe di sistemi fisici che
sono stati anche sperimentati in laboratorio (vedi sotto).
Per k >> 1 il moto classico può essere considerato ergodico,
mixing e esponenzialmente instabile con coefficiente di
Lyapounov (a parte piccole isole di stabilità che si possono
trascurare) l ≈ ln (k/2). In particolare la variabile azione p ha
un comportamento diffusivo tipo random walk con
⟨ pt2 ⟩ = ⟨ p02 ⟩ + Dt e coefficiente di diffusione D =
.
La quantizzazione del sistema (6) porta, in analogia al caso
classico, ad una mappa quantistica yt+1 = Uyt per la funzione
d’onda yt (q) dove l’operatore unitario U, detto operatore di
Floquet, si scrive [4]
(7)
dove p =
,
.
3 Le scale temporali del caos quantistico e la
localizzazione
Al fine di capire l’esistenza ed il significato delle diverse scale
temporali è istruttivo confrontare l’evoluzione classica e
quantistica del kicked rotator partendo dalle stesse condizioni
iniziali. Come sappiamo, il teorema di Ehrenfest asserisce
che un pacchetto quantistico iniziale segue il fascio di orbite
classiche fino a quando il pacchetto rimane stretto. Durante
questo intervallo di tempo perciò il moto quantistico è
esponenzialmente instabile come quello classico. Tuttavia
la larghezza iniziale del pacchetto quantistico è limitata
inferiormente dalla cella elementare quantistica dello spazio
delle fasi che è dell’ordine di ħ, mentre la sua dimensione
finale è data dal valore della variabile azione cioè nel nostro
caso è dell’ordine di pmax . Se si parte da un pacchetto di
minima indeterminazione di dimensione Dq0 Dp0 ~ ħ, il
38 < il nuovo saggiatore
.
(8)
,
(6)
tempo durante il quale si ha crescita esponenziale è dato da
Questa è la scala temporale random o tempo Ehrenfest tr.
Si noti che tr aumenta indefinitamente quando ħ → 0, in
accordo con il principio di corrispondenza.
Dopo la scala random, il moto quantistico, analogamente a
quello classico, segue un comportamento diffusivo fino ad
un tempo tb che determineremo più avanti. Durante questo
tempo la crescita diffusiva della energia è data da
(9)
,
dove i cn sono i coefficienti dello sviluppo della funzione
d’onda nella rappresentazione del momento angolare
pϕn= ħ npϕn , – N/2 < n < N/2.
La scala temporale tb, durante la quale l’evoluzione
quantistica segue il moto diffusivo classico (9), è legata al
fenomeno della localizzazione quantistica. Gli autovettori
dell’operatore di Floquet U, dato dalla (7), sono localizzati
nella rappresentazione delle p con una lunghezza
di localizzazione ħx; la lunghezza di localizzazione
adimensionale x può essere determinata dal seguente
argomento di autoconsistenza . Inizialmente il moto
è di natura diffusiva e pertanto il numero di stati n(t)
significativamente eccitati al tempo t cresce con il tempo
come (ħn (t))2 ≈ Dt.
La crescita diffusiva può aver luogo solo fino al tempo tb
durante il quale il sistema non è in grado di risolvere la
discretezza dello spettro e cioè fino ad un tempo che è
dell’ordine dell’inverso della spaziatura media dei livelli e cioè
fino al tempo tb ≈ n (tb) ≈ x.
Queste due relazioni mostrano che le due grandezze
adimensionali x e tb sono all’incirca uguali e sono date dal
coefficiente di diffusione classico
(10)
.
Dopo tale tempo il momento ⟨ p2 ⟩t compie oscillazioni
periodiche attorno ad un valore stazionario. Un’analisi
quantitativa mostra che la distribuzione del momento
angolare raggiunge uno stato stazionario descritto da una
distribuzione esponenziale della forma
(11)
.
Nelle fig. 1 e 2, mostriamo questo fenomeno della
G. Casati: Il caos quantistico
10
-2
40000
-3
|Yn|
2
2
<n >
10
20000
10
0
0
500
1000
t
1500
2000
Fig. 1 Energia media classica (linea nera) e quantistica (linea rossa) in
funzione del tempo ottenuta per iterazione numerica delle mappe (6) e
(7) per gli stessi valori dei parametri della fig. 3.
localizzazione confrontando il comportamento diffusivo
classico e quantistico ottenuti rispettivamente mediante
integrazione numerica della mappa classica (6) e di quella
quantistica (7).
Naturalmente per poter osservare la localizzazione deve
essere x << N = pmax / ħ. Inoltre si noti che sia tb che x
divergono nel limite classico in accordo con il principio di
corrispondenza.
Nella fig. 3 mostriamo invece l’evoluzione di un pacchetto
quantistico iniziale confrontata con l’evoluzione della
corrispondente distribuzione classica. Da questo confronto
risultano evidenti sia la scala temporale random ((a)-(b))
durante la quale il pacchetto quantistico segue il fascio
di orbite classiche, sia la scala di rilassamento o tempo
di Heisenberg tb ((c)-(d)) durante la quale il pacchetto
quantistico viene distrutto ma tuttavia continua a seguire
l’evoluzione della densità in fase classica. Dopo il tempo tb la
distribuzione quantistica rimane “congelata” attorno ad una
distribuzione esponenziale mentre quella classica continua
il comportamento diffusivo descritto da una distribuzione
gaussiana ((e)-(f )).
La limitazione della diffusione classica dovuta alla
localizzazione quantistica è stata scoperta in [4].
Successivamente è stato mostrato [5] che la localizzazione
dinamica è analoga alla famosa localizzazione di Anderson
del moto elettronico in solidi disordinati. Nel nostro caso
tuttavia, non esiste alcun disordine nella hamiltoniana del
sistema che è perfettamente deterministica.
Queste previsioni sono state confermate sia da risultati teorici
[6] che sperimentali sulla eccitazione ed ionizzazione di atomi
di idrogeno sotto l’azione di microonde [7] così come in altri
sistemi atomici [8].
-4
10
-5
-2000
-1000
0
n
1000
2000
Fig. 2 Confronto tra le distribuzioni classiche e quantistiche, nella
base del momento, al tempo t = 5000. La curva blu rappresenta la
distribuzione classica gaussiana mentre la linea rossa ha pendenza x = D,
in accordo con la (10).
4 Stabilità quantistica del moto caotico
Nel paragrafo precedente abbiamo visto che risultati sia
teorici che sperimentali mostrano che il comportamento
diffusivo classico può essere soppresso o per lo meno
fortemente inibito dalla meccanica quantistica. Mostriamo
ora che l’evoluzione quantistica è stabile in contrasto con
l’instabilità esponenziale e la rapida perdita di memoria
delle condizioni iniziali che è la caratteristica di fondo del
moto classico caotico [9]. Quest’ultima proprietà è alla base
della irreversibilità che viene osservata negli esperimenti
numerici. Infatti, benchè le equazioni del moto classiche
siano reversibili, una qualunque imprecisione, non importa
quanto piccola, come ad esempio gli errori di round-off,
viene rapidamente amplificata dalla instabilità esponenziale
portando alla perdita di memoria delle condizioni iniziali ed
alla perdita di reversibilità. In fig. 4 mostriamo la sorprendente
stabilità del moto quantistico caotico in un caso semplice
ed istruttivo, quello della ionizzazione caotica diffusiva di un
atomo di idrogeno in uno stato di Rydberg sotto l’azione di
un campo di microonde [9]. In questo esperimento numerico
la velocità dell’elettrone viene invertita dopo un numero
t = 60 di periodi della microonda e si osserva il moto
successivo. Siccome sia le equazioni classiche che quelle
quantistiche sono esattamente reversibili, in assenza di errori
l’atomo di idrogeno dovrebbe ritornare al suo stato iniziale.
Tuttavia, a causa della precisione finita del calcolo numerico,
il sistema classico segue il percorso inverso di ritorno solo
per pochissimi periodi della microonda ma poi, a causa della
instabilità esponenziale, perde memoria del suo stato iniziale
e riprende un moto di tipo diffusivo. Il moto quantistico
invece ripercorre quasi esattamente il percorso precedente.
vol24 / no3-4 / anno2008 >
39
Fig. 3 Evoluzione classica e quantistica della mappa standard di Chirikov
per valori dei parametri k = 5, T = 0.2, I = 1, N = 213 = 8192. L’evoluzione
classica è stata calcolata iterando la mappa classica (6) partendo dal
tempo t = 0 con un insieme di 104 orbite scelte nell’intervallo (q, n)
∈ [2 – 0,5, 2 + 0,5] × [–2, 2]. L’evoluzione quantistica è stata ottenuta
mediante iterazione della mappa quantistica (7) partendo da un
pacchetto gaussiano di minima indeterminazione di dimensione

Dq0 = ( Dn0)-1 ~ √ T ≈ 0,5 centrato sulla distribuzione iniziale classica.
40 < il nuovo saggiatore
I punti neri rappresentano la densità nello spazio delle fasi classico.
Nel caso quantistico plottiamo la funzione di Husimi; i diversi colori
corrispondono a differenti intensità della funzione di Husimi: dal rosso
(massima intensità) al bianco (zero intensità). La figura mostra istantanee
a tempi diversi: (a) t = 0, (b) t = 1, (c) t = 3, (d) t = 10, (e) t = 500,
(f ) t = 5000. Ricordiamo che la funzione di Husimi in un dato punto è
ottenuta proiettando lo stato quantistico sullo stato coerente centrato
nello stesso punto.
G. Casati: Il caos quantistico
Fig. 4 Probabilità di ionizzazione classica (cerchi pieni) e quantistica
(cerchi vuoti) in funzione del tempo per un atomo di idrogeno sotto
l’azione di un campo esterno di microonde. Si noti la perfetta simmetria
speculare della curva quantistica rispetto al tempo di inversione t = 60.
Ciò è conseguenza del fatto che la scala di tempo random
(durante la quale c’è instabilità esponenziale del moto
quantistico) è molto più corta della scala di rilassamento
tb. L’accuratezza della reversibilità del moto quantistico è
comunque sorprendente.
Questa proprietà del moto quantistico può essere utile
nella implementazione pratica del calcolo quantistico [10]
per il quale la stabilità del calcolo in presenza ad esempio
di inevitabili imperfezioni nell’hardware di un computer, è
importante per l’elaborazione della informazione quantistica.
Una manifestazione semplice ma fondamentale del caos
quantistico è la distruzione della interferenza dovuta allo
sfasamento quantistico prodotto dal moto caotico classico.
Questo fatto si può illustrare con il noto esperimento delle
due fenditure. Consideriamo una sorgente posta all’interno
di un biliardo (risonatore ondulatorio) [11] come quello
illustrato in fig. 5. Il biliardo triangolare, con i due cateti
uguali, è integrabile. Se invece si deforma la diagonale del
triangolo in un arco di cerchio (linea tratteggiata in figura)
allora il biliardo risultante è caotico. Tale biliardo viene detto
“caotico” in quanto una particella classica che rimbalza in un
billiardo con questa forma geometrica è esponenzialmente
instabile. Consideriamo un pacchetto iniziale gaussiano
con una energia media corrispondente al 1600-esimo
stato eccitato del biliardo e con una velocità iniziale diretta
verso le due fenditure che distano tra loro di poche (circa
3) lunghezze di De Broglie. Il pacchetto iniziale viene preso
sufficientemente localizzato nel momento in modo che,
grazie al principio di indeterminazione di Heisenberg, il
suo sparpagliamento nella posizione sia dell’ordine della
dimensione del biliardo. Risolviamo poi l’equazione di
Schrödinger dipendente dal tempo e calcoliamo la radiazione
che viene trasmessa attraverso le due fenditure e che
raggiunge lo schermo sottostante. Registriamo infine la
densità di corrente di probabilità integrata I (x), in funzione
della coordinata orizzontale x sullo schermo.
In fig. 6 mostriamo il risultato di questo esperimento
numerico. In particolare notiamo che nel caso del
risonatore “caotico” non si osserva alcuna interferenza. Ciò
è la manifestazione della dinamica classica caotica che
determina una randomizzazione delle fasi delle onde che
vengono riflesse dalle pareti del biliardo. Questo risultato
è da confrontare con il risultato analogo relativo al caso di
geometria regolare del risonatore che è rappresentato dal
biliardo integrabile. In questo caso si osservano le note figure
di interferenza la cui posizione e visibilità è funzione delle
condizioni iniziali del pacchetto d’onda. Nella fig. 7 invece
mostriamo, ad un dato istante di tempo corrispondente a
circa metà del tempo di Heisenberg, la densità di probabilità
per le due geometrie, regolare e caotica. La differenza
cruciale tra i due casi è che i flussi di probabilità che escono
dalle due fenditure hanno una direzione che varia nel tempo
nel caso caotico mentre queste direzioni sono fisse nel caso
regolare. Questo spiega come mai nel primo caso le frange di
interferenza vengono distrutte mentre nel secondo caso sono
chiaramente visibili
Questi risultati possono essere interpretati alla luce delle
seguenti considerazioni: nella approssimazione di fenditure
sottili, la intensità I(x) della probabilità sullo schermo può
essere espressa in termini delle funzioni di autocorrelazione
spaziale delle autofunzioni del biliardo nelle posizioni delle
due fenditure
vol24 / no3-4 / anno2008 >
41
scienza
in primo
piano
2.5
I(regular)
I(chaotic)
(I1 + I2)/2
2
I(x)
a
1.5
1
s
l
L
screen
absorber
0.5
0
-0.8
-0.4
0
0.4
0.8
x
Fig. 5 La geometria dell’esperimento numerico delle due
fenditure. Le due fenditure sono poste sul lato inferiore del
biliardo e distano tra loro di s. Il moto all’interno del biliardo
triangolare è integrabile mentre il biliardo delimitato dalla curva
tratteggiata è caotico.
Fig. 6 L’intensità totale I (x) in funzione della posizione sullo schermo.
I (x) è ottenuta come la componente perpendicolare della corrente di
probabilità integrata nel tempo. La curva rossa intera si riferisce al caso
del biliardo regolare mentre la curva blu punteggiata si riferisce al caso
caotico. La curva verde tratteggiata mostra la media dei due esperimenti
con una sola fenditura aperta. Questa media risulta praticamente la
stessa se fatta per il caso integrabile o per quello caotico.
È noto [12] che le autofunzioni caotiche sono caratterizzate
da correlazioni spaziali che decadono − e ciò è responsabile
dello sfasamento − mentre i sistemi regolari hanno
autofunzioni con correlazioni spaziali a lungo range.
lavoro che gli unici numeri quantici buoni siano lo spin e la
parità. In questo modo si viene a costruire una teoria statistica
dei livelli energetici. Una tale teoria statistica non predirrà
la sequenza dettagliata dei livelli in un dato nucleo. Essa
descriverà invece in generale come saranno distribuiti i livelli
in un nucleo che è troppo complicato per essere capito in
dettaglio. Ciò che si richiede è una nuova meccanica statistica
nella quale noi rinunciamo non alla conoscenza esatta dello
stato del sistema ma alla natura stessa del sistema. Noi
rappresentiamo un nucleo complesso come una ‘scatola nera’
nella quale un numero grande di particelle interagisce con
leggi sconosciute. Il problema è allora di definire in modo
matematicamente preciso un insieme di sistemi in cui tutte
le possibili leggi di interazione sono ugualmente probabili.”
Queste considerazioni di Wigner hanno portato alla nascita
della teoria delle matrici random [13]. Se ilsistema quantistico
è sufficientemente complesso allora gli elementi di matrice
della hamiltoniana in una base tipica possono essere
considerati come numeri random, indipendenti, con una
distribuzione gaussiana.
5 Autovalori, autofunzioni e caos
Fino ad ora abbiamo considerato gli effetti che il caos
classico può avere sulla evoluzione dinamica di un sistema
quantistico. Consideriamo ora gli effetti indotti dal caos sulla
struttura degli autovalori e delle autofunzioni.
Già all’inizio degli anni 1950 Wigner aveva osservato che
non aveva molto senso preoccuparsi della esatta posizione
del milionesimo livello di un nucleo pesante così come
non ha senso cercare di conoscere la esatta posizione e
velocità di una molecola in un gas. “...È pertanto ragionevole”,
sostiene Wigner, “cercare di capire se gli stati altamente
eccitati possono essere compresi da un punto di vista
diametralmente opposto e cioè assumendo come ipotesi di
42 < il nuovo saggiatore
G. Casati: Il caos quantistico
Fig. 7 Densità di probabilità della funzione d’onda ad un istante fissato
(circa uguale a metà del tempo di Heisenberg) per i due casi: (a) per
il biliardo regolare a t = 0.325, e (b) per il biliardo caotico a t = 0.275.
La densità di probabilità è normalizzata in modo diverso nelle due
parti di ciascuna figura. Più precisamente la densità di probabilità, in
unità assolute, nella regione radiante è meno del 1% della densità di
probabilità all’interno del biliardo. La scala dei colori, in alto nella figura,
è proporzionale alla radice quadrata della densità di probabilità.
Naturalmente le proprietà di invarianza della hamiltoniana
impongono alcune condizioni sulle matrici. Ad esempio la
proprietà di invarianza per inversione temporale impone che
le matrici siano reali e simmetriche. In particolare il celebre
insieme gaussiano ortogonale si è rivelato particolarmente
utile per comprendere le proprietà statistiche della
distribuzione dei livelli energetici. Si osservi che la geniale
intuizione di Wigner di descrivere la distribuzione statistica
dei livelli energetici mediante matrici aleatorie era basata
sulla nozione di complessità originata dall’elevato numero
di gradi di libertà. Oggi noi abbiamo una idea molto più
precisa di complessità ed in particolare sappiamo che non
è necessario avere un alto numero di gradi di libertà. La
complessità vera del sistema è quella che deriva dal caos
deterministico anche se i gradi di libertà sono pochissimi.
Il risultato più semplice e forse anche il più importante
della teoria delle matrici random riguarda la distribuzione
statistica delle spaziature Sn = En+1– En tra livelli consecutivi.
Tale distribuzione, riscalata nel modo opportuno, ubbidisce
ad una distribuzione universale che dipende solo da alcune
Fig. 8 Distribuzione della spaziature dei livelli per (a) biliardo di Sinai,
(b) atomo di idrogeno in campo magnetico intenso, (c) una molecola
di NO2 , (d) vibrazioni di un blocco di quarzo della forma di un bilardo
di Sinai a tre dimensioni, (e) spettro di una cavità a microonde caotica,
a tre dimensioni, (f ) vibrazioni di un disco elastico a forma di un quarto
di stadio [14].
proprietà di simmetria (come la proprietà di invarianza per
riflessione temporale) e che, con grande accuratezza, è data
dalla nota distribuzione di Wigner
(12)
,
dove le costanti A and B sono determinate dalle condizioni di
∞
∞
normalizzazione ∫ 0 P(S) dS = 1, ∫ 0 SP(S) dS = 1. L’intero b è noto
come indice universale ed è b = 1 per l’insieme gaussiano di
matrici random reali, b = 2 per l’insieme gaussiano di matrici
complesse. Si noti che b è anche una misura della repulsione
dei livelli in quanto b > 0 implica che la distribuzione dei livelli
ha un massimo su un valore S > 0.
La teoria delle matrici aleatorie ha avuto un successo
straordinario nel predire le correlazioni spettrali di sistemi
quantistici complessi. Anzitutto è stata usata per gli spettri
nucleari per i quali la estrema complicazione delle interazioni
rende intuitiva l’applicazione delle matrici random. Tuttavia,
a partire dagli anni 1980, si è avuta una crescente evidenza
sperimentale che anche spettri di sistemi caotici molto
vol24 / no3-4 / anno2008 >
43
semplici avevano fluttuazioni universali descritti dalla teoria
delle matrici random. Questa osservazione e cioè che le
correlazioni spettrali a corto range di sistemi quantistici,
che sono caotici nel limite classico, ubbidiscono a leggi
di fluttuazione universali che sono descritti da insieme di
matrici a caso senza alcun parametro libero, è nota come
congettura del caos quantistico [15, 16] e, benchè non
rigorosamente dimostrata, costituisce uno dei risultati più
significativi.
Modelli paradigmatici che vengono usati per dimostrare
la validità della congettura del caso quantistico sono i
biliardi piani dispersivi nei quali il moto classico è caotico.
L’equazione stazionaria di Schrödinger per un biliardo,
cioè per una particella puntuale di massa m che si muove
liberamente all’interno di un biliardo piano D ed è riflessa
elasticamente dal contorno, è data dalla nota equazione di
Helmholtz per la funzione d’onda della particella:
(13)
,
con condizioni di Dirichlet al contorno Ψ|∂D = 0.
Questa equazione ha un set discreto di soluzioni
{kn , Ψn , n = 1, 2, ...} con energie En = ħ2k2n /(2m)..
Esperimenti numerici molto accurati mostrano che la
distribuzione statistica dei livelli di tali biliardi è in accordo
con le previsioni della teoria delle matrici aleatorie.
Nella fig. 8 mostriamo lo spettro di un biliardo quantistico
caotico, di un atomo di idrogeno in un campo magnetico
intenso, lo spettro di eccitazione della molecola di NO2 , lo
spettro elettromagnetico di una cavità caotica a microonde,
tridimensionale. Come si vede, tutti questi sistemi mostrano
la stessa distribuzione dei livelli descritta da un insieme
gaussiano di matrici random reali ed appare avere una
caratteristica universale in quanto non dipende né dal tipo di
modello né dal tipo di interazione.
Infine vogliamo accennare al fatto che è stata dimostrata
l’esistenza di un legame tra la distribuzione statistica dei
livelli e la struttura delle orbite periodiche. In particolare,
per sistemi classicamente caotici, esiste una interessante
relazione tra l’approssimazione semiclassica dei livelli
energetici e le orbite periodiche classiche, instabili. Questa
relazione è espressa dalla trace formula [17] di Gutzwiller che
è fondata sulla approssimazione della fase stazionaria della
rappresentazione attraverso gli integrali di Feynman della
funzione di Green della equazione di Schrödinger.
6 Applicazioni del caos quantistico
Il caos quantistico trova applicazione in diversi campi della
fisica moderna. Nel seguito descriviamo alcuni esempi nei
quali il caos quantistico gioca un ruolo essenziale.
44 < il nuovo saggiatore
Fisica atomica
scienza
in primo
piano
Gli esperimenti di eccitazione ed ionizzazione di un atomo di
idrogeno in un campo di microonde rappresentano il primo
esempio di applicazione del caos quantistico [19]. In questi
esperimenti, singoli atomi di idrogeno preparati in stati
molto allungati, con numero principale alto, sono iniettati
in una cavità a microonde e poi viene misurato il tasso di
ionizzazione prodotto dalla interazione con la microonda.
Supponiamo che la frequenza della microonda sia molto
minore dell’energia di ionizzazione, addirittura minore della
energia necessaria per la transizione al livello energetico
vicino. Nonostante questo si è inspiegabilmente osservato
una ionizzazione non trascurabile quando il campo elettrico
era al di sopra di un certo valore di soglia. L’analisi teorica
(si veda ad esempio il rif. [3]) ha mostrato che questa soglia
rappresenta il valore critico della intensità del campo per la
transizione al caos classico. Sopra questa soglia si manifesta
un comportamento caotico diffusivo che porta ad eccitazione
e conseguente ionizzazione dell’atomo. Successivi risultati
sperimentali [7, 19] hanno poi pienamente confermato
le previsioni della teoria della localizzazione dinamica [6]
che porta alla soppressione del processo di eccitazione
ed ionizzazione classica dell’atomo dovuta a fenomeni di
interferenza quantistica.
Il fenomeno della localizzazione dinamica è stato poi
definitivamente osservato in accurati esperimenti su atomi
freddi di cesio in onde laser stazionarie [20].
Fisica dello stato solido
I concetti base del caos quantistico hanno trovato ampia
applicazione nella fisica dello stato solido. Un esempio è
il trasporto quantistico in regime diffusivo o balistico. Un
altro esempio importante riguarda le fluttuazioni universali
della conduttanza [21] che corrispondono alle fluttuazioni
di Ericson nella fisica nucleare. Queste fluttuazioni risultano
avere proprietà statistiche universali come ad esempio nel
caso dei quantum dots quando questi hanno una forma
corrispondente a quella di un biliardo caotico. Anche
le fluttuazioni universali di conduttanza sono poi state
interpretate alla luce della teoria delle matrici random (si veda
ad esempio la rassegna [22].
Calcolo e informazione quantistica
Un calcolatore quantitisco è un sistema a molti corpi dove le
proprietà di stabilità, coerenza ed entanglement giocano un
ruolo essenziale. È pertanto evidente l’importanza del caos
quantistico per questo problema. Ad esempio la dinamica
caotica è molto efficiente nel produrre entanglement che è una
risorsa fondamentale per la elaborazione e trasmissione della
informazione quantistica [10]. D’altro lato caos e instabilità
sono certamente un problema per l’affidabilità del calcolo
quantistico e devono pertanto essere tenuti sotto controllo.
G. Casati: Il caos quantistico
7 Considerazioni conclusive
Bibliografia
Quasi tutti i risultati ottenuti nel campo del caos
quantistico sono basati su evidenza numerica e mancano
dimostrazioni rigorose. Possiamo tuttavia affermare che il
comportamento di sistemi ad una o poche particelle è ora
ragionevolmente chiaro. Quello che rimane da capire invece è
il comportamento di sistemi con molte particelle interagenti.
Ad esempio sembra che il caos quantistico sia necessario al
fine di giustificare le leggi statistiche per il trasporto diffusivo
nei sistemi a molti corpi.
A un livello più generale, è interessante osservare
che in meccanica classica esiste una teoria ergodica
sufficientemente completa che permette la comprensione
delle proprietà di equilibrio e non equilibrio dei sistemi
classici. In meccanica quantistica invece una tale teoria non
esiste. Essa sarebbe necessaria al fine di capire il processo di
rilassamento asintotico quantistico che avviene in presenza
di spettro puramente discreto e in assenza di instabilità
esponenziale.
Chiudiamo questa breve rassegna con una nota di carattere
speculativo. In meccanica quantistica dobbiamo sempre
fare i conti con lo strumento di misura che viene considerato
come un oggetto classico macroscopico e pertanto in esso
è presente il caos e l’instabilità esponenziale. In realtà ciò è
addirittura necessario in quanto uno strumento di misura
deve essere instabile poichè una piccola variazione deve
produrre un effetto macroscopico.
Il caos è importante nel processo quantistico di misura
in quanto esso distrugge la coerenza dello stato puro da
misurare trasformandolo in una miscela incoerente. Nelle
teorie esistenti della misura quantistica questo effetto è
attribuito al rumore dell’ambiente esterno. La teoria del caos
permette di fare a meno di questa insoddisfacente ipotesi e
di sviluppare una teoria puramente dinamica della perdita di
coerenza quantistica.
[1] A. Lichtenberg and M. Lieberman, “Regular and Stochastic Motion”
(Springer, Berlin) 1983.
[2] V. M. Alekseev and M. V. Yakobson, Phys. Rep., 75 (1981) 287.
[3] G. Casati and B. V. Chirikov, “Quantum Chaos” (Cambridge
University Press, Cambridge)1995.
[4] G. Casati, B. V. Chirikov, F. M. Izrailev, and J. Ford, “Stochastic
Behavior in Classical and Quantum Hamiltonian Systems’’, Lect.
Notes Phys., 93, a cura di F. G. Casati e J. Ford (Springer-Verlag,
Berlin) 1979, p. 334.
[5]S. Fishman, D. Grempel and R. Prange, Phys. Rev. Lett., 49 (1982)
509.
[6] G. Casati, B. V. Chirikov and D. L. Shepelyansky, Phys. Rev. Lett., 53
(1984) 2525.
[7] E. J. Galvez, B. E. Sauer, L. Moorman, P. M. Koch, and D. Richards,
Phys. Rev. Lett., 61(1988) 2011; J. E. Bayfield, G. Casati, I. Guarneri,
and D. W. Sokol, Phys. Rev. Lett., 63(1989) 364; M. Arndt,
A. Buchleitner, R. N. Mantegna, and H. Walther, Phys Rev. Lett., 67
(1991) 2435.
[8] F. L. Moore, J. C. Robinson, C. F. Bharucha, B. Sundaram and
M. G. Raizen, Phys. Rev. Lett., 75 (1995) 4598.
[9] G. Casati, B. V. Chirikov, I. Guarneri and D. L. Shepelyansky, Phys.
Rev. Lett., 56 (1986) 2437.
[10] G. Benenti, G. Casati, and G. Strini, “Principles of Quantum
Computation and Information’’, Vol. I: “Basic concepts” (World
Scientific, Singapore) 2004, and Vol II: “Basic tools and special
topics” (World Scientific, Singapore) 2007.
[11] G. Casati and T. Prosen, Phys. Rev. A, 72 (2005) 032111.
[12] M. V. Berry, J. Phys. A, 10 (1977) 2083.
[13] M. L. Mehta, “Random Matrices and the Statistical Theory of Energy
Levels” (Academic Press, New York)1967; 2a edizione (Academic
Press, New York) 1991.
[14] H.-J. Stöckmann, “Quantum Chaos: An Introduction” (Cambridge
University Press, Cambridge) 1999.
[15] G. Casati, I. Guarneri and Valz-Gris, Lett. Nuovo Cimento, 28 (1980)
279.
[16] O. Bohigas, M.-J. Giannoni, and C. Schmit, Phys. Rev. Lett., 52
(1984) 1.
[17] M. C. Gutzwiller, “Chaos in Classical and Quantum Mechanics’’,
(Springer) 1991.
[18] J. E. Bayfield and P. M. Koch, Phys. Rev. Lett., 33 (1974) 258.
[19] J. E. Bayfield, G. Casati, I. Guarneri and D. W. Sokol, Phys. Rev. Lett.,
63 (1989) 364.
[20] B. G. Klappauf, W. H. Oskay, D. A. Steck and M. G. Raizen, Physica D,
131 (1999) 78.
[21] C. M. Marcus, A. J. Rimberg, R. M. Westervelt, P. F. Hopkins and
A. C. Gossard, Phys. Rev. Lett., 69 (1992) 506.
[22] C. W. J. Beenakker, Rev. Mod. Phys., 69 (1997)731.
Giulio Casati
Professore ordinario di fisica teorica presso l’Università degli Studi dell’Insubria. È direttore del centro di ricerca
sui sistemi nonlineari e complessi e coordinatore scientifico del Centro Volta a Como. Sin dagli inizi degli anni
‘70 si è occupato di sistemi nonlineari, caos deterministico − classico e quantistico − e fenomeni di trasporto. Ha
scoperto la localizzazione dinamica che è l’analogo della localizzazione alla Anderson, per sistemi disordinati.
Si è occupato della applicazione del caos quantistico alla fisica atomica, alla fisica dello stato solido e, più
recentemente, del problema del calcolo e della informazione quantistica. È coautore di due volumi su ” Principles
of quantum computation and information”. È stato preside della facoltà di scienze della Università degli Studi di
Milano e prorettore della Università dell’Insubria. Membro della Akademia europea, membro dell’editorial board
del Physical Review E, ha ricoperto diversi incarichi internazionali.
vol24 / no3-4 / anno2008 >
45
scienza in primo piano
­­
BOREXINO:
un rivelatore unico
per lo studio dell’oscillazione dei
neutrini di bassissima energia
Gianpaolo Bellini, Lino Miramonti, Gioacchino Ranucci
Dipartimento di Fisica dell’Università di Milano e INFN Sezione di Milano
Borexino è attualmente l’unico esperimento in grado di studiare in
tempo reale le interazioni di neutrini con energie a livello del MeV. Il
fondo estremamente ridotto del rivelatore rende possibile la misura
indipendente dei flussi di neutrini solari prodotti da tutte le reazioni:
7
Be, pep, CNO, 8B (quest’ultimo a partire da 3 MeV), e possibilmente pp.
I primi 192 giorni di presa dati hanno già permesso di ottenere la prima
misura assoluta del flusso da 7Be.
1 I neutrini solari e l’oscillazione
dei neutrini
I neutrini (simbolo ν) sono una delle
tre particelle elementari stabili della
materia; essi sono particelle neutre
e appartengono alla famiglia dei
leptoni. Esistono in tre tipi diversi: il
neutrino-elettrone (νe), il neutrinoµ (νµ), il neutrino-τ (ντ). Questi tre
neutrini non sono identici e si ricordano
permanentemente della loro origine, se
sono stati prodotti in un decadimento
elettronico β o se provengono da
un decadimento del leptone µ o del
leptone τ. Questa caratteristica è
individuata da un numero quantico,
il cosiddetto sapore leptonico, il quale
si conserva sempre; o almeno così
sembrava fino a pochi anni fa, cioè
fino a quando non si è ottenuta
evidenza sperimentale del fenomeno
dell’oscillazione.
Per il fenomeno dell’oscillazione [1],
ipotizzato da Bruno Pontecorvo negli
46 < il nuovo saggiatore
anni ‘50, un neutrino di un determinato
sapore, ad esempio il νe , viaggiando nel
vuoto o nella materia, si trasforma in un
neutrino di un altro sapore, ad esempio
il νµ. Infatti i neutrini che riveliamo,
aventi un determinato sapore, non sono
i veri autostati del neutrino, ma sono
una composizione di autostati di massa.
Così ad esempio il νe è un osservabile
ottenuto dalla sovrapposizione di due
neutrini originali, che corrispondono a
due stati di massa diversi, chiamiamoli
neutrino 1 e neutrino 2. Analogamente
si può dire del νµ che risulta essere
una sovrapposizione degli stessi stati
di massa, 1 e 2, ma con pesi diversi. Se
durante il cammino del neutrino dalla
sorgente al punto di osservazione, ad
esempio dal Sole alla Terra, oppure
attraversando la materia solare, le
percentuali degli stati 1 e 2 cambiano,
avviene che nel flusso di νe , prodotti dal
Sole, compaiano dei νµ.
Così come ci sono tre stati di sapore del
neutrino, ci sono tre autostati di massa,
m1 , m2 , m3.
Il fenomeno dell’oscillazione del
neutrino può aver luogo sia mentre
esso viaggia nel vuoto, a causa della
diversità delle masse dei suoi autostati,
sia durante l’attraversamento della
materia [2]; in questo secondo caso
gioca un ruolo importante l’interazione
con gli elettroni del mezzo, che per il
νe può essere sia di corrente carica che
di corrente neutra, mentre per gli altri
due tipi di neutrini è esclusivamente di
corrente neutra.
Le prime osservazioni che hanno fatto
ipotizzare l’esistenza del fenomeno
dell’oscillazione sono state fatte
studiando i neutrini provenienti dal
Sole, una sorgente naturale che fa
piovere su ogni cm2 della Terra, circa
60 · 109 νe al secondo, prodotti dalle
reazioni termonucleari che avvengono
nel suo nocciolo. In tali reazioni 4
protoni si fondono danno origine ad
G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc.
1a
Fig. 1a Schema delle reazioni del ciclo p-p.
Fig. 1b Schema delle reazioni del ciclo CNO.
Fig. 1c Spettro in energia dei neutrini solari. Le
frecce in basso indicano le soglie di rivelazione
degli esperimenti radiochimici; la parte in blu
rappresenta la parte dello spettro studiata da
esperimenti in tempo reale, prima di Borexino.
1b
un nucleo di elio, con rilascio di circa 26
MeV di energia. La sequenza di reazioni
termonucleari si articola in due cicli:
quello del protone-protone (pp) che
rappresenta il 98% dell’intera catena,
e quello del Carbonio-Ossigeno-Azoto
(CNO), che incide nel Sole per poco
meno del 2 %.
Il ciclo pp produce νe in quattro tipi
di reazione: pp, 7Be, pep, 8B, oltre alla
reazione hep, che però dà un contributo
molto piccolo. In fig.1a e fig. 1b sono
rappresentate le sequenze delle
reazioni dei due cicli, mentre in fig.1c
viene riprodotto lo spettro in energia
dei neutrini prodotti.
Il funzionamento del Sole è descritto
dal cosiddetto Modello Solare Standard
(MSS) [3], il cui padre John N. Bahcall
ne iniziò l’elaborazione negli anni ‘60 e
ci lavorò, migliorandolo e raffinandolo,
fino alla sua morte, avvenuta due anni
fa. In tale modello i vari meccanismi
riguardanti: le reazioni nucleari, la
propagazione dell’energia e delle
radiazioni vengono simulati in funzione
di un certo numero di parametri; i
constraints sperimentali sono pochi:
la massa del Sole, la sua luminosità, la
composizione in nuclei pesanti alla sua
1c
superficie come desunta dalle analisi
spettroscopiche e l’eliosismologia.
Il MSS predice fra l’altro i flussi dei
neutrini emessi dal Sole.
I primi esperimenti che hanno fatto
ipotizzare l’esistenza del fenomeno
dell’oscillazione del neutrino furono
esperimenti di disappearance, cioè
esperimenti nei quali si sono misurati
i flussi di νe , trovando dei valori
decisamente inferiori a quelli previsti
dal MSS. Ricordiamo i tre esperimenti
di radiochimica: Homestake, Gallex,
SAGE [4, 5]. In tali esperimenti grosse
quantità di 37Cl e 71Ga, in varie forme
vol24 / no3-4 / anno2008 >
47
chimiche, venivano immagazzinate
in grosse taniche, in laboratori
sotterranei. Il νe, interagendo con un
neutrone lo trasforma in un protone
creando dei nuclei di 37Ar e 71Ge,
rispettivamente, ambedue instabili.
Dopo una esposizione di circa un
mese, i nuclidi prodotti venivano
estratti dalla grande massa di liquido
facendo gorgogliare He e immessi,
dopo opportuno trattamento, in tubi
proporzionali, ove venivano lasciati
decadere, analizzandone i conteggi e gli
spettri energetici. In questi esperimenti
il flusso di neutrini viene misurato in
modo integrato al disopra della soglia
di rivelazione, senza distinguerne le
diverse sorgenti, né vi è la possibilità
di osservare eventuali fluttuazioni
temporali (giorno/notte, stagionali) dei
flussi stessi. In tab. 1 sono riassunte
alcune caratteristiche degli esperimenti
sui neutrini solari.
A partire dagli anni ’80 iniziarono
esperimenti, sempre di disappearance,
che hanno studiato i neutrini solari
rivelando le loro interazioni in tempo
reale. Si tratta di Kamiokande e del suo
fratello maggiore, SuperKamiokande
[6]. Sono due esperimenti giapponesi
che studiano lo scattering di neutrini
sugli elettroni dell’acqua, che costituisce
l’elemento rivelante per mezzo
dell’effetto Cherenkov. Lo scattering
elastico è indotto dai neutrini di tutti e
tre i sapori, ma le sezioni d’urto dei νµ
e dei ντ sono decisamente inferiori a
quella del νe (ad esempio la probabilità
di scattering elastico su elettrone del
νµ è circa 1/6,5 di quella del νe , alle
energie di interesse).
Kamiokande e SuperKamiokande
hanno un grossissimo problema dovuto
alla radioattività naturale. Poiché,
malgrado le grandi dimensioni di questi
esperimenti, le interazioni di neutrini
sono rare, oltre al problema dei raggi
cosmici, che viene parzialmente risolto
andando sotto terra (in verità rimane un
residuo di particelle µ), vi è il problema
della radioattività naturale la quale
è presente in tutti i materiali: solidi,
gas, liquidi, a livelli proibitivi per un
esperimento di questo tipo.
Di conseguenza in tutti gli esperimenti
sui neutrini in tempo reale, prima di
Borexino, viene imposta una soglia in
energia molto alta. Nel caso di questi
due esperimenti originariamente
la soglia era di 7,5 MeV ed è stata
successivamente ridotta a 4,5 MeV:
in questo modo tutti i decadimenti
provenienti dalle famiglie radioattive
del torio e dell’uranio sono eliminati,
Esperimento
Laboratorio
Copertura
(m acqua
equiv.)
Dimensioni
Homestake
Homestake
4100
615 ton
C2Cl4
Gallex/GNO
Gran Sasso
3500
30 ton Ga
in sol. H2O
SAGE
Baksan
4800
Kamiokande
Kamioka
SuperKamiokande
SNO
Tab. I
48 < il nuovo saggiatore
scienza
in primo
piano
in quanto l’energia più elevata, quella
dei decadimenti del tallio è comunque
inferiore (tab. 1).
Un approccio model independent è
quello dell’esperimento canadese SNO
(Sudbury Neutrino Observatory) [7], la
cui parte sensibile è costituita da 1000
tonnellate di acqua pesante e sfrutta
l’effetto Cherenkov. In tale rivelatore
vengono studiate sia le interazioni di
corrente carica (νe + d → p + p + e−),
con scambio di bosone carico, che
possono essere indotte solo da νe, sia le
interazioni di corrente neutra (νe, µ, τ + d
→ n + p +νe, µ,τ ), con scambio di bosone
neutro, che sono prodotte da neutrini
di qualunque sapore. Le interazioni di
corrente neutra sono state studiate sia
con il rivelatore riempito di sola acqua
pesante, sia con l’aggiunta di NaCl, sia
con l’inserzione di contatori a 3He, per
aumentare la probabilità di cattura del
neutrone prodotto nella reazione.
Mentre il tasso di interazioni di corrente
carica mostra un deficit rispetto a
quanto ci si poteva aspettare dalle
previsioni del MSS, il tasso di corrente
neutra è in accordo con tali previsioni.
L’interpretazione di questi dati è
molto chiara: il tasso di interazioni
che possono essere indotte solo da
νe è inferiore a quanto aspettato, sia
Reazione
Flusso
(% rispetto
SSM)
νe + 37Cl → e−+ 37Ar
≅ 33%
0,233
νe + 71Ga → e− + 71Ge
≅ 60%
50 ton Ga
in forma
metallica
0,233
νe + 71Ga → e− + 71Ge
≅ 55%
2050
3000 ton
H2O
7,5
Cherenkov
≅ 55%
Kamioka
2050
22500 ton
H2O
4,5
Cherenkov
≅ 46%
Sudbury
6000
1000 ton D2O
5,0
Cherenkov
νe + D → p + p + e− (CC)
νx + D → p + n + νx (NC)
≅ 35%
CC
Soglia
(MeV)
0,814
G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc.
in questo esperimento sia in quelli
citati prima, perchè parte dei neutrini
prodotti nel Sole si trasforma in
neutrini di altro sapore, in particolare
in νµ , e questo è dimostrato dal fatto
che invece le interazioni di corrente
neutra, prodotte da qualunque tipo
di neutrino, vanno d’accordo con le
previsioni riguardante il flusso totale
(tab. 1). Anche SNO, come tutti gli altri
esperimenti sui neutrini solari in tempo
reale ha una soglia in energia molto alta
(5 MeV).
Questo risultato, confrontato con
l’evidenza di oscillazione dei neutrini
atmosferici, ha portato alla conclusione
che nei neutrini solari esiste il fenomeno
dell’oscillazione νe-νµ (mentre
l’oscillazione νµ-ντ è tipico dei neutrini
atmosferici).
Nello studio delle oscillazioni del
neutrino i parametri che caratterizzano
il fenomeno sono le differenze delle
masse al quadrato degli autostati del
neutrino, e l’angolo di mixing. Nel caso
dei neutrini solari e quindi dei νe ed νµ ,
gli stati di massa coinvolti sono gli stati
1 e 2. Quindi i parametri sono: Dm212 e
sin2 q12 (o tan2 q12). L’intervallo di questi
parametri che può essere investigato
da un esperimento dipende quasi
esclusivamente dal rapporto E / l, ove E
è l’energia dei neutrini che inducono le
reazioni ed l è la distanza fra la sorgente
dei neutrini e il rivelatore.
Su queste considerazioni sono basate
le scelte dell’esperimento giapponese
KamLAND [8], un esperimento che
utilizza uno scintillatore liquido, il
cui progetto, sia per quanto riguarda
l’architettura sia per quanto riguarda
le metodiche, è stato ripreso molto
strettamente dal rivelatore e dagli
sviluppi tecnologici di Borexino.
KamLAND ha studiato le interazioni n−-e
prodotte dagli antineutrini da reattori
(⟨En− ⟩ ≈ 3 MeV), posti a circa 180 km di
distanza media dal rivelatore. I risultati
di KamLAND, insieme a quelli degli
altri esperimenti citati, hanno portato
a fissare i parametri di oscillazione ai
seguenti valori: Dm221= (7,58 ± 0,14 (stat)
± 0,15 (syst)) . 10–5 eV2 e tan2 q12 = 0,56
± 0,1 (stat) ± 0,1 (syst).
Va notato che, mentre i parametri di
oscillazione sono ottenuti da un fit
che coinvolge anche gli esperimenti
radiochimici con bassa soglia in
energia, il modello di oscillazione
attualmente adottato è basato sullo
studio di 1/10000 circa di tutto lo
spettro solare; praticamente la coda di
tale spettro ad alta energia. Se si calcola
la probabilità di sopravvivenza del νe ,
utilizzando i valori dei parametri citati
sopra, si ottiene la curva di fig. 2. Tale
curva è caratterizzata da un plateau a
valori di probabilità a bassa energia,
corrispondenti ad un regime nel quale
prevale l’oscillazione nel vuoto, mentre,
dopo una zona di transizione, si passa
ad un plateau a probabilità più bassa,
che corrisponde ad un regime dove
prevale l’oscillazione nella materia.
Come si vede è possibile estrarre dagli
esperimenti in tempo reale eseguiti
finora il punto quotato nella zona della
materia. Tutto il resto della curva non ha
nessuna conferma sperimentale.
2 Il rivelatore Borexino
Lo studio del fenomeno dell’oscillazione
dei neutrini solari può essere
completato solo da una misura del
rimanente 99,99% dello spettro, ed
in particolare dei flussi dei neutrini a
bassa energia. Per tale ragione, all’inizio
degli anni ’90, un gruppo di fisici italiani
coagulò intorno a sè una collaborazione
internazionale per intraprendere un
esperimento capace di studiare per la
prima volta in tempo reale i neutrini
di bassa energia, al di sotto di 1 MeV.
La Collaborazione comprende Istituti
ed Università italiane, americane,
2
Fig. 2 Probabilità di sopravvivenza del neutrino
elettronico in funzione dell’energia, con
l’indicazione dell’unico punto finora misurato.
vol24 / no3-4 / anno2008 >
49
tedesche, russe, francesi e polacche, ed
è composta oggi da circa una sessantina
tra fisici, ingegneri e tecnici.
La scelta del mezzo sensibile cadde
sullo scintillatore liquido per avere
più luce e quindi migliore risoluzione.
I limiti di radiopurezza necessari per
fare misure in tempo reale con neutrini
di energia inferiore al MeV furono
individuati in 10–16 g/g (grammi di
contaminante su grammi di sostanza)
per le famiglie del 238U e del 232Th, in
10–14 g/g per il K naturale, e in circa
10–18 per il rapporto 14C / 12C.
Fu iniziato quindi un programma di
ricerca tecnologica, che durò fino al
1996, per dimostrare la fattibilità di
un simile esperimento. Il programma
ha riguardato: la ricerca e selezione
di materiali a bassissimo contenuto
radioattivo per la costruzione del
rivelatore; lo sviluppo di parti del
rivelatore in collaborazione con
industrie di alta tecnologia (è il caso
ad esempio dei fotomoltiplicatori), la
ricerca di metodi di purificazione della
parte rivelante (lo scintillatore) che
spingessero il suo contenuto radioattivo
ai livelli di progetto sopramenzionati.
Per capire meglio la difficoltà di un
programma di questo tipo basterà
ricordare che nel caso di molti
contaminanti radioattivi si è dovuta
operare una riduzione di circa 8 ordini
di grandezza [9]!
Per purificare lo scintillatore ai livelli
richiesti furono sviluppati quattro
metodi di purificazione. L’estrazione
con acqua deionizzata (water
extraction) nella quale si è utilizzata
acqua ultrapura, ottenuta da un
impianto costruito in loco (vedi tab.2),
la distillazione sottovuoto a bassa
temperatura (l’alta temperatura facilita
l’estrazione di impurità dall’acciaio delle
linee e della colonna di distillazione),
l’utilizzo di silicagel, e lo strippaggio
con azoto ultrapuro, purificato in
loco con appositi impianti. Queste
quattro tecniche hanno permesso di
ridurre a bassissimi livelli gli isotopi
dell’uranio, del torio e del potassio,
50 < il nuovo saggiatore
ma sono del tutto inefficaci per la
rimozione del 14C presente in ogni
idrocarburo. Il problema del 14C fu
affrontato negoziando con il produttore
di pseudocumene, il solvente dello
scintillatore, l’uso di nafta proveniente
da giacimenti molto antichi, come ad
esempio quelli libici.
Un importante problema che si è
dovuto affrontare durante la fase di R&D
è che, una volta raggiunti i bassi livelli
di radioattività, era necessario misurarli.
Gli strumenti più sensibili, disponibili
per misure di contaminazioni, sono gli
spettrometri di massa con sorgente
al plasma, che possono raggiungere
sensibilità dell’ordine dei 5 · 10–14 g/g,
limite non sufficiente ai nostri scopi.
La Collaborazione Borexino decise
allora di costruire un rivelatore avente
una sensibilità sufficiente per misurare
i livelli di radiopurezza raggiunti. Fu
costruito quindi il Counting Test Facility
(CTF) [10], installato nella hall C dei
laboratori del Gran Sasso. Questo
rivelatore è una versione ridotta e molto
semplificata di Borexino: consiste in
un contenitore di nylon, dello spessore
di 0,5 mm, contenente una massa
attiva di scintillatore binario (lo stesso
che viene utilizzato per Borexino) di
4 tonnellate. La parte attiva è vista da
100 fotomoltiplicatori accoppiati a
un concentratore di luce e montati su
una struttura aperta (fig. 3 e 4). Il tutto
è circondato da circa 1000 tonnellate
di acqua ultrapura, che scherma le
radiazioni provenienti dall’esterno,
contenute in una tanica cilindrica di
acciaio a basso contenuto radioattivo.
Il CTF raggiunge una sensibilità di
5 · 10–16 g/g, che ne fa uno dei rivelatori
più sensibili al mondo, a livello di
tonnellate.
Il CTF, oltre ad avere la funzione di
bench mark per Borexino [11], ha
prodotto anche una notevole quantità
di fisica competitiva, malgrado il
limitato volume, sfruttando la sua alta
sensibilità [12].
Le misure fatte con il CTF dimostrarono
che le tecnologie sviluppate erano
scienza
in primo
piano
in grado di assicurare il successo
di Borexino: ciò avvenne nel 1995.
Nel 1996 il progetto di Borexino fu
approvato e iniziò la costruzione del
rivelatore, grazie ai finanziamenti
dell’Istituto Nazionale di Fisica Nucleare,
della National Science Foundation e
di due agenzie tedesche. Purtroppo
dall’agosto del 2002, la costruzione
del rivelatore subì un fermo di più di
tre anni, dovuto a problemi intercorsi
tra i Laboratori del Gran Sasso e le
autorità locali. Le attività furono
riprese completamente solo nella
primavera del 2005. Nell’autunno
del 2006 il rivelatore fu riempito con
acqua ultrapura, sostituita poi dallo
scintillatore già purificato. La presa dati
iniziò nel maggio 2007.
Borexino [13] ha una struttura a cipolla
(vedi fig. 5 e 6), con gusci concentrici
aventi radiopurezza crescente
muovendosi dall’esterno verso l’interno,
dove si trova la parte sensibile, cioè lo
scintillatore. La parte più esterna del
rivelatore è costituita da una cupola
d’acciaio di 16,9 metri di altezza e
di 18 metri di diametro, contenente
2100 tonnellate di acqua ultrapura,
che assicurano al rivelatore, in ogni
direzione, 2 m almeno di schermo dai
neutroni e dai raggi gamma emessi
dalla roccia. All’interno della cupola
si trova una sfera d’acciaio (SSS) di
13,7 m di diametro, che ha il compito
di contenere lo pseudocumene e
sostenere i 2214 fotomoltiplicatori
che captano la luce prodotta dallo
scintillatore (vedi fig. 7 e 8). Posizionato
nel centro della sfera si trova un
pallone di nylon (Inner Vessel) di 8,5 m
di diametro, (fig. 9) al cui interno sono
contenute circa 280 tonnellate di
scintillatore liquido, composto da
pseudocumene, il solvente, e da una
quantità di soluto (PPO, nella misura di
1,5 g/l) al fine di amplificare la resa di
luce.
Fra l’Inner Vessel e la sfera d’acciaio circa
due metri di schermo liquido, in tutte le
direzioni, assicura l’assorbimento delle
emissioni radioattive dell’acciaio della
G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc.
3
5
4
6
7
9
8
Fig. 3 Fotografia dell’apparato interno del Counting Test Facility. Sono
visibili sia l’Inner Vessel di nylon contenente lo scintillatore, sia l’Outer
Vessel, che funziona da barriera al 222Rn emesso dalle pareti di acciaio
della tanica esterna.
Fig. 4 Fotografia della struttura del Counting Test Facility. Sono visibili
sia i 100 fotomoltiplicatori montati sulla struttura di 7 m di diametro sia
l’Inner Vessel in nylon (diametro 2 m).
Fig. 5 Spaccato del rivelatore Borexino: La parte gialla rappresenta lo
scintillatore contenuto nell’Inner Vessel (il più piccolo dei cerchi individua
il volume fiduciale). La parte in azzurro chiaro rappresenta il buffer di
pseudocumene con l’aggiunta del quencher DMP, mentre la parte in
azzurro scuro esterna alla sfera d’acciaio rappresenta lo schermo di
acqua ultrapura (vedi testo).
Fig. 6 Spaccato tridimensionale del rivelatore Borexino.
Fig. 7 Installazione delle fibre ottiche per la calibrazione temporale dei
fotomoltiplicatori.
Fig. 8 Interno della sfera d’acciaio, con i fotomoltiplicatori montati, prima
dell’installazione dei vessels di nylon.
Fig. 9 Sequenza dell’installazione dei vessels di nylon all’interno della
grande sfera d’acciaio.
vol24 / no3-4 / anno2008 >
51
10
scienza
in primo
piano
11
12
Fig. 10 Vista del fondo dell’Inner Vessel con il
dettaglio del relativo sistema di ancoraggio e
monitoraggio, e dei fotomoltiplicatori sottostanti.
Fig. 11 Vista interna del rivelatore Borexino
durante la sostituzione dell’acqua ultrapura con lo
scintillatore.
Fig. 12 Vista interna del rivelatore Borexino ripresa
dalla telecamera 1 il 15 maggio 2007 al momento
del suo completo riempimento con scintillatore.
sfera e dei fotomoltiplicatori, nonché
delle residue radiazioni delle rocce e
dell’ambiente; tale liquido, detto liquido
di buffer, è costituito da pseudocumene
al quale è stato aggiunto un “quencher”
(DMP), per evitare emissioni di luce.
La scelta dello pseudocumene come
liquido di buffer, lo stesso solvente
dello scintillatore presente nell’Inner
Vessel, è dovuta alla necessità di ridurre
al minimo la spinta d’Archimede, e
quindi lo stress su di esso, tenuto conto
dello spessore del nylon (mantenuto a
soli 125 µm onde limitare al massimo
le emissioni radioattive). In fig. 10 è
mostrata la parte inferiore dell’inner
Vessel con il sistema di ancoraggio e
monitoraggio. Il volume del liquido di
52 < il nuovo saggiatore
buffer corrisponde a circa 900 tonnellate
di pseudocumene. Le prescrizioni di
progetto per la radiopurezza del liquido
di buffer possono essere attenuate di
un ordine di grandezza rispetto a quelle
dello scintillatore.
Un secondo pallone di nylon
(Outer Vessel) di 11 m di diametro è
posizionato tra la sfera d’acciaio e l’Inner
Vessel col compito di fermare il radon,
emesso dai fotomoltiplicatori e dalla
sfera d’acciaio, che essendo un gas si
diffonde facilmente e può avvicinarsi
all’Inner Vessel. In fig. 11 è mostrato
l’Inner Vessel durante la sostituzione
dell’acqua con lo scintillatore, mentre
in fig. 12 è riportata la configurazione
finale con il vessel completamente
riempito di scintillatore.
Solo 1843 fotomoltiplicatori sono
equipaggiati con un concentratore
ottico, assicurando una copertura
ottica di circa il 30%. I concentratori
sono degli Wiston cones di aluminio
elettropulito; essi captano solo i fotoni
provenienti dall’Inner Vessel. I rimanenti
fotomoltiplicatori montati sulla sfera
sono privi di concentratori ottici in
modo da permettere la captazione
anche dei fotoni provenienti dal
buffer, in modo da studiare meglio il
fondo dovuto agli eventi rivelati dallo
pseudocumene presente in esso.
All’esterno della SSS è montato un
rivelatore di µ, costituito da 200
fotomoltiplicatori, con il compito di
G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc.
registrare la luce Cherenkov emessa dai
muoni che attraversano il rivelatore.
Le pareti esterne della sfera e quelle
interne della water tank sono coperte
da fogli di Tyvek, al fine di aumentare
la diffusione della luce Cherenkov e
quindi la sua captazione da parte dei
200 fotomoltiplicatori. Il potere di
reiezione del rivelatore di µ è in grado
di ridurre di 3-4 ordini di grandezza il
flusso muonico che arriva nei Laboratori
sotterranei del Gran Sasso; tale flusso
corrisponde a 1,1 µ/m2/h.
Infine viene definito, per alcune misure
più difficili e delicate, un “volume
fiduciale” di circa 100 tonnellate
di scintillatore liquido, che viene
schermato, rispetto alla parete di nylon
dell’Inner Vessel, da circa 1,25 m di
scintillatore, che assorbe le emissioni
provenienti da essa.
Le interazioni studiate da Borexino
riguardano lo scattering elastico ν-e. Il
rivelatore misura:
a) la carica totale corrispondente
all’energia rilasciata nell’interazione;
b) la posizione dell’evento nello
spazio, mediante il timing dei
fotomoltiplicatori;
c) il tempo assoluto dell’evento
mediante GPS.
Per il punto a) la risoluzione dipende
dal numero di fotoelettroni che
corrispondono nel rivelatore al rilascio
di energia. Per il punto b) è importante
ridurre al minimo le fluttuazioni dei
tempi di risposta; per tale ragione
nello sviluppo dei fotomoltiplicatori
perseguito in collaborazione con la ditta
ETL, si è curato di ridurre al minimo
la fluttuazione sui tempi di transito
(risultato ottenuto: ≤ 1 ns) [14], mentre
è stato scelto uno scintillatore binario
con tempi di decadimento corti (nel
nostro caso: ≤ 3,5 ns) [15]. Infine le
misure temporali sono importanti per
l’individuazione delle coincidenze
ritardate che caratterizzano i fondi;
ma l’uso di due GPS è focalizzato in
particolare alla rivelazione di una
eventuale esplosione di Supernova.
3 La tecnologia di Borexino
Gli sviluppi tecnologici attuati per
Borexino hanno avuto successo,
arrivando a risultati che rappresentano
dei records nella letteratura scientifica,
e sono stati ripresi e riprodotti da altri
esperimenti e R&D attualmente in
corso. Il raggiungimento degli obiettivi
di Borexino ha comportato anche
l’adozione di una serie di misure e di
precauzioni che hanno reso complessa
la costruzione del rivelatore e fanno di
Borexino un rivelatore unico, almeno
fino ad ora.
Si sono realizzati, oltre al rivelatore,
un numero notevole di impianti
ausiliari per: la purificazione
dell’acqua, dello pseudocumene e
di una soluzione concentrata di PPO
(la cosiddetta “master solution”), la
produzione di azoto Rn free e Ar, Kr
free, il degasamento e l’umidificazione
dello scintillatore, l’impianto di
exhausting dell’azoto, gli impianti di
sicurezza, ecc. Invece di descrivere tali
impianti preferiamo qui menzionare
a grandi linee le principali tecniche
e metodologie adottate nella
realizzazione del rivelatore.
1. Purificazione dello pseudocumene
via water extraction, distillazione
a 80 mbar e 90 °C, flussaggio in
controcorrente con azoto, filtrazione
ultrafine. La master solution è stata
pulita separatamente.
2. Purificazione dell’azoto, onde
ottenere un bassissimo livello di
radon, mediante carbone attivo
criogenico. Impianto dedicato
all’azoto con ridottissima presenza
di 39Ar e 85Kr (quest’ultimo presente
nell’atmosfera come residuo dei test
nucleari).
3. Produzione di acqua ultrapura in:
Th e U, 222Rn e 226Ra (il livello del
222
Rn presente nell’acqua del Gran
Sasso ha dovuto essere ridotto di
7 ordini di grandezza).
4. Selezione spinta di tutti i
componenti per la costruzione
del rivelatore e degli impianti
ausiliari focalizzata ai bassi livelli
5.
6.
7.
8.
9.
di radioattività, come: acciaio,
guarnizioni, valvole (solo in acciaio
inox), vetro e ceramiche dei
fotomoltiplicatori, nonché resine e
colle per la loro sigillatura.
Tutte le superfici del rivelatore e
delle linee sono state elettropulite.
Sigillatura di tutti i sistemi e impianti
a livello di 10–8 bar . cm3 . s–1 per
evitare ogni minima infiltrazione di
aria, che nel laboratorio sotterraneo
contiene livelli di 222Rn fra i 40 e i
120 Bq/m3 (da confrontare con il
livello < 1 µBq / m3 accettabile nel
nostro scintillatore).
Tutte le operazioni sono state
eseguite, ove possibile, in camere
pulite di classe 10, 100 e la sfera
stessa del rivelatore è stata
mantenuta a classe 10000. Ove non
era possibile lavorare in camera
pulita, come nel caso degli impianti
ausiliari, si è lavorato all’interno di
flussi di N o Ar.
Il nylon dell’Inner e dell’Outer Vessel
è stato selezionato partendo da
pellets con contenuto radioattivo
inferiore a 10–12 g/g in U e Th ed
10–8 g/g in natK. La fibra, avente
uno spessore di soli 125 mm, è stata
estrusa in atmosfera controllata e i
vessels sono stati realizzati in camera
pulita di classe 100, nella quale l’aria
veniva fatta circolare attraverso
un sistema di carboni attivi per
diminuirne il contenuto in Rn. Una
copertura che assorbisse il radon
dell’aria è stata mantenuta intorno
ai vessels fino alla loro istallazione
nella SSS, nella quale l’aria era
stata sostituita da aria sintetica
(quindi avente un’età superiore alla
vita media del 222Rn) e da azoto
ultrapuro nella fase successiva.
L’approvvigionamento dello
pseudocumene è stato eseguito con
speciali precauzioni: una stazione
di pompaggio di circa 1 km con
linee elettropulite ed in atmosfera
di azoto è stata appositamente
istallata nello stabilimento di
produzione della Polimeri Europa a
vol24 / no3-4 / anno2008 >
53
Sarroch (Sardegna) per connettere
direttamente la colonna di
distillazione ai mezzi di trasporto. Il
trasporto veniva eseguito mediante
quattro isotanks elettropulite e
mantenute sempre in atmosfera di
azoto ed era organizzato in modo
da minimizzare l’esposizione dello
pseudocumene ai raggi cosmici,
onde mantenere a bassi livelli la
cosmogenesi di 7Be (generalmente
il trasporto impiegava circa 48 ore).
Nel laboratorio sotterraneo è stata
istallata una stazione di scarico che
connetteva direttamente l’isotank
ai contenitori della Storage Area di
Borexino.
10. Il rivelatore, le linee, tutti i
contenitori e i componenti sono
stati sottoposti ad una pulizia
di precisione mediante acidi e
detergenti per la rimozione di
particolato e polvere.
Molti altri sviluppi tecnologici sono stati
perseguiti. Ricordiamo qui solamente
uno di essi in virtù della sua specificità
ed unicità: la speciale sigillatura che è
stata sviluppata per i fotomoltiplicatori
che ne consentisse la duplice
funzionalità sia in acqua altamente
deionizzata che in pseudocumene. Data
la radicale diversità dei due ambienti
operativi è stato necessario individuare
ex-novo soluzioni basate sull’utilizzo
di resine sigillanti non standard,
che si conformassero anche alle
stringenti prescrizioni di radiopurezza
dell’esperimento.
Valori di
progetto
(scintillatore)
La prima analisi dei dati di Borexino
ha evidenziato il completo successo
delle tecnologie sviluppate e delle
tecniche adottate. I livelli di radioattività
riscontrati nello scintillatore sono più
di un ordine di grandezza inferiore
alle prescrizioni di progetto. In
tab. 2 vengono mostrati i livelli di
radiopurezza raggiunti e confrontati
con quelli di progetto.
dello pseudocumene operato con il
CTF, unito all’ ottima risoluzione in
energia, rende possibile abbassare la
soglia di analisi sino a 200 keV, aprendo
di fatto uno spazio di osservazione
anche fra 200 e 240 keV corrispondente
alla coda dello spettro di diffusione
indotto dai neutrini pp. La possibilità
effettiva di misurare il flusso dei neutrini
da pp dipende dall’accuratezza con
cui si riuscirà a modellare la risposta
del rivelatore in questa zona critica di
bassissima energia.
Con riferimento allo spettro solare in
fig. 1c, di particolare interesse, anche
per le loro implicazioni astrofisiche,
sono le due componenti di energia
appena più alta del 7Be, ovvero il flusso
del CNO e del pep. Il primo è uno
spettro continuo, che nel rivelatore è
per buona parte della sua estensione
mascherato dallo spettro di diffusione
indotto dal 7Be. Tuttavia, in virtù
del suo end-point pari a 1,47 MeV, è
osservabile sulla destra dello spettro del
7
Be, che termina a 0,665 MeV. La stessa
possibilità sussiste anche per il flusso
pep, il cui spettro di diffusione (il pep ha
un flusso monoenergetico a 1,44 MeV)
va da 0 sino al massimo di 1,22 MeV.
La regione di energia fra 1 e 2 MeV
soffre del fondo dovuto al 11C
cosmogenico, prodotto continuamente
dai µ sopravvissuti all’attraversamento
dei 1780 m di roccia, che sovrastano
il laboratorio sotterraneo del Gran
Sasso. Il suo spettro maschera proprio
l’intervallo di energia nel quale CNO
4 La fisica di Borexino
Lo straordinario livello di purezza
raggiunto nello scintillatore di
Borexino, ben oltre le iniziali specifiche
di progetto, rende concretamente
possibile aprire una vasta “finestra di
osservazione” sullo spettro del neutrino
solare, facendo leva su tre importanti
caratteristiche: la radiopurezza estrema
conseguita in termini di uranio e torio,
il bassissimo livello di presenza del 14C,
la possibilità di rigettare il 11C di origine
cosmogenica.
Il 14C costituisce il limite inferiore in
energia della finestra di esplorazione
di Borexino, a causa del suo spettro
beta con end-point a 156 keV. In
sede di progetto si era ipotizzato
che, accettando un’abbondanza
isotopica del 14C dell’ordine di 10–18
nello scintillatore, e con una adeguata
risoluzione in energia, si potesse
impostare una soglia di analisi di
250 keV. Il valore definitivo rilevato in
Borexino di 2,7 ⋅ 10–18 per il rapporto
14
C / 12C , frutto anche della selezione
232
238
nat
≅ 10−16g/g
≅ 10−16g/g
≅ 10−14g/g
Th
scienza
in primo
piano
U
K
222
Rn
Scintillatore
6,8 ± 1,5
· 10−18 g/g
1,6 ± 0,1
· 10−17 g/g
Acqua
≅ 10−14g/g
≅ 10−14g/g
85
0,01 ppm
0,03 ppt
Ar
226
Ra
< 3 · 10−14 g/g
< 1 mBq/m3
Tab. II NB. I numeri in rosso costituiscono un record assoluto nella letteratura scientifica.
54 < il nuovo saggiatore
Kr
< 1µ Bq/m3
< 0,1 µBq/m3
Azoto
39
< 0,8 mBq/m3
G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc.
e pep sono suscettibili di essere
osservati. Poiché questa è la situazione
che si è effettivamente verificata nei
dati di Borexino, la collaborazione
sta perseguendo una strategia di
identificazione e rimozione del 11C,
basata sulla tripla coincidenza tra il
µ incidente, il neutrone prodotto e il
decadimento finale del 11C.
Infine, il programma sui neutrini
solari sarà completato dalla misura
dello spettro del 8B; in questo caso il
bassissimo fondo radioattivo renderà
possibile effettuare la misura con
soglia di 3 MeV, quindi ben al di sotto
del limite di SuperKamiokande e SNO,
aprendo la prospettiva di osservare la
distorsione spettrale prevista dall’effetto
MSW e l’effetto giorno/notte, che
diventano più consistenti al di sotto di
4,5 MeV.
Nel quadro di questo scenario di
investigazione dell’intero spettro dei
neutrini solari, Borexino ha già segnato
una pietra miliare con la prima misura
mai effettuata in tempo reale, e quindi
separatamente dagli altri flussi, dei
neutrini dal 7Be. La massa fiduciale di
100 tonnellate del volume fiduciale
rivela il 7Be con alta statistica (circa 50
eventi/giorno) rendendo possibile una
prima significativa misura già dopo i
primi 47 giorni di presa dati [16].
Ma vediamo quali sono le performances
di Borexino, riferendoci a 192 giorni di
effettiva presa dati [17]. La resa di luce
è stata stimata operando il fit dello
spettro beta del 14C ed è risultata essere
di circa 500 fotoelettroni per MeV di
energia depositata nello scintillatore;
questo valore permette una risoluzione
spaziale ≅ 16 cm a 500 keV e una
risoluzione energetica dell’ordine del
6 % a 1 MeV.
Il 232Th è stato studiato attraverso i figli
del 220Rn, assumendo valido l’equilibrio
secolare e misurando le coincidenze
ritardate 212Bi-212Po (τ = 432,8 ns). Il
risultato ottenuto è inferiore a 6.8 ±
1,5 · 10–18 g/g in 232Th equivalente. Il
contenuto di 238U, studiato attraverso
le coincidenze ritardate 214Bi-214Po
(τ=236 µs), ha dato come risultato un
valore inferiore a 1,6 ± 0,1 · 10–17 g/g in
238
U equivalente.
Venendo ora allo studio del neutrino
solare, lo spettro grezzo, ottenuto con i
dati raccolti in 192 giorni, è mostrato in
fig. 13 (linea nera), unitamente a quelli
ottenuti con la successiva applicazione
del taglio di volume fiduciale e dei
µ cosmici (R < 3m, linea blu) e della
discriminazione alfa-beta, possibile
nello scintillatore di Borexino (linea
rossa). In particolare, l’identificazione
degli eventi alfa rimuove il picco, molto
evidente nei primi due spettri, dovuto
alla presenza del 210Po. Lo spettro finale
è quello in rosso, le cui caratteristiche
immediatamente rilevabili sono tre:
a) il chiaro segnale a bassa energia del
14
C, b) la segnatura incontrovertibile
dell’avvenuta rivelazione dei neutrini
da 7Be costituita dal Compton-like
edge (punto in cui termina lo spettro
di rinculo degli elettroni diffusi dai
neutrini) a circa 300 fotoelettroni;
c) lo spettro esteso (fra 1 e 2 MeV) del
11
C di origine cosmogenica. Data la
molteplicità delle componenti presenti
nello spettro, la determinazione precisa
del tasso di conteggio di ciascuna
di esse, e quindi in particolare dei
neutrini del 7Be, richiede l’assunzione
della forma degli spettri dei singoli
contributi e la loro utilizzazione nei fit
dei dati sperimentali (spettro in rosso
dopo i tagli in fig. 13). Il segnale atteso
contempla, oltre al 7Be, anche le altre
sorgenti di neutrini solari, ovvero i
neutrini pp, pep e CNO, mentre il fondo
è costituito dai già citati 14C e 11C, e
dal kripton , la cui presenza è stata
individuata sfruttando la coincidenza
beta-gamma del decadimento beta
del 85Kr nel 85mRb, seguito dalla
diseccitazione di quest’ultimo con
emissione di un gamma di 514 keV
(B.R. 0,43 %).
In fig. 14 si mostra lo spettro
sperimentale, le varie componenti
del segnale e del rumore, ed il fit
complessivo. Il valore del χ2 ridotto è
pari a 1,06, indicativo del buon grado di
aderenza ai dati del modello. Il valore
del tasso di eventi indotti nel rivelatore
dai neutrini da 7Be (a 0,862 MeV) risulta
pari a 49 ± 3 (errore statistico), al quale
si aggiunge un errore sistematico di ± 4
conteggi, dovuto principalmente alla
definizione del volume fiduciale e della
scala di energia.
Il valore ottenuto per il flusso del 7Be
permette sia di escludere l’ipotesi
di non oscillazione (che darebbe
un tasso di 74 ± 2) sia di operare
un primo confronto con il modello
attualmente adottato per il fenomeno
dell’oscillazione del neutrino. In fig. 15
viene riproposta la stessa funzione, già
presentata in fig. 2, per la probabilità
di sopravvivenza del νe , con l’aggiunta
dei valori ottenuti da Borexino per il
7
Be e le stime che si possono ottenere
per il flusso da pp combinando i
risultati di Borexino con quelli degli
altri esperimenti. I punti sperimentali
per il 7Be sono valutati in base alle
previsioni del MSS sia nel caso di alta
che di bassa metallicità. Gli errori
della misura di Borexino, mentre non
sono in disaccordo con il modello
di oscillazione, non permettono
attualmente di discriminare fra i due
valori di metallicità, problema irrisolto
nella fisica del Sole.
In fig. 16 diamo i limiti che si possono
estrarre dai dati sperimentali sul
neutrino solare con l’aggiunta di quelli
di Borexino sui flussi da pp e CNO.
Ricordiamo infine che studiando il
possibile contributo elettromagnetico
alla sezione d’urto di diffusione del νe
[17], la Collaborazione ha desunto dallo
studio dello spettro misurato del 7Be un
limite sul momento magnetico del νe di
5,4 · 10–11 µB , che rappresenta il limite
più stringente mai ottenuto con misure
di laboratorio.
vol24 / no3-4 / anno2008 >
55
13
14
15
16
17
56 < il nuovo saggiatore
18
G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc.
5 Prospettive future
Il programma di Borexino sul
neutrino solare ha come scopo,
con l’aumento della statistica e la
diminuzione dell’errore sistematico,
la determinazione del flusso da 7Be
con un errore globale non superiore al
5 %. Questo traguardo sarà facilitato
anche da una campagna di calibrazioni
con sorgenti interne al rivelatore,
in programma fra qualche mese. Il
suo raggiungimento permetterà alla
Collaborazione Borexino di confermare
o meno il modello dell’oscillazione,
attualmente adottato, nella regione di
oscillazione nel vuoto, e probabilmente
di discriminare fra alta e bassa
metallicità. I due valori di metallicità
nel Sole, attualmente in discussione,
introducono una differenza nel flusso
da 7Be di circa il 10 %.
La misura diretta del flusso da pep e
CNO darà la possibilità di mettere alla
prova il modello di oscillazione nella
zona di transizione fra regime di vuoto e
quello di oscillazione nella materia.
Lo scintillatore, come è noto, non dà
informazioni sulla direzionalità delle
particelle incidenti, come avviene ad
esempio nel caso della luce Cherenkov.
Ovviamente proprietà caratterizzanti
il neutrino solare, come l’intervallo
di energia e, ad esempio, il Compton
edge del flusso da 7Be, assicurano
l’origine dei neutrini incidenti. Ma
vi è un modo anche più diretto di
fare un test sull’origine del flusso dei
neutrini, misurando la variazione
stagionale di tale flusso, conseguenza
dell’eccentricità dell’orbita terrestre.
In fig. 17 è rappresentato il grado di
confidenza della misura di questo
effetto stagionale (che è dell’ordine
del 3%) in funzione del fondo presente
nel rivelatore. Come si può vedere, il
fondo di Borexino, che sta fra 10–18 e
10–17 g/g, Th e U equivalenti, permette
di raggiungere un grado di confidenza
superiore a 2,5 σ in un anno di presa
dati e superiore a 3,5 σ in due anni .
Borexino ha delle ottime possibilità
di ottenere risultati anche al di fuori
del campo dei neutrini solari. Ci
riferiamo allo studio degli antineutrini
emessi dalla Terra. La rivelazione delle
interazioni prodotte da antineutrino ha
una segnatura molto chiara attraverso
il processo beta inverso, con emissione
Fig. 13 Spettro (in fotoelettroni) degli eventi “row” (linea nera), dopo
il taglio del volume fiduciale (linea blu), dopo la sottrazione delle alfa
(linea rossa).
Fig. 14 Fit spettrale nella regione tra 160 e 2000 keV da cui si estrae la
misura del flusso da 7Be.
Fig. 15 Probabilità di sopravvivenza del neutrino elettronico in funzione
dell’energia, con l’indicazione dei punti desunti dai dati di Borexino.
I punti nella regione del flusso da pp rappresentano le indicazioni
indirette desunte dagli esperimenti sul neutrino solare prima e dopo
Borexino.
Fig. 16 Determinazione dei limiti dei flussi da pp e CNO, normalizzati alle
previsioni dell’MSS, così come ottenuti dall’analisi congiunta dei risultati
di Borexino e degli esperimenti pregressi (68 %, 90 % e 99 % C.L.).
Fig. 17 Sensibilità di Borexino alla variazione stagionale del flusso di
neutrini solari, dovuta all’eccentricità dell’orbita terrestre in funzione del
fondo radioattivo.
Fig. 18 Supernova: spettro del protone di rinculo prodotto dallo
scattering elastico ν-p.
di un positrone, che annichila, e di un
neutrone, che termalizza in circa 300 µs
e viene catturato con l’emissione di
un gamma da 2,2 MeV. Come è noto i
vari modelli della Terra attribuiscono
alla radioattività una parte del calore
interno che va dal 40 al 100 %. In
Borexino, in base ai vari modelli, si
attendono dai 7 ai 17 eventi all’anno.
Il grosso vantaggio riguarda il sito nel
quale il rivelatore è installato; infatti
il maggiore fondo per lo studio dei
geoneutrini è rappresentato dagli
antineutrini emessi dai reattori nucleari,
il flusso dei quali è estremamente basso
al Gran Sasso, non essendoci reattori in
un vasto raggio intorno al laboratorio.
Tenuto conto anche del livello
molto basso del fondo in Borexino, il
rapporto segnale/rumore è aspettato
≅ 1,2. Fino ad ora l’unica evidenza
di geoneutrini è quella mostrata dal
rivelatore KamLAND, il cui rapporto
segnale/rumore è ≅ 1/8, trascurando gli
effetti dell’alto livello di radioattività in
quel rivelatore.
Borexino è anche un buon osservatorio
per eventuali esplosioni di Supernovae.
In tab.3 sono riportati i flussi attesi
Canale di rivelazione
Gerarchia normale
Scattering elastico
(Eν > 0,25 MeV)
5
Antineutrino elettronico
(Eν > 1,8 MeV)
79
Scattering elastico ν-p
(Eν > 0,25 MeV)
55
12
C (n, n) 12C*
(Eγ = 15,1 MeV)
17
– e+) 12B
C (ν,
(Eν– > 14,3 MeV)
3
12
12
C (ν, e–) 12N
(Eν > 17,3 MeV)
9
Tab. III
vol24 / no3-4 / anno2008 >
57
in Borexino per l’esplosione di una
Supernova galattica standard a 10 kpc.
Focalizzandoci sullo scattering ν-p si
può osservare che per questo canale
è necessaria una soglia in energia
molto bassa, perchè il quenching,
esercitato dallo scintillatore, riduce
l’energia rivelabile del protone di
rinculo a valori molto bassi (vedi fig. 18).
Di conseguenza solo Borexino può
produrre una statistica di un certo
rilievo per questo canale. Va anche
osservato che, tenendo presente gli
spettri dei neutrini come sono ipotizzati
nell’esplosione di una Supernova, gli
eventi osservabili dello scattering su
protone riguardano soprattutto νµ e ντ.
Nel programma di Borexino vi è anche
lo studio del momento magnetico del
neutrino mediante la stessa sorgente di
51
Cr utilizzata nell’esperimento Gallex, e
attivata a livelli 2-3 MCi.
Bibliografia
[1] V. Gribov et al., Phys. Lett. B, 28 (1969)
493; J. N. Bahcall et al., Science, 191
(1976) 264; J. N. Bahcall, “Neutrino
Astrophysics” (Cambridge) 1989;
Astrophys. J., 467 (1996) 475.
[2] S. P. Mikheev et al., Sov. J. Nucl. Phys., 42
(1985) 913; L. Wolfenstein, Phys. Rev. D,
17 (1978) 2369.
[3] J. N. Bahcall et al., Astrophys. J., 631
(2005) 1281.
[4] B. T. Cleveland et al., Astrophys. J., 496
(1998) 505; K. Lande and P. Wildenhain,
Nucl. Phys. B (Proc. Suppl.), 118 (2003) 49;
R. Davis, ”Nobel Prize Lecture” (2002).
[5] W. Hampel et al., Phys. Lett. B, 447 (1999)
127; J. N. Abdurashitov et al., Phys. Rev.
Lett., 83 (1999) 4686; M. Altmann et al.,
Phys. Lett. B, 616 (2005) 174.
[6] K. S. Hirata et al., Phys. Rev. Lett., 63
(1989) 16; Y. Fukuda et al., Phys. Rev.
Lett., 81 (1998) 1562; J. P. Cravens et
al., arXiv:0803.4312v1, in corso di
pubblicazione in Phys. Rev. D (2008).
[7] Q. R. Ahmad et al., Phys. Rev. Lett., 87
(2001) 071301; B. Aharmim et al., Phys.
Rev. C, 7 (2007) 045502.
[8] S. Abe et al., arXiv:0801.4589v2, in corso
di pubblicazione in Phys. Rev. Lett. (2008).
[9] Borexino Collaboration. Astroparticle
Phys., 18 (2002) 1.
[10] Borexino Collaboration. Nucl. Instrum.
Methods A, 406 (1998) 411.
[11] BOREXINO Collaboration. Astropar. Phys.,
8 (1998) 141; Phys. Lett. B, 422 (1998) 349;
Nucl. Instrum. Methods A, 440 (2000) 360;
584 (2008) 98; 585 (2008) 48; Phys. Rev.
C, 74 (2006) 045805.
[12] BOREXINO Collaboration. Phys. Lett. B,
525 (2002) 29; 563 (2003) 23; 37; JETP
Lett., 78 (2003) 261; Eur. Phys. J. C, 37
(2004) 421; 47 (2006) 21; 54 (2008) 61.
[13] BOREXINO Collaboration. Astropart.
Phys., 16 (2002) 205.
[14] O. Ju. Smirnov et al., Instrum. Exper.
Tech., 47 (2004) 69; A. Brigatti et al., Nucl.
Instrum. Methods A, 537 (2005) 521; A.
Ianni et al., Nucl. Instrum. Methods A, 537
(2005) 683.
[15] G. Ranucci et al., Nucl. Instrum. Methods A,
412, (1998) 374.
[16] BOREXINO Collaboration Phys. Lett. B,
658,(2008) 101.
[17] BOREXINO Collaboration
arXiv:0805.3843v1.
Gianpaolo Bellini
Professore Ordinario di fisica nucleare e subnucleare all’Università di Milano, 1973-1994 membro
Consiglio Direttivo INFN, 1983-1989 membro Giunta INFN e vicepresidente (1988-89), 1980-1983
membro Council EPS, 1983-1986 membro ECFA, dal 2002 Coordinatore Scuola Internazionale di
Dottorato in Astroparticelle (ISAPP), dal 2004 Direttore Scuola di Dottorato in Fisica Astrofisica e
Fisica Applicata dell’Università di Milano, nel 2006 membro CIVR.
Fisico sperimentale delle Particelle Elementari ha condotto esperimenti al CERN, a FNAL, e come
spokesman a Serpukhov e ai LNGS.
Ha prodotto risultati originali in quattro aree: Risonanze, Collisioni di alta energia su nuclei, Sapori
pesanti, Fisica del neutrino.
È autore di 180 pubblicazioni su riviste con referees ed è editor di 10 volumi sulla Fisica delle
Particelle Elementari.
58 < il nuovo saggiatore
Scarica