scienza in primo piano La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno Fabrizio Capaccioni Istituto di Astrofisica Spaziale e Fisica Cosmica, INAF-ROMA La nostra conoscenza di Saturno, dei suoi anelli e dei suoi satelliti è stata completamente rivoluzionata dai dati che dal 2004 la missione Cassini-Huygens ha inviato a Terra. Gli strumenti a bordo della sonda hanno mostrato nuovi mondi prima inesplorati, hanno fornito preziose informazioni sulla composizione ed origine dei satelliti ghiacciati, hanno rivelato i meccanismi di interazione che sono alla base della struttura e della evoluzione dinamica degli anelli. 1 Introduzione Con uno spettacolare lancio alle prima luci dell’alba del 16 ottobre 1997 partiva, per il suo lungo viaggio verso Saturno, la missione Cassini la più complessa e ambiziosa missione mai realizzata nell’ambito dell’esplorazione planetaria per mezzo di sonde automatiche. Si realizzava così l’ambizioso sogno di un gruppo di scienziati europei e americani che, riuniti in un Joint Working Group ESA/ NASA, fin dal 1982 avevano individuato proprio nel sistema di Saturno uno straordinario laboratorio naturale dove studiare i principali fenomeni attivi nella evoluzione del Sistema Solare nel suo complesso ed avevano quindi proposto e selezionato gli obiettivi scientifici per una missione che andasse a studiare da vicino questo mondo interessante e remoto [1]. Gli obiettivi scientifici della missione sono infatti di ampio respiro e riguardano da vicino tematiche e campi di interesse diversi. In generale la planetologia, ovvero lo studio del Sistema Solare e dei corpi che lo compongono, è una scienza che richiede il contributo sinergico di discipline tra loro molto distanti e che vanno dall’astrofisica alla fisica della materia, dalla fisica dell’atmosfera alla geologia, alla geochimica e alla geofisica. I pianeti giganti Giove e Saturno rappresentano in modo straordinario la multidisciplinarietà delle scienze planetarie: i sistemi di satelliti e di anelli che orbitano intorno a questi due pianeti riproducono vol24 / no3-4 / anno2008 > un Sistema Solare in miniatura con tutte le problematiche scientifiche associate e permettono tra l’altro di studiare meccanismi di interazione gravitazionale molto simili a quelli che ebbero luogo nel disco di materia (la nebulosa primordiale) da cui ebbe origine il nostro Sistema Solare. Nella sua fase realizzativa iniziata nel 1987 la missione Cassini ha concentrato l’attività di centinaia di ingegneri e di scienziati, coordinati e finanziati da tre agenzie spaziali: l’agenzia spaziale USA (NASA) che ha realizzato l’orbiter Cassini e che gestisce la missione nel suo complesso, l’Agenzia Spaziale Europea (ESA) responsabile della realizzazione e gestione della sonda Huygens, e l’Agenzia Spaziale Italiana (ASI) che dell’orbiter ha realizzato alcuni sottosistemi cruciali per le comunicazioni e parti di alcuni strumenti scientifici sia a bordo dell’orbiter che della sonda Huygens. Questo complesso sforzo internazionale ha portato alla progettazione ed alla realizzazione di una possente macchina alta 6,7 metri , del diametro di 4 metri e dal peso al lancio di 5712 kg (fig .1) 1 < il nuovo saggiatore a bordo della quale sono ospitati i 12 strumenti dell’orbiter (tab. I) e la suite di 6 strumenti che formano il payload della sonda Huygens progettati per studiare l’atmosfera e la superficie di Titano (tab. II). Gli strumenti dell’orbiter sono raggruppati in tre categorie principali: remote sensing ottico (ISS, VIMS, UVIS, CIRS), remote sensing nelle microonde (RADAR, Radio Science) e strumenti per la misura in situ di onde, campi e particelle (CAPS, INMS,CDA, MAG, MIMI, RPWS). Il contributo italiano è rilevante e qualificato. Oltre ad una componente industriale comprendente le antenne in fibra di carbonio, che ancora oggi rappresentano lo stato dell’arte in termini di progettazione e tecnologia, e la sezione a radiofrequenza del Radio Science Subsystem e del RADAR, l’Italia ha anche dato un contributo al payload scientifico realizzando il canale visibile dello strumento VIMS sull’orbiter e lo strumento HASI sulla sonda Huygens. Un folto gruppo di scienziati italiani fanno parte dei team scientifici di diversi strumenti del payload [2-7]. Dopo il lancio la missione Cassini ha scienza in primo piano abbandonato la Terra e ha iniziato il suo lungo viaggio attraverso il Sistema Solare effettuando incontri ravvicinati con Venere (Aprile 1998 e Giugno 1999), con la Terra (Agosto 1999) e con Giove (Dicembre 2000) allo scopo di modificare la propria orbita e guadagnare quella velocità orbitale che le ha permesso di raggiungere Saturno (fig. 2). L’1 luglio 2004, con una perfetta manovra di decelerazione durante la quale la navicella è stata protetta dalla grande antenna da urti distruttivi con le particelle degli anelli, la CassiniHuygens dopo aver attraversato il piano degli anelli si è inserita in orbita intorno a Saturno ed ha finalmente raggiunto l’obiettivo formulato 22 anni prima dal gruppo di scienziati che l’avevano ideata. Il 25 dicembre 2004 è stata rilasciata la sonda Huygens che dopo circa due settimane è penetrata nell’atmosfera di Titano, il più grande dei satelliti di Saturno e l’unico satellite del Sistema Solare a possedere una densa atmosfera, e si è posata al suolo inviando le prime informazioni dirette F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno Strumento Obiettivo Scientifico Cassini Plasma Spectrometer (CAPS) Studio del plasma nella magnetosfera di Saturno Ion and Neutral Mass Spectrometer (INMS) Studio delle atmosfere estese e ionosfere di Saturno e Titano, delle esosfere dei satelliti ghiacciati Cosmic Dust Analyser (CDA) Studio dei grani di ghiacci e polveri nel sistema di Saturno Dual Technique Magnetometer (MAG) Studio del campo magnetico di Saturno, della sua interazione con gli anelli, i satelliti ed il vento solare Radio Science Subsystem (RSS) Studio del campo gravitazionale di Saturno e dei suoi satelliti, determinazione delle masse; ricerca di onde gravitazionali Magnetospheric Imaging Instrument (MIMI) Visualizzazione tridimensionale della distribuzione delle particelle cariche nel campo magnetico di Saturno Radio Plasma Wave Science (RPWS) Studio delle onde di plasma, dell’emissione radio e delle polveri Radar Studio della superficie dei satelliti (in particolare Titano): morfologia, altimetria ed emissività Composite Infrared Spectrometer (CIRS) Remote sensing nell’Infrarosso della composizione e temperatura superficiale di Saturno, i satelliti e gli anelli Imaging Science Subsystem (ISS) Remote Sensing nel visibile e vicino IR Ultraviolet Imaging Spectrograph (UVIS) Studio della struttura e composizione chimica delle atmosfere e degli anelli Visual and Infrared Mapping Spectrometer (VIMS) Studio della composizione chimica e mineralogica delle superfici dei satelliti, delle atmosfere e degli anelli Tab. I Il payload dell’orbiter Cassini. Strumento Obiettivo Scientifico Aerosol Collector and Pyroliser (ACP) Composizione chimica degli aerosol atmosferici Descent Imager / Sectral Radiometer (DISR) Studio della morfologia e composizione superficiale Doppler Wind Experiment (DWE) Velocità dei venti nell’atmosfera Gas Cromatograph / Mass Spectrometer (GCMS) Identificazione dei composti chimici nell’atmosfera Huygens Atmospheric Structure Instrument (HASI) Studio delle proprietà fisiche ed elettriche dell’atmosfera Surface Science Package (SSP) Studio delle proprietà fisiche della superficie di Titano Tab. II Il payload della sonda Huygens. 2 Fig. 1 La sonda CASSINI-HUYGENS con indicati tutti i sottosistemi più importanti e la localizzazione degli strumenti. Fig. 2 In figura è riportata in rosso la traiettoria seguita dalla sonda. Tratteggiate in nero sono riportate le orbite di Venere, della Terra, di Giove e di Saturno. Sono riportati inoltre i principali eventi: Lancio il 15 Ottobre 1997, i due incontri con Venere (26 Aprile 1998 e 24 Giugno 1999) con la terra (18 Agosto 1999), con Giove (30 Dicembre 2000) e infine con l’arrivo a Saturno (1 Luglio 2004). La minima distanza dal sole è stata di 0,62 Unità Astronomiche equivalenti a circa 90 milioni di km. vol24 / no3-4 / anno2008 > sull’atmosfera e sulla superficie di Titano. Intanto l’orbiter ha continuato il suo tour che ha permesso di effettuare una indagine sistematica e prolungata delle varie componenti del sistema di Saturno: il pianeta con la sua atmosfera e magnetosfera, gli anelli e i satelliti regolari. La missione nominale dell’orbiter terminerà nel luglio 2008, ma visti i successi scientifici e le ottime condizioni di salute della sonda (i generatori a radioisotopi garantiscono sufficiente energia per almeno altri 15 anni) la missione è stata prolungata ufficialmente dalla NASA almeno fino al 2010, e probabilmente fino al 2017 nel caso in cui venga approvata in via definitiva la seconda estensione della missione proposta dagli scienziati della Cassini-Huygens. Non soltanto la missione CassiniHuygens è caratterizzata da una forte multidisciplinarietà ma è anche una missione scientificamente molto prolifica. I circa 400 scienziati che complessivamente fanno parte dei team scientifici dei vari strumenti, coadiuvati 3 < il nuovo saggiatore da un folto gruppo di associated o participating scientists, hanno prodotto dal 2004 ad oggi più di 400 articoli su riviste con referees, con diversi numeri speciali di “Nature” e “Science” (e di riviste più specialistiche) dedicati ai risultati più importanti ottenuti. Siamo pertanto costretti a limitare la trattazione ad alcuni argomenti principali, in particolare gli anelli ed i satelliti, indirizzando il lettore, per quel che riguarda il pianeta, al sito della NASA citato ed ai riferimenti bibliografici in esso contenuti. 2 Titano Titano è il più grande dei satelliti di Saturno, un satellite così grande che con Ganimede e Callisto (due dei satelliti Galileiani di Giove) forma la triade dei satelliti “giganti” , di dimensioni addirittura superiori a quelle del pianeta Mercurio; inoltre Titano è l’unico satellite del Sistema Solare a possedere una densa atmosfera. La densità globale di Titano di circa 1,8 g/cm3 implica che il satellite scienza in primo piano è composto prevalentemente di ghiaccio d’acqua e materiali rocciosi in parti uguali; la pressione al suolo è di circa 1500 mbar (1,5 volte quella della Terra) e la temperatura al suolo di 95 K. La composizione atmosferica è dominata dall’azoto, ma è presente anche il metano con un’abbondanza che aumenta dal 2% negli strati alti dell’atmosfera fino a raggiungere il 10% al suolo; la presenza del metano nell’atmosfera di Titano riveste un ruolo molto importante per la struttura e la dinamica dell’atmosfera stessa in quanto è proprio la fotoionizzazione del metano a determinare la formazione di una ampia varietà di composti organici. La discesa della sonda Huygens sulla superficie di Titano ha messo in evidenza come l’ipotesi prevalente tra gli scienziati prima della missione Cassini-Huygens, secondo la quale la superficie di Titano sarebbe stata ricoperta da estesi laghi (o addirittura oceani) di idrocarburi generati dalla precipitazione di metano, etano ed altri idrocarburi complessi F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno (benzene) si basava in realtà su di una semplificazione eccessiva della dinamica atmosferica e delle interazioni superficie-atmosfera. Le immagini riprese durante la discesa hanno infatti messo in evidenza la presenza di strutture geologiche riconducibili a fenomeni erosivi legati a flussi di liquidi (fiumi, precipitazioni, ecc.), quali canali tortuosi e profonde valli (fig. 4), ma della ipotizzata presenza diffusa di mari e di altri corpi liquidi in un primo momento non è stata trovata alcuna traccia [8]. Al contrario, le successive immagini radar (fig. 5) hanno evidenziato un suolo ricco di campi di dune, orientate in direzione Est-Ovest, la cui presenza testimonia dell’azione di due importanti agenti volti a determinare l’aspetto della superficie di Titano: un campo di venti, con direzione prevalente Est-Ovest e velocità dell’ordine dei 2 km/h, e l’aridità del suolo. La abrasione della superficie da parte di particelle solide trasportate dal vento richiede infatti la presenza di sedimenti e di grani che possano essere sollevati dal vento, come la sabbia nel Sahara; ovviamente, viste le condizioni ambientali, non si tratterà di sabbia ma di grani di idrocarburi misti a ghiaccio. Le misure nell’atmosfera da parte della sonda Huygens e le osservazioni degli strumenti dell’orbiter hanno confermato la presenza di idrocarburi complessi. In seguito alla fotodissociazione e ionizzazione dei composti primari, azoto molecolare e metano, si formano molecole organiche (etano, acetilene, etc.) nonché idrocarburi policiclici aromatici (benzene) e nitrili che danno quindi luogo a nebbie di condensati molto scuri e catramosi noti con il nome di toline (dal greco “fangoso”), un termine inventato da Carl Sagan nel 1979 per indicare degli eteropolimeri che sono alla base della chimica prebiotica [9, 10] (fig. 6). Questi condensati e gli idrocarburi in essi intrappolati vengono quindi trasportati dalle precipitazioni al suolo dove il metano e l’etano possono ricondensare. Le condizioni di pressione e temperatura al suolo sono compatibili con lo stato liquido di tali idrocarburi e si stima che i processi atmosferici, nel corso dei 4,5 miliardi di anni Fig. 3 Il pianeta Saturno ed, indicati, i suoi anelli ed i satelliti regolari. Fig. 4 Le immagini della sonda Huygens, in alto, sono state elaborate per generare una mappa topografica, mostrata a colori nella parte bassa della figura. 4 vol24 / no3-4 / anno2008 > scienza in primo piano 5 Fig. 5 Vasti campi di dune caratterizzano le regioni equatoriali di Titano. L’immagine radar evidenzia dune orientate nella direzione prevalente del vento. dalla formazione del Sistema Solare, abbiano prodotto una quantità di etano equivalente a circa 600 m di sedimenti. In altre parole su Titano ci possiamo aspettare una quantità di idrocarburi centinaia di volte più abbondante di quella presente sulla Terra. Finalmente lo scorso anno le immagini radar hanno rilevato nelle regioni polari dell’emisfero nord del satellite la presenza di numerosi laghi anche di vaste dimensioni [11, 12]. Le regioni scure in fig. 7 rappresentano zone caratterizzate da un valore di scattering nelle microonde molto basso, una caratteristica tipica di superfici estremamente lisce, compatibile con strutture liquide in assenza di venti. Le recenti immagini del Polo Sud mostrano viceversa un numero molto più limitato di regioni lacustri. L’interpretazione di queste osservazioni radar è stata integrata dagli scienziati con le misure del profilo di velocità dei venti ottenute dalla sonda Huygens che mostrano due inversioni della direzione dei venti a 6 km e a 0,7 km dal suolo. Sulla base di queste misure è stato sviluppato un modello di circolazione globale atmosferica secondo il quale un’unica cella di convezione si estenderebbe dal Polo Sud al Polo Nord di Titano [13,14]. L’emisfero sud del satellite è attualmente in estate 10 < il nuovo saggiatore e pertanto l’energia immessa dalla radiazione solare rappresenta il motore principale che permette all’aria calda di salire ed attivare una cella di Hadley che determina il trasporto verso il Polo Nord, forzando quindi l’aria più fredda dal nord a muoversi verso sud; in base a questo modello si ha un trasporto netto di “condensabili”, metano ed etano, dal Polo Sud, che diventa progressivamente più arido, al Polo Nord che, come mostrano le immagini radar, diviene più ricco di laghi. Questo meccanismo di circolazione è ovviamente stagionale, pertanto ci si aspetta che il moto della cella si invertirà intorno al 2010 alla fine dell’estate Sud , fornendo così alla missione Cassini-Huygens, che sarà ancora lì, l’opportunità di monitorare i cambiamenti climatici del satellite. 3 Gli anelli Gli anelli sono senz’altro la caratteristica più spettacolare di Saturno (fig. 8 e fig. 3 per la nomenclatura degli anelli): occupano una regione di spazio maggiore della distanza Terra-Luna ma il loro spessore (eccetto che per l’anello G) è soltanto di poche centinaia di metri, ed in alcuni casi di poche decine, il che dimostra che gli anelli sono un sistema stabile ed ordinato dove i fenomeni collettivi di interazione gravitazionale (onde, risonanze) non sono disturbati da turbolenza. Essi sono formati essenzialmente da grani di ghiaccio d’acqua mescolato ad altro materiale “contaminante”, presente in piccola quantità, caratterizzato da una composizione cosiddetta CHON (dalle iniziali inglesi degli elementi carbonio, idrogeno, ossigeno ed azoto) tipica dei materiali trovati nelle comete. Le dimensioni degli oggetti che formano questa struttura così caratteristica del sistema di Saturno vanno dai micrometri delle particelle più piccole ai chilometri dei piccoli satelliti interni agli anelli stessi. La densità di materia varia considerevolmente in direzione radiale sia su piccola scala, dove le particelle degli anelli urtandosi a bassa velocità tendono a formare dei conglomerati che raggiunta una dimensione limite sono distrutti dalle interazioni gravitazionali reciproche [15] (fig. 9), che su larga scala: in questo caso è la perturbazione gravitazionale dovuta a risonanze con i satelliti che determina lo spopolamento di regioni ampie (le divisioni di Cassini ed Encke ad esempio) e innesca dei fenomeni ondulatori che si riflettono poi nella distribuzione della materia negli anelli (fig. 10). Il fenomeno della risonanza si attiva quando due corpi orbitanti attorno ad un corpo centrale F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno 6 7 8 Fig. 6 La dissociazione del metano e la formazione di idrocarburi nell’atmosfera di Titano [9]. Fig. 7 Immagine Radar dei laghi intorno al Polo Nord di Titano. Fig. 8 Immagine sovraesposta che mette in evidenza anche i più tenui anelli F, E, G (per la nomenclatura vedi fig. 3). vol24 / no3-4 / anno2008 > 11 9 10 scienza in primo piano Fig. 9 Una rappresentazione della struttura degli anelli. Il pianeta si vede sullo sfondo. I grani degli anelli, composti essenzialmente di ghiaccio, tendono a coagularsi e a formare strutture allungate e sinuose, delle dimensioni di alcune decine di metri, che continuamente si formano e disperdono. Fig. 10 L’immagine, ottenuta nel 2004 durante il massimo avvicinamento agli anelli, mostra delle onde di densità all’interno della Gap di Encke nell’anello A. La risoluzione è di circa 300 m/pixel (immagine CCD 1024 × 1024). si trovano ad avere periodi orbitali i cui rapporti sono rappresentabili come frazioni di due numeri interi. In tal caso ad ogni n/m periodi i due corpi si trovano in fase, amplificando così l’effetto di interazione tra essi. Nel caso dell’interazione di un satellite con le particelle degli anelli, e per valori particolari del rapporto tra i periodi, queste ultime vengono rimosse dalle orbite originarie. L’origine degli anelli non è nota con certezza eccetto che per l’anello E che, come vedremo più avanti, è generato e continuamente rifornito dal ghiaccio espulso dal satellite Encelado. Per quel che riguarda gli anelli più interni A, B, C e D la loro origine è molto probabilmente legata alla frammentazione catastrofica di uno o più satelliti preesistenti ed alla conseguente ulteriore frammentazione ed erosione del materiale residuo. 12 < il nuovo saggiatore 4 I satelliti ghiacciati A tutt’oggi si conoscono circa 60 satelliti orbitanti attorno a Saturno, la maggior parte dei quali sono oggetti dal diametro non superiore ad alcune decine di chilometri che orbitano all’interno o nelle vicinanze degli anelli e che sono pertanto in equilibrio dinamico con essi. La missione Cassini ci ha permesso di svelare proprietà e fenomeni inaspettati che riguardano i satelliti ghiacciati del sistema di Saturno: tralasciando Titano, del quale si è già diffusamente parlato, le nuove scoperte che riguardano principalmente Giapeto, Febe, Iperione ed Encelado, sono così straordinarie che cambiano la nostra visione della formazione del Sistema Solare. Giapeto (fig. 11) in orbita intorno a Saturno alla distanza di circa 60 raggi saturniani (3,6 milioni di chilometri), è il più distante dei satelliti regolari di Saturno; come tutti gli altri satelliti regolari di Saturno, si trova in rotazione sincrona con un periodo di rotazione uguale a quello di rivoluzione e pari a 79 giorni. La densità di questo satellite di 1,083 g/cm3 è di poco superiore a quella dell’acqua, il che suggerisce che sia composto essenzialmente da ghiaccio di acqua con la inclusione di elementi volatili intrappolati sotto forma di clatrati e con una componente rocciosa pari a circa il 20% del totale. Fin dai tempi del Voyager è nota la dicotomia della superficie di Giapeto per cui un emisfero mostra una elevata riflettanza (dell’ordine del 40%) compatibile con una composizione superficale di ghiaccio relativamente puro mentre l’altro emisfero, caratterizzato da una riflettanza di appena il 5%, è una superficie scura come l’asfalto e di composizione probabilmente simile alle toline di F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno 11 12 Fig. 11 Giapeto uno dei più interessanti satelliti di Saturno. Fig. 12 Giapeto in bianco e nero. Materiale scuro ricopre la superficie ghiacciata di Giapeto nella zona di transizione tra i due emisferi (vedi testo per dettagli). L’immagine della camera della Cassini ha una risoluzione di 36 m/pixel. Titano; l’emisfero più scuro è quello che si trova nella direzione del moto attorno a Saturno (va ricordato che i satelliti in rotazione sincrona rivolgono sempre lo stesso emisfero nella direzione del loro moto orbitale attorno al pianeta). Nelle regioni di contatto tra i due emisferi la differenza di riflettanza risulta particolarmente evidente [16] (fig. 12). Una delle possibili ipotesi che spiega questa dicotomia è che il materiale scuro presente sulla superficie sia formato da un sottile strato di materiale esogeno raccolto da Giapeto nel suo moto attorno a Saturno. L’analisi spettrale del materiale nella regione infrarossa tra 3 e 5 micron mostra infatti spiccate somiglianze con il materiale presente sulla superficie di Febe, il satellite più esterno di Saturno. Febe, un corpo di circa 220 km di diametro, non è un satellite regolare di Saturno: esso si trova infatti su un’orbita retrograda a più di 200 raggi saturniani e, dalle analisi spettrali dello strumento VIMS [17], la sua composizione è compatibile con quella degli oggetti presenti nella fascia di Kuiper situata oltre l’orbita di Nettuno. Questi corpi denominati KBO (Kuiper Belt Objects) sono tra i più antichi del Sistema Solare ed essendosi formati a grandi distanze dal Sole non sono stati mai soggetti a temperature elevate; potrebbero pertanto contenere molecole ed altri composti risalenti alle prime fasi di formazione del Sistema Solare. Febe è stato probabilmente iniettato all’interno del Sistema Solare in seguito ad una perturbazione gravitazionale da parte di un pianeta o un altro KBO e successivamente catturato da Saturno; gli impatti hanno considerevolmente eroso la sua superficie e parte del materiale espulso è stato raccolto da Giapeto che è il satellite più vicino a Febe muovendosi dall’esterno verso Saturno [18]. Ma la dicotomia superficiale non è l’unica caratteristica stupefacente di Giapeto. Esso infatti è uno sferoide oblato con una differenza tra raggio polare ed equatoriale di quasi 35 km, un valore che stupisce se si tiene conto del fatto che un corpo in equilibrio idrostatico con un periodo di rotazione di 79 giorni dovrebbe avere una differenza massima tra i raggi di circa 10 m. Facendo il ragionamento inverso ci possiamo chiedere quale dovrebbe essere il periodo di rotazione di un oggetto di composizione omogenea avente 1000 km di diametro e con una ellitticità di 35 km: si ottiene così l’incredibile valore di 16 ore! La grande differenza tra i valori previsti dalla dinamica e quelli osservati suggerisce che Giapeto non abbia ancora raggiunto un equilibrio idrostatico: vol24 / no3-4 / anno2008 > 13 13 14 Fig. 13 L’Himalaya di Giapeto, una catena montuosa che percorre tutto il diametro equatoriale Fig. 14 Encelado nonostante abbia un diametro di appena 500 km è un satellite geologicamente attivo. Nella foto si alternano regioni craterizzate (più antiche) a zone estremamente lisce. La regione in colore turchese in basso è il Polo Sud dove è presente una vasta regione di fratture attive. molto probabilmente quel che stiamo osservando è una “topografia fossile”, un’istantanea di quando il corpo si trovava ancora in rapida rotazione ma con una litosfera solida e abbastanza estesa da mantenere la forma attuale. Un’altra caratteristica di Giapeto è l’imponente rilievo che si osserva lungo gran parte del diametro equatoriale (fig. 11 e fig.13); caratterizzato da un’altezza media di circa 18 km con tutta probabilità va anch’esso fatto risalire al congelamento della topografia. I modelli di evoluzione termica di Giapeto sviluppati alla luce di queste osservazioni permettono di datare il momento di formazione del satellite con una certa accuratezza [19]. La sua evoluzione termica è guidata infatti dalla presenza di isotopi radioattivi a vita breve (principalmente 26Al e in misura molto minore 60Fe che hanno tempi di dimezzamento dell’ordine dei 700 000 anni) necessari per fornire l’energia sufficiente a ridurre la viscosità e la porosità all’interno di Giapeto e di conseguenza ad aumentare la conducibilità termica tanto da ottenere 14 < il nuovo saggiatore una crosta di sufficiente spessore da congelare la forma originaria del satellite. La presenza di isotopi radioattivi a vita breve determina la cronologia degli eventi (a partire da una abbondanza iniziale fissata di 26Al il progressivo decadimento riduce la quantità di radioisotopo presente e quindi l’energia a disposizione); si ricava che i tempi di formazione dei pianeti giganti (e dei loro satelliti regolari) debbono essere stati estremamente rapidi, nell’ordine di 2-5 milioni di anni. Encelado (fig. 14) ha attratto l’attenzione degli scienziati fin dai tempi delle osservazioni Voyager in quanto risulta essere l’oggetto con l’albedo più elevata del Sistema Solare. Il ghiaccio d’acqua che copre la sua superficie è estremamente puro e non contaminato da materiale meteoritico come avviene per gli altri satelliti ghiacciati. Poiché tutti i satelliti, e anche gli anelli, sono soggetti a bombardamento meteoritico e contaminazione (abbiamo visto poco sopra il caso eclatante di Giapeto) la presenza di materiale così puro sulla superficie di Encelado fa supporre che su questo satellite debba esistere un meccanismo di ringiovanimento superficiale [20]. Inoltre va ricordato che Encelado orbita immerso nell’anello E, il più tenue e diffuso degli anelli di Saturno. Il 14 Luglio 2005, la sonda Cassini è passata a meno di 200 km dal Polo Sud di Encelado e tutti gli strumenti a bordo dell’orbiter hanno effettuato una serie di misure coordinate con l’obiettivo di studiare nel dettaglio l’origine dell’intenso flusso di ioni dalla regione polare rilevato dal magnetometro [21]. Quel che si è visto ha superato qualunque aspettativa. Tutti gli strumenti in situ hanno rilevato la presenza di particelle di ghiaccio, di molecole (acqua, CO2, CH4, acetilene e propano) e di ioni, mentre gli strumenti di remote sensing hanno osservato intensi jet di gas provenienti da fratture lineari localizzate al polo sud (fig. 14 e fig. 15). Nell’IR la temperatura delle zone di frattura è considerevolmente più alta che nel resto della superficie (circa 145 K contro 70 K) il che dimostra la presenza di sorgenti di calore interne F. Capaccioni: La missione Cassini-Huygens: 4 anni in orbita attorno a Saturno 15 16 Fig. 15 Getti di ghiaccio provenienti dal Polo Sud di Encelado Fig. 16 Foto della regione più densa dell’anello E, con al centro il satellite Encelado. che determinano la frattura della crosta ghiacciata e la fuoriuscita di gas. La presenza di questi criovulcani presuppone l’esistenza di acqua liquida in qualche strato subsuperficiale con notevoli ed interessanti implicazioni di carattere astrobiologico. Alla luce di queste osservazioni è stato possibile tra l’altro dimostrare che proprio Encelado è all’origine del materiale che forma l’anello E, come ben evidenziato anche dall’immagine in fig. 16. È necessario quindi chiedersi quale possa essere il meccanismo energetico che permette una attività di tipo “tettonico” su un satellite di soli 250 km di raggio. Per rispondere a questa domanda è stato necessario formulare un modello della storia termica di Encelado [22] che, analogamente ai risultati ottenuti per Giapeto, prende in considerazione l’azione degli isotopi radioattivi a vita breve (26Al, 60Fe) per determinare la differenziazione del corpo e la formazione di un nucleo roccioso, un oceano subsuperficiale ed una crosta solida. In una fase successiva della storia termica del satellite il riscaldamento dovuto all’azione degli isotopi a vita lunga (235U, 238U, 232Th, 40K aventi tempi di dimezzamento dell’ordine dei miliardi di anni), la cui presenza è giustificata dalla maggiore frazione di materiale roccioso rispetto a Giapeto, contribuisce a mantenere bassa la viscosità del mantello ghiacciato. La bassa viscosità è necessaria per poter ipotizzare che siano le deformazioni mareali, dovute all’ellitticità dell’orbita di Encelado, ad essere responsabili delle fratture osservate e della conseguente fuoriuscita di materiale; laddove invece le stesse deformazioni mareali non potrebbero in alcun modo spiegare l’attività osservata qualora si trovassero ad agire su di un corpo freddo e rigido. 5 Conclusioni All’ultimo PSG (Project Science Group) tenutosi lo scorso gennaio 2008 al JPL è stato definito il futuro ultimo dell’orbiter, che verrà messo su di un orbita molto eccentrica il cui pericentro si trova all’interno degli anelli a poche decine di migliaia di chilometri dalla superficie delle nubi del pianeta. Dopo alcuni passaggi sempre più ravvicinati l’orbiter si inabisserà all’interno dell’atmosfera di Saturno inviando a Terra preziose informazioni sulla composizione e dinamica degli strati alti dell’atmosfera. Ma l’aspetto più entusiasmante è che si prevede che tutto ciò avverrà nel 2017. Fino ad allora la missione rimarrà attiva e, seppur con modalità operative ridotte, continuerà ad inviare dati ed immagini del pianeta, degli anelli e dei satelliti. Potremo seguire l’alternarsi delle stagioni su Titano e su Saturno e verificare le teorie correnti della circolazione atmosferica, potremo continuare a monitorare l’attività dei criovulcani di Encelado. Inoltre, tenuto conto che l’attività di interpretazione scientifica dei dati si estende ben oltre la conclusione di una missione possiamo aspettarci che i dati della Cassini ci accompagneranno ancora per svariati decenni verso una comprensione più profonda del sistema di Saturno, dei meccanismi di formazione del Sistema Solare nel suo insieme e quindi delle nostre stesse origini. vol24 / no3-4 / anno2008 > 15 Bibliografia [1]Il sito della NASA http://saturn.jpl.nasa.gov viene aggiornato quotidianamente e contiene una grande quantità di materiale informativo e divulgativo, una dettagliata ed completa galleria di immagini e risultati scientifici su tutti gli aspetti della missione. [2]E. Flamini e R. Somma, “Science & Technology: A Synergic Cooperation. The Italian Experience In The Cassini Mission”, Earth Moon and Planets, 96 (2005) 101. [3]R. H. Brown, K. H. Baines, G. Bellucci, J.-P. Bibring, B. J. Buratti, F. Capaccioni, P. Cerroni, R. N. Clark, A. Coradini, D. P. Cruikshank, P. Drossart, V. Formisano, R. Jaumann, Y. Langevin, D. L. Matson, T. B. McCord, V. Mennella, E. Miller, R. M. Nelson, P. D. Nicholson, B. Sicardy and C. Sotin , “The Cassini VIMS investigation”, Space Sci. Rev., 115 (2004) 111. [4] F. Capaccioni, A. Coradini, P. Cerroni e S. Amici, “Imaging spectroscopy of Saturn and its satellites: VIMS-V onboard CASSINI”, Planet. Space Sci., 46 (1998) 1263. [5]C. Elachi, M. D. Allison, L. Borgarelli, P. Encrenaz, E. Im, M. A. Janssen, W. T. K. Johnson, R. L. Kirk, R. D. Lorenz, J. I. Lunine, D. O. Muhleman, S. J. Ostro, G. Picardi, F. Posa, C. G. Rapley, L. E. Roth, R. Seu, L. A. Soderblom, S. Vetrella, S. D. Wall, C. A.Wood, H. A. Zebker. “RADAR: The Cassini Titan Radar Mapper”. Space Sci. Rev., 115 (2004) 71. [6]A. J. Kliore, J. D. Anderson, J. W. Armstrong, S. W. Asmar, C. L. Hamilton, N. J. Rappaport, H. D. Wahlquist, R. Ambrosini, F. M. Flasar, R. G. French, L. Iess, E. A. Marouf and A. F. Nagy. “Cassini Radio Science”. Space Sci. Rev., 115 (2004) 1. [7]M. Fulchignoni, F. Ferri, F. Angrilli, A. Bar-Nun, M. A. Barucci, G. Bianchini, W. Borucki, M. Coradini, A. Coustenis, P. Falkner, E. Flamini, R. Grard, M. Hamelin, A. M. Harri, G. W. Leppelmeier, J. J. Lopez-Moreno, J. A. M. McDonnell, C. P. Mckay, F. H. Neubauer, A. Pedersen, G. Picardi, V. Pirronello, R. Rodrigo, K. Schwingenschuh, A. Seiff, H. Svedhem, V. Vanzani and J. Zarnecki. “The characteristics of Titan’s atmospheric physical properties by the Huygens Atmospheric Structure Instrument (HASI)”, Space Sci. Rev., 104 (2002) 395. [8]L. A. Soderblom, M. G. Tomasko, B. A. Archinal, T. L. Becker, W. L. Bushroe, D. A. Cook, L. R. Doose, D. M. Galuszka, T. M. Hare, E. Howington-Kraus, E. Karkoschka, R. L. Kirk, J. I. Lunine, E. A. McFarlane, B. L. Redding, B. Rizk, M. R. Rosiek, C. See, P. H. Smith, “Topography and geomorphology of the Huygens landing site on titan”, Planet. Space Sci., 55 (2007) 2015. [9] J. H. Waite Jr., D. T. Young, T. E. Cravens, A. J. Coates, F. J. Crary, B. Magee, J. Westlake, “The Process of Tholin Formation in Titan’s Upper Atmosphere ”, Science, 316 (2007) 870. [10]S. K. Atreya, E. Y. Adams, H. B. Niemann, J. E. Demick-Montelara, T. C. Owen, M. Fulchignoni, F. Ferri, E. H. Wilson, “Titan’s methane cycle”, Planet. Space Sci., 54 (2006) 1177. [11]E. R. Stofan, C. Elachi, J. I. Lunine, R. D. Lorenz, B. Stiles, K. L. Mitchell, S. Ostro, L. Soderblom, C. Wood, H. Zebker, S. Wall, M. Janssen, R. Kirk, R. Lopes, F. Paganelli, J. Radebaugh, L. Wye, Y. Anderson, M. Allison, R. Boehmer, P. Callahan, P. Encrenaz, E. Flamini, G. Francescetti, Y. Gim, G. Hamilton, S. Hensley, W. T. K. Johnson, K. Kelleher, D. Muhleman, P. Paillou, G. Picardi, F. Posa, L. Roth, R. Seu, S. Shaffer, S. Vetrella & R. West, “The lakes of Titan”, Nature, 445 (2007) 61. [12]C. Sotin, “News and Views: Titan’s lost seas found”, Nature, 445 (2007) 29. [13]T. Tokano, “Near-surface winds at the Huygens site on Titan: Interpretation by means of a general circulation model”, Planet. Space Sci., 55 (2007) 1990. [14]R. D. Lorenz, “Titan atmosphere profiles from Huygens engineering (temperature and acceleration) sensors”, Planet. Space Sci., 55 (2007) 1949. [15] H. Salo, R. Karjalainen e R. G. French, “Photometric modeling of Saturn’s rings. II. Azimuthal asymmetry in reflected and transmitted light”, Icarus, 170 (2004) 70. [16]C. C. Porco, E. Baker, J. Barbara, K. Beurle, A. Brahic, J. A. Burns, S. Charnoz, N. Cooper, D. D. Dawson, A. D. Del Genio, T. Denk, L. Dones, U. Dyudina, M. W. Evans, B. Giese, K. Grazier, P. Helfenstein, A. P. Ingersoll, R. A. Jacobson, T. V. Johnson, A. McEwen, C. D. Murray, G. Neukum, W. M. Owen, J. Perry, T. Roatsch, J. Spitale, S. Squyres, P. C. Thomas, M. Tiscareno, E. Turtle, A. R. Vasavada, J. Veverka, R. Wagner, R. West, “Cassini Imaging Science: Initial Results on Phoebe and Iapetus”, Science, 307 (2005) 1237. [17]R. N. Clark, R. H. Brown, R. Jaumann, D. P. Cruikshank, R. M. Nelson, B. J. Buratti, T. B. McCord, J. Lunine, K. H. Baines, G. Bellucci, J.-P. Bibring, F. Capaccioni, P. Cerroni, A. Coradini, V. Formisano, Y. Langevin, D. L. Matson, V. Mennella, P. D. Nicholson, B. Sicardy, C. Sotin, T. M. Hoefen, J. M. Curchin, G. Hansen, K. Hibbits e K.-D. Matz, “Compositional maps of Saturn’s moon Phoebe from imaging spectroscopy”, Nature, 435 (2005) 66. [18]T. V. Johnson e J. I. Lunine, “Saturn’s moon Phoebe as a captured body from the outer Solar System”, Nature, 435 (2005) 69. [19] J. C. Castillo-Rogez , D. L. Matson, C. Sotin, T. V. Johnson, J.I. Lunine, P. C. Thomas, “Iapetus’ geophysics: Rotation rate, shape, and equatorial ridge”, Icarus, 190 (2007) 179. [20] J. K. Kargel, “Enceladus: Cosmic Gymnast,Volatile Miniworld”, Science, 311 (2006) 1389. [21] Vedi numero speciale 311 di Science del 2006 tutto dedicato alle osservazioni di Encelado da parte degli strumenti della Cassini. [22] G. Schubert , J. D. Anderson , B. J. Travis , J. Palguta, “Enceladus: Present internal structure and differentiation by early and long-term radiogenic heating”, Icarus , 188 (2007) 345. Fabrizio Capaccioni Lavora a Roma presso l’Istituto di Astrofisica Spaziale dell’INAF (Istituto Nazionale di Astrofisica). Si occupa della realizzazione ed utilizzo di camere iperspettrali, nel visibile e vicino infrarosso, montate a bordo di sonde automatiche e dedicate allo studio della composizione superficiale dei corpi del Sistema Solare. È coinvolto in molte delle missioni in corso, sia NASA che ESA, dedicate all’esplorazione del Sistema Solare: la missione Rosetta in fase di crociera verso la cometa Churyumov-Gerasimenko che raggiungerà nel 2014, la missione Dawn che prevede lo studio degli asteroidi Vesta e Ceres, la missione BepiColombo per lo studio del pianeta Mercurio, e ovviamente anche la missione Cassini come membro del team scientifico dello strumento VIMS. 16 < il nuovo saggiatore scienza in primo piano Alla ricerca degli aggregati nucleari kaonici Tullio Bressani1, Alberto Panzarasa2 Dipartimento di Fisica Sperimentale, Università di Torino Istituto Nazionale di Fisica Nucleare – Sezione di Torino 2 Istituto di Istruzione Superiore “A. Volta”, Pavia Dipartimento di Fisica Nucleare e Teorica, Università di Pavia 1 Una delle problematiche più affascinanti della fisica nucleare moderna è il tentativo di riprodurre e studiare in laboratorio la materia nucleare ad alta densità (anche 10 volte superiore a quella dei nuclei ordinari) che si ritiene costituisca le stelle di neutroni. Recentemente è stata ipotizzata teoricamente l’esistenza di aggregati nucleari di pochi nucleoni legati da uno o più antikaoni che potrebbero verificare queste condizioni di alta densità. Gli esperimenti FINUDA e OBELIX hanno riportato segnali compatibili con l’esistenza di tali sistemi. 1 Introduzione Dall’inizio del secolo è entrata in funzione presso i Laboratori Nazionali di Frascati dell’Istituto Nazionale di Fisica Nucleare il complesso di macchine acceleratici DAΦNE, acronimo di “Double Annular Φ-factory for Nice Experiments”. L’acronimo è azzeccato, in quanto sintetizza bene le caratteristiche e lo scopo del complesso di macchine. Si tratta di un collisionatore (e+, e−), in cui due fasci di elettroni (e−) e positroni (e+) da 510 MeV ciascuno circolano in due anelli separati e si incontrano in due zone di interazione poste simmetricamente rispetto al centro della macchina, “quasi” a π. Una descrizione più dettagliata è già stata pubblicata su questa rivista [1]. Contrariamente a quanto succedeva per collisionatori (e+, e−) in funzione negli anni passati, in cui l’interesse era concentrato sulla ricerca di nuove particelle prodotte nell’interazione (e+, e-) da cui la necessità di variare con continuità l’energia dei fasci collidenti, DAΦNE funziona ad un’energia fissa (510 MeV per fascio) corrispondente all’energia di massa del mesone Φ, 1020 MeV. Le particelle prodotte nel decadimento del mesone Φ, kaoni K (K+, K0) e antikaoni (K-, 0) sono quelle che vengono utilizzate per eseguire esperimenti. Da ciò deriva la definizione factory, fabbrica di Φ. È chiaro che per ottenere una fabbrica di Φ è necessario ottimizzare la produzione di Φ, utilizzando tutte le tecniche e le idee per portare al massimo la luminosità del collisionatore. Questo spiega l’utilizzo di due anelli separati ed un angolo di collisione di “quasi” π, esattamente (π – 0,0012) rad. Per fornire un paragone, il glorioso collisionatore (e+, e−) ADONE, installato nello stesso elegante edificio che oggi ospita DAΦNE, utilizzava un solo anello e sfruttava collisioni (e+, e−) a π, ma permetteva di ottenere una luminosità di più di tre ordini di grandezza inferiore. Detto per inciso, tra le idee sviluppate per incrementare la luminosità, quella di aumentare, rispetto a π, l’angolo di collisione tra i fasci sembra essere quella vincente. Proprio in questi giorni studi di macchina a DAΦNE con questo accorgimento hanno fornito eccellenti risultati. Il flusso (numero di particelle al secondo) di K e prodotto a DAΦNE non è eccezionale: qualche centinaio. Eccezionale è invece la qualità: sono di energia molto bassa (circa 16 MeV per K+ e K-), prodotti sempre in coppie ed emessi a π l’uno rispetto all’altro, praticamente immuni da fondi dovuti ad altre particelle, come succede ad altre macchine acceleratici di protoni di alta energia, usate per produrre K o . Pochi ma buoni, in sintesi, i K di DAΦNE e questo giustifica le ultime due lettere dell’acronimo (NE = Nice Experiments). Progettando apparati di misura che utilizzino al meglio le tecniche sperimentali più avanzate è infatti possibile eseguire esperimenti di caratteristiche uniche, non possibili alle altre macchine. vol24 / no3-4 / anno2008 > 17 scienza in primo piano Fig. 1 Previsione teorica dei potenziali K−N e K−-nucleo e dei relativi stati legati previsti. Le zone ombreggiate in rosso indicano le larghezze degli stati. Da [3]. Fig. 2 Variazione di volume e conseguentemente della densità di materia nucleare in un nucleo ordinario 3He e in un ipotetico 3 H, con deformazione del nucleo. Fig. 3 (a) Massa invariante di un protone e un π– per tutti gli eventi osservati in [6]. È stato eseguito un best fit con una gaussiana e un “fondo” lineare nell’intervallo di massa invariante compreso tra 1100 e 1130 MeV. (b) Distribuzione del coseno dell’angolo di apertura tra una Λ e un protone: la linea continua si riferisce ai bersagli 6Li, 7Li e 12C mentre quella tratteggiata a quelli di 27Al e 51V. Gli eventi back-to-back sono stati selezionati imponendo la condizione cosθlab < − 0,8. Da [6]. 18 < il nuovo saggiatore T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici Chiarita la semantica di DAΦNE, ricordiamo che tre apparati sperimentali sono stati costruiti ed hanno accumulato dati dal 2000 ad oggi: KLOE, dedicato alla Fisica delle Particelle, FINUDA, dedicato alla Fisica Nucleare e DEAR, dedicato alla Fisica Atomica. FINUDA era stato proposto ed ottimizzato per effettuare studi di spettroscopia e successivo decadimento di Ipernuclei Lambda prodotti dai K- fermati in bersagli solidi nucleari. Una descrizione dettagliata della Fisica proposta può essere trovata su questa rivista [2]. Come è successo sempre, ma ancora più oggi, in cui i tempi tra la proposta di un esperimento ad una nuova macchina acceleratrice e la relativa esecuzione si dilatano a dismisura non per motivi tecnico-scientifici, ma di altra natura (finanziaria, burocratica, politica, sociologica,…), trascorsero più di dieci anni tra la proposta dell’esperimento (1992) e la prima presa dati (2003–2004). Il programma di Fisica degli Ipernuclei Lambda originariamente proposto era ancora in buona parte valido, ma fortunatamente si verificò un fatto nuovo, che contribuì ad aumentare considerevolmente la valenza scientifica dell’esperimento. È ben noto che i diversi dati sperimentali relativi all’interazione di una particella elementare (nel nostro caso il ) con un nucleone N (diffusione, reazioni, stati legati,…) vengono utilizzati per determinare un potenziale generale di interazione. I parametri caratteristici di questo potenziale (attrattivo o repulsivo, profondità, raggio d’azione) e le funzioni analitiche più adatte a rappresentarlo possono essere determinati dai modelli teorici ipotizzati per la descrizione dell’interazione e dal successivo paragone delle previsioni teoriche con i dati sperimentali a disposizione. Ipotizzato un certo potenziale -N, il passo successivo è quello di estenderlo ad un sistema di molti nucleoni (un nucleo), e di ricavare alla fine un potenziale fenomenologico -Nucleo in grado di descrivere le osservabili relative (diffusione, ipernuclei, ecc...). Secondo la metodologia accettata dall’indagine fisica, la validità di un’ipotesi teorica non è suffragata tanto dalla spiegazione dei dati sperimentali esistenti, quanto dalla previsione di fenomeni nuovi, a volte inaspettati, da verificare sperimentalmente. Nel 2002 Akaishi e Yamazaki [3, 4], hanno previsto la formazione di stati discreti, stretti e legati di in sistemi nucleari costituiti da pochi corpi. Il potenziale -nucleo viene derivato da un potenziale -nucleone ( N) fenomenologico costruito in modo da tenere in considerazione le lunghezze di scattering libere N , gli spostamenti dei raggi X degli atomi kaonici e l’energia e la larghezza della risonanza Λ(1405). Quest’ultima viene vista più come un sistema legato K-p che come uno stato eccitato di 3 quark con l = 1. Il potenziale con I = 0, che è molto più profondo del consueto potenziale N-N, produce lo stato legato instabile Λ(1405) con una energia di legame B = - 27 MeV e una larghezza Γ = 40 MeV, come mostrato in fig. 1, mentre l’interazione con I = 1 non produce alcun stato legato. Come si può vedere in figura, per il sistema legato pp, indicato anche come 2H, sono previste B = − 48 MeV e Γ = 61 MeV. Per i sistemi 3N e 4N (3H, 3He, 4 H, 4He) le energie di legame previste sono piuttosto grandi, circa -100 MeV e le larghezze sono piuttosto strette (20–30 MeV) (fig. 1). Le larghezze sono strette poiché le energie di legame sono così grandi, per cui il principale canale di decadimento K-p (I = 0) → Σπ è proibito energeticamente e il decadimento in Lp0 è soppresso dalle regole di selezione dell’isospin. La densità nucleare prevista è da 4 fino a 9 volte superiore rispetto a quella normale (r0 = 0,17 fm-1) e ciò potrebbe anche essere un modo per studiare in laboratorio la materia nucleare ad alta densità nelle stelle di neutroni. La fig. 2 rappresenta in maniera intuitiva la variazione di densità di materia nucleare in un nucleo ordinario 3H e in un ipotetico 3H. Questi sistemi sono chiamati aggregati nucleari kaonici (KNC = kaonic nuclear clusters) o stati kaonici profondamente legati (DBKS = deeply bound kaon states). Si sottolinea che nella semantica abituale (KNC o DBKS) non si precisa che si tratta in realtà di antikaoni (K- o 0). 2 Osservazioni sperimentali con K– a riposo Queste considerazioni hanno stimolato alcuni gruppi sperimentali ad accertare l’esistenza dei KNC. In un primo tentativo la loro identificazione è stata tentata mediante un’analisi cinematica diretta della reazione di produzione (metodo della massa mancante). I risultati deludenti ottenuti da un esperimento eseguito presso il laboratorio giapponese KEK di Tsukuba [5], dovuti alla presenza di un fondo non correlato di eventi che mascherava l’eventuale presenza di picchi riconducibili alla formazione di KNC, hanno convinto i ricercatori dell’esperimento FINUDA ad imboccare un’altra via. Sembrò più promettente esaminare qualche canale di decadimento del KNC eventualmente prodotto che includesse un iperone (Λ o Σ) ed uno o più nucleoni (metodo della massa invariante). Ricordiamo che la massa invariante M di una particella che decade in due particelle 1 e 2 aventi energie totali E1 e E2 e quantità di moto p1 e p2 è definita come: (1) . Nella (1) si è posto c = 1. È ben noto che M è invariante per ogni sistema di riferimento di Lorentz. La definizione vale per il decadimento in un numero qualsiasi n di particelle. Una caratteristica dello spettrometro FINUDA è l’elevata risoluzione in quantità di moto (∆p/p ≈ 0.5%), ottenuta utilizzando bersagli nucleari molto sottili (meno di 200 vol24 / no3-4 / anno2008 > 19 scienza in primo piano Pannello 1 Schema di principio della sequenza di processi elementari alla base dell’ osservazione di un possibile stato 2H prodotto a seguito dell’assorbimento di un K- a riposo su nuclei. Il K-, in un’orbita idrogenoide attorno al nucleo, interagisce con una coppia correlata di protoni alla superficie del nucleo, formando 2 H. Questo sistema, quasi a riposo, decade immediatamente in un protone e un iperone L, che decade successivamente in (p-p). L e p sono emessi circa a 180°, e la determinazione dei loro quadrimpulsi (energia cinetica e quantità di moto) permette di determinare la massa invariante del sistema Lp e quindi di risalire all’energia di legame dell’ipotetico 2H. Fig. 4 Rappresentazione grafica della risposta dei rivelatori di FINUDA ad un evento probabilmente dovuto alla produzione di 2 H e successivo decadimento in un piano perpendicolare all’asse dello spettrometro e quindi all’asse dei fasci e+e− collidenti. Nell’inserto è rappresentato, ingrandito, l’insieme dei rivelatori di vertice posti attorno alla zona di interazione e+e− da cui appare che la coppia K+K− è prodotta back-to-back. Il K+ si arresta nel bersaglio e decade in µ+ (o π+) mentre il K− si arresta nel bersaglio opposto e produce un evento candidato ad essere il decadimento del KNC 2 H. Un protone e un iperone Λ sono emessi in direzioni opposte. L’iperone Λ è riconosciuto mediante il decadimento in (π−p). 20 < il nuovo saggiatore T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici Fig. 5 Massa invariante di una Λ e un protone in correlazione backto-back (cosθlab < − 0,8) da bersagli leggeri prima della correzione di accettanza. L’inserto mostra i risultati dopo la correzione. Solo i canali dell’istogramma compresi tra 2,22 e 2,33 GeV/c2 sono stati utilizzati nel best fit per ricavare energia di legame e larghezza dell’aggregato nucleare kaonico 2 H. Da [6]. Fig. 6 Distribuzione di massa invariante della coppia Λd osservata nella reazione 6Li(K-stop, Ld)3N (istogramma con linea continua). Le altre curve rappresentano simulazioni dello spazio delle fasi di Λdnnp, Λdnd eΛdt (t = tritio). La linea con punti ingranditi rappresenta il fit dei dati con una combinazione dei canali precedenti e una gaussiana (curva grigia piena). La linea continua rappresenta il “fondo” simulato. La freccia indica la massa del sistema non legato K−ppn . L’inserto mostra la distribuzione di cos θΛd per gli eventi che popolano il picco a 3250 MeV. Da [7]. mg/cm2) e camere a deriva con miscele a base di He. Inoltre tutto lo spettrometro è immerso in una atmosfera di He. Le coppie K provenienti dal decadimento della Φ(1020), in particolare i K- sono pressoché monocromatici e sono completamente fermati nei bersagli. Lo spettrometro copre un angolo solido superiore a 2π sr. Una descrizione dettagliata delle tecniche sperimentali può essere trovata in [1]. Nel primo periodo di presa dati (2003–2004) sono stati utilizzati i seguenti bersagli 6Li, 7Li, 12C, 27Al e 51V. Anche se FINUDA è stato progettato per effettuare spettroscopia ad alta risoluzione di Ipernuclei Lambda prodotti dai K- fermati nei bersagli [2], lo spettrometro si è dimostrato molto efficiente anche nell’identificazione di iperoni Λ. Essi possono essere ricostruiti dagli spettri in massa invariante di un protone e di un π- come mostrato in fig. 3a [6]. Dalla (1) è chiaro che per poter determinare la massa mancante non basta disporre di una buona determinazione sperimentale della quantità di moto ma anche di una buona capacità di riconoscimento delle particelle per determinare E1 e E2. La posizione del picco è in buon accordo con la massa della Λ e la larghezza molto stretta (6 MeV/c2 FWHM). Quando un K− interagisce con due protoni, ci si aspetta che una coppia iperone-nucleone (Λ + p, Σ0+ p o Σ++ n) sia emessa con angolo di π tra le due particelle, ignorando l’interazione di stato finale all’interno del nucleo (pannello 1). La correlazione angolare tra una Λ e un protone provenienti dallo stesso punto del bersaglio (fig. 3b) indica chiaramente l’esistenza di questa reazione. Si sottolinea che con FINUDA gli angoli di emissione delle particelle sono misurati con una precisione di 0,04 rad. Queste correlazioni furono osservate anche per nuclei di medie dimensioni come 27Al e 51V e questo potrebbe suggerire che l’assorbimento abbia luogo sulla superficie del nucleo. La fig. 4 rappresenta la visualizzazione di uno degli eventi che hanno costituito la base per questa analisi. Nell’analisi finale [6] sono state considerate solo coppie Λ-p emesse in versi opposte (cosθlab< - 0,8) da nuclei leggeri (6Li, 7Li, 12C). La correlazione angolare tra la Λ e il protone è così evidente che ci si attende che le due particelle siano emesse da uno stato intermedio K-pp. Inoltre, se il processo di reazione fosse semplicemente un processo di assorbimento da due protoni, la massa del sistema dovrebbe essere vicina alla somma delle masse del kaone e dei due protoni (2370 MeV). In fig. 5 la massa invariante della coppia Λp mostra invece una significativa diminuzione di massa del sistema K-pp. Questo può essere interpretato come la prova dell’esistenza di uno stato legato composto da un kaone e due protoni, 2H. Nell’inserto di fig. 5 è mostrata la distribuzione di massa invariante corretta per l’accettanza strumentale. L’energia di legame vol24 / no3-4 / anno2008 > 21 Pannello 2 Schema di principio della sequenza di processi elementari alla base dell’ osservazione di un possibile stato prodotto a seguito dell’assorbimento di un K- a riposo sul 6Li. Questo nucleo si comporta in molte reazioni come una “molecola” composta da 4He(a) e 2H(d). Il K- interagisce con 4He, visto a sua volta come (3He + n), formando 3H + n. 3H, quasi a riposo, decade immediatamente in uno stato formato da un deutone e un iperone Λ, che a sua volta decade in (π−p). Λ e d sono emessi circa a 180°, e la determinazione dei loro quadrimpulsi (energia cinetica e quantità di moto) permette di determinare la massa invariante del sistema Λp e quindi di risalire all’energia dell’ipotetico 3H. Pannello 3 Schema di principio della sequenza dei processi elementari alla base dell’ osservazione di un possibile stato 2H prodotto a seguito dell’annichilazione di a riposo su 4He. L’antiprotone, in un’orbita idrogenoide attorno al nucleo, interagisce con un nucleone (un neutrone nel caso rappresentato), con la produzione di un K0, rivelato attraverso il suo decadimento in π+π−, un K- ed un certo numero di pioni, carichi e/o neutri. Il K-, con una quantità di moto cha ha una distribuzione continua con un massimo a 400 MeV/c, interagisce con la coppia correlata di protoni rimasti, formando un KNC 2H. Questo sistema, che ha una certa quantità di moto, decade immediatamente in un protone e in un iperone Λ, che decade successivamente in (π−p). Λ e p sono emessi con un angolo relativo minore di 180°, in quanto 2H viene prodotto con una certa quantità di moto. La determinazione dei quadrimpulsi (energia cinetica e quantità di moto) di Λ e p permette di determinare la massa invariante del sistema (Λp) e quindi di risalire all’energia di legame dell’ipotetico 2H. Pannello 4 Schema di principio della sequenza dei processi elementari alla base dell’ osservazione di un possibile stato 3H prodotto a seguito dell’annichilazione di a riposo su 4He. L’antiprotone, in un’orbita idrogenoide attorno al nucleo, interagisce con un nucleone (un neutrone nel caso rappresentato), con la produzione di un K0, rivelato a volte attraverso il suo decadimento in π+π−, un K- ed un certo numero di pioni, carichi e/o neutri. Il K-, con una quantità di moto che ha una distribuzione continua con un massimo intorno a 400 MeV/c, interagisce con i restanti 3 nucleoni correlati (ppn), formando il KNC 3H. Questo sistema, che ha una certa quantità di moto, decade immediatamente in un deutone e in un iperone Λ, che decade successivamente in (π−p) ed un deutone. Λ e d sono emessi con un angolo relativo inferiore a 180°, in quanto 3H possiede una certa quantità di moto. La determinazione del quadrimpulso (energia cinetica e quantità di moto) di Λ e d permette di determinare la massa invariante del sistema Λd e quindi di risalire all’energia di legame dell’ipotetico 3H. 22 < il nuovo saggiatore T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici +3 B (2H) = − 115+6 −5(stat) −4(sist) MeV e la larghezza di +2 Γ = 67 ± 14(stat) -3(sist) sono state ottenute da un fit con una funzione di Lorentz convoluta con una gaussiana con σ = 4 MeV/c2, corrispondente alla risoluzione del rivelatore. Questo valore dell’energia di legame è più di due volte quello previsto in [3], mentre quello per la larghezza è in buon accordo con le previsioni teoriche. La produzione del picco è dell’ordine di 10−3 per K− fermato. Incuriositi da questo risultato abbastanza incoraggiante, i ricercatori di FINUDA hanno effettuato un’altra analisi basata sullo studio delle masse invarianti osservate nel sistema Λ-d (deutone). Il metodo è del tutto simile a quello utilizzato per il sistema Λ-p, con la differenza che è necessario partire dalla selezione dei d presenti negli spettri globali delle particelle prodotte a seguito dell’interazione di K- a riposo con nuclei con una frequenza di circa tre ordini di grandezza inferiore a quella dei protoni. Omettiamo per brevità tutte le sofisticate procedure di selezione adottate, descritte in [7] e riportiamo soltanto il risultato finale. Sottolineiamo il fatto che in questo caso è stato studiato soltanto il nucleo 6Li, per motivi spiegati nel seguito. Lo spettro della massa invariante del sistema Λd è riportato in fig.6. Si può notare la presenza di un picco, con una significatività statistica di circa 3σ, a 3250 MeV, circa 60 MeV al di sotto della somma delle masse delle particelle libere (K-ppn). Interpretando questo segnale come dovuto alla presenza di un KNC 3H, B (3H) dovrebbe essere –58 ± 6 MeV con una Γ = 36,6 ± 14,1 MeV. Per gli eventi che popolano il picco esiste tra la Λ e il d una correlazione angolare molto accentuata a π (vedi l’inserto di figura 6). È da notare che in questo caso l’energia di legame misurata è circa la metà di quella prevista teoricamente (fig. 1) e che la larghezza è inferiore a quanto ci si può aspettare dalla circostanza cha la massa osservata è superiore a quella del sistema (Σ + π) Il pannello 2 illustra in maniera pittorica i processi ipotizzati per spiegare le osservazioni sperimentali. È un fatto sperimentale ben noto [8] che il nucleo 6Li si comporta, nell’assorbimento di K− a riposo, come una “molecola” 4 He + d. Il K− verrebbe catturato dall’ 4He, visto a sua volta come (3He + n), e, formerebbe il KNC 3H, che dovrebbe quindi decadere in (Λ + d). L’andamento di altre osservabili sperimentali suffraga questa interpretazione. 3 Osservazioni sperimentali con antiprotoni a riposo Di recente è stata pubblicata un’analisi degli eventi con 5 particelle cariche (π±, K±, d, p) identificate e caratterizzate nello stato finale, prodotte dall’annichilazione di antiprotoni ( ) a riposo su nuclei di 4He [9]. In questo caso l’eventuale produzione di KNC dovrebbe avvenire attraverso un processo secondario all’interno del nucleo. Il processo primario è l’annichilazione di un su N, con produzione di K0 ( 0 nel caso dell’annichilazione primaria su un protone, K- su un neutrone), accompagnata da un numero variabile di pioni carichi e neutri, compatibile con le leggi di conservazione dell’energia totale e della quantità di moto. La frequenza di produzione di una coppia K + pioni è di circa 5 ∙ 10−2 per catturato, e lo spettro di quantità di moto dei (K) è continuo, con un massimo attorno a 400 MeV/c, come ci si aspetta da una distribuzione statistica di spazio delle fasi. Riferendoci per semplicità al K-, come nel caso di FINUDA, esso potrebbe interagire con una coppia correlata pp dei 3 nucleoni rimasti, o addirittura con tutti e 3 (ppn) e formare rispettivamente i KNC 2H o 3H identificati tramite i loro decadimenti in (Λ + p) e (Λ + d), come nel caso di FINUDA. I pannelli 3 e 4 illustrano pittoricamente i processi ipotizzati. I dati sono stati raccolti dall’ormai smantellato spettrometro OBELIX, che operò presso l’acceleratore LEAR del CERN dal 1990 al 1996. Il rivelatore, ottimizzato per la spettroscopia mesonica, aveva una bassa risoluzione sperimentale per identificare particelle Λ (un fattore di circa 5 volte peggiore di quella dello spettrometro FINUDA) e non riusciva a distinguere vertici secondari dovuti al decadimento di particelle con vita media lunga prodotte nel vertice primario di annichilazione. Inoltre, le particelle Λ sono prodotte solo in una piccola frazione di eventi (1,1%) e il picco atteso a 1115 MeV nella distribuzione di massa invariante (π−p) è invisibile nel fondo dovuto allo spazio delle fasi e alle risonanze barioniche N e ∆ con ampia larghezza (100–400) MeV. La ricerca di eventi Λp è stata effettuata analizzando la distribuzione di massa invariante ppπ- per una massa invariante del sistema (π−p) in diversi intervalli intorno a 1115 MeV (massa dell’iperone Λ). La distribuzione di massa invariante ppπ- senza alcuna selezione, non mostrava segnali significativi rispetto alla distribuzione di ppπ+. Invece, un picco stretto vicino a 2200 MeV è chiaramente visibile in sottoinsiemi di eventi ottenuti selezionando masse invarianti pπ- vicine alla massa della Λ (in intervalli che variano tra 1115 ± 10 MeV e 1115 ± 70 MeV). Per intervalli più stretti il picco scompare a causa della bassa statistica e della bassa risoluzione sperimentale, per intervalli più grandi il picco è coperto dal fondo. Per l’analisi finale è stato scelto l’intervallo 1115 ± 30 MeV. La fig. 7a mostra la distribuzione di massa invariante ppπ- ottenuta con la precedente selezione e la distribuzione di massa invariante ppπ+ (fig. 7b), dove la massa invariante pπ+ è stata selezionata in corrispondenza della massa della Λ. La linea continua in fig. 7a è il risultato di un best fit nell’intervallo 2100–2400 MeV con uno spazio delle fasi più una gaussiana per considerare il picco. La funzione di spazio delle fasi si adatta anche alla massa invariante 2pπ+ nello stesso intervallo di energia (fig. 7b). La vol24 / no3-4 / anno2008 > 23 scienza in primo piano Fig. 7 Eventi con massa invariante (π−p) prossima alla massa della Λ (1115 ± 30) MeV: (a) Distribuzione di massa invariante 2pπ−: la linea continua mostra un fit con uno spazio delle fasi dedotto da (b) e una gaussiana per considerare il picco riportata anche in basso. (b) Distribuzione di massa invariante 2pπ+, la linea continua rappresenta una funzione di best fit. Da [9]. Fig. 8 Distribuzione degli eventi mostrati in fig. 7 con l’ulteriore condizione di una correlazione angolare opportuna tra il sistema (ppπ) e la coppia (π+π−) che risulta dal decadimento del K0. L’istogramma grigio si riferisce agli eventi di fig. 7b mentre quello bianco a quelli rappresentati in fig. 7a. Da [9]. 24 < il nuovo saggiatore Fig. 9 Distribuzione della massa invariante (pdπ−) per gli eventi con massa invariante (π−p) prossima a quella della Λ (1115 ± 30) MeV. Da [9]. T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici massa del picco presunto è 2212,1 ± 4,9 MeV, la larghezza 24,4 ± 8,0 MeV FWHM; la significatività statistica del picco è 3,0 σ per l’intero picco e per il suo massimo. Una migliore significatività statistica di 3,7 σ è stata ottenuta richiedendo una correlazione angolare tra il sistema 2pπ- e la coppia π+π-, che risulta dal decadimento del K0 (vedi fig. 8). Anche se il segnale si riduce, il rapporto segnale/rumore migliora. Il limite inferiore per la probabilità di produzione del picco è 1,5 ∙ 10-4 per fermato. Nell’ipotesi, già prospettata in [6], che il picco osservato nello spettro di massa invariante Λp sia un indizio del decadimento del 2H, l’energia di legame B del sistema dovrebbe essere −160,9 ± 4,9 MeV. Questo valore è 3 volte maggiore di quello previsto in [3] e maggiore di 45 MeV del valore sperimentale riportato in [6]. D’altra parte il valore ottenuto per la larghezza Γ è meno della metà di quello previsto in [3] e di quello misurato in [6]. Nello stesso articolo [9] viene riportata un’analisi dello spettro della massa invariante Λd osservato nell’annichilazione di su 4He. L’analisi segue gli stessi criteri usati per il caso precedente, a parte l’ovvia differenza di identificare il deutone al posto del protone. Lo spettro misurato di massa invariante è mostrato in fig. 9. Il numero totale di eventi è più basso, ma anche il fondo. Viene osservato un picco a 3190 ± 15 MeV, con una significatività statistica di 2,6 σ, e una larghezza inferiore a 60 MeV. Se questo segnale fosse davvero un indice di formazione di uno stato legato, la sua energia di legame e la larghezza sarebbero rispettivamente di −121 ± 15 MeV e inferiore a 60 MeV. Questi valori sono in buon accordo con i valori teorici previsti in [3] (−108 MeV e 20 MeV) ma non con quelli sperimentali riportati da FINUDA [7]. Il limite inferiore per la probabilità di produzione del picco è 0,39 ∙ 10-4 per fermato. − 4 KNC con 2K (S=−2)? Continuando ed estendendo le considerazioni teoricofenomenologiche che avevano portato alla previsione degli stati KNC, con energie di legame elevate e notevolmente stretti, venne avanzata l’ipotesi che potessero esistere KNC in cui 2 si erano legati a pochi nucleoni [10]. Gli stati previsti erano ancora stretti e con energie di legame B maggiori. Ad esempio, lo stato pp è previsto avere B = − 117 MeV e Γ = 35 MeV e quello ppn B = − 221 MeV e Γ = 37 MeV. Se la ricerca dei KNC con S = − 1 è difficile, quella dei KNC con S = − 2 lo è ben di più, in quanto è necessario identificare reazioni elementari in grado di trasferire una stranezza S = − 2 ad un aggregato di pochi nucleoni. Usando K− incidenti (S = − 1) su nuclei, bisognerebbe utilizzare reazioni con K+ uscenti (S = + 1) per trasferire una stranezza S = − 2 ad un insieme di nucleoni, sì da poter eventualmente formare un KNC con S = − 2. Sarebbe necessario utilizzare K− in volo da circa 2 GeV/c. Mediante è possibile avere annichilazioni con 2K2 nello stato finale, ma non con a riposo catturati da nuclei, almeno a prima vista. Nell’annichilazione a riposo di l’energia rilasciata alle particelle prodotte è uguale alla massa del sistema p o n (~ 1876 MeV), e questa semplice considerazione esclude che i prodotti finali dell’annichilazione includano, assieme a due kaoni, due antikaoni, in quanto l’energia corrispondente alla massa di 2K2 è 1974 MeV. L’annichilazione su un nucleone con produzione di 2K2 è possibile mediante in volo, che forniscano cioè parte dell’energia di massa mediante la loro energia cinetica. Se però si ipotizza che l’annichilazione avvenga non su uno ma su due nucleoni correlati, con produzione di iperoni Λ o Σ nello stato finale, si constata che stati finali con S = − 2 quali ΛΛ, Λ, ΛΣ e ΣΣ sono possibili energeticamente anche con a riposo. Queste considerazioni indussero alcuni ricercatori di OBELIX a cercare eventi con 2K+ nello stato finale negli eventi prodotti dall’annichilazione di a riposo su 4He. Si trattava della classica ricerca dell’ago nel pagliaio, in quanto bisognava identificare pochi (se c’erano!) eventi con 2K+ nello stato finale tra tutti quelli (più di trecentomila) con 2 pioni positivi o 2 protoni nello stato finale. Non è possibile descrivere in termini semplici i passi della ricerca, troppo tecnici [11], basati sull’identificazione delle particelle mediante misure di perdita di energia (∆E/∆x) e velocità β = v/c tramite tempo di volo (TOF) in funzione della quantità di moto misurata tramite analisi magnetica. Il risultato fu positivo e vennero così isolati una trentina di eventi con 2K+ nello stato finale, cioè con un trasferimento di stranezza S = − 2 ai 3 nucleoni rimasti. La fig. 10 rappresenta la distribuzione in ∆E/∆x e β in funzione della quantità di moto p per gli eventi selezionati. La certezza che si trattava degli eventi cercati, con 2K+ nello stato finale, fu data dal fatto che, sottoponendo agli stessi criteri di selezione gli eventi risultanti dall’annichilazione di su protone, energeticamente non permessi, si trovò un numero molto minore (il “fondo” strumentale). Le frequenze di produzione dei diversi possibili canali con produzione di 2K+ è dell’ordine di 10−4 per arrestato. La scarsità statistica del campione raccolto non permise però di validare l’ipotesi della produzione di KNC con S = − 2, in quanto altri meccanismi potrebbero essere invocati per spiegare l’osservazione. I dati sono compatibili con l’ipotesi di KNC con S = − 2 con B = −150 MeV, coerenti con la previsione teorica, ma il giudizio sull’affidabilità statistica, come sottolineano gli stessi autori del lavoro [11], è lasciato al lettore… vol24 / no3-4 / anno2008 > 25 scienza in primo piano 5 Osservazioni finali e conclusione Fig. 10 (a) Distribuzione della perdita di energia specifica ∆E/∆x (in unità arbitrarie) in funzione dell’impulso p e distribuzione della velocità β in funzione dell’impulso p per le particelle prodotte negli eventi selezionati. Le linee continue in (a) delimitano le bande corrispondenti ai mesoni K. Le linee continue in (b) rappresentano gli andamenti attesi per protoni, kaoni e pioni. Le due linee punteggiate rappresentano la banda entro cui si possono distribuire le β dei kaoni tenuto conto delle risoluzioni sperimentali. Da [11]. 2 H (K−pp) 3 H − (K ppn) Esistono alcune altre ricerche di KNC in corso presso altri Laboratori, con risultati ancora in fase di elaborazione e presentati a Conferenze e Workshop, che non sono stati riportati qui in quanto ancora preliminari. La tab. I riassume i dati sperimentali discussi nelle sezioni 2 e 3 e le previsioni teoriche. Ci possono essere due atteggiamenti nell’analizzare i numeri riportati. Il primo, pessimistico e cautelativo, è che non c’è compatibilità tra gli esperimenti e tra questi e la teoria, a parte qualche eccezione. La significatività statistica dei segnali riportati varia tra 2,6 e 3,7 σ. I segnali potrebbero anche essere dovuti a reazioni o processi non presi in considerazione. Il secondo, ottimistico e positivo, è che le energie di legame B per 2H e 3H sono spostate di circa 50–60 MeV in ambedue i casi (maggiori nell’esperimento con a riposo) e le larghezze Γ non molto dissimili. Diverse motivazioni potrebbero essere invocate per spiegare la discrepanza (diverse quantità di moto del sistema che decade nei due esperimenti, variazioni della massa e larghezza di una risonanza in diversi mezzi nucleari, diversi stati iniziali dei bersagli nucleari). La significatività statistica è adeguata, almeno secondo i canoni abituali. La discrepanza con la teoria potrebbe forse essere risolta da una diversa parametrizzazione del potenziale fenomenologico utilizzato in [3] e [4]. Come talvolta è accaduto in Fisica Adronica, e molto spesso in Fisica, la previsione di un nuovo, inaspettato, fenomeno accende un grosso dibattito. La cautela è motivata da situazioni che avevano scosso la comunità adronica in passato (gli ipernuclei Σ, prima “scoperti” in esperimenti a bassa statistica e poi spariti in esperimenti successivi, il pentaquark Θ+, non ancora del tutto ritrattato, ma sempre più criticato). L’interesse teorico è molto vivo, come dimostrato dalle discussioni a recenti congressi e dagli articoli pubblicati. Diversi gruppi hanno studiato la possibile esistenza di KNC B (MeV) G (MeV) Rif. - − 115 ± 9 67 ± 15 [6] a riposo − 160,9 ± 4,9 < 24,4 ± 8,0 [9] Teoria − 48 61 [3] K- a riposo − 58 ± 6 36,6 ± 14,1 [7] − 121 ± 15 < 60 [9] − 108 20 [4] K a riposo a riposo Teoria Tab. I Confronto tra i dati sperimentali e le previsioni teoriche 26 < il nuovo saggiatore T. Bressani, A. panzarasa: Alla ricerca degli aggregati nucleari kaonici con approcci teorici diversi (vedi ad esempio [12]), ottenendo energie di legame dell’ordine di 100 MeV, ma larghezze dello stesso ordine di grandezza tali da impedire l’osservazione sperimentale. Altri autori [13] hanno interpretato il picco riportato in [6] come un effetto dell’interazione di stato finale delle particelle (Λ e p) prodotte da un’interazione primaria del K- con una coppia correlata di protoni. Gli sforzi teorici si sono focalizzati fino ad ora principalmente sulla spettroscopia dei sistemi, non molto invece sulle probabilità di produzione. Il motivo è che calcoli attendibili di sezioni d’urto e di velocità di produzione sono piuttosto difficili e probabilmente i teorici attendono una chiara conferma dell’esistenza di questi sistemi. Dal punto di vista sperimentale, l’esistenza dei picchi che dovrebbe essere dovuta all’esistenza di KNC è stata rilevata da esperimenti non dedicati a questo scopo. Vengono attesi con impazienza i risultati definitivi degli esperimenti in corso. FINUDA ha recentemente concluso una fase di presa dati che ha permesso di raccogliere una statistica 6-7 volte superiore a quella che ha portato ai lavori [6] e [7]. Dovrebbe quindi essere possibile incrementare di conseguenza la precisione statistica e forse rivelare qualche altro prodotto degli schemi di reazione rappresentati nei pannelli 1 e 2. Recentemente è stato approvato con massima priorità l’esperimento E15 [14] presso il nuovo complesso di acceleratori J-PARC a Tokai (Giappone). L’esperimento propone di studiare la reazione 3He (K-, n) a 1 GeV/c, con una ricostruzione cinematica completa degli eventi, rivelando sia il neutrone emesso sia i prodotti del decadimento in Λ + p del KNC 2H eventualmente prodotto. L’obbiettivo è quello di confermare i risultati di [6]. Infine è stata presentata una lettera di intenti [15] per la costruzione di un complesso rivelatore (AMADEUS) per lo studio di KNC prodotti dall’interazione di K- fermati in un bersaglio di 4He a DAΦNE (LNF). Se i risultati descritti nei paragrafi 2 e 3 verranno confermati si potrebbe aprire un nuovo capitolo della Fisica Adronica. Bibliografia [1]E. Botta et al., Il Nuovo Saggiatore 18, no. 5-6 (2002) 49. [2]E. Botta e T. Bressani, Il Nuovo Saggiatore, 18, no. 3-4 (2002) 11. [3] Y. Akaishi e T. Yamazaki, Phys. Rev. C, 65(2002)044005. [4]T. Yamazaki e Y. Akaishi, Phys. Lett B, 535(2002) 70. [5]T. Suzuki et al., Nucl. Phys. A, 754(2005) 375c. [6]M. Agnello et al., Phys. Rev. Lett., 94(2005)212303. [7]M. Agnello et al., Phys. Lett. B, 654(2007)80. [8]M. Agnello et al., Nucl. Phys. A, 775(2006)35. [9] G. Bendiscioli et al., Nucl. Phys. A, 789(2007)222. [10]T. Yamazaki et al., Phys. Lett. B, 587(2004)167. [11] G. Bendiscioli et al., Nucl. Phys. A, 797(2007)109. [12]N. V. Shevchenko et al., Phys. Rev. Lett., 98(2007)082301. [13] V. K. Magas et al., Phys. Rev. C, 74(2006)025206. [14] T. Nagae in Proc. HYP2006, The IX International Conference on Hypernuclear and Strange Particle Physics, Mainz, Germania, Ottobre 10-14, 2006 a cura di J. Pochodzalla e T. Walcher (SIF, Springer 2007) 73. [15] P. Kienle in Proc. HYP2006 The IX International Conference on Hypernuclear and Strange Particle Physics, Mainz Germania Ottobre 10-14, 2006 a cura di J. Pochodzalla e T. Walcher (SIF, Springer 2007) 225. Tullio Bressani Professore Associato di Fisica Nucleare ininterrottamente dal 1964 al 1976, presso l’Università di Cagliari (fino al 1968) e Torino (fino al 1976). Professore ordinario di Fisica Generale dal 1976 ad oggi, presso l’Università di Cagliari (fino al 1984) e Torino (fino ad oggi). Fellowship al CERN dal 1966 al 1968, poi Research Associate dal 1969. Responsabile nazionale o generale di esperimento al CERN o altri laboratori dal 1970. Ultimi esperimenti: OBELIX-CERN e FINUDA-LNF. Direttore del Dipartimento di Fisica dell’Università di Cagliari dal 1983 al 1984, Direttore della sezione INFN di Torino dal 1986 al 1992. Rappresentante italiano al RECFA dal 1987 al 1992. Rappresentante italiano in NuPECC dal 2001. Rappresentante del MIUR nel C.D. dell’ INFN dal 2004. Autore di più di 280 pubblicazioni su riviste internazionali. Ha presentato più di 50 relazioni su invito a Conferenze, Workshop internazionali o Scuole. È stato membro del Comitato Editoriale de Il Nuovo Cimento A dal 1992 al 2000. È Associate Editor di “Nuclear Physics A” dal 2002. È membro dell’Editorial Board di “Nuclear Physics News International“ dal 2007. È membro del Comitato Scientifico di J-PARC (TokaiGiappone) dal 2006. vol24 / no3-4 / anno2008 > 27 scienza in primo piano TRASPORTO IN NANOFILI DI SEMICONDUTTORE STEFANO RODDARO* Scuola Normale Superiore - Piazza dei Cavalieri 7, 56126 Pisa Il progresso nella sintetizzazione dei nanofili di semiconduttore permette la realizzazione di nanostrutture quasi-unidimensionali in cui le energie di banda possono essere ingegnerizzate con grande libertà. Queste caratteristiche aprono nuove possibilità per lo studio del trasporto di carica in dispositivi orientati alla computazione quantistica e alla spintronica. Più in generale i nanofili presentano proprietà uniche che li rendono promettenti come elementi attivi in una vasta gamma di nanodispositivi. 1 Introduzione 2 Nanofili di semiconduttore I processi di fabbricazione in ambito nanotecnologico vengono tipicamente suddivisi secondo due approcci generali e contrapposti: la fabbricazione “top-down” e quella “bottom-up”. Il paradigma top-down è quello classicamente associato all’industria elettronica e ci ha abituati, nel corso degli ultimi decenni, ad un inesorabile progresso della miniaturizzazione. Secondo questo approccio, i dispositivi di scala nanometrica vengono fabbricati a partire da oggetti di dimensioni maggiori sfruttando tecniche litografiche altamente sofisticate. Il successo di questo tipo di nanofabbricazione richiede che i margini di precisione diventino via via più stringenti al decrescere delle dimensioni delle strutture da realizzare, pena la crescente imprevedibilità delle proprietà dell’oggetto nanoscopico. All’altro estremo, il paradigma bottom-up si basa su una filosofia alternativa che mira piuttosto a “costruire” i sistemi fisici o i dispositivi su scala nanometrica struttando invece opportuni meccanismi di auto-organizzazione a livello atomico/molecolare. Questo approccio trova una dimostrazione estrema nei meccanismi operanti in ambito biologico ed offre il vantaggio fondamentale di affidare i margini di precisione richiesti dalla fabbricazione a processi di auto-assemblamento. I nanofili di semiconduttore costituiscono un esempio di successo nell’ambito della fabbricazione bottom-up ed hanno attratto un significativo interesse nella comunità scientifica della materia condensata durante gli ultimi anni. La principale motivazione per questa particolare attenzione è legata al fatto che i nanofili permettono di realizzare sistemi elettronici confinati quantisticamente in una o zero dimensioni con relativa facilità e con un grado di miniaturizzazione, controllo e libertà per quanto concerne la scelta dei materiali che è difficilmente eguagliabile sfruttando gli altri sistemi di fabbricazione oggi disponibili. I nanofili sono nanostrutture cristalline altamente anisotrope (con un rapporto lunghezza su diametro che può facilmente raggiungere l’ordine delle centinaia e con diametri tipici di 10–100 nm) che vengono tipicamente ottenute tramite un processo di crescita guidata da nanoparticelle metalliche. Questo tipo di meccanismo può essere utilizzato con diverse tecniche di crescita e la fabbricazione di nanofili è stata dimostrata usando sia la deposizione da fase di vapore (CVD) che la crescita epitassiale da fasci chimici (CBE) e molecolari (MBE). La fig. 1 riporta alcune immagini SEM a diverso ingrandimento di nanofili InAs cresciuti con tecnica CBE a partire da nanoparticelle di oro depositate su un substrato InAs orientato in direzione cristallina (111), secondo la notazione di Miller per un cristallo a simmetria cubica. Le nanoparticelle sono state in questo caso depositate in modo *e-mail: [email protected] 28 < il nuovo saggiatore S. RoDdaro: trasporto in nanofili di semiconduttore nanoparticella di oro 200 nm (a) (b) 1 µm (c) 5 µm Fig. 1 Immagini al microscopio elettronico (inclinate di 52 gradi rispetto alla normale del campione) di nanofili InAs cresciuti utilizzando un sistema epitassiale a fasci chimici a partire da un substrato monocristallino di InAs. Pannello (a): dettaglio di un singolo nanofilo con un diametro di circa 50 nm (la scala corrisponde a 200 nm). Pannello (b): matrice ordinata di nanofili; i nanocristalli possono essere cresciuti con una grande omogeneità (la scala corrisponde a 1 µm). Pannello (c): immagine a più piccolo ingrandimento (scala di 5 µm) di una matrice di nanofili. ordinato tramite litografia a fascio elettronico e sono ancora visibili sulla sommità dei vari nanofili. Durante la crescita, le impurezze metalliche formano una lega con il substrato e giocano il ruolo di collettori dei materiali di crescita e rendono possibile – data una opportuna scelta dei parametri (pressioni parziali dei vari precursori chimici e temperatura del substrato) – una crescita preferenziale alla posizione della nanoparticella. L’analisi di questo meccanismo di crescita risale agli studi pionieristici di R. S. Wagner e W. C. Ellis sui fili di silicio presso il laboratori della Bell [1] e viene tipicamente indicato come un processo VLS (crescita in fase vaporeliquido-solido). Recenti studi hanno tuttavia mostrato come l’effettivo meccanismo per i semiconduttori III-V vada effettivamente al di là di questi modelli iniziali [2, 3] e la fisica della crescita di queste nanostrutture è ancora oggi al centro di una significativa attività di ricerca [4, 5]. Tralasciando in questa sede il dettaglio della fisica della crescita, uno degli eventi che ha più catalizzato l’interesse verso i nanofili, dopo i lavori pionieristici di K. Hiruma nei primi anni novanta [4], è stata la possibilità di sviluppare eterostrutture all’interno dei nanofili, ossia di controllare in fase di crescita la composizione chimica del nanocristallo [6-8]. La realizzazione di eterogiunzioni monocristalline di precisione quasi atomica ha aperto grandi possibilità per la realizzazione di sistemi confinati quantisticamente anche perché, come discusso più nel dettaglio nel seguito, i nanofili permettono di combinare una vasta gamma dei semiconduttori in modo più facile rispetto alle altre tecniche di fabbricazione per le eterostrutture. La fig. 2 ritrae un nanofilo la cui composizione chimica è stata modulata in fase di crescita nella direzione assiale in modo da realizzare varie sezioni InAs e InP [6]. I pannelli (a) e (b) riportano immagini HAADF-STEM (High Angle Annular Dark Field-Scanning Transmission Electron Microscopy) dove le diverse specie chimiche presenti nel nanofilo possono essere distinte in base alla luminosità. Il dettaglio di una singola interfaccia InAs/InP è visibile nell’immagine ad alta risoluzione nel pannello (b) e dimostra come le giunzioni fra i vari materiali siano monocristalline e prive di dislocazioni. L’immagine ad alta risoluzione di (c) permette di individuare con chiarezza la struttura atomica del nanocristallo, che è di tipo “wurzite” invece della normale “zinco-blenda” dell’InAs. Queste variazioni nella struttura cristallina sono piuttosto comuni per i nanofili di semiconduttore del gruppo III-V e costituiscono un ulteriore elemento di interesse in quanto la loro presenza rappresenta già di per sè la realizzazione di un nuovo materiale con proprietà (energia di gap, masse efficaci, accoppiamento spin-orbita, ecc) diverse dal “normale” InAs macroscopico [9]. L’importanza degli effetti di superficie durante la crescita può essere apprezzata nel pannello (d), in cui è chiaramente visibile la sezione esagonale di un nanofilo. Questa forma riflette di nuovo l’inusuale struttura cristallina del nanofilo, come anche confermato dalla trasfomata di Fourier del pannello (e), e dimostra la grande precisione con vol24 / no3-4 / anno2008 > 29 scienza in primo piano Fig. 2 Studio TEM di un nanofilo InAs/InP eterostrutturato assialmente [6]. Pannelli (a) e (b): immagini del nanofilo e dettaglio dell’interfaccia InAs/InP. Le micrografie con risoluzione atomica sono state ottenute con una tecnica di miscroscopia elettronica a trasmissione con contrasto chimico. Pannello (c): immagine ad alta risoluzione della giunzione dimostrante l’assenza di dislozazioni. Pannelli (d) e (e): immagine al microscopio elettronico della sezione del nanofilo e relativa analisi di Fourier. Queste immagini permettono anche di individuare inequivocabilmente la struttura wurtzite del cristallo del nanofilo. cui è possibile realizzare queste strutture. La fig. 3 mostra un altro esempio di nanofilo eterostutturato, in questo caso in direzione radiale [8]. Mentre le eterostrutture assiali possono essere realizzate cambiando opportunamente i precursori chimici rilasciati nella camera crescita, quelle radiali vengono ottenute giocando ulteriormente sui parametri di crescita – in particolare la temperatura – in modo da passare in modo controllato da una modalità di crescita anisotropa localizzata all’impurezza metallica ad una isotropa e non selettiva sulla posizione. In questo modo il nanofilo può essere incapsulato da una crescita cristallina basata su un materiale differente. La figura ritrae un nanofilo coassiale in cui la parte centrale è costituita da un monocristallo di Ge, avvolto da una sottile guaina cristallina di Si. Questo tipo di eterostrutture, oltre a permettere la passivazione degli stati alla superficie del nanofilo interno, sono di grande utilità nella progettazione dei sistemi confinati, come discusso più nel dettaglio nella prossima sezione. 3 Eterostrutture e nanofili La tecnologia dei semiconduttori eterostrutturati è ormai ben consolidata sia nell’ambito della ricerca fondamentale (su di essa si fonda una parte significativa degli studi su trasporto 30 < il nuovo saggiatore ed ottica quantistici e sugli effetti Hall quantistici) che delle applicazioni industriali (amplificatori a microonde, laser inter/intra banda, ecc). Uno dei vantaggi fondamentali nella creazione di cristalli artificialmente eterostrutturati consiste nella possibilità di ottenere una così detta “ingegnerizzazione di banda”. Sotto opportune condizioni di compatibilità nella geometria cristallina e nelle approssimazione di massa efficace [10], gli elettroni in banda di conduzione sentono l’influenza della diversa composizione chimica del cristallo nelle diverse posizioni spaziali semplicemente in termini di uno pseudopenziale, legato alle diverse energie di banda nelle diverse posizioni spaziali. In queste approssimazioni i portatori obbediscono ad una equazione di Schrödinger effettiva per le funzioni di inviluppo y (x), dove Ec (x) e f (x) indicano l’energia del minimo di banda e il potenziale elettrostatico esterno nella posizione x e dove m*(x) è il tensore di massa efficace. Un simile approccio si applica anche per le buche, sebbene la presenza di varie bande di valenza porti ad una pittura più complessa. L’ingenerizzazione di banda permette quindi di “progettare” con libertà l’hamiltoniana di singola particella per i portatori all’interno dell’eterostruttura e, S. RoDdaro: trasporto in nanofili di semiconduttore E Ec gap InP gap InAs Ev Fig. 3 (a) Immagine TEM di nanofili coassiali Ge/Si e relativa analisi spazialmente risolta della localizzazione del germanio (b) e del silicio (c); la scala indicata nel pannello (a) corrisponde a 50 nm. (d) Profilo radiale delle concentrazioni di Ge e Si e relativo fit teorico [8]. Fig. 4 Nelle opportune approssimazioni, i portatori carichi in un semiconduttore eterostrutturato InAs/InP si muovono sotto l’effetto di un potenziale efficace legato alla diversa composizione chimica nelle varie posizioni del cristallo. In blu e rosso gli estremi della banda di conduzione e della più energetica banda di valenza nel nanofilo. Gli effetti di carica e sforzo meccanico interno sono stati trascurati. La linea tratteggiata indica il livello energetico per gli elettroni nel vuoto. quando le condizioni sperimentali e la qualità del cristallo lo permettono, di osservare fenomeni di confinamento quantistico. Un esempio di struttura a bande per un nanofilo InAs/InP è illustrato in fig. 4 e mostra come le sezioni InP realizzino delle barriere sia per gli elettroni che per le buche. La discontinuità in banda di conduzione può essere determinata tramite trasporto termo-attivato e risulta essere di ∆E = 570 meV. È opportuno notare che tale valore non può essere determinato con precisione a partire dalle proprietà note dell’InAs e InP per via della loro diversa struttura cristallina quando inglobati in un nanofilo. Una delle limitazioni centrali nello sviluppo degli eterocristalli è – come ovvio – la compatibilità geometrica delle strutture cristalline coinvolte: in particolare, solo materiali con passi reticolari sufficientemente simili possono essere usati per ottenere giunzioni di buona qualità e con un basso numero di dislocazioni. L’utilizzo dei nanofili permette di aggirare alcune difficoltà della crescita planare: le dimensioni laterali relativamente piccole dei nanofili (10-100 nm) permettono un efficace rilassamento radiale degli sforzi elastici interni del cristallo e rendono possibile la realizzazione di giunzioni senza dislocazioni fra strutture cristalline con passi reticolari anche significativamente diversi (circa 3% nel caso InAs/InP) e su grossi spessori. La flessibilità offerta dalla tecnica di crescita dei nanofili permette persino di combinare materiali normalmente fortemente incompatibili e realizzare, per esempio, fili InAs su substrati di Si, aprendo quindi una nuova strada per l’integrazione di elementi III-V ad alta mobilità ed otticamente attivi all’interno della tecnologia attualmente dominante nell’ambito dell’elettronica [11]. 4 Sistemi a dimensionalità ridotta Lo studio dei sistemi elettronici confinati in una o più dimensioni ha aperto la strada ad una vera rivoluzione nella fisica della materia condensata. I gas elettronici bidimensionali ad alta mobilità hanno portato alla scoperta degli effetti Hall quantistici intero e frazionario e costituiscono tuttora una piattaforma ideale per lo studio dei sistemi fortemente correlati, del trasporto coerente e dei sistemi mesoscopici in genere. Lo studio del trasporto in una dimensione ha portato alla scoperta della quantizzazione del conduttanza e varie problematiche fondamentali rimangono tuttora aperte in questo ambito, come l’anomalia a “0,7” [12] e l’effettiva applicabilità dei risultati della teoria del liquido di Luttinger in un sistema unidimensionale reale [13]. In questo contesto, i nanofili realizzano un sistema elettronico quasiunidimensionale naturale e costituiscono un interessante punto di partenza per lo sviluppo di nanostrutture più complesse: il recente sviluppo di nanofili coassiali Ge/Si ha vol24 / no3-4 / anno2008 > 31 (b) (a) CG S 'S , CS (c) 'D , CD M. M. M. . $VG dI/dV D VG (d) scienza in primo piano M. M. M. Fig. 5 (a) Struttura di un transistor a singolo elettrone. (b) Oscillazioni di Coulomb ottenute dall’alternarsi fra condizioni di bloccaggio elettrostatico (d) e conduzione (c) attraverso l’isola. per esempio permesso di ottenere buoni valori di mobilità di osservare effetti di trasporto balistico nelle le singole sottobande dovute al confinamento fino a lunghezze di 0,5 µm [14,15]. Il caso più interessante per la discussione che segue rimane tuttavia quello dei sistemi zero-dimensionali, ossia dei così detti “punti quantici” o – focalizzando la discussione sul trasporto – dei transistori a singolo elettrone (SET). La struttura di base di un SET è indicata in fig. 5 e consiste in un’isola conduttiva accoppiata a due elettrodi di conduzione S e D tramite barriere tunnel. Un ulteriore elettrodo G, accoppiato esclusivamente in modo capacitivo, può essere utilizzato per controllare il riempimento del punto quantico. Quando l’isola ha capacità elettrostatica e dimensioni molto piccole ed è sufficientemente disaccoppiata da S e D (con resistenze di barriera molto superiori al quanto e 2/h), l’energia elettrostatica richiesta per cambiare di una unità la popolazione elettronica dell’isola può diventare determinante e portare ad effetti di “bloccaggio Coulombiano” (CB) nel trasporto a bassa temperatura. I sistemi CB basati su semiconduttori sono particolarmente interessanti in quanto le piccole masse efficaci in questi materiali (circa 0,023me per il bordo della banda di conduzione nell’InAs) fanno sì che le energie di confinamento quantistico siano, a parità di geometria, significativamente più grandi che nei metalli e possano giocare un ruolo importante. Nel regime quantistico, i SET realizzano essenzialmente degli atomi – o molecole, nel caso di più punti quantici accoppiati – artificiali i cui singoli livelli possono essere progettati con libertà e studiati tramite spettroscopia tunnel e analizzando accuratamente il trasporto di carica attraverso l’isola. Dal punto di vista della ricerca fondamentale, questo tipo di sistemi è particolarmente interessante per lo studio della manipolazione degli stati di spin di singoli portatori intrappolati e della computazione quantistica. Il bloccaggio o trasmissione della corrente per effetto della 32 < il nuovo saggiatore repulsione coulombiana fra i portatori nell’isola di fig. 5a può essere compreso in termini relativamente elementari nel limite classico. Gli effetti di caricamento possono essere descritti con il modello elettrostatico di fig. 5a dal quale l’energia elettrostatica immagazzinata dell’isola quando contiene N elettroni può essere valutata come , dove CS = CS + CD + CG è la capacità totale del punto quantico. L’energia richiesta per aggiungere l’N-esimo elettrone sull’isola sarà , dove i coefficienti αi = Ci / CΣ sono le “leve” dei vari elettrodi sul potenziale dell’isola e possono servire per controllarne il riempimento. Trascurando l’effetto capacitivo degli elettrodi responsabili del trasporto (piccoli valori di VS/D e/o dei coefficienti αS/D) il riempimento dell’isola sarà controllato semplicemente dall’elettrodo G. Nel limite di temperatura nulla gli elettroni potranno fluire attraverso l’isola solamente quando uno dei µN si viene a trovare nella finestra di polarizzazione degli elettrodi: in fig. 5c è energeticamente possibile fare fluire un elettrone da S all’isola portando il riempimento ad N e quindi ancora trasmetterlo a D riportando l’isola a N – 1 elettroni; in fig. 5d l’isola è stabilmente occupata da N – 1 elettroni e sia aumentare che diminuire il suo riempimento richiede una energia finita. A temperatura non nulla lo stesso meccanismo funziona fintanto che l’energia termica kBT è piccola rispetto alla distanza fra due µN consecutivi, la così detta energia di addizione, che in questo caso semplificato corrisponde a S. RoDdaro: trasporto in nanofili di semiconduttore a b c Fig. 6 (a) Realizzazione di un transistore a singolo elettrone utilizzando un nanofilo eterostrutturato InAs/InP (in (b) immagine STEM, la scala indica 10 nm). (c) Conduttanza differenziale dI/dV in funzione del potenziale di controllo VG e del voltaggio a cavallo del dispositivo VSD ad una temperatura di 4,2K [16]. ∆µ = e2/ CΣ. In presenza di un piccolo bias e al variare della tensione dell’elettrodo G le condizioni per la conduzione attraverso l’isola si ripresentano periodicamente con ∆VG = |e| / CG, come mostrato nelle oscillazioni di Coulomb della conduttanza dI/dV delineata di fig. 5b. La presenza dei livelli quantizzati Ej nell’isola può essere valutata in prima approssimazione tenendo conto delle repulsioni coulombiane in termini di un accoppiamento capacitivo, come già visto nel limite classico. In questa approssimazione (detta di “interazione costante”), la relazioni indicate in precedenza richiedono una semplice modifica . In questo caso l’energia di addizione non contiene solo un termine di caricamento ma anche uno dovuto al confinamento quantico ∆Ejk = Ej – Ek. Nel caso del CB quantistico si possono individuare quindi diverse energie di addizione a seconda degli specifici livelli quantistici conivolti, che possono essere effettivamente distinti nel trasporto quando la temperatura è sufficientemente bassa (kBT << ∆E) e l’accoppiamento dell’isola è sufficientemente piccolo (hΓS/D << ∆Ejk). Chiaramente, sarà il più piccolo ∆Ejk disponibile a determinare le condizioni per il bloccaggio di Coulomb dell’isola mentre l’apertura di nuovi canali di trasporto attraverso gli stati eccitati disponibili nel punto quantico saranno visibili nel regime non bloccato in termini di risonanze nella conduttanza differenziale dI/dV. La fig. 6 riporta una realizzazione di una struttura SET che si basa su un nanofilo InAs/InP [16]. Come mostrato in Fig. 6a, il nanoscristallo viene depositato su un substrato conduttivo (Si degenere) con in superficie un sottile strato dielettrico (SiO2) e contattato in cima da elettrodi metallici. L’immagine STEM del pannello (b) ritrae la zona attiva del nanofilo, che contiene un’isola InAs da 10 nm separata dal resto del nanofilo tramite due barriere InP da 3 nm; l’intero filo presenta un diametro di circa 50 nm. La fig. 6c mostra una misura di conduttanza differenziale dI/dV ad una temperatura di 4,2 K attraverso il dispositivo, in funzione non solo del potenziale di controllo dell’elettrodo G, ma anche del voltaggio VSD. Gli intervalli di CB visibili in fig. 5b evolvono a polarizzazione finita fino a formare dei rombi di bloccaggio (dI / dV=0, bianco in figura) che si estendono fino al valore ∆µ/|e| nella direzione VSD, con ogni rombo corrispondente ad un diverso riempimento dell’isola. L’oscillazione periodica nella dimensione delle regioni di stabilità si può ricollegare al riempimento sequenziale di stati con degenerazione di spin (∆EN, N–1= 0 e quindi ∆µ e ∆VG sono minimi quando il riempimento è dispari) e la presenza di energie di addizione più grosse, come indicato in figura dalla sequenza 2, 6, 8, 12, 16, 22, corrisponde al riempimento completo di intere “shell” elettroniche, separate da un grosso contributo ∆EN,N–1 dai livelli successivi nel punto quantico. Sulla base del diagramma di stabilità di fig. 6c è relativamente facile configurare l’isola elettronica di InAs/InP in un ben definito stato a pochi elettroni. La possibilità di inglobare un tale mattone elementare in un dispositivo più complesso (per esempio contenente elementi ibridi super-semiconduttore o in dispositivi nanomeccanici) apre interessanti possibilità di ricerca. 5 Punti quantici accoppiati in un sistema unidimensionale di buche I punti quantici eterostrutturati forniscono una piattaforma molto robusta per realizzare dispositivi a singolo elettrone in cui la popolazione dei singoli livelli può essere controllata con precisione [16, 17], ma hanno il difetto di non permettere di regolare le barriere tunnel e quindi di studiare sistemi di punti quantici multipli con un accoppiamento controllabile. Questa sezione presenta brevemente, tramite un caso specifico, una strategia alternativa più flessibile che si ispira ai vol24 / no3-4 / anno2008 > 33 scienza in primo piano (a) Vg2 (mV) (b) 50 40 (b) 20 30 10 28 10 20 30 40 Vg2 (V) 50 60 (d) -2.0 0.0 2.0 V (mV) T = 250mK 300pA 0 Vg4(mV) T = 250mK 30 26 24 22 20 g5 g1 15 20 30 25 Vg2 (mV) 35 40 0pA Current (pA) 40 transistori ad effetto campo e si basa sull’utilizzo di una serie di nanocontatti Schottky metallici per svuotare il nanofilo localmente in modo da produrre delle barriere regolabili. La fig. 7a mostra una immagine SEM in falsi colori di un dispositivo basato su nanofili Ge/Si dove questa tecnica viene sfruttata. Il nanofilo è stato in questo caso prima contattato con due elettrodi di Ni (in giallo) e quindi isolato in maniera conforme da un sottile strato di HfOx. In cima a questo strato sono stati infine fabbricati tramite litografia elettronica una serie di nanocontatti metallici Ti/Au (in blu) con una periodicità di 80 nm: questi permettono di creare e controllare una o più isole conduttive nel nanofilo per effetto campo. Il nanofilo Ge/Si su cui si basa il dispositivo contiene un gas di buche unidimensionale [14, 15]: come mostrato nella parte superiore di fig. 7, le discontinuità di banda e gli stati di superficie del Si inducono una popolazione degli stati di buca nella banda di valenza del Ge, in una sorta di variante della tecnica di modulazione di drogaggio ben nota per le strutture bidimensionali. Il comportamento di un tale sistema di buche presenta caratteristiche del tutto non banali per via della forte interazione spin-orbita nelle bande di valenza e del confinamento. Gli stati di buca confinati presentano 34 < il nuovo saggiatore Fig. 7 Singoli e doppi punti quantici realizzati a partire da nanofili coassiali Ge/Si[21]. Pannello (a): immagine al microscopio elettornico del dispositivo in falsi colori; il nanofilo in diagonale è contattato dai due elettrodi S e D (giallo) mentre la densità di carica è controllata dai nanocontatti Schottky superiori (blu). Pannelli (b) e (c): misure di bloccaggio di Coulomb attraverso il nanofilo in regime di singolo punto quantico. Pannello (d): misura di bloccaggio di Coulomb in regime di doppio punto quantico. infatti una forte correlazione fra spin e moto orbitale e di conseguenza ci si aspetta che l’accoppiamento con il campo magnetico sia anisotropo e fortemente dipendente dal singolo livello confinato considerato [18]. La possibilità di controllare l’accoppiamento di spin con la geometria di confinamento unita al fatto che la maggior parte degli isotopi del Ge ha uno spin nucleare nullo, con un conseguente atteso aumento nei tempi di coerenza di spin per l’assenza di interazione iperfine, rende questo tipo di dispositivi potenzialmente interessanti come possibili bit quantistici [19]. Le fig. 7b e 7c mostrano le oscillazioni di Coulomb e le regioni di stabilità ottenute una configurazione a singolo punto quantico ottenuta polarizzando le barriere g1 e g3 fino allo svuotamento del nanofilo (Vg > 2V) e usando l’elettrodo intermedio g2 per controllare il riempimento dell’isola. Utilizzando i vari elettrodi disponibili è anche possibile definire isole multiple accoppiate: la fig. 7d mostra un tipico diagramma honeycomb per il trasporto attraverso un sistema di due isole ottenute usando g1, g3 e g5 per definire delle barriere sul filo Ge/Si, al variare del voltaggio applicato ai due elettrodi di controllo g2 e g4 ( per approfondimenti vedi [20,21]). S. RoDdaro: trasporto in nanofili di semiconduttore (a) zona di deposizione trasduttore 4 mm (b) (c) 1 Mm Fig. 8 Pannello (a): immagine ottica e di un dispositivo in sviluppo al centro NEST-INFM-CNR di Pisa per lo studio dell’interazione fra onde acustiche di superficie generate su substrati piezoelettrici tramite trasduttori interdigitati e trasporto in nanofili eterostrutturati InAs/ InP/InSb. Pannello (b): micrografia al microscopio elettronico di un singolo nanofilo contattato elettricamente con nanoelettrodi metallici di Ni/Au. Pannello (c): le proprietà nanomeccaniche dei fili sono ancora in larga parte inesplorate, in particolare in relazione al trasporto di carica; l’immagine dimostra la flessibilità meccanica dei nanofili in una configurazione ottenuta in modo sporadico durante la deposizione dei nanofili su un substrato di SiO2. 6 Conclusioni I nanofili di semiconduttore offrono una solida piattaforma per la realizzazione di punti quantici con proprietà d’eccezione come il controllo della popolazione fino all’ultimo elettrone e le grandi energie di addizione elettronica. La ricerca sui nanofili è ai suoi albori e promette, anche senza citare le prospettive nel campo dell’ottica, varie eccitanti direzioni di studio per il trasporto. Oltre alla spintronica e alla computazione quantistica, l’investigazione dell’interazione fra trasporto di carica e nanomeccanica [22] (fig. 8) o lo sviluppo di sistemi ibridi [23] sono solo alcune delle possibili evoluzioni di questo nuovo campo di ricerca. Ringraziamenti L’autore ringrazia il “Nanometer Structure Consortium” della “Lunds Tekniska Högskola” per l’utilizzo di alcune delle immagini non pubblicate riportate in questo articolo. Stefano Roddaro Laureato in fisica all’Università di Pisa, ha conseguito il diploma e il dottorato in fisica alla Scuola Normale Superiore. Attualmente è ricercatore della Scuola Normale Superiore di Pisa presso il laboratorio NEST-INFM-CNR. Svolge attività di ricerca nei seguenti campi: punte di contatto quantiche in gas bidimensionali singoli ed accoppiati basati su eterostrutture GaAs/AlGaAs ad alta mobilità; sistemi Hall quantistici in regime mesoscopico; proprietà ottiche e visibilità della grafite sottile su multistrati dielettrici; trasporto in nanofili di semiconduttore; bloccaggio di Coulomb ed integrazione di nanofili in dispositivi ad onde acustiche di superficie. Bibliografia [1]R. S. Wagner et al. Appl.Phys.Lett., 4 (1964) 89. [2] K. A. Dick et al., Nano Lett., 5 (2005) 761. [3]A. I. Persson et al., Nature Mater., 3 (2004) 677. [4] K. Hiruma et al., J. Appl.Phys., 77 (1995) 447. [5]L. E. Jensen et al., Nano Lett., 4 (2004) 1961. [6]M. W. Larsson et al., Nanotechnol., 18 (2007) 015504. [7]M. T. Björk et al., Nano Lett., 2 (2002) 87. [8]L. J. Lauhon et al., Nature, 420 (2002) 57. [9] J. Bao et al., Nano Lett., 8 (2008) 836. [10] S. Datta, “Quantum Phenomena” (Addison-Wesley) 1989. [11]T. Mårtensson et al., Nano Lett., 4 (2004) 1987. [12] P. Roche et al., Phys. Rev. Lett., 93 (2004) 116602. [13]O. M. Auslaender et al., Science, 308 (2005) 88. [14] W. Lu et al., Proc. Natl. Acad. Sci. U.S.A., 102 (2005) 10046. [15] J. Xiang et al., Nat. Nanotechnol., 1 (2006) 208. [16]M. T. Björk et al., Nano Lett., 4 (2004) 1621. [17]A. Fuhrer et al., Nano Lett., 7 (2007) 243. [18] D. Csontos and U. Zülicke, Phys. Rev. B, 76 (2007) 073313. [19] Y. Hu et al., Nature Nanotechnol., 2 (2007) 622. [20]S. Roddaro et al., cond-mat/0706-2883. [21] W. G. van der Weil et al., Rev. Mod. Phys., 75 (2003) 1. [22] F. Pistolesi et al. Phys. Rev. B, 76 (2007) 165317. [23] Y.-J. Doh et al., Science, 309 (2005) 272­. vol24 / no3-4 / anno2008 > 35 scienza in primo piano Il caos quantistico Giulio casati* Centro per i Sistemi Complessi, Università degli Studi dell’Insubria, Como Il caos deterministico rappresenta una delle scoperte più affascinanti dello scorso secolo. La scoperta che leggi semplici e rigorose, possono dar luogo ad un comportamento talmente complesso da essere indistinguibile da un moto puramente caotico ha permesso un significativo avanzamento non solo nella comprensione dei fenomeni fisici ma anche in altre discipline che vanno dalla chimica alla economia, dalla sociologia alla psicologia. Lo studio delle manifestazioni del comportamento caotico a livello microscopico, nel regno della meccanica quantistica, è più recente. In questo articolo vengono presentati i concetti fondamentali di questa disciplina che avrà un ruolo essenziale per lo sviluppo di attuali settori di ricerca quali le nanotecnologie, il calcolo e l’informazione quantistica. 1 Il caos in meccanica classica Lo studio del comportamento caotico dei sistemi quantistici è un campo di indagine abbastanza recente. Esso è importante non solo a livello fondamentale ma anche per diversi settori di ricerca come la fisica atomica, la fisica degli stati condensati, la fisica nucleare e, più recentemente, per il campo della informazione e del calcolo quantistico. Al fine di una comprensione più chiara del cosidetto “caos quantistico” è opportuno richiamare alcuni elementi di base del caos classico [1]. Il concetto di caos deterministico mette in crisi la nostra immagine tradizionale di una fisica classica deterministica e mostra invece che le soluzioni delle equazioni deterministiche della meccanica classica sono di fatto random ed impredicibili. L’origine di questa sorprendente proprietà − apparentemente auto-contradditoria − è da ricercarsi nella instabilità esponenziale del moto classico. Per caratterizzare questa instabilità è sufficiente considerare le equazioni del moto linearizzate attorno ad una data orbita. *e-mail: [email protected] URL: http://scienze-como.uninsubria.it/complexcomo/ web-casati.html 36 < il nuovo saggiatore Per semplicità di presentazione ci limitiamo qui alla considerazione dei sistemi hamiltoniani (non dissipativi): , (1) , dove H = H (q, p; t) è la hamiltoniana, (q, p) sono le coordinate dello spazio delle fasi a 2f dimensioni e x = dq, h = dp sono i vettori f-dimensionali nel cosidetto spazio tangente. Si noti che i coefficienti delle eq. (1) sono valutati sulla traiettoria di riferimento e pertanto dipendono esplicitamente dal tempo. La quantità importante che caratterizza la stabilità del moto attorno all’orbita di riferimento è il cosidetto esponente di Lyapounov l che è così definito: (2) , dove d2 = x2 + h2 è la lunghezza del vettore tangente. È evidente che se l > 0 allora il moto è esponenzialmente instabile. Il motivo per il quale la instabilità esponenziale viene associata al moto caotico è il seguente: poichè la precisione con la quale si possono specificare i dati iniziali è comunque G. Casati: Il caos quantistico finita, ne segue che, a causa della instabilità esponenziale, quasi tutte le orbite, benchè deterministiche, sono impredicibili. In termini più precisi, un teorema di AlekseevBrudno [2] nella teoria algoritmica dei sistemi dinamici, afferma che l’informazione I (t) associata ad un segmento di orbita lungo t è asintoticamente uguale a , (3) dove h è la così detta entropia di Kolmogorov-Sinai che è positiva se l > 0. Questo significa che se si vuole predire un nuovo segmento di traiettoria è necessaria una informazione addizionale proporzionale alla lunghezza stessa del segmento ed indipendente dalla lunghezza precedente dell’orbita. In altre parole questo vuol dire che non si può estrarre nessuna informazione dalla osservazione della storia passata del sistema. Si noti che se l’instabilità, anzichè esponenziale, fosse solo a potenza, allora l’informazione richiesta per unità di tempo sarebbe inversamente proporzionale alla precedente lunghezza della traiettoria e pertanto, asintoticamente, la predizione sarebbe possibile. Naturalmente anche per un sistema caotico la predizione è possibile all’interno di un intervallo di tempo sufficientemente piccolo. Infatti possiamo introdurre il cosidetto “parametro di caoticità” [3] (4) , dove m è la accuratezza con la quale viene registrata una traiettoria. La predizione è allora possibile all’interno di un intervallo di tempo finito corrispondente ad r < 1 mentre per r > 1 il moto diventa indistinguibile da una moto puramente casuale. L’instabilità esponenziale implica in particolare spettro (trasformata di Fourier della funzione di autocorrelazione) continuo, e decadimento delle correlazioni. Ciò significa che segmenti diversi di una stessa orbita sono statisticamente indipendenti e questa proprietà è alla base della descrizione statistica, in termini di poche variabili macroscopiche, di sistemi con molti gradi di libertà. Il caos dinamico sopra descritto si riferisce ad un tipo di comportamento delle soluzioni delle equazioni del moto in meccanica classica. Al limite opposto di questo ci sono i sistemi completamente integrabili che sono quei sistemi che hanno un numero f di costanti del moto pari al loro numero f di gradi di libertà. Le orbite di questi sistemi non sono libere di muoversi sulla ipersuperficie della energia H (q, p) = E a 2f – 1 dimensioni ma sono confinate su tori f-dimensionali sui quali si avvolgono con f frequenze discrete. Il moto risulta pertanto quasi-periodico e l’instabilità solo lineare. È utile ricordare che la dinamica classica, invece che per mezzo delle orbite, può anche essere descritta in termini della funzione di distribuzione che ubbidisce alla equazione di Liouville che è una equazione lineare. In questa descrizione, il caos dinamico implica che una qualunque distribuzione iniziale, sufficientemente piana, tende ad uno stato stazionario: la nube di punti iniziali si allunga ed assottiglia esponenzialmente fino a ricoprire tutta la superficie dell’energia con densità uniforme. Si noti che, a seguito della reversibilità delle equazioni della dinamica, il processo di rilassamento è reversibile nel tempo così come lo è il moto sulle traiettorie. Tuttavia l’evoluzione della funzione di distribuzione è non ricorrente mentre ciascuna singola traiettoria, in accordo al teorema di ricorrenza di Poincarè ritorna arbitrariamente vicino al punto iniziale infinite volte. 2 Il modello standard del caos deterministico Il problema del caos quantistico nasce dal tentativo di comprendere il fenomeno del caos dinamico classico in termini della meccanica quantistica. Una difficoltà che si presenta naturalmente è legata al fatto che le condizioni per il caos classico e cioè instabilità esponenziale e spettro continuo sono violate dalla meccanica quantistica. Infatti lo spettro di un sistema quantistico, confinato in una regione finita e con un numero finito di particelle, è sempre discreto e ciò, nella teoria generale dei sistemi dinamici, corrisponde al caso di moto regolare o integrabile. Si presenta perciò una difficoltà concettuale: come si può riconciliare il principio di corrispondenza − che richiede la transizione al comportamento classico come caso limite della meccanica quantistica − con lo spettro quantistico discreto di un sistema che è classicamente caotico? La risposta si trova nella esistenza di scale temporali diverse, dipendenti da ħ. Come vedremo il moto quantistico può manifestare le proprietà caotiche del moto classico però solo all’interno di scale temporali finite che divergono quando ħ→ 0. Al fine di illustrare questo meccanismo consideriamo un modello molto semplice, il cosidetto kicked rotator [4] che è descritto dalla seguente hamiltoniana: (5) , dove k e T sono rispettivamente l’intensità e il periodo della perturbazione , dT (t) una funzione delta periodica di periodo T ed I il momento di inerzia. Questo modello, pur avendo una singola coppia di variabili coniugate, l’angolo q e il momento angolare (azione) p con parentesi di Poisson { p, q} = 1, porta a comportamento caotico a causa della forzante periodica. Infatti, a causa della presenza della perturbazione deltiforme, vol24 / no3-4 / anno2008 > 37 scienza in primo piano le equazioni del moto si riducono ad una mappa che prende il nome di Chirikov’s standard map , dove l’intero t è il numero dei delta impulsi. Il moto (6) si svolge nello spazio delle fasi cilindrico |p| < ∞, 0 ≤ q ≤ 2p. Il modello del kicked rotator (6) si presenta come molto conveniente per lo studio del moto caotico classico e quantistico essendo un modello molto semplice ma che tuttavia contiene gran parte della ricchezza e complessità dei sistemi dinamici. Inoltre questo modello fornisce una descrizione locale per una vasta classe di sistemi fisici che sono stati anche sperimentati in laboratorio (vedi sotto). Per k >> 1 il moto classico può essere considerato ergodico, mixing e esponenzialmente instabile con coefficiente di Lyapounov (a parte piccole isole di stabilità che si possono trascurare) l ≈ ln (k/2). In particolare la variabile azione p ha un comportamento diffusivo tipo random walk con 〈 pt2 〉 = 〈 p02 〉 + Dt e coefficiente di diffusione D = . La quantizzazione del sistema (6) porta, in analogia al caso classico, ad una mappa quantistica yt+1 = Uyt per la funzione d’onda yt (q) dove l’operatore unitario U, detto operatore di Floquet, si scrive [4] (7) dove p = , . 3 Le scale temporali del caos quantistico e la localizzazione Al fine di capire l’esistenza ed il significato delle diverse scale temporali è istruttivo confrontare l’evoluzione classica e quantistica del kicked rotator partendo dalle stesse condizioni iniziali. Come sappiamo, il teorema di Ehrenfest asserisce che un pacchetto quantistico iniziale segue il fascio di orbite classiche fino a quando il pacchetto rimane stretto. Durante questo intervallo di tempo perciò il moto quantistico è esponenzialmente instabile come quello classico. Tuttavia la larghezza iniziale del pacchetto quantistico è limitata inferiormente dalla cella elementare quantistica dello spazio delle fasi che è dell’ordine di ħ, mentre la sua dimensione finale è data dal valore della variabile azione cioè nel nostro caso è dell’ordine di pmax . Se si parte da un pacchetto di minima indeterminazione di dimensione Dq0 Dp0 ~ ħ, il 38 < il nuovo saggiatore . (8) , (6) tempo durante il quale si ha crescita esponenziale è dato da Questa è la scala temporale random o tempo Ehrenfest tr. Si noti che tr aumenta indefinitamente quando ħ → 0, in accordo con il principio di corrispondenza. Dopo la scala random, il moto quantistico, analogamente a quello classico, segue un comportamento diffusivo fino ad un tempo tb che determineremo più avanti. Durante questo tempo la crescita diffusiva della energia è data da (9) , dove i cn sono i coefficienti dello sviluppo della funzione d’onda nella rappresentazione del momento angolare pϕn= ħ npϕn , – N/2 < n < N/2. La scala temporale tb, durante la quale l’evoluzione quantistica segue il moto diffusivo classico (9), è legata al fenomeno della localizzazione quantistica. Gli autovettori dell’operatore di Floquet U, dato dalla (7), sono localizzati nella rappresentazione delle p con una lunghezza di localizzazione ħx; la lunghezza di localizzazione adimensionale x può essere determinata dal seguente argomento di autoconsistenza . Inizialmente il moto è di natura diffusiva e pertanto il numero di stati n(t) significativamente eccitati al tempo t cresce con il tempo come (ħn (t))2 ≈ Dt. La crescita diffusiva può aver luogo solo fino al tempo tb durante il quale il sistema non è in grado di risolvere la discretezza dello spettro e cioè fino ad un tempo che è dell’ordine dell’inverso della spaziatura media dei livelli e cioè fino al tempo tb ≈ n (tb) ≈ x. Queste due relazioni mostrano che le due grandezze adimensionali x e tb sono all’incirca uguali e sono date dal coefficiente di diffusione classico (10) . Dopo tale tempo il momento 〈 p2 〉t compie oscillazioni periodiche attorno ad un valore stazionario. Un’analisi quantitativa mostra che la distribuzione del momento angolare raggiunge uno stato stazionario descritto da una distribuzione esponenziale della forma (11) . Nelle fig. 1 e 2, mostriamo questo fenomeno della G. Casati: Il caos quantistico 10 -2 40000 -3 |Yn| 2 2 <n > 10 20000 10 0 0 500 1000 t 1500 2000 Fig. 1 Energia media classica (linea nera) e quantistica (linea rossa) in funzione del tempo ottenuta per iterazione numerica delle mappe (6) e (7) per gli stessi valori dei parametri della fig. 3. localizzazione confrontando il comportamento diffusivo classico e quantistico ottenuti rispettivamente mediante integrazione numerica della mappa classica (6) e di quella quantistica (7). Naturalmente per poter osservare la localizzazione deve essere x << N = pmax / ħ. Inoltre si noti che sia tb che x divergono nel limite classico in accordo con il principio di corrispondenza. Nella fig. 3 mostriamo invece l’evoluzione di un pacchetto quantistico iniziale confrontata con l’evoluzione della corrispondente distribuzione classica. Da questo confronto risultano evidenti sia la scala temporale random ((a)-(b)) durante la quale il pacchetto quantistico segue il fascio di orbite classiche, sia la scala di rilassamento o tempo di Heisenberg tb ((c)-(d)) durante la quale il pacchetto quantistico viene distrutto ma tuttavia continua a seguire l’evoluzione della densità in fase classica. Dopo il tempo tb la distribuzione quantistica rimane “congelata” attorno ad una distribuzione esponenziale mentre quella classica continua il comportamento diffusivo descritto da una distribuzione gaussiana ((e)-(f )). La limitazione della diffusione classica dovuta alla localizzazione quantistica è stata scoperta in [4]. Successivamente è stato mostrato [5] che la localizzazione dinamica è analoga alla famosa localizzazione di Anderson del moto elettronico in solidi disordinati. Nel nostro caso tuttavia, non esiste alcun disordine nella hamiltoniana del sistema che è perfettamente deterministica. Queste previsioni sono state confermate sia da risultati teorici [6] che sperimentali sulla eccitazione ed ionizzazione di atomi di idrogeno sotto l’azione di microonde [7] così come in altri sistemi atomici [8]. -4 10 -5 -2000 -1000 0 n 1000 2000 Fig. 2 Confronto tra le distribuzioni classiche e quantistiche, nella base del momento, al tempo t = 5000. La curva blu rappresenta la distribuzione classica gaussiana mentre la linea rossa ha pendenza x = D, in accordo con la (10). 4 Stabilità quantistica del moto caotico Nel paragrafo precedente abbiamo visto che risultati sia teorici che sperimentali mostrano che il comportamento diffusivo classico può essere soppresso o per lo meno fortemente inibito dalla meccanica quantistica. Mostriamo ora che l’evoluzione quantistica è stabile in contrasto con l’instabilità esponenziale e la rapida perdita di memoria delle condizioni iniziali che è la caratteristica di fondo del moto classico caotico [9]. Quest’ultima proprietà è alla base della irreversibilità che viene osservata negli esperimenti numerici. Infatti, benchè le equazioni del moto classiche siano reversibili, una qualunque imprecisione, non importa quanto piccola, come ad esempio gli errori di round-off, viene rapidamente amplificata dalla instabilità esponenziale portando alla perdita di memoria delle condizioni iniziali ed alla perdita di reversibilità. In fig. 4 mostriamo la sorprendente stabilità del moto quantistico caotico in un caso semplice ed istruttivo, quello della ionizzazione caotica diffusiva di un atomo di idrogeno in uno stato di Rydberg sotto l’azione di un campo di microonde [9]. In questo esperimento numerico la velocità dell’elettrone viene invertita dopo un numero t = 60 di periodi della microonda e si osserva il moto successivo. Siccome sia le equazioni classiche che quelle quantistiche sono esattamente reversibili, in assenza di errori l’atomo di idrogeno dovrebbe ritornare al suo stato iniziale. Tuttavia, a causa della precisione finita del calcolo numerico, il sistema classico segue il percorso inverso di ritorno solo per pochissimi periodi della microonda ma poi, a causa della instabilità esponenziale, perde memoria del suo stato iniziale e riprende un moto di tipo diffusivo. Il moto quantistico invece ripercorre quasi esattamente il percorso precedente. vol24 / no3-4 / anno2008 > 39 Fig. 3 Evoluzione classica e quantistica della mappa standard di Chirikov per valori dei parametri k = 5, T = 0.2, I = 1, N = 213 = 8192. L’evoluzione classica è stata calcolata iterando la mappa classica (6) partendo dal tempo t = 0 con un insieme di 104 orbite scelte nell’intervallo (q, n) ∈ [2 – 0,5, 2 + 0,5] × [–2, 2]. L’evoluzione quantistica è stata ottenuta mediante iterazione della mappa quantistica (7) partendo da un pacchetto gaussiano di minima indeterminazione di dimensione Dq0 = ( Dn0)-1 ~ √ T ≈ 0,5 centrato sulla distribuzione iniziale classica. 40 < il nuovo saggiatore I punti neri rappresentano la densità nello spazio delle fasi classico. Nel caso quantistico plottiamo la funzione di Husimi; i diversi colori corrispondono a differenti intensità della funzione di Husimi: dal rosso (massima intensità) al bianco (zero intensità). La figura mostra istantanee a tempi diversi: (a) t = 0, (b) t = 1, (c) t = 3, (d) t = 10, (e) t = 500, (f ) t = 5000. Ricordiamo che la funzione di Husimi in un dato punto è ottenuta proiettando lo stato quantistico sullo stato coerente centrato nello stesso punto. G. Casati: Il caos quantistico Fig. 4 Probabilità di ionizzazione classica (cerchi pieni) e quantistica (cerchi vuoti) in funzione del tempo per un atomo di idrogeno sotto l’azione di un campo esterno di microonde. Si noti la perfetta simmetria speculare della curva quantistica rispetto al tempo di inversione t = 60. Ciò è conseguenza del fatto che la scala di tempo random (durante la quale c’è instabilità esponenziale del moto quantistico) è molto più corta della scala di rilassamento tb. L’accuratezza della reversibilità del moto quantistico è comunque sorprendente. Questa proprietà del moto quantistico può essere utile nella implementazione pratica del calcolo quantistico [10] per il quale la stabilità del calcolo in presenza ad esempio di inevitabili imperfezioni nell’hardware di un computer, è importante per l’elaborazione della informazione quantistica. Una manifestazione semplice ma fondamentale del caos quantistico è la distruzione della interferenza dovuta allo sfasamento quantistico prodotto dal moto caotico classico. Questo fatto si può illustrare con il noto esperimento delle due fenditure. Consideriamo una sorgente posta all’interno di un biliardo (risonatore ondulatorio) [11] come quello illustrato in fig. 5. Il biliardo triangolare, con i due cateti uguali, è integrabile. Se invece si deforma la diagonale del triangolo in un arco di cerchio (linea tratteggiata in figura) allora il biliardo risultante è caotico. Tale biliardo viene detto “caotico” in quanto una particella classica che rimbalza in un billiardo con questa forma geometrica è esponenzialmente instabile. Consideriamo un pacchetto iniziale gaussiano con una energia media corrispondente al 1600-esimo stato eccitato del biliardo e con una velocità iniziale diretta verso le due fenditure che distano tra loro di poche (circa 3) lunghezze di De Broglie. Il pacchetto iniziale viene preso sufficientemente localizzato nel momento in modo che, grazie al principio di indeterminazione di Heisenberg, il suo sparpagliamento nella posizione sia dell’ordine della dimensione del biliardo. Risolviamo poi l’equazione di Schrödinger dipendente dal tempo e calcoliamo la radiazione che viene trasmessa attraverso le due fenditure e che raggiunge lo schermo sottostante. Registriamo infine la densità di corrente di probabilità integrata I (x), in funzione della coordinata orizzontale x sullo schermo. In fig. 6 mostriamo il risultato di questo esperimento numerico. In particolare notiamo che nel caso del risonatore “caotico” non si osserva alcuna interferenza. Ciò è la manifestazione della dinamica classica caotica che determina una randomizzazione delle fasi delle onde che vengono riflesse dalle pareti del biliardo. Questo risultato è da confrontare con il risultato analogo relativo al caso di geometria regolare del risonatore che è rappresentato dal biliardo integrabile. In questo caso si osservano le note figure di interferenza la cui posizione e visibilità è funzione delle condizioni iniziali del pacchetto d’onda. Nella fig. 7 invece mostriamo, ad un dato istante di tempo corrispondente a circa metà del tempo di Heisenberg, la densità di probabilità per le due geometrie, regolare e caotica. La differenza cruciale tra i due casi è che i flussi di probabilità che escono dalle due fenditure hanno una direzione che varia nel tempo nel caso caotico mentre queste direzioni sono fisse nel caso regolare. Questo spiega come mai nel primo caso le frange di interferenza vengono distrutte mentre nel secondo caso sono chiaramente visibili Questi risultati possono essere interpretati alla luce delle seguenti considerazioni: nella approssimazione di fenditure sottili, la intensità I(x) della probabilità sullo schermo può essere espressa in termini delle funzioni di autocorrelazione spaziale delle autofunzioni del biliardo nelle posizioni delle due fenditure vol24 / no3-4 / anno2008 > 41 scienza in primo piano 2.5 I(regular) I(chaotic) (I1 + I2)/2 2 I(x) a 1.5 1 s l L screen absorber 0.5 0 -0.8 -0.4 0 0.4 0.8 x Fig. 5 La geometria dell’esperimento numerico delle due fenditure. Le due fenditure sono poste sul lato inferiore del biliardo e distano tra loro di s. Il moto all’interno del biliardo triangolare è integrabile mentre il biliardo delimitato dalla curva tratteggiata è caotico. Fig. 6 L’intensità totale I (x) in funzione della posizione sullo schermo. I (x) è ottenuta come la componente perpendicolare della corrente di probabilità integrata nel tempo. La curva rossa intera si riferisce al caso del biliardo regolare mentre la curva blu punteggiata si riferisce al caso caotico. La curva verde tratteggiata mostra la media dei due esperimenti con una sola fenditura aperta. Questa media risulta praticamente la stessa se fatta per il caso integrabile o per quello caotico. È noto [12] che le autofunzioni caotiche sono caratterizzate da correlazioni spaziali che decadono − e ciò è responsabile dello sfasamento − mentre i sistemi regolari hanno autofunzioni con correlazioni spaziali a lungo range. lavoro che gli unici numeri quantici buoni siano lo spin e la parità. In questo modo si viene a costruire una teoria statistica dei livelli energetici. Una tale teoria statistica non predirrà la sequenza dettagliata dei livelli in un dato nucleo. Essa descriverà invece in generale come saranno distribuiti i livelli in un nucleo che è troppo complicato per essere capito in dettaglio. Ciò che si richiede è una nuova meccanica statistica nella quale noi rinunciamo non alla conoscenza esatta dello stato del sistema ma alla natura stessa del sistema. Noi rappresentiamo un nucleo complesso come una ‘scatola nera’ nella quale un numero grande di particelle interagisce con leggi sconosciute. Il problema è allora di definire in modo matematicamente preciso un insieme di sistemi in cui tutte le possibili leggi di interazione sono ugualmente probabili.” Queste considerazioni di Wigner hanno portato alla nascita della teoria delle matrici random [13]. Se ilsistema quantistico è sufficientemente complesso allora gli elementi di matrice della hamiltoniana in una base tipica possono essere considerati come numeri random, indipendenti, con una distribuzione gaussiana. 5 Autovalori, autofunzioni e caos Fino ad ora abbiamo considerato gli effetti che il caos classico può avere sulla evoluzione dinamica di un sistema quantistico. Consideriamo ora gli effetti indotti dal caos sulla struttura degli autovalori e delle autofunzioni. Già all’inizio degli anni 1950 Wigner aveva osservato che non aveva molto senso preoccuparsi della esatta posizione del milionesimo livello di un nucleo pesante così come non ha senso cercare di conoscere la esatta posizione e velocità di una molecola in un gas. “...È pertanto ragionevole”, sostiene Wigner, “cercare di capire se gli stati altamente eccitati possono essere compresi da un punto di vista diametralmente opposto e cioè assumendo come ipotesi di 42 < il nuovo saggiatore G. Casati: Il caos quantistico Fig. 7 Densità di probabilità della funzione d’onda ad un istante fissato (circa uguale a metà del tempo di Heisenberg) per i due casi: (a) per il biliardo regolare a t = 0.325, e (b) per il biliardo caotico a t = 0.275. La densità di probabilità è normalizzata in modo diverso nelle due parti di ciascuna figura. Più precisamente la densità di probabilità, in unità assolute, nella regione radiante è meno del 1% della densità di probabilità all’interno del biliardo. La scala dei colori, in alto nella figura, è proporzionale alla radice quadrata della densità di probabilità. Naturalmente le proprietà di invarianza della hamiltoniana impongono alcune condizioni sulle matrici. Ad esempio la proprietà di invarianza per inversione temporale impone che le matrici siano reali e simmetriche. In particolare il celebre insieme gaussiano ortogonale si è rivelato particolarmente utile per comprendere le proprietà statistiche della distribuzione dei livelli energetici. Si osservi che la geniale intuizione di Wigner di descrivere la distribuzione statistica dei livelli energetici mediante matrici aleatorie era basata sulla nozione di complessità originata dall’elevato numero di gradi di libertà. Oggi noi abbiamo una idea molto più precisa di complessità ed in particolare sappiamo che non è necessario avere un alto numero di gradi di libertà. La complessità vera del sistema è quella che deriva dal caos deterministico anche se i gradi di libertà sono pochissimi. Il risultato più semplice e forse anche il più importante della teoria delle matrici random riguarda la distribuzione statistica delle spaziature Sn = En+1– En tra livelli consecutivi. Tale distribuzione, riscalata nel modo opportuno, ubbidisce ad una distribuzione universale che dipende solo da alcune Fig. 8 Distribuzione della spaziature dei livelli per (a) biliardo di Sinai, (b) atomo di idrogeno in campo magnetico intenso, (c) una molecola di NO2 , (d) vibrazioni di un blocco di quarzo della forma di un bilardo di Sinai a tre dimensioni, (e) spettro di una cavità a microonde caotica, a tre dimensioni, (f ) vibrazioni di un disco elastico a forma di un quarto di stadio [14]. proprietà di simmetria (come la proprietà di invarianza per riflessione temporale) e che, con grande accuratezza, è data dalla nota distribuzione di Wigner (12) , dove le costanti A and B sono determinate dalle condizioni di ∞ ∞ normalizzazione ∫ 0 P(S) dS = 1, ∫ 0 SP(S) dS = 1. L’intero b è noto come indice universale ed è b = 1 per l’insieme gaussiano di matrici random reali, b = 2 per l’insieme gaussiano di matrici complesse. Si noti che b è anche una misura della repulsione dei livelli in quanto b > 0 implica che la distribuzione dei livelli ha un massimo su un valore S > 0. La teoria delle matrici aleatorie ha avuto un successo straordinario nel predire le correlazioni spettrali di sistemi quantistici complessi. Anzitutto è stata usata per gli spettri nucleari per i quali la estrema complicazione delle interazioni rende intuitiva l’applicazione delle matrici random. Tuttavia, a partire dagli anni 1980, si è avuta una crescente evidenza sperimentale che anche spettri di sistemi caotici molto vol24 / no3-4 / anno2008 > 43 semplici avevano fluttuazioni universali descritti dalla teoria delle matrici random. Questa osservazione e cioè che le correlazioni spettrali a corto range di sistemi quantistici, che sono caotici nel limite classico, ubbidiscono a leggi di fluttuazione universali che sono descritti da insieme di matrici a caso senza alcun parametro libero, è nota come congettura del caos quantistico [15, 16] e, benchè non rigorosamente dimostrata, costituisce uno dei risultati più significativi. Modelli paradigmatici che vengono usati per dimostrare la validità della congettura del caso quantistico sono i biliardi piani dispersivi nei quali il moto classico è caotico. L’equazione stazionaria di Schrödinger per un biliardo, cioè per una particella puntuale di massa m che si muove liberamente all’interno di un biliardo piano D ed è riflessa elasticamente dal contorno, è data dalla nota equazione di Helmholtz per la funzione d’onda della particella: (13) , con condizioni di Dirichlet al contorno Ψ|∂D = 0. Questa equazione ha un set discreto di soluzioni {kn , Ψn , n = 1, 2, ...} con energie En = ħ2k2n /(2m).. Esperimenti numerici molto accurati mostrano che la distribuzione statistica dei livelli di tali biliardi è in accordo con le previsioni della teoria delle matrici aleatorie. Nella fig. 8 mostriamo lo spettro di un biliardo quantistico caotico, di un atomo di idrogeno in un campo magnetico intenso, lo spettro di eccitazione della molecola di NO2 , lo spettro elettromagnetico di una cavità caotica a microonde, tridimensionale. Come si vede, tutti questi sistemi mostrano la stessa distribuzione dei livelli descritta da un insieme gaussiano di matrici random reali ed appare avere una caratteristica universale in quanto non dipende né dal tipo di modello né dal tipo di interazione. Infine vogliamo accennare al fatto che è stata dimostrata l’esistenza di un legame tra la distribuzione statistica dei livelli e la struttura delle orbite periodiche. In particolare, per sistemi classicamente caotici, esiste una interessante relazione tra l’approssimazione semiclassica dei livelli energetici e le orbite periodiche classiche, instabili. Questa relazione è espressa dalla trace formula [17] di Gutzwiller che è fondata sulla approssimazione della fase stazionaria della rappresentazione attraverso gli integrali di Feynman della funzione di Green della equazione di Schrödinger. 6 Applicazioni del caos quantistico Il caos quantistico trova applicazione in diversi campi della fisica moderna. Nel seguito descriviamo alcuni esempi nei quali il caos quantistico gioca un ruolo essenziale. 44 < il nuovo saggiatore Fisica atomica scienza in primo piano Gli esperimenti di eccitazione ed ionizzazione di un atomo di idrogeno in un campo di microonde rappresentano il primo esempio di applicazione del caos quantistico [19]. In questi esperimenti, singoli atomi di idrogeno preparati in stati molto allungati, con numero principale alto, sono iniettati in una cavità a microonde e poi viene misurato il tasso di ionizzazione prodotto dalla interazione con la microonda. Supponiamo che la frequenza della microonda sia molto minore dell’energia di ionizzazione, addirittura minore della energia necessaria per la transizione al livello energetico vicino. Nonostante questo si è inspiegabilmente osservato una ionizzazione non trascurabile quando il campo elettrico era al di sopra di un certo valore di soglia. L’analisi teorica (si veda ad esempio il rif. [3]) ha mostrato che questa soglia rappresenta il valore critico della intensità del campo per la transizione al caos classico. Sopra questa soglia si manifesta un comportamento caotico diffusivo che porta ad eccitazione e conseguente ionizzazione dell’atomo. Successivi risultati sperimentali [7, 19] hanno poi pienamente confermato le previsioni della teoria della localizzazione dinamica [6] che porta alla soppressione del processo di eccitazione ed ionizzazione classica dell’atomo dovuta a fenomeni di interferenza quantistica. Il fenomeno della localizzazione dinamica è stato poi definitivamente osservato in accurati esperimenti su atomi freddi di cesio in onde laser stazionarie [20]. Fisica dello stato solido I concetti base del caos quantistico hanno trovato ampia applicazione nella fisica dello stato solido. Un esempio è il trasporto quantistico in regime diffusivo o balistico. Un altro esempio importante riguarda le fluttuazioni universali della conduttanza [21] che corrispondono alle fluttuazioni di Ericson nella fisica nucleare. Queste fluttuazioni risultano avere proprietà statistiche universali come ad esempio nel caso dei quantum dots quando questi hanno una forma corrispondente a quella di un biliardo caotico. Anche le fluttuazioni universali di conduttanza sono poi state interpretate alla luce della teoria delle matrici random (si veda ad esempio la rassegna [22]. Calcolo e informazione quantistica Un calcolatore quantitisco è un sistema a molti corpi dove le proprietà di stabilità, coerenza ed entanglement giocano un ruolo essenziale. È pertanto evidente l’importanza del caos quantistico per questo problema. Ad esempio la dinamica caotica è molto efficiente nel produrre entanglement che è una risorsa fondamentale per la elaborazione e trasmissione della informazione quantistica [10]. D’altro lato caos e instabilità sono certamente un problema per l’affidabilità del calcolo quantistico e devono pertanto essere tenuti sotto controllo. G. Casati: Il caos quantistico 7 Considerazioni conclusive Bibliografia Quasi tutti i risultati ottenuti nel campo del caos quantistico sono basati su evidenza numerica e mancano dimostrazioni rigorose. Possiamo tuttavia affermare che il comportamento di sistemi ad una o poche particelle è ora ragionevolmente chiaro. Quello che rimane da capire invece è il comportamento di sistemi con molte particelle interagenti. Ad esempio sembra che il caos quantistico sia necessario al fine di giustificare le leggi statistiche per il trasporto diffusivo nei sistemi a molti corpi. A un livello più generale, è interessante osservare che in meccanica classica esiste una teoria ergodica sufficientemente completa che permette la comprensione delle proprietà di equilibrio e non equilibrio dei sistemi classici. In meccanica quantistica invece una tale teoria non esiste. Essa sarebbe necessaria al fine di capire il processo di rilassamento asintotico quantistico che avviene in presenza di spettro puramente discreto e in assenza di instabilità esponenziale. Chiudiamo questa breve rassegna con una nota di carattere speculativo. In meccanica quantistica dobbiamo sempre fare i conti con lo strumento di misura che viene considerato come un oggetto classico macroscopico e pertanto in esso è presente il caos e l’instabilità esponenziale. In realtà ciò è addirittura necessario in quanto uno strumento di misura deve essere instabile poichè una piccola variazione deve produrre un effetto macroscopico. Il caos è importante nel processo quantistico di misura in quanto esso distrugge la coerenza dello stato puro da misurare trasformandolo in una miscela incoerente. Nelle teorie esistenti della misura quantistica questo effetto è attribuito al rumore dell’ambiente esterno. La teoria del caos permette di fare a meno di questa insoddisfacente ipotesi e di sviluppare una teoria puramente dinamica della perdita di coerenza quantistica. [1] A. Lichtenberg and M. Lieberman, “Regular and Stochastic Motion” (Springer, Berlin) 1983. [2] V. M. Alekseev and M. V. Yakobson, Phys. Rep., 75 (1981) 287. [3] G. Casati and B. V. Chirikov, “Quantum Chaos” (Cambridge University Press, Cambridge)1995. [4] G. Casati, B. V. Chirikov, F. M. Izrailev, and J. Ford, “Stochastic Behavior in Classical and Quantum Hamiltonian Systems’’, Lect. Notes Phys., 93, a cura di F. G. Casati e J. Ford (Springer-Verlag, Berlin) 1979, p. 334. [5]S. Fishman, D. Grempel and R. Prange, Phys. Rev. Lett., 49 (1982) 509. [6] G. Casati, B. V. Chirikov and D. L. Shepelyansky, Phys. Rev. Lett., 53 (1984) 2525. [7] E. J. Galvez, B. E. Sauer, L. Moorman, P. M. Koch, and D. Richards, Phys. Rev. Lett., 61(1988) 2011; J. E. Bayfield, G. Casati, I. Guarneri, and D. W. Sokol, Phys. Rev. Lett., 63(1989) 364; M. Arndt, A. Buchleitner, R. N. Mantegna, and H. Walther, Phys Rev. Lett., 67 (1991) 2435. [8] F. L. Moore, J. C. Robinson, C. F. Bharucha, B. Sundaram and M. G. Raizen, Phys. Rev. Lett., 75 (1995) 4598. [9] G. Casati, B. V. Chirikov, I. Guarneri and D. L. Shepelyansky, Phys. Rev. Lett., 56 (1986) 2437. [10] G. Benenti, G. Casati, and G. Strini, “Principles of Quantum Computation and Information’’, Vol. I: “Basic concepts” (World Scientific, Singapore) 2004, and Vol II: “Basic tools and special topics” (World Scientific, Singapore) 2007. [11] G. Casati and T. Prosen, Phys. Rev. A, 72 (2005) 032111. [12] M. V. Berry, J. Phys. A, 10 (1977) 2083. [13] M. L. Mehta, “Random Matrices and the Statistical Theory of Energy Levels” (Academic Press, New York)1967; 2a edizione (Academic Press, New York) 1991. [14] H.-J. Stöckmann, “Quantum Chaos: An Introduction” (Cambridge University Press, Cambridge) 1999. [15] G. Casati, I. Guarneri and Valz-Gris, Lett. Nuovo Cimento, 28 (1980) 279. [16] O. Bohigas, M.-J. Giannoni, and C. Schmit, Phys. Rev. Lett., 52 (1984) 1. [17] M. C. Gutzwiller, “Chaos in Classical and Quantum Mechanics’’, (Springer) 1991. [18] J. E. Bayfield and P. M. Koch, Phys. Rev. Lett., 33 (1974) 258. [19] J. E. Bayfield, G. Casati, I. Guarneri and D. W. Sokol, Phys. Rev. Lett., 63 (1989) 364. [20] B. G. Klappauf, W. H. Oskay, D. A. Steck and M. G. Raizen, Physica D, 131 (1999) 78. [21] C. M. Marcus, A. J. Rimberg, R. M. Westervelt, P. F. Hopkins and A. C. Gossard, Phys. Rev. Lett., 69 (1992) 506. [22] C. W. J. Beenakker, Rev. Mod. Phys., 69 (1997)731. Giulio Casati Professore ordinario di fisica teorica presso l’Università degli Studi dell’Insubria. È direttore del centro di ricerca sui sistemi nonlineari e complessi e coordinatore scientifico del Centro Volta a Como. Sin dagli inizi degli anni ‘70 si è occupato di sistemi nonlineari, caos deterministico − classico e quantistico − e fenomeni di trasporto. Ha scoperto la localizzazione dinamica che è l’analogo della localizzazione alla Anderson, per sistemi disordinati. Si è occupato della applicazione del caos quantistico alla fisica atomica, alla fisica dello stato solido e, più recentemente, del problema del calcolo e della informazione quantistica. È coautore di due volumi su ” Principles of quantum computation and information”. È stato preside della facoltà di scienze della Università degli Studi di Milano e prorettore della Università dell’Insubria. Membro della Akademia europea, membro dell’editorial board del Physical Review E, ha ricoperto diversi incarichi internazionali. vol24 / no3-4 / anno2008 > 45 scienza in primo piano ­­ BOREXINO: un rivelatore unico per lo studio dell’oscillazione dei neutrini di bassissima energia Gianpaolo Bellini, Lino Miramonti, Gioacchino Ranucci Dipartimento di Fisica dell’Università di Milano e INFN Sezione di Milano Borexino è attualmente l’unico esperimento in grado di studiare in tempo reale le interazioni di neutrini con energie a livello del MeV. Il fondo estremamente ridotto del rivelatore rende possibile la misura indipendente dei flussi di neutrini solari prodotti da tutte le reazioni: 7 Be, pep, CNO, 8B (quest’ultimo a partire da 3 MeV), e possibilmente pp. I primi 192 giorni di presa dati hanno già permesso di ottenere la prima misura assoluta del flusso da 7Be. 1 I neutrini solari e l’oscillazione dei neutrini I neutrini (simbolo ν) sono una delle tre particelle elementari stabili della materia; essi sono particelle neutre e appartengono alla famiglia dei leptoni. Esistono in tre tipi diversi: il neutrino-elettrone (νe), il neutrinoµ (νµ), il neutrino-τ (ντ). Questi tre neutrini non sono identici e si ricordano permanentemente della loro origine, se sono stati prodotti in un decadimento elettronico β o se provengono da un decadimento del leptone µ o del leptone τ. Questa caratteristica è individuata da un numero quantico, il cosiddetto sapore leptonico, il quale si conserva sempre; o almeno così sembrava fino a pochi anni fa, cioè fino a quando non si è ottenuta evidenza sperimentale del fenomeno dell’oscillazione. Per il fenomeno dell’oscillazione [1], ipotizzato da Bruno Pontecorvo negli 46 < il nuovo saggiatore anni ‘50, un neutrino di un determinato sapore, ad esempio il νe , viaggiando nel vuoto o nella materia, si trasforma in un neutrino di un altro sapore, ad esempio il νµ. Infatti i neutrini che riveliamo, aventi un determinato sapore, non sono i veri autostati del neutrino, ma sono una composizione di autostati di massa. Così ad esempio il νe è un osservabile ottenuto dalla sovrapposizione di due neutrini originali, che corrispondono a due stati di massa diversi, chiamiamoli neutrino 1 e neutrino 2. Analogamente si può dire del νµ che risulta essere una sovrapposizione degli stessi stati di massa, 1 e 2, ma con pesi diversi. Se durante il cammino del neutrino dalla sorgente al punto di osservazione, ad esempio dal Sole alla Terra, oppure attraversando la materia solare, le percentuali degli stati 1 e 2 cambiano, avviene che nel flusso di νe , prodotti dal Sole, compaiano dei νµ. Così come ci sono tre stati di sapore del neutrino, ci sono tre autostati di massa, m1 , m2 , m3. Il fenomeno dell’oscillazione del neutrino può aver luogo sia mentre esso viaggia nel vuoto, a causa della diversità delle masse dei suoi autostati, sia durante l’attraversamento della materia [2]; in questo secondo caso gioca un ruolo importante l’interazione con gli elettroni del mezzo, che per il νe può essere sia di corrente carica che di corrente neutra, mentre per gli altri due tipi di neutrini è esclusivamente di corrente neutra. Le prime osservazioni che hanno fatto ipotizzare l’esistenza del fenomeno dell’oscillazione sono state fatte studiando i neutrini provenienti dal Sole, una sorgente naturale che fa piovere su ogni cm2 della Terra, circa 60 · 109 νe al secondo, prodotti dalle reazioni termonucleari che avvengono nel suo nocciolo. In tali reazioni 4 protoni si fondono danno origine ad G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc. 1a Fig. 1a Schema delle reazioni del ciclo p-p. Fig. 1b Schema delle reazioni del ciclo CNO. Fig. 1c Spettro in energia dei neutrini solari. Le frecce in basso indicano le soglie di rivelazione degli esperimenti radiochimici; la parte in blu rappresenta la parte dello spettro studiata da esperimenti in tempo reale, prima di Borexino. 1b un nucleo di elio, con rilascio di circa 26 MeV di energia. La sequenza di reazioni termonucleari si articola in due cicli: quello del protone-protone (pp) che rappresenta il 98% dell’intera catena, e quello del Carbonio-Ossigeno-Azoto (CNO), che incide nel Sole per poco meno del 2 %. Il ciclo pp produce νe in quattro tipi di reazione: pp, 7Be, pep, 8B, oltre alla reazione hep, che però dà un contributo molto piccolo. In fig.1a e fig. 1b sono rappresentate le sequenze delle reazioni dei due cicli, mentre in fig.1c viene riprodotto lo spettro in energia dei neutrini prodotti. Il funzionamento del Sole è descritto dal cosiddetto Modello Solare Standard (MSS) [3], il cui padre John N. Bahcall ne iniziò l’elaborazione negli anni ‘60 e ci lavorò, migliorandolo e raffinandolo, fino alla sua morte, avvenuta due anni fa. In tale modello i vari meccanismi riguardanti: le reazioni nucleari, la propagazione dell’energia e delle radiazioni vengono simulati in funzione di un certo numero di parametri; i constraints sperimentali sono pochi: la massa del Sole, la sua luminosità, la composizione in nuclei pesanti alla sua 1c superficie come desunta dalle analisi spettroscopiche e l’eliosismologia. Il MSS predice fra l’altro i flussi dei neutrini emessi dal Sole. I primi esperimenti che hanno fatto ipotizzare l’esistenza del fenomeno dell’oscillazione del neutrino furono esperimenti di disappearance, cioè esperimenti nei quali si sono misurati i flussi di νe , trovando dei valori decisamente inferiori a quelli previsti dal MSS. Ricordiamo i tre esperimenti di radiochimica: Homestake, Gallex, SAGE [4, 5]. In tali esperimenti grosse quantità di 37Cl e 71Ga, in varie forme vol24 / no3-4 / anno2008 > 47 chimiche, venivano immagazzinate in grosse taniche, in laboratori sotterranei. Il νe, interagendo con un neutrone lo trasforma in un protone creando dei nuclei di 37Ar e 71Ge, rispettivamente, ambedue instabili. Dopo una esposizione di circa un mese, i nuclidi prodotti venivano estratti dalla grande massa di liquido facendo gorgogliare He e immessi, dopo opportuno trattamento, in tubi proporzionali, ove venivano lasciati decadere, analizzandone i conteggi e gli spettri energetici. In questi esperimenti il flusso di neutrini viene misurato in modo integrato al disopra della soglia di rivelazione, senza distinguerne le diverse sorgenti, né vi è la possibilità di osservare eventuali fluttuazioni temporali (giorno/notte, stagionali) dei flussi stessi. In tab. 1 sono riassunte alcune caratteristiche degli esperimenti sui neutrini solari. A partire dagli anni ’80 iniziarono esperimenti, sempre di disappearance, che hanno studiato i neutrini solari rivelando le loro interazioni in tempo reale. Si tratta di Kamiokande e del suo fratello maggiore, SuperKamiokande [6]. Sono due esperimenti giapponesi che studiano lo scattering di neutrini sugli elettroni dell’acqua, che costituisce l’elemento rivelante per mezzo dell’effetto Cherenkov. Lo scattering elastico è indotto dai neutrini di tutti e tre i sapori, ma le sezioni d’urto dei νµ e dei ντ sono decisamente inferiori a quella del νe (ad esempio la probabilità di scattering elastico su elettrone del νµ è circa 1/6,5 di quella del νe , alle energie di interesse). Kamiokande e SuperKamiokande hanno un grossissimo problema dovuto alla radioattività naturale. Poiché, malgrado le grandi dimensioni di questi esperimenti, le interazioni di neutrini sono rare, oltre al problema dei raggi cosmici, che viene parzialmente risolto andando sotto terra (in verità rimane un residuo di particelle µ), vi è il problema della radioattività naturale la quale è presente in tutti i materiali: solidi, gas, liquidi, a livelli proibitivi per un esperimento di questo tipo. Di conseguenza in tutti gli esperimenti sui neutrini in tempo reale, prima di Borexino, viene imposta una soglia in energia molto alta. Nel caso di questi due esperimenti originariamente la soglia era di 7,5 MeV ed è stata successivamente ridotta a 4,5 MeV: in questo modo tutti i decadimenti provenienti dalle famiglie radioattive del torio e dell’uranio sono eliminati, Esperimento Laboratorio Copertura (m acqua equiv.) Dimensioni Homestake Homestake 4100 615 ton C2Cl4 Gallex/GNO Gran Sasso 3500 30 ton Ga in sol. H2O SAGE Baksan 4800 Kamiokande Kamioka SuperKamiokande SNO Tab. I 48 < il nuovo saggiatore scienza in primo piano in quanto l’energia più elevata, quella dei decadimenti del tallio è comunque inferiore (tab. 1). Un approccio model independent è quello dell’esperimento canadese SNO (Sudbury Neutrino Observatory) [7], la cui parte sensibile è costituita da 1000 tonnellate di acqua pesante e sfrutta l’effetto Cherenkov. In tale rivelatore vengono studiate sia le interazioni di corrente carica (νe + d → p + p + e−), con scambio di bosone carico, che possono essere indotte solo da νe, sia le interazioni di corrente neutra (νe, µ, τ + d → n + p +νe, µ,τ ), con scambio di bosone neutro, che sono prodotte da neutrini di qualunque sapore. Le interazioni di corrente neutra sono state studiate sia con il rivelatore riempito di sola acqua pesante, sia con l’aggiunta di NaCl, sia con l’inserzione di contatori a 3He, per aumentare la probabilità di cattura del neutrone prodotto nella reazione. Mentre il tasso di interazioni di corrente carica mostra un deficit rispetto a quanto ci si poteva aspettare dalle previsioni del MSS, il tasso di corrente neutra è in accordo con tali previsioni. L’interpretazione di questi dati è molto chiara: il tasso di interazioni che possono essere indotte solo da νe è inferiore a quanto aspettato, sia Reazione Flusso (% rispetto SSM) νe + 37Cl → e−+ 37Ar ≅ 33% 0,233 νe + 71Ga → e− + 71Ge ≅ 60% 50 ton Ga in forma metallica 0,233 νe + 71Ga → e− + 71Ge ≅ 55% 2050 3000 ton H2O 7,5 Cherenkov ≅ 55% Kamioka 2050 22500 ton H2O 4,5 Cherenkov ≅ 46% Sudbury 6000 1000 ton D2O 5,0 Cherenkov νe + D → p + p + e− (CC) νx + D → p + n + νx (NC) ≅ 35% CC Soglia (MeV) 0,814 G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc. in questo esperimento sia in quelli citati prima, perchè parte dei neutrini prodotti nel Sole si trasforma in neutrini di altro sapore, in particolare in νµ , e questo è dimostrato dal fatto che invece le interazioni di corrente neutra, prodotte da qualunque tipo di neutrino, vanno d’accordo con le previsioni riguardante il flusso totale (tab. 1). Anche SNO, come tutti gli altri esperimenti sui neutrini solari in tempo reale ha una soglia in energia molto alta (5 MeV). Questo risultato, confrontato con l’evidenza di oscillazione dei neutrini atmosferici, ha portato alla conclusione che nei neutrini solari esiste il fenomeno dell’oscillazione νe-νµ (mentre l’oscillazione νµ-ντ è tipico dei neutrini atmosferici). Nello studio delle oscillazioni del neutrino i parametri che caratterizzano il fenomeno sono le differenze delle masse al quadrato degli autostati del neutrino, e l’angolo di mixing. Nel caso dei neutrini solari e quindi dei νe ed νµ , gli stati di massa coinvolti sono gli stati 1 e 2. Quindi i parametri sono: Dm212 e sin2 q12 (o tan2 q12). L’intervallo di questi parametri che può essere investigato da un esperimento dipende quasi esclusivamente dal rapporto E / l, ove E è l’energia dei neutrini che inducono le reazioni ed l è la distanza fra la sorgente dei neutrini e il rivelatore. Su queste considerazioni sono basate le scelte dell’esperimento giapponese KamLAND [8], un esperimento che utilizza uno scintillatore liquido, il cui progetto, sia per quanto riguarda l’architettura sia per quanto riguarda le metodiche, è stato ripreso molto strettamente dal rivelatore e dagli sviluppi tecnologici di Borexino. KamLAND ha studiato le interazioni n−-e prodotte dagli antineutrini da reattori (〈En− 〉 ≈ 3 MeV), posti a circa 180 km di distanza media dal rivelatore. I risultati di KamLAND, insieme a quelli degli altri esperimenti citati, hanno portato a fissare i parametri di oscillazione ai seguenti valori: Dm221= (7,58 ± 0,14 (stat) ± 0,15 (syst)) . 10–5 eV2 e tan2 q12 = 0,56 ± 0,1 (stat) ± 0,1 (syst). Va notato che, mentre i parametri di oscillazione sono ottenuti da un fit che coinvolge anche gli esperimenti radiochimici con bassa soglia in energia, il modello di oscillazione attualmente adottato è basato sullo studio di 1/10000 circa di tutto lo spettro solare; praticamente la coda di tale spettro ad alta energia. Se si calcola la probabilità di sopravvivenza del νe , utilizzando i valori dei parametri citati sopra, si ottiene la curva di fig. 2. Tale curva è caratterizzata da un plateau a valori di probabilità a bassa energia, corrispondenti ad un regime nel quale prevale l’oscillazione nel vuoto, mentre, dopo una zona di transizione, si passa ad un plateau a probabilità più bassa, che corrisponde ad un regime dove prevale l’oscillazione nella materia. Come si vede è possibile estrarre dagli esperimenti in tempo reale eseguiti finora il punto quotato nella zona della materia. Tutto il resto della curva non ha nessuna conferma sperimentale. 2 Il rivelatore Borexino Lo studio del fenomeno dell’oscillazione dei neutrini solari può essere completato solo da una misura del rimanente 99,99% dello spettro, ed in particolare dei flussi dei neutrini a bassa energia. Per tale ragione, all’inizio degli anni ’90, un gruppo di fisici italiani coagulò intorno a sè una collaborazione internazionale per intraprendere un esperimento capace di studiare per la prima volta in tempo reale i neutrini di bassa energia, al di sotto di 1 MeV. La Collaborazione comprende Istituti ed Università italiane, americane, 2 Fig. 2 Probabilità di sopravvivenza del neutrino elettronico in funzione dell’energia, con l’indicazione dell’unico punto finora misurato. vol24 / no3-4 / anno2008 > 49 tedesche, russe, francesi e polacche, ed è composta oggi da circa una sessantina tra fisici, ingegneri e tecnici. La scelta del mezzo sensibile cadde sullo scintillatore liquido per avere più luce e quindi migliore risoluzione. I limiti di radiopurezza necessari per fare misure in tempo reale con neutrini di energia inferiore al MeV furono individuati in 10–16 g/g (grammi di contaminante su grammi di sostanza) per le famiglie del 238U e del 232Th, in 10–14 g/g per il K naturale, e in circa 10–18 per il rapporto 14C / 12C. Fu iniziato quindi un programma di ricerca tecnologica, che durò fino al 1996, per dimostrare la fattibilità di un simile esperimento. Il programma ha riguardato: la ricerca e selezione di materiali a bassissimo contenuto radioattivo per la costruzione del rivelatore; lo sviluppo di parti del rivelatore in collaborazione con industrie di alta tecnologia (è il caso ad esempio dei fotomoltiplicatori), la ricerca di metodi di purificazione della parte rivelante (lo scintillatore) che spingessero il suo contenuto radioattivo ai livelli di progetto sopramenzionati. Per capire meglio la difficoltà di un programma di questo tipo basterà ricordare che nel caso di molti contaminanti radioattivi si è dovuta operare una riduzione di circa 8 ordini di grandezza [9]! Per purificare lo scintillatore ai livelli richiesti furono sviluppati quattro metodi di purificazione. L’estrazione con acqua deionizzata (water extraction) nella quale si è utilizzata acqua ultrapura, ottenuta da un impianto costruito in loco (vedi tab.2), la distillazione sottovuoto a bassa temperatura (l’alta temperatura facilita l’estrazione di impurità dall’acciaio delle linee e della colonna di distillazione), l’utilizzo di silicagel, e lo strippaggio con azoto ultrapuro, purificato in loco con appositi impianti. Queste quattro tecniche hanno permesso di ridurre a bassissimi livelli gli isotopi dell’uranio, del torio e del potassio, 50 < il nuovo saggiatore ma sono del tutto inefficaci per la rimozione del 14C presente in ogni idrocarburo. Il problema del 14C fu affrontato negoziando con il produttore di pseudocumene, il solvente dello scintillatore, l’uso di nafta proveniente da giacimenti molto antichi, come ad esempio quelli libici. Un importante problema che si è dovuto affrontare durante la fase di R&D è che, una volta raggiunti i bassi livelli di radioattività, era necessario misurarli. Gli strumenti più sensibili, disponibili per misure di contaminazioni, sono gli spettrometri di massa con sorgente al plasma, che possono raggiungere sensibilità dell’ordine dei 5 · 10–14 g/g, limite non sufficiente ai nostri scopi. La Collaborazione Borexino decise allora di costruire un rivelatore avente una sensibilità sufficiente per misurare i livelli di radiopurezza raggiunti. Fu costruito quindi il Counting Test Facility (CTF) [10], installato nella hall C dei laboratori del Gran Sasso. Questo rivelatore è una versione ridotta e molto semplificata di Borexino: consiste in un contenitore di nylon, dello spessore di 0,5 mm, contenente una massa attiva di scintillatore binario (lo stesso che viene utilizzato per Borexino) di 4 tonnellate. La parte attiva è vista da 100 fotomoltiplicatori accoppiati a un concentratore di luce e montati su una struttura aperta (fig. 3 e 4). Il tutto è circondato da circa 1000 tonnellate di acqua ultrapura, che scherma le radiazioni provenienti dall’esterno, contenute in una tanica cilindrica di acciaio a basso contenuto radioattivo. Il CTF raggiunge una sensibilità di 5 · 10–16 g/g, che ne fa uno dei rivelatori più sensibili al mondo, a livello di tonnellate. Il CTF, oltre ad avere la funzione di bench mark per Borexino [11], ha prodotto anche una notevole quantità di fisica competitiva, malgrado il limitato volume, sfruttando la sua alta sensibilità [12]. Le misure fatte con il CTF dimostrarono che le tecnologie sviluppate erano scienza in primo piano in grado di assicurare il successo di Borexino: ciò avvenne nel 1995. Nel 1996 il progetto di Borexino fu approvato e iniziò la costruzione del rivelatore, grazie ai finanziamenti dell’Istituto Nazionale di Fisica Nucleare, della National Science Foundation e di due agenzie tedesche. Purtroppo dall’agosto del 2002, la costruzione del rivelatore subì un fermo di più di tre anni, dovuto a problemi intercorsi tra i Laboratori del Gran Sasso e le autorità locali. Le attività furono riprese completamente solo nella primavera del 2005. Nell’autunno del 2006 il rivelatore fu riempito con acqua ultrapura, sostituita poi dallo scintillatore già purificato. La presa dati iniziò nel maggio 2007. Borexino [13] ha una struttura a cipolla (vedi fig. 5 e 6), con gusci concentrici aventi radiopurezza crescente muovendosi dall’esterno verso l’interno, dove si trova la parte sensibile, cioè lo scintillatore. La parte più esterna del rivelatore è costituita da una cupola d’acciaio di 16,9 metri di altezza e di 18 metri di diametro, contenente 2100 tonnellate di acqua ultrapura, che assicurano al rivelatore, in ogni direzione, 2 m almeno di schermo dai neutroni e dai raggi gamma emessi dalla roccia. All’interno della cupola si trova una sfera d’acciaio (SSS) di 13,7 m di diametro, che ha il compito di contenere lo pseudocumene e sostenere i 2214 fotomoltiplicatori che captano la luce prodotta dallo scintillatore (vedi fig. 7 e 8). Posizionato nel centro della sfera si trova un pallone di nylon (Inner Vessel) di 8,5 m di diametro, (fig. 9) al cui interno sono contenute circa 280 tonnellate di scintillatore liquido, composto da pseudocumene, il solvente, e da una quantità di soluto (PPO, nella misura di 1,5 g/l) al fine di amplificare la resa di luce. Fra l’Inner Vessel e la sfera d’acciaio circa due metri di schermo liquido, in tutte le direzioni, assicura l’assorbimento delle emissioni radioattive dell’acciaio della G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc. 3 5 4 6 7 9 8 Fig. 3 Fotografia dell’apparato interno del Counting Test Facility. Sono visibili sia l’Inner Vessel di nylon contenente lo scintillatore, sia l’Outer Vessel, che funziona da barriera al 222Rn emesso dalle pareti di acciaio della tanica esterna. Fig. 4 Fotografia della struttura del Counting Test Facility. Sono visibili sia i 100 fotomoltiplicatori montati sulla struttura di 7 m di diametro sia l’Inner Vessel in nylon (diametro 2 m). Fig. 5 Spaccato del rivelatore Borexino: La parte gialla rappresenta lo scintillatore contenuto nell’Inner Vessel (il più piccolo dei cerchi individua il volume fiduciale). La parte in azzurro chiaro rappresenta il buffer di pseudocumene con l’aggiunta del quencher DMP, mentre la parte in azzurro scuro esterna alla sfera d’acciaio rappresenta lo schermo di acqua ultrapura (vedi testo). Fig. 6 Spaccato tridimensionale del rivelatore Borexino. Fig. 7 Installazione delle fibre ottiche per la calibrazione temporale dei fotomoltiplicatori. Fig. 8 Interno della sfera d’acciaio, con i fotomoltiplicatori montati, prima dell’installazione dei vessels di nylon. Fig. 9 Sequenza dell’installazione dei vessels di nylon all’interno della grande sfera d’acciaio. vol24 / no3-4 / anno2008 > 51 10 scienza in primo piano 11 12 Fig. 10 Vista del fondo dell’Inner Vessel con il dettaglio del relativo sistema di ancoraggio e monitoraggio, e dei fotomoltiplicatori sottostanti. Fig. 11 Vista interna del rivelatore Borexino durante la sostituzione dell’acqua ultrapura con lo scintillatore. Fig. 12 Vista interna del rivelatore Borexino ripresa dalla telecamera 1 il 15 maggio 2007 al momento del suo completo riempimento con scintillatore. sfera e dei fotomoltiplicatori, nonché delle residue radiazioni delle rocce e dell’ambiente; tale liquido, detto liquido di buffer, è costituito da pseudocumene al quale è stato aggiunto un “quencher” (DMP), per evitare emissioni di luce. La scelta dello pseudocumene come liquido di buffer, lo stesso solvente dello scintillatore presente nell’Inner Vessel, è dovuta alla necessità di ridurre al minimo la spinta d’Archimede, e quindi lo stress su di esso, tenuto conto dello spessore del nylon (mantenuto a soli 125 µm onde limitare al massimo le emissioni radioattive). In fig. 10 è mostrata la parte inferiore dell’inner Vessel con il sistema di ancoraggio e monitoraggio. Il volume del liquido di 52 < il nuovo saggiatore buffer corrisponde a circa 900 tonnellate di pseudocumene. Le prescrizioni di progetto per la radiopurezza del liquido di buffer possono essere attenuate di un ordine di grandezza rispetto a quelle dello scintillatore. Un secondo pallone di nylon (Outer Vessel) di 11 m di diametro è posizionato tra la sfera d’acciaio e l’Inner Vessel col compito di fermare il radon, emesso dai fotomoltiplicatori e dalla sfera d’acciaio, che essendo un gas si diffonde facilmente e può avvicinarsi all’Inner Vessel. In fig. 11 è mostrato l’Inner Vessel durante la sostituzione dell’acqua con lo scintillatore, mentre in fig. 12 è riportata la configurazione finale con il vessel completamente riempito di scintillatore. Solo 1843 fotomoltiplicatori sono equipaggiati con un concentratore ottico, assicurando una copertura ottica di circa il 30%. I concentratori sono degli Wiston cones di aluminio elettropulito; essi captano solo i fotoni provenienti dall’Inner Vessel. I rimanenti fotomoltiplicatori montati sulla sfera sono privi di concentratori ottici in modo da permettere la captazione anche dei fotoni provenienti dal buffer, in modo da studiare meglio il fondo dovuto agli eventi rivelati dallo pseudocumene presente in esso. All’esterno della SSS è montato un rivelatore di µ, costituito da 200 fotomoltiplicatori, con il compito di G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc. registrare la luce Cherenkov emessa dai muoni che attraversano il rivelatore. Le pareti esterne della sfera e quelle interne della water tank sono coperte da fogli di Tyvek, al fine di aumentare la diffusione della luce Cherenkov e quindi la sua captazione da parte dei 200 fotomoltiplicatori. Il potere di reiezione del rivelatore di µ è in grado di ridurre di 3-4 ordini di grandezza il flusso muonico che arriva nei Laboratori sotterranei del Gran Sasso; tale flusso corrisponde a 1,1 µ/m2/h. Infine viene definito, per alcune misure più difficili e delicate, un “volume fiduciale” di circa 100 tonnellate di scintillatore liquido, che viene schermato, rispetto alla parete di nylon dell’Inner Vessel, da circa 1,25 m di scintillatore, che assorbe le emissioni provenienti da essa. Le interazioni studiate da Borexino riguardano lo scattering elastico ν-e. Il rivelatore misura: a) la carica totale corrispondente all’energia rilasciata nell’interazione; b) la posizione dell’evento nello spazio, mediante il timing dei fotomoltiplicatori; c) il tempo assoluto dell’evento mediante GPS. Per il punto a) la risoluzione dipende dal numero di fotoelettroni che corrispondono nel rivelatore al rilascio di energia. Per il punto b) è importante ridurre al minimo le fluttuazioni dei tempi di risposta; per tale ragione nello sviluppo dei fotomoltiplicatori perseguito in collaborazione con la ditta ETL, si è curato di ridurre al minimo la fluttuazione sui tempi di transito (risultato ottenuto: ≤ 1 ns) [14], mentre è stato scelto uno scintillatore binario con tempi di decadimento corti (nel nostro caso: ≤ 3,5 ns) [15]. Infine le misure temporali sono importanti per l’individuazione delle coincidenze ritardate che caratterizzano i fondi; ma l’uso di due GPS è focalizzato in particolare alla rivelazione di una eventuale esplosione di Supernova. 3 La tecnologia di Borexino Gli sviluppi tecnologici attuati per Borexino hanno avuto successo, arrivando a risultati che rappresentano dei records nella letteratura scientifica, e sono stati ripresi e riprodotti da altri esperimenti e R&D attualmente in corso. Il raggiungimento degli obiettivi di Borexino ha comportato anche l’adozione di una serie di misure e di precauzioni che hanno reso complessa la costruzione del rivelatore e fanno di Borexino un rivelatore unico, almeno fino ad ora. Si sono realizzati, oltre al rivelatore, un numero notevole di impianti ausiliari per: la purificazione dell’acqua, dello pseudocumene e di una soluzione concentrata di PPO (la cosiddetta “master solution”), la produzione di azoto Rn free e Ar, Kr free, il degasamento e l’umidificazione dello scintillatore, l’impianto di exhausting dell’azoto, gli impianti di sicurezza, ecc. Invece di descrivere tali impianti preferiamo qui menzionare a grandi linee le principali tecniche e metodologie adottate nella realizzazione del rivelatore. 1. Purificazione dello pseudocumene via water extraction, distillazione a 80 mbar e 90 °C, flussaggio in controcorrente con azoto, filtrazione ultrafine. La master solution è stata pulita separatamente. 2. Purificazione dell’azoto, onde ottenere un bassissimo livello di radon, mediante carbone attivo criogenico. Impianto dedicato all’azoto con ridottissima presenza di 39Ar e 85Kr (quest’ultimo presente nell’atmosfera come residuo dei test nucleari). 3. Produzione di acqua ultrapura in: Th e U, 222Rn e 226Ra (il livello del 222 Rn presente nell’acqua del Gran Sasso ha dovuto essere ridotto di 7 ordini di grandezza). 4. Selezione spinta di tutti i componenti per la costruzione del rivelatore e degli impianti ausiliari focalizzata ai bassi livelli 5. 6. 7. 8. 9. di radioattività, come: acciaio, guarnizioni, valvole (solo in acciaio inox), vetro e ceramiche dei fotomoltiplicatori, nonché resine e colle per la loro sigillatura. Tutte le superfici del rivelatore e delle linee sono state elettropulite. Sigillatura di tutti i sistemi e impianti a livello di 10–8 bar . cm3 . s–1 per evitare ogni minima infiltrazione di aria, che nel laboratorio sotterraneo contiene livelli di 222Rn fra i 40 e i 120 Bq/m3 (da confrontare con il livello < 1 µBq / m3 accettabile nel nostro scintillatore). Tutte le operazioni sono state eseguite, ove possibile, in camere pulite di classe 10, 100 e la sfera stessa del rivelatore è stata mantenuta a classe 10000. Ove non era possibile lavorare in camera pulita, come nel caso degli impianti ausiliari, si è lavorato all’interno di flussi di N o Ar. Il nylon dell’Inner e dell’Outer Vessel è stato selezionato partendo da pellets con contenuto radioattivo inferiore a 10–12 g/g in U e Th ed 10–8 g/g in natK. La fibra, avente uno spessore di soli 125 mm, è stata estrusa in atmosfera controllata e i vessels sono stati realizzati in camera pulita di classe 100, nella quale l’aria veniva fatta circolare attraverso un sistema di carboni attivi per diminuirne il contenuto in Rn. Una copertura che assorbisse il radon dell’aria è stata mantenuta intorno ai vessels fino alla loro istallazione nella SSS, nella quale l’aria era stata sostituita da aria sintetica (quindi avente un’età superiore alla vita media del 222Rn) e da azoto ultrapuro nella fase successiva. L’approvvigionamento dello pseudocumene è stato eseguito con speciali precauzioni: una stazione di pompaggio di circa 1 km con linee elettropulite ed in atmosfera di azoto è stata appositamente istallata nello stabilimento di produzione della Polimeri Europa a vol24 / no3-4 / anno2008 > 53 Sarroch (Sardegna) per connettere direttamente la colonna di distillazione ai mezzi di trasporto. Il trasporto veniva eseguito mediante quattro isotanks elettropulite e mantenute sempre in atmosfera di azoto ed era organizzato in modo da minimizzare l’esposizione dello pseudocumene ai raggi cosmici, onde mantenere a bassi livelli la cosmogenesi di 7Be (generalmente il trasporto impiegava circa 48 ore). Nel laboratorio sotterraneo è stata istallata una stazione di scarico che connetteva direttamente l’isotank ai contenitori della Storage Area di Borexino. 10. Il rivelatore, le linee, tutti i contenitori e i componenti sono stati sottoposti ad una pulizia di precisione mediante acidi e detergenti per la rimozione di particolato e polvere. Molti altri sviluppi tecnologici sono stati perseguiti. Ricordiamo qui solamente uno di essi in virtù della sua specificità ed unicità: la speciale sigillatura che è stata sviluppata per i fotomoltiplicatori che ne consentisse la duplice funzionalità sia in acqua altamente deionizzata che in pseudocumene. Data la radicale diversità dei due ambienti operativi è stato necessario individuare ex-novo soluzioni basate sull’utilizzo di resine sigillanti non standard, che si conformassero anche alle stringenti prescrizioni di radiopurezza dell’esperimento. Valori di progetto (scintillatore) La prima analisi dei dati di Borexino ha evidenziato il completo successo delle tecnologie sviluppate e delle tecniche adottate. I livelli di radioattività riscontrati nello scintillatore sono più di un ordine di grandezza inferiore alle prescrizioni di progetto. In tab. 2 vengono mostrati i livelli di radiopurezza raggiunti e confrontati con quelli di progetto. dello pseudocumene operato con il CTF, unito all’ ottima risoluzione in energia, rende possibile abbassare la soglia di analisi sino a 200 keV, aprendo di fatto uno spazio di osservazione anche fra 200 e 240 keV corrispondente alla coda dello spettro di diffusione indotto dai neutrini pp. La possibilità effettiva di misurare il flusso dei neutrini da pp dipende dall’accuratezza con cui si riuscirà a modellare la risposta del rivelatore in questa zona critica di bassissima energia. Con riferimento allo spettro solare in fig. 1c, di particolare interesse, anche per le loro implicazioni astrofisiche, sono le due componenti di energia appena più alta del 7Be, ovvero il flusso del CNO e del pep. Il primo è uno spettro continuo, che nel rivelatore è per buona parte della sua estensione mascherato dallo spettro di diffusione indotto dal 7Be. Tuttavia, in virtù del suo end-point pari a 1,47 MeV, è osservabile sulla destra dello spettro del 7 Be, che termina a 0,665 MeV. La stessa possibilità sussiste anche per il flusso pep, il cui spettro di diffusione (il pep ha un flusso monoenergetico a 1,44 MeV) va da 0 sino al massimo di 1,22 MeV. La regione di energia fra 1 e 2 MeV soffre del fondo dovuto al 11C cosmogenico, prodotto continuamente dai µ sopravvissuti all’attraversamento dei 1780 m di roccia, che sovrastano il laboratorio sotterraneo del Gran Sasso. Il suo spettro maschera proprio l’intervallo di energia nel quale CNO 4 La fisica di Borexino Lo straordinario livello di purezza raggiunto nello scintillatore di Borexino, ben oltre le iniziali specifiche di progetto, rende concretamente possibile aprire una vasta “finestra di osservazione” sullo spettro del neutrino solare, facendo leva su tre importanti caratteristiche: la radiopurezza estrema conseguita in termini di uranio e torio, il bassissimo livello di presenza del 14C, la possibilità di rigettare il 11C di origine cosmogenica. Il 14C costituisce il limite inferiore in energia della finestra di esplorazione di Borexino, a causa del suo spettro beta con end-point a 156 keV. In sede di progetto si era ipotizzato che, accettando un’abbondanza isotopica del 14C dell’ordine di 10–18 nello scintillatore, e con una adeguata risoluzione in energia, si potesse impostare una soglia di analisi di 250 keV. Il valore definitivo rilevato in Borexino di 2,7 ⋅ 10–18 per il rapporto 14 C / 12C , frutto anche della selezione 232 238 nat ≅ 10−16g/g ≅ 10−16g/g ≅ 10−14g/g Th scienza in primo piano U K 222 Rn Scintillatore 6,8 ± 1,5 · 10−18 g/g 1,6 ± 0,1 · 10−17 g/g Acqua ≅ 10−14g/g ≅ 10−14g/g 85 0,01 ppm 0,03 ppt Ar 226 Ra < 3 · 10−14 g/g < 1 mBq/m3 Tab. II NB. I numeri in rosso costituiscono un record assoluto nella letteratura scientifica. 54 < il nuovo saggiatore Kr < 1µ Bq/m3 < 0,1 µBq/m3 Azoto 39 < 0,8 mBq/m3 G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc. e pep sono suscettibili di essere osservati. Poiché questa è la situazione che si è effettivamente verificata nei dati di Borexino, la collaborazione sta perseguendo una strategia di identificazione e rimozione del 11C, basata sulla tripla coincidenza tra il µ incidente, il neutrone prodotto e il decadimento finale del 11C. Infine, il programma sui neutrini solari sarà completato dalla misura dello spettro del 8B; in questo caso il bassissimo fondo radioattivo renderà possibile effettuare la misura con soglia di 3 MeV, quindi ben al di sotto del limite di SuperKamiokande e SNO, aprendo la prospettiva di osservare la distorsione spettrale prevista dall’effetto MSW e l’effetto giorno/notte, che diventano più consistenti al di sotto di 4,5 MeV. Nel quadro di questo scenario di investigazione dell’intero spettro dei neutrini solari, Borexino ha già segnato una pietra miliare con la prima misura mai effettuata in tempo reale, e quindi separatamente dagli altri flussi, dei neutrini dal 7Be. La massa fiduciale di 100 tonnellate del volume fiduciale rivela il 7Be con alta statistica (circa 50 eventi/giorno) rendendo possibile una prima significativa misura già dopo i primi 47 giorni di presa dati [16]. Ma vediamo quali sono le performances di Borexino, riferendoci a 192 giorni di effettiva presa dati [17]. La resa di luce è stata stimata operando il fit dello spettro beta del 14C ed è risultata essere di circa 500 fotoelettroni per MeV di energia depositata nello scintillatore; questo valore permette una risoluzione spaziale ≅ 16 cm a 500 keV e una risoluzione energetica dell’ordine del 6 % a 1 MeV. Il 232Th è stato studiato attraverso i figli del 220Rn, assumendo valido l’equilibrio secolare e misurando le coincidenze ritardate 212Bi-212Po (τ = 432,8 ns). Il risultato ottenuto è inferiore a 6.8 ± 1,5 · 10–18 g/g in 232Th equivalente. Il contenuto di 238U, studiato attraverso le coincidenze ritardate 214Bi-214Po (τ=236 µs), ha dato come risultato un valore inferiore a 1,6 ± 0,1 · 10–17 g/g in 238 U equivalente. Venendo ora allo studio del neutrino solare, lo spettro grezzo, ottenuto con i dati raccolti in 192 giorni, è mostrato in fig. 13 (linea nera), unitamente a quelli ottenuti con la successiva applicazione del taglio di volume fiduciale e dei µ cosmici (R < 3m, linea blu) e della discriminazione alfa-beta, possibile nello scintillatore di Borexino (linea rossa). In particolare, l’identificazione degli eventi alfa rimuove il picco, molto evidente nei primi due spettri, dovuto alla presenza del 210Po. Lo spettro finale è quello in rosso, le cui caratteristiche immediatamente rilevabili sono tre: a) il chiaro segnale a bassa energia del 14 C, b) la segnatura incontrovertibile dell’avvenuta rivelazione dei neutrini da 7Be costituita dal Compton-like edge (punto in cui termina lo spettro di rinculo degli elettroni diffusi dai neutrini) a circa 300 fotoelettroni; c) lo spettro esteso (fra 1 e 2 MeV) del 11 C di origine cosmogenica. Data la molteplicità delle componenti presenti nello spettro, la determinazione precisa del tasso di conteggio di ciascuna di esse, e quindi in particolare dei neutrini del 7Be, richiede l’assunzione della forma degli spettri dei singoli contributi e la loro utilizzazione nei fit dei dati sperimentali (spettro in rosso dopo i tagli in fig. 13). Il segnale atteso contempla, oltre al 7Be, anche le altre sorgenti di neutrini solari, ovvero i neutrini pp, pep e CNO, mentre il fondo è costituito dai già citati 14C e 11C, e dal kripton , la cui presenza è stata individuata sfruttando la coincidenza beta-gamma del decadimento beta del 85Kr nel 85mRb, seguito dalla diseccitazione di quest’ultimo con emissione di un gamma di 514 keV (B.R. 0,43 %). In fig. 14 si mostra lo spettro sperimentale, le varie componenti del segnale e del rumore, ed il fit complessivo. Il valore del χ2 ridotto è pari a 1,06, indicativo del buon grado di aderenza ai dati del modello. Il valore del tasso di eventi indotti nel rivelatore dai neutrini da 7Be (a 0,862 MeV) risulta pari a 49 ± 3 (errore statistico), al quale si aggiunge un errore sistematico di ± 4 conteggi, dovuto principalmente alla definizione del volume fiduciale e della scala di energia. Il valore ottenuto per il flusso del 7Be permette sia di escludere l’ipotesi di non oscillazione (che darebbe un tasso di 74 ± 2) sia di operare un primo confronto con il modello attualmente adottato per il fenomeno dell’oscillazione del neutrino. In fig. 15 viene riproposta la stessa funzione, già presentata in fig. 2, per la probabilità di sopravvivenza del νe , con l’aggiunta dei valori ottenuti da Borexino per il 7 Be e le stime che si possono ottenere per il flusso da pp combinando i risultati di Borexino con quelli degli altri esperimenti. I punti sperimentali per il 7Be sono valutati in base alle previsioni del MSS sia nel caso di alta che di bassa metallicità. Gli errori della misura di Borexino, mentre non sono in disaccordo con il modello di oscillazione, non permettono attualmente di discriminare fra i due valori di metallicità, problema irrisolto nella fisica del Sole. In fig. 16 diamo i limiti che si possono estrarre dai dati sperimentali sul neutrino solare con l’aggiunta di quelli di Borexino sui flussi da pp e CNO. Ricordiamo infine che studiando il possibile contributo elettromagnetico alla sezione d’urto di diffusione del νe [17], la Collaborazione ha desunto dallo studio dello spettro misurato del 7Be un limite sul momento magnetico del νe di 5,4 · 10–11 µB , che rappresenta il limite più stringente mai ottenuto con misure di laboratorio. vol24 / no3-4 / anno2008 > 55 13 14 15 16 17 56 < il nuovo saggiatore 18 G. bellini et al.: borexino: un rivelatore unico per lo studio dell’oscillazione ecc. 5 Prospettive future Il programma di Borexino sul neutrino solare ha come scopo, con l’aumento della statistica e la diminuzione dell’errore sistematico, la determinazione del flusso da 7Be con un errore globale non superiore al 5 %. Questo traguardo sarà facilitato anche da una campagna di calibrazioni con sorgenti interne al rivelatore, in programma fra qualche mese. Il suo raggiungimento permetterà alla Collaborazione Borexino di confermare o meno il modello dell’oscillazione, attualmente adottato, nella regione di oscillazione nel vuoto, e probabilmente di discriminare fra alta e bassa metallicità. I due valori di metallicità nel Sole, attualmente in discussione, introducono una differenza nel flusso da 7Be di circa il 10 %. La misura diretta del flusso da pep e CNO darà la possibilità di mettere alla prova il modello di oscillazione nella zona di transizione fra regime di vuoto e quello di oscillazione nella materia. Lo scintillatore, come è noto, non dà informazioni sulla direzionalità delle particelle incidenti, come avviene ad esempio nel caso della luce Cherenkov. Ovviamente proprietà caratterizzanti il neutrino solare, come l’intervallo di energia e, ad esempio, il Compton edge del flusso da 7Be, assicurano l’origine dei neutrini incidenti. Ma vi è un modo anche più diretto di fare un test sull’origine del flusso dei neutrini, misurando la variazione stagionale di tale flusso, conseguenza dell’eccentricità dell’orbita terrestre. In fig. 17 è rappresentato il grado di confidenza della misura di questo effetto stagionale (che è dell’ordine del 3%) in funzione del fondo presente nel rivelatore. Come si può vedere, il fondo di Borexino, che sta fra 10–18 e 10–17 g/g, Th e U equivalenti, permette di raggiungere un grado di confidenza superiore a 2,5 σ in un anno di presa dati e superiore a 3,5 σ in due anni . Borexino ha delle ottime possibilità di ottenere risultati anche al di fuori del campo dei neutrini solari. Ci riferiamo allo studio degli antineutrini emessi dalla Terra. La rivelazione delle interazioni prodotte da antineutrino ha una segnatura molto chiara attraverso il processo beta inverso, con emissione Fig. 13 Spettro (in fotoelettroni) degli eventi “row” (linea nera), dopo il taglio del volume fiduciale (linea blu), dopo la sottrazione delle alfa (linea rossa). Fig. 14 Fit spettrale nella regione tra 160 e 2000 keV da cui si estrae la misura del flusso da 7Be. Fig. 15 Probabilità di sopravvivenza del neutrino elettronico in funzione dell’energia, con l’indicazione dei punti desunti dai dati di Borexino. I punti nella regione del flusso da pp rappresentano le indicazioni indirette desunte dagli esperimenti sul neutrino solare prima e dopo Borexino. Fig. 16 Determinazione dei limiti dei flussi da pp e CNO, normalizzati alle previsioni dell’MSS, così come ottenuti dall’analisi congiunta dei risultati di Borexino e degli esperimenti pregressi (68 %, 90 % e 99 % C.L.). Fig. 17 Sensibilità di Borexino alla variazione stagionale del flusso di neutrini solari, dovuta all’eccentricità dell’orbita terrestre in funzione del fondo radioattivo. Fig. 18 Supernova: spettro del protone di rinculo prodotto dallo scattering elastico ν-p. di un positrone, che annichila, e di un neutrone, che termalizza in circa 300 µs e viene catturato con l’emissione di un gamma da 2,2 MeV. Come è noto i vari modelli della Terra attribuiscono alla radioattività una parte del calore interno che va dal 40 al 100 %. In Borexino, in base ai vari modelli, si attendono dai 7 ai 17 eventi all’anno. Il grosso vantaggio riguarda il sito nel quale il rivelatore è installato; infatti il maggiore fondo per lo studio dei geoneutrini è rappresentato dagli antineutrini emessi dai reattori nucleari, il flusso dei quali è estremamente basso al Gran Sasso, non essendoci reattori in un vasto raggio intorno al laboratorio. Tenuto conto anche del livello molto basso del fondo in Borexino, il rapporto segnale/rumore è aspettato ≅ 1,2. Fino ad ora l’unica evidenza di geoneutrini è quella mostrata dal rivelatore KamLAND, il cui rapporto segnale/rumore è ≅ 1/8, trascurando gli effetti dell’alto livello di radioattività in quel rivelatore. Borexino è anche un buon osservatorio per eventuali esplosioni di Supernovae. In tab.3 sono riportati i flussi attesi Canale di rivelazione Gerarchia normale Scattering elastico (Eν > 0,25 MeV) 5 Antineutrino elettronico (Eν > 1,8 MeV) 79 Scattering elastico ν-p (Eν > 0,25 MeV) 55 12 C (n, n) 12C* (Eγ = 15,1 MeV) 17 – e+) 12B C (ν, (Eν– > 14,3 MeV) 3 12 12 C (ν, e–) 12N (Eν > 17,3 MeV) 9 Tab. III vol24 / no3-4 / anno2008 > 57 in Borexino per l’esplosione di una Supernova galattica standard a 10 kpc. Focalizzandoci sullo scattering ν-p si può osservare che per questo canale è necessaria una soglia in energia molto bassa, perchè il quenching, esercitato dallo scintillatore, riduce l’energia rivelabile del protone di rinculo a valori molto bassi (vedi fig. 18). Di conseguenza solo Borexino può produrre una statistica di un certo rilievo per questo canale. Va anche osservato che, tenendo presente gli spettri dei neutrini come sono ipotizzati nell’esplosione di una Supernova, gli eventi osservabili dello scattering su protone riguardano soprattutto νµ e ντ. Nel programma di Borexino vi è anche lo studio del momento magnetico del neutrino mediante la stessa sorgente di 51 Cr utilizzata nell’esperimento Gallex, e attivata a livelli 2-3 MCi. Bibliografia [1] V. Gribov et al., Phys. Lett. B, 28 (1969) 493; J. N. Bahcall et al., Science, 191 (1976) 264; J. N. Bahcall, “Neutrino Astrophysics” (Cambridge) 1989; Astrophys. J., 467 (1996) 475. [2] S. P. Mikheev et al., Sov. J. Nucl. Phys., 42 (1985) 913; L. Wolfenstein, Phys. Rev. D, 17 (1978) 2369. [3] J. N. Bahcall et al., Astrophys. J., 631 (2005) 1281. [4] B. T. Cleveland et al., Astrophys. J., 496 (1998) 505; K. Lande and P. Wildenhain, Nucl. Phys. B (Proc. Suppl.), 118 (2003) 49; R. Davis, ”Nobel Prize Lecture” (2002). [5] W. Hampel et al., Phys. Lett. B, 447 (1999) 127; J. N. Abdurashitov et al., Phys. Rev. Lett., 83 (1999) 4686; M. Altmann et al., Phys. Lett. B, 616 (2005) 174. [6] K. S. Hirata et al., Phys. Rev. Lett., 63 (1989) 16; Y. Fukuda et al., Phys. Rev. Lett., 81 (1998) 1562; J. P. Cravens et al., arXiv:0803.4312v1, in corso di pubblicazione in Phys. Rev. D (2008). [7] Q. R. Ahmad et al., Phys. Rev. Lett., 87 (2001) 071301; B. Aharmim et al., Phys. Rev. C, 7 (2007) 045502. [8] S. Abe et al., arXiv:0801.4589v2, in corso di pubblicazione in Phys. Rev. Lett. (2008). [9] Borexino Collaboration. Astroparticle Phys., 18 (2002) 1. [10] Borexino Collaboration. Nucl. Instrum. Methods A, 406 (1998) 411. [11] BOREXINO Collaboration. Astropar. Phys., 8 (1998) 141; Phys. Lett. B, 422 (1998) 349; Nucl. Instrum. Methods A, 440 (2000) 360; 584 (2008) 98; 585 (2008) 48; Phys. Rev. C, 74 (2006) 045805. [12] BOREXINO Collaboration. Phys. Lett. B, 525 (2002) 29; 563 (2003) 23; 37; JETP Lett., 78 (2003) 261; Eur. Phys. J. C, 37 (2004) 421; 47 (2006) 21; 54 (2008) 61. [13] BOREXINO Collaboration. Astropart. Phys., 16 (2002) 205. [14] O. Ju. Smirnov et al., Instrum. Exper. Tech., 47 (2004) 69; A. Brigatti et al., Nucl. Instrum. Methods A, 537 (2005) 521; A. Ianni et al., Nucl. Instrum. Methods A, 537 (2005) 683. [15] G. Ranucci et al., Nucl. Instrum. Methods A, 412, (1998) 374. [16] BOREXINO Collaboration Phys. Lett. B, 658,(2008) 101. [17] BOREXINO Collaboration arXiv:0805.3843v1. Gianpaolo Bellini Professore Ordinario di fisica nucleare e subnucleare all’Università di Milano, 1973-1994 membro Consiglio Direttivo INFN, 1983-1989 membro Giunta INFN e vicepresidente (1988-89), 1980-1983 membro Council EPS, 1983-1986 membro ECFA, dal 2002 Coordinatore Scuola Internazionale di Dottorato in Astroparticelle (ISAPP), dal 2004 Direttore Scuola di Dottorato in Fisica Astrofisica e Fisica Applicata dell’Università di Milano, nel 2006 membro CIVR. Fisico sperimentale delle Particelle Elementari ha condotto esperimenti al CERN, a FNAL, e come spokesman a Serpukhov e ai LNGS. Ha prodotto risultati originali in quattro aree: Risonanze, Collisioni di alta energia su nuclei, Sapori pesanti, Fisica del neutrino. È autore di 180 pubblicazioni su riviste con referees ed è editor di 10 volumi sulla Fisica delle Particelle Elementari. 58 < il nuovo saggiatore