Davide Bollini Quinta Alt Gli acceleratori di particelle L'innovazione del metodo galileiano consiste nella matematizzazione degli aspetti significativi del fenomeno osservato, ovvero nella formulazione della legge fisica del fenomeno. Attraverso la legge fisica lo studioso è in grado di predire il comportamento di sistemi fisici e l'evoluzione dei fenomeni naturali. E' stata l'abilità di razionalizzare e di matematizzare le leggi della Natura che ha permesso ai fisici di progettare e costruire macchine acceleratrici per capire l'infinitamente piccolo e risalire indietro nel tempo, fino ad avvicinarsi alle origini del nostro Universo. Introduzione Da sempre l'uomo cerca, al di là della sua innata curiosità, risposte ai “perché” assoluti su se stesso e sull'Universo di cui fa parte. Indagare le cause prime significa interrogare la materia da cui tutto ha origine. Rispondere al perchè dell'esistenza della materia non è mai stato un compito facile per l'indagine scientifica: alcuni aspetti sono stati così risolti solo dal punto di vista religioso o filosofico. La scienza, come ha insegnato Galileo Galilei, deve avere come scopo non il perché ultimo delle cose, ma il come esse si manifestano. Tuttavia, non si può dimenticare che alcuni scienziati hanno cercato, escogitando i più diversi esperimenti, di raccogliere informazioni su ciò che esisteva prima del Big Bang, e di scoprire, quindi, l'origine dell'origine. Anch'essi sono, dunque, caduti nella trappola delle disquisizioni filosofiche. Nel momento in cui la Scienza, e la Fisica in particolare, si è staccata definitivamente dalla sua “Madre Filosofia” e ha iniziato a trattare i fenomeni della Natura secondo i canoni del metodo galileiano (ipotizzare, costruire Teorie e verificare), ha incominciato a dare delle risposte concrete sulle leggi della Natura, in particolare sulla struttura intima della Materia fino a riprodurre in laboratorio le condizioni dell'Universo un istante dopo (circa 10 microsecondi) il Big Bang. La storia dell'evoluzione sulla conoscenza della Materia, in particolare sulla struttura intima dell'atomo, è una delle più affascinanti e più complesse ricerche della Scienza. Ma è anche la più intricata e problematica, al punto da rendere difficile l'individuazione anche delle tappe più significative che ne hanno permesso la comprensione. Sicuramente, volendo ripercorrere i momenti che, di recente, hanno notevolmente contribuito a capire la struttura dell'atomo non si può che partire dal 1911, quando il neozelandese Ernest Rutherford (1871-1937) cominciò a studiare il microcosmo atomico ricorrendo all'urto di particelle-proiettili contro particelle-bersaglio. Dall'analisi della distribuzione angolare delle particelle deflesse dagli atomi-bersaglio, Rutherford riuscì a decifrare la struttura dell'atomo, impossibile all'osservazione diretta, e migliorare il Modello atomico a "panettone" dell'inglese Joseph John Thomson (1856-1900), proponendo il nuovo modello "Planetario" più rispondente alla realtà del momento. Durante gli ultimi cinquanta anni gli studi per comprendere la struttura più intima della materia si sono sviluppati usando quasi esclusivamente la tecnica degli urti tra particelle ("urti per vedere"): una particella-proiettile viene accelerata fino a velocità molto alte e portata a collidere con un'altra particella-bersaglio; dall'esame dei frammenti emessi nell'urto si ricavano poi informazioni sulla natura delle particelle e sulle forze che agiscono tra esse. Per portare avanti un programma di esperimenti di questo tipo è necessario avere a disposizione una sorgente di particelle di elevata energia cinetica. Infatti, non è più pensabile servirsi di una sorgente naturale di tali particelle, come ha fatto Rutherford, per potere esplorare il nucleo in quanto si richiedono particelle-proiettili molto energetiche e unidirezionali. Un dispositivo capace di produrre particelle-proiettili, con queste caratteristiche, costituisce una macchina acceleratrice. Lo sviluppo degli acceleratori di particelle fece cambiare abbastanza radicalmente l'organizzazione della ricerca in Fisica Subnucleare. Si sono dovuti creare grossi laboratori nazionali ed internazionali, presso i quali vengono costruiti gli acceleratori e si fanno gli esperimenti. Data la complessità tecnica e le dimensioni di tale macchine acceleratrici risulta evidente la costruzione di un laboratorio attorno alla macchina acceleratrice. La costruzione di queste macchine richiede principalmente come conseguenza delle sue dimensioni e del suo costo la soluzione di problemi che non sono soltanto tecnologici, ma anche politici, economici e amministrativi. Sappiamo che le risorse finanziarie a disposizione della ricerca scientifica sono scarse. Per tentare di risolvere questo aspetto negli anni cinquanta si è rafforzata l'idea della cooperazione internazionale, per evitare la inutile duplicazione di impianti simili e progetti troppo grossi per una singola nazione. Secondo questo modo di procedere sono sorti laboratori come l'INFN, il CERN, il Fermilab, ecc. Perché gli acceleratori di particelle? Se è vero che i nostri sensi non riescono a percepire direttamente i componenti ultimi della materia, è comunque altrettanto vero che ne conosciamo tutte le proprietà, anche se attraverso misurazioni indirette. Innanzitutto dobbiamo ricordarci che per vedere un qualsiasi oggetto è necessario che questo sia "illuminato" cioè investito da un'onda elettromagnetica la cui lunghezza d'onda (l) sia minore delle dimensioni dell'oggetto che si vuol vedere. Il Radar usa onde elettromagnetiche di l = 10-1 m per vedere aerei, navi. Con questa lunghezza d'onda il Radar, però, non può vedere aghi, chiodi o cose di questo genere. Analogamente il microscopio ottico che opera con onde elettromagnetiche di l = 10-7 m può vedere un batterio (le cui dimensioni sono dell'ordine di 10 -6 m), ma non può vedere un virus (dimensioni dell'ordine di 10 -8 m) e tanto meno un nucleo di un atomo le cui dimensioni sono dell'ordine 10-15 m In definitiva, per vedere entità sempre più piccole è necessario avere a disposizione onde elettromagnetiche sempre più corte cioè con lunghezza d’onda sempre più piccola e quindi, secondo la teoria del fisico francese De Broglie, fasci di particelle (elettroni) di energia sempre maggiore. Per poter usare le particelle come sonde i fisici devono diminuirne la lunghezza d’onda aumentandone la velocità [Ec=(1/2)mv2] per mezzo di dispositivi che si chiamano acceleratori di particelle. In questo modo l'acceleratore di particelle è paragonato a un microscopio. Il fondamento logico dell'impiego di un acceleratore di particelle, per esplorare la struttura intima della materia, può essere visto in modo differente. Fare urtare violentemente due particelle una contro l'altra per "frantumarle" nei loro componenti elementari. Come fanno i fisici a fare urtare violentemente due particelle? Ne aumentano la velocità della particella-proiettile fino a quella della luce con dispositivi che si chiamano acceleratori di particelle. E' bene ricordare che l'interazione fra due particelle di alta energia non è esattamente simile a uno scontro fra due automobili. I frammenti non sono soltanto espulsi dalla particella-bersaglio e da quella proiettile, ma possono anche essere creati ex novo con l'energia apportata all'urto dalla particella-proiettile come previsto dalla famosa relazione di Einstein: E = m c2 Prestazioni degli acceleratori di particelle ENERGIA MASSIMA Il fondamento logico dell'impiego di acceleratori di particelle per esplorare la struttura della materia è quello di far cozzare violentemente particelle-proiettili contro particelle-bersaglio per frantumare quest'ultime nei loro componenti elementari. La realizzazione di simile idea, abbastanza semplice, non è tecnicamente di facile attuazione, sia per la difficoltà di giungere al bersaglio, date le piccolissime dimensioni dei nuclei (10-14 m), sia perché è estremamente complicato superare la barriera di potenziale elettrico che si oppone all'ingresso di particelle elettricamente cariche al suo interno. Tale difficoltà può essere superata dotando le particelle-proiettili di energia cinetica (E = ½ m v2) piuttosto elevata. Quindi, tanto più energetiche sono le particelle-proiettili tanto più queste riescono a penetrare nel cuore del nucleo delle particelle-bersaglio. L'energia massima degli acceleratori risulta, dunque, essere la grandezza fondamentale fisica che caratterizza una macchina acceleratrice. L'unità di misura dell'energia nel sistema internazionale è il Juole (J). Questa unità di misura nell'ambito della fisica nucleare è un'unità di misura troppo grande, allora si preferisce introdurre una nuova unità di misura: elettronvolt (eV) definita come l'energia acquistata da un elettrone che viene accelerato attraverso la differenza di potenziale di 1 volt. Sapendo che la carica elementare dell'elettrone è di 1,6 10-19 C (Coulomb) e la d.d.p (differenza di potenziale) di 1Volt dalla definizione di lavoro (L= q V) risulta: 1eV = 1,6 10-19 J Solitamente si usano i multipli: 1 KeV = 103 eV (Kiloelettronvolt) 1 MeV = 106 eV (Megaelettronvolt) 1 GeV = 109 eV (Gigaelettronvolt) 1 TeV = 106 eV (Teraelettronvolt) LUMINOSITÁ L'energia massima non è il solo parametro adatto a misurare le prestazioni di un acceleratore. Un altro fattore importante è la frequenza delle interazioni (urti) osservabili. Le probabilità di interazione è proporzionale ad un parametro chiamato luminosità, che essenzialmente è una misura della frequenza con la quale possono essere osservate le interazioni delle particelle (splendore del fascio). INTENSITÁ DEL FASCIO Un'altra caratteristica importante del fascio delle particelle accelerate è l'intensità. In base ai valori dell'intensità i fasci vengono classificati in: Fasci di bassa intensità fino a: 10-9 A (1nA) Fasci di media intensità fino a: 10-6 A (1µA) Fasci di alta intensità fino a: 10-3 A (1mA) Il Modello Standard Tutti i fenomeni noti in fisica delle particelle fondamentali sono in accordo con una teoria completamente formulata, finita e, nei limiti delle capacita' tecniche attuali, calcolabile, che prende il nome di Modello Standard (MS). Il MS descrive le interazioni forti, elettromagnetiche e deboli, alle quali tutti i fenomeni microscopici possono essere ricondotti. Per esempio, le forze che tengono insieme i nuclei atomici sono dovute alle interazioni forti, il legame al nucleo degli elettroni atomici o degli atomi nelle molecole e' dovuto alle interazioni elettromagnetiche, mentre l'energia del sole e delle altre stelle e' prodotta da reazioni nucleari dovute alle interazioni deboli. Le forze gravitazionali andrebbero in linea di principio anche aggiunte, ma il loro impatto nei processi tra particelle fondamentali alle energie accessibili e' assolutamente trascurabile. In questa teoria i campi materiali sono i quark (i costituenti dei protoni e dei neutroni) e i leptoni (che compredono oltre all'elettrone, anche il muone e il tau piu' i tre corrispondenti neutrini). Il MS ha avuto un lungo periodo di formazione. I primi lavori volti alla costruzione di una realistica teoria unificata delle interazioni elettrodeboli risalgono alla fine degli anni cinquanta. Nei primi anni sessanta lo studio dell'algebra delle correnti elettrodeboli e delle relative conseguenze fenomenologiche dimostro' l'intima connessione delle correnti deboli con la corrente elettromagnetica. Anche nel settore delle interazioni forti l'evoluzione verso il MS fu lenta e difficile. In assenza di una teoria di campo resa impossibile dalla complessita' dello spettro degli adroni, i teorici si ridussero per molti anni all'approccio della cosiddetta matrice S in cui si tratta direttamente con le grandezze osservabili, senza introdurre la nozione di campo. In seguito, dopo una serie di teorie e sperimentazioni (principalmente affrontate da ricercatori italiani), si ebbero le basi per un modello teorico delle interazioni forti, che dette poi origine alla teoria delle corde o stringhe. Tale schema e' considerato attualmente come una possibile teoria della gravita' quantistica unificata alle altre interazioni. Con l'affermarsi del concetto di quark la teoria delle corde venne abbandonata come teoria delle interazioni forti con un ritorno alla teoria dei campi. Infatti lo studio sistematico delle particelle adroniche osservate (cioe' quelle con interazioni forti) porto' lentamente negli anni sessanta alla nozione che gli adroni sono composti da quarks. La decisiva conferma della effettiva esistenza dei quark entro gli adroni venne dai dati sperimentali sullo scattering profondamente inelastico ottenuti a SLAC in California. Si giunse cosi' (1972), con il contributo di molti fisici, alla formulazione della Cromodinamica Quantistica, la teoria di gauge delle interazioni forti. Per quanto al principio degli anni settanta, come abbiamo visto, la formulazione teorica del MS fosse praticamente completa, tuttavia, a quell'epoca, la maggior parte dei fisici era scettica sulla rilevanza di tale modello come descrizione della realta' fisica, in quanto alcuni ingredienti fondamentali della teoria non avevano ancora trovato conferma sperimentale. In particolare non si aveva evidenza sperimentale dell'esistenza dei processi deboli da corrente neutra e nemmeno del quark con charm. Ma la scoperta al CERN dei processi deboli da corrente neutra nel 1973 e poi del charm a Brookhaven e SLAC nel 1974 imposero il MS come teoria di riferimento delle interazioni fondamentali. Ciclotroni Il 1932, nella storia della fisica, costituisce una data importante, nell'ambito della fisica delle particelle, non solo per la scoperta del neutrone e dell'antielettrone (poi detto positrone), ma anche per la nascita della prima macchina acceleratrice. Infatti, in questo stesso anno il fisico statunitense Ernest Orlando Lawrence (1901-1958) fece funzionare a Berkeley il primo ciclotrone che permetteva di accelerare deutoni mantenuti su un'orbita a spirale da un campo magnetico. Per l'invenzione del ciclotrone E.O. Lawrence ricevette il premio Nobel per la fisica nel 1939. E.O. Lawrence aveva costruito il ciclotrone per scopi umanitari in quanto aveva in mente le applicazioni mediche. Il ciclotrone sicuramente può considerarsi il capostipite di una lunga serie di acceleratori sempre più "energetici" che hanno permesso ai fisici di tutto il mondo di esplorare l'interno del nucleo in modo sempre più dettagliato fino alla scoperta dei quark e dell'antimateria. Prima dell'avvento degli acceleratori la struttura del nucleo veniva esplorata facendo ricorso a fasci di particelle a emesse da sostanze radioattive. Questa fonte naturale di "energia esploratrice" si mostrò ben presto poco efficace in quanto il suo "contenuto energetico", di poche decina di MeV, non permetteva di penetrare nel cuore del nucleo. Inoltre, poiché la radiazione veniva emessa in tutte le direzioni, sul bersaglio il contenuto energetico del fascio di particelle veniva ulteriormente ridotto. Per questo motivo furono progettati gli acceleratori di particelle, ossia macchine che consentivano di ottenere intensi fasci unidirezionali di particelle cariche (deutoni, elettroni, positroni, protoni, antiprotoni, ecc.) Noi descriveremo la fisica del ciclotrone di Lawrence perché questi è da considerarsi il capostipite di tutte le macchine acceleratrici cicliche. E' un dispositivo che utilizza l'accoppiata dell'intensità del campo elettrico (E) e l'intensità del campo magnetico (B) per accelerare particelle cariche. Il principio di funzionamento è quello di produrre un'accelerazione progressiva di particelle che si muovono su un'orbita chiusa (circolare) guidati da un intenso campo magnetico. LA FISICA DI BASE DEL CICLOTRONE DI LAWRENCE Come particelle-proiettili vengono usati i deutoni, prodotti bombardando molecole di DEUTERIO con elettroni abbastanza energetici. Gli ioni positivi così formati entrano nel ciclotrone attraverso un piccolo foro e sono pronti per essere accelerati. CAMPO ELETTRICO Il campo elettrico o potenziale elettrico acceleratore è generata da due mezze scatole cilindriche metalliche (rame) chiamate "D" per la loro forma, fungenti da elettrodi, separate tra di loro da una fessura diametrale di qualche centimetro nel centro di questa fessura è posizionata la sorgente delle particelle acceleratrici. Le due mezze scatole sono collegate ad un generatore elettrico alternato di potenziale (radiofrequenza) ad alta frequenza. I due elettrodi rappresentano la parte più delicata dal punto di vista descrittivo. Essi sono realizzati con rame elettrolitico nei quali non vi devono essere tracce di metalli ferromagnetici, così come richiesto nelle saldature e nei tubi, pure di rame, per il raffreddamento. MOTO DI UNA CARICA ELETTRICA IN UN CAMPO MAGNETICO Quando un deutone (ione con carica positiva) entra in un campo magnetico di intensità B (B = 1,6 Wb/m2 circa, creato da un grande elettromagnete) subisce una forza trasversale. Se la particella carica entra perpendicolarmente nel campo magnetico la sua traiettoria, per la legge F = q v * B, (con * si intende un prodotto vettoriale) risulta circolare e non esce più dal campo magnetico. Dalla combinazione della relazione fondamentale della dinamica e dell'espressione di F sopra vista, possiamo calcolare le grandezze caratteristiche di una particella carica in moto in un campo magnetico: il raggio, la frequenza, la velocità e l'energia cinetica della particella. Dall'uguaglianza m a = q v B, sapendo che la forza è di tipo centripeta segue m v2/R = q v B, applicando le formule inverse si ricava: Da un'attenta osservazione della formula della frequenza risulta che essa dipende solamente dalle caratteristiche della particella-proiettile e dal campo magnetico, ossia da quantità rigorosamente costanti (ovviamente particelle veloci si muovono su circonferenze di grande raggio e quelle lente su circonferenze di piccolo raggio). Si può dire, allora, che se il campo elettrico alternativo è in sincronismo all'inizio del moto della particella carica, esso vi si mantiene per tutto il tempo di accelerazione indipendentemente dal raggio della traiettoria. EFFETTO RELATIVISTICO Le formule appena viste valgono solo nel caso in cui v è molto minore della velocità della luce. Quando v = 0,1 c (v = 3 107 m/s) le leggi della fisica classica devono essere riviste in quanto si entra nel campo relativistico e la variazione della velocità è associata a quella della massa. Nel caso relativistico l'energia totale della particella accelerata risulta: Se poi v = 0,98 c, (v =2,94 108 m/s) si passa nel campo ultrarelativistico, dove non si ha più praticamente variazione di velocità, ma solamente della massa all'aumentare dell'energia A causa degli effetti relativistici il ciclotrone non può arrivare ad alte energie perché il principio su cui è basato, cioè che la frequenza di uno ione in un campo magnetico è indipendente dalla velocità, è esatto solo per velocità molto minore di quella della luce. Infatti se si raggiungono valori di velocità prossimi a quella della luce, la massa non può più ritenersi costante in quanto cresce relativisticamente secondo la relazione: Così gli ioni si sfasano rispetto all'oscillatore elettrico e la loro energia smette di aumentare. Questo grosso limite del ciclotrone, per valori elevati dell'energia, ha indotto gli studiosi a progettare altri tipi di acceleratori: il SINCROCICLOTRONE e il SINCROTRONE. Nel sincrociclotrone viene fatta variare la frequenza dell'oscillatore così da seguire la variazione di periodo del moto della particella, in modo che all'aumentare del periodo T corrisponda in eguale misura una diminuzione della frequenza dell'oscillatore. Con tale macchina si possono raggiungere energie massime di 800 MeV. Nel sincrotrone, viceversa, si varia l'induzione del campo magnetico, aumentandola in misura tale da far rimanere sempre costante il tempo t. Questo tipo di acceleratore circolare è stato inventato nel 1945. Un sincrotrone, a seconda che acceleri elettroni o protoni, è detto elettrosincrotrone o protosincrotrone. A Ginevra nel 1981 con il superprotosincrotrone ( SPS ) si sono raggiunti valori di energia intorno ai 400 GeV (accelerando protoni con antiprotoni). Sincrotroni Il sincrotrone, che funziona con oscillatore a frequenza costante e campo magnetico variabile per soddisfare alle leggi relativistiche, è stato inventato nel 1945 da Edwin Mattison Mc Millan (nato nel 1907) e Vldimir Iosifovic Veksler (1907-1966). Esso consente di raggiungere energie elevatissime, dell'ordine delle decine di GeV. Il principio di base di funzionamento del sincrotrone è, come per qualsiasi altro acceleratore circolare, quello di sfruttare l'idea di accelerare le particelle lungo un percorso circolare, in modo da attraversare le stesse postazioni di accelerazione più volte per aumentare sempre di più l'energia. La novità di queste macchine acceleratrici è che invece di operare con un campo magnetico costante, esse utilizzano un campo magnetico gradualmente crescente, in modo da mantenere le particelle cariche sempre lungo la stessa orbita circolare, qualunque sia la loro velocità. Le parti essenziali di un sincrotrone sono: · I magneti disposti ad anello. Questi sono di due tipi: DIPOLARI, costituiti da due poli (nord e sud), generano un campo magnetico uniforme e determinano l'incurvamento della traiettoria delle particelle cariche. QUADRUPOLARI che generano un campo magnetico con due poli nord e due poli sud, non deviano le particelle, ma le focalizzano in un fascio ristretto, agendo come lenti convergenti. · Le cavità a radiofrequenza. Disseminate fra i magneti quadrupolari ci sono le cavità a radiofrequenze, dove ha luogo il processo di accelerazione vero e proprio. · Il tubo circolare. Le particelle cariche vengono immesse in un tubo circolare sotto vuoto spinto, per evitare urti tra le particelle-proiettile e le molecole dell'aria. · Preacceleratore. Alle energie più elevate non si arriva con una macchina singola, ma piuttosto con diverse macchine disposte in serie. Ad esempio in un acceleratore per protoni il primo stadio è costituito da un acceleratore elettrostatico. Lo stadio successivo spesso un linac. Dal linac i protoni vengono iniettati in un sincrotrone, che può costituire lo stadio finale della catena oppure servire a sua volta per elevare l'energia dei protoni e iniettarli in un sincrotrone più grande. · Iniettore. E' costituito da un magnete. · Magnete di estrazione. Quando le particelle sono state portate al livello di energia desiderato, vengono fatte uscire dall'anello, modificando la loro traiettoria mediante elettromagneti, e inviate in un bersaglio fisso. Teoricamente non vi è limite all'energia ottenibile con questo sistema ed è per questo che i più potenti acceleratori esistenti sono dei sincrotroni. L'impiego di magneti superconduttori può far raggiungere alle particelle-proiettili energie dell'ordine di TeV Per avere magneti superconduttori occorre portare tutti i magneti dell'anello ad una temperatura di circa 4,5 Kelvin ossia - 268,5 oC (Si ricorda che T = 273 + tc dove T temperatura assoluta e tc temperatura in gradi centigradi), la temperatura al di sotto della quale i materiali conduttori degli avvolgimenti dei magneti perdono tutta la loro resistenza elettrica. La difficoltà tecnica più ovvia è raggiungere tale temperatura, infatti per mantenere questa temperatura è necessario tanto elio liquido, che deve essere pompato lungo tutto l'anello I magneti I magneti sono il mezzo principale utilizzato per deflettere e focalizzare particelle cariche in movimento e sono quindi universalmente usati negli acceleratori di particelle e in molti esperimenti. CAMPO MAGNETICO E PARTICELLE Un corpo (o una particella) dotato di carica elettrica e in movimento è soggetto a una forza data da: F = q v /\ B F = forza elettromagnetica (misurata in newton [N]) q = carica elettrica (misurata in coulomb [C]) B = vettore induzione magnetica (misurato in tesla [T]) La forza F ha direzione perpendicolare al piano formato dai vettori v e B. Nel caso particolare di campo magnetico uniforme la particella subisce una forza di deflessione costante che la costringe a percorrere una traiettoria definita dall'equilibrio fra forza d'inerzia (centrifuga) e forza elettromagnetica (centripeta). (Si assume che la forza di gravità sia trascurabile in questo caso.) (f. centrifuga) mv2/r = q v B (f. elettromagnetica) r = raggio della traiettoria (misurato in metri [m]) m = massa della particella (misurata in chilogrammi [kg]) Il campo B uniforme è diretto in modo da uscire perpendicolarmente dal foglio. La traiettoria risulta quindi in questo case un cerchio di raggio Mu/qB proporzionale quindi al prodotto m x n, quantità di moto, e inversamente proporzionale alla carica elettrica e al campo. Ad esempio, per un elettrone viaggiante alla velocità di 10'000 km/s perpendicolarmente al campo magnetico terrestre risulta: q = 1.6 x 10-19 C, m = 9.1 x 10-31 kg, B = 0.5 x 10-4 T r = 1.14 m Un protone nelle stesse condizioni risulterebbe molto meno deflesso grazie alla sua massa di circa duemila volte più grande: q = 1.6 x 10-19 C, m = 1.67 x 10-27 kg, B = 0.5 x 10-4 T r = 2088 m Lo stesso protone in un campo tipico di un magnete analizzatore (1 tesla) percorrerebbe una traiettoria con raggio di curvatura di circa 1 decimetro e quindi facilmente misurabile. I magneti hanno quindi un ruolo primordiale: - negli acceleratori e accumulatori di particelle per guidarle e focalizzarle, - negli impianti rivelatori come analizzatori per misurare la quantità di moto delle particelle cariche secondarie provenienti dalle collisioni di particelle primarie contro bersagli fissi o contro altre particelle circolanti in senso inverso. Il CERN L’ORGANIZZAZIONE ISTITUZIONALE Il CERN (l'acrostico proviene dal nome orginariamente dato all'Organizzazione: Conseil Européen pour la Recherche Nucléaire) è il Laboratorio Europeo per la Fisica delle Particelle. Il CERN è stato fondato con una Convenzione Internazionale siglata a Parigi il 1.7.1953 ed entrata in vigore nel 1954. Alla Convenzione aderirono inizialmente dodici Paesi Europei: Belgio, Danimarca, Francia, Germania federale, Grecia, Italia, Norvegia, Olanda, Regno Unito, Svezia, Svizzera, Yugoslavia. Successivamente altri Paesi aderirono. Attualmente essi sono diciannove Paesi, essendo entrati a far parte del CERN: Austria, Finlandia, Polonia, Portogallo, Repubblica Ceca, Slovacchia, Spagna, Ungheria, mentre la Jugoslavia non ne fa più parte. Il laboratorio fu installato inizialmente in una località, Meyrin, a pochi chilometri dal centro di Ginevra in territorio svizzero ma adiacente al confine con la Francia. Ma già alla fine degli anni 60 il laboratorio cominciò ad espandersi oltre il confine in Francia per poter realizzare macchine acceleratrici sempre più grandi. Si è infatti passati dai 5m di diametro della prima macchina, il Sincro-Ciclotrone SC, ai 28 km di circonferenza del LEP e LHC. L'evoluzione delle principali macchine del CERN è schematicamente indicata nella tabellina seguente: Sigla SC PS ISR SPS Sp-pS LEP LEP-2 LHC LHC LHC-2 LHC-2 Anno 1957 1959 1971 1976 1981 1989 1996 2004 2004 2008 2008 circonferenza 15 M 600 m 900 m 7 km 7 km 28 km 28 km 28 km 28 km 28 km 28 km particelle p p p,p p p, pe+.ee+.ep, p p, p p, p p, p Energia 0.6 GeV 28 GeV 28+28 GeV 0.4 TeV 0.4+0.4 TeV 50+50 GeV 90+90 GeV 5+5 TeV 800 TeV 7+7 TeV 1200 TeV Tipo bersaglio fisso bersaglio fisso collisioni p/p bersaglio fisso collisioni ppcollisioni e+/e collisioni e+/e collisioni p/p,collisioni i,i, collisioni p/p, collisioni i,i, legenda: p = protoni, p- = antiprotoni, e- = elettroni, e+ =positroni, i = ioni Si può osservare che il LEP come pure l’LHC, con i suoi 28 km di circonferenza, è non solo la più grande macchina acceleratrice mai realizzata, ma è anche in assoluto la più grande macchina che l'uomo abbia mai costruito da quando ha fatto la sua comparsa sulla Terra. I Paesi membri partecipano alle spese per il funzionamento del CERN in misura proporzionale alle dimensioni delle proprie economie. Quindi le percentuali di contribuzioni sono andate variando nel tempo per effetto della diversa dinamica delle economie nazionali, dei rapporti di cambio valutario, e del numero di Paesi membri. Tuttavia ad alcuni Paesi, a causa di motivi economici contingenti, sono concesse per periodi limitati pagamenti inferiori alla quota spettante. LA STRUTTURA DEL LABORATORIO Il laboratorio del CERN si estende su un vasto territorio a cavallo della frontiera svizzero-francese. E’ articolato in due siti principali: il sito di Meyrin che comprende il nucleo originale del laboratorio e in cui si svolge la maggior parte delle attivita’ e il sito di Prevessin, interamente in territorio francese. Inoltre i tunnel dove sono installati I due acceleratori SPS e LEP (dove sarà installato LHC al posto di LEP a partire dal 2001) costituiscono due grandi circonferenze a qualche decina di metri sotto il piano di campagna e vari edifici sono localizzati lungo queste circonferenze in corrispondenza delle aree sperimentali. PS (Protosincrotrone) Il PS (Proto-Sincrotrone) è stato il primo grande acceleratore del CERN e la sua orginaria motivazione. E’stato usato dal ‘59 al ‘75 come acceleratore per la fisica con i protoni; oggi è usato principalmente come pre -acceleratore per protoni, antiprotoni e ioni pesanti da inviare a SPS e di elettroni e positroni da inviare al LEP. I protoni e gli ioni pesanti vi arrivano da due iniettori lineari poi accelerati a 1 Gev nel Booster, che è un acceleratore di 50 m di diametro sul quale è installato l’esperimento ISOLDE per ioni pesanti., mentre gli antiprotoni prima di essere immessi nel PS vengono accumulati a 3,5 GeV in un piccolo anello di accumulazione, l’AAC (Antiproton Accumulator Collector). Elettroni e positroni provengono da un acceleratore lineare LIL (Linear Injector for LEP) che ne porta l’energia a 0.6 GeV, e li inietta in un piccolo anello di accumulazione, l’EPA (Electron Positron Accumulator), prima di passare nel PS che ne porta l’energia a 3.5 GeV prima di iniettarli nell’SPS . LEAR (Low Energy Antiproton Ring) Gli antiprotoni provenienti da PS vengono inviati in LEAR, un piccolo anello di 25 m di diametro dove vengono decelerati a energie comprese tra 2 e 0,1 GeV e impiegati per gli studi sull’antimateria a basse energie. SPS (Super Proton Synchrotron) E’ stato in ordine di tempo il terzo grande acceleratore del CERN (il secondo è stato l’ISR, Intersecting Storage Ring in funzione tra il 1971 e il 1984, che costituì il primo collisionatore di protoni). L’SPS è attualmente impiegato principalmente come iniettore di LEP nel qual caso pre-accelera elettroni e positroni , provenienti dal PS. E’ ancora usato per fasci di protoni impiegati per produrre fasci di neutrini nell’interazione dei protoni accelerati a 450 GeV su un bersaglio di Berillio. In particolare vi sono installati gli esperimenti per lo studio delle oscillazioni dei neutrini. LEP (Large Electron Positron collider) E’ il principale acceleratore del CERN. E’ impiegato per esperimenti in cui i fasci di elettroni e positroni vengono fatti collidere dopo essere stati portati ad un’energia di 50 GeV ciascuno lungo un anello di 28 km di circonferenza. Il LEP di Ginevra Il Lep è un grande anello di collisione elettrone positrone di circa 27 km di circonferenza, che consente ai fisici delle particelle elementari di studiare le leggi che governano le interazioni elettrodeboli. E' difficile giustificare a priori la costruzione di un acceleratore di particelle specialmente quando ha le dimensioni del LEP. Solo a posteriori, e dopo una decina d'anni di operazione del LEP stesso, si può apprezzare se la decisione di costruire un acceleratore così costoso è stata una buona decisione. La storia delle scoperte scientifiche ha insegnato che gli argomenti presentati a priori per giustificare la costruzione di un acceleratore sono in generale validi anche dopo molti anni di funzionamento, ma in molti casi sono state fatte nuove scoperte non previste dalle teorie esistenti, che hanno aperto nuovi orizzonti nello studio dei fenomeni fisici ad alte energie. Nell'ultimo ventennio la forza elettromagnetica e la forza debole sono state unificate in una descrizione matematica comune: esse sono due manifestazioni differenti di un'unica forza, la forza elettrodebole. L'unificazione di fenomeni fisici, a prima vista differenti fra loro, in una teoria unica è un tema centrale della conoscenza scientifica. In generale permette non solo di descrivere fenomeni diversi ma anche di predire nuovi fenomeni fisici e dà comunque una descrizione più soddisfacente dei fenomeni conosciuti. Il Lep, considerato nella sua globalità sia come acceleratore sia come insieme di rilevatori di particelle, costituisce uno strumento molto potente che permette di fare esperimenti molto precisi i quali consentono di approfondire lo stato delle conoscenze attuali. Il LEP rimarrà per molti anni il più grande anello di collisione di elettroni e positroni del mondo. In questo gigantesco anello si scontrano frontalmente fasci di materia (e-) e antimateria (e+) e nell'annichilazione del sistema particelleantiparticelle tutta l'energia è disponibile per produrre altre particelle. Il processo in cui l'energia può trasformarsi in materia è ben noto poiché si basa sul fatto che la materia e l'energia sono due aspetti differenti della stessa grandezza fisica: c'è equivalenza tra massa inerziale e energia grazie alla equazione E = mc 2, dove E è l'energia della particella, m la sua massa e c la velocità della luce. Mentre è facile trasformare la materia in energia, la trasformazione inversa richiede speciali strumenti come il LEP. Negli anelli di collisione tutta l'energia dei due fasci di particelle è utilizzata per produrre nuova materia, mentre nel caso di un fascio di particelle che interagisce contro un bersaglio fisso solo una frazione dell'energia della particelle incidente viene utilizzata per produrre materia. CARATTERISTICHE DEL LEP Il LEP è un grande anello circolare, o più correttamente è un poligono ottagonale con otto sezioni dritte di circa 500 metri ciascuna e otto archi circolari il cui raggio di curvatura è di 3.3 km. La circonferenza del LEP è di 26,658 km. Esso è situato sottoterra, in media a circa 100 metri; otto zone di accesso mettono in comunicazione la galleria sotterranea con gli edifici in superficie attraverso diciotto pozzi la cui profondità varia da un minimo di 50 metri a un massimo di 150 metri. Il diametro dei pozzi di accesso varia tra i 5 e i 23 metri. La sezione del tunnel ha un diametro di 3,80 metri. Il LEP attraversa la frontiera franco-svizzera in sei punti, ma circa tre quarti del tracciato del LEP è in Francia. Tutti gli accessi, meno uno, sono situati in Francia. GLI ASPETTI PIU’ SIGNIFICATIVI DEL LEP Nel progettare l'anello di collisione in modo da poter raggiungere gli obbiettivi scientifici, gli ideatori del progetto, hanno dovuto tener presente numerosi fattori. Il più critico è il fenomeno della radiazione di sincrotrone che determina le dimensioni dell'anello di accumulazione. Una particella carica che segua una traiettoria curva emette fotoni e perde una frazione della propria energia. Se la stessa quantità di energia non viene rifornita dall'esterno, le particelle decelerano rapidamente e seguono una traiettoria a spirale fino a scontrarsi con le pareti dell'acceleratore. Quando l'energia del fascio è di circa 55 GeV (1 GeV è uguale a un miliardo di elettronvolt) gli elettroni irradiano circa 200 milioni di elettronvolt per ogni giro percorso nell'anello. Al fine di fornire l'energia persa occorre fare uso di una successione di cavità di radiofrequenza, che operano a 350 milioni di hertz e che forniscono una potenza di 16 milioni di watt. All'energia di 100 GeV, i fasci del LEP irradieranno più di 2300 milioni di elettronvolt per ogni giro percorso dalle particelle. Il costo di funzionamento di un anello di accumulazione elettroni-positroni è determinato principalmente dal costo del sistema che fornisce l'energia persa come radiazione di sincrotrone. Per una particella che segua una traiettoria circolare, questa perdita di energia è, in media, proporzionale al rapporto tra la quarta potenza dell'energia e il raggio della circonferenza dell'anello. Per una data energia del fascio si può ridurre la perdita di energia aumentando il raggio della circonferenza, ma è evidente che un anello più grande è più costoso da costruire. In termini economici si deve raggiungere un compromesso tra i costo di costruzione di un anello più grande, che richiede più elementi costitutivi dell'acceleratore, e il costo di funzionamento dello stesso. La radiazione di sincrotrone benché abbia effetti negativi per quanto riguarda il costo di funzionamento, offre anche alcuni vantaggi. La radiazione "smorza" le oscillazioni delle singole particelle del fascio permettendo di accumulare molte particelle iniettando ripetutamente nuove particelle nell'anello. Alla forza di smorzamento che tende a ridurre a zero le oscillazioni delle particelle, si oppone una forza di diffusione che fa aumentare le ampiezze delle oscillazioni. Il fascio raggiunge quindi uno stato di equilibrio nel quale le due forze contrapposte si bilanciano. La situazione è simile a quella che si verifica in un pallone: la pressione dell'aria nel pallone corrisponde alla forza di diffusione, mentre l'elasticità della gomma corrisponde allo smorzamento provocato dalla radiazione di sincrotrone. Se la pressione aumenta, il pallone diventa più grande, mentre se il materiale da cui esso è costituito è meno elastico le sue dimensioni, a una data pressione, saranno minori. L'aspetto più notevole di questo stato di equilibrio è che esso dà origine a fasci di particelle quasi insensibili a piccole perturbazioni. Alle energie del LEP questa insensibilità vale solo per gli elettroni e i positroni, non per i protoni. Questi "ricordano" pressoché all'infinito ogni perturbazione mentre gli elettroni le "dimenticano" di solito in qualche centesimo di secondo. I fasci di elettroni e positroni sono costituiti da quattro pacchetti equidistanti che circolano contemporaneamente nel LEP in versi opposti. Il LEP consiste in due acceleratori lineari che portano la particella prima a 200 MeV e poi a 600 MeV; quindi in un anello da 600 MeV si accumulano pacchetti di particelle fino a raggiungere l'intensità voluta e si trasferiscono poi nel protosincrotrone (PS) del CERN. Il PS ha il compito di accelerare i pacchetti a 3,5 GeV; essi vengono poi iniettati nel superprotosincrotrone (SPS) dove vengono accelerati fino a 20 GeV prima di essere trasferiti nel LEP. Una volta che le particelle si trovano nell'anello del LEP devono essere guidate lungo la traiettoria e focalizzate nei punti di collisione. Questa funzione viene svolta da elettromagneti e da separatori elettrostatici. Ciascuno degli otto archi, che coprono più di tre quarti della circonferenza del LEP, comprende 31 moduli standardizzati, ognuno dei quali è lungo 79,11 metri e contiene magneti nel seguente ordine: un quadrupolo di focalizzazione verticale, cioè un magnete a quattro poli che comprime il fascio nella direzione verticale, un correttore dell'orbita nella dimensione verticale, un gruppo di sei dipoli di curvatura, un sestupolo di focalizzazione orizzontale, un quadrupolo di focalizzazione orizzontale, un correttore dell'orbita nella dimensione orizzontale , un secondo gruppo di sei dipoli di curvatura e infine un sestupolo di focalizzazione verticale. Il campo magnetico dei dipoli è di circa 0,1 tesla; la bassa intensità del campo ha consentito di realizzare il nucleo del dipolo secondo un progetto di nuovo tipo, nel quale i traferri fra le lastre di acciaio magnetizzato sono riempiti di una speciale malta. Questo sistema di costruzione si è rivelato del 40% più economico rispetto ai nuclei di acciaio convenzionale. Nei punti di collisione i fasci di particelle vengono compressi per poter aumentare la luminosità del fascio. La compressione è ottenuta da un gruppo di quadrupoli superconduttori, i quali restringono il fascio fino a 10 micrometri nel piano verticale a 250 micrometri nel piano orizzontale e a circa 2 cm nella direzione longitudinale. La corrente dei magneti del LEP è controllata accuratamente da 750 alimentatori in corrente continua con potenze che vanno da un chilowatt a parecchi megawatt. Gli alimentatori hanno una stabilità che raggiunge due parti su 100.000 e vengono sincronizzati con la massima esattezza. Un ultimo sistema del LEP da menzionare è il sistema di vuoto. In sei ore di funzionamento dell'anello di accumulazione le 1012 particelle dei fasci percorrono più di 240 milioni di volte la circonferenza del LEP, coprendo una distanza pari a 6500 milioni di chilometri, ossia più della distanza che ci separa da Nettuno. La camera a vuoto dove vengono accelerati i fasci deve, quindi, essere a pressione bassissima per evitare che le particelle urtino con le molecole di gas che si trovano sul percorso descritto dal fascio. La pressione statica all'interno della camera a vuoto è inferiore a 10-11 millimetri di mercurio. Negli anelli di accumulazione per elettroni costruiti in precedenza si otteneva un vuoto ultraspinto mediante l'impiego di pompe lineari ad assorbimento di ioni che dovevano necessariamente funzionare nel campo dei magneti di curvatura. Poiché i campi magnetici dei dipoli del LEP sono poco intensi, per permettere l'uso delle pompe lineari, si è dovuto ricorrere ad un nuovo sistema adottato per la prima volta in un acceleratore. Esso si basa su un sistema di pompaggio costituito di un nastro assorbente distribuito lungo la circonferenza del LEP. Questo nastro largo tre centimetri ed esteso per più di 20 km., è fatto di costantana (una lega rame-nichel) rivestito da una lega di zirconio-alluminio. Il materiale che costituisce il nastro si comporta come una "carta moschicida" molecolare e forma composti chimici stabili con la maggior parte dei gas attivi. Le molecole residue di gas aderiscono al nastro di costantana e diffondono verso l'interno dello stesso. Questo nuovo sistema di pompaggio ha ridotto considerevolmente i costi di costruzione del sistema di vuoto. Il progetto LHC Il maggior impulso alla ricerca proviene oggi dal Large Electron-Positron Collider (LEP), le cui misure insuperate per quantità e qualità stanno confermando a un livello di precisione dell'uno per cento, che presto potrà essere spinto fino all'uno per mille, l'attuale miglior descrizione del mondo subatomico, il Modello Standard. Quando i programmi LEP saranno completati, si aprirà la via al futuro con il Large Hadron Collider. I dati del LEP sono precisi a tal punto da essere sensibili a fenomeni che si manifestano ad energie più alte di quelle della macchina stessa, proprio come le sofisticate misure delle scosse di un terremoto effettuate lontano dal suo epicentro. Ciò costituisce l'anteprima delle esaltanti scoperte che si prevedono ad energie dell'ordine del TeV (1 TeV =1000 GeV=1.000.000.000.000 eV) dei costituenti fondamentali. Infatti l'evidenza sperimentale indica chiaramente che a tali energie si dovrebbero aprire nuovi orizzonti per la fisica, con la possibilità di dare una risposta agli interrogativi più profondi della nostra epoca, quale ad esempio l'origine delle masse. A priori un collisionatore elettrone-positone, quale il LEP, con un'energia di almeno 1 TeV sarebbe lo strumento ideale per tali studi. In effetti le interazioni elettrone-positone, che sono particelle puntiformi senza una struttura interna, producono eventi facilmente distinguibili dal "fondo" e l'energia dei fasci è concentrata nei proiettili elementari e non deve quindi essere suddivisa fra i quarks e i gluoni come nel caso dei protoni. Ciò ha come conseguenza che un ipotetico collisionatore e+e- di 1 TeV disporrebbe della stessa energia effettiva di una macchina adronica di circa 10 TeV. Ma non é possibile oggi, e non lo sarà ancora per molto tempo, realizzare un tale collisionatore. Infatti un SUPERLEP, cioè una macchina circolare, è resa impossibile dalla grande perdita d'energia sotto forma di radiazione di sincrotrone subita dalle particelle costrette ad un moto curvilineo (l'energia emessa é proporzionale alla quarta potenza dell'energia delle particelle), mentre la tecnologia degli acceleratori lineari è ancora lungi dal rappresentare un'alternativa realizzabile. L'unica soluzione accessibile è quindi quella di un collisionatore circolare protone-protone, con un'energia dei fasci superiore ai 10 TeV. Ciò è vero in particolare per il CERN che dispone del tunnel del LEP, nel quale installare una seconda macchina, e di tutta la relativa infrastruttura. E' disponibile anche un formidabile complesso di iniettori (linac, booster, PS e SPS), che ha già realizzato fasci dell'intensità e della brillanza richiesti, e che richiede solo un modesto programma d'adattamento per essere in grado di fornire i protoni necessari al funzionamento dell' LHC alla più alta luminosità. L'LHC sarà un acceleratore estremamente versatile. Potrà far collidere fasci di protoni di energia fino a 7 TeV (14 TeV nel centro di massa) in punti d'interazione d'eccezionale luminosità, consentendo di ottenere interazioni quark-quark d'energia ben superiore al TeV. Può far collidere anche fasci di ioni pesanti come il piombo con un'energia totale di collisione di 1250 TeV, circa 30 volte maggiore di quella del RHIC (Relativistic Heavy Ion Collider) in costruzione nel Laboratorio di Brookhaven negli USA. Infine nel futuro il funzionamento congiunto di LHC e di LEP potrà produrre collisioni protone-elettrone di un'energia di circa 1.5 TeV, cinque volte superiore di quella disponibile in HERA a DESY (Amburgo). Le tre caratteristiche principali di questa macchina: - collisioni protone-protone, dato che sarebbe risultato impossibile ottenere una grande luminosità con quelle fra protoni e antiprotoni, a causa della scarsità di questi ultimi. - energia dei fasci la più elevata possibile e quindi il campo magnetico deflettore più grande possibile (energia proporzionale al prodotto raggio di curvatura del tunnel per il campo) nei due canali magnetici richiesti dalle collisioni fra particelle della stessa carica viaggianti in direzioni opposte. - luminosità la più alta possibile, per sfruttare al meglio le caratteristiche dei fasci di protoni, coi quali la probabilità statistica di ottenere scontri quark-quark di energia ben più elevata della media è tanto più grande quanto più grande è la luminosità. Queste caratteristiche hanno condotto ad elaborare soluzioni tecniche per il sistema magnetico molto innovative sia rispetto ad acceleratori già realizzati. In primo luogo il campo magnetico più grande si ottiene con cavi superconduttori raffreddandoli ad una temperatura di 1.8 K a mezzo di elio superfluido, invece del classico elio a 4.2 K. In effetti, ad una temperatura data, la densità di corrente ottenibile in un cavo, fattore determinante per il disegno del magnete, decresce rapidamente col campo. Raffreddando a 1.8 K invece che a 4.2 K la densità di corrente voluta si ottiene ad un campo più elevato di circa il 30%. La seconda novità importante adottata per il circuito magnetico è costituita dalla struttura cosiddetta "due-in-uno". I due canali magnetici nei quali circoleranno le particelle sono infatti sistemati nello stesso giogo e contenuti nello stesso criostato, con notevole economia sia di spazio trasversale nel ristretto tunnel del LEP, che di costi (circa il 20% in meno rispetto alla soluzione classica di due magneti completamente separati). Le bobine dei magneti, che hanno una lunghezza di più di 14 m su un diametro interno di soli 56 mm, richiedono molta cura in fase di avvolgimento sia per ottenere la grande precisione richiesta nella posizione dei conduttori (errore ammesso inferiore a 0.1 mm) che per impedire movimenti durante il funzionamento. L'attrito potrebbe infatti generare uno sviluppo di calore sufficiente a produrre una transizione allo stato normale (chiamata "quench") anche di una piccola porzione di conduttore e conseguente arresto della macchina. La sfida tecnologica rappresentata dai magneti dell' LHC si può valutare meglio quando si pensi che le forze elettromagnetiche che si sviluppano nelle bobine crescono col quadrato del campo e che la capacità termica dei conduttori metallici alla temperatura di 1.8 K è solo un decimo di quella a 4.2 K. Ciò significa che una stessa quantità d'energia liberata da un piccolo spostamento di un conduttore provoca un aumento di temperatura della massa metallica dieci volte più rapido a 1.8 K che a 4.2 K. Anche l'energia elettromagnetica immagazzinata nel circuito è proporzionale al quadrato del campo e raggiunge in un magnete dipolare più di 7 MJ. In caso di "quench", l'energia tenderebbe a concentrarsi nella zona divenuta resistiva e porterebbe inevitabilmente alla distruzione del magnete se una rivelazione rapida di un quench incipiente non permettesse di far transitare tutto il magnete per mezzo di bande riscaldanti. Questa necessità di aumentare artificialmente e rapidamente la zona resistiva al fine di distribuire l'energia nel volume più grande possibile si presenta per la prima volta per magneti di acceleratori. Due grandi rivelatori per collisioni protone-protone ad alta luminosità ATLAS (A Toroidal Lhc Apparatus) e CMS (Compact Muon Solenoid) saranno inseriti nella macchina. Le dimensioni totali di quest due "titani" sono impressionanti: ATLAS avrà un'altezza di 20 m, una lunghezza di 44 m e peserà circa 6000 tonnellate, mentre CMS sarà più piccolo (altezza 14 m, lunghezza 20 m) ma più pesante (12000 tonnellate). Anche questi rivelatori, come la macchina, devono affrontare e superare sfide tecnologiche importanti. Basti pensare al susseguirsi degli scontri fra i pacchetti ogni 25 nanosecondi (11 microsecondi nel caso del LEP), che impone all'elettronica di decidere in pochi nanosecondi se conservare o scartare i dati raccolti nello scontro appena avvenuto sulla base delle topologie registrate; o ancora al grande numero di eventi, circa venti in media, ad ogni scontro di pacchetti. Quindi è stato necessario anche per i rivelatori intraprendere un programma di ricerca e sviluppo, che, in pochi anni, ha prodotto risultati notevoli fornendo soluzioni adeguate ai problemi più scottanti. E` stato concepito anche un rivelatore di collisioni di ioni di piombo (ALICE), il cui scopo è di studiare lo stato della materia, chiamato plasma di quark e gluoni, quale avrebbe dovuto esistere fino a circa venti microsecondi dopo il Big Bang e potrebbe essere presente oggi nel cuore delle stelle di neutroni. L'Informatica e gli acceleratori di particelle INTRODUZIONE Le tecniche di acquisizione e trattamento dei dati nelle esperienze di fisica delle alte energie subiscono un'evoluzione continua, approfittando degli sviluppi dei rivelatori di particelle e di fattori esterni quali l'evoluzione tecnologica in elettronica e informatica. Una discontinuità determinante in questa evoluzione si è verificata verso la metà degli anni sessanta quando sono accaduti due fatti notevoli concomitanti. In primo luogo l'invenzione dei rivelatori "elettronici" ha permesso di misurare con buona precisione e in tempo reale le coordinate spaziali dei prodotti di interazione. La realizzazione di questi rivelatori su larga scala è stata resa possibile dalla miniaturizzazione e riduzione dei costi dell'elettronica, grazie all'uso prima dei transistors e poi dei circuiti integrati e, in secondo luogo, dalla disponibilità di calcolatori elettronici per acquisire ed elaborare grandi quantità di dati. I rivelatori elettronici attuali permettono di ottenere risoluzioni spaziali comparabili a quelle raggiungibili con metodi fotografici, dell'ordine di 10µm, in apparecchiature le cui dimensioni lineari raggiungono decine di metri, fornendo ampi dettagli sulla topologia degli eventi osservati. Inoltre sono sensibili ad eventi successivi separati da intervalli dell'ordine del nanosecondo, potendo fornire un flusso praticamente continuo di dati. SELEZIONE E ACQUISIZIONE DATI L'aumento dell'intensità degli acceleratori di particelle, insieme alle possibilità offerte dai rivelatori, permette di produrre ed osservare fenomeni sempre più rari, a condizione di poterli identificare e selezionare nella moltitudine di eventi più comuni. Questa selezione avviene in due fasi, distinguibili per le tecniche usate: una selezione rapida (trigger) della topologia viene effettuata mentre l'informazione è conservata in memorie precarie o volatili, mentre un'analisi sistematica dei pochi eventi selezionati e registrati in memorie permanenti procede usando tecniche raffinate di calcolo. Questo modello semplificato (trigger + analisi) si realizza in pratica in modo quasi continuo, attraverso una serie di operazioni via via più complesse e precise (quindi via via più lente) effettuate sugli eventi che hanno sopravvissuto alla selezione imposta dalle operazioni precedenti. Per dare un'idea intuitiva e solo lontanamente quantitativa del flusso di dati in gioco in un grande esperimento e della selettività dei processi di trigger, il flusso potrebbe essere assimilato alla somma di informazione digitale che si avrebbe se tutti gli abitanti della terra parlassero simultaneamente al telefono, saturando ciascuno una linea da 64 kbit/s. Da questo flusso primordiale sarebbero selezionati soltanto un migliaio di individui sensati e interessanti, dei quali si registrerebbero le conversazioni. TECNOLOGIE INFORMATICHE Trigger e acquisizione dati hanno una forte componente informatica multiforme. In primo luogo la logica di trigger si realizza attraverso operazioni booleane eseguite in circuiti ad hoc e attraverso calcoli in processori di vario tipo. Il trasferimento dei dati in modo rapido ed affidabile richiede l'uso di protocolli efficienti e sofisticati. Infine, il controllo del flusso e della qualità dei dati e dello stato di funzionamento dei rivelatori richiede un'infrastruttura capace di osservare ogni dettaglio e rilevare le anomalie eventuali. Le tecnologie informatiche disponibili permettono in generale di soddisfare a tutte queste richieste considerate separatamente. Tuttavia rimane un vasto problema di integrazione delle varie tecnologie in un unico sistema coerente: questo aspetto multidisciplinare rappresenta l'origininalità dei progetti informatici in fisica delle alte energie. RETI TELEMATICHE Un elemento molto importante nel funzionamento di un laboratorio dedicato a grossi acceleratori di particelle è l'infrastruttura di telecomunicazioni digitali. Un primo aspetto dell'utilizzazione di informatica e comunicazioni digitali è quello comune ad ogni grande organizzazione in cui tutte le persone che vi lavorano usano quotidianamente computers per attività convenzionali. Un secondo aspetto è l'uso di calcolatori per il controllo degli acceleratori. Il problema da risolvere in questo caso è di programmare, seguire e correggere azioni su diverse apparecchiature lontane anche decine di chilometri (diametri degli anelli di accelerazione che arrivano sino a 27 Km) in tempi corrispondenti a pochi multipli del periodo di rivoluzione delle particelle (89µs), con piccole fluttuazioni della simultaneità e con risposta deterministica. Ciò è possibile associando una rete di calcolatori operanti in tempo reale ad un sistema di sincronizzazione che permette a tutte le apparecchiature e calcolatori, ovunque essi siano, di riconoscere eventi che devono essere trattati come simultanei in tutto il sistema distribuito. Tale rete a doppia funzionalità è realizzata integrando componenti propri alle trasmissioni digitali di tradizione telefonica con componenti e protocolli usati nelle reti informatiche. Un terzo elemento di telecomunicazione e trasferimento dati è dato dalle richieste del ricercatore singolo di accedere ai dati dell'esperimento sul quale lavora. Dopo diverse forme di elaborazione i dati di un esperimento (e i dati simulati associati) sono a disposizione dei membri della collaborazione, in memorie magnetiche, dischi o nastri. È quindi poi necessario trasferire su rete sottoinsiemi coerenti di dati per permettere ai ricercatori, nei loro laboratori sparsi su tutto il globo, di analizzare i fenomeni che li interessano. Questo stile di lavoro si è rivelato molto efficiente e produttivo ed ha portato la comunità dei fisici attivi in ricerca in alte energie ad un ruolo pionieristico nell'uso di reti di calcacolatori con alta banda passante a livello internazionale. Applicazioni Industriali degli Acceleratori di Particelle ASPETTI GENERALI Fino al secondo dopoguerra la diffusione delle tecniche radiologiche industriali (in particolare quelle legate alla diagnostica non distruttiva) ha avuto un aumento moderatamente crescente fino a quando un impulso nuovo e determinante è venuto dall'uso, nello stesso settore, degli acceleratori di particelle atomiche che fino ad allora erano stati sviluppati ed utilizzati quasi esclusivamente per la fisica fondamentale. Oggigiorno si ha addirittura tendenza ad eliminare le sorgenti radioattive per tutta una serie di complicazioni legate al loro uso in contrapposizione al fatto che gli acceleratori presentano diversi vantaggi ed in particolare quello di produrre fasci più intensi e soprattutto piùcontrollabili, permettendo quindi di adattarsi meglio ai procedimenti industriali dando le massime garanzie dal punto di vista della sicurezza operativa. Va sottolineato che taluni risultati possono essere ottenuti esclusivamente con l'impiego di fasci di particelle mentre altri processi si pongono in concorrenza diretta con metodi diversi e più tradizionali. Il punto di forza nell'impiego tecnologico di acceleratori di particelle spesso risiede in un incremento di economia, rapidità e salvaguardia dell'ambiente. Il rapido sviluppo tecnologico degli acceleratori nelle loro diverse forme (elettrostatici, lineari, circolari etc.) e la loro accresciuta affidabilità ha fatto si che la convenienza economica dei processi in cui possono essere impiegati sia divenuta nel tempo sempre maggiore. L'acceleratore utilizzato in ciascun processo influenza grandemente le valutazioni economiche, per cui, anche se molto è stato già fatto (siamo ormai nella settima decade di sviluppo degli acceleratori), molto è ancora possibile fare sfruttando l'apice tecnologico di questo settore che ancora oggi vede la sue fondamentali evoluzioni legate alle apparecchiature messe a punto per la fisica fondamenale, dove le energie e le problematiche sono di parecchi ordini di grandezza più grandi che nei processi industriali. PRINCIPI Alla base di tutti i processi di irradiamento vi è la capacità da parte della radiazione, sia essa elettromagnetica o corpuscolare, incidente su un bersaglio, di generare ionizzazione e attraverso la modifica dei legami atomici o molecolari provocare effetti di tipo chimico e/o fisico. Fra di essi è di particolare interesse la capacità delle radiazioni di incidere sul comportamento biologico delle cellule influendo sul DNA e provocando effetti che vanno fino alla inibizione totale di cellula o di microrganismi che, in via generale sono tanto più radiosensibili quanto maggiore è la loro complessità strutturale. Dosi letali per vari organismi: Organismi Dose in Gy Mammiferi 5 – 10 Insetti 10 – 1.000 Batteri 500 – 10.000 Spore 10.000 – 50.000 Virus 10.000 – 200.000 [La dose assorbita è l'energia deposta dalla radiazione per unità di massa e si misura in Gray : 1 Gy = 1 Joule/1 kg] Un altro effetto delle radiazioni è la possibilità di favorire l'insorgere di legami incrociati fra alcuni tipi di molecole provocando cambiamenti comportamentali degli oggetti trattati. Con qualunque acceleratore si fa si che il fascio prima di uscire dalla cosiddetta "finestra" della macchina venga fatto oscillare con un sistema di scansione magnetica per poter coprire l'intera superficie del prodotto da trattare e di conseguenza sterilizzarlo, decontaminarlo, disinfestarlo, o fargli ottenere le caratteristiche superficiali desiderate. PROCESSI INDUSTRIALI Per dare un quadro globale, anche se molto sintetico delle possibiltà tecnologiche dei fasci ionizzanti, sono possibili diversi tipi di classificazione, facendo riferimento al tipo di macchina, al tipo di particelle, o ad altri criteri ancora. Si dà comunque per scontato che i processi descritti traggono vantaggio dall'esclusivo impiego di acceleratori di particelle a discapito sia delle sorgenti naturali, per le ragioni precedentemente descritte, sia dei processi tradizionali alternativi. In particolare si presenteranno tecniche correlate con l'industria chimica, con quella della sterilizzazione nel senso più ampio del termine, con quella della protezione ambientale con quella alimentare. Industria chimica Il bombardamento dei polimeri con elettroni (EB) permette, come già accennato, di generare radicali liberi che a loro volta generano legami incrociati (cross-links) fra le molecole dei polimeri. Questo fenomeno provoca nel materiale trattato effetti quali il miglioramento delle caratteristiche meccaniche con la temperatura, una migliore capacità dielettrica in funzione dell'invecchiamento, l'ottenimento di pezzi fortemente termoretraibili, la produzione di bande adesive particolari etc. La reticolazione può ottenersi con effetto di massa, se si tratta la materia prima dello stampaggio o dell'estrusione, oppure con trattamento superficiale se viene effettuata su prodotti finiti o in fase di lavorazione come si fa per esempio per i cavi elettrici. La reticolazione dei polimeri si può generare anche per via chimica, ma in questo caso i reagenti ed i catalizzatori sono costosi , tossici, ed inoltre il processo è più lento con la conseguente incidenza sulla reddittività dell'investimento. Le realizzazioni industriali già esistenti e di cui si riporta nel seguito una lista trattano: Isolanti elettrici : in quanto per usi fino a 30 kV migliorano la costante dielettrica ed il comportamento con la temperatura, la quale influisce con andamento alla quarta potenza insieme alla tensione di esercizio sull'invecchiamento dell'isolante stesso. Termorestringenti : l'utilizzo di queste tecniche per produrre questi prodotti ha vantaggi rispetto ai processi chimici tradizionali sia per il costo sia per il rapporto di restringibilità che può arrivare fino a tre volte rispetto alla dimensione iniziale. Si fa largo uso di componenti termoretraibili ottenuti da processi di irraggiamento specialmente nell'industria automobilistica ed elettronica per i cosidetti "jackets" che assicurano protezione, isolamento e sigillamento. Plastiche e gomme : oltre al migliore comportamento meccanico con la temperatura è possibile ottenere, con irraggiamento di elettroni, processi di vulcanizzazione a freddo e simultanea sterilizzazione che può avere largo impiego nell'industria dei prodotti medicali (guanti, siringhe, cateteri etc.). Le dosi necessarie sono dell'ordine 50-60 kGy ed il costo dei trattamenti per ora è competitivo solo se si considera la simultanea sterilizzazione dei prodotti in lavorazione. Trattamenti superficiali : quando il processo di massa risulta troppo impegnativo, tenendo conto della dose, o non è possibile intervenire altrimenti che sul prodotto finito, risulta conveniente variare le caratteristiche solo in superficie. Questi trattamenti stanno avendo grandissima diffusione perchè è possibile ottenere indurimento di vernici o di stampe o di essiccamento degli inchiostri evitando l'uso di solventi. Il trattamento superficiale con EB (bombardamento con elettroni) permette profondità di penetrazione maggiori rispetto agli equivalenti trattamenti con raggi ultravioletti Sterilizzazione Sotto questo termine generico possono essere compresi tutti i processi hanno influenza sul comportamento biologico delle cellule e permettono quindi un trattamento di eliminazione selettiva di microrganismi che vanno dalle spore agli insetti . L'impiego di questi trattamenti trova spazio in campo ospedaliero, nell'industria farmaceutica, nello stoccaggio merci (in particolare granaglie) e nell'industria alimentare . Presidi medici: la sterilizzazione in ambito industriale ed ospedaliero si ottiene attuamente con processi a vapore o con l'uso di Ossido di Etilene. In questi ultimi cinque anni l'incremento della sterilizzazione con EB è stato rapidissimo giungendo ad una diffusione del 33% del mercato totale ma è destinato ad aumentare tenuto conto che il processo termico è costoso per l'energia in gioco ed inadatto per materie plastiche a basso punto di rammollimento, mentre l'Ossido di Etilene, essendo tossico, dovrà essere progressivamente eliminato. La omogeneità della dose è inoltre sicuramente migliore che con gli altri metodi. Attualmente la convenienza del trattamento è legata al costo dell'acceleratore, che dovendo essere di alta potenza (da 10 a 50 e più kW) per far fronte rapidamente a grandi lotti di merce da sterilizzare, ha ancora costi relativamente alti e pertanto si giustifica solo per centri con grandi capacità di materiale da trattare per far fronte ad un ragionevole ammortamento dei costi d'impianto. La rapidità dell'ulteriore diffusione è legata all'abbattimento dei costi per macchine acceleratrici fra 5 e 10 MeV a elettroni e con dimensioni compatte. Cosmetici e prodotti farmaceutici: si trattano per ottenere asetticità specialmente i prodotti in polvere e dato il loro alto valore aggiunto risulta opportuno un trattamento a EB che privilegia l'aspetto qualitativo anche a discapito della convenienza. In questo campo risulta estremamente vantaggioso eliminare prodotti chimici ma per adesso non è stato ancora analizzato come l'opinione pubblica percepisce commercialmente l'irradiamento dei cosmetici. Protezione ambientale Trattamento di rifiuti tossici : sono state fatte esperienze per eliminare gli effetti nocivi di inquinanti contenuti in acque di scarico contenenti per esempio pesticidi , atrazina ed altro ed i risultati sono molto positivi a parte per adesso il costo, che dipende molto dalle capacità di trattamento delle macchine e dalla velocità del trattamento che è legata alla profondità di laminazione del liquido per garantire la dose necessaria in funzione della portata. Ovviamente non si può garantire l'abbattimento di tutti gli inquinanti (per esempio i metalli in sospensione), ma questo processo risulta molto interessante per il trattamento dei rifiuti ospedalieri, che, dopo l'irradiamento, addivengono ad uno stato di normali rifiuti da smaltire. Di grande interesse è inoltre la distruzione del PCB che come noto è molto stabile e quindi chimicamente inattaccabile e, per ora, il solo modo di distruggere le grandi quantità di PCB che dovranno essere eliminate nei prossimi anni, è solo attraverso l'antieconomico impiego di forni ad altissima temperatura. Trattamento fanghi : l'aspetto interessante rispetto ai precedenti processi di sterilizzazione è quello di poter riutilizzare, una volta abbattuta la carica virale, gli stessi fanghi come fertilizzanti naturali semplicemente reimmettendoli in agricoltura. Derrate alimentari : fra le tante possibilità di sterilizzazione o rallentamento della maturazione, i trattamenti che stanno trovando più vasto ed accettato impiego sono quelli che tramite EB permettono di decontaminare da batteri come Salmonella e la Yersinia, le carni di pesce e pollame, anche surgelate. Si riesce inoltre ad eliminare parassiti come la Taenia e la Trichinella per esempio dalle carni di maiale. Di altrettanto vasta portata può diventare il trattamento delle granaglie all'ammasso per disinfestarle da insetti e parassiti. In questo campo il potenziale è legato più che al costo del trattamento in sé, alla trasportabilità della macchina per evitare di avere costi di movimentazione e facchinaggio incidenti troppo pesantemente sul prezzo finale delle granaglie che normalmente sono a basso valore. Molto più diffuso è il trattamento delle spezie. È possilbile anche la pastorizzazione di alcuni cibi, oltre che del latte, ma l'argomento resta per ora relativamente controverso per via del contenuto vitaminico che talune fonti sostengono possa essere diminuito. Gli acceleratori di particelle in medicina Esattamente cento anni fa Wilhelm Konrad Roengten, professore di fisica all'Università di Würzburg, scopriva i raggi X utilizzando l'acceleratore di particelle che allora era all'avanguardia : un tubo di Crookes, un po' di cartone e delle lastre fotografiche furono sufficienti ad aprire la strada alle applicazioni diagnostiche della fisica. Dopo pochi anni i raggi X cominciarono a essere utilizzati per la terapia dei tumori. Qui il cammino fu molto più lungo perché i raggi X, prodotti con i primi tubi a relativamente bassa energia, sono troppo assorbiti quando attraversano la materia. L'aumento della tensione applicata ai tubi a raggi X è proseguito fino agli anni quaranta : qualche centinaio di chilovolt divennero usuali, così da produrre fotoni aventi energia massima pari a qualche centinaia di migliaia di elettronvolt (circa 100 keV). Dopo la seconda guerra mondiale e per qualche decina d'anni presero il sopravvento le "bombe al Cobalto", le quali contengono barre di metallo attivato nei reattori nucleari che emettono fotoni di circa un milione di elettronvolt (1 MeV). Presto venne la rivincita degli acceleratori di elettroni; prima quelli circolari (soprattutto betatroni) e poi gli acceleratori lineari. All'inizio questi ultimi venivano considerati troppo costosi e poco affidabili : una sorgente radioattiva funziona sempre. Ma oggi le bombe al Cobalto vengono rimandate (costosamente) al venditore e i radioterapisti chiedono acceleratori lineari di elettroni di energia sempre più elevata : all'inizio 8 MeV erano sufficienti, poi 18 MeV e oggi, sempre più spesso, 25 MeV e, con altri acceleratori, anche 50 MeV. Inoltre acceleratori di protoni e ioni sono già oggi utilizzati nella terapia oncologica. ACCELERATORI LINEARI DI ELETTRONI Gli acceleratori lineari sono affidabili, leggeri e i prezzi sono molto diminuiti per la competizione industriale. I principali produttori occidentali sono Varian, General Electric, Philips, Siemens. In Giappone domina la Mitsubishi. L'Italia è stata assente da questa competizione fino a quest'anno, allorché la Hitesys di Pomezia ha messo sul mercato un piccolissimo acceleratore lineare per elettroni posizionabile con un robot. In questo caso si usano direttamente gli elettroni (e non i fotoni, o raggi X, prodotti quando gli elettroni colpiscono un bersaglio metallico) e lo scopo è quello di irraggiare nel corso di un'operazione gli organi del paziente dopo che il tumore è stato asportato chirurgicamente. Il mercato degli acceleratori lineari è molto vasto. Oggi sono in funzione nel mondo circa 500 linac per elettroni, la metà dei quali nei soli Stati Uniti. In media un acceleratore di alta energia, completo di tutto, costa circa un milione di euro. Poiché si ritiene che vi dovrebbe essere un acceleratore ogni 100'000 abitanti, il numero di acceleratori dovrebbe moltiplicarsi per cento per coprire le necessità di tutta la popolazione mondiale. In Italia sono in funzione oggi circa un centinaio di acceleratori lineari distribuiti su 70-80 centri di radioterapia. Con essi vengono irraggiati circa 90'000 pazienti all'anno ma in alcune regioni i centri di radioterapia mancano del tutto e in molte regioni le code di attesa sono molto lunghe: si valuta che circa 130'000 pazienti italiani dovrebbero essere irradiati ogni anno. Bisogna sottolineare che non sono tanto i fondi per gli acceleratori che mancano, quanto il personale addestrato capaci di utilizzarli. TERAPIA CON NEUTRONI VELOCI Un dieci per cento circa dei tumori sono "radioresistenti" perché le cellule ipossiche non sono sensibili alle radiazioni convenzionali (fotoni ed elettroni); è stato dimostrato che alcuni di essi sono però distrutti da fasci di neutroni veloci prodotti colpendo bersagli di berillio con protoni o deutoni di più di 50 MeV di energia. La maggiore efficacia biologica dei neutroni veloci (cioè neutroni che hanno qualche decina di MeV di energia) è dovuta al fatto che essi, urtandoli, mettono in moto i protoni dell'idrogeno che è contenuto nei tessuti attraversati. Questi protoni hanno energie circa eguali a quelle dei neutroni che li mettono in moto e, essendo carichi, si fermano in un millimetro (o meno) e lasciano dietro di sé una densa colonna di ioni . È questa alta densità di ionizzazione (espressa dal grande trasferimento di energia LET = Linear Energy Transfer, che arriva fino a 100 keV/µm) che produce danni irreparabili alle cellule dei tumori radioresistenti. Fotoni ed elettroni hanno invece una bassa densità di ionizzazione (LET @ 0.2-2 keV/µm) e le cellule tumorali ipossiche riescono a riparare i danni da loro prodotti.