stato ed esigenze del calcolo nell`infn

annuncio pubblicitario
STATO ED ESIGENZE DEL CALCOLO PER GLI ESPERIMENTI NELL’ INFN
Il 29 giugno a Napoli si e’ tenuta una prima riunione congiunta della Commissione
Calcolo/CNTC, allargata ai rappresentanti degli esperimenti, per effettuare una
ricognizione dei bisogni di calcolo per l’INFN derivanti dall’introduzione delle nuove
tecnologie, ormai generalmente adottate nel mondo della fisica delle Alte Energie e
Nucleare.
Lo scopo era specificatamente rivolto non a una determinazione esauriente delle strategie
del calcolo dei singoli esperimenti e dei relativi profili finanziari, che sono tipicamente
di competenza delle Commissioni Scientifiche Nazionali, quanto ad effettuare una prima
ricognizione dei nuovi modelli di calcolo e delle conseguenti esigenze riguardanti :
 il supporto e gli strumenti software richiesti ai servizi centrali di calcolo delle
singole sedi compresi quelli che possono essere meglio sviluppati con progetti
nazionali
 il personale qualificato nelle nuove tecnologie
 le infrastrutture di rete locale e geografica
 le problematiche da studiare con progetti dedicati
Questo documento raccoglie i risultati di questo primo incontro e va considerato come il
primo passo di un percorso che permettera’ di elaborare un piano dettagliato pluriennale
di sviluppo del computing specifico per l’INFN, in sintonia ed integrato con quelli che
saranno per quella data sviluppati dagli esperimenti a LHC, che costituiscono l’impegno
principale in questo campo.
La nuova direzione del CERN ha deciso di costituire entro settembre 1999 un review
committee che ha il mandato di rivedere i progressi in corso e la pianificazione delle
attivita’ di computing degli esperimenti a LHC e della divisione IT in vista dello start-up
di LHC.
La review dello stato dei piani esistenti sul computing dovra’ essere completata per
l’inizio del 2000 (marzo) assieme alla formulazione di una serie di raccomandazioni per
il futuro che comprenderanno anche la (ri)definizione di un insieme coerente di
milestones per lo sviluppo del computing degli esperimenti a LHC.
I bisogni degli esperimenti e quanto questi si aspettano in futuro dalla divisione IT, dalle
Agenzie di finanziamento coinvolte nel programma LHC e dal CERN dovranno essere
documentati il piu’ dettagliatamente posssibile. Questo implica per l’INFN individuare le
responsabilita’ che la componente italiana dei vari esperimenti intende assumersi e le
relative necessita’. In particolare dovra’ cominciare a chiarirsi all’interno degli
esperimenti e degli organismi istituzionali se l’INFN intende contribuire con centri
regionali in Italia al calcolo degli esperimenti a LHC e quali problemi tecnici sono da
affrontare immediatamente per arrivare a una soluzione soddisfacente per lo start up di
LHC. La scala dei problemi da affrontare e’ enorme e quindi lo studio di queste soluzioni
va affrontato con una certa urgenza.
Lo scopo di questo documento e’ quello di fornire alla direzione INFN un panorama
globale dei bisogni derivanti dai modelli di computing dei nuovi esperimenti, non solo
quelli a LHC, in modo che possa essere elaborata una politica organica di pianificazione
delle risorse necessarie per tutti e di studio di eventuali soluzioni tecnologiche comuni.
Il corpo del documento e’ costituito dai testi elaborati dei singoli esperimenti ed e’
preceduto da un’introduzione e da un sommario esecutivo che riassume gli aspetti
principali dei modelli di calcolo coinvolti e delle relative esigenze.
INTRODUZIONE
Una volta scelto di adottare le nuove tecnologie Object Oriented e le moderne
metodologie di Software Engineering per lo sviluppo del software, il primo problema
che la Fisica delle Alte Energie e Nucleare ha affrontato e’ stato quello di cercare di
ricostituire al piu’ presto quell’insieme di elementi, che nel passato potevano essere
identificati generalmente con i componenti della attuale libreria del CERN, in modo da
fornire agli esperimenti i nuovi strumenti, basati sull’Object Oriented e il C++, da
utilizzare per costruire il proprio software specifico.
In secondo luogo si e’ reso necessario lo sviluppo di nuovi modelli, che tenessero conto
delle potenzialita’ delle nuove tecnologie, quali ad esempio le basi di dati ad oggetti, per
permettere una efficiente organizzazione del lavoro, del calcolo e dell'analisi dei dati per
collaborazioni formate da migliaia di persone sparse in tutto il mondo
Si tratta di un compito non facile perche’ l’ambiente HEP ha necessita’ difficilmente
riscontrabili oggi in altri campi in termini di:
 quantita’ e distribuzione dei dati da analizzare ( 5- 10 Pbytes/ esperimento LHC )
 potenza di elaborazione necessaria
 prestazioni della rete locale e geografica
 durata di vita e complessita’ del software da sviluppare (20 anni)
 numero di sedi e ricercatori coinvolti in un unico esperimento e quindi motivati a
lavorare insieme in modo coordinato e organico (~2000)
Il mondo commerciale quindi, che e’ un punto di riferimento fondamentale per aver
adottato da lungo tempo le moderne tecnologie, non sempre offre prodotti che si adattino
alle stringenti richieste dell’ambiente HEP.
Il problema per HEP quindi e’ quello di valutare quanto il mondo commerciale possa
attualmente fornire e sviluppare poi o in toto, o partendo da una base commerciale
esistente, i prodotti di cui ha bisogno per le proprie necessita’.
Specifici progetti di R&D sono stati sviluppati in questi anni al CERN e negli USA per
dare una risposta a queste domande. I primi risultati cominciano ora ad essere a
disposizione degli esperimenti : Geant4, Objectivity, LHC++, CLHEP, tools di analisi
etc.. Pero’ non sempre i risultati di questi progetti portano a prodotti accettati da tutta la
comunita’ e l’esperienza insegna che molta e’ ancora la strada da percorrere prima di
poter ricostituire un insieme organico di elementi come era la vecchia CERNLIB.
L’acquisizione di nuove competenze nel mondo HEP non puo’ quindi limitarsi al livello
di pura utenza, ma deve includere una frazione non trascurabile di personale che sia in
grado effettuare gli sviluppi di base necessari per ricostuire quel quadro di riferimento
organico in cui poi i fisici potranno introdurre i propri algoritmi di analisi come nel
passato. Questi sviluppi non saranno di breve durata ed e’ prevedibile che saranno
necessarie alcune iterazioni prima di arrivare alle soluzioni finali.
Inoltre queste dovranno essere costruite con metodologie professionali in modo da poter
garantire una lunga vita ai prodotti che su di esse saranno costruiti.
E’ auspicabile che in tutto questo processo l’INFN non si limiti ad un ruolo di pura
utenza e debba quindi dipendere da altri per ogni ulteriore sviluppo, ma partecipi alle
attivita’ di creazione degli strumenti di base che richiedono il massimo livello di
competenze. In questo modo si potra’ sviluppare anche nel campo delle nuove tecnologie
del computing un livello di eccellenza pari a quello che l’INFN ha sempre posseduto in
altri settori : meccanica, elettronica, rivelatori, analisi.
La costituzione del CNTC ha fornito un punto di riferimento importante agli esperti dei
servizi di calcolo e degli esperimenti per promuovere e organizzare la partecipazione ai
grandi progetti internazionali di sviluppo sul computing moderno.
Il grande entusiasmo con cui la comunita’ INFN ha accolto i corsi di formazione sulle
metodologie e applicazioni OO del CNTC, saturando costantemente tutti i posti
disponibili, fa ben sperare che all’interno dell’Ente si possano costituire, accanto ad una
diffusione generale di queste, anche dei nuclei di alto livello professionale.
La creazione di questi nuclei deve pero’ essere seguita e incentivata con particolare
attenzione da parte dell’Ente. E’ altrettanto necessaria della formazione generalizzata e
costituisce anzi la condizione necessaria perche’ dopo i corsi le competenze del personale
possano continuare a progredire e con queste i contributi INFN al computing dei nuovi
esperimenti..
In prospettiva le attuali esigenze del mondo della fisica nucleare e sub-nucleare sembrano
destinate ad avere un’ampia diffusione in tutte le societa’ avanzate in cui le applicazioni
dell’Information Technology svolgono un ruolo sempre piu’ strategico.
L’ambiente HEP infatti, pur essendo di dimensioni trascurabili in termini economici
rispetto alle dimensioni del mercato di una societa’ informatizzata (vedi ad es. i ~ 2000
PC INFN rispetto ai 200 Milioni venduti nel mondo) precorre in molti aspetti come
esigenze il mercato di massa e costituisce un banco di prova altamente significativo per
molte delle applicazioni che sono destinate ad avere un ruolo strategico in ogni societa’
avanzata .
L’ambiente di fisica delle Alte Energie e Nucleare puo’ dunque offrire un’opportunita’
unica per praticare e sperimentare le nuove tecnologie che si sono sviluppate in tutti
questi anni nel campo dell’Information Technology al massimo livello e puo’ essere
attraente anche per organizzazioni o persone esterne all’ambiente stesso.
Quindi opportuna attenzione deve essere dedicata per sfruttare queste potenzialita’
individuando i progetti europei, le collaborazioni con industrie, facolta’ di informatica e
altre organizzazioni che siano interessate a progetti comuni e possano arricchire il
bagaglio di conoscenze disponibili.
All’estero sono ormai numerosi i progetti di questo tipo, vedi ad esempio:
In USA il progetto GIOD che e’ un progetto congiunto (Caltech-CERN-HP) su Globally
Interconnected Object Databases che investiga l’usabilita’, la scalabilita’ e la portabilita’
del codice OO degli esperimenti a LHC su un sistema gerarchico di grandi servers e
medio piccole macchine client distribuite su reti locali e geografiche veloci.
Vedi : http://pcbunn.cithep.caltech.edu/
In USA i progetti che vanno sotto il nome di Data Analysis Grid e comprendono :

Il progetto DoE/NGI: The Particle Physics Data Grid (PPDG): 1999-2000+ a cui
partecipano i maggiori laboratori USA HENP : FNAL, BNL, ANL, LBNL, SLAC,
JLAB, e alcune universita’ : Caltech and CACR, SDSC, Wisconsin (CS) che ha il
compito di sfruttare le conoscenze e i tools esistenti per costruire un sistema di
gestione dei dati distribuito
Vedi : http://www.phys.ufl.edu/~avery/mre/ppdg_proposal.pdf

Il progetto DoE IT2/SSI: Development of Proposal for HENP Data Management:
“Virtual Data”
Vedi : http://www.internet2.edu/ e referenze collegate

Il progetto NSF: US Data Analysis Grid: 2001 – 2005 che e’ un joint proposal a
cui partecipano US CMS/US ATLAS/LIGO e ha il compito di sviluppare dei
centri secondari di analisi dei dati che siano ben coordinati con un centro centrale e
che ha richiesto un finanziamento superiore a 50 Milioni di dollari
Vedi : http://www.phys.ufl.edu/~avery/mre/
Tutti questi tre progetti si basano su una infrastruttura di rete comune ad alte prestazioni
Nell’ultima referenza possono essere trovati i riferimenti a numerosi progetti in altri
settori che richiedono l’analisi di alcune Pbytes di dati :








The Earth Observing System Data Information System (EOSDIS) (3 PB by 2001);
The Human Brain Project. Time series of 1 Terabyte scans of the human brain,
generating of the order of a Petabyte of data in a short period of time;
The Human Genome Project;
Astronomical scans (e.g., Sloan Sky Survey) ;
Geophysical data;
Satellite weather image analysis, where chaotic processes are studied;
Point of sale receipts, in which patterns of consumer spending are tracked ;
Banking records, which are analyzed for spending cycles or unusual transactions
which may relate to illegal activities.
In Gran Bretagna e’ stato di recente finanziato, come Joint Research Equipment
Initiative per un valore di circa 2.5 Milioni di sterline, un progetto di mass storage,
collegato al Montecarlo Array Processor (MAP), proposto da Liverpool in collaborazione
con Compaq, che contribuisce al finanziamento. Come primo stadio, il progetto sta
costruendo un prototipo di mass storage con la capacita’ di 40 TBytes per produrre e
analizzare dati di simulazione per l’esperimento LHC_b. In questo prototipo saranno
studiati e risolti i problemi tecnici per garantire la scalabilita’ di questo sistema alle
centinaia di TBytes necessarie per LHC.
SOMMARIO DELLE RICHIESTE
L’esame dei documenti presentati dagli esperimenti permette di individuare piu’
precisamente gli aspetti di particolare impatto sulle esigenze del sistema di calcolo in cui
l’INFN e’ coinvolto e di grande interesse per le tecnologie coinvolte.
Lo studio di molte di queste, alla luce di quanto detto sopra, puo’ certamente raccogliere
un interesse non limitato alla sola fisica delle Alte Energie e Nucleare.





Tecniche Object Oriented per lo sviluppo di tutto il Software di elaborazione e
analisi dei dati, vedi LHC,Babar, Compass e parzialmente CDF
Utilizzo dei moderni databases ad oggetti per l‘archiviazione e l’accesso
simultaneo ai dati degli eventi in tutte le loro varie fasi di elaborazione (RAW,
DST, N-tuples…).Vedi LHC, Babar e Compass
Utilizzo di sistemi di mass storage per la gestione automatica di dischi e nastri,
vedi LHC, Babar, Compass CDF, NA48
Sviluppo di modelli di calcolo distribuiti con due possibili livelli :
- Distribuzione a livello di Centri Regionali dei dati anche in stadi intermedi di
elaborazione e della CPU , vedi LHC e parzialmente Babar-INFN
- Distribuzione via rete dei soli dati nella fase finale di elaborazione (N-tuple)
Vedi CDF
Sviluppo di FARM italiane con grande potenza di CPU, vedi teorici, AMS, Virgo,
Kloe e tutti gli esperimenti gia’ citati interessati ai Centri Regionali
Per lo sviluppo di queste tematiche vi e’ una richiesta generalizzata da parte degli
esperimenti di supporto da parte di esperti dei servizi di calcolo.
Le richieste dettagliate presentano gradi di maturita’ diversi a seconda della tematica e
degli esperimenti.
Nel seguito si cerchera’ quindi di riassumere le esigenze fin d’ora gia’ ben definite e di
proporre una schedula per arrivare a una definizione dettagliata di quelle non ancora
mature oggi.
ESIGENZE BEN DEFINITE
Le esigenze gia’ ora sufficientemente definite riguardano:
1. Software professionals
Necessita’ di software professional che riguardano principalmente ATLAS e CMS per lo
sviluppo del software con le moderne tecnologie e lo sviluppo e i test dei modelli di
calcolo per LHC connessi con le attivita’del progetto Monarc. Alcune di queste richieste
sono considerate di particolare urgenza (1999) e attualmente gia’ sono stati individuati
dei candidati validi per sopperire ad esse.
ATLAS
Dall'indagine svolta fra i gruppi ATLAS-Italia si prevede che nel 2000 si verificheranno
4 esigenze di posizioni temporanee di questo tipo, in presenza sia di progetti adatti che di
persone disponibili e preparate. Tre di queste posizioni figurano gia' nelle richieste
presentate al MURST nell'ambito del cofinanziamento INFN per il progetto PANDA, il
cui esito si dovrebbe conoscere a settembre 99; la quarta esigenza si colloca nell'ambito
dell'attivita' Lev3Trigger/EventFilter.
Queste esigenze dovrebbero essere soddisfatte entro i primi mesi del 2000 e la loro
illustrazione dettagliata sara’ inserita nel documento sul Calcolo Atlas-Italia in
preparazione appunto per i primi mesi del 2000 in connessione con la review sul
computing degli esperimenti a LHC
Ci sono poi 2 esigenze urgenti che dovrebbero essere soddisfatte prima della fine del
2000 a Milano e Roma, che vengono illustrate qui con qualche dettaglio.
- Il gruppo di Milano-LARG, che prevede di impegnare circa 3 FTE sulle attivita' di
sviluppo sw OO, ha inoltre un ruolo cruciale in MONARC e nelle attivita' connesse,
tramite l'attivita' di Project Leader svolta da Laura Perini e grazie all'impegno a
tempo pieno (sopratutto nel campo delle OODB e dei relativi tests e misure di prestazioni
su rete locale ed estesa) di una persona esperta la cui posizione temporanea informaticospecifica scade a dicembre 99.
Il venire meno di questo contributo alle attivita' di MONARC avrebbe conseguenze gravi
anche sulla capacita' italiana di esercitare efficacemente un'azione di leadership sulle fasi
future del progetto e comunque di giocare un ruolo rilevante negli studi, sviluppi e
decisioni sulla preparazione del calcolo ad LHC che si svolgeranno in ogni caso nei
prossimi anni, anche indipendentemente dalla continuazione di un progettospecifico.
- Il gruppo di Roma1 dedica circa 3.5 FTE all'attivita' di sviluppo software che riguarda
tre aspetti principali, tutti legati al muon detector:
1 - Analisi dei dati di test-beam e studi di autocalibrazione delle camere MDT.
Questa attivita' viene svolta da tempo e con notevole impegno; il livello di competenza
acquisito porta ad assumere nei confronti della collaborazione il commitment di fornire il
software di autocalibrazione per la camere MDT dell'esperimento.
2 - Simulazione del Livello1 del trigger mu (barrel).
La responsabilita' per la realizzazione dell'elettronica di trigger comporta una intensa
attivita' di studio e simulazione; il gruppo ha assunto da tempo l'incarico di sviluppare
il software di simulazione e includerlo nel framework ufficiale per permettere gli studi di
performance combinata.
3 - Algoritmi per il Livello2 del trigger mu (barrel).
Un impegno crescente e' posto nello sviluppo del patter recognition delle tracce e nella
determinazione dell'impulso dei mu; la complessita' del problema e' aumentata dalla
necessita' di mantenere una versione di simulazione nel framework generale e una
versione ottimizzata per i test di prestazioni in ambito on-line. Anche per questo item il
gruppo ha un commitment nei confronti della collaborazione.
Il manpower complessivamente dedicato a queste attivita' e' di ~3 fte (~4 nel 2000).
L'attivita' di sviluppo software e il livello di impegno verso la collaborazione sopra
delineati richiedono, specie in questa fase di migrazione del software alla nuova
architettura, l'apporto di ulteriore manpower. Per altro, il fatto che tutte le attivita' siano
portate avanti nell'ambito del muon detector permette una notevole sinergia. In tal senso
sembra opportuno poter disporre in tempi brevi di una posizione temporanea (per la quale
si e' a conoscenza di candidati dalle caratteristiche idonee) con l'intento di rafforzare la
capacita' complessiva del gruppo di gestire questa fase di transizione e mantenere gli
impegni verso la collaborazione.
CMS
Per quanto riguarda le stime di personale coinvolto ad oggi e le necessita' di figure
professionali da affiancare nelle Sezioni all'attivita' di Computing di CMS, si e' fatta
ancora una volta l'indagine sulla base dei criteri esposti piu' sopra nei paragrafi 2 e 3.1.
Il risultato a portato ad una valutazione di
circa 15 FTE nella simulazione/ricostruzione
circa 10 FTE nello sviluppo
circa 2 FTE nel Core software
circa 8 FTE nell'analisi dei dati dai Testbeam
circa 4 FTE impegnati in Monarc e Centri Regionali
Il totale degli FTE e' in linea con la percentuale di partecipazione dell'INFN a CMS, con
eccezioni degne di nota in posizioni chiave e di spinta professionalita' (non siamo assenti,
anzi spesso trainanti, ma "sotto quota").
I desiderata delle Sezioni piu' impegnate in questa attivita' ha riscontrato la necessita' da
subito (1999) per alcuni anni (almeno fino al 2005) di alcune unita' (da 4 a 8) di figure
professionali per tutte e tre le tipologie elencate nel paragrafo 3.1 (Physicist Computer
Professional, Computer Professional, System Professional).
Alcune di queste esigenze sono urgenti in quanto riguardano figure particolarmente rare
nell’INFN, anche se negli ultimi tempi molto si e’ fatto con l’attivita’ della CNTC, le
Borse di studio Informatiche e gli “Assegni di ricerca”. In particolare nelle Sezioni piu’
impegnate in CMS si identificano da subito almeno 6 posizioni del tipo citato, anche se
reperire questo personale “professional” non e’ facile.
Per completezza va ricordato che molte Sezioni CMS hanno presentato al MURST il
progetto di cofinanziamento PANDA che, nella speranza venga approvato, potrebbe
coprire una parte considerevole delle necessarie risorse di investimento e di personale
dedicato.
BABAR
I bisogni di software professionals vengono soddisfatti in generale in Babar utilizzando
personale esterno pagato con i fondi comuni a cui l’INFN contribuisce per la parte a lui
spettante con i finanziamenti proposti dal GR1.
2.
Necessita’ di rete per l’esperimento CDF
L'analisi di CDF e' centrata su n-tuple (in realta' Root files) sul disco locale del PC di
ogni persona (linux). Le n-tuple verranno create con job batch che girano su macchine
collegate ai dischi dati con link ad alta velocita', quindi al Fermilab dove i dati sono su
SAN basata su FC, o su nastri robotizzati su SCSI locale. Le n-tuple verranno poi copiate
sui dischi locali dei PC in Italia attraverso la rete o spedite su cassetta per DHL.
Data set di uso frequente saranno replicati su disk servers locali nelle sezioni. Si
immaginiamo 3 di questi servers (PI,PD,BO e.g.) con uno/due TeraBytes di disco
ognuno.
La banda necessaria per CDF tra l'Italia e Fermilab e’ stimata in :10 Mbit/sec l'anno
2000, a crescere fino a 40-50 Mbit/sec al momento che sara’ disponibile il data set finale
(circa 1PB nel 2002/3).
La banda necessaria all'interno dell'INFN: circa 5 volte quanto necessario con gli USA,
ma anche un fattore 10 sarebbe desiderabile.
Deve essere possibile privilegiare l'interattivo sulla rete : supporto per controllo e monitor
remoto attraverso strumenti di QOS od in alternativa links dedicati temporanei stile
ISDN per videolink.
Si richiede il supporto per sistemi di videoconferenza basati su CODEC e si auspica la
messa in opera di un MCU in Italia.
ESIGENZE DI PIU’ LUNGO RESPIRO
L’esame delle richieste degli esperimenti permette inoltre di individuare i seguenti
bisogni che dovrebbero essere risolti con progetti di sviluppo comuni.
La prima necessita’ e quelle di dare inizio ad un progetto sul mass storage i cui
requirements sono gia’ ben definiti in connessione con analoghi progetti in corso di
definizione a livello internazionale (CERN, DESY, USA…..)
Ci sono poi degli sviluppi futuri che sono di grande interesse strategico ma su cui il
dibattito non e’ stato ancora finalizzato e riguardano:




FARM
Centri regionali
Sviluppo di applicazioni sulla rete con qualita’ di servizio garantito
Sviluppo Software OO
Il primo punto riguarda lo sviluppo di un sistema standard per il controllo e la gestione di
grandi FARM per la simulazione e l’elaborazione distribuita dei dati.
E’ attualmente in corso un dibattito interno all’INFN per verificare il grado di
partecipazione e i requirements per un progetto di questo tipo che puo’ interessare anche
il progetto APE. Un documento dovrebbe essere elaborato per la fine dell’anno.
Un progetto simile per l’Event Filter Farm degli esperimenti a LHC e’ stato approvato dal
LCB al CERN e sara’ necessario sfruttare i punti di convergenza.
Il secondo punto riguarda le scelte riguardanti i possibili Centri Regionali in Italia che
sono attualmente studiate dagli esperimenti a LHC sfruttando anche i risultati ottenuti dal
progetto Monarc la cui prima fase di ricognizione e ‘ prevista terminare alla fine
dell’anno.
Oltre allo studio del comportamento dei database ad oggetti distribuiti, lo sviluppo di
strumenti di simulazione del computing model e le guidelines per lo sviluppo dei Centri
regionali, una delle componenti fondamentali per il calcolo a LHC, prese in
considerazione da Monarc, e ‘ costituita dalle rete su cui si stanno sperimentando con la
partecipazione del CNAF meccanismi per la prioritarizzazione del traffico relativo alle
varie applicazioni basato su meccanismi di qality of service.
Lo sviluppo software Object Oriented richiede da una parte l’acquisizione di nuove
metodologie e dall’altra l’acquisizione di strumenti di software engineering di supporto.
La Commissione Calcolo seguendo le richieste dei gruppi ha fornito una prima serie di
licenze di Insure++ e Rational Rose a tutta la comunita’ INFN tramite un server centrale
localizzato al CNAF. E’ presumibile che nel futuro con l’estendersi delle conoscenze
queste esigenze crescano e cresca anche la necessita’ di sperimentare nuovi prodotti resisi
disponibili sul mercato
SCADENZE E RACCOMANDAZIONI
A fine del 2000 dovrebbe essere completata una proposta complessiva almeno per il
computing di ATLAS e CMS tenendo conto anche dei tempi che verranno meglio
definiti nella gia’ citata review del computing degli esperimenti a LHC che il
management del CERN effettuera’ tra la fine 1999 e i pimi mesi del 2000. Il fine e’ di
arrivare ad un memorandum of understanding sul computing che comprendera’
presumibilmente sia i finanziamenti che le responsabilita’ di sviluppo del sistema di
calcolo e del software per ogni istituzione.
Per la fine del 2000 inizio 2001 dovranno quindi essere gia’ individuati, per quanto sopra
detto, gli impegni dettagliati dei gruppi INFN e le necessita’ di risorse anche umane di
software professional che questi comportano.
Si ritiene quindi importante poter chiarire con gli organi di direzione dell’INFN quali
sono le prospettive per la soddisfazione delle esigenze gia’ ben individuate con i loro
tempi e quali strategie adottare per arrivare alla definizione dei memorandum of
understanding sul computing per gli esperimenti a LHC. Alcuni degli sviluppi necessari
sono di interesse di tutto l’INFN e inoltre molti di questi potrebbero trovare un interesse
piu’ vasto di quello HEP come dimostrano gli esempi sopra citati in USA e GB.
Sarebbe importante poter discutere e individuare con gli ogani di direzione dell’INFN le
strategie migliori per poter eventualmente avere accesso ad altre fonti di finanziamento
esterne all’ente , Comunita’ Europea, MURST etc.conservando un controllo unitario su
questi progetti.
COLLEZIONE DELLE RICHIESTE DEGLI ESPERIMENTI
1. STATO ED ESIGENZE DEL CALCOLO DI ATLAS-ITALIA al luglio 1999
STATO DEL COMPUTING DI ATLAS
Le attivita' riguardanti il Calcolo di ATLAS si possono raggruppare in tre filoni
principali:
1 - Analisi da dati dei Test-Beams (TB) e studi di fisica e di prestazioni di parti
dell'apparato (TB inclusi) basati sulla simulazione. Il Technical Design Report (TDR)
della fisica, comprensivo studio delle potenzialita' fisiche e delle prestazioni di ATLAS
in piu' di 800 pagine, e' stato pubblicato in giugno 99. In questa fase ulteriori simulazioni
sono richieste solo per alcuni argomenti specifici, specificatamente per la finalizzazione
degli studi sul trigger.
Queste attivita' sono la continuazione di quanto fatto in passato e come tali non
richiedono in generale risorse diverse da quelle correntemente impiegate. E' comunque in
corso anche per le attivita' collegate ai TB un'evoluzione verso il software (sw) Object
Oriented (OO), sia per quanto riguarda la transizione della simulazione a GEANT4, sia
per quanto riguarda il software di analisi. Per alcuni rivelatori sono gia' stati fatti partire
progetti pilota di questo tipo e altri inizieranno a breve.
2 - Sviluppo del software OO per l'esperimento.
La collaborazione ha deciso che il sw di simulazione, ricostruzione e analisi di ATLAS
nel 2005 dovra' essere completamente basato su disegno e codice OO con preferenza per
il linguaggio C++. Per il disegno e lo sviluppo di questo software si valuta siano
necessari circa 1000 anni-uomo di impegno globale.
Originariamente (nel Computing Technical Proposal, CTP, pubblicato all'inizio del 1997)
si era previsto che una prima versione di questo sw, con funzionalita' limitate, ma
sufficienti a permettere almeno alcuni studi a livello di singoli sottorivelatori, sarebbe
stata disponibile entro la fine del 2000, mentre l'implementazione di una versione
utilizzabile per tutti gli studi di fisica e prestazioni dell'apparato era prevista per il 20032004.
La data di fine 2000 dovra' probabilmente essere riconsiderata alla luce dei risultati della
Atlas Computing Review (ACR, vedi infra), mentre la previsione del 2003-2004
mantiene la sua validita', cosi' come la milestone di Giugno 2001 per la scelta
del sistema per la persistenza degli oggetti ( Persistent Object Manager, POM, per cui la
scelta di baseline e' finora Objectivity-DB).
Nel febbraio 99 ATLAS ha recepito i risultati della ACR che si era svolta nei quattro
mesi precedenti; di conseguenza e' stata decisa una riorganizzazione del calcolo, che,
mantenendo l'obiettivo di fondo del sw OO citato sopra, mira pero' specialmente ad un
maggiore coinvolgimento nello sviluppo del sw OO della comunita' fin qui impegnata
prevalentemente sulle simulazioni e analisi fisiche (la comunita' al cui lavoro e'
largamente dovuto il TDR della fisica appena concluso). Un ulteriore scopo della
riorganizzazione e' favorire l'assunzione di impegni di sviluppo sw chiari e ben definiti da
parte dei diversi Istituti della collaborazione, in vista di un "Memorandum of
Understanding per il sw e Computing".
E' stata costituita una "Architecture Task Force" che dovra' realizzare una partizione del
software da sviluppare, in base alla quale i diversi Istituti negozieranno le loro
responsabilita' specifiche. La prima fase di questo processo dovrebbe concludersi con
l'inizio del 2000, e comprendere anche la (ri)definizione di un insieme coerente di
milestones per lo sviluppo del sw di ATLAS.
3 - Preparazione del sistema di calcolo di ATLAS per il 2005.
La problematica era stata affrontata inizialmente gia' del CTP, dove e' anche fornita una
prima valutazione molto approssimativa del costo del sistema delle farms, con CPU's,
dischi e "nastri" per il periodo 2000-2006 compreso. Il costo era stato stimato in
36 MCHF, corrispondenti ad una quota parte italiana di circa 5.4 GL.
Al momento le attivita' principali su questa linea si svolgono nell'ambito del progetto
MONARC; le caratteristiche del progetto, le sue prospettive e la rilevanza per ATLAS,
nonche' il legame con il costituendo Computing National Board di ATLAS
sono trattati nell'allegato documento "Centri Regionali e ATLAS-Italia".
Il management del CERN ha annunciato un mese fa ( durante la riunione del LHC
Computing Board, LCB, del 23-6-99 ) una "Computing Conceptual Review" che si
svolgera' fra settembre 99 e l'inizio del 2000, al cui interno saranno ricollocati i
Computing Progress Reports degli esperimenti e ha sottolineato l'importanza dei risultati
anche di MONARC in questo contesto.
In seguito alla Review sara' preparato uno Workplan CERN per il Computing di LHC,
entro la primavera del 2000 e si dovra' iniziare a prevedere i finanziamenti relativi.
ESIGENGE PER IL CALCOLO DI ATLAS
Le esigenze discusse in questo documento sono principalmente quelle rilevanti a medio e
lungo termine per
1 - lo sviluppo del sistema di sw OO
2 - lo sviluppo del sistema di calcolo
entrambi i sistemi si suppone dovranno entrare in produzione nel 2005.
Le esigenze legate alle attivita' correnti di TB, simulazione, ricostruzione e analisi sono
prese in considerazione solo in quanto si inseriscono in prospettiva nei due filoni elencati
sopra.
Esigenze comuni a entrambi i filoni, oltre ai servivi informatici di base, comprendono:
- Personale qualificato
- Strumenti per la collaborazione a distanza (Collaborative
Tools)
- Licenze sw
Esigenze specifiche per 2) comprendono inoltre:
- Investimenti in CPU, dischi, "nastri"
- Infrastrutture per il "Centro Regionale"
- Reti
- Coordinamento fra gli esperimenti LHC italiani
ATLAS-Italia si propone di articolare la discussione del suo piano per il sw e computing
con le opportune istanze dell'INFN in 3 fasi, all'inizio di ciascuna delle quali si propone
di presentare un documento di riferimento.
Questo testo e l'allegato "Centri Regionali e ATLAS-Italia" costituiscono il primo
documento.
I tempi e contenuti degli altri documenti saranno i seguenti:
- Nei primi mesi del 2000: elenco degli impegni nello sviluppo del sw OO;
quantificazione delle risorse di CPU, disco, nastro richieste dal modello di calcolo fino al
2006 compreso; piano per la prototipizzazione a medio termine. Esigenze relative.
- A fine 2000: proposta per un Centro Regionale in Italia; primo piano globale per il sw e
calcolo ATLAS-Italia. Esigenze relative.
La quantificazione delle esigenze di hardware, reti, infrastrutture, etc. per il medio e
lungo termine, e' pertanto ora prematura e verra' affrontata nei due documenti previsti per
il 2000.
Risulta invece urgente affrontare la tematica delle esigenze di personale qualificato,
ovvero di quelle figure che sono usualmente indicate col termine di "Sw e/o Computing
Professionals" (per brevita' semplicemente "Professionals" nel seguito), intendendo
"Esperti dedicati ad attivita' di alto contenuto tecnologico nel campo del sw e/o del
computing".
Il termine ha quindi significato analogo a quello che ha assunto per BaBar, dove pero'
questo personale deve largamente essere acquisito dall'esterno dell'esperimento e
grava quindi sui fondi comuni dell'esperimento stesso.
Questa situazione non dovra' ripetersi per LHC e le competenze necessarie devono
percio' essere sviluppate all'interno di ATLAS e dei servizi INFN di supporto.
Per chiarire meglio cosa si intende qui per "Professional" sembrano utili anche i punti che
seguono:
- Ruolo nello sviluppo del sistema di sw e calcolo:
+ Supporto e ottimizzazione delle prestazioni per quanto riguarda lo sviluppo del sw di
simulazione, ricostruzione e analisi specifico di un esperimento. Questo sviluppo dovra'
continuare ad essere realizzato prevalentemente dai fisici.
+ Partecipazione diretta invece nelle attivita' seguenti:
- Sviluppo del framework generale dell'offline e dell'online e interfacciamento
dei pacchetti di utilita' generale (commerciali e no) necessari
- Specificatamente interfacciamento e gestione della persistenza degli oggetti
(Database OO, Objectivity etc.)
- Ottimizzazione e prototipizzazione del calcolo distribuito, con le relative
attivita' di modelling.
- Tipo di preparazione richiesta.
Non sembra che sia necessariamente da richiedersi una laurea in informatica, ingegneria
informatica o similia.
Nel ruolo di "Professional" saranno necessari alcuni "software engeneers", ma in molti
casi dei laureati in fisica, magari con qualche esperienza dell'ambiente delle alte energie,
possono ricoprire questi ruoli altrettanto bene o addirittura meglio, purche' ovviamente
abbiamo portato a termine un serio, approfondito e definitivo processo di riconversione
alle tecnologie del sw e computing.
- Ruolo nell'INFN.
In generale queste figure potrebbero bene inserirsi nei ruoli tecnologici dell'INFN.
In Atlas-Italia c'e' attualmente una quasi completa mancanza di personale con questo
profilo.
Una quantificazione completa delle esigenze e' prematura, ma si possono gia' indicare
alcune linee utili per la valutazione.
Si possono utilizzare due metologie:
1 - Top-Down: dagli impegni che si intende prendere alla stima del personale necessario
Questa via dovra' essere seguita contestualmente con l'assunzione degli impegni degli
Istituti italiani, nel contesto della preparazione di un "MoU per il sw e computing" che
iniziera' nell'autunno 99.
I gruppi italiani di Atlas non sono oggi in grado di svolgere in modo sensato questo tipo
di esercizio; ATLAS-USA ha pero' presentato in marzo 99 un piano di questo tipo i cui
aspetti piu' rilevanti si riassumo qui per confronto; fra parente si sono riportate le stime
che risulterebbero dalla banale trasposizione ad ATLAS-Italia dell'esercizio fatto da
ATLAS-USA.
Valutazione delle esigenze di personale per il solo sviluppo software fatte da ATLASUSA:
- 1000 anni-uomo per tutto ATLAS per lo sviluppo sw
- 200 anni-uomo quota parte proporzionale spettante ad ATLAS-USA
(120 per ATLAS-It)
- FTE in ogni anno 33=200/6anni (20 FTE per ATLAS-it)
- 60% fisici e 40% Professionals (8 Professionals per ATLAS-it)
In maggior dettaglio le stime USA sono
48 anni-uomo di Professionals per core sw
36 anni-uomo di Professionals per non-core sw
115 anni-uomo di fisici
2 - Bottom-Up : dai progetti che progressivamente maturano alle competenze che essi
richiedono e che possono essere sviluppate in essi.
Da un'indagine realizzata fra i gruppi di italiani di ATLAS, risulta che le stime della
manodopera di tipo "fisici" che sara' impegnata nello sviluppo del sw OO di ATLAS
varia fra 15 FTE per fine 99 a 23 per fine 2001. C'e' invece soltanto 1 Professional
permanente e senior coinvolto in queste attivita'; inoltre ci sono 2 giovani con posizioni
temporanee di specifico contenuto informatico in scadenza a dicembre 99 e marzo 2000.
Risulta chiara la drammatica carenza di "Professionals" e di conseguenza l'urgenza di
acquisire queste competenze; sembra ovvio che una delle strade da percorrere e' lo
sviluppo di queste competenze all'interno dei gruppi tramite la partecipazione attiva a
progetti adatti di giovani interessati a specializzarsi in questo settore e che abbiano gia'
sviluppato le competenze di base necessarie a dare fin dall'inizio un apporto significativo
al progetto. Si puo' essere confidenti che nel nostro ambiente esistano abbastanza giovani
con queste caratteristiche, anche grazie alle attivita' di sensibilizzazione, informazione e
training realizzate nell'INFN, specialmente a cura della CNTC, e alle borse informatiche
bandite negli ultimi anni.
E' importante che al momento in cui i gruppi portano a maturazione entro la
collaborazione dei progetti adatti e quando siano disponibili delle persone con le giuste
caratteristiche, sia possibile inserire rapidamente le persone nei progetti tramite una
procedura agile con cui l'INFN possa accordare posizioni temporanee (ad es. Assegni di
Ricerca o art.23 a seconda del livello della persona e del tipo di progetto) valutando
congiuntamente il progetto e le persone proposte per la posizione.
Dall'indagine svolta fra i gruppi ATLAS-Italia si prevede che nel 2000 si verificheranno
4 esigenze di posizioni temporanee di questo tipo, in presenza sia di progetti adatti che di
persone disponibili e preparate. Tre di queste posizioni figurano gia' nelle richieste
presentate al MURST nell'ambito del cofinanziamento INFN per il progetto PANDA, il
cui esito si dovrebbe conoscere a settembre 99; la quarta esigenza si colloca nell'ambito
dell'attivita' Lev3Trigger/EventFilter.
Queste esigenze dovrebbero essere soddisfatte entro i primi mesi del 2000 e la loro
illustrazione dettagliata si prevede di inserirla nel documento sul Calcolo Atlas-Italia
citato sopra e schedulato appunto per i primi mesi del 2000.
Ci sono poi 2 esigenze urgenti che dovrebbero essere soddisfatte prima della fine del
2000, che vengono illustrate qui con qualche dettaglio.
- Il gruppo di Milano-LARG, che prevede di impegnare circa 3 FTE sulle attivita' di
sviluppo sw OO, ha inoltre un ruolo cruciale in MONARC e nelle attivita' connesse,
tramite l'attivita' di Project Leader svolta da Laura Perini e grazie all'impegno a
tempo pieno (sopratutto nel campo delle OODB e dei relativi tests e misure di prestazioni
su rete locale ed estesa) di una persona esperta la cui posizione temporanea informaticospecifica scade a dicembre 99.
Il venire meno di questo contributo alle attivita' di MONARC avrebbe conseguenze gravi
anche sulla capacita' italiana di esercitare efficacemente un'azione di leadership sulle fasi
future del progetto e comunque di giocare un ruolo rilevante negli studi, sviluppi e
decisioni sulla preparazione del calcolo ad LHC che si svolgeranno in ogni caso nei
prossimi anni, anche indipendentemente dalla continuazione di un progetto
specifico.
- Il gruppo di Roma1 dedica circa 3.5 FTE all'attivita' di sviluppo software che riguarda
tre aspetti principali, tutti legati al muon detector:
1 - Analisi dei dati di test-beam e studi di autocalibrazione delle camere MDT.
Questa attivita' viene svolta da tempo e con notevole impegno; il livello di competenza
acquisito porta ad assumere nei confronti della collaborazione il commitment di fornire il
software di autocalibrazione per la camere MDT dell'esperimento.
2 - Simulazione del Livello1 del trigger mu (barrel).
La responsabilita' per la realizzazione dell'elettronica di trigger comporta una intensa
attivita' di studio e simulazione; il gruppo ha assunto da tempo l'incarico di sviluppare
il software di simulazione e includerlo nel framework ufficiale per permettere gli studi di
performance combinata.
3 - Algoritmi per il Livello2 del trigger mu (barrel).
Un impegno crescente e' posto nello sviluppo del patter recognition delle tracce e nella
determinazione dell'impulso dei mu; la complessita' del problema e' aumentata dalla
necessita' di mantenere una versione di simulazione nel framework generale e una
versione ottimizzata per i test di prestazioni in ambito on-line. Anche per questo item il
gruppo ha un commitment nei confronti della collaborazione.
Il manpower complessivamente dedicato a queste attivita' e' di ~3 fte (~4 nel 2000).
L'attivita' di sviluppo software e il livello di impegno verso la collaborazione sopra
delineati richiedono, specie in questa fase di migrazione del software alla nuova
architettura, l'apporto di ulteriore manpower. Per altro, il fatto che tutte le attivita' siano
portate avanti nell'ambito del muon detector permette una notevole sinergia. In tal senso
sembra opportuno poter disporre in tempi brevi di una posizione temporanea (per la quale
si e' a conoscenza di candidati dalle caratteristiche idonee) con l'intento di rafforzare la
capacita' complessiva del gruppo di gestire questa fase di transizione e mantenere gli
impegni verso la collaborazione.
2. STATO ED ESIGENZE DEL CALCOLO DI CMS ITALIA
1. Introduzione
Il calcolo (“Computing” per meglio rendere l’insieme delle problematiche che riguardano
il trattamento dei dati Off-line) per CMS ha una complessita’ che non e’ mai stata
affrontata in HEP.
Alcuni degli elementi della complessita’ sono:
 La dimensione dei dati da tarttare (1Pbyte/anno di Raw data per decine di anni).
 Le risorse di Computing necessarie per trattare i dati (centinaia di TeraByte di
Storage e centinaia di migliaia di SpecInt95).
 La complessita’ del Rivelatore e dell’analisi dei dati che si riflettono sullo sviluppo
del Software (migliaia di anni-uomo per lo sviluppo dei codici).
 La vita media del progetto (decine di anni).
 La distribuzione ed il numero dei Fisici e delle Istituzioni partecipanti (migliaia di
individui in centinaia di Istituzioni sparse nel Mondo).
 La distribuzione delle risorse di Calcolo e la necessita’ di “Collaborazione a
distanza”.
Queste considerazioni hanno portato a considerare il "Computing" come un
"sottorivelatore" dell'apparato e di conseguenza a sviluppare il progetto attraverso le
metodologie tipiche degli apparati sperimentali: sviluppo e studio di nuove tecniche, fasi
prototipali, attivita' di R&D, realizzazione di architetture, definizione degli scopi e
programmi di sviluppo/realizzazione anche per il reperimento delle risorse.
Una considerazione particolare riguarda il Software. CMS ha adottato l'approccio della
programmazione ad Oggetti ed il linguaggio C++. Questa scelta richiede la scrittura (che
comunque andava fatta) dei programmi per l'esperimento attraverso nuove architetture e
tools, ma anche il "recupero", insieme alla comunita' HEP, di tutte le librerie e
metodologie di Analisi comunemente usate. A cio' si aggiunge la scelta di mantenere i
dati in un DataBase a sua volta ad oggetti, database che, ad oggi (la scelta definitiva sara'
nel 2001) e' identificato in Objectivity.
2. Attivita' e persone coinvolte in CMS Italia Computing.
A parte le attivita' sul Computing Model (e piu' specificatamente sul Centro Regionale)
condotte attraverso la Collaborazione a Monarc e le attivita' connesse alla Farm Off-line
al CERN per CMS (in parte ancora connesse a Monarc ed in parte legate al Computing
Common Fund) che verranno descritte dopo, le attivita' che da oggi sono attive e che si
amplieranno nei prossimi anni sono le seguenti.
 Sviluppo Software "specifico". Questa attivita' riguarda lo sviluppo del codice legato
agli apparati sperimentali e viene prevalentemente svolta nelle Sezioni INFN. Tale
attivita' comprende: a) lo sviluppo del software finalizzato alla costruzione del
detector (dal disegno dei silici, al database dei cristalli, alla simulazione del campo
nelle celle delle camere a muoni, etc.); b) la codifica software dell'apparato per la
simulazione; c) lo studio e codifica degli algoritmi legati al trigger con conseguente
analisi fisica dei segnali; d) l'architettura e la codifica della ricostruzione delle
informazioni rilevanti per l'analisi partendo dalle capacita' dei detector.
Attualmente sono impegnate circa 30 persone (non FTE) dell'INFN (staff e non,
ovvero borsisti e/o dottorandi/assegnisti) in questa attivita' che continuera' fino allo
startup di CMS ed anche oltre, anche se con minor impegno. Tutte le Sezioni sono
coinvolte con riguardo ai detector dove l'INFN ha forti responsabilita': muoni, tracker
ed Ecal.
Per questa attivita' non servono grandi mezzi di calcolo, ma risorse dedicate ad ogni
singolo sviluppatore sulla piattaforma (SUN, Linux) identica ai suoi colleghi, oltre ai
tools particolari nei desktop dedicati (distributed collaborative tools).
 Sviluppo Software "centrale" (Core software). Questa attivita' riguarda lo sviluppo e
la codifica delle attivita' comuni a tutta CMS (per tutti i detector pertanto). Alcuni
esempi sono: la simulazione in Fortran (CMSIM), il software Process per lo sviluppo
ciclico, il supporto al software (gestione del codice, versioni, etc.), l'Information
System, il Framework per l'analisi e la ricostruzione, i generatori di eventi, la
simulazione in OO (OSCAR), la ricostruzione in OO (ORCA), il software per i
TestBeam, il supporto per l’ ODBMS, etc.
In questa attivita' sono coinvolte 6-7 persone provenienti da alcune Sezioni INFN
(staff e non) purtroppo spesso non a tempo pieno. CMS ha fatto un'analisi dettagliata
delle funzioni (e capacita') richieste in funzione del tempo (dal 1998 al 2006)
mostrando che gia' oggi sono necessari 21 FTE (non persone) che cresceranno a 33
FTE nel 2006.
Ad oggi c'e' gia' una mancanza di 7 FTE e l'INFN contribuisce con circa 2 FTE
rispetto ai circa 3 FTE che le competerebbero (~13/15%). Questo personale e'
fortemente specializzato e di difficile formazione e la sua attivita' si svolge
prevalentemente al CERN (occorrono mezzi dedicati quali Ws Linux o SUN).
 Analisi dei dati dai Test Beam. Questa attivita' riguarda la scrittura dei codici di
rappresentazione dei setup e la loro simulazione, oltre ai programmi di analisi. A
questo si aggiunge il "porting" del data recording and analysis in OO (nel framework
generale del software di CMS su Objectivity).
In questa attivita' sono coinvolte tutte le Sezioni INFN di CMS, per un totale di circa
30 persone (non Fte) (staff e non). L'attivita' andra' calando nel tempo, mano a mano
che i detector verranno costruiti, tuttavia crescera' invece l'attivita' legata alla
comprensione degli apparati che e' la naturale evoluzione di quasta attivita'. Le
necessita' per questa attivita' sono qualche CPU dedicata e grandi quantita' di storage
per i dati reali (sia le nple che i DB in Objectivity) e simulati dell'ordine del TeraByte.
 Simulazione e studio dei processi Fisici legati alla definizione del Trigger. Questa
attivita' riguarda la simulazione di eventi fisici insieme al possibile background e la
ricostruzione (in OO) degli stessi al variare degli algoritmi di trigger per valutarne
l'efficienza e la fattibilita'. L'attivita' crescera' nel tempo e diventera' sempre piu'
importante. Ad oggi sono stati formati in CMS quattro Working Groups (detti di
Fisica): Muon WG, e-gamma WG, b-tau WG, jets missing/energy WG. Chiaramente
queste simulazioni richiedono anche una profonda conoscenza dei detector e delle
loro possibilita'.
In questa attivita' sono impegnate ad oggi circa 20 persone (non Fte) divise tra alcune
Sezioni INFN con partecipanti ai WGs dei Muons e dei b-tau.
Questa attivita' richiede grandi risorse, sia di man-power che di mezzi di calcolo,
essendo la la sua importanza molto rilevante. In particolare e' necessario poter
disporre di personale aggiuntivo.
L'attivita' richiede inoltre grandi potenze di CPU (dedicate e condivise, magari
attraverso Condor) e grandi capacita' di storage dedicate per centinaia di GByte. Un
esempio per il solo WG dei muoni puo' dare la dimensione dell'impresa, considerando
che i gruppi italiani sono tra i piu' forti anche nel WG del b-tau. Per il 1999 (con una
accuratezza statistica dell'ordine del 10%) occorrono per gli studi previsti circa 120
GByte di disco e circa 150 giorni di CPU su una macchina della potenza di 10 SI95,
mentre per il 2000 i numeri equivalenti diventano circa 1 TByte di disco e circa 150
giorni di CPU su una macchina della potenza di 100 SI95.
3. Supporto necessario
Le categorie di supporto necessario all'impresa del Computing di CMS per l'INFN
possono essere schematizzate come segue.
 Personale dedicato. In aggiunta alle persone con esperienza gia' coinvolte nel
Computing (e a quelle che vorranno aggregarsi) sono necessarie alcune figure
specifiche.
a) Physicist Computer Professional: Fisico esperto di computing, e' la figura che
attualmente e' cosi' scarsa nell'INFN e che in parte equivale al Fisico che si occupa a
tempo pieno di elettronica o di rivelatori. Occorre far crescere queste competenze ,
attraverso contratti temporanei adeguati e poi eventualmente mantenere stabilmente
questi "professionisti" nell'INFN.
b) Computer Professional. E' un professionista del software (laureato in Informatica,
Igegneria, Fisica) che si affianca ai Fisici per un progetto definito per un tempo di
qualche anno. La loro presenza deve essere garantita per l'arco del progetto, senza la
pretesa che queste figure rimangano nell'INFN, con contratti temporanei.
c) System Professional. E' un professionista dei Sistemi di calcolo (laureato in
Informatica, Ingegneria o Fsica) capace di gestire il software, i tools e l'hardware in
un periodo di grande variabilita' e necessita' particolari quali sono gli anni prima di
LHC e i primi di presa dati. E' necessario dove la concentrazione di attivita' e mezzi
supera la soglia della gestione personale e puo' essere condiviso con altri esperimenti,
ma non e' un tecnico saltuario. La presenza deve essere garantita per l'arco del
progetto attraverso contratti temporanei.
 Hardware dedicato. Occorrono una serie diversificata di risorse che vanno dal "posto
lavoro", alle CPU e storage di riferimento per il Gruppo, alla CPU e storage per le
simulazioni, alle CPU e storage dedicate a tutto l'esperimento (vedi Centro
Regionale), alle risorse condivise dell'INFN (per es Condor).
Un discorso a parte riguarda il Network per il quale possono esserci necessita' molto


forti nella connessione al CERN ed al Centro Regionale (oltre alla necessaria
connetivita' per l'attivita' di ricerca "generale").
Software dedicato. Mentre il software specifico e' responsabilita' dell'esperimento
CMS, occorrono le licenze per i Sistemi Operativi, le licenze per i compilatori, i
compilatori stessi, i tools di sviluppo del codice, le librerie scientifiche come LHC++
(compreso Objectivity), i tools di calcolo distribuito, le applicazioni moderne di Rete
(VRVS, Web, collaborative tools, etc), per non citare l'infinita' di applicativi sul
desktop (dal virus scan a Word).
Servizi. Il supporto dai servizi risulta essenziale, specialmente quello di "alto livello".
La particolarita' di questi servizi risiede nella dinamicita' richiesta, ovvero nella
capacita' di fornire le nuove od aggiornate funzionalita' in tempi rapidi. Alcuni di
questi servizi sono: la consulenza sistemistica, il supporto di rete (locale ed estesa),
l'architettura degli applicativi client-server, i file system distribuiti (da NFS ad AFS
ad DFS), il supporto per Linux, il DNS, i Mail, i backup, le videoconferenze, il Web,
etc. Senza dimenticare la Manualistica e la Documentazione.
4. Farm Off-line al CERN
La capacita' di calcolo al CERN per CMS e' una risorsa comune a tutto CMS il cui scopo
principale e' di "ricostrurire" gli eventi la prima volta almeno (in verita' riempie il
DataBase ad Oggetti con gli oggetti ricostruiti). E' convinzione comune che la Farm Offline debba fornire anche la capacita' di analisi ad un centinaio di fisici per le analisi piu'
"hot" e per fornire il supporto a quelle attivita' che, almeno inizialmente, dovranno essere
svolte al CERN (calibrazioni, tuning, controlli etc). La configurazione e le dimensioni di
questa Farm sono parte del Computing Model di CMS e pertanto oggi legate anche a
Monarc. Un primo prototipo funzionale e' previsto per il Dicembre 2002 (Milestone di
CMS Computing) ed le prime stime di configurazione portano a dimensioni (di CPU,
storage disco e nastro, LAN, etc) almeno 100 volte superiori a quanto e' utilizzato dagli
Esprimenti correnti (e comunque almeno 40 volte superiori a quanto e' previsto dai
prossimi Esperimenti come CDF runII). L'INFN, oltre a doversi fare carico della propria
quota di partecipazione, deve anche esprimere i propri suggerimenti (almeno questo)
sulla possibile archiettura che ritiene piu' opportuna per le funzioni richieste: per fare
questo occorrono professionalita', tempo, studi e test. Naturalmente correlato a questo
argomento si colloca l'impegno CORE sul Computing Common Fund di CMS che
ammonta in totale a 500 KCHF nell'arco di 8 anni.
5. Centro Regionale e Modello di Computing (Monarc)
Il Computing di CMS e’ stato definio per la prima volta nel Computing Technical
Proposal della fine del 1996. Da allora innumerevoli studi e progressi sono stati fatti sia
nello sviluppo del Software, sia nell’Hardware, sia nelle Architetture distribuite.
Il progetto congiunto Monarc tra gli Esperimenti ad LHC (Atlas, CMS, LHCb) iniziato
alla fine del 1998 ha per scopo la definizione di possibili Modelli di Analisi dei dati
distribuiti e la loro valutazione. Le componenti principali del progetto riguardano: a) La
simulazione attraverso appositi tools dei modelli di analisi; b) La definizione delle
Architetture distribuite; c) Il disegno dei possibili modelli di analisi; d) La misura dei
parametri critici attraverso Testbed.
Molti sono i risultati ottenuti da Monarc, con la partecipazione attiva di CMS ed ATLAS,
e di particolare interesse in questo momento sono due items emersi: l’implementazione
dei Testbed con conseguente attivita’ di R&D e la definizione dei Centri Regionali di
calcolo ed analisi (architettura).
Monarc prvede due fasi, la prima conclusasi in Luglio di quest’anno e la seconda prevista
per la fine del 1999. La Collaborazione sta studiando la possibilita’ di attivare una terza
fase per l’anno 2000 tesa a fornire una base piu’ consistente per lo studio e la
prototipizzazione dei Modelli di Analisi.
 Testbed. In questa attivita’ sono impegnate alcune Sezioni di CMS ed ATLAS per la
misura delle prestazioni dei database distribuiti ad oggetti. Una conseguenza
importante di questa attivita’ di R&D e’ la diffusione e crescita delle competenze
INFN in questo innovativo campo. A questo si aggiunge la effettiva sperimentazione
di collaborazione tra varie sedi con risorse comuni e coordinate. Si realizza in questo
modo una base di partenza per l’analisi distribuita con la condivisione di risorse
hardware, software, infrastrutturali ed umane, dislocate localmente: e’ un nuovo
“distributed computing” che HEP sta realizzando. Inoltre questa sperimentazione
puo’ misurare la fattibilita’ di Centri Regionali distribuiti (non troppo), ma nache
verificare le necessita’ locali e generali di coordinamento per l’accesso e l’uso
integrato di un Centro Regionale unico per CMS Italia (od eventualmente una
gerarchia di Centri di Computing, Tier1 --> Tier2).
Per questa attivita’ non sono necessarie grandi risorse hardware, ma risorse umane
competenti e software appropriato. Tuttavia sara’ presto (nel 2000) necessario passare
a prototipi di scala superiore, sulla base dell’esperienza acquisita, che richiederanno
investimenti rilevanti in hardware e network.
 Centro Regionale. I Centri Regionali sono la base dell’architettura distribuita di
analisi per LHC, ed e’ una scelta dei modelli proposti da Monarc con l’accordo di
CMS (ed ATLAS). I Centri Regionali rappresentano la risorsa “nazionale” di calcolo
per l’analisi dei dati ed a questi afferiscono le attivita’ di tutta la “regione”. Pertanto
l’analisi distribuita avviene tra Centri Regionali + il CERN che risultano coordinati e
sincronizzati tra loro attraverso il Database distribuito. I Centri regionali sono una
risorsa dell’Esperimento e la loro funzione e’ coordinata nell’esperimento formando
una unica architettura integrata di Computing (Computing Model, appunto). Sulla
base di un disegno di Porcesso di Analisi ed Accesso ai Dati (proposto dallo studio
sui processi di analisi di Monarc) e’ possibile definire le funzioni e le dimensioni dei
Centri Regionali.
Si ritiene che un Centro Regionale debba essere delle dimensioni del 20% della Farm
Off-line al CERN (di ogni Esperimento) e debba fornire tutti i servizi di Analisi. Le
stime dei costi e del personale necessario alla implementazione e funzionamento
mostrano una variabilita’ in funzione dell’evoluzione della tecnologia ed ancor piu’ in
funzione delle possibili scelte di implementazione. Stime correnti sono dell’ordine
della decina di Glit e dell’ordine di 20-30 FTE di personale (all’anno) altamente
professionale. I colleghi americani di CMS hanno gia’ individuato la sede del Centro
Regionale in FERMIlab e stanno proponendo programmi e costi di implementazione
per l’approvazione ed il finanziamento.
Per cio’ che riguarda la realizzazione di un Centro Regionale italiano alcune
opzioni/possibilita’ sono attualmente oggetto di studio in CMS Italia (e Monarc): a)
Un Centro in un unico sito (eventualmente con una gerarchia di piu’ piccole
concentrazioni di risorse ad esso collegate: Tier2); b) Un Centro distribuito su tutte le
Sezioni di CMS; c) Un Centro presso i Consorzi di Calcolo; d) Un Centro realizzato
tra pochi siti principali (Sezioni piu’ coinvolte).
Preso la comunita’ CMS Italia e’ attualmente in corso uno studio per valutare le
alternative e proporre le metodologie per una scelta, con un preconcetto negativo per
l’opzione c).
Va inoltre fatto notare che una possibilita’ oggetto di discussione e’ quella di avere un
unico Centro Regionale INFN per tutto LHC.
I tempi per la decisione sul Centro Regionale sono dettati dalle milestones di CMS
che prevedono l’identificazione dei candidati per il 2000 e la prima prova di
funzionalita’ per il 2002. L’INFN deve rapidamente definire la propria strategia di
coinvolgimento operando le scelte che ritiene piu’ efficienti e fattibili per garantire la
possibilita’ di analisi dei dati di CMS alla propria comunita’ di Fisici.
6. Risorse
Le risorse necessarie al Computing di CMS per l'INFN possono essere qui riassunte sulla
base di quanto sopra esposto nella seguente lista:
 Hardware (CPU, dischi, nastri, supporto)

–
–
–
–
–

Attivita' di R&D: Centro Regionale/Monarc, Sviluppo Software
Simulazioni: Working Groups di Fisica
Centro Regionale: Realizzazione
Off-line Fram al CERN
Network
–
–

"Posti lavoro"
LAN in Sede sia per attivita' di R&D che per la Simulazione
WAN per il Centro Regionale verso il CERN e verso le Sezioni ad esso connesse.
Realizzazione di connessioni di test. Wan per il supporto alla Simulazione
distribuita e lo Sviluppo.
Software (non sempre e' un mero costo, ma spesso e' anche solo un problema di
disponibilita')
–
–
–
–
Licenze "quotidiane"
Licenze del tipo di LHC++
Tools di sviluppo
Sistemi Operativi e Compilatori
Man Power
–
–
–
–
Attivita' di supporto
Attivita' di sviluppo
Attivita' di produzione
Centro Regionale
I costi di queste risorse, in funzione degli anni fino al 2006, ed in funzione delle attivita'
correnti e previste portano a stime globali dell'ordine di decine di Glit, con un'incertezza
legata alla grande variabilita' del Mercato Informatico ma ancor piu' alle scelte
Architetturali che si vanno facendo per il Computing Model. Naturalmente la
funzionalita' di tali Architetture sara' anche legata alla disponibilita' di investimenti e di
personale con competenze adeguate.
Per quanto riguarda le stime di personale coinvolto ad oggi e le necessita' di figure
professionali da affiancare nelle Sezioni all'attivita' di Computing di CMS, si e' fatta
ancora una volta l'indagine sulla base dei criteri esposti piu' sopra nei paragrafi 2 e 3.1.
Il risultato a portato ad una valutazione di
circa 15 FTE nella simulazione/ricostruzione
circa 10 FTE nello sviluppo
circa 2 FTE nel Core software
circa 8 FTE nell'analisi dei dati dai Testbeam
circa 4 FTE impegnati in Monarc e Centri Regionali
Il totale degli FTE e' in linea con la percentuale di partecipazione dell'INFN a CMS, con
eccezioni degne di nota in posizioni chiave e di spinta professionalita' (non siamo assenti,
anzi spesso trainanti, ma "sotto quota").
I desiderata delle Sezioni piu' impegnate in questa attivita' ha riscontrato la necessita' da
subito (1999) per alcuni anni (almeno fino al 2005) di alcune unita' (da 4 a 8) di figure
professionali per tutte e tre le tipologie elencate nel paragrafo 3.1 (Physicist Computer
Professional, Computer Professional, System Professional).
Alcune di queste esigenze sono urgenti in quanto riguardano figure particolarmente rare
nell’INFN, anche se negli ultimi tempi molto si e’ fatto con l’attivita’ della CNTC, le
Borse di studio Informatiche e gli “Assegni di ricerca”. In particolare nelle Sezioni piu’
impegnate in CMS si identificano da subito almeno 6 posizioni del tipo citato, anche se
reperire questo personale “professional” non e’ facile.
Per completezza va ricordato che molte Sezioni CMS hanno presentato al MURST il
progetto di cofinanziamento PANDA che, nella speranza venga approvato, potrebbe
coprire una parte considerevole delle necessarie risorse di investimento e di personale
dedicato.
7. Conclusioni
La realizzazione del Modello di CMS richiede forti investimenti per l’INFN e la
creazione di infrastrutture e personale con grande professionalita’. Da ora e’ necessario
investire in attivita’ di Ricerca/Sviluppo e sulla formazione del personale in modo da
influire sulle scelte architetturali ed essere pronti e competitivi per l’analisi dei dati di
CMS. La Collaborazione italiana ritiene che sia necessario affiancare ai Ricercatori e
Tecnologi gia’ coinvolti, anche in ruoli chiave, personale aggiuntivo al progetto, con
contratti temporanei di qualche anno. Le stime delle necessita’ in funzione degli impegni,
anche in prospettiva, portano a qualche unita’ di personale professionale all’anno che si
ritiene possa dare un contributo notevole al progetto.
CMS Italia ha deciso di perseguire la formazione di un Centro Regionale per CMS ed a
tale scopo e’ in corso uno studio per la definirne la consistenza e le caratteristiche; questo
studio verra’ discusso da CMS Italia entro il 1999. Contemporaneamente e’ in corso
all’interno della Collaborazione CMS una Review del progetto di Software&Computing,
dovuta per l’Autunno di quest’anno, anche in relazione al Technical Progress Report
(update del Computing Technical Proposal della fine del 1996) previsto come milestone
di CMS per la fine 1999 – inizio 2000.
Il CERN, di concerto con gli Esperimenti ad LHC, ha proposto un Computing
Conceptual Review a partire da Settembre 1999 per definire le architetture e gli
investimenti per il Calcolo entro la Primavera del 2000. Anche il progetto Monarc ha
come milestone la delivery dei rilultati dello studio sul Computing Model per la fine 1999
– inizio 2000, proponendo una “terza fase” per una piu’ attenta analisi prototipale durante
il 2000.
Tutte queste attivita’ sono temporalmente coincidenti, dimostrando che i tempi sono
maturi per questo progetto, e l’INFN che e’ gia’ fortemente impegnato in questo campo,
deve urgentemente intervenire fornendo chiaro supporto alle strategie di evoluzione del
Calcolo di CMS.
3. STATO ED ESIGENZE DEL CALCOLO DI CDF ITALIA
LE RICHIESTE
-------------La rete:
La banda necessaria per CDF tra l'Italia e Fermilab:
10 Mbit/sec l'anno prossimo, a crescere fino a 40-50 Mbit/sec al momento che sara’
disponibile il data set finale (circa 1PB nel 2002/3)
La banda necessaria all'interno dell'INFN:
circa 5 volte quanto necessario con gli USA, ma anche un fattor 10 sarebbe
desiderabile.
Il supporto software locale:
Soprattutto system management: linux, Root, servers SUN o SGI, SMQL
Aiuto per la importazione dell'ambiente di lavoro FNAL e la distribuzione del codice.
Piccolo costo di licenze.
Il supporto software sulla rete:
Privilegiare l'interattivo sulla rete
Supporto per controllo e monitor remoto attraverso strumenti di QO od in alternativa
links dedicati temporanei stile ISDN per videolink
Videoconferenze etc.:
Ancora codec. Serve un MCU italiano.
LO SCENARIO
-----------1) ACCESSO AI DATI
L'analisi CDF e' centrata su n-tuple (in realta' Root files) sul disco locale del PC di ogni
persona (linux). E' irrilevante se le n-tuple sono davvero files di PAW, Root, o semplici
campioni di dati ridotti per mettere a punto la selezione. Il punto importante e' che sono
files di pochi GB che permettono un veloce accesso interattivo.
Quando il tempo di processamento di un data set passa da pochi minuti a un'ora o piu',
non e' piu' importante che i dati siano locali.
Le n-tuple verranno create con job batch che girano su macchine collegate ai dischi dati
con link ad alta velocita', quindi al Fermilab dove i dati sono su SAN basata su FC, o su
nastri robotizzati su SCSI locale. In ogni caso protocollo SCSI (niente tcp/ip come con
sistemi di storage net-centrici tipo Enstore od HPSS). Le n-tuple verranno poi copiate sui
dischi locali dei PC in Italia attraverso la rete o spedite su cassetta per DHL.
Data set di uso frequente saranno replicati su disk servers locali nelle sezioni.
Immaginiamo 3 di questi servers (PI,PD,BO e.g.) con uno/due TeraBytes di disco
ognuno.
2)BISOGNI DI MASS STORAGE
CDF usera' nastri 8mm di nuova tecnologia (non i vecchi exabyte) con capacita' di circa
50-100 GB/nastro. Pianifichiamo di dotare ogni PC di un lettore, ma di non avere nessun
robot in Italia. I disk servers nelle sezioni useranno array di dischi RAID (SCSI, ma
teniamo d'occhio IDE per il prezzo) connessi su Ultra SCSI locale. Non si prevede nessun
particolare bisogno di mass storage in grandi quantita'. Probabilmente non sara' mai
necessario ne' utile avere dei robot per nastri in Italia.
3)BISOGNI DI CPU
Non abbiamo ancora un piano per il MonteCarlo. Estrapolando dal passato immagino che
quanto predisposto per l'analisi dei dati sia sufficiente anche per il MonteCarlo. Molto
MC, come in passato, verra' prodotto a Fermilab usando stavola anche la farm della
ricostruzione.
4)BISOGNI DI RETE
Bisogna poter copiare efficientemente le n-tuple sulla rete. Efficientemente vuol dire
un'ora per un file di un giga-byte, ovvero 1 Mega-bit/sec per utente. Questo non dovrebbe
essere un problema se la rete con gli USA cresce nell'immediato futuro come previsto
oggi, e se la rete italiana GARR le si adegua.
Per la rete locale l'accesso veloce tra i vari PC desktop e' importante, ma di nuovo fastethernet con 100Mbit/porta fully switched dovrebbe essere una realta' ovunque nel giro di
due anni.
5)SOFTWARE
Il codice per il Run 2 e' di fatto quasi tutto OO. C++ e' lo standard per l'offline, l'online
usa Java sulle macchine unix e C per i sistemi real-time. Una diffusione delle competeze
di software OO nelle sezioni e' la benvenuta, ma non vedo una traduzione di questo in un
esplicito supporto locale, al di la' della installazione dei compilatori. Volendo si puo'
proporre di assumere un guru OO in ogni sezione, come ha fatto Fermilab, ma mi sembra
irrealistico. L'ambiente di lavoro sara' prevalentemente linux, ma CDF supporta anche
SUN e Silicon Graphics, e questi sono i sistemi operativi preferiti per dei data servers
multi-cpu di medie dimensioni (almeno al momento attuale, ma certo con l'ingresso sul
mercato delle cpu Intel a 64bit le cose possono rapidamente cambiare in un "tutto linux").
Oltre al supporto "base" per linux, servira' aiuto dal system manager per installare e
mantenere l'evironment di lavoro clonato dal Fermilab, CDF si basa sulla replica di
"tutto" sul computer locale, non su AFS, ed alcune operazioni richiedono privilegi e/o
conoscenze da system manager.
4. STATO ED ESIGENZE DEL CALCOLO DI NA48 ITALIA
1. Introduzione
Questo documento illustra le infrastrutture e le strategie di calcolo per
l'analisi in Italia dei dati raccolti durante la presa dati 1997-2000
dell'esperimento NA48 al CERN per la misura di precisione della violazione
diretta di CP nei decadimenti dei K neutri, misura che verra eseguita
con una precisione di 2*10-4. E' stata prevista una farm nazionale
farm nazionale per permettere un'analisi il piu' possibile completa ed
indipendente, senza dover condividere le risorse di calcolo del CERN.
In questo documento verranno illustrati anche i piani e le necessita'
di calcolo per una futura espansione.
2. L' esperimento
NA48 e' un esperimento che si svolge al CERN di Ginevra. Scopo dell'esperimento
e' la misura di precisione della violazione diretta di CP nei decadimenti
dei K neutri.
La collaborazione e' composta da circa 200 persone (Italia, CERN, Francia,
Germania, Gran Bretagna, Russia, Austria, Polonia), di cui quella Italiana
costituisce circa il 35%.
La presa dati all'SPS del CERN e' iniziata nell'estate del 1997 e durera'
presumibilmente fino all'autunno del 2000.
Nel 1997 sono stati acquisiti 25TB di dati, circa 75TB nel 1998.
Nel 1999 e 2000 ci si aspetta una quantita' di dati dell` ordine dei 100TB.
3. I dati
L'esperimento NA48 si basa su un sistema software scritto in FORTRAN o C.
Tools tradizionali quali ZEBRA vengono utilizzati per la formattazione dei
dati RAW, cioe' dei dati non ricostruiti. HEPDB e' il database che
raccoglie le informazioni relative alla geometria, calibrazione del
detector, condizioni di run, etc. SHIFT viene utilizzato per lo staging su
disco/nastro dei dati e per soddisfare on-line le richieste degli utenti
per l'analisi al CERN.
Strutture C organizzano il contenuto dei dati ricostruiti, i COMPACT,
che riducono il formato RAW di un fattore 10 in termini di spazio
occupato. I GOLD COMPACT contengono invece eventi filtrati. Sono questi
ultimi i dati esportabili e disponibili per l'analisi utente finale.
Nel 1997 sono stati esportati per l'analisi in Italia 250GB di
GOLD COMPACT, nel 1998 circa 1TB. Nel 1999 e 2000 si prevede che la
quantita' di dati esportabili sia di altri 2.5TB.
Al CERN le informazioni relative ai dati vengono memorizzate in un database
basato sulla struttura a directories del filesystem UNIX.
Una serie di utilities scritte in PERL permettono l'individuazione dei dati
e la sottomissione di jobs di produzione previo staging dei dati su disco.
4. La FARM Nazionale Italiana
Per un'analisi il piu' possibile completa ed indipendente, che possa
permettere patterns anche non ufficiali senza dover condividere le risorse
di calcolo disponibili al CERN, e' stata costituita una farm nazionale
italiana nella sezione INFN di Pisa. Tale farm al momento e' capace di
gestire una quantita' di GOLD COMPACT pari a circa 1.2 TB e di fornire
adeguato spazio on-line per la produzione di n-tuple ufficiali.
La farm italiana si compone al momento di un Compaq AlphaServer 4100 con 4
CPUs 5/466 capaci ognuna di 14.1 SPECint95 and 36.1 SPECfp95 (Digital, Feb 97).
La macchina e' dotata di 1GB di RAM e serve in linea circa 660GB di spazio
disco. Una libreria magnetica ATL894 munita di 4 tape drives DLT7000, 48
slots utilizzabili per contenere dati e 4 porte per l'input delle cassette,
puo' servire in maniera automatica circa 1.5TB di dati.
La farm di NA48 viene utilizzata da circa 50 fisici delle sedi INFN di
Cagliari, Ferrara, Firenze, Perugia, Pisa, Torino.
I GOLD COMPACT vengono analizzati in modo coordinato dal programma ufficiale
(italiano) e vengono quindi prodotte delle n-tuple (~20GB per il 1997).
Tipicamente vengono eseguite 4-5 produzioni. Altre produzioni con minore
output vengono lanciate su richiesta da un utente autorizzato. Le n-tuple
ufficiali vengono lette da vari utenti per produrne di piu' piccole (o
istogrammi o files ascii). Queste ultime sono poi trasferite via rete per
l'analisi in sede.
4.1 Configurazione
Per garantire disponibilita' continua di operazioni e minimizzare le
possibili cause di interruzione, si e' cercato di creare una
configurazione per quanto possibile indipendente dalla rete e dai suoi
servizi e si sono attivati metodi di backup e ridondanza per dati
importanti. Tutto il software utile e’ quindi disponibile
localmente.
L'Andrew File System (AFS) e' installato ma oltre all'autenticazione AFS
nella cella pisana, e' permessa anche l'autenticazione locale. AFS viene
utilizzato essenzialmente per il mirroring del software e per permettere un
facile accesso ai dati personali.
Gli utenti hanno a disposizione ciascuno 100MB per le home directories e
1GB per contenere i risultati della loro analisi. Circa 250 GB sono
disponibili per le n-tuple ufficiali. Tali dati sono sottoposti a backup
automatico e anche manuale on-demand.
L' attivita' batch (NQS) e' quella principale. E' permessa, in maniera
controllata, attivita' interattiva per definire il proprio job di analisi,
per compilazione/debugging, sottomissione dei jobs e prima analisi dei
risultati.
4.2 Il Data Management
Data la difficolta' di porting su piattaforma Digital Unix e di adattamento
e configurazione del software SHIFT alle esigenze di data handling della
collaborazione italiana di NA48, si e' deciso di adottare uno Hierarchical
Storage Manger (HSM) proprietario per la gestione ed il serving automatico
dei dati. Dopo aver sperimentato il modulo HSM di Legato NSR Save e Restore
offertoci da Compaq e verificato la sua inadeguatezza alle specifiche e
il prodotto EMASS/AMASS FileServ non completamente disponibile per Digital
Unix, abbiamo optato per la scelta di UNITREE HSM e UCFM (Unitree Central
File Manager), unico disponibile sul mercato per Digital Unix e confacente
alle specifiche.
Sono stati sviluppati tools per la lettura delle cassette provenienti dal
CERN e scritte secondo lo standard per il labeling dei nastri ANSI v3.0.
Tools per l'import automatico dei dati nel filesystem UniTree sono stati
scritti in PERL.
UCFM fornisce un namespace facilmente accessibile per tutti i dati
residenti sia su disco che su nastro e un meccanismo di staging
completamente trasparente che non richiede modifiche nel codice utente.
Tale meccanismo favorisce l'accesso anche random ai dati e una loro facile
classificazione. Il database per la classificazione dei dati (DBM) e tutti
i tools per il loro browsing e per la sottomissione di jobs sono stati
parzialmente riscritti in Perl sulla base degli scripts adottati al CERN.
Sono stati sviluppati in casa anche degli scripts che, sfruttando i mezzi
offerti da UNITREE, permettono un facile recupero dei dati nel caso di
perdita di un nastro o di un disco del pool di staging.
Meccanismi che permettono l'autocleaning dei drives e il tape
consolidation, cioe' la possibilita' di ricompattare i dati su nastro,
sono anche stati implementati sfruttando quanto permesso dal prodotto.
I servizi di backup automatico non sono attualmente implementati
all'interno di UNITREE, il quale non permette una condivisione della
robotica della libreria magnetica con altre applicazioni. E' in corso una
attivita' di sviluppo con la collaborazione dei tecnici UNITREE per
permettere allo scheduler del backup di non competere con le richieste di
migrazione dei dati in e out e per la condivisione del controller della
robotica.
4.3 UniTree HSM
UniTree HSM e' un prodotto abbastanza flessibile da un punto di vista della
configurazione ed e' una discreta implementazione del IEEE Mass Storage
System Reference Model v4.0. Permette di vedere tutto il pool di dati
disponibile su disco o su nastro attraverso un filesystem UNIX-like servito
mediante NFS. Esso presenta delle caratteristiche vantaggiose come quella
di poter vedere, tramite un listing, le proprieta' di un file (size,
ownership, modification/last access/creation time, etc.), di decidere su
quale nastro o pool di nastri un file debba essere memorizzato, di
permettere prestaging manuale, di avere meccanismi automatici per il
save/restore dei database contenenti le informazioni relative ai files e ai
nastri, di recuperare abbastanza facilmente da situazioni di emergenza
marcando un disco, nastro, drive come rotti o non disponibili, etc.
L'utilizzo di UniTree ha reso abbastanza semplice il debugging di alcuni
problemi nei dati di NA48 dovuti alla loro formattazione in superfiles e ai
meccanismi di export al CERN.
La configurazione di UniTree sulla farm prevede un'area di staging su disco
di circa 200GB. Il meccanismo di "bulk migration" sveglia un demone ogni 2
ore (parametro configurabile) alla ricerca di possibili candidati da
migrare su nastro (ogni nuovo file). Quando le richieste di dati riempiono
il pool di staging per il 90% (HWM,configurabile) della sua capacita',
i dischi vengono liberati cancellando i files gia' migrati su nastro e non
acceduti fino a che lo spazio occupato non si abbassa all'87% (LWM,
configurabile) di quello disponibile. Quando un programma FORTRAN esegue
l'OPEN di un file di dati, se tale file e' disponibile su disco, l'OPEN
procede, altrimenti il programma viene messo in wait finche' l'HSM non
recupera il file dal nastro e fa lo staging completo del file su disco.
In questo momento il pattern di accesso ai dati e' controllato. Un unico
utente autorizzato lancia il programma di analisi ufficiale in batch e fa
lo scanning dei dati secondo un disegno predefinito. Si prevede di poter
cambiare questo schema in futuro.
UniTree HSM pur servendo al suo scopo ha evidenziato qualche carenza,
prima fra tutte la scarsa velocita' di accesso ai dati (superata
parzialmente con l'utilizzo della versione 2.1).
La collaborazione con gli esperti UniTree in California e il supporto sono
pero' stati ottimi fino ad oggi ed i vari problemi incontrati hanno
lentamente trovato una soluzione (anche se a volte parziale).
5. Il calcolo dopo la FARM
Le architetture supportate da NA48 sono : SUN/Solaris, HP/HP-UX, Compaq/DUX,
IBM/AIX, PC/Linux. In buona parte delle sezioni INFN in Italia parte della
collaborazione NA48 e' presente la piattaforma Compaq/DUX, mentre HP/HP-UX e'
presente a Pisa e Perugia. La piattafoma PC-Intel/Linux RedHat e' in continua
diffusione presso tutte le sezioni.
Si prevede quindi di organizzare sempre meglio il supporto per i PC/Linux
RedHat in maniera da permettere sia lo sviluppo software sia l'analisi
delle n-tuple finali su questa piattaforma.
A Pisa in particolare una connessione veloce switched a 100Mb/sec permette
sia alle macchine HP sia ai vari PCs di accedere ai dati sulla FARM.
6. Gli sviluppi futuri
Il test sui dati 98 permettera' di definire meglio il modo futuro di
impiego della farm.
Si prevede un ampliamento della robotica per accomodare l'arrivo dei nuovi
dati (2.5TB). Un probabile ampliamento della CPU e dello spazio disco
permetteranno oltre che una piu' veloce analisi dei dati un accomodamento
delle esigenze riguardanti le attivita' di simulazione e MonteCarlo. Ad
oggi non e' chiaro in quale direzione si prevede muoversi per l'ampliamento
della CPU, se verso soluzioni server o verso la formazione di farms basate
su PCs poco costose che richiedono pero' un'attenta organizzazione da un
punto di vista di gestione dei sistemi e organizzazione di accesso ai
dati. Con l'ampliamento della CPU e il passaggio a un sistema distribuito
diventa senz'altro importante l'uso di un sistema batch che offra piu'
possibilita' di quanto disponibile in NQS, per esempio uno scheduling
basato anche sulle risorse hardware disponibili o sul numero di richieste
verso l'HSM. Un possibile candidato e' sicuramente LSF e siamo abbastanza
interessati negli sviluppi condotti a FNAL per utilizzare un'unica licenza
LSF per fare lo scheduling su piu' nodi (LSF clients sviluppati in Python).
7. Le necessita'
Le necessita' avvertite dalla collaborazione italiana di NA48 per il
calcolo investono tre campi: system management e user environment,
data handling e la rete.
Per cio' che riguarda il system management e lo user environment, lo
sviluppo di tools che permetta la centralizzazione della gestione di
sistemi distribuiti quali per esempio SUE al CERN e' sicuramente un
desiderata specialmente per il previsto ampliamento della FARM con sistemi
distribuiti. In particolare, il supporto centralizzato di PCs con Linux
RedHat e' di sicuro interesse.
La distribuzione ASIS con mezzi quali quelli disponibili al CERN che
permettono la selezione dei prodotti voluti con possibile installazione
locale e' un altro elemento di interesse per NA48. La Sezione INFN di Pisa
si sta organizzando per importare i tools ASIS disponibili al CERN.
Un'integrazione di questa attivita' con quella di qualche gruppo di lavoro
INFN e' sicuramente desiderabile. Anche gli scripts HEPIX cosi'
come esportati dal CERN contengono molte peculiarita' valide solo in
quell'ambiente. Sarebbe auspicabile una maggiore integrazione con le
realta' delle sezioni INFN.
Un'altra area di interesse e' sicuramente quella del gruppo di lavoro INFN
per tools di backup. Tali tools dovrebbero essere esportabili a qualsiasi
piattaforma e magari integrabili con data managers esistenti (UniTree ?).
Anche in questo campo la collaborazione con il gruppo di lavoro per il
backup INFN e' auspicabile.
Per cio' che riguarda i sistemi batch, la collaborazione italiana NA48
intende indagare tra quelli disponibili in ambiente HEP e in particolare a
esportare quello utilizzato a FNAL per le farms di PCs tramite l'utilizzo
di LSF.
Per cio' che riguarda il data handling, al momento e' pesantemente
utilizzato il prodotto UniTree HSM v1.9.1. Tale prodotto ha mostrato delle
carenze (velocita di scrittura, retries on error nelle letture non
esistenti, backup non integrato, etc.). Queste sono state superate ma in
generale piacerebbe avere soluzioni alternative per non dipendere da un
prodotto specifico e proprietario. Si auspicherebbe quindi una
collaborazione con il CERN, per esempio nello sviluppo del progetto CASTOR
e in generale per fornire tools per il management dei nastri, la nascita di
un working group INFN e in generale una maggiore preparazione del personale
INFN incaricato di gestire questo tipo di sistemi mediante formazione,
partecipazione a workshops, conferenze, gruppi di lavoro.
Per cio' che riguarda la rete, sembra che GARR-B risponda bene alle
esigenze della collaborazione italiana di NA48 per il login interattivo, il
trasferimento dati (500-1000MB/utente ogni 4-5 giorni), mirroring del
software (pochi MB ogni 4 giorni), update del database di esperimento HEPDB
(totale di 120MB, updates incrementali di pochi kilobytes una volta al
giorno), utilizzo del WEB.
Si richiede invece piu' banda o banda dedicata per servizi quali NetMeeting
(sempre piu' diffusi sulla scrivania degli utenti) e le virtual rooms VRVS
del CERN. Si spera che sempre piu' sezioni si attrezzino con
apparecchiature ISDN/CODEC per la videoconferenza.
In termini di risorse umane, fino ad oggi e' stato utilizzato circa il
50-60% del tempo di un tecnologo per attivita' quali:
a. Copiatura dati al CERN e trasferimento a Pisa
b. Import dati sulla FARM, bookeeping e archiving
c. Manutenzione/aggiornamento sistema e HSM
d. Aggiornamento software NA48 e database
e. Sviluppo tools vari.
5. STATO ED ESIGENZE DEL CALCOLO DI COMPASS ITALIA
1. L'esperimento COMPASS
COMPASS (COmmon Muon and Proton Apparatus for Structure and Spectroscopy) e'
stato proposto nel marzo del 1996 da una vasta comunita' di fisici
interessati nello studio della struttura dei nucleoni e della spettroscopia
adronica.
Il programma di fisica richiede di accumulare una grande statistica, e cio'
ha importanti conseguenze sui rivelatori (la maggior parte dei quali sono di
tipo nuovo: RICH con fotocatodo a CsI, GEM, micromega, straw tubes), sul
DAQ, e sull'immagazzinamento e processatura e analisi dei dati.
Le rate stimate prevedono l'acquisizione di 10^4 eventi/sec, tipicamente di
30 KB ciascuno, corrispondenti ad una rate di acquisizione di 35 MB/sec, e
per un totale di 300 TB di dati per anno di misura (100 giorni di presa
dati).
L'esperimento, approvato nel febbraio 1997, e' in fase di costruzione.
L'installazione di alcune parti dell'apparato nella Hall 888 dell'SPS del
CERN e' gia' iniziata; il debugging dell'apparato iniziale avverra' a
partire dal maggio 2000 e subito dopo iniziera' la presa dati.
2. Modello di analisi
Il modello di analisi di COMPASS prevede che
- i dati sperimentali vengano immagazzinati su nastro via CDR (Central Data
Recording), e conservati al CERN; l'accesso ai dati deve essere garantito
per tutta la durata dell'esperimento;
- la processatura dei dati (produzione di DST/microDST) avvenga in "tempo
reale" (alla stessa velocita' dell'acquisizione), in parallelo alla loro
registrazione; la potenza di calcolo necessaria e' stimata essere
dell'ordine delle 20000 CU;
- la maggior parte dell'analisi fisica venga fatta a partire dai microDST o
da DST filtrati (di dimensioni non superiori a qualche TB), e sia
distribuita nei diversi Istituti della Collaborazione.
Distribuzione dei dati su diversi siti e accesso rapido e concorrenziale ai
dati RAW sono quindi punti fondamenteli sia per ridurre le necessita' di
riprocessatura, sia per garantire un uso efficiente di tutte le risorse.
Per realizzare questo modello, anche su COMPASS e' stato deciso di usare
tecniche nuove, sia hardware che software.
3. Calcolo al CERN
Per COMPASS si sta costruendo al CERN una "farm" dedicata per il calcolo
offline (la Compass Computing Farm, CCF), progettata per fornire la
capacita' di input/output per ricevere i dati dall'esperimento (CDR) e
archiviarli su nastro (HMS; al momento HPSS), e la capacita' di calcolo
necessaria alla ricostruzione degli eventi e alla gestione dei dati
(caricamento da nastro dei dati da analizzare e scrittura su nastro dei
risultati).
Il progetto della CCF (indicato come soluzione dalla "New Computing Farm
Task Force", CERN IT/PDP, nel 1998) prevede dei server centrali che
gestiscono i dati e li smistano, per le diverse fasi, a un numero elevato di
PC clienti. Si pensa di utilizzare dell'ordine di 5-7 server Unix di circa
10 TB di spazio disco (probabilmente dischi con tecnologia RAID) e un
centinaio di PC, ad es. dual Pentium II 450 MHz.
Nello schema previsto per l'analisi, i dati saranno inseriti fin dall'inizio
in una federazione di banche di dati, per permettere in ogni fase
successiva un accesso efficiente alla parte RAW degli eventi. Il database in
uso (Objectivity/DB, che e' il prodotto commerciale attualmente ritenuto
migliore per soddisfare alle esigenze degli esperimenti attuali, anche per
le caratteristiche di "scalabilita'" che dovrebbero essere inserite nelle
prossime versioni) dovrebbe permettere l'accesso remoto alle banche di
dati stesse e la duplicazione di insiemi di dati particolarmente critici,
per velocita' di accesso o importanza per una specifica analisi, su
calcolatori in rete. L'uso di Object-Oriented DataBase e' di grande
importanza per la riuscita del modello di analisi proposto, nel quale si
assume di poter utilizzare le nuove funzionalita' di I/O (in particolare il
"tagging" degli eventi in base alle loro caratteristiche "fisiche" per una
rapida selezione, l'accesso "automatico" a tutte le altre informazioni
rilevanti (nastri, files, calibrazioni, ecc., accesso remoto e
concorrenziale ai dati).
Una farm di tali dimensioni e i tools software che si intendono utilizzare
necessitano di una delicata fase di test. Un prototipo della CCF e'
funzionante al CERN dal 1998; test con dati simulati provenienti dalla zona
sperimentale sono stati gia' eseguiti e proseguiranno anche nel corso di
quest'estate.
Sinteticamente, lo schema dei test gia' eseguiti e' il seguente:
- un prototipo della farm online, situato nella zona sperimentale di
COMPASS, manda dati al computer centre via fibra (Gigabit Ethernet) in
stream multipli (circa 10), a velocita' variabile per simulare i dati veri;
- nel prototipo della CCF (costituito da una decina PC e 1 o 2 server
equipaggiati con Gigabit Ethernet), i dati vengono ricevuti dai server e
mandati a una federazione di banche dati Objectivity/DB essenzialmente
usando i PC; i database vengono quindi mandati dai server ad HPSS.
Con un server SUN 450 e' stato possibile gestire una rate fino a 7 MB/sec.
Sui PC sono stati utilizzati sia Windows NT che Linux, per confrontare i
tempi necessari a leggere gli eventi da file binari e creare un oggetto per
evento: il sistema operativo Linux e' risultato il 30% piu' veloce, fatto
che, assieme agli altri vantaggi offerti da Linux, fa pensare che questa
sara' la soluzione scelta.
I test in corso, invece, dovrebbero permettere di verificare (anche se su
scala ridotta) il funzionamento dell'intera catena di archiviazione e
processatura dei dati e di investigare la possibilta' di sostituire i
servers Unix con PC adeguati.
Per quanto riguarda il programma di ricostruzione off-line, la
Collaborazione ha a suo tempo deciso di scrivere un programma nuovo, anche
in base alle richieste di mantenimento del programma, utilizzando disegno e
architettura OO e C++ come linguaggio.
Il programma di ricostruzione deve inoltre avere una struttura "modulare",
con interfacce ben definite tra i diversi blocchi (sia software esterno che
interno al programma stesso) per permettere rapidi cambiamenti in fase di
ottimizzazione e mantenimento. Il programma di fisica diversificato
dell'esperimento richiede inoltre che il programma di ricostruzione (CORAL)
sia estremamente flessibile e possa essere adattato "facilmente" alle
necessita' che si dovranno affrontare (dal tempo di processatura disponibile
per ciascun evento, all'update di costanti di calibrazioni e allineamento).
4. Calcolo locale
4.1 Analisi dei dati
La grande quantita' di RAW data e il numero limitato di fisici italiani
partecipanti a COMPASS (al momento ci sono due Sezioni INFN coinvolte:
Torino e Trieste) sono tali da escudere la processatura completa in Italia
di una frazione significativa di RAW data.
Il lavoro off-line in Italia consistera' essenzialmente nello sviluppo e
test di nuovo software e nell'analisi fisica dei DST/microDST relativi a
misure specifiche. La possibilita' di accedere a informazioni contenute
nella parte RAW degli eventi e nei ralativi database delle "condizioni"
(calibrazioni, geometria, ecc.) e' fondamentale per aumentare l'efficienza
locale e ridurre sia le richieste di riprocessatura che le necessita' di
spazio su disco in sede.
Le funzionalita' delle banche di dati distribuite su larga scala,
costituiscono un anello fondamentale in questo schema, e il loro studio con
dati reali costituira' la prima fase dell'impegno in Sede sull'analisi (vedi
progetto PANDA, presentato al MURST nel 1999, ex-40%).
Disponendo di un sistema di gestione delle banche dati adeguato, il
lavoro di analisi potrebbe venir eseguito su una copia locale di parte dei
DST (o meglio su una loro "duplicazione logica", che garantisca la
"sincronizzabilita'" dei dati in ogni momento), accedendo via rete alle
informazioni non disponibili localmente ma necessarie per parti specifiche
dell'analisi (migrazione di banche dati dal CERN alle Sezioni coinvolte).
Analogamente, i test di software nuovo potrebbe essere fatto in sede
accedendo a campioni specifici di RAW data.
Naturalmente, essendo l'efficienza dell'accesso a banche di dati con Wide
Area Network strettamente legato alla banda garantita, un buon collegamento
con il CERN e' fondamentale. Va notato che oggi e' estremamente
difficoltoso, e per alcune applicazioni impossibile, lavorare in sede
(almeno a Trieste) proprio a causa dei problemi di collegamento
Trieste-CINECA; e' evidente che in situazioni simili il contributo del
lavoro in sede sarebbe notevolmente ridotto.
Per COMPASS si intende dotarsi in entrambe le Sezioni di una farm del tipo
CCF in scala molto ridotta, per realizzare un ambiente di lavoro in
pratica indistinguibile da quello implementato sulla CCF, e di dotarsi di
una potenza di calcolo e della capacita' di "storage" sufficienti.
In particolare, a Trieste si prevede l'installazione di un sistema iniziale
costituito da: un server Unix (ad es. Sun Enterprise 450); uno switch con
porte Gigabit Ethernet e Fast Ethernet (ad es. 3Com SuperStackII Switch
3900) per realizzare una rete locale; dischi Ultra Wide SCSI per una
capacita' di circa 400 GB; 4 o piu' PC con sistema Linux, da affiancare a
workstation esistenti; una unita' DLT, 28 cassette.
4.2 Altre attivita' di calcolo
Alle attivita' legate all'analisi di fisica dei dati, vanno aggiunte a
livello locale attivita' diverse, come l'analisi di dati di test e
monitoring relativi a rivelatori specifici (ad esempio il RICH1, interamente
finanziato dall'INFN e di cui Trieste ha la responsabilita'), e produzione
di dati MonteCarlo.
Per queste attivita', a Trieste si pensa di utilizzare per ancora un tempo
non trascurabile il cluster SUN, installato e utilizzato per l'analisi dei
dati e la produzione di MC dell'esperimento SMC; tale cluster e' stato
installato ed attualmente mantenuto ad alti livelli di efficienza grazie a
continui upgrade con sole forze interne al gruppo attualmente coinvolto su
COMPASS. Per il futuro si ritiene necessario che il cluster venga mantenuto
dal Servizio Calcolo della Sezione.
4.3 Risorse necessarie
A parte le necessita' di hardware gia' elencate, si ritiene indispensabile
sia un buon collegamento con il CERN, garantendo la necessaria larghezza di
banda, sia il supporto in termini di risorse umane.
WAN:
Nell'immediato sarebbe auspicabile il ritorno nel collegamento Trieste-CERN
a livelli confrontabili a quelli di un anno fa; al momento il collegamento
e' tale da impedire qualsiasi lavoro remoto. La situazione e' inaccettabile,
e le varie scadenze per possibili miglioramenti vengono disattese.
Dai primi mesi del 2000, la banda garantita Trieste CERN dovrebbe poter
raggiungere i 2 Mbit/sec nei periodi di punta della fase iniziale.
Necessita' analoghe ci saranno per il link Torino CERN.
Risorse umane:
Come per il cluster SUN attualmente esistente, si ritiene necessario che la
farm sia gestita e mantenuta dal locale Servizio Calcolo, sia per quanto
riguarda il software che l'hardware. In particolare si ritiene
indispensabile il supporto di esperti in gestione clusters e ottimizzazione
network, e competenti nelle nuove tecnolgie.
Supporto in sede, soprattutto a livello di consulenza, sarebbe quanto mai
auspicabile anche per disegno e architettura OO.
Altro:
Possibilita' per fisici, studenti, tecnici, di seguire corsi a vari livelli
sulle nuove tecnologie (HW e SW).
4.4 Ricadute
Questo progetto per COMPASS, come gli altri progetti nuovi proposti
recentemente, non sono privi di rischi ne' a costo zero. E' nostra
convinzione, comunque, che si debba fare il possibile per portarli a
termine, in particolare in questo periodo di rapida evoluzione, in cui i
precedenti schemi di sviluppo del software e di gestione dei dati sembrano
superati. I vantaggi derivanti dall'aumento delle conoscenze specifiche e
dalla loro diffusione sarebberero immediati per l'intera comunita'.
6. STATO ED ESIGENZE DEL CALCOLO DI ZEUS ITALIA
1. L'esperimento ZEUS
L'esperimento ZEUS, in fase di acquisizione dati dal 1992, opera al
collisionatore ep HERA a DESY, Amburgo. L'energia del fascio di protoni
e` stata Ep=820 GeV fino al 1997, ed Ep=920 GeV dal 1998. L'energia del
fascio di elettroni o positroni e` Ee=27.5 GeV.
ZEUS ha integrato una luminosita` di circa 18 pb-1 con elettroni e circa
48 pb-1 con positroni.
Il run presente terminera` nel maggio del 2000, seguito da un lungo shutdown,
circa 9 mesi, per le modifiche previste per la fase II di HERA, di alta
luminosita`. Si prevede di passare dalla attuale luminosita` istantanea
di 1.4 10^31 cm-2 s-1 a 7.5 10^31 cm-2 s-1.
2. Modello di calcolo dell'esperimento ZEUS
L'esperimento ZEUS si e` dotato di un centro di calcolo (ZARAH) ubicato a DESY.
ZARAH e` concettualmente diviso in due parti: una parte dedicata alla
ricostruzione degli eventi ed una parte riservata all'analisi.
Il confine tra le due parti e` "mobile", nel senso che, a seconda delle
esigenze del momento, una o piu` CPU di analisi possono essere trasferite alla
ricostruzione e viceversa.
Le CPU sono SGI, e vi sono due potenti sistemi di file-serving. Vi sono
in totale 44 CPU di diversa potenza (200-250 MHz) e lo spazio disco totale
ammonta a circa 2440 GB.
Sulle CPU riservate all'analisi tipicamente girano programmi fortran che
lavorano sui mini DST e producono le n-ple, che sono poi trasferite sui dischi
dei cluster remoti (sia il cluster italiano a DESY, per lo piu` work-station
alpha, che i cluster nelle sezioni) per le analisi "end-point".
Il cluster italiano a DESY consiste in 8 w/s alpha a cui si aggiungono 10 PC,
utilizzati prevalentemente come posti-lavoro, sebbene, utilizzando linux,
stia gradualmente aumentando il loro uso anche nelle fasi terminali delle
analisi (oltre che per la attivita` di produzione di documentazione).
Per i dati sono attualmente a disposizione circa 120 GB di spazio disco.
Nelle sezioni disponiamo di cluster di alpha (o di una singola w/s per le
sezioni con piccole partecipazioni) ed e` in costante aumento il numero di
PC.
Le analisi end-point sono effettuate sia utilizzando PAW che programmi
(tipicamente fortran) che lavorano sulle n-ple e vari script unix di servizio.
Per esperienza ogni analisi implica una occupazione di spazio disco di
10-15 GB (n-ple dei dati reali e dei campioni Monte-Carlo per il calcolo delle
accettanze e lo studio dei fondi).
Sulle work-station italiane, sia a DESY che nelle sezioni, girano
continuamente i programmi di simulazione Monte-Carlo.
Il modello di produzione Monte-Carlo e` basato sul sistema "funnel".
Semplificando, possiamo dire che attraverso questo sistema la produzione
e` gestita centralmente da DESY, sottomettendo i files di dati appropriati
sui cluster a DESY e nelle sedi remote (per l'Italia: Bologna, Padova, Roma e
Torino), sulla base delle richieste dei gruppi di fisica. I dati prodotti,
dopo la simulazione completa dell'apparato e la ricostruzione sono ritrasferiti
a DESY ed archiviati su supporto magnetico. I trasferimenti tra i cluster
italiani e DESY avvengono via rete.
La produzione italiana si attesta intorno al 25% della produzione totale.
Per avere un'idea, nei primi 6 mesi del 1999 sono stati trasferiti circa 900
GB di dati (prevalentemente di notte).
L'uso di afs e` in continuo aumento, specialmente per la produzione di
eseguibili locali usando librerie remote.
Un'ultima considerazione riguarda l'uso di www. Si puo` affermare che ormai
il "web" e` uno strumento fondamentale per le attivita` quotidiane di ricerca
(recupero e sottomissione di documentazione, ricerche bibliografiche, articoli
elettronici, controllo remoto dell'esperimento e monitor della qualita` dei
dati, gestione locale della posta elettronica ecc.).
3. Upgrade dei cluster
Buona parte dell'hardware e` vecchio ed in manutenzione, per cui e` necessario
procedere ad un upgrade dei cluster (cluster italiano a DESY e cluster
di Sezione).
I criteri che ci hanno guidato nella definizione dell'upgrade sono:
a) domanda sempre piu` forte di spazio disco
b) un posto lavoro (per definizione "economico") deve possedere anche risorse
sufficienti per attivita` di analisi locali
c) il posto-lavoro deve anche consentire di decentrare tutte le attivita` di
editing, di produzione di documentazione, gestione terminale di posta
elettronica ecc.)
d) la tecnologia basata su PC con s/o linux (o w/s economiche equivalenti)
sembra rispondere ai punti b) e c).
Questi punti hanno condotto alla seguente strategia:
- Dotarsi di un server sufficientemente potente per gestire lo spazio disco
e fornire la CPU necessaria per i processi piu` onerosi
- Rinnovare i posti-lavoro attraverso PC-linux o equivalenti
- Usare le w/s "vecchie" finche` funzionano, togliendole gradualmente dalla
manutenzione
4. Upgrade del calcolo centrale di ZEUS
Il sistema ZARAH si e` dimostrato eccellente. Tuttavia, per andare incontro
alle necessita` di sviluppo necessarie per la fase di alta luminosita`, e`
necessario rivolgersi a tecnologie meno costose, sia dal punto di vista
del costo per upgrade di CPU, che dei contratti di manutenzione.
Le linee che saranno seguite possono essere riassunte come segue:
a) Usare nuove tecnologie: costruzione di una infrastruttura basata su PC
b) Consolidamento del sistema di file-serving:
- tutti gli HD su un solo server
- rimozione del secondo server
- sostituzione dei vecchi dischi da 2 GB con dischi da 23/36 GB
c) Cancellazione dei contratti di manutenzione
E` gia` stato realizzato un prototipo del sistema basato su PC. Si tratta di
17 PC utilizzabili per analisi (quando non sono impegnati nella ricostruzione)
che utilizzano linux. Il sistema batch adottato e` Load Share Facility (LSF).
L'esperienza e` positiva e 60 nuovi PC sono stati ordinati recentemente.
5. Nuove tecnologie di calcolo
ZEUS e` un esperimento "maturo", basato su tecnologie di calcolo sviluppate
ormai da oltre un decennio.
I dati di ogni run sono organizzati in una serie di files (MDST), contenenti
eventi squenziali. I MDST sono inseriti in un database basato sul software
ADAMO sotto il quale opera ZEBRA per la gestione dell'I/O fortran.
In ZEUS si ritiene che l'utilizzo delle nuove tecnologie di calcolo, basate
su OO, sia tuttavia importante, sia per la gestione della seconda fase
dell'esperimento, che per dare la possibilita` ai giovani (laureandi,
dottorandi) di apprendere le nuove tecnologie sebbene nel contesto di un
esperimento avanzato.
Un primo avvicinamento a queste nuove tecnologie si e` avuto tramite la
realizzazione di un database di "tags", denominato ZES (Zeus Event Store),
basato su Objectivity (4.02).
Schematicamente, per ogni evento sono calcolate varie quantita`, dette tags,
sulle quali e` possibile operare calcoli e selezioni tramite un filtro.
Tecnicamente questa operazione di filtraggio e` effettuabile al livello delle
"control-cards" dei programmi di analisi, rendendo velocissima la selezione
degli eventi a cui si e` interessati.
Una collezione di databases definisce un database federato, i cui elementi sono
due oggetti fondamentali: l'oggetto "evento", che contiene i tags, e l'oggetto
"file" che contiene i puntatori ai MDST su cui risiede l'evento vero e proprio.
Ogni database consiste in un insieme di runs, e occupa, tipicamente, uno spazio
di 200-450 MB.
Gli sviluppi futuri di questo modello vanno nella direzione di salvare tutto
cio` che e` necessario per potere ricalcolare le variabili dell'evento senza
dovere passare attraverso la tradizionale fase di "reprocessing".
Schematicamente:
solo 1 volta
+-------------+
+--------------+
+-------------------+ richiesta | Tools
|
| DATI GLOBALI | --------> | Database Federati | <-------- | di analisi |
+--------------+
| OOmicroDST
| --------> |
|
riempimento +-------------------+ dati
| OO e vecchi |
del Database
+-------------+
La sensibilita` alle nuove tecnologie di calcolo e` molto forte in generale
nel laboratorio, e DESY ha deciso di investire in questo settore.
E` stato elaborato un progetto pilota, detto OOTWG (Object Oriented Techniques
Working Group) a cui partecipano membri di ZEUS, H1, Direttorato e Centro di
Calcolo del laboratorio.
Gli obiettivi sono:
a) sviluppo ed implementazione di un formato OO comune per ZEUS ed H1
(ispirato al lavoro di RD45 al CERN)
b) sviluppo di interfacce ai tools moderni quali LHC++, ROOT ecc.
c) sviluppo di interfacce al software fotran esistente
Si prevede pertando di muoversi dl modello attuale tipo:
+----------------------------------------------------------------------+
| I/O fortran --> ZEBRA --> ADAMO --> tools fortran di analisi --> PAW |
+----------------------------------------------------------------------+
ad un modello tipo:
+----------------------------------------------------------------------------+
|
|
|
+--- tools analisi OO
|
|
/
|
|OBJECTIVITY --> Modello ZEUS/H1 ---+
|
\
|
|
+--- interfaccia --> ADAMO --> tools |
|
analisi |
|
attuali |
+----------------------------------------------------------------------------+
|
6. Conclusioni e commenti finali
Gli upgrades sia del calcolo centrale di ZEUS che dei cluster dei gruppi
italiani (quello comune a DESY e quelli nelle Sezioni) andranno nella direzione
di utilizzare le tecnologie basate su PC o w/s equivalenti.
Per i cluster italiani e` previsto un server capace di gestire
lo spazio disco (che si prevede di raddoppiare) e dotato di CPU e RAM
sufficienti per i task piu` onerosi.
Le nuove tecnologie di calcolo, basate su OO, stanno entrando anche in ZEUS
(ed H1) e cio` permettera` ai giovani di non perdere il passo con le evoluzioni
delle tecniche off-line.
I servizi di calcolo delle Sezioni, che attualmente forniscono aiuti
fondamentali nelle gestioni dei sistemi (installazioni di hardware, upgrades
dei sistemi operativi, backup centralizzati e assistenza in genere) dovrebbero
dotarsi di personale esperto di linux e delle nuove tecnologie di calcolo.
Sottolineando i grandi meriti delle recenti iniziative prese all'interno
dell'INFN per la diffusione delle nuove tecniche tra i ricercatori, si
ritiene importante che la documentazione, anche sotto forma di tutorial,
esempi e FAQ, possa essere organizzata in modo sistematico su web.
7. STATO E NECESSITA’ DEL CALCOLO DI AMS ITALIA
AMS: volo STS-91 e Stazione Spaziale
Le sezioni INFN partecipanti ad AMS sono: Bologna, Milano, Perugia e Pisa.
In questa nota viene brevemente descritto quanto realizzato per la gestione,
archiviazione e distribuzione dei dati del volo STS-91, a livello nazionale.
Il Data Center e`stato realizzato presso la sezione INFN di Milano.
Si presentano inoltre le previsioni di massima per il Data Center per i
dati della Stazione Spaziale ISSA. L’inizio della presa dati su ISSA e`
prevista nel 2003. Va considerato che, mentre negli esperimenti da acceleratore
si ha di norma una central computing facility, negli esperimenti spaziali e`
compito dei singoli laboratori occuparsi della gestione ed archiviazione dei dati,
in particolare dei raw data. In questa nota vengono infine indicate le esigenze
del Data Center a cui vanno aggiunte le esigenze di calcolo delle singole sezioni.
Volo STS-91 (2-12 Giugno 1998)
1) Ricezione dati durante il volo
Nel 1998 abbiamo avuto un volo e quindi una presa dati della durata di 10 giorni.
Il Data Center INFN di AMS a Milano si e` organizzato per la ricezione in tempo
reale dei dati. Il flusso dei dati, provenienti da Johnson Space Center (Houston),
e` avvenuto via ALTEC-Alenia (Torino).
Il rate di trasmissione tra Shuttle e Terra e` in media di 1 Mbit/s con una
capacita` massima di 2 Mbit/s. In 10 giorni sono stati raccolti complessivamente
circa 120 Gbyte (110 dal canale HRDL e 12 dal canale SRDL + dati Shuttle).
Non tutti questi dati pero` sono stati ricevuti in real time a causa di problemi
all’apparecchiatura di trasmissione a bordo dello Shuttle.
2) Organizzazione e gestione dei dati
Il volume di dati prodotti comprende i dati raw trasmessi dallo Shuttle e i dati
ricostruiti a posteriori.
a) I dati raw comprendono gli eventi trasmessi nel canale HRDL (high rate data link),
gli House-Keeping (HK) trasmessi nel canale SRDL (slow rate data link) e i dati
ausiliari dello Shuttle (dati CAS). Complessivamente si tratta di 120
Gbyte.
b) I dati ricostruiti sono stati prodotti off-line dopo il volo. Esistono finora
tre produzioni (realizzate al CERN) relative a gradi di calibrazione progressivamente
piu` elevati. Ognuno di questi run ha prodotto circa 200 Gbyte di dati.
In questo periodo il Data Center ha organizzato i dati in modo da costituire un
archivio, totalmente accessibile via Web, con diversi gradi di organizzazione dei dati.
Parte dei dati e` stata organizzata in Data-Base in modo tale che possa essere
selezionabile in maniera molto mirata. Tutti i dati necessari sono inoltre archiviati
on-line e sono accessibili via rete file per file. Infine le produzioni precedenti di d
ati ricostruiti e i dati raw ridondanti sono archiviati off-line (su supporto magnetico).
La quantita` totale dei dati finora archiviati (piu` quelli che si completeranno nel
corso del 2000) e`:
1) Data-Base: 60 Gbyte;
2) Archivio on-line: 500 Gbyte;
3) Archivio off-line: 1 Tbyte.
Si prevede inoltre di rendere disponibile un ulteriore campione di dati ricostruiti,
contenenti solo le informazioni piu` rilevanti per analisi fisiche. Tale campione
verra` prodotto e reso accessibile non appena reperito lo spazio disco necessario.
Necessita` e sviluppi richiesti in previsione della Stazione Spaziale
International Space Station Alpha - ISSA (2003)
1) Flusso dei dati
Si puo` prevedere un rate di trasmissione dati paragonabile a quello che si e`
avuto per il volo STS-91. Ovvero dobbiamo attenderci una trasmissione media di
circa 2 Mbit/s con punte anche maggiori. Bisogna prevedere dei periodi di cattiva
trasmissione con susseguenti momenti di recupero. Pertanto e` necessario avere
una banda dedicata che possa arrivare ad almeno 4 Mbit/s.
In contemporanea alla presa dati ci sara` la produzione degli eventi ricostruiti,
che verosimilmente verra` portata avanti al CERN. Vista la mole di dati prodotti
a partire dai dati raw (rapporto 2/1) e` necessario prevedere un rate di trasferimento
doppio rispetto a quanto richiesto per i raw data. Sara` necessaria quindi una banda
di almeno 4 Mbit/s.
Infine bisogna garantire una banda sufficiente per le richieste di dati da parte
delle sezioni INFN (Bologna, Perugia e Pisa) che fanno parte della collaborazione ed
avere un margine per accessi ulteriori. Se pensiamo di voler trasmettere ad un rate di
2 Mbit/s e di voler servire almeno 2 richieste concorrenti dobbiamo prevedere una banda
ancora di almeno 4 Mbit/s. Inoltre e` necessario garantire la banda passante per le
sezioni INFN di Bologna, Perugia e Pisa.
In totale quindi occorre una banda in input/output dell’ordine di 12 Mbit/s durante
il periodo di presa dati, ovvero a partire dal 2003 e per almeno tre anni.
2) Quantita` di dati da archiviare
La durata prevista per la missione e` di almeno tre anni, durante i quali dalla Stazione
Spaziale riceveremo circa 20 GByte di dati al giorno, per un totale, su tre anni, di
circa 20 TBytes.
La quantita` di dati complessiva prodotta si puo` stimare moltiplicando per un fattore
10 questo numero, scalando in maniera conservativa quanto osservato per il campione
dati del volo STS-91. Si ottiene quindi un campione totale di 200 Tbytes, di cui circa
meta` saranno on-line.
3) Struttura del Milano Data Center
Si intende implementare una struttura simile a quella adottata per il volo STS-91; da
un lato verra` tenuto on-line il campione di dati che saranno disponibili per un accesso
diretto (es. ftp), dall’altro i dati verranno organizzati in un Data-Base relazionale,
che ne conterra` il data-catalog/inventory. Questa struttura permettera` un caricamento
in tempo quasi reale, garantendo una possibilita` di selezione mirata in breve tempo dopo
l’acquisizione del dato stesso. Un’analoga organizzazione verra` sviluppata per i dati
ricostruiti. La seguente tabella riassume tipi di implementazioni e campione di dati
relativi, dopo tre anni di presa dati (2006).
Tipo di struttura
Campione di dati
Dati RAW on-line: 20 Tbyte
Dati RAW on-line in Data Catalog DB: 10 Tbyte
Dati ricostruiti on-line: 40 Tbyte
Dati ricostruiti in Data Catalog DB: 10 Tbyte
Dati off-line: 200 Tbyte
4) Tecnologie da utilizzare
In base a quanto descritto sopra, si renderanno necessari l’utilizzo di risorse hardware
ad alta affidabilita`, lo sviluppo di strumenti di monitor e gestione automatica del
campione di dati e l’implementazione di un Data-Base relazionale ad alta efficienza per
la realizzazione dei cataloghi dei dati.
5) Gestione on-line remota dei dati
La struttura descritta permetterebbe inoltre di contribuire, da parte delle sezioni INFN,
alla gestione on-line dell’esperimento in modo remoto durante il periodo di presa dati.
8. STATO E NECESSITA’ DI CALCOLO DI ARGO
Nell’ambito dell’esperimento ARGO l’attività di acquisizione ed
immagazzimanto dati avviene localmente sul sito di Yangbajing.
I dati immagazzinati su cassette di tipo DLT vengono poi inviati
in NAPOLI dove devono essere processati e distribuiti per l’analisi
dati alle sezioni partecipanti all’esperimento.
===============================================================
=
Attualmente sul sito di YangBajing sono previsti:
- Scrittura dei Raw Data su nastri DLT (35/70GB).
- Controllo Locale dell’apparato. Attualmente non c’è modo di
effettuare monitoraggio e/o controllo remoto dell’apparato
dall’Italia.
In futuro sarebbe necessario avere le seguenti facilities sul
sito:
- Network (eventualmente via satellite) per il monitoring dello
stato dell’apparato dall’Italia con un eventuale controllo
remoto. Tale network potrebbe essere utilizzato anche in futuro
trasferimento veloce dei dati ridotti potenzialmente interessanti
evitando di dovere attendere il trasferimento fisico dei dati a
Napoli. Ciò comporterebbe il mantenimento di una parte dei dati
on-line che consentirebbe l’accesso via rete anche in vista di
possibili coincidenze in quasi real-time con altri rivelatori o
con altri esperimenti (e.g. VIRGO per la rivelazione di onde
gravitazionali)
- Implementazione di un sistema di on-line processing locale per
la riduzione e pre-analisi dati con scrittura su DST. Tale sistema
dovrebbe essere caratterizzato da una potenza di calcolo
dell’ordine dei 100GFlops.
===============================================================
=
Attualmente nella Sezione di Napoli sono previsti:
- Lettura e Processing dei dati di Yangbajing su workstation.
In futuro sarebbe necessario avere le seguenti facilities:
- Potenziamento del network per il trasferimento dati alle sezioni
afferenti all’esperimento in modo da consentire l’accesso diretto
via internet ai raw data e/o ai dati post-processati, evitando la
necessità di inviare i DST o i raw data alle sezioni che lo
richiedano.
- Sistema di processing parallelo per la riduzione ed analisi dei
dati per i diversi settori della fisica interessati con eventuale
scrittura su DST con una potenza ancora da definire ma > 100
Gflops.
Implementazione di un database locale, possibilmente in accordo a
scelte più generali dell’INFN, per la gestione dei dati processati
e per l’historical monitoring dell’apparato con una capacità di
archiviazione do dati on-line dell’ordine del TeraByte.
Valutazione della possibilità di utilizzazione di nuove tecnologie
object oriented.
Potenziamento del network e standardizzazione dei dati per una
eventuale distribuzione e scambio di dati, in particolare per
eventuali coincidenze in quasi tempo reale con altri esperimenti
dell’INFN (e.g. coincidenze di gamma ray bursts con emissione
gravitazionale).
Creazione di un’infrastruttura adeguata nella sezione di Napoli
per l’archivio fisico dei dati di ARGO (eventualmente con un robot
dedicato) ed addestramento del personale della sezione e delle
sezioni afferenti all’esperimento alla gestione di archivi,
database e alle nuove tecnologie che potrebbero essere
potenzialmente usate nell’esperimento.
9. STATO E NECESSITA DI CALCOLO DEL GR IV
Nell' ambito del gruppo IV, l' uso di strumenti ed attrezzature di
calcolo puo' essere diviso nei seguenti settori:
- funzionalita' di base.
In questo settore, che copre l' accesso alla rete, il servizio di mail etc.,
le esigenze sono essenzialmente le stesse che
per il resto dell' ente, con una importante eccezione, per quanto
riguarda la video-conference.
In quest' ambito, e' importante che i teorici, in tutte le sezioni,
possano avere accesso a servizi efficienti di video-conferenza con
due finalita' fondamentali:
- possibilita' di seguire seminari a distanza.
- possibilita' di collaborazione a distanza. A questo scopo,
in aggiunta a quanto succede in video-conferences tradizionali,
e' fondamentale poter utilizzare white-boards elettroniche di ampie
dimensioni. Esistono in commercio sistemi che offrono queste possibilita'
a prezzi ragionevolmente limitati (dell' ordine di 30 ML per istallazione).
- calcolo scientifico di medio-bassa entita'.
In questo settore, le risorse di calcolo sono basate su PC (che usano
quasi eslcusivamente Linux) o workstation Unix. La scelta tra PC personali
o workstation (o servers) di gruppo e' in genere dovuta a preferenze
personali. Un uso massiccio di questi sistemi viene fatto per problemi
di manipolazione simbolica, in genere utilizzando i due o tre programmi
commerciali ormai standard (Mathematica, Maple, MathLab). Nell'
ambito del gruppo di lavoro che si occupa di Linux, si potrebbe esaminare
la possibilita' di realizzare una distribuzione del sistema operativo
theory-oriented, che contiene questi programmi, ed eventualmente anche
le librerie NAG.
- simulazione numerica
L' attivita' di simulazione numerica di fisica statistica e di teorie
di gauge sul reticolo e' l' area di maggior utilizzo di risorse di calcolo
in ambito teorico. Possiamo distinguere tra simulazione a relativamente
basso utilizzo di calcolo (discussa in questo paragrafo) e in simulazione
"massiccia", descritta nel prossimo paragrafo e basata su APE.
Per quanto riguarda la simulazione, con calcolatori tradizionali, i fisici
del gruppo IV utilizzano workstation tradizionali e farm di PC.
Per quanto riguarda l' uso di workstation tradizionali si va diffondendo l'
uso di CONDOR, che e' visto soprattutto come un sistema di controllo di
programmi ditribuiti su varie macchine e gestiti centralmente, piuttosto
che come un sistema di recupero di cicli di CPU eventualmente persi. E'
importante che questa caratteristica di praticita' dell' uso di Condor
rimanga nell' evoluzione del progetto.
In tempi recenti, e' invece nata una attivita' pionieristica di sviluppo di
cluster di PC che vengono usati per simulazioni di media entita'. Si tratta
in genere di sistemi di PC (tipicamente bi-processore), connessi con reti
di elevate prestazioni (ad esempio Gbit ethernet). Questi cluster
usano in genere sistemi Linux (con parallel extensions) ed usano ambienti
di programmazione parallela relativamente piu' complessi che non il modello
della farm usato nell' analisi di eventi sperimentali. E" auspicabile che
l' esperienza raggiunta in questo campo possa essere messa a frutto in
tutto l' INFN.
- Il progetto APE
Le simulazioni massiccie di QCD sul reticolo sono basate in ambito INFN
essenzialmente sull' uso di APE100 e (a partire da questo autunno) di
APEmille. Questa tendenza e' iniziata intorno al 1993 ed e' previsto che
continui ancora per parecchi anni. Attualmente sono istallati sistemi
APE100 a Bari, Milano, Pisa, Roma I e Roma II, per una potenza di calcolo
integrata di circa 170 Gflops.
Nella prima meta' del 2000 i sistemi APE100 verranno sostituiti da macchine
APEmille (che sostituiranno gradualmente APE100) per una potenza di calcolo
totale di circa 1 TFlops (1000 GFlops).
Il progetto speciale APEmille sta per concludersi. Nel prossimo anno ci
si aspetta che inizi lo sviluppo di una nuova generazione di sistemi dedicati
per la fisica sul reticolo (apeNEXT). L' obbiettivo di questo progetto, che
dovrebbe essere una collaborazione europea,
e' quello di realizzare, nell'arco di tre anni, sistemi di calcolo di qualche
Tflops di potenza (con circa 1 Tbyte di memoria).
Scarica