Verso la presa dati Il Computing di ATLAS

Verso la presa dati
Il Computing di ATLAS
Gianpaolo Carlino
CSN1
Pisa, 16 Settembre 2008
•
I primi dati
• Commissioning del Computing
• Attività nella cloud italiana
• Richieste 2009
I primi eventi – 10/09/08
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
2
I primi eventi – 10/09/08
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
3
I primi eventi – 10/09/08
I dati vengono distribuiti!
Il DAQ ha chiuso il primo run verso le 18.00 ed è subito iniziato il
trasferimento dei RAW data su tape e di ESD su disco a tutti i Tier1 ……
Primo Evento al CNAF di ATLAS: Run 87764 Event: 40050
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
4
I primi eventi – 10/09/08
… e ai Tier2
Tutti i dataset, sia RAW che ESD, sono stati completamente replicati
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
5
I primi eventi – 10/09/08
L’accesso agli ESD con Ganga nei Tier2 e
la ricostruzione funzionano!
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
6
Attività di Commissioning del
Computing in ATLAS
(breve riassunto, dettagli nella CSN1 del 2 Luglio)
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
7
Commissioning del Computing
ATLAS ha svolto un’intensa attività di test per arrivare pronti al primo evento
 Febbraio 2008:
 FDR-1: simulazione dell’intera catena di software & computing
 CCRC08–1: test della distribuzione dei dati T0 T1  T2
 sosprattutto un test delle operazioni al Tier0, di funzionalità del sistema e di
installazione e configurazione di SRM 2.2 e canali FTS
 Maggio 2008
 CCRC08-2: test intensivo del DDM, T0 T1  T2 e T1  T1
 test di funzionalità e throughput con metriche molto esigenti
 4 settimane di test con incremento graduale delle complessità dei test
 Giugno 2008
 FDR-2: simulazione dell’intera catena di software & computing
 test delle procedure di validazione, ricostruzione e analisi distribuita dei dati
 test di analisi nei Tier2: accesso ai dati e tool di analisi distribuite (Ganga)
 Estate 2008
 Functional Test
 trasferimenti continui tra tutti i siti (70 circa in tot) di dati generati al Cern al 10% del
rate nominale per tenere sempre sotto osservazione il sistema
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
8
CCRC08 – Fase 2
Throughput Test
PEAK
NOMINAL
• Simulazione dell’export
dal Tier0
• 24 h/day @ 200 Hz
(150% del rate nominale)
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
9
CCRC08 – Fase 2
Throughput Test
Test di backlog recovery
Primi dati generati in 12 ore
e sottoscritti in bulk
12h di backlog
recuperati in 90 minuti
in tutti i siti!
~ 200 MBps per 2h
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
10
CCRC08 – Fase 2
Tier1 – Tier1
Test
• Studio dell’efficienza nei trasferimenti
incrociati e contemporanei tra Tier1
• 18 TB corrispondenti a 90 MBps di
inport rate per ogni Tier1 (superiore al
rate nominale)
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
11
CCRC08 – Fase 2. I Tier2
Tier0  Tier1  Tier2
Oversubscription a Na e Rm: 100% AOD
Tier1  Tier2
Replica molto veloce, max 1.5 h
dalla richiesta di sottoscrizione
 studio dell’efficienza dei trasferimenti
 studio del timing dei trasferimenti
Alta efficienza dei Tier2:
• Replica dei dati con eff. 100% e alto
throughput
Affidabilità dei Tier2:
• Recupero immediato del backlog con un
throughput fino a 100 MBps in caso di necessita’
CSN1, Pisa 16 Settembre 2008
Thr.

Dataset

Files
LNF
86
169
100%
2.64
MI
88
180
100%
2.88
NA
395
794
100%
12,02
RM
395
794
100%
12,02
G. Carlino: Verso la presa dati. Il Computing di ATLAS
Eff
MB/s
12
Final Dress Rehearsal
Test dell’intero computing system, dall’on-line/trigger all’analisi distribuita, come se si trattasse
di dati reali, per evidenziare i problemi che si potrebbero verificare durante il data taking
Analisi nei Tier2:
 Utilizzo esclusivo dei Tier2 italiani per l’analisi
 Test di accesso ai dati e running dei job di analisi con Ganga
soddisfazione degli utenti per la facilità e la velocità di utilizzo dopo il primo periodo
di training e configurazione.
 max 2h tra l’invio dei job, il recupero dell’output e l’analisi locale, nonostante la forte
competizione con la produzione MC
 efficienza dei job > 95%
 Strategie di analisi:
produzione in grid di DPD di gruppo o utente con i DPDMaker dagli AOD e DPD primari
prodotti centralmente
 analisi dei DPD nei Tier2 di riferimento (ARANA)
 Gruppi di analisi coinvolti
 Susy, Top, Higgs, MS, Minimum Bias, Trigger
 Risultati non particolarmente rilevanti dal punto fisico. Lo scopo era di familiarizzare
con i tool e testare tutti gli aspetti della catena
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
13
Final Dress Rehearsal
Analisi del trigger nella muon stream:
Trigger
decision
@ EF
2m(10)(4)(6)
L1
L2
minbias
jets
m10
m20
m6 + Bphy
t25i
+
m40
m10
LVL1 selection
barrel + endcaps
EF
totalE
+
EtMiss
offline muon
(Muid)
MU6
MU10
MU11
MU20
MU40
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
muon pT (MeV)
14
Attività nei Tier2
Attività principale degli utenti nella prima settimana dell’FDR2:
Attività principale degli utenti nella
prima settimana dell’FDR2:
calibrazione dei mu
CSN1, Pisa 16 Settembre 2008
Attività principale degli utenti nella
seconda settimana dell’FDR2:
analisi
G. Carlino: Verso la presa dati. Il Computing di ATLAS
15
Commissioning del Computing
Considerazioni finali sul CCRC e FDR
 Il sistema di distribuzione dei dati era un item critico di Atlas. Preoccupazione negli
utenti (scarsa fiducia sulla possibilità di reperire i dati con velocità ed efficienza). Il
commissioning di questo sistema ha focalizzato l’attenzione durante il CCRC.
 Giudizio finale positivo: efficienze e throughput molto alti. Sw stabile e affidabile.
 È stato effettuto un debugging approfondito delle configurazioni di tutte le parti del
sistema testando, ben oltre gli use cases previsti per il data taking 2008, tutti i tipi di
trasferimenti previsti dal CM
 L’FDR ha testato l’intera catena del computing, dal DAQ all’analisi distribuita.
 Dopo le prime fasi di “registrazione” il Tier0 è stato in grado di ricostruire i dati e
inviarli ai Tier1
 L’analisi distribuita è stata testata sia con Ganga che con PAthena. Alta efficienza e
velocità
 Esercizio troppo breve per poter essere considerato un vero commissioning dell’analisi
distribuita, manca un test di continuità, di robustezza e stress
L’attività “sul campo” ha permesso di definire meglio molti aspetti del
Computing Model. A inizi 2009 ATLAS apporterà le necessarie modifiche
in base alle indicazioni ottenute con la presa dati 2008
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
16
Attività nella cloud Italiana
e Richieste 2009
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
17
Attività al CNAF
Il CCRC08
 Al CNAF numerosi problemi con lo storage che hanno comportato throughput e
efficienze bassi per lunghi periodi.
 Il test è stato superato solo negli ultimi giorno quando i problemi tecnici sono
stati compresi e risolti
Il periodo Giugno-Luglio
 Attività molto rallentata nella cloud italiana a causa di numerosi problemi al
CNAF sia di carattere strutturale che di instabilità del middleware e dei servizi
(in particolare il catalogo locale, LFC)
 Stato di “quasi crisi”. La stretta collaborazione tra CNAF e ATLAS-IT ha
portato all’individuazione dei problemi e alla loro risoluzione:
 miglioramento della struttura di supporto e controllo delle attività al Tier1
 individuazione dei servizi critici (LFC) e studio delle soluzioni per renderli più
stabili e soprattutto ridondarli
 studio e test delle configurazioni dello storage
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
18
Attività al CNAF
L’estate
 Attività al CNAF soddisfacente senza interruzioni né dei servizi né della
struttura
 Produzione al Tier1 e ai Tier2 con alta efficienza ritornata agli share che ci
competono
 Functional Test continuo
 al 10% del nominal rate con efficienza sempre 100%
Test del Reprocessing dei dati in tutti i Tier1 e al CNAF
 Ridondanza dei servizi vitali della cloud: Studio di fattibilità della replica del
catalogo locale con Oracle Data Guard
Piani futuri
 test di carico al CNAF con le nuove configurazioni dello storage
 (Tier2) in corso test sullo storage a Milano per la migrazione a Storm anche
nei Tier2
 effettuati test positivi di installazione e configurazione, in corso test di
funzionalità su un cluster di WN e storage dedicati
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
19
Attività al CNAF
 CPU garantite per ATLAS: 440 kSI2k (quota 2007, dalla prossima
settimana saranno disponibili le risorse 2008: 1034 kSI2k)
 Nei periodi di attività si evidenziano picchi superiori allo risorse garantite
 E’ evidente l’aumento dell’uso delle risorse nel periodo Agosto-Settembre
Uso delle CPU della farm del CNAF
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
20
Attività in Italia
La produzione in Italia ha runnato sempre quando c’è stata attività in ATLAS
Job di produzione in Atlas
La interruzioni sono dovute alla validazione
delle nuove release del software
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
21
Attività in Italia
Produzione in LCG 2007
Produzione in Ago-Set 08
Produzione in LCG Gen-Lug 08
4,20%
14,58%
Produzione
IT in LCG = 16.6%
4,20%
Prod. IT nel mondo = 7.5%
CNAF
LYON
RAL
FZK
TRIUMF
PIC
ASGC
SARA
NDGF
CNAF
LYON
RAL
FZK
TRIUMF
PIC
ASGC
SARA
NDGF
59,11%
Produzione in 11,88%
Italia
CNAF
Frascati
Milano
Napoli
Roma
14,58%
8,33%
CN
Fra
Mila
Nap
Rom
11,88%
6,10%
59,11%
Produzione in Italia
Produzione in Italia
BARI
CNAF
FRASCATI
LEGNARO
MILANO
NAPOLI
ROMA
17,97%
12,22%
48,91%
8,33%
6,10%
Efficiency
100,00%
90,00%
80,00%
70,00%
60,00%
Failed
Done
50,00%
40,00%
10,76%
30,00%
20,00%
4,64%
CSN1, Pisa 16 Settembre 2008
5,44%
10,00%
0,00%
G. Carlino: Verso la presa dati. Il Computing di ATLAS
CNAF
Frascati
Milano
Napoli
Roma
22
Attività in Italia
VO Atlas
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
23
Attività nei Tier2
Tier2 Napoli - Wall Time
Altre VO
ATLAS
Tier2 di Napoli
160
Utilizzo Risorse
140
120
2008
Usage (d)
100
80
60
60 core (fino al 21-3)
40
72 core (fino 3-6)
20
160 core
0
1/9
/0 7
1/1
0/ 0
7
1/1
1/ 0
7
1/1
2/ 0
7
1/1
/0 8
1/2
/0 8
1/3
/0 8
1/4
/0 8
1/5
/0 8
1/6
/0 8
1/7
/0 8
1/8
/0 8
1/9
/0 8
Tier2 Napoli - Wall Time
Altre VO
ATLAS
100
90
80
70
Usage (%)
60
50
40
30
20
10
0
1/9
/0 7
1/1
0/ 0
7
CSN1, Pisa 16 Settembre 2008
1/1
1/ 0
7
1/1
2/ 0
7
1/1
/0 8
1/2
/0 8
1/3
/0 8
1/4
/0 8
1/5
/0 8
1/6
/0 8
G. Carlino: Verso la presa dati. Il Computing di ATLAS
1/7
/0 8
1/8
/0 8
1/9
/0 8
24
Il Reprocessing
Attività primaria in un Tier1
Processo composto di quattro fasi i cui tool sono stati recentemente definiti e testati:
1. stage dei file da tape e copia su WN

utilizzo del tool DDM di pre-stage dei dataset da castor tape su disk buffer

~ 35 input file per job
2. file di input (Conditions Data) replicati in Oracle stream su disco (Storm) e copiati
su WN
3. sottomissione dei job con il sistema dei pilot
4. copia separate dei file di output su Storm (T0D1) e tape (T1D0).
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
25
Il Reprocessing
 Test a agosto con i dati dell’ FDR2
30 task da circa 100 job (10000 ev. per file)
Durata singolo job ~ 150 min
test separato dei tool di prestaging e reprocessing
efficienza 100% in tutte cloud
alcuni retries nella copia dei file su WN dovuti a un
problema di timeout nei trasferimenti ora compreso
 Funzionamento positivo del sw di Athena, failure nella
reco < 1% e nessun errore nell’accesso al DB





.
 Next: reprocessing dei dati di FDR2 e cosmici
 Test più significativo: realistici file size e
composizione delle eventi nell’FDR ma aumento della
statistica grazie ai file di cosmici
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
Tier1
Efficienza
CA
100%
DE
99%
ES
99%
FR
99%
IT
100%
NL
100%
TW
100%
UK
down
US
99%
NDGF
No fdr2 data
CERN
99%
26
Ridondanza dei servizi della cloud
Replica del catalogo locale LFC
 Le interruzioni al CNAF hanno evidenziato la necessità di replicare l’ LFC, vero single
point of failure nel modello di calcolo di ATLAS, per evitare che l’intera cloud sia
completamente inattiva in caso di down del Tier1
 Ipotesi iniziale replica in un altro Tier1
 al momento gli altri Tier1 non sono disponibili ad impegnare risorse e manpower
sebbene ne riconoscano la necessità
 Ipotesi praticabile: replica in uno dei Tier2 italiani: Roma1
 LFC è un db ORACLE. Il sistema Data Guard può essere usato per replicare
remotamente l’LFC del CNAF sul db di Roma1
 Switch automatico a Roma1 del db dal ruolo Standby a quello di Produzione in R/W
mode
 Intervento manuale al CNAF per restituire al CNAF db il ruolo di Produzione
 Trasparente alle applicazioni di Atlas attraverso alias nel DNS
 Il CNAF e ATLAS IT si sono impegnati a testare il sistema entro Novembre
 Da comprendere le eventuali licenze necessarie
CNAF
CSN1, Pisa 16 Settembre 2008
Roma1
G. Carlino: Verso la presa dati. Il Computing di ATLAS
27
Analisi nei Tier2

dopo l’FDR2 attività quantitativamente limitata (l’analisi fisica è proseguita localmente
soprattutto per finalizzare i risultati del CSC) ma qualitativamente importante

FDR2c a fine agosto
 esercizio soprattutto per il test delle funzionalità del Tier0,
 nei Tier2 test della stabilità di Ganga con le nuove release del sw di Atlas: OK

aumento dell’uso dei Tier2 per il commissioning dei rivelatori
 es: LVL1. produzione delle nuove matrici di coincidenze e confronto decoding online/off-line con i cosmici

interazione gruppi di fisica e computing. Creazione di un gruppo misto
 per individuare tutte le necessità dell’analisi e trovare le soluzioni per l’uso dei
Tier2 anche per l’analisi “semi-interattiva” in grid (attività fino ad ora eseguita
localmente ma che con l’aumento dei dati previsto per il 2009 necessiterà di tutte
le risorse dei Tier2) e per le attività di sviluppo
 per definire soluzioni per l’uso non standard di Ganga e eventuali strategie
alternative

aumento del contributo italiano al gruppo ATLAS di GANGA
 per risolvere i problemi di accesso ai dati (RAW e HITS) e per produrre un
controllo automatico del funzionamento dei tool
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
28
Attività nei Tier2
Risorse dedicate per gli utenti italiani nei Tier2
 ridefinizione delle aree di storage per seperare le quote per la collaborazione (per
gruppi o singli utenti Atlas) e quelle per gli utenti italiani
 Meccanismo di job priorities per riservare le CPU all’analsi (italiana)
 definizione di quote dedicate per le varie VO o attività (p.es. produzione e analisi)
 bilanciamento temporale dell’uso delle risorse per impedire che rimangano
inutilizzate quando non viene utilizzata completamente la quota dedicata ad una
precisa attività o a un gruppo
 Test del meccanismo di job priorities
 Si è testato che i job di utenti
con ruoli diversi di distribuiscono
nel tempo non in base all’ordine di
arrivo nella coda, ma in modo da
soddisfare in un dato intervallo una
percentuale di utilizzo delle risorse
impostata nel batch system:
• atlas = 70% atlasprd = 30%
CSN1, Pisa 16 Settembre 2008
120
100
80
atlasprd
60
atlas
40
20
0
1
2
3
G. Carlino: Verso la presa dati. Il Computing di ATLAS
4
5
29
Risorse CNAF 2009
Pledges 2008
Disco nei Tier1 ATLAS
(Luglio 2008)
 Contributo del CNAF ad Atlas
 Disco: 4%.
 CPU: 5%
 Tape: 6%
 Tier1 più piccolo in assoluto!
… e le risorse 2008 saranno disponibili
solo a fine settembre
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
30
Risorse CNAF 2009
Piano sviluppo Referee Settembre 2007
%
ALICE
ATLAS
CMS
LHCb
22
32
35
11
LHC 07v1
100
Totale con shift
2007
2008
2009
2010
CPU Disco Nastro CPU Disco Nastro CPU Disco Nastro CPU Disco
(kSi2k) (TB-N) (TB) (kSi2k) (TB-N) (TB) (kSi2k) (TB-N) (TB) (kSi2k) (TB-N)
110
143
286
748
330 428.11 1727.4 789.28 888.08 3025.6 1511.6
160
208
480 622.71 2512.6 1148 1291.7 4400.9 2198.7
416
1088
175
227.5
525 681.09 2748.2 1255.7 1412.8 4813.4 2404.8
455
1190
55
71.5
165 214.06 863.71 394.64 444.04 1512.8 755.8
143
374
650
5500
2500
500
650
1300
New T1 Evolution
1300
3400
1500
500
3241.95 10203.9
1946
7852
4675.3
Nastro
(TB)
1553.6
2259.8
2471.6
776.8
4831.48 17301.5 9066.47 9292.19
3587.7 4036.7 13753 6870.9 7061.8
Piano sviluppo ATLAS (somma dei Tier1)
Il superamento
dei problemi
3514
4093verificatisi
alTotalCNAF
lavori di
452
623 e la fine dei649
Disk (TB)
1600
2586
ristrutturazione
della sala,3127
oltre alla
Total Tape (TB)
264Total CPU (kSI2k)
305
317
convinzione
1956
3038che il 2009 possa
3573 essere un
336
anno534
di piena attivita’590
di LHC, consigliano
1400
2248
2719
di non andare sotto le percentuali
220
255
265
0
indicate
nel
piano
di
sviluppo
per
non
2007
2008
2009
2010
2011
2012
2281,37143 10271,5306 21456,1830 39014,1755 59522,4099 80447,8934
Total Disk Shift
(TB)
mesi
6
6
6 cloud
ridurre la competitività
della
5275,49018 12584,554 25034,3854 43782,3562 66065,8978
Total TapeNB:
(TB) da1246,02667
considerare nei costi totali anche 500K per la nuova tape
library e 500K
perproblema
l'obsolescenza
italiana
(vedi
LFC) e la sua
3173
18910,9
31367,1
46152,7
72822,6
95341,8
Total CPU (kSI2k)
NB: i costi indicati sono nominali, cioe' senza considerare gli overlap factors.
centralità nell’esperimento.
Rapporto CNAF/ATLAS 2009
120000
Acquistando in due anni k€
Costo CPU
80000
Costo
Disco
Costo
Nastro
60000
Acquistando nell'anno in corso
40000
Costo
CPU
Costo
Disco
20000
Costo Nastro
2315
100000
Disco = 1148/21456 (TBn) = 5.3%
CPU = 2512.6/31367 (kSI2k) = 8%
Tape = 1291.7/12584 (TBn) = 10.3%
CSN1, Pisa 16 Settembre 2008
L’ideale sarebbe un piano di sviluppo in
cui si torni in pochi anni ad una
percentuale coerente con il numero di
autori: il 10%
G. Carlino: Verso la presa dati. Il Computing di ATLAS
31
Risorse Tier2 2009 - LHC
2009
B
Train to
7TeV
Machine
checkout
Beam
Setup
C
75ns operation
No beam
25ns operation
Shutdown
Beam
LHC - Storage @ Tier2
LHC data taking
 100 giorni di Fisica
 14h di data taking (50k sec/day)
 5·106 sec @ 200 Hz  109 eventi
 320 MB/s
 1.6 PB/year di RAW, 1.0 PB/year di ESD,
> 0.1 PB/year di AOD
RAW = 1.6 MB - AOD = 0.2 MB
ESD = 1 MB
- DPD = 0.02 MB
CSN1, Pisa 16 Settembre 2008
1.
2.
3.
4.
2 versioni complete di AOD
5 versioni di DPD primari
Frazione di RAW (2%, circa
metà della quota CNAF)
No ESD
Totale = ~ 500 TBn
3. per studi di performance dei rivelatori
4. Sostituiti dagli “heavy” DPD
G. Carlino: Verso la presa dati. Il Computing di ATLAS
32
Risorse Tier2 2009 - Analisi
 analisi di gruppo. Prevista soprattutto al Tier1. In caso di limitate risorse al Tier1 o per
riservare completamente le CPU al reprocessing si aumenta la quota svolta al Tier2
 analisi caotica da parte degli utenti per studi di fisica e/o performance:
 produzione di DPD secondari da AOD o heavy DPD
 analisi dei DPD in Grid
Utenti @ Tier2
 calibrazioni dei mu (MDT, LVL1, RPC)
1.
 gruppi di analisi: 20
 sviluppo codice (uso à la lxplus ma in Grid)
2.
Disco per gruppo: ~ 14,5 TBn
 fino al 2007 uso marginale dei Tier2 per l’analisi
3.
CPU per gruppo: ~80 kSI2k
distribuita (ampia attività locale)
 attività di analisi connesse al commissioning
Totale = 350 TBn
soprattutto al Cern
e 1600 kSI2k
 FDR nel 2008: partecipazione di molti gruppi italiani
 15 gruppi (Higgs, SUSY, MS, Top, Tau, Etmiss, Trigger)
Previsione per il 2009
 circa 20 gruppi italiani di analisi
 Fisica:
 W/Z (2), SUSY (2), Top, Higgs (3),
Jets, Hidden Valley, Z’, Bphys
 Performance, Calibrazione:
 EM Calo / Photon ID, Pixel, Tau/Etmiss,
btag trigger, Jet calib e reco, LVL1 muon,
RPC, MDT, combined muons
CSN1, Pisa 16 Settembre 2008
Spazio disco per gli utenti generici di
Atlas e per gli utenti italiani (non incluso
nei pledges)
2. Si assume che lo spazio disco
necessario scali con la luminosità
integrata. Fattore di scala 2009 vs
2008 = 5/2 (5 106 vs 2 106 sec). Per il
2008 si sono considerati 7 TBn a
gruppo Assumiamo di poter recuperare
per le attività 2009 metà dello spazio
disco utenti assegnato per il 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
33
Risorse Tier2 2009 - MC
Atlas prevede di simulare nel 2009 una frazione dei dati raccolti così definita:
 Full simulation: 20%  2 · 108 eventi
 Fast simulation: 45%  4.5 · 108 eventi
presentazione di G.
Polesello per i dettagli
Nel corso dell’anno si verificheranno le risorse effettivamente disponibili e si deciderà lo
sviluppo temporale delle simulazioni in maniera realistica.
La simulazione viene svolta anche nei Tier1 se le risorse sono disponibili. La strategia è di
dedicare le risorse del CNAF al reprocessing e massimizzare l’uso dei Tier2.
La ricostruzione dei dati MC prodotti nei Tier2 puà essere eseguita nei Tier2 stessi con
un leggere carico supplementare del DDM nella cloud. Tuning delle attività
Simulation time
kSI2k·s
Minimum Bias
300
QCD
700
W/Z, WH, Top
600
SuSy
1100
Higgs
700
B-physics
600
CSN1, Pisa 16 Settembre 2008
Simulazione @ Tier2
1.
2.
3.
2 versioni di AOD
5 versioni di DPD
Tier2 buffer per il MC
per 2 settimane
Storage = ~ 350 TBn
CPU = ~ 850 kSI2k
G. Carlino: Verso la presa dati. Il Computing di ATLAS
HITS = 4 MB
RDO = 2 MB
ESD = 1 MB
AOD = 0.2 MB
34
Risorse Tier2 2009 - riepilogo
Attività
CSN1, Pisa 16 Settembre 2008
CPU
Disco
(kSI2k)
(TBn)
LHC data taking
500
Cosmici
50
Simulazione
850
340
Utenti
1600
350
Totale
2450
1240
G. Carlino: Verso la presa dati. Il Computing di ATLAS
35
Risorse Tier2 2009- riepilogo
80000
CPU
Disco
(kSI2k)
(TBn)
Richieste ATLAS
2450
1240
Piano ATLAS
2351
1208
Piano Referee
2228
1304
2009
70000
80000
60000
70000
50000
60000
40000
50000
30000
40000
20000
30000
10000
20000
0
2007
2008
2009
2010
2011
2012
10000
1273,98 7502,064 12080,76 20141,53 28141,5 36141,47
Disk (TB)
0
2007
2008
2009
2010
2011
2012
2336
16843
23515
45202
59992
74783
CPU (kSI2k)
Disk (TB)
CPU (kSI2k)
Disk (TB)
CPU (kSI2k)
1273,98 7502,064 12080,76 20141,53 28141,5 36141,47
2336
ALICE
ATLAS
CMS
LHCb
Totale LHC
CSN1, Pisa 16 Settembre 2008
23515
45202
59992
74783
1273,98 7502,064 12080,76 20141,53 28141,5 36141,47
2336
Piano dei Tier2 nel 2007
Capacità integrata
2005
2006
2007
CPU
Disco
CPU
Disco
CPU
Disco
(kSi2k) (TB-N) (kSi2k) (TB-N) (kSi2k) (TB-N)
300
45
550
100
550
100
250
30
400
90
400
165
230
65
350
100
400
165
50
1
150
2
150
3
830
141
1450
292
1500
433
16843
16843
23515
45202
59992
74783
Settembre 2007
2008
2009
2010
CPU
Disco
CPU
Disco
CPU
Disco
(kSi2k) (TB-N) (kSi2k) (TB-N) (kSi2k) (TB-N)
1170
433
2204
897
4315
1441
1144
634
2228
1304
4361
2096
1489
511
2964
1033
5803
1661
600
3
900
3
1300
3
4403
1581
8295
3237
15778
5201
G. Carlino: Verso la presa dati. Il Computing di ATLAS
36
Risorse disponibili nei Tier2
CPU (kSI2k)
Disco (TBr)
Gen 08
Giu 08
Dic 08
Gen 08
Giu 08
Dic 08
LNF
101
169
169
48
63
63
Milano
214
343
424
84
140
251
Napoli
210
330
430
40
152
264
Roma
383
383
457
66
133
245
Tot
908
1225
1480
238
488
823
198 (TBn)
391 (TBn)
680 (TBn)
 Gen 08 indica le risorse acquisite nella seconda parte del 2007 con lo sblocco del sub
judice 2007, Giu 08 le risorse acquisite con lo sblocco del primo s.j. 2008 e Dic 2008
la stima delle risorse disponibili a fine anno con lo sblocco del secondo s.j. 2008
 Le risorse del secondo sblocco s.j. 2008 sono in fase di acquisizione
 Il valore dei TB netti riportato per Giugno 2008 è quello effettivo e non il semplice
TBr/1.2 come calcolato precedentemente.
 Sono stati escluse le risorse obsolete al Dic 08
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
37
Richieste 2009 – Tier2


Costi
CPU: 0.12 K€/kSI2k
Disco: 1.0 K€/TBn
CPU
kSI2k
Necessità attività 2009
Disco
K€
2450
K€
1240
Necessità attività 2008
200
Risorse a Dicembre 2008
Richieste 2009
TBn
1480
970
680
114
760
760
Determinazione delle necessità di storage
 Allo storage necessario per le nuove attività 2009 va sommato quello per
conservare i dati del 2008. Deve rimanere su disco:
 l’ultima versione degli AOD e dei DPD del 2008 per l’analisi = ~150 TB
 la metà dello spazio disco destinato agli utenti per il 2008 = ~ 50 TB
Suddivisione per sedi
 30% per i Tier2 approvati
 10% per il proto Tier2
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
38
Richieste 2009 – Tier2
Ulteriori richieste:
 Switch di rack
 Si prevede l’acquisto di switch 3Com dello stesso tipo già acquistato in tutti i
Tier2 per garantire la connessione a 10 Gbps tra i WN e lo Storage
 Nell’ipotesi di finanziamento da parte della CCR di un router centrale per i Tier2
prevediamo connessioni in fibra per ogni switch
 Nel caso il router non venisse finanziato nel 2009 sarà comunque possibile
connettere tra di loro gli switch con gli stessi moduli in fibra garantendo il
throughput
 4 switch acquistati nel 2008 a Mi, Na e Rm. 2 da acquistare a Na e Rm e 3 a Mi
nel 2009 in base ai rack che si prevede di occupare
 Moduli in fibra per 4 switch a Rm e 5 a Mi (moduli per 2 switch già
disponibili) e per 6 switch a Na
 2 switch per Frascati,
 connessione in rame a 10 Gbps tra il rack di WN e quello dei disk server, il
terzo rack contiene i dischi con i controller connessi in fibre channel ai disk
server
 Consumo
 Richiesta di 5 k€ per ogni Tier2
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
39
Conclusioni
 Il computing di Atlas ha mostrato un notevole grado di maturazione in molti
sue parti durante il commissioning. Alcune, come l’analisi distribuita, vanno però
testate in maniera più approfondita e utilizzate per tutte le applicazioni.
 Il 10 Settembre l’esperimento è stato in grado di acquisire immediatamente i
dati e, per quanto riguarda il computing off-line, di ricostruirli, replicarli con
efficienza nei Tier1 e nei Tier2 e analizzarli.
Considerazioni sui Tier2 italiani
 Affidabilità e robustezza
 Efficienza del 100% e velocità nel trasferimento dei dati dal CNAF 
garanzia di reperibilità dei dati per l’analisi
 la comprensione e l’utilizzo da parte degli utenti italiani dei tool di analisi
distribuita sono in crescita grazie al maggior confronto tra gli utenti stessi e la
comunità del computing
Considerazioni sul CNAF
 Il CCRC ha permesso di testare e debuggare in maniera significativa
l’hardware e il middleware del CNAF. I problemi evidenziati nei mesi scorsi
sembrano efficacemente superati e l’attività procede con continuità
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
40
Backup slides
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
41
Final Dress Rehearsal
Test dell’intero computing system, dall’on-line/trigger all’analisi distribuita, come se si trattasse
di dati reali per evidenziare i problemi che si potrebbero verificare durante il data taking
 Simulazione di 1 fill di presa dati
 4 Run di 1 hr a 1032 e 250 Hz, 1.5 pb-1, con configurazioni diverse, ripetuti più volte
 Dati MC pesati con le corrette sezioni d’urto
 Immissione dei dati nel TDAQ e running a partire dagli SFO
 Run della trigger simulation
 5 physics stream: mu, e/gamma, multijets, Bphys, minbias + Express stream e
calibrazioni
 Completo utilizzo del Tier-0
 merging, scrittura su tape, ricostruzione, calibrazione, validazione etc
 ricostruzione e validazione sulla ES per verificare la qualità dei dati.
 Test del “calibration loop”
 Bulk reconstruction sulle physics stream (anche DPD da ESD inizialmente)
 vari problemi di merging e ricostruzione evidenziati e risolti
 Esecuzione del Computing Model in maniera completa
 distribuzione dei dati e analisi distribuita
 Simulazione MC completa in parallelo
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
42
Final Dress Rehearsal
Tutte le analisi studiano preliminarmente la ricostruzione di Z
Di-m
invariant mass
Di-electron
invariant mass
Di-electron
invariant mass
CSN1, Pisa 16 Settembre 2008
eventi calibrati
eventi scalibrati
G. Carlino: Verso la presa dati. Il Computing di ATLAS
43
La Produzione MC
Uso dei pilot job da circa 6 mesi (tranne NDGF)
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
44
Produzione in Italia
Modifica del sistema di produzione nella cloud Italiana
Sottomissione con i Pilot Job
Utilizzo di PANDA, il tool usato per la produzione in OSG
 ultima cloud a “resistere” alla migrazione

Pilot job:
 sottomessione alla Grid di piccoli job (pilot job), praticamente equivalenti a
quelli da runnare
 invio attraverso un server centrale (Panda server) dei job reali ai pilot
 Sistema utilizzato solo per la produzione e non per l’analisi

Vantaggi:
 controllo maggiore sull’ordine di esecuzione dei job
 job con priorità maggiore vengono processati prima anche se arrivati dopo
 maggiore efficienza: non vengono inviati job verso nodi mal configurati. Solo il
pilot job muore
1.
2.
Installazione di un Panda Server al Cern
Attivazione di una pilot factory al CNAF che rimpiazza lo scheduler dei pilot con un
sistema più modulare interfacciato ai tool di LCG come WMS per la sottomissione
dei job (sviluppata soprattutto in Italia) e la Dashboard
Sistema operativo da aprile per la produzione MC e il reprocessing al CNAF
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
45
La Produzione MC
Attività a pieno carico
durante il CCRC-2 e FDR
(picchi di 16 kslots/day)
 Av. Job eff = 77% e Av.
Walltime eff: 86%
 Quota produzione LCG ~
65%

CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
46
Analysis Model (update)
ESD (Event Summary Data)
 contengono output dettagliato della ricostruzione
 permettono la particle ID, track-refitting, jet finding, calibrazioni
 (long term) target size = 500 kB/ev
 attualmente = 800 kB/ev + 200 kB/ev (MC truth)
AOD (Analysis Object Data)
 summary dell’evento ricostruito sufficiente per le analisi comuni
 permette ricostruzioni limitate (tracce, cluster)
 (long term) target size = 100 kB/ev
 attualmente = 200 kB/ev + 30 kB/ev per il MC
DPD (Derived Physics Data)
 versioni ridotte (skimming, slimmed, thinning) degli AOD
 Group Level o primary DPD (D1PD) versioni filtrate di AOD/ESD con container
selezionati solo per numerosi gruppi di analisi (prodotti ai Tier1)
 User level DPD: secondary DPD (D2PD) versioni filtrate di D1PD con UserData per
analisi individualie e tertiary DPD (D3PD) root file rinali contenenti histo/ntuple per la
pubblicazione (prodotti ai Tier2)
 target size di D1PD = 10 kB/ev (variazioni in base al canale fisico)
ESD/AOD/D1,2PD hanno lo stesso formato ROOT/POOL per cui leggebili sia da
Athena che da ROOT (usando la libreria AthenaRootAccess)
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
47
La rete dei Tier2
LAN Tier2 – situazione attuale
La connessione a 10 Gbps tra i rack è garantita da Switch 3Com stackable.
 Connessione in rame per distanze inferiori ai 3 m
 Connessione in fibra per distanze superiori (p.es. sale diverse)
La connessione con il Garr è a 1 Gbps, sufficiente per le esigenze attuali
1 Gbps
10 Gbps
Fibra
10 Gbps
Rame
RACK
m
Cluster di Rack 1
CSN1, Pisa 16 Settembre 2008
RACK
m+1
10 Gbps
Rame
RACK
n
RACK
n+1
Cluster di Rack 2
G. Carlino: Verso la presa dati. Il Computing di ATLAS
48
La rete dei Tier2
LAN Tier2 – situazione futura
Ogni rack sarà connesso a 10 Gbps verso un router centro stella del Tier2 connesso
direttamente a 10 Gbps verso il Garr.
 Gli switch di rack usati attualmente possono sempre impiegati anche nella nuova
configurazione comprando i moduli per le fibre dove mancano
 Tempi? Il gruppo NetArc della CCR sta studiando la fattibilità dell’upgrade
 Nel frattempo, anche se non si definisce l’acquisto del router centrale,
proponiamo l’acquisto degli switch necessari per i nuovi rack con i moduli in fibra
10 Gbps verso il GARR
10 Gbps
Fibra
RACK
m
Cluster di Rack 1
CSN1, Pisa 16 Settembre 2008
10 Gbps
Fibra
RACK
m+1
10 Gbps
Fibra
10 Gbps
Fibra
RACK
n
RACK
n+1
Cluster di Rack 2
G. Carlino: Verso la presa dati. Il Computing di ATLAS
49
Computing Shifts
 Definita la tipologia di shift necessari per seguire le operazioni di computing:
 On line trigger, DAQ
 Tier-0: Tier0 operations, first and second pass reconstruction della ES e bulk
reconstruction delle physics streams, registrazione dei dataset nei cataloghi centrali
 ADC@Point1: Data Export dal Tier0, Monitoring dei servizi centrali dell’ADC
 Produzione: Data Export dal Tier0 ai Tier1, Produzione MC, Reprocessing, Critical
Data Replications e servizi centrali. Shift Remoti
Gli Shift di produzione sono già
attivi dallo scorso anno, i Tier0
e ADC@Point1 sono svolti per
ora dagli esperiti per
finalizzare le procedure e i tool
e da settembre verranno svolti
da tutti i membri di Atlas
(all’inizio anche quando non c’è
data taking)
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
50
Attività in Italia
Controllo dello attività in Italia

Monitoraggio del funzionamento della cloud italiana
 Controllo del funzionamento dei Tier2 e del Tier1
 Controllo del funzionamento della attivita’ di computing in Italia
 Definita una check list comprendente la lista dei servizi dei siti e le pagine delle
dashboards che monitorano l’andamento di tutte le attivita: produzione,
trasferimenti etc…

Contributo di tutti i gruppi italiani. Organizzazione suddivisa in tre fasi
1. Controlli compiuti dalle persone del computing dei Tier2 e del Tier1 per
ottimizzare e debuggare l’attività, determinare le procedure da seguire in caso di
problemi e scrivere la documentazione (in fase di attuazione da settembre)
2. Estensione dei controlli anche agli utenti più esperti degli altri gruppi (a partire
dai run di fisica di ottobre)
3. Estensione a tutti gli utenti interessati a fare analisi dopo un opportuno training
(dal 2009)
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
51
Reliability e Availability dei Tier2
Jun-08
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
52
Risorse Tier2 2009 - MC
Strategia di simulazione:
1.
2.
3.
4.
5.
6.
7.
G4 Hits prodotti nei Tier2 e uploaded nei Tier1
Hits su T1D1
Digi, Pile-up e Reco al Tier1
20% di RDO su disco
AOD esportati agli altri Tier1 e ai Tier2 della cloud
AOD prodotti nelle altre cloud importati al Tier1 e esportati ai Tier2 della cloud
DPD primari prodotti dagli AOD al Tier1 e esportati ai Tier2 della cloud
Ricostruzione:
 Merging dei file di input (circa 10 RDO per job) al Tier1
 avviene soprattutto ai Tier1 perché richiede molti file di input da replicare ai Tier2
 I task vengono assegnati alla cloud, i job al Tier1 o ai Tier2 in base ad un criterio di
ranking che tiene conto del numero di slot disponibili, delle code e di un fattore di
peso, definito dalla cloud, che penalizza i Tier2 (maggiore è il peso peggiore è il rank
dei Tier2)
 Il tuning del peso permette di variare il rapporto reco/simu al Tier1 e ai Tier2
 In caso di necessità e di risorse disponibili possiamo aumentare il rapporto ai Tier2
Non consideriamo la ricostruzione per il calcolo delle risorse nei Tier2. Il processing
time è più breve di un ordine di grandezza
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
53
Risorse Tier2 2009 - cosmici
Cosmics data taking
 la raccolta di cosmici avverrà sicuramente nel
2009 quando LHC sarà inattivo.
 Al momento non è possibile stimare nè la quantità
di dati che verrà raccolta nè l’effettivo interesse per
gli stessi da parte degli italiani
Cosmics - Storage @ Tier2
1.
2.
RAW e ESD (replica per l’analisi dei dati inviati al
CNAF)
No AOD e DPD
Totale = ~ 50 TBn
Stima indicativa, da rivedere nel corso del 2009
CSN1, Pisa 16 Settembre 2008
M8, luglio 08
(circa 10 giorni)
 RAW = 94 TB
 ESD = 7 TB
 NTUP = 12 TB
G. Carlino: Verso la presa dati. Il Computing di ATLAS
54
Richieste 2009 – Tier2
Referaggio calcolo
 Suddivisione per sedi
 30% per i Tier2 approvati
Luglio 2008
 10% per il proto Tier2
 Riteniamo necessario il finanziamento di Frascati per il 2009 per
permettere al sito di partecipare alle attività di computing in maniera
significativa e di evidenziare la sua importanza nella cloud italiana
CPU
Disco
Switch
Consumo
kSI2k
K€
TBn
K€
K€
K€
LNF
100
12
80
80
8
5
Milano
290
35
230
230
22 + 25 sj
5
Napoli
290
35
230
230
22 + 25 sj
5
Roma
290
35
230
230
15 + 25 sj
5
Tot
970
117
770
770
67 + 75 sj
20
Piano temporale dei finanziamenti
 2/3 assegnati subito per permettere l’acquisizione delle risorse per Aprile
 1/3 s.j. da ridiscutere nel 2009 in base all’andamento del run del 2008 e la definizione
più realistica delle attività di LHC nel 2009
CSN1, Pisa 16 Settembre 2008
G. Carlino: Verso la presa dati. Il Computing di ATLAS
55