Il Computing di ATLAS
Gianpaolo Carlino
CSN1
Roma, 2 Luglio 2008
•
Il Computing Challenge
• I Tier2
• Attività e Risorse per il 2008
Attività di Commissioning del
Computing in ATLAS
CCRC08 – Fase 2 (maggio 2008)
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
2
Attività Computing ATLAS
ATLAS ha svolto un’intensa attività di test nel 2008 sia nell’ambito del
CCRC08 (combinato con gli altri esperimenti) che indipendentemente:
FDR e Pre CCRC08-2
 Febbraio 2008:
 FDR-1: simulazione dell’intera catena di software & computing
 CCRC08–1: test della distribuzione dei dati T0 T1  T2
 sosprattutto un test delle operazioni al Tier0, di funzionalità del sistema e di
installazione e configurazione di SRM 2.2 e canali FTS
 Esercizio molto utile per Atlas, metriche (di carattere qualitativo) rispettate
 Marzo-Aprile 2008:
 Pre CCRC08-2: test di computing preparatori per il CCRC08-2
 ripetizione test di funzionalità e configurazione canali Tier1 Tier1
 Maggio 2008
 CCRC08-2: test intensivo di DDM, T0 T1  T2 e T1  T1
 test di funzionalità e throughput
 metriche molto esigenti
 4 settimane di test con incremento graduale delle complessità dei test
 impossibilità a svolgere test di lunga durata; durante il weekend priorità per
cosmici e commissioning dei rivelatori.
 Giugno 2008
 FDR-2
 test delle procedure di validazione, ricostruzione e analisi distribuita dei dati
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
3
CCRC08 – Fase 2
Durata 4 settimane. Attività durante la settimana (mar-ven.) per consentire la presa dati
con i cosmici e il commissioning dei rivelatori nei fine settimana (attività prioritarie)
Week 1
Functional Test: Trasferimenti Tier0  Tier1s
Studio dell’efficienza del sistema di trasferimento dei dati
Week 2
Tier1-Tier1 Test: Trasferimenti Tier1  Tier1
Studio dell’efficienza del sistema di distribuzione dei dati prodotti nel reprocessing
(Tier1-Tier1 transfer matrix). Sottoscrizioni contemporanee !
18 TB corrispondente a 90 MBps di import rate per ogni Tier1 (superiore al rate nominale)
Week 3
Throughput Test: Trasferimenti Tier0  Tier1  Tier2
Simulazione dell’export dal Tier0 per 24h/day @ 200 Hz (150% del rate nominale)
Week 4
Full Exercise:
Trasferimenti contemporanei Tier0  Tier1  Tier2 e Tier1  Tier1
In aggiunta intensa simulazione ai Tier2 con aggiunta di trasferimenti ai Tier1
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
4
CCRC08 – Fase 2
Le Metriche stabilite con un crescendo di complessità nelle 4 settimane
Functional Tests
Replica completa al 90% dei dataset dal momento della sottoscrizione in
• 48h (week 1)
• 6h (week 4)
Tier1 – Tier1 Test
Per ogni canale (Tier1-Tier1 pair) il 90% dei dataset deve essere
completamente replicato in
• 52 h (week2)
• 6h, mantenendo il rate del reprocessing con il Tier1 gemello per tutta la
durata del test (al CNAF: 10 MBps di ESD e 20 MBps di AOD) (week 4)
Throughput Tests
Ogni sito deve essere in grado di sostenere
• il peak rate per almeno 24 ore e il nominal rate per 3 giorni (week 3)
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
5
CCRC08 – Fase2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
L
M
M
G
V
S
D
L
M
M
G
V
S
D
L
M
M
G
V
S
D
W
L
E
M
E
K
IV
Functional Test
CNAF
(97% complete)
Test superato da
tutti i Tier1 Atlas e
dal CNAF
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
6
CCRC08 - Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
L
M
M
G
V
S
D
M
M
G
V
S
D
L
M
M
G
V
S
D
L
E
M
K
IV
Tier1 – Tier1
Test
L
W
E
Attività concorrente con CMS sebbene non visualizzata in GridView!!!
I trasferimenti nei canali Tier1-Tier1 non erano ancora monitorati
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
7
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
L
M
M
G
V
S
D
L
M
M
G
V
S
D
L
M
M
G
V
S
L
E
M
K
IV
All days
All days (errors)
D
W
E
DAY1
Tier1 – Tier1
Test
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
8
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
L
M
G
V
S
0%
M
M
20%
G
V
S
D
40%
L
M
M
G
60%
V
S
D
E
M
IV
= Not Relevant
L
L
K
FROM
D
W
E
Frazione di dataset completati
M
80%
M
100%
G
V
S
TO
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
9
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
M
M
G
V
S
D
M
M
G
D
L
M
M
G
V
S
Problemi individuati:
 Alto carico sui server GridFTP dovuto a una non completa compatibilità
con i sever GPFS (file system usato da Storm): traffico in uscita dai
server doppio di quello in ingresso dovuto alla riscrittura dello stesso dato.
Ciò limita le efficienze e il traffico in ingresso.
D
E
M
IV
Al CNAF: bassa efficienza e throughput nell’import da molti siti !
Efficienza media 45% e throughput medio 40 MBps
V
S
L
K
Il test è stato superato dalla gran parte dei canali dei Tier1
 efficienze ~ 99% e picchi di throughput di 500 MBps (bulk of data,
16 TB, trasferito in sole 4 ore) in alcuni siti
L
W
E
Analisi dei Risultati:
L
M
G
V
Problemi parzialmente risolti alla fine della settimana:
Alta efficienza ma ancora basso throughput verificato in test successivi
durante il weekend.
S
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
10
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
L
Throughput Test
Data transfer complessivo
M
M
G
V
S
D
L
M
M
G
V
S
D
L
M
M
E
G
K
V
S
III
W
E
E
K
D
L
M
M
G
V
S
IV
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
11
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
L
M
M
G
PEAK
V
S
D
NOMINAL
L
M
M
G
V
S
D
L
M
M
E
G
K
V
ERRORS
S
III
W
E
E
K
D
L
M
M
G
V
S
IV
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
12
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
L
G
V
L
M
M
G
V
S
L
M
M
S
K
Total
BNL
79.63
218.98
298.61
IN2P3
47.78
79.63
127.41
SARA
47.78
79.63
127.41
RAL
31.85
59.72
91.57
FZK
31.85
59.72
91.57
CNAF
15.93
39.81
55.74
ASGC
15.93
39.81
55.74
PIC
15.93
39.81
55.74
NDGF
15.93
39.81
55.74
TRIUMF
15.93
39.81
55.74
Sum
318.5
696.8
1015.3
D
V
E
DISK
D
G
E
Rates(MB/s) TAPE
S
K
W
D
L
M
M
G
V
S
IV
Throughput
Test
M
E
III
Rate Attesi
M
CNAF share del 5%
corrispondente a 56 MBps
Test parzialmente superato
• Rate nominale raggiunto ma non
superato in caso di backlog
determinato da periodi di
inefficienze alla sorgente o alla
destinazione.
• Non si riusciva ad “accelerare” i
trasferimenti.
Problema causato da un
banalissimo errore di installazione
di un nuovo pool di storage in cui
venivano scritti i dati del test da
parte degli installatori
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
13
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
W
E
E
K
IV
Tier0  Tier1
L
M
M
G
V
S
Test di backlog recovery
Primi dati generati in 12 ore
e sottoscritti in bulk
D
L
M
M
G
V
S
12h di backlog
recuperati in 90 minuti
in tutti i siti!
D
L
M
M
G
Risolti problemi di
throughput per
trasferimenti dal Tier0:
~ 200 MBps per 2h
V
S
D
L
M
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
14
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
W
E
E
K
IV
L
M
M
Expected Rate
G
V
Trasferimenti
complessivi
S
D
Blocco trasferimenti
per 12 h il 27
L
M
M
G
Power-cut il 30
V
S
D
L
M
M
G
V
S
D
L
M
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
15
CCRC08 – Fase 2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
W
E
E
K
IV
L
Tier1 - Tier1 transfer matrix
M
M
G
V
S
YELLOW boxes
Effetto del power-cut
DARK GREEN boxes
Double Registration problem
D
L
M
M
G
V
S
D
L
M
M
G
V
S
D
L
M
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
Grande miglioramento rispetto a Week2
G. Carlino: Il Computing di ATLAS
16
CCRC08 – Fase 2
Considerazioni finali sul CCRC
 Il sistema di distribuzione dei dati era un item critico di Atlas. Preoccupazione negli
utenti (scarsa fiducia sulla possibilità di reperire i dati con velocità ed efficienza). Il
commissioning di questo sistema ha focalizzato l’attenzione durante il CCRC.
 Grande collaboriazione tra il gruppo ADC e le clouds. Delocalizzazione delle attività
 Il giudizio finale è positivo: efficienze e throughput molto alti !
 È stato effettuto un debugging approfondito delle configurazioni di tutte le parti del
sistema testando, ben oltre gli use cases previsti per il data taking 2008, tutti i tipi di
trasferimenti previsti dal CM
 Al CNAF alcuni aspetti del sistema di storage non erano perfettamente compresi e i
testi effettuati in precedenza non erano stati sufficientemente accurati da evidenziarli.
 Operations e support: la stretta collaborazione tra esperimento e Tier1 ha permesso di
migliorare le strategie di supporto alle attività. Necessità di automatizzare le procedure di
controllo. Il sistema è ancora poco robusto e richiede attenzione continua.
 Vero problema per i prossimi mesi: IL DISCO!!! Il ritardo dell’acquisizione dei pledge
2008 mette l’esperimento in seria difficoltà. Necessità di spostare alcune attività e dati ai
Tier2.
Attività principali dei prossimi mesi: Reprocessing ai Tier1 e uso del tape
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
17
i Tier2
• partecipazione ai test CCRC e FDR-2
• utilizzo delle risorse
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
18
Attività di Computing nei Tier2
Partecipazione dei Tier2 italiani al CCRC e al FDR
 Il Computing Model di ATLAS prevede che i Tier2 “interagiscano”
essenzialmente con il Tier1 della propria cloud dei quali sono satelliti.
 pro: modello molto agile e poco caotico
 contro: il Tier1 è un single point of failure
 CCRC08 – Fase 2: test di distribuzione dei dati
 i Tier2 hanno partecipato al test replicando i dati trasmessi al CNAF dal
Tier0
 studio dell’efficienza dei trasferimenti
 studio del timing dei trasferimenti
 FDR: test dell’intera catena di computing e in particolare, per i
Tier2, del sistema di analisi distribuita
 studio dell’efficienza delle repliche dei dati necessari per l’analisi: AOD
e DPD
 studio della possibilità di accesso ai dati da parte degli utenti e
dell’utilizzo dei tool di analisi distribuita
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
19
CCRC08 – Fase 2. I Tier2
W
E
E
K
I
W
E
E
K
II
W
E
E
K
III
W
E
E
K
IV
L
M
Tier0  Tier1  Tier2
Oversubscription a Na e Rm: 100% AOD
M
G
V
S
D
L
M
M
G
V
S
D
L
M
M
G

Files
LNF
86
169
100%
2.64
MI
88
180
100%
2.88
NA
395
794
100%
12,02
RM
395
794
100%
12,02
S
D
L
M
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
Thr.

Dataset
V
G. Carlino: Il Computing di ATLAS
Eff
MB/s
20
CCRC08 – Fase 2. I Tier2
E
E
K
I
W
E
E
K
II
W
E
E
K
III
W
E
E
K
IV
M
Throughput: Time structure nei trasferimenti.
I Dataset vengono sottoscritti dopo che la replica completa al Tier1, ogni 4h.
M
MB/s
W
L
G
V
S
D
L
M
M
G
V
S
D
L
I Tier2 acquisiscono i dati molto velocemente: max 1.5h dalla richiesta di
sottoscrizione e max 0.5h per completare un dataset
M
M
G
V
S
D
L
M
M
G
V
S
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
21
CCRC08 – Fase 2. I Tier2
E
E
K
I
W
E
E
K
II
W
E
M
M
G
V
S
D
L
M
M
G
V
S
D
L
M
M
E
G
K
V
S
III
W
E
E
K
Affidabilità del Tier2: Recupero immediato del backlog
• Esempio: interruzione dei trasferimenti a NA per la scadenza del
certificato del DPM.
• Recupero dei dati in 30 min con un throughput di 100 MBps
D
Errori
W
L
L
M
M
G
V
S
IV
D
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
22
Final Dress Rehearsal
Lo scopo è testare l’intero computing system come se si trattasse di dati reali per
trovare in tempo i problemi che si potrebbero verificare durante il data taking
Esercizio completo dell’intera catena, dall’on-line/trigger all’analisi distribuita,
per integrare i test svolti fino ad ora in modo indipendente:
 Simulazione di 1 fill di presa dati
 4 Run di 1 hr a 1032 e 250 Hz, 350 nb-1, con configurazioni diverse, ripetuti più volte
 Dati MC pesati con le corrette sezioni d’urto
 Immissione dei dati nel TDAQ e running a partire dagli SFO
 5 physics stream: mu, e/gamma, multijets, Bphys, minbias + Express stream e
calibrazioni
 Completo utilizzo del Tier-0
 merging, scrittura su tape, ricostruzione, calibrazione, validazione etc
 i dati vengono ricostruiti e validati sulla ES per verificare la qualità dei dati. Meeting
di sign-off alle 4 pm per autorizzare la replica dei dati
 Bulk reconstruction sulle physics stream
 vari problemi di merging e ricostruzione,
 Esecuzione del Computing Model in maniera completa
 distribuzione dei dati e analisi distribuita
 Simulazione MC completa in parallelo
 running ai Tier-2, trasferimento dati e ricostruzione ai Tier-1
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
23
Final Dress Rehearsal
Distribuzione dei dati:
 Dati correttamente
ricostruiti pronti solo il
15-6 e trasferiti ai Tier1
e Tier2
 Richiesti 100% AOD e
DPD a NA e RM, 25% a
MI e LNF
 Efficienza 100%
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
24
Final Dress Rehearsal
Analisi nei Tier2:
 Utilizzo esclusivo dei Tier2 italiani
 Test di accesso ai dati e running dei job di analisi con Ganga
 contributo fondamentale degli utenti italiani per debuggare Ganga e renderlo
utilizzabile su dpm (primo srm ad essere funzionante con le nuove release)
 possibilità di definire i siti o la cloud sui cui runnare
 soddisfazione degli utenti per la facilità e la velocità di utilizzo dopo il primo periodo
di training e configurazione.
 max 2h tra l’invio dei job, il recupero dell’output e l’analisi locale, nonostante la forte
competizione con la produzione MC
 efficienza dei job > 95%
 Strategie di analisi:
produzione in grid di DPD di gruppo o utente con i DPDMaker dagli AOD e DPD primari
prodotti centralmente
 analisi dei DPD localmente nei Tier2 di riferimento (ARANA)
 Gruppi di analisi coinvolti
 Susy, Top, Higgs, MS, Minimum Bias, Trigger
 Analisi preliminari
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
25
Final Dress Rehearsal
Analisi del trigger nella muon stream:
Trigger
decision
@ EF
minbias
m10
jets
m20
m6 + Bphy
t25i
+
m40
m10
2m(10)(4)(6)
L1
L2
LVL1 selection
barrel + endcaps
EF
totalE
+
EtMiss
offline muon
(Muid)
MU6
MU10
MU11
MU20
MU40
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
muon pT (MeV)
26
Final Dress Rehearsal
Tutte le analisi studiano preliminarmente la ricostruzione di Z
Di-m
invariant mass
Di-electron
invariant mass
Di-electron
invariant mass
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
eventi calibrati
eventi scalibrati
27
Final Dress Rehearsal
Opposite Sign
(OS) e Same Sign (SS) dileptons
J/y
J/y
Y
Mmm(MeV) Z
Mmm(MeV)
Y
Z
Mmm(MeV)
Mmm(MeV)
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
28
Final Dress Rehearsal
Analisi Susy nella stream e/gamma
ETMISS
PT 1ST jet
muon pT (MeV)
GeV/c
Lepton-neutrino
transverse mass
CSN1, Roma 2 Luglio 2008
GeV
G. Carlino: Il Computing di ATLAS
29
Final Dress Rehearsal
Molteplicità di particelle cariche nella stream Minimum Bias
Etmiss Etsum
nella stream
e/gamma:
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
30
Stream di calibrazione dei m
100 Mm/day
40 Mm/day
Calibration center
CERN
 Stream dal LVL2 (10 kHz). Distribuzione in Italia a Roma, sito ufficiale per la
calibrazione degli MDT, e a Napoli per l’analisi, off-line, degli RPC


Canali FTS dedicati con il Tier0 per diminuire la latenza (non appesantisce la banda passante)
100 M ev/giorno, Event Size = 1 kB, Max bandwidth = 10 MBps


Spazio disco: 3 TB nel 2008 e 10 TB nel 2009
CPU: ~150 kSI2k
 Calibrazione entro 24h dalla presa dati
 Accesso e scrittura su DB Oracle. Replica del DB al Cern
 Risorse necessarie:
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
31
Stream di calibrazione dei m
FDR:
 43 M eventi analizzati al giorno
(equivalenti a 6h di presa dati al
giorno)
 Durata del test: 3 giorni
Distribuzione dei dati:


Trasferimento rapidissimo
 Pochi minuti dalla registrazione in DDM
Lunghi tempi di attesa per le registrazioni dei
file nei cataloghi
 Problemi con i cataloghi centrali ora
risolti
 Ritardo nelle registrazioni fino a 5h
 Soluzioni in fase di implementazione
Processamento dei dati:



Splitting dei dati e produzione di ntuple max
2h dopo il completamento dei dataset
Calibrazione dalle ntuple max 3h
Filling del DB locale e replica al Cern
Replica dei dati:

Replica in linea dei dati al Tier0
I dati arrivati sono stati processati e i risultati
trasmessi al Cern entro il termine di 24h a partire
dalla presa dati.
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
32
Sistema di benchmark
La suite di benchmark di ATLAS
 Definizione di un sistema di benchmark per ATLAS basato
sull’esecuzione delle applicazioni del software di esperimento
 Misura realistica della CPU utilizzata attraverso l’utilizzo di task reali
 Possibilità di utilizzare questo benchmark per la determinazione dei
processori più adatti da acquistare
 Basato su una infrastruttura già esistente, potenziata per raccogliere le
informazioni di benchmark e presentarle in modo interattivo agli utenti
 Kit Validation

sviluppato per validare le installazioni del software (installazioni Grid e utente)

Invia i risultati dei test (informazioni sulle macchine: CPU type, CPU speed,
Memory size …) a un Web service
 Global Kit Validation portal
 I risultati dei test sono ottenuti effettuando un parsing dinamico dei
logfile
 I tempi di processamento sono ottenuti dai servizi del framework di ATLAS
 I test vengono effettuati tramite uno script che installa le release del
software di ATLAS ed è in grado di inviare più test concorrenti (utile
per test su macchine multi-CPU e multi-core)
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
33
Sistema di benchmark
 Applicazioni eseguite: Generazione, Simulazione, Digitizzazione e Ricostruzione.
 Si determina il power factor di vari processori confrontando i tempi di esecuzione
rispetto ad una macchina di riferimento
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
34
i Tier2
• partecipazione ai test CCRC e FDR-2
• utilizzo delle risorse
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
35
Reliability e Availability dei Tier2
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
36
Tier-2 Napoli
Tier2 Napoli - Wall Time
Altre VO
Utilizzo Risorse
ATLAS
160
2008
140
120
Usage (d)
100
80
60 core (fino al 21-3)
60
72 core (fino 3-6)
40
160 core
20
0
1/1
0/ 0
7
1/9
/0 7
1/1
1/ 0
7
1/1
2/ 0
7
1/1
/0 8
1/2
/0 8
1/3
/0 8
1/4
/0 8
1/5
/0 8
1/6
/0 8
Tier2 Napoli - Wall Time
Altre VO
ATLAS
100
90
80
Usage (%)
70
60
50
40
30
20
10
0
1/9
/0 7
CSN1, Roma 2 Luglio 2008
1/1
0/ 0
7
1/1
1/ 0
7
1/1
2/ 0
7
1/1
/0 8
1/2
/0 8
1/3
/0 8
1/4
/0 8
G. Carlino: Il Computing di ATLAS IV – Test e Commissioning
1/5
/0 8
1/6
/0 8
37
Tier-2 Roma I
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS IV – Test e Commissioning
38
I Tier2 Italiani
Considerazioni sui Tier2 italiani
 Affidabilità e robustezza
 Efficienza del 100% e velocità nel trasferimento dei dati dal CNAF 
garanzia di reperibilità dei dati per l’analisi
 I momenti di bassa attività sono legati soprattutto al rallentamento delle
attività dell’esperimento o a problemi nei servizi della cloud
 l’utilizzo da parte degli utenti italiani per l’analisi distribuita è in
significativa crescita
 Qualche difficoltà si è avuta nel passato negli upgrade del middleware. Per il
CCRC:
 SRM: passaggio alla v2.2 senza difficoltà
 SLC4: nessun problema nell’upgrade dei WN e dei server DPM
SRM:
 DPM estremamente affidabile e facile da gestire
 STORM, dubbi sul futuro del supporto e la capacità di scalare di DPM
(verificata in atlas almeno fino a 100 TB) consigliano di testarlo anche nei Tier2
 Test di STORM al Tier2 di Milano
 Tutorial al CNAF il 2 e 3 luglio con gli sviluppatori di STORM e gli esperti
di GPFS
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
39
Risorse nei Tier2 e
Richieste 2008
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
40
Risorse necessarie - dati
 LHC data taking
 50.000 sec @ 200 Hz  107 eventi/giorno
con 14h di data taking
 3·106 sec (6·108 eventi), corrispondenti a 2
mesi di data taking
 Stima rivedibile in seguito alla reale durata
della presa dati
 Cosmics data taking
 presa dati complementare a LHC
(~ 10 settimane)
 fino ad ora dati trasferiti al Tier1
su disco e on demand ai Tier2 ma
analisi su Castor soprattutto.
 Messa a punto recente di Ganga per
runnare sui RAW data su pressione
italiana  Analisi solo sui Tier2 (No
Tier1!!)
LHC - Storage @ Tier2
1.
2.
3.
4.
2 versioni complete di AOD
5 versioni di DPD primari
Frazione di RAW (metà della quota
CNAF del 5%)
Frazione di ESD (metà della quota
CNAF del 10%)
Totale = ~350 TBn
Cosmics - Storage @ Tier2
1.
2.
RAW e ESD (replica per l’analisi
dei dati inviati al CNAF)
No AOD e DPD
Totale = ~80 TBn
3. e 4. per studi di performance dei rivelatori
RAW = 1.6 MB - AOD = 0.2 MB
ESD = 1 MB
- DPD = 0.02 MB
CSN1, Roma 2 Luglio 2008
Stima effettutata in base ai dati raccolti nelle
week M6 e M7 supponendo circa il 10% in italia
G. Carlino: Il Computing di ATLAS
41
Risorse necessarie - Analisi
Uso delle risorse per gli utenti italiani
Bisogna trovare un modo per garantire l’uso delle risorse dei Tier-2 italiani alla
comunità italiana impedendo che le attività centrali di ATLAS o gli utenti non italiani le
usino in maniera predominante
1. Creazione di un gruppo atlas/it a livello di VO
Gennaio 08
2. Job Priority Mechanism:
• definizione di quote dedicate per le varie attività (p.es. produzione 50% e analisi 50%)
e i vari gruppi (atlas e atlas/it)
3. Fair-Share Mechanism per ottimizzare l’uso delle risorse
• bilanciamento temporale dell’uso delle risorse per impedire che rimangano inutilizzate
quando non viene utilizzata completamente la quota dedicata ad una precisa attività o a
un gruppo
Stato attule:
CPU: Il gruppo atlas/it è stato creato e sarà operativo nei prossimi giorni perché si è
attesa un unpgrade del WMS per la pubblicazione del sistema di priorità dei job
nell’information system. È ora possibile inserire il gruppo italiano nel sistema
fornendogli i privilegi nell’uso delle risorse dei Tier2
Disco: Spazio disco dedicato agli utenti italiani (Local Group Disk)
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
42
Risorse necessarie - Analisi
 Analisi nei Tier2
 analisi caotica da parte degli utenti
 produzione di DDPn
 analisi di gruppo: prevista al Tier1. Utilizzo delle risorse dei Tier2
anche per analisi di gruppo
 presenza importante di italiani nei gruppi di fisica
 replica completa di AOD e DPD nei Tier2
Stato attuale:
 fino al 2007 uso marginale dei Tier2 per l’analisi
distribuita (ampia attività locale)
 grande collaborazione della comunità italiana con gli
sviluppatori per aumentare la semplicità di utilizzo,
l’efficienza, l’individuazione dei siti sui cui runnare con
GANGA
 risoluzione di problemi tecnici:
 accesso allo storage con srm Storm e DPM
 accesso ai RAW data e alla stream di calibrazione
 FDR: partecipazione di molti gruppi italiani
13 gruppi (Higgs, SUSY, MS, Top, Tau, Etmiss, Trigger)
 analisi nei Tier2 e uso di GANGA
 Alta efficienza (>95%), velocità di esecuzione e recupero
degli output
CSN1, Roma 2 Luglio 2008
Utenti @ Tier2
1.
2.
3.
gruppi di analisi: 13
Disco per gruppo: ~7 TBn
CPU per gruppo: ~80 kSI2k
Totale = 100 TBn
e 1000 kSI2k
La stima delle risorse necessarie per gli
utenti espresse in termini di numero di
gruppi di analisi piuttosto che di numero
di utenti appare piu’ realistica
G. Carlino: Il Computing di ATLAS
43
Risorse necessarie - MC
June-Sept 08
10 TeV
Sept-Dec 08
10 TeV
Dec-Mar 09
14 TeV
total
Geant4
20M
25M
25M
70M
ATLFAST
70M
70M
70M
210M
total
90M
95M
95M
280M
Il piano di produzione MC si basa sulla disponibilità delle risorse. Non tutte le nazioni
hanno soddisfatto i pledges ai Tier1 e Tier2. Spostare la produzione quasi totalmente ai
Tier2 per dedicare le risorse del CNAF soprattutto al reprocessing
Simulazione @ Tier2
Simulation time
kSI2k·s
Minimum Bias
300
1.
QCD
700
3.
W/Z, WH, Top
600
SuSy
1100
Higgs
700
B-physics
600
CSN1, Roma 2 Luglio 2008
2.
2 versioni di AOD
5 versioni di DPD
Tier2 buffer per il MC
per 2 settimane
Storage = ~ 150 TBn
CPU = ~ 500 kSI2k
G. Carlino: Il Computing di ATLAS
HITS = 4 MB
RDO = 2 MB
ESD = 1 MB
AOD = 0.2 MB
44
Risorse necessarie - riepilogo
Attività
CSN1, Roma 2 Luglio 2008
CPU
Disco
(kSI2k)
(TBn)
LHC data taking
350
Cosmics data taking
80
Simulazione
500
150
Utenti
1000
100
Totale
1500
680
G. Carlino: Il Computing di ATLAS
45
Risorse disponibili nei Tier2
CPU (kSI2k)
Disco (TBr)
Sep 07
Gen 08
Giu 08
Sep 07
Gen 08
Giu 08
LNF
41
101
169
16
48
63
Milano
128
214
343
34
84
140
Napoli
112
210
330
40
40
152
Roma
156
383
383
30
66
133
Tot
437
908
1225
120
238
488
100 (TBn)
198 (TBn)
407 (TBn)
 Sep 07 indica le risorse disponibili nella prima parte del 2007, Gen 08 indica le
risorse acquisite nella seconda parte del 2007 con lo sblocco del sub judice 2007,
Giu 08 indica le risorse acquisite o in fase di acquisizione con lo sblocco del primo
sub judice 2008
 1 CInt06_Rate = 0,2 kSI2k - 1 kSI2k = 5 CInt06_Rate
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
46
Richieste 2008
Costi
CPU: 0.16 K€/kSI2k
Disco: 1.1 K€/TBn
(kSI2k)
Nuove necessità 2008
1500
Risorse a Giugno 2008
1225
hp1
Richieste
300
50
hp2
Richieste
300
50


CPU
Disco
K€
Totale
TBn
K€
K€
470
520
570
300
330
380
680
200 (occupato)
210 (disponibile)
 Gli ultimi acquisti di storage sono in fase di installazione, vanno quindi considerati
totalmente disponibili per le nuove attività e sottratti alle richieste
 hp1 : richiesta della totalità dello storage necessario = 470 TBn


Si eccede il budget potenzialmente disponibile per Atlas (metà della tasca indivisa)
L’esperimento richiede che una parte delle risorse disponibili per il computing venga
destinata per l’acquisto di spare PS degli MDT
 hp2: richiesta di una frazione dello storage necessario = 300 TBn



Liberazione di gran parte dello spazio disco attualmente disponibile cancellando
gradualmente i dati attuali e conservando solo cosmici e dati FDR utili per l’analisi
La quota di 300 TBn corrisponde precisamente all’acquisto nei Tier2 di Mi, Na e RM1 di un
sistema di storage di 110 TBr e 4 disk server, simile a quello appena acquistato
Margine per la richiesta di 100 k€ per gli spare PS degli MDT
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
47
Backup slides
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
48
Attività Computing ATLAS
~PB/s
Event Builder
10 GB/s
Event Filter
320 MB/s
Tier0
L’attività “sul campo” ha permesse di definire meglio molti
aspetti del Computing Model
 Attività nei Tier
 Tier0: Prompt Reconstruction
 Tier1: Reprocessing e Group Analysis
 parte significativa della Group Analysis puà essere spostata
nei Tier2 in caso di necessità
 Tier2: Simulazione, Group e User Analysis
Tier1
Tier2
 Definizione dei sistemi di storage
 Pool di Storage per le specifiche attività
 lo spazio da assegnare ad ogni pool dovrà essere definito con
precisione durante il periodo di data taking
 Flussi di dati
Tier3
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
49
All other T1’s
TAPE
Pile-up
digitization
reconstruction
H
I
TMC
DPD1
AOD
DPD1
making
DPD2
MC
DISK
DPD1
TAPE
HITS
ESD
AOD
CPUs
CPUs
CPUs
CPUs
AOD
GROUP
DISK
AOD
HITS
RDO
ESD
AOD
DPD1
AOD
HITS
HITS from
G4
@Tier-1
DPD
AOD from
ATLFAST
@Tier-2
AOD
HITS from
G4
MC
Buffer
HITS from
G4
DPD1
DPD2
EVNT
PROD
DISK
EVNT
AOD
AOD from
ATLFAST
MC
DISK
GROUP
DISK
AOD
DPD
AOD from
ATLFAST
CPUs
CPUs
CPUs
CPUs
LOCAL
GROUPDISK
G4 / ATLFAST
Simulation
CSN1, Roma 2 Luglio 2008
DPD
User files
(IT)
USERDISK
DPD
User analysis
User files
(Atlas)
G. Carlino: Il Computing di ATLAS
CPUs
CPUs
CPUs
CPUs
50
TAPE
STAGED
ISK
RAW
re-processing
H
I
T
DATATA
All other T1’s
AOD
RAW
ESD
DPD
DPD
RAW
PE
RAW
AOD
DPD making
AOD
CPUs
CPUs
CPUs
CPUs
DATADISK
GROUP
DISK
AOD
ESD
AOD
RAW
RAW
ESD
AOD
DPD
AOD
@Tier-1
RAW
ESD
DPD
RAW
AOD
t0atlas
@Tier-0
ESD
DATADI
SK
RAW
RAW
On request
AOD
LOCAL
GROUPDISK
DPD
User files
(IT)
CSN1, Roma 2 Luglio 2008
@Tier-2
USERDISK
DPD
User files
(Atlas)
User
analysis
CPUs
CPUs
CPUs
CPUs
G. Carlino: Il Computing di ATLAS
GROUP
DISK
Group analysis
DPD
51
CCRC08 – Fase 2
Fake data generati al Tier0 con il Load
Generator e trasmessi ai Tier1 e Tier2 in
base
• al tipo di esercizio da svolgere
• lo share della cloud
• il MoU
File da 300 MB e 3 GB in
accordo con le dimensioni
dei file reali
T0
T1
T1
15% ESD, 15% AOD
10% ESD, 10% AOD
Dati cancellati solo alla
fine dell CCRC
T2
CSN1, Roma 2 Luglio 2008
T2
G. Carlino: Il Computing di ATLAS
T2
T2
52
Il Tier-2 di Milano
La



Sala Macchine e gli spazi per il Tier-2
8 Rack per ATLAS, 5 parzialmente occupati
4 rack (2 per ogni sala) connessi con fibra a 10 Gbps
Spazio e risorse per altri rack eventualmente necessari
LOCALE
NON
DISPONIBILE
ZONA DI
PERTINENZA
TIER 2
CSN1, Roma 2 Luglio 2008
LOCALE
UPS E
QUADRO
PARALLELO
CENTRALE
TERMICA
ZONA DI
PERTINENZA
TIER 2
LOCALE
IN FASE
DI ALL.
ZONA DI
PERTINENZA
TIER 2
G. Carlino: Il Computing di ATLAS
53
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
07/06/2008
24/05/2008
10/05/2008
26/04/2008
12/04/2008
29/03/2008
15/03/2008
01/03/2008
16/02/2008
02/02/2008
2008
19/01/2008
Utilizzo Risorse
05/01/2008
22/12/2007
08/12/2007
24/11/2007
10/11/2007
27/10/2007
13/10/2007
29/09/2007
15/09/2007
01/09/2007
Usage (%)
Tier-2 Milano
Tier2 Milano Wall Time
Altre VO
Atlas
100
90
80
70
60
50
40
30
20
10
0
54
Tier-2 Milano
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
55
Il Tier-2 di Napoli
La strategia è di
suddividere il Tier2 nelle
due sale con connessioni
dirette a 10 Gbps
Sala ATLAS INFN
 Superficie 44 m2
4 Rack installati attualmente:
 Connessione tra i rack a 10 Gbps con
switch in cascata
Espansione fino a 10 Rack
 Impianti dimensionati per tale capacità
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
56
Il Tier-2 di Napoli
Sala PON SCoPE
 Superficie 120 m2
 Capacità 120 Rack. 10 Tier-2 a disposizione del Tier-2
 Il Tier-2 di ATLAS verrà ospitato in questa struttura usufruendo di
tutte le facilities di monitoraggio e intervento previste dal progetto
 In fase di installazione una connessione di rete costituita da 6 coppie
di fibre monomodali a 10 Gbps tra la sala SCoPE e il Tier2
 Stato di avanzamento dei
lavori (Giugno 2008)
 Disponibilità autunno 2008
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
57
Tier-2 Napoli
CPU - WALL Time Ratio
ATLAS
Utilizzo Risorse
100
90
80
2008
70
(%)
60
50
40
Miglioramento del
30
20
rapporto CPU/Wall Time
10
08
01
/0
6/
20
08
01
/0
5/
20
08
01
/0
4/
20
08
01
/0
3/
20
08
01
/0
2/
20
08
01
/0
1/
20
07
01
/1
2/
20
07
01
/1
1/
20
07
01
/1
0/
20
01
/0
9/
20
07
0
Tier2 Napoli - CPU Time
Altre VO
ATLAS
100
90
80
Usage
70
60
50
40
30
20
10
0
1/9
/0 7
1/1
0/ 0
7
CSN1, Roma 2 Luglio 2008
1/1
1/ 0
7
1/1
2/ 0
7
1/1
/0 8
1/2
/0 8
1/3
/0 8
G. Carlino: Il Computing di ATLAS
1/4
/0 8
1/5
/0 8
1/6
/0 8
58
Tier-2 Napoli
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
59
Tier-2 Roma I
Utilizzo Risorse
2008
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
60
Il proto Tier-2 di Frascati
 La sala che ospita attualmente il proto-Tier2 è situata al pian terreno di un edificio
a due piani che ospita il servizio di calcolo dei LNF, una libreria a nastro
dell’esperimento Kloe, il sistema informativo dell’INFN ed il POP GARR dell’area di
Frascati
 Superficie 97 m2.
 Il Tier-2 occupa attualmente due rack e può essere espanso con altri tre rack
 Può ospitare tranquillamente tutte le risorse previste per il 2008
Altri
experim
Sistema
Informativ
o
CALCOLO
Tier 2
Nastri
utenti
CSN1, Roma 2 Luglio 2008
Kloe
Garr
G. Carlino: Il Computing di ATLAS
61
Proto Tier-2 Frascati
Wall time
Utilizzo Risorse
Usage (%)
2008
CPU Time
120.00
100.00
80.00
Usage (%)
60.00
CSN1, Roma 2 Luglio 2008
40.00
Atlas
20.00
Altre VO
0.00
G. Carlino: Il Computing di ATLAS
62
Proto Tier-2 Frascati
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
63
Attività di Computing in Italia
• Nuovo sistema di produzione
• Benchmarking CPU
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
64
Produzione in Italia
Modifica del sistema di produzione nella cloud Italiana
Sottomissione con i Pilot Job
Utilizzo di PANDA, il tool usato per la produzione in OSG
 ultima cloud a “resistere” alla migrazione

Pilot job:
 sottomessione alla Grid di piccoli job (pilot job), praticamente equivalenti a
quelli da runnare
 invio attraverso un server centrale (Panda server) dei job reali ai pilot
 Sistema utilizzato solo per la produzione e non per l’analisi

Vantaggi:
 controllo maggiore sull’ordine di esecuzione dei job
 job con priorità maggiore vengono processati prima anche se arrivati dopo
 maggiore efficienza: non vengono inviati job verso nodi mal configurati. Solo il
pilot job muore
1.
2.
Installazione di un Panda Server al Cern
Attivazione di una pilot factory al CNAF che rimpiazza lo scheduler dei pilot con un
sistema più modulare interfacciato ai tool di LCG come WMS per la sottomissione
dei job (sviluppata soprattutto in Italia) e la Dashboard
Sistema operativo da aprile per la produzione MC e il reprocessing al CNAF
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
65
Produzione in Italia
Produzione in LCG
4,20%
4,20%
CNAF
LYON
RAL
FZK
TRIUMF
PIC
ASGC
SARA
NDGF
Dettaglio Produzione nelle tre griglie
grid
Success
failure
efficiency
LCG
3062205
1182560
72.1%
OSG
1559546
358364
81.3%
None
164476
254263
39.3%
Nordugrid
427524
45134
90.5%
total
5213751
1840321
73.9%
Quota produzione LCG ~ 65%
Produzione in Italia
BARI
CNAF
FRASCATI
LEGNARO
MILANO
NAPOLI
ROMA
17,97%
12,22%
48,91%
10,76%
4,64%
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
5,44%
66
Produzione in Italia
number of jobs
walltime
CSN1, Roma 2 Luglio 2008
grid
success
failure
efficiency
LCG
3062205
1182560
72.1%
OSG
1559546
358364
81.3%
None
164476
254263
39.3%
Nordugrid
427524
45134
90.5%
total
5213751
1840321
73.9%
G. Carlino: Il Computing di ATLAS
67
Sistema di benchmark
Test della memoria
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
68
Sistema di benchmark
Scaling tests (Intel 2 x dual-core)


CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
Tutti i task, eccetto per la
simulazione , peggiorano quando
si incrementa il numero di task
concorrenti nella stessa
macchina
Peggior valore a full load

-10.9% in ricostruzione
69
Sistema di benchmark
Scaling tests (AMD 2 x dual-core)


CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
Tutti i task, eccetto per la
simulazione , peggiorano quando
si incrementa il numero di task
concorrenti nella stessa
macchina
Peggior valore a full load

-3.5% in ricostruzione
70
Acquisti - Mercato Elettronico
Esperienze con il MEPA
Atlas ha effettuato nel 2008 acquisti in comune tra 3 Tier2 con il Mercato Elettronico
 Storage: gara con fatturazione separata
 Switch: gara con fatturazione unica a Na e consegna nelle varie sedi

Problemi con il grey market. Sarebbe utile chiarire le procedure nell’INFN
Esperienza:
 Difficoltà iniziale a comprendere le nuove regole del MEPA anche a causa di
conoscenze ancora non diffuse nell’ente
 Difficoltà a definire contemporaneamente la precisa quantità di materiale da
acquistare e il relativo prezzo massimo
 Richiede un’indagine di mercato molto accurata
 Rischio che le gare vadano deserte
 Ritardi dovuti all’arbitrarietà con cui la Consip annulla gare in corso
 Gara switch annullata per inserire nuovo categoria di metaprodotto




Facilità a definire metaprodotti anche complicati
Velocizzazione delle procedure
Aumento dei fornitori iscritti
Grande aiuto e disponibiltà da parte dell’amministrazione di Napoli
CSN1, Roma 2 Luglio 2008
G. Carlino: Il Computing di ATLAS
71