Analisi - Agenda INFN

annuncio pubblicitario
ATLAS: il Calcolo
Gianpaolo Carlino
INFN Napoli
Bari, 21 Settembre 2011
• Attività di Computing nel 2011
• Richieste Tier2 2012 –
discussione qualitativa
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
1
2011 LHC pp data taking
TB
Logical data
Lumonsità Integrata ~ 2.5 fb-1
Luminosità di picco = 2.37 x 1033 cm-2s-1
Bari, 21 Settembre 2011
Data in Italy
TB
TB
• Logical data: singola copia dei dati prodotti
• Physical data: insieme di tutte le copie prodotte
e replicate nelle cloud
G. Carlino – ATLAS: il calcolo
Physical data
2
Data export nella griglia
Export dal Tier0 ai Tier1
• RAW: 1 copia primaria (disco) + 1 copia
custodial (tape)
• ESD: 1 copia primaria e 1 copia secondaria
(su disco in siti diversi)
•AOD: 2 copie primarie + 1 copia secondaria
+copie secondarie ai Tier2 con il sistema
dinamico di replica
Significativa riduzione del numero di copie e
di formati di dati replicati nella griglia rispetto
agli anni passati
Suddivisione per attività:
• Data Brokering: replica dinamica dei dati
• Data Consolidation: pre-placement (T1-T1)
Efficienza trasferimento al primo tentativo: 93%
• 100% considerando i retries
Dati disponibili in tempo “quasi reale”:
• media trasferimento AOD dal Tier0 a un Tier1:
2.7 h per il completamento dei dataset
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
3
Data export nella griglia
ATLAS Cloud Model
Modello gerarchico basato sulla
topologia di rete di Monarc
Nel modello originale si tendeva a inviare
tutti i dati in ogni cloud
• Comunicazioni possibili:
• T0-T1
• T1-T1
• Intra-cloud T1-T2
• Comunicazioni vietate:
• Inter-cloud T1-T2
• Inter-cloud T2-T2
Limitazioni:
• Richiesta eccessiva di spazio disco:
impossibile fornire una replica di dati
per l’analisi ad ogni cloud
• Trasferimenti tra le cloud attraverso
salti multipli tra i Tier1
• User analysis outputs
• MC confinato nella cloud
• Tier2 non utilizzabili come repository
di dati primari
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
4
Data export nella griglia
ATLAS Cloud(less) Model
Breaking the Walls
Sviluppi del Computing Model
• La rete attuale permette il superamento del
modello a cloud: abilitazione delle
connessioni inter cloud tra Tier1 e Tier2
• Trasferimento dinamico dei dati nei Tier2
basato sulla popolarità dei dati (PD2P): solo i
dati effettivamente usati per l’analisi vengono
trasferiti
• storage nei Tier2 usato come cache:
cancellazione dei dati più vecchi o meno
popolari. Ottimizzazione spazio disco
• Introduzione dei Tier1 nel meccanismo
dinamico per compensare la diminuzione di
copie di dati nella griglia
• Superamento di una gerarchia stretta tra
Tier1 e Tier2
Classificazione dei Tier2 in base alle performance: efficienza e affidabilità per
l’analisi, velocità ed efficienza dei trasferimenti
• Non tutti i Tier2 sono uguali e ricevono la stessa quantità di dati (e quindi di job)
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
5
Tier2 Diretti
T2D – Tier2 “Directly Connected”
• Tier2 connessi direttamente tra di loro
a tutti i Tier1
• Storage per dati primari come i Tier1
• Preplacement di una quota di dati
• Group data
• Requirement molto stretti
• Metriche di trasferimento con tutti I Tier1
• Livello di commitment e relibility adeguato
Avg(Byterate)+StD(Byterate)
SMALL
<0.05MB/s
<0.1MB/s
≥0.1MB/s
MEDIUM
<1MB/s
<2MB/s
≥2MB/s
LARGE
<10MB/s
<15MB/s
≥15MB/s
T2D approvati nella prima fase:
INFN-NAPOLI- ATLAS, INFN-MILANO-ATLASC, INFN-ROMA1
IFIC-LCG2, IFAE, UAM-LCG2
GRIF-LPNHE, GRIF-LAL, TOKYO-LCG2
DESY-HH, DESY-ZN, LRZ-LMU, MPPMU
MWT2_UC,WT2, AGLT2,BU_ATLAS_Tier2, SWT2_CPB
UKI-LT2-QMUL, UKI-NORTHGRID-LANCS-HEP, UKI-NORTHGRID-MAN-HEP,
UKI-SCOTGRID-GLASGOW
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
Siti che faranno parte
da subito di LHCOne
6
Classificazione Tier2
4 Gruppi:
• Necessità di individuare i siti più affidabili per
• Alpha: (60% share): T2D con rel > 90%
l’analisi cui inviare la maggior parte dei dati.
• Bravo: (30% share): non T2D con rel> 90%
• Classificazione in base alle performance (stabilità) • Charlie: (10% share): 80% < rel < 90%
• Delta: (0% share): rel <80%
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
7
Running jobs nella griglia: Produzione
Ricostruzione (T1), Simulazione e Analisi di gruppo (produzione centralizzata di D3PD in
alcuni gruppi di fisica)
• > 60k job simultanei durante presa dati 2011 (riduzione agosto per problemi con G4)
• ~ 500k job completati
Numero medio di jobs di produzione running per cloud
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
8
Running jobs nella griglia: Analisi
Numero medio di jobs di analisi running per cloud
Aumento attività analisi di
gruppo:
• aumento della coordinazione
Minore caoticità e duplicazione
dei dati
• centralizzazione della
produzione: in molti casi
“accountata” come produzione
• utilizzo preferenziale di
formati leggeri (ntuple)
Ridotto incremento job di
analisi nel 2011
> 15k/20k job simultanei negli ultimi mesi
Buona efficienza per i job di analisi
• continuo aumento dell’affidabilità della
griglia attraverso l’esclusione automatica
dei siti non performanti
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
9
Workflow di analisi
Produzione
• produzione centralizzata di AOD e ESD nella prompt
reconstruction al Tier0 e nei reprocessing ai Tier1
• produzione centralizzata di Derived AOD e ESD
(DAOD e DESD) attaverso skimming e slimming
• produzione di gruppo “centralizzate” di ntuple e di
gruppi di utenti (D3PD e NTUP)
Workflow (principale) di analisi
• fase 1: skimming da AOD/ESD/D3PD e produzione
di ntuple D3PD o NTUP
• eseguito centralmente dai working group
• eseguito in Griglia
• output in GROUPDISK o LOCALGROUPDISK
• fase 2: skimming/slimming dei D3PD e produzione
di NTUP di (sotto)gruppo leggere
• eseguito da utenti o gruppi locali
• eseguito in Griglia
• output in LOCALGROUPDISK
• fase 3: analisi finale
• NTUP nei LOCALGROUPDISK dei Tier2/3
• eseguita in Griglia con PRUN
• o eseguita in locale con ROOT/PROOF
Bari, 21 Settembre 2011
RAW
AOD
ESD
DESD
DAOD
D3PD
NTUP
Utilizzo formati di analisi
• RAW utilizzati solo per la ricostruzione e
presenti solo nei Tier1
• ESD utilizzati solo per analisi di
performance e presenti solo nei Tier1
• AOD/D3PD/NTUP molto utilizzati
• DAOD e DESD utilizzo molto marginale,
formato in via di estinzione
G. Carlino – ATLAS: il calcolo
10
Utilizzo dei formati di dati
# utenti individuali che accedono alle code di analisi in ITALIA
• AOD e Ntuple formati nettamente preferiti
• evidente incremento negli ultimi mesi
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
11
Ruolo dei Tier2 nell’analisi
Attivita’ ultimi 3 mesi
(T1 dovrebbe essere 25%)
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
12
Utilizzo risorse in Italia - CNAF
CPU consumptions. Aprile – Settembre 2011
% utilizzo risorse rispetto alle
risorse pledged 2011 (non ancora
totalmente in produzione)
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
13
Utilizzo risorse in Italia
CPU consumptions. Marzo – Agosto 2011
6
INFN-FRASCATI
10
9
INFN-MILANO
IT
Efficienza job produzione
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
14
Analisi nei Tier2
Eff. job analisi
CPU consumptions. Giugno – Agosto 2011
Nota:
non abbiamo
ancora installato le
risorse 2011
7
IT
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
15
Sharing risorse nei Tier2
Job running su un Tier2
nell’ultimo mese:
• Produzione
• Analisi WMS
• Analisi Panda
• Analisi Panda ruolo italiano
Attenzione:
• Gli italiani vengono mappati sia su
panda che su panda/it
• Analisi di gruppo (p.es calibrazione)
risulta come produzione
• gli italiani con certificato CERN (non
pochi) vengono mappati su panda
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
16
Uso del disco nei Tier2
• Il sistema di replica dinamico dei dati PD2P già dal 2010
ha ottimizzato l’uso del disco dei Tier2 permettendo la
copia di dati sempre nuovi e interessanti.
• il nuovo meccanismo di brokering che include i Tier1 ha
inizialmente penalizzato pesantemente i Tier2 nel 2011:
uso ridotto dei del disco nel periodo maggio-luglio
• Inoltre, il formato più popolare e quindi trasferito è
NTUP, leggero!
Modifiche all’algoritmo da fine luglio con significativo
aumento, e utilizzo, dei dati trasferiti nei Tier2
• Circa 50 TB al mese di dati
principali per ogni Tier2
• Ulteriore aumento atteso
per pre-placement degli AOD
• Nessun rischio saturazione, i
dati sono secondari e quindi
cancellabili per copiarne di
nuovi. I Tier2 sono cache
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
17
Reliability & Availability – 2010/11
Valori medi 2011
Frascati
Milano
rel
ava
rel
ava
97%
96%
91%
91%
Napoli
Roma
rel
ava
rel
ava
94%
94%
98%
97%
Availability =
time_site_is_available/total_time
Reliability =
time_site_is_available/
(total_time-time_site_is_sched_down)
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
18
Accounting Tier2
Frascati
Milano
Problemi condizionamento in
agosto e allo storage non
dipendente dal sito
Napoli
Bari, 21 Settembre 2011
Roma1
G. Carlino – ATLAS: il calcolo
19
Richieste 2012 – discussione qualitativa
Modifica della stima delle risorse necessarie rispetto alle previsioni del 2010
a causa di:
o variazioni dell’attività di LHC: run 2012 e shut-down 2013 richiedono un
maggior numero di risorse per il computing
o pile-up molto più alto del previsto (μ=6 medio, atteso fino a μ=~25 in
autunno e nel 2012) provocato dall’aumento della densità dei fasci
 raddoppio delle dimensioni degli eventi e del tempo di ricostruzione:
è in corso un’attività di ottimizzazione che sta portando ad una
riduzione di questi parametri
Risorse 2011 già determinate per cui si è reso necessario modificare il CM, in
particolare riducendo il numero di repliche dei dati primari nelle cloud:
 1 copia di RAW nei Tier1
 rolling buffer del 10% di ESD nei Tier1
 10 copie di AOD (2 Tier1 e 8 Tier2) in tutte le cloud
 2 copie di dESD nei Tier1 e 4 nei Tier2
• somma dESD = somma AOD
in base a questo modello le risorse 2012 aumentano molto poco o nulla
rispetto all’RRB 2010
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
20
Richieste 2012 – discussione qualitativa
Differenziazione delle risorse:
• Risorse “pledged” dedicate alle attività centrali di ATLAS e gestite
dall’esperimento
• richieste formulate per garantire ai siti italiani lo share corrispondente
alle dimensioni della cloud italiana
• richieste determinate non in base al semplice share della cloud italiana
in ATLAS ma analizzando criticamente le reali necessità delle attività
previste nei Tier1 e Tier2 (dettagli nelle slides di backup)
• ricostruzione nei Tier1
• simulazione nei Tier1 e Tier2 (55/45%)
• analisi di gruppo soprattutto nei Tier1
• analisi di utenti nei Tier1 e Tier2
• share del disco più basso grazie all’uso ottimizzato
• Risorse “italiane” nei Tier2 e Tier3 dedicate esclusivamente alle attività di
analisi italiane. Necessarie o indispensabili per garantire competitività ai
nostri gruppi
• determinate con un’indagine sull’utilizzo attuale delle risorse ed
estrapolando alla statistica raccolta a fine 2012
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
21
Organizzazione Spazio Disco in ATLAS
Organizzazione spazio
disco per gli utenti in
ATLAS
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
22
Risorse per attività italiane
Storage: Necessità assoluta
Spazio disco locale (LOCALGROUP) nei Tier2 e Tier3 per ogni attività italiana.
ATLAS non considera nessuna area di storage permanente per gli utenti
Queste aree possono essere ospitate sia nei Tier2 che nei Tier3 con diverse
funzionalità e dimensioni:
• Tier2: dimensione O(100 TB) – per salvare campioni completi dei dati prodotti da
tutti gli utenti e i gruppi italiani
• Tier3: dimensione O(10 TB) – per salvare campioni ridotti dei dati per definire e
tunare le analisi con tool interattivi e batch locale. Sviluppo del codice
• Le aree locali nei Tier2 e Tier3 vanno considerati complementari. L’aumento
dell’attività nei Tier3 porta a rimodulare le richieste diminuendo lo spazio disco
richiesto nei Tier2 a favore di quello dei Tier3 per i quali confermiamo la richiesta di un
piccolo finanziamento
• Inoltre il nuovo modello di utilizzo del disco dei Tier2 come cache permette di
limitare le richieste pledged a favore dell’area locale di storage permanente
CPU: aumento della competitività
La disponibilità di CPU oltre le risorse pledged da dedicare agli italiani permette di
aumentare notevolmente la competitività dei siti.
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
23
Conclusioni
• in ATLAS è in corso una significativa attività di revisione critica del
Computing Model che ha già portato a ottimizzazioni nell’uso delle risorse
e nelle performance dei siti e della griglia
• allo studio la possibilità di usare modelli diversi (per esempio cloud
computing). Lo shutdown del 2013 permetterà una completa
riscrittura del modello
• Il giudizio delle griglia dal punto di vista della Fisica delle Alte Energie è
positivo:
• alte efficienze e velocità. I fisici hanno familiarizzato con i tool di
analisi e gestione dei dati. Tuttavia l’analisi locale è ancora
significativa.
• è però fallita completamente l’ambizione di portare la griglia oltre
HEP soprattutto per la sua difficoltà di utilizzo (riscontrata e criticata
anche dai fisici LHC)
• I siti italiani dimostrano di essere competitivi e all’altezza del compito
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
24
Backup slides
25
Computing Model – Input parameters
Campagne di ottimizzazione in
corso in ATLAS che hanno
portato alla riduzione della
dimensione degli eventi e dei
tempi di ricostruzione:
• RAW = 1.2 MB
(compressione dati)
• ESD e AOD = 1.1 e 0.161 MB
(riduzione aggressiva delle
informazioni senza penalizzare
il contenuto fisico)
• Full Sim: 4950 HS sec
• Real Recon: 108 HS sec
Il risparmio di risorse
permette un di aumentare il
trigger rate come richiesto dai
gruppi di fisica
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
26
Computing Model – Input parameters
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
27
Risorse “pledged” per attività - CPU
Attività principali:
Simulazione e analisi di gruppo
e di utente.
Simulazione e analisi di gruppo
condivise con i Tier1.
leggero aumento rispetto al 2011 per l’attività degli utenti. In assoluto aumenti molto contenuti
grazie alla modifica del Computing Model. Richieste identiche a quelle effettuate nell’RRB 2010!!!!
 Simulazione: 10% di ATLAS
• 5600 HS
 Attività gruppi: 8 gruppi (2 gruppi a Milano, Napoli e Roma e 2 nuovi gruppi a Frascati)
su ~ 100 gruppi ATLAS
• 46400 HS
 Analisi ATLAS: 10% di ATLAS (quota “pledged” escludendo l’attività italiana)
• 18000 HS
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
28
Risorse “pledged” per attività - disco
 Simulazione MC: 50% di una replica completa
• 1000 TB + 60 TB (buffer produzione)
 Dati pp: 50% di una replica completa
• 1313 TB
 Attività gruppi: 8 gruppi (2 gruppi a Milano, Napoli e Roma e 2 nuovi a Frascati)
• 600 TB (75 TB per gruppo)
 Analisi: area scratch per utenti generici
• 100 TB (area scratch per utenti generici)
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
29
Risorse “pledged” - riepilogo
Attività
CPU (HS06)
LHC data taking
1320
Simulazione
5600
1060
Gruppi ATLAS
4640
600
Analisi
18000
100
Totale
28240
3080
T2 Italia
T2 ATLAS
T2 It/ATLAS
CPU
(kHS06)
28,2
295
9.6%
Disco
(PBn)
3,08
49
6,3%
Bari, 21 Settembre 2011
Disco (TBn)
G. Carlino – ATLAS: il calcolo
Nel nuovo modello di calcolo di ATLAS
per i Tier2 acquista maggiore
importanza la disponibilità di CPU
rispetto allo storage. Utile per la
competitività dei siti
• conservare le stesse pledge 2010 per il
disco (~6%)
• aumentare quelle delle CPU a ~10%
come al CNAF
30
Risorse per attività italiane
• # gruppi attivi: ~ 50 nelle 13 sezioni
• alcune attività clusterizzate tra varie sedi
• dimensioni dei gruppi e utilizzo risorse molto vario
Dimensionamento medio risorse necessarie:
• misura risorse necessarie attualmente con 1 fb-1
• stima con 10 fb-1, considerando sia l’aumento dei dati che del MC (non lineare)
• statistica attuale o ultimo fb conservabile su LOCALGROUP al Tier3, statistica
intera necessariamente da ospitare in LOCALGROUP al Tier2
Analisi Italiana – Disco
• 11 TB medi per attività considerando in prospettiva la statistica totale del 2012
• 25 TB in ogni Tier3 (2 in attività finanziati nel 2011 (RM3, GE) + 2 in attività con
altri finanziamenti (BO, UD) + 2 da finanziare nel 2012 (LE, RM2)) = 150 TB
• 400 TB nei Tier2 (~200 TB gia’ occupati)
Analisi Italiana – CPU
• 200 HS medio per attività
• 600 HS in ogni Tier3 (6 Tier3) = 3600 HS
• 6400 HS nei Tier2
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
31
Risorse totali - riepilogo
Bari, 21 Settembre 2011
Attività
CPU (HS06)
Disco (TBn)
Pledged
28240
3080
Analisi Italiana
6400
400
Totale
34640
3480
G. Carlino – ATLAS: il calcolo
32
Risorse disponibili
Richieste Tier2 2012
CPU (HS06)
Disco (TBn)
Frascati
2321
258
Milano
7820
856
Napoli
8079
864
Roma
7880
864
Tot
26100
2842
Richieste
CPU
HS06
Disco
K€
TBn
Necessità attività 2012
34640
3480
Risorse disponibili 2011
26100
2840
Richieste 2012
8540
153
640
K€
282
Server
Rete
K€
K€
40
32
40
32
Per la stima dei costi di CPU e Disco si è considerata l’esperienza
delle ultime gare e le analisi di mercato che continuiamo a svolgere
 CPU: 18 €/HS06
 Disco: 440€/TBn
Per la stima dei costi necessari per server e rete ci si è attenuti all’algoritmo Bozzi:
• Server: ~10% Disco e CPU
• Rete: ~8% Disco e CPU
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
33
Richieste Tier2 2012
Dettaglio per Tier2
 è in corso la validazione di Frascati come Tier2 ufficiale
 pieno supporto del Direttore dei Laboratori e del gruppo
 lavori infrastrutturali in corso
 referaggio concluso
 divisione delle risorse in parti uguali tra i 4 Tier2 a parte piccoli aggiustamenti
CPU
HS06
Disco
K€
TBn
Rete
Server
Totale
Cons.
K€
K€
K€
K€
K€
Frascati
2690
505
57
160
0
70
8
10
145
5
Milano
1950
414
43
160
38
87
8
10
148
5
Napoli
1950
1154
56
160
0
70
8
10
144
5
Roma
1950
1493
62
160
0
70
8
10
150
5
Tot
8540
obs
218
640
obs
297
32
40
587
Le risorse acquistate nel 2008 per le CPU e precedenti per il disco vanno considerate obsolete nel
2012 e sostituite da nuove: (obs) nelle colonne HS06 e TBn. Il dettaglio per ogni Tier2 è presente
nelle tabelle consegnate ai referee
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
34
Richieste Tier3
Tier3 in attività in ATLAS:
Bologna, Genova, Roma3, Udine/Trieste
Richieste 2012 per 2 nuovi Tier3:
Lecce
• farm già esistente in sezione con risorse ridotte e vecchie
• richiesta di diventare Tier3 “Grid enabled”
• CPU: 2 twin (4 WN) = 9 K€
• Disco: sostituzione dischi da 750 GB a 2 TB, totale 26 TB = 6 K€
Roma2
• nuova farm
• richiesta di diventare Tier3 “Grid enabled”
• CPU: 2 twin (4 WN) = 9 K€
• Disco: NAS con 20 TB = 6 K€
Bari, 21 Settembre 2011
G. Carlino – ATLAS: il calcolo
35
Scarica