Diapositiva 1

annuncio pubblicitario
ATLAS
Le strategie per l’analisi
Gianpaolo Carlino
INFN Napoli
Workshop CCR e INFN-GRID 2009
Palau, 11-15 Maggio 2009
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
1
1
Cosa è necessario per l’analisi
1. Reperibilità dei dati



sistema di distribuzione dei dati efficiente e veloce
•
varie fasi di commissioning nel 2008-2009. DQ2 può essere finalmente
considerato un sistema di data management affidabile
•
efficienza dei siti italiani (T1 e T2s) sempre nella media di atlas
AOD e DPD (dati e MC) replicati completamente e automaticamente nei T2
Sottoscrizione dei dataset utenti on demand attraverso Webpage
2. Analysis Model

Chiarezza e stabilità nella definizione dei formati di dati e nei physics analysis tools
3. Analisi Distribuita




User Interface indipendente dalla Grid
Faciltà di utilizzo e trasparenza della struttura internza
•
Ricerca della location dei dati
•
Scelta del backend
•
Scelta delle risorse da utilizzare
Efficienza e velocità di processamento e recupero degli output
Training e supporto per gli utenti
4. Le risorse




Alta disponibilità e affidabilità (availability & reliability) dei siti
configurazione ottimale della rete (LAN 10 Gbps)
Facile accessibilità ai dati
Disponibilità di risorse, cpu e disco, adeguate:
•
Sistemi di prioritizzazione dei job
•
Risorse dedicate agli utenti italiani
•
Risorse locali (Tier3)
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
2
The ATLAS Computing Model
Hierarchical Computing Model optimising
the use of the resources
“Tier Cloud Model”
• need to distribute RAW data for storage and
NG
PIC
RAL
ASGC
SARA
NA
CERN
T3
grif
reprocessing
• distribute data for analysis in various formats in
order to make access for analysis as easy as
possible for all members of the collaboration
LNF
CNAF Cloud
CNAF
lpc
RM1
LYON
Tokyo
MI
Beijing
TRIUMF
FZK
lapp
Romania
BNL
BNL Cloud
NET2
• All Tier-1s have predefined
(software) channel with CERN
and with each other
• Tier-2s are associated with one
Tier-1 and form the cloud
• Tier-2s have predefined channel
with the parent Tier-1 only.
T1
Tier1. Data storage and
reprocessing of data with better
calibration or alignment constants
GLT2
MWT2
WT2
T0
Tier0 at CERN. Immediate data
processing and detector data quality
monitoring. Stores on tape all data
SWT2
Tier-2. Simulation and user Analysis
T3
Palau, 11-15 Maggio 2009
Tier-3. Non Grid user Analysis
G. Carlino – ATLAS: le strategie per l’analisi
3
ATLAS DataWorkflows
L’analisi in Grid degli utenti viene svolta nei Tier-2.
Solo analisi di gruppo nei Tier1
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
4
Il Modello di Analisi distribuita

Gli utenti non devono necessariamente conoscere dove sono i dati e dove runnano i job


I job degli utenti vengono lanciati dove risiedono i dati


possono/devono selezionare la cloud in cui runnare
i risultati devono essere resi disponibili subito agli utenti (efficienza 100%)
I dati sono distribuiti ai Tier1 e Tier2 dal Data Distribution System DQ2
management, distribuzione e archivio automatico dei file nella griglia effettuato
usando un catalogo centrale, FTS, LFCs
•
•
I dati per l’analisi sono completamente replicati in tutte le cloud
Policy di replica dei dati secondo il Computing Model e shares determinate dalle
dimensioni dei siti in termini di risorse


I dati per l’analisi sono completamente replicati in tutte le cloud
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
5
Il Modello di Analisi distribuita

Standard Physics Analysis
codice basato su Athena o Athena Root Access, processa sequenzialmente
AOD/DPD files nella griglia

•


problemi accesso ai file in DPM con applicazioni ROOT
produce ROOT tuple (D3PD) poi analizzate nella griglia o localmente nei Tier3
Produzione piccoli sample privati di MC

uso delle Production System Tranformations (Geant o Atlasfast)
Detector
Performance Analysis

codice basato su Athena, processa RAW/ESD/DPD files nella griglia.

miglioramenti per accesso ai dati in formato RAW
in crescita uso della griglia, finora limitato, per analisi dei cosmici e dei
rivelatori. Transizione dall’analisi al Tier0 per la limitazione delle risorse e
miglioramenti tool di analisi
•

Calibrazione

MuonCalibration Stream (NA e RM) per MDT, RPC e LVL1 Trigger calibration
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
6
The ATLAS Grids
3 Grid infrastructures: differenti mw, replica catalogues e tool per sottomettere i job
Questa complessità è un
problema per gli utenti
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
7
Il Modello di Analisi distribuita
2 Frontends: Ganga e Pathena

Ganga permette la sottomissione di job sia in locale che alle 3 griglie
al momento è l’unico modo per sottomettere job in molte cloud EGEE (IT, DE ..)
o Nordugrid



utilizza soprattutto la sottomissione via il gLite WMS
Pathena utilizza solo il backend Panda

sottomissione basata sul concetto di pilot jobs
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
8
Il Modello di Analisi distribuita
GANGA: tool unico per sottomettere/gestire/monitorare i job di utenti in Grid
Qualche numero:
Blocchi funzionali: un job è configurato da un set di
blocchi funzionali, ognuno con un ben definito scopo

Ganga usato da più di 1500 utenti
circa 150 utenti ATLAS alla
settimana, doppio dell’anno scorso


Ganga offre 3 modi di interazione per gli utenti

Shell command line

Interactive IPython shell

Graphical User Interface
Palau, 11-15 Maggio 2009
buon contributo italiano
10k job utenti al giorno, da
confrontare con 100k job di produzione

ci si aspetta un numero simile durante
la presa dati

G. Carlino – ATLAS: le strategie per l’analisi
9
Il Modello di Analisi distribuita
Ganga vs Pathena:
Dopo un difficile inizio dovuto alla diffidenza (motivata) della griglia, gli utenti di Atlas
hanno cominciato a fare analisi distribuita e hanno dovuto scegliere tra due sistemi
abbastanza diversi
Pathena non era un vero sistema di analisi distribuita, runnava tutto a BNL dove tutti i
dati sono replicati. Modo di sottomissione simile ai job locali di Athena


L’ideale per un utente, ma sicuramente non sarà possibile in futuro
attualmente un sistema di brokering interno permette di distribuire i job tra i siti
che hanno abilitato le code



da verificare come scala come sistema di analisi distribuito
Ganga ha sviluppato un approccio opposto per rispettare i dettami del calcolo distribuito

problemi all’inizio che hanno allontanato gli utenti
notevoli miglioramenti con il sistema di selezione della cloud, della black list dei siti e
del job splitting (per dataset non replicati completamente)


buon funzionamento per analisi standard
il WMS permette la gestione delle priorità dei job di utenti appartenenti a VOMS
groups/roles diversi. Fondamentale per definire le opportune priorità ai job di analisi


necessario migliorare l’integrazione con il WMS
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
10
Il Modello di Analisi distribuita
Ganga vs Pathena:
ATLAS vuole ridurre la proliferazione di sistemi simili (anche per la limitatezza
di manpower). Per l’analisi distribuita tende a utilizzare un unico frontend e un
unico backend.
Sforzo della comunità italiana di Atlas per
1.
garantire l’esistenza di Ganga come tool ufficiale di analisi visto che la
maggioranza di utenti italiani ha imparato a usarlo ed è il sistema più
flessibile e completo
2.
supportare il WMS l’unico a garantire una gestione locale e non
centralizzata delle priorità dei job.
Sinergie tra esperimento e INFN Grid per aumentare il contributo italiano nello
sviluppo e mantenimento del sistema in Atlas
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
11
L’analisi nei Tier2
Cosa succede quando un job atterra in un Tier2?
Organizzazione di Atlas e della cloud italiana per ottimizzare l’analisi:


Ottimizzazione e gestione delle risorse

Storage: aree di storage per attività e utenti “locali”

CPU: fair share e job priorities

Rete: connessione rapida tra WN e storage. Hammer cloud
Stabilità dei siti

Eliminazione dei Single Point of Failure nella cloud: replica dell’LFC

Shift per il monitoraggio dei siti e delle attività di computing in Italia
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
12
Storage nei Tier2
DATA
Managed with space tokens
Example for a 200 TB T2
MC
CPUs
CPUs
CPUs
CPUs
GROUP
Analysis
tools
Detector data
110 TB
RAW, ESD, AOD, DPD
Centrally managed
Simulated data
40 TB
RAW, ESD, AOD, DPD
Centrally managed
Physics Group data
20 TB
DnPD, ntup, hist, ..
Group managed
SCRATCH
User Scratch data
20 TB
User data
Transient
LOCAL
Local Storage
Non pledged
IT User data
Locally managed13
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
13
Le CPU nei Tier2
ATLAS Computing Model: nei Tier2 50% attività di sumulazione e 50% analisi utenti
CPU non pledges e parte del 50% riservate agli utenti sono dedicate al gruppo atlas/it
Necessario un sistema di fairshare per “difendere” l’analisi dall’attività centrale di
simulazione e garantire risorse dedicate per gli utenti italiani
LSF – Multi VO test:
Fairshare Targets:
ATLAS 50%:
User 30%
Prod 70%
LHCB 50%
User 50%
Prod 50%
Palau, 11-15 Maggio 2009
46
42
atlasIT
38
prod
34
26
22
18
14
9
5
atlas
30
100
90
80
70
60
50
40
30
20
10
0
1
Group Share (%)
Mean WallClockTime
Time Windows (1h)
PBS – Multigroup test:
Fairshare Targets:
ATLAS 40%
ATLAS PROD 30%
ATLAS IT 30%
10 Time Windows 1h long
Job lenght: 2 hours
G. Carlino – ATLAS: le strategie per l’analisi
14
Rete nei Tier2
Connessione a 1 Gbps
I Test di stress dell’analisi distribuita (hammer
cloud, circa 200 jobs simultanei) hanno lo scopo di
individuare limitazioni o malconfigurazioni dei siti,
in particolare carichi sbilanciati sullo storage o
rete non adeguata.
Si è verificata la necessità di connessione a >1
Connessione a 10 Gbps
Gbps tra WN e Storage per i tipici job di analisi
che richiedono alto throughput (~4 MBps a core).
Si passa da un event rate di 3 Hz a > 10 Hz
Sistema di rete usato nei Tier2 in
attesa dei risultati del gruppo di
rete della CCR
1 Gbps
10 Gbps
Fibra
10 Gbps
RACK
m
RACK
m+1
Cluster di Rack 1
Palau, 11-15 Maggio 2009
10 Gbps
RACK
n
RACK
n+1
Cluster di Rack 2
G. Carlino – ATLAS: le strategie per l’analisi
15
Stabilità dei siti
Gli utenti hanno bisogno di siti che
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
atlas rel
LNF rel
MI rel
NA rel
RM1 rel
ja
n0
fe 8
bm 08
ar
-0
ap 8
rm 08
ay
-0
ju 8
n08
ju
l-0
au 8
g0
se 8
p0
oc 8
t-0
no 8
v0
de 8
c0
ja 8
n0
fe 9
bm 09
ar
-0
9
siano stabilmente up and running


Shift 7/7 dei membri dei Tier2 (a breve estesi anche a utenti “volontari”) per
controllare il funzionamento dei siti, dei servizi di grid e delle attività di
computing di Atlas in Italia
Eliminazione dei Single Point of Failure della cloud:
•
Sistema di replica a Roma dell’LFC del CNAF (db Oracle) con il sistema
Dataguard messo a punto in collaborazione con il CNAF
•
Testato con successo durante il down del CNAF a fine marzo per il
trasferimento delle risorse nella sala definitiva
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
16
Conclusioni

La strategia di analisi di Atlas ha raggiunto una maturità soddisfancente
in molte sue parti





I dati arrivano ai Tier con velocità ed efficienza
I tool di analisi distribuita sono diventati familiari ad una grande
comunità di utenti: l’analisi viene effettuata in grid
Stress test hanno permesso di individuare gli aspetti critici
esistenti nel sistema di analisi distribuita e vengono eseguiti
periodicamente per evidenziare problemi di configurazione nei siti
I servizi di grid e i siti hanno raggiunto una stabilità sufficiente
Cosa c’è ancora da fare

Estendere l’uso dei tool di analisi distribuita ad analisi non standard

Aumentarne la diffusione tra gli utenti

Analisi locale: definire il ruolo e le dimensioni dei Tier3
Palau, 11-15 Maggio 2009
G. Carlino – ATLAS: le strategie per l’analisi
17
Scarica