di sviluppo dell`INFN sono triennali, direi di ragionare in termini di

Situazione dei Laboratori Virgo-Italia (autunno 2002)
Laboratori
Person.
Person.
Esterno
INFN
dedicato
[FTE]
(*)
Firenze(**)
Urbino(**)
2
[0.75]
3
[1.5]
9
Napoli
[7.0]
Perugia
5
[3.2]
6
Pisa
[4.1]
6
Roma1
[4.0]
(*)
1
Spazi
strutturati
a
disposizione
Risorse
Centro di
Calcolo di
Sezione
(condiviso)
Cluster di
2PIII biprocessore (slave)
+ 1 PIII biprocessore (master)
SO Linux
Centro di
Calcolo di
Istituto
(condiviso)
HW
SW
e sperimentazioni
in corso
Matched filtering con double
whitening per binarie coalescenti;
generazione e gestione di templates
per bin.coal. Calcolo distribuito con
altre sedi Virgo
Sviluppo codice per bursts;
Generazione griglie di templates per
bin.coalesc. e calcolo distribuito con
altre sedi Virgo. Generazione di
forme d’onda
Cluster di
3PIII monoprocessore (slave)
+ 1 PIII biprocessore (master)
SO Linux
12 server SMicro 6010H, 8
server APPRO1224X, 4PIII
dedicati a GRID
Librerie GRASP 1.9.8, LAL, Virgo
Spazio total=
1°
Farm:
2PIII
1GHz,
2
Lib, Num.Recipes, FFTW, MPICH
mente dedi=
conn. FastEth,D18GB SCSI,
1.2.1; kit di Globus 1.1.4.
cato,
completo
Collabo=
S.O.
Lynux
R.H.7.2,
Sviluppo
di algoritmi ottimali
di infrastrut=
razione
Mosix1.04.
(matched filter) e subottimali (filtri
ture
all’interno
col
2°Farm: 2PIV XEON
adattivi; reti neurali) per bin.coalesc.;
personale del laboratorio
2.4Ghz,2conn.FastEth,
test di riferimento per l’on-line
VIRGO, già
del Centro
D72GBSCSI, S.O.Linux
processing per segnali da bin.
dimensionato
di Calcolo
R.H.
7.2,
Mosix1.04
coalescenti.
Test di calcolo distribuito
per Tier2
di Sezione
Entrambe possono essere
(diversi protocolli), anche in
utilizzate stand alone o
ambiente GRID
integrate per calcolo distr.in
ambiente GRID. S.O. Lynux
Red Hat 6.2
Cluster Beowulf da 14 nodi
Sviluppo del sistema di calcolo
Spazio dedi=
PIII biprocessore;
parallelo per la “in time” analysis di
cato all’inter= 1FileServerUW SCSI- 160; 1
bin.coalesc: ottimizzazione e
no del labora=
FileServer UATA100;
sviluppo del codice in MPI. Test di
torio VIRGO + 1master AMD biproc;back =
calcolo distribuito con altre sedi.
Spazi Com=
bone Gb; Fast Eth; SO Linux
Analisi dei dati per il commis=
puting room di Debian 3.0 ed MPI. 1XEONsioning di Virgo.
Sezione
PIV in fase di installazione.
Librerie Fr,FrV,Vega, FFTW,SigLib
Spazi dedicati
Noise analysis; simulazione del ri=
con
servizi
Cluster
di
4
PC
Appro1142
velatore; algoritmi per correlazioni
2
nella sala
biproc. 42GB + file server
tra interferometri; Sviluppo di pro=
(Dpt Fis
calcolo della
400GB RAID
grammi per il monitoring; sviluppo di
Univ.Pisa)
nuova sede
SO Linux-Mosix
pacchetti in C++ per analisi
della Sezione
statistiche. Debugging del SW VEGA
pisana
Cluster di 15 Server: 8 Server
2PIII 1GHz, 7 Server 2Xeon
Sviluppo dell’algoritmo gerarchico
Spazi dedicati
P4 2.4 GHz, ciascuno con 2
(Hough Transform) per sorgenti
con servizi
conn. FastEthernet,
continue: moduli di benchmark, di
2
presso la sala
D 18GByte. SO: Linux RH
gestione, di creazione del Short FFT
(CASPUR)
calcolo della
7.2, MOSIX 1.5.2.
DB, modulo con i codici per la
Sezione di
1 server funge da master;
Hough Transf., modulo di analisi
Roma1 + spazi
network interno per boot
incoerente in ambiente SNAG
che saranno
remoto e data transfer
(appositamente creato dal gruppo).
2
resi disponibili
Storage (incl. server) 0.5
Sperimentazione Grid con codici per
ex CASPUR
TByte. La farm configurata,
la ricerca dei segnali continui.
(ROG)
con il software INFN –GRID, Nuovi algoritmi per la ricerca di burst
ha tre unità non
Sperimentazione su architettura a
completamente dedicate al
64 bit
calcolo, CI, CE, SE
EGO dispone in Càscina di 4 persone utilmente inserite in attività HW e SW parzialmente disponibili per Virgo
Le Università di Firenze ed Urbino appartengono alla stessa Sezione INFN (Firenze) e usufruiscono di un unico finanziamento dall’INFN.
(**)
Comp.
Power
GFLOPS
[kSI2000]
4.2
[1.0]
4.2
[1.0]
54
[12.3]
30
[7.2]
6
[1.5]
45
[10.9]