PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Progetto PI2S2 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE DELIVERABLE: D1.2 Nome file: PI2S2-D1.2-v1.0 Data: 31/01/2007 Attività: WP1 Responsabile: Consorzio COMETA Stato: FINAL Abstract: Questo documento descrive l’architettura dell’e-Infrastruttura di produzione del Progetto PI2S2 alla fine del primo anno. PUBLIC - 1 - / 191 -1- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Versi one 1.0 Data 31.01.2007 Commento Versione finale Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Autore/i Roberto Barbera PUBLIC - 2 - / 191 -2- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 INDICE 1. INTRODUZIONE............................................................................................................................................... - 5 - 2. ARCHITETTURA DELL’INFRASTRUTTURA DI PRODUZIONE E SERVIZI COLLEGATI ............ - 6 2.1. 2.2. 2.3. GARA D’APPALTO PER LA FORNITURA DELL’INFRASTRUTTURA GRID .............................................................- 6 AUTORITÀ DI REGISTRAZIONE DELL’AUTORITÀ DI CERTIFICAZIONE DEL-L’INFN ..........................................- 7 CREAZIONE DELL’ORGANIZZAZIONE VIRTUALE “COMETA” E DELLE REGOLE DI ACCESSO ALL’INFRASTRUTTURA -83. CONCLUSIONI ................................................................................................................................................ - 10 - 4. APPENDICE 1 .................................................................................................................................................. - 11 - PREMESSA ............................................................................................................................................................... - 12 CONSIDERAZIONI GENERALI ........................................................................................................................... - 13 - LOTTO 1 - ............................................................................................................................................................... - 14 ART 1.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO ............................................................................................- 14 - LOTTO 2 - ............................................................................................................................................................... - 28 ART 2.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO .............................................................................................- 28 - LOTTO 3 - ............................................................................................................................................................... - 29 ART 3.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO ............................................................................................- 29 - LOTTO 4.1 - ............................................................................................................................................................ - 51 ART 4.1.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO .........................................................................................- 51 - LOTTO 4.2 - ............................................................................................................................................................ - 54 ART 4.2.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO .........................................................................................- 54 - LOTTO 5 - ............................................................................................................................................................... - 57 ART. 5.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO ............................................................................................- 57 ART. 5.2 PAVIMENTO TECNICO FLOTTANTE ..............................................................................................................- 78 5. APPENDICE 2 .................................................................................................................................................. - 79 - PREMESSA .................................................................................................................................................................... 81 CONSIDERAZIONI GENERALI ................................................................................................................................ 83 - LOTTO 1 - .................................................................................................................................................................... 84 ART 1.1 SISTEMA DI CALCOLO ..................................................................................................................................... 84 ART 1.2 APPARECCHIATURE DI RETE ............................................................................................................................ 85 ART 1.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO ...................................................... 85 ART 1.4 SISTEMA DI STORAGE....................................................................................................................................... 86 - LOTTO 2 - .................................................................................................................................................................... 88 ART 2.1 SISTEMA DI CALCOLO ...................................................................................................................................... 88 PUBLIC - 3 - / 191 -3- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 ART 2.2 APPARECCHIATURE DI RETE ............................................................................................................................ 89 ART 2.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO ...................................................... 89 ART 2.4 SISTEMA DI STORAGE....................................................................................................................................... 90 - LOTTO 3 - .................................................................................................................................................................... 92 ART 3.1 SISTEMA DI CALCOLO ..................................................................................................................................... 92 ART 3.2 APPARECCHIATURE DI RETE ............................................................................................................................ 93 ART 3.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO ...................................................... 93 ART 3.4 SISTEMA DI STORAGE....................................................................................................................................... 94 - LOTTO 4.1 - ................................................................................................................................................................. 96 ART 4.1.1 SISTEMA DI CALCOLO .................................................................................................................................. 96 ART 4.1.2 APPARECCHIATURE DI RETE ......................................................................................................................... 97 ART 4.1.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO ................................................... 97 - LOTTO 4.2 - ................................................................................................................................................................. 98 ART 4.2.1 SISTEMA DI CALCOLO .................................................................................................................................. 98 ART 4.2.2 APPARECCHIATURE DI RETE ......................................................................................................................... 99 ART 4.2.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO ................................................... 99 - LOTTO 5 - .................................................................................................................................................................. 100 ART. 5.1 SISTEMA DI CALCOLO ................................................................................................................................... 100 ART. 5.2 APPARECCHIATURE DI RETE ......................................................................................................................... 101 ART. 5.3 SOLUZIONI PER IL CONTROLLO REMOTO DEL SISTEMA .................................................................................. 102 ART. 5.4 SISTEMA DI STORAGE .................................................................................................................................... 102 6. APPENDICE 3 ..................................................................................................................................................... 104 7. APPENDICE 4 ..................................................................................................................................................... 105 IBM BLADECENTER LS21 ............................................................................................................................................ 115 PUBLIC - 4 - / 191 -4- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 1. INTRODUZIONE Questo documento descrive l’architettura ed i servizi accesso dell’infrastruttura di produzione del Progetto PI2S2 realizzata nel corso del primo anno. PUBLIC - 5 - / 191 -5- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE 2. ARCHITETTURA COLLEGATI 2.1. DELL’INFRASTRUTTURA DI Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 PRODUZIONE E SERVIZI GARA D’APPALTO PER LA FORNITURA DELL’INFRASTRUTTURA GRID Nel primo anno del progetto PI2S2 l’attività del WP1 ha riguardato principalmente la preparazione delle gare d’appalto per la fornitura “chiavi in mano” della prima “tranche” dell’infrastruttura di servizio (armadi rack, gruppi di continuità e di condizionamento) e di quella calcolo, storage e rete. Il Consiglio di Amministrazione del Consorzio COMETA, sentito il parere del Comitato Tecnico Scientifico, ha designato una Commissione di esperti che ha provveduto alla preparazione dei capitolati tecnici. Per completezza di informazione, i capitolati tecnici per la gara “infrastruttura” e per la gara “calcolo” sono riportati in calce al presente deliverable come Appendici 1 e 2. Le offerte tecniche delle ditte vincitrici delle due gare sono invece riportate nelle Appendici 3 e 4. Le due gare sono state espletate tra Luglio 2006 e Gennaio 2007. Le figure 1 e 2 riportano delle schede riassuntive degli apparati di calcolo e di storage che sono stati acquistati: Figura 1 – Scheda riassuntiva del sistema di calcolo acquistato. PUBLIC - 6 - / 191 -6- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Figura 2 – Scheda riassuntiva del sistema di storage acquistato. Le offerte tecniche che sono risultate vincenti, e che forniscono un’idea completa dell’infrastruttura del Progetto che è stata acquistata fino a questo momento, sono riportate per completezza come Appendici 3 e 4. Alla data odierna, in tre dei 6 siti di COMETA è stata già completata l’installazione dell’infrastruttura di rack, raffreddamento e continuità. Gli altri siti verranno completati entro la prima metà di Marzo 2007. La fornitura delle macchine da calcolo e dei sistemi di storage, invece, è prevista avvenire in tutti i siti entro Aprile 2007. Altre attività preparatorie di WP1 condotte nel primo anno del Progetto PI2S2 sono riportare nei seguenti paragrafi. 2.2. AUTORITÀ DI REGISTRAZIONE DELL’AUTORITÀ DI CERTIFICAZIONE DEL-L’INFN I Partner del Consorzio COMETA hanno convenuto che l’Autorità di Certificazione dell’INFN (INFN CA, http://security.fi.infn.it/CA) rilascerà tutti i certificati digitali (X.509) per gli utenti ed i servizi grid del Progetto PI2S2. Ciò perché la INFN CA è una delle Autorità di Certificazione dell’Organizzazione EuGridPMA (http://www.eugridpma.org) che raggruppa tutte le CA accreditate sull’Infrastruttura Grid Europea del Progetto EGEE (http://www.eu-egee.org) e su quella mondiale del progetto WLCG (http://www.cern.ch/lcg). A tal fine, il Consorzio COMETA ha già attivato delle Autorità di Registrazione (RA) della INFN CA nella sedi di Catania, Messina, Palermo e Roma (per gli utenti del Consorzio SCIRE). La lista delle RA di COMETA che sono state attivate è reperibile http://security.fi.infn.it/CA/RA e riportata nella figura 3 seguente per completezza: PUBLIC alla pagina - 7 - / 191 web -7- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Figura 3 – Lista delle Registration Authority del Consorzio COMETA. 2.3. CREAZIONE DELL’ORGANIZZAZIONE VIRTUALE “cometa” E DELLE REGOLE DI ACCESSO ALL’INFRASTRUTTURA Al fine di favorire e velocizzare l’uso dell’Infrastruttura Grid del Progetto PI2S2 da parte di utenti che non appartengono già a Organizzazioni Virtuali pre-esistenti, è stata creata l’Organizzazione Virtuale “cometa”. Il server di amministrazione della Organizzazione Virtuale “cometa” è raggiungibile all’indirizzo web: https://voms.ct.infn.it:8443/voms/cometa/ ed il form di registrazione per gli utenti in possesso di certificato digitale personale è già attivo all’indirizzo web: https://voms.ct.infn.it:8443/voms/cometa/webui/request/user/create. A tutt’oggi risultano registrati 61 utenti. Gli utenti che si registrano nella VO “cometa” devono prima esplicitamente accettare le Regole di Accesso all’infrastruttura del Progetto PI2S2 che sono state definite in accordo con quelle vigenti in altri progetti grid internazionali in modo da assicurare, in futuro, una possibile interoperabilità. Il form di accettazione delle regole di accesso è riportato nella Figura 4. PUBLIC - 8 - / 191 -8- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Figura 4 – Regole di Accesso all’infrastruttura del Progetto PI2S2. PUBLIC - 9 - / 191 -9- PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 3. CONCLUSIONI L’infrastruttura di produzione del Progetto PI2S2 è stata progettata ed implementata incluso i servizi Grid accessori necessari per il suo utilizzo. Ciò fa sì che la milestone M1.2 del progetto possa essere considerata conseguita. PUBLIC - 10 - / 191 - 10 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 4. APPENDICE 1 Consorzio COMETA - Progetto PI2S2 FORNITURA DI INFRASTRUTTURA (RACK, UPS E CONDIZIONAMENTO) PER LA CREAZIONE DI UNA GRIGLIA COMPUTAZIONALE CAPITOLATO TECNICO PUBLIC - 11 - / 191 - 11 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 PREMESSA Tutti i sistemi devono essere forniti chiavi in mano e quindi devono essere inclusi cablaggi e posa in opera. Garanzia e manutenzione devono essere “on-site” per almeno 3 anni e di tipo almeno NBD (Next Business Day). L'offerta tecnica presentata e la successiva fornitura dovranno rispettare anche le seguenti condizioni: • Dichiarazione esplicita del range di temperatura ambientale all’interno del quale l’infrastruttura globale proposta opera in sicurezza in condizioni di pieno carico specificando se trattasi di dati rilevati in laboratorio o dichiarati dal costruttore. • Dichiarazione esplicita del consumo energetico totale (in W o in kW) specificando se trattasi di dati rilevati in laboratorio o dichiarati dal costruttore. - 12 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 CONSIDERAZIONI GENERALI L'obiettivo finale da conseguire è quello di creare un’infrastruttura di supporto ai sistemi di calcolo, di storage e di rete che sia in grado di soddisfare le esigenze attuali e quelle future del Progetto PI2S2. Il contraente dovrà fornire in opera tutti i materiali necessari alla realizzazione, secondo quanto indicato nel presente documento e nelle specifiche tecniche di progetto, garantendo il pieno rispetto delle normative tecniche e di sicurezza vigenti. Dovrà installare e terminare tutti i componenti hardware necessari a realizzare un sistema funzionale nonché fornire tutta la documentazione richiesta dal presente documento. Tutti i lavori dovranno essere eseguiti in maniera completa e scrupolosa in base ai più alti standard in campo industriale e dovranno essere sottoposti al controllo e all’accettazione da parte del Consorzio COMETA. Si stabilisce e si concorda espressamente che tali osservazioni e controlli da parte del Consorzio COMETA o di suoi consulenti non esonerano il contraente dalla responsabilità di un’adeguata supervisione ed esecuzione dei lavori descritti in questo documento o concordati successivamente. Le ditte partecipanti dovranno fornire un elenco del personale preposto al project management e al supporto tecnico assegnato al Progetto. Dovrà essere espressamente indicato un nominativo come Responsabile di Progetto. Il Responsabile di Progetto del contraente dovrà garantire il pieno rispetto delle tempistiche di esecuzione lavori eventualmente stabilite nel piano esecutivo redatto dal contraente secondo quanto stabilito in seguito. Tale Responsabile di Progetto dovrà essere inoltre il referente unico e diretto per il Consorzio COMETA relativamente a tutte le problematiche che dovessero emergere nel corso dell’esecuzione dei lavori. I dati numerici riportati nel presente capitolato sono basati su esperienza pregressa e sono da ritenersi indicativi. - 13 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - LOTTO 1 Fornitura per l’Istituto Nazionale di Fisica Nucleare, Sezione di Catania. L’offerta economica per questo Lotto non può essere superiore a: € 75.000,00 IVA esclusa. ART 1.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO L’infrastruttura richiesta (UPS, distribuzione alimentazione elettrica – PDU, armadi TLC, condizionamento dell’aria integrato) dovrà essere un'architettura modulare, configurabile e scalabile progettata per fornire soluzioni di protezione dell'alimentazione elettrica end-toend per qualsiasi tipo di data center. Con il fine di ottenere il massimo livello di comunicazione tra i componenti dell’infrastruttura (UPS, distribuzione alimentazione elettrica – PDU, armadi TLC), si richiede che tutti i componenti appartenenti all’infrastruttura Data Center siano stati progettati e realizzati da un unico produttore. I componenti che verranno descritti dovranno integrarsi con l’attuale infrastruttura CED esistente e con il management dell’infrastruttura CED. Dovrà essere disponibile nella configurazione 400Vca trifase 50Hz, in sistemi TT, TN-C e TN-S. Il presente Articolo descrive i requisiti di tale architettura e i diversi componenti richiesti per mettere a punto una soluzione mirata modulare, configurabile e scalabile. Compatibilità e certificazioni EN50091-1-1 / IEC62040-1-1 EN/IEC62040-2 EN/IEC62040-3 IEC61000-4-2 livello 3, criterio di performance B IEC61000-4-4 livello 2, criterio di performance A IEC 1000-4-5 (livello 4) IEC 61000-4-3 livello 2, criterio di performance A EIA-310-D (rack dove sono alloggiati gli apparati) - 14 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 UPGRADE DEL GRUPPO DI CONTINUITA' (UPS) Considerazioni generali Il sistema attuale è composto da un’architettura array scalabile e ridondanta N+1 installata a rack. L’architettura UPS dovrà essere espansa per garantire 80 KW (N+1) aggiungendo n°4 moduli di potenza da 10kW/10kVA e 4 moduli batteria. I moduli di potenza ed i moduli batteria dovranno essere installati a caldo durante il funzionamento normale dell’UPS. Ciascun modulo dovrà avere la topologia Double Conversion On-Line a ingresso con correzione del fattore di potenza e bassa distorsione armonica (THDi%<5%). Modi operativi La topologia deve essere Double Conversion on-line. Indipendentemente dal loro numero, i moduli di alimentazione 10kW/10kVA di ogni singolo rack devono funzionare alla stregua di un unico sistema in ciascuno dei modi operativi descritti di seguito: • Normale: in ciascun modulo di alimentazione il raddrizzatore funziona in parallelo per trasformare la ca in ingresso in cc filtrata per alimentare ininterrottamente le batterie. L'inverter trasforma la tensione del bus cc in tensione di carico ca pulita e continua. • Interruzione dell'alimentazione: dopo aver rilevato un'interruzione dell'alimentazione, il raddrizzatore si deve isolare dall'alimentazione di rete in ingresso e le batterie si collegheranno all'inverter per garantire alimentazione al carico. Il tempo di autonomia da batteria sarà pari a quello definito nella presente specifica. Quando viene ripristinata l'alimentazione elettrica, senza alcun intervento da parte dell'utente i moduli UPS ritorneranno automaticamente al modo operativo normale descritto in precedenza. • Emergenza: nel caso si verifichi un guasto nel bus di uscita o una condizione di sovraccarico estremo, il carico viene commutato senza soluzioni di continuità a uno switch statico con correzione del fattore di potenza. Il guasto di un modulo all'interno di una configurazione ridondata non provoca la commutazione del carico alla linea di bypass statico. • Bypass di manutenzione: il sistema UPS comprenderà uno switch di bypass di manutenzione (MBS) wrap around per escludere in modo sicuro l'UPS nel corso di interventi di manutenzione di routine o di interventi di assistenza. L'MBS sarà ad apertura-chiusura perché non venga mai meno l'alimentazione al carico nella fase di transizione. Componenti - Raddrizzatore Ciascun modulo di alimentazione dell'UPS comprenderà un raddrizzatore attivo di tipo IGBT (Insulated Gated Bipolar Transistor) con correzione del fattore di potenza. La tensione nominale del bus cc deve essere pari a +/- 192V c.c. - 15 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 La tensione del bus cc deve essere compensata in base alle variazioni della temperatura (compensazione in temperatura della batteria) per mantenere costantemente una tensione ottimale di carica delle batterie in presenza di escursioni termiche al di sopra o al di sotto di 25° C. Il tasso di compensazione deve essere pari a 320mV/°C per valori di temperatura ambiente ≥ 20° C e a 0mV/°C per valori di temperatura ambiente < 20°C. La tensione di ondulazione c.c. deve essere inferiore a +/- 1% del valore nominale a batterie disconnesse. Il fattore di potenza in ingresso deve essere pari a 0,99 con ritardo se il carico è al 100% e a 0,98 se il carico è al 50% senza l'uso di filtri passivi. Il raddrizzatore utilizzerà la tecnologia di controllo elettronico della forma d'onda per mantenere la forma d'onda sinusoidale. Sarà usato il controllo della corrente Pulse Width Modulation (PWM) (modulazione a durata di impulso). Per tutte le funzioni di controllo e monitoraggio devono essere usati Digital Signal Processor (DPS). Non sono ammessi controlli analogici. La distorsione armonica totale (THD) riflessa della corrente di ingresso non deve essere superiore al 5% con carico al 100%. Intervallo della frequenza di ingresso: tra - 20% e + 15% del valore nominale. Il tempo standard di ricarica batterie è conforme a IEEE 485. - Batterie La tecnologia standard delle batterie dovrà essere VRLA (Valve Regulated Lead Acid). Le batterie non devono essere alloggiate nello stesso rack dove si trovano i moduli di alimentazione. Le batterie devono essere modulari e collocate su scaffali estraibili per rendere più rapida l'assistenza e la sostituzione. La tensione delle batterie deve essere compensata in temperatura come descritto nel precedente paragrafo. Potenza di ricarica: 5kW max. Fine della scarica: +/- 160V c.c. - Inverter L'inverter sarà composto da moduli di alimentazione IGBT a commutazione rapida. L'inverter dovrà essere controllato in modalità PWM con l'uso di logica DSP. Il controllo di tipo analogico non è ammesso. I moduli dell'inverter presentano la correzione del fattore di potenza, ovvero kW=kVA. L'uso di un fattore di potenza in uscita diverso dall'unità non è ammesso. La tensione nominale in uscita sarà pari a 400V/400V, trifase, 50Hz, a quattro fili più la terra. Rendimento di ciascun modulo a pieno carico: non inferiore al 93,5%. Distorsione armonica totale della tensione di uscita a pieno carico: inferiore al 2%. Regolazione della tensione di uscita: Statica: inferiore all'1% a pieno carico lineare e non lineare Dinamica: +/-5% con carico a gradini 100%. - 16 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Frequenza in uscita: 50/60 Hz libera. Fattore di cresta: illimitato. Predisposizione per lo spegnimento di emergenza a distanza (EPO). - Fattori ambientali Temperatura di funzionamento con correzione del fattore di potenza: 0-40°C Temperatura dell'ambiente di posizionamento: tra - 15 e 45°C Altezza di funzionamento con correzione del fattore di potenza: 0 - 1000m s.l.m. Altezza di posizionamento: 0 - 15.000 m Umidità relativa: 0-95% non condensing Rumore udibile a 1 metro di distanza dall'unità: • 70 dbA al 100% del carico • 62 dbA al 70% del carico • Management I moduli di potenza ed i moduli di batteria dovranno comunicare con l’attuale sistema di management dell’infrastruttura fisica in modo tale che il responsabile del Data Center potrà conoscere quanti moduli sono stati installati ed i loro stato durante l’esercizio. MODULO RACK ED ACCESSORI Dovranno essere forniti ed installati n°4 Armadi Rack secondo le seguenti specifiche: Specifiche Fisiche Dimensione Rack, compatibilità del montaggio a rack, carico massimo supportato Altezza Interna EIA310 Altezza Esterna Larghezza Esterna Profondità Esterna Carico Statico Carico Dinamico 42U 19” 2070mm 600mm 1070mm 909 Kg 909 Kg (81.5”) (23.6”) (42.1”) (2000lbs) (2000lbs) L’altezza esterna del 42U è di 2070mm (81.5”) per facilitarne il passaggio attraverso una porta standard 7 Ft. (84”). - 17 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Il carico statico supportato dovrà essere di almeno 909 Kg (peso supportato dalle ruote orientabile e dai piedini di livellamento). Il carico dinamico supportato dovrà essere di almeno 909 Kg (peso supportato dalle ruote orientabile in movimento). Accesso al carico e montaggio L’armadio deve offrire 42U di spazio per il montaggio delle apparecchiature I montanti verticali devono essere regolabili in profondità Sia la porta frontale che posteriore devono possedere cardini a rilascio veloce per un rapido e veloce smontaggio Sia la porta frontale che posteriore devono poter essere aperte fino a 180° per un facile accesso interno La porta frontale deve essere reversibile in modo da essere aperta da entrambi i lati La porta posteriore deve essere a due battenti verticali per rendere più agevole l’attività di service L’armadio deve possedere pannelli laterali removibili senza attrezzi migliorando l’accesso per un veloce cablaggio dell’apparecchiature Specifiche ambientali L’armadio deve avere una protezione IP 20 contro il contatto, l’ingresso di corpi estranei e l’introduzione d’acqua. Specifiche di sicurezza L’armadio deve rispondere alle specifiche meccaniche (stabilità, resistenza meccanica, apertura porte, etc.) definite nel IEC 60950 Terza Edizione. Ventilazione L’armadio deve fornire una ventilazione che supera le specifiche della maggior parte dei server vendor - 18 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’armadio deve fornire una ventilazione per la porta frontale, la porta posteriore ed il tetto come mostrata di seguito: Altezza Interna Larghezza Esterna Porta Frontale Perforata Porta Posteriore Perforata Tetto Perforato 600mm 1070mm 5355 cm² 5413 cm² 1007 cm² (23.6”) (42.1.”) (830 in²) (839 in²) (156 in²) Canalizzazioni Ogni Armadio Rack dovrà avere fino a 3 canalizzazioni sul tetto per garantire il passaggio dei cavi di alimentazione e dati. Strisce di Alimentazione In ogni Armadio Rack dovranno essere installate n°2 strisce di alimentazioni intelligenti da 32Amp installate nella parte posteriore dell’armadio senza occupare unità. L’installazione deve poter essere effettuata senza attrezzi. Deve essere composta da 24 prese di cui 20 IEC 320 C13 e 4 IEC 320 C19. Corrente 32Amp, Potenza almeno 7KW. È richiesto un amperometro digitale integrato con display. È richiesto il monitoraggio via IP dell’assorbimento. È richiesta l’allarmistica con soglie. È richiesta la possibilità di comandare da remoto l’alimentazione delle singole prese attraverso l’accensione e lo spegnimento della singola presa. L’accesso al management delle strisce di alimentazioni intelligenti dovrà avvenire tramite browser ed il management delle strisce di alimentazioni dovrà comunicare con il management dell’infrastruttura esistente. MODULO GESTIONE AMBIENTALE E SENSORI Dovranno essere fornite, installate e configurate n°2 centraline di gestione ambientale via IP con altezza 1U e montaggio 19”. - 19 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Ogni centralina di gestione ambientale dovrà essere fornita con i seguenti sensori: n.°2 sensori di temperatura ed umidità, n.°1 sensori di controllo fumi all’interno dell’armadio Rack Server, n.°1 sensori anti-allagamento lunghezza almeno 6 m, n.°1 lampeggiante posizionato sul tetto dei Rack, n.°1 sensore apertura porta Rack Server, n°1 sensore vibrazioni La centralina dovrà ospitare i seguenti contatti per future integrazioni: fino a n.°4 sensori temperatura ed umidità, sensore movimento tra le file degli armadi Rack. n.° 4 contatti puliti disponibili Il management della centralina di gestione ambientale dovrà essere accessibile tramite browser. Il management della centralina di gestione ambientale dorà essere integrato con il management dell’Infrastruttura esistente. MODULO SISTEMA DI CONDIZIONAMENTO AMBIENTALE Premessa Il sistema di condizionamento ambientale dovrà essere progettato specificatamente per applicazioni di controllo di precisione di temperatura ed umidità. Controllerà automaticamente le funzioni di riscaldamento, raffreddamento e filtraggio dell’ambiente interessato. Il sistema dovrà essere costruito secondo i più alti standard qualitativi di ingegneria e costruzione, e dovrà essere montato a pavimento, configurato per un flusso d’aria condizionata up al fine di fornire la distribuzione uniforme dell’aria nell’ambiente interessato. Dovranno essere fornite ed installate n°2 unità di condizionamento capaci di neutralizzare fino a 20kW per Armadio Rack aventi le seguenti caratteristiche: Cabinet Il cabinet del sistema di condizionamento dovrà essere provvisto di pannelli laterali e pannelli frontali e laterali conformi allo standard relativo all’isolamento UL94-5VA ASTM e84. I pannelli frontali e posteriori dovranno essere perforati con asole che dovranno garantire almeno il 50% di area libera e dovranno essere equipaggiati con una chiave ed una serratura per garantire un accesso sicuro ai componenti interni all’unità di condizionamento. Le attività di service sull’unità di condizionamento verranno eseguite sul fronte e/o sul retro al fine di posizionare l’unità di condizionamento in fila ai Rack IT. - 20 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’unità di condizionamento dovrà essere provvista di ruote e piedini di livellamento al fine di posizionare correttamente l’unità in fila agli adiacenti Rack IT. Ventole Ogni unità di condizionamento include 8 ventole. Ogni ventola dovrà essere progettata per fornire 362.5 CFM per un totale di flusso d’aria di 2900 CFM. L’unità di condizionamento dovrà essere in grado di funzionare anche nel caso di un guasto ad una delle 8 ventole. Le 8 ventole dovranno essere riparabili mentre l’unità di condizionamento è in funzione. Doppio Alimentatore A-B Doppio alimentatore A-B di ingresso all’unità di condizionamento. L’unità di condizionamento dovrà includere due alimentatore capaci di fornire il 60% della potenza totale. L’assorbimento della singola unità di condizionamento non dovrà superare i 1100W durante il funzionamento normale. Controllore Dal display dell’unità di condizionamento si dovrà accedere alla configurazione ed al monitoraggio della stessa attraverso dei controlli a menu. Le funzioni dovranno includere i report riguardanti lo stato, il set-up e la temperatura. Lo stato di funzionamento dell’unità di condizionamento dovrà essere indicato da LED o da altri appropriati indicatori. Il controllore dell’unità di condizionamento dovrà essere fornito con controlli attraverso chiavi per una navigazione attraverso i menu, gli oggetti selezionabili e le informazioni di input alpha numeriche. Il controllore dovrà poter attivare allarmi visibili ed udibili in presenza dei seguenti eventi: a. Filtro dell’aria intasato b. Comunicazione fallita c. Attuatore della valvola guasto d. Pompa guasta e. Unità di condizionamento guasta f. Alta temperatura del fluido in ingresso g. Sensore di temperatura guasto h. Ventola guasta - 21 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE i. j. k. l. m. n. o. p. q. Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Alimentatore guasto Misuratore della velocità di flusso guasto Perdita del gruppo di comunicazione Comunicazione interna fallita Alimentazione A-B fallita Alta temperatura nel Rack Bassa temperatura nel Rack Temperatura in uscita elevata Presenza acqua Il controllore dovrà memorizzare e visualizzare sul display tutti gli eventi del sistema di condizionamento. Ogni allarme dovrà contenere la data, l’ora e la modalità di funzionamento del sistema di condizionamento nel momento dell’evento. Scheda di Management L’unità di condizionamento dovrà includere una scheda di management permettendo una gestione via rete TCP/IP. Il management via rete dovrà prevedere la possibilità di fissare dei set-point, entrare nei vari parametri del menu e cancellare allarmi. Valvola 2 WAY/ 3 WAY Il sistema di refrigerazione ad acqua dovrà utilizzare la valvola 2 WAY/3 WAY al fine di regolare la quantità d’acqua verso l’unità di condizionamento per mantenere le condizioni desiderate. La valvola dovrà essere collegata internamente all’unità di condizionamento e dovrà essere di facile sostituzione in caso di guasto. Il valore standard della pressione è di 600 psig. Connessioni dall’alto o dal basso I tubi dell’acqua refrigerata dovranno poter essere connessi sia dall’alto che dal basso dell’unità. Le connessione dei tubi dell’acqua refrigerata dovranno essere presenti all’interno dell’unità. Sensore della temperatura remoto Il sensore della temperatura remoto dovrà essere collegato all’unità di condizionamento al fine di fornire il controllo della temperatura di ingresso sul fronte del Rack. - 22 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Misuratore di flusso Il misuratore di flusso dovrà essere installato all’interno dell’unità di condizionamento e collegato al controllore dell’unità al fine di fornire il valore della velocità di flusso attraverso l’unità di condizionamento. Presenza acqua Un cavo sensibile alla presenza d’acqua dovrà essere collegato all’unità di condizionamento. Nel caso in cui l’acqua o altri liquidi dovessero entrare in contatto con una superficie del cavo per tutta la sua lunghezza, il controllore visualizzerà e annuncerà in modo udibile l’allarme. Il cavo presenza acqua non dovrà essere inferiore ai 6 mt. Canalizzazione sul tetto dell’unità Al fine di realizzare la canalizzazione orizzontale sul tetto dei Rack sia per i cavi di potenza che dati, l’unità di condizionamento dovrà montare sul tetto delle canalizzazioni identiche a quelli degli armadi Rack. Impianto ad acqua refrigerata Le due unità di condizionamento dovranno essere collegate all’esistente impianto ad acqua refrigerata, pertanto dovrà essere previsto tutto il necessario per effettuare tali collegamenti a regola d’arte. PLENUM L’intera infrastruttura dovrà essere chiusa su ogni lato da un plenum al fine di convogliare tutto il calore prodotto dai rack in ingresso al condizionatore, ottenendo una maggiore densità di potenza per rack. Il plenum dovrà essere modulare e scalabile con la possibilità di inserire più rack in futuro. Attività DI Post-Installazione - 23 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Ultimata l’installazione la Ditta fornitrice dovrà garantire una serie di attività PostInstallazione necessarie per la corretta gestione e manutenzione della infrastruttura installata. In dettaglio dovranno essere garantite le seguenti attività: Training di 1 giorno sulla gestione e manutenzione dell’infrastruttura installata. Dovrà essere erogato da parte della ditta installatrice e/o produttrice del sistema un training della durata di almeno una giornata al personale coinvolto nella gestione e nella manutenzione del sistema installato. Durante il training dovranno essere illustrate la logica del funzionamento del sistema installato e le sue caratteristiche tecniche e funzionali. 1 Anno di Monitoraggio 7x24 da remoto dell’intera infrastruttura installata. Dovrà essere garantito il monitoraggio in outsourcing dell’infrastruttura installata per un periodo continuativo di 12 mesi, 24 ore su 24, a partire dalla data della sua messa in esercizio, volto ad individuare eventuali problemi sull’infrastruttura. Tale monitoraggio dovrà essere preferibilmente fornito tutto o in parte con il diretto coinvolgimento del produttore dell’infrastruttura, in grado di interpretare in anticipo potenziali malfunzionamenti che potrebbero compromettere l’ottimale utilizzo dell’infrastruttura installata e di suggerire i necessari interventi correttivi. Dovrà anche essere inclusa una completa reportistica da fornire con cadenza mensile in grado di rappresentare il funzionamento nel tempo dell’infrastruttura installata. Integrazione del Software di gestione con la rete locale. Dovrà essere garantita la perfetta integrazione del Software e del Server di gestione con la rete locale presente, e tutti i componenti dell’infrastruttura dovranno essere identificati con un loro indirizzo IP. LAYOUT - 24 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Lista dei componenti L’elenco dei componenti HW che la Ditta dovrà fornire in opera configurati secondo le esigenze dell’Università e il dettaglio delle attività che dovranno essere garantite a seguito dell’installazione è il seguente: Fornitura in opera Hardware COMPONENTI: COMPONENTI Q.tà DESCRIZIONE Moduli di Poteza 4 Moduli di Potenza 10kW/10kVA Moduli Batteria 4 Moduli Batteria - 25 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Armadi Rack 19” Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 2 Armadi Rack 19” 42U 4 Strisce di alimentazioni intelligenti da 32A 42U Strisce di Alimentazioni con 24 prese ed accensione e spegnimento Intelligenti della singola presa. Centralina di 2 Centralina di gestione ambientale ciascuna Gestione con sensori: temperatura, umidità, apertura Ambientale porte, lampeggiante, ant-allagamento, fumi all’interno del Rack Condizionamento 2 Unità di condizionamento ad acqua refrigerata fino a 20kW Attività Post-Installazione ATTIVITA’ Q DESCRIZIONE . t à Assemblaggio 1 Assemblaggio dell’intera infrastruttura. Training 1 Training di 1 giorno sulla gestione e manutenzione dell’infrastruttura installata. - 26 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Monitoraggio 1 Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 1 Anno di Monitoraggio 7x24 da remoto dell’intera infrastruttura installata. Network Integration 1 Integrazione del Software di gestione con la rete dati del Data Center - 27 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - LOTTO 2 Fornitura per l’Istituto Nazionale di Astrofisica, Osservatorio Astrofisico di Catania. L’offerta economica per questo lotto non può essere superiore a: € 5.000,00 IVA esclusa. ART 2.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO Sistema Rack 19” di 42U (colore nero) fornito con ventilazione forzata adeguata. UPS da 10000 VA con ingresso trifase. Autonomia 10 minuti calcolati su 10000VA, con montaggio sul rack. Il sistema deve poter essere monitorato via Web Browser con la possibilità di ricevere messaggi di allarmi. Sistema di monitoraggio ambientale all’interno dell’Armadio Rack della temperatura ed umidità. Strisce di alimentazione intelligenti fino a 24 prese dotate di sistema di Accensione e spegnimento via IP della singola presa. Qualora il sistema proposto per il Lotto 2 necessiti di più di un rack, l’offerta dovrà comprendere tale opzione. - 28 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - LOTTO 3 Fornitura per l’Università degli Studi di Messina e l’Istituto Nazionale di Geofisica e Vulcanologia. L’offerta economica per questo lotto non può essere superiore a: € 174.000,00 IVA esclusa. ART 3.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO L’infrastruttura richiesta (UPS, distribuzione alimentazione elettrica – PDU, armadi TLC, condizionamento dell’aria integrato) dovrà essere un'architettura modulare, configurabile e scalabile progettata per fornire soluzioni di protezione dell'alimentazione elettrica end-toend per qualsiasi tipo di data center. Con il fine di ottenere il massimo livello di comunicazione tra i componenti dell’infrastruttura (UPS, distribuzione alimentazione elettrica – PDU, armadi TLC), si richiede che tutti i componenti appartenenti all’infrastruttura Data Center siano stati progettati e realizzati da un unico produttore. La soluzione UPS/PDU dovrà essere costituita da unità di alimentazione e di distribuzione modulari e facili da installare. Ciascun modulo dovrà essere composto da rack 23" indipendenti, simili ai rack dove saranno alloggiati gli apparati di calcolo e di storage del data center. La soluzione dovrà includere i componenti seguenti: UPS, switch statico (STS) con correzione del fattore di potenza, switch di bypass di manutenzione (MBS), unità batterie, unità di distribuzione dell'alimentazione (PDU), prese multipla (striscie di alimentazione) con gestione delle singole porte di alimentazione, canaline per il posizionamento dei cavi e cablaggio in testa, cavi alimentazione e dati Dovrà essere disponibile nella configurazione 400Vca trifase 50Hz, in sistemi TT, TN-C e TN-S. Il presente Articolo descrive i requisiti di tale architettura e i diversi componenti richiesti per mettere a punto una soluzione mirata modulare, configurabile e scalabile. - 29 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 IMPIANTO ELETTRICO PER LA CONFIGURAZIONE (N+1) Il grado di ridondanza (N+1) implica un sistema di distribuzione a singolo radiale. Nella figura sottostante è riportato un sistema in configurazione (N+1) con ridondanza intrinseca di UPS e ridondanza di distribuzione (cavi e interruttori generali). Sorgente di alimentazione in configurazione (N+1) Requisiti di impianto elettrico Di seguito si riportano le caratteristiche elettriche richieste per i componenti di impianto installati a monte del quadro elettrico di distribuzione denominato PDU, in riferimento alla figura sopra riportata. Caratteristiche elettriche Valori Massima Corrente di ingresso (continua, a minima tensione di alimentazione) 147A - 30 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Protezione in corrente di ingresso Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 160A *Nota 1 Massima corrente di uscita (nella sola di condizione di bypass al 125% di 145A sovraccarico) Corrente di uscita sul conduttore di neutro (con 100% di carico distorcente) *Nota 2 Sezione cavi ingresso 70mm2 Sezione cavi uscita 50mm2 Cavo PE esterno 35mm2 1) Protezione di corrente in Ingresso; I fusibili dovranno essere DIN LV HRC tipo gl 500V 2) Cavi di uscita conduttore di neutro; dimensionati per il 173% della corrente di fase, per carichi distorcenti. Tutti i cavi dovranno essere in rame isolati in PVC a 30°C come massima temperatura ambientale. Si prega di osservare che carichi distorcenti (switch mode power supply) monofase causano l’aumento della corrente di neutro: al 100% di carico distorcente (carico SMPS) il cavo di neutro dovrebbe essere dimensionato in accordo con quanto previsto da norma CEI64-8. Si osservi che carichi distorcenti (switch mode power supply) monofase causano l’aumento della corrente di neutro: al 100% di carico distorcente (carico SMPS) il cavo di neutro dovrebbe essere dimensionato in accordo con quanto previsto da norma CEI 64-8. Compatibilità e certificazioni EN50091-1-1 / IEC62040-1-1 EN/IEC62040-2 EN/IEC62040-3 IEC61000-4-2 livello 3, criterio di performance B IEC61000-4-4 livello 2, criterio di performance A IEC 1000-4-5 (livello 4) IEC 61000-4-3 livello 2, criterio di performance A EIA-310-D (rack dove sono alloggiati gli apparati) SEZIONE 1 - MODULO GRUPPO DI CONTINUITA' (UPS) - 31 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Considerazioni generali 1. Il sistema dovrà essere composto da un’architettura array scalabile e ridondata N+1 installate a rack. L’architettura UPS dovrà essere dimensionata per garantire 40 KW (N+1) ma dovrà essere espandibile sino a 80 KW (N+1), e dovrà poter comprendere fino a un massimo di nove (9) moduli di alimentazione 10kW/10kVA in una configurazione ridondante N+1, uno switch statico di bypass, un sistema batterie in armadi separati in grado di garantire autonomia fino a 10 minuti (con carico nominale di 40 KW ca.) e un display LCD, il tutto alloggiato in rack 19" suddivisi in moduli di potenza e moduli batteria. La soluzione UPS dovrà consentire agli utenti di installare e rimuovere i moduli di alimentazione 10kW/10kVA e i moduli batteria anche durante il funzionamento del sistema (Hot-Swapable). Ciascun modulo dovrà avere la topologia Double Conversion On-Line a ingresso con correzione del fattore di potenza e bassa distorsione armonica (THDi%<5%). Modi operativi La topologia deve essere Double Conversion on-line. Indipendentemente dal loro numero, i moduli di alimentazione 10kW/10kVA di ogni singolo rack devono funzionare alla stregua di un unico sistema in ciascuno dei modi operativi descritti di seguito: • • • • Normale: in ciascun modulo di alimentazione il raddrizzatore funziona in parallelo per trasformare la ca in ingresso in cc filtrata per alimentare ininterrottamente le batterie. L'inverter trasforma la tensione del bus cc in tensione di carico ca pulita e continua. Interruzione dell'alimentazione: dopo aver rilevato un'interruzione dell'alimentazione, il raddrizzatore si deve isolare dall'alimentazione di rete in ingresso e le batterie si collegheranno all'inverter per garantire alimentazione al carico. Il tempo di autonomia da batteria sarà pari a quello definito nella presente specifica. Quando viene ripristinata l'alimentazione elettrica, senza alcun intervento da parte dell'utente i moduli UPS ritorneranno automaticamente al modo operativo normale descritto in precedenza. Emergenza: nel caso si verifichi un guasto nel bus di uscita o una condizione di sovraccarico estremo, il carico viene commutato senza soluzioni di continuità a uno switch statico con correzione del fattore di potenza. Il guasto di un modulo all'interno di una configurazione ridondata non provoca la commutazione del carico alla linea di bypass statico. Bypass di manutenzione: il sistema UPS comprenderà uno switch di bypass di manutenzione (MBS) wrap around per escludere in modo sicuro l'UPS nel corso di interventi di manutenzione di routine o di interventi di assistenza. L'MBS sarà ad apertura-chiusura perché non venga mai meno l'alimentazione al carico nella fase di transizione. Componenti - Raddrizzatore Ciascun modulo di alimentazione dell'UPS comprenderà un raddrizzatore attivo di tipo IGBT (Insulated Gated Bipolar Transistor) con correzione del fattore di potenza. La tensione nominale del bus cc deve essere pari a +/- 192Vcc - 32 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 La tensione del bus cc deve essere compensata in base alle variazioni della temperatura (compensazione in temperatura della batteria) per mantenere costantemente una tensione ottimale di carica delle batterie in presenza di escursioni termiche al di sopra o al di sotto di 25° C. Il tasso di compensazione deve essere pari a 320mV/°C per valori di temperatura ambiente ≥ 20° C e a 0mV/°C per valori di temperatura ambiente < 20°C. La tensione di ondulazione cc deve essere inferiore a +/- 1% del valore nominale a batterie disconnesse. Il fattore di potenza in ingresso deve essere pari a 0,99 con ritardo se il carico è al 100% e a 0,98 se il carico è al 50% senza l'uso di filtri passivi. Il raddrizzatore utilizzerà la tecnologia di controllo elettronico della forma d'onda per mantenere la forma d'onda sinusoidale. Sarà usato il controllo della corrente Pulse Width Modulation (PWM) (modulazione a durata di impulso). Per tutte le funzioni di controllo e monitoraggio devono essere usati Digital Signal Processor (DPS). Non sono ammessi controlli analogici. La distorsione armonica totale (THD) riflessa della corrente di ingresso non deve essere superiore al 5% con carico al 100%. Intervallo della frequenza di ingresso: tra - 20% e + 15% del valore nominale Il tempo standard di ricarica batterie è conforme a IEEE 485. - Batterie La tecnologia standard delle batterie dovrà essere VRLA (Valve Regulated Lead Acid). Le batterie non devono essere alloggiate nello stesso rack dove si trovano i moduli di alimentazione. Le batterie devono essere modulari e collocate su scaffali estraibili per rendere più rapida l'assistenza e la sostituzione. La tensione delle batterie deve essere compensata in temperatura come descritto nel precedente paragrafo 3.1.c. Potenza di ricarica: 5kW max. Fine della scarica: +/- 160Vcc - Inverter L'inverter sarà composto da moduli di alimentazione IGBT a commutazione rapida. L'inverter dovrà essere controllato in modalità PWM con l'uso di logica DSP. Il controllo di tipo analogico non è ammesso. I moduli dell'inverter presentano la correzione del fattore di potenza, ovvero kW=kVA. L'uso di un fattore di potenza in uscita diverso dall'unità non è ammesso. La tensione nominale in uscita sarà pari a 400V/400V, trifase, 50Hz, a quattro fili più la terra. Rendimento di ciascun modulo a pieno carico: non inferiore al 93,5%. Distorsione armonica totale della tensione di uscita a pieno carico: inferiore al 2%. Regolazione della tensione di uscita: Statica: inferiore all'1% a pieno carico lineare e non lineare Dinamica: +/-5% con carico a gradini 100% Frequenza in uscita: 50/60 Hz libera - 33 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Fattore di cresta: illimitato Predisposizione per lo spegnimento di emergenza a distanza (EPO) - Switch statico Lo switch statico sarà composto da raddrizzatori controllati al silicio (SCR) con correzione del fattore di potenza. Non sono ammessi SCR senza correzione del fattore di potenza muniti di contattore wrap around. Lo switch statico deve essere di tipo estraibile per facilitare la manutenzione. Sarà alloggiato nello stesso rack dove si trovano i moduli di alimentazione principali e le batterie. Se si verificano più di 10 commutazioni da e verso l'inverter nel corso di 10 minuti, il carico verrà bloccato in condizione di bypass statico. Un allarme provvederà a segnalare la situazione. - Fattori ambientali Temperatura di funzionamento con correzione del fattore di potenza: 0-40°C Temperatura dell'ambiente di posizionamento: tra - 15 e 45°C Altezza di funzionamento con correzione del fattore di potenza: 0 - 1000m s.l.m. Altezza di posizionamento: 0 - 15.000 m Umidità relativa: 0-95% non condensing Rumore udibile a 1 metro di distanza dall'unità: • 70 dbA al 100% del carico • 62 dbA al 70% del carico - Connettività e gestione Monitoraggio da remoto e chiusura automatica sicura del sistema operativo Arresto del server: L'UPS, unitamente a una scheda di interfaccia di rete, chiude automaticamente in modo sicuro uno o più sistemi operativi in caso di alimentazione di emergenza da batteria (reti TCP/IP Ethernet) L'UPS sarà anche in grado di utilizzare una porta RS232 per comunicare lungo un cavo seriale DB9 e chiudere automaticamente in modo sicuro uno o più sistemi operativi in caso di alimentazione di emergenza da batteria. - Monitoraggio da remoto dell'UPS Monitoraggio via Web: dovrà essere possibile monitorare da remoto l'UPS tramite un Web browser come Internet Explorer o Netscape Navigator. Monitoraggio via RS232: dovrà essere possibile monitorare da remoto l'UPS attraverso una connessione RS232 oppure un contatto libero del gruppo di continuità. - 34 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Il produttore dell'UPS deve fornire software in grado di supportare la chiusura automatica sicura e il monitoraggio da remoto dei seguenti sistemi operativi: Scientific Linux CERN 3.0.5 e superiori, Linux Red Hat Enterprise 3.0 e superiori, Fedora Core 3 e superiori Microsoft 3.1, 3.11 Microsoft Windows 95 Microsoft Windows NT OS/2 Netware 3.12, 4.1, 4.11 Apple DEC VMS DG-UX Silicon Graphics DEC OSF/1 SCO UNIX SCO XENIX SVR4 Interactive Unix Ware SUN Solaris SUN OS IBM AIX HP-UX - Parti meccaniche I moduli di alimentazione dell'UPS, lo switch statico e le batterie VRLA dovranno essere alloggiati in un rack 19" standard che presenta le specifiche seguenti: 208cmH x 60cmL x 86cmP Finito con polvere, colore nero Acciaio laminato a freddo spessore 16 Armadio NEMA 1 Struttura con parte anteriore cieca Munito di rotelle per favorire la mobilità. I piedini di livello sono forniti di dotazione Ingresso cavi: dall'alto o dal basso. - 35 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 SEZIONE 2 - UNITA' DI DISTRIBUZIONE DELL'ALIMENTAZIONE Considerazioni generali La PDU è un'unità indipendente dove sono alloggiati lo switch di bypass di manutenzione (MBS), gli interruttori della distribuzione dell'alimentazione e il controller di gestione remota. La PDU deve essere montata a fianco dell'UPS trifase in una disposizione di perfetto allineamento. Fattori elettrici La PDU è un'unità indipendente dove sono alloggiati lo switch di bypass di manutenzione (MBS), gli interruttori della distribuzione dell'alimentazione e il controller di gestione remota. La PDU dovrà essere alloggiata in un rack 23" standard che presenta la stessa altezza e profondità dell'UPS trifase, e posizionata a fianco dell'UPS trifase in una disposizione di perfetto allineamento. Per facilitare la manutenzione e l'assistenza dell'UPS modulare trifase senza interruzione del carico critico dovrà essere fornito di dotazione uno switch di bypass di manutenzione (MBS) di tipo apertura-chiusura con tre (3) interruttori. L’Unità di distribuzione dell’alimentazione con System Bypass a 80 kW dovrà provvedere alla distribuzione e alla gestione della corrente elettrica. Con una capacità di 80 kW, l’unità accoglierà un ingresso trifase da 400 V, e distribuirà alimentazione monofase da 230 V (L-N) ai rack dell’apparecchiatura e ai pannelli di distribuzione remota. Tali pannelli occuperanno le 10 U superiori degli armadietti tipo rack progettati appositamente e distribuiranno alimentazione ai rack dell’apparecchiatura. L’Unità di distribuzione dell’alimentazione con System Bypass sarà alloggiata in un armadietto tipo rack progettato appositamente. Ogni Unità di distribuzione dell’alimentazione con System Bypass da 80 kW disporrà di trenta posizioni polari per l’alimentazione dei rack dell’apparecchiatura e di quattro posizioni tripolari per l’alimentazione di pannelli di distribuzione remota (remote distribution panel). Ogni pannello di distribuzione remota disporrà di trentanove posizioni polari per l’alimentazione dei rack dell’apparecchiatura e una posizione tripolare che alimenterà, a sua volta, il pannello di distribuzione remota. Ciascun quadro dovrà essere dimensionato in base ai seguenti valori nominali: 230V, trifase, in regime di neutro dipendente dalla sorgente, 50Hz. Per quanto riguarda l'installazione in testa dei cavi di alimentazione, il vendor dell'UPS fornirà adeguati cavi monofase per collegare gli interruttori della distribuzione al rack fornito. Ciascun cavo dovrà essere munito di una spina IEC 320-19 per l'inserimento in una PDU con gestione delle singole porte di alimentazione (presa multipla) alloggiata nei rack forniti. La lunghezza dei cavi dipenderà dalla lunghezza di ciascuna fila di rack. La corrente di terra dovrà essere monitorata. Monitoraggio tensione/corrente - 36 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Ciascun interruttore della distribuzione deve comprendere in dotazione un trasformatore di corrente integrato per monitorare la corrente che attraversa ciascun interruttore. Lo stato e le condizioni della soluzione dovranno essere indicati da un'unità di monitoraggio del controller di sistema fornita in dotazione. Tra le condizioni monitorate figurano: - Tensioni del sistema - La corrente che attraversa gli interruttori della distribuzione. Dovrà essere fornito uno switch a 32 porte per consentire il monitoraggio della rete e la comunicazione tra la rete e i server di gestione del carico. Per quanto riguarda l'installazione in testa, i cavi dati che si collegano allo switch a 32 porte dovranno essere forniti dal vendor dell'UPS. La lunghezza dei cavi dati dipende dalla lunghezza di ciascuna fila di rack. Tool HW/SW per la gestione del sistema Un tool HW/SW dovrà essere in grado di permettere il monitoraggio del carico a livello di singolo dispositivo, di riconoscere automaticamente tutti i componenti collegati e di fornire una visione grafica dell’intera infrastruttura. In caso di allarme deve essere in grado di effettuarne la notificazione via e-mail, via teledrin, e via SMS (qualora presente un Gateway SMS). Gli allarmi debbono essere archiviati in file “log” con data e ora dell’evento. Il sistema dovrà monitorare i seguenti componenti via Ethernet: Rack UPS, RACK PDU, Strisce di Alimentazione contenute nei singoli Armadi Rack, Schede Ambientali, Componenti Opzionali (come ATS e stazioni di energia in DC). Parti meccaniche La PDU, composta da MBS, due (2) quadri a 42 posizioni e dall'hub di rete e monitoraggio, dovrà essere alloggiata in un rack 23" standard che presenta le specifiche seguenti: 208cmH x 750cmL x 86cmP Finito con polvere, colore nero Acciaio laminato a freddo spessore 16 Armadio NEMA 1 - 37 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Struttura con parte anteriore cieca Munito di rotelle per favorire la mobilità. I piedini di livello sono forniti di dotazione Ingresso cavi: dall'alto o dal basso. Collegamenti L’installazione dovrà comprendere: la realizzazione dei collegamenti elettrici tra le Unità di distribuzione dell'alimentazione (PDU) e ciascun armadio rack di carico. Tale collegamento dovrà essere realizzato utilizzando cavo elettrico di caratteristiche e dimensioni adeguate al carico massimo che ciascun rack potrà sopportare. Il collegamento elettrico tra i Moduli gruppo di continuità (UPS) Trifase e il quadro elettrico di zona. Tale collegamento dovrà essere realizzato utilizzando cavo elettrico di caratteristiche e dimensioni adeguate al carico massimo che ciascuna soluzione UPS potrà sopportare. MODULO RACK ED ACCESSORI Dovranno essere forniti ed installati n°6 Armadi Rack ed accessori aventi le seguenti specifiche tecniche: Specifiche Fisiche Dimensione Rack, compatibilità del montaggio a rack, carico massimo supportato Altezza Interna EIA310 Altezza Esterna Larghezza Esterna Profondità Esterna Carico Statico Carico Dinamico 42U 19” 2070mm 600mm 1070mm 909 Kg 909 Kg (81.5”) (23.6”) (42.1”) (2000lbs) (2000lbs) - 38 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’altezza esterna del 42U è di 2070mm (81.5”) per facilitarne il passaggio attraverso una porta standard 7 Ft. (84”). Il carico statico supportato dovrà essere di almeno 909 Kg (peso supportato dalle ruote orientabile e dai piedini di livellamento). Il carico dinamico supportato dovrà essere di almeno 909 Kg (peso supportato dalle ruote orientabile in movimento). Accesso al carico e montaggio L’armadio deve offrire 42U di spazio per il montaggio delle apparecchiature I montanti verticali devono essere regolabili in profondità Sia la porta frontale che posteriore devono possedere cardini a rilascio veloce per un rapido e veloce smontaggio Sia la porta frontale che posteriore devono poter essere aperte fino a 180° per un facile accesso interno La porta frontale deve essere reversibile in modo da essere aperta da entrambi i lati La porta posteriore deve essere a due battenti verticali per rendere più agevole l’attività di service L’armadio deve possedere pannelli laterali removibili senza attrezzi migliorando l’accesso per un veloce cablaggio dell’apparecchiature Specifiche ambientali L’armadio deve avere una protezione IP 20 contro il contatto, l’ingresso di corpi estranei e l’introduzione d’acqua. Specifiche di sicurezza L’armadio deve rispondere alle specifiche meccaniche (stabilità, resistenza meccanica, apertura porte, etc.) definite nel IEC 60950 Terza Edizione. Ventilazione - 39 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’armadio deve fornire una ventilazione che supera le specifiche della maggior parte dei server vendor L’armadio deve fornire una ventilazione per la porta frontale, la porta posteriore ed il tetto come mostrata di seguito: Altezza Interna Larghezza Esterna Porta Frontale Perforata Porta Posteriore Perforata Tetto Perforato 600mm 1070mm 5355 cm² 5413 cm² 1007 cm² (23.6”) (42.1.”) (830 in²) (839 in²) (156 in²) Canalizzazioni Ogni Armadio Rack dovrà prevedere n°3 canalizzazioni sul tetto per la distribuzione orizzontale dei cavi di alimentazione e dati. Strisce di Alimentazione In ogni Armadio Rack dovranno essere installate n°2 strisce di alimentazioni intelligenti da 32Amp installate nella parte posteriore dell’armadio senza occupare unità. L’installazione deve poter essere effettuata senza attrezzi. Deve essere composta da 24 prese di cui 20 IEC 320 C13 e 4 IEC 320 C19. Corrente 32Amp, Potenza almeno 7KW. È richiesto un amperometro digitale integrato con display. È richiesto il monitoraggio via IP dell’assorbimento. È richiesta l’allarmistica con soglie. È richiesta la possibilità di comandare da remoto l’alimentazione delle singole prese attraverso l’accensione e lo spegnimento della singola presa. L’accesso al management delle strisce di alimentazioni intelligenti dovrà avvenire tramite browser ed il management delle strisce di alimentazioni dovrà comunicare con il management dell’infrastruttura. - 40 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 MANAGEMENT dell’INFRASTRUTTURA CED Tutti i componenti dell’Infrastruttura CED dovranno essere monitorati e gestiti via IP da un unico punto di accesso chiamato Management dell’Infrastruttura CED. Dovrà essere fornito un’unità di Management dell’Infrastruttura CED con almeno 25 licenze scalabili a 1000. 1.0 Specifiche Fisiche 1.1 Altezza 1U, larghezza 19” 2.0 Caratteristiche tecniche 2.1 Management centralizzato: configurazione e monitoraggio del Management dell’Infrastruttura tramite un Web- browser da qualsiasi punto della rete. 2.2 Segnalazione guasti: dovrà effettuare il monitoraggio della corrente assorbita da ciascun circuito derivato e dovrà segnalare potenziali situazioni di sovraccarico, garantendo la disponibilità degli apparati collegati. 2.3 Diagramma di flusso dell’alimentazione: dovrà fornire dati storici relativi a ciascun componente per individuare trend che potrebbero compromettere la disponibilità di apparati critici. 2.3 Gestione a livello Rack: dovrà segnalare i Rack con minore assorbimento per consigliare dove installare nuove apparecchiature senza sovraccaricare le linee di alimentazione. Dovrà segnalare le variazioni di assorbimento elettrico a livello di singolo Rack 2.4 Gruppi di segnalazione: si potranno creare dei gruppi di segnalazione (lista di email) per allertare e notificare via email più persone in merito allo stesso problema 2.5 Supporto di dispositivi multipli: al fine di gestire una vasta gamma di dispositivi tra cui UPS monofase e trifase, unità di distribuzione dell'alimentazione, apparati di raffreddamento e gestione ambientale. - 41 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 2.6 Architettura scalabile: scalabile fino a 1000 dispositivi. Integrazione agevole di nuovi dispositivi con licenze supplementari 2.7 Autodiscovery: dovrà identificare automaticamente tutti dispositivi dell’infrastruutura CED senza interventi manuali con riduzione dei tempi di installazione. 2.10 Realizzazioni ed aggiornamenti concorrenti: al fine di diminuire la complessità e il tempo di setup tramite la configurazione di impostazioni o l'aggiornamento del firmware in contemporanea per dispositivi multipli 2.11 Logging dei dati: al fine di individuare situazioni potenzialmente pericolose prima che nascano problemi o per esportare il data log a fini di analisi. 2.12 Logging degli eventi: l'event log dovrà ricostruire la tempistica e la sequenza degli eventi che hanno provocato un incidente. 2.13 Report sullo stato delle batterie: dovrà fornire informazioni dettagliate sull'età delle batterie, sul carico, sullo stato di funzionamento. 2.14 Private IP Network: per accedere a dispositivi multipli da un unico indirizzo IP . 2.15 Accessibile via browser: dovrà visualizzare l'interfaccia utente attraverso un browser. Per consentire un rapido accesso da qualsiasi punto della rete. 2.16 Allarmi innescati dal superamento delle soglie predefinite: per impostare simultaneamente standard relativi ad alcuni parametri selezionati per UPS, distribuzione elettrica e dispositivi di monitoraggio ambientale al fine di tenere sotto controllo la performance del sistema 2.17 Azioni consigliate: dovrà fornire una descrizione dettagliata dei problemi nel momento in cui si verificano sia una serie di interventi consigliati per risolvere il problema in questione. 2.18 Wizard di setup: Wizard di facile utilizzo rendono più rapida la realizzazione riducendo il tempo di set up. 2.19 Integrazione di Building Management Systsem: dovrà inviare allarmi ed informazioni per - 42 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 gestire infrastrutture critiche di Building Management da un singolo sistema. 2.20 Enterprise Management: dovrà gestire tutti dispositivi dell’infrastruttura via SNMP (trap events) comunicando verso il sistema di Enterprise Management. 2.21 Password di sicurezza: la password di protezione dovrà essere selezionabile dall’utente. 2.22 Accesso di sola lettura: dovrà essere presente un'opzione di sola lettura per consentire di condividere l'accesso senza rischiare modifiche non autorizzate alla configurazione dei sistemi. 2.23 Encryption: al dine di ottenere un’accesso controllato ed integrazione con SSL browser e sessioni SSH. 2.24 Supporto Radius: dovrà essere possibile utilizzare un esistente server radius al fine di autenticare ed autorizzare un account per accedere ad uno dei dispositivi dell’infrastruttura CED. MODULO GESTIONE AMBIENTALE E SENSORI Dovranno essere fornite, installate e configurate n°3 centraline di gestione ambientale via IP con altezza 1U e montaggio 19”. Ogni centralina di gestione ambientale dovrà essere fornita con i seguenti sensori: n.°2 sensori di temperatura ed umidità, n.°1 sensori di controllo fumi all’interno dell’armadio Rack Server, n.°1 sensori anti-allagamento lunghezza almeno 6 m, n.°1 lampeggiante posizionato sul tetto dei Rack, n.°1 sensore apertura porta Rack Server, n°1 sensore vibrazioni La centralina dovrà ospitare i seguenti contatti per future integrazioni: fino a n.°4 sensori temperatura ed umidità, sensore movimento tra le file degli armadi Rack. n.° 4 contatti puliti disponibili Il management della centralina di gestione ambientale dovrà essere accessibile tramite browser. Il management della centralina di gestione ambientale dorà essere integrato con il management dell’Infrastruttura esistente. MODULO SISTEMA DI CONDIZIONAMENTO AMBIENTALE Premessa - 43 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Dovranno essere forniti sistemi di condizionamento ambientali progettati specificatamente per applicazioni di controllo di precisione di temperatura ed umidità. Controllerà automaticamente le funzioni di riscaldamento, raffreddamento e filtraggio dell’ambiente interessato. Il sistema dovrà essere costruito secondo i più alti standard qualitativi di ingegneria e costruzione, e dovrà essere montato a pavimento, configurato per un flusso d’aria condizionata up al fine di fornire la distribuzione uniforme dell’aria nell’ambiente interessato. Dovranno essere fornite ed installate n°2 unità di condizionamento capaci di neutralizzare fino a 20kW per Armadio Rack aventi le seguenti caratteristiche: Ogni singolo Cabinet Il cabinet del sistema di condizionamento dovrà essere provvisto di pannelli laterali e pannelli frontali e laterali conformi allo standard relativo all’isolamento UL94-5VA ASTM e84. I pannelli frontali e posteriori dovranno essere perforati con asole che dovranno garantire almeno il 50% di area libera e dovranno essere equipaggiati con una chiave ed una serratura per garantire un accesso sicuro ai componenti interni all’unità di condizionamento. Le attività di service sull’unità di condizionamento verranno eseguite sul fronte e/o sul retro al fine di posizionare l’unità di condizionamento in fila ai Rack IT. L’unità di condizionamento dovrà essere provvista di ruote e piedini di livellamento al fine di posizionare correttamente l’unità in fila agli adiacenti Rack IT. Ventole Ogni unità di condizionamento include 8 ventole. Ogni ventola dovrà essere progettata per fornire 362.5 CFM per un totale di flusso d’aria di 2900 CFM. L’unità di condizionamento dovrà essere in grado di funzionare anche nel caso di un guasto ad una delle 8 ventole. Le 8 ventole dovranno essere riparabili mentre l’unità di condizionamento è in funzione. - 44 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Doppio Alimentatore A-B Doppio alimentatore A-B di ingresso all’unità di condizionamento. L’unità di condizionamento dovrà includere due alimentatore capaci di fornire il 60% della potenza totale. L’assorbimento della singola unità di condizionamento non dovrà superare i 1100W durante il funzionamento normale. Controllore Dal display dell’unità di condizionamento si dovrà accedere alla configurazione ed al monitoraggio della stessa attraverso dei controlli a menu. Le funzioni dovranno includere i report riguardanti lo stato, il set-up e la temperatura. Lo stato di funzionamento dell’unità di condizionamento dovrà essere indicato da LED o da altri appropriati indicatori. Il controllore dell’unità di condizionamento dovrà essere fornito con controlli attraverso chiavi per una navigazione attraverso i menu, gli oggetti selezionabili e le informazioni di input alpha numeriche. Il controllore dovrà poter attivare allarmi visibili ed udibili in presenza dei seguenti eventi: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. Filtro dell’aria intasato Comunicazione fallita Attuatore della valvola guasto Pompa guasta Unità di condizionamento guasta Alta temperatura del fluido in ingresso Sensore di temperatura guasto Ventola guasta Alimentatore guasto Misuratore della velocità di flusso guasto Perdita del gruppo di comunicazione Comunicazione interna fallita Alimentazione A-B fallita Alta temperatura nel Rack Bassa temperatura nel Rack Temperatura in uscita elevata Presenza acqua Il controllore dovrà memorizzare e visualizzare sul display tutti gli eventi del sistema di condizionamento. Ogni allarme dovrà contenere la data, l’ora e la modalità di funzionamento del sistema di condizionamento nel momento dell’evento. - 45 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Scheda di Management L’unità di condizionamento dovrà includere una scheda di management permettendo una gestione via rete TCP/IP. Il management via rete dovrà prevedere la possibilità di fissare dei set-point, entrare nei vari parametri del menu e cancellare allarmi. Valvola 2 WAY/ 3 WAY Il sistema di refrigerazione ad acqua dovrà utilizzare la valvola 2 WAY/3 WAY al fine di regolare la quantità d’acqua verso l’unità di condizionamento per mantenere le condizioni desiderate. La valvola dovrà essere collegata internamente all’unità di condizionamento e dovrà essere di facile sostituzione in caso di guasto. Il valore standard della pressione è di 600 psig. Connessioni dall’alto o dal basso I tubi dell’acqua refrigerata dovranno poter essere connessi sia dall’alto che dal basso dell’unità. Le connessione dei tubi dell’acqua refrigerata dovranno essere presenti all’interno dell’unità. Sensore della temperatura remoto Il sensore della temperatura remoto dovrà essere collegato all’unità di condizionamento al fine di fornire il controllo della temperatura di ingresso sul fronte del Rack. Misuratore di flusso Il misuratore di flusso dovrà essere installato all’interno dell’unità di condizionamento e collegato al controllore dell’unità al fine di fornire il valore della velocità di flusso attraverso l’unità di condizionamento. Presenza acqua Un cavo sensibile alla presenza d’acqua dovrà essere collegato all’unità di condizionamento. Nel caso in cui l’acqua o altri liquidi dovessero entrare in contatto con una superficie del cavo per tutta la sua lunghezza, il controllore visualizzerà e annuncerà in modo udibile l’allarme. Il cavo presenza acqua non dovrà essere inferiore ai 6 mt. Canalizzazione sul tetto dell’unità Al fine di realizzare la canalizzazione orizzontale sul tetto dei Rack sia per i cavi di potenza che dati, l’unità di condizionamento dovrà montare sul tetto delle canalizzazioni identiche a quelli degli armadi Rack. Impianto ad acqua refrigerata - 46 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Dovrà essere realizzato un impianto ad acqua refrigerata comprensivo di tutto il necessario al suo funzionamento : tubi, pompe, chiller, etc.. L’impianto dovrà essere dimensionamento per almeno 40kW di potenza frigorifera con la possibilità di aggiungere un secondo Chiller da almeno da 40kW successivamente. Dovrà essere inoltre fornito ed installato un armadio di distribuzione dell’acqua refrigerata (o collettore) tra il chiller e le unità di condizionamento che preveda il collegamento fino a 12 unità di condizionamento. PLENUM L’intera infrastruttura dovrà essere chiusa su ogni lato da un plenum al fine di convogliare tutto il calore prodotto dai rack in ingresso al condizionatore, ottenendo una maggiore densità di potenza per rack. Dovranno essere previste due porte di sicurezza d’accesso. Il plenum dovrà essere modulare e scalabile con la possibilità di inserire più rack in futuro. Attività DI Post-Installazione Ultimata l’installazione la Ditta fornitrice dovrà garantire una serie di attività PostInstallazione necessarie per la corretta gestione e manutenzione della infrastruttura installata. In dettaglio dovranno essere garantite le seguenti attività: Training di 1 giorno sulla gestione e manutenzione dell’infrastruttura installata. Dovrà essere erogato da parte della ditta installatrice e/o produttrice del sistema un training della durata di almeno una giornata al personale coinvolto nella gestione e nella manutenzione del sistema installato. Durante il training dovranno essere illustrate la logica del funzionamento del sistema installato e le sue caratteristiche tecniche e funzionali. 1 Anno di Monitoraggio 7x24 da remoto dell’intera infrastruttura installata. Dovrà essere garantito il monitoraggio in outsourcing dell’infrastruttura installata per un periodo continuativo di 12 mesi, 24 ore su 24, a partire dalla data della sua messa in esercizio, volto ad individuare eventuali problemi sull’infrastruttura. - 47 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Tale monitoraggio dovrà essere preferibilmente fornito tutto o in parte con il diretto coinvolgimento del produttore dell’infrastruttura, in grado di interpretare in anticipo potenziali malfunzionamenti che potrebbero compromettere l’ottimale utilizzo dell’infrastruttura installata e di suggerire i necessari interventi correttivi. Dovrà anche essere inclusa una completa reportistica da fornire con cadenza mensile in grado di rappresentare il funzionamento nel tempo dell’infrastruttura installata. Integrazione del Software di gestione con la rete locale. Dovrà essere garantita la perfetta integrazione del Software e del Server di gestione con la rete locale presente, e tutti i componenti dell’infrastruttura dovranno essere identificati con un loro indirizzo IP. LAYOUT Lista dei componenti - 48 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’elenco dei componenti HW che la Ditta dovrà fornire in opera configurati secondo le esigenze dell’Università e il dettaglio delle attività che dovranno essere garantite a seguito dell’installazione è il seguente: Fornitura in opera Hardware COMPONENTI: COMPONENTI Q.tà DESCRIZIONE Rack UPS 1 RACK UPS ciascuno alloggiato con 5 moduli da 10KW ciascuno e 10 minuti di autonomia. Rack PDU 1 RACK PDU Condizionament o 2 Unità di condizionamento con la capacità di neutralizzare fino a 20kW per Armadio Rack Impianto Meccanico 1 Dovrà essere realizzato un impianto meccanico da almeno 40kW con tubi, pompe, chiller. Dovrà essere fornito un armadio di distribuzione dell’acqua refrigerata con la possibilità di collegare fino a 12 unità di condizionamento Armadio Rack Data Center 6 Armadi Rack per la Equipment Room. Striscie di Alimentazione 12 Due striscie intelligenti da 24 prese ciascuna in ogni Armadio Rack con accensione e spegnimento comandabile remotamente. Monitoraggio Ambientale 3 Centralina di monitoraggio ambientale di temperatura/umidità, sensore allagamento, sensore presenza fumi, lampeggiante, apertura porta, vibrazioni Attività Post-Installazione ATTIVITA’ Q.tà DESCRIZIONE Assemblaggio 1 Assemblaggio dell’intera infrastruttura. Training 1 Training di 1 giorno sulla gestione e manutenzione dell’infrastruttura installata. Monitoraggio 1 1 Anno di Monitoraggio 7x24 da remoto dell’intera infrastruttura installata. - 49 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Network Integration 1 Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Integrazione del Software di gestione con la rete dati del Data Center - 50 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - LOTTO 4.1 Fornitura per l’Università degli Studi di Catania, Dipartimento di Ingegneria Informatica e delle Telecomunicazioni. L’offerta economica per questo lotto non può essere superiore a: € 5.000,00 IVA esclusa. ART 4.1.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO MODULO RACK ED ACCESSORI Alimentazione Il rack dovrà essere dotato di N. 2 strisce di alimentazione da 24 prese monofase con attacco a clip per prevenire distacchi accidentali. Le strisce di alimentazione dovranno essere alimentate dal sistema UPS. Ogni singola striscia di alimentazione dovrà essere in grado di alimentare fino a un carico di 3.7KW, e dovrà essere dotata di ingresso 16 A con presa interbloccata (a norma IEC309), 230V monofase, amperometro digitale con controllo sia locale (display) sia remoto attraverso porta Ethernet, allarme per sovraccarico, gestione remota tramite rete. Ciascuna presa delle strisce di alimentazione deve essere comandabile a distanza dall’interfaccia web di controllo. MODULO GRUPPO DI CONTINUITÀ (UPS) Il modulo di alimentazione UPS dovrà possedere i seguenti requisiti minimi: Ingressi • potenza di uscita pari a 8000 Watt; • massima potenza configurabile 8000 Watt; • tensione di uscita nominale 230V, 400V 3PH; • nota tensione di uscita configurabile per 380: 400 o 415 V 3 tensione di fase nominale di uscita; • efficienza a pieno carico del 95% • distorsione tensione di uscita inferiore al 5% a pieno carico; • frequenza di uscita (sync alla rete): 47 - 53 Hz for 50 Hz nominale • forma d’onda sinusoidale; • fattore di cresta illimitato; - 51 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE • Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 connessioni di uscita di tipo: Hard Wire 4-wire (3PH + G), Hard Wire 5-wire (3PH + N + G, Screw Terminals; Uscite • • • • • • Bypass di manutenzione incorporato,Bypass statico incorporato Tipo di connessione di ingresso 400V 3PH Frequenza di ingresso 47-70 Hz (auto sensing) Spina di tipo Hard Wire 5-wire (3PH + N + G) Campo tensione di ingresso per funzionamento 304-477 V Altre tensioni di ingresso 380, 415 Batterie Il modulo dovrà contenere almeno 4 (quattro) batterie di tipo VRLA con tempo di ricarica tipico di 14 ore, con quantità RBC™ pari a 4. Tempi Il tempo di backup (autonomia delle batterie) a pieno carico dovrà essere maggiore o uguale a 4 minuti. Comunicazione e gestione La sezione di comunicazione dovrà prevedere i seguenti requisiti minimi: • Interfaccia DB-9 RS-232. Smart-Slot • Pannello di controllo a LED multifunzione e console di controllo • Allarmi sonori e visivi con gestione delle priorità in base alla gravità • Sistema Emergency Power Off • Gestione intelligente batterie • Gestibile via rete Il produttore dell'UPS deve fornire software in grado di supportare la chiusura automatica sicura e il monitoraggio da remoto dei seguenti sistemi operativi: Scientific Linux CERN 3.0.5 e superiori, Linux Red Hat Enterprise 3.0 e superiori, Fedora Core 3 e superiori Microsoft 3.1, 3.11 Microsoft Windows 95 Microsoft Windows NT Apple - 52 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 SUN Solaris SUN OS Fattori ambientali • • • • • • • Temperatura di funzionamento: 0-40°C Temperatura dell'ambiente di posizionamento: tra - 50 e 40 °C Altezza di funzionamento con correzione del fattore di potenza: 0 - 1000m s.l.m. Altezza di posizionamento: 0 - 15.000 m Umidità relativa: 0-95% Rumore udibile a 1 metro di distanza dall'unità 54 dBA Classe di protezione IP 20 Certificazioni C-tick, CE, EN 50091-2, EN/IEC 62040-3, IEC 61000-3-2, IEC 61000-3-3, ISO 14001, ISO 9001, VFI-SS112. - 53 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - LOTTO 4.2 Fornitura per l’Università degli Studi di Catania, Dipartimento di Matematica e Informatica. L’offerta economica per questo lotto non può essere superiore a: € 5.000,00 IVA esclusa. ART 4.2.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO MODULO RACK ED ACCESSORI Alimentazione Il rack dovrà essere dotato di N. 2 strisce di alimentazione da 24 prese monofase con attacco a clip per prevenire distacchi accidentali. Le strisce di alimentazione dovranno essere alimentate dal sistema UPS. Ogni singola striscia di alimentazione dovrà essere in grado di alimentare fino a un carico di 3.7KW, e dovrà essere dotata di ingresso 16 A con presa interbloccata (a norma IEC309), 230V monofase, amperometro digitale con controllo sia locale (display) sia remoto attraverso porta Ethernet, allarme per sovraccarico, gestione remota tramite rete. Ciascuna presa delle strisce di alimentazione deve essere comandabile a distanza dall’interfaccia web di controllo. MODULO GRUPPO DI CONTINUITÀ (UPS) Il modulo di alimentazione UPS dovrà possedere i seguenti requisiti minimi: Ingressi • potenza di uscita pari a 8000 Watt; • massima potenza configurabile 8000 Watt; • tensione di uscita nominale 230V, 400V 3PH; • nota tensione di uscita configurabile per 380: 400 o 415 V 3 tensione di fase nominale di uscita; • efficienza a pieno carico del 95% • distorsione tensione di uscita inferiore al 5% a pieno carico; • frequenza di uscita (sync alla rete): 47 - 53 Hz for 50 Hz nominale • forma d’onda sinusoidale; • fattore di cresta illimitato; • connessioni di uscita di tipo: Hard Wire 4-wire (3PH + G), Hard Wire 5-wire (3PH + N + G, Screw - 54 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Terminals; Uscite • • • • • • Bypass di manutenzione incorporato,Bypass statico incorporato Tipo di connessione di ingresso 400V 3PH Frequenza di ingresso 47-70 Hz (auto sensing) Spina di tipo Hard Wire 5-wire (3PH + N + G) Campo tensione di ingresso per funzionamento 304-477 V Altre tensioni di ingresso 380, 415 Batterie Il modulo dovrà contenere almeno 4 (quattro) batterie di tipo VRLA con tempo di ricarica tipico di 14 ore, con quantità RBC™ pari a 4. Tempi Il tempo di backup (autonomia delle batterie) a pieno carico dovrà essere maggiore o uguale a 4 minuti. Comunicazione e gestione La sezione di comunicazione dovrà prevedere i seguenti requisiti minimi: • Interfaccia DB-9 RS-232. Smart-Slot • Pannello di controllo a LED multifunzione e console di controllo • Allarmi sonori e visivi con gestione delle priorità in base alla gravità • Sistema Emergency Power Off • Gestione intelligente batterie • Gestibile via rete Il produttore dell'UPS deve fornire software in grado di supportare la chiusura automatica sicura e il monitoraggio da remoto dei seguenti sistemi operativi: Scientific Linux CERN 3.0.5 e superiori, Linux Red Hat Enterprise 3.0 e superiori, Fedora Core 3 e superiori Microsoft 3.1, 3.11 Microsoft Windows 95 Microsoft Windows NT Apple SUN Solaris - 55 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 SUN OS Fattori ambientali • • • • • • • Temperatura di funzionamento: 0-40°C Temperatura dell'ambiente di posizionamento: tra - 50 e 40 °C Altezza di funzionamento con correzione del fattore di potenza: 0 - 1000m s.l.m. Altezza di posizionamento: 0 - 15.000 m Umidità relativa: 0-95% Rumore udibile a 1 metro di distanza dall'unità 54 dBA Classe di protezione IP 20 Certificazioni C-tick, CE, EN 50091-2, EN/IEC 62040-3, IEC 61000-3-2, IEC 61000-3-3, ISO 14001, ISO 9001, VFI-SS112. - 56 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - LOTTO 5 Fornitura per l’Istituto Nazionale di Astrofisica, Osservatorio Astronomico di Palermo e per l’Università degli Studi di Palermo. L’offerta economica per questo lotto non può essere superiore a: € 170.000,00 IVA esclusa. ART. 5.1 SISTEMA DI RACK, UPS E CONDIZIONAMENTO L’infrastruttura richiesta (UPS, distribuzione alimentazione elettrica – PDU, armadi TLC, condizionamento dell’aria integrato) dovrà essere un'architettura modulare, configurabile e scalabile progettata per fornire soluzioni di protezione dell'alimentazione elettrica end-toend per qualsiasi tipo di data center. Con il fine di ottenere il massimo livello di comunicazione tra i componenti dell’infrastruttura (UPS, distribuzione alimentazione elettrica – PDU, armadi TLC), si richiede che tutti i componenti appartenenti all’infrastruttura Data Center siano stati progettati e realizzati da un unico produttore. La soluzione UPS/PDU dovrà essere costituita da unità di alimentazione e di distribuzione modulari e facili da installare. Ciascun modulo dovrà essere composto da rack 23" indipendenti, simili ai rack dove saranno alloggiati gli apparati di calcolo e di storage del data center. La soluzione dovrà includere i componenti seguenti: UPS, switch statico (STS) con correzione del fattore di potenza, switch di bypass di manutenzione (MBS), unità batterie, unità di distribuzione dell'alimentazione (PDU), prese multipla (striscie di alimentazione) con gestione delle singole porte di alimentazione, canaline per il posizionamento dei cavi e cablaggio in testa, cavi alimentazione e dati Dovrà essere disponibile nella configurazione 400Vca trifase 50Hz, in sistemi TT, TN-C e TN-S. Il presente Articolo descrive i requisiti di tale architettura e i diversi componenti richiesti per mettere a punto una soluzione mirata modulare, configurabile e scalabile. IMPIANTO ELETTRICO PER LA CONFIGURAZIONE (N+1) - 57 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Il grado di ridondanza (N+1) implica un sistema di distribuzione a singolo radiale. Nella figura sottostante è riportato un sistema in configurazione (N+1) con ridondanza intrinseca di UPS e ridondanza di distribuzione (cavi e interruttori generali). Sorgente di alimentazione in configurazione (N+1) Requisiti di impianto elettrico Di seguito si riportano le caratteristiche elettriche richieste per i componenti di impianto installati a monte del quadro elettrico di distribuzione denominato PDU, in riferimento alla figura sopra riportata. Caratteristiche elettriche Valori Massima Corrente di ingresso (continua, a minima tensione di alimentazione) 147A Protezione in corrente di ingresso 160A *Nota 1 - 58 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Massima corrente di uscita (nella sola di condizione di bypass al 125% di 145A sovraccarico) Corrente di uscita sul conduttore di neutro (con 100% di carico distorcente) *Nota 2 Sezione cavi ingresso 70mm2 Sezione cavi uscita 50mm2 Cavo PE esterno 35mm2 1) Protezione di corrente in Ingresso; I fusibili dovranno essere DIN LV HRC tipo gl 500V 2) Cavi di uscita conduttore di neutro; dimensionati per il 173% della corrente di fase, per carichi distorcenti. Tutti i cavi dovranno essere in rame isolati in PVC a 30°C come massima temperatura ambientale. Si prega di osservare che carichi distorcenti (switch mode power supply) monofase causano l’aumento della corrente di neutro: al 100% di carico distorcente (carico SMPS) il cavo di neutro dovrebbe essere dimensionato in accordo con quanto previsto da norma CEI64-8. Si osservi che carichi distorcenti (switch mode power supply) monofase causano l’aumento della corrente di neutro: al 100% di carico distorcente (carico SMPS) il cavo di neutro dovrebbe essere dimensionato in accordo con quanto previsto da norma CEI 64-8. Compatibilità e certificazioni EN50091-1-1 / IEC62040-1-1 EN/IEC62040-2 EN/IEC62040-3 IEC61000-4-2 livello 3, criterio di performance B IEC61000-4-4 livello 2, criterio di performance A IEC 1000-4-5 (livello 4) IEC 61000-4-3 livello 2, criterio di performance A EIA-310-D (rack dove sono alloggiati gli apparati) SEZIONE 1 - MODULO GRUPPO DI CONTINUITA' (UPS) - 59 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Considerazioni generali 2. Il sistema dovrà essere composto da un’architettura array scalabile e ridondata N+1 installate a rack. L’architettura UPS dovrà essere dimensionata per garantire 40 KW (N+1) ma dovrà essere espandibile sino a 80 KW (N+1), e dovrà poter comprendere fino a un massimo di nove (9) moduli di alimentazione 10kW/10kVA in una configurazione ridondante N+1, uno switch statico di bypass, un sistema batterie in armadi separati in grado di garantire autonomia fino a 10 minuti (con carico nominale di 40 KW ca.) e un display LCD, il tutto alloggiato in rack 19" suddivisi in moduli di potenza e moduli batteria. La soluzione UPS dovrà consentire agli utenti di installare e rimuovere i moduli di alimentazione 10kW/10kVA e i moduli batteria anche durante il funzionamento del sistema (Hot-Swapable). Ciascun modulo dovrà avere la topologia Double Conversion On-Line a ingresso con correzione del fattore di potenza e bassa distorsione armonica (THDi%<5%). Modi operativi La topologia deve essere Double Conversion on-line. Indipendentemente dal loro numero, i moduli di alimentazione 10kW/10kVA di ogni singolo rack devono funzionare alla stregua di un unico sistema in ciascuno dei modi operativi descritti di seguito: • • • • Normale: in ciascun modulo di alimentazione il raddrizzatore funziona in parallelo per trasformare la ca in ingresso in cc filtrata per alimentare ininterrottamente le batterie. L'inverter trasforma la tensione del bus cc in tensione di carico ca pulita e continua. Interruzione dell'alimentazione: dopo aver rilevato un'interruzione dell'alimentazione, il raddrizzatore si deve isolare dall'alimentazione di rete in ingresso e le batterie si collegheranno all'inverter per garantire alimentazione al carico. Il tempo di autonomia da batteria sarà pari a quello definito nella presente specifica. Quando viene ripristinata l'alimentazione elettrica, senza alcun intervento da parte dell'utente i moduli UPS ritorneranno automaticamente al modo operativo normale descritto in precedenza. Emergenza: nel caso si verifichi un guasto nel bus di uscita o una condizione di sovraccarico estremo, il carico viene commutato senza soluzioni di continuità a uno switch statico con correzione del fattore di potenza. Il guasto di un modulo all'interno di una configurazione ridondata non provoca la commutazione del carico alla linea di bypass statico. Bypass di manutenzione: il sistema UPS comprenderà uno switch di bypass di manutenzione (MBS) wrap around per escludere in modo sicuro l'UPS nel corso di interventi di manutenzione di routine o di interventi di assistenza. L'MBS sarà ad apertura-chiusura perché non venga mai meno l'alimentazione al carico nella fase di transizione. Componenti - Raddrizzatore Ciascun modulo di alimentazione dell'UPS comprenderà un raddrizzatore attivo di tipo IGBT (Insulated Gated Bipolar Transistor) con correzione del fattore di potenza. La tensione nominale del bus cc deve essere pari a +/- 192Vcc La tensione del bus cc deve essere compensata in base alle variazioni della temperatura (compensazione in temperatura della batteria) per mantenere costantemente una tensione ottimale di carica delle batterie in presenza di escursioni termiche al di sopra o al di sotto di 25° C. Il tasso di compensazione deve essere pari a - 60 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 320mV/°C per valori di temperatura ambiente ≥ 20° C e a 0mV/°C per valori di temperatura ambiente < 20°C. La tensione di ondulazione cc deve essere inferiore a +/- 1% del valore nominale a batterie disconnesse. Il fattore di potenza in ingresso deve essere pari a 0,99 con ritardo se il carico è al 100% e a 0,98 se il carico è al 50% senza l'uso di filtri passivi. Il raddrizzatore utilizzerà la tecnologia di controllo elettronico della forma d'onda per mantenere la forma d'onda sinusoidale. Sarà usato il controllo della corrente Pulse Width Modulation (PWM) (modulazione a durata di impulso). Per tutte le funzioni di controllo e monitoraggio devono essere usati Digital Signal Processor (DPS). Non sono ammessi controlli analogici. La distorsione armonica totale (THD) riflessa della corrente di ingresso non deve essere superiore al 5% con carico al 100%. Intervallo della frequenza di ingresso: tra - 20% e + 15% del valore nominale Il tempo standard di ricarica batterie è conforme a IEEE 485. - Batterie La tecnologia standard delle batterie dovrà essere VRLA (Valve Regulated Lead Acid). Le batterie non devono essere alloggiate nello stesso rack dove si trovano i moduli di alimentazione. Le batterie devono essere modulari e collocate su scaffali estraibili per rendere più rapida l'assistenza e la sostituzione. La tensione delle batterie deve essere compensata in temperatura come descritto nel precedente paragrafo 3.1.c. Potenza di ricarica: 5kW max. Fine della scarica: +/- 160Vcc - Inverter L'inverter sarà composto da moduli di alimentazione IGBT a commutazione rapida. L'inverter dovrà essere controllato in modalità PWM con l'uso di logica DSP. Il controllo di tipo analogico non è ammesso. I moduli dell'inverter presentano la correzione del fattore di potenza, ovvero kW=kVA. L'uso di un fattore di potenza in uscita diverso dall'unità non è ammesso. La tensione nominale in uscita sarà pari a 400V/400V, trifase, 50Hz, a quattro fili più la terra. Rendimento di ciascun modulo a pieno carico: non inferiore al 93,5%. Distorsione armonica totale della tensione di uscita a pieno carico: inferiore al 2%. Regolazione della tensione di uscita: Statica: inferiore all'1% a pieno carico lineare e non lineare Dinamica: +/-5% con carico a gradini 100% Frequenza in uscita: 50/60 Hz libera Fattore di cresta: illimitato Predisposizione per lo spegnimento di emergenza a distanza (EPO) - 61 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - Switch statico Lo switch statico sarà composto da raddrizzatori controllati al silicio (SCR) con correzione del fattore di potenza. Non sono ammessi SCR senza correzione del fattore di potenza muniti di contattore wrap around. Lo switch statico deve essere di tipo estraibile per facilitare la manutenzione. Sarà alloggiato nello stesso rack dove si trovano i moduli di alimentazione principali e le batterie. Se si verificano più di 10 commutazioni da e verso l'inverter nel corso di 10 minuti, il carico verrà bloccato in condizione di bypass statico. Un allarme provvederà a segnalare la situazione. - Fattori ambientali Temperatura di funzionamento con correzione del fattore di potenza: 0-40°C Temperatura dell'ambiente di posizionamento: tra - 15 e 45°C Altezza di funzionamento con correzione del fattore di potenza: 0 - 1000m s.l.m. Altezza di posizionamento: 0 - 15.000 m Umidità relativa: 0-95% non condensing Rumore udibile a 1 metro di distanza dall'unità: • 70 dbA al 100% del carico • 62 dbA al 70% del carico - Connettività e gestione Monitoraggio da remoto e chiusura automatica sicura del sistema operativo Arresto del server: L'UPS, unitamente a una scheda di interfaccia di rete, chiude automaticamente in modo sicuro uno o più sistemi operativi in caso di alimentazione di emergenza da batteria (reti TCP/IP Ethernet) L'UPS sarà anche in grado di utilizzare una porta RS232 per comunicare lungo un cavo seriale DB9 e chiudere automaticamente in modo sicuro uno o più sistemi operativi in caso di alimentazione di emergenza da batteria. - Monitoraggio da remoto dell'UPS Monitoraggio via Web: dovrà essere possibile monitorare da remoto l'UPS tramite un Web browser come Internet Explorer o Netscape Navigator. Monitoraggio via RS232: dovrà essere possibile monitorare da remoto l'UPS attraverso una connessione RS232 oppure un contatto libero del gruppo di continuità. Il produttore dell'UPS deve fornire software in grado di supportare la chiusura automatica sicura e il monitoraggio da remoto dei seguenti sistemi operativi: - 62 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Scientific Linux CERN 3.0.5 e superiori, Linux Red Hat Enterprise 3.0 e superiori, Fedora Core 3 e superiori Microsoft 3.1, 3.11 Microsoft Windows 95 Microsoft Windows NT OS/2 Netware 3.12, 4.1, 4.11 Apple DEC VMS DG-UX Silicon Graphics DEC OSF/1 SCO UNIX SCO XENIX SVR4 Interactive Unix Ware SUN Solaris SUN OS IBM AIX HP-UX - Parti meccaniche I moduli di alimentazione dell'UPS, lo switch statico e le batterie VRLA dovranno essere alloggiati in un rack 19" standard che presenta le specifiche seguenti: 208cmH x 60cmL x 86cmP Finito con polvere, colore nero Acciaio laminato a freddo spessore 16 Armadio NEMA 1 Struttura con parte anteriore cieca Munito di rotelle per favorire la mobilità. I piedini di livello sono forniti di dotazione Ingresso cavi: dall'alto o dal basso. SEZIONE 2 - UNITA' DI DISTRIBUZIONE DELL'ALIMENTAZIONE - 63 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Considerazioni generali La PDU è un'unità indipendente dove sono alloggiati lo switch di bypass di manutenzione (MBS), gli interruttori della distribuzione dell'alimentazione e il controller di gestione remota. La PDU deve essere montata a fianco dell'UPS trifase in una disposizione di perfetto allineamento. Fattori elettrici La PDU è un'unità indipendente dove sono alloggiati lo switch di bypass di manutenzione (MBS), gli interruttori della distribuzione dell'alimentazione e il controller di gestione remota. La PDU dovrà essere alloggiata in un rack 23" standard che presenta la stessa altezza e profondità dell'UPS trifase, e posizionata a fianco dell'UPS trifase in una disposizione di perfetto allineamento. Per facilitare la manutenzione e l'assistenza dell'UPS modulare trifase senza interruzione del carico critico dovrà essere fornito di dotazione uno switch di bypass di manutenzione (MBS) di tipo apertura-chiusura con tre (3) interruttori. L’Unità di distribuzione dell’alimentazione con System Bypass a 80 kW dovrà provvedere alla distribuzione e alla gestione della corrente elettrica. Con una capacità di 80 kW, l’unità accoglierà un ingresso trifase da 400 V, e distribuirà alimentazione monofase da 230 V (L-N) ai rack dell’apparecchiatura e ai pannelli di distribuzione remota. Tali pannelli occuperanno le 10 U superiori degli armadietti tipo rack progettati appositamente e distribuiranno alimentazione ai rack dell’apparecchiatura. L’Unità di distribuzione dell’alimentazione con System Bypass sarà alloggiata in un armadietto tipo rack progettato appositamente. Ogni Unità di distribuzione dell’alimentazione con System Bypass da 80 kW disporrà di trenta posizioni polari per l’alimentazione dei rack dell’apparecchiatura e di quattro posizioni tripolari per l’alimentazione di pannelli di distribuzione remota (remote distribution panel). Ogni pannello di distribuzione remota disporrà di trentanove posizioni polari per l’alimentazione dei rack dell’apparecchiatura e una posizione tripolare che alimenterà, a sua volta, il pannello di distribuzione remota. Ciascun quadro dovrà essere dimensionato in base ai seguenti valori nominali: 230V, trifase, in regime di neutro dipendente dalla sorgente, 50Hz. Per quanto riguarda l'installazione in testa dei cavi di alimentazione, il vendor dell'UPS fornirà adeguati cavi monofase per collegare gli interruttori della distribuzione al rack fornito. Ciascun cavo dovrà essere munito di una spina IEC 320-19 per l'inserimento in una PDU con gestione delle singole porte di alimentazione (presa multipla) alloggiata nei rack forniti. La lunghezza dei cavi dipenderà dalla lunghezza di ciascuna fila di rack. La corrente di terra dovrà essere monitorata. Monitoraggio tensione/corrente Ciascun interruttore della distribuzione deve comprendere in dotazione un trasformatore di corrente integrato per monitorare la corrente che attraversa ciascun interruttore. - 64 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Lo stato e le condizioni della soluzione dovranno essere indicati da un'unità di monitoraggio del controller di sistema fornita in dotazione. Tra le condizioni monitorate figurano: - Tensioni del sistema - La corrente che attraversa gli interruttori della distribuzione. Dovrà essere fornito uno switch a 32 porte per consentire il monitoraggio della rete e la comunicazione tra la rete e i server di gestione del carico. Per quanto riguarda l'installazione in testa, i cavi dati che si collegano allo switch a 32 porte dovranno essere forniti dal vendor dell'UPS. La lunghezza dei cavi dati dipende dalla lunghezza di ciascuna fila di rack. Tool HW/SW per la gestione del sistema Un tool HW/SW dovrà essere in grado di permettere il monitoraggio del carico a livello di singolo dispositivo, di riconoscere automaticamente tutti i componenti collegati e di fornire una visione grafica dell’intera infrastruttura. In caso di allarme deve essere in grado di effettuarne la notificazione via e-mail, via teledrin, e via SMS (qualora presente un Gateway SMS). Gli allarmi debbono essere archiviati in file “log” con data e ora dell’evento. Il sistema dovrà monitorare i seguenti componenti via Ethernet: Rack UPS, RACK PDU, Strisce di Alimentazione contenute nei singoli Armadi Rack, Schede Ambientali, Componenti Opzionali (come ATS e stazioni di energia in DC). Parti meccaniche La PDU, composta da MBS, due (2) quadri a 42 posizioni e dall'hub di rete e monitoraggio, dovrà essere alloggiata in un rack 23" standard che presenta le specifiche seguenti: 208cmH x 750cmL x 86cmP Finito con polvere, colore nero Acciaio laminato a freddo spessore 16 Armadio NEMA 1 Struttura con parte anteriore cieca Munito di rotelle per favorire la mobilità. I piedini di livello sono forniti di dotazione - 65 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Ingresso cavi: dall'alto o dal basso. Collegamenti L’installazione dovrà comprendere: la realizzazione dei collegamenti elettrici tra le Unità di distribuzione dell'alimentazione (PDU) e ciascun armadio rack di carico. Tale collegamento dovrà essere realizzato utilizzando cavo elettrico di caratteristiche e dimensioni adeguate al carico massimo che ciascun rack potrà sopportare. Il collegamento elettrico tra i Moduli gruppo di continuità (UPS) Trifase e il quadro elettrico di zona. Tale collegamento dovrà essere realizzato utilizzando cavo elettrico di caratteristiche e dimensioni adeguate al carico massimo che ciascuna soluzione UPS potrà sopportare. MODULO RACK ED ACCESSORI Dovranno essere forniti ed installati n°6 Armadi Rack ed accessori aventi le seguenti specifiche tecniche: Specifiche Fisiche Dimensione Rack, compatibilità del montaggio a rack, carico massimo supportato Altezza Interna EIA310 Altezza Esterna Larghezza Esterna Profondità Esterna Carico Statico Carico Dinamico 42U 19” 2070mm 600mm 1070mm 909 Kg 909 Kg (81.5”) (23.6”) (42.1”) (2000lbs) (2000lbs) L’altezza esterna del 42U è di 2070mm (81.5”) per facilitarne il passaggio attraverso una porta standard 7 Ft. (84”). - 66 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Il carico statico supportato dovrà essere di almeno 909 Kg (peso supportato dalle ruote orientabile e dai piedini di livellamento). Il carico dinamico supportato dovrà essere di almeno 909 Kg (peso supportato dalle ruote orientabile in movimento). Accesso al carico e montaggio L’armadio deve offrire 42U di spazio per il montaggio delle apparecchiature I montanti verticali devono essere regolabili in profondità Sia la porta frontale che posteriore devono possedere cardini a rilascio veloce per un rapido e veloce smontaggio Sia la porta frontale che posteriore devono poter essere aperte fino a 180° per un facile accesso interno La porta frontale deve essere reversibile in modo da essere aperta da entrambi i lati La porta posteriore deve essere a due battenti verticali per rendere più agevole l’attività di service L’armadio deve possedere pannelli laterali removibili senza attrezzi migliorando l’accesso per un veloce cablaggio dell’apparecchiature Specifiche ambientali L’armadio deve avere una protezione IP 20 contro il contatto, l’ingresso di corpi estranei e l’introduzione d’acqua. Specifiche di sicurezza L’armadio deve rispondere alle specifiche meccaniche (stabilità, resistenza meccanica, apertura porte, etc.) definite nel IEC 60950 Terza Edizione. Ventilazione L’armadio deve fornire una ventilazione che supera le specifiche della maggior parte dei server vendor - 67 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’armadio deve fornire una ventilazione per la porta frontale, la porta posteriore ed il tetto come mostrata di seguito: Altezza Interna Larghezza Esterna Porta Frontale Perforata Porta Posteriore Perforata Tetto Perforato 600mm 1070mm 5355 cm² 5413 cm² 1007 cm² (23.6”) (42.1.”) (830 in²) (839 in²) (156 in²) Canalizzazioni Ogni Armadio Rack dovrà prevedere n°3 canalizzazioni sul tetto per la distribuzione orizzontale dei cavi di alimentazione e dati. Strisce di Alimentazione In ogni Armadio Rack dovranno essere installate n°2 strisce di alimentazioni intelligenti da 32Amp installate nella parte posteriore dell’armadio senza occupare unità. L’installazione deve poter essere effettuata senza attrezzi. Deve essere composta da 24 prese di cui 20 IEC 320 C13 e 4 IEC 320 C19. Corrente 32Amp, Potenza almeno 7KW. È richiesto un amperometro digitale integrato con display. È richiesto il monitoraggio via IP dell’assorbimento. È richiesta l’allarmistica con soglie. È richiesta la possibilità di comandare da remoto l’alimentazione delle singole prese attraverso l’accensione e lo spegnimento della singola presa. L’accesso al management delle strisce di alimentazioni intelligenti dovrà avvenire tramite browser ed il management delle strisce di alimentazioni dovrà comunicare con il management dell’infrastruttura. MANAGEMENT dell’INFRASTRUTTURA CED - 68 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Tutti i componenti dell’Infrastruttura CED dovranno essere monitorati e gestiti via IP da un unico punto di accesso chiamato Management dell’Infrastruttura CED. Dovrà essere fornito un’unità di Management dell’Infrastruttura CED con almeno 25 licenze scalabili a 1000. 1.0 Specifiche Fisiche 1.2 Altezza 1U, larghezza 19” 2.0 Caratteristiche tecniche 2.1 Management centralizzato: configurazione e monitoraggio del Management dell’Infrastruttura tramite un Web- browser da qualsiasi punto della rete. 2.2 Segnalazione guasti: dovrà effettuare il monitoraggio della corrente assorbita da ciascun circuito derivato e dovrà segnalare potenziali situazioni di sovraccarico, garantendo la disponibilità degli apparati collegati. 2.3 Diagramma di flusso dell’alimentazione: dovrà fornire dati storici relativi a ciascun componente per individuare trend che potrebbero compromettere la disponibilità di apparati critici. 2.8 Gestione a livello Rack: dovrà segnalare i Rack con minore assorbimento per consigliare dove installare nuove apparecchiature senza sovraccaricare le linee di alimentazione. Dovrà segnalare le variazioni di assorbimento elettrico a livello di singolo Rack 2.9 Gruppi di segnalazione: si potranno creare dei gruppi di segnalazione (lista di email) per allertare e notificare via email più persone in merito allo stesso problema 2.10 Supporto di dispositivi multipli: al fine di gestire una vasta gamma di dispositivi tra cui UPS monofase e trifase, unità di distribuzione dell'alimentazione, apparati di raffreddamento e gestione ambientale. 2.11 Architettura scalabile: scalabile fino a 1000 dispositivi. Integrazione agevole di nuovi dispositivi con licenze supplementari 2.12 Autodiscovery: dovrà identificare automaticamente tutti dispositivi dell’infrastruutura CED senza interventi manuali con riduzione dei tempi di installazione. - 69 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 2.10 Realizzazioni ed aggiornamenti concorrenti: al fine di diminuire la complessità e il tempo di setup tramite la configurazione di impostazioni o l'aggiornamento del firmware in contemporanea per dispositivi multipli 2.25 Logging dei dati: al fine di individuare situazioni potenzialmente pericolose prima che nascano problemi o per esportare il data log a fini di analisi. 2.26 Logging degli eventi: l'event log dovrà ricostruire la tempistica e la sequenza degli eventi che hanno provocato un incidente. 2.27 Report sullo stato delle batterie: dovrà fornire informazioni dettagliate sull'età delle batterie, sul carico, sullo stato di funzionamento. 2.28 Private IP Network: per accedere a dispositivi multipli da un unico indirizzo IP . 2.29 Accessibile via browser: dovrà visualizzare l'interfaccia utente attraverso un browser. Per consentire un rapido accesso da qualsiasi punto della rete. 2.30 Allarmi innescati dal superamento delle soglie predefinite: per impostare simultaneamente standard relativi ad alcuni parametri selezionati per UPS, distribuzione elettrica e dispositivi di monitoraggio ambientale al fine di tenere sotto controllo la performance del sistema 2.31 Azioni consigliate: dovrà fornire una descrizione dettagliata dei problemi nel momento in cui si verificano sia una serie di interventi consigliati per risolvere il problema in questione. 2.32 Wizard di setup: Wizard di facile utilizzo rendono più rapida la realizzazione riducendo il tempo di set up. 2.33 Integrazione di Building Management Systsem: dovrà inviare allarmi ed informazioni per gestire infrastrutture critiche di Building Management da un singolo sistema. 2.34 Enterprise Management: dovrà gestire tutti dispositivi dell’infrastruttura via SNMP (trap events) comunicando verso il sistema di Enterprise Management. - 70 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 2.35 Password di sicurezza: la password di protezione dovrà essere selezionabile dall’utente. 2.36 Accesso di sola lettura: dovrà essere presente un'opzione di sola lettura per consentire di condividere l'accesso senza rischiare modifiche non autorizzate alla configurazione dei sistemi. 2.37 Encryption: al dine di ottenere un’accesso controllato ed integrazione con SSL browser e sessioni SSH. 2.38 Supporto Radius: dovrà essere possibile utilizzare un esistente server radius al fine di autenticare ed autorizzare un account per accedere ad uno dei dispositivi dell’infrastruttura CED. MODULO GESTIONE AMBIENTALE E SENSORI Dovranno essere fornite, installate e configurate n°3 centraline di gestione ambientale via IP con altezza 1U e montaggio 19”. Ogni centralina di gestione ambientale dovrà essere fornita con i seguenti sensori: n.°2 sensori di temperatura ed umidità, n.°1 sensori di controllo fumi all’interno dell’armadio Rack Server, n.°1 sensori anti-allagamento lunghezza almeno 6 m, n.°1 lampeggiante posizionato sul tetto dei Rack, n.°1 sensore apertura porta Rack Server, n°1 sensore vibrazioni La centralina dovrà ospitare i seguenti contatti per future integrazioni: fino a n.°4 sensori temperatura ed umidità, sensore movimento tra le file degli armadi Rack. n.° 4 contatti puliti disponibili Il management della centralina di gestione ambientale dovrà essere accessibile tramite browser. Il management della centralina di gestione ambientale dorà essere integrato con il management dell’Infrastruttura esistente. MODULO SISTEMA DI CONDIZIONAMENTO AMBIENTALE Premessa Dovranno essere forniti sistemi di condizionamento ambientali progettati specificatamente per applicazioni di controllo di precisione di temperatura ed umidità. Controllerà automaticamente le funzioni di riscaldamento, raffreddamento e filtraggio dell’ambiente interessato. Il sistema dovrà essere costruito secondo i più alti standard qualitativi di ingegneria e costruzione, e dovrà essere montato a pavimento, configurato per un flusso d’aria - 71 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE condizionata up al fine di interessato. Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 fornire la distribuzione uniforme dell’aria nell’ambiente Dovranno essere fornite ed installate n°2 unità di condizionamento capaci di neutralizzare fino a 20kW per Armadio Rack aventi le seguenti caratteristiche: Ogni singolo Cabinet Il cabinet del sistema di condizionamento dovrà essere provvisto di pannelli laterali e pannelli frontali e laterali conformi allo standard relativo all’isolamento UL94-5VA ASTM e84. I pannelli frontali e posteriori dovranno essere perforati con asole che dovranno garantire almeno il 50% di area libera e dovranno essere equipaggiati con una chiave ed una serratura per garantire un accesso sicuro ai componenti interni all’unità di condizionamento. Le attività di service sull’unità di condizionamento verranno eseguite sul fronte e/o sul retro al fine di posizionare l’unità di condizionamento in fila ai Rack IT. L’unità di condizionamento dovrà essere provvista di ruote e piedini di livellamento al fine di posizionare correttamente l’unità in fila agli adiacenti Rack IT. Ventole Ogni unità di condizionamento include 8 ventole. Ogni ventola dovrà essere progettata per fornire 362.5 CFM per un totale di flusso d’aria di 2900 CFM. L’unità di condizionamento dovrà essere in grado di funzionare anche nel caso di un guasto ad una delle 8 ventole. Le 8 ventole dovranno essere riparabili mentre l’unità di condizionamento è in funzione. Doppio Alimentatore A-B Doppio alimentatore A-B di ingresso all’unità di condizionamento. - 72 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’unità di condizionamento dovrà includere due alimentatore capaci di fornire il 60% della potenza totale. L’assorbimento della singola unità di condizionamento non dovrà superare i 1100W durante il funzionamento normale. Controllore Dal display dell’unità di condizionamento si dovrà accedere alla configurazione ed al monitoraggio della stessa attraverso dei controlli a menu. Le funzioni dovranno includere i report riguardanti lo stato, il set-up e la temperatura. Lo stato di funzionamento dell’unità di condizionamento dovrà essere indicato da LED o da altri appropriati indicatori. Il controllore dell’unità di condizionamento dovrà essere fornito con controlli attraverso chiavi per una navigazione attraverso i menu, gli oggetti selezionabili e le informazioni di input alpha numeriche. Il controllore dovrà poter attivare allarmi visibili ed udibili in presenza dei seguenti eventi: 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. Filtro dell’aria intasato Comunicazione fallita Attuatore della valvola guasto Pompa guasta Unità di condizionamento guasta Alta temperatura del fluido in ingresso Sensore di temperatura guasto Ventola guasta Alimentatore guasto Misuratore della velocità di flusso guasto Perdita del gruppo di comunicazione Comunicazione interna fallita Alimentazione A-B fallita Alta temperatura nel Rack Bassa temperatura nel Rack Temperatura in uscita elevata Presenza acqua Il controllore dovrà memorizzare e visualizzare sul display tutti gli eventi del sistema di condizionamento. Ogni allarme dovrà contenere la data, l’ora e la modalità di funzionamento del sistema di condizionamento nel momento dell’evento. Scheda di Management - 73 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’unità di condizionamento dovrà includere una scheda di management permettendo una gestione via rete TCP/IP. Il management via rete dovrà prevedere la possibilità di fissare dei set-point, entrare nei vari parametri del menu e cancellare allarmi. Valvola 2 WAY/ 3 WAY Il sistema di refrigerazione ad acqua dovrà utilizzare la valvola 2 WAY/3 WAY al fine di regolare la quantità d’acqua verso l’unità di condizionamento per mantenere le condizioni desiderate. La valvola dovrà essere collegata internamente all’unità di condizionamento e dovrà essere di facile sostituzione in caso di guasto. Il valore standard della pressione è di 600 psig. Connessioni dall’alto o dal basso I tubi dell’acqua refrigerata dovranno poter essere connessi sia dall’alto che dal basso dell’unità. Le connessione dei tubi dell’acqua refrigerata dovranno essere presenti all’interno dell’unità. Sensore della temperatura remoto Il sensore della temperatura remoto dovrà essere collegato all’unità di condizionamento al fine di fornire il controllo della temperatura di ingresso sul fronte del Rack. Misuratore di flusso Il misuratore di flusso dovrà essere installato all’interno dell’unità di condizionamento e collegato al controllore dell’unità al fine di fornire il valore della velocità di flusso attraverso l’unità di condizionamento. Presenza acqua Un cavo sensibile alla presenza d’acqua dovrà essere collegato all’unità di condizionamento. Nel caso in cui l’acqua o altri liquidi dovessero entrare in contatto con una superficie del cavo per tutta la sua lunghezza, il controllore visualizzerà e annuncerà in modo udibile l’allarme. Il cavo presenza acqua non dovrà essere inferiore ai 6 mt. Canalizzazione sul tetto dell’unità Al fine di realizzare la canalizzazione orizzontale sul tetto dei Rack sia per i cavi di potenza che dati, l’unità di condizionamento dovrà montare sul tetto delle canalizzazioni identiche a quelli degli armadi Rack. Impianto ad acqua refrigerata Dovrà essere realizzato un impianto ad acqua refrigerata comprensivo di tutto il necessario al suo funzionamento : tubi, pompe, chiller, etc.. - 74 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’impianto dovrà essere dimensionamento per almeno 40kW di potenza frigorifera con la possibilità di aggiungere un secondo Chiller da almeno da 40kW successivamente. Dovrà essere inoltre fornito ed installato un armadio di distribuzione dell’acqua refrigerata (o collettore) tra il chiller e le unità di condizionamento che preveda il collegamento fino a 12 unità di condizionamento. PLENUM L’intera infrastruttura dovrà essere chiusa su ogni lato da un plenum al fine di convogliare tutto il calore prodotto dai rack in ingresso al condizionatore, ottenendo una maggiore densità di potenza per rack. Dovranno essere previste due porte di sicurezza d’accesso. Il plenum dovrà essere modulare e scalabile con la possibilità di inserire più rack in futuro. Attività DI Post-Installazione Ultimata l’installazione la Ditta fornitrice dovrà garantire una serie di attività PostInstallazione necessarie per la corretta gestione e manutenzione della infrastruttura installata. In dettaglio dovranno essere garantite le seguenti attività: Training di 1 giorno sulla gestione e manutenzione dell’infrastruttura installata. Dovrà essere erogato da parte della ditta installatrice e/o produttrice del sistema un training della durata di almeno una giornata al personale coinvolto nella gestione e nella manutenzione del sistema installato. Durante il training dovranno essere illustrate la logica del funzionamento del sistema installato e le sue caratteristiche tecniche e funzionali. 1 Anno di Monitoraggio 7x24 da remoto dell’intera infrastruttura installata. Dovrà essere garantito il monitoraggio in outsourcing dell’infrastruttura installata per un periodo continuativo di 12 mesi, 24 ore su 24, a partire dalla data della sua messa in esercizio, volto ad individuare eventuali problemi sull’infrastruttura. Tale monitoraggio dovrà essere preferibilmente fornito tutto o in parte con il diretto coinvolgimento del produttore dell’infrastruttura, in grado di interpretare in anticipo - 75 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE potenziali malfunzionamenti che potrebbero compromettere l’ottimale dell’infrastruttura installata e di suggerire i necessari interventi correttivi. Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 utilizzo Dovrà anche essere inclusa una completa reportistica da fornire con cadenza mensile in grado di rappresentare il funzionamento nel tempo dell’infrastruttura installata. Integrazione del Software di gestione con la rete locale. Dovrà essere garantita la perfetta integrazione del Software e del Server di gestione con la rete locale presente, e tutti i componenti dell’infrastruttura dovranno essere identificati con un loro indirizzo IP. LAYOUT Lista dei componenti - 76 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 L’elenco dei componenti HW che la Ditta dovrà fornire in opera configurati secondo le esigenze dell’Università e il dettaglio delle attività che dovranno essere garantite a seguito dell’installazione è il seguente: Fornitura in opera Hardware COMPONENTI: COMPONENTI Q.tà DESCRIZIONE Rack UPS 1 RACK UPS ciascuno alloggiato con 5 moduli da 10KW ciascuno e 10 minuti di autonomia. Rack PDU 1 RACK PDU Condizionament o 2 Unità di condizionamento con la capacità di neutralizzare fino a 20kW per Armadio Rack Impianto Meccanico 1 Dovrà essere realizzato un impianto meccanico da almeno 40kW con tubi, pompe, chiller. Dovrà essere fornito un armadio di distribuzione dell’acqua refrigerata con la possibilità di collegare fino a 12 unità di condizionamento Armadio Rack Data Center 6 Armadi Rack per la Equipment Room. Striscie di Alimentazione 12 Due striscie intelligenti da 24 prese ciascuna in ogni Armadio Rack con accensione e spegnimento comandabile remotamente. Monitoraggio Ambientale 3 Centralina di monitoraggio ambientale di temperatura/umidità, sensore allagamento, sensore presenza fumi, lampeggiante, apertura porta, vibrazioni Attività Post-Installazione ATTIVITA’ Q.tà DESCRIZIONE Assemblaggio 1 Assemblaggio dell’intera infrastruttura. Training 1 Training di 1 giorno sulla gestione e manutenzione dell’infrastruttura installata. Monitoraggio 1 1 Anno di Monitoraggio 7x24 da remoto dell’intera infrastruttura installata. - 77 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Network Integration 1 Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 Integrazione del Software di gestione con la rete dati del Data Center ART. 5.2 PAVIMENTO TECNICO FLOTTANTE I locali destinati ad ospitare il sistema integrato rack, UPS e sistema di condizionamento dovrà essere dotato di pavimento tecnico con piastrelle 60x60 cm2 in grado di sostenere pesi di 1000 Kg/m2. - 78 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 5. APPENDICE 2 Consorzio COMETA - Progetto PI2S2 FORNITURA DI INFRASTRUTTURA DI CALCOLO, RETE E STORAGE PER LA CREAZIONE DI UNA GRIGLIA COMPUTAZIONALE CAPITOLATO TECNICO - 79 - PROGETTAZIONE ED IMPLEMENTAZIONE DELL’INFRASTRUTTURA DI PRODUZIONE Doc. Identifier: File: PI2S2-D1.2-v1.0 Date: 31.01.2007 - 80 - PREMESSA La fornitura oggetto del presente capitolato deve fare riferimento a sistemi costituiti da nodi di calcolo, montabili su rack standard da 19”, switch di connessione di rete e sistemi di storage di tipo tradizionale o fibre channel, ove richiesto. Tutti i sistemi devono essere forniti chiavi in mano e quindi devono essere inclusi cablaggi e posa in opera. Garanzia e manutenzione devono essere “on-site” per almeno 3 anni e di tipo almeno NBD (Next Business Day). L'offerta tecnica presentata e la successiva fornitura dovranno rispettare anche le seguenti condizioni: • Dichiarazione esplicita del range di temperatura ambientale all’interno del quale l’infrastruttura globale proposta opera in sicurezza in condizioni di pieno carico specificando se trattasi di dati rilevati in laboratorio o dichiarati dal costruttore. • Dichiarazione esplicita del consumo energetico (in W o in kW) di ogni singola macchina proposta (in condizione di pieno carico) specificando se trattasi di dati rilevati in laboratorio o dichiarati dal costruttore. In particolare, per i lotti del presente capitolato, ove non siano fatte specifiche richieste alternative: • Devono essere forniti nodi di calcolo costituiti da identici processori; • Devono essere forniti nodi di calcolo costituiti da identico tipo di memoria RAM; • I nodi di calcolo ed i sistemi di storage devono essere forniti con il middleware grid gLite (http://www.glite.org) pre-installato. Non saranno prese altresì in considerazione offerte tecniche nelle quali i singoli nodi di calcolo abbiano un consumo elettrico a pieno carico, dichiarato come misurato in laboratorio, maggiore di 0.05 Watt per SPECint2000 “peak” (per la definizione di SPECint2000, SPECint_rate2000, SPECfp_2000, SPECfp_rate_2000 consultare il sito www.spec.org). L’aderenza alle specifiche di consumo dovrà essere verificato utilizzando la seguente formula: W ≤ 0.05 · SP · C dove: • • SP è il valore di SPECint2000 “peak” misurato; C è il numero di core del nodo di calcolo; 81 • W è il consumo massimo misurato a pieno carico del nodo di calcolo. Non saranno pertanto prese in considerazione le offerte i cui nodi di calcolo non soddisfano il vincolo indicato dalla formula precedente. Il consumo elettrico dichiarato si dovrà riferire obbligatoriamente a configurazioni con almeno 2 GB di memoria RAM per core, come quelle richieste nel presente capitolato. Il sistema dei nodi di calcolo deve essere fornito con architettura “Blade Server”. Saranno preferiti i sistemi che garantiscano la possibilità dell’aggiornamento della CPU entro i successivi 18 mesi senza la necessità di sostituire le Mother Board. L'offerta deve pure includere, pena l’esclusione, il Software necessario per l'utilizzo dei protocolli nativi che consente di ottenere le maggiori prestazioni in termini di latenza e bandwidth, prossimi a quelli limite dell'architettura proposta. Il sistema dovrà consentire di sfruttare al meglio l'interconnessione tramite protocollo di programmazione MPI supportato in MPICH e MPICH2. Questi due ambienti dovranno essere installati nel sistema. Verranno effettuati test di verifica di prestazione e di funzionalità in fase di collaudo. 82 CONSIDERAZIONI GENERALI L'obiettivo finale da conseguire è quello di creare un’infrastruttura di supporto ai sistemi di calcolo, di storage e di rete che sia in grado di soddisfare le esigenze attuali e quelle future del Progetto PI2S2. Il contraente dovrà fornire in opera tutti i materiali necessari alla realizzazione, secondo quanto indicato nel presente documento e nelle specifiche tecniche di progetto, garantendo il pieno rispetto delle normative tecniche e di sicurezza vigenti. Dovrà installare e terminare tutti i componenti hardware necessari a realizzare un sistema funzionale nonché fornire tutta la documentazione richiesta dal presente documento. Tutti i lavori dovranno essere eseguiti in maniera completa e scrupolosa in base ai più alti standard in campo industriale e dovranno essere sottoposti al controllo e all’accettazione da parte del Consorzio COMETA. Si stabilisce e si concorda espressamente che tali osservazioni e controlli da parte del Consorzio COMETA o di suoi consulenti non esonerano il contraente dalla responsabilità di un’adeguata supervisione ed esecuzione dei lavori descritti in questo documento o concordati successivamente. Le ditte partecipanti dovranno fornire un elenco del personale preposto al project management e al supporto tecnico assegnato al Progetto. Dovrà essere espressamente indicato un nominativo come Responsabile di Progetto. Il Responsabile di Progetto del contraente dovrà garantire il pieno rispetto delle tempistiche di esecuzione lavori eventualmente stabilite nel piano esecutivo redatto dal contraente secondo quanto stabilito in seguito. Tale Responsabile di Progetto dovrà essere inoltre il referente unico e diretto per il Consorzio COMETA relativamente a tutte le problematiche che dovessero emergere nel corso dell’esecuzione dei lavori. 83 - LOTTO 1 Fornitura per l’Istituto Nazionale di Fisica Nucleare, Sezione di Catania. L’offerta economica per questo Lotto non può essere superiore a: € 151.200,00 IVA esclusa. ART 1.1 SISTEMA DI CALCOLO Il sistema dovrà garantire una potenza totale di calcolo dell’ordine di: Base Peak SPECint2000 SPECint_rate2000 113160 128280 1260 1430 SPECfp_2000 138600 152900 1290 1390 SPECfp_rate_2000 (per la definizione di SPECint2000, SPECint_rate2000, SPECfp_2000, SPECfp_rate_2000 consultare il sito www.spec.org) e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Macchine almeno bi-processore a 64 bit; • Memoria (RAM) di almeno 2 GB per core in tecnologia DDR400 o con specifiche superiori; • Disco: da almeno 80 GB SATA o 73 GB SCSI o di superiori caratteristiche con un throughput minimo garantito di almeno 40 MByte/s con sistema operativo Linux; • Interfaccia Ethernet 100/1000 Mbps auto-sensing on-board con connettore RJ45 (rame); • Interfaccia di comunicazione a bassa latenza, basata su bus seriale bidirezionale con banda passante non inferiore a 2.5 Gb/s per direzione, con relativo cavo di connessione allo switch. Il sistema di calcolo deve essere configurato per eseguire il message passing attraverso tali interfacce con supporto ad MPICH ed MPICH2 (v.1.0.2 o superiore) nativo e su TCP/IP; • Bootstrap via rete con protocollo PXE con sistema Linux; • Unità DVD-ROM e Floppy eventualmente esterni di tipo USB. • Guide ed accessori o quant’altro necessario per montaggio a rack standard 19”; • Cavi di alimentazione con spine e prese standard IEC di lunghezza idonea e cavi di rete standard UTP Cat. 6E di lunghezza idonea. 84 • Sistema Operativo Linux 64 bit certificato dal venditore e ottimizzato per HPC e Scientific Linux CERN 3.0.6 kernel 2.6 a 64 bit; i due Sistemi Operativi devono entrambi essere preinstallati su partizioni diverse; • Ambiente di sviluppo Portland Group CDK ottimizzato per la piattaforma offerta, comprensiva di compilatori per HPC con almeno 3 licenze; • Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ ottimizzati per la piattaforma offerta (specificare il tipo in fase di offerta). ART 1.2 APPARECCHIATURE DI RETE Art 1.2.1 Rete di servizio I nodi di calcolo dovranno essere collegati tra loro con una rete locale di tipo almeno Gigabit Ethernet e gli apparati di rete dovranno essere integrati nel sistema “blade server”. Art 1.2.2 Rete di Calcolo Rete di interconnessione, atta a connettere le interfacce a bassa latenza di cui alle definizione dei singoli nodi, basata su switch di comunicazione dotati di porte in numero sufficiente alla connessione di tutti i nodi ciascuna delle quali dotata di banda passante aggregata di almeno 5 Gbit/sec. Lo switch deve garantire valori di latenza non superiori a 4 microsecondi e operare in modalità wirespeed; deve inoltre poter essere gestito via CLI e SNMP. Saranno preferiti apparati che possano integrare connettività verso reti IP e Fibre Channel, in modo da consentire il dialogo tra i singoli nodi ed eventuali FC SANs, NAS appliance, IP SANs e reti TCP/IP. In fase di collaudo verranno effettuati test di verifica di prestazione e di funzionalità per la validazione dei test prodotti in fase di offerta. ART 1.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO I nodi di calcolo dovranno essere collegati tra loro con una sistema di tipo KVM integrato nel sistema “blade server”. 85 ART 1.4 SISTEMA DI STORAGE Fornitura di un Sistema di storage basato su disco con architettura fibre channel basata su dischi SATA. Il sistema di storage dovrà garantire una capacità raw minima di 25 Terabytes visibile sotto un unico mount-point e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Essere basato sulla seguente soluzione “Disk server”: o Scheda madre almeno biprocessore 64 bit; o RAM 4 GB DDR / DDR II 400 Mhz ECC registered; o Doppia Gigabit Ethernet integrata on board; o Doppio disco di sistema configurato in RAID hardware; o Controller fibre channel di connessione alle unità disco; o Configurazione almeno RAID 0,1,5 con Hot Spare; o Scientific Linux CERN ultima release preinstallato; • I server potranno essere forniti sia separati che in configurazione integrata con i dischi, a seconda della tecnologia proposta; • Cavi, bretelle e quant’altro necessario per la messa in opera della soluzione proposta; • Tutto il sistema dovrà essere installato su rack standard 19”; • Hard disk drive di tipo SATA; • Bootstrap via rete con protocollo PXE con sistema operativo Linux; • Ridondanza degli alimentatori hot swap e hot plug; • Installazione completa e test di funzionalità. L'offerta tecnica presentata e la successiva fornitura dovranno rispettare anche le seguenti condizioni: • Comprendere l’assistenza per la configurazione ottimale della soluzione proposta. Nella Valutazione finale saranno considerati come caratteristiche preferenziali: o Alimentazione ridondata; o Adeguatezza della potenza di alimentazione al carico previsto; 86 o Management del sistema proposto. 87 - LOTTO 2 Fornitura per l’Istituto Nazionale di Astrofisica, Osservatorio Astrofisico di Catania. L’offerta economica per questo lotto non può essere superiore a: € 108.665,00 IVA esclusa. ART 2.1 SISTEMA DI CALCOLO Il sistema dovrà garantire una potenza totale di calcolo dell’ordine di: Base SPECint2000 SPECint_rate2000 SPECfp_2000 SPECfp_rate_2000 Peak 95290 108000 1060 1200 116730 128760 1090 1170 (per la definizione di SPECint2000, SPECint_rate2000, SPECfp_2000, SPECfp_rate_2000 consultare il sito www.spec.org) e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Macchine almeno bi-processore a 64 bit; • Memoria (RAM) di almeno 2 GB per core in tecnologia DDR400 o con specifiche superiori; • Disco: da almeno 80 GB SATA o 73 GB SCSI o di superiori caratteristiche con un throughput minimo garantito di almeno 40 MByte/s con sistema operativo Linux; • Interfaccia Ethernet 100/1000 Mbps auto-sensing on-board con connettore RJ45 (rame); • Interfaccia di comunicazione a bassa latenza, basata su bus seriale bidirezionale con banda passante non inferiore a 2.5 Gb/s per direzione, con relativo cavo di connessione allo switch. Il sistema di calcolo deve essere configurato per eseguire il message passing attraverso tali interfacce con supporto ad MPICH ed MPICH2 (v.1.0.2 o superiore) nativo e su TCP/IP; • Bootstrap via rete con protocollo PXE con sistema Linux; • Unità DVD-ROM e Floppy eventualmente esterni di tipo USB; • Guide ed accessori o quant’altro necessario per montaggio a rack standard 19”; • Cavi di alimentazione con spine e prese standard IEC di lunghezza idonea e cavi di rete standard UTP Cat. 6E di lunghezza idonea; 88 • Sistema Operativo Linux 64 bit certificato dal venditore e ottimizzato per HPC e Scientific Linux CERN 3.0.6 kernel 2.6 a 64 bit; i due Sistemi Operativi devono entrambi essere preinstallati su partizioni diverse; • Ambiente di sviluppo Portland Group CDK ottimizzato per la piattaforma offerta, comprensiva di compilatori per HPC con almeno 3 licenze; • Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ ottimizzati per la piattaforma offerta (specificare il tipo in fase di offerta). ART 2.2 APPARECCHIATURE DI RETE Art 2.2.1 Rete di servizio I nodi di calcolo dovranno essere collegati tra loro con una rete locale di tipo almeno Gigabit Ethernet e gli apparati di rete dovranno essere integrati nel sistema “blade server”. Art 2.2.2 Rete di Calcolo Rete di interconnessione, atta a connettere le interfacce a bassa latenza di cui alle definizione dei singoli nodi, basata su switch di comunicazione dotati di porte in numero sufficiente alla connessione di tutti i nodi ciascuna delle quali dotata di banda passante aggregata di almeno 5 Gbit/sec. Lo switch deve garantire valori di latenza non superiori a 4 microsecondi e operare in modalità wirespeed; deve inoltre poter essere gestito via CLI e SNMP. Saranno preferiti apparati che possano integrare connettività verso reti IP e Fibre Channel, in modo da consentire il dialogo tra i singoli nodi ed eventuali FC SANs, NAS appliance, IP SANs e reti TCP/IP. In fase di collaudo verranno effettuati test di verifica di prestazione e di funzionalità per la validazione dei test prodotti in fase di offerta. ART 2.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO I nodi di calcolo dovranno essere collegati tra loro con una sistema di tipo KVM integrato nel sistema “blade server”. 89 ART 2.4 SISTEMA DI STORAGE Fornitura di un Sistema di storage basato su disco con architettura fibre channel basata su dischi SATA. Il sistema di storage dovrà garantire una capacità raw minima di 10 Terabytes visibile sotto un unico mount-point e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Essere basato sulla seguente soluzione “Disk server”: o Scheda madre almeno biprocessore 64 bit; o RAM 4 GB DDR / DDR II 400 Mhz ECC registered o Doppia Gigabit Ethernet integrata on board; o Doppio disco di sistema configurato in RAID hardware; o Controller fibre channel di connessione alle unità disco; o Configurazione almeno RAID 0,1,5 con Hot Spare; o Scientific Linux CERN ultima release preinstallato; • I server potranno essere forniti sia separati che in configurazione integrata con i dischi, a seconda della tecnologia proposta; • Cavi, bretelle e quant’altro necessario per la messa in opera della soluzione proposta; • Tutto il sistema dovrà essere installato su rack standard 19”; • Hard disk drive di tipo SATA; • Bootstrap via rete con protocollo PXE con sistema operativo Linux; • Ridondanza degli alimentatori hot swap e hot plug; • Installazione completa e test di funzionalità. L'offerta tecnica presentata e la successiva fornitura dovranno rispettare anche le seguenti condizioni: • Comprendere l’assistenza per la configurazione ottimale della soluzione proposta. Nella Valutazione finale saranno considerati come caratteristiche preferenziali: o Alimentazione ridondata; o Adeguatezza della potenza di alimentazione al carico previsto; 90 o Management del sistema proposto. 91 - LOTTO 3 Fornitura per l’Università degli Studi di Messina e l’Istituto Nazionale di Geofisica e Vulcanologia. L’offerta economica per questo lotto non può essere superiore a: € 33.000,00 IVA esclusa. ART 3.1 SISTEMA DI CALCOLO Il sistema dovrà garantire una potenza totale di calcolo dell’ordine di: Base SPECint2000 Peak 23820 27000 260 300 29180 32190 270 290 SPECint_rate2000 SPECfp_2000 SPECfp_rate_2000 (per la definizione di SPECint2000, SPECint_rate2000, SPECfp_2000, SPECfp_rate_2000 consultare il sito www.spec.org) e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Macchine almeno bi-processore a 64 bit; • Memoria (RAM) di almeno 2 GB per core in tecnologia DDR400 o con specifiche superiori; • Disco: da almeno 80 GB SATA o 73 GB SCSI o di superiori caratteristiche con un throughput minimo garantito di almeno 40 MByte/s con sistema operativo Linux; • Interfaccia Ethernet 100/1000 Mbps auto-sensing on-board con connettore RJ45 (rame); • Interfaccia di comunicazione a bassa latenza, basata su bus seriale bidirezionale con banda passante non inferiore a 2.5 Gb/s per direzione, con relativo cavo di connessione allo switch. Il sistema di calcolo deve essere configurato per eseguire il message passing attraverso tali interfacce con supporto ad MPICH ed MPICH2 (v.1.0.2 o superiore) nativo e su TCP/IP; • Bootstrap via rete con protocollo PXE con sistema Linux; • Unità DVD-ROM e Floppy eventualmente esterni di tipo USB; • Guide ed accessori o quant’altro necessario per montaggio a rack standard 19”; • Cavi di alimentazione con spine e prese standard IEC di lunghezza idonea e cavi di rete standard UTP Cat. 6E di lunghezza idonea; 92 • Sistema Operativo Linux 64 bit certificato dal venditore e ottimizzato per HPC e Scientific Linux CERN 3.0.6 kernel 2.6 a 64 bit; i due Sistemi Operativi devono entrambi essere preinstallati su partizioni diverse; • Ambiente di sviluppo Portland Group CDK ottimizzato per la piattaforma offerta, comprensiva di compilatori per HPC con almeno 3 licenze; • Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ ottimizzati per la piattaforma offerta (specificare il tipo in fase di offerta). ART 3.2 APPARECCHIATURE DI RETE Art 3.2.1 Rete di servizio I nodi di calcolo dovranno essere collegati tra loro con una rete locale di tipo almeno Gigabit Ethernet e gli apparati di rete dovranno essere integrati nel sistema “blade server”. Art 3.2.2 Rete di Calcolo Rete di interconnessione, atta a connettere le interfacce a bassa latenza di cui alle definizione dei singoli nodi, basata su switch di comunicazione dotati di porte in numero sufficiente alla connessione di tutti i nodi ciascuna delle quali dotata di banda passante aggregata di almeno 5 Gbit/sec. Lo switch deve garantire valori di latenza non superiori a 4 microsecondi e operare in modalità wirespeed; deve inoltre poter essere gestito via CLI e SNMP. Saranno preferiti apparati che possano integrare connettività verso reti IP e Fibre Channel, in modo da consentire il dialogo tra i singoli nodi ed eventuali FC SANs, NAS appliance, IP SANs e reti TCP/IP. In fase di collaudo verranno effettuati test di verifica di prestazione e di funzionalità per la validazione dei test prodotti in fase di offerta. ART 3.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO I nodi di calcolo dovranno essere collegati tra loro con una sistema di tipo KVM integrato nel sistema “blade server”. 93 ART 3.4 SISTEMA DI STORAGE Fornitura di un Sistema di storage basato su disco con architettura fibre channel basata su dischi SATA. Il sistema di storage dovrà garantire una capacità raw minima di 5 Terabytes visibile sotto un unico mount-point e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Essere basato sulla seguente soluzione “Disk server”: o Scheda madre almeno biprocessore 64 bit; o RAM 4 GB DDR / DDR II 400 Mhz ECC registered; o Doppia Gigabit Ethernet integrata on board; o Doppio disco di sistema configurato in RAID hardware; o Controller fibre channel di connessione alle unità disco; o Configurazione almeno RAID 0,1,5 con Hot Spare; o Scientific Linux CERN ultima release preinstallato; • I server potranno essere forniti sia separati che in configurazione integrata con i dischi, a seconda della tecnologia proposta; • Cavi, bretelle e quant’altro necessario per la messa in opera della soluzione proposta; • Tutto il sistema dovrà essere installato su rack standard 19”; • Hard disk drive di tipo SATA; • Bootstrap via rete con protocollo PXE con sistema operativo Linux; • Ridondanza degli alimentatori hot swap e hot plug; • Installazione completa e test di funzionalità. L'offerta tecnica presentata e la successiva fornitura dovranno rispettare anche le seguenti condizioni: • Comprendere l’assistenza per la configurazione ottimale della soluzione proposta. Nella Valutazione finale saranno considerati come caratteristiche preferenziali: o Alimentazione ridondata; o Adeguatezza della potenza di alimentazione al carico previsto; 94 o Management del sistema proposto. 95 - LOTTO 4.1 Fornitura per l’Università degli Studi di Catania, Dipartimento di Ingegneria Informatica e delle Telecomunicazioni. L’offerta economica per questo lotto non può essere superiore a: € 75.000,00 IVA esclusa. ART 4.1.1 SISTEMA DI CALCOLO Il sistema dovrà garantire una potenza totale di calcolo dell’ordine di: Base SPECint2000 Peak 83380 94520 SPECint_rate2000 930 1050 SPECfp_2000 SPECfp_rate_2000 102140 112670 950 1030 (per la definizione di SPECint2000, SPECint_rate2000, SPECfp_2000, SPECfp_rate_2000 consultare il sito www.spec.org) e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Macchine almeno bi-processore a 64 bit; • Memoria (RAM) di almeno 2 GB per core in tecnologia DDR400 o con specifiche superiori; • Disco: da almeno 80 GB SATA o 73 GB SCSI o di superiori caratteristiche con un throughput minimo garantito di almeno 40 MByte/s con sistema operativo Linux; • Interfaccia Ethernet 100/1000 Mbps auto-sensing on-board con connettore RJ45 (rame); • Interfaccia di comunicazione a bassa latenza, basata su bus seriale bidirezionale con banda passante non inferiore a 2.5 Gb/s per direzione, con relativo cavo di connessione allo switch. Il sistema di calcolo deve essere configurato per eseguire il message passing attraverso tali interfacce con supporto ad MPICH ed MPICH2 (v.1.0.2 o superiore) nativo e su TCP/IP; • Bootstrap via rete con protocollo PXE con sistema Linux; • Unità DVD-ROM e Floppy eventualmente esterni di tipo USB; • Guide ed accessori o quant’altro necessario per montaggio a rack standard 19”; • Cavi di alimentazione con spine e prese standard IEC di lunghezza idonea e cavi di rete standard UTP Cat. 6E di lunghezza idonea; 96 • Sistema Operativo Linux 64 bit certificato dal venditore e ottimizzato per HPC e Scientific Linux CERN 3.0.6 kernel 2.6 a 64 bit; i due Sistemi Operativi devono entrambi essere preinstallati su partizioni diverse; • Ambiente di sviluppo Portland Group CDK ottimizzato per la piattaforma offerta, comprensiva di compilatori per HPC con almeno 3 licenze; • Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ ottimizzati per la piattaforma offerta (specificare il tipo in fase di offerta). ART 4.1.2 APPARECCHIATURE DI RETE Art 4.1.2.1 Rete di servizio I nodi di calcolo dovranno essere collegati tra loro con una rete locale di tipo almeno Gigabit Ethernet e gli apparati di rete dovranno essere integrati nel sistema “blade server”. Art 4.1.2.2 Rete di Calcolo Rete di interconnessione, atta a connettere le interfacce a bassa latenza di cui alle definizione dei singoli nodi, basata su switch di comunicazione dotati di porte in numero sufficiente alla connessione di tutti i nodi ciascuna delle quali dotata di banda passante aggregata di almeno 5 Gbit/sec. Lo switch deve garantire valori di latenza non superiori a 4 microsecondi e operare in modalità wirespeed; deve inoltre poter essere gestito via CLI e SNMP. Saranno preferiti apparati che possano integrare connettività verso reti IP e Fibre Channel, in modo da consentire il dialogo tra i singoli nodi ed eventuali FC SANs, NAS appliance, IP SANs e reti TCP/IP. In fase di collaudo verranno effettuati test di verifica di prestazione e di funzionalità per la validazione dei test prodotti in fase di offerta. ART 4.1.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO I nodi di calcolo dovranno essere collegati tra loro con una sistema di tipo KVM integrato nel sistema “blade server”. 97 - LOTTO 4.2 Fornitura per l’Università degli Studi di Catania, Dipartimento di Matematica e Informatica. L’offerta economica per questo lotto non può essere superiore a: € 28.400,00 IVA esclusa. ART 4.2.1 SISTEMA DI CALCOLO Il sistema dovrà garantire una potenza totale di calcolo dell’ordine di: Base Peak SPECint2000 SPECint_rate2000 29780 33760 330 370 SPECfp_2000 36480 40240 340 360 SPECfp_rate_2000 (per la definizione di SPECint2000, SPECint_rate2000, SPECfp_2000, SPECfp_rate_2000 consultare il sito www.spec.org) e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Macchine almeno bi-processore a 64 bit; • Memoria (RAM) di almeno 2 GB per core in tecnologia DDR400 o con specifiche superiori; • Disco: da almeno 80 GB SATA o 73 GB SCSI o di superiori caratteristiche con un throughput minimo garantito di almeno 40 MByte/s con sistema operativo Linux; • Interfaccia Ethernet 100/1000 Mbps auto-sensing on-board con connettore RJ45 (rame); • Interfaccia di comunicazione a bassa latenza, basata su bus seriale bidirezionale con banda passante non inferiore a 2.5 Gb/s per direzione, con relativo cavo di connessione allo switch. Il sistema di calcolo deve essere configurato per eseguire il message passing attraverso tali interfacce con supporto ad MPICH ed MPICH2 (v.1.0.2 o superiore) nativo e su TCP/IP; • Bootstrap via rete con protocollo PXE con sistema Linux; • Unità DVD-ROM e Floppy eventualmente esterni di tipo USB; • Guide ed accessori o quant’altro necessario per montaggio a rack standard 19”; • Cavi di alimentazione con spine e prese standard IEC di lunghezza idonea e cavi di rete standard UTP Cat. 6E di lunghezza idonea; 98 • Sistema Operativo Linux 64 bit certificato dal venditore e ottimizzato per HPC e Scientific Linux CERN 3.0.6 kernel 2.6 a 64 bit; i due Sistemi Operativi devono entrambi essere preinstallati su partizioni diverse; • Ambiente di sviluppo Portland Group CDK ottimizzato per la piattaforma offerta, comprensiva di compilatori per HPC con almeno 3 licenze; • Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ ottimizzati per la piattaforma offerta (specificare il tipo in fase di offerta). ART 4.2.2 APPARECCHIATURE DI RETE Art 4.2.2.1 Rete di servizio I nodi di calcolo dovranno essere collegati tra loro con una rete locale di tipo almeno Gigabit Ethernet e gli apparati di rete dovranno essere integrati nel sistema “blade server”. Art 4.2.2.2 Rete di Calcolo Rete di interconnessione, atta a connettere le interfacce a bassa latenza di cui alle definizione dei singoli nodi, basata su switch di comunicazione dotati di porte in numero sufficiente alla connessione di tutti i nodi ciascuna delle quali dotata di banda passante aggregata di almeno 5 Gbit/sec. Lo switch deve garantire valori di latenza non superiori a 4 microsecondi e operare in modalità wirespeed; deve inoltre poter essere gestito via CLI e SNMP. Saranno preferiti apparati che possano integrare connettività verso reti IP e Fibre Channel, in modo da consentire il dialogo tra i singoli nodi ed eventuali FC SANs, NAS appliance, IP SANs e reti TCP/IP. In fase di collaudo verranno effettuati test di verifica di prestazione e di funzionalità per la validazione dei test prodotti in fase di offerta. ART 4.2.3 SOLUZIONI PER IL CONTROLLO REMOTO DEI SERVER E UNITÀ DI CALCOLO I nodi di calcolo dovranno essere collegati tra loro con una sistema di tipo KVM integrato nel sistema “blade server”. 99 - LOTTO 5 Fornitura per l’Istituto Nazionale di Astrofisica, Osservatorio Astronomico di Palermo e per l’Università degli Studi di Palermo. L’offerta economica per questo lotto non può essere superiore a: € 170.330,00 IVA esclusa. ART. 5.1 SISTEMA DI CALCOLO Il sistema dovrà garantire una potenza totale di calcolo dell’ordine di: Base SPECint2000 SPECint_rate2000 SPECfp_2000 SPECfp_rate_2000 Peak 142940 162000 1590 1800 175100 193150 1630 1760 (per la definizione di SPECint2000, SPECint_rate2000, SPECfp_2000, SPECfp_rate_2000 consultare il sito www.spec.org) e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Macchine almeno bi-processore a 64 bit; • Memoria (RAM) di almeno 2 GB per core in tecnologia DDR400 o con specifiche superiori; • Disco: da almeno 80 GB SATA o 73 GB SCSI o di superiori caratteristiche con un throughput minimo garantito di almeno 40 MByte/s con sistema operativo Linux; • Interfaccia Ethernet 100/1000 Mbps auto-sensing on-board con connettore RJ45 (rame); • Interfaccia di comunicazione a bassa latenza, basata su bus seriale bidirezionale con banda passante non inferiore a 2.5 Gb/s per direzione, con relativo cavo di connessione allo switch. Il sistema di calcolo deve essere configurato per eseguire il message passing attraverso tali interfacce con supporto ad MPICH ed MPICH2 (v.1.0.2 o superiore) nativo e su TCP/IP; • Bootstrap via rete con protocollo PXE con sistema Linux; • Unità DVD-ROM e Floppy eventualmente esterni di tipo USB; • Guide ed accessori o quant’altro necessario per montaggio a rack standard 19”; • Cavi di alimentazione con spine e prese standard IEC di lunghezza idonea e cavi di rete standard UTP Cat. 6E di lunghezza idonea; 100 • Sistema Operativo Linux 64 bit certificato dal venditore e ottimizzato per HPC e Scientific Linux CERN 3.0.6 kernel 2.6 a 64 bit; i due Sistemi Operativi devono entrambi essere preinstallati su partizioni diverse; • Ambiente di sviluppo Portland Group CDK ottimizzato per la piattaforma offerta, comprensiva di compilatori per HPC con almeno 3 licenze; • Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ ottimizzati per la piattaforma offerta (specificare il tipo in fase di offerta); • Software per il cluster management, monitoring, servizi di remote installation/deployment, scheduler, queue management. Nella valutazione finale si terrà conto del Management del sistema proposto. ART. 5.2 APPARECCHIATURE DI RETE Art. 5.2.1 Rete Ethernet Il sistema dovrà essere dotato di uno switch ethernet con le seguenti caratteristiche: • • • • • • • • • • • • • • • • 48 porte 10/100/1000BASE-T in rame auto sensing; Architettura stackable con possibilità di collegamento di un minimo di 4 unità, bandwidth dell'interfaccia di stack non inferiore a quella di ogni singolo backplane; Forwarding rate di almeno 37 Mpps, backplane ad almeno 32 Gbps; Supporto di VLAN secondo lo standard IEEE 802.1Q e routing fra le VLAN; Supporto della QoS mediante l’uso della prioritizzazione del traffico e aderenza agli standard IEEE 802.1p e DSCP; Supporto Rapid Spanning Tree Protocol (IEEE 802.1w); Capacità di supportare moduli con interfaccia 10 Gigabit Ethernet; Supporto IGMP v2 Snooping e Quering; Funzionalità di Broadcast/Multicast/Unicast Storm Control; Possibilità di Backup e restore della configurazione; Supporto dello standard IEEE 802.3ad (Link Aggregation Control Protocol) ; Capacità di Port Mirroring; Supporto di management via SNMP; Supporto RMON; Management via Command Line Interface con porta console; Alimentatore ridondante. Lo switch dovrà essere fornito di slitte per il montaggio su rack 19”. Art. 5.2.2 Rete di comunicazione a bassa latenza 101 Rete di interconnessione, atta a connettere le interfacce a bassa latenza di cui alle definizione dei singoli nodi, basata su switch di comunicazione dotati di porte in numero sufficiente alla connessione di tutti i nodi ciascuna delle quali dotata di banda passante aggregata di almeno 5 Gbit/sec. Lo switch deve garantire valori di latenza non superiori a 4 microsecondi e operare in modalità wirespeed; deve inoltre preferibilmente poter essere gestito via GUI, CLI e SNMP. Saranno preferiti apparati che possano integrare connettività verso reti IP e Fibre Channel, in modo da consentire il dialogo tra i singoli nodi ed eventuali FC SANs, NAS appliance, IP SANs e reti TCP/IP. In fase di collaudo verranno effettuati test di verifica di prestazione e di funzionalità per la validazione dei test prodotti in fase di offerta. ART. 5.3 SOLUZIONI PER IL CONTROLLO REMOTO DEL SISTEMA I nodi di calcolo dovranno essere collegati tra loro con una sistema di tipo KVM integrato nel sistema “blade server”. ART. 5.4 SISTEMA DI STORAGE Fornitura di un Sistema di storage basato su disco con architettura fibre channel basata su dischi SATA. Il sistema di storage dovrà garantire una capacità raw minima di 20 Terabytes visibile sotto un unico mount-point e dovrà rispondere, pena l’esclusione, ai seguenti requisiti tecnici minimi: • Essere basato sulla seguente soluzione “Disk server”: o Scheda madre almeno biprocessore 64 bit; o RAM 4 GB DDR / DDR II 400 Mhz ECC registered; o Doppia Gigabit Ethernet integrata on board; o Doppio disco di sistema configurato in RAID hardware; o Controller fibre channel di connessione alle unità disco; o Configurazione almeno RAID 0,1,5 con Hot Spare; • Sistema Operativo Linux 64 bit certificato dal venditore e ottimizzato per HPC e Scientific Linux CERN 3.0.6 kernel 2.6 a 64 bit; i due Sistemi Operativi devono entrambi essere preinstallati su partizioni diverse; • Cavi, bretelle e quant’altro necessario per la messa in opera della soluzione proposta. 102 • Tutto il sistema dovrà essere installato su rack standard 19”. • Hard disk drive di tipo SATA. • Bootstrap via rete con protocollo PXE con sistema operativo Linux. • Ridondanza degli alimentatori hot swap e hot plug. • Installazione completa e test di funzionalità. I server potranno essere forniti sia separati che in configurazione integrata con i dischi, a seconda della tecnologia proposta. L'offerta tecnica presentata e la successiva fornitura dovranno rispettare anche le seguenti condizioni: • Contenere il calcolo della capacità netta (intesa come vista e accessibile a livello di sistema operativo Scientific Linux CERN) ; • Comprendere l’assistenza per la configurazione ottimale della soluzione proposta. Nella Valutazione finale saranno considerati come caratteristiche preferenziali: o Alimentazione ridondata; o Adeguatezza della potenza di alimentazione al carico previsto; o Management del sistema proposto. 103 6. APPENDICE 3 L’offerta tecnica vincente della gara “infrastruttura” è disponibile solo in formato PDF al link web http://documents.consorzio-cometa.it/getfile.py?docid=253&name=Offerta-tecnica-gara12006&format=pdf&version=1. 104 7. APPENDICE 4 FORNITURA DI INFRASTRUTTURA DI CALCOLO, RETE E STORAGE PER LA CREAZIONE DI UNA GRIGLIA COMPUTAZIONALE CAPITOLATO TECNICO mauden S.p.A. 105 Premessa La fornitura oggetto del presente capitolato è costituita da sistemi blade montabili su rack standard a 19” , switch di rete e sistemi di storage fiber-to sata. Tutti i sistemi proposti vi saranno forniti chiavi in mano ( cablaggi e posa in opera ) . Tutti i sistemi offerti sono in garanzia e manutenzione con intervento “on-site” per 36 mesi da data installazione e con modalita’ di intervento NBD (Next Business Day). Per tutti i lotti vi saranno forniti blade con le seguenti caratteristiche: - Identici Processori Identiche Motherboard Identico Tipo di Ram Identica tipologia di Storage locale su disco Identiche Interfacce di rete Identici Switch di rete Ciascun processore e’ di tipo AMD Opteron revF in grado di eseguire nativamente codice binario x86 a 32 e a 64 bit. E’dotato di canale di comunicazione diretta con gli altri processori sulla stessa motherboard, e dispone di controller di memoria integrato (si veda lo schema a blocchi sottoriportato). Nel documento allegato “Performance of the AMD Opteron LS21 for IBM Blade Center” si puo’ trovare un’analisi puntuale dell’architettura di LS21 e alcune considerazioni sulle prestazioni. 106 Parametri di ambiente nominali dichiarati da IBM in base alla configurazione COMETA Description Range Operating temperature 10 to 35 degrees C (50 to 95 degrees F) Relative humidity 8% to 80% Maximum Altitude 2,133 m (7,000 ft) Operating voltage 200-240 V ac Operating frequency 50 or 60 Hz Power consumption di un sistema LS21 in configurazione tipo Lotto 1 inclusi i componenti di rete in Blade Center: 230W a riposo – 348W a pieno regime (si considerino i dati di esempio di un Blade Center H come per il Lotto1, riportati di seguito, e si divida per il numero di Server pari a 14). Questo valore e’ un valore medio che tiene in conto anche il consumo dello chassis e degli apparati di rete integrati. Power consumption di un sistema x3655 in configurazione tipo Lotto 1: 220W a riposo – 330W a pieno regime Power consumption di un controller DS4200: 230W senza sostanziali differenze a riposo o sotto carico Power consumption di un expansion EXP420: 107 350W senza sostanziali differenze a riposo o sotto carico 108 Maximum Quantity 1 Maximum Measured Rated Idle Measured Input System Description Power Power Current Power Blade Center - LS21 3233 W 4876 W 22.1 A 9600 W Domain 1 1617 W 2438 W 10.9 A 4800 W Domain 2 1617 W 2438 W 10.9 A 4800 W 1 IBM BladeCenter H Chassis Power Supplies for Blades 1-7: 2 x BCH 2900 W & Blades 8-14: 2 x BCH 2900 W 1 Management Module(s) (2) Nortel Networks® Layer 2/3 Copper Gigabit Ethernet Switch Module (2) Cisco Systems® 4X Infiniband Switch Module for IBM BladeCenter 14 LS21 (7971) (2) 2.6GHz Opteron 2218 - 95W (8) 1024 MB Dimm(s) (1) IBM 73GB 10K U320 SFF SAS NHS (1) Topspin Adapter InfiniBand™ 4X Host Channel Power Estimates for Total Configuration Date & Time: 1/10/2007 10:58:09 AM Country: Italy Voltage: 220 V MAX SYSTEM IDLE MEASURED Power: 3233 W 4876 W 9600 W Input Current: 14.7 A 22.2 A 48 A BTU/HR: 11025 BTU/Hr 16626 BTU/Hr 32736 BTU/Hr CFM: 430 CFM 820 CFM 820 CFM VA Rating: 3299 VA 4975 VA 9796 VA Based on system(s) running at: MAX 109 Leakage Current: 3 mA 3 mA 3 mA Peak Inrush Current (4ms): 200 A 200 A 200 A Current Program Version: v4.4.2.12 - 19 December, 2006 ***THESE NUMBERS ARE MEASURED DURING TESTS AT 25ºC AMBIENT TEMP AND YOUR RESULTS MAY VARY*** ELECTRICAL CODES AND REGULATIONS SPECIFY THAT ALL ELECTRICAL EQUIPMENT SHALL BE USED IN ACCORDANCE WITH LISTING AND LABELING REQUIREMENTS. REFER TO THE SYSTEM INFORMATION LABEL TO VERIFY THE RATING OF THE EQUIPMENT. (electrical service must be wired according to the system rating label, not the measured current) 110 Consumo medio per Blade configurata come da capitolato tecnico inclusi gli apparati di rete e lo chassis Idle Power 3233W/14 = 230W Max Power 4876W/14 = 348W Misure con un range di 2% di errore Ne segue che i sistemi proposti soddisfano il limite superiore di consumo ammesso. 348W < 0.05 * 1784 * 4 = 357W Prestazioni [email protected] AMD Opteron 2218 da www.spec.org SPEC bmt Base Results CINT2000 1606 1784 CINT_rate2000 72,6 81,2 CFP2000 1999 2228 CFP_rate2000 83,3 89,2 I nodi di calcolo ed i sistemi storage sono forniti con il middleware grid gLite pre-installato. Il sistema di nodi di calcolo e’ in architettura IBM Blade Center H di nuova generazione. Le blades LS21 sono disegnate per ospitare processori dual-core revF. La motherboard permette l’upgrade a quad-core socketF-revG nel corso del 2007 tramite sostituzione del socket e aggiornamento del BIOS. Le DDR2 667MHz gia’ in configurazione sono compatibili con i processori quad-core revF. I Cluster sono forniti del Software per la comunicazione nativa su interconnessione Infiniband 4X. Saranno anche installati gli ambienti MPICH e MPICH2. 111 112 CONSIDERAZIONI GENERALI PER TUTTI I LOTTI L’obiettivo di questa fornitura è quello di creare un’ infrastruttura di calcolo di storage e di rete per la creazione di una Griglia Computazionale nell’ambito del progetto “PI2S2”. SISTEMA OPERATIVO Tutti i sistemi di calcolo vi saranno forniti con linux scientific cern rilasciata per il middleware di INFNGRID rilasciato dal progetto INFN . Tools e compilatori Saranno inoltre forniti e preinstallati tre licenze dei compilatori F77/F90/F95/C/C++ ottimizzati per l’architettura Opteron accedibili via LAN da tutti i nodi dell’architettura COMETA. MIDDLEWARE tutti le macchine saranno fornite oltre che con il sistema operativo installato anche con il midleware di infn- grid. La tipologia dei servizi grid (computing element , storage element , worker node, ecc )sarà definita in accordo con il committente . LSF Agli enti che non hanno licenze di LSF ,sarà fornita senza alcun costo aggiuntivo la HPC 6.1 , o qualunque altra versione meglio compatibile con il middleware di INFN GRID. Al fine di realizzare nel modo piu’ efficace la gestione delle risorse tramite l’ambiente LSF, IBM ha stabilito una collaborazione con Nice Srl sul progetto COMETA. 113 Cluster di Calcolo offerti nei 6 siti della rete COMETA Per poter soddisfare al meglio le specifiche tecniche riportate nel Capitolato Tecnico di Gara, la soluzione proposta stabilisce alcuni punti comuni alle architetture Cluster dei 6 siti della rete COMETA specializzando a ogni modo la soluzione ai vari siti tenendo in conto le specifiche indicate nel capitolato tecnico di gara. Essendo condizione imprescindibile quella di raggiungere una elevata interoperabilita’ e unita’ di gestione tra tutte le realizzazioni dei vari centri e dovendo comunque combinare le diverse necessita’ che appaiono per i vari centri in riferimento alle applicazioni e a i temi di ricerca specifici, si ritiene utile effettuare una prima descrizione d’insieme dell’architettura, comune quindi a tutti i centri COMETA, per poi specializzarne gli aspetti di realizzazione e personalizzazione per ognuno dei centri da considerare. Tenendo in massimo conto gli aspetti di compattezza della soluzione da proporre, di riduzione dei costi di consumo, di minimo ingombro, di massima integrazione fra tutte le componenti (processori, dischi, componenti di rete, etc), di gestione semplificata dell’architettura distribuita, la soluzione Cluster IBM Blade H soddisfa a pieno le necessita’ che si evincono dal capitolato di gara, e le migliora ulteriormente. Oltre all’indiscussa superiorita’ tecnologica dell’architettura IBM Blade Center, sono di ulteriore rilievo la proposta IBM LS21 Blade che integra l’architettura AMD/Opteron dual-core revF nel blade stesso. IBM ha inoltre stabilito accordi tecnologici con i maggiori fornitori di interconnessione a alate prestazioni (Myricom, Topspin/CISCO, Voltaire, Brocade, Nortel, QLogic, McData, etc.) per integrare nello chassis diversi componenti di rete e SAN alfine di mantenere un elevata compattezza anche per architetture che devono assicurare connessioni di diverse tipologie (Switch Gbit, componenti SAN, Switch Infiniband o Myrinet, etc.). La costruzione dello chassis permette adeguate ridondanze di componenti oltre a consentire sostituzioni di tipo hot-plag, riducendo quindi al minimo possibili interruzioni di servizio a causa di rotture HW. L’integrazione di IBM Blade Center H in rack di tipologia standard 19” da 42U, come i rack APC offerti nella proposta a COMETA, consente di ottenere la massima densita’ computazionale per rack (fino a 4 chassis 9U per rack conteneti ognuno fino a 14 blades, per un valore complessivo di 14 (blades) x 4 (chassis) = 56 blades che per soluzioni dual-core corrispondono a 224 cores per rack). Ulteriori vantaggi sono dovuti alle caratteristiche di minor consumo delle soluzioni blade rispetto a nodi 1U. Come valutazione esemplificativa, ma applicabile al caso in questione, un Blade Chassis con 14 LS21 configurati con 1xHDD 73GB SCSI, 4GB RAM, e apparati di rete integrati, consuma circa 3KW (circa 210W per blade). Un rack completo con 4 chassis ha un consumo inferiore a 12KW. Nella soluzione proposta considerata la configurazione di memoria, disco e apparati di rete, il consumo per rack pienamente popolato (4 chassis con 14 x LS21 ognuno, pari a 56 x LS21 per rack) e’ circa 14KW. Questo valore e’ in assoluto il migliore a parita’ di tecnologia di processori, RAM e disco, rispetto a soluzioni blade di altri fornitori. E’ chiaramente superiore rispetto a soluzioni server 1U dove mediamente il consumo per ogni Server e’ circa 40% superiore all’equivalente soluzione blade mentre l’occupazione in termini di spazio e’ circa 2 volte superiore. 114 Scheda tecnica riassuntiva soluzione IBM LS21 Overview Un singolo chassis BladeCenter H supporta, in sole 9 U di un rack, sino a 14 blade LS21 e HS21 in modalità hot swappable. In aggiunta ai blade server, lo chassis può ospitare sino a 10 diversi switch/bridge. Queste caratteristiche non solo permettono di avere un risparmio notevole di spazio rispetto ai server 1U, ma integrando switch e bridge riducono la complessità nei cablaggi e permettono una gestione integrata. In un singolo rack 42U possono essere installati sino a 56 server LS21 e/o HS21 per un totale di 112 processori e 224 core. I tool di gestione integrati in BladeCenter semplificano inoltre l’amministrazione e massimizzano l’efficienza del personale IT, contribuendo a ridurre i costi e a migliorare il controllo del data centre IBM BLADECENTER LS21 Il Blade Server LS21 offre caratteristiche comparabili a molti server 1U. Infatti l’LS21 supporta sino a 2 processori di ultima generazione dual-core AMD Opteron revision F. I processori Opteron sono progettati con 2MB di cache L2 condivisa, tecnologia HyperTransport 64-bit extensions (EM64T), e sono in grado di fornire tutta la capacità di elaborazione richieste dale applicazioni attuali. LS21 supporta sino a 32GB di memoria DDR2 con 533MHz PC2-4200 Fully Buffered ECC (Error Checking and Correcting) oppure 16GB di memoria PC2-5300 (DDR2 667MHz) ECC in 8 DIMM slot, utilizzando le Memory and I/O Expansion Unit, con protezione Chipkill™per garantire prestazioni e affidabilità. I controllori dual Gigabit Ethernet integrati sono standard e forniscono high-speed data transfer e supporto TOE unito a funzionalità di load-balancing e failover. La Memory and I/O Expansion Unit fornisce due controller aggiuntivi Gigabit Ethernet (senza supporto TOE). Utilizzando delle schede di espansione aggiuntive , ogni blade può connettersi a sistemi Ethernet, Myrinet, Fibre Channel, iSCSI, InfiniBand™ mediante switch integrati nello chassis. Schede opzionali 2-port Expansion Cards permettono di aggiungere funzionalità ai server LS21 server. Tutti i modelli LS21 offrono alte funzionalità a prezzi contenuti e includono un SAS hard disk. Una Storage and I/O Expansion Unit opzionale da 30mm connessa al blade garantisce la possibilità di avere tre 2.5” SAS HDD aggiuntivi con supporto hot-swap, e supporto RAID1/RAID-5. LS21 è 115 ottimizzato per funzionare in modalità diskless, potendo ogni blade server accedere a qualsiasi tipologia di storage via Fibre Channel o iSCSI. I chassis BladeCenter sono in grado di controllare le condizioni operative delle proprie componenti e delle blade e di mandare alert all’amministratore. Sono disponibili funzionalità avanzate quali: Active Memory™, Predictive Failure Analysis™, light path diagnostics, componenti di power e raffreddamento hot-swap e ridondate e con Calibrated Vectored Cooling™ Supporto IPMI 2.0 con controllo remoto sicuro del power text-console ridiretta sulla LAN, un Management Module, IBM Director management software con IBM PowerExecutive™, Remote Deployment Manager, e IBM ServerGuide™ aiutano a mantenere elevate la system availability with. LS21 offre numerose caratteristiche per aumentare le performance e abbassare i costi operativi: Sino e due processori dual-core Opteron “revision F” Model 2000 Series con HyperTransport Technology, DirectConnect Architecture e 2MB di cache integrata Level 2 per processore. A scelta processori con 2.0, o 2.4GHz clock rates e 68W di consumo oppure 2.0 o 2.6GHz e 95W di consumo. Sino a 32GB di memoria high-speed 533MHz PC2-4200 o sino a 16GB di memoria a 667MHz PC2-5300 DDR2 ECC) con protezione Chipkill opzionale. Il blade server LS21 include una Baseboard Management Controller (BMC) per monitorare la disponibilità del server, fare Predictive Failure Analysis, e catturare gli alert del IBM Director. L’alto livello di integrazione dello chassis elimina la necessità di componenti interne ai server, potendo sostituire con le proprie componenti hot swap moduli esterni per raffreddamento, cablaggi, power e switch. L’integrazione abbassa anche la quantità di energia che viene consumata e il calore prodotto da un numero equivalente di sistemi 1U. Il midplane supporta una scheda di espansione Fibre Channel (adattatore Host Bus) opzionale a due porte (fino a 4 Gb per porta), una scheda di espansione Gigabit Ethernet opzionale a due porte, fino a quattro fabric ad alta velocità con connessione PCI-Express, incluso Infiniband 4x Anche l’alimentazione degli chassis è stata nettamente migliorata permettendo un fattore di efficienza del 90% nella conversione di corrente AC in corrente DC utilizzata all’interno dei server. Anche in questo caso il risparmio è notevole in quanto l’energia utilizzata viene sfruttata al meglio per il funzionamento delle varie componenti. I Blade Center riducono inoltre il numero di una serie di componenti necessarie ai sistemi, quali floppy e CD-ROM device, ventole e sistemi di gestione 116 Caratteristiche IBM BladeCenter LS21 Blade Server Vista frontale Vista interna BladeCenter LS21 Specifications Machine type 7971-3xX/3xY, 5xX/5xY, 6xX/6xY (2-processor-only) Form factor 30mm blade Processor type DUAL-CORE AMD OPTERON “REVISION F” PROCESSOR (2000 SERIES) 2.0GHz 2212HE (31X/31Y), 2.0GHz 2212 (3AX/3AY), 2.4GHz 2216HE (5xX/5xY), 2.6GHz 2218 (6xX/6xY) Processor power draw 68W (31X/31Y, 51X/51Y) HyperTransport Tunnel speed 1.0GHz # of processors maximum standard / 95W (3AX/3AY, 6AX/6AY) 1/2 Internal L2 cache 2MB (1MB per core) Chipset ServerWorks HT 2000/1000 Standard / maximum memory 1GB (2 x 512MB) / 32GB (31X/31Y, 3AX/3AY) Standard memory type PC2-5300 (667MHz) DDR II ECC (optional PC2-4200/533MHz) Memory interleaving Two-way (using pairs of DIMMs) DIMM capacities supported 512MB, 1GB, 2GB, 4GB 2GB (2 x 1GB) / 32GB (51X/51Y, 6AX/6AY) 117 BladeCenter LS21 Specifications Chipkill protection supported Yes # of DIMM sockets total / available 8 / 6 (31X/31Y, 3AX/3AY, 51X/51Y, 6AX/6AY) # of 2.5-inch drive bays total / available 1 / 1 fixed (standard) # of direct-attach 2.5-inch drive bays 3 hot-swap (using optional Storage and I/O Expansion Unit) Maximum capacity 146,8GB SAS standard internal 2.5" HDD Maximum HDD capacity using a storage expansion unit 293.6GB (4 x 73.4GB), using optional Storage and I/O Expansion Unit 2.5-inch HDD capacities supported 36.4, 73.4GB, 146,8GB — 10K RPMs # of HDDs standard None # of optical drives standard None (one standard in chassis) # of diskette drives standard None (one standard in BladeCenter / BladeCenter H chassis) Internal tape drives supported None (SAN-attached) Disk drive technology Serial-Attach SCSI (SAS) Integrated disk controller LSI Logic 53C1064 # of disk drives supported per channel 1 (one-drive limit internally, due to available bays) External disk drive support NAS/SAN-attach # of adapter slots total / available 1 legacy PCI-X slot or 1 PCI-E slot (Additional slots available with optional expansion units) # of 64-bit / PCI-E x8 slots 1 (in place of the PCI-X slot); 1 PCI-E slot available with the optional Storage and I/O Expansion Unit (1 maximum) # of 64-bit / PCI-X 133MHz slots 1 (in place of the PCI-E slot); 2 extra via optional PCI Expansion Unit II (3 total); 1 or 2 extra via optional Storage and I/O Expansion Unit (3 maximum) # of 32-bit / PCI slots None # of video ports None (chassis-attached) Video controller ATI RADEON RN50B Video memory 16MB SGRAM Maximum video resolution at 32-bit color 1024 x 768 x 32-bit color at 75Hz Gigabit standard 2 x Broadcom BCM5706S (with TOE support) Ethernet controllers # of RS485 ports None # of serial ports None (1 via BladeCenter H chassis) # of parallel ports None # of mouse ports None (1 via chassis) # of keyboard ports None (1 via chassis) # of USB 1.1 ports None (2 via chassis) 118 BladeCenter LS21 Specifications Systems management controller Integrated BMC Diagnostic LEDs (front panel) Power good, blade location, over temperature, information, general fault Predictive Failure Analysis support Processor, memory, HDDs Power supply size Contained in chassis # of power supplies standard / maximum Contained in chassis # of fans/blowers maximum Contained in chassis standard / Dimensions (HWD) / weight 9.7” (245MM) H 1.14” (29MM) W 17.6” (446mm) D Operating systems supported Microsoft Windows Server 2003 (Standard/Web/Enterprise Editions) 32-bit and 64-bit, Microsoft Windows 2000 Server (Standard/Enterprise Editions), RHEL 3/4 32-bit and 64-bit, SLES 9/10 32-bit and 64-bit, Novell NetWare 6.5, VMware ESX Server 2.5.4/3, Solaris 10 Length of limited warranty 3 years (parts and labor) onsite 10.77 LB (MAXIMUM) 4.88 kg (maximum) 119 Schema del nuovo Blade Center H 9U con supporto Infiniband 4X BladeCenter H Advanced Management Module BladeCenter HT (4Q) 2-socket PowerPC Refresh (dual core) 2-way low voltage Xeon speedbump 2-way Xeon speedbump 2-socket Opteron speedbump 2-socket Sossaman (very low voltage) 2-socket Xeon Refresh (dual core) 2-socket Opteron Refresh Dual 4X InfiniBand HCA Cisco 4X InfiniBand Switch Module IBM Server Connectivity Module Nortel 10Gb Uplink Switch Nortel 10Gb Ethernet (4Q) Myrinet, Teak, Invivo, Voltaire, Nokia, Nortel, Ericsson 120 121 122 Blade Center H: Vista frontale A: Il BladeCenter H dispone minimo 2 fino a un massimo di 4 (la configurazione con 4 PS corrisponde a quanto offerto) power supply che si inseriscono frontalmente. Ciascun modulo comprende anche la parte di ventole utilizzate per migliorare il raffreddamento dei power supply. B: media tray che comprende un DVD UltraSlim 9,5 mm, 2 USB esterne ed il pannello di Full Light Dignostic che è riportato in dettaglio nella terza immagine. Tale tray è hot swap e può essere condiviso dalle lame secondo le necessità. Vista posteriore A: Alloggiamenti Switch: 1Gb Ethernet, 4Gb Fibre Channel, 1X InfiniBand e Myrinet B: Alloggiamenti Switch ad alte prestazioni: Il BladeCenter H disponendo di 2 U aggiuntive rispetto al Blade Center a 7U dispone di 4 bay per ospitare 4X InfiniBand consentendo maggiori performance. C: connessione seriali e Light Path Diagnostic Panel: l’LPD posto nella parte posteriore è per facilitare la risoluzione dei problemi mentre si è dietro al rack. La nuova connessione seriale presente nel modello H permette ai clienti anche una connessione seriale diretta ad ogni blade nello chassis. Ecco l’ immagine di dettaglio: 123 D: Advanced Management Module per una gestione semplificata di tutte le componenti. E: Ventole hot swap: l’architettura N+N hot swap e ridondato riduce il numero di componenti necessarie al raffreddamento aumentando l’uptime, la manutenzione e riducendo significativamente l’assorbimento di corrente. F: una delle prese per l’alimentazione dello chassis Il BladeCenter H fornisce i sistemi di controllo e gestione atti a gestire ed interfacciare i sistemi di controllo delle singole lame blade: Advanced Management Module per la gestione hardware del sistema; IBM Director con strumenti di gestione e di installazione dei sistemi per la gestione software dei sistemi; Predictive Failure Analysis per il controllo del buono stato di funzionamento di Dischi, Processori, ventole, memoria; Light Path Diagnostics per il controllo del Blade server, del processore, della memoria, degli alimentatori, delle ventole, degli switch, del modulo di gestione (Advanced management module), i dischi e le expansion card Blade Chassis Caratteristiche Caratteristiche disponibilità Light path diagnostics Sì Memoria Chipkill Sì Midplane disponibilità alta Sì Moduli di ridondanti gestione Sì Offerta Ethernet integrato layer 2-7 Sì Switch Fibre Channel integrato Tre venditori Switch InfiniBand integrato. 4X Sì Espansione opzionale -due hard drive aggiuntivi e due slot I/O Sì Supporto Myrinet Sì clustering 124 Alcuni utili link per ulteriori informazioni sulla soluzione IBM bladecenter Descrizione sito web Prodotto BladeCenter Link http://www.ibm.com/servers/eserver/bladecenter/ Prodotto chassis BladeCenter Prodotto server blade http://www.ibm.com/servers/eserver/bladecenter/chassis/index.html http://www.ibm.com/servers/eserver/bladecenter/blade_servers_overview. html http://www.ibm.com/servers/eserver/bladecenter/switch/index.html Pagina prodotto moduli switch BladeCenter Siti internet IBM Express servere e storage IBM Research ibm.com/servers/eserver/express/offerings_xseries.html http://www.research.ibm.com/journal/rd49-6.html 125 Dimensionamento dei vari Lotti sulla base delle prestazioni di LS21 da www.spec.org Per soddisfare al meglio le specifiche del bando in termini di prestazioni complessive con un rapporto prezzo/prestazioni di massimo rilievo, si ritiene cha la soluzione AMD/Opteron 2218 revF dual-core a 2.6GHz rispecchi al meglio le specifiche sia per l’elaborazione integer che per floating-point. In particolare si riportano nella tebella di seguito i valori relativi ai vari indicatori disponibili su www.spec.org e utilizzati nel capitolato tecnico di gara con i quali definire il numero di blades necessarie per ogni centro COMETA e in grado di soddisfare le richieste di prestazioni minime. Si tenga in conto che i dati pubblicati hanno un valore di tolleranza generalmente entro il 2%. Tabelle dati di prestazione di riferimento come da www.spec.org Gennaio 2007 IBM AMD/Opteron [email protected] dual-core revF, processore 2218 Prestazioni LS21 AMD Opteron 2218 da www.spec.org SPEC bmt Base Results CINT2000 1606 1784 CINT_rate2000 72,6 81,2 CFP2000 1999 2228 CFP_rate2000 83,3 89,2 In riferimento alle specifiche di prestazione SPEC indicate in ognuno dei lotti 1-5 del capitolato tecnico di gara, e’ utile fare un conto complessivo sul numero di blades che consente di soddisfare le specifiche di target Tenendo in conto la distribuzione delle capacita’ di elaborazione indicate sui 6 lotti di gara, si effettuera’ una ripartizione in termini di numeri di blades secondo lo schema seguente: Lotto Richieste Lotto 1 17 Blades 19 Blades Lotto 2 14 Blades 16 Blades Lotto 3 4 Blades 5 Blades Lotto 4.1 13 Blades 14 Blades Lotto 4.2 5 Blades 6 Blades 22 Blades 24 Blades 75 Blades 84 Blades Lotto 5 Totale Offerta Di seguito sono confrontati i valori di capacita’ computazionale aggregata minimi richiesti, riportati nella tabella sequente: 126 Sommatoria Base Results CINT2000 488370 553560 CINT_rate2000 5430 6150 CFP2000 598230 659910 CFP_rate2000 5570 6000 SPEC bmt in COMETA Requisiti minimi rispetto ai valori computazionali aggregati nella configurazione di 84 Blades proposta Sommatoria Base Results CINT2000 539616 599424 CINT_rate2000 6098 6821 CFP2000 671664 748608 CFP_rate2000 6997 7493 SPEC bmt in COMETA 84 LS21 Blades offerte La proposta quindi prevede una capacita’ computazionale aggregata circa 10% superiore per la componnete SPECint_rate e circa 25% superiore per la componnete SPECfp_rate rispetto alle specifiche minime di gara. Il Consorzio puo’ a suo giudizio redistribuire le Blades in diverso numero sui vari siti, fatto salva la capacita’ di ospitarle negli Chassis predisposti, in quanto l’infrastruttura di rete e’ stata disegnata per poter supportare, senza pregiudicare in alcun modo le prestazioni, Chassis pienamente popolati. Si rinvia al documento allegato “Performance of the AMD Opteron LS21 for IBM Blade Center” per un’analisi dell’architettura di LS21 e alcune ulteriori considerazioni sulle prestazioni. 127 Scheda tecnica riassuntiva soluzione sottosistema storage IBM DS4200 I lotti 1-2-3-5 proposti prevedono un sistema storage IBM DS4200 di differenti capacita’ ma con identiche caratteristiche di ridondanza, gestione e affidabilita’ complessiva. Il sistema DS4200 supporta vari tipi di RAID. Ha una ridondanza intrinseca di tutti i componenti critici (Fan, Power, Controller) per assicurare la massima affidabilita’. Consente espansioni fino almeno a 56TB con dischi S-ATA. Ogni Cluster accede il ssistema DS4100 tramite un Server x3655 che gestisce il Cluster stesso, il sottosistema storage e l’ambiente GPFS Server. Con tale soluzione i nodi di calcolo sono impegnati per la parte I/O tramite il proprio Client GPFS e quindi non partecipano in alcun modo alla gestione del GPFS stesso, permettendo un uso ottimale delle risorse di calcolo stesse. 128 Dimensionamento dei sottosistemi storage sui vari Lotti Capacita’ TB complessiva distribuita su sottosistemi DS4200 per i 5 Lotti: Lotto Richiesto Offetto 1 25TB 27TB 2 10TB 12TB 3 5TB 7TB 129 4.1 n.a. n.a. 4.2 n.a. n.a. 5 20TB 22TB Tot 50TB 68TB Complessivamente si offre circa un incremento di 35% di storage aggiuntivo rispetto alle specifiche minime di gara.. Il Consorzio puo’ a suo giudizio ridistribuire i dischi in diverso numero sui vari siti, fatto salva la capacita’ di ospitarle nell’espansioni DS4200 predisposte, in quanto l’infrastruttura storage e’ stata disegnata per poter supportare, senza pregiudicare in alcun modo le prestazioni, espansioni pienamente popolate. In ognuno dei siti in cui e’ disponibile un sottosistema DS4200 sono stati previsti due I/O nodes per assicurare ridondanza, prestazioni e flessibilita’ nella gestione degli accessi al sottosistema storage. La configurazione tipo di un I/O node e’ la seguente. • • • • • • Server x3655 2U dual-core 2210 1.8GHz 4GB RAM DDR2 667MHz ECC dual GbEth integrata doppio disco 73GB SAS in RAID HW hot-swap Controller Emulex 4Gb FC dual-port Redundant power supply 130 • Infiniband Network La rete di IPC (Inter Process Communication) proposta garantisce una performace di 10Gbit/sec (4x) da ogni nodo computazionale. Per questa ragione e per garantire che la soluzione sia full non blocking e full bisection bandwidth la nostra scelta e’ caduta sull’utilizzo di switch Cisco Infinband 4x per BladeCenter H La nostra soluzione propone, come gia’ riportato, prodotti della famiglia Cisco. La scelta di Cisco e’ dovuta alla garanzia di perfomance ed affidabilita’ garantite da Cisco e da noi confermate. Cisco con IBM sta lavorando attivamente allo sviluppo sia dei nuovi prodotti per BladeCenter H che al miglioramento e sviluppo di drivers e firmware per questa tecnologia. Con l’acquisizione di Topspin, Cisco ha deciso di investire massicciamente in questo settore e lo dimostra la leadership nello sviluppo di OpenIB ed il rilascio dei drivers OFED in parallelo con quelli proprietari, oltre a lavorare attivamente nello sviluppo di nuovi cavi, componente delle soluzioni infiniband piuttosto delicata ad oggi. Cisco inoltre ha partecipato alla realizzazione di 13 dei 20 cluster piu’ grandi basati su Infiniband e maggiori info sulle referenze possono essere trovate all’URL http://newsroom.cisco.com/dlls/2006/prod_111406f.html, di cui citiamo • CINECA • TriGrid • Cybersar • Sandia National Laboratories • the Air Force Research Laboratory Maui High Performance Computing Center, • Texas Advanced Computing Center at The University of Texas at Austin, • the College of Computing at Georgia Tech, • the University of Sherbrooke, • the University of North Carolina at Chapel Hill, • National Center for Supercomputing Applications, • the University of Oklahoma • University of Florida • Stanford University In particolare Sandia National Laboratories Thunderbird Linux cluster e' classificato al 6 posto della Top 500 supercomputing list ed e' il piu grande cluster ad oggi realizzato con standard Infiniband. Ad oggi i fornitori di Infiniband si relazionano con un unico fornitore di silicio, i chip utilizzati da Cisco, Voltaire e Silverstorm dipendono dal silicio realizzato da Mellanox da cui i produttori sopra menzionati acquistano le HCA. La differenza nelle varie soluzioni IB sul mercato e’ percio’fatta dai drivers e dal tipo di Systema di management utilizzato. Cisco ha realizzato un software, chiamato Subnet Manager, molto efficace che riesce a gestire e monitorare tutta la rete Inifniband dei cluster permettendo un attento controllo ed il routing dei packages su un differente path, in caso di failure, in tempi ridotti, si pensi come esempio che in un cluster di circa 1280 compute nodes, composto da IBM BladeCenter H Cisco Infiniband 4x switches e SFS-7024 come second level switches, il subnet manager (SM) e’ in grado di ricalcolare on-the-fly il reroute dei pacchetti in un tempo di circa 2 secondi in caso di failure di un path (per esempio cavo rotto). 131 Le specifiche di Infiniband, presenti sul sito ufficiale IBTA (http://www.infinibandta.org/home) consentono un BER di 10-12 , Cisco supporta e qualifica il proprio HW con specs piu’ restrittive (10-15 BER), tradotto in termini pratici: un BER di 10-12 corrisponde ad un rischio di circa 1728 errori all’ora che si riduce a due errori quando si utilizzano prodotti Cisco come quelli da noi proposti nella nostra offerta. Nel caso di switch come il SFS-7024 completo di 288 porte DDR gli errori possibili possono essere circa 41 per ora a differenza di prodotti che si attengono strettamente alle specifiche IBTA che consentono circa 41472 errori all’ora, come evidenziato nella tabella seguente Come riportato in precedenza uno dei componenti fondamentali delle soluzioni infiniband e’ il Subnet Manager, Cisco ed IBM garanstiscono per questa soluzione un network fully managed in tutte le sue componenti, grazie al Subnet Manager software fornito a corredo della soluzione. Le caratteristiche principali del Subnet Manager di Cisco sono le seguenti: • • • • • • • • Unico nel mercato con support hot-standby Capacita’ di “sweep” di 4600 nodi in 30 secondi Supporto HA: se il master Subnet Manager dovesse avere un problema, si inneschera’ un meccanismo di failover del Subnet Manager per garantire la continuita’ del servizio. Configurazione via CLI Ricalcolo e load balancing dei package routes quando un cambio avviene un cambio nella topologia del network Supporto di MultiPathRecord che nel caso di utilizzo di entrambe le connessioni presenti su ciascuna HCA, consente di non avere un SPOF. Supporto di SNMP trap per permettere il management degli switch con i tools standard forniti dall’industria per la gestione degli altri prodotti Cisco. Cisco SFS integra CiscoWorks con il supporto di RME, DFM, NCM, TACACS. Evidenziamo che la tecnologia DDR e’ ad oggi ancora giovane e non consolidata come la SDR; ad oggi esistono alcuni problemi di stabilita’ di performance dovuti a due “critical bug” trovati nel firmware di Mellanox che Cisco ha risolto decretando la stabilita’ e superiorita’ del prodotto Cisco verso la concorrenza. Come gia’ accennato in precedenza, Cisco sta investendo risorse nello sviluppo di Infiniband, a seguito dell’acquisizione di Topspin. Come prova di questa affermazione ricordiamo che Cisco e’ uno 132 dei maggiori contributori ad OFED ed OpenMPI che includono: • • • • • • • OFED’s core architecture (Roland Drier-CISCO) IPoIB (Roland Drier-CISCO) SRP (Roland Drier-CISCO) Final upstream kernel integration to Linux (Roland Drier-CISCO) OMPI (Jeff Squyres-CISCO) Overall OMPI direction and feature setting for OFED (Jeff Squyres-CISCO). QA on OFED (Scott Weitzenkamp-CISCO). Per la soluzione proposta consigliamo di utilizzare lo stack software (librerie MPI, drivers) proprietario fornito da Cisco che assicura, ad oggi, una maggiore stabilita’ e sicurezza rispetto alla versione OFED ancora in sviluppo. Evidenziamo che la soluzione da noi proposta è totalmente Fully Managed in tutte le componenti Infiniband. Device driver IPC e librerie MPI Le HCA installate sui nodi computazionali fanno parte della famiglia di prodotti Infiniband offerti da Cisco e supportano Message Passing Interface (MPI), IP over Infiniband (IPoIB) and Sockets Direct Protocol (SDP) che utilizzano il protocollo Infiniband Remote Direct Memory Access (RDMA) a supporto delle prestazioni richieste dalle applicazioni del mondo High Performance Computing (HPC). Ad oggi sono disponibiloi sia lo stack di drivers che la versione commerciale di OpenIB Gen2 oppure la versione offerta dalla comunita’ OpenSource. Nella nostra offerta noi forniremo la versione commerciale dello stack software ed il relativo supporto. Scheda tecnica riassuntiva soluzione interconnessione Infiniband Topspin/CISCO Tutti i Lotti integrano un’interconnessione a alta efficienza Infiniband 4X Topspin/CISCO. IBM ha un accordo di collaborazione tecnologica con Myricom e il consorzio InfiniBand. Per quest’ultimo partecipa alla definizione dello standard e alla sua evoluzione (si veda www.infiniband.org) e ha inoltre stabilito con alcuni dei principali produttori di architetture di rete (Topspin/CISCO, Voltaire) una collaborazione tecnologica di lungo termine. Tenuto quindi in conto lo specifico ambito applicativo di interesse per COMETA si e’ ritenuto particolarmente interessante proporre una rete di interconnessione Infiniband-4X (di seguito IB) che consenta la completa interoperabilita’ con le architetture Infiniband 1X gia’ presenti nella realizzazione TriGrid. Come e’ noto IB e’ uno standard che si e’ imposto da qualche hanno e sul quale sono convenuti i maggiori costruttori di soluzioni di rete, di sistemi storage e di architetture cluster. IBM integra e supporta IB in tutta la gamma dei Server, supporta lo sviluppo dei driver, del SW di gestione e dell’ambienti di programmazione parallela MPI. Ha inoltre completato, o sta completando, la migrazione di alcuni ambienti SW di gestione dei dati e di accesso efficiente ai propri sistemi storage sfruttando i protocolli di comunicazione nativa. L’utilizzo dei protocolli nativi consente di ottenere le maggiori prestazioni in termini di latenza e bandwidth, vicini a quelli limite dell’architettura stessa. Di seguito si riportano alcune chart da Topspin dove si evidenziano le peculiarita’ di IB rispetto a altre connessioni ad elevate prestazioni. 133 Topspin Compelling HPTC Performance 900 4500 MPI over InfiniBand MPI over Myrinet MPI over Quadrics 700 600 3500 3500 Latency (us) Bandwidth (MBps/s) 800 500 400 300 200 MPI over InfiniBand MPI over Myrinet MPI over Quadrics 2500 2000 1500 1000 100 0 3000 500 4 16 64 256 1024 4096 16384 65536 0 262144 4096 Message Size (Bytes) Throughput Latency (small msg) CPU Utilization InfiniBand 850 MBps 8192 16384 32768 65536 1301072 262144524288 Message Size (Bytes) Quadrics Myrinet GigE 300 MBps 220 MBps 120 MBps 70 us 6.5 us 5 us 8 us 1-3% Not available Not available 50% Source: Ohio State and Topspin 6 La disponibilita’ di specifici driver con l’interconnessione IB Topspin consente di sfruttare al meglio l’interconnessione tramite protocollo di programmazione MPI supportato in MPICH e MPICH2. Questi due ambienti saranno installati nei due clusters e verrano effettusate dei test di verifica di prestazione e di funzionalita’ in collaborazione con il personale dei due centri stessi. Standard Topspin MPI Uses Zero-Copy RDMA Support to minimize CPU utilization MPI v 1.2: Standardized June 1995 Application MPICH From Argonne (v. 1.2.5.2) MVICH From LBL (v 1.0) MVAPICH From OSU (v 0.9.2) Improvements for IB: Improved shared memory and lazy memory registration optimization Verbs API Adding the MPE performance analysis tool to our MPI distribution. IB Transport Improving the program which invokes MPI jobs (mpirun_rsh). IB Network IB Link IB Physical Using InfiniBand's hardware multicast to improve the performance of MPI group communication. Implementing a new flow control scheme Support for MPI-2. MPI Layers in Software IB layers in Software IB Layers in Hardware 19 134 IBM Systems Group InfiniBand Advantage RDMA Kernel Bypass Model Traditional Model Application User Application User Sockets Layer Kernel Sockets Kernel Layer User Space Access (e.g. MPI, uDAPL) SDP TCP/IP Transport TCP/IP Transport IB Driver (Verbs i/f) IPoIB Driver RDMA i/f Hardware Hardware Page 22 © 2005 IBM Corporation IBM Systems Group InfiniBand Performance Enhancements Application Transparent BSD Sockets Custom / Enhanced Performance Async I/O uDAPL MPI extension Direct Access TCP IP SDP IPoIB 10G IB 1GE Throughput 0.8Gb/s 1.4Gb/s 3.6 Gb/s 6.2Gb/s 6.4Gb/s 6.4Gb/s Latency 60+ usec 30 usec 18 usec 18 usec <8 usec <6 usec Page 23 © 2005 IBM Corporation E’ altresi’ evidente che Blade Center H (BC-H) e Blade LS21 consentono di sfruttare a pieno le caratteristiche dell’interconnesione 4X e quindi ottenere valori di latenza e di throughput significativamente migliori. Da notare inoltre che LS21 e BC-H supportano una rete Gbit ridondata che consente il cluster management e la comunicazione via LAN di tutte le Blades. Di seguito quindi un riassunto sintetico delle specifiche di interconnessione Gbit e Infiniband 4X specificatamente disegnate per questa realizzazione. 135 - 2 interfacce di rete distinte (non una singola dual port) Broadcom BCM 5708S ethernet 1 Gbit/sec - 1 interfaccia di rete Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter (questa scheda supporta 20Gbps bidirectional) Chassis IBM BladeCenter H da 9 U con questi componenti di rete: - due switch Nortel layer 2/3GbE Rame a 6 porte ciascuno due switch Cisco Systems 4X InfiniBand per chassis che garantisce una configurazione full non-blocking (20Gbit da ciascuna blade). InfiniBand 4X (10Gbps unidirectional, 20Gbps bidirectional) consente accessi a bassa latenza (ordine dei 3 microsec.), elevata bandwidth (circa 1GByte/sec come valore di picco) e alta prestazione ad ogni nodo blade indistintamente dalla posizione fisica dove risulta collocato. Il disegno di questo tipo di collegamento garantisce la scalabilità necessaria ad alti numeri di nodi concorrenti ad un cluster HPC. Le topologie dell’HPC network basato su infiniband puo’ variare in base alle performance necessarie ed al budget disponibile per tale componente del cluster linux. Una configurazione full non blocking come quella proposta in questo documento consente la massima disponibilta’ della bandwidth di Infiniband 4x, le HCA utilizzate hanno due porte 4x che sfruttano la banda fornita dal bus PCI-E 8x caratteristiche delle blades LS21.. Le applicazioni ed i server che fruiranno dell’infrastruttura di calcolo hanno le garanzie di adeguata sicurezza e privatezza Il sistema di interconnessione proposto consente l’ integrazione fra tecnologie di connettività eterogenee per ottenere in sistema di rete unificato. Il cablaggio per InfiniBand 4X consente anche il supporto per nuovi protocolli quali il 10Gb Ethernet piuttosto che l’8/10 Gb Fibra. Non viene fatto uso di protocolli proprietari ma vige il rispetto degli standard internazionali, sia per i protocolli di rete impiegati, che per le infrastrutture passive. Per quanto riguarda il collegamento Gbit – Rame del sistema di interconnessione High Performance Infiniband 4x supporta banda fino a 10Gbit unidirectional e 20Gbit bidirectional. Scheda tecnica riassuntiva sull’integrazione dell’ambiente middleware INFN Grid, integrazione datagrid con IBM GPFS, e gestione centralizzata remotizzata di tutta l’infrastruttura. L’architettura dei Cluster consente un controllo remoto tramite KVM, funzione integrata in ogni Blade Center. Ne segue che remotamente tramite connessione LAN si possono gestire tutti i Blade Center presenti nell’architettura per COMETA. Il middleware di gestione puo’ essere quello rilasciato da IBM e denominato CSM oppure un qualsiasi altro middleware che consente funzionalita’ similari. L’architettura supporta la distribuzione Scientific Linux del CERN oltre agli ulteriori ambienti previsti nel progetto INFN Grid. Ricordiamo inoltre che IBM ha una collaborazione attiva con Nice Srl per il supporto di ambienti Grid computing distribuiti. Un ulteriore integrazione dell’architettura e’ ottenibile tramite l’accesso distribuito di un unico filesystem distribuito a sua volta sui vari centri ma visto come unitario per tutti. 136 Vi sono differenti soluzioni per ambienti datagrid. Il piu’ tradizionale e’ AFS, che consente una elevata interoiperabilita’ tra tutte le piattaforme distribuite e una caratteristica versatilita’, ma che non consente prestazioni adeguate per accessi simultanei come possono avvenire per sistemi di calcolo paralleli. IBM di recente ha promosso GPFS come ambiente datagrid di elevate prestazioni e che potesse connettere piu’ sistemi geograficamente distribuiti. La figura sottostante riassume l’architetttura GPFS di uno o piu’ Cluster interoperanti e connessi tramite LAN (la parte in blu). Lo schema puo’ essereapplicato a un solo Cluster cosi’ come a piu’ Clusters connesssi fra loro tramite LAN geografica. GPFS 2.3 e release successive consente di gestire in modo unico e centralizzato il filesystem distribuito necessitando una unica politica relativamente a uid. In particolare IBM con INFN sta definendo un contratto di supporto a livello nazionale di tale ambiente per poter garantire la sua funzionalita’ e la correzione di errori nonche’ il supporto del Lab IBM per specifiche richieste. B'Center ... ... FAStT600 Controllers and disks Cluster Interconnect B'Center BladeCenter Compute Nodes B'Center x345 Storage Nodes B'Center NSD Connected Storage Solution 137 L’architettura GPFS gestisce il filesystem parallelo e distribuito tramite alcuni Server (server GPFS), ai quali sono connessi direttamente tramite SAN i sistemi storage, che a loro volta sono connessi con rete a alte prestazioni o Gbit i nodi di calcolo (client GPFS). In questo modo ogni nodo di calcolo accede un filesystem unico e distribuito su tutti i siti in modo trasparente. Sara’ cura del GPFS stesso gestire la distribuzione dei dati tra i vari Server, mantenerne la congruenza e la corretta ridondanza alfine di garantirne l’acceso anche in caso di caduta di uno dei Server GPFS. Questo tipo di funzionalita’ e’ essenziale alfine di non penalizzare gli altri siti nel caso in cui venisse meno l’accesso di uno dei Cluster disponibili nell’architettura COMETA. Di seguito si riportano alcuni riferimenti su GPFS accedibili via web. 1. GPFS for Linux FAQ: http://www.ibm.com/servers/eserver/clusters/software/gpfs_faq.html 2. GPFS for Linux documentation: http://www.ibm.com/servers/eserver/clusters/software/gpfs.html 3. GPFS Redbooks: http:// www.redbooks.ibm.com/ 4. GPFS Papers: http://www.almaden.ibm.com/StorageSystems/file_systems/GPFS/Fast02.pdf 5. GPFS Research: http://www.almaden.ibm.com/StorageSystems/file_systems/GPFS/ 6. GPFS for AIX Architecture and Performance: http://www.ibm.com/servers/eserver/clusters/whitepapers/gpfs_aix.html 7. GPFS on Linux Clusters: http://www.ibm.com/servers/eserver/clusters/software/gpfs.html Nel progetto COMETA verra’ realizzata un’infrastruttura integrata che assicuri la funzionalita’ del middleware INFN Grid e la sua preinstallazione. Sara’ anche reso disponibile e installato l’ambiente GPFS per la funzionalita’ datagrid distribuita nonche’ gli altri ambienti di programmazione parallela espressamente indicati nei lotti. IBM sta inoltre sviluppando GPFS nativo su Infiniband che, quando disponibile, potra’ ulteriormente migliorare le condizioni di prestazione e scalabilita’ dell’architettura I/O. Da notare che l’architettura di I/O potra’ usufruire di due storage node che permetteranno la ridondanza e la migliore distribuzione del carico durante l’accesso al sistema storage. 138 Cluster di Calcolo offerti nei 6 siti COMETA Lotto 1 Sistema di Calcolo INFNCT Art 1.1 Sistema di calcolo Cluster composto da 19 Blades LS21 Opteron dual-core 2218 2.6GHz in due Blade Center H la cui configurazione e’ di seguito riportata con aggiunta del diagramma visivo I cui valori in termini di SPEC aggregati rispecchiano quelli indicati nella tabella del capitolato tecnico in un range del 2% di tolleranza. IBM eServer Processor Hardware - BladeCenter Q.ty 88524XG IBM BladeCenter™ H Chassis with 2x2900W Power Supplies 2 32R1860 Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter 4 32R1756 Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter 4 31R3335 IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs 2 25R5785 IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M 4 Processor Hardware - BladeCenter LS21 79716AG LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS 19 25R8897 AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 95w 19 39M5864 2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM 57 26K5777 73.4 GB SAS HDD (2.5") SFF 19 32R1760 Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter 19 Processor Hardware - x3655 Storage Nodes 2 79851AG x3655, AMD Opteron Dual Core 2210 1.8GHz/1067MHz, 2MB L2, 2x512MB, O/Bay 3.5in HS SATA/SAS, SR-8ki, CD-RW/DVD, 835W p/s, Rack 25R8938 Opteron Dual Core 2210 1.8GHz/1MBx2 2 41Y2759 1 GB (2x512MB Kit) PC5300 667 MHz ECC DDR SDRAM RDIMM 6 40K1039 73GB Hot-Swap 3.5" 10K RPM Ultra320 SAS HDD 4 42C2071 Emulex 4 Gb FC HBA PCI-E Controller Dual Port 2 40K1906 835 Watt Hot-swap Power Supply Option (Non-US) 2 Cabinet Hardware - xSeries Main Cabinet 23K4803 e1350 1U 17in Flat Panel Console Kit (without keyboard) 1 73P3144 Travel Keyboard (US English) 1 17351GX e1350 IBM Local 2x8 Console Manager 1 39M2896 e1350 IBM Short KCO Conversion Option 1 26R0847 InfiniBand 8 meter 4x Cable for IBM eServer BladeCenter 2 3 Meter InfiniBand Cable (12x to 12x) 4 Storage 139 18147VH DS4200 Express Model 7V (2 GB Cache, 1 GB per controller) 1 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 16 18128VH IBM System Storage DS4000 EXP420 Storage Expansion Unit 3 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 34 39M5696 1m Fiber Optic Cable LC-LC 16 39M5697 5m Fiber Optic Cable LC-LC 2 26K7941 SW 4 Gbps SFP transceiver pair 9 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 4 Diagramma 140 141 La soluzione proposta soddisfa in toto le specifiche Lotto 1 riportate nel capitolato e el migliora per i seguenti punti qualificanti: • • • • • • • • • • • • • • Blades LS21 Blade biprocessori dual-core Opteron 2218 revF Memoria (RAM) 2GB per core in tecnologia DDR2 667MHz Disco: 73.4GB SAS throughput largamente superiore a 80MBs 2 Link Gbit ethernet per blade autosensing montaggio in rack con densita’ 14 blade in 9U Scientific Linux CERN 3.05 installato e supporto bootstrap via rete PXE con Linux Unita’ DVD-ROM e Floppy integrati in ogni Blade Center, quindi ogni 14 Blades KVM per ogni Blade Center con remotizzazione e interfaccia WEB Cavi di connessione alimentazione, rete e altro, previsti nella fornitura Apparati di rete Gbit ridondati e integrati nel Blade Center H Switch Infiniband 4X integrato nel Blade Center H Alimentazione ridondata e Power hot-swap Ambiente di sviluppo Portland Group CDK ottimizzato per LS21 e comprensivo di compilatori per HPC con 3 licenze. Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ Portland Group ottimizzati per LS21 Art 1.2.1 Rete di servizio • Connessione dei nodi LS21 tramite rete Gbit ridondata interna ai Blade Center H Art 1.2.2 rete di calcolo • Rete di interconnessione Infiniband 4X con switch integrati in Balde center H a bassa latenza full no-blocking con banda passante 10Gbit/sec unidirezionale – 20Gbit/sec bidirezionale e latenza inferiore a 4microsecondi. Lo switch opera in modalità wirespeed e puo’ essere gestito via CLI e SNMP. • I Blade center H sono predisposti per connettivita’ verso reti IP e Fiber Channel in modo da connettersi verso FC SAN, NAS appliance, IP SANs e reti TCP/IP Art 1.3 rete di calcolo • Blade center H prevede un sistema tipo KVM integrato Art 1.4 Sistema di storage L’architettura storage rispetta in pieno quanto descritto nel capitolato di gara e lo migliora ulteriormente • Doppio I/O node per consentire ridondanza e prestazioni in ambiente GPFS L’installazione di tutti i componenti, la loro funzionalita’ e l’ottimizzazione, saranno effettuati a cura di personale specialistico IBM e Mauden. Specialisti IBM e Mauden cureranno la configurazione ottimale della soluzione proposta La configurazione dell’architettura proposta assicura un elevato livello di ridondanza in tutti i componenti per cui errori HW di tipo bloccante sono considerati con un’incidenza statisticamente trascurabile. In particolare si fa notare che: • • • Alimentazione ridondata per tutti i componenti Doppio I/O node Alimentazione ridondata hot-swap in Blade Center H 142 • • • Backplane ridondata in Blade Center H, quindi anche in caso di rottura di backplane il sistema mantiene la funzionalita’ anche se a prestazioni inferiori Doppia rete Gbit Sistema di management HW integrato nei sistemi Blade Center e nel sottosistems storage. Ambiente integrato con INFN-Grid sviluppato in collaborazione con Nice Srl 143 Lotto 2 Sistema di calcolo INAF-OACT Art 2.1 Sistema di calcolo Cluster composto da 16 Blades LS21 Opteron dual-core 2218 2.6GHz in due Blade Center H la cui configurazione e’ di seguito riportata con aggiunta del diagramma visivo I cui valori in termini di SPEC aggregati rispecchiano quelli indicati nella tabella del capitolato tecnico in un range del 2% di tolleranza. IBM eServer Processor Hardware - BladeCenter Q.ty 88524XG IBM BladeCenter™ H Chassis with 2x2900W Power Supplies 2 32R1860 Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter 4 32R1756 Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter 4 31R3335 IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs 2 25R5785 IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M 4 Processor Hardware - BladeCenter LS21 79716AG LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS 16 25R8897 AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 95w 16 39M5864 2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM 48 26K5777 73.4 GB SAS HDD (2.5") SFF 16 32R1760 Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter 16 2 79851AG x3655, AMD Opteron Dual Core 2210 1.8GHz/1067MHz, 2MB L2, 2x512MB, O/Bay 3.5in HS SATA/SAS, SR-8ki, CD-RW/DVD, 835W p/s, Rack 25R8938 Opteron Dual Core 2210 1.8GHz/1MBx2 2 41Y2759 1 GB (2x512MB Kit) PC5300 667 MHz ECC DDR SDRAM RDIMM 6 40K1039 73GB Hot-Swap 3.5" 10K RPM Ultra320 SAS HDD 42C2071 Emulex 4 Gb FC HBA PCI-E Controller Dual Port 2 40K1906 835 Watt Hot-swap Power Supply Option (Non-US) 2 23K4803 e1350 1U 17in Flat Panel Console Kit (without keyboard) 1 73P3144 Travel Keyboard (US English) 1 17351GX e1350 IBM Local 2x8 Console Manager 1 39M2896 e1350 IBM Short KCO Conversion Option 1 26R0847 InfiniBand 8 meter 4x Cable for IBM eServer BladeCenter 2 3 Meter InfiniBand Cable (12x to 12x) 4 Processor Hardware - x3655 Storage Nodes 4 Cabinet Hardware - xSeries Main Cabinet Storage 18147VH DS4200 Express Model 7V (2 GB Cache, 1 GB per controller) 1 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 16 18128VH IBM System Storage DS4000 EXP420 Storage Expansion Unit 1 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 4 144 39M5696 1m Fiber Optic Cable LC-LC 8 26K7941 SW 4 Gbps SFP transceiver pair 5 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 4 145 Diagramma La soluzione proposta soddisfa in toto le specifiche Lotto 2 riportate nel capitolato e el migliora per i seguenti punti qualificanti: 146 • • • • • • • • • • • • • • Blades LS21 Blade biprocessori dual-core Opteron 2218 revF Memoria (RAM) 2GB per core in tecnologia DDR2 667MHz Disco: 73.4GB SAS throughput largamente superiore a 80MBs 2 Link Gbit ethernet per blade autosensing montaggio in rack con densita’ 14 blade in 9U Scientific Linux CERN 3.05 installato e supporto bootstrap via rete PXE con Linux Unita’ DVD-ROM e Floppy integrati in ogni Blade Center, quindi ogni 14 Blades KVM per ogni Blade Center con remotizzazione e interfaccia WEB Cavi di connessione alimentazione, rete e altro, previsti nella fornitura Apparati di rete Gbit ridondati e integrati nel Blade Center H Switch Infiniband 4X integrato nel Blade Center H Alimentazione ridondata e Power hot-swap Ambiente di sviluppo Portland Group CDK ottimizzato per LS21 e comprensivo di compilatori per HPC con 3 licenze. Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ Portland Group ottimizzati per LS21 Art 1.2.1 Rete di servizio • Connessione dei nodi LS21 tramite rete Gbit ridondata interna ai Blade Center H Art 1.2.2 rete di calcolo • Rete di interconnessione Infiniband 4X con switch integrati in Balde center H a bassa latenza full no-blocking con banda passante 10Gbit/sec unidirezionale – 20Gbit/sec bidirezionale e latenza inferiore a 4microsecondi. Lo switch opera in modalità wirespeed e puo’ essere gestito via CLI e SNMP. • I Blade center H sono predisposti per connettivita’ verso reti IP e Fiber Channel in modo da connettersi verso FC SAN, NAS appliance, IP SANs e reti TCP/IP Art 1.3 rete di calcolo • Blade center H prevede un sistema tipo KVM integrato Art 1.4 Sistema di storage L’architettura storage rispetta in pieno quanto descritto nel capitolato di gara e lo migliora ulteriormente • Doppio I/O node per consentire ridondanza e prestazioni in ambiente GPFS L’installazione di tutti i componenti, la loro funzionalita’ e l’ottimizzazione, saranno effettuati a cura di personale specialistico IBM e Mauden. Specialisti IBM e Mauden cureranno la configurazione ottimale della soluzione proposta La configurazione dell’architettura proposta assicura un elevato livello di ridondanza in tutti i componenti per cui errori HW di tipo bloccante sono considerati con un’incidenza statisticamente trascurabile. In particolare si fa notare che: • • • • Alimentazione ridondata per tutti i componenti Doppio I/O node Alimentazione ridondata hot-swap in Blade Center H Backplane ridondata in Blade Center H, quindi anche in caso di rottura di backplane il sistema mantiene la funzionalita’ anche se a prestazioni inferiori 147 • • Doppia rete Gbit Sistema di management HW integrato nei sistemi Blade Center e nel sottosistems storage. Ambiente integrato con INFN-Grid sviluppato in collaborazione con Nice Srl 148 Lotto 3 Sistema di calcolo UNIME/INGV Cluster composto da 5 Blades LS21 Opteron dual-core 2218 2.6GHz in un Blade Center H la cui configurazione e’ di seguito riportata con aggiunta del diagramma visivo I cui valori in termini di SPEC aggregati rispecchiano quelli indicati nella tabella del capitolato tecnico in un range del 2% di tolleranza. IBM eServer Processor Hardware - BladeCenter Q.ty 88524XG IBM BladeCenter™ H Chassis with 2x2900W Power Supplies 1 32R1860 Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter 2 32R1756 Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter 2 31R3335 IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs 1 25R5785 IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M 2 Processor Hardware - BladeCenter LS21 79716AG LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS 5 25R8897 AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 95w 5 39M5864 2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM 15 26K5777 73.4 GB SAS HDD (2.5") SFF 5 Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter 5 32R1760 Processor Hardware - x3655 Storage Nodes 79851AG x3655, AMD Opteron Dual Core 2210 1.8GHz/1067MHz, 2MB L2, 2x512MB, O/Bay 3.5in HS SATA/SAS, SR-8ki, CD-RW/DVD, 835W p/s, Rack 25R8938 Opteron Dual Core 2210 1.8GHz/1MBx2 41Y2759 1 GB (2x512MB Kit) PC5300 667 MHz ECC DDR SDRAM RDIMM 2 2 6 40K1039 73GB Hot-Swap 3.5" 10K RPM Ultra320 SAS HDD 4 42C2071 Emulex 4 Gb FC HBA PCI-E Controller Dual Port 2 40K1906 835 Watt Hot-swap Power Supply Option (Non-US) 2 Cabinet Hardware - xSeries Main Cabinet 23K4803 e1350 1U 17in Flat Panel Console Kit (without keyboard) 1 73P3144 Travel Keyboard (US English) 1 17351GX e1350 IBM Local 2x8 Console Manager 1 39M2896 e1350 IBM Short KCO Conversion Option 1 Storage 18147VH DS4200 Express Model 7V (2 GB Cache, 1 GB per controller) 1 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 10 39M5696 1m Fiber Optic Cable LC-LC 6 26K7941 SW 4 Gbps SFP transceiver pair 2 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 4 149 Diagramma La soluzione proposta soddisfa in toto le specifiche Lotto 3 riportate nel capitolato e el migliora per i seguenti punti qualificanti: 150 • • Blades LS21 Blade biprocessori dual-core Opteron 2218 revF Memoria (RAM) 2GB per core in tecnologia DDR2 667MHz • • • • • • • • • • • Disco: 73.4GB SAS throughput largamente superiore a 80MBs 2 Link Gbit ethernet per blade autosensing montaggio in rack con densita’ 14 blade in 9U Scientific Linux CERN 3.05 installato e supporto bootstrap via rete PXE con Linux Unita’ DVD-ROM e Floppy integrati in ogni Blade Center, quindi ogni 14 Blades KVM per ogni Blade Center con remotizzazione e interfaccia WEB Cavi di connessione alimentazione, rete e altro, previsti nella fornitura Apparati di rete Gbit ridondati e integrati nel Blade Center H Switch Infiniband 4X integrato nel Blade Center H Alimentazione ridondata e Power hot-swap Ambiente di sviluppo Portland Group CDK ottimizzato per LS21 e comprensivo di compilatori per HPC con 3 licenze. Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ Portland Group ottimizzati per LS21 • Art 1.2.1 Rete di servizio • Connessione dei nodi LS21 tramite rete Gbit ridondata interna ai Blade Center H Art 1.2.2 rete di calcolo • Rete di interconnessione Infiniband 4X con switch integrati in Balde center H a bassa latenza full no-blocking con banda passante 10Gbit/sec unidirezionale – 20Gbit/sec bidirezionale e latenza inferiore a 4microsecondi. Lo switch opera in modalità wirespeed e puo’ essere gestito via CLI e SNMP. • I Blade center H sono predisposti per connettivita’ verso reti IP e Fiber Channel in modo da connettersi verso FC SAN, NAS appliance, IP SANs e reti TCP/IP Art 1.3 rete di calcolo • Blade center H prevede un sistema tipo KVM integrato Art 1.4 Sistema di storage • L’architettura storage rispetta in pieno quanto descritto nel capitolato di gara e lo migliora ulteriormente • Doppio I/O node per consentire ridondanza e prestazioni in ambiente GPFS L’installazione di tutti i componenti, la loro funzionalita’ e l’ottimizzazione, saranno effettuati a cura di personale specialistico IBM e Mauden. Specialisti IBM e Mauden cureranno la configurazione ottimale della soluzione proposta La configurazione dell’architettura proposta assicura un elevato livello di ridondanza in tutti i componenti per cui errori HW di tipo bloccante sono considerati con un’incidenza statisticamente trascurabile. In particolare si fa notare che: • • • • • Alimentazione ridondata per tutti i componenti Doppio I/O node Alimentazione ridondata hot-swap in Blade Center H Backplane ridondata in Blade Center H, quindi anche in caso di rottura di backplane il sistema mantiene la funzionalita’ anche se a prestazioni inferiori Doppia rete Gbit 151 • Sistema di management HW integrato nei sistemi Blade Center e nel sottosistems storage. Ambiente integrato con INFN-Grid sviluppato in collaborazione con Nice Srl 152 Lotto 4.1 Sistema di calcolo UNICT-DIIT Cluster composto da 14 Blades LS21 Opteron dual-core 2218 2.6GHz in un Blade Center H la cui configurazione e’ di seguito riportata con aggiunta del diagramma visivo I cui valori in termini di SPEC aggregati rispecchiano quelli indicati nella tabella del capitolato tecnico in un range del 2% di tolleranza. IBM eServer Processor Hardware - BladeCenter Q.ty 88524XG IBM BladeCenter™ H Chassis with 2x2900W Power Supplies 1 32R1860 Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter 2 32R1756 Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter 2 31R3335 IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs 1 IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M 2 25R5785 Processor Hardware - BladeCenter LS21 79716AG LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS 14 25R8897 AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 95w 14 39M5864 2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM 42 26K5777 73.4 GB SAS HDD (2.5") SFF 14 32R1760 Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter 14 Cabinet Hardware - xSeries Main Cabinet 23K4803 e1350 1U 17in Flat Panel Console Kit (without keyboard) 1 73P3144 Travel Keyboard (US English) 1 17351GX e1350 IBM Local 2x8 Console Manager 1 39M2896 e1350 IBM Short KCO Conversion Option 1 153 Diagramma La soluzione proposta soddisfa in toto le specifiche Lotto 4.1 riportate nel capitolato e el migliora per i seguenti punti qualificanti: 154 • • • • • • • • • • • • • • Blades LS21 Blade biprocessori dual-core Opteron 2218 revF Memoria (RAM) 2GB per core in tecnologia DDR2 667MHz Disco: 73.4GB SAS throughput largamente superiore a 80MBs 2 Link Gbit ethernet per blade autosensing montaggio in rack con densita’ 14 blade in 9U Scientific Linux CERN 3.05 installato e supporto bootstrap via rete PXE con Linux Unita’ DVD-ROM e Floppy integrati in ogni Blade Center, quindi ogni 14 Blades KVM per ogni Blade Center con remotizzazione e interfaccia WEB Cavi di connessione alimentazione, rete e altro, previsti nella fornitura Apparati di rete Gbit ridondati e integrati nel Blade Center H Switch Infiniband 4X integrato nel Blade Center H Alimentazione ridondata e Power hot-swap Ambiente di sviluppo Portland Group CDK ottimizzato per LS21 e comprensivo di compilatori per HPC con 3 licenze. Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ Portland Group ottimizzati per LS21 Art 1.2.1 Rete di servizio • Connessione dei nodi LS21 tramite rete Gbit ridondata interna ai Blade Center H Art 1.2.2 rete di calcolo • • Rete di interconnessione Infiniband 4X con switch integrati in Balde center H a bassa latenza full no-blocking con banda passante 10Gbit/sec unidirezionale – 20Gbit/sec bidirezionale e latenza inferiore a 4microsecondi. Lo switch opera in modalità wirespeed e puo’ essere gestito via CLI e SNMP. I Blade center H sono predisposti per connettivita’ verso reti IP e Fiber Channel in modo da connettersi verso FC SAN, NAS appliance, IP SANs e reti TCP/IP Art 1.3 rete di calcolo • Blade center H prevede un sistema tipo KVM integrato L’installazione di tutti i componenti, la loro funzionalita’ e l’ottimizzazione, saranno effettuati a cura di personale specialistico IBM e Mauden. Specialisti IBM e Mauden cureranno la configurazione ottimale della soluzione proposta La configurazione dell’architettura proposta assicura un elevato livello di ridondanza in tutti i componenti per cui errori HW di tipo bloccante sono considerati con un’incidenza statisticamente trascurabile. In particolare si fa notare che: • • • • • Alimentazione ridondata per tutti i componenti Doppio I/O node Alimentazione ridondata hot-swap in Blade Center H Backplane ridondata in Blade Center H, quindi anche in caso di rottura di backplane il sistema mantiene la funzionalita’ anche se a prestazioni inferiori Doppia rete Gbit 155 • Sistema di management HW integrato nei sistemi Blade Center e nel sottosistems storage. Ambiente integrato con INFN-Grid sviluppato in collaborazione con Nice Srl 156 Lotto 4.2 Sistema di calcolo UNICT-DMI Cluster composto da 5 Blades LS21 Opteron dual-core 2218 2.6GHz in un Blade Center H la cui configurazione e’ di seguito riportata con aggiunta del diagramma visivo I cui valori in termini di SPEC aggregati rispecchiano quelli indicati nella tabella del capitolato tecnico in un range del 2% di tolleranza. IBM eServer Processor Hardware - BladeCenter Q.ty 88524XG IBM BladeCenter™ H Chassis with 2x2900W Power Supplies 1 32R1860 Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter 2 32R1756 Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter 2 31R3335 IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs 1 25R5785 IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M 2 Processor Hardware - BladeCenter LS21 79716AG LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS 6 25R8897 AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 95w 6 39M5864 2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM 18 26K5777 73.4 GB SAS HDD (2.5") SFF 6 32R1760 Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter 6 Cabinet Hardware - xSeries Main Cabinet 23K4803 e1350 1U 17in Flat Panel Console Kit (without keyboard) 1 73P3144 Travel Keyboard (US English) 1 17351GX e1350 IBM Local 2x8 Console Manager 1 39M2896 e1350 IBM Short KCO Conversion Option 1 157 Diagramma La soluzione proposta soddisfa in toto le specifiche Lotto 4.2 riportate nel capitolato e el migliora per i seguenti punti qualificanti: 158 • • • • • • • • • • • • • • Blades LS21 Blade biprocessori dual-core Opteron 2218 revF Memoria (RAM) 2GB per core in tecnologia DDR2 667MHz Disco: 73.4GB SAS throughput largamente superiore a 80MBs 2 Link Gbit ethernet per blade autosensing montaggio in rack con densita’ 14 blade in 9U Scientific Linux CERN 3.05 installato e supporto bootstrap via rete PXE con Linux Unita’ DVD-ROM e Floppy integrati in ogni Blade Center, quindi ogni 14 Blades KVM per ogni Blade Center con remotizzazione e interfaccia WEB Cavi di connessione alimentazione, rete e altro, previsti nella fornitura Apparati di rete Gbit ridondati e integrati nel Blade Center H Switch Infiniband 4X integrato nel Blade Center H Alimentazione ridondata e Power hot-swap Ambiente di sviluppo Portland Group CDK ottimizzato per LS21 e comprensivo di compilatori per HPC con 3 licenze. Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ Portland Group ottimizzati per LS21 Art 1.2.1 Rete di servizio • Connessione dei nodi LS21 tramite rete Gbit ridondata interna ai Blade Center H Art 1.2.2 rete di calcolo • • Rete di interconnessione Infiniband 4X con switch integrati in Balde center H a bassa latenza full no-blocking con banda passante 10Gbit/sec unidirezionale – 20Gbit/sec bidirezionale e latenza inferiore a 4microsecondi. Lo switch opera in modalità wirespeed e puo’ essere gestito via CLI e SNMP. I Blade center H sono predisposti per connettivita’ verso reti IP e Fiber Channel in modo da connettersi verso FC SAN, NAS appliance, IP SANs e reti TCP/IP Art 1.3 rete di calcolo • Blade center H prevede un sistema tipo KVM integrato L’installazione di tutti i componenti, la loro funzionalita’ e l’ottimizzazione, saranno effettuati a cura di personale specialistico IBM e Mauden. Specialisti IBM e Mauden cureranno la configurazione ottimale della soluzione proposta La configurazione dell’architettura proposta assicura un elevato livello di ridondanza in tutti i componenti per cui errori HW di tipo bloccante sono considerati con un’incidenza statisticamente trascurabile. In particolare si fa notare che: • • • • • • Alimentazione ridondata per tutti i componenti Doppio I/O node Alimentazione ridondata hot-swap in Blade Center H Backplane ridondata in Blade Center H, quindi anche in caso di rottura di backplane il sistema mantiene la funzionalita’ anche se a prestazioni inferiori Doppia rete Gbit Sistema di management HW integrato nei sistemi Blade Center e nel sottosistems 159 storage. Ambiente integrato con INFN-Grid sviluppato in collaborazione con Nice Srl 160 Lotto 5 Sistema di calcolo INAF-OAPA/UNIPA Cluster composto da 24 Blades LS21 Opteron dual-core 2218 2.6GHz in due Blade Center H la cui configurazione e’ di seguito riportata con aggiunta del diagramma visivo I cui valori in termini di SPEC aggregati rispecchiano quelli indicati nella tabella del capitolato tecnico in un range del 2% di tolleranza. IBM eServer Processor Hardware - BladeCenter Q.ty 88524XG IBM BladeCenter™ H Chassis with 2x2900W Power Supplies 2 32R1860 Nortel Layer 2/3 Copper GbE Switch Module for BladeCenter 4 32R1756 Cisco Systems 4X InfiniBand Switch Module for IBM BladeCenter 4 31R3335 IBM BladeCenter™ H 2900W AC Power Module Pair with Fan Packs 2 IBM BladeCenter™ H Triple IEC 320 C20 (200-240V) 2.8M 4 25R5785 Processor Hardware - BladeCenter LS21 79716AG LS21, AMD Opteron Dual Core 2218 2.6GHz/1GHz, 1 MB L2, 2x1 GB, O/Bay SAS 24 25R8897 AMD Opteron Dual Core Processor Model 2218 2.6GHz, 1MB L2 Cache, 95w 24 39M5864 2GB (2x1GB Kit) PC2-5300 DDR2 SDRAM VLP RDIMM 72 26K5777 73.4 GB SAS HDD (2.5") SFF 24 32R1760 Cisco Systems 4X InfiniBand HCA Expansion Card for IBM BladeCenter 24 Processor Hardware - x3655 Storage Nodes 2 79851AG x3655, AMD Opteron Dual Core 2210 1.8GHz/1067MHz, 2MB L2, 2x512MB, O/Bay 3.5in HS SATA/SAS, SR-8ki, CD-RW/DVD, 835W p/s, Rack 25R8938 Opteron Dual Core 2210 1.8GHz/1MBx2 2 41Y2759 1 GB (2x512MB Kit) PC5300 667 MHz ECC DDR SDRAM RDIMM 6 40K1039 73GB Hot-Swap 3.5" 10K RPM Ultra320 SAS HDD 4 42C2071 Emulex 4 Gb FC HBA PCI-E Controller Dual Port 2 40K1906 835 Watt Hot-swap Power Supply Option (Non-US) 2 Network Hardware - Ethernet 3rd Party 4667017 Cisco Catalyst 3750-48 Port Switch bundle 1 Cabinet Hardware - xSeries Main Cabinet 23K4803 e1350 1U 17in Flat Panel Console Kit (without keyboard) 1 73P3144 Travel Keyboard (US English) 1 17351GX e1350 IBM Local 2x8 Console Manager 1 39M2896 e1350 IBM Short KCO Conversion Option 1 26R0813 e1350 3 Meter InfiniBand Cable (4x to 4x) 4 3 Meter InfiniBand Cable (12x to 12x) 4 Storage 18147VH DS4200 Express Model 7V (2 GB Cache, 1 GB per controller) 1 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 16 18128VH IBM System Storage DS4000 EXP420 Storage Expansion Unit 2 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 24 39M5696 1m Fiber Optic Cable LC-LC 14 161 26K7941 SW 4 Gbps SFP transceiver pair 7 42D0389 DS4200 SATA 500 GB/7.2K EV-DDM 4 162 Diagramma La soluzione proposta soddisfa in toto le specifiche Lotto 5 riportate nel capitolato e el migliora per i seguenti punti qualificanti: 163 • • • • • • • • • • • • • • Blades LS21 Blade biprocessori dual-core Opteron 2218 revF Memoria (RAM) 2GB per core in tecnologia DDR2 667MHz Disco: 73.4GB SAS throughput largamente superiore a 80MBs 2 Link Gbit ethernet per blade autosensing montaggio in rack con densita’ 14 blade in 9U Scientific Linux CERN 3.05 installato e supporto bootstrap via rete PXE con Linux Unita’ DVD-ROM e Floppy integrati in ogni Blade Center, quindi ogni 14 Blades KVM per ogni Blade Center con remotizzazione e interfaccia WEB Cavi di connessione alimentazione, rete e altro, previsti nella fornitura Apparati di rete Gbit ridondati e integrati nel Blade Center H Switch Infiniband 4X integrato nel Blade Center H Alimentazione ridondata e Power hot-swap Ambiente di sviluppo Portland Group CDK ottimizzato per LS21 e comprensivo di compilatori per HPC con 3 licenze. Pre-installazione di eventuali ulteriori 3 licenze di compilatori F77/F90/F95/C/C++ Portland Group ottimizzati per LS21 Art 1.2.1 Rete di servizio • Connessione dei nodi LS21 tramite rete Gbit ridondata interna ai Blade Center H Art 1.2.2 rete di calcolo • Rete di interconnessione Infiniband 4X con switch integrati in Balde center H a bassa latenza full no-blocking con banda passante 10Gbit/sec unidirezionale – 20Gbit/sec bidirezionale e latenza inferiore a 4microsecondi. Lo switch opera in modalità wirespeed e puo’ essere gestito via CLI e SNMP. • I Blade center H sono predisposti per connettivita’ verso reti IP e Fiber Channel in modo da connettersi verso FC SAN, NAS appliance, IP SANs e reti TCP/IP Art 1.3 rete di calcolo • Blade center H prevede un sistema tipo KVM integrato Art 1.4 Sistema di storage L’architettura storage rispetta in pieno quanto descritto nel capitolato di gara e lo migliora ulteriormente • Doppio I/O node per consentire ridondanza e prestazioni in ambiente GPFS L’installazione di tutti i componenti, la loro funzionalita’ e l’ottimizzazione, saranno effettuati a cura di personale specialistico IBM e Mauden. Specialisti IBM e Mauden cureranno la configurazione ottimale della soluzione proposta La configurazione dell’architettura proposta assicura un elevato livello di ridondanza in tutti i componenti per cui errori HW di tipo bloccante sono considerati con un’incidenza statisticamente trascurabile. In particolare si fa notare che: • • • Alimentazione ridondata per tutti i componenti Doppio I/O node Alimentazione ridondata hot-swap in Blade Center H 164 • • • Backplane ridondata in Blade Center H, quindi anche in caso di rottura di backplane il sistema mantiene la funzionalita’ anche se a prestazioni inferiori Doppia rete Gbit Sistema di management HW integrato nei sistemi Blade Center e nel sottosistems storage. Ambiente integrato con INFN-Grid sviluppato in collaborazione con Nice Srl 165 Scheda tecnica riassuntiva In base al punteggio tecnico da Voi indicato, riteniamo utile riassumere alcuni punti specifici della nostra proposta che riteniamo migliorino in modo sostanziale le specifiche minime richieste nel capitolato tecnico. Ri seguito quindi si riportano alcune indicazioni di rilevo. Sistema di Calcolo Il processore 2216 2.6GHz ha in questo momento il miorl rapporto prezzo/prestazioni e consumi elettrici pr la categoria AMD/opteron dual-creo revF La soluzione proposta prevede 84 Blades al posto delle 75 strettamente richieste per soddisfer i requisiti minimi di gara AMD/opteron dual-core revF prevede 1MB L2 per core Accesso alla memoria con efficienza circa doppia rispetto a soluzioni Intel/Woodcrest (benchmark stream e similari) Possibile upgrade a quad-core revF in 2007 con la sola sostituzione dei processori dual-core e BIOS AMD/Opteron prevede controller di memoria integrato sul socket Rete di servizio La rete di servizio e’ fornita con una connessione per ogni blade tramite dual-link e backplane ridondato oltre a due switch Nortel 2/3 GbE integrati nei Blade Chassis per supportare circa 2Gbps per ogni blade. Due interfacce di rete per blade Rete di calcolo Ampiezza di banda 20Gbps in modalita’ dual-rail (utilizzo simultaneo della doppia connessione IB disponibile per ogni Blade). Connessione con doppio switch CISCO 4X per una totalita’ di 28 porte interne e 16 porte esterne per soddisfare i requisiti di bandwidth e per supportare la modalita’ fully noblocking. Nella connessione intra chassis la bandwidth e’ 20Gbps. Nella connessione tra chassis la bandwidth e’ 10Gbps. Gli chassis sono comunque predisposti per ospitare la seconda generazione di Switch CISCO IB 4X che consentira’ di supportare 20GBps tra chassis senza aggiunta di ulteriori switch esterni. La configirazione consente anche la ridondanza (doppio switch + doppio backplane integrato nello chassis) che, in caso di rottura di un componente, comunque mantiene la funzionalita’ anche se a prestazioni in parte degradate (10Gbps interni e 5Gbps esterni). 166 Latenza ordine 2.5microsec Il sistema e’ pronto per essere integrato con reti IP e SAN. L’integrazione verso SAN e’ ottenuta tramite gli I/O node. Il sistema e’ comunque predisposto, tramite bridge IB vs FC che possono essere ospitati per un massimo di due in ogni chassis, quindi essere integrato in SAN direttamente a livello di chassis. Storage Archittetura ridondate perche’ e’ previsto un doppio controller integrato nel DS4200. Due I/O nodes, dischi aggiuntivi, doppia rete FC di accesso. Ambiente GPFS che intrinsecamente supporto fail-over e accesso simultaneo da differenti path Rete FC 4Gbps per link. L’archittetura storage supporta circa 1GBs tramite GPFS. Ogni sistema di espansione EXP420 puo’ ospitare fino a 16 dischi. Capacita’ di storage in offerta circa 35% superiore a quanto richesto nella configurazione minimale. Integrazione e Controllo L’architettura IBM e1350 e’ garantita per i componenti triennali per la durata di 36 mesi. La proposta prevede inoltre l’integrazione e l’installazione presso i siti Cometa con gli ambitni SW definiti (si rimanda alla descrizione dei servizi di installazione per maggiori dettagli). Assistenza IBM in collaborazione con Mauden assicurera’ tempi di intervento e ripristino, in riferimento a difettosita’ dei componenti HW, migliorativi rispetto a quanto richiesto nel capitolato di gara, In particolar modo la struttura servizi IBM e il call-center che riceve le chiamate gestisce durante il periodo lavorativo le richieste di intervento con risposta alla chiamata. Appena ricevuta la chiamata la struttura di supporto e’ in grado di dare risposte e proporre possibili soluzioni entro 4 ore per difettosita’ che non richiedano un supporto on-site (supporto telefonico e/o accesso remoto ai sistemi). Il servizio di help-desk prevede in particolare la possibilita’ di effettuare una diagnosi del difetto in modo remoto con il supporto degli specialisti del Consorzio COMETA e con il possibile supporto del personale specialistico IBM e Mauden che ha curato l’installazione delle architetture. Per una corretta valutazione dei tempi di ripristino e’ necessario tenere in conto che il disegno dell’architettura prevede delle ridondanze intrinseche che consentono di ridurre al minimo possibili difettosita’ o rotture che influenzino la disponibilita’ dei sistemi (dual backplane negli Chassis, dual link rete di servizio e di calcolo, doppi switches Gbit e IB negli chassis, blades addizionali in linea, doppi nodi di I/O, sistemi storage in configurazione raid hot-spare, architettura GPFS per accesso concorrente ai sistemi storage, etc.). Nella pratica l’architettura e’ stata disegnata per eliminare o ridurre al meglio gli effetti di possibli rotture HW che possano influenzare in modo significativo la disponibilita’ dei sistemi. Corsi di aggiornamento e seminari specialistici IBM prevede di organizzare annualmente presso i propri centri di Roma o Milano, o strutture Universitarie, uno o due corsi, con cadenza generalmente annuale, per aggiornamenti per personale 167 specialistico riguardo la gestione e lo sviluppo delle architetture Cluster Linux, le infrastrutture Grid, e lo sviluppo di ambienti SW e HW per il calcolo a alte prestazioni. Riteniamo nell’ambito dello sviluppo congiunto del progetto PI2S2 di proporre al Consorzio Cometa la possibilita’ di organizzare nel corso del 2007 una sessione di approfondimento su tali temi presso uno dei centri del Consorzio stesso. I dettagli del corso o seminario saranno oggetto di un approfondimento successivo in modo da poter soddisfare al meglio la necessaita’ di approfondire i temi di maggiore interesse per il Consorzio. Sara’ anche utile valutare in modo congiunto l’allargamento a interlocutori esterni a Cometa per una loro partecipazione qualificata all’evento in questione. 168 Servizi di installazione e di manutenzione Secondo quanto indicato nelle sezioni precedenti, verranno forniti oltre l’infrastruttura HW e i prodotti SW di gestione (GPFS, MPICH, driver IB e compilatori), anche i servizi di installazione e personalizzazione in accordo con l’ambiente INFN Grid e in collaborazione con il personale degli Istituti coinvolti in COMETA. Riteniamo che l’installazione dei vari siti si possa completare in tempi ragionevolmente rapidi, circa 30giorni dal ricevimento dell’ordine, supposto che siano soddisfatti i prerequisiti minimi sulla disponibilita’ dei locali e la loro predisposizione a ospitare le apparecchiature. E’ intenzione di IBM e Mauden fornire adeguate istruzioni al personale COMETA in modo da poterlo rendere il piu’ possibile autonomo nella gestione dell’architettura stessa. Per quanto riguarda la gestione e il supporto per interventi su rotture di componenti HW previsti nei Cluster, il tempo di risposta IBM e’ generalmente entro le 8 ore, nei giorni feriali, con intervento NBD sempre nei giorni feriali. A ogni buon conto tutti i sistemi previsti nel disegno dell’architettura prevedono la ridondanza dei componenti critici per cui sono da ritenersi statisticamente trascurabili interruzioni di servizio causate da rotture HW. Nell’intervallo tra la rottura e il ripristino nel caso potra’ verificarsi una riduzione di prestazioni del Cluster impattato dalla rottura. La garanzia e l’assistenza sono ON-SITE per 3 anni con intervento NEXT BUSINES day on-site su tutti i prodotti proposti nella Nostra offerta . L’assistenza tecnica è fornita direttamente dal costruttore. Project Management Aldo Caracciolo Responsabile del Progetto Marco Panciroli Responsabile Logistico Alessandra Meli Responsabile Amministrativo Daniela Tripodi 169 Supporto tecnico Giovanni Di Gabriele Walter Bernocchi, Sandro De Santis, Carlo Mascolo, Marco Briscolini della società IBM Piano di Lavoro A partire dalla firma del contratto o dalla comunicazione ufficiale dell’ordine i lavori procederanno nel modo seguente Giorno Azione 0 Ricezione dell’ordine 3 Gestione ordine 4 Richieste via mail ai vari responsabili dei siti di definire nel proprio dns gli hostname e gli indirizzi ip che verranno dedicati ai sistemi di cometa e verificare la soluzione diretta ed inversa dei nomi e degli indirizzi ip , Per convenzione l’hostname della macchina dovrà essere cosi composto : esempio sito di INFN di Catania: Primo CE: infn-ce-01.ct.cometa.it Primo WN: infn-wn-01.ct.cometa.it Secondo WN: infn-wn-02.ct.cometa.it 30 Arrivo delle macchine ibm presso ogni sito di cometa la consegna sarà concordata dal corriere con il referente di ogni singolo istituto 31-51 Installazione sistema operativo Scientific linux CERN ver da voi richiesta sia sui blade che sui server di front-end dello storage configurazione Storage element e broker (solo presso i siti dedicati verrà installato il broker) Richiesta ai registration autority di ogni sito i certificati per i server che andremo a installare nella griglia Installazione LSF su tutti le lame componenti i blade installati Configurazione INFINIBAND Installazione middleware CE E WORKERNODE Installazione e creazione degli array degli storage Installazione GPFS sul server di front –end dello storage e configurazione dei client gpfs Installazione e configurazione dei compilatori da Voi richiesti. Ogni responsabile di progetto di ongi singolo sito riceverà quotidianamente il rapportino sui lavori svolti e i test di collaudo che svolgeremo per verificare ogni installazione . Tale documentazione sarà inviata anche per conoscenza al presidente del Consorzio, al 170 presidente della gara e alla responsabile amministrativa del progetto . NOTA INFN CATANIA E INAF PALERMO SARANNO I PRIMI SITI A PARTIRE IN QUANTO sono anche i siti più grandi 52-60 Completamento dei siti rimasti ripetendo le operazioni sopra riportate necessarie all’hardware installato presso ogni sito . ALLEGATI 171 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 ALLEGATO A PUBLIC 172 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 173 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 174 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 ALLEGATO B PUBLIC 175 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 176 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 177 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 178 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 179 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 ALLEGATO C PUBLIC 180 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 181 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 182 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 183 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 184 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 185 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 186 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 187 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 188 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 189 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 190 / 191 PROGETTAZIONE E IMPLEMENTAZIONE DELLA E-INFRASTRUTTURA DI PRODUZIONE Identificatore: PI2S2-D1.2-v1.0 Date: 31.12.2006 PUBLIC 191 / 191