Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array Il prodotto EVA4400 può essere installato dall’utente, tuttavia, se desiderato è possibile acquistare il servizio di installazione presso un fornitore di servizi HP autorizzato. Per ulteriori informazioni, in Nord America contattare l’assistenza tecnica HP al numero 1-800-474-6836, al di fuori del Nord America contattare il centro assistenza tecnica HP più vicino. I numeri telefonici di tutti i Centri di assistenza tecnica HP sono disponibili presso il sito Web di HP: http://www.hp.com/support. Per aiutare gli utenti nella fase di installazione del prodotto EVA4400, sono stati creati video che illustrano le procedure. Accedere al sito Web Services Media Library http://www.hp.com/go/sml e ricercare il proprio prodotto per visualizzare i video. *488694-004* Numero di parte: 488694-004 Seconda edizione: marzo 2008 Informazioni legali e avvertenza © Copyright 2008 Hewlett-Packard Development Company, L.P. Software riservato. L’utilizzo, la copia e il possesso del software richiedono una licenza valida concessa da HP. In conformità con le norme FAR 12.211 e 12.212, il software commerciale, la documentazione relativa al software e i dati tecnici dei prodotti commerciali sono concessi in licenza al Governo degli Stati Uniti secondo la licenza commerciale standard del fornitore. Le informazioni contenute in questo documento sono soggette a modifiche senza preavviso. Le sole garanzie relative ai prodotti e ai servizi di HP sono definite nelle dichiarazioni esplicite di garanzia che accompagnano tali prodotti e servizi. Niente di quanto dichiarato nel presente documento dovrà essere interpretato come garanzia aggiuntiva. HP declina ogni responsabilità per eventuali omissioni o errori tecnici o editoriali contenuti nel presente documento. Microsoft, Windows, Windows XP e Windows NT sono marchi registrati di Microsoft Corporation negli Stati Uniti. Adobe e Acrobat sono marchi registrati di Adobe Systems Incorporated. UNIX è un marchio registrato di The Open Group. Stampato a Puerto Rico Sommario Informazioni sulla guida . . . . . . . . . . . . . . . . . . . . . . . Destinatari della guida . . . . . . . . . Prerequisiti . . . . . . . . . . . . . . Documentazione correlata . . . . . . . Convenzioni tipografiche e simboli utilizzati Stabilità del rack . . . . . . . . . . . Assistenza tecnica HP . . . . . . . . . Riparazione effettuabile dal cliente . . . . Garanzie dei prodotti . . . . . . . . . Servizio di abbonamento . . . . . . . . Siti Web di HP . . . . . . . . . . . . Feedback sulla documentazione . . . . . Feedback sul prodotto . . . . . . . . . Elenco di controllo per l’installazione . . . . . . . . . . . . . . . . . . . . . . . . nel documento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Controllo e conferma delle pianificazioni . . . . . . . . . . . . . . Preparazione dell’ambiente in uso . . . . . . . . . . Introduzione . . . . . . . . . . . . . . . . . Pianificazione della configurazione dell’archiviazione Aspettative in termini di sistema e prestazioni . Livelli di RAID . . . . . . . . . . . . . . . 2 Preparazione del sito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduzione . . . . . . . . . . . . . . . . Preparazione del sito . . . . . . . . . . . . . Supporto strutturale adeguato per il pavimento Spazio libero e ventilazione adeguati . . . . Fonti di alimentazione adeguate e ridondanti 3 Disimballaggio del prodotto Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Installazione dei componenti . . . . . . . . . . . . . . . . . . . Installazione del sistema EVA e dei contenitori di Procedure ottimali per l’installazione in rack Installazione delle guide . . . . . . . . . . Installazione dei contenitori . . . . . . . . . Sequenza di alloggiamenti dischi . . . . . . Installazione delle unità . . . . . . . . . . . archiviazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . nel rack . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Collegamento dei cavi e dei cavi di alimentazione . . . . . . . . . . Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procedure ottimali per il collegamento dei cavi . . . . . . . . . . . . . . . . . Collegamento dei cavi Fibre Channel . . . . . . . . . . . . . . . . . . . . . Collegamento della porta del modulo di gestione al server di gestione . . . . . . Collegamento dei cavi Fibre Channel della porta del dispositivo per l’array EVA Collegamento dei cavi Fibre Channel per l’array EVA - vista anteriore . . . . . Applicazione delle etichette ai cavi con l’apposito kit . . . . . . . . . . . . . . . . . . . . vista . . . . . . . . . . . . . . . . . . . . . . . . posteriore . . . . . . . . . . Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 9 . . 9 . . 9 . . 9 . 10 . 10 . 11 . 11 . 11 . 11 . 12 . 12 . 12 . 12 . . . . . . . . . . . . . 15 15 15 15 16 16 19 19 19 19 19 20 21 21 23 23 23 24 25 26 27 29 29 29 30 30 30 31 33 3 Collegamento dei cavi di alimentazione . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Accensione . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduzione . . . . . . . . . . . . . . . . . . . . . . Accensione dei dispositivi . . . . . . . . . . . . . . . . . Verifica dello stato operativo del sistema EVA . . . . . . . . LED del sistema EVA . . . . . . . . . . . . . . . . . . . Verifica dello stato operativo dei contenitori di archiviazione . . Verifica dello stato operativo degli switch e degli adattatori Fibre Verifica dello stato operativo dei server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Channel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Configurazione della modalità operativa del sistema di archiviazione . . Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modifica della modalità operativa predefinita . . . . . . . . . . . . . . . . . . . . . . . . . 34 35 35 35 36 36 37 38 38 39 39 39 8 Configurazione di un server di gestione HP Command View EVA utilizzando EVA SmartStart . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 9 Configurazione dei server di applicazioni con ambiente Windows utilizzando EVA SmartStart . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Configurazione dei server di applicazioni con ambiente non Windows Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Percorsi multipli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . HP-UX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installazione degli adattatori Fibre Channel . . . . . . . . . . . . . . . . . . . Test dei collegamenti con il sistema Enterprise Virtual Array . . . . . . . . . . . . Aggiunta di host . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Creazione e assegnazione di dischi virtuali . . . . . . . . . . . . . . . . . Verifica dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . . . . Creazione di gruppi di volumi in un disco virtuale utilizzando il comando vgcreate IBM AIX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installazione degli adattatori Fibre Channel . . . . . . . . . . . . . . . . . . . Accesso alle utility di IBM AIX . . . . . . . . . . . . . . . . . . . . . . . . . Test dei collegamenti con il sistema Enterprise Virtual Array . . . . . . . . . . . . Aggiunta di host . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Creazione e assegnazione di dischi virtuali . . . . . . . . . . . . . . . . . Verifica dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . . . . Configurazione dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . Mac OS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aggiunta di host Mac . . . . . . . . . . . . . . . . . . . . . . . . . . . . Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installazione di componenti Linux . . . . . . . . . . . . . . . . . . . . . . . Aggiornamento dei componenti Linux . . . . . . . . . . . . . . . . . . . . . . Aggiornamento degli RPM qla2x00 . . . . . . . . . . . . . . . . . . . . Rilevamento di archiviazioni di terzi . . . . . . . . . . . . . . . . . . . . Compilazione del driver per più kernel installati . . . . . . . . . . . . . . . Disinstallazione dei componenti Linux . . . . . . . . . . . . . . . . . . . . . . Uso dell’RPM di origine . . . . . . . . . . . . . . . . . . . . . . . . . . . . Test dei collegamenti con il sistema Enterprise Virtual Array . . . . . . . . . . . . Aggiunta di host . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Creazione e assegnazione di dischi virtuali . . . . . . . . . . . . . . . . . Verifica dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . . . . 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 45 45 45 46 46 46 46 47 47 47 48 49 49 49 50 50 51 51 51 52 52 52 52 53 53 54 54 54 54 55 55 56 56 Novell NetWare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Download del firmware degli adattatori Fibre Channel . . . . . . . . . . . . . File e parametri dei driver . . . . . . . . . . . . . . . . . . . . . . . . . . Installazione dei driver per Novell NetWare . . . . . . . . . . . . . . . . . . Test dei collegamenti con il sistema Enterprise Virtual Array . . . . . . . . . . . Aggiunta di host . . . . . . . . . . . . . . . . . . . . . . . . . . . . Creazione e assegnazione di dischi virtuali . . . . . . . . . . . . . . . . Verifica dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . . . Configurazione dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . OpenVMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installazione degli adattatori Fibre Channel . . . . . . . . . . . . . . . . . . Download del firmware degli adattatori Fibre Channel . . . . . . . . . . . . . Aggiornamento del codice della console di AlphaServer, del codice della console del e del firmware degli FCA Fibre Channel . . . . . . . . . . . . . . . . . . . . Verifica dell’installazione del software dell’adattatore Fibre Channel . . . . . . . . Console LUN ID e OS unit ID . . . . . . . . . . . . . . . . . . . . . . . . Test dei collegamenti con il sistema Enterprise Virtual Array . . . . . . . . . . . Aggiunta di host . . . . . . . . . . . . . . . . . . . . . . . . . . . . Creazione e assegnazione di dischi virtuali . . . . . . . . . . . . . . . . Verifica dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . . . Configurazione dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . Sun Solaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installazione degli adattatori Fibre Channel . . . . . . . . . . . . . . . . . . Caricamento del sistema operativo e del software . . . . . . . . . . . . . . . Configurazione degli adattatori Fibre Channel . . . . . . . . . . . . . . . . . Nomi universali . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurazione degli FCA con lo stack del driver Sun SAN . . . . . . . . . Configurazione degli FCA Emulex con il driver lpfc . . . . . . . . . . . . . Configurazione degli FCA QLogic con il driver qla2300 . . . . . . . . . . . Configurazione dell’infrastruttura e della suddivisione in zone . . . . . . . . . . Sun StorEdge Traffic Manager (MPxIO)/Sun Storage Multipathing . . . . . . . . Configurazione con Veritas Volume Manager . . . . . . . . . . . . . . . . . Test dei collegamenti con il sistema Enterprise Virtual Array . . . . . . . . . . . Aggiunta di host . . . . . . . . . . . . . . . . . . . . . . . . . . . . Creazione e assegnazione di dischi virtuali . . . . . . . . . . . . . . . . Configurazione dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . Verifica dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . . . Assegnazione di etichette e partizionamento dei dispositivi . . . . . . . . . VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installazione di VMware . . . . . . . . . . . . . . . . . . . . . . . . . . Aggiornamento di VMware . . . . . . . . . . . . . . . . . . . . . . . . . Configurazione del sistema EVA4400 nei server host VMware . . . . . . . . . . Configurazione del server ESX . . . . . . . . . . . . . . . . . . . . . . . . Caricamento della NVRAM FCA . . . . . . . . . . . . . . . . . . . . . Impostazione del criterio multipathing . . . . . . . . . . . . . . . . . . . Impostazione DiskMaxLUN . . . . . . . . . . . . . . . . . . . . . . . Verifica dei collegamenti . . . . . . . . . . . . . . . . . . . . . . . . Test dei collegamenti con il sistema Enterprise Virtual Array . . . . . . . . . . . Creazione e assegnazione di dischi virtuali . . . . . . . . . . . . . . . . Verifica dei dischi virtuali dall’host . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . server Integrity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Uso e controllo del sistema di archiviazione . . . . . . . . . . . . Uso del sistema di archiviazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . CD di ripristino del firmware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurazione del software di monitoraggio . . . . . . . . . . . . . . . . . . . . . . . . . Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 56 56 56 57 57 58 58 59 59 59 59 60 60 60 60 61 61 62 63 64 65 65 65 66 66 66 66 67 68 69 69 70 71 71 71 72 74 74 74 74 75 75 75 76 76 76 77 77 77 79 79 79 79 5 Lista delle Figure 1 Elenco di controllo per l’installazione . . . . . . . . . . . . . . . . . . . . . . . 13 2 Elenco di controllo per l’installazione, continuazione . . . . . . . . . . . . . . . . . 14 3 Array EVA standard installato in rack (disposizione consigliata) . . . . . . . . . . . . 24 4 Rimozione dei frontalini dal contenitore . . . . . . . . . . . . . . . . . . . . . . 25 5 Installazione di un contenitore — vista anteriore del rack . . . . . . . . . . . . . . . 25 6 Bloccaggio della parte posteriore del contenitore nel rack — vista anteriore del rack . . . 26 7 Bloccaggio della parte posteriore del contenitore — vista posteriore del rack . . . . . . 26 8 Installazione delle unità nei contenitori . . . . . . . . . . . . . . . . . . . . . . . 27 9 Inserimento delle unità nel contenitore . . . . . . . . . . . . . . . . . . . . . . . 27 10 Collegamento dei cavi Fibre Channel per l’array EVA — vista posteriore . . . . . . . . 31 11 Collegamento del rack ai componenti nella parte anteriore - vista dettagliata del collegamento da adattatore FC a switch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 6 12 Collegamento del rack ai componenti nella parte anteriore - da adattatore FC direttamente a server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 13 LED sul pannello anteriore del sistema EVA4400 . . . . . . . . . . . . . . . . . . 36 14 Vista anteriore e posteriore dei contenitori di archiviazione . . . . . . . . . . . . . . 37 15 Pagina Configure controller host ports del pannello WOCP . . . . . . . . . . . . . . 40 16 Configurazione come server di gestione . . . . . . . . . . . . . . . . . . . . . . 41 17 Prima configurazione dell’archiviazione o aggiunta di archiviazione in un secondo momento 43 Lista delle Tabelle 1 Convenzioni tipografiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2 Confronto tra i livelli RAID . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3 Specifiche di EVA4400 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4 Configurazione rack standard . . . . . . . . . . . . . . . . . . . . . . . . . . 24 5 Collegamento dei cavi di alimentazione . . . . . . . . . . . . . . . . . . . . . . 34 6 LED di stato del sistema EVA4400 durante l’avvio . . . . . . . . . . . . . . . . . . 36 7 LED di stato del sistema EVA4400 durante il funzionamento . . . . . . . . . . . . . . 37 8 Confronto tra Console LUN ID e OS unit ID . . . . . . . . . . . . . . . . . . . . . 60 Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 7 8 Informazioni sulla guida Nella presente guida sono descritte le modalità di installazione di HP StorageWorks 4400 Enterprise Virtual Array e del software HP Command View EVA. Destinatari della guida Questa guida è destinata all’uso da parte di utenti esperti nelle seguenti attività: • Reti SAN (Storage Area Network) • Comandi e utility dei sistemi operativi di base Prerequisiti I prerequisiti per l’uso del presente prodotto includono: • Uno switch Fibre Channel installato nell’ambiente in uso • Un cabinet adatto a contenitori 2U • Un server con sistema operativo Windows per il software HP Command View EVA Documentazione correlata I documenti e siti Web indicati di seguito forniscono informazioni relative al prodotto in uso: • HP StorageWorks Command View EVA user guide • HP StorageWorks Command View EVA release notes • HP StorageWorks Enterprise Virtual Array license key installation instructions Questi documenti sono disponibili nella pagina Manuals del sito Web HP Business Support Center: http://www.hp.com/support/manuals Nella sezione Storage, fare clic su Storage Software, quindi selezionare il prodotto desiderato. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 9 Convenzioni tipografiche e simboli utilizzati nel documento Tabella 1 Convenzioni tipografiche Convenzione Elemento Testo blu: Tabella 1 Riferimenti incrociati e indirizzi e-mail Testo blu sottolineato: http://www.hp.com Indirizzi di siti Web Testo in grassetto • Tasti da premere • Testo immesso in un elemento GUI, ad esempio in una casella • Elementi GUI selezionati, ad esempio voci di menu e di elenco, pulsanti, schede e caselle di controllo Testo in corsivo Testo in risalto Testo a spaziatura fissa • • • • Testo a spaziatura fissa in corsivo • Variabili di codice • Variabili di comando Testo a spaziatura fissa in grassetto Testo a spaziatura fissa in risalto Nomi di file e directory Output del sistema Codice Comandi, relativi argomenti e valori degli argomenti AVVERTENZA! Indica che la mancata osservanza delle indicazioni fornite potrebbe causare lesioni personali o mettere in pericolo la vita dell’utente. PRECAUZIONE: Indica che la mancata osservanza delle indicazioni fornite potrebbe danneggiare l’apparecchiatura o i dati. IMPORTANTE: Fornisce spiegazioni o istruzioni specifiche. NOTA: Fornisce informazioni aggiuntive sul prodotto. SUGGERIMENTO: Fornisce suggerimenti utili. Stabilità del rack La stabilità del rack protegge sia il personale che l’apparecchiatura. 10 Informazioni sulla guida AVVERTENZA! Per ridurre il rischio di lesioni personali o di danni all’apparecchiatura, attenersi alle seguenti precauzioni: • Estendere i martinetti di livellamento sul pavimento. • Accertarsi che l’intero peso del rack scarichi sui martinetti di livellamento. • Installare gli stabilizzatori sul rack. • Nelle configurazioni a più rack, fissare assieme i rack in modo saldo. • Estrarre solo un componente del rack alla volta. Il rack può infatti diventare instabile se per qualsiasi motivo vengono estratti più componenti alla volta. Assistenza tecnica HP Per informazioni sull’assistenza tecnica a livello mondiale, visitare il sito Web HP dedicato all’assistenza all’indirizzo: http://www.hp.com/support Prima di contattare HP, raccogliere le seguenti informazioni: • • • • • • Nomi e codici del modello del prodotto Numero di registrazione per l’assistenza tecnica (se disponibile) Numeri di serie del prodotto Messaggi di errore Tipo di sistema operativo e livello di revisione Domande dettagliate Riparazione effettuabile dal cliente I programmi HP CSR (Customer Self Repair, riparazione da parte dell’utente) consentono all’utente di riparare il prodotto StorageWorks in uso. Se è necessario sostituire una parte CSR, HP fornisce la parte direttamente all’utente per installarla al momento opportuno. Alcune parti non sono coperte dal programma CSR. Il fornitore di servizi HP autorizzato determinerà se una riparazione è coperta dal programma CSR. Per ulteriori informazioni sul programma CSR, rivolgersi ad un fornitore di servizi oppure accedere al sito Web CSR all’indirizzo: http://www.hp.com/go/selfrepair Garanzie dei prodotti Per informazioni sulle garanzie dei prodotti HP StorageWorks, visitare il sito Web dedicato alle informazioni sulle garanzie all’indirizzo: http://www.hp.com/go/storagewarranty Servizio di abbonamento HP consiglia di effettuare la registrazione del prodotto nel sito Web Subscriber’s Choice for Business all’indirizzo: http://www.hp.com/go/e-updates Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 11 La registrazione a questo servizio consente di ricevere tramite e-mail informazioni sui miglioramenti apportati al prodotto, sulle nuove versioni dei driver, sugli aggiornamenti al firmware e su altre risorse del prodotto. Siti Web di HP Per ulteriori informazioni, visitare i siti Web di HP agli indirizzi: • • • • • http://www.hp.com http://www.hp.com/go/storage http://www.hp.com/service_locator http://www.hp.com/support/manuals http://www.hp.com/support/downloads Feedback sulla documentazione HP sarà lieta di prendere in considerazione il feedback degli utenti. Per inoltrare commenti e suggerimenti in merito alla documentazione del prodotto, inviare un messaggio all’indirizzo [email protected]. Tutti i messaggi inviati diventano di proprietà di HP. Feedback sul prodotto Per inoltrare commenti e suggerimenti in merito a un prodotto, inviare un messaggio all’indirizzo dedicato al prodotto: • Per HP StorageWorks Command View EVA: [email protected] • Per HP StorageWorks Business Copy EVA o HP StorageWorks Continuous Access EVA: [email protected] Elenco di controllo per l’installazione Nella Figura 1 sono illustrate le fasi necessarie per installare l’hardware EVA e il software HP Command View EVA. Ciascuna fase sarà descritta in un capitolo successivo all’interno di questo manuale. 12 Informazioni sulla guida Figura 1 Elenco di controllo per l’installazione Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 13 Figura 2 Elenco di controllo per l’installazione, continuazione 14 Informazioni sulla guida 1 Controllo e conferma delle pianificazioni Preparazione dell’ambiente in uso Nel presente capitolo sono descritte le modalità di preparazione dell’ambiente in uso affinché sia possibile installare correttamente EVA SmartStart. Introduzione Prima di installare EVA, HP consiglia di procedere come indicato di seguito: • Sviluppare una pianificazione dell’installazione e della configurazione per l’ambiente in uso. • Consultare tutti i video e la documentazione. • Stabilire se EVA verrà collegato all’infrastruttura (ossia, allo switch FC) oppure direttamente (ossia, all’adattatore FC del server). Il prodotto EVA4400 è stato configurato in fabbrica per il collegamento all’infrastruttura. Per utilizzare il collegamento diretto, vedere il Capitolo 7. Pianificazione della configurazione dell’archiviazione La pianificazione appropriata dell’archiviazione del sistema e delle relative prestazioni rappresenta un fattore chiave per l’implementazione di EVA. La pianificazione o l’implementazione non corretta del sistema può causare perdite di spazio di archiviazione, il peggioramento delle prestazioni o l’impossibilità di espandere il sistema per soddisfare le esigenze di archiviazione in costante crescita. È necessario considerare quanto segue: • • • • • • Aspettative in termini di sistema e prestazioni Metodi di striping Livelli di RAID Dimensioni e tipi di unità disco rigido Unità di riserva Dimensionamento dell’array (capacità) Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 15 Aspettative in termini di sistema e prestazioni Per determinare il metodo di configurazione più appropriato per il sistema di archiviazione in uso, classificare innanzitutto le seguenti caratteristiche di archiviazione in ordine di importanza: • Tolleranza d’errore (elevata disponibilità) • Prestazioni di I/O • Efficienza di archiviazione Una volta stabilite le priorità, è possibile definire il metodo di striping e il livello RAID da utilizzare. Come illustrato nella sezione successiva, alcuni metodi di configurazione offrono un’elevata tolleranza d’errore, mentre altri garantiscono prestazioni di I/O migliori o un’efficienza di archiviazione superiore. Livelli di RAID Vraid è il termine utilizzato da HP per indicare l’implementazione dell’archiviazione RAID (Redundant Array of Independent Disks, array ridondante di dischi indipendenti). Per indicare il termine Vraid, nel software di gestione di HP viene inoltre utilizzata la dicitura ridondanza. Per i dischi virtuali con Vraid HP vengono utilizzati tre metodi RAID principali: striping dei dati, mirroring dei dati e controllo degli errori di parità. A differenza dei livelli RAID tradizionali, tutti i livelli Vraid HP sono distribuiti tra tutti i dischi fisici disponibili. Lo striping dei dati consente di aumentare la velocità eseguendo operazioni di I/O dei dischi virtuali contemporaneamente ad un gruppo intero di dischi fisici. Il mirroring fornisce la ridondanza dei dati mediante la memorizzazione dei dati e di una copia degli stessi. Il controllo degli errori di parità fornisce il rilevamento e la correzione automatici nel caso si verifichino danni ad un disco fisico. Esistono tre livelli di Vraid: Vraid0, Vraid1 e Vraid5. Per ciascun livello viene impiegata una combinazione diversa di metodi RAID che influisce sulla ridondanza dei dati, sulla quantità di spazio utilizzato nei dischi fisici e sulla velocità di I/O. Una volta creato un disco virtuale, non è possibile modificare il livello di Vraid. Una volta creato un disco virtuale, non è possibile modificare il relativo tipo di Vraid. Consultare la Tabella 2 per un confronto tra i diversi livelli RAID. 16 Controllo e conferma delle pianificazioni Tabella 2 Confronto tra i livelli RAID Riepilogo Procedure ottimali Ridondanza dei dati Metodo RAID Vraid0 Il livello Vraid0 è ottimizzato per la velocità di I/O e per l’uso efficiente della capacità dei dischi fisici, ma non fornisce la ridondanza dei dati. IMPORTANTE: HP non consiglia l’uso del livello Vraid0 per i dischi virtuali se è richiesta un’elevata disponibilità. Utilizzare il livello Vraid0 solo per archiviazioni non critiche. I dischi virtuali Vraid0 forniscono le migliori prestazioni per le applicazioni che utilizzano I/O casuali. nessuna striping Vraid1 Il livello Vraid1 è ottimizzato per la ridondanza dei dati e la velocità di I/O, ma utilizza la maggior parte dello spazio dei dischi fisici. IMPORTANTE: il livello Vraid1 impiega circa il 100% in più di spazio su dischi fisici rispetto al livello Vraid0 e il 70% in più rispetto al livello Vraid5. In generale, i dischi virtuali Vraid1 offrono prestazioni migliori per una gamma più ampia di carichi di lavoro di applicazioni rispetto al livello Vraid5. elevata mirroring Vraid5 Il livello Vraid5 fornisce un buon compromesso tra ridondanza dei dati, velocità di I/O e uso efficiente dello spazio su dischi fisici. Il livello Vraid5 utilizza circa il 30% in più di spazio su dischi fisici rispetto al livello Vraid0. Rispetto al livello Vraid1, per alcune applicazioni che utilizzano l’I/O sequenziale, i dischi virtuali Vraid5 offrono dei vantaggi prestazionali. Basti pensare ai dischi Vraid5 per applicazioni con I/O di record sequenziale elevato in multipli di 8 Kb: maggiori sono le dimensioni del record, maggiore sarà il vantaggio. media striping e parità NOTA: Per informazioni sulle procedure ottimali, consultare il documento HP StorageWorks 4x00/6x00/8x00 Enterprise Virtual Array configuration best practices white paper, disponibile all’indirizzo http://www.hp.com. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 17 18 Controllo e conferma delle pianificazioni 2 Preparazione del sito Introduzione Per la preparazione del sito, occorre fornire quanto segue: • • • • Spazio fisico su rack per l’apparecchiatura Alimentazione CA per il sistema EVA Condizioni adeguate di ventilazione e temperatura Cavi LAN o Fibre Channel per il collegamento dell’hardware EVA alla rete Preparazione del sito Per garantire un funzionamento continuo, sicuro e affidabile dell’apparecchiatura, posizionare il sistema in un ambiente dotato dei requisiti necessari. Per pianificare e configurare rack e dispositivi da installare in rack, si consiglia di utilizzare HP Enterprise Configurator (eCo). Tale strumento è disponibile nel sito Web di HP all’indirizzo: http://h30099.www3.hp.com/configurator. Supporto strutturale adeguato per il pavimento Calcolare il peso totale dell’apparecchiatura e verificare che il pavimento del sito destinato all’installazione sia in grado di sostenerlo. Spazio libero e ventilazione adeguati Assicurarsi che vi sia spazio libero sufficiente davanti e dietro ai rack. Lasciare almeno 63,5 cm di spazio davanti al rack per permettere l’apertura completa degli sportelli e almeno 76,2 cm dietro il rack per consentire gli interventi di manutenzione e una corretta circolazione dell’aria. Se nel rack vi sono spazi inutilizzati, fissare a copertura dei pannelli di riempimento in modo da forzare il passaggio dell’aria attraverso i componenti anziché attraverso gli spazi vuoti. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 19 Fonti di alimentazione adeguate e ridondanti Accertarsi che il computer sia installato accanto a due linee di alimentazione ad alta tensione. Le due linee si trovano in genere sulla stessa rete elettrica esterna, tuttavia, in alcuni casi possono derivare da reti o fonti diverse. Per una migliore protezione contro i guasti della fonte di alimentazione, richiedere e installare nel sistema due UPS. Tabella 3 Specifiche di EVA4400 Parametro Valore Dimensioni: Altezza Larghezza Profondità 8,79 cm 60,96 cm 44,81 cm Peso: Rack 42U Contenitore di controller Contenitore di unità 112,5 kg 22,5 kg 31,5 kg Potenza in ingresso Tensione in entrata Frequenza Corrente di ingresso nominale massima Potenza di ingresso massima Da 100 a 240 V CA 47-63 Hz 1,3 A 160 W*/unità Dissipazione termica (massima) 160 W x numero di unità* Intervalli di temperatura: Temperatura operativa Temperatura di trasporto Da 10 °C a 35 °C (1 °C in meno per 304,8 m di altitudine a 3048 m) Da -30 °C a 50 °C Umidità relativa (senza condensa): Operativa Non operativa Da 10% a 90% Fino a 95% Temperature massime a bulbo umido: Conservazione a lungo termine Conservazione a breve termine 29 °C 30 °C *Le specifiche relative alla potenza in ingresso e alla dissipazione di calore sono fornite nei valori massimi e si applicano a condizioni estreme di carico della potenza nominale. La dissipazione di potenza/calore dell’installazione varia in base alla configurazione dell’apparecchiatura. 20 Preparazione del sito 3 Disimballaggio del prodotto Introduzione 1. Rimuovere il prodotto dalle confezioni. 2. Verificare che il contenuto corrisponda a quanto richiesto e che soddisfi i requisiti del sito. 3. Controllare che non vi siano danni. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 21 22 Disimballaggio del prodotto 4 Installazione dei componenti NOTA: Se il prodotto ordinato è di tipo già integrato, ignorare questa sezione e passare al Capitolo 6. Installazione del sistema EVA e dei contenitori di archiviazione nel rack Il sistema EVA e i contenitori di archiviazione supportati possono essere installati nella maggior parte dei rack server standard. PRECAUZIONE: Installare le unità disco rigido nei contenitori solo dopo avere fissato questi ultimi nel rack: 1. Un contenitore in cui sono già inserite le unità disco rigido risulta troppo pesante per essere sollevato in sicurezza. 2. Lo spostamento di un contenitore durante l’installazione potrebbe comportare danni ai supporti di memorizzazione interni delle unità installate. Procedure ottimali per l’installazione in rack Oltre alle indicazioni previste dallo standard industriale, tenere presente quanto segue: • I componenti pesanti come i gruppi di continuità (UPS) e i contenitori di archiviazione aggiuntivi devono essere installati nella parte inferiore del rack. • Per semplificare il cablaggio, installare i contenitori di archiviazione sotto il controller EVA all’interno del rack. • Installare i componenti simili uno accanto all’altro all’interno del rack. A causa della diversa profondità di contenitori, switch e server, per disporre i componenti stando dietro al rack in caso di installazione di più dispositivi, montare questi ultimi in posizione adiacente l’uno all’altro. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 23 AVVERTENZA! Per ridurre il rischio di lesioni personali o di danni all’apparecchiatura, verificare che: • Durante la rimozione o l’installazione il sistema di archiviazione venga sollevato da almeno due persone qualora il peso sia superiore a 22,7 kg. Se l’installazione del sistema avviene in una posizione che supera l’altezza del petto degli operatori, è NECESSARIO richiedere l’assistenza di una terza persona che allinei il dispositivo alle guide mentre le prime due lo sostengono. • I martinetti di livellamento siano estesi fino al pavimento; • L’intero peso del rack venga scaricato sui martinetti di livellamento. • Gli stabilizzatori siano collegati al rack nelle installazioni singole. • Che i rack siano accoppiati gli uni agli altri nelle installazioni a rack multipli. • Venga estratto un solo componente alla volta nel rack. Un rack può diventare instabile se per qualsiasi motivo viene estratto più di un componente. • Il dispositivo venga sostenuto e mantenuto in posizione orizzontale durante l’inserimento nel rack, per evitare eventuali danni e facilitarne l’inserimento. Prima di installare i componenti dell’array EVA nel rack, vedere la Figura 3 e la Tabella 4. Figura 3 Array EVA standard installato in rack (disposizione consigliata) Tabella 4 Configurazione rack standard Elemento Dispositivo 1 Contenitore di controller per array EVA 2 Contenitori di dischi Installazione delle guide Per l’installazione delle guide, dei contenitori di archiviazione e dell’array, procedere come indicato di seguito: 1. 24 Installare i componenti a partire dalla parte inferiore del rack e procedere verso l’alto. In questo modo, il rack risulta stabile ed eventuali espansioni future sono facilitate. Installazione dei componenti 2. Installare le guide nel rack attenendosi alle istruzioni contenute nella confezione delle guide, HP StorageWorks 2U fixed rail installation instructions. NOTA: HP consiglia di installare tutti i kit di guide prima di installare i contenitori di archiviazione e il server. Installazione dei contenitori 1. Rimuovere i frontalini installati sopra le viti a testa zigrinata nella parte anteriore del contenitore (Figura 4). Figura 4 Rimozione dei frontalini dal contenitore 2. Allineare il contenitore alle guide e inserirlo nel rack (Figura 5). Figura 5 Installazione di un contenitore — vista anteriore del rack 3. Fare scorrere il contenitore nel rack finché l’estremità anteriore non risulta allineata alla parte anteriore del rack. (1, Figura 6) 4. Fissare la parte anteriore del contenitore alla parte anteriore del rack utilizzando le viti a testa zigrinata in dotazione poste sul lato anteriore del dispositivo (2, Figura 6), quindi riapplicare i frontalini anteriori. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 25 2 1 gl0089 Figura 6 Bloccaggio della parte posteriore del contenitore nel rack — vista anteriore del rack 5. Fissare la parte posteriore del contenitore nel rack: a. Allentare la vite a testa zigrinata sulla staffa di fissaggio per la spedizione (1, Figura 7), quindi fare scorrere la staffa verso l’esterno (2, Figura 7) finché la linguetta non si aggancia al telaio. Serrare la vite a testa zigrinata sulla staffa. Figura 7 Bloccaggio della parte posteriore del contenitore — vista posteriore del rack Sequenza di alloggiamenti dischi Una volta fissati i contenitori di archiviazione nel rack, installare le unità disco rigido all’interno dei relativi alloggiamenti. Per le prestazioni ottimali di Command View e l’integrità dei dati, è necessario che le unità vengano installate rispettando la sequenza di alloggiamenti corretta all’interno dei contenitori. Esempio 1: in presenza di quattro contenitori e otto unità, occorre installare quattro unità nell’alloggiamento 1 di ciascun contenitore e quattro unità nell’alloggiamento 2 di ciascun contenitore. Non installare tutte le unità nel contenitore 1 lasciando vuoto l’altro. 26 Installazione dei componenti Installazione delle unità PRECAUZIONE: Per l’uso delle unità disco rigido, è necessario attenersi alle normali pratiche di standard industriale. I supporti di archiviazione interni potrebbero danneggiarsi se le unità vengono scosse, lasciate cadere oppure posizionate in modo errato su una superficie di lavoro. Per l’installazione di un’unità disco rigido, accertarsi di inserirla completamente nell’apposito alloggiamento. Per rimuovere un’unità disco rigido, premere il tasto di rilascio, quindi estrarre leggermente l’unità dal contenitore. Infine, prima di rimuovere l’unità dal contenitore, attendere circa 10 secondi affinché il disco interno smetta completamente di ruotare. 1. Come mostrato nella Figura 8, sbloccare le unità (1), estrarre la maniglia (2) e inserire le unità nel contenitore (3). 2. Quando l’unità è completamente inserita nel contenitore, bloccare la maniglia. 15808 Figura 8 Installazione delle unità nei contenitori Ripetere la procedura finché non sono state installate tutte le unità nel contenitore (Figura 9). Figura 9 Inserimento delle unità nel contenitore Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 27 28 Installazione dei componenti 5 Collegamento dei cavi e dei cavi di alimentazione Introduzione Per collegare i cavi e i cavi di alimentazione, eseguire le operazioni riportate di seguito: NOTA: Se il prodotto ordinato è di tipo già integrato, ignorare questa sezione e passare al Capitolo 6. 1. 2. 3. 4. 5. Leggere le procedure ottimali relative ai collegamenti dei cavi. Collegare i cavi FC e/o LAN al controller, alle unità e ai server. Collegare la porta del modulo di gestione al server di gestione. Etichettare tutti i cavi utilizzando l’apposito kit in dotazione. Collegare tutti i cavi di alimentazione. Procedure ottimali per il collegamento dei cavi • Per il collegamento dei dispositivi, utilizzare i cavi più corti possibile. Cavi di lunghezza ridotta sono più semplici da gestire e sistemare lungo la parte posteriore del rack. Essi riducono inoltre la possibilità di degradazione del segnale che può verificarsi con cavi più lunghi. • Raccogliere i cavi nella parte posteriore del sistema EVA per accertarsi che la sistemazione nella parte posteriore del sistema rack non interferisca con le operazioni di manutenzione o di uso del sistema. Utilizzare le apposite fascette per legare i cavi e disporre i cavi in eccesso lungo il fianco del rack. Dopo aver riunito e allineato i cavi sul lato del rack, i componenti e gli indicatori di sistema sono visibili e facilmente accessibili. • Applicare un’etichetta sulle due estremità di ciascun cavo per identificare il dispositivo collegato. Riportare sull’etichetta il tipo e il nome del dispositivo, la porta o altre informazioni che si ritiene possano essere utili. • Applicare sulle due estremità di ogni cavo dei contrassegni colorati per facilitare l’identificazione di un cavo specifico senza la necessità di leggere o individuare l’etichetta. • Nelle configurazioni a percorsi multipli, è possibile legare con una fascetta i cavi accoppiati dei dispositivi di collegamento. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 29 Collegamento dei cavi Fibre Channel Per collegare il sistema EVA alla rete SAN, utilizzare cavi Fibre Channel standard osservando le avvertenze e le procedure ottimali di collegamento. PRECAUZIONE: Adottare le opportune precauzioni quando si maneggiano i cavi Fibre Channel: • Se si tocca l’estremità di un cavo Fibre Channel, è possibile che il cavo stesso subisca dei danni o un deterioramento delle prestazioni, ad esempio temporanei problemi di accesso al sistema di archiviazione. • Quando il cavo Fibre Channel non è collegato, riposizionare le protezioni su entrambe le estremità del cavo. • Verificare che i cavi Fibre Channel siano installati in modo che sui connettori corrispondenti non gravi un peso eccessivo. In questo modo, è possibile evitare eventuali danni al connettore e al cavo. La parte in eccesso dei cavo deve essere avvolta e fissata in una posizione che non sia di ingombro, prestando attenzione a non arrotolare il cavo in modo troppo stretto. Il raggio di curvatura minimo deve essere di 25 mm per i cavi a fibre ottiche da 50, 62,5 e 9 micron. Collegamento della porta del modulo di gestione al server di gestione Occorre valutare i seguenti aspetti: • È possibile collegare il modulo di gestione direttamente al server di gestione utilizzando un cavo Ethernet Cat5e o superiore. Il collegamento al modulo di gestione fornisce l’accesso al pannello OPC basato su Web, che consente di accedere alle informazioni sullo stato dell’array e alle impostazioni di configurazione di base. • Inoltre, per la gestione completa dell’array e delle operazioni di I/O, è necessario eseguire il collegamento tramite l’interfaccia a fibre ottiche. Collegamento dei cavi Fibre Channel della porta del dispositivo per l’array EVA - vista posteriore 1. Collegare i cavi all’array EVA come illustrato nella Figura 10. NOTA: Tutti i cavi della porta del dispositivo A del controller devono essere collegati ai moduli I/O A di tutti i contenitori. Tutti i cavi della porta del dispositivo B del controller devono essere collegati ai moduli I/O B di tutti i contenitori. 30 Collegamento dei cavi e dei cavi di alimentazione 1. Questo cavo consente di collegare la porta del dispositivo 1B del controller 1 (parte superiore sinistra — Cntrl 1, DP1B) alla porta 2 del modulo I/O B, (parte inferiore destra - I/O B, P2). 2. Questo cavo consente di collegare la porta del dispositivo 1A del controller 2 (parte superiore destra — Cntrl 2, DP1A) alla porta 2 del modulo I/O B, (parte inferiore sinistra - I/O A, P2). Figura 10 Collegamento dei cavi Fibre Channel per l’array EVA — vista posteriore Collegamento dei cavi Fibre Channel per l’array EVA - vista anteriore È possibile collegare la parte anteriore dell’array EVA direttamente allo switch Fibre Channel, come illustrato nella Figura 11, oppure al server di gestione, come illustrato nella Figura 12. Fare riferimento ai cavi di colore arancio nelle figure. NOTA: Per lo schema di collegamento riportato nella Figura 11, è necessario il collegamento all’infrastruttura, ossia il modo in cui il sistema si presenta alla consegna. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 31 1. Questo cavo consente di collegare la porta del dispositivo 1B del controller 1 (parte superiore sinistra — Cntrl 1, DP1B) alla porta 2 del modulo I/O B, (parte inferiore destra - I/O B, P2). 2. Questo cavo consente di collegare la porta del dispositivo 1A del controller 2 (parte superiore destra — Cntrl 2, DP1A) alla porta 2 del modulo I/O B, (parte inferiore sinistra - I/O A, P2). Figura 11 Collegamento del rack ai componenti nella parte anteriore - vista dettagliata del collegamento da adattatore FC a switch NOTA: Per lo schema di collegamento riportato nella Figura 12, è necessario il collegamento diretto. 32 Collegamento dei cavi e dei cavi di alimentazione 1. Questo cavo consente di collegare la porta del dispositivo 1B del controller 1 (parte superiore sinistra — Cntrl 1, DP1B) alla porta 2 del modulo I/O B, (parte inferiore destra - I/O B, P2). 2. Questo cavo consente di collegare la porta del dispositivo 1A del controller 2 (parte superiore destra — Cntrl 2, DP1A) alla porta 2 del modulo I/O B, (parte inferiore sinistra - I/O A, P2). Figura 12 Collegamento del rack ai componenti nella parte anteriore - da adattatore FC direttamente a server Applicazione delle etichette ai cavi con l’apposito kit Etichettare le estremità di ciascun cavo utilizzando il materiale fornito nel kit delle etichette in dotazione. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 33 Collegamento dei cavi di alimentazione Per proteggere il sistema dalle interruzioni di corrente ed eliminare i conseguenti tempi di inattività, ciascun sistema EVA è dotato nella versione standard di un alimentatore ridondante. A seconda del metodo utilizzato per il collegamento degli alimentatori alla fonte di alimentazione, è possibile eliminare i tempi di inattività causati dalle interruzioni di corrente. Per il collegamento dei cavi di alimentazione, utilizzare gli appositi cavi forniti con il sistema EVA. Una volta alimentato il sistema EVA, l’alimentatore rileverà automaticamente la tensione in ingresso e il LED posto dietro l’interruttore di alimentazione emetterà una luce di colore ambra fissa. Tabella 5 Collegamento dei cavi di alimentazione Metodo di collegamento Livello di protezione Alimentatori del sistema EVA collegati a: una fonte di alimentazione Elimina i tempi di inattività in caso di guasto a un alimentatore del sistema EVA. L’altro modulo alimentatore/ventola è in grado di far funzionare il sistema EVA fino all’installazione di un modulo sostitutivo. Alimentatori del sistema EVA collegati a: due fonti di alimentazione separate Elimina i tempi di inattività in caso di guasto a un alimentatore del sistema EVA. Protegge dalla perdita dei dati in caso di guasto a uno degli alimentatori, causato dallo scollegamento di un cavo o da un’interruzione di corrente. L’altra fonte di alimentazione è in grado di alimentare il sistema EVA finché la fonte di alimentazione guasta non verrà ripristinata o riassegnata. A seconda della causa e della durata dell’interruzione di corrente, l’utente può utilizzare tale intervallo di tempo per spegnere correttamente il sottosistema di memorizzazione. Alimentatori del sistema EVA collegati a: due gruppi di continuità (UPS) due fonti di alimentazione separate Elimina i tempi di inattività in caso di guasto a un alimentatore del sistema EVA. Protegge dalla perdita dei dati in caso di guasto a uno o entrambi gli alimentatori, causato dallo scollegamento di un cavo o da un’interruzione/mancanza di corrente della rete locale. L’altra fonte di alimentazione o il gruppo di continuità continua ad alimentare il sistema EVA fino al ripristino della fonte di alimentazione. A seconda della causa e della durata dell’interruzione di corrente, l’utente può utilizzare tale intervallo di tempo per spegnere correttamente il sottosistema di memorizzazione. AVVERTENZA! Per ridurre il rischio di scosse elettriche o danni all’apparecchiatura: • Non disattivare il collegamento a terra del cavo di alimentazione. Il terminale di messa a terra svolge un’importante funzione di sicurezza. • Collegare il cavo di alimentazione a una presa elettrica dotata di messa a terra e facilmente accessibile. • Per disattivare l’alimentazione dell’apparecchiatura, scollegare il cavo di alimentazione dall’alimentatore. • Disporre il cavo di alimentazione in modo da evitare che venga calpestato o schiacciato da oggetti che vi sono appoggiati, prestando particolare attenzione alla spina, alla presa elettrica e al punto di uscita del cavo dall’EVA. 34 Collegamento dei cavi e dei cavi di alimentazione 6 Accensione Introduzione Nel presente capitolo sono descritte le modalità di accensione dei dispositivi impiegati nell’ambiente in uso. 1. 2. 3. 4. Premere il tasto di alimentazione sui contenitori di dischi. Premere il tasto di alimentazione sul contenitore di controller. Accendere i server. Controllare eventuali errori osservando i LED – i LED devono illuminarsi in verde. Accensione dei dispositivi Dopo avere installato e collegato alla rete SAN il sistema EVA e i relativi contenitori di dischi, accendere tutti i dispositivi nella rete SAN stessa e verificare che funzionino correttamente. 1. 2. 3. 4. Attivare l’alimentazione di ciascun gruppo di continuità. Attivare l’alimentazione di ciascuno switch Fibre Channel esterno. Attivare l’alimentazione di ciascun contenitore di archiviazione collegato. Accendere il sistema EVA premendo il tasto di alimentazione/standby sul pannello anteriore. Il LED sul tasto di alimentazione/standby passa dal colore ambra al colore verde, ad indicare che il sistema EVA è stato acceso. 5. Attendere un massimo di cinque minuti affinché il sistema EVA completi la procedura di accensione e gli switch SAN Fibre Channel vengano avviati. 6. Attivare l’alimentazione dei server presenti nell’infrastruttura SAN dotati dell’accesso al sistema EVA, avviare il sistema operativo e accedere come utente con diritti di amministratore. PRECAUZIONE: All’accensione del server, è possibile che venga visualizzato il messaggio “Nuovo componente hardware individuato” per richiedere l’installazione di un driver HBA. Nella finestra selezionare l’opzione per annullare, onde evitare l’installazione di un driver HBA non supportato. 7. Verificare che ciascun componente dell’infrastruttura SAN funzioni correttamente. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 35 Verifica dello stato operativo del sistema EVA Per verificare lo stato operativo del sistema EVA, osservare i LED sul sistema stesso. LED del sistema EVA Ciascun modulo del sistema EVA è dotato di un display di LED (Figura 13). Il LED verde sul pannello è acceso se l’unità funziona correttamente. Verificare prima i LED posti sul contenitore, quindi i LED di ciascuna unità sostituibile del sistema EVA. Figura 13 LED sul pannello anteriore del sistema EVA4400 Tabella 6 LED di stato del sistema EVA4400 durante l’avvio Numero Funzione del LED Condizione all’avvio 1 UID (Unit ID, ID unità) Lampeggiante 2 Stato esterno contenitore Verde lampeggiante 3 Avviso guasto contenitore Ambra lampeggiante 4 Collegamento a host Ambra 5 (2 LED) Condizioni delle ventole Ambra 6 (2 LED) Condizioni delle batterie Ambra 36 Accensione Tabella 7 LED di stato del sistema EVA4400 durante il funzionamento Numero Funzione del LED Condizione all’avvio Condizione di errore 1 UID (Unit ID, ID unità) Spento — lampeggiante se acceso in remoto N/D 2 Stato esterno contenitore Verde 3 Avviso guasto contenitore Verde Ambra lampeggiante 4 Collegamento a host Verde Ambra — indica la perdita di collegamento 5 (2 LED) Condizioni delle ventole Verde Verde lampeggiante — indica la fase di carica o la presenza di un’unità sostituibile sul posto (FRU, Field Replacable Unit) difettosa 6 (2 LED) Condizioni delle batterie Verde Ambra lampeggiante — indica un’unità sostituibile sul posto difettosa Se i LED non sono accesi secondo gli schemi descritti: • • • • Controllare i collegamenti dei cavi tra il dispositivo e il sistema EVA. Assicurarsi che l’alimentazione sia disponibile. Leggere le istruzioni di installazione riportate nelle sezioni precedenti della presente guida. Rimuovere e reinserire nuovamente il modulo. Verifica dello stato operativo dei contenitori di archiviazione Per verificare il corretto funzionamento dei contenitori di archiviazione e delle unità disco rigido, osservare i LED dei contenitori e delle unità e confrontarli con gli schemi di illuminazione descritti nella documentazione dei dispositivi. Se i LED indicano che si è verificato un guasto, consultare la documentazione CSR relativa al contenitore in questione per ottenere le informazioni necessarie alla risoluzione del problema. Figura 14 Vista anteriore e posteriore dei contenitori di archiviazione nl Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 37 Verifica dello stato operativo degli switch e degli adattatori Fibre Channel Verifica degli switch Fibre Channel Per verificare il corretto funzionamento degli switch, osservare i LED degli switch e confrontarli con gli schemi di illuminazione riportati nella documentazione dei dispositivi. Se i LED indicano che si è verificato un guasto, consultare la documentazione fornita con lo switch per ottenere le informazioni necessarie alla risoluzione del problema. Fase opzionale: se per il collegamento dell’array EVA ai server esistenti si utilizza il metodo Fibre Channel (FC), è necessario installare degli adattatori FC nei server in uso e testarli, prima di installare HP Command View EVA. Accertarsi di disporre della quantità di cavi FC adeguata e che siano di lunghezza appropriata per il collegamento ai server dell’array EVA. Installazione dei driver Fibre Channel Se è in uso Windows, il software EVA SmartStart carica automaticamente i driver Fibre Channel necessari. Il caricamento avviene durante il processo di installazione che prevede l’esecuzione di EVA SmartStart. Per gli altri sistemi operativi, caricare i driver attenendosi alle istruzioni riportate nel Capitolo 10. Verifica dello stato operativo dei server Sebbene non sia ancora in grado di rilevare il sistema EVA, verificare che il server funzioni correttamente. A tale scopo, è sufficiente verificare che il sistema operativo sia stato caricato correttamente, quindi aprire un’applicazione software o il browser. Se il server non funziona correttamente, consultare la documentazione fornita con il server per ottenere le informazioni necessarie alla risoluzione del problema. 38 Accensione 7 Configurazione della modalità operativa del sistema di archiviazione Introduzione Per impostazione predefinita, il sistema HP StorageWorks 4400 Enterprise Virtual Array viene fornito per funzionare in un ambiente con switch Fibre Channel ed è configurato nella modalità infrastruttura. Per collegare il sistema EVA4400 direttamente a un server, occorre modificare la modalità operativa predefinita del sistema utilizzando la modalità diretta. Se la modalità non viene modificata, il sistema EVA4400 non sarà in grado di comunicare con il server. Per modificare la modalità operativa predefinita, utilizzare il pannello WOCP (Web-based Operator Control Panel). NOTA: Per modificare le impostazioni nel pannello WOCP, occorre disporre di privilegi di amministratore. Modificare le impostazioni del browser per la finestra WOCP come descritto Guida all’installazione di HP StorageWorks Command View EVA. Modifica della modalità operativa predefinita Per modificare la modalità operativa predefinita, procedere come indicato di seguito: 1. Collegare un cavo Ethernet (Cat 5e o superiore) alla porta Ethernet del modulo di gestione del sistema EVA4400. 2. Collegare l’altra estremità del cavo a un PC con Windows collegato alla rete. Per questa operazione, un laptop è particolarmente comodo. 3. Accedere al pannello WOCP (Web-based Operator Control Panel) all’indirizzo https://192.168.0.1:2372, l’URL predefinito del pannello a meno che non sia stato cambiato. 4. Accedere al pannello WOCP come amministratore. Il nome utente predefinito è admin e il campo della password è vuoto. Per motivi di sicurezza, una volta effettuato l’accesso modificare la password. 5. Selezionare Administrator Options —> Configure controller host ports. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 39 Viene visualizzato il pannello WOCP (Figura 15). Figura 15 Pagina Configure controller host ports del pannello WOCP 6. 7. 8. 9. 40 Nel menu a discesa della casella Topology, selezionare Direct. Fare clic su Save Changes. Modificare la modalità operativa predefinita per l’altro controller. Chiudere il pannello WOCP e scollegare il cavo Ethernet dal server. Configurazione della modalità operativa del sistema di archiviazione 8 Configurazione di un server di gestione HP Command View EVA utilizzando EVA SmartStart Introduzione 1. 2. 3. 4. 5. Inserire il CD EVA SmartStart nell’apposita unità del server di gestione HP Command View EVA. Lo strumento EVA SmartStart viene eseguito automaticamente. Leggere le informazioni concettuali e accedere alla Guida in linea. Fare clic su Configure as Management Server. Seguire le indicazioni a schermo per configurare il sistema come server di gestione HP Command View EVA. Figura 16 Configurazione come server di gestione Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 41 42 Configurazione di un server di gestione HP Command View EVA utilizzando EVA SmartStart 9 Configurazione dei server di applicazioni con ambiente Windows utilizzando EVA SmartStart Introduzione 1. Inserire il CD EVA SmartStart nell’apposita unità del primo server di applicazioni. 2. Lo strumento EVA SmartStart viene eseguito automaticamente. 3. Fare clic, quindi scegliere se configurare per la prima volta oppure se utilizzare archiviazione aggiuntiva. 4. Ripetere il processo di configurazione per ciascun server presente nella configurazione di HP Command View EVA. Figura 17 Prima configurazione dell’archiviazione o aggiunta di archiviazione in un secondo momento Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 43 44 Configurazione dei server di applicazioni con ambiente Windows utilizzando EVA SmartStart 10 Configurazione dei server di applicazioni con ambiente non Windows Introduzione Una volta installato e configurato il sistema EVA4400, è possibile passare al collegamento degli host all’array. Nel presente capitolo sono fornite le informazioni sui collegamenti specifici dei sistemi operativi supportati riportati di seguito: • Uso dei cluster, pagina 45 • Percorsi multipli, pagina 46 • HP-UX, pagina 46 • IBM AIX, pagina 49 • Linux, pagina 52 • Mac OS, pagina 52 • Novell NetWare, pagina 56 • OpenVMS, pagina 59 • Sun Solaris, pagina 65 • VMware, pagina 74 Clustering Il termine clustering indica il collegamento tra due o più computer affinché funzionino come fossero una sola macchina. Il clustering viene utilizzato per l’elaborazione parallela, il bilanciamento del carico e la tolleranza d’errore. Per informazioni sul software di clustering supportato da ciascun sistema operativo, consultare il documento HP StorageWorks Enterprise Virtual Array compatibility reference. Il clustering non è supportato dai sistemi operativi Linux, Novell NetWare o VMWare. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 45 NOTA: In Windows XP, il clustering non è supportato. NOTA: Per OpenVMS, è necessario uniformare l’ID LUN console e gli ID unità SO nell’intero ambiente SAN e non soltanto nel sottosistema di controller. Percorsi multipli Il software per percorsi multipli fornisce un ambiente a percorsi multipli per il sistema operativo in uso. Per ulteriori informazioni, consultare il seguente sito Web: http://h18006.www1.hp.com/products/sanworks/multipathoptions/index.html Per informazioni sul software per percorsi multipli supportato da ciascun sistema operativo, consultare il documento HP StorageWorks Enterprise Virtual Array compatibility reference. NOTA: In Windows XP Professional x32, i percorsi multipli non sono supportati. HP-UX Installazione degli adattatori Fibre Channel Per abilitare la comunicazione con il sistema EVA, occorre installare gli adattatori Fibre Channel (FCA) supportati nel server host. NOTA: Normalmente, l’adattatore utilizzato per il collegamento del server host all’infrastruttura viene denominato adattatore bus host (HBA). Nello specifico, l’HBA del server impiegato con il sistema EVA4400 è un adattatore Fibre Channel (FCA). In altri documenti correlati, l’adattatore potrebbe inoltre essere chiamato adattatore bus host Fibre Channel (HBA FC). Attenersi alle istruzioni e alle regole di installazione dell’hardware per il tipo di server in uso. L’adattatore FCA viene fornito con una documentazione specifica per l’installazione, da consultare per informazioni sulle istruzioni complete. Prima di iniziare, occorre disporre degli elementi seguenti: • Schede FCA e relative istruzioni di installazione • Manuale dell’hardware del server, da consultare per le istruzioni di installazione degli adattatori • Strumenti per intervenire sul server La scheda FCA deve essere inserita in uno slot I/O compatibile (PCI, PCI-X, PCI-E) del sistema host. Per istruzioni sull’inserimento delle schede, consultare il manuale dell’hardware. Test dei collegamenti con il sistema Enterprise Virtual Array In questa sezione vengono descritte le modalità che permettono di testare i collegamenti tra il server host e il sistema Enterprise Virtual Array. I dischi virtuali vengono configurati e assegnati al server host per testare il collegamento e iniziare ad utilizzare i dischi. 46 Configurazione dei server di applicazioni con ambiente non Windows Aggiunta di host Per aggiungere host utilizzando HP Command View EVA, procedere come indicato di seguito: 1. Recuperare i numeri WWN per ciascuna scheda FCA del server. Questa informazione è necessaria per selezionare le schede FCA host in HP Command View EVA. 2. Utilizzare HP Command View EVA per aggiungere l’host e ciascuna scheda FCA installata nel sistema host. NOTA: L’aggiunta di host tramite HP Command View EVA consiste nell’aggiungere ciascuna scheda FCA installata nell’host. Per aggiungere il primo adattatore, utilizzare l’opzione Add Host; per aggiungere gli adattatori successivi, utilizzare l’opzione Add Port. Accertarsi di aggiungere una porta per ciascuna scheda FCA attiva. 3. Accertarsi che le schede FCA host siano state aggiunte controllando la cartella Host nel riquadro di spostamento di HP Command View EVA. Creazione e assegnazione di dischi virtuali Per creare e assegnare i dischi virtuali al server host, procedere come indicato di seguito: 1. Da HP Command View EVA, creare un disco virtuale nel sistema EVA4400. 2. Specificare i valori per i parametri seguenti: • Virtual disk name • Vraid level • Size • Present to host (l’host appena creato) Verifica dei dischi virtuali dall’host Per verificare che l’host possa accedere ai dischi virtuali, riavviare il sistema oppure eseguire la scansione del bus. NOTA: Se è la prima volta che il LUN dei dischi virtuali viene fornito all’host, potrebbe essere necessario riavviare l’host per ripetere la scansione dei dischi virtuali appena forniti. Scansione del bus Per eseguire la scansione del bus FCA e visualizzare le informazioni sui dispositivi del sistema EVA4400, procedere come indicato di seguito: 1. Immettere # ioscan -fnCdisk per avviare la nuova scansione. Tutti i nuovi dischi virtuali divengono visibili all’host. 2. Assegnare i file speciali di dispositivo ai nuovi dischi virtuali immettendo insf. # insf -e NOTA: Immettendo la “E” maiuscola, i file speciali di dispositivo vengono riassegnati a tutti i dispositivi. Immettendo la “e” minuscola, i file speciali di dispositivo vengono assegnati solo ai nuovi dispositivi—in questo caso, i dischi virtuali. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 47 Esempio di output della scansione di un bus di I/O Di seguito è riportato un esempio di output di un comando ioscan: # ioscan -fnCdisk # ioscan -fnCdisk Class I H/W Patch Driver S/W H/W Type Description State ======================================================================================== ba 3 0/6 lba CLAIMED BUS_NEXUS Local PCI Bus Adapter (782) fc 2 0/6/0/0 td CLAIMED INTERFACE HP Tachyon XL@ 2 Fibre Channel Mass Storage Adapter /dev/td2 fcp 0 0/6/0/0.39 fcp CLAIMED INTERFACE FCP Domain ext_bus 4 0/6/00.39.13.0.0 fcparray CLAIMED INTERFACE FCP Array Interface target 5 0/6/0/0.39.13.0.0.0 tgt CLAIMED DEVICE ctl 4 0/6/0/0.39.13.0.0.0.0 sctl CLAIMED DEVICE HP HSV210 /dev/rscsi/c4t0d0 disk 22 0/6/0/0.39.13.0.0.0.1 sdisk CLAIMED DEVICE HP HSV210 /dev/dsk/c4t0d1 /dev/rdsk/c4t0d ext_bus 5 0/6/0/0.39.13.255.0 fcpdev CLAIMED INTERFACE FCP Device Interface target 8 0/6/0/0.39.13.255.0.0 tgt CLAIMED DEVICE ctl 20 0/6/0/0.39.13.255.0.0.0 sctl CLAIMED DEVICE HP HSV210 /dev/rscsi/c5t0d0 ext_bus 10 0/6/0/0.39.28.0.0 fcparray CLAIMED INTERFACE FCP Array Interface target 9 0/6/0/0.39.28.0.0.0 tgt CLAIMED DEVICE ctl 40 0/6/0/0.39.28.0.0.0.0 sctl CLAIMED DEVICE HP HSV210 /dev/rscsi/c10t0d0 disk 46 0/6/0/0.39.28.0.0.0.2 sdisk CLAIMED DEVICE HP HSV210 /dev/dsk/c10t0d2 /dev/rdsk/c10t0d2 disk 47 0/6/0/0.39.28.0.0.0.3 sdisk CLAIMED DEVICE HP HSV210 /dev/dsk/c10t0d3 /dev/rdsk/c10t0d3 disk 48 0/6/0/0.39.28.0.0.0.4 sdisk CLAIMED DEVICE HP HSV210 /dev/dsk/c10t0d4 /dev/rdsk/c10t0d4 disk 49 0/6/0/0.39.28.0.0.0.5 sdisk CLAIMED DEVICE HP HSV210 /dev/dsk/c10t0d5 /dev/rdsk/c10t0d5 disk 50 0/6/0/0.39.28.0.0.0.6 sdisk CLAIMED DEVICE HP HSV210 /dev/dsk/c10t0d /dev/rdsk/c10t0d6 disk 51 0/6/0/0.39.28.0.0.0.7 sdisk CLAIMED DEVICE HP HSV210 /dev/dsk/c10t0d7 /dev/rdsk/c10t0d7 Per ulteriori informazioni sull’uso di questi comandi, consultare le "man page" (manual pages, pagine di manuale in Unix) ioscan e insf. Se non è possibile accedere al disco virtuale: • Verificare tutti i collegamenti dello switch, del sistema Enterprise Virtual Array e dell’host. • Verificare tutti i livelli del firmware. Per ulteriori informazioni, consultare il documento Enterprise Virtual Array QuickSpecs e le relative note sulla versione. • Accertarsi che sia in esecuzione una versione supportata del sistema operativo host. Per ulteriori informazioni, consultare le note sulla versione specifiche dell’host. • Accertarsi che in HP Command View EVA, come sistema operativo per il disco virtuale, sia selezionato HP-UX. Creazione di gruppi di volumi in un disco virtuale utilizzando il comando vgcreate È possibile creare un gruppo di volumi in un disco virtuale inviando un comando vgcreate. In questo modo vengono creati i dati del blocco di gruppi virtuali, consentendo ad HP-UX di accedere al disco virtuale. Per ulteriori informazioni sulla creazione di dischi e file system, consultare le man page relative a pvcreate, vgcreate, e lvcreate. Attenersi alla procedura riportata di seguito per creare un gruppo di volumi in un disco virtuale: 1. Creare il volume fisico in un disco virtuale immettendo un comando simile al seguente: # pvcreate -f /dev/rdsk/c32t0d1 48 Configurazione dei server di applicazioni con ambiente non Windows 2. Creare la directory del gruppo di volumi per un disco virtuale immettendo un comando simile al seguente: # mkdir /dev/vg01 La designazione vg01 è un esempio. Utilizzare una designazione univoca per ciascun gruppo di volumi da creare. 3. Creare il nodo del gruppo di volumi per un disco virtuale immettendo un comando simile al seguente: # mknod /dev/vg01/group c 64 0x010000 La designazione 64 indica il numero principale che equivale al modo a 64 bit. 0x01 è il numero secondario in esadecimali, che deve essere univoco per ciascun gruppo di volumi. 4. Creare il gruppo di volumi per un disco virtuale immettendo un comando simile al seguente: # vgcreate –f /dev/vg01 /dev/dsk/c32t0d1 5. Creare il volume logico per un disco virtuale immettendo un comando simile al seguente: # lvcreate -L1000 /dev/vg01/lvol1 In questo esempio, viene creato un volume logico da 1 Gb (lvol1). 6. Creare un file system per il nuovo volume logico assegnando un nome di directory di file system e inserendo una voce di montaggio in /etc/fstab. 7. Eseguire mkfs sul nuovo volume logico. Il nuovo file system è pronto per il montaggio. IBM AIX Installazione degli adattatori Fibre Channel Per abilitare la comunicazione con il sistema EVA, occorre installare gli adattatori Fibre Channel (FCA) supportati nel server host. NOTA: Normalmente, l’adattatore utilizzato per il collegamento del server host all’infrastruttura viene denominato adattatore bus host (HBA). Nello specifico, l’HBA del server impiegato con il sistema EVA4400 è un adattatore Fibre Channel (FCA). In altri documenti correlati, l’adattatore potrebbe inoltre essere chiamato adattatore bus host Fibre Channel (HBA FC). Attenersi alle istruzioni e alle regole di installazione dell’hardware per il tipo di server in uso. L’FCA viene fornito con una documentazione specifica per l’installazione, da consultare per informazioni sulle istruzioni complete. Prima di iniziare, occorre disporre degli elementi seguenti: • Schede FCA e relative istruzioni di installazione • Manuale dell’hardware del server, da consultare per le istruzioni di installazione degli adattatori • Strumenti per intervenire sul server La scheda FCA deve essere inserita in uno slot I/O compatibile (PCI, PCI-X, PCI-E) del sistema host. Per istruzioni sull’inserimento delle schede, consultare il manuale dell’hardware. Accesso alle utility di IBM AIX È possibile accedere alle utility di IBM AIX, ad esempio a Object Data Manager (ODM), tramite il seguente sito Web: http://www.hp.com/support/downloads Nella casella di ricerca dei prodotti, immettere MPIO, quindi fare clic su AIX MPIO PCMA for HP Arrays. Selezionare IBM AIX, quindi il prodotto software di archiviazione. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 49 Test dei collegamenti con il sistema Enterprise Virtual Array In questa sezione vengono descritte le modalità che permettono di testare i collegamenti tra il server host e il sistema Enterprise Virtual Array. I dischi virtuali vengono configurati e assegnati al server host in uso per testare il collegamento e iniziare ad utilizzare i dischi. NOTA: La maggior parte delle sezioni che seguono si riferiscono a HP Command View EVA. Ulteriori informazioni su HP Command View EVA sono disponibili sul sito Web di HP: http://www.hp.com/support/manuals. Nella sezione Storage, fare clic su Storage Software, quindi selezionare HP StorageWorks Command View EVA software in Storage Device Management Software. Aggiunta di host Per l’aggiunta degli host, è possibile utilizzare il software HP Command View EVA. È necessario aggiungere ciascuna scheda FCA installata nel sistema host, affinché la scheda FCA specifica funzioni con il sistema EVA. Eseguire la procedura riportata di seguito: 1. Raccogliere le informazioni sui nomi universali (WWN) per ciascuna scheda FCA del server. Questa informazione è necessaria per la selezione delle schede FCA host in HP Command View EVA. 2. Determinare le schede FCA attive sull’host IBM AIX immettendo il comando seguente: # lsdev -Cc adapter |grep fcs Viene visualizzato un output simile al seguente: fcs0 Available 1H-08 FC Adapter fcs1 Available 1V-08 FC Adapter # lscfg -vl fcs0 fcs0 U0.1-P1-I5/Q1 FC Adapter Part Number.................80P4543 EC Level....................A Serial Number...............1F4280A419 Manufacturer................001F Feature Code/Marketing ID...280B FRU Number.................. 80P4544 Device Specific.(ZM)........3 Network Address.............10000000C940F529 ROS Level and ID............02881914 Device Specific.(Z0)........1001206D Device Specific.(Z1)........00000000 Device Specific.(Z2)........00000000 Device Specific.(Z3)........03000909 Device Specific.(Z4)........FF801315 Device Specific.(Z5)........02881914 Device Specific.(Z6)........06831914 Device Specific.(Z7)........07831914 Device Specific.(Z8)........20000000C940F529 Device Specific.(Z9)........TS1.90A4 Device Specific.(ZA)........T1D1.90A4 Device Specific.(ZB)........T2D1.90A4 Device Specific.(YL)........U0.1-P1-I5/Q1b. 3. 4. 5. 6. 50 Selezionare l’indirizzo di rete per il WWN della porta. Per aggiungere l’host, utilizzare HP Command View EVA. Impostare il tipo di host su IBM AIX. Accertarsi che le schede FCA host siano state aggiunte controllando la cartella Host nel riquadro di spostamento di HP Command View EVA. Configurazione dei server di applicazioni con ambiente non Windows NOTA: Per ulteriori informazioni sull’uso di HP Command View EVA, consultare il documento HP StorageWorks Interactive Help for Command View EVA. Creazione e assegnazione di dischi virtuali Per creare e assegnare dischi virtuali aggiuntivi ai server host, procedere come indicato di seguito: 1. Utilizzare HP Command View EVA per creare un disco virtuale nel sistema EVA4400. 2. Specificare i valori per i parametri seguenti: • Virtual disk name • Disk group • Vraid level • Size • Present to host (l’host appena creato) I due valori seguenti devono essere impostati come indicato: • Impostare OS unit ID su 0. • Impostare Preferred path/mode su No Preference. 3. Se nella finestra Virtual Disk Properties si sceglie un numero LUN specifico, selezionarne uno. 4. Riavviare il server oppure ripetere la scansione del bus. Verifica dei dischi virtuali dall’host È possibile verificare che gli host possano accedere ai dischi virtuali creati nel sistema EVA4400. L’host è in grado di riconoscere i dispositivi del sistema EVA in seguito al riavvio del sistema o ad una ulteriore scansione del bus. Per eseguire la scansione del bus dal disco virtuale e visualizzare le informazioni sui dispositivi del sistema EVA4400, procedere come indicato di seguito: 1. cfgmgr -v Il comando cfgmgr attiva un’ulteriore scansione del bus per risorse aggiuntive. Lo switch -v (output verbose) richiede un output completo. 2. lsdev -Cc disk Il comando lsdev consente di ottenere un elenco di tutti i dispositivi del sistema EVA; viene visualizzato un output simile al seguente: hdisk1 hdisk2 hdisk3 Available 1V-08-01 Available 1V-08-01 Available 1V-08-01 HP HSV210 Enterprise Virtual Array HP HSV210 Enterprise Virtual Array HP HSV210 Enterprise Virtual Array Se non è possibile accedere al disco virtuale: • Verificare tutti i collegamenti dello switch, del sistema Enterprise Virtual Array e dell’host. • Verificare tutti i livelli del firmware. Per ulteriori informazioni, consultare il documento Enterprise Virtual Array QuickSpecs e le relative note sulla versione. • Accertarsi che sia in esecuzione una versione supportata del sistema operativo host. Per ulteriori informazioni, consultare le note sulla versione specifiche dell’host. • Accertarsi che in HP Command View EVA, per il disco virtuale sia stato selezionato l’host corretto. Configurazione dei dischi virtuali dall’host Una volta configurati i dischi virtuali sul sistema EVA4400 ed eseguita un’ulteriore scansione o un riavvio dell’host, attenersi alle istruzioni specifiche dell’host per procedere alla configurazione delle nuove Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 51 risorse di dischi. Per istruzioni sulla configurazione delle risorse di dischi, consultare la documentazione fornita con il server. Mac OS Aggiunta di host Mac Per l’aggiunta di un host Apple MacIntosh OS X in HP Command View EVA, come modalità host selezionare Linux. Linux Installazione di componenti Linux Attualmente, HP non supporta il driver fornito con il kernel di Linux. È pertanto necessario installare un driver appropriato scaricandolo dal sito Web degli HBA Fibre Channel http://h18006.www1.hp.com/storage/networking/index.html. Per ottenere il driver HBA, scaricare il kit di driver adatto al sistema operativo in uso. Modalità di failover dei driver Se il comando INSTALL viene utilizzato senza flag, la modalità di failover dei driver dipenderà dalla presenza o meno in memoria di un driver QLogic (elencato nell’output del comando lsmod). Tra i possibili scenari di modalità di failover dei driver sono inclusi i seguenti: • Se è già installato un driver RPM hp_qla2x00src, il nuovo driver RPM utilizzerà il failover del pacchetto di driver precedente. • Se non è caricato alcun modulo di driver QLogic (modulo qla2xxx), per impostazione predefinita il driver passerà alla modalità di failover. La stessa situazione si verifica se un driver acquisito viene caricato e non compare nell’output della directory /proc/scsi/qla2xxx. • Se nella memoria è caricato un driver che presenta la relativa versione in /proc/scsi/qla2xxx, ma non è stato installato alcun driver RPM, il driver RPM caricherà il driver nella modalità di failover correntemente impiegata dal driver presente nella memoria. Istruzioni di installazione NOTA: Il kit di driver HP Emulex funziona in modo simile. Utilizzare il comando ./INSTALL -h per ottenere un elenco di tutti gli argomenti supportati. 1. Scaricare il kit di driver appropriato per la distribuzione. Il file del kit è nel formato hp_qla2x00-yyyy-mm-dd.tar.gz. 2. Copiare il kit di driver nel sistema di destinazione. 3. Decomprimere ed eseguire l’untar del kit di driver utilizzando il comando seguente: # tar zxvf hp_qla2x00-yyyy-mm-dd.tar.gz 4. Modificare la directory in hp_qla2x00-yyyy-mm-dd. 5. Eseguire il comando INSTALL. La sintassi del comando INSTALL varia in base alla configurazione utilizzata. Se è stato installato un kit di driver precedente, è possibile richiamare il comando INSTALL senza alcun argomento: Per utilizzare la configurazione correntemente caricata: # ./INSTALL Per forzare l’installazione sulla modalità di failover, utilizzare il flag -f: 52 Configurazione dei server di applicazioni con ambiente non Windows # ./INSTALL -f Per forzare l’installazione sulla modalità a percorso singolo, utilizzare il flag -s: # ./INSTALL -s Per elencare tutti gli argomenti supportati, utilizzare il flag -h: # ./INSTALL -h Lo script INSTALL abilita l’installazione del driver RPM appropriato per la configurazione in uso, oltre che degli RPM "fibreutil" (utility Fibre Channel). Una volta terminato lo script INSTALL, sarà necessario ricaricare i moduli di driver QLogic (qla2xxx, qla2300, qla2400, qla2xxx_conf) o riavviare il server. Comandi che consentono di ricaricare il driver: # /opt/hp/src/hp_qla2x00src/unload.sh # modprobe qla2xxx_conf # modprobe qla2xxx # modprobe qla2300 # modprobe qla2400 Comando che consente di riavviare il server: # reboot PRECAUZIONE: Se il dispositivo di avvio è un dispositivo collegato alla rete SAN, sarà necessario riavviare il server. Per verificare le versioni RPM installate, utilizzare il comando rpm con l’opzione -q. Ad esempio: # rpm -q hp_qla2x00src # rpm –q fibreutils Aggiornamento dei componenti Linux Se sono installati componenti appartenenti a kit di soluzioni o kit di driver precedenti, quale ad esempio l’RPM qla2x00, richiamare lo script INSTALL senza argomenti, come illustrato nel seguente esempio: # ./INSTALL Per aggiornare manualmente i componenti, selezionare una delle distribuzioni kernel riportate di seguito: • Per le distribuzioni basate sul kernel 2.4, utilizzare la versione 7.xx. • Per le distribuzioni basate sul kernel 2.6, utilizzare la versione 8.xx. A seconda della versione di kernel in esecuzione, aggiornare manualmente il driver RPM, come indicato di seguito: • Per l’RPM hp_qla2x00src: # rpm -Uvh hp_qla2x00src- version-revision.linux.rpm • Per l’RPM fibreutil, sono possibili due opzioni: • Per aggiornare il driver: # rpm -Uvh fibreutils-version-revision.linux.architecture.rpm • Per rimuovere il driver esistente e installarne uno nuovo: # rpm -e fibreutils # rpm -ivh fibreutils-version-revision.linux.architecture.rpm Aggiornamento degli RPM qla2x00 Se sul sistema in uso è installato un RPM qla2x00 HP, utilizzare lo script INSTALL per effettuare l’aggiornamento dagli RPM qla2x00. Lo script INSTALL consente di rimuovere l’RPM qla2x00 precedente e di installare il nuovo hp_qla2x00src mantenendo le impostazioni del driver dell’installazione precedente. Lo script non richiede argomenti. Per eseguire lo script INSTALL, utilizzare il seguente comando: # ./INSTALL Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 53 NOTA: Se si prevede di utilizzare la funzionalità di failover del driver QLA, disinstallare Secure Path ed eseguire il riavvio prima di tentare di aggiornare il driver. Diversamente, si potrebbe causare una condizione di "kernel panic". Rilevamento di archiviazioni di terzi La parte dell’RPM dedicata alla fase precedente l’installazione contiene un codice per il rilevamento di archiviazioni non HP. In questo modo, l’RPM non sovrascrive le impostazioni eventualmente utilizzate da un altro fornitore. È possibile ignorare la fase di rilevamento impostando la variabile di ambiente HPQLAX00FORCE su y tramite il seguente comando: # HPQLA2X00FORCE=y # export HPQLA2X00FORCE È inoltre possibile utilizzare l’opzione -F dello script INSTALL immettendo il seguente comando: # ./INSTALL -F Compilazione del driver per più kernel installati Se nel sistema in uso sono installati più kernel, è possibile compilare il driver per tutti i kernel impostando la variabile di ambiente INSTALLALLKERNELS su y ed esportandola tramite il seguente comando: # INSTALLALLKERNELS=y # export INSTALLALLKERNELS È inoltre possibile utilizzare l’opzione -a dello script INSTALL nel seguente modo: # ./INSTALL -a Disinstallazione dei componenti Linux Per disinstallare i componenti, è possibile utilizzare lo script INSTALL con l’opzione -u, come illustrato nel seguente esempio: # ./INSTALL -u Per disinstallare manualmente tutti i componenti o un solo componente, utilizzare uno o tutti i comandi seguenti: # rpm -e fibreutils # rpm -e hp_qla2x00 # rpm -e hp_qla2x00src Uso dell’RPM di origine In alcuni casi, potrebbe essere necessario creare un RPM hp_qla2x00 binario a partire dall’RPM di origine da utilizzare al posto dell’RPM hp_qla2x00src caricato tramite script. Questa operazione è necessaria se sui server di produzione non sono installati le risorse kernel e gcc. Se occorre creare un RPM binario da installare, sarà necessario disporre di un computer di sviluppo con lo stesso kernel dei server di produzione specificati. È possibile installare i metodi RPM dell’RPM binario creato sui server di produzione. 54 Configurazione dei server di applicazioni con ambiente non Windows NOTA: L’RPM binario funziona solo per il kernel e la configurazione per i quali è stato creato (e probabilmente alcuni kernel errata). Accertarsi di utilizzare la versione 7.xx dell’RPM di origine hp_qla2x00 per le distribuzioni basate su kernel 2.4 e la versione 8.xx dell’RPM di origine hp_qla2x00 per le distribuzioni basate su kernel 2.6. Attenersi alla seguente procedura per creare l’RPM binario a partire dall’RPM di origine: 1. Selezionare una delle seguenti opzioni: • Immettere il comando #./INSTALL -S. NOTA: Se viene eseguito il comando #./INSTALL -S, non è necessario completare la procedura descritta dalla fase 2 alla fase 4. • Installare l’RPM di origine utilizzando il comando # rpm -ivh hp_qla2x00-versionrevision.src.rpm. 2. Selezionare una delle seguenti directory: • Per le distribuzioni Red Hat, utilizzare la directory /usr/src/redhat/SPECS. • Per le distribuzioni SUSE, utilizzare la directory /usr/src/packages/SPECS. 3. Creare l’RPM tramite il comando # rpmbuild -bb hp_qla2x00.spec. NOTA: In alcune delle distribuzioni Linux precedenti, il comando RPM contiene la funzionalità di creazione dell’RPM. Al termine dell’output del comando, viene visualizzato il seguente messaggio: "Scritto: ...rpm". Con questa riga è possibile identificare la posizione dell’RPM binario. 4. Copiare l’RPM binario nei server di produzione e installarlo utilizzando il seguente comando: # rpm -ivh hp_qla2x00-version-revision.architecture.rpm Test dei collegamenti con il sistema Enterprise Virtual Array In questa sezione vengono descritte le modalità che permettono di testare i collegamenti tra il server host e il sistema Enterprise Virtual Array. I dischi virtuali vengono configurati e assegnati al server host in uso per testare il collegamento e iniziare ad utilizzare i dischi. Aggiunta di host Per aggiungere host utilizzando HP Command View EVA, procedere come indicato di seguito: 1. Recuperare i numeri WWN per ciascuna scheda FCA del server. Questa informazione è necessaria per selezionare le schede FCA host in HP Command View EVA. 2. Utilizzare HP Command View EVA per aggiungere l’host e ciascuna scheda FCA installata nel sistema host. NOTA: L’aggiunta di host tramite HP Command View EVA consiste nell’aggiungere ciascuna scheda FCA installata nell’host. Per aggiungere il primo adattatore, utilizzare l’opzione Add Host; per aggiungere gli adattatori successivi, utilizzare l’opzione Add Port. Accertarsi di aggiungere una porta per ciascuna scheda FCA attiva. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 55 3. Impostare il tipo di host: • Linux per XCS 4.0 o successivo • Sun Solaris per XCS 3.x (nessuna selezione di Linux disponibile) 4. Accertarsi che le schede FCA host siano state aggiunte controllando la cartella Host nel riquadro di spostamento di HP Command View EVA. Creazione e assegnazione di dischi virtuali Per creare e assegnare i dischi virtuali al server host, procedere come indicato di seguito: 1. Da HP Command View EVA, creare un disco virtuale nel sistema EVA4400. 2. Specificare i valori per i parametri seguenti: • Virtual disk name • Vraid level • Size • Present to host (l’host appena creato) Verifica dei dischi virtuali dall’host Per accertarsi che il LUN venga riconosciuto in seguito all’assegnazione di un disco virtuale all’host, effettuare una delle seguenti operazioni: • Riavviare l’host • Immettere il comando /opt/hp/hp_fibreutils/hp_rescan -a Per accertarsi che l’host possa accedere ai dischi virtuali, immettere il comando # more /proc/scsi/scsi. L’output elenca tutti i dispositivi SCSI rilevati dal server. Le voci LUN del sistema EVA4400 sono simili alla seguente: Host: scsi3 Channel: Vendor: Type: HP Model: 00 ID: 00 Lun: HSV210 Direct-Access 01 Rev: ANSI SCSI revision: 02 Novell NetWare Download del firmware degli adattatori Fibre Channel Per abilitare la comunicazione con il sistema EVA, occorre installare gli adattatori FCA supportati nel server host. È possibile scaricare l’ultima versione del firmware degli FCA dal seguente sito Web: http://www.hp.com/support/downloads Nella casella di ricerca dei prodotti, immettere HBA, quindi selezionare il prodotto. Per ottenere un elenco degli FCA supportati, consultare le note sulla versione specifiche del sistema operativo. File e parametri dei driver Il kit del software fornito con l’FCA include l’ultima versione dei file del software FCA disponibile al momento della spedizione. I file del software vengono aggiornati periodicamente e possono essere scaricati dal seguente sito Web: http://h20000.www2.hp.com/bizsupport/. È possibile caricare il driver QL2x00.HAM con switch opzionali per modificare la funzionalità del driver. Di seguito sono forniti esempi di comando per la modalità a percorso singolo e per la modalità a percorso multiplo: 56 Configurazione dei server di applicazioni con ambiente non Windows • Percorso singolo: Load QL2x00.HAM Slot=2/Luns/allpaths/Portnames/startunit • Percorso multiplo: Load QL2x00.Ham Slot=2/luns/allpaths/portnames Installazione dei driver per Novell NetWare NOTA: È possibile che il driver QL2x00 HAM non sia compatibile con le versioni di NetWare precedenti alla versione 6.x. Per installare il driver per NetWare in un sistema Netware 6.x precedentemente installato, procedere come indicato di seguito: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. Immettere il seguente comando dalla schermata della console: LOAD HDETECT Selezionare Continue nel menu Options, quindi premere Invio. Selezionare Modify nel menu Options, quindi premere Invio. Con i driver evidenziati, premere Invio per attivare le opzioni Select e View. Selezionare Modify nel menu Additional Driver Options, quindi premere Invio. Premere Insert o INS sulla tastiera per aggiungere un nuovo driver. Premere Insert o INS sulla tastiera per aggiungere un driver non elencato. Effettuare una delle seguenti operazioni: • Se si dispone di un driver HAM e di un file DDI su un disco floppy, premere Invio. • Se si dispone di un driver HAM e di un file DDI su un altro supporto, quale una directory di CD-ROM o un’unità, premere F3, quindi specificare il percorso dei file. Il percorso dei file può essere simile al seguente: C:\nwserver\ Selezionare Modify, quindi premere Invio quando vengono visualizzate le proprietà del driver QL2x00. Selezionare Return to Driver Summary, quindi premere Invio quando viene visualizzata la schermata Additional Drivers. Selezionare Continue nel menu Options, quindi premere Invio per caricare il driver. Selezionare Continue nel menu Protocol Options per uscire. NOTA: Se è in uso un server Proliant, accertarsi che la versione del driver CPQSHD.CDM sia successiva alla versione 2.0. L’I/O a percorsi multipli non è supportato su SP6 con CPQSHD.CDM. Test dei collegamenti con il sistema Enterprise Virtual Array In questa sezione vengono descritte le modalità che permettono di testare i collegamenti tra il server host e il sistema Enterprise Virtual Array. I dischi virtuali vengono configurati e assegnati al server host in uso per testare il collegamento e iniziare ad utilizzare i dischi. NOTA: La maggior parte delle sezioni seguenti si riferiscono a HP Command View EVA. Ulteriori informazioni su HP Command View EVA sono disponibili sul sito Web di HP: http://www.hp.com/support/manuals. Nella sezione Storage, fare clic su Storage Software, quindi selezionare HP StorageWorks Command View EVA software in Storage Device Management Software. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 57 Aggiunta di host Per l’aggiunta degli host, è possibile utilizzare il software HP Command View EVA. È necessario aggiungere ciascuna scheda FCA installata nel sistema host, affinché la scheda FCA specifica funzioni con il sistema EVA. Eseguire la procedura riportata di seguito: 1. Raccogliere le informazioni sui nomi universali (WWN) per ciascuna scheda FCA del server. Questa informazione è necessaria per la selezione delle schede FCA host in HP Command View EVA. 2. Per aggiungere l’host, utilizzare HP Command View EVA. NOTA: L’aggiunta di host tramite HP Command View EVA consiste nell’aggiungere ciascuna scheda FCA installata nell’host. Per aggiungere il primo adattatore, utilizzare l’opzione Add Host; per aggiungere gli adattatori successivi, utilizzare l’opzione Add Port. Accertarsi di aggiungere una porta per ciascuna scheda FCA attiva. 3. Come sistema operativo, selezionare Unknown. Non è disponibile alcuna selezione di sistemi operativi Novell NetWare. 4. Accertarsi che le schede FCA host siano state aggiunte controllando la cartella Host nel riquadro di spostamento di HP Command View EVA. NOTA: Per ulteriori informazioni sull’uso di HP Command View EVA, consultare il documento HP StorageWorks Interactive Help for Command View EVA. Uso dell’utility CFG.NLM per determinare i numeri WWN L’utility CFG.NLM offre un metodo opzionale per determinare i numeri WWN. Per utilizzare l’utility CFG.NLM, procedere come indicato di seguito: 1. Copiare l’utility CFG.NLM da C:\nwserver\drivers\unsupdrv nella directory di sistema del server. 2. Dalla console, immettere il comando cfg/I. 3. Accedere alla schermata Logger e copiare i numeri WWN visualizzati. 4. Accertarsi che le schede FCA host siano state aggiunte controllando la cartella Host nel riquadro di spostamento di HP Command View EVA. Creazione e assegnazione di dischi virtuali Per creare e assegnare dischi virtuali aggiuntivi ai server host, procedere come indicato di seguito: 1. Utilizzare HP Command View EVA per creare un disco virtuale nel sistema EVA4400. 2. Specificare i valori per i parametri seguenti: • Virtual disk name • Disk group • Vraid level • Size • Present to host (l’host appena creato) 3. Se nella finestra Virtual Disk Properties si sceglie un numero LUN specifico, selezionarne uno. 4. Riavviare il server oppure ripetere la scansione del bus. 58 Configurazione dei server di applicazioni con ambiente non Windows Verifica dei dischi virtuali dall’host È possibile verificare che gli host possano accedere ai dischi virtuali creati nel sistema EVA4400. L’host è in grado di riconoscere i dispositivi del sistema EVA in seguito al riavvio del sistema o ad una ulteriore scansione del bus. Per eseguire la scansione del bus dal disco virtuale e visualizzare le informazioni sui dispositivi del sistema EVA4400, procedere come indicato di seguito: Scan for new devices Scan all LUNs List storage adapters Se non è possibile accedere al disco virtuale: • Verificare tutti i collegamenti dello switch, del sistema Enterprise Virtual Array e dell’host. • Verificare tutti i livelli del firmware. Per ulteriori informazioni, consultare il documento Enterprise Virtual Array QuickSpecs e le relative note sulla versione. • Accertarsi che sia in esecuzione una versione supportata del sistema operativo host. Per ulteriori informazioni, consultare le note sulla versione specifiche dell’host. • Accertarsi che in HP Command View EVA, per il disco virtuale sia stato selezionato l’host corretto. • Accertarsi che il numero WWN dell’host sia impostato correttamente, affinché corrisponda all’host selezionato. • Verificare le impostazioni dello switch dei driver HBA. • Verificare che il disco virtuale sia assegnato all’host. Configurazione dei dischi virtuali dall’host Una volta configurati i dischi virtuali sul sistema EVA4400 ed eseguita un’ulteriore scansione o un riavvio dell’host, attenersi alle istruzioni specifiche dell’host per procedere alla configurazione delle nuove risorse di dischi. Per istruzioni sulla configurazione delle risorse di dischi, consultare la documentazione fornita con il server. OpenVMS Installazione degli adattatori Fibre Channel Per abilitare la comunicazione con il sistema EVA, occorre installare gli adattatori Fibre Channel (FCA) supportati nel server host. NOTA: Normalmente, l’adattatore utilizzato per il collegamento del server host all’infrastruttura viene denominato adattatore bus host (HBA). Nello specifico, l’HBA del server impiegato con il sistema EVA4400 è un adattatore Fibre Channel (FCA). In altri documenti correlati, l’adattatore potrebbe inoltre essere chiamato adattatore bus host Fibre Channel (HBA FC). Attenersi alle istruzioni e alle regole di installazione dell’hardware per il tipo di server in uso. L’FCA viene fornito con una documentazione specifica per l’installazione, da consultare per informazioni sulle istruzioni complete. Prima di iniziare, occorre disporre degli elementi seguenti: • Schede FCA e relative istruzioni di installazione • Manuale dell’hardware del server, da consultare per le istruzioni di installazione degli adattatori • Strumenti per intervenire sul server Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 59 La scheda FCA viene inserita in uno slot PCI standard del sistema host. Per istruzioni sull’inserimento delle schede, consultare il manuale dell’hardware. Download del firmware degli adattatori Fibre Channel Per abilitare la comunicazione con il sistema EVA, occorre installare gli adattatori FCA supportati nel server host. È possibile scaricare l’ultima versione del firmware degli FCA dal seguente sito Web: http://www.hp.com/support/downloads Nella casella di ricerca dei prodotti, immettere HBA, quindi selezionare il prodotto. Per ottenere un elenco degli FCA supportati, consultare le note sulla versione specifiche del sistema operativo. Aggiornamento del codice della console di AlphaServer, del codice della console del server Integrity e del firmware degli FCA Fibre Channel La procedura di aggiornamento del firmware varia in base ai diversi tipi di server. Per aggiornare il firmware, attenersi alla procedura descritta nelle istruzioni di installazione che accompagnano le immagini del firmware. Verifica dell’installazione del software dell’adattatore Fibre Channel Nel server host dovrebbe essere già installato un adattatore FCA supportato. La procedura che consente di accertarsi che la console riconosca l’FCA installato varia in base ai diversi tipi di server. Attenersi alla procedura descritta nelle istruzioni di installazione che accompagnano le immagini del firmware. Console LUN ID e OS unit ID Nel software HP Command View EVA è presente una casella riservata al Console LUN ID che appare nella finestra Initialized Storage System Properties. È importante impostare il Console LUN ID su un numero diverso da zero. Se il Console LUN ID non viene impostato o viene impostato su zero, l’host OpenVMS non riconoscerà la coppia di controller. Il Console LUN ID di un controller deve essere univoco all’interno della rete SAN. Nella Tabella 8 è riportato un esempio di Console LUN ID. Nel software HP Command View EVA viene visualizzato l’OS unit ID. Per i computer host OpenVMS, è necessario un OS unit ID univoco. È possibile impostare l’OS unit ID nella finestra delle proprietà dei dischi virtuali. L’impostazione predefinita è 0, che disabilita il campo ID. Per abilitare il campo ID, occorre specificare un valore compreso tra 1 e 32767, tenendo presente che il numero immesso deve essere univoco all’interno della rete SAN. PRECAUZIONE: È possibile immettere un numero Console LUN ID o OS unit ID duplicato. È tuttavia necessario accertarsi che il Console LUN ID e l’OS Unit ID immessi non esistano già. La presenza di un Console LUN ID o un OS Unit ID duplicato può comportare danni ai dati provocati dall’host OpenVMS a causa della confusione circa l’identità dei LUN. Inoltre, la presenza di duplicati può evitare che l’host riconosca i controller. Tabella 8 Confronto tra Console LUN ID e OS unit ID Tipo di ID Indicazione visualizzata Console LUN ID impostato su 100 $1$GGA100: OS unit ID impostato su 50 $1$DGA50: 60 Configurazione dei server di applicazioni con ambiente non Windows Test dei collegamenti con il sistema Enterprise Virtual Array In questa sezione vengono descritte le modalità che permettono di testare i collegamenti tra il server host e il sistema Enterprise Virtual Array. I dischi virtuali vengono configurati e assegnati al server host in uso per testare il collegamento e iniziare ad utilizzare i dischi. NOTA: La maggior parte delle sezioni seguenti si riferiscono a HP Command View EVA. Ulteriori informazioni su HP Command View EVA sono disponibili sul sito Web di HP: http://www.hp.com/support/manuals. Nella sezione Storage, fare clic su Storage Software, quindi selezionare HP StorageWorks Command View EVA software in Storage Device Management Software. Aggiunta di host Per l’aggiunta degli host, è possibile utilizzare il software HP Command View EVA. È necessario aggiungere ciascuna scheda FCA installata nel sistema host, affinché la scheda FCA specifica funzioni con il sistema EVA. Eseguire la procedura riportata di seguito: 1. Raccogliere le informazioni sui nomi universali (WWN) per ciascuna scheda FCA del server. Questa informazione è necessaria per la selezione delle schede FCA host in HP Command View EVA. Per ottenere informazioni: • Su AlphaServer: a. Immettere il comando di OVMS show device fg/full. b. Utilizzare il comando WWIDMGR -SHOW PORT nella console SRM. c. Passare alla fase 2, pagina 58. • Sui server Integrity: a. Immettere il comando di OVMS show device fg/full. b. Attenersi alla seguente procedura eseguendola dalla console del server: 1. Da EFI boot Manager, selezionare EFI Shell. 2. In EFI Shell, immettere “Shell> drivers”. Viene visualizzato un elenco di driver EFI caricati nel sistema. 3. Nell’elenco, individuare la riga relativa all’adattatore FCA per il quale si desidera ottenere le informazioni sul numero WWN. Per un driver HBA Q-logic, ricercare il nome di driver HP 4 Gb Fibre Channel Driver o HP 2 Gb Fibre Channel Driver. Ad esempio: D R V VERSION == ======== 22 00000105 T Y P E = B C F G = X D I A G #D #C DRIVER NAME IMAGE NAME = == == =================================== =================== X 1 1 HP 4 Gb Fibre Channel Driver PciROM:0F:01:01:002 4. Si noti l’handle del driver nella prima colonna (0x22 nell’esempio). 5. Utilizzando l’handle del driver, immettere il comando drvdfg driver_handle per individuare l’handle di periferica (Ctrl). Ad esempio: Shell> drvcfg 22 Configurable Components Drv[22] Ctrl[25] Lang[eng] Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 61 6. Utilizzando il driver e l’handle del driver, immettere il comando drvdfg —s driver_handle device_handle per richiamare l’utility EFI Driver configuration. Ad esempio: Shell> drvcfg -s 22 25 7. Nell’elenco Fibre Channel Driver Configuration Utility , selezionare la voce 8 (Info) per individuare il numero WWN specifico della porta. Estratto Viene visualizzato un output simile al seguente: Adapter Adapter Adapter Adapter Path: WWPN: WWNN: S/N: Acpi(PNP0002,0300)/Pci(01|01) 50060B00003B478A 50060B00003B478B 3B478A 2. Per aggiungere l’host, utilizzare HP Command View EVA. NOTA: L’aggiunta di host tramite HP Command View EVA consiste nell’aggiungere ciascuna scheda FCA installata nell’host. Per aggiungere il primo adattatore, utilizzare l’opzione Add Host; per aggiungere gli adattatori successivi, utilizzare l’opzione Add Port. Accertarsi di aggiungere una porta per ciascuna scheda FCA attiva. 3. Accertarsi che le schede FCA host siano state aggiunte controllando la cartella Host nel riquadro di spostamento di HP Command View EVA. NOTA: Per ulteriori informazioni sull’uso di HP Command View EVA, consultare il documento HP StorageWorks Interactive Help for Command View EVA. Creazione e assegnazione di dischi virtuali Per creare e assegnare dischi virtuali aggiuntivi ai server host, procedere come indicato di seguito: 1. Utilizzare HP Command View EVA per creare un disco virtuale nel sistema EVA4400. 2. Specificare i valori per i parametri seguenti: • Virtual disk name • Disk group • Vraid level • Size • Present to host (l’host appena creato) • OS unit ID (nella finestra Virtual Disk Properties)—Impostare questo numero su un valore univoco per ciascun disco virtuale. L’OS unit ID deve essere univoco nell’intera rete SAN ed è visualizzato nell’output di un comando SHOW DEVICE. Nel seguente esempio è riportato il modo in cui è visualizzato un disco virtuale con OS unit ID impostato su 50: Disk $1$DGA50 PRECAUZIONE: È necessario che gli amministratori del sistema di archiviazione stabiliscano in anticipo i numeri OS unit ID. Accertarsi che sia selezionato un ID univoco quando agli host OpenVMS vengono assegnati dischi virtuali aggiuntivi. Un OS unit ID duplicato può danneggiare i dati a causa della confusione circa l’identità dei LUN. Accertarsi inoltre che il numero OS unit ID equivalga ad un valore compreso tra 1 e 32767, in quanto l’host non riconosce un valore pari a zero. 62 Configurazione dei server di applicazioni con ambiente non Windows NOTA: Un OS unit ID maggiore di 9999 non è in grado di essere servito da MSCP. 3. Se nella finestra Virtual Disk Properties si sceglie un numero LUN specifico, selezionarne uno. 4. Riavviare il server oppure ripetere la scansione del bus (vedere la sezione Scansione del bus). Verifica dei dischi virtuali dall’host È possibile verificare che gli host possano accedere ai dischi virtuali creati nel sistema EVA4400. L’host è in grado di riconoscere i dispositivi del sistema EVA in seguito al riavvio del sistema o ad una ulteriore scansione del bus. Scansione del bus Eseguire la scansione del bus per il disco virtuale da OpenVMS e visualizzare le informazioni sui dispositivi del sistema EVA4400. Avviare la scansione tramite il seguente comando per accertarsi che tutti i dischi virtuali diventino visibili all’host: $ MC SYSMAN IO AUTO/LOG Viene visualizzato un elenco dei LUN rilevati dal processo di scansione. Verificare che i nuovi LUN vengano visualizzati. NOTA: È possibile visualizzare il LUN della console del sistema EVA4400 senza che sia stato assegnato alcun disco virtuale. Il LUN della console viene visualizzato come $1$GGAx (dove x indica l’ID LUN del controller). Una volta terminata la scansione dell’infrastruttura per i dispositivi, è possibile verificare i dispositivi con il comando SHOW DEVICE: $ SHOW DEVICE NOME-DEL-DISCO-VIRTUALE/FULL Ad esempio, per visualizzare le informazioni su un disco virtuale denominato $1$DGA50, immettere $ SHOW DEVICE $1$DGA50:/FULL. nl Viene visualizzato l’output seguente: Disk $1$DGA50: (BRCK18), device type HSV210, is online, file-oriented device, shareable, device has multiple I/O paths, served to cluster via MSCP Server, error logging is enabled. Error count 2 Operations completed 4107 Owner process "" Owner UIC [SYSTEM] Owner process ID 00000000 Dev Prot S:RWPL,O:RWPL,G:R,W Reference count 0 Default buffer size 512 Current preferred CPU Id 0 Fastpath 1 WWID 01000010:6005-08B4-0010-70C7-0001-2000-2E3E-0000 Host name "BRCK18" Host type, avail AlphaServer DS10 466 MHz, yes Alternate host name "VMS24" Alt. type, avail HP rx3600 (1.59GHz/9.0MB), yes Allocation class 1 I/O paths to device Path PGA0.5000-1FE1-0027-0A38 Error count Path PGA0.5000-1FE1-0027-0A3A Error count Path PGA0.5000-1FE1-0027-0A3E Error count Path PGA0.5000-1FE1-0027-0A3C Error count 9 (BRCK18), primary path. 0 Operations completed (BRCK18). 0 Operations completed (BRCK18). 0 Operations completed (BRCK18). 0 Operations completed 145 338 276 282 Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 63 Path PGB0.5000-1FE1-0027-0A39 Error count Path PGB0.5000-1FE1-0027-0A3B Error count Path PGB0.5000-1FE1-0027-0A3D Error count Path PGB0.5000-1FE1-0027-0A3F Error count Path MSCP (VMS24). Error count (BRCK18). 0 Operations completed (BRCK18). 0 Operations completed (BRCK18). 0 Operations completed (BRCK18), current path. 2 Operations completed 0 Operations completed 683 704 853 826 0 È inoltre possibile utilizzare il comando SHOW DEVICE DG per visualizzare un elenco di tutti i dischi Fibre Channel assegnati al sistema OpenVMS. NOTA: Riavviando il sistema host, vengono visualizzati gli eventuali nuovi dischi virtuali assegnati, in quanto la scansione dell’hardware viene eseguita come parte del processo di avvio. Se non è possibile accedere al disco virtuale, verificare quanto segue: • • • • • • • • Verificare il database di suddivisione in zone dello switch. Per verificare le descrizioni dell’host, utilizzare HP Command View EVA. Verificare tutti i collegamenti dello switch, del sistema Enterprise Virtual Array e dell’host. Verificare tutti i livelli del firmware. Per ulteriori informazioni, consultare il documento Enterprise Virtual Array QuickSpecs e le relative note sulla versione. Accertarsi che sia in esecuzione una versione supportata del sistema operativo host e di disporre dei kit di patch aggiornati (consultare le note sulla versione del sistema operativo). Verificare il firmware della console SRM sui server Alpha. Accertarsi che per il disco virtuale sia selezionato l’host corretto e che in HP Command View EVA venga utilizzato un OS Unit ID univoco. Accertarsi che in HP Command View EVA, come sistema operativo per il disco virtuale, sia selezionato OpenVMS. Configurazione dei dischi virtuali dall’host Una volta configurati i dischi virtuali sul sistema EVA4400 ed eseguita un’ulteriore scansione o un riavvio dell’host, attenersi alle istruzioni specifiche dell’host per procedere alla configurazione delle nuove risorse di dischi. Per istruzioni sulla configurazione delle risorse di dischi, consultare la documentazione fornita con il server. Per configurare le risorse di dischi in OpenVMS, inizializzare e montare la risorsa disco virtuale come illustrato di seguito: 1. Immettere il seguente comando per inizializzare il disco virtuale: $ INITIALIZE nome-del-disco-virtuale etichetta-volume 2. Immettere il seguente comando per montare il disco: $ MOUNT/SYSTEM nome-del-disco-virtuale etichetta-volume NOTA: Lo switch /SYSTEM è utilizzato per un solo sistema standalone, oppure nei cluster se si desidera montare il disco solo sui nodi selezionati. È possibile utilizzare /CLUSTER per i cluster OpenVMS. Tuttavia, se in un ambiente cluster di grandi dimensioni si verificano dei problemi, HP consiglia di immettere il comando MOUNT/SYSTEM per ciascun nodo cluster. 64 Configurazione dei server di applicazioni con ambiente non Windows 3. Utilizzare il comando SHOW DEVICE per visualizzare le informazioni sul disco virtuale. Ad esempio, immettere la seguente sequenza di comandi per configurare un disco virtuale denominato data1 in un ambiente standalone: $ INIT $1$DGA1: data1 $ MOUNT/SYSTEM $1$DGA1: data1 $ SHOW DEV $1$DGA1: /FULL Impostazione dei percorsi preferiti Per impostare o modificare il percorso preferito utilizzato per un disco virtuale, è possibile utilizzare il comando SET DEVICE /PATH . Ad esempio: $ SET DEVICE $1$DGA83: /PATH=PGA0.5000-1FE1-0007-9772/SWITCH In questo modo, è possibile controllare i percorsi utilizzati da ciascun disco virtuale. È possibile utilizzare il comando SHOW DEV/FULL per visualizzare gli identificatori di percorso. Per ulteriori informazioni sull’uso dei comandi di OpenVMS, consultare i file della Guida di OpenVMS: $ HELP ARGOMENTO Ad esempio, tramite il comando seguente è possibile visualizzare le informazioni della Guida sul comando MOUNT: $ HELP MOUNT Sun Solaris Installazione degli adattatori Fibre Channel Per il server host, è necessario che siano stati installati gli adattatori Fibre Channel (FCA) mediante EVA. NOTA: Normalmente, l’adattatore utilizzato per il collegamento del server host all’infrastruttura viene denominato adattatore bus host (HBA). Nello specifico, l’HBA del server impiegato con il sistema EVA4400 è un adattatore Fibre Channel (FCA). In altri documenti correlati, l’adattatore potrebbe inoltre essere chiamato adattatore bus host Fibre Channel (HBA FC). Attenersi alle istruzioni e alle regole di installazione dell’hardware per il tipo di server in uso. L’FCA viene fornito con una documentazione specifica per l’installazione, da consultare per informazioni sulle istruzioni complete. Prima di iniziare, occorre disporre degli elementi seguenti: • Schede FCA e relative istruzioni di installazione • Manuale dell’hardware del server, da consultare per le istruzioni di installazione degli adattatori • Strumenti per intervenire sul server La scheda FCA deve essere inserita in uno slot I/O compatibile (PCI, PCI-X, PCI-E) del sistema host. Per istruzioni sull’inserimento delle schede, consultare il manuale dell’hardware. Caricamento del sistema operativo e del software Per il caricamento del sistema operativo (SO) e del software nell’host, attenersi alle istruzioni del produttore. Caricare tutte le patch e le utility di configurazione del sistema operativo supportate da HP e dal produttore degli FCA. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 65 Configurazione degli adattatori Fibre Channel Nomi universali Per il processo di configurazione degli adattatori FCA potrebbe essere necessario immettere i nomi universali (WWN) delle porte dell’array a cui vengono collegati gli FCA. Per recuperare i nomi WWN, utilizzare HP Command View EVA oppure visualizzare questa informazione sullo switch SAN. Configurazione degli FCA con lo stack del driver Sun SAN Gli FCA di marca Sun sono supportati solo con lo stack del driver Sun SAN, compatibile inoltre con gli FCA Emulex e gli FCA QLogic correnti. Le informazioni relative ai dispositivi supportati sono disponibili sul sito Web di Sun: http://www.sun.com/io_technologies/index.html Per determinare gli FCA di marca non Sun supportati da HP con lo stack del driver Sun SAN, consultare le note di installazione aggiornate di MPxIO oppure contattare un rappresentante HP. Le istruzioni aggiornate dipendono dalla versione del sistema operativo in uso: • Per Solaris 8/9, installare l’ultima versione del software Sun StorEdge SAN e le relative patch. Per eseguire automaticamente l’installazione, utilizzare lo script di installazione fornito per Sun disponibile all’indirizzo http://www.sun.com/download/. 1. In Systems Administration, selezionare – Storage Management. 2. In Browse Products, selezionare StorageTek SAN 4.4. 3. Una volta installati il software e le patch necessari, riavviare l’host. Una volta configurate le porte dell’array con il comando cfgadm –c per Solaris 8/9, in seguito all’aggiunta di eventuali nuovi LUN non sono necessarie ulteriori attività. Esempi per due FCA: cfgadm -c configure c3 cfgadm -c configure c4 • Per Solaris 10, utilizzare Sun Update Manager per installare le patch aggiornate (accedere all’indirizzo http://www.sun.com/service/sunupdate/). Una volta installati il software e le patch necessari, riavviare l’host. Una volta aggiunti eventuali nuovi LUN non sono necessarie ulteriori attività, in quanto per Solaris 10 il riconoscimento del controller e dei LUN avviene automaticamente. Configurazione degli FCA Emulex con il driver lpfc Per determinare gli FCA Emulex e la versione di driver supportati da HP con il driver lpfc, consultare il documento HP StorageWorks 4400 Enterprise Virtual Array release notes (XCS 9.000) aggiornato oppure contattare un rappresentante HP. Per configurare gli FCA Emulex con il driver lpfc, procedere come indicato di seguito: • Accertarsi di disporre della versione supportata aggiornata del driver lpfc (accedere all’indirizzo http://www.emulex.com). • Per configurare gli FCA in un’infrastruttura SAN, modificare i parametri riportati di seguito nel file di configurazione del driver /kernel/drv/lpfc.conf: topology=2; scan-down=0; nodev-tmo=60; linkdown-tmo=60; • Se è in uso un solo FCA e nessun percorso multiplo, modificare il parametro seguente per ridurre il rischio di perdite di dati in caso di riavvio del controller: nodev-tmo=120; • Se è in uso la funzione DMP di Veritas Volume Manager (VxVM) per i percorsi multipli (uno o più FCA), modificare il parametro seguente per garantire il comportamento corretto di VxVM: no-device-delay=0; 66 Configurazione dei server di applicazioni con ambiente non Windows • In una topologia a infrastruttura, utilizzare associazioni persistenti per vincolare un ID di destinazione SCSI al nome di porta universale (WWPN) di una porta dell’array. In questo modo, è possibile garantire che gli ID di destinazione SCSI rimangano inalterati al momento del riavvio del sistema. Per impostare le associazioni persistenti, modificare il file di configurazione o utilizzare l’utility lputil. NOTA: HP consiglia di assegnare gli ID di destinazione in sequenza e di impostare, per il sistema EVA, gli stessi ID di destinazione su ciascun host della rete SAN. Nell’esempio riportato di seguito, che si riferisce ad un sistema EVA4000/6000, sono indicate l’associazione degli ID di destinazione 20 e 21 (istanza lpfc 2) ai nomi WWPN 50001fe100270938 e 50001fe100270939 e l’associazione degli ID di destinazione 30 e 31 (istanza lpfc 0) ai nomi WWPN 50001fe10027093a e 50001fe10027093b: fcp-bind-WWPN="50001fe100270938:lpfc2t20", "50001fe100270939:lpfc2t21", "50001fe10027093a:lpfc0t30", "50001fe10027093b:lpfc0t31"; NOTA: Sostituire i nomi WWPN dell’esempio con quelli delle porte dell’array in uso. Per un sistema EVA8000, è possibile aggiungere un massimo di otto ID di destinazione. Per ciascun LUN a cui si prevede di accedere, aggiungere una voce al file /kernel/drv/sd.conf. Ad esempio, per accedere ai LUN 1 e 2 attraverso tutti e quattro i percorsi, aggiungere le seguenti voci alla fine del file: name="sd" parent="lpfc" target=20 lun=1; name="sd" parent="lpfc" target=21 lun=1; name="sd" parent="lpfc" target=30 lun=1; name="sd" parent="lpfc" target=31 lun=1; name="sd" parent="lpfc" target=20 lun=2; name="sd" parent="lpfc" target=21 lun=2; name="sd" parent="lpfc" target=30 lun=2; name="sd" parent="lpfc" target=31 lun=2; • Per implementare le modifiche apportate ai file di configurazione, riavviare il server. • Se i LUN sono stati preconfigurati nel file /kernel/drv/sd.conf, utilizzare il comando devfsadm per rilevare i LUN in seguito alla configurazione del file. NOTA: Il driver lpfc non è supportato da Sun StorEdge Traffic Manager/Sun Storage Multipathing. Per configurare un FCA Emulex utilizzando lo stack del driver Sun SAN, consultare la sezione “Configurazione degli FCA con lo stack del driver Sun SAN”, pagina 66. Configurazione degli FCA QLogic con il driver qla2300 Per determinare gli FCA QLogic e la versione del driver supportati da HP con il driver qla2300, consultare il documento HP StorageWorks 4400 Enterprise Virtual Array release notes (XCS 9.000) aggiornato oppure contattare un rappresentante HP. Per configurare gli FCA QLogic con il driver qla2300, procedere come indicato di seguito: • Accertarsi di disporre della versione supportata aggiornata del driver qla2300 (accedere all’indirizzo http://www.qlogic.com). • Per configurare gli FCA in un’infrastruttura SAN, modificare i parametri riportati di seguito nel file di configurazione del driver /kernel/drv/qla2300.conf: Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 67 hba0-connection-options=1; hba0-link-down-timeout=60; hba0-persistent-binding-configuration=1; • Se è in uso un solo FCA e nessun percorso multiplo, modificare i parametri seguenti per ridurre il rischio di perdite di dati in caso di riavvio del controller: hba0-login-retry-count=60; hba0-port-down-retry-count=60; hba0-port-down-retry-delay=2; Il parametro hba0-port-down-retry-delay non è supportato dal driver 4.13.01; l’intervallo tra i tentativi è impostato su 2 secondi circa. • In una topologia a infrastruttura, utilizzare associazioni persistenti per vincolare un ID di destinazione SCSI al nome di porta universale (WWPN) di una porta dell’array. In questo modo, è possibile garantire che gli ID di destinazione SCSI rimangano inalterati al momento del riavvio del sistema. Per impostare le associazioni persistenti, modificare il file di configurazione o utilizzare l’utility SANsurfer. Nell’esempio riportato di seguito, che si riferisce ad un sistema EVA4000/6000, sono indicate l’associazione degli ID di destinazione 20 e 21 (istanza hba 2) ai nomi WWPN 50001fe100270938 e 50001fe100270939 e l’associazione degli ID di destinazione 30 e 31 (istanza hba 0) ai nomi WWPN 50001fe10027093a e 50001fe10027093b: hba0-SCSI-target-id-20-fibre-channel-port-name="50001fe100270938"; hba0-SCSI-target-id-21-fibre-channel-port-name="50001fe100270939"; hba1-SCSI-target-id-30-fibre-channel-port-name="50001fe10027093a"; hba1-SCSI-target-id-31-fibre-channel-port-name="50001fe10027093b"; NOTA: Sostituire i nomi WWPN dell’esempio con quelli delle porte dell’array in uso. Per un sistema EVA8000, è possibile aggiungere un massimo di otto ID di destinazione. • Se la versione del driver qla2300 è 4.13.01 o precedente, per ciascun LUN a cui si prevede di accedere, aggiungere una voce al file /kernel/drv/sd.conf: name="sd" class="scsi" target=20 lun=1; name="sd" class="scsi" target=21 lun=1; name="sd" class="scsi" target=30 lun=1; name="sd" class="scsi" target=31 lun=1; Se i LUN sono stati preconfigurati nel file /kernel/drv/sd.conf, dopo avere modificato il file di configurazione, utilizzare il comando devfsadm per rilevare i LUN. • Se la versione del driver qla2300 è 4.15 o successiva, verificare che nel file /kernel/drv/sd.conf sia presente la voce seguente o una voce simile: name="sd" parent="qla2300" target=2048; Per il rilevamento dei LUN in seguito alla relativa configurazione, utilizzare il comando seguente: /opt/QLogic_Corporation/drvutil/qla2300/qlreconfig –d qla2300 -s • Per implementare le modifiche apportate ai file di configurazione, riavviare il server. NOTA: Il driver qla2300 non è supportato da Sun StorEdge Traffic Manager/Sun Storage Multipathing. Per configurare un FCA QLogic utilizzando lo stack del driver Sun SAN, consultare la sezione “Configurazione degli FCA con lo stack del driver Sun SAN”, pagina 66. Configurazione dell’infrastruttura e della suddivisione in zone Per configurare l’infrastruttura e la suddivisione in zone, procedere come indicato di seguito: 1. Verificare che il cavo FC sia collegato e saldamente inserito nelle porte dell’array, nelle porte dell’host e nello switch SAN. 2. Tramite la connessione Telnet allo switch o alle utility Switch, verificare che il numero WWN delle porte e degli FCA del sistema EVA siano disponibili e in linea. 68 Configurazione dei server di applicazioni con ambiente non Windows 3. Creare una zona composta dai numeri WWN delle porte e degli FCA del sistema EVA, quindi aggiungere la zona alla configurazione dello switch attiva. 4. Attivare e salvare la nuova configurazione attiva dello switch. NOTA: A seconda dei diversi fornitori, le fasi necessarie alla configurazione dello switch variano. Per ulteriori informazioni, consultare il documento HP StorageWorks SAN design reference guide, disponibile per il download sul sito Web di HP: http://www.hp.com/go/sandesign. Sun StorEdge Traffic Manager (MPxIO)/Sun Storage Multipathing Sun StorEdge Traffic Manager (MPxIO)/Sun Storage Multipathing può essere utilizzato per gli FCA configurati con il driver Sun SAN e dipende dalla versione del sistema operativo, dall’architettura (SPARC/x86) e dal livello di patch installato. Per informazioni dettagliate sulla configurazione, consultare il documento HP StorageWorks MPxIO application notes, disponibile sul sito Web di HP dedicato all’assistenza: http://www.hp.com/support/manuals. Nella casella Search products, immettere MPxIO, quindi fare clic sul simbolo di ricerca. Infine, nell’elenco dei risultati selezionare le note di installazione desiderate. Configurazione con Veritas Volume Manager La funzione DMP (Dynamic Multipathing) di Veritas Volume Manager (VxVM) può essere utilizzata per tutti gli FCA e tutti i driver. Gli array di dischi EVA sono certificati per il supporto di VxVM. Durante l’installazione degli FCA, accertarsi che i parametri del driver siano impostati correttamente. Diversamente, in DPM si potrebbe verificare una perdita di dati durante il failover dei percorsi. Per informazioni sull’impostazione dei parametri degli FCA, consultare la sezione “Configurazione degli adattatori Fibre Channel”, pagina 66 e le istruzioni fornite con gli FCA. Per l’uso della funzione DMP, sono necessari un Array Support Library (ASL) e un Array Policy Module (APM), che abilitano l’Asymmetric Logical Unit Access (ALUA). L’accesso ai LUN avviene tramite il controller principale. In seguito all’abilitazione, utilizzare il comando vxdisk list <dispositivo> per determinare i percorsi principali e secondari. Per VxVM 4.1 (versione MP1 o successiva), per l’installazione sull’host è necessario scaricare l’ASL/APM sul sito di Symantec/Veritas dedicato all’assistenza. Il download e l’installazione non sono necessari per VxVM 5.0. Per scaricare e installare l’ASL/APM dal sito Web di Symantec/Veritas dedicato all’assistenza, procedere come indicato di seguito: 1. Accedere all’indirizzo http://support.veritas.com. 2. Immettere Storage Foundation for UNIX/Linux nella casella Product Lookup. 3. Immettere EVA nella casella Ask a question or enter keyword, quindi fare clic sul simbolo di ricerca. Per restringere ulteriormente il campo di ricerca, cambiare la piattaforma specificando Solaris e avviare di nuovo la ricerca. 4. Leggere le TechNotes e seguire le istruzioni per scaricare e installare l’ASL/APM. 5. Eseguire il comando vxdctl enable per notificare VxVM circa i cambiamenti. 6. Verificare la configurazione di VxVM, come illustrato nell’Esempio 1. Verifica della configurazione di VxVM. È possibile che l’output sia lievemente diverso in base alla versione VxVM in uso e alla configurazione dell’array. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 69 Esempio 1. Verifica della configurazione di VxVM # vxddladm listsupport all | grep HP libvxhpalua.so HP, COMPAQ libvxxp1281024.so HP libvxxp12k.so HP # vxddladm listsupport libname=libvxhpalua.so ATTR_NAME ATTR_VALUE ======================================================================= LIBNAME libvxhpalua.so VID HP, COMPAQ PID HSV101, HSV111 (C)COMPAQ, HSV111 HSV200, HSV210 ARRAY_TYPE A/A-A-HP ARRAY_NAME EVA3000, EVA5000, EVA4K6K EVA8000 # vxdmpadm listapm all | grep HP dmphpalua dmphpalua # vxdmpadm listapm dmphpalua Filename: dmphpalua APM name: dmphpalua APM version: 1 Feature: VxVM VxVM version: 40 Array Types Supported: A/A-A-HP Depending Array Types: A/A-A State: Active 1 A/A-A-HP Active # vxdmpadm listenclosure all ENCLR_NAME ENCLR_TYPE ENCLR_SNO STATUS ARRAY_TYPE ============================================================================ Disk Disk DISKS CONNECTED Disk EVA80000 EVA8000 50001FE1002709E0 CONNECTED A/A-A-HP Per impostazione predefinita, il criterio EVA iopolicy è impostato su Round-Robin. Poiché per VxVM 4.1 MP1, con questo criterio viene utilizzato un solo percorso degli I/O, HP consiglia di modificare il criterio iopolicy impostandolo su Adaptive, in modo da poter utilizzare tutti i percorsi del LUN del controller principale. Nell’Esempio 2. Impostazione del criterio iopolicy sono riportati i comandi che è possibile utilizzare per controllare e modificare il criterio iopolicy. Esempio 2. Impostazione del criterio iopolicy # vxdmpadm getattr arrayname EVA8000 iopolicy ENCLR_NAME DEFAULT CURRENT ============================================ EVA80000 Round-Robin Round-Robin # vxdmpadm setattr arrayname EVA8000 iopolicy=adaptive # vxdmpadm getattr arrayname EVA8000 iopolicy ENCLR_NAME DEFAULT CURRENT ============================================ EVA80000 Round-Robin Adaptive Test dei collegamenti con il sistema Enterprise Virtual Array In questa sezione vengono descritte le modalità che permettono di testare i collegamenti tra il server host e il sistema Enterprise Virtual Array. I dischi virtuali vengono configurati e assegnati al server host per testare il collegamento e iniziare ad utilizzare i dischi. 70 Configurazione dei server di applicazioni con ambiente non Windows Aggiunta di host Per aggiungere host utilizzando HP Command View EVA, effettuare quanto segue: 1. Recuperare i numeri WWN per ciascuna scheda FCA del server. Questa informazione è necessaria per selezionare le schede FCA host in HP Command View EVA. 2. Utilizzare HP Command View EVA per aggiungere l’host e ciascuna scheda FCA installata nel sistema host. NOTA: L’aggiunta di host tramite HP Command View EVA consiste nell’aggiungere ciascuna scheda FCA installata nell’host. Per aggiungere il primo adattatore, utilizzare l’opzione Add Host; per aggiungere gli adattatori successivi, utilizzare l’opzione Add Port. Accertarsi di aggiungere una porta per ciascuna scheda FCA attiva. 3. Accertarsi che le schede FCA host siano state aggiunte controllando la cartella Host nel riquadro di spostamento di HP Command View EVA. Creazione e assegnazione di dischi virtuali Per creare e assegnare i dischi virtuali al server host, effettuare quanto segue: 1. Da HP Command View EVA, creare un disco virtuale nel sistema EVA4400. 2. Specificare i valori per i parametri seguenti: • Virtual disk name • Vraid level • Size • Present to host (l’host appena creato) Configurazione dei dischi virtuali dall’host La procedura per la configurazione del percorso dei LUN all’array dipende dal driver FCA. Per ulteriori informazioni, consultare la sezione “Configurazione degli adattatori Fibre Channel”, pagina 66. Per individuare l’ID WWLUN assegnato al disco virtuale e/o il LUN assegnato dall’amministratore del sistema di archiviazione, procedere come indicato di seguito: • Driver Sun SAN, con MPxIO abilitato: • È possibile utilizzare il comando luxadm probe per visualizzare il numero WWN dell’array/del nodo e il relativo array dei dispositivi. • L’ID WWLUN fa parte del nome del file del dispositivo. Ad esempio: /dev/rdsk/c5t600508B4001030E40000500000B20000d0s2 • Utilizzando il comando luxadm display, il LUN viene visualizzato dopo l’indirizzo del dispositivo. Ad esempio: 50001fe1002709e9,5 • Driver Sun SAN, senza MPxIO: • Il numero WWPN del sistema EVA fa parte del nome del file (che consente di individuare il controller). Ad esempio: /dev/rdsk/c3t50001FE1002709E8d5s2 /dev/rdsk/c3t50001FE1002709ECd5s2 /dev/rdsk/c4t50001FE1002709E9d5s2 /dev/rdsk/c4t50001FE1002709EDd5s2 Utilizzando il comando luxadm probe, vengono visualizzati il numero WWN dell’array/del nodo e i relativi file del dispositivo. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 71 • Sebbene sia possibile recuperarlo come parte dell’output format -e (scsi, inquiry), in questo caso l’ID WWLUN risulterebbe di difficile lettura. Ad esempio: 09 45 45 42 30 e8 31 31 34 30 20 30 30 30 30 04 30 30 30 30 00 32 32 31 42 00 37 37 30 32 00 30 30 33 30 00 39 39 30 30 00 45 45 45 30 00 30 38 34 30 35 35 36 30 00 30 30 30 30 00 30 30 30 30 00 30 30 35 30 00 31 31 30 35 00 46 46 38 30 00 .........50001F E1002709E050001F E1002709E8600508 B4001030E4000050 0000B20000 • L’ID assegnato fa parte del nome del file del dispositivo. Ad esempio: /dev/rdsk/c3t50001FE1002709E8d5s2 È possibile recuperare il LUN con il comando luxadm display; il LUN viene visualizzato dopo l’indirizzo del dispositivo. Ad esempio: 50001fe1002709e9,5 • Driver Emulex (lpfc)/QLogic (qla2300): • Per recuperare il numero WWPN, controllare l’assegnazione dei numeri nel file di configurazione del driver oppure utilizzare il comando HBAnyware/SANSurfer. Il controllo del file rappresenta il modo più semplice, in quanto così è possibile conoscere l’ID di destinazione assegnato. • Per recuperare l’ID WWLUN, utilizzare il comando HBAnyware/SANSurfer. Sebbene sia possibile recuperarlo anche come parte dell’output format -e (scsi, inquiry), in questo caso l’ID WWLUN risulterebbe di difficile lettura. Ad esempio: 09 45 45 42 30 e8 31 31 34 30 20 30 30 30 30 04 30 30 30 30 00 32 32 31 42 00 37 37 30 32 00 30 30 33 30 00 39 39 30 30 00 45 45 45 30 00 30 38 34 30 35 35 36 30 00 30 30 30 30 00 30 30 30 30 00 30 30 35 30 00 31 31 30 35 00 46 46 38 30 00 .........50001F E1002709E050001F E1002709E8600508 B4001030E4000050 0000B20000 • L’ID assegnato fa parte del nome del file del dispositivo. Ad esempio: /dev/dsk/c4t20d5s2 Verifica dei dischi virtuali dall’host Per verificare che l’host sia in grado di accedere ai dischi virtuali, utilizzare il comando format. Vedere l’Esempio 3. Comando Format. 72 Configurazione dei server di applicazioni con ambiente non Windows Esempio 3. Comando Format # format Searching for disks...done c2t50001FE1002709F8d1: configured c2t50001FE1002709F8d2: configured c2t50001FE1002709FCd1: configured c2t50001FE1002709FCd2: configured c3t50001FE1002709F9d1: configured c3t50001FE1002709F9d2: configured c3t50001FE1002709FDd1: configured c3t50001FE1002709FDd2: configured with with with with with with with with capacity capacity capacity capacity capacity capacity capacity capacity of of of of of of of of 1008.00MB 1008.00MB 1008.00MB 1008.00MB 1008.00MB 1008.00MB 1008.00MB 1008.00MB AVAILABLE DISK SELECTIONS: 0. c0t0d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248> /pci@1f,4000/scsi@3/sd@0,0 1. c2t50001FE1002709F8d1 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/QLGC,qla@4/fp@0,0/ssd@w50001fe1002709f8,1 2. c2t50001FE1002709F8d2 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/QLGC,qla@4/fp@0,0/ssd@w50001fe1002709f8,2 3. c2t50001FE1002709FCd1 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/QLGC,qla@4/fp@0,0/ssd@w50001fe1002709fc,1 4. c2t50001FE1002709FCd2 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/QLGC,qla@4/fp@0,0/ssd@w50001fe1002709fc,2 5. c3t50001FE1002709F9d1 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/lpfc@5/fp@0,0/ssd@w50001fe1002709f9,1 6. c3t50001FE1002709F9d2 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/lpfc@5/fp@0,0/ssd@w50001fe1002709f9,2 7. c3t50001FE1002709FDd1 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/lpfc@5/fp@0,0/ssd@w50001fe1002709fd,1 8. c3t50001FE1002709FDd2 <HP-HSV210-5100 cyl 126 alt 2 hd 128 /pci@1f,4000/lpfc@5/fp@0,0/ssd@w50001fe1002709fd,2 Specify disk (enter its number): sec 128> sec 128> sec 128> sec 128> sec 128> sec 128> sec 128> sec 128> Le procedure per la visualizzazione del LUN qualora i dischi virtuali vengano aggiunti all’host Sun Solaris variano in base al driver installato. Per ulteriori informazioni, consultare la sezione “Configurazione degli adattatori Fibre Channel”, pagina 66. Se non è possibile accedere ai dischi virtuali: • Verificare tutti i collegamenti dello switch, del sistema EVA4400 e dell’host. • Verificare la suddivisione in zone. • Verificare che in HP Command View EVA per l’host siano stati configurati i numeri WWPN corretti. • Verificare che per il sistema EVA siano stati configurati i numeri WWPN corretti (driver lpfc, qla2300) e che l’assegnazione degli ID di destinazione corrisponda in /kernel/drv/sd.conf (lpfc e qla2300 4.13.01). • Verificare tutti i livelli del firmware. Per ulteriori informazioni, consultare il documento EVA QuickSpecs e le relative note sulla versione. • Accertarsi che sia in esecuzione una versione supportata del sistema operativo host. Per ulteriori informazioni, consultare le note sulla versione del sistema operativo host. • Accertarsi che in HP Command View EVA, per il disco virtuale sia stato selezionato l’host corretto. • Accertarsi che in HP Command View EVA, come sistema operativo per le Host Properties, sia selezionato Sun Solaris. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 73 Assegnazione di etichette e partizionamento dei dispositivi Per il partizionamento dei nuovi dispositivi e la relativa assegnazione di etichette, utilizzare l’utility Sun format: PRECAUZIONE: Durante la selezione dei dispositivi disco, prestare attenzione a selezionare il disco corretto, in quanto l’uso dei comandi di assegnazione di etichette/di partizionamento potrebbe causare la perdita degli eventuali dati contenuti nel disco. 1. Per avviare l’utility, alla visualizzazione del prompt principale immettere il comando format. 2. Verificare che vengano visualizzati tutti i nuovi dispositivi. Diversamente, uscire dall’utility Sun format immettendo quit o premendo Ctrl+D e verificare che la configurazione sia corrette (consultare la sezione “Configurazione dei dischi virtuali dall'host”, pagina 71). 3. Registrare i nomi dei file del dispositivo relativi ai tipi di carattere (ad esempio, c1t2d0) per tutti i nuovi dischi. Questi dati verranno impiegati per creare i file system oppure con Solaris o Veritas Volume Manager. 4. Quando viene richiesto di specificare il disco, immettere il numero del dispositivo a cui assegnare l’etichetta. 5. Alla richiesta di assegnazione dell’etichetta al disco, immettere Y. NOTA: Poiché le dimensioni della geometria virtuale del volume assegnato variano, come tipo di disco selezionare sempre autoconfigure. 6. Se non è in uso Veritas Volume Manager, utilizzare il comando partition per creare o regolare le partizioni. 7. Ripetere la procedura di assegnazione delle etichette per ciascun dispositivo nuovo. Per selezionare un altro disco, utilizzare il comando disk. 8. Al termine dell’assegnazione delle etichette ai dischi, immettere il comando quit o premere Ctrl+D per uscire dall’utility Sun format. Per ulteriori informazioni, consultare il documento , vedere la System Administration Guide: Devices and File Systems relativa al sistema operativo in uso, disponibile sul sito Web di Sun: http://docs.sun.com. NOTA: Alcuni comandi format non sono supportati dai sistemi di archiviazione EVA. VMware Installazione di VMware Per le istruzioni di installazione, consultare la guida all’installazione di VMware relativa al server in uso. Aggiornamento di VMware Se VMware è già stato installato, attenersi alla seguente procedura per installare le patch nel sistema o per aggiornarlo: 1. Estrarre il tarball di aggiornamento nel sistema. Segue un esempio di estrazione: esx-n.n.n-14182-upgrade.tar.gz 74 Configurazione dei server di applicazioni con ambiente non Windows 2. Avviare il sistema in modalità Linux selezionando l’opzione di avvio Linux nella finestra boot menu selection. 3. Estrarre il file tar e immettere il seguente comando: upgrade.pl 4. Riavviare il sistema utilizzando l’opzione di avvio predefinita (esx). Configurazione del sistema EVA4400 nei server host VMware Per configurare un sistema EVA4400 su un server VMware ESX, procedere come indicato di seguito: 1. Utilizzare HP StorageWorks Command View EVA per configurare un host per ciascun server ESX. 2. Accertarsi che gli adattatori Fibre Channel (FCA) siano presenti nell’elenco dei nomi di porta universali (WWPN). Se necessario, il numero WWPN. 3. Impostare il tipo di connessione su VMware. 4. Aggiungere una porta all’host definito nella fase 1. Non aggiungere voci host ai server con più di un FCA. 5. Per individuare il numero WWPN, procedere in uno dei seguenti modi: • Dalla console, immettere il comando wwpn.pl. Viene visualizzato un output simile al seguente: [root@gnome7 root]# wwpn.pl vmhba0: 210000e08b09402b (QLogic) 6:1:0 vmhba1: 210000e08b0ace2d (QLogic) 6:2:0 [root@gnome7 root]# • Controllare la directory /proc/scsi/qla2300/X, dove X indica un numero di istanza del bus, e ricercare la sezione contenente le informazioni sul dispositivo SCSI. Viene visualizzato un output simile al seguente: SCSI Device Information: scsi-qla0-adapter-node=200000e08b0b0638; scsi-qla0-adapter-port=210000e08b0b0638; Configurazione del server ESX In questa sezione sono fornite le informazioni sulla configurazione del server ESX. Caricamento della NVRAM FCA L’FCA memorizza le informazioni sulla configurazione nella cache RAM non volatile (NVRAM, Nonvolatile RAM). Per i prodotti HP StorageWorks, occorre scaricare la configurazione. Per caricare la NVRAM, procedere in uno dei seguenti modi: • Se è in uso un blade server ProLiant: 1. Scaricare su un floppy virtuale l’aggiornamento del BIOS FCA supportato, disponibile all’indirizzo http://www.hp.com/support/downloads. Per istruzioni sulla creazione e l’uso di un floppy virtuale, consultare il documento HP Integrated Lights-Out user guide. 2. Decomprimere il file. 3. Attenersi alle istruzioni contenute nel file readme per caricare la configurazione della NVRAM in ciascun FCA. • Se è in uso un blade server diverso da ProLiant: 1. Scaricare l’aggiornamento del BIOS FCA supportato, disponibile all’indirizzo http://www.hp.com/support/downloads. 2. Decomprimere il file. 3. Attenersi alle istruzioni contenute nel file readme per caricare la configurazione della NVRAM in ciascun FCA. Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 75 Impostazione del criterio multipathing È possibile impostare il criterio multipathing per ciascun numero di unità logica (LUN) o unità logica nella rete SAN (Storage Area Network) su uno dei valori riportati di seguito: • Most recently used (MRU) • Fixed • Preferred Comandi ESX 2.5.x Il comando # vmkmultipath –s vmhba0:0:1 –p mru imposta vmhba0:0:1 con un criterio multipathing MRU per tutti i LUN della rete SAN. Il comando # vmkmultipath -s vmhba1:0:1 -p fixed imposta vmhba1:0:1 con un criterio multipathing Fixed. Il comando # vmkmultipath -s vmhba1:0:1 -r vmhba2:0:1 -e vmhba2:0:1 imposta e abilita vmhba2:0:1 con un criterio multipathing Preferred. Comandi ESX 3.x Il comando # esxcfg-mpath --policy=mru --lun=vmhba0:0:1 imposta vmhba0:0:1 con un criterio multipathing MRU. Il comando # esxcfg-mpath --policy=mru --lun=vmhba0:0:1 imposta vmhba0:0:1 con un criterio multipathing MRU. Il comando # esxcfg-mpath --preferred --path=vmhba2:0:1 --lun=vmhba2:0:1 imposta vmhba2:0:1 con un criterio multipathing Preferred. NOTA: Sebbene sia possibile accedere a ciascun LUN tramite entrambi i controller di archiviazione EVA contemporaneamente, ogni percorso dei LUN è ottimizzato per un controller. Se il criterio multipathing del LUN è di tipo Fixed, per ottimizzare le prestazioni è necessario che tutti i server utilizzino un percorso allo stesso controller. È inoltre possibile impostare il criterio multipathing a partire dall’interfaccia VMware Management User Interface (MUI), facendo clic sulla scheda Failover Paths nella sezione the Storage Management e selezionando Edit… link per ciascun LUN del quale si desidera modificare il criterio. Impostazione DiskMaxLUN Con l’impostazione DiskMaxLUN, è possibile specificare il LUN con numero più elevato per il quale è possibile eseguire la scansione con il server ESX. • Per ESX 2.5.x, il valore predefinito equivale a 8. Se vengono assegnati più di otto LUN, è necessario modificare l’impostazione con un valore appropriato. Per impostare DiskMaxLUN, nell’interfaccia MUI selezionare Options> Advanced Settings, quindi immettere il LUN con numero più elevato. • Per ESX 3.0, il valore predefinito equivale a 256 (ossia, il valore massimo impostabile). Per impostare DiskMaxLun su un valore diverso, in Virtual Infrastructure Client selezionare Configuration > Advance Settings > Disk > Disk.MaxLun, quindi immettere il nuovo valore. Verifica dei collegamenti Per verificare che sia stata effettuata la configurazione corretta e controllare il collegamento alla rete SAN, procedere come indicato di seguito: • Per ESX 2.5.x, immettere il comando # vmkmultipath -q. 76 Configurazione dei server di applicazioni con ambiente non Windows • Per ESX 3.x, immettere il comando # esxcfg-mpath -l. Per ciascun LUN, verificare che il criterio multipathing sia stato impostato correttamente e che ciascun percorso sia indicato come on. Se alcuni percorsi sono indicati come dead o non sono affatto elencati, controllare i collegamenti dei cavi ed eseguire un’ulteriore scansione sull’FCA appropriato. Ad esempio: • Per ESX 2.5.x, immettere il comando # cos-rescan.sh vmhba0. • Per ESX 3.x, immettere il comando # esxcfg-rescan vmhba0. Se i percorsi o i LUN continuano a non risultare presenti, consultare le informazioni sulla risoluzione dei problemi nella documentazione di VMware o di HP StorageWorks. Test dei collegamenti con il sistema Enterprise Virtual Array In questa sezione vengono descritte le modalità che permettono di testare i collegamenti tra il server host e il sistema Enterprise Virtual Array. Creazione e assegnazione di dischi virtuali Per creare e assegnare i dischi virtuali al server host, effettuare quanto segue: 1. Da HP Command View EVA, creare un disco virtuale nel sistema EVA4400. 2. Specificare i valori per i parametri seguenti: • Virtual disk name • Vraid level • Size • Present to host (l’host appena creato) 3. Accertarsi che il tipo di collegamento dell’host sia impostato su Custom, con un valore equivalente a 00000000220008BC. Verifica dei dischi virtuali dall’host Per accertarsi che l’host possa accedere ai dischi virtuali, immettere il comando # more /proc/scsi/scsi. L’output elenca tutti i dispositivi SCSI rilevati dal server. Le voci LUN del sistema EVA4400 sono simili alla seguente: Host: Vendor: Type: scsi3 Channel: HP 00 ID: 00 Lun: Model: Direct-Access HSV210 01 Rev: ANSI SCSI revision: 02 Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 77 78 Configurazione dei server di applicazioni con ambiente non Windows 11 Uso e controllo del sistema di archiviazione Uso del sistema di archiviazione 1. Avviare un’applicazione del server. 2. Accedere alla finestra di un file system e verificare la lettera corrispondente all’unità virtuale creata. CD di ripristino del firmware Assieme al sistema EVA4400 è fornito un CD contenente il firmware XCS originale installato nell’array. Questo CD è necessario solo nell’eventualità in cui sia necessario un ripristino. Il firmware aggiornato è disponibile nella pagina Web di HP Software Depot: http://h20392.www2.hp.com/portal/swdepot/index.do Configurazione del software di monitoraggio Per installare il software dedicato all’assistenza e alla manutenzione del sistema EVA, scegliere una delle possibilità riportate di seguito. 1. Per la notifica locale via e-mail di errori/eventi dell’array e il monitoraggio remoto effettuato da HP (scelta consigliata): • Installare Instant Support Enterprisse Edition (ISEE) HP e il software di monitoraggio dei guasti di HP (WEBES) utilizzando il CD contenuto nel kit dei supporti del sistema EVA. In alternativa, è possibile scaricare la versione aggiornata dei software ISEE e WEBES accedendo ai siti Web indicati di seguito: • Per il software ISEE: http://h20219.www2.hp.com/services/cache/ 10709-0-0-225-121.aspx. Scorrere fino alla sezione Online Support Resources e selezionare Download ISEE, quindi selezionare Software Depot. • Per il software WEBES: http://h18023.www1.hp.com/support/svctools/webes/. Selezionare Download WEBES. • La combinazione di Instant Support Enterprise Edition (ISEE) HP e del software di monitoraggio dei guasti di HP (WEBES) offre funzioni proattive di controllo remoto, Guida all’installazione di HP StorageWorks 4400 Enterprise Virtual Array 79 diagnostica, analisi delle configurazioni e soluzione dei problemi per migliorare la disponibilità dei server supportati da HP e dei relativi sistemi di archiviazione nel centro dati. 2. Per la sola notifica locale via e-mail di errori/eventi dell’array: • Installare il software di monitoraggio dei guasti di HP (WEBES) a partire dal CD contenuto nel kit dei supporti del sistema EVA. In alternativa, è possibile scaricare la versione aggiornata del software WEBES accedendo al sito Web indicato di seguito: • Accedere all’indirizzo http://h18023.www1.hp.com/support/svctools/webes/. Selezionare Download WEBES. 80 Uso e controllo del sistema di archiviazione