Il nuovo
data center
“business oriented”
L’erogazione di servizi It
utili allo sviluppo del business
deve sottostare a una serie
di parametri di tempo, costo, utilizzo,
che solo un’infrastruttura con risorse
virtualizzate e pensata in una logica
di “business value” può garantire.
Analizziamo le aree fondamentali,
le soluzioni e le architetture per il buon
funzionamento dell’It
I.P.
SCENARIO
architetture e sistemi
per servizi
di valore
Fare di più con meno e meglio
di prima. Questa è la sfida dell’It
per la quale serve un profondo
ripensamento, di come le risorse
infrastrutturali sono organizzate,
utilizzate e gestite per fare ciò che
si chiede loro: erogare servizi It
in modo ottimale. Considerando
anche l’utilizzo di nuovi modelli
di fruizione come il cloud.
L’importante è dare servizi It più
flessibili, tempestivi e al costo
migliore. Coinvolgendo anche
gli utenti
per l’economia si fa sempre più forte. Fare
di più con meno e meglio di prima, questo
è l’imperativo. Si può fare? Si deve fare.
Bisogna trovare la strada. E una delle strade
possibili sta nella ridefinizione, per non dire
nel completo ripensamento, di come le risorse
Non sappiamo dire se per le
infrastrutturali sono organizzate, utilizzate e
persone che in un’impresa, o in un’organiz-
gestite per fare ciò che si chiede loro, che è
zazione qualsiasi, sono a capo dei Sistemi
appunto quello di erogare servizi It in modo
Informativi vi siano mai stati dei tempi felici.
ottimale, che oggi significa dare servizi più
Ma se mai ci sono stati, gli “happy days”
flessibili, più tempestivi e al costo migliore.
sono finiti da un pezzo, e se oggi (per modo
Che non è quello più basso, ma quello che
di dire, perché parliamo di un ‘oggi’ che
vede la spesa It rendere di più.
dura da tempo) il Cio non porta più il camice
Se guardiamo all’evoluzione del data
bianco e ha raggiunto uno status che lo
center pensando all’insieme dell’infrastruttura
pone a livello del board, è anche oggetto di
come a una piramide, vediamo che negli
pressioni che rendono la sua poltrona una
ultimi dieci anni si è avuto un progressivo
delle più scomode dell’azienda. Ai respon-
spostamento da un’infrastruttura scalabile
sabili It si chiede infatti di risolvere problemi
verso il vertice a una scalabile verso la base.
prioritari e contrastanti. Mentre i dirigenti
Vogliamo dire che si è passati da un aumento
delle linee di business chiedono risposte
della capacità di elaborazione ottenuta con-
rapide alle loro necessità, e ne hanno diritto
centrandola su mainframe o sistemi Legacy
perché nemmeno la loro vita è facile, i re-
sempre più potenti ad uno ottenuta distribuen-
sponsabili finanziari, per i quali l’It è sempre
dola su server industry standard sempre più
e comunque un costo, chiedono di ridurre
numerosi. Se questo ha portato alle aziende
le spese con una voce che in tempi difficili
utenti indubbi vantaggi economici, sia per
SCENARIO
maggior costo derivante dalla gestione dei
singoli server, e il risultato è il successo
che stanno incontrando le soluzioni
di virtualizzazione.
Costi operativi – Lo
squilibrio fra quanto viene
Ma se la virtualizzazione
mente recente, spinta dal rapido aumento
permette di aumentare
sia dei consumi sia dei costi dell’energia.
l’effettivo utilizzo delle
Oggi si può dire che l’alimentazione e il
macchine, riducendo lo
raffreddamento (si consuma più energia per
spreco in hardware, crea anche
raffreddare che non per alimentare i sistemi)
dei nuovi problemi. Diventa infatti
difficile per i system administrator impo-
siano ai primi posti nell’agenda dei data
center manager. In molti casi il consumo
speso per lo sviluppo di nuove
stare e gestire il gran numero di connessioni
è un fattore limitante primario al potenzia-
il minor investimento richiesto dall’acquisto
soluzioni e quanto viene speso sem-
che consegue all’aumento delle macchine
mento della capacità di calcolo di un data
delle macchine x86, basate su componenti
plicemente per far funzionare il data center è
virtuali e crescono anche i tempi (e costi) dello
center del quale non si possano rinnovare
standard, sia per il fatto di poter adeguare
noto: il day-by-day assorbe i tre quarti delle
staff. Questi ultimi sono dovuti alla quantità
gli impianti per il controllo dell’ambiente.
tale investimento allo sviluppo del business,
risorse. E sotto la spinta del crescente numero
di processi che vanno eseguiti manualmente
L’aumento dei consumi è strettamente inerente
comprando nuove macchine mano a mano
di server installati, i costi del personale dedi-
e al fatto di dover lavorare sulle differenti
al passaggio verso gli ambienti It distribuiti,
che se ne presenta il bisogno, ciò ha peraltro
cato alla gestione e manutenzione ordinaria,
configurazioni dei server necessarie per gestire
dato che l’energia necessaria ad alimentare
creato alla funzione It, e di conseguenza alla
cui si aggiungono quelli per l’alimentazione e
le diverse applicazioni che fanno parte di
una serie di piccoli sistemi è molto superiore
stessa impresa, non pochi problemi. Infatti,
il raffreddamento di macchine sottoutilizzate,
un processo di business. Non solo: i system
(con crescita esponenziale al numero dei
mettendo assieme decine o, nelle grandi
sono cresciuti tanto da superare gli investi-
administrator sono chiamati anche a gestire le
dispositivi alimentati) a quella richiesta da
realtà, centinaia di server fisicamente legati
menti in nuovo equipaggiamento It. Per porre
complesse integrazioni tra server, rete e sistemi
un singolo grande sistema avente la stessa
tra loro da fasci di cavi di ogni genere e
un freno a questa tendenza si cerca di ridurre
storage esterni. È chiaro come a fronte di tutto
capacità di calcolo.
funzione (per l’alimentazione, l’input/output,
i costi operativi semplificando e standardiz-
questo aumenti la domanda di soluzioni che
la connessione alle unità storage, alle periferi-
zando per quanto possibile l’infrastruttura e
permettano allo staff di automatizzare per
interventi sull’infrastruttura era rivolto al poten-
che e quant’altro ancora) si è venuto a creare
migliorando i processi di gestione. Una sfida
quanto possibile l’esecuzione dei compiti più
ziamento delle prestazioni e al miglioramento
un ambiente tanto complesso nella struttura
che l’attuale contesto economico, che vede
di routine, accelerando i processi operativi e
della disponibilità dei sistemi. I consumi
quanto rigido nelle funzionalità.
le imprese impegnate ad emergere da una
riducendone il tasso di errore, in modo che il
correlati erano visti come un problema se-
crisi i cui effetti perdurano, rende più difficile:
tempo dello staff possa essere dedicato a pro-
condario, o addirittura come una delle spese
i responsabili It non possono infatti proporre
getti innovativi e a maggior valore aggiunto.
generali, come l’illuminazione o le pulizie,
UN MODELLO
CHE FRENA L’IMPRESA
Il tempo e le risorse economiche, intese
anche come costo del lavoro, assorbite dalla
gestione dei data center così come sono
Consumo energetico – L’attenzione a
questo aspetto dell’infrastruttura è relativa-
In passato, l’obiettivo primario degli
oggi grandi piani d’investimento e devono
che ogni azienda deve mettere in conto per il
focalizzarsi su soluzioni che presentino un
solo fatto di essere in attività. Oggi l’atteggia-
ritorno nel breve termine.
mento è cambiato e i responsabili It vedono
Tempi di lavoro – La diffusione degli
Per trarre dall’infrastruttura
nell’adozione di sistemi capaci di ridurre il
il massimo valore
consumo di energia per l’alimentazione e il
strutturati nella maggioranza delle aziende,
ambienti distribuiti e scalati verso il basso di
ostacolano l’impegno dell’It verso lo sviluppo
cui si è detto, ha comportato una tendenza,
di nuovi servizi applicativi che sarebbero
facilitata anche dal sensibile miglioramen-
necessari al business, finendo quindi per
to del rapporto prezzo-prestazioni delle
manager devono poterne
frenare lo sviluppo dell’impresa, e colpiscono
macchine x86, verso infrastrutture sovradi-
utilizzare le risorse,
gestita come una business unit, o dell’intera
direttamente la stessa organizzazione It in
mensionate, in grado di garantire la capacità
elaborativa necessaria a rispondere ai picchi
di elaborazione come
organizzazione.
quattro aree fondamentali per il suo buon
funzionamento: costi operativi, tempi di lavo-
della domanda. Il modello tipico è stato, fino
ro, consumo energetico e flessibilità, intesa
a poco fa, quello di un’applicazione per
(flessibilità), ma anche
come capacità di rispondere rapidamente ai
server, con server dimensionati in funzione
a livelli differenti
altra esige un’opera di miglioramento. Non
cambiamenti. Vediamo qual è la situazione
del picco di domanda dell’applicazione
(scalabilità)
staremo qui a ripetere i motivi per cui, sotto
in tali aree e cosa si sta facendo per porvi
ospitata. La dispersione di risorse insita
la spinta dei consumatori, dei concorrenti e
rimedio.
in questo modello è intuibile, così come il
dei mercati i modelli e i processi di business
di business, i data center
di storage, in modi differenti
raffreddamento un investimento capace di
dare un ritorno immediato in termini economici, a vantaggio della funzione It, qualora sia
Flessibilità – Abbiamo lasciato per
ultima la più importante delle aree funzionali
di un data center e quella che più di ogni
SCENARIO
L’ORCHESTRAZIONE
DELLE INFRASTRUTTURE
sate per dare vantaggi in una più lunga prospettiva. Vi sono tool capaci di raccogliere
Tramite appositi strumenti software, gli
e analizzare dati relativi al livello di utilizzo
amministratori di sistema possono creare
della potenza delle Cpu, della capacità dello
diversi modelli di infrastruttura (service
storage e della larghezza di banda della
template) che descrivono i server, lo storage
rete. Tramite tali strumenti si ha una chiara
e le connessioni di rete necessarie a fornire
visione di come funziona l’infrastruttura, quali
sappiamo, sono
sono i suoi colli di bottiglia o, al contrario, le
formati da un
zone sottoutilizzate. Questo permette un’ot-
telaio che ospita un certo
timizzazione continua dell’uso delle risorse,
numero di schede, le ‘lame’ appunto,
migliorando nel tempo l’efficienza operativa
ciascuna delle quali è un vero e proprio
del data center e anche il suo rendimento
server, completo degli elementi necessari allo
economico.
svolgimento delle funzioni essenziali di elabo-
un determinato servizio It. Questo permette
di estrarre dal pool delle risorse disponibili
solo quelle volta a volta realmente
occorrenti, realizzando un coordinamento
delle risorse che ottimizza l’utilizzo
dell’intero data center. Il feedback dato dai
tool di analisi permette poi d’intervenire
nel provisioning modificandolo in funzione
delle effettive richieste applicative rilevate
RISORSE VIRTUALIZZATE
E SERVIZI CONDIVISI
Un ulteriore passo verso il nuovo data
Questi, come
Un ulteriore passo
verso il nuovo data
center consiste
razione, gestione input/output e accesso alla
nel realizzare
memoria di massa locale e a quelle esterne.
un modello di
Il numero e la disposizione degli elementi
provisioning
(processori, Ram, controller di rete e porte di
che possiamo
center consiste nel realizzare un modello di
I/O) sulla scheda può variare, ed esistono
provisioning che possiamo definire di “servizi
schede storage che si possono combinare
definire di “servizi
cambiano a un passo sempre più veloce in
nenti (server piuttosto che storage) ma estesa
del momento, andando così ad inficiare uno
condivisi” che consolida le risorse server,
con quelle server in modo da avere, in un
condivisi” che
ogni settore d’industria. Quello che conta
all’intero ambiente operativo. Ciò richiede un
degli scopi principali del consolidamento,
storage e di rete, in “bacini” (pool) di risorse
solo telaio, un sistema completo variamente
è che l’It deve rispondere con la massima
approccio al problema che presuppone una
cioè l’impiego ottimale ed economico delle
virtualizzate gestibili in modo da fornire i
configurabile.
consolida le risorse
prontezza a tali cambiamenti; addirittura,
nuova visione dell’infrastruttura e delle sue
risorse fisiche.
servizi infrastrutturali richiesti. Questi ultimi
se possibile, anticipandoli. Ciò riguarda,
funzioni.
come ovvio, anche l’infrastruttura perché non
serve sviluppare un servizio innovativo se
poi non si riesce ad erogarlo come si deve.
LE TECNOLOGIE ABILITANTI
L’approccio tradizionale alle componenti
Questa architettura realizza un sistema
server, storage e
possono essere descritti da schemi (templates)
ad alta densità e ad alta efficienza. Infatti,
di rete, in “bacini”
stesso data center coesistano ambienti fisici e
disegnati in funzione delle applicazioni busi-
mentre le blades contengono quello che
(pool) di risorse
virtuali separati, con architetture ben diverse.
ness, il che facilita un’erogazione tempestiva
serve all’elaborazione, e solo quello, è il
L’ambiente virtuale comprende un gruppo di
dei servizi nonché il migliore coordinamento
telaio a fornire alimentazione e raffreddamen-
virtualizzate
Si verifica di frequente il caso che in uno
gestibili in modo
Per trarre dall’infrastruttura il massimo valore
infrastrutturali considera sovente i server, lo
server fisici che vengono utilizzati esclusiva-
delle risorse fisiche ad essi sottostanti. Il dia-
to, nonché, a seconda dell’impiego e delle
di business, i data center manager devono
storage, i dispositivi di rete e talvolta anche i
mente per ospitare macchine virtuali, mentre
gramma di figura 1 mostra il ciclo operativo
scelte dell’utente, capacità storage esterna,
poterne utilizzare le risorse, di elaborazione
sistemi di alimentazione come entità separa-
l’ambiente fisico comprende un gruppo di ser-
di tale orchestrazione, con l’accesso dei
switch per connessioni di rete e, importante,
infrastrutturali
come di storage, in modi differenti (flessibili-
te. Sebbene questi elementi siano destinati a
ver (ovviamente anch’essi fisici) ciascuno dei
templates al pool delle risorse e il relativo
l’interfaccia per gli strumenti di gestione
richiesti.
tà), ma anche a livelli differenti (scalabilità).
funzionare insieme, sono acquistati, messi in
quali è configurato per ospitare una singola
feedback fornito dai tool di analisi di cui si è
dell’intero sistema così configurato.
Non appena una nuova applicazione viene
opera e gestiti attraverso diverse procedure e
applicazione. È chiaro come una situazione
detto verso l’amministratore di sistema.
sviluppata e testata e può andare il linea,
spesso anche da diverse persone. Questo è
del genere, che spesso è giustificata come
diventa indispensabile che l’infrastruttura
una causa di lentezza ed inefficienza nell’ero-
conseguente ad una scelta prudente d’intro-
gazione dei servizi It al business, e non è
duzione progressiva della virtualizzazione
raro che la messa in produzione di un nuovo
server richieda settimane di lavoro.
possa supportarla a crescenti livelli ad
un costo minimo. In un ambiente
non virtualizzato, dove
le configurazioni di server, storage e rete siano a
livello hardware, la cosa è
difficile e comunque costosa,
per tutti i problemi di cui si è
detto a proposito dei tempi e
costi di lavoro. La risposta è quindi
ancora la virtualizzazione, che non
deve però essere limitata a compo-
server ‘blade’.
Nel caso delle soluzioni di virtualizza-
La realizzazione di questo modello di
da fornire i servizi
L’alta densità rappresenta un evidente
vantaggio perché riduce lo spazio fisico
e dal fatto che tutti i componenti del telaio
nuovo data center, dalla virtualizzazione
necessario al data center, con conseguente
sono ridondati, e infine quella che potremmo
integrata, dalla gestione unificata e centra-
riduzione dei costi per i sistemi di condizio-
chiamare “predisposizione alla flessibilità”. A
(di solito limitata agli ambienti di sviluppo e
lizzata e dalla componentistica standardiz-
namento e antincendio dell’ambiente e per
differenza di un server tradizionale, un blade
testing) porti ad aumentare la complessità
zata e orientata alla massima efficienza in
la sicurezza degli accessi e dei locali. Ma il
può caricare sistema operativo e applica-
dell’intera infrastruttura. Si evidenzia quindi
rapporto al costo d’investimento e ai costi di
guadagno di spazio è solo uno dei punti di
zioni anche dall’esterno. Ciò ne aumenta
zione, la cui adozione è oramai largamente
l’importanza di avere strumenti capaci di
gestione, si basa, come ovvio, oltre che sulle
forza dell’architettura. Gli altri sono l’efficien-
l’availability, eliminando il rischio di un crash
diffusa, si rischia di ripetere lo stesso approc-
gestire entrambi gli ambienti da un’unica
soluzioni software di virtualizzazione e system
za energetica derivante dalla densità (costa
del disco fisso, e rende più facile installare
cio. In mancanza di una precisa politica
console.
management, su tutta una serie di tecnologie
meno raffreddare un punto piccolo e molto
un software di virtualizzazione in grado di
che definisca i requisiti e l’allocazione delle
hardware che investono, come vedremo in
caldo che uno meno caldo ma più grande), il
caricare sulle diverse blade macchine virtuali
macchine virtuali in funzione delle applica-
l’attenzione degli It manager sia rivolta, come
Ancora in tema di gestione, per quanto
dettaglio nelle pagine a seguire, sia le Cpu
minor costo delle componenti accessorie (un
aventi diversi sistemi e diverse applicazioni.
zioni e dei processi di business è probabile
si è detto, a soluzioni capaci di dare un
sia l’architettura di sistema. Quest’ultima in
alimentatore grosso costa meno e rende di
Come tutte queste capacità, ed altre ancora
che queste finiscano per proliferare in modo
ritorno economico immediato, è comunque
particolare ha fatto un salto generazionale
più di tanti alimentatori piccoli), l’affidabilità
possano essere declinate in un’unica soluzio-
incontrollato e casuale, secondo le necessità
necessario investire anche in soluzioni pen-
con l’introduzione, qualche anno fa dei
generale, data dalla riduzione dei cablaggi
ne vedremo tra breve.
Private cloud
PRIVATE CLOUD:
BEN CAPITO
DALLE IMPRESE
L’aumento dell’interesse verso la creazione di un corporate cloud
e della relativa infrastruttura è dovuto alla maggiore comprensione
che in questi due anni i responsabili It hanno potuto farsi
del modello cloud e della sua applicazione in azienda
ca una rete chiusa. Erogando quindi servizi It
sul modello del cloud computing a un limitato
numero di utenti all’interno di un perimetro
definito e protetto da firewall e secondo livelli
data center aziendali. Ed è probabile, se-
di prestazioni e availability definiti.
Di cloud computing si Ciò si può fare in due modi: chiedendo
condo Gartner, che gli investimenti in private
parla da circa un paio d’anni, che
verso infrastrutture di cloud privato sia almeno
agli eventuali service provider un accesso
cloud possano superare nei prossimi anni la
nel metabolismo accelerato con il quale vive
pari a quello verso l’acquisto di servizi cloud
su rete privata (Vpn) o implementando il
spesa per l’acquisto di servizi da parte dei
il mondo dell’It è un periodo di tempo più
esterni, se non maggiore.
modello cloud sulla intranet dell’azienda. Nel
cloud services provider. Come è possibile
primo caso si ha in sostanza, dal punto di
che alcune aziende, dopo aver creato la loro
che sufficiente a digerire concetti e parole
parte del mercato fa ritenere che l’interesse
Questa evoluzione, cioè l’aumento del-
per trasformarli in attività e business. E così
l’interesse verso la creazione di un corporate
vista dell’utente, una forma di outsourcing.
è stato: nel giugno del 2008 Gartner lanciò
cloud e della relativa infrastruttura, è dovuto
Questa si può declinare in diverse modalità
cloud’ riguarda il provider, la sua struttura,
on-demand; accesso da portale e in modalità
fornendo servizi a clienti e partner e facendo
alcune previsioni su un fenomeno del quale,
alla maggiore comprensione che in questi
a seconda che i servizi forniti riguardino
organizzazione e modello di business, ma
self-service; interfacce utente unificate e
così fruttare al meglio il loro investimento.
allora, si stava ancora cercando di dare una
due anni i responsabili It hanno potuto farsi
soluzioni software (SaaS) o si estendano alla
non l’utente, che ha tutto il diritto, come in un
browser-like. Alla base di tutto ciò sta
definizione dichiarando che entro il 2012
del modello cloud e della sua applicazione
piattaforma (Paas) o all’infrastruttura (IaaS). Il
qualsiasi contratto di outsourcing, a ricevere
un’infrastruttura altamente virtualizzata in ogni
privato non è un problema solo tecnologico.
otto su dieci delle ‘Fortune 1000’ avrebbero
in azienda. Da una parte ci si è resi conto
fatto che si possa parlare o meno di ‘servizi
un servizio in forma completamente dedicata
suo componente: server, storage e rete, la cui
Il private cloud cambia infatti la gestione dei
usufruito di servizi di cloud computing a
che i livelli di prestazioni, di disponibilità
e nel rispetto di Sla stabiliti. Nel secondo
realizzazione è il punto di partenza per ogni
processi aziendali, quando non i processi
pagamento, una su tre avrebbe realizzato
e soprattutto di sicurezza (come accessi e
caso invece l’impresa diventa nello stesso
progetto del genere.
stessi (si pensi all’effetto dirompente che può
una propria infrastruttura per il cloud e che il
come controllo sui dati aziendali), richiesti
tempo fornitrice e utente dei servizi It, ed è
peso di tali iniziative nelle strategie aziendali
per l’esecuzione delle applicazioni business
il ‘private cloud’, o ‘corporate cloud’ di cui
sarebbe stato pari a quello dell’e-business.
sono, almeno ancora allo stato attuale,
Oggi, giunti alla metà dell’arco di tempo
difficilmente compatibili con il modello, per
preconizzato, crediamo di poter dire che se
così dire, originario del cloud computing, che
queste previsioni avranno un margine d’er-
parla (come definito appunto da Gartner due
rore, questo sarà in difetto. Complice anche
anni fa) di “capacità It largamente scalabili
la crisi economica, i servizi cloud, con la
fornite come servizio attraverso l’internet a più
loro promessa di risparmio immediato, sono
utenti esterni”. Dall’altra parte, in compenso,
in accelerazione e interessano quasi tutte le
si è capito che i vantaggi di scalabilità,
imprese, e non solo le maggiori. E anche se
economicità e flessibilità d’uso insiti in tale
use; ca-
si tratta di un fenomeno più difficile da mi-
modello si potevano coniugare alle esigenze
pacità di
maggior
surare, il feedback che i vendor It hanno da
di cui si è detto sostituendo all’internet pubbli-
delivery
parte dei
La costruzione di
un ambiente cloud privato
non è un problema solo
tecnologico. Il private cloud
cloud privata, decidano di aprirla all’esterno
parliamo.
Perché un private cloud sia tale deve
avere le stesse caratteristiche del cloud
pubblico. Ossia: capacità di allo-
cambia infatti la gestione
cazione dinamica dei servizi;
dei processi aziendali,
sistema di billing (cioè
quando non i processi stessi
di attribuzione di
costi) pay-per-
Le tecnologie di virtualizzazione,
applicate a sistemi di elaborazione e storage
di intrinseca flessibilità come quelli ba-
La costruzione di un ambiente cloud
avere l’accesso self-service o l’attribuzione
dei costi in funzione dell’uso), interferendo
quindi sull’organizzazione del lavoro e delle
sati sulle architetture blade e serviti
persone. Si dovranno fare studi di fattibilità
dai processori di più recente
e adottare best practices che in buona parte
generazione, permettono
già ora d’implementare
infrastrutture adatte al
delivery di servizi
sono ancora da trovare. Dotarsi dell’infrastruttura è un problema relativamente più
semplice. Ma proprio per questo conviene
probabilmente partire proprio da lì.
cloud privati
presso la
TECNOLOGIA MATRIX
L’architettura di Matrix
HP BladeSystem Matrix
Figura 1
HP Converged Infrastructure
Pool di risorse server, storage
e di rete, con servizi condivisi
per rispondere alla flessibilità
del business. La risposta HP
con la Converged Infrastructure
e il BladeSystem Matrix
Matrix può essere facilmente incorporato
dell’infrastruttura di cui
nell’ambiente di data center management
è dotato abilitano il provisioning
dell’utente tramite i moduli Virtual Connect di
del pool delle risorse condivise
cui i telai BladeSystem sono dotati, che ne
in funzione delle richieste
permettono la connessione a qualsiasi rete
del business
Ethernet o a un cablaggio Fibre Channel
abilitato NPIV (N_Port ID Virtualization). La
piattaforma, infine, è compatibile con numerosi sistemi operativi e hypervisor.
IL PROVISIONING
DELLE RISORSE
L’architettura di Matrix e le funzionalità di
cosa importante, la flessibilità operativa ine-
gestione dell’infrastruttura di cui è dotato abili-
rente a questo modello viene ottenuta senza
tano, come si è detto all’inizio, il provisioning
rinunciare a un controllo centralizzato sull’am-
del pool delle risorse condivise in funzione
ministrazione degli asset (server, storage e
delle richieste del business. Questo avviene
rete) e dei servizi generali del data center.
costruendo, con l’ausilio di uno strumento
Il modello degli shared services viene
Se guardiamo all’evoluzione
grafico, diversi modelli di infrastruttura, com-
abilitato da HP attraverso la soluzione di
prendenti i server fisici e virtuali, lo storage,
punta della HP Converged Infrastructure
la rete e le relative connessioni. Tipicamente,
(figura 1), e cioè il BladeSystem Matrix, che
ogni modello (service template) rappresenta
permette all’It di erogare servizi infrastrutturali
tutte le risorse infrastrutturali occorrenti per
a utenti e business unit in modo programma-
gestire un dato servizio applicativo, come
bile, veloce ed efficiente a un costo ridotto.
può essere un Ucc basato su Exchange,
Vediamo com’è fatto e come funziona.
una soluzione Erp o anche un’applicazione
delle infrastrutture It dal punto di vista
L’ARCHITETTURA GENERALE
della tecnologia dei sistemi osserviamo che
Sebbene utilizzi componenti modulari
custom. I service template realizzati dagli It
designer sono quindi raccolti in una library
e presentati agli utenti aziendali. Tramite un
gli sforzi si sono fino ad oggi concentrati
industry-standard, l’HP BladeSystem Matrix
essenzialmente sulle prestazioni e sulla cosid-
integra in un’unica piattaforma Converged
provisioning, all’ottimizzazione e alla prote-
detta ‘availability’, ossia sul fatto che, grazie
Infrastructure un insieme di tecnologie proprie-
zione dell’infrastruttura. Ogni soluzione Matrix
alla qualità, al dimensionamento e alla even-
tarie che fanno parte sia dell’offerta enterpri-
viene fornita factory-integrated, cioè predispo-
se HP, con soluzioni di provata efficacia in
sta e pronta all’uso, e comprende servizi di
ambito data center, sia dell’offerta di partner
implementazione e di training on-site da parte
sfruttata da altri utenti.
portale self-service questi avanzano la richie-
tuale ridondanza dei componenti, un sistema
termini di tempo e risorse umane riconfigurarli
sia sempre disponibile a svolgere i compiti
di volta in volta per compiti diversi da quelli
necessari alla delivery dei servizi. Relati-
cui sono destinati. La prima risposta a tale
re un modello di servizi condivisi (shared
che nei loro campi di competenza (storage,
di HP. Matrix supporta tutta la gamma dei
vamente poco è stato fatto per rendere il siste-
problema sta, ovviamente, nel consolidamen-
services), che permetta di consolidare gli
networking, management e business applica-
blade server HP ProLiant e Integrity, a piena e
ma stesso flessibile riguardo lo svolgimento di
to e nella virtualizzazione dei sistemi, cosa
asset server, storage e di rete, sia fisici sia
tions) sono nomi di riferimento. Ciò permette
a mezza altezza, ed è scalabile fino a oltre
tali compiti, la cui natura cambia in funzione
che infatti quasi tutte le imprese stanno ormai
virtuali, in più insiemi di risorse virtualizzate.
di affrontare i carichi di lavoro di tutte le più
1.500 sistemi gestiti, tra macchine virtuali e
dei servizi It richiesti dal business. Il risultato
attuando. Ciò però riduce ma non elimina
Questi pool di risorse possono essere gestiti
diffuse applicazioni inserendosi perfettamente
istanze a macchine fisiche. Per lo storage, è
di tale rigidità funzionale è il proliferare, nei
del tutto il problema dell’over-provisioning,
in modo da poter servire più set di servizi
nei diversi ambienti degli utenti.
consigliato lo StorageWorks 4400 Enterprise
data center, di più sistemi dedicati ai diversi
cioè del dover predisporre più risorse It di
infrastrutturali, tipicamente mappati sui servizi
compiti; sistemi destinati inevitabilmente ad
quante occorrano, destinando a specifiche
applicativi. Lo staff It può quindi erogare in
Matrix) comprende (vedi figura 2) uno o più
ma Matrix può essere connesso a ogni HP
essere spesso sottoutilizzati (non c’è business
applicazioni, o business unit, risorse la cui
modo flessibile i servizi richiesti e ottimizzarne
telai BladeSystem c7000, con blade server e
StorageWorks, nuovo o che l’utente abbia
dove la richiesta dei servizi It non segua dei
eventuale capacità in eccesso rispetto ai
le sottostanti risorse in modo da garantire
storage condiviso dimensionati sui require-
già in casa, nonché a San Fibre Channel di
cicli temporali), essendo antieconomico in
compiti (che restano variabili) non può essere
prestazioni, efficienza e disponibilità. Inoltre,
ment dell’utente, più il software necessario al
terze parti. La console di gestione, costruita
La vera soluzione sta nell’implementa-
su HP Inside Dynamics, combina provisioning
automatizzato, capacity planning e disaster
recovery.
e le funzionalità di gestione
garantire
SERVIZI IT
“business value“
10
Il sistema
HP BladeSystem Matrix
Un BladeSystem Matrix (o semplicemente
Virtual Array, che viene integrato in fabbrica,
11
TECNOLOGIA MATRIX
Figura 2
Architettura dell’HP BladeSystem Matrix
INTERVISTA
convergeD
INFRASTRUCTURE,
soluzione che garantisce, tramite un
insieme di funzioni di rilevamento
e controllo chiamato “Thermal
Logic”, un raffreddamento efficace senza inutili sprechi
energetici ottimizzando,
TECNOLOGIA
AL LAVORO
di conseguenza, lo
stato termico e
la richiesta di
energia dell’intero
sistema. Tramite le “Active
Cool”, ventole ridondate e ad
alta efficienza termica controllate
Infrastrutture flessibili per rispondere
alle variabili di business garantendo
prestazioni ottimali
dall’Onboard Administrator, la capacità
di raffreddamento viene alzata o abbassata
automaticamente in funzione delle richieste
sta del servizio loro occorrente e il sistema
architettura sono tre: il sistema di gestione
del sistema. Lo stesso vale per gli alimentato-
business. Nella ‘Converged’, invece, viene
(assistito da funzioni di capacity planning)
incorporato, il sistema di alimentazione
ri, che vengono allocati secondo le richieste
soprattutto evidenziata una nuova tendenza
provvede al provisioning automatico delle
e raffreddamento condiviso, il sistema di
di potenza relative a ogni blade.
evolutiva, che viene ad aggiungersi a quelle
risorse infrastrutturali previste dal relativo
virtualizzazione della connettività. Vediamoli
service template estrandole dal pool delle
in breve.
risorse disponibili.
considerate in precedenza e che è prettamen-
HP Virtual Connect è un elemento fondante
di Matrix, potendo virtualizzare l’I/O dei
te tecnologica.
“I concetti sui quali si è svilup-
“Ci si è accorti – prosegue Tognon
serie di controller (Onboard Administrator
server in modo da convogliare tramite una
pata la visione della Converged
– che una serie di silos tecnologici che fino
prevede il coordinamento tra più gruppi
management) posti a livello di telaio e di pro-
stessa porta fisica connessioni a reti Ethernet
Infrastructure, che HP ha presentato
ad oggi si sviluppavano in modo parallelo,
distinti all’interno del data center o della
cessori di gestione (iLO, per Integrated Lights
o Fibre Channel. Le reti Lan e San prevedono
funzione It e richiede tipicamente settimane di
Out) posti su ogni scheda server. I controller
normalmente un indirizzamento biunivoco
lavoro, il processo di provisioning di Matrix
dell’Administrator comunicano con gli iLO
delle risorse. Se un server (o uno storage, nel
permette di dare al business le infrastrutture
rilevando i parametri relativi all’alimentazione
caso delle San) viene aggiunto, eliminato
concetto di Adaptive Infrastructure
di cui ha bisogno nel giro di poche ore o
e allo stato termico del server e alla configu-
o sostituito, cambiano gli indirizzi associati
che era stato ripreso da HP
addirittura di minuti.
razione del sistema e della rete. In pratica
e le reti connesse a quella risorsa vanno
gli iLO offrono all’Administrator una visione
riconfigurate. Il disaccoppiamento tra server
remota e virtuale di ogni singolo server
e reti introdotto da Virtual Connect permette
che permette ai controller di monitorarne le
invece di spostare volta per volta, con un clic
condizioni e intervenire sui parametri rilevati,
del mouse, ogni singola risorsa alla rete cui
ci”. Come spiega Tognon, nella ‘Adaptive’
quindi proporre anche un aspetto di fusione
sulla quale si basa Matrix, è concepita per
gestendoli in modo coordinato. L’Onboard
dev’essere connessa per assolvere ai compiti
si sottolineava soprattutto la capacità di
delle tecnologie che, per quanto non sia
rispondere in modo specifico alle esigenze
Administrator semplifica il setup del telaio e la
assegnati. E stante le funzioni di automazione
mettere a disposizione degli utenti soluzioni
ancora raggiunta sotto ogni fronte, è sempre
di gestione dei data center, incorporando
configurazione della relativa rete, attuabili da
di cui la console Matrix è dotata il risultato
infrastrutturali il più possibile standardizzate,
più vicina ad essere realizzata, grazie anche
risorse modulari di elaborazione, storage e
remoto tramite un’interfaccia grafica.
finale è la possibilità di spostare dinami-
in modo che fossero facilmente adattabili ad
alla razionalizzazione di alcuni protocolli”.
camente i carichi di lavoro da una all’altra
impieghi diversi per soddisfare sempre più
Un esempio sintomatico di questo approccio
Rispetto a un processo tradizionale, che
LA TECNOLOGIA
ABILITANTE
L’architettura dei BladeSystems classe c,
rete che realizzano una infrastruttura reattiva
12
Gestione di sistema – Si compone di una
Connettività virtuale – La tecnologia
Alimentazione e raffreddamento
l’anno scorso – esordisce Fabio Tognon,
come le architetture server, quelle storage e
HP BladeSystem Product Manager
le soluzioni software, tendevano sempre più
– rappresentano l’evoluzione del
nel periodo precedente. La
differenza tra i due modelli sta
sostanzialmente in una nuova prospettiva che ne riguarda gli aspetti tecnologi-
ad avvicinarsi”, cioè tendevano a essere integrate e integrabili tra di loro nelle funzionalità
e tecnologie di base. “Ci si è impegnati
pertanto - prosegue Tognon - a rendere i relativi prodotti sempre più integrati, portandoli
talvolta a collaborare in modo stretto tra loro.
Con la Converged Infrastructure intendiamo
ai cambiamenti imposti all’It dai bisogni del
– Alimentatori e ventole dei server sono gestiti
risorsa, senza intervento o coordinamento
critiche esigenze sul fronte del dinamismo e
è dato dalle realizzazioni in cui l’architettura
business. I componenti fondamentali di tale
in modo condiviso a livello di telaio da una
umano.
della flessibilità di risposta ai problemi del
storage va a fondersi con l’architettura server
13
INTERVISTA
Un aspetto centrale della tecnologia
intel,
il cloud
blade e quindi anche della Converged
Infrastructure è poi la gestione dell’energia
per l’alimentazione e soprattutto per il
raffreddamento delle macchine. “Questo
problema – osserva Tognon – fino a due anni
fa interessava soltanto pochi utenti ed era
indirizzato quindi da prodotti specifici. Oggi
risparmiare energia è un’esigenza di tutti e
tutto l’hardware di nuova generazione, parlo
delle Cpu come dei moduli di memoria,
realizzando soluzioni che collaborano tra
viene progettato per poter essere gestito in
loro all’interno di una stessa infrastruttura
modo da ridurre in date condizioni l’energia
come mai prima. Se in precedenza era com-
assorbita e il calore da dissipare”. Il software
pito del network far lavorare assieme queste
di gestione dei sistemi fornisce quindi un
due componenti, ora ciò avviene senza
monitoraggio istantaneo dei consumi e può
dover ricorrere ai servizi della rete.
intervenire sull’hardware in modo da ridurre
Questa evoluzione è stata facilitata
di tutta l’infrastruttura in modo da contenerlo
assegna al telaio (o ‘enclosure’) il compito di
entro margini prestabiliti a fronte degli Sla
fornire servizi tecnologici comuni alle diverse
relativi alle prestazioni.
blade (tra questi ‘in primis’ alimentazione e
Ma come è recepito dagli utenti il con-
raffreddamento) e di ospitare un networking
cetto di Converged Infrastructure?
Fabio Tognon, HP BladeSystem Product Manager
Come osserva Tognon, l’elenco dei dispositivi
realizzati in struttura e formato blade per poter essere inseriti nel telaio e fruirne i servizi è
maggior efficienza ma anche protezione
dell’investimento”.
Un importante passo avanti su questa
strada è stato fatto un anno fa con l’introduzione dei processori Xeon 5500, che tramite
“Il Cloud computing – esordisce
Andrea Toigo, Enterprise Technology Spe-
grandi imprese”.
Nella visione Intel, il cloud aziendale,
soluzioni di virtualizzazione incorporate nel
processore e in altre componenti del sistema
“C’è un’evidente sensibilizzazione
cialist di Intel – è un nome nuovo che
o cloud privato, è il risultato dell’evolu-
superano alcuni colli di bottiglia legati
– prosegue Tognon – ad alcuni temi, tra i
definisce dei concetti che non sono
zione della virtualizzazione. Questa, che
all’I/O e riducono l’overhead prestazionale
quali appunto il risparmio di energia, cui
nuovi“. In effetti, la fornitura via internet
inizialmente era soltanto uno strumento per
dovuto al software di virtualizzazione. Gli
dell’I/O facilita
oggi sia le grandi imprese sia le Pmi sono
di servizi fruibili accedendo a infrastrutture
sfruttare con maggiore efficienza infrastrutture
Xeon 5500 danno ottimi risultati: “Sosti-
molto attente”. Poi c’è molta attesa per la
remote non è una novità, ma negli ultimi anni
hardware sottoutilizzate riducendone i costi
convergenza del networking. Le aziende
il modello ha beneficiato di progressi tali,
di ownership, oggi diventa una soluzione che
hanno infatti maturato skill importanti nelle
grazie a nuove tecnologie e nuove applica-
permette di gestire in maniera dinamica tut-
notevolmente, oltre alla
tuendo macchine single-core di quattro
o cinque anni fa con server basati
enormemente cresciuto negli ultimi tempi. Da
gestione delle risorse
un paio d’anni in qua la collaborazione tra i
storage di cui si è detto,
reti Ethernet e Fibre Channel, che sono
zioni, per cui, sia per le dimensioni raggiunte
to l’ambiente delegato all’erogazione
anche lo spostamento
spesso gestite da team dedicati. Convergere
sia per le opportunità che presenta in chiave
dei servizi It al business. E, come
su un network unico e virtualizzato semplifica
di business, il cloud computing è diventato un
intuibile, l’attenzione di Intel
i problemi, ma significa anche affrontare dei
tema di primo piano nell’agenda degli utenti
si rivolge proprio alle
to ridotto a soli otto
cambiamenti organizzativi nella gestione
come dei fornitori It.
tecnologie hardware
mesi”. La nuova
dispositivi, e in particolare tra blade server e
storage, è facilitata da Virtual Connect, una
tecnologia esclusiva di HP che virtualizza
dinamico sulle macchine
l’accesso allo storage rendendo disponibile
fisiche dei carichi di
al server dispositivi aventi caratteristiche diver-
lavoro svolti dalle
se in modo da estendere la flessibilità d’uso
applicazioni risiedenti
dell’intero sistema. ““La piu’ recente versione
di Virtual Connect, associata al software HP
sulle macchine virtuali
Insight Dynamics – aggiunge Tognon –, vir-
delle risorse umane.
“Possiamo fondamentalmente identificare
– prosegue Toigo – tre tipi di cloud. Un primo
zazione delle infrastrutture It:
tipo rientra nel modello classico dell’outsour-
“Lavoriamo – spiega Toigo – per
mentare rapidamente nuovi servizi al business
cing: l’azienda commissiona all’esterno dei
far sì che l’evoluzione della virtua-
senza problemi di compatibilità e di riconfigu-
servizi e purché questi siano regolarmente
Un terzo punto d’interesse riguarda
razione delle risorse hardware. “E HP, con
forniti non importa come ciò avvenga. Un
dell’I/O infatti facilita notevolmente, oltre alla
Matrix – osserva Tognon – va a rispondere
secondo tipo, del quale oggi si parla molto,
parte dell’utente del server fisico (uno degli
gestione delle risorse storage di cui si è detto,
proprio a questo tipo di esigenza, mettendo
è il software-as-a-service: accedo al sito di un
elementi chiave della soluzione HP BladeSy-
anche lo spostamento dinamico sulle mac-
a disposizione un’infrastruttura flessibile con
dato fornitore ed uso le soluzioni che questo
stem Matrix). Ciò sposa bene il paradigma
chine fisiche dei carichi di lavoro svolti dalle
pool di risorse destinabili, tramite il software
rende disponibili, a me come ad altri, con
della virtualizzazione, che è uno dei punti
applicazioni risiedenti sulle macchine virtuali.
di Orchestration, all’erogazione di nuovi
tutte le garanzie di sicurezza del caso. Un
fondamentali della Converged Infrastructure e
Una possibilità di cui traggono vantaggio i
servizi in tempi molto più brevi che lavoran-
terzo tipo, infine è il cloud aziendale. Ed è
nei confronti della quale possiamo parlare di
fornitori dei software di virtualizzazione per
do sul ‘bare metal’, cioè su macchine da
questo terzo modello quello che secondo noi
una tecnologia abilitante”. La virtualizzazione
ottimizzare le prestazioni dei loro prodotti.
inizializzare”.
è più interessante, soprattutto per le medie e
sul nuovo chip si può arrivare a
un rapporto di consolidamento
di nove a uno, con un
payback dell’investimen-
che facilitano la virtualiz-
infine, come è intuibile, la possibilità d’imple-
rende sempre più lontana l’individuazione da
tualizza l’I/O delle macchine a un livello che
14
lizzazione all’interno dell’azienda garantisca
La virtualizzazione
tra le blade server e quelle storage. Che non
sono peraltro nemmeno le uniche ospitate.
Soltanto con processori e architetture
di livello è possibile dare al cloud
quella robustezza e qualità di servizio
che le aziende ricercano
sprechi e dispersioni, ottimizzando il consumo
e accelerata dall’architettura blade, che
che fa da vero e proprio tessuto connettivo
nel PROCESSORE
15
SOLUZIONI
facilmente intuire, essendo il guadagno di efficienza globale di un’infrastruttura il prodotto,
più che la somma, dei guadagni sui singoli
componenti, i vantaggi in termini di efficienza
famiglia Xeon 7500 estende le
sono maggiormente percepibili nelle realtà
“Un’osservazione che vorrei fare in tema
prestazioni di questa architettura a
di grandi dimensioni. Che non a caso sono
generale di cloud computing – aggiunge
processori che possono arrivare
appunto quelle che per prime hanno avviato
infatti Toigo – è che questo modello è sicura-
progetti di consolidamento e virtualizzazione
mente di grande impatto anche nelle medie
mette di realizzare macchine
e che vengono viste dagli analisti come il
e piccole imprese. Mi riferisco in questo
di fascia alta in grado di
primo e più naturale bacino di utenza del
caso non al cloud privato, ma a quello di
offrire una maggiore espandibilità
private cloud. Ma non è affatto detto che
fino a otto ‘core’. Questo per-
e supportare un maggior volume di
memoria. Potendo indirizzare fino a un
virtualizzazione e private cloud non
portino sensibili vantaggi anche
Terabyte di Ram all’interno di una singola
applicate a realtà di minori
macchina, si può virtualizzare, o come dice
dimensioni.
fonte esterna (non importa se in forma di
outsourcing piuttosto che di servizi forniti
INFRASTRUTTURE
“INTEL INSIDE”
Efficienza energetica, virtualizzazione, prestazione e gestione.
Tutti aspetti che investono le infrastrutture cloud oriented. Con un “cuore” Intel
via internet), tramite il quale un’azienda può migliorare la propria
efficienza informatica, e non
solo, senza dover necessariamente fare investimenti
in infrastruttura e,
cosa più importante,
senza doversi procurare
competenze tecnologiche difficili
da trovare. In altre parole, il cloud
computing permette a una Pmi di focalizzarsi sulle competenze che sono al cuore del
suo business e nello stesso tempo di fruire di
tutti i vantaggi che l’innovazione tecnologica
le può dare”.
Occorre però superare problemi di
conoscenza e cultura: “Tanto per cominciare
– dice Toigo – bisognerebbe chiarire, in
Toigo con un’efficace immagine “portare nel
Andrea Toigo, Enterprise Technology Specialist di Intel
cloud”, l’intero database di un’azienda o un
completo ambiente Erp.
L’innovazione portata dalla virtualizzazione e dal cloud interno, che ne è la
il cloud aziendale,
ri: in primo luogo nello sviluppo di processori
Sul fronte dell’efficienza energetica, della
meno superfluo: da sempre protagoni-
in grado di rispondere al meglio ai requisiti
virtualizzazione e delle prestazioni delle Cpu,
bisognerebbe che fossero recepiti i legami
sta nell’evoluzione dell’It, la società ha una
di efficienza energetica e capacità di virtua-
la grande svolta si è avuta nel marzo 2009
tra il servizio offerto e la tecnologia, anche
posizione primaria non solo nel campo dei
lizzazione richiesti dalle infrastrutture cloud; in
con l’introduzione della prima famiglia di pro-
hardware, sottostante. Se questa è traspa-
microprocessori e dei semiconduttori in gene-
secondo luogo per lo sviluppo di soluzioni di
cessori basati sull’architettura Nehalem (dal
rente al fruitore del servizio, non lo è affatto,
re, ma con altre grandi aziende tecnologiche
ottimizzazione a livello di piattaforme e data
nome in codice del progetto che Intel aveva
come ovvio, per il fornitore, e la fattibilità
e consorzi industriali, anche nel campo degli
center in grado di potenziarne l’efficienza
in via di sviluppo sin dal 2001), cioè la serie
di un progetto di cloud privato passa per il
standard e dei modelli d’impiego di tecnolo-
nell’erogare servizi cloud e di ridurne il
Xeon 5500, che oggi equipaggia quasi tutta
rinnovamento ed efficientamento del data
gie rivolte al mondo consumer come a quello
costo di ownership totale, comprensivo cioè
l’offerta server x86 ‘quad core’ e alla quale
conseguenza e lo sviluppo, si esplica in vari
o cloud privato, è il
aspetti, ma soprattutto, secondo Toigo, nella
risultato dell’evoluzione
center. Di ciò le aziende diventano consa-
enterprise. L’attenzione di Intel per il cloud
dell’ammortamento del capitale investito e dei
si è recentemente aggiunta la serie 5600 (sei
della virtualizzazione.
pevoli quando, in fase di virtualizzazione,
computing si focalizza in due aree particola-
costi delle operazioni.
‘core) di cui diremo più avanti.
direzione di una maggiore efficienza generale dei servizi It e quindi dell’azienda stessa:
“Prima di tutto perché ho un unico metodo
Questa inizialmente era
Le serie Xeon 5500 e 5600 indirizzano
si tratta di far convivere macchine fisiche di
diversa generazione. “Noi diamo un aiuto in
il mercato dei server dual socket general-
di gestione delle macchine, e poi perché
soltanto uno strumento
avendo macchine virtuali posso aggiungere
per sfruttare con
gration, una tecnologia incorporata nei nostri
L’attività di Intel sulle tecnologie abilitanti
molto facilmente nuove risorse quando ne ho
maggiore efficienza
processori che permette la migrazione di una
il cloud computing si estende oltre lo sviluppo
mondo tecnico-scientifico. Un settore ampio
infrastrutture hardware
macchina virtuale da un server fisico a un
dei processori, indirizzando l’ottimizzazione
e differenziato, per affrontare il quale sono
bisogno. Allo stesso modo posso ottimizzare
i consumi di energia, riducendo il numero
delle macchine in uso quando non ho grandi
esigenze di elaborazione”. Come si può
16
Nella visione Intel,
Presentare Intel è quanto
generale, cosa si intende per cloud”. E poi
sottoutilizzate...
tal senso – conclude Toigo – tramite Flex Mi-
altro e consente quindi l’impiego di hardware
prodotto dal 2001 a oggi”. Dando nuovo
valore agli investimenti pregressi.
di piattaforme e data center con soluzioni che
comprendono prodotti hardware e software
purpose, dei sistemi HPc (High Performance Computing) e delle workstation per il
offerti numerosi processori ottimizzati per
diversi impieghi e applicazioni. Le soluzioni
che caratterizzano questi processori di nuova
17
gestire le macchine virtuali con un aumento
di più del doppio delle prestazioni e una
riduzione del 40% il tempo di latenza rispetto
ai precedenti Xeon 5400, mentre una quarta,
VT FlexMigration, abilita l’estensione del pool
delle risorse fisiche disponibili alle macchigenerazione sono le tecnologie Turbo Boost
ne virtuali ai server Intel-based di vecchia
e Hyper-Threading, che ne gestiscono la
generazione.
potenza; il sistema Power Gate, che ne
Recentemente la famiglia dei processori
controlla il consumo, e le varie funzioni che
Xeon è stata oggetto di due importanti an-
ne potenziano le prestazioni negli ambienti
nunci. Il primo in ordine di tempo, e al quale
virtuali. Turbo Boost innalza temporaneamen-
abbiamo già accennato, è il lancio della
te il clock dei processori sia agendo su tutti i
serie 5600, che affianca alla serie 5500
Recentemente la famiglia dei processori Xeon è stata
oggetto di due importanti annunci: questi, oltre
ad essere i primi costruiti con la tecnologia di processo
a 32 nanometri, supportano fino a sei core per
processore e offrono nuove caratteristiche di sicurezza
‘core’ sia su una parte di
di cui si è detto un gruppo di nuovi chip
accelerandone drasticamente l’accesso e
essi; è quindi una tec-
presentati un mese fa. Questi, oltre ad essere
l’uso da parte delle macchine virtuali ospitate
nologia in grado
i primi costruiti con la tecnologia di processo
sul server così equipaggiato.
di sopperire in
modo flessibile a picchi
Come si è detto, l’attività di Intel sulle
per processore e offrono nuove caratteristiche
tecnologie abilitanti il cloud computing si
di sicurezza: Intel AES-NI e Intel TXT, che
estende oltre lo sviluppo dei processori,
elaborativi. L’Hyper-
velocizzano le operazioni di crittografia e di
indirizzando l’ottimizzazione di piattaforme e
Threading abilita invece
decrittazione, aumentando la sicurezza delle
data center con soluzioni che comprendono
transazioni senza penalizzare le prestazio-
prodotti hardware e software. Per esempio,
ni. Il secondo, e più importante annuncio,
Intel ha investito nel perfezionamento delle
avvenuto pochi giorni fa, riguarda il lancio di
tecnologie di programmazione parallela,
Quanto al Power Gate, agisce su entrambi i
un’intera nuova serie la 7500. La serie 7500
sviluppando software e firmware che permet-
processori di un server dual-socket riducendo
rappresenta l’ultima evoluzione dell’archi-
tono ai cloud services provider di sfruttare al
a valori minimi il consumo degli ‘idle core’,
tettura Nehalem e viene presentata come il
meglio le capacità multi-core e multi-threading
quelli che non stanno lavorando, e agisce
maggior salto prestazionale nella storia dei
delle sue nuove famiglie di Cpu. Un altro
inoltre su memoria e I/O controller, riducen-
processori Xeon. È stata innovata l’architettura
importante campo di applicazione riguarda il
done il consumo al minimo compatibile con il
dei processori e della piattaforma e sono
consumo energetico a livello data center. Qui
carico di lavoro in atto. Nel complesso, può
stati introdotti nuovi sottosistemi di gestione
Intel ha sviluppato soluzioni come il Dynamic
ridurre del 50% il consumo d’energia rispetto
della memoria e dell’I/O e nuove funzioni di
Power Node Manager e il Dynamic Power
a un server con chip di precedente genera-
sicurezza e recovery. Il risultato è una fami-
Data Center Manager, che controllano,
zione. Molto interessanti infine, per quanto
glia di nuovi processori a otto core in grado
rispettivamente, l’alimentazione dei sistemi
riguarda le infrastrutture a supporto del cloud
di erogare prestazioni fino a quasi 4 volte
in modo da ridurre, a parità di prestazioni,
l’esecuzione simultanea di due
thread per core potenziando l’elaborazione parallela in ambiente HPC.
18
a 32 nanometri, supportano fino a sei core
computing, sono le soluzioni di virtualizza-
superiori rispetto alla precedente generazione
l’assorbimento di energia, e l’applicazione
zione. Tre, Intel VT-x, VT-c e VT-d, agendo sui
e, soprattutto, di gestire una grande quantità
delle policy di gestione energetica generali
processori, sulla connettività e sulla gestione
di memoria: fino a un Terabyte di Ram ciascu-
ai singoli server.
dell’I/O rispettivamente permettono (secondo
no. Questo permette di caricare in memoria
benchmark VMmark e misure interne Intel) di
interi database o ambienti transazionali,
testi a cura di
Giampiero Carli Ballola
Next Editore srl
Corso Vercelli, 51
20144 Milano
www.zerounoweb.it
progetto grafico
Blu GraphicDesign
blugraphicdesign.com
stampa
Tipolitografia Pagani srl
Lumezzane (BS)
19
HAPPY PROLIANT
20 ANNI DI
INNOVAZIONE
Negli ultimi venti anni la tecnologia è diventata parte integrante della vita quotidiana di ognuno di noi,
cambiando in modo radicale il nostro modo di lavorare, comunicare e accedere alle informazioni.
È in questo contesto dinamico e grazie alle continue innovazioni e agli investimenti che la famiglia server
HP ProLiant è cresciuta, si è evoluta e si è adattata, diventando il prodotto di riferimento del mercato x86.
Oggi, dopo venti anni, la tradizione di innovazione, afdabilità e convenienza continua con il server HP ProLiant DL380 G6,
con processore Intel® Xeon® serie 5500.
SERVER HP PROLIANT DL380 G6
•
•
•
•
processore Intel® Xeon® serie 5500
fino a 192GB di memoria DDR3
Serial Attached SCSI (SAS)
controller RAID Smart Array P410i integrati
Per maggiori informazioni contatta il tuo rivenditore HP o visita il sito hp.com/it/happyproliant
© Copyright 2010 Hewlett-Packard Development Company, L.P. Intel e Xeon sono marchi o marchi registrati di Intel Corporation o di società controllate a Intel negli Stati Uniti e in altri paesi.