Implementazione di livello enterprise per estrarre il massimo del

Brochure
Hadoop per ambienti
enterprise
Estrarre il massimo del valore e delle prestazioni da Apache
Hadoop scalando senza compromessi
Brochure
Pagina 2
Molte organizzazioni impegnate a isolare e realizzare il potenziale dei big data sono in cerca di
sistemi di analisi più agili e potenti. Apache Hadoop è un framework software che offre risparmi
e risultati misurabili nell’archiviazione e l’elaborazione dei dati su grandissima scala. Anche se in
molti contesti Hadoop è implementato come repository di dati per carichi applicativi semplici,
in realtà questo ambiente offre la possibilità di creare molto più valore, e di sfruttare di più e
meglio i dati sulla piattaforma, interagendo con essi per estrarre nuovi insight di rilevanza
commerciale. Ma alcune difficoltà limitano questa capacità con il risultato che buona parte
dell’opportunità resta irrealizzata. Hewlett Packard Enterprise ha sviluppato una soluzione che
risolve queste difficoltà con un’offerta robusta e flessibile che crea una base di data center a
prova di futuro capace di scalare di pari passo con l’evoluzione delle esigenze di business.
Le sfide aziendali di oggi
I dati sono il carburante che alimenta l’economia delle idee. Ma per poter sfruttare tutti i vostri
dati rilevanti occorre un nuovo tipo di motore, capace di utilizzare questo carburante offrendone
in cambio risultati superiori. Negli ultimi 10 anni Hadoop è diventato un motore e un serbatoio
di carburante essenziale, e ha radunato attorno a sé una massa critica di consensi da parte di
sviluppatori, esperti di insight e professionisti IT. Ciò nonostante, anche se per un gruppo di player
di ampie vedute Hadoop ha realizzato le sue promesse, per la maggior parte dei clienti della prima
ora l’utilizzo resta ancora per lo più limitato agli esperimenti scientifici, ai workload semplici e ai
progetti pilota. Hewlett Packard Enterprise ha esaminato le difficoltà e le opportunità presentate
da Hadoop, e può aiutare la vostra organizzazione a trasformarlo in una pietra angolare della
vostra piattaforma data-centric all’altezza dei requisiti di una grande impresa.
60%
delle prestazioni HDFS1
100%
dei vostri dati rilevanti
Analisi fino a
più veloci2
8X
SFIDE DEI CLIENTI
ESIGENZE DEI CLIENTI
Incapacità delle tecnologie esistenti di accogliere la crescita
dei dati: la maggior parte dei dati disponibili oggi è stata creata
negli ultimi due anni, spesso a partire da nuove sorgenti e tipi di
dati, e le architetture, i database e gli approcci attuali alla gestione
dei dati mostrano pesantemente la corda. Un sondaggio rivela che
secondo il 41% delle aziende intervistate i sistemi aziendali non
sono in grado di elaborare grossi volumi di dati da diverse origini.3
Un repository consolidato, scalabile e accessibile per i Big Data:
l’organizzazione ha bisogno di un luogo centralizzato tramite
Hadoop per archiviare e gestire in modo economicamente efficiente
un’ampia varietà di dati, dai dati aziendali privi della rigida struttura
dei database tradizionali, all’ampia gamma di dati strutturati,
semistrutturati e non strutturati, e di utilizzare SQL standard e anche
tool più avanzati.
Scalare Hadoop senza compromessi: le organizzazioni vogliono
sfruttare di più e meglio gli investimenti in Hadoop e poter scalare
i data lake. Ma Hadoop non ha mezzi di analisi inclusi, non esegue
l’ottimizzazione delle prestazioni per i workload complessi e manca
di meccanismi di sicurezza robusti, ciò che allargando la scala fa
aumentare anche i rischi.
Prestazioni di esecuzione, gestione, disponibilità e sicurezza dei
workload di livello enterprise: soluzioni robuste ma flessibili che
sfruttano tecnologie di infrastruttura e di analisi basate su query
ANSI SQL e che offrono risorse di elaborazione, archiviazione e
analisi in base ai casi d’uso. Sicurezza integrata con Hadoop, che
protegge i dati in fase di transito, a riposo e in uso.
Mettere correttamente a frutto il potenziale di Hadoop:
molte organizzazioni faticano a delineare i progetti e i casi d’uso
giusti che massimizzano il valore di Hadoop. Il framework di
Hadoop offre vantaggi in molti casi d’uso, ma non sempre le
organizzazioni riescono a individuare quelli giusti e a valutarne
l’impatto e il valore per il business.
Un partner che comprenda le esigenze del business e abbia
esperienza di ambienti IT eterogenei complessi: l’organizzazione
deve individuare e prioritizzare i casi d’uso di Hadoop che generano
valore dimostrato, e integrarlo con le applicazioni esistenti e con il
panorama più vasto che abbraccia analisi e BI (business intelligence).
Gli ambienti IT sono difficili e complessi, e richiedono un partner con
una profonda esperienza nella risoluzione di queste sfide.
Proposta di valore
Hewlett Packard Enterprise sa cosa ci vuole non solo per sopravvivere, ma per prosperare
nell’economia delle idee. Le idee vanno convertite in esperimenti di successo, e a seguire
in soluzioni aziendali a tutta scala. Questo processo di conversione a due stadi rispecchia
la doppia esigenza di convertire i dati in insight, e gli insight in risultati di business migliori.
Hewlett Packard Enterprise è il partner con tutte le capacità per aiutarvi a scoprire il valore dei
vostri dati. Col nostro aiuto potrete integrare Hadoop come un elemento portante nella vostra
soluzione di analisi dei big data, per creare una base data-centric capace di trasformare i dati
in insight, e quindi di trasformare questi insight in risultati di business migliori, operando alla
stessa velocità del business.
1
“HPE Big Data Reference Architecture: A Modern
Approach, 4AA5-6141ENW, ottobre 2015, Rev. 2.”
2
Studio interno di HPE.
3
“Capitalizing on the promise of Big Data,”
paper di PWC, gennaio 2013.
Brochure
Pagina 3
Competenza Hadoop: Hewlett Packard Enterprise ha ottimizzato tutti gli aspetti dell’ambiente
Hadoop per consentire ai suoi clienti di eseguire più applicazioni e consolidare più data
store in un unico sistema. Le architetture di riferimento HPE sono sviluppate per supportare
l’adattamento a nuove esigenze e consentono di scalare indipendentemente risorse di
elaborazione e di storage, spezzando la normale catena di elaborazione e archiviazione su
nodo locale di Hadoop, nonché di ottimizzare le architetture tradizionali. Queste migliorie
permettono di sfruttare al meglio YARN, Spark, Kafka, Mahout e naturalmente i moduli di base,
Hive, HBase, MapReduce e Hadoop Database File System (HDFS). Inoltre Hewlett Packard
Enterprise offre software all’avanguardia del settore che consentono di fornire funzionalità
aggiuntive oltre a quelle di Hadoop, con Vertica per SQL su Apache Hadoop, Vertica Enterprise
Edition per le analisi predittive, e una gamma di suite per controllo delle informazioni, gestione
e sicurezza dei dati che permettono di implementare capacità complete di livello enterprise.
Per quanto Hadoop abbia conquistato rapidamente un seguito come tecnologia open source
viabile nel mercato degli strumenti per big data e analisi, come per la rivoluzione digitale in
senso ampio, sono emerse una serie di difficoltà significative. Implementato su grande scala
e con meccanismi di sicurezza e affidabilità adeguati, Hadoop presenta difficoltà in termini di
estrema complessità di pianificazione, distribuzione e gestione nel lungo termine. Il mercato
al momento registra una carenza generalizzata di competenze Hadoop. Alle difficoltà poste
da questa mancanza di abilità si somma il fatto che lo stack di tecnologie Hadoop si evolve e
matura continuamente, con l’effetto di creare difficoltà e incertezze.
Hewlett Packard Enterprise ha sviluppato un’efficace metodologia in quattro passi (esplorazione,
sviluppo, integrazione e implementazione) per l’implementazione dei sistemi sofisticati di
elaborazione o analisi dei dati, con cui ha aiutato un insieme di clienti globali, di grandi e piccole
dimensioni, a ottimizzare il valore di Hadoop per produrre risultati di business superiori.
Competenze di analisi con raggio di azione globale: Hewlett Packard Enterprise implementa
soluzioni mission-critical per i suoi clienti facendo leva su una forza di oltre 3.500 esperti analisti,
con una media di 18 anni di esperienza, operanti in nove centri di eccellenza in quattro continenti.
Soluzioni integrate: la nostra ricca gamma di prodotti open standard, architetture aperte e
servizi, col supporto di competenze approfondite, vi aiuta a integrare e incassare i meccanismi
di analisi nei processi e nei workflow standard, per tradurre i dati forniti dagli insight in azioni,
senza chiudersi in soluzioni proprietarie inflessibili che col tempo limitano i risultati.
18+
anni di esperienza di analisi
SAP® HANA
HPE Vertica
per SQL su
Apache Hadoop®
HPE IDOL
HPE
Information
Governance
HPE SecureData per Apache Hadoop
Hadoop (Hortonworks, Cloudera e distribuzioni MapR)
Architetture di elaborazione e archiviazione HPE simmetriche
e asimmetriche
Opzioni di distribuzione cloud ibride e in sede
Figura 1: Panoramica della soluzione
Servizi di integrazione
HPE per Hadoop
professionisti di analisi
globali
Architettura di riferimento
per analisi Big Data
1200+
HPE Servizi di consulenza alle analisi per Hadoop
Brochure
Hadoop per ambienti enterprise
Nel settore si tende sempre più a concordare che qualunque base data-centric per l’elaborazione di ogni tipo di big data (macchina,
umani, dati di business tradizionali) nel range TB–PB includerà invariabilmente Hadoop come componente di base. HDFS offrirà il
data lake di destinazione per i dati estratti dagli attuali database schema-based, ma offrirà anche il data lake di destinazione per
una varietà di nuove origini di dati meno strutturate e più variegate, come i social media, i log macchina e altre nuove sorgenti di
big data. Utilizzando l’open source, Hewlett Packard Enterprise ha creato un Hadoop di livello enterprise.
COMPONENTI
DELLA SOLUZIONE
DESCRIZIONE
Soluzione HPE As a
Service per Hadoop
La soluzione HPE As a Service per Hadoop è costituita da una piattaforma big data open source di classe enterprise. Questa implementazione as-a-service su base cloud fornita
con un modello a consumo affianca le altre soluzioni con implementazione in hosting e in locale. La soluzione as-a-service offre ai clienti una piattaforma Hadoop configurata
residente nel cloud HPE Helion, utilizzabile senza costi iniziali elevati, né grossi rischi di implementazione, senza impegnare le risorse IT e senza “shelfware”, che vi permette
di concentrarvi solo a raggiungere gli obiettivi di business ricercati. Disponibile sotto forma di opzioni di workload multilivello, la soluzione offre la flessibilità necessaria per
adattarsi al cambiamento riducendo i rischi di obsolescenza delle tecnologie.
La soluzione HPE As a Service per Hadoop può essere espansa con l’aggiunta delle capacità di database analitico di HPE Vertica per gestire grandi data set quasi in tempo
reale, e include IDOL per l’elaborazione dei dati non strutturati di qualsiasi forma.
Servizi HPE di
I servizi HPE Analytics Consulting vi aiutano a determinare il valore dei vostri dati in ore, anziché in settimane o mesi. Insieme studieremo i componenti appropriati per la vostra
consulenza all’analisi base data-centric e come mettere in opera le analisi su questa base presso il punto di azione del vostro processo aziendale, e quindi vi aiuteremo a implementare il tutto. Con la
nostra assistenza l’organizzazione potrà determinare la combinazione ottimale con gli investimenti BI/Enterprise Data Warehouse (EDW) preesistenti, e modulare l’investimento
in tempo reale invece di dover ricorrere all’analisi in batch, con Hadoop in funzione di piattaforma di data lake e analisi.
Hadoop
Hadoop è un framework software modulare open-source di Apache per la gestione e l’analisi dei big data capace di scalare fino a petabyte di dati su hardware open standard.
Servizi di integrazione I servizi HPE Discovery and Transformation per Hadoop vi aiuteranno a sviluppare: Un approccio ambizioso, formale e strutturato, all’esplorazione e all’analisi dei dati, con una
della base
metodologia organizzata, l’utilizzo di una visualizzazione specializzata dei dati e degli strumenti di condivisione nell’ambito di una piattaforma integrata, best practice a supporto
data-centric Hadoop della sperimentazione e miglioramento delle competenze delle vostre risorse e dei metodi di collaborazione in modo economicamente efficiente.
I servizi HPE di integrazione per Hadoop vi aiutano a ottimizzare e modernizzare l’infrastruttura, e a gestire i requisiti di sistema aggiuntivi per dotare la vostra piattaforma
Hadoop di capacità di livello enterprise.
HPE IDOL 10
HPE Intelligent Data Operating Layer (IDOL) permette di usare, analizzare, interpretare e agire su volumi di informazioni umane all’ordine dei petabyte conservati nei vostri
data lake HDFS, in modo contestuale e in più lingue, da praticamente qualsiasi fonte, incluso su cloud e in locale, con 500 funzioni analitiche applicabili ai dati di testo, immagini,
audio, video, social media e strutturati presenti nei database. IDOL contiene connettori inclusi per più di 1.000 formati di file standard e 400 interfacce applicative e di database.
IDOL utilizzato con Hadoop permette di categorizzare, indicizzare e interpretare il vostro data lake.
HPE Vertica per SQL
su Apache Hadoop
HPE Vertica per SQL su Apache Hadoop offre il modo più consono per eseguire interrogazioni SQL sui vostri dati Hadoop con l’utilizzo della sintassi ANSI SQL completa sui
MapR, Hortonworks e Cloudera. HPE Vertica per SQL su Apache Hadoop offre ai vostri analisti commerciali, agli specialisti di dati e agli sviluppatori, integrazione con accesso
diretto ai vostri tool di BI tradizionali e i più avanzati strumenti di analisi e visualizzazione standard. HPE Vertica fornisce un ambiente di analisi enterprise-ready avanzato
con supporto completo per ANSI SQL, conformità Atomicity, Consistency, Isolation, Durability (ACID) , tipologie di dati complesse e altre capacità disponibili solo con la nostra
implementazione SQL su Hadoop. Funzioni di ottimizzazione quali compressione, storage su modello colonnare e proiezioni, con livelli di prestazioni molto superiori a quelli
standard di SQL su Hadoop.
Architetture di
riferimento HPE per
Hadoop
Per ridurre il rischio e ottimizzare le risorse umane, finanziarie e di data center è indispensabile supportare gli specifici casi d’uso di Hadoop con l’architettura giusta: Hive, SQL,
elaborazione Spark in-memory, streaming dati Kafka, machine learning Mahout, e così via. Per supportare l’ottimizzazione del workload per Hadoop, Hewlett Packard Enterprise
offre una moltitudine di architetture di riferimento che utilizzano diverse combinazioni di server Moonshot, HPE serie Apollo 2000 e 4000 Gen9 e ProLiant serie XL, con
requisiti di storage e elaborazione dei cluster bilanciati per le tre le distribuzioni di Hadoop: MapR, Hortonworks e Cloudera. L’architettura di riferimento Minotaur espande le
architetture di riferimento per il solo Hadoop consentendo l’integrazione di SAP HANA, HPE Vertica e HPE IDOL.
HPE Financial
Services
Per bilanciare il nuovo investimento in data lake e analitica Hadoop con le esigenze poste dalle infrastrutture e dagli ambienti preesistenti occorre una certa flessibilità
finanziaria. I finanziamenti aiutano a rispondere e ad adattarsi al cambiamento per tutta la durata del processo di implementazione, alimentano l’innovazione e consentono
di allineare i costi con l’utilizzo. In più, con i servizi HPE Asset Recovery, HPE Financial Services può aiutarvi a ridurre il rischio associato, a livello di reputazione e conformità
normativa, con lo smaltimento delle attrezzature obsolete.
HPE SecureData
HPE SecureData è un sistema di sicurezza data-centric per Hadoop che esegue la crittografia e la tokenizzazione dei dati, li deidentifica il più vicino possibile all’origine, e
trasforma gli elementi dati sensibili con equivalenti utilizzabili, ma deidentificati, che mantengono lo stesso formato, comportamento e significato. Così protetti i dati possono
essere successivamente utilizzati con applicazioni, motori di analisi, data transfer e data store, e allo stesso tempo rapidamente reidentificati in modo sicuro per le applicazioni e
gli utenti specificati. HPE SecureData consente di proteggere un numero virtualmente illimitato di tipi di dati al livello dei dati stessi.
Ottimizzate la vostra strategia di investimento
IT adottando nuove modalità per acquisire,
pagare e utilizzare le tecnologie rimanendo
strettamente allineati con i vostri obiettivi a
livello di business e trasformazione.
hpe.com/solutions/hpefinancialservices
Che altro?
Partecipate a un workshop di trasformazione. Chiedete informazioni al vostro
rappresentante HPE su come iscrivervi a un Transformation Workshop.
Per saperne di più, visita il sito
hpe.com/us/en/solutions/empower-data-driven.html
Registrati per ricevere
gli aggiornamenti
© Copyright 2016 Hewlett Packard Enterprise Development LP. Le informazioni contenute in questo documento sono soggette a
modifica senza preavviso. Le uniche garanzie per i servizi e i prodotti Hewlett Packard Enterprise sono quelle espressamente indicate
nelle dichiarazioni di garanzia che accompagnano tali prodotti e servizi. Nulla di quanto contenuto nel presente documento può essere
interpretato come estensione di tali garanzie. Hewlett Packard Enterprise declina ogni responsabilità per eventuali omissioni ed errori
tecnici o editoriali contenuti nel presente documento.
SAP è un marchio o un marchio registrato di SAP SE in Germania e in altri Paesi. Apache Hadoop e Hadoop sono marchi o marchi
registrati di Apache Software Foundation negli Stati Uniti e/o in altri paesi.
4AA6-3745ITE, maggio 2016, Rev. 2