Brochure Hadoop per ambienti enterprise Estrarre il massimo del valore e delle prestazioni da Apache Hadoop scalando senza compromessi Brochure Pagina 2 Molte organizzazioni impegnate a isolare e realizzare il potenziale dei big data sono in cerca di sistemi di analisi più agili e potenti. Apache Hadoop è un framework software che offre risparmi e risultati misurabili nell’archiviazione e l’elaborazione dei dati su grandissima scala. Anche se in molti contesti Hadoop è implementato come repository di dati per carichi applicativi semplici, in realtà questo ambiente offre la possibilità di creare molto più valore, e di sfruttare di più e meglio i dati sulla piattaforma, interagendo con essi per estrarre nuovi insight di rilevanza commerciale. Ma alcune difficoltà limitano questa capacità con il risultato che buona parte dell’opportunità resta irrealizzata. Hewlett Packard Enterprise ha sviluppato una soluzione che risolve queste difficoltà con un’offerta robusta e flessibile che crea una base di data center a prova di futuro capace di scalare di pari passo con l’evoluzione delle esigenze di business. Le sfide aziendali di oggi I dati sono il carburante che alimenta l’economia delle idee. Ma per poter sfruttare tutti i vostri dati rilevanti occorre un nuovo tipo di motore, capace di utilizzare questo carburante offrendone in cambio risultati superiori. Negli ultimi 10 anni Hadoop è diventato un motore e un serbatoio di carburante essenziale, e ha radunato attorno a sé una massa critica di consensi da parte di sviluppatori, esperti di insight e professionisti IT. Ciò nonostante, anche se per un gruppo di player di ampie vedute Hadoop ha realizzato le sue promesse, per la maggior parte dei clienti della prima ora l’utilizzo resta ancora per lo più limitato agli esperimenti scientifici, ai workload semplici e ai progetti pilota. Hewlett Packard Enterprise ha esaminato le difficoltà e le opportunità presentate da Hadoop, e può aiutare la vostra organizzazione a trasformarlo in una pietra angolare della vostra piattaforma data-centric all’altezza dei requisiti di una grande impresa. 60% delle prestazioni HDFS1 100% dei vostri dati rilevanti Analisi fino a più veloci2 8X SFIDE DEI CLIENTI ESIGENZE DEI CLIENTI Incapacità delle tecnologie esistenti di accogliere la crescita dei dati: la maggior parte dei dati disponibili oggi è stata creata negli ultimi due anni, spesso a partire da nuove sorgenti e tipi di dati, e le architetture, i database e gli approcci attuali alla gestione dei dati mostrano pesantemente la corda. Un sondaggio rivela che secondo il 41% delle aziende intervistate i sistemi aziendali non sono in grado di elaborare grossi volumi di dati da diverse origini.3 Un repository consolidato, scalabile e accessibile per i Big Data: l’organizzazione ha bisogno di un luogo centralizzato tramite Hadoop per archiviare e gestire in modo economicamente efficiente un’ampia varietà di dati, dai dati aziendali privi della rigida struttura dei database tradizionali, all’ampia gamma di dati strutturati, semistrutturati e non strutturati, e di utilizzare SQL standard e anche tool più avanzati. Scalare Hadoop senza compromessi: le organizzazioni vogliono sfruttare di più e meglio gli investimenti in Hadoop e poter scalare i data lake. Ma Hadoop non ha mezzi di analisi inclusi, non esegue l’ottimizzazione delle prestazioni per i workload complessi e manca di meccanismi di sicurezza robusti, ciò che allargando la scala fa aumentare anche i rischi. Prestazioni di esecuzione, gestione, disponibilità e sicurezza dei workload di livello enterprise: soluzioni robuste ma flessibili che sfruttano tecnologie di infrastruttura e di analisi basate su query ANSI SQL e che offrono risorse di elaborazione, archiviazione e analisi in base ai casi d’uso. Sicurezza integrata con Hadoop, che protegge i dati in fase di transito, a riposo e in uso. Mettere correttamente a frutto il potenziale di Hadoop: molte organizzazioni faticano a delineare i progetti e i casi d’uso giusti che massimizzano il valore di Hadoop. Il framework di Hadoop offre vantaggi in molti casi d’uso, ma non sempre le organizzazioni riescono a individuare quelli giusti e a valutarne l’impatto e il valore per il business. Un partner che comprenda le esigenze del business e abbia esperienza di ambienti IT eterogenei complessi: l’organizzazione deve individuare e prioritizzare i casi d’uso di Hadoop che generano valore dimostrato, e integrarlo con le applicazioni esistenti e con il panorama più vasto che abbraccia analisi e BI (business intelligence). Gli ambienti IT sono difficili e complessi, e richiedono un partner con una profonda esperienza nella risoluzione di queste sfide. Proposta di valore Hewlett Packard Enterprise sa cosa ci vuole non solo per sopravvivere, ma per prosperare nell’economia delle idee. Le idee vanno convertite in esperimenti di successo, e a seguire in soluzioni aziendali a tutta scala. Questo processo di conversione a due stadi rispecchia la doppia esigenza di convertire i dati in insight, e gli insight in risultati di business migliori. Hewlett Packard Enterprise è il partner con tutte le capacità per aiutarvi a scoprire il valore dei vostri dati. Col nostro aiuto potrete integrare Hadoop come un elemento portante nella vostra soluzione di analisi dei big data, per creare una base data-centric capace di trasformare i dati in insight, e quindi di trasformare questi insight in risultati di business migliori, operando alla stessa velocità del business. 1 “HPE Big Data Reference Architecture: A Modern Approach, 4AA5-6141ENW, ottobre 2015, Rev. 2.” 2 Studio interno di HPE. 3 “Capitalizing on the promise of Big Data,” paper di PWC, gennaio 2013. Brochure Pagina 3 Competenza Hadoop: Hewlett Packard Enterprise ha ottimizzato tutti gli aspetti dell’ambiente Hadoop per consentire ai suoi clienti di eseguire più applicazioni e consolidare più data store in un unico sistema. Le architetture di riferimento HPE sono sviluppate per supportare l’adattamento a nuove esigenze e consentono di scalare indipendentemente risorse di elaborazione e di storage, spezzando la normale catena di elaborazione e archiviazione su nodo locale di Hadoop, nonché di ottimizzare le architetture tradizionali. Queste migliorie permettono di sfruttare al meglio YARN, Spark, Kafka, Mahout e naturalmente i moduli di base, Hive, HBase, MapReduce e Hadoop Database File System (HDFS). Inoltre Hewlett Packard Enterprise offre software all’avanguardia del settore che consentono di fornire funzionalità aggiuntive oltre a quelle di Hadoop, con Vertica per SQL su Apache Hadoop, Vertica Enterprise Edition per le analisi predittive, e una gamma di suite per controllo delle informazioni, gestione e sicurezza dei dati che permettono di implementare capacità complete di livello enterprise. Per quanto Hadoop abbia conquistato rapidamente un seguito come tecnologia open source viabile nel mercato degli strumenti per big data e analisi, come per la rivoluzione digitale in senso ampio, sono emerse una serie di difficoltà significative. Implementato su grande scala e con meccanismi di sicurezza e affidabilità adeguati, Hadoop presenta difficoltà in termini di estrema complessità di pianificazione, distribuzione e gestione nel lungo termine. Il mercato al momento registra una carenza generalizzata di competenze Hadoop. Alle difficoltà poste da questa mancanza di abilità si somma il fatto che lo stack di tecnologie Hadoop si evolve e matura continuamente, con l’effetto di creare difficoltà e incertezze. Hewlett Packard Enterprise ha sviluppato un’efficace metodologia in quattro passi (esplorazione, sviluppo, integrazione e implementazione) per l’implementazione dei sistemi sofisticati di elaborazione o analisi dei dati, con cui ha aiutato un insieme di clienti globali, di grandi e piccole dimensioni, a ottimizzare il valore di Hadoop per produrre risultati di business superiori. Competenze di analisi con raggio di azione globale: Hewlett Packard Enterprise implementa soluzioni mission-critical per i suoi clienti facendo leva su una forza di oltre 3.500 esperti analisti, con una media di 18 anni di esperienza, operanti in nove centri di eccellenza in quattro continenti. Soluzioni integrate: la nostra ricca gamma di prodotti open standard, architetture aperte e servizi, col supporto di competenze approfondite, vi aiuta a integrare e incassare i meccanismi di analisi nei processi e nei workflow standard, per tradurre i dati forniti dagli insight in azioni, senza chiudersi in soluzioni proprietarie inflessibili che col tempo limitano i risultati. 18+ anni di esperienza di analisi SAP® HANA HPE Vertica per SQL su Apache Hadoop® HPE IDOL HPE Information Governance HPE SecureData per Apache Hadoop Hadoop (Hortonworks, Cloudera e distribuzioni MapR) Architetture di elaborazione e archiviazione HPE simmetriche e asimmetriche Opzioni di distribuzione cloud ibride e in sede Figura 1: Panoramica della soluzione Servizi di integrazione HPE per Hadoop professionisti di analisi globali Architettura di riferimento per analisi Big Data 1200+ HPE Servizi di consulenza alle analisi per Hadoop Brochure Hadoop per ambienti enterprise Nel settore si tende sempre più a concordare che qualunque base data-centric per l’elaborazione di ogni tipo di big data (macchina, umani, dati di business tradizionali) nel range TB–PB includerà invariabilmente Hadoop come componente di base. HDFS offrirà il data lake di destinazione per i dati estratti dagli attuali database schema-based, ma offrirà anche il data lake di destinazione per una varietà di nuove origini di dati meno strutturate e più variegate, come i social media, i log macchina e altre nuove sorgenti di big data. Utilizzando l’open source, Hewlett Packard Enterprise ha creato un Hadoop di livello enterprise. COMPONENTI DELLA SOLUZIONE DESCRIZIONE Soluzione HPE As a Service per Hadoop La soluzione HPE As a Service per Hadoop è costituita da una piattaforma big data open source di classe enterprise. Questa implementazione as-a-service su base cloud fornita con un modello a consumo affianca le altre soluzioni con implementazione in hosting e in locale. La soluzione as-a-service offre ai clienti una piattaforma Hadoop configurata residente nel cloud HPE Helion, utilizzabile senza costi iniziali elevati, né grossi rischi di implementazione, senza impegnare le risorse IT e senza “shelfware”, che vi permette di concentrarvi solo a raggiungere gli obiettivi di business ricercati. Disponibile sotto forma di opzioni di workload multilivello, la soluzione offre la flessibilità necessaria per adattarsi al cambiamento riducendo i rischi di obsolescenza delle tecnologie. La soluzione HPE As a Service per Hadoop può essere espansa con l’aggiunta delle capacità di database analitico di HPE Vertica per gestire grandi data set quasi in tempo reale, e include IDOL per l’elaborazione dei dati non strutturati di qualsiasi forma. Servizi HPE di I servizi HPE Analytics Consulting vi aiutano a determinare il valore dei vostri dati in ore, anziché in settimane o mesi. Insieme studieremo i componenti appropriati per la vostra consulenza all’analisi base data-centric e come mettere in opera le analisi su questa base presso il punto di azione del vostro processo aziendale, e quindi vi aiuteremo a implementare il tutto. Con la nostra assistenza l’organizzazione potrà determinare la combinazione ottimale con gli investimenti BI/Enterprise Data Warehouse (EDW) preesistenti, e modulare l’investimento in tempo reale invece di dover ricorrere all’analisi in batch, con Hadoop in funzione di piattaforma di data lake e analisi. Hadoop Hadoop è un framework software modulare open-source di Apache per la gestione e l’analisi dei big data capace di scalare fino a petabyte di dati su hardware open standard. Servizi di integrazione I servizi HPE Discovery and Transformation per Hadoop vi aiuteranno a sviluppare: Un approccio ambizioso, formale e strutturato, all’esplorazione e all’analisi dei dati, con una della base metodologia organizzata, l’utilizzo di una visualizzazione specializzata dei dati e degli strumenti di condivisione nell’ambito di una piattaforma integrata, best practice a supporto data-centric Hadoop della sperimentazione e miglioramento delle competenze delle vostre risorse e dei metodi di collaborazione in modo economicamente efficiente. I servizi HPE di integrazione per Hadoop vi aiutano a ottimizzare e modernizzare l’infrastruttura, e a gestire i requisiti di sistema aggiuntivi per dotare la vostra piattaforma Hadoop di capacità di livello enterprise. HPE IDOL 10 HPE Intelligent Data Operating Layer (IDOL) permette di usare, analizzare, interpretare e agire su volumi di informazioni umane all’ordine dei petabyte conservati nei vostri data lake HDFS, in modo contestuale e in più lingue, da praticamente qualsiasi fonte, incluso su cloud e in locale, con 500 funzioni analitiche applicabili ai dati di testo, immagini, audio, video, social media e strutturati presenti nei database. IDOL contiene connettori inclusi per più di 1.000 formati di file standard e 400 interfacce applicative e di database. IDOL utilizzato con Hadoop permette di categorizzare, indicizzare e interpretare il vostro data lake. HPE Vertica per SQL su Apache Hadoop HPE Vertica per SQL su Apache Hadoop offre il modo più consono per eseguire interrogazioni SQL sui vostri dati Hadoop con l’utilizzo della sintassi ANSI SQL completa sui MapR, Hortonworks e Cloudera. HPE Vertica per SQL su Apache Hadoop offre ai vostri analisti commerciali, agli specialisti di dati e agli sviluppatori, integrazione con accesso diretto ai vostri tool di BI tradizionali e i più avanzati strumenti di analisi e visualizzazione standard. HPE Vertica fornisce un ambiente di analisi enterprise-ready avanzato con supporto completo per ANSI SQL, conformità Atomicity, Consistency, Isolation, Durability (ACID) , tipologie di dati complesse e altre capacità disponibili solo con la nostra implementazione SQL su Hadoop. Funzioni di ottimizzazione quali compressione, storage su modello colonnare e proiezioni, con livelli di prestazioni molto superiori a quelli standard di SQL su Hadoop. Architetture di riferimento HPE per Hadoop Per ridurre il rischio e ottimizzare le risorse umane, finanziarie e di data center è indispensabile supportare gli specifici casi d’uso di Hadoop con l’architettura giusta: Hive, SQL, elaborazione Spark in-memory, streaming dati Kafka, machine learning Mahout, e così via. Per supportare l’ottimizzazione del workload per Hadoop, Hewlett Packard Enterprise offre una moltitudine di architetture di riferimento che utilizzano diverse combinazioni di server Moonshot, HPE serie Apollo 2000 e 4000 Gen9 e ProLiant serie XL, con requisiti di storage e elaborazione dei cluster bilanciati per le tre le distribuzioni di Hadoop: MapR, Hortonworks e Cloudera. L’architettura di riferimento Minotaur espande le architetture di riferimento per il solo Hadoop consentendo l’integrazione di SAP HANA, HPE Vertica e HPE IDOL. HPE Financial Services Per bilanciare il nuovo investimento in data lake e analitica Hadoop con le esigenze poste dalle infrastrutture e dagli ambienti preesistenti occorre una certa flessibilità finanziaria. I finanziamenti aiutano a rispondere e ad adattarsi al cambiamento per tutta la durata del processo di implementazione, alimentano l’innovazione e consentono di allineare i costi con l’utilizzo. In più, con i servizi HPE Asset Recovery, HPE Financial Services può aiutarvi a ridurre il rischio associato, a livello di reputazione e conformità normativa, con lo smaltimento delle attrezzature obsolete. HPE SecureData HPE SecureData è un sistema di sicurezza data-centric per Hadoop che esegue la crittografia e la tokenizzazione dei dati, li deidentifica il più vicino possibile all’origine, e trasforma gli elementi dati sensibili con equivalenti utilizzabili, ma deidentificati, che mantengono lo stesso formato, comportamento e significato. Così protetti i dati possono essere successivamente utilizzati con applicazioni, motori di analisi, data transfer e data store, e allo stesso tempo rapidamente reidentificati in modo sicuro per le applicazioni e gli utenti specificati. HPE SecureData consente di proteggere un numero virtualmente illimitato di tipi di dati al livello dei dati stessi. Ottimizzate la vostra strategia di investimento IT adottando nuove modalità per acquisire, pagare e utilizzare le tecnologie rimanendo strettamente allineati con i vostri obiettivi a livello di business e trasformazione. hpe.com/solutions/hpefinancialservices Che altro? Partecipate a un workshop di trasformazione. Chiedete informazioni al vostro rappresentante HPE su come iscrivervi a un Transformation Workshop. Per saperne di più, visita il sito hpe.com/us/en/solutions/empower-data-driven.html Registrati per ricevere gli aggiornamenti © Copyright 2016 Hewlett Packard Enterprise Development LP. Le informazioni contenute in questo documento sono soggette a modifica senza preavviso. Le uniche garanzie per i servizi e i prodotti Hewlett Packard Enterprise sono quelle espressamente indicate nelle dichiarazioni di garanzia che accompagnano tali prodotti e servizi. Nulla di quanto contenuto nel presente documento può essere interpretato come estensione di tali garanzie. Hewlett Packard Enterprise declina ogni responsabilità per eventuali omissioni ed errori tecnici o editoriali contenuti nel presente documento. SAP è un marchio o un marchio registrato di SAP SE in Germania e in altri Paesi. Apache Hadoop e Hadoop sono marchi o marchi registrati di Apache Software Foundation negli Stati Uniti e/o in altri paesi. 4AA6-3745ITE, maggio 2016, Rev. 2