ANALITICA DEI BIG DATA Il vantaggio competitivo derivante dal connubio tra Big Data e funzionalità di analisi avanzate P rosp ett i va E M C SOMMARIO Ritorno al futuro: l'avvento dei Big Data 1 COGLIERE L'OPPORTUNITÀ DI BUSINESS OFFERTA DALL'"ANALITICA DI BIG DATA" 1 Punto 1: PIATTAFORMA DI COMPUTING AGILE 2 DATA WAREHOUSING "AGILE" 2 ANALITICA E DATA WAREHOUSE INTEGRATI 2 Punto 2: SCALABILITÀ LINEARE 3 Trasformazione dell'ETL in un processo di arricchimento dei dati 3 Supporto di carichi di lavoro a estrema variabilità in termini di query e analisi 3 ANALIZZARE DATASET GRANULARI E DI NOTEVOLI DIMENSIONI (BIG DATA) 4 4 PROCESSI DECISIONALI E ACCESSO AI DATI A BASSA LATENZA PUNTO 3: ESPERIENZA UTENTE PERVASIVA, DIFFUSA E COLLABORATIVA 5 ESPERIENZA UTENTE INTUITIVA E PERVASIVA 5 SFRUTTAMENTO DELLA NATURA COLLABORATIVA 5 REALIZZAZIONE DI NUOVE APPLICAZIONI AZIENDALI 5 APPLICAZIONI BASATE SU ATTRIBUZIONI 5 APPLICAZIONI BASATE SU SUGGERIMENTI 6 APPLICAZIONI BASATE SU PREDIZIONI/PREVISIONI 6 APPLICAZIONI BASATE SU APPROFONDIMENTI 7 APPLICAZIONI BASATE SU BENCHMARK 7 RIFLESSIONI CONCLUSIVE 7 INFORMAZIONI SULL'AUTORE 8 RITORNO AL FUTURO: L'AVVENTO DEI BIG DATA Durante gli anni '70 e i primi anni '80, produttori e rivenditori di prodotti confezionati (CPG, Consumer Package Goods) utilizzavano i report bimestrali di AC Nielsen per gestire le proprie attività. Questi report contenevano i dati sul mercato e sulla concorrenza (ad esempio entrate, unità vendute, prezzo medio e quota di mercato) che i produttori CPG utilizzavano per definire strategie, spese e piani pubblicitari, promozionali, di vendita e marketing con i propri partner di canale (ad esempio distributori, grossisti e rivenditori). Successivamente, a metà degli anni '80, Information Resources Inc. (IRI) ha iniziato a offrire l'installazione gratuita di scanner POS (point-of-sale) presso i punti vendita in cambio dei dati di scansione residui. I rivenditori accolsero di buon grado la proposta sia perché il personale era il fattore che incideva in maggior misura sui costi, sia perché l'utilità dei dati degli scanner POS non era ancora del tutto chiara. I dati degli scanner POS, all'epoca considerati "Big Data", mutarono radicalmente i rapporti di forza (tra produttori e rivenditori) nel settore e il modo in cui tanto i produttori quanto i rivenditori gestivano le proprie attività. L'improvvisa esplosione del volume di dati (da megabyte a terabyte) rese necessario lo sviluppo di una nuova generazione di piattaforme di storage e server (ad esempio Teradata, Red Brick, Sybase IQ, Sun e Sequent) e di strumenti di analisi (quali Metaphor, Business Objects, Informatica e MicroStrategy). Nuove categorie di applicazioni aziendali basate su analitica • Previsioni basate sulla domanda •Ottimizzazione della supply chain •Efficacia delle spese commerciali •Analisi del paniere di mercato •Gestione delle categorie e merchandising •Ottimizzazione del rapporto prezzo/ rendimento •Gestione del ribasso dei prezzi del merchandising • Programmi di fidelizzazione dei clienti Aziende all'avanguardia come Wal-Mart, Procter & Gamble, Tesco e Frito Lay fecero leva sulla novità rappresentata dai "Big Data" e sui nuovi strumenti e piattaforme di analisi per assicurarsi un vantaggio competitivo. Queste aziende erano in prima linea nel campo dello sviluppo di nuove categorie di Big Data e di applicazioni basate sull'analisi per far fronte a problemi aziendali che, sino ad allora, non era stato possibile affrontare in modo efficiente ed economico (vedere il riquadro a sinistra). Da allora sono trascorsi 30 anni e lo scenario sembra ripetersi. La crescita esponenziale di nuove origini di dati granulari a bassa latenza ("Big Data") racchiude in sé il potenziale per cambiare il modus operandi di organizzazioni e settori. Queste nuove origini di dati vengono generate da una miriade di dispositivi, interazioni con i clienti e attività aziendali che mettono in luce nuovi aspetti, finora incompresi, delle catene del valore di settori e organizzazioni. L'avvento di queste nuove e più dettagliate origini di dati consentirà alle organizzazioni di rispondere a opportunità di business che, in precedenza, non erano in grado di cogliere, portando alla creazione di nuove famiglie di applicazioni aziendali. Tuttavia, affinché queste previsioni diventino realtà, è necessario che emergano nuove piattaforme (infrastrutture) e nuovi strumenti (analitica). Questo white paper delinea il ruolo che possono assumere le nuove piattaforme e discute i tipi di applicazioni aziendali basate su analisi e sullo sfruttamento di Big Data che potranno emergere in futuro. COGLIERE L'OPPORTUNITÀ DI BUSINESS OFFERTA DALL'"ANALITICA DI BIG DATA" I Big Data richiedono una nuova piattaforma di analisi che consenta alle aziende e alle tecnologie di conquistare un vantaggio competitivo. A tal fine è necessaria una nuova infrastruttura tecnologica che (a) offra una scalabilità estremamente elevata fino a PB di dati, (b) supporti processi decisionali e accesso ai dati a bassa latenza e (c) sia dotata di analitica integrata per accelerare la generazione di modelli di analisi avanzata e i processi operativi. La capacità di scalare la potenza di elaborazione per applicarla a dataset di ingenti dimensioni consente di identificare in maniera continua le informazioni celate all'interno dei Big Data e su cui basare interventi concreti, oltre a permettere l'integrazione ottimale di tali informazioni nell'ambiente di lavoro dell'utente, ovunque esso sia. Questa nuova piattaforma analitica può liberare le organizzazioni dai vecchi vincoli della generazione di report retrospettivi, offrendo a un ampio spettro di utenti analisi predittive e orientate al futuro e migliorando i processi decisionali a ogni livello dell'organizzazione. 1 PUNTO 1: PIATTAFORMA DI COMPUTING AGILE L'agilità è resa possibile da architetture di analisi e data warehousing riconfigurabili e ad alta flessibilità. Le risorse analitiche possono essere riconfigurate e reimplementate rapidamente per rispondere alla continua evoluzione delle esigenze di business, raggiungendo nuovi livelli di flessibilità e agilità analitica. Data warehousing "agile" La nuova piattaforma di analisi consente lo sviluppo di data warehouse non più soggetti ai vincoli che gravano sugli odierni ambienti IT. Al giorno d'oggi, le organizzazioni sono costrette ad adottare tecniche di progettazione innaturali e strumenti di generazione di report poco sofisticati, utilizzando tecnologie di database obsolete per estrarre informazioni significative da origini di dati in rapida crescita. Di pari passo con la continua espansione dei volumi di dati e all'approdo online di nuove origini di dati, le organizzazioni acquisiscono consapevolezza del fatto che le architetture, le soluzioni e gli strumenti attuali sono troppo costosi, lenti e poco flessibili per supportare le iniziative strategiche di business. Si consideri l'impatto della pre-generazione degli aggregati. In genere si ricorre agli aggregati1 per sopperire ai limiti della potenza di elaborazione dei tradizionali sistemi di gestione di database relazionali (RDBMS, Relational Database Management System) per il trattamento di più tabelle e le scansioni di tabelle di notevoli dimensioni. Un database administrator (DBA) calcola in anticipo gli aggregati più comuni nel corso della preparazione dei dati per accelerare prestazioni specifiche e di generazione di report. La mole di dati memorizzata nelle tabelle di aggregati raggiunge dimensioni di gran lunga superiori rispetto a quelle dei dati raw. Tale è il tempo necessario per la pre-generazione degli aggregati che a risentirne sono gli SLA (Service Level Agreement). La possibilità di sfruttare "flussi continui" di dati mirata alla "generazione di report operativi in tempo reale" è una chimera se si considera il tempo necessario per ricostruire le tabelle di aggregati ogni volta che nel data warehouse "affluiscono" nuovi dati. L'eliminazione di queste limitazioni consente di realizzare un ambiente di data warehouse agile, flessibile, reattivo e idoneo alle esigenze dell'azienda, ricorrendo alle seguenti funzionalità: •Aggregazione on-demand: non è necessario pre-generare gli aggregati per accelerare i tempi di risposta a query e report. È disponibile una potenza di elaborazione sufficiente per creare gli aggregati in tempo reale, eliminando la restrizione rappresentata dalla costante rigenerazione degli aggregati ogni volta che nuovi dati affluiscono nel data warehouse. •Indipendenza dagli indici: i DBA non devono più ricorrere a una rigida indicizzazione, né devono più preoccuparsi di conoscere in anticipo le domande che gli utenti porranno per creare gli indici a supporto di tali domande. Gli utenti possono porre domande dettagliate e di livello superiore sul business senza preoccuparsi dei problemi prestazionali. •Generazione immediata di KPI (Key Performance Indicator): gli utenti aziendali possono definire, generare e sottoporre a test nuovi KPI derivati (e compositi) senza affidare ai DBA il compito di calcolarli in anticipo. •Strutture gerarchiche flessibili ad hoc: non è necessario definire anticipatamente le gerarchie dimensionali quando si crea il data warehouse. Ad esempio, nel corso di un'analisi di intelligence di mercato, le organizzazioni possono sfruttare la flessibilità di cambiare le aziende rispetto alle quali sono sottoposte a benchmark. Analitica e data warehouse integrati Tradizionalmente data warehouse e analitica risiedono in ambienti distinti. Il trasferimento di dati dal data warehouse all'ambiente di analisi richiede un processo ETL (Extract/Transform/Load) in cui i dati vengono selezionati, filtrati, aggregati, pre-elaborati, riformattati e, infine, trasferiti nell'ambiente analitico. All'interno dell'ambiente analitico gli analisti di dati iniziano a creare, sottoporre a test e affinare modelli e algoritmi analitici. Se nel corso di questa operazione gli analisti ritengono di dover disporre di dati diversi e/o più granulari, sono costretti a ripetere l'intero processo ETL del data warehouse. Questa operazione può prolungare il processo analitico di giorni, se non addirittura di settimane. 1 Gli aggregati sono riepiloghi gerarchici o dimensionali dei fatti calcolati in anticipo (misure o metriche), in genere definiti dall'istruzione SQL "Group By". Ad esempio, nella dimensione Geography, è possibile generare aggregati di tutti i fatti (tra cui vendite, entrate, margini in dollari, margini percentuali e utili) per paese, regione, stato, città, provincia e codice postale. 2 L'integrazione di data warehouse e analitica in un unico ambiente, con funzionalità di analisi interne ai database, libera gli analisti dall'obbligo di abbandonare il data warehouse per eseguire le analisi. È possibile trasferire tra gli ambienti di data warehouse e analisi dataset di elevate dimensioni ad altissime velocità di trasferimento (da 5 a 10 TB/ora). Ciò accelera in misura significativa il processo di analisi e semplifica la reintegrazione dei risultati analitici nell'ambiente di data warehouse e business intelligence. Un ambiente in cui data warehouse e analitica sono integrati supporta, ad esempio, i seguenti tipi di analisi: •Segmentazione secondaria e streaming di dataset di ingenti dimensioni tra l'ambiente di data warehouse e l'ambiente di analisi per creare "ambienti analitici isolati" per ricerca e discovery. •Interrogazione di dataset di notevoli dimensioni al più basso livello di granularità per portare alla luce attività, tendenze e comportamenti "insoliti" e generare informazioni su cui basare interventi concreti e i suggerimenti corrispondenti. •Accelerazione di sviluppo e test di diversi scenari di business per semplificare l'analisi "what-if", l'analisi della sensibilità dei dati e l'analisi dei rischi. L'integrazione di questi vantaggi nelle attività quotidiane avrebbe una valore inestimabile. Per ottenere una conferma, è sufficiente rivolgersi a un responsabile della distribuzione che desidera che il sistema metta in evidenza i potenziali problemi di performance dei vendor in relazione al deterioramento dei servizi misurato in termini di consegne in orario e percentuale di consegne completate. PUNTO 2: SCALABILITÀ LINEARE La possibilità di usufruire di una potenza di elaborazione straordinariamente elevata consente di affrontare i problemi aziendali in maniera del tutto nuova. Prendiamo in esame alcuni esempi che illustrano i possibili effetti sul business di un'elevata scalabilità di elaborazione. Trasformazione dell'ETL in un processo di arricchimento dei dati L'obiettivo principale dell'ETL consiste nel correggere gli errori provocati dai sistemi di origine; estrazione, traduzione, pulizia, creazione di profili, normalizzazione e allineamento di tutti i dati per far sì che le analisi degli utenti confrontino tra loro dati di tipologie omogenee. Grazie alla potenza di elaborazione disponibile per l'ETL e all'availability dei nuovi linguaggi di elaborazione quali Hadoop, è possibile trasformare il processo ETL tradizionale in un processo di arricchimento dei dati. È possibile generare nuove metriche significative tra cui: •Ordinamento o sequenze delle attività: identificazione della sequenza di attività che precedono un evento specifico. Ad esempio, determinare che in genere un utente contatta il call center due volte dopo aver cercato assistenza sul sito web prima che il problema venga risolto. •Conteggi di frequenza: quantificare il numero di volte in cui si verifica un determinato evento in uno specifico intervallo. Ad esempio, individuare il prodotto che ha generato x chiamate di assistenza nei primi 90 giorni di utilizzo. •N-tile: raggruppamento di elementi (ad esempio prodotti, eventi, clienti e partner) in zone in base a una o più metriche specifiche. Ad esempio, tenere traccia del primo terzile (il primo 10%) di clienti in base a entrate o margini su un periodo di tre mesi consecutivi. •"Panieri" comportamentali: creazione di "panieri" di attività, incluse frequenza e ordinamento, che precedono una vendita o un evento di "conversione" per determinare le combinazioni di strategie di mercato più efficaci e proficue. Supporto di carichi di lavoro a estrema variabilità in termini di query e analisi Prevedere i tipi di query e analisi che un azienda potrebbe voler realizzare in base alle condizioni del mercato più aggiornate è un'operazione estremamente complessa. Il listino prezzi o le iniziative promozionali di un concorrente possono richiedere analisi immediate per comprendere meglio le conseguenze sulla propria azienda in termini finanziari e di business. Le analisi più significative comportano carichi di lavoro estremamente variabili e difficili da prevedere a priori. 3 Sinora le organizzazioni si sono dovute accontentare di analisi poco esaustive "a fatto compiuto" e non disponevano della potenza di elaborazione necessaria per approfondire le analisi in contemporanea agli eventi ,né per analizzare le diverse variabili e permutazioni che potevano rappresentare il motore del business. Le nuove piattaforme consentono invece di far fronte a picchi improvvisi e di breve durata dei carichi di lavoro analitici che richiedono una notevole potenza di elaborazione. In termini concreti questa funzionalità si manifesta agli utenti aziendali nei seguenti modi: •Prestazioni e scalabilità: agilità che consente un'analisi approfondita dei dati e permette di porre le domande di secondo e terzo livello a supporto dei processi decisionali. Se gli utenti aziendali desiderano esaminare i dati nei minimi dettagli per individuare le variabili che fungono da motore del business, non devono temere di provocare il blocco completo del sistema se analizzano una mole ingente eccessiva di dati. •Agilità: supporto dello sviluppo rapido, dell'esecuzione di test e del perfezionamento dei modelli analitici, al fine di facilitare le previsioni sulle prestazioni aziendali. Gli analisti dei dati possono esaminare le diverse variabili relative alle prestazioni aziendali, imparare dai risultati e applicarli all'iterazione successiva del modello. Inoltre, possono adottare un approccio "fail fast" per individuare gli errori delle analisi, senza temerne le conseguenze sulle prestazioni di sistema. Analizzare dataset granulari e di notevoli dimensioni (Big Data) Tra i vantaggi più significativi del cloud vi sono la mole e il livello di dati dettagliati applicabili all'analisi e alla modellazione degli elementi propulsori del business. Il cloud racchiude non solo il potenziale per usufruire di una potenza di elaborazione più efficace e on-demand, ma anche l'accesso a funzionalità di storage più efficienti ed economiche. Anziché essere costretta ad adattarsi ai dati, l'azienda può ampliare l'analisi facendo leva su ogni aspetto dei dati come descritto di seguito: •Possibilità di eseguire analisi multidimensionali fino all'ennesimo grado. L'azienda non è costretta a prendere in esame solo tre o quattro dimensioni, ma può analizzarne centinaia, se non addirittura migliaia, per affinare e localizzare le prestazioni. Questo livello di analisi multidimensionale permette all'azienda di individuare i fattori trainanti del business per posizione geografica specifica (città o codice postale), prodotto (livello UPC o SKU), produttore, promozione, prezzo, ora del giorno o giorno della settimana e via dicendo. Un simile livello di granularità si traduce in un netto miglioramento delle prestazioni dell'azienda a livello locale. •L'individuazione di un numero sufficiente di piccole "gemme nascoste" nel volume di dati equivale a vantaggi concreti per il business. La piattaforma permette di far fronte a due sfide chiave delle analisi localizzate: la prima consiste nel rilevare i fattori trainanti del business a livello locale o specifico; la seconda consiste nell'individuarne un numero sufficiente per apportare vantaggi tangibili al business. Processi decisionali e accesso ai dati a bassa latenza Poiché non è necessaria una fase di intensa preparazione dei dati (rispetto alla pre-generazione degli aggregati e al calcolo in anticipo delle metriche), la latenza tra l'istante in cui i dati vengono generati e quello in cui sono a disposizione dell'azienda si riduce in misura notevole. La capacità di stringere i tempi tra la creazione e la disponibilità dei dati significa che il concetto di analisi operativa è divenuto realtà nei modi descritti di seguito: •Fare leva sull'afflusso costante dei dati (flussi continui) per usufruire di analitica e generazione di report operativi a bassa latenza. L'intervallo che intercorre tra un evento aziendale (quale la compravendita di titoli) e la decisione di acquisto o vendita si riduce drasticamente. L'impatto dei processi decisionali a bassa latenza è chiaramente visibile nel peso crescente del trading algoritmico a Wall Street3. •L'accesso ai dati a bassa latenza rende possibili processi decisionali "tempestivi" al volo. Per esempio, i responsabili delle campagne online possono ridistribuire i budget tra i siti con le migliori prestazioni e/o conversioni e le combinazioni di parole chiave, a campagna ancora in corso. 4 PUNTO 3: ESPERIENZA UTENTE PERVASIVA, DIFFUSA E COLLABORATIVA Gli utenti aziendali non hanno alcuna necessità di altri dati, grafici e opzioni per la generazione di report, a prescindere dall'eleganza della presentazione. Al contrario, sono alla ricerca di una soluzione che utilizzi al meglio l'analitica per individuare e rendere disponibili informazioni tangibili su cui basare interventi concreti sul business. Esperienza utente intuitiva e pervasiva L'abbinamento tra dati dettagliati e potenza analitica estremamente elevata si traduce in un interessante vantaggio: interfacce più semplici e intuitive. Come è possibile? Prendiamo in esame la relazione tra iPod e iTunes. L'interfaccia minimalista dell'iPod è una delle ragioni del suo successo tra i clienti e della sua quota di mercato dominante. Apple ha trasferito la maggior parte delle attività complesse per l'utente (ad esempio la gestione delle sequenze di brani, l'aggiunta di nuovi brani e la generazione di suggerimenti sull'utilizzo della funzionalità Genius) dall'iPod a iTunes, dove possono essere gestite in maniera più efficace. Lo stesso concetto può essere applicato per migliorare l'esperienza utente in ambito analitico. •L'analitica può essere utilizzata al meglio per realizzare le attività di analisi più gravose "dietro le quinte". Anziché presentare report, grafici e fogli di calcolo sempre più complessi, è possibile sviluppare un'interfaccia più intuitiva per offrire agli utenti le informazioni necessarie per una conoscenza approfondita del business. •Sulla base delle informazioni estratte dai dati, l'esperienza dell'utente può fornire specifiche azioni consigliate (analogamente a quanto accade con la funzionalità Genius di iTunes). La complessità associata all'individuazione di suggerimenti rilevanti su cui basare interventi concreti è a carico dell'analitica. È possibile, ad esempio, prevedere un'interfaccia del programma di gestione di una campagna che estrae dalla miriade di variabili che influenzano le prestazioni della campagna soltanto quelle tangibili e che possono dar luogo ad azioni concrete. L'interfaccia utente potrebbe presentare non soltanto queste variabili, ma anche suggerimenti per migliorare le prestazioni della campagna in corso. Un'esperienza del genere sarebbe accolta molto favorevolmente dalla maggior parte degli utenti. Sfruttamento della natura collaborativa La collaborazione è parte integrante dei processi decisionali e di analisi. Piccole community di utenti con interessi simili possono nascere rapidamente e condividere quanto appreso in merito a temi specifici. Ad esempio, i brand manager di una grande azienda di prodotti confezionati possono creare una community in cui condividere ed esaminare facilmente dati, informazioni e approfondimenti sulla gestione del marchio. Le campagne di marketing efficaci per un marchio possono essere copiate e ampliate più rapidamente da altri marchi se si condividono i dati e le analisi risultanti. Realizzazione di nuove applicazioni aziendali Per apprezzare il potenziale di questa nuova piattaforma "analitica", vale la pena porsi la seguente domanda: quali problemi aziendali, sinora non risolvibili, possono essere affrontati dalle aziende facendo leva sulla potenza di elaborazione on-demand, sui dataset granulari, sull'accesso ai dati a bassa latenza e sulla stretta integrazione tra data warehouse e analitica? Prendiamo in esame alcune applicazioni aziendali rese possibili su queste nuove piattaforme dall'analitica, in particolare se abbinata ai Big Data. Applicazioni basate su attribuzioni Le applicazioni basate su attribuzioni mirano ad attribuire "credito" per un particolare evento a una serie di attività o transazioni in un processo complesso e a più fasi. Queste applicazioni devono recuperare, allineare e analizzare le serie di attività, prendendo in considerazione fattori quali frequenza, sequenza, attualità, soglie e perdita di efficacia nel tempo trascorso tra le attività, al fine di accreditare un valore a ciascuna attività. Ecco alcuni esempi di applicazioni basate su attribuzioni: Nell'ambito dei mercati finanziari elettronici, il trading algoritmico consiste nell'utilizzo di programmi informatici per l'immissione di ordini di trading. È l'algoritmo a prendere le decisioni relative a vari aspetti dell'ordine, tra cui tempistica, prezzo o quantità. In molti casi l'algoritmo avvia l'ordine senza alcun intervento da parte dell'operatore. 2 5 •Applicazioni per l'efficacia del marketing multicanale, grazie alle quali gli esperti del settore tentano di attribuire credito per una vendita su più canali di marketing. Si tratta di un aspetto particolarmente rilevante per gli esperti di marketing online che tentano di attribuire credito per una conversione rispetto a vari annunci pubblicitari visualizzati, siti web e ricerche tramite parole chiave. •Applicazioni di attribuzione relative ai partner, grazie alle quali le società commerciali tentano di quantificare il contributo dei vari partner in transazioni aziendali complesse e a più fasi. •Applicazioni di attribuzione relative al trattamento medico, grazie alle quali le organizzazioni di assistenza sanitaria tentano di valutare l'incidenza di varie cure e medicinali sull'esito della terapia. Applicazioni basate su suggerimenti Le applicazioni basate su suggerimenti individuano e generano serie di utenti e prodotti simili in base a comportamenti, dati demografici o altri attributi percepibili. Le applicazioni analizzano le transazioni associate a questi set per generare tendenze che quantificano la forza delle relazioni tra gli utenti e i rispettivi comportamenti e preferenze. A partire dalle tendenze rilevate, le applicazioni riescono quindi a fornire suggerimenti su prodotti (come nel caso di Amazon e Netflix) o persone (come accade con LinkedIn e Facebook). Ecco alcuni esempi di applicazioni basate su suggerimenti: •Applicazioni per l'individuazione di pubblicità mirate ai clienti che suggeriscono segmenti di audience di riferimento "simili" in base a comportamenti e prodotti acquistati in passato (ad esempio campagne efficaci nel caso delle "mamme onnipresenti" hanno un'alta probabilità di andare a segno anche con le "nuove nonne"). •Applicazioni per suggerimenti sui prodotti che consigliano prodotti complementari sulla base degli acquisti effettuati da utenti simili in un determinato periodo di tempo (ad esempio è probabile che chi ha acquistato una nuova casa in una certa zona comprerà anche una nuova lavasciuga entro tre mesi dall'acquisto della casa). Applicazioni basate su predizioni/previsioni Le applicazioni basate su predizioni e previsioni acquisiscono un'ampia gamma di variabili, metriche e dimensioni, a supporto dei processi decisionali in svariati scenari di mercato. Queste applicazioni utilizzano al meglio le tecniche statistiche e di data mining per estrarre dalla moltitudine di variabili solo le variabili (o combinazioni di variabili) più efficaci per prevedere le prestazioni in particolari situazioni. Considerato l'orizzonte temporale di alcune di queste decisioni (come quelle sui prezzi), l'accesso ai dati a bassa latenza e le funzionalità di analisi interne ai database sono essenziali per il successo. Le applicazioni predittive avanzate integrano valutazioni su rischi e dati sensibili, affinché i responsabili delle decisioni possano determinare le variabili più importanti nel processo decisionale. Ad esempio, se si ritiene che una certa variabile sia cruciale per una decisione, è possibile investire maggiori risorse per assicurarsi che tale variabile venga valutata in modo preciso e completo. Ecco alcuni esempi di applicazioni basate su predizioni/previsioni: •Applicazioni per il calcolo del tasso di abbandono dei clienti che prevedono la possibilità di contrasti con questi ultimi in base a fattori come attività di utilizzo, richieste di supporto, andamento dei pagamenti e influenza sociale degli amici. •Applicazioni per la manutenzione dei prodotti che prevedono guasti delle apparecchiature in base a informazioni sull'utilizzo dei prodotti (in particolare le informazioni attualmente fornite dai dispositivi dati integrati), record degli interventi di manutenzione e informazioni generali sulle prestazioni. •Applicazioni relative alle prestazioni dei dipendenti che prevedono le prestazioni di un potenziale collaboratore in base a fattori quali formazione, posizione socio-economica, ruoli professionali precedenti, stato civile e determinate risposte psico-comportamentali. •Applicazioni relative alle prestazioni degli studi clinici che modellano i risultati di vari medicinali in base alla sperimentazione clinica, consentendo a un'azienda di comprendere l'efficacia di determinate terapie ed evitare conseguenze catastrofiche in caso di utilizzo congiunto di particolari farmaci. Ciò assume un'importanza ancora maggiore quando si tenta di attribuire i risultati per più trattamenti e medicinali (vedere applicazioni basate su attribuzioni). 6 •Applicazioni per la gestione del rendimento, del ribasso dei prezzi e del merchandising e per l'ottimizzazione dei prezzi, in grado di creare modelli dipendenti dal tempo utilizzati dai responsabili delle decisioni per comprendere come e quando aumentare o ridurre i prezzi tenendo conto delle condizioni attuali della domanda e dell'offerta. Questi tipi di applicazioni sono particolarmente comuni nel caso dei prodotti di base (quali merci deperibili, biglietti aerei, camere di alberghi, capi di abbigliamento e biglietti per eventi sportivi), il cui valore si azzera in un determinato momento. Applicazioni basate su approfondimenti Le applicazioni basate su approfondimenti fanno leva su tecniche statistiche e di data mining per identificare situazioni o comportamenti "insoliti". Le applicazioni avanzate basate su approfondimenti sono in grado di eseguire analisi complesse in un intervallo variabile da centinaia a migliaia di dimensioni di business. La crescente importanza di queste applicazioni è legata al volume in continuo aumento dei dati dettagliati provenienti da fonti quali clic nelle pagine web, sensori RFID e appliance in rete. Ecco alcuni esempi di applicazioni basate su approfondimenti: •Applicazioni relative alla riduzione e alla distribuzione dei prodotti che monitorano costantemente sensori e dati RFID per individuare discrepanze tra la posizione del prodotto ipotetica e reale. •Applicazioni contro le frodi che monitorano costantemente le transazioni finanziarie per individuare comportamenti "insoliti", che possono essere indice di attività fraudolente. Applicazioni di questo tipo risultano utili per le carte di credito, i conti correnti e le richieste assicurative e di assistenza medica. •Applicazioni antiriciclaggio che monitorano costantemente il flusso di contante per individuare comportamenti "insoliti" associati a potenziali attività di riciclaggio, ad esempio un numero eccessivo di transazioni di scarso valore realizzate in contanti. Applicazioni basate su benchmark Le applicazioni basate su benchmark utilizzano al meglio l'analitica che confronta le prestazioni di un'entità rispetto a una baseline. La baseline di confronto può essere uno standard di settore, un periodo o un evento precedente (ad esempio una campagna di marketing). Ecco alcuni esempi di applicazioni basate su benchmark: •Applicazioni relative alle quote di mercato che forniscono dati su quote di mercato e di portafoglio. Ad esempio, le aziende che creano siti web possono fornire dati e analisi sugli investimenti pubblicitari ("share of voice"), per consentire a inserzionisti e agenzie di confrontare le spese sostenute nel campo del marketing con quelle della concorrenza. •Applicazioni basate su benchmark competitivo che mettono a confronto le prestazioni di un'azienda con un aggregato di concorrenti o con la media del settore. Ciò mette a disposizione delle aziende una baseline per confrontare le rispettive prestazioni finanziarie o di mercato. •Applicazioni basate sul benchmark che confrontano le prestazioni di una campagna di marketing in corso con quelle di una campagna o evento di marketing precedente e/o simile. Ad esempio, un'azienda potrebbe voler confrontare le prestazioni della campagna "promozione di ferragosto" in corso con quelle dell'identica campagna dell'anno prima. Gli utenti potrebbero voler tenere traccia della percentuale di vendite totali per ogni giornata della campagna e confrontare quotidianamente le aree e i prodotti con le prestazioni migliori e peggiori. RIFLESSIONI CONCLUSIVE Queste nuove piattaforme a scalabilità estremamente elevata mutano radicalmente lo scenario dell'analitica, introducendo funzionalità innovative. Quali vantaggi apportano se paragonate alle attuali piattaforme di data warehouse e analisi? •Agilità per il provisioning e la riassegnazione di ingenti risorse di elaborazione on-demand per rispecchiare le priorità del business. •Capacità di analizzare dataset a bassa latenza caratterizzati da maggiore granularità e diversificazione (Big Data), preservando al tempo stesso sfumature e relazioni dettagliate all'interno dei dati, grazie alle quali è possibile ottenere informazioni differenziate che permettono di ottimizzare le prestazioni aziendali. •Collaborazione tra diverse organizzazioni nell'ambito di iniziative strategiche di business e rapida diffusione di best practice e risultati organizzativi. •Vantaggi in termini di costi, utilizzo dei componenti di elaborazione dei prodotti di base per analizzare Big Data e opportunità di business sinora non usufruibili in modo efficiente ed economico. 7 CASE STUDY: HAVAS DIGITAL L'efficacia dell'analitica integrata per la creazione di modelli di attribuzione complessi Havas Digital ed EMC Data Computing Products Division hanno intrapreso un rapporto di collaborazione mirato a migliorare Artemis Analytics Lab, un'iniziativa di ricerca e sviluppo che punta a inglobare nel private cloud l'analisi Big Data su vasta scala. Questa iniziativa migliora notevolmente la comprensione dei comportamenti degli utenti da parte dei clienti di Havas Digital e la conseguente capacità di ottimizzare le campagne di marketing. La piattaforma analitica ideale coniuga una potenza di elaborazione di eccezionale scalabilità, la possibilità di utilizzare dataset granulari, l'accesso ai dati a bassa latenza e la stretta integrazione di data warehouse e analitica. Se compresa e implementata correttamente, rappresenta uno strumento utile per risolvere problemi aziendali ai quali finora non era possibile far fronte, oltre a offrire alle aziende informazioni tangibili su cui basare interventi concreti. Informazioni sull'autore Bill Schmarzo, Global Competency Lead presso EMC Consulting, vanta un'esperienza ultraventennale nel settore delle applicazioni per data warehousing, Business Intelligence e analitica. Ha creato la metodologia Business Benefits Analysis, che associa le iniziative strategiche di business di un'organizzazione ai requisiti analitici e ai dati su cui tali iniziative poggiano; inoltre, insieme a Ralph Kimball, è il co-autore di una serie di articoli sulle applicazioni analitiche. Bill ha lavorato come responsabile del corso di studi sulle applicazioni analitiche presso il corpo docente del Data Warehouse Institute. Artemis Analytics Lab è un'iniziativa che coniuga le competenze di Artemis nel marketing basato su dati e l'elemento fondamentale dell'elaborazione dati di EMC® Greenplum per fornire soluzioni di data mining e funzionalità analitiche interne ai database leader del settore del marketing digitale. "Per molti esperti di marketing, le semplici informazioni demografiche sugli utenti non sono più sufficienti", sostiene Katrin Ribant, Senior Vice President di Artemis. "I nostri clienti vogliono comprendere alcuni aspetti del comportamento degli utenti che è possibile conoscere soltanto nel corso del tempo. Inoltre, desiderano poter trarre conclusioni dai semplici elenchi di transazioni. Tramite l'analitica avanzata, EMC Greenplum® fornisce funzionalità analitiche integrate direttamente nei database e le applica a dataset di grandi dimensioni, permettendo alla nostra azienda di generare nuove informazioni preziose sul comportamento degli utenti e agli esperti di marketing di prevedere le reazioni degli utenti alle nuove campagne". Un fattore di differenziazione chiave del sistema Artemis è l'esclusivo meccanismo di attribuzione all'avanguardia, che calcola con maggior precisione l'influenza relativa della pubblicità sugli acquisti. Trasferendo la creazione di modelli e gli altri calcoli all'interno del database e utilizzando EMC Greenplum, Havas Digital è ora in grado di fornire ai clienti un framework analitico di attribuzione basato su algoritmi quasi in tempo reale. EMC2, EMC, Greenplum e il logo EMC sono marchi o marchi registrati di EMC Corporation negli Stati Uniti e negli altri paesi. Tutti gli altri marchi citati nel presente documento appartengono ai rispettivi proprietari. © Copyright 2011 EMC Corporation. Tutti i diritti riservati. Pubblicato negli Stati Uniti. 5/11 Prospettiva EMC H8668.1 EMC Computer Systems Italia S.p.A. Direzione e Filiale di Milano - Via Giovanni Spadolini, 5 - Edificio A 20141 Milano www.italy.emc.com