ANALITICA DEI BIG DATA
Il vantaggio competitivo derivante dal
connubio tra Big Data e funzionalità
di analisi avanzate
P rosp ett i va E M C
SOMMARIO
Ritorno al futuro: l'avvento dei Big Data
1
COGLIERE L'OPPORTUNITÀ DI BUSINESS OFFERTA DALL'"ANALITICA DI BIG DATA"
1
Punto 1: PIATTAFORMA DI COMPUTING AGILE
2
DATA WAREHOUSING "AGILE"
2
ANALITICA E DATA WAREHOUSE INTEGRATI
2
Punto 2: SCALABILITÀ LINEARE
3
Trasformazione dell'ETL in un processo di arricchimento dei dati 3
Supporto di carichi di lavoro a estrema variabilità in termini di query e analisi
3
ANALIZZARE DATASET GRANULARI E DI NOTEVOLI DIMENSIONI (BIG DATA)
4
4
PROCESSI DECISIONALI E ACCESSO AI DATI A BASSA LATENZA
PUNTO 3: ESPERIENZA UTENTE PERVASIVA, DIFFUSA E COLLABORATIVA
5
ESPERIENZA UTENTE INTUITIVA E PERVASIVA
5
SFRUTTAMENTO DELLA NATURA COLLABORATIVA
5
REALIZZAZIONE DI NUOVE APPLICAZIONI AZIENDALI
5
APPLICAZIONI BASATE SU ATTRIBUZIONI
5
APPLICAZIONI BASATE SU SUGGERIMENTI
6
APPLICAZIONI BASATE SU PREDIZIONI/PREVISIONI
6
APPLICAZIONI BASATE SU APPROFONDIMENTI
7
APPLICAZIONI BASATE SU BENCHMARK
7
RIFLESSIONI CONCLUSIVE
7
INFORMAZIONI SULL'AUTORE
8
RITORNO AL FUTURO: L'AVVENTO DEI BIG DATA
Durante gli anni '70 e i primi anni '80, produttori e rivenditori di prodotti confezionati (CPG,
Consumer Package Goods) utilizzavano i report bimestrali di AC Nielsen per gestire le proprie
attività. Questi report contenevano i dati sul mercato e sulla concorrenza (ad esempio entrate,
unità vendute, prezzo medio e quota di mercato) che i produttori CPG utilizzavano per definire
strategie, spese e piani pubblicitari, promozionali, di vendita e marketing con i propri partner
di canale (ad esempio distributori, grossisti e rivenditori).
Successivamente, a metà degli anni '80, Information Resources Inc. (IRI) ha iniziato a offrire
l'installazione gratuita di scanner POS (point-of-sale) presso i punti vendita in cambio dei dati di
scansione residui. I rivenditori accolsero di buon grado la proposta sia perché il personale era il
fattore che incideva in maggior misura sui costi, sia perché l'utilità dei dati degli scanner POS
non era ancora del tutto chiara.
I dati degli scanner POS, all'epoca considerati "Big Data", mutarono radicalmente i rapporti di
forza (tra produttori e rivenditori) nel settore e il modo in cui tanto i produttori quanto i rivenditori
gestivano le proprie attività. L'improvvisa esplosione del volume di dati (da megabyte a terabyte)
rese necessario lo sviluppo di una nuova generazione di piattaforme di storage e server (ad
esempio Teradata, Red Brick, Sybase IQ, Sun e Sequent) e di strumenti di analisi (quali Metaphor,
Business Objects, Informatica e MicroStrategy).
Nuove categorie di applicazioni aziendali
basate su analitica
• Previsioni basate sulla domanda
•Ottimizzazione della supply chain
•Efficacia delle spese commerciali
•Analisi del paniere di mercato
•Gestione delle categorie e merchandising
•Ottimizzazione del rapporto prezzo/
rendimento
•Gestione del ribasso dei prezzi del
merchandising
• Programmi di fidelizzazione dei clienti
Aziende all'avanguardia come Wal-Mart, Procter & Gamble, Tesco e Frito Lay fecero leva sulla
novità rappresentata dai "Big Data" e sui nuovi strumenti e piattaforme di analisi per assicurarsi
un vantaggio competitivo. Queste aziende erano in prima linea nel campo dello sviluppo di nuove
categorie di Big Data e di applicazioni basate sull'analisi per far fronte a problemi aziendali che,
sino ad allora, non era stato possibile affrontare in modo efficiente ed economico (vedere il
riquadro a sinistra).
Da allora sono trascorsi 30 anni e lo scenario sembra ripetersi. La crescita esponenziale di nuove
origini di dati granulari a bassa latenza ("Big Data") racchiude in sé il potenziale per cambiare il
modus operandi di organizzazioni e settori. Queste nuove origini di dati vengono generate da una
miriade di dispositivi, interazioni con i clienti e attività aziendali che mettono in luce nuovi aspetti,
finora incompresi, delle catene del valore di settori e organizzazioni.
L'avvento di queste nuove e più dettagliate origini di dati consentirà alle organizzazioni di
rispondere a opportunità di business che, in precedenza, non erano in grado di cogliere, portando
alla creazione di nuove famiglie di applicazioni aziendali. Tuttavia, affinché queste previsioni
diventino realtà, è necessario che emergano nuove piattaforme (infrastrutture) e nuovi strumenti
(analitica). Questo white paper delinea il ruolo che possono assumere le nuove piattaforme e
discute i tipi di applicazioni aziendali basate su analisi e sullo sfruttamento di Big Data che
potranno emergere in futuro.
COGLIERE L'OPPORTUNITÀ DI BUSINESS OFFERTA DALL'"ANALITICA DI
BIG DATA"
I Big Data richiedono una nuova piattaforma di analisi che consenta alle aziende e alle tecnologie
di conquistare un vantaggio competitivo. A tal fine è necessaria una nuova infrastruttura tecnologica
che (a) offra una scalabilità estremamente elevata fino a PB di dati, (b) supporti processi decisionali
e accesso ai dati a bassa latenza e (c) sia dotata di analitica integrata per accelerare la generazione
di modelli di analisi avanzata e i processi operativi.
La capacità di scalare la potenza di elaborazione per applicarla a dataset di ingenti dimensioni
consente di identificare in maniera continua le informazioni celate all'interno dei Big Data e su cui
basare interventi concreti, oltre a permettere l'integrazione ottimale di tali informazioni nell'ambiente
di lavoro dell'utente, ovunque esso sia. Questa nuova piattaforma analitica può liberare le
organizzazioni dai vecchi vincoli della generazione di report retrospettivi, offrendo a un ampio
spettro di utenti analisi predittive e orientate al futuro e migliorando i processi decisionali a ogni
livello dell'organizzazione.
1
PUNTO 1: PIATTAFORMA DI COMPUTING AGILE
L'agilità è resa possibile da architetture di analisi e data warehousing riconfigurabili e ad alta
flessibilità. Le risorse analitiche possono essere riconfigurate e reimplementate rapidamente per
rispondere alla continua evoluzione delle esigenze di business, raggiungendo nuovi livelli di
flessibilità e agilità analitica.
Data warehousing "agile"
La nuova piattaforma di analisi consente lo sviluppo di data warehouse non più soggetti ai vincoli
che gravano sugli odierni ambienti IT. Al giorno d'oggi, le organizzazioni sono costrette ad adottare
tecniche di progettazione innaturali e strumenti di generazione di report poco sofisticati, utilizzando
tecnologie di database obsolete per estrarre informazioni significative da origini di dati in rapida
crescita. Di pari passo con la continua espansione dei volumi di dati e all'approdo online di nuove
origini di dati, le organizzazioni acquisiscono consapevolezza del fatto che le architetture, le soluzioni
e gli strumenti attuali sono troppo costosi, lenti e poco flessibili per supportare le iniziative
strategiche di business.
Si consideri l'impatto della pre-generazione degli aggregati. In genere si ricorre agli aggregati1 per
sopperire ai limiti della potenza di elaborazione dei tradizionali sistemi di gestione di database
relazionali (RDBMS, Relational Database Management System) per il trattamento di più tabelle e
le scansioni di tabelle di notevoli dimensioni. Un database administrator (DBA) calcola in anticipo
gli aggregati più comuni nel corso della preparazione dei dati per accelerare prestazioni specifiche
e di generazione di report. La mole di dati memorizzata nelle tabelle di aggregati raggiunge
dimensioni di gran lunga superiori rispetto a quelle dei dati raw. Tale è il tempo necessario per la
pre-generazione degli aggregati che a risentirne sono gli SLA (Service Level Agreement). La possibilità
di sfruttare "flussi continui" di dati mirata alla "generazione di report operativi in tempo reale" è
una chimera se si considera il tempo necessario per ricostruire le tabelle di aggregati ogni volta
che nel data warehouse "affluiscono" nuovi dati.
L'eliminazione di queste limitazioni consente di realizzare un ambiente di data warehouse agile,
flessibile, reattivo e idoneo alle esigenze dell'azienda, ricorrendo alle seguenti funzionalità:
•Aggregazione on-demand: non è necessario pre-generare gli aggregati per accelerare i tempi di
risposta a query e report. È disponibile una potenza di elaborazione sufficiente per creare gli
aggregati in tempo reale, eliminando la restrizione rappresentata dalla costante rigenerazione
degli aggregati ogni volta che nuovi dati affluiscono nel data warehouse.
•Indipendenza dagli indici: i DBA non devono più ricorrere a una rigida indicizzazione, né devono
più preoccuparsi di conoscere in anticipo le domande che gli utenti porranno per creare gli
indici a supporto di tali domande. Gli utenti possono porre domande dettagliate e di livello
superiore sul business senza preoccuparsi dei problemi prestazionali.
•Generazione immediata di KPI (Key Performance Indicator): gli utenti aziendali possono definire,
generare e sottoporre a test nuovi KPI derivati (e compositi) senza affidare ai DBA il compito di
calcolarli in anticipo.
•Strutture gerarchiche flessibili ad hoc: non è necessario definire anticipatamente le gerarchie
dimensionali quando si crea il data warehouse. Ad esempio, nel corso di un'analisi di intelligence
di mercato, le organizzazioni possono sfruttare la flessibilità di cambiare le aziende rispetto alle
quali sono sottoposte a benchmark.
Analitica e data warehouse integrati
Tradizionalmente data warehouse e analitica risiedono in ambienti distinti. Il trasferimento di
dati dal data warehouse all'ambiente di analisi richiede un processo ETL (Extract/Transform/Load)
in cui i dati vengono selezionati, filtrati, aggregati, pre-elaborati, riformattati e, infine, trasferiti
nell'ambiente analitico. All'interno dell'ambiente analitico gli analisti di dati iniziano a creare,
sottoporre a test e affinare modelli e algoritmi analitici. Se nel corso di questa operazione gli
analisti ritengono di dover disporre di dati diversi e/o più granulari, sono costretti a ripetere
l'intero processo ETL del data warehouse. Questa operazione può prolungare il processo analitico
di giorni, se non addirittura di settimane.
1
Gli aggregati sono riepiloghi gerarchici o dimensionali dei fatti calcolati in anticipo (misure o metriche), in genere
definiti dall'istruzione SQL "Group By". Ad esempio, nella dimensione Geography, è possibile generare aggregati di
tutti i fatti (tra cui vendite, entrate, margini in dollari, margini percentuali e utili) per paese, regione, stato, città,
provincia e codice postale.
2
L'integrazione di data warehouse e analitica in un unico ambiente, con funzionalità di analisi interne
ai database, libera gli analisti dall'obbligo di abbandonare il data warehouse per eseguire le
analisi. È possibile trasferire tra gli ambienti di data warehouse e analisi dataset di elevate
dimensioni ad altissime velocità di trasferimento (da 5 a 10 TB/ora). Ciò accelera in misura
significativa il processo di analisi e semplifica la reintegrazione dei risultati analitici nell'ambiente
di data warehouse e business intelligence. Un ambiente in cui data warehouse e analitica sono
integrati supporta, ad esempio, i seguenti tipi di analisi:
•Segmentazione secondaria e streaming di dataset di ingenti dimensioni tra l'ambiente di data
warehouse e l'ambiente di analisi per creare "ambienti analitici isolati" per ricerca e discovery.
•Interrogazione di dataset di notevoli dimensioni al più basso livello di granularità per portare
alla luce attività, tendenze e comportamenti "insoliti" e generare informazioni su cui basare
interventi concreti e i suggerimenti corrispondenti.
•Accelerazione di sviluppo e test di diversi scenari di business per semplificare l'analisi "what-if",
l'analisi della sensibilità dei dati e l'analisi dei rischi.
L'integrazione di questi vantaggi nelle attività quotidiane avrebbe una valore inestimabile.
Per ottenere una conferma, è sufficiente rivolgersi a un responsabile della distribuzione che
desidera che il sistema metta in evidenza i potenziali problemi di performance dei vendor in
relazione al deterioramento dei servizi misurato in termini di consegne in orario e percentuale
di consegne completate.
PUNTO 2: SCALABILITÀ LINEARE
La possibilità di usufruire di una potenza di elaborazione straordinariamente elevata consente di
affrontare i problemi aziendali in maniera del tutto nuova. Prendiamo in esame alcuni esempi
che illustrano i possibili effetti sul business di un'elevata scalabilità di elaborazione.
Trasformazione dell'ETL in un processo di arricchimento dei dati
L'obiettivo principale dell'ETL consiste nel correggere gli errori provocati dai sistemi di origine;
estrazione, traduzione, pulizia, creazione di profili, normalizzazione e allineamento di tutti i dati
per far sì che le analisi degli utenti confrontino tra loro dati di tipologie omogenee. Grazie alla
potenza di elaborazione disponibile per l'ETL e all'availability dei nuovi linguaggi di elaborazione
quali Hadoop, è possibile trasformare il processo ETL tradizionale in un processo di arricchimento
dei dati. È possibile generare nuove metriche significative tra cui:
•Ordinamento o sequenze delle attività: identificazione della sequenza di attività che precedono
un evento specifico. Ad esempio, determinare che in genere un utente contatta il call center due
volte dopo aver cercato assistenza sul sito web prima che il problema venga risolto.
•Conteggi di frequenza: quantificare il numero di volte in cui si verifica un determinato evento
in uno specifico intervallo. Ad esempio, individuare il prodotto che ha generato x chiamate di
assistenza nei primi 90 giorni di utilizzo.
•N-tile: raggruppamento di elementi (ad esempio prodotti, eventi, clienti e partner) in zone in
base a una o più metriche specifiche. Ad esempio, tenere traccia del primo terzile (il primo 10%)
di clienti in base a entrate o margini su un periodo di tre mesi consecutivi.
•"Panieri" comportamentali: creazione di "panieri" di attività, incluse frequenza e ordinamento,
che precedono una vendita o un evento di "conversione" per determinare le combinazioni di
strategie di mercato più efficaci e proficue.
Supporto di carichi di lavoro a estrema variabilità in termini di query e analisi
Prevedere i tipi di query e analisi che un azienda potrebbe voler realizzare in base alle condizioni
del mercato più aggiornate è un'operazione estremamente complessa. Il listino prezzi o le iniziative
promozionali di un concorrente possono richiedere analisi immediate per comprendere meglio le
conseguenze sulla propria azienda in termini finanziari e di business. Le analisi più significative
comportano carichi di lavoro estremamente variabili e difficili da prevedere a priori.
3
Sinora le organizzazioni si sono dovute accontentare di analisi poco esaustive "a fatto compiuto"
e non disponevano della potenza di elaborazione necessaria per approfondire le analisi in
contemporanea agli eventi ,né per analizzare le diverse variabili e permutazioni che potevano
rappresentare il motore del business. Le nuove piattaforme consentono invece di far fronte a
picchi improvvisi e di breve durata dei carichi di lavoro analitici che richiedono una notevole
potenza di elaborazione. In termini concreti questa funzionalità si manifesta agli utenti aziendali
nei seguenti modi:
•Prestazioni e scalabilità: agilità che consente un'analisi approfondita dei dati e permette di
porre le domande di secondo e terzo livello a supporto dei processi decisionali. Se gli utenti
aziendali desiderano esaminare i dati nei minimi dettagli per individuare le variabili che fungono
da motore del business, non devono temere di provocare il blocco completo del sistema se
analizzano una mole ingente eccessiva di dati.
•Agilità: supporto dello sviluppo rapido, dell'esecuzione di test e del perfezionamento dei modelli
analitici, al fine di facilitare le previsioni sulle prestazioni aziendali. Gli analisti dei dati possono
esaminare le diverse variabili relative alle prestazioni aziendali, imparare dai risultati e applicarli
all'iterazione successiva del modello. Inoltre, possono adottare un approccio "fail fast" per
individuare gli errori delle analisi, senza temerne le conseguenze sulle prestazioni di sistema.
Analizzare dataset granulari e di notevoli dimensioni (Big Data)
Tra i vantaggi più significativi del cloud vi sono la mole e il livello di dati dettagliati applicabili
all'analisi e alla modellazione degli elementi propulsori del business. Il cloud racchiude non solo
il potenziale per usufruire di una potenza di elaborazione più efficace e on-demand, ma anche
l'accesso a funzionalità di storage più efficienti ed economiche. Anziché essere costretta ad
adattarsi ai dati, l'azienda può ampliare l'analisi facendo leva su ogni aspetto dei dati come
descritto di seguito:
•Possibilità di eseguire analisi multidimensionali fino all'ennesimo grado. L'azienda non è
costretta a prendere in esame solo tre o quattro dimensioni, ma può analizzarne centinaia,
se non addirittura migliaia, per affinare e localizzare le prestazioni. Questo livello di analisi
multidimensionale permette all'azienda di individuare i fattori trainanti del business per
posizione geografica specifica (città o codice postale), prodotto (livello UPC o SKU), produttore,
promozione, prezzo, ora del giorno o giorno della settimana e via dicendo. Un simile livello di
granularità si traduce in un netto miglioramento delle prestazioni dell'azienda a livello locale.
•L'individuazione di un numero sufficiente di piccole "gemme nascoste" nel volume di dati
equivale a vantaggi concreti per il business. La piattaforma permette di far fronte a due sfide
chiave delle analisi localizzate: la prima consiste nel rilevare i fattori trainanti del business a
livello locale o specifico; la seconda consiste nell'individuarne un numero sufficiente per apportare
vantaggi tangibili al business.
Processi decisionali e accesso ai dati a bassa latenza
Poiché non è necessaria una fase di intensa preparazione dei dati (rispetto alla pre-generazione
degli aggregati e al calcolo in anticipo delle metriche), la latenza tra l'istante in cui i dati vengono
generati e quello in cui sono a disposizione dell'azienda si riduce in misura notevole. La capacità
di stringere i tempi tra la creazione e la disponibilità dei dati significa che il concetto di analisi
operativa è divenuto realtà nei modi descritti di seguito:
•Fare leva sull'afflusso costante dei dati (flussi continui) per usufruire di analitica e generazione
di report operativi a bassa latenza. L'intervallo che intercorre tra un evento aziendale (quale la
compravendita di titoli) e la decisione di acquisto o vendita si riduce drasticamente. L'impatto
dei processi decisionali a bassa latenza è chiaramente visibile nel peso crescente del trading
algoritmico a Wall Street3.
•L'accesso ai dati a bassa latenza rende possibili processi decisionali "tempestivi" al volo.
Per esempio, i responsabili delle campagne online possono ridistribuire i budget tra i siti con
le migliori prestazioni e/o conversioni e le combinazioni di parole chiave, a campagna ancora
in corso.
4
PUNTO 3: ESPERIENZA UTENTE PERVASIVA, DIFFUSA E COLLABORATIVA
Gli utenti aziendali non hanno alcuna necessità di altri dati, grafici e opzioni per la generazione
di report, a prescindere dall'eleganza della presentazione. Al contrario, sono alla ricerca di una
soluzione che utilizzi al meglio l'analitica per individuare e rendere disponibili informazioni
tangibili su cui basare interventi concreti sul business.
Esperienza utente intuitiva e pervasiva
L'abbinamento tra dati dettagliati e potenza analitica estremamente elevata si traduce in un
interessante vantaggio: interfacce più semplici e intuitive. Come è possibile? Prendiamo in esame
la relazione tra iPod e iTunes. L'interfaccia minimalista dell'iPod è una delle ragioni del suo successo
tra i clienti e della sua quota di mercato dominante. Apple ha trasferito la maggior parte delle
attività complesse per l'utente (ad esempio la gestione delle sequenze di brani, l'aggiunta di
nuovi brani e la generazione di suggerimenti sull'utilizzo della funzionalità Genius) dall'iPod a
iTunes, dove possono essere gestite in maniera più efficace. Lo stesso concetto può essere applicato
per migliorare l'esperienza utente in ambito analitico.
•L'analitica può essere utilizzata al meglio per realizzare le attività di analisi più gravose "dietro
le quinte". Anziché presentare report, grafici e fogli di calcolo sempre più complessi, è possibile
sviluppare un'interfaccia più intuitiva per offrire agli utenti le informazioni necessarie per una
conoscenza approfondita del business.
•Sulla base delle informazioni estratte dai dati, l'esperienza dell'utente può fornire specifiche
azioni consigliate (analogamente a quanto accade con la funzionalità Genius di iTunes).
La complessità associata all'individuazione di suggerimenti rilevanti su cui basare interventi
concreti è a carico dell'analitica.
È possibile, ad esempio, prevedere un'interfaccia del programma di gestione di una campagna
che estrae dalla miriade di variabili che influenzano le prestazioni della campagna soltanto quelle
tangibili e che possono dar luogo ad azioni concrete. L'interfaccia utente potrebbe presentare
non soltanto queste variabili, ma anche suggerimenti per migliorare le prestazioni della campagna
in corso. Un'esperienza del genere sarebbe accolta molto favorevolmente dalla maggior parte
degli utenti.
Sfruttamento della natura collaborativa
La collaborazione è parte integrante dei processi decisionali e di analisi. Piccole community di
utenti con interessi simili possono nascere rapidamente e condividere quanto appreso in merito
a temi specifici.
Ad esempio, i brand manager di una grande azienda di prodotti confezionati possono creare una
community in cui condividere ed esaminare facilmente dati, informazioni e approfondimenti sulla
gestione del marchio. Le campagne di marketing efficaci per un marchio possono essere copiate
e ampliate più rapidamente da altri marchi se si condividono i dati e le analisi risultanti.
Realizzazione di nuove applicazioni aziendali
Per apprezzare il potenziale di questa nuova piattaforma "analitica", vale la pena porsi la seguente
domanda: quali problemi aziendali, sinora non risolvibili, possono essere affrontati dalle aziende
facendo leva sulla potenza di elaborazione on-demand, sui dataset granulari, sull'accesso ai dati a
bassa latenza e sulla stretta integrazione tra data warehouse e analitica? Prendiamo in esame alcune
applicazioni aziendali rese possibili su queste nuove piattaforme dall'analitica, in particolare se
abbinata ai Big Data.
Applicazioni basate su attribuzioni
Le applicazioni basate su attribuzioni mirano ad attribuire "credito" per un particolare evento a
una serie di attività o transazioni in un processo complesso e a più fasi. Queste applicazioni
devono recuperare, allineare e analizzare le serie di attività, prendendo in considerazione fattori
quali frequenza, sequenza, attualità, soglie e perdita di efficacia nel tempo trascorso tra le attività,
al fine di accreditare un valore a ciascuna attività. Ecco alcuni esempi di applicazioni basate su
attribuzioni:
Nell'ambito dei mercati finanziari elettronici, il trading algoritmico consiste nell'utilizzo di programmi informatici
per l'immissione di ordini di trading. È l'algoritmo a prendere le decisioni relative a vari aspetti dell'ordine, tra cui
tempistica, prezzo o quantità. In molti casi l'algoritmo avvia l'ordine senza alcun intervento da parte dell'operatore.
2
5
•Applicazioni per l'efficacia del marketing multicanale, grazie alle quali gli esperti del settore
tentano di attribuire credito per una vendita su più canali di marketing. Si tratta di un aspetto
particolarmente rilevante per gli esperti di marketing online che tentano di attribuire credito
per una conversione rispetto a vari annunci pubblicitari visualizzati, siti web e ricerche tramite
parole chiave.
•Applicazioni di attribuzione relative ai partner, grazie alle quali le società commerciali tentano
di quantificare il contributo dei vari partner in transazioni aziendali complesse e a più fasi.
•Applicazioni di attribuzione relative al trattamento medico, grazie alle quali le organizzazioni
di assistenza sanitaria tentano di valutare l'incidenza di varie cure e medicinali sull'esito della
terapia.
Applicazioni basate su suggerimenti
Le applicazioni basate su suggerimenti individuano e generano serie di utenti e prodotti simili in
base a comportamenti, dati demografici o altri attributi percepibili. Le applicazioni analizzano le
transazioni associate a questi set per generare tendenze che quantificano la forza delle relazioni tra
gli utenti e i rispettivi comportamenti e preferenze. A partire dalle tendenze rilevate, le applicazioni
riescono quindi a fornire suggerimenti su prodotti (come nel caso di Amazon e Netflix) o persone
(come accade con LinkedIn e Facebook). Ecco alcuni esempi di applicazioni basate su suggerimenti:
•Applicazioni per l'individuazione di pubblicità mirate ai clienti che suggeriscono segmenti di
audience di riferimento "simili" in base a comportamenti e prodotti acquistati in passato
(ad esempio campagne efficaci nel caso delle "mamme onnipresenti" hanno un'alta probabilità
di andare a segno anche con le "nuove nonne").
•Applicazioni per suggerimenti sui prodotti che consigliano prodotti complementari sulla base
degli acquisti effettuati da utenti simili in un determinato periodo di tempo (ad esempio è
probabile che chi ha acquistato una nuova casa in una certa zona comprerà anche una nuova
lavasciuga entro tre mesi dall'acquisto della casa).
Applicazioni basate su predizioni/previsioni
Le applicazioni basate su predizioni e previsioni acquisiscono un'ampia gamma di variabili, metriche
e dimensioni, a supporto dei processi decisionali in svariati scenari di mercato. Queste applicazioni
utilizzano al meglio le tecniche statistiche e di data mining per estrarre dalla moltitudine di variabili
solo le variabili (o combinazioni di variabili) più efficaci per prevedere le prestazioni in particolari
situazioni. Considerato l'orizzonte temporale di alcune di queste decisioni (come quelle sui prezzi),
l'accesso ai dati a bassa latenza e le funzionalità di analisi interne ai database sono essenziali
per il successo.
Le applicazioni predittive avanzate integrano valutazioni su rischi e dati sensibili, affinché i
responsabili delle decisioni possano determinare le variabili più importanti nel processo
decisionale. Ad esempio, se si ritiene che una certa variabile sia cruciale per una decisione,
è possibile investire maggiori risorse per assicurarsi che tale variabile venga valutata in modo
preciso e completo. Ecco alcuni esempi di applicazioni basate su predizioni/previsioni:
•Applicazioni per il calcolo del tasso di abbandono dei clienti che prevedono la possibilità di
contrasti con questi ultimi in base a fattori come attività di utilizzo, richieste di supporto,
andamento dei pagamenti e influenza sociale degli amici.
•Applicazioni per la manutenzione dei prodotti che prevedono guasti delle apparecchiature in
base a informazioni sull'utilizzo dei prodotti (in particolare le informazioni attualmente fornite
dai dispositivi dati integrati), record degli interventi di manutenzione e informazioni generali
sulle prestazioni.
•Applicazioni relative alle prestazioni dei dipendenti che prevedono le prestazioni di un potenziale
collaboratore in base a fattori quali formazione, posizione socio-economica, ruoli professionali
precedenti, stato civile e determinate risposte psico-comportamentali.
•Applicazioni relative alle prestazioni degli studi clinici che modellano i risultati di vari medicinali
in base alla sperimentazione clinica, consentendo a un'azienda di comprendere l'efficacia di
determinate terapie ed evitare conseguenze catastrofiche in caso di utilizzo congiunto di particolari
farmaci. Ciò assume un'importanza ancora maggiore quando si tenta di attribuire i risultati per
più trattamenti e medicinali (vedere applicazioni basate su attribuzioni).
6
•Applicazioni per la gestione del rendimento, del ribasso dei prezzi e del merchandising e per
l'ottimizzazione dei prezzi, in grado di creare modelli dipendenti dal tempo utilizzati dai
responsabili delle decisioni per comprendere come e quando aumentare o ridurre i prezzi
tenendo conto delle condizioni attuali della domanda e dell'offerta. Questi tipi di applicazioni
sono particolarmente comuni nel caso dei prodotti di base (quali merci deperibili, biglietti
aerei, camere di alberghi, capi di abbigliamento e biglietti per eventi sportivi), il cui valore si
azzera in un determinato momento.
Applicazioni basate su approfondimenti
Le applicazioni basate su approfondimenti fanno leva su tecniche statistiche e di data mining per
identificare situazioni o comportamenti "insoliti". Le applicazioni avanzate basate su approfondimenti
sono in grado di eseguire analisi complesse in un intervallo variabile da centinaia a migliaia di
dimensioni di business. La crescente importanza di queste applicazioni è legata al volume in
continuo aumento dei dati dettagliati provenienti da fonti quali clic nelle pagine web, sensori
RFID e appliance in rete. Ecco alcuni esempi di applicazioni basate su approfondimenti:
•Applicazioni relative alla riduzione e alla distribuzione dei prodotti che monitorano costantemente
sensori e dati RFID per individuare discrepanze tra la posizione del prodotto ipotetica e reale.
•Applicazioni contro le frodi che monitorano costantemente le transazioni finanziarie per individuare
comportamenti "insoliti", che possono essere indice di attività fraudolente. Applicazioni di
questo tipo risultano utili per le carte di credito, i conti correnti e le richieste assicurative e di
assistenza medica.
•Applicazioni antiriciclaggio che monitorano costantemente il flusso di contante per individuare
comportamenti "insoliti" associati a potenziali attività di riciclaggio, ad esempio un numero
eccessivo di transazioni di scarso valore realizzate in contanti.
Applicazioni basate su benchmark
Le applicazioni basate su benchmark utilizzano al meglio l'analitica che confronta le prestazioni
di un'entità rispetto a una baseline. La baseline di confronto può essere uno standard di settore,
un periodo o un evento precedente (ad esempio una campagna di marketing). Ecco alcuni esempi
di applicazioni basate su benchmark:
•Applicazioni relative alle quote di mercato che forniscono dati su quote di mercato e di portafoglio.
Ad esempio, le aziende che creano siti web possono fornire dati e analisi sugli investimenti
pubblicitari ("share of voice"), per consentire a inserzionisti e agenzie di confrontare le spese
sostenute nel campo del marketing con quelle della concorrenza.
•Applicazioni basate su benchmark competitivo che mettono a confronto le prestazioni di
un'azienda con un aggregato di concorrenti o con la media del settore. Ciò mette a disposizione
delle aziende una baseline per confrontare le rispettive prestazioni finanziarie o di mercato.
•Applicazioni basate sul benchmark che confrontano le prestazioni di una campagna di marketing
in corso con quelle di una campagna o evento di marketing precedente e/o simile. Ad esempio,
un'azienda potrebbe voler confrontare le prestazioni della campagna "promozione di ferragosto"
in corso con quelle dell'identica campagna dell'anno prima. Gli utenti potrebbero voler tenere
traccia della percentuale di vendite totali per ogni giornata della campagna e confrontare
quotidianamente le aree e i prodotti con le prestazioni migliori e peggiori.
RIFLESSIONI CONCLUSIVE
Queste nuove piattaforme a scalabilità estremamente elevata mutano radicalmente lo scenario
dell'analitica, introducendo funzionalità innovative. Quali vantaggi apportano se paragonate alle
attuali piattaforme di data warehouse e analisi?
•Agilità per il provisioning e la riassegnazione di ingenti risorse di elaborazione on-demand per
rispecchiare le priorità del business.
•Capacità di analizzare dataset a bassa latenza caratterizzati da maggiore granularità e
diversificazione (Big Data), preservando al tempo stesso sfumature e relazioni dettagliate
all'interno dei dati, grazie alle quali è possibile ottenere informazioni differenziate che
permettono di ottimizzare le prestazioni aziendali.
•Collaborazione tra diverse organizzazioni nell'ambito di iniziative strategiche di business e
rapida diffusione di best practice e risultati organizzativi.
•Vantaggi in termini di costi, utilizzo dei componenti di elaborazione dei prodotti di base per
analizzare Big Data e opportunità di business sinora non usufruibili in modo efficiente ed
economico.
7
CASE STUDY: HAVAS DIGITAL
L'efficacia dell'analitica integrata per
la creazione di modelli di attribuzione
complessi
Havas Digital ed EMC Data Computing
Products Division hanno intrapreso un
rapporto di collaborazione mirato a migliorare
Artemis Analytics Lab, un'iniziativa di ricerca
e sviluppo che punta a inglobare nel private
cloud l'analisi Big Data su vasta scala.
Questa iniziativa migliora notevolmente la
comprensione dei comportamenti degli
utenti da parte dei clienti di Havas Digital
e la conseguente capacità di ottimizzare le
campagne di marketing.
La piattaforma analitica ideale coniuga una potenza di elaborazione di eccezionale scalabilità,
la possibilità di utilizzare dataset granulari, l'accesso ai dati a bassa latenza e la stretta integrazione
di data warehouse e analitica. Se compresa e implementata correttamente, rappresenta uno
strumento utile per risolvere problemi aziendali ai quali finora non era possibile far fronte, oltre
a offrire alle aziende informazioni tangibili su cui basare interventi concreti.
Informazioni sull'autore
Bill Schmarzo, Global Competency Lead presso EMC Consulting, vanta un'esperienza ultraventennale
nel settore delle applicazioni per data warehousing, Business Intelligence e analitica. Ha creato
la metodologia Business Benefits Analysis, che associa le iniziative strategiche di business di
un'organizzazione ai requisiti analitici e ai dati su cui tali iniziative poggiano; inoltre, insieme a
Ralph Kimball, è il co-autore di una serie di articoli sulle applicazioni analitiche. Bill ha lavorato
come responsabile del corso di studi sulle applicazioni analitiche presso il corpo docente del
Data Warehouse Institute.
Artemis Analytics Lab è un'iniziativa che
coniuga le competenze di Artemis nel
marketing basato su dati e l'elemento
fondamentale dell'elaborazione dati di
EMC® Greenplum per fornire soluzioni di
data mining e funzionalità analitiche interne
ai database leader del settore del marketing
digitale.
"Per molti esperti di marketing, le semplici
informazioni demografiche sugli utenti non
sono più sufficienti", sostiene Katrin Ribant,
Senior Vice President di Artemis. "I nostri
clienti vogliono comprendere alcuni aspetti
del comportamento degli utenti che è
possibile conoscere soltanto nel corso del
tempo. Inoltre, desiderano poter trarre
conclusioni dai semplici elenchi di transazioni.
Tramite l'analitica avanzata, EMC Greenplum®
fornisce funzionalità analitiche integrate
direttamente nei database e le applica a
dataset di grandi dimensioni, permettendo
alla nostra azienda di generare nuove
informazioni preziose sul comportamento
degli utenti e agli esperti di marketing di
prevedere le reazioni degli utenti alle nuove
campagne".
Un fattore di differenziazione chiave del
sistema Artemis è l'esclusivo meccanismo
di attribuzione all'avanguardia, che calcola
con maggior precisione l'influenza relativa
della pubblicità sugli acquisti. Trasferendo
la creazione di modelli e gli altri calcoli
all'interno del database e utilizzando EMC
Greenplum, Havas Digital è ora in grado di
fornire ai clienti un framework analitico di
attribuzione basato su algoritmi quasi in
tempo reale.
EMC2, EMC, Greenplum e il logo EMC sono marchi o marchi registrati di EMC Corporation negli Stati Uniti e negli altri paesi. Tutti gli
altri marchi citati nel presente documento appartengono ai rispettivi proprietari. © Copyright 2011 EMC Corporation. Tutti i diritti
riservati. Pubblicato negli Stati Uniti. 5/11 Prospettiva EMC H8668.1
EMC Computer Systems Italia S.p.A.
Direzione e Filiale di Milano - Via Giovanni Spadolini, 5 - Edificio A
20141 Milano
www.italy.emc.com