il Data Warehouse Logico Costruire BIG DATA ANALYTICS

LA TECHNOLOGY TRANSFER PRESENTA
MIKE
FERGUSON
BIG DATA ANALYTICS
Costruire
il Data Warehouse
Logico
ROMA 27-28 GIUGNO 2013
RESIDENZA DI RIPETTA - VIA DI RIPETTA, 231
[email protected]
www.technologytransfer.it
BIG DATA ANALYTICS
DESCRIZIONE
Questo workshop si propone di spiegare ai Professionisti di Business Intelligence e di Data Warehousing e ai
Data Scientist cosa sono i Big Data. Cosa è questo nuovo fenomeno? Come può essere usato? Come si colloca
all’interno dell’ambiente analitico tradizionale? Di quali skills avete bisogno per sviluppare Big Data? Il workshop risponderà a queste e molte altre domande.
In particolare i partecipanti impareranno:
• Come capire cosa sono i Big Data
• Come comprendere Big Data Analytics workloads
• Le differenti piattaforme tecnologiche per Big Data
• Tecniche analitiche di Big Data e tools di front-end
• Come analizzare dati non modellati e multi-strutturati usando Hadoop e MapReduce
• Come integrare Big Data con i sistemi tradizionali di BI e DW
• Come capire i casi d’uso di business per differenti tecnologie di Big Data
• Come far partire e organizzare progetti su Big Data
• Come usare Big Data per ottenere un valore di business
PARTECIPANTI
Direttori IT, CIO, IT Manager, Business Intelligence Manager, Professionisti di Data Warehousing, Data Scientists,
Enterprise Architects, Data Architects.
PROGRAMMA
1. Introduzione ai Big Data
Questa sessione definisce i Big Data e analizza le ragioni per voler fare uso di questo nuovo settore della
tecnologia. Esamina i casi d’uso per i Big Data e spiega qual è la differenza tra i tradizionali BI e Data Warehousing e i Big Data.
• Cosa sono i Big Data?
• Tipi di Big Data
• Perché analizzare i Big Data?
• Casi di utilizzo
• Cosa è la Data Science?
• Data Warehousing e BI rispetto ai Big Data
• Patterns per tecnologie di Big Data
• Tipi di Big Data
• Connessione alle fonti di Big Data, come ad esempio i web logs, clickstream, i dati del sensore, contenuti strutturati e semi-strutturati
• Sfide nel catturare i diversi tipi di Big Data
• Cambiare il modo di catturare i dati - Che cosa è
possibile
• Avere a che fare con la qualità dei dati in un ambiente di Big Data
• Tecniche di trasformazione e di integrazione dei Big
Data
• Caricare Big Data - Cosa c’è di diverso nel caricare
files in Hadoop piuttosto che in un database NoSQL
piuttosto che nei database relazionali analitici?
• Strumenti per la pulizia e l’integrazione dei Big Data
• Best Practices per l’integrazione dei Big Data
2. Introduzione a Big Data Analytics
4. Storage di Big Data
In questa sessione viene analizzata la Big Data
Analytics, gli strumenti e le tecniche coinvolti e la possibile integrazione di questo nuovo ambiente con
l’ambiente esistente di Data Warehouse e Business
Intelligence. Spiega anche come sfruttare al massimo gli strumenti esistenti di Data Management e di
BI attraverso piattaforme di DW e Big Data.
• Il tradizionale DW e BI in azienda
• La necessità di analizzare nuove più complesse sorgenti dati
• Tipi di Big Data analytical workloads
• Streaming dei dati ad alta velocità
• Analisi dei dati strutturati
• Multi-analisi dei dati strutturati
• Sfide per la gestione e l’analisi dei Big Data
• I componenti chiave in un ambiente Big Data Analytics
3. L’integrazione dei Big Data è una cosa grossa
In questa sessione si guarda alla sfida dell’integrazione dei Big Data e le problematiche specifiche che
questo solleva. Come Vi comportate con grandi volumi di dati e diverse varietà di dati? Come il caricamento dei dati in Hadoop differisce dal caricamento
dei dati in database relazionali analitici?
Che cosa sui databases NoSQL? Come dovrebbe
essere gestita la bassa latenza dei dati?
Questa sessione esamina le opzioni di archiviazione
dei dati per Big Data Analytics.
• Database analitico vs. Hadoop Map/Reduce e NoSQL
• Databases analitici e appliances
• Un’introduzione a Hadoop e a Hadoop Stack
• Che cosa è Hive?
• Che cosa sono i Graph Databases
• Cassandra come una piattaforma di Big Data
• Il mercato dei Big Data
- Data Warehouse appliances
- Hadoop distributions - Cloudera, HortonWorks,
DataStax, MapR
- Big Data Appliances - Oracle Big Data Appliance,
IBM BigInsights, Microsoft, SAP Hana
- Databases NoSQL ad esempio Neo4J, Yarcdata
• Analitica Multi-piattaforma
• Il ruolo della virtualizzazione dei dati in un ambiente
Big Data
• Ottimizzazione della Multi-piattaforma - La nuova
tendenza nel Big Data Analytics
5. Analizzare i Big Data
Questa sessione esamina gli strumenti disponibili sia
per i Data Scientists che per i tradizionali Professionisti di DW/BI. Esamina come entrambi i tipi di sviluppatori possono sfruttare le piattaforme Big Data come i
databases Hadoop e NoSQL utilizzando tecniche di
programmazione e gli strumenti di BI tradizionali così
come i fornitori stanno rendendo più facile l’accesso
al mondo NoSQL/Hadoop e ai databases relazionali
analitici usando la virtualizzazione.
• Progetti di Data Science
• Creare Sandbox per progetti di Data Science
• Governare ambienti di Big Data e progetti di Data
Science
• Sviluppatori MapReduce rispetto a sviluppatori SQL
• Tools di sviluppo per MapReduce
• Che cosa è R?
• Usare R come un linguaggio analitico per Big Data
• Cosa’è il Complex Event Processing?
• Gestire lo stream computing in un ambiente di Big Data
• Usare la virtualizzazione dei dati per semplificare l’accesso ai Big Data e ai tradizionali sistemi di DW/BI
• Usare i tradizionali strumenti di front-end della BI
per l’analisi dei Big Data
• Tools di sviluppo SQL e l’interfaccia Hive
• Big Data Analytics - Facilitatori della performance
della query
• Visualizzazione dei dati e in-memory data in un ambiente Big Data
6. Search & BI: colmare il divario
Questa sessione esaminerà il ruolo crescente del
Search in un ambiente analitico sia come strumento
consumer di selfservice BI, sia come un modo
per analizzare dati strutturati e non strutturati. Search è stata incorporata nei tools di BI per un certo periodo di tempo, ma con la nascita dei Big Data, come
una piattaforma per l’analisi delle informazioni non
strutturate, sta assumendo un nuovo e fondamentale
ruolo. Search è un meccanismo semplice che è familiare alla maggior parte delle persone e l’uso interattivo di BI attraverso Search può avere enormi vantaggi per le aziende. Search può essere usato per la
crescita dell’uso di BI su un più ampio gruppo di
utenti e per estrarre ulteriori informazioni da contenuti non strutturati.
• Perché Search e BI?
• La crescente importanza di analizzare contenuti
non strutturati
• L’emergere dei Big Data e le sue implicazioni su
Search e BI
• Usare indici di ricerca su contenuti strutturati e non
• Costruire Dashboard e reports sui motori di ricerca
con contenuti indicizzati
• Utilizzo di Search per analizzare contenuti non
strutturati
• L’integrazione di Search con le piattaforme di BI
• Usare Search per trovare contenuto di BI e metriche
• Analisi guidata usando un Search sfaccettato
• Il mercato: Attivio, ExaLead, Connexica, HP Autonomy IDOL 10, IBM Cognos, Lucene, Microsoft Fast,
Oracle Endeca e Oracle BI Foundation Suite, SAP
BusinessObjects
7. Integrare Big Data Analytics in azienda
Questa sessione analizza il modo in cui le nuove piattaforme Big Data possono essere integrate con itradizionali Data Warehouse e Data Mart. Esamina lo
stream processing, Hadoop, databases NoSQL, Data
Warehouse appliances e mostra come metterle insieme per massimizzare il valore del business dei Big
Data Analytics.
• Integrazione di piattaforme Big Data con i tradizionali
ambienti di DW/BI: cosa è coinvolto
• Integrazione di Event Processing con Hadoop e appliances analitiche di DW
• Integrazione di Hadoop con Appliances di DW e
Enterprise DW
• Mettere insieme i tools di front-end
• Dare valore di business all’utente finale
INFORMAZIONI
€ 1200 (+iva)
La quota di partecipazione
comprende documentazione,
colazioni di lavoro e coffee
breaks.
LUOGO
Roma, Residenza di Ripetta
Via di Ripetta, 231
DURATA ED ORARIO
2 giorni: 9.30-13.00
14.00-17.00
MODALITÀ D’ISCRIZIONE
Il pagamento della quota,
IVA inclusa, dovrà essere
effettuato tramite bonifico,
codice IBAN:
IT 03 W 06230 03202 000057031348
Banca: Cariparma
Agenzia 1 di Roma
intestato alla
Technology Transfer S.r.l.
e la ricevuta di versamento
inviata insieme alla scheda
di iscrizione a:
TECHNOLOGY
TRANSFER S.r.l.
Piazza Cavour, 3
00193 ROMA
(Tel. 06-6832227
Fax 06-6871102)
entro il 12 Giugno 2013
Vi consigliamo di far precedere
la scheda d’iscrizione da una
prenotazione telefonica.
È previsto il servizio di
traduzione simultanea
MIKE FERGUSON
BIG DATA ANALYTICS
CONDIZIONI GENERALI
In caso di rinuncia con
preavviso inferiore a 15 giorni
verrà addebitato il 50% della
quota di partecipazione, in
caso di rinuncia con preavviso
inferiore ad una settimana
verrà addebitata l’intera quota.
In caso di cancellazione del
seminario, per qualsiasi
causa, la responsabilità della
Technology Transfer si intende
limitata al rimborso delle quote
di iscrizione già pervenute.
SCONTI DI GRUPPO
Se un’azienda iscrive allo
stesso evento 5 partecipanti,
pagherà solo 4 partecipazioni.
Chi usufruisce di questa
agevolazione non ha diritto ad
altri sconti per lo stesso evento.
ISCRIZIONI IN ANTICIPO
I partecipanti che si iscriveranno
al seminario 30 giorni prima
avranno uno sconto del 5%.
TUTELA DATI PERSONALI
Ai sensi dell’art. 13 della legge
n. 196/2003, il partecipante è
informato che i suoi dati
personali acquisiti tramite la
scheda di partecipazione al
seminario saranno trattati da
Technology Transfer anche
con l’ausilio di mezzi elettronici,
con finalità riguardanti
l’esecuzione degli obblighi
derivati dalla Sua
partecipazione al seminario,
per finalità statistiche e per
l’invio di materiale
promozionale dell’attività di
Technology Transfer.
Il conferimento dei dati è
facoltativo ma necessario per
la partecipazione al seminario.
Il titolare del trattamento dei
dati è Technology Transfer,
Piazza Cavour, 3 - 00193
Roma, nei cui confronti il
partecipante può esercitare i
diritti di cui all’art. 13 della
legge n. 196/2003.
QUOTA DI
PARTECIPAZIONE
nome ......................................................................
cognome ................................................................
Roma 27-28 Giugno 2013
Residenza di Ripetta
Via di Ripetta, 231
Quota di iscrizione:
€ 1200 (+iva)
funzione aziendale .................................................
Timbro e firma
azienda ..................................................................
partita iva ...............................................................
codice fiscale .........................................................
In caso di rinuncia o di cancellazione dei seminari
valgono le condizioni generali riportate sopra.
indirizzo ..................................................................
città ........................................................................
cap .........................................................................
provincia ................................................................
telefono ..................................................................
fax ..........................................................................
È previsto il servizio di traduzione simultanea
e-mail .....................................................................
Da restituire compilato a:
Technology Transfer S.r.l.
Piazza Cavour, 3 - 00193 Roma
Tel. 06-6832227 - Fax 06-6871102
[email protected]
www.technologytransfer.it
DOCENTE
Mike Ferguson è Managing Director di Intelligent Business Strategies Limited. Come analista e consulente è
specializzato in Business Intelligence, Enterprise Business Integration e Enterprise Data Management. Ha più
di 30 anni di esperienza di IT, ha operato consulenze per importanti aziende ed è stato frequentemente
speaker in molti eventi e seminari in tutto il mondo. È un esperto su B-EYE-Network. È stato Principal e co-fondatore della Codd & Date UK e Chief Architect della tecnologia database alla NCR sul DBMS Teradata.