Il Data Quality a supporto dei sistemi di reporting Metodologia ed esperienze Bip. AIEA – Sessione di Studio Torino, 28 novembre 2013 Agenda Obiettivi di governo del dato e approccio alla data governance Un Framework per la data governance Introduzione e approccio al Data Quality Requisiti normativi del settore finanziario da Basilea II a Solvency II La declinazione dei requisiti normativi in categorie di controlli IT La reportistica sui controlli nell’ambito del “sistema dei controlli interni” Potenziali implicazioni funzionali per le soluzioni applicative di reporting Governance sulla struttura dei dati a supporto dei sistemi di reporting integrato © Bip. 2013 - 1- Obiettivi di governo del dato Confrontati con altri asset IT, i dati presentano alcune peculiarità che rendono necessario identificare degli obiettivi specifici per il loro governo, garantendone così manutenzione ed evoluzione nel tempo coerenti alle esigenze aziendali CARATTERISTICHE FONDAMENTALI DEL DATO • I dati sono un asset trasversale rispetto a: sistemi, processi, organizzazione, etc. • I dati vengono continuamente modificati e trasformati nel tempo, sia in modo automatico che manuale • I dati hanno “memoria” (una volta creati, perdurano mantenendo i pregi e difetti iniziali) • I dati hanno quindi un impatto rilevante avendo conseguenze dirette su: • La modellazione dei processi di business • Il disegno delle soluzioni lato IT • Le attività operative dei gruppi di lavoro OBIETTIVI DI GOVERNO DEL DATO • Stabilire un linguaggio comune (IT, Business e terze parti) di riferimento per il dato • Identificare e ridurre le criticità in essere legate ai dati in termini di: : • Controllo e comprensione della loro creazione/ trasformazione • Mastership • Qualità dell’informazione • Affidabilità dei dati di reporting • Etc. • Condividere la visione sull’evoluzione attesa dei dati ed anticipare il cambiamento • Guidare l’evoluzione dei dati • Etc. © Bip. 2013 - 2- Un framework per la data governance L’approccio La Data Governance nasce dall’esigenza di avere un approccio strutturato per indirizzare gli obiettivi specifici inerenti il governo del dato Clienti MACRO-ATTIVITA’ Fornitori Terze Parti 1• Creazione di un layer comune (Data Model) in grado di incrementare la comprensione sui dati e uniformare la comunicazione tra gli attori, sia interni che esterni, al perimetro aziendale 2• Impostazione delle attività di analisi 1 2 3 dell’esistente (AS IS), supportate dal Data Model, per l’individuazione delle criticità 3• Disegno del modello target (TO BE) e realizzazione di un programma di interventi per indirizzare le criticità e abilitare il miglioramento continuo (Roadmap) Gruppi operativi Gruppi direzionali Criticità Enterprise Mitigazioni © Bip. 2013 - 3- Un framework per la data governance Benefici attesi Business Units Demand Architetture Sviluppo Business Intelligence e Reporting Terze Parti • Requisitazione guidata da modello condiviso con l’IT • Trasparenza dell’IT • Allineamento tra evoluzione dei dati aziendali e Business Plan di medio – lungo termine • Analisi e disegno della soluzione guidata dal modello condiviso con sviluppo e business • Riduzione dell’effort di analisi grazie alla disponibilità di una visione aggiornata dei dati e della ownership / mastership • Disegno di soluzioni architetturali coerenti con la visione di medio lungo termine sull’evoluzione dei dati • Sviluppo guidato da disegno condiviso con i gruppi di analisi e con gli altri sistemi • Miglioramento della soluzione tecnica in termini di modello dati fisico sui singoli sistemi e progettazione delle interfacce • Visione sulla evoluzione attesa dei dati e predisposizione al cambiamento • Chiarezza sulle fonti alimentanti (dato ricevuto dai sistemi) (back-end) • Terminologia comune con gli utenti nel disegno e realizzazione degli ambienti di analisi e di reporting (front-end) • Condivisione di una terminologia comune sui dati scambiati tra le parti, e conseguente agevolazione nella definizione di linee guida di Data Quality / disegno Interfacce / etc. © Bip. 2013 - 4- Framework per la Data Governance Visione d’insieme Per affrontare in modo strutturato le problematiche e le iniziative connesse alla data governance, e guidare l’individuazione delle attività di dettaglio, Bip. ha sviluppato un framework che schematizza gli ambiti di azione e i concetti chiave DATA GOVERNANCE - FRAMEWORK Linee guida Azioni di mitigazione Roadmap evolutiva Modello operativo Data Governance Catalogo e Modello logico di riferimento dei dati (as is e to be) Data Framework Identificazione azioni di mitigazione Identificazione Criticità/ Ottimizzazioni Warning Definizione modello to-be Mapping dei dati di sistema sul modello (as-is e to-be) Mapping del modello logico sui sistemi Sistemi e dati applicativi Censimento issue, punti di attenzione e possibilità di ottimizzazione Identificazione Criticità/ Ottimizzazioni Deliverable di area © Bip. 2013 - 5- Introduzione e approccio al Data Quality Introduzione e aree di intervento Nell’esperienza Bip. un progetto di Data Quality richiede da un lato la realizzazione di interventi puntuali su modello organizzativo, processi e strumenti, dall’altro l’evoluzione dell’architettura applicativa con l’obiettivo di garantire la qualità, l’affidabilità e la coerenza interna dei dati AREE DI INTERVENTO PRINCIPALI BENEFICI MODELLO E PROCESSI Macro Processo DQ: trattamento dei dati nel loro ciclo di vita Definizione di controlli ex-ante ed ex-post Norme e standard a supporto della qualità dei dati (es. dizionario dati) Aumento della qualità e dell’affidabilità del patrimonio informativo aziendale Maggiore diffusione della conoscenza del patrimonio informativo aziendale Compliance con requisiti normativi in tema DQ (validazione) Riduzione dei rischi derivanti dal mancato rispetto di normative e policy vigenti AMBITI DI INTERVENTO DATA QUALITY SISTEMI Strumenti di analisi qualità dati Strumenti di reporting e monitoraggio delle anomalie Strumenti di aggiornamento e correzione delle anomalie ORGANIZZAZIONE Struttura del presidio di DQ Comitato di DQ Interazione fra strutture e individuazione di Focal Point Definizione di ruoli e responsabilità nel processo Maggiore adeguatezza della reportistica gestionale/direzionale (supporto ai processi decisionali e all’attuazione delle strategie di business) e regolamentare Migliorare stabilità e predittività dei modelli interni di misurazione dei rischi Benefici in termini di assorbimento di capitale a fronte dei rischi assunti Riduzione del time-to-market di nuove applicazioni e dei relativi costi © Bip. 2013 - 6- Introduzione e approccio al Data Quality Approccio al DQ A tal fine, l’approccio adottato da Bip. in diverse esperienze progettuali del settore bancario e assicurativo parte da un Modello di DQ che integra in modo strutturato le diverse aree di intervento SCHEMA LOGICO DESCRIZIONE 1 GOVERNANCE DQ 3 2 MACRO PROCESSO DQ Implementazion e del (meta)dato e delle regole nei sistemi Definizione, Aggiornamento, Estinzione del (meta)dato Creazione Aggiornamento CICLO DI VITA DIZIONARIO DATI Controllo sistematico del rispetto delle regole e risoluzione anomalie 4 PROCESSI TRASVERSALI Reporting Risk Management Riconciliazion e Rischio / Contabilità Monitoraggio PROCEDURE E APPLICAZIONI IT Strumenti di Controllo, Monitoraggio e Reporting 5 Perimetro di Dati: Interventi DQ … •1 Insieme delle attività di coordinamento e gestione del DQ per tutte le strutture ed i ruoli coinvolti 2 Insieme di regole, processi e strumenti standard di controllo, validazione e certificazione del dato che devono integrarsi in tutte le fasi del ciclo di vita 3 Elenco dei dati rientranti nell’ambito del DQ per i quali ciascuna informazione risulta univocamente definita in termini di codifica, semantica, domini, formati e ownership 4 Tool di analisi e reporting a supporto del processo di DQ che consente l’applicazione delle regole di controllo ex-ante e expost sulle basi dati e sugli applicativi nei differenti step del ciclo di vita del dato 5 Il Framework di DQ viene applicato al set di dati individuati come “key” e si sostanzia in interventi volti a sanare e prevenire anomalie sui dati con un processo strutturato © Bip. 2013 - 7- Requisiti normativi del settore assicurativo (Solvency II) … Classificazione normativa e classificazione di uso corrente Si riportano, a titolo esemplificativo, i requisiti normativi per il settore assicurativo previste sui controlli della qualità dei dati previsti dalla Direttiva 2009/138/CE Solvency II e da proposte di normative di secondo livello correlate ESEMPIO REQUISITI DI QUALITA’ DEL DATO IN AMBITO ASSICURATIVO (SOLVENCY II) * CLASSIFICAZIONE DEI CONTROLLI IT: CATEGORIE DI USO CORRENTE Appropriatezza - il dato è considerato appropriato se: • adatto per gli obiettivi desiderati (ad esempio la valutazione delle riserve tecniche, stabilire delle assunzioni); • rilevante in relazione al portafoglio di rischi in analisi (cioè direttamente legato ai risk drivers sottostanti). • Formali: Osservanza caratteristiche formali del dato rispetto al dizionario dati Completezza - Il dato è considerato completo se: • è riconducibile ai principali gruppi omogenei di rischio presenti nel portafoglio assicurativo; • è sufficientemente granulare per identificare trend di comportamento dei rischi sottostanti • è riferito a periodi storici sufficientemente lunghi, dei quali è possibile ottenere informazione storica • Accuratezza – Il dato è considerato accurato se: • è esente da errori materiali e omissioni; • la registrazione delle informazioni è adeguata, effettuata in modo continuo nel tempo e mantenuta coerente nel tempo; • viene stabilito un alto livello di confidenza sui dati; • la compagnia è in grado di dimostrare che considera il dataset credibile utilizzandolo nel contesto delle operazioni aziendali e dei processi di decision making. NOTE: * IMPLEMENTING MEASURE LEVEL II (ex CP 43) • Congruenza: Comparazione con altre informazioni con cui vi è un legame di coerenza. • Integrità Referenziale: Confronto presenza dello stesso dato in sistemi diversi fra loro in relazione. • Quadratura: Completezza flussi di alimentazione • Significatività: Individuazione anomalie rispetto confronto con trend storici © Bip. 2013 - 8- … e la declinazione dei requisiti normativi in categorie di controlli IT la creazione di un linguaggio comune Una possibile soluzione è quella di creare una trascodifica tra terminologia corrente e classificazione dettata dalle normative del Data Quality Riportiamo, a titolo esemplificativo, una tabella tratta dall’approccio Bip. applicato in progetti che coinvolgono le aree IT di primari gruppi assicurativi, per facilitare il dialogo tra l’IT e le aree funzionali (Risk Management, Amministrazione e Bilancio, … ). Nello specifico, le cinque categorie di controllo facilmente comprensibili da referenti IT sono state ricondotte ai tre criteri Solvency II secondo la tabella di seguito riportata. © Bip. 2013 - 9- La reportistica sui controlli nell’ambito del “sistema dei controlli interni” Ai fini del corretto presidio della Data Quality e in linea con quanto stabilito dalla vigente normativa nazionale e internazionale, il sistema di Data Quality dovrà essere integrato nel più ampio sistema di controlli interni che si basa su tre livelli • Controlli di primo livello, quale insieme di controlli di linea, in larga parte integrati nei sistemi informatici aziendali attuati da tutti gli utenti che partecipano ai diversi processi operativi, anche sulla base dei livelli gerarchici e del meccanismo di poteri e deleghe • Controlli di secondo livello, effettuati da altre funzioni aziendali nel rispetto del principio di separazione dei compiti e da strutture specialistiche, quali il controllo di gestione, il dirigente preposto, l'attuario, la funzione controllo reti, il risk management, la compliance • Controlli di terzo livello, ovvero i controlli e le verifiche effettuati dall’Audit di Gruppo, preposta al monitoraggio del funzionamento del sistema di controllo nel suo complesso ed alla valutazione della sua adeguatezza e dei processi di decision making. © Bip. 2013 - 10- Potenziali implicazioni funzionali per le soluzioni applicative di reporting Si riportano, a titolo esemplificativo, i requisiti di alcuni requirement della normativa Solvency II e le possibili implicazioni nell’ambito di applicazione ai sistemi di reporting REQUIREMENT NORMATIVI (ESEMPIO SOLVENCY II) IMPLICAZIONI FUNZIONALI RACCOLTA E ARCHIVIAZIONE • registrati e conservati nel loro complesso • I dati storici conservati • Ogni modifica ai dati originali deve essere documentata • conservare traccia delle correzioni a fronte di errori o omissioni . • Audit dati di origine dei report • Audit trasformazione dei dati di origine dei report • Archiviazione dati inseriti manualmente: • Controlli di validità / coerenza dei dati inseriti e gestione delle • Tracciatura ed archiviazione dei risultati intermedi di elaborazione • Audit trail azioni eseguite • Analisi storica elaborazioni/ variazioni dati: DIZIONARIO DATI • directory di ogni dato usato CONTROLLO DEI DATI • check di data quality DATA POLICY • policy sul data quality e sul data update REPORTING • descrivere in sintesi i processi e gli standard © Bip. 2013 - 11- Governance sulla struttura dei dati a supporto dei sistemi di reporting integrato Nell’ambito di reporting soggetti a recenti normative, viene posta una particolare attenzione ai requisiti di Governance della struttura dei dati sia in area finance sia nelle altre industry REQUISITI NORMATIVI VALIDI PER TUTTI I SETTORI ALTRI REQUIREMENT NORMATIVI PER IL SETTORE FINANCE Tra le norme che richiedono implicitamente o esplicitamente un processo di Data Quality si ricordano a titolo esemplificativo ma non esaustivo: • le norme inerenti la trasparenza dei mercati finanziari e, in particolare, le norme CONSOB relative alla comunicazione ai mercati finanziari di informazioni “sensibili” anche in occasione di incontri con la comunità finanziaria In tutti gli ambiti sopra evidenziati, sarà opportuno analizzare e valutare gli impatti del sistema di reporting per organizzare e pianificare sia gli interventi volti all’auditabilità e riconciliabilità dei dati prodotti, sia inerenti i controlli effettuati dal sistema di reporting nelle varie fasi di aggregazione, caricamento, elaborazione e produzione di report. • I dati dei controlli dovranno essere pianificati in linea e in coerenza con: • le normative internazionali • le normative nazionali europee dei diversi regulator • le linee guida interne all’eventuale gruppo • le linee guida nazionali applicate dalle sub-holding • Il sistema di reporting in ambito normativo di area finanza dovrà inserirsi all’interno dei sistemi di controllo interni avrà alcune linee guida di Gruppo che verranno implementate o aggiornate alla luce dell’evoluzione normativa • In particolare, ci si riferisce alle norme di Governance previste da Solvency II e Basel II nel Pillar 2 per il rispetto dei requisiti qualitativi relativi alla gestione interna (governance, controllo interno e organizzazione) dell'impresa finanziaria. • Sono, inoltre, indicate anche le norme relative al processo di autovalutazione periodica delle esigenze di solvibilità, e all’identificazione e valutazione dei rischi non quantificabili cui l’impresa è esposta. • le norme in corso di emanazione inerenti i conglomerati finanziari • le norme inerenti i processi di governo in aree finanza (ICAAP e ORSA) © Bip. 2013 - 12- Allegato Metodologia DQ applicata ai sistemi di reporting © Bip. 2013 - 13- Framework Data Quality Management Il nostro approccio al Data Quality Management prevede due pilastri principali: la definizione del modello di Data Quality e la definizione di processi e architettura di CdG L’obiettivo è definire, implementare e monitorare le regole e i processi necessari a garantire la qualità dei dati del reporting, dei sistemi di sintesi del CdG e del DWH Interventi di Data Quality Data Quality Management Accounting Analisi dei dati, individuazione anomalie e pianificazione interventi per eliminazione anomalie Attivazione interventi crash (bonifiche) e strutturali Attivazione processo strutturato di monitoraggio dei dati, prevedendo controlli ex ante ed ex post sui dati Razionalizzazione del “ciclo di vita” dei dati critici Interventi di processo e sui sistemi di CdG e DWH Analisi e revisione della reportistica di CdG prevendo interventi di razionalizzazione sul sistema di CdG, sui motori di applicazione delle regole gestionali e sul DWH (approccio bottom up nell’audit trail del dato) Analisi della reportistica e del processo di produzione del dato Gap analysis e analisi delle criticità e categorizzazione per ambito funzionale per identificarne impatto e priorità di intervento Analisi dell’architettura funzionale e applicativa (e dei sistemi a supporto) del management accounting (flussi di input/output, restitution, golden rules del CdG, ...) Definizione del processo di audit trail del dato e monitoraggio anomalie © Bip. 2013 - 14- Interventi di Data Quality Vista di sintesi In primo passo consiste nella definizione di un framework, immediatamente applicabile, costituito da un insieme strutturato di processi, regole e strumenti a supporto delle attività di controllo e certificazione dei dati e al presidio del ciclo di vita del dato, dalla nascita del bisogno informativo alla certificazione della qualità del dato Ambito WORKFLOW Principali Interventi Asset Bip. Definizione del macro processo di Data Quality con l’obiettivo di presidiare il ciclo di vita del dato, Macro processi e processi di dettaglio dalla nascita del bisogno informativo alla certificazione della qualità del dato, stabilendo ownership, attività e tempistiche di intervento in relazione alle fasi di: Definizione: nascita esigenza di un nuovo dato, definizione e valutazione degli impatti CICLO DI VITA Implementazione del dato e delle regole nelle procedure applicative della banca e consolidamento delle informazioni (es. aggiornamento manuali utente) Gestione operativa: Inserimento, aggiornamento ed eventuale cancellazione del dato nelle procedure, in modo manuale o automatico (in base alle regole di alimentazione) Monitoraggio Monitoraggio: Verifica anomalie ed errori e indirizzamento per la risoluzione delle stesse, risoluzione anomalie e validazione dell’intervento Certificazione: validazione finale del dato e rimozione dell’anomalia CODIFICA e SEMANTICA DEI DATI Costruzione di un dizionario dati finalizzato ad agevolare il controllo dei dati e a garantire: univocità di definizione Dizionario Dati codifica e semantica del dato Owner del dato REGOLE DI CONTROLLO Censimento, classificazione e codifica delle regole ex ante da applicare nei sistemi di origine del dato ed ex post da applicare nei sistemi di destinazione del dato, dei dati soggetti a controllo e delle Check List regole tipologie di warning che rappresentano gli elementi di base su cui costruire il sistema di monitoraggio della qualità © Bip. 2013 - 15- Interventi di Data Quality Dizionario Dati Per agevolare il controllo dei dati può essere utile definire un “Dizionario Dati” con l’obiettivo di garantire univocità di definizione, codifica e responsabilità delle informazioni che impattano sul controllo di gestione O ATIV C I F I MPL ESE Struttura Struttura del del Dizionario Dizionario Dati Dati Principali caratteristiche Definizione univoca dei dati oggetto di monitoraggio in termini di codifica, semantica, domini, formati e ownership Creazione, gestione e manutenzione del Dizionario Dati con l’obiettivo di aggiornare il Dizionario con cadenza periodica oppure “on demand “laddove intervengano modifiche significative nella semantica o nella codifica delle informazioni Definizione insieme delle regole, processi e strumenti standard di controllo, validazione e certificazione del dato Nuovi requisiti di business oppure richieste di modifiche dei dati devono essere evidenziate dall’owner del dato e prevedono una nuova codifica/ semantica del dato La richiesta di modifica della scheda Dizionario Dati attiva il processo di analisi di impatto © Bip. 2013 - 16- Interventi di Data Quality Tipologie di Controlli La rilevazione delle anomalie può essere effettuata introducendo due momenti di controllo: controlli ex ante sui sistemi origine del dato(es. legacy, motori di CdG) e controlli ex post sui sistemi destinatari del dato (es. Management Information System, DWH…) FAMIGLIA DI CONTROLLI TIPOLOGIA CONTROLLO DESCRIZIONE CONTROLLI DI PRIMO LIVELLO (FLUSSI) CONTROLLI EX ANTE PRESENZA FLUSSI ATTESI Verifica della avvenuta produzione dei flussi di input ed output attesi NUMEROSITA’ RECORD Verifica numerosità dei record caricati rispetto ai record presenti nei flussi di origine NUMEROSITA’ CAMPI Verifica numerosità dei campi caricati rispetto ai campi presenti nei flussi di origine CONTROLLI DI SECONDO LIVELLO (CAMPI) VALORIZZAZIONE CAMPI Verifica della presenza dei dati obbligatori COERENZA FORMALE CAMPI Verifica del rispetto dei vincoli di codifica, semantica e di dominio del dizionario dati COERENZA SOSTANZIALE CAMPI Verifica di consistenza dei dati tra le diverse fonti e di coerenza della valorizzazione delle informazioni destinate a diversi sistemi QUADRATURE/RICONCILIAZIONI QUADRATURE SISTEMI ALIMENTANTI SISTEMI DI SINTESI QUADRATURE TRA SISTEMI DI SINTESI CONTROLLI EX POST Quadrature di periodo (giornaliere, decadali, mensili) tra stok dei sistemi origine del dato (es. partitari) e stock dei sistemi destinatari (es. stock contabili) Quadratura dei dati appartenenti al patrimonio informativo comune dei sistemi di sintesi (es. Contabilità vs CdG, CdG vs ALM e vs CRM, CdG vs Marketing) MONITORAGGIO ANOMALIE RILEVAZIONE ANOMALIE RICORRENZA FENOMENO ANOMALO VERIFICHE ANDAMENTALI Intercettazione dei fenomeni anomali attraverso l’impostazione di range di tolleranza, valori minimi e massimi del dato Verifica numerosità e diffusione dell’anomalia (nuova anomalia, anomalia già riscontrata e corretta con bonifica, anomalia già riscontrata ma non ancora corretta…) Verifica degli scostamenti dei fenomeni anomali avvenuti tra elaborazioni successive (es. confronti year to date, month to date , daily..) © Bip. 2013 - 17- Interventi di Data Quality Dati di Management Accounting oggetto di controllo Nella nostra esperienza, i dati di management accounting di natura economica oggetto di controllo e riconciliazioni mensili appartengono a due cluster principali: dati contabili e dati extracontabili Cluster 1 DATI CONTABILI Dati Margine di Interesse (interessi reali attivi e passivi) Commissioni Nette (commissioni attive e passive) Altri Oneri e Proventi (Utile/perdita da negoziazione) Costi Operativi (personale, ASA) 2a Mercato/Segmento Commerciale di appartenenza del DATI EXTRACONTABILI Cliente Portafoglio Commerciale di appartenenza del Cliente REFERENZIALI EFFETTI FIGURATIVI (interessi figurativi attivi e passivi 2b DATI EXTRACONTABILI IMPORTI calcolati al TIT) Tasso Interno di Trasferimento (TIT) e Volumi Punti di Attenzione Necessità di quadrare i dati gestionali con i dati contabili sulla base della riclassificazione gestionale del Bilancio mediante il raccordo: Contabilità e CdG a livello di singolo rapporto Piano dei Conti vs Catalogo Prodotti Gestionale Difficoltà nel riconciliare le informazioni gestite nei sistemi referenziali con le informazioni acquisite nei sistemi di CdG finalizzate al breakdown dei dati: CdG vs archivi anagrafici per allineamento Customer Segmentation e calcolo revenue allocation Allineamento CdG vs Marketing per riconciliazione portafogliazione clientela e monitoraggio clientela non portafogliata (es. Mercato “Non Attribuito”) Difficoltà nel riconciliare la componente figurativa a causa di: Tempi diversi di elaborazione del dato nei sistemi di CdG (mensile) e ALM/Tesoreria (giornaliera) Differente base di calcolo utilizzata per il calcolo dei volumi (es. 360 vs 365) Differente modalità di rilevazione del TIT (assegnazione giornaliera, nei sistemi di ALM vs calcolo media mensile nei sistemi di CdG La presenza di uno strato centralizzato di applicazione delle regole e arricchimento delle informazioni semplifica le attività di quadratura/riconciliazione con conseguente riduzione delle attività manuali dedicate ad adjustment del dato © Bip. 2013 - 18- Interventi di Data Quality Riconciliazione Contabilità vs CdG Tutti i dati di ricavo/costo sono quadrati alla fonte o riconciliabili con la contabilità attraverso livelli di aggregazione del catalogo prodotti che riproducono le voci di Conto Economico Margine Intermediazione Raccordo contabile (Voci di CE) – gestionale (Prodotti Gestionali) 10 Interessi attivi e proventi ass. 20 Interessi passivi e oneri ass. Raccolta Diretta/Impieghi (es.: Conti Correnti, Depositi Risparmio, Mutui ). Commissioni nette Raccolta Indiretta/Servizi Transazionali (es.: Risparmio gestito, Previdenza, Cash Management) 80 Profitti da operazioni finanziarie Profitti su Derivati, profitti su equity e fixed income 90, 100, 110 Altri proventi e oneri gestionali Recupero bolli e spese (es.: recupero bolli su C/C passivi) Dividendi e altri proventi Dividendi da partecipazioni e investimenti 40,50 70 Il catalogo prodotti gestionali deve essere strutturato per poter essere raccordato alla contabilità e allo stesso tempo per consentire l’analisi dei fenomeni gestionali Per ogni prodotto è disponibile un set differenziato di misure che rendono possibile il calcolo di tassi, spread e pricing © Bip. 2013 - 19- Interventi di Data Quality Mappatura Prodotti – Misure CdG L’incrocio di prodotti e misure consente l’analisi di tassi, mark-up/mark-down e pricing tipica dell’ottica gestionale Mappatura Prodotti - Misure Volumi medi 10 20 40,50 Interessi attivi e proventi ass. (Impieghi clientela) Interessi passivi e oneri ass. (Raccolta clientela) Commissioni nette (Raccolta clientela) 80 Profitti operazioni finanziarie 90, 100, 110 Altri prov. e oneri di gest. 70 Dividendi e altri proventi Interessi reali Interessi di Interessi Commissioni mora figurativi Flussi Entrata/ uscita Analisi tassi e spread Analisi pricing La misura, dimensione che si affianca al prodotto, consente di acquisire ed analizzare diverse tipologie di informazioni per lo stesso prodotto (es.: per la raccolta diretta sono acquisiti volumi medi, interessi passivi e ricavi figurativi; per i fondi comuni vengono acquisite le diverse tipologie di commissione, i volumi medi e diverse misure di flusso come conferimenti, piani di accumulo)… © Bip. 2013 - 20- Interventi di Processo e sui Sistemi Linee Guida EVolutive Un modello avanzato di certificazione dei dati prevede alcuni interventi sui processi e sui sistemi (in particolare sistemi di sintesi e DWH), definiti nell’ottica arricchire il patrimonio informativo e la profondità di analisi a supporto delle strategie decisionali e snellire i processi di di riconduzione/audit trail del dato Linee guida Convergenza dell’architettura verso un unico punto di consistenza e aggregazione dei dati nel DWH Definizione di un modello dati unico integrato per tutta la reportistica gestionale Razionalizzazione delle alimentazioni in un’ottica di controllo della qualità dei dati: • Individuazione delle fonti di alimentazione corrette per ciascun dato • Bonifica di flussi ridondanti in termini di contenuto informativo, di flussi duplicati (flussi identici con periodicità e latenza differenti) e correzione dei dati anomali (carenze informative, valori di dominio errati…) Dismissione dei report e dei flussi ridondanti Creazione tool automatici a supporto dei processi di quadratura/riconciliazione/verifiche o adjustment manuali Creazione di datamart tematici e viste verticali specializzate per aree di business Arricchimento del patrimonio informativo e della profondità di analisi a supporto delle strategie decisionali, sulla base requisiti espressi dagli utenti Proponiamo una prima fase progettuale finalizzata al perseguimento di specifici obiettivi conseguibili in ottica quick win su un perimetro circoscritto di dati da definire in ottica: - Riduzione manualità - Riduzione tempi di elaborazione e produzione reportistica (fast close) - Miglioramento qualità del dato © Bip. 2013 - 21- Interventi di Processo e sui Sistemi Impatti Architetturali Il miglioramento della qualità dei dati genera impatti su tutti i layer architetturali (in particolare sui sistemi di sintesi e storage) prevedendo attività di analisi e sviluppo sulle fonti alimentanti, motori, data storage e applicazioni di sviluppo della reportistica Fonti alimentanti Schema concettuale architettura Sistemi Operazionali Sistemi Referenziali Highlights Altre fonti Motori contabili Data Storage Motori di calcolo Disaccoppiamento applicativo Motori gestionali Motori commerciali Motori di rischio Data Storage • Analisi dati per arricchimento set informativo • Introduzione di controlli a monte sui dati (controlli ex ante nei flussi di output dei sistemi legacy) • Accentramento e razionalizzazione delle alimentazioni vs il DWH • Definizione di un modello dati unico integrato per tutta la reportistica gestionale • Introduzione controlli di qualità dei dati sui diversi livelli di ETL di DWH • Evoluzione/arricchimento flussi di alimentazione Reporting Disaccoppiamento tecnologico DM DM Rischio DM Gestionale riconciliazioni Commerciale riconciliazioni • Evoluzione attuale reportistica CFO sulla base delle nuove alimentazioni da DWH • Implementazione controlli di qualità dei dati su sistemi di reporting (controlli ex post) © Bip. 2013 - 22- Interventi di Processo e sui Sistemi Tool di Data Quality Alcuni Clienti, per rilevare, monitorare e indirizzare le anomalie sui dati, hanno implementato un tool di DQ in grado di centralizzare le anomalie, effettuare controlli di qualità sui dati, memorizzarne i risultati in un database centralizzato ed elaborare report di sintesi Schema logico Principali caratteristiche Sistemi in ambito CRM CdG COGE Basilea II ... TBD L’interfaccia con i sistemi applicativi ha il compito di richiedere al componente Motore la lista dei controlli da effettuare, di eseguirli sul sottosistema interessato, di rilevare le eventuali anomalie e di inviarle al modulo Motore per la memorizzazione accentrata Interfaccia sistemi di sintesi Motore controlli Gestione regole Il componente Motore consente di effettuare il censimento, la classificazione e la codifica delle regole, degli oggetti di controllo e dei controlli che costituiscono gli elementi di base su cui è costruito il sistema di monitoraggio della qualità DB anomalie DB regole Cruscotti Reporting Ipercubo Utenti Report Il componente Reporting mette a disposizione dell’Utente un set di report, suddivisi in diverse categorie (Cruscotti, Analitici, Documentali, Operativi, Scorecard, ecc.), attraverso i quali è possibile analizzare e comprendere rapidamente i fenomeni relativi alla Qualità dei Dati, individuare le criticità più rilevanti e definire le azioni da intraprendere Il database centralizzato consente di archiviare sia le regole di controllo che le anomalie riscontrate La strategia di realizzazione della soluzione a regime può essere “make or buy”, di conseguenza la scelta del tool di Data Quality richiede la valutazione dell’opportunità di un’implementazione custom a fronte della scelta di acquisire un pacchetto software presente sul mercato © Bip. 2013 - 23- Luca D’Onofrio e-mail [email protected] tel +39 02 454 1521 cell +39 348 3959947 www.businessintegrationpartners.com Milano Roma Madrid Lisbona Buenos Aires Tunisi San Paolo Santiago