SIS Società Italiana di Statistica Gruppo di Coordinamento “Statistica per le Imprese” LA STATISTICA PER LE IMPRESE L’ESPERIENZA DEGLI OPERATORI Programma e abstract Bologna, 21-22 novembre 2003 ALMA MATER STUDIORUM – UNIVERSITÀ DI BOLOGNA DIPARTIMENTO E FACOLTÀ DI SCIENZE STATISTICHE Con il contributo di PROGRAMMA VENERDÌ 21 NOVEMBRE 2003 - MATTINA 10.00 Apertura del convegno 10.30-11.25 Saluti Università di Bologna V.B. Frosini (Presidente della Società Italiana di Statistica) Relazioni introduttive F. Tassinari (Università di Bologna) Impresa, statistica, statistici I. Cipolletta (Presidente UBS Corporate Finance Italia) Uno statistico nell’impresa: riflessioni su un percorso 11.25-13.10 Aula 1 Statistica Sessioni parallele Marketing e pubblicità Statistica per la tecnologia e la produzione Presidente: M. Montinaro (Univ. di Torino) Discussant: S. Brasini (Univ. di Bologna) V. Bonori (ZENITHOPTIMEDIA ITALIA) Presidente: A. Zanella (Univ. Cattolica di Milano) Discussant: A. Giovagnoli (Univ. di Bologna) E. Cascini (3M ITALIA) La misurazione del ROI delle campagne pubblicitarie: modellistica memoriale ed econometrica Dal controllo statistico del prodotto al controllo statistico del processo con l’ausilio di casi reali C. Crespi (ACNIELSEN) Applicazione per la valutazione della resa degli investimenti promozionali A. Ghiglione (ALLIED DOMECQ) La misurazione del ROI come filosofia continuativa nelle strategie di marketing D. Paladini (IRI- INFOSCAN) Un metodo per la determinazione dei livelli ottimali di prezzo al pubblico U. Cardamone, L. Deldossi (STMICROELECTRONICS, UNIV. CATTOLICA DI MILANO) Strumenti di controllo dell’impatto ambientale in presenza di dati autocorrelati G.B. Frisoni, U. Magagnoli , R. Paroli (IRCCS CENTRO SAN GIOVANNI DI DIO – FBF, UNIV. CATTOLICA DI MILANO) Computational neuratomy: interface between neuroscience and statistics P. Grazioli, E. Cascini (3M ITALIA) Strategia complessiva per la determinazione e l’uso delle superfici di risposta in un caso reale complesso Aula 3 Statistica Aula 1 Statistica 13.10-14.00 Pausa pranzo Palazzo Bianconcini (Via Belle Arti 42 - I piano) 2 PROGRAMMA VENERDÌ 21 NOVEMBRE 2003 - POMERIGGIO 14.00-15.40 Sessioni parallele Analisi dei mercati finanziari e assicurativi Presidente: R . Ottaviani (Univ. di Roma La Sapienza) Discussant: G. Pellegrini (Univ. di Bologna) R. Maino (SANPAOLO IMI) Metodi Statistici nelle Previsioni Finanziarie Metodologie e Modelli per la Gestione del Rischio M. Mangia, C. Conversano, D. Vistocco (NUMERIA, UNIV. DI CASSINO, UNIV. DI NAPOLI FEDERICO II) L’analisi della performance e controllo del rischio nell’industria del risparmio gestito R. Cannata, G. Millo (ASSICURAZIONI GENERALI) Sistemi informativi aziendali e metodi di supporto alle decisioni Poster 1 Presidente: A. Rizzi (Univ. di Roma La Sapienza) Discussant: C. Provasi (Univ. di Padova) S. Calliari (BANCA INTESA) G.P. Cervellera, G. Ghellini (POSTE ITALIANE, UNIV. DI SIENA) Una soluzione a basso costo al “Time Series Warehousing” di larga scala per Aziende ed Enti di Ricerca M. Crescenzi (SPSS) La segmentazione comportamentale nel mercato finance: confronto tra tecniche tradizionali e reti neurali M. Giacomini (SAS) Forecasting: prevedere gli eventi per pianificare le strategie aziendali B. Sfogliarini (IMS HEALTH) CRM: il ruolo della statistica Modelli di previsione nel mercato assicurativo (danni) Reti neurali e grafica: una proposta metodologica per la segmentazione della clientela P. Frederic, M. Catellani, M. Di Bacco (UNIV. DI BOLOGNA, CIBA) Valutazione statistica di un indice di resa-qualità in un processo di produzione chimico-industriale: una analisi predittiva D.S. Gazzei, F. Lucattini (UNIV. DI SIENA, POSTE ITALIANE) Un primo approccio per ottimizzare la copertura territoriale in Poste Italiane D.S. Gazzei, F. Valiante (UNIV. DI SIENA, CAPITALIA) Un modello in ambito TCM per il dimensionamento dell’area operativa delle filiali di Banca di Roma L. Zauli (CRIF) Modelli di credit scoring sviluppati su piattaforma D.AN.TE. B. Torrisi, G. Skonieczny (UNIV. DI CATANIA) L’AMC per la valutazione di progetti pubblici per lo sviluppo sostenibile di un’area: il software e un caso studio Aula 1 Statistica 15.40-15.55 15.55-17.30 Aula 3 Statistica Coffee break Biblioteca di Statistica (I piano) Sessioni parallele Certificazione di bilancio e Analisi dei mercati controllo di gestione Presidente: R. Guarini (Univ. di Roma La Sapienza) Discussant: C. Quintano (Univ. Parthenope di Napoli) G. Neri (ERNST & YOUNG) Campionamento statistico nella revisione del bilancio societario R. Sollevanti, V. Lo Vecchio (PRICEWATERHOUSECOOPERS, STUDIO PIROLA GISMONDI E ASSOCIATI) Il TFR contabilizzato secondo lo IAS 19 M. Violi (KPMG) Il risk management come nuova frontiera del processo di revisione di bilancio Presidente: C. Lauro (Univ. di Napoli Federico II) Discussant: G. Marbach (Univ. di Roma La Sapienza) V. Brichetti, N. Adan Munoz, M.G. Grassia (CONSIP, UNIV. DI NAPOLI FEDERICO II) Analisi della customer satisfaction e profiling dei clienti CONSIP: un'applicazione del modello ECSI A. Busetto (RAS) La Business Intelligence come supporto alla Strategia Cliente M. Chiaro (TIM) Le analisi sul cliente e sulla rete di vendita TIM M. De Rosa (CREACTIVE) Diagnosi strategica in 3 Mappe. Una ricetta dai mercati farmaceutici Aula 2 Statistica Poster 2 L. La Tona, M. Giacalone (UNIV. DI MESSINA) Qualità dei servizi: uno strumento di controllo E. Paolucci, M. La Torre, M. Cardullo, E. Gallina (POSTE ITALIANE) La Customer Satisfaction in Poste Italiane: indagine conoscitiva della qualità e studio delle percezioni della clientela A. De Rose, L. Gioia, E. Degennaro (UNIV. DI ROMA, SHERING SPA, BBC SRL) Un’indagine di mercato per la contraccezione orale in Italia S. Figini, P. Giudici (UNIV. DI PAVIA) Metodi di link analysis per l’individuazione delle frodi G. Orlandi (COMUNE DI MODENA) Informazione statistica da dati gestionali. Un caso concreto: imprese del commercio in sede fissa 17.30 Aula 3 Statistica Aula 1 Statistica Aula 2 Statistica Assemblea del Gruppo di coordinamento Statistica per le Imprese Aula 1 Statistica 3 PROGRAMMA SABATO 22 NOVEMBRE 2003 - MATTINA 10.00-11.40 Sessioni parallele Business analysis Logistica Statistica nel settore pubblico Presidente: M. Vichi (Univ. di Roma La Sapienza) Discussant: G. Tassinari (Univ. di Bologna) D. Bruzzese, P. Papa (UNIV. NAPOLI FEDERICO II, CROSSZ SOLUTIONS) Presidente: A. Erba (Univ. di Roma La Sapienza) Discussant: I. Drudi (Univ. di Bologna) G. Cuffaro (COOP ITALIA) Presidente: A. Zuliani (Univ. di Roma La Sapienza) Discussant S. Biffignandi (Univ. di Bergamo) G. Caselli (UNIONCAMERE) Strumenti di validazione statistica nelle nuove infrastrutture aziendali per la Business Analysis: requisiti, prospettive e casi di studio F. Fabi (MICROSOFT) La strategia Microsoft per la Business Intelligence D.S. Gazzei, G.P. Cervellera (UNIV. DI SIENA, POSTE ITALIANE) La gestione delle scorte e del riordino ai fornitori nella G.D.O. F. Tavassi, D. Battistini (EXECUTIVE) Ottimizzazione statistica dei percorsi di trasporto merci S. Vicentini, G. Pachera (XL LOGISTICA – RIELLO) Determinazione delle tariffe di gestione di magazzino e controllo della redittività L’efficienza dell’offerta nelle aziende che erogano servizi al pubblico. Sistemi previsivi per il flusso di clientela in Poste Italiane Controlli di qualità e integrazione degli archivi amministrativi. L'osservatorio Unioncamere sui gruppi d'impresa. E. Fortunato, U. Moretti (ISTAT, REGIONE LAZIO) Utilizzazione e analisi delle basi informative amministrative della Regione Lazio R. Innocenti, L. Buzzigoli, C. Martelli (COMUNE DI FIRENZE, UNIV. DI FIRENZE) La statistica a supporto della governance a livello locale: il caso del Comune di Firenze C. Panella, P. Picchizzolu, P. Giudici (WESERVICE, UNIV. DI PAVIA) C. Rossi (ASL BRESCIA) Statistica nel settore pubblico: il caso dell’ASL di Brescia Modelli di previsione del "churn" per l'Internet banking 11.40-13.00 Aula 1 Statistica Aula 3 Statistica Aula 2 Economia Tavola rotonda La statistica ufficiale nella produzione di un sistema informativo macro e micro di supporto alle imprese Presidente: C. Filippucci (Univ. di Bologna) L. Biggeri (Presidente ISTAT) S. Billè (Presidente CONFCOMMERCIO) G. de Caprariis (Centro Studi di CONFINDUSTRIA) E. Giovannini (Chief Statistician dell'OECD) S. Noè (Giunta di Presidenza CONFAPI) 13.00 Aula 1 Statistica Aperitivo di saluto Palazzo Bianconcini (Via Belle Arti 42 - I piano) 4 Marketing e pubblicità LA MISURAZIONE DEL ROI DELLE CAMPAGNE PUBBLICITARIE: MODELLISTICA MEMORIALE ED ECONOMETRICA Vittorio Bonori (ZENITHOPTIMEDIA ITALIA) APPLICAZIONI PER LA VALUTAZIONE DELLA RESA DEGLI INVESTIMENTI PROMOZIONALI Carlotta Crespi (ACNIELSEN) LA MISURAZIONE DEL ROI COME FILOSOFIA CONTINUATIVA NELLE STRATEGIE DI MARKETING Andrea Ghiglione (ALLIED DOMECQ) UN METODO PER LA DETERMINAZIONE DEI LIVELLI OTTIMALI DI PREZZO AL PUBBLICO Daniele Paladini (IRI – INFOSCAN) 5 LA MISURAZIONE DEL ROI DELLE CAMPAGNE PUBBLICITARIE: MODELLISTICA MEMORIALE ED ECONOMETRICA Vittorio Bonori (ZenithOptimedia Italia) La relazione affronta la misurazione del ROI (Return on Investment) delle campagne pubblicitarie attraverso due momenti di analisi; il primo focalizzato sul Metodo, il secondo incentrato sugli Strumenti e supportato da un reale caso di mercato. ZenithOptimedia, che rappresenta uno dei più importanti Centri Media a livello internazionale ed appartiene al primo gruppo di comunicazione al mondo (Publicis), ha recentemente rivisto il proprio posizionamento, diventando l’Agenzia del ROI. Questo nuovo posizionamento fa sì che ogni fase strategica di un progetto di comunicazione sia supportata dall’utilizzo di tecniche e strumenti statistici. Così, ad esempio, le analisi di segmentazione del mercato possono trovare una maggiore solidità grazie all’applicazione di tecniche di statistica multivariata, le procedure di budget setting (definizione della corretta soglia di investimento) vengono guidate da analisi di modellistica econometrica in ragione di comportamenti storici del mercato ed infine le scelte “creative” o di pianificazione possono trarre beneficio da esercizi di modellistica memoriale (quanti soggetti mandare in onda, come farli ruotare nel corso della campagna, quale tecnica di temporizzazione adottare, quale formato scegliere, ecc.). L’adozione del ROI quale variabile obiettivo implica inoltre una maggior responsabilizzazione di tutte le funzioni aziendali, che devono identificare, fin dalle prime fasi di ciascun progetto, i “Key Performance Indicators” (KPIs) ritenuti idonei a misurare la performance della campagna pubblicitaria. Questi indicatori vengono scelti coerentemente agli obiettivi di marketing e comunicazione che l’azienda si propone di raggiungere e permettono una reale quantificazione dei risultati. A titolo esemplificativo, se un utente pubblicitario decide di stanziare un budget di comunicazione per il lancio sul mercato di un nuovo prodotto, i KPIs saranno definiti in modo da riuscire a misurare il raggiungimento degli obiettivi che una fase di lancio solitamente prevede. Così, oltre alla quantificazione dei risultati di vendita, l’analisi prenderà in considerazione KPIs capaci di valutare la notorietà generata nelle prime fasi del lancio (diffusione della conoscenza del nuovo prodotto) e la costruzione di una corretta brand equity (identità/immagine di marca), verificandone la sintonia con le aspirazioni di posizionamento. 6 Un’esemplificazione più concreta del metodo esposto è data da una case history tratta dal mercato dei farmaci da banco (prodotti analgesici). In questo comparto (medicinali per i quali non è necessaria alcuna prescrizione medica) le vendite sono il risultato delle politiche pubblicitarie, promozionali e distributive, mentre l’influenza del prezzo è tendenzialmente irrilevante (il prodotto non è allocato a scaffale e viene fornito dal farmacista). Questo esempio mostra come la modellistica, utilizzata nella duplice veste memoriale ed econometrica, possa supportare efficacemente le scelte strategiche aziendali. Un’azienda farmaceutica leader a livello internazionale aveva deciso di razionalizzare il proprio portafoglio prodotti, con l’obiettivo di assegnare a ciascun prodotto il presidio di una specifica patologia. Come conseguenza, un prodotto analgesico storicamente comunicato come rimedio per il mal di testa era stato riposizionato, in chiave pubblicitaria, sulla patologia del mal di schiena. Questa scelta, in chiave di marketing e di comunicazione, aveva portato l’azienda ad aumentare i volumi di vendita già nel primo anno di cambiamento. Un’analisi approfondita delle dinamiche di vendita, grazie al contributo di un’intensa attività di modellistica, aveva evidenziato un fattore di rischio per la profittabilità aziendale. In sostanza, il nuovo posizionamento stava deteriorando le vendite incrementali nel breve periodo mentre l’aumento dei volumi complessivi di vendita, letto inizialmente come un successo, era stato determinato da un incremento della baseline (vendite di base), e dunque dagli effetti di lungo termine prodotti dal posizionamento originario (mal di testa). Questa case history riapre uno storico dibattito tra effetti a breve e lungo termine della pubblicità, evidenziando come i risultati di breve termine non siano una garanzia di quelli a lungo. La relazione si conclude con un interrogativo circa il futuro impiego della Statistica in ambito aziendale. Le aziende che avranno la capacità di adottare un metodo di lavoro “olistico” e fortemente incentrato su un impiego efficiente dei metodi statistici potranno ambire ad occupare una posizione centrale nel mercato. 7 APPLICAZIONI PER LA VALUTAZIONE DELLA RESA DEGLI INVESTIMENTI PROMOZIONALI Carlotta Crespi (ACNIELSEN) Introduzione: La statistica presso ACNielsen In qualità di azienda leader nel settore delle ricerche di mercato, ACNielsen é naturalmente caratterizzata da un utilizzo diffuso di tecniche statistiche al suo interno.Tra i reparti che si affidano all’utilizzo di tali tecniche si distinguono Stat Ops (statistical operations, ovvero gestione dei panel di rilevazione, controllo produzione, ecc), l’area delle ricerche ad hoc (soprattutto di tipo qualitativo) ed i cosiddetti servizi a valore aggiunto, tra cui Modelling & Analytics Consulting. Modelling& Analytics Consultino All’interno del portafoglio dei servizi a valore aggiunto, opera il gruppo Modelling & Analytics Consulting. Tale gruppo é costituito da specialisti con background accademico in statistica, matematica o economia che hanno come obiettivo lo sviluppo di soluzioni, ad alto contenuto analitico, volte a supportare i clienti di ACNielsen nelle proprie decisioni aziendali, pricipalmente nelle aree Marketing, Trade Marketing e Vendite.In particolare, i servizi del gruppo sono volti ad aiutare i clienti nel minimizzare i rischi legati a decisioni sia strategiche che tattiche. Il Modello Marketing Mix Una delle soluzioni di maggior successo tra quelle commercializzate da ACNielsen M&A Consulting é il cosiddetto modello Marketing Mix, ovvero uno stumento volto a valutare la resa degli investimenti in attività promozionali.Il prodotto consiste nell’applicazione di un modello di regressione multivariata a set di dati disaggregati, quali le informazioni raccolte settimanalmente presso i singoli punti vendita appartenenti al campione retail ACNielsen. I risultati del modello vengono applicati ai dati di vendita in modo da scomporre i volumi in tre principali componenti: vendite di base, vendite sottratte dalla concorrenza e vendite incrementali dovute ad attività promozionali.Tramite un’analisi approfondita del terzo elemento, ACNielsen é in grado di valutare e confrontare la resa degli investimenti promozionali e di fornire raccomandazioni ai propri clienti sulle strategie da adottare. 8 UN METODO PER LA DETERMINAZIONE DEI LIVELLI OTTIMALI DI PREZZO AL PUBBLICO Daniele Paladini (IRI – INFOSCAN) Il supporto che una società come IRI INFOSCAN può fornire alle aziende che operano nel mercato dei beni di largo consumo comprende diversi ambiti : la disponibilità di una base dati a livello di singolo codice EAN per oltre tremila punti di vendita della distribuzione moderna permette sia un accurato tracking, con dettaglio settimanale, delle performance del mercato, sia la possibilità di realizzare progetti di ricerca ad hoc mirati all’analisi di specifici aspetti di interesse. Fra questi l’efficacia delle promozioni, i rapporti di concorrenza, il ROI legato agli investimenti pubblicitari, l’elasticità al prezzo. Questo intervento illustra lo strumento che IRI propone alle aziende per la definizione dei livelli ottimali di prezzo al pubblico. Il metodo viene presentato considerando due prospettive : da una parte il punto di vista dell’azienda, che deve essere messa in grado di applicare efficacemente e in maniera operativa i risultati della ricerca ; dall’altra quello dell’analista statistico IRI, che ha bisogno di affidarsi ad una metodologia robusta ed efficiente. In particolare, IRI utilizza la tecnica statistica nota come Bayesian shrinkage con l’obiettivo di ottenere stime dell’elasticità delle vendite al prezzo che siano ragionevolmente declinabili con un dettaglio strutturale/geografico interessante, senza perdere la stabilità né la coerenza dei risultati. Il metodo consiste nell’utilizzare un modello gerarchico che scompone gli effetti in una componente “fissa” e in una componente “random”, di volta in volta associata con le caratteristiche del soggetto studiato (nel nostro caso, il punto di vendita). I coefficienti così stimati risultano più “sensati” rispetto ai risultati di un classico modello OLS con lo stesso dettaglio. 9 Statistica per la tecnologia e la produzione DAL CONTROLLO STATISTICO DEL PRODOTTO AL CONTROLLO STATISTICO DEL PROCESSO; UN ESPERIENZA CONCRETA Egidio Cascini (3M ITALIA S.P.A.) STRUMENTI DI CONTROLLO DELL'IMPATTO AMBIENTALE IN PRESENZA DI DATI AUTOCORRELATI Ugo Cardamone (STMICROELECTRONICS) Laura Deldossi (UNIVERSITÀ CATTOLICA DEL S.CUORE) COMPUTATIONAL NEUROANATOMY: INTERFACE BETWEEN NEUROSCIENCE AND STATISTICS Giovanni B. Frisoni (Laboratorio di Epidemiologia & Neuroimmagini IRCCS San Giovanni di Dio FBF - The National Center for Research and Care of Alzheimer's Disease) Umberto Magagnoli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE) Roberta Paroli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE) STRATEGIA COMPLESSIVA PER LA DETERMINAZIONE E L’USO DELLE SUPERFICI DI RISPOSTA IN UN CASO REALE Egidio Cascini (3M ITALIA S.P.A.) Pierattilio Grazioli (3M ITALIA S.P.A.) 10 DAL CONTROLLO STATISTICO DEL PRODOTTO AL CONTROLLO STATISTICO DEL PROCESSO; UN ESPERIENZA CONCRETA Cascini Egidio (3M ITALIA S.P.A.) Alla luce dell'esperienza concreta dell'autore, sono riproposte, in sintesi, le tappe fondamentali della gestione della qualità industriale, dagli anni ‘70 ad oggi, con particolare riferimento al ruolo ed all'evoluzione delle metodologie statistiche. I trent’anni considerati sono suddivisi in tre periodi, coincidenti approssimativamente con le tre decadi, '70-'80, '80'90, e dal '90 ad oggi, identificabili rispettivamente con il controllo di qualità del prodotto, il miglioramento della qualità del processo, e l’attuazione di un sistema complessivo di qualità. Viene osservato come nel primo periodo le tecniche statistiche più comunemente utilizzate siano i piani di campionamento, soprattutto per attributi, l’analisi della varianza, soprattutto applicata alla definizione della ripetibilità e riproducibilità delle misure, ed un certo numero di indici per la sintesi dei dati, soprattutto media e scarto quadratico medio delle principali caratteristiche di qualità del prodotto, che vengono raccolti con regolarità e precisione crescente; al controllo di qualità del prodotto già fabbricato, viene associato, nel secondo periodo, il controllo del processo, con l’obiettivo di limitare il numero di unità difettose, in fase di produzione; s’inizia la sperimentazione, soprattutto fattoriale, si introducono le carte di controllo, soprattutto di Shewart e quelle cosiddette CUSUM, in grado di fornire indicazioni tempestive sulla deviazione da targets predefiniti e s’inizia a considerare la possibilità dello sviluppo di modelli matematici specifici, per la previsione del comportamento dei processi; negli ultimi anni di questo secondo periodo fanno la loro apparizione le norme di qualità ISO-9000, che vengono assunte, con velocità impressionante, come sinonimo di qualità, nella maggioranza del mondo industriale; purtroppo, il raggiungimento dell’obiettivo di queste norme, che doveva essere quello dell’introduzione di un sistema complessivo di gestione, in grado di favorire lo sviluppo della qualità reale, cioè della qualità dei prodotti e dei processi, finisce per essere ostacolato, talvolta in modo pressoché insormontabile, dalla loro stessa esistenza. Nel lavoro viene fornito una spiegazione del fenomeno. Tenendo, infine, conto che una loro corretta applicazione è in grado di generare risultati, anche perché, se ben interpretate, finiscono per favorire applicazioni statistiche, anche avanzate, si assiste oggi, in qualche realtà industriale, allo studio dei processi autocorrelati, alla considerazione di più caratteristiche di qualità contemporaneamente, per la definizione dell’effettiva capacità dei 11 processi, all’applicazione generalizzata dei test statistici, per una verifica continua di varianti del processo, alla valutazione della qualità complessiva dei prodotti, alla generazione di modelli matematici per la previsione dei risultati, prima ancora dell’avviamento dei processi. Nel lavoro, quindi, è fornito un esempio reale di modello, costruito per ottimizzare un processo di produzione. L’esempio vuole sottolineare come la ricerca costituisca, anche nel mondo industriale, un elemento insostituibile di progresso e di miglioramento. Il modello prevede, attraverso la costruzione di una densità discreta di probabilità, la sequenza ottimale di produzione di k prodotti diversi, su di uno stesso impianto, in modo da rendere minimo il numero di interventi complessivi di manutenzione, necessari per portare a termine l’intera campagna di produzione. La densità di probabilità, cui si fa cenno è quella della variabile casuale, diciamo Mk, che rappresenta il numero di manutenzioni (0, 1, 2, ..), necessario per completare la campagna di produzione dei k prodotti diversi. E’ stata costruita sull’assunzione che, detti A1, A2, Aj,…, Ak i prodotti da fabbricare, nota, da dati storici, e detta Pj la probabilità di completare, senza necessità di manutenzione, la produzione di nj unità del prodotto Aj, partendo da impianto nuovo, sia Pj Pj Pj+1 la probabilità di completare la sequenza di nj e nj+1 unità dei prodotti Aj, Aj+1, iniziando la produzione delle nj+1 unità del prodotto Aj+1, immediatamente dopo il completamento delle nj unità del prodotto Aj. Il significato fisico di questa assunzione è chiarito in dettaglio nella memoria completa, ed è ricavato da osservazioni storiche sul comportamento dell’impianto. Le formule che descrivono il modello, riportate e dimostrate nella memoria completa, sono piuttosto complicate, anche se applicabili facilmente, con un minimo di cautela; è, però, interessante sottolineare che soltanto con il loro ausilio si è riusciti a comprendere il motivo delle prestazioni notevolmente diverse dell’impianto, in campagne di produzione successive, anche se qualitativamente e quantitativamente identiche. 12 STRUMENTI DI CONTROLLO DELL'IMPATTO AMBIENTALE IN PRESENZA DI DATI AUTOCORRELATI Ugo Cardamone (STMICROELECTRONICS) Laura Deldossi (UNIVERSITÀ CATTOLICA DEL S.CUORE) Il ruolo e il contributo delle procedure di controllo statistico per il miglioramento dei processi industriali di produzione è a tutti noto. La loro applicazione per l’analisi dei parametri ambientali presenta però alcune controindicazioni. I metodi statistici tradizionali, infatti, si basano sull’assunzione che osservazioni consecutive nella traiettoria del processo siano tra loro indipendenti. Tale assunzione non è verificata per la maggior parte dei processi per il controllo dell’impatto ambientale, i quali, a seguito dell’introduzione dell’uso di strumenti per l’analisi in continuo dei parametri - e, dunque, per l’alta frequenza nella rilevazione delle osservazioni - o in quanto processi di natura chimica, presentano osservazioni positivamente autocorrelate. In tal caso, gli strumenti tradizionali di controllo, ordinariamente in uso, presentano caratteristiche molto diverse rispetto a quelle nominali. Per le carte di controllo, ad esempio, il numero medio di falsi allarmi risulta più elevato rispetto a quello prefissato nell’ipotesi di osservazioni indipendenti, con la conseguenza che il loro erroneo utilizzo genera sfiducia ed oneri improduttivi negli utilizzatori. Numerosi sono i contributi di questi ultimi anni relativi al controllo statistico di processo (SPC) in presenza di dati autocorrelati. In questo lavoro si presenterà una breve rassegna dei suddetti metodi mettendone in evidenza, attraverso l’applicazione a processi per il controllo dell’impatto ambientale, proprietà e caratteristiche e mostrando la loro utilità per il monitoraggio ed il miglioramento della prestazione degli impianti ecologici. Bibliografia Dyer, J.N., Adams, B.M., Conerly, M.D. (2003) The Reverse Moving Average Control Chart for monitoring Autocorrelated Processes, Journal of Quality Technology, 35, 139-152. Jiang, W., Tsui, K., Woodal, W. (2000) A new SPC Monitoring Method: the ARMA Chart, Technometrics, 42, 4, 399-410. Zhang, N.F. (1998) A Statistical Control Chart for Stationary Process Data, Technometrics, 40, 1, 24-38. 13 COMPUTATIONAL NEUROANATOMY: INTERFACE BETWEEN NEUROSCIENCE AND STATISTICS Giovanni B. Frisoni (Laboratorio di Epidemiologia & Neuroimmagini IRCCS San Giovanni di Dio FBF - The National Center for Research and Care of Alzheimer's Disease) Umberto Magagnoli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE) Roberta Paroli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE) Neuroanatomical structures may be profoundly or subtly affected by the interplay of genetic and environmental factors, age, and disease. Such effects are particularly true in healthy ageing individuals and in those who have neurodegenerative diseases. However, early in the progression of such diseases, neuroanatomical changes may be too mild, diffuse, or topologically complex to be detected by simple visual inspection or manually traced measurements of regions of interest. Statisticalmathematical models have recently been developed based on magnetic resonance images that can capture the extraordinary morphological variability of the human brain and detect tiny structural brain changes associated with different neurodegenerative disease states. These methods use statistical models sensitive to subtle changes in the size, position, shape, and tissue characteristics of brain structures affected by neurodegenerative diseases such as regression models with discrete cosine functions, modified mixture model cluster analysis and spatiotemporal models such as Markov random fields or hidden Markov random fields for statistical segmentation of brain magnetic resonance images. Neuroanatomical features can be compared within and between groups of individuals, taking into account age, sex, genetic background, and disease state, to assess the structural basis of normality and disease. The strengths and limitations of algorithms of existing computer-assisted tools at the most advanced stage of development, will be discussed together with available and foreseeable evidence of their usefulness at the clinical and research level. 14 STRATEGIA COMPLESSIVA PER LA DETERMINAZIONE E L’USO DELLE SUPERFICI DI RISPOSTA IN UN CASO REALE Egidio Cascini (3M ITALIA S.P.A.) Grazioli Pirattilio (3M ITALIA S.P.A.) Nel lavoro viene descritta la strategia complessiva utilizzata per la determinazione e l’utilizzazione della superficie di risposta di una caratteristica fondamentale di un prodotto di largo consumo. Il prodotto, che per motivi di riservatezza, non può essere indicato esplicitamente, può, senza difficoltà, essere convenientemente immaginato come una lamina quadrata di lato a. La caratteristica di qualità considerata è lo spessore, che, riferendo la lamina a due assi cartesiani, x, y, passanti per il centro del quadrato, può essere descritta da una funzione in due variabili f(x, y). L’obiettivo del progetto che viene descritto in questo lavoro era di rendere minimo il valore medio della funzione f(x, y) sulla superficie aa, compatibilmente con un limite di specifica inferiore, Li, tale che dappertutto fosse soddisfatta la relazione, f(x, y) > Li. Come si può intuire facilmente, il raggiungimento dell’obiettivo posto coincideva con la minimizzazione della varianza di f(x, y). Il percorso sperimentale seguito può essere sintetizzato come segue: E’ stata definita la risposta da studiare, diciamo Y , come Y = Var(f(x, y)). Sono state individuate le variabili indipendenti, diciamo X1, X2, …, Xn possibilmente collegate ad Y , mediante un’analisi tecnica qualitativa critica del processo di produzione. E’ stata eseguita una prima analisi quantitativa di massima, cioè non impiegando alcun test statistico, ed utilizzando i dati storici disponibili, per una conferma iniziale sulla tendenza del valore numerico assunto da Y, in funzione dei valori osservati delle variabili Xi, individuate precedentemente. E’ iniziato, quindi, il percorso sperimentale classico, con l’obiettivo finale della determinazione della funzione Y = Y(X1, X2,…, Xn) , inserendo nella sperimentazione soltanto le variabili indipendenti Xi che hanno superato la prova precedente. Il primo passo è stato un esperimento fattoriale completo, dal quale è stato possibile individuare il percorso di massima diminuzione di Y in funzione delle variabili indipendenti considerate. Seguendo il percorso suggerito dalle equazioni di Lagrange si è giunti nei pressi del punto di minimo. 15 Un esperimento centrale composto finale ci ha fornito, infine, la superficie di risposta desiderata. La superficie di risposta ci ha consentito di variare le condizioni di processo, utilizzate da lungo tempo, e determinate essenzialmente, nel corso degli anni, sulla base dell’esperienza, possiamo dire empirica, degli operatori di produzione. Condizioni come questa sono comunemente riscontrabili negli ambienti industriali; miglioramenti reali e significativi, però, difficilmente possono essere ottenuti in modo empirico, perché è molto difficile comprendere in modo completo l’effetto di variabili, talvolta neanche prese in seria considerazione. Determinata la superficie di risposta, è stata calcolata la variabilità naturale a lungo termine di Y, ed insieme a nuove procedure di gestione, è stata introdotta una carta di controllo per medie, in base alla quale è stato possibile mettere sotto controllo indirettamente anche l’affidabilità delle termocoppie che ci forniscono le temperature di alcuni punti particolari dell’impianto di produzione considerato. I risultati economici ottenuti sono stati soddisfacenti per entità, ma, soprattutto perché stabili nel tempo. 16 Analisi dei mercati finanziari e assicurativi METODI STATISTICI NELLE PREVISIONI FINANZIARIE METODOLOGIE E MODELLI PER LA GESTIONE DEL RISCHIO Renato Maino (SANPAOLO IMI) L’ANALISI DELLA PERFORMANCE ED IL CONTROLLO DEL RISCHIO NELL’INDUSTRIA DEL RISPARMIO GESTITO Mariano Mangia (NUMERIA S.r.l. Analisi & dati del risparmio gestito) Claudio Conversano (UNIVERSITÀ DEGLI STUDI DI CASSINO) Domenico Vistocco (Università di Napoli Federico II) MODELLI DI PREVISIONE NEL MERCATO ASSICURATIVO (DANNI) Roberto Cannata (ASSICURAZIONI GENERALI SPA) Giovanni Millo (ASSICURAZIONI GENERALI SPA) MODELLI DI CREDIT PIATTAFORMA D.AN.TE. Luca Zauli (CRIF) SCORING 17 SVILUPPATI SU METODI STATISTICI NELLE PREVISIONI FINANZIARIE METODOLOGIE E MODELLI PER LA GESTIONE DEL RISCHIO Renato Maino (SANPAOLO IMI) La relazione si focalizza sui modelli previsivi utilizzati per la misurazione e la gestione del rischio, dato che essi rappresentano la componente più dinamica delle attuali realizzazioni e stanno condizionando lo sviluppo delle applicazioni statistiche nell'industria finanziaria. L'intervento intende offrire un panorama dell'attuale evoluzione dei modelli visti dalla parte dell'utilizzatore (quindi dal lato della domanda di metodologie). Questo per offrire un contributo ai "produttori" di modelli nel tracciare le linee di tendenza per i loro apporti. Viene pertanto data una prima indicazione di quanto avviene nel Risk Management sul piano organizzativo e sull'importanza che riveste nelle organizzazioni finanziarie ed aziendali complesse. Si passerà poi a proporre una breve tassonomia della modellistica applicata, delle linee di tendenza e del panorama che potrebbe risultarne a seguito degli sviluppi in corso. Si toccherà infine il ruolo che va ricoprendo l'attuale modificazione della regolamentazione e del bisogno di elaborazione modellistica che ne consegue. 18 L’ANALISI DELLA PERFORMANCE ED IL CONTROLLO DEL RISCHIO NELL’INDUSTRIA DEL RISPARMIO GESTITO Mariano Mangia (NUMERIA S.r.l. Analisi & dati del risparmio gestito) Claudio Conversano (UNIVERSITÀ DEGLI STUDI DI CASSINO) Domenico Vistocco (UNIVERSITÀ DI NAPOLI FEDERICO II) Il risk management e l’analisi delle performance sono attività che solo di recente sono state sviluppate all’interno dell’industria del risparmio gestito, in particolare nel settore dei fondi comuni d’investimento. Strutture e procedure di misurazione e controllo del rischio di portafoglio sono ormai presenti in quasi tutte le società di gestione del risparmio e l’analisi delle performance ha ricevuto un notevole impulso con l’arrivo in Italia di alcune società indipendenti di analisi e rating, quali Morningstar e Standard & Poor’s. E’ da rilevare, tuttavia, che sino ad oggi l’analisi del rischio e delle performance è stato unicamente condotta sullo strumento finanziario, il fondo comune di investimento, e sul suo portafoglio. Manca, invece, una analisi del grado di rischio e una valutazione della performance del portafoglio della clientela a livello di singolo cliente/intermediario/sistema e una sistematica valutazione delle relazioni che legano il flusso delle sottoscrizioni alle diverse variabili quali performance passata, politiche di pricing, etc. Alla stessa maniera, il portafoglio dell’intermediario, inteso come massa complessiva in gestione, non è valutato in termini di rischio (esposizione ai mercati finanziari) e di variabilità (sensibilità alle variazioni dei flussi di sottoscrizione) e, di conseguenza, il flusso dei ricavi che da esso scaturisce appare sostanzialmente fuori del controllo dei responsabili dell’azienda. Gli autori si propongono di illustrare le diverse problematiche relative alla misurazione ed al controllo del rischio di portafoglio ed all’analisi della performance evidenziando, attraverso l’utilizzo di opportuni strumenti statistici, i fattori che incidono su di esse e le ripercussioni che tali problematiche possono avere sulle decisioni strategiche concernenti le politiche di Asset Allocation operate dagli investitori istituzionali e sulle scelte d’investimento dei risparmiatori. 19 MODELLI DI PREVISIONE NEL MERCATO ASSICURATIVO (DANNI) Roberto Cannata (ASSICURAZIONI GENERALI SPA) Giovanni Millo (ASSICURAZIONI GENERALI SPA) Da ormai quasi vent'anni l'Ufficio Studi svolge l'attività di previsione della spesa assicurativa italiana, a supporto della pianificazione commerciale e, negli ultimi anni, del piano strategico triennale, allo scopo di fornire un benchmark per la definizione degli obiettivi aziendali in termini di crescita della raccolta premi. L'obiettivo della modellazione econometrica della spesa assicurativa è di: - descriverne l'evoluzione temporale in termini delle sue principali determinanti - prevederne l'evoluzione futura - analizzare l'effetto di possibili shock esogeni sul fatturato del settore. Descrivere il mercato assicurativo danni in forma quantitativa è un compito arduo per la complessità del prodotto, che ha conseguenze pesanti sulla disponibilità di dati. A questo proposito, il fatto più eclatante è l'impossibilità di osservare i prezzi dei prodotti. Ulteriori dati che sarebbero necessari per un'analisi econometrica esauriente e non sono disponibili allo stato attuale delle cose sono il numero di contratti e le somme assicurate totali, che assieme dovrebbero descrivere l'aspetto che nei mercati dei beni più semplici chiamiamo "quantità" del bene in oggetto. Quanto alla spesa per tipologia delle coperture, le rilevazioni statistiche disponibili sono opportunamente dettagliate per ramo, consentendo uno studio separato dei vari ed eterogenei mercati che vanno sotto il nome collettivo di "assicurazioni contro i danni". Un livello di aggregazione meno elevato sarebbe desiderabile dal lato della domanda: le funzioni di domanda delle aziende e delle persone sono verosimilmente ben diverse in termini di elasticità, stante la possibilità di autoassicurarsi per i soggetti più dotati di capitale. La ricerca di una specificazione econometrica per descrivere l'evoluzione temporale del mercato dipende inoltre dalla disponibilità di serie storiche adeguatamente lunghe. Stabilita la pratica impossibilità di testare direttamente modelli strutturali mediante l'analisi dell'equilibrio di prezzo e quantità, l'attenzione va spostata sulla raccolta premi, prodotto delle precedenti e unica variabile osservabile. I modelli risultanti saranno relazioni in forma ridotta dove 20 l'evoluzione della variabile obiettivo viene messa in relazione a quella di un certo numero di grandezze esogene o predeterminate. L'analisi parte dalla teoria della domanda e da quella dell'offerta di assicurazione per identificare i principali fattori che le determinano, per poi continuare con le caratteristiche teoriche dell'equilibrio di mercato che ne scaturisce. Le variabili rilevanti possono essere classificate nelle seguenti quattro categorie: variabili di domanda, di offerta, di inerzia di portafoglio e di prezzo. E' opinione ampiamente condivisa in letteratura che la funzione di domanda di assicurazioni danni reagisca positivamente a incrementi nella probabilità del sinistro, nell'avversione al rischio dei consumatori e nella ricchezza assicurabile. Rimane aperta la questione dell'opportuna misurazione di alcune tra queste. Risulta efficace dal punto di vista empirico approssimare alcuni di questi aspetti (in particolare la crescita dei capitali assicurati) per mezzo di variabili di contabilità nazionale: nella maggior parte dei casi il prodotto interno lordo, ma anche, a seconda del ramo, le esportazioni, la domanda interna o gli investimenti. Un'analisi teorica dell'equilibrio di mercato porta a concludere che incrementi nella domanda conducono a loro volta a incrementi nel fatturato di mercato, che cresce per effetto di un aumento sia nella quantità domandata che nel prezzo di mercato. Diverso il discorso per l'offerta di coperture da parte delle compagnie. E' naturale ritenere che incrementi nei costi dei sinistri, nelle spese o nei tassi di premio dei riassicuratori portino ad aumenti nelle tariffe. L'effetto totale sulla raccolta di questi ultimi è però ambiguo a causa dell'interazione con la domanda: a parità di altre condizioni, crescono i prezzi ma diminuiscono le quantità assicurate. Il risultato complessivo dipende dall'elasticità della domanda. Lo stesso vale per variazioni dell'aliquota fiscale. L'interazione tra domanda e offerta spiega la raccolta premi dovuta a nuovi contratti. Per dare conto dell'incasso premi dovuto a contratti stipulati nei periodi precedenti (c.d. "inerzia"), la variabile dipendente ritardata di uno o più periodi andrà inserita tra quelle esplicative. Da ultimo, sia motivazioni tecniche che di significatività economica delle relazioni stimate suggeriscono di modellare esplicitamente l'effetto del livello generale dei prezzi mediante l'inclusione di un indice di inflazione. Le caratteristiche dinamiche della relazione vengono indagate per mezzo di un approccio "à la London School of Economics", che permette di discriminare il ritardo con cui modificazioni nelle condizioni sottostanti si riflettono sulla raccolta premi. Ad esempio, per alcuni rami la dinamica 21 del processo di tariffazione si riflette chiaramente nella significatività del rapporto sinistri a premi ritardato di due periodi, mentre quello del periodo precedente (e, a maggior ragione, quello contemporaneo) non risultano utili per spiegare l'andamento della spesa. 22 MODELLI DI CREDIT PIATTAFORMA D.AN.TE. SCORING SVILUPPATI SU Luca Zauli (CRIF) L’obiettivo di questo intervento è di dare una panoramica sulle attività di CRIF Decision Solutions che opera da ormai un decennio all’interno del mercato del credito fornendo sistemi di supporto decisionale a Banche ed Istituti di Credito. La sua attività può essere sintetizzata in tre aree: 1. Modellistica; 2. Consulenza; 3. Fornitura di Software. I modelli di scoring sono modelli previsivi volti a supportare il Risk Management ed il Portaolio marketing attraverso modelli di Credit Bureau, che attingono le informazioni dal database Eurisc di CRIF, modelli di accettazione e di behavioural. In questo contesto si inserisce D.AN.TE. (acronimo di Development of ANalitics and TEchnology) che è un software sviluppato internamente a CDS volto a seguire lo sviluppo di modelli di score dalla lettura dei dati fino alla creazione della reportistica finale ed a monitorare gli score nel tempo. Saranno tre le fasi dello sviluppo di una griglia di score con DANTE che verranno analizzate: 1. Il raggruppamento dei dati: tramite approccio manuale, valori distinti, metodo del percentile e della massimizzazione dell’Information Value; 2. Lo sviluppo di modelli di score ed analisi di alcune misure di performance degli stessi: KS, IV, Fvalue, Gini index, score distribution. 3. La creazione della reportistica di Score performance in formato Rtf. 23 Sistemi informativi aziendali e metodi di supporto alle decisioni UNA SOLUZIONE A BASSO COSTO AL TIME-SERIES WAREHOUSING DI AMPIA SCALA PER BANCHE CENTRALI, ENTI DI RICERCA ED AZIENDE Sergio Calliari (BANCA INTESA) LA SEGMENTAZIONE COMPORTAMENTALE NEL MERCATO FINANCE: CONFRONTO TRA TECNICHE TRADIZIONALI E RETI NEURALI Michele Crescenzi (SPSS ITALIA) FORECASTING: PREVEDERE GLI EVENTI PER PIANIFICARE LE STRATEGIE AZIENDALI Michela Giacomini (SAS) IL RUOLO DELLO STATISTICO-INFORMATICO: LE ESIGENZE DEL MERCATO DEL LAVORO Bruno Sfogliarini (IMS HEALTH) 24 UNA SOLUZIONE A BASSO COSTO AL TIME-SERIES WAREHOUSING DI AMPIA SCALA PER BANCHE CENTRALI, ENTI DI RICERCA ED AZIENDE Sergio Calliari (BANCA INTESA) Banche Centrali, Enti di Ricerca ed Aziende, collezionano e utilizzano volumi elevati di serie storiche, sia di fonte interna che acquisita dall’esterno, rendendo necessaria l’automatizzazione della raccolta, l’eliminazione dei dati ridondanti (duplicazioni, ecc.) e la creazione di un database centralizzato allo scopo di fornire dati accurati e rapidamente agli utenti interessati. In ambiente Windows Microsoft con Dbank è possibile costruire grandi basi di dati centralizzate ad un costo estremamente basso rispetto a soluzioni alternative (ad es. FAME, SAS, AREMOS, ecc.) L’approccio consiste nell’utilizzare VB Microsoft e gli oggetti DCOM per produrre basi di dati centralizzate (SQL Server 2000, Oracle, ecc.), permettendo a Banche Centrali, Enti di Ricerca ed Aziende di: •memorizzare le serie storiche in uno o più database logici accessibili simultaneamente da tutti gli utenti ; •eliminare la dipendenza dai fogli elettronici per la gestione dei dati, ma utilizzandoli fruttuosamente nelle loro capacità e le loro tecniche per il data management, consolidamento dei dati, analisi statistiche, creazione di grafici, produzione di tabelle e rapporti, ecc.; •rendere estremamente facile l’accesso alle serie storiche complete per scopi di ricerca e per rapporti ad hoc; •eliminare ridondanze dei dati e duplicazioni; •facilitare la pubblicazione dei dati su intranet/extranet o portali verticali (ad es. un possibile Servizio Dati Economici e Sociali di un portale per le Scienze Sociali) data l’integrabilita di XML con SQL Server 2000. L’approccio adottato che rende possibile il collegamento di Excel con i database di serie storiche evidentemente risulta assai interessante per gli utenti finali. Attualmente sono in forma di oggetti DCOM caricati in SQL Server 2000 i seguenti database: 1.Fondo Monetario Internazionale: IFS, DOTS, BOPS, GOV - circa 500.000 serie storiche 2.OCSE (Statistical Compendium): circa 950.000 serie storiche; 25 3.World Bank: WDI (World Development Indicators) e GDF (Global Development Finance) - circa 90.000 serie storiche; 4.UIC - cambi giornalieri Lira contro 200 valute dal 1918; 5. BIP ­ Banca d’Italia; 6. NBER - Historical Database 7. Penn World Tables 5.5, 5.6 , 6.1 26 LA SEGMENTAZIONE COMPORTAMENTALE NEL MERCATO FINANCE: CONFRONTO TRA TECNICHE TRADIZIONALI E RETI NEURALI Michele Crescenzi (SPSS ITALIA) L’obiettivo della segmentazione comportamentale è fornire uno strumento analitico che sappia descrivere nel dettaglio e monitorare nel tempo la composizione della customer base, ma anche fornire un supporto decisionale costante ed efficace per la gestione delle azioni di marketing. In ambito finance, la segmentazione comportamentale (data driven) affianca quella di tipo strategico (business driven), per fornire al marketing una visione più completa ed accurata dei profili che caratterizzano la clientela. Dal punto di vista metodologico, la segmentazione comportamentale si avvale delle tecniche di cluster analysis e di machine learning, che individuano una partizione della popolazione in segmenti omogenei rispetto alle variabili esplicative selezionate. Nella segmentazione della clientela, SPSS segue tipicamente un approccio misto, business e data driven. Data l’usuale complessità della composizione della clientela finance, si rende necessario selezionare alcuni segmenti basandosi esclusivamente su logiche di business per sviluppare poi il modello di cluster analysis sulla popolazione restante. Business driven Con criteri guidati dalla conoscenza del business vengono selezionati i primi segmenti. Il passo successivo riguarda la scelta di un arco temporale d’osservazione adeguato per comprendere il profilo finanziario dei clienti. Limitando il periodo d’osservazione, si escludono dall’analisi model-based i clienti con uno storico insufficiente per cogliere il profilo comportamentale o quelli con delle caratteristiche transazionali temporaneamente immutate. Data driven Il modello viene quindi sviluppato sulla popolazione attiva. Per una corretta identificazione del modello di segmentazione, è necessario condurre una fase di data preparation che coinvolge normalmente la valutazione dei valori anomali, la ricodifica delle variabili attive e la costruzione di nuove variabili utili a comprendere meglio il comportamento finanziario del cliente. 27 Preparata la base dati, l’analisi model based prevede il confronto tra le tecniche statistiche più classiche, di cluster analysis, e gli algoritmi basati sulle reti neurali non supervisionate. 28 FORECASTING: PREVEDERE GLI EVENTI PER PIANIFICARE LE STRATEGIE AZIENDALI Michela Giacomini (SAS) La previsione degli eventi è la base fondamentale per pianificare i processi di un’azienda, quali l’allocazione di fondi, la pianificazione e schedulazione delle scorte di magazzino, la distribuzione delle risorse e dei budget, la gestione delle campagne di marketing e delle attività di approvvigionamento. Ogni giorno queste decisioni e molte altre sono basate sulla previsione del futuro. Con il presente intervento, SAS intende presentare un progetto di forecasting per la previsione dei costi di garanzia. La gestione delle garanzie è una questione focale per tutte le aziende che producono beni industriali, elettronici e commerciali. Le garanzie infatti portano a costi molto alti, i quali possono essere suddivisi in 2 tipi: - diretti, dovuti al cambio di prodotti e/o componenti e per il servizio e la manodopera per la riparazione; - indiretti, di insoddisfazione del cliente e impoverimento del brand. Spesso le aziende trattano una richiesta di riparazione in garanzia come un item amministrativo isolato. Queste informazioni vanno invece integrate con i dati sui clienti, sui fornitori, sui prodotti, specificando livello temporale e geografico. Con le soluzioni SAS è possibile effettuare un’analisi approfondita di questo tipo, che permette di ridurre i costi, migliorare la soddisfazione del cliente e mantenere alto il nome del brand. Il progetto in questione è stato effettuato per un’azienda del settore automotive e si tratta di un’applicazione jsp collocata nella intranet aziendale, fruibile dagli utenti semplicemente attraverso l’uso di un browser. L’applicativo prevede una serie di report e grafici sui valori consolidati dei costi di garanzia, visualizzabili per marca, modello, tipologia di danno, periodo e zona geografica di interesse. La parte più innovativa dell’applicativo presenta report e grafici sulla previsione dei costi di garanzia, per i 12 mesi rolling successivi a quelli consolidati. Identificando gli eventi anomali e le stagionalità verificatisi in passato si modellano le previsioni dei costi che permettono di: - prevedere le riserve economiche da destinare alle spese di garanzia, da suddividere adeguatamente per marca e modello; 29 - identificare la necessità di eventuali azioni di recupero (cambio di forniture, modifica di alcuni componenti, attività di richiamo, ecc.) - pianificare attività future dei servizi di riparazione; - gestire le scorte dei pezzi di ricambio; - ottimizzare la pianificazione dei nuovi prodotti, ecc. Il tutto con aumentati livelli di customer satisfaction. Un’estensione dell’applicazione sarà quelle di incrociare i dati delle garanzie con quelli delle officine che effettuano gli interventi e dei clienti che le richiedono, al fine di identificare eventuali comportamenti fraudolenti. 30 IL RUOLO DELLO STATISTICO-INFORMATICO: LE ESIGENZE DEL MERCATO DEL LAVORO Bruno Sfogliarini (IMS HEALTH) Nel corso degli ultimi due anni, sono sempre più frequenti le ricerche di laureati e diplomati in Statistica che abbiano anche attitudini e conoscenze di carattere informatico, tipicamente nell’ambito del data warehousing, della business intelligence e della distribuzione dell’informazione via web. Una delle cause primarie di questo interesse per profili con formazione a metà tra statistica e informatica è la diffusione del Customer Relationship Management, il CRM, ovvero della gestione tecnologicamente evoluta della relazione con il cliente. L’interesse particolare del CRM per la combinazione di statistica e informatica nasce da una considerazione trasversale a tutti i business, compresi quelli non-profit (es. ospedali, associazioni, amministrazioni pubbliche): “costa molto meno mantenere un cliente già attivo che conquistarne uno nuovo!” A sua volta questa affermazione si fonda sull’osservazione del comportamento umano nell’atto di spendere o impiegare il proprio reddito: si preferisce infatti nella stragrande maggioranza dei casi affidarsi ad un fornitore abituale, piuttosto che affrontare l’investimento, monetario o meno che sia, di approcciarne uno diverso e sconosciuto – da notare che non in tutti i settori questa considerazione è valida, basti infatti pensare ai beni ad acquisto d’impulso, dove la disponibilità del prodotto nel momento della necessità è l’unica chiave di successo (es. patatine, gelati, bibite, …). Di converso, quindi, per convincere un cliente di un concorrente a cambiare fornitore occorrerà investire pesantemente nelle leve del marketing (pubblicità, promozioni, informazione, …), fino al punto che il vantaggio percepito dal consumatore non sia superiore al proprio sforzo di cambiamento. Quindi, tutte le aziende che dispongano di un parco significativo di clienti attivi sono oggi impegnate ad elevare le barriere all’abbandono, migliorando il valore percepito dei propri prodotti e servizi da parte del consumatore finale. In altri termini, se ho già molti clienti, spendo “meglio” le risorse a disposizione in programmi di fidelizzazione piuttosto che in azioni di conquista. 31 L’ulteriore, fondamentale, passaggio logico di questo ragionamento parte dall’assunzione che “più si conosce il proprio cliente, meglio lo si può servire e quindi, soddisfare”. Anche questa affermazione si riconduce alla regolarità del comportamento di consumo, solo che, rispetto ad una semplice nozione di preferenza per il fornitore già conosciuto, presuppone che esista: · una relazione positiva diretta tra la familiarità nell’interazione clientefornitore ed il grado di soddisfazione o, meglio, di fedeltà nel riacquisto del consumatore; · una relazione altrettanto proporzionale tra il grado di conoscenza del profilo del consumatore individuale ed il livello di familiarità. Per conoscere meglio il proprio cliente, si procede finalmente a raccoglierne i dati, ovviamente nel rispetto delle norme sulla privacy, di tipo socio-demografico, attitudinale, comportamentale da svariate fonti, prima tra tutte il cliente stesso. Questi dati di base devono poi però essere lavorati per produrre un profilo comprensibile ed utilizzabile per innalzare il livello di familiarità. Da questa sequenza logica, introdotta dalle società di consulenza più note, e diffusa ormai a tutti i settori dell’economia, si deduce inesorabilmente il bisogno di impiantare sistemi di acquisizione “industrializzata” della conoscenza dei propri clienti. Questa attività si indica universalmente come Knowledge Discovery in Database (KDD), ed è appunto una disciplina che si colloca a metà strada tra la statistica e l’informatica. Il processo di KDD si dettaglia delle fasi seguenti: 1. Pulizia dei dati (rimozione di errori formali e logici e di outlier) 2. Integrazione dei dati (combinazione di fonti diverse) 3. Selezione dei dati (estrazione dei dati in analisi dalla base dati) 4. Trasformazione dei dati (manipolazione dei dati in forme adeguate al data mining) 5. Data mining (applicazione di metodi analitici per sintetizzare relazioni significative) 6. Valutazione delle relazioni (classificazione delle relazioni in termini di utilità) 7. Presentazione della conoscenza (visualizzazione e sintesi delle relazioni utili) Il data mining costituisce il cuore, la parte nobile, del processo di scoperta di conoscenza nelle basi dati (Knowledge Discovery in Databases, KDD), tant’è che spesso viene inteso come sinonimo di KDD. 32 La fase del data mining propriamente detto ha lo scopo di individuare relazioni analitiche significative, applicando tecniche descrittive o inferenziali. Le prime si usano per profilare, discriminare, associare e classificare, le seconde per stimare, prevedere o prevenire. Proprio il ruolo chiave del data mining nel KDD genera la richiesta sempre crescente di conoscenze statistiche, e quindi di profili formati in tal senso: mentre è relativamente facile reperire forza lavoro con conoscenze informatiche adatte ad impiantare un data warehouse, grazie anche allo sgonfiamento della bolla della new-economy, non è altrettanto diffusa la conoscenza dei metodi statistici nell’offerta di lavoro attuale. Ma, fortunatamente o sfortunatamente, è solo questo tipo di conoscenza che consente di attivare il ciclo virtuoso del KDD, e quindi di abilitare l’intero processo del CRM! Infatti, solo la conoscenza e la capacità di applicare al business i metodi della statistica descrittiva, per la riduzione della complessità, e di quella inferenziale, per la determinazione delle relazioni di causa-effetto, forniscono gli strumenti indispensabili per segmentare i clienti e stimolarli nel modo giusto per ottimizzare gli investimenti. Un piccolo esempio tratto dal settore dell’automobile può chiarire ancora meglio il concetto: nell’ambito delle attività legate al lancio del nuovo modello C del marchio Beta, il reparto commerciale decide di sfruttare l’attuale parco possessori dei precedenti modelli A e B, che appunto il C va a sostituire. Grazie alla disponibilità di due applicazioni diverse di data mining (o della statistica, in questo caso specifico), è possibile restringere il target dei possessori sia in termini di segmenti, che di propensione al riacquisto, garantendo al contempo un elevato tasso di riacquisto. In sintesi, meno soldi buttati in buste e lettere che finiranno in un cestino, meno persone potenzialmente disturbate da un inutile tentativo di vendita, più efficacia del marketing diretto! Per capire come in concreto vengano utilizzate in azienda le risorse di formazione statistica, ecco riportato di seguito un esempio tratto da un caso reale. Si tratta di un gruppo di lavoro operante sul CRM analitico all’interno di una grande azienda, denominato funzione Gestione e Analisi dati. La sua missione è assicurare: · pulizia, validazione e arricchimento dei data-base per garantire una materia prima di qualità a tutto il processo di CRM aziendale; · analisi e generazione di modelli interpretativi o predittivi per incrementare la redemption delle campagne e lo sviluppo di nuovi prodotti e/o servizi. 33 Il gruppo è costituito da un responsabile e da tre diverse tipologie professionali, di cui sono riportate di seguito le Job Description. In realtà, tutte e tre le prime posizioni sono attualmente ricoperte da statistici, mentre per l’ultima si è preferito un ingegnere. 1 - Responsabile funzione Gestione e Analisi dati Responsabilità Garantire la gestione, manutenzione, sviluppo del Data Warehouse dei Clienti Garantire il processo di analisi del DW e di acquisizione della conoscenza Assicurare lo sviluppo e la produzione di modelli di fidelizzazione della clientela Assicurare la verifica del ritorno sull’investimento dall’applicazione dei modelli Gestire il ciclo di miglioramento continuo di produttività della funzione Assicurare la rispondenza delle attività con le norme vigenti (esempio: privacy) Supportare la definizione/attuazione delle strategie di marketing dei servizi di competenza E’ responsabile della motivazione, sviluppo professionale e valutazione delle prestazioni delle risorse assegnate E’ responsabile della definizione, aggiornamento e implementazione, nonché del corretto funzionamento degli strumenti operativi e tecnologici necessari per la produzione dei servizi di competenza. Attività Analisi fattibilità del servizio Stima dei fabbisogni quali-quantitativi Descrizione dei contenuti del servizio Valorizzazione economica della progettazione Definizione “user requirement” Definizione attività, tempi, risorse Pianificazione e progettazione attività, interrelazioni, output Coordinamento risorse coinvolte Test del servizio Validazione del servizio Monitoraggio del progetto Pianificazione e progettazione interventi evolutivi del progetto 34 2 - Data Analyst Responsabilità Garantire l’interpretazione, l’effettuazione e la verifica della rispondenza delle richieste di analisi da parte dei Clienti Garantire attività continuativa di verifica, monitoraggio della qualità del Data Base Garantire la classificazione dei risultati delle analisi svolte. Attività Pianificazione attività Verifica della qualità delle liste dati prima del loro trattamento Sistematizzazione delle analisi Sviluppo di programmi applicativi ad hoc Formalizzazione delle specifiche di analisi Esecuzione dell’analisi Elaborazione documenti 3 - Coordinamento di gestione Responsabilità Assicurare il corretto funzionamento del sistema di DW Interpretare correttamente i bisogni dei Clienti, effettuando l’analisi delle loro necessità Garantire l’emissione dei “business requirements” a seguito di richieste di evoluzioni funzionali da parte dei Clienti Garantire l’esecuzione dei tests e la validazione delle evoluzioni funzionali Garantire la corretta soluzione per il Cliente, attraverso l’identificazione e il controllo dei Fornitori esterni Garantire la corretta preventivazione dei lavoro da effettuare per conto del Cliente Attività Emissione dei business requirement Effettuazione dei test Emissione della certificazione Controllo del funzionamento del sistema 4 - Specialista Marketing Campaign Responsabilità Assicurare il disegno, la pianificazione, l’esecuzione, la valutazione, la gestione delle campagne di marketing diretto 35 Interfacciarsi con i fornitori di materiali/servizi al fine di assicurare la realizzazione delle campgane Garantire l’elaborazione e preparazione dei preventivi delle campagne per i Clienti Assicurare presidio sui processi di gestione delle campagne, identificando soluzioni evolutive in un’ottica di qualità totale Assicurare la soluzione per il Cliente nel rispetto delle norme vigenti (esempio legge 675) Attività Analisi di fattibilità Preventivi, pianificazione, esecuzione e valutazione delle campagne Relazioni con i fornitori Interfaccia tra il Cliente e i fornitori Generalizzando ancora di più, si può affermare che le attività/capacità/conoscenze fondamentali per uno statistico in un'azienda privata oggi sono: 1) contaminazione con il business, che vuol dire ·comprensione delle problematiche specifiche dell'industry ·condivisione delle strategie aziendali (mission, value proposition, messaggi chiave, punti di forza e di debolezza, fattori unici di successo) ·comprensione del conto economico (costi, ricavi, profitti vs. fissivariabili; captive-open market; business-as-usual vs. new business) ·informazione sui clienti primari e/o dei segmenti di clientela ·esposizione alla politica commerciale ·conoscenza dei vincoli strutturali e/o di produzione dei servizi/prodotti ·assessment delle nuove idee e opportunità di business ·condivisione del budget e dei forecast 2) rapporto con il cliente interno/esterno ·capacità di empatia dal primo contatto con il cliente ·utilizzo di tecniche di stimolo/comprensione del bisogno reale del cliente ·capacità di descrivere/strutturare il bisogno reale per iscritto ·capacità di divulgare le metodologie al cliente ·gestione delle aspettative ·abilità nella presentazione dei risultati, delle analisi ·valorizzazione del lavoro in termini di operatività/profittabilità dei risultati 36 ·mantenimento dell'empatia con il cliente ed allo stesso tempo vivacità nello stimolare nuovi bisogni 3) project management e managerialità ·minime conoscenze di project management sufficienti ad assicurare piccoli piani di progetto interni al gruppo di lavoro dello statistico ·capacità di recuperare condizioni critiche, es. ritardi, malattie, carenza di risorse, ... ·spirito di gruppo ·gestione dello stress, proprio ma soprattutto dei collaboratori ·cura e supporto alla formazione professionale, propria ma soprattutto dei collaboratori ·capacità di difendere le scelte gestionali vs. i superiori 4) conoscenze statistiche ·conoscenza diffusa ma non specialistica di tutta la statistica, ivi compreso il data mining ·conoscenza approfondita di: o calcolo delle probabilità di base o statistica matematica di base o statistica descrittiva (metodi multivariati) o teoria del campionamento e costruzione di test o regressione (lineare, logistica) o econometria (metodi di previsione, serie storiche) o ricerca operativa (metodi di ottimizzazione)reti neurali o alberi di classificazione e regressione 5) conoscenza informatiche · conoscenza diffusa ma non specialistica di tutta l'informatica, ivi compresa l'intelligenza artificiale · teoria delle macchine calcolatrici di base · logiche di programmazione · linguaggi: uno generico (es. java), uno statistico · data warehousing · windows e office · protocolli di connessione: TCP/IP, HTTP, HTTPS, Telnet, FTP 6) conoscenze accessorie indispensabili ·lingua inglese ·capacità di effettuare ricerche sul web e conoscenza delle fonti informative fondamentali 37 ·autonomia nella gestione del proprio personal computing ·marketing di base ·teoria del CRM ·e-business ·privacy e tutela dei dati personali Due domande finali: quanto si diffonderà la richiesta di profili adatti al CRM analitico e dove si concentrerà, direttamente nelle aziende produttrici o nelle società di consulenza? La risposta alla prima si ha da un semplice ragionamento per analogia: ogni impresa che oggi dispone di un sistema ERP è potenzialmente in grado di impiantare una Customer Base ed attivare un processo di CRM, e pertanto si trova a ricercare competenze statistiche. Per quanto riguarda il secondo quesito, è prevedibile che in un primo momento siano solo le aziende più grandi a dotarsi di un processo di CRM, e che quindi queste abbiano le risorse sufficienti ad acquisire internamente le competenze statistiche. In una seconda fase dello sviluppo della domanda per il CRM, le richieste giungeranno più frequentemente dagli studi di consulenza o dalle società di servizio. 38 Certificazione di bilancio e controllo di gestione IL CAMPIONAMENTO STATISTICO NELLA REVISIONE DEL BILANCIO SOCIETARIO Gianpaolo Neri (ERNST & YOUNG) IL TFR CONTABILIZZATO SECONDO LO IAS 19 Roberto Sollevanti (PRICEWATERHOUSECOOPERS) Vito Lo Vecchio (STUDIO PIROLA GISMONDI E ASSOCIATI) IL RISK MANAGEMENT COME NUOVA FRONTIERA DEL PROCESSO DI REVISIONE DI BILANCIO Martina Violi (KPMG) 39 IL CAMPIONAMENTO STATISTICO NELLA REVISIONE DEL BILANCIO SOCIETARIO Gianpaolo Neri (ERNST & YOUNG) Nel definire le procedure di revisione da svolgere, il revisore deve determinare appropriati metodi per la selezione delle voci del bilancio da esaminare al fine di raccogliere elementi probativi necessari al raggiungimento degli obiettivi delle procedure di revisione. Per “Campionamento di revisione” (campionamento) si intende l’applicazione di procedure di revisione su un numero di voci inferiore alla totalità delle voci che compongono il saldo di un conto o una classe di operazioni in modo tale che tutte le voci abbiano una probabilità di essere selezionate. Ciò consente al revisore di ottenere e valutare gli elementi probativi su determinate caratteristiche delle voci selezionate e trarre una conclusione sull’intera popolazione dalla quale il campione è estratto. Il campionamento può essere effettuato utilizzando sia un approccio statistico sia un approccio non statistico. Il termine “Campionamento statistico” indica qualsiasi metodologia di campionamento che possieda le seguenti caratteristiche: (a) selezione casuale di un campione; e (b) utilizzo del calcolo delle probabilità per valutare i risultati del campione, ivi inclusa la determinazione del rischio di campionamento. Un metodo di campionamento che non possieda le caratteristiche evidenziate ai precedenti punti (a) e (b) è considerato un metodo di campionamento non statistico. “Il rischio di campionamento” deriva dalla possibilità che le conclusioni raggiunte dal revisore, sulla base di un campione, possano essere diverse da quelle che si sarebbero raggiunte se l’intera popolazione fosse stata sottoposta alla stessa procedura di revisione. In termini matematici tali rischi sono denominati livelli di affidabilità. I principali metodi di selezione dei campioni sono: l’utilizzo delle tavole di numeri casuali o di software specifici che ne incorporano gli algoritmi di calcolo, la selezione sistematica e la selezione accidentale. Il campionamento statistico può essere effettuato per variabili o per attributi: - il campionamento per variabili è la metodologia che più di ogni altra risulta statisticamente corretta per determinare campioni di valori monetari che siano rappresentativi dell’universo. In particolare è possibile determinare entro i limiti di precisione e di livello di confidenza 40 determinati, il valore aggregato di una determinata popolazione, attraverso la determinazione del valore medio di un campione rappresentativo della stessa. La numerosità del campione, affinché la sua media aritmetica sia rappresentativa della popolazione intera, (a parità di livelli di precisione e confidenza) è funzione della variabilità dell’universo. - Il campionamento per attributi ha lo scopo di determinare le caratteristiche totali di un universo, attraverso l’esame delle caratteristiche di un campione di transazioni (es. pagamento corretto, pagamento errato). Un esempio di campionamento statistico è la tecnica nota come MUS (Monetary-Unit Sampling). Nel corso dell’intervento si farà cenno delle principali metodologie adottate durante un campionamento statistico ai fini della revisione di voci di bilancio e delle basi statistiche che ne costituiscono l’impianto teorico. Si farà inoltre cenno ai concetti di unità di campionamento, errore accettabile, proiezione degli errori, stratificazione, determinazione del campione, svolgimento della procedura di revisione e valutazione dei risultati del campionamento. 41 IL TFR CONTABILIZZATO SECONDO LO IAS 19 Roberto Sollevanti (PRICEWATERHOUSECOOPERS) Vito Lo Vecchio (STUDIO PIROLA GISMONDI E ASSOCIATI) Descrizione del metodo di valutazione Il TFR deve essere valutato applicando le norme stabilite per i “post retirement benefit – defined benefit plans”, da non confondersi con i “termination benefits” che riguardano, in generale, le risoluzioni dei rapporti di lavoro per iniziativa dell’impresa. Il metodo da applicare è il “Projected Unit Credit Method” che prevede la seguente procedura di calcolo: - il TFR, calcolato secondo quanto disposto dal Codice Civile, deve essere proiettato per la durata residua prevista del rapporto di lavoro al fine di ottenere l’ammontare che si prevede sarà pagato al momento della risoluzione del rapporto; per far questo occorre determinare la serie delle retribuzioni future che saranno percepite fino alla data in cui il dipendente lascerà l’azienda stimandone la dinamica con opportune linee salariali; - l’ammontare di cui al punto precedente deve essere riferito alla durata di lavoro già prestato rispetto alla durata totale prevista, quindi deve essere attualizzato alla data del Bilancio. Basi tecniche da utilizzare nel calcolo Occorre distinguere tra: - basi tecniche demografiche à servono per determinare l’evoluzione di una collettività di lavoratori nel corso del tempo e vengono utilizzate nella costruzione di una tavola di permanenza che permetta di determinare la numerosità del collettivo nei vari anni; le basi demografiche più rilevanti sono la frequenza di morte e le frequenze di turn over; - basi tecniche economico-finanziarie à rappresentano le ipotesi economico-finanziarie: tasso di attualizzazione (a tal fine occorre utilizzare il tasso di rendimento effettivo di obbligazioni societarie di elevata qualità, come prestiti di emittenti con rating A o superiore); tasso di inflazione (serve a determinare il tasso di rivalutazione del TFR che è pari al 75% dell’inflazione cui si somma 1,5%; deve essere desunto da dati ufficiali consuntivi o di previsione elaborati dal Governo, dalle autorità monetarie o dai maggiori enti di ricerca); 42 tasso di incremento delle retribuzioni (come minimo si deve considerare un recupero dell’inflazione; per valutare gli incrementi retributivi può essere utile segmentare i dipendenti in classi con prospettive omogenee); frequenze di anticipo di TFR. Le variabili attuariali devono essere coordinate e coerenti tra loro: salvo casi particolari gli incrementi di retribuzioni devono essere almeno uguali al tasso di inflazione atteso e il tasso di attualizzazione deve tener conto di queste aspettative. Actuarial gains and losses Tutte le ipotesi sulle quali si basa il conteggio del TFR debbono essere riesaminate con cadenza annuale per confermare la loro validità o per riflettere eventuali cambiamenti negli scenari macroeconomici o nelle specifiche condizioni dell’impresa. Le variazioni tra l’ammontare del TFR calcolato secondo le ipotesi previgenti e quello determinato secondo le ipotesi più aggiornate rappresentano i cosiddetti “actuarial gains and losses”, da riconoscersi contabilmente come utili o perdite se il loro valore cumulato netto eccede il 10% del valore attuale dell’obbligazione al termine dell’esercizio precedente (il riconoscimento dell’intero ammontare non è richiesto ma è comunque consentito). Informativa Lo IAS 19 richiede un livello minimo di informativa da fornire nelle note esplicative: - Principi Contabili adottati per il riconoscimento delle “actuarial gains and losses”; - descrizione del benefit concesso ai dipendenti (le caratteristiche del TFR); - riconciliazione delle attività e delle passività di Bilancio (con relativa movimentazione); - ammontare complessivo del costo riconosciuto nel Bilancio, dettagliato per ognuno dei suoi elementi (accantonamento e interessi di competenza, “actuarial gains and losses” imputati al Conto Economico dell’esercizio); - principali ipotesi attuariali usate alla data di Bilancio. 43 IL RISK MANAGEMENT COME NUOVA FRONTIERA DEL PROCESSO DI REVISIONE DI BILANCIO Martina Violi (KPMG) Il processo di revisione contabile, alla luce delle nuove normative (legge Vietti, adozione degli IAS, Sarbain Oxley) deve assicurarsi che l’azienda attraverso un efficace ed efficiente controllo interno ed una corretta gestione del rischio sia aderente alla normativa e al contempo raggiunga gli obiettivi d’impresa. L’attività di revisione si sviluppa dalla definizione di un modello dei rischi che copre gli aspetti strategici e di processo, sostanziandosi in una serie di attività di verifica attraverso test procedurali ed elaborazioni di dati. Lo statistico collabora nel processo di revisione, nella definizione del modello dei rischi e nella sua quantificazione in termini di probabilità e impatto nonchè nella fase di remaining audit procedures per la parte di selezione e estrazione di campioni di osservazioni su cui effettuare i test di verifica. L’intervento ripercorrerà le principali fasi in cui si articola il processo di revisione evidenziandone le problematiche di carattere statistico. 44 Analisi dei mercati ANALISI DELLA CUSTOMER SATISFACTION E PROFILING DEI CLIENTI CONSIP S.P.A: UN’APPLICAZIONE DEL MODELLO ECSI Veronica Brichetti (CONSIP S.P.A) Natalia Adan Munoz (CONSIP S.P.A) Maria Gabriella Grassia (UNIVERSITÀ DEGLI STUDI “FEDERICO II” DI NAPOLI) LA BUSINESS INTELLIGENCE COME SUPPORTO ALLA STRATEGIA CLIENTE Alberto Busetto (RAS) LE ANALISI SUL CLIENTE E SULLA RETE DI VENDITA TIM Marina Chiaro (TIM) DIAGNOSI STRATEGICA IN 3 MAPPE. UNA RICETTA DAI MERCATI FARMACEUTICI. Mirio De Rosa (CreActive) 45 ANALISI DELLA CUSTOMER SATISFACTION E PROFILING DEI CLIENTI CONSIP S.P.A: UN’APPLICAZIONE DEL MODELLO ECSI Veronica Brichetti (CONSIP S.P.A) Natalia Adan Munoz (CONSIP S.P.A) Maria Gabriella Grassia (UNIVERSITÀ “FEDERICO II” DI NAPOLI) Obiettivo di questo lavoro è illustrare i risultati dell’indagine sulla customer satisfaction svolta dalla Consip S.p.A. Per misurare la customer satisfaction è stato adottato il modello ECSI, dove la soddisfazione è intesa come un costrutto di natura multidimensionale non direttamente osservabile o misurabile e legato da relazioni di causalità con altri costrutti (immagine, attese, qualità percepita, valore percepito, fedeltà e reclami) anch’essi non direttamente osservabili. Lo studio delle relazioni complesse tra costrutti o variabili latenti viene effettuato per mezzo di un modello di causalità per il quale, definendo l’insieme di variabili manifeste (domande del questionario) e specificando le relazioni tra le variabili latenti (modello strutturale) e tra queste e le variabili manifeste (modello di misurazione), è possibile stimate e trattate le variabili latenti come se fossero manifeste. 46 LA BUSINESS INTELLIGENCE COME SUPPORTO ALLA STRATEGIA CLIENTE Alberto Busetto (RAS) La complessità delle moderne organizzazioni e dei mercati in cui si trovano ad operare impone oggi, a ciascuna grande azienda, di interrogarsi sull’effettiva capacità di gestire ed integrare l’informazione legata a quello che è, a tutti gli effetti, il proprio patrimonio più importante: il cliente. Anche il Gruppo RAS, con oltre 4.600 dipendenti e cinque milioni di clienti in Italia, a cui offre servizi assicurativi, bancari e finanziari attraverso una rete commerciale realmente multicanale (agenzie assicurative, promotori finanziari, sportelli bancari, telefono ed internet), ha avviato da tempo un profondo ridisegno in tal senso dei propri processi interni. Le molte dimensioni da tenere sotto controllo (i diversi brand, le tipologie di prodotti e canali commerciali, il grande numero di clienti, lo spazio ed il tempo) hanno infatti richiesto un’ampia revisione delle infrastrutture tecnologiche ed organizzative. Oggi, un’architettura IT centrata sul cliente supporta una struttura d’analisi interna, attraverso un customer data warehouse dedicato e trasversale alle diverse realtà del Gruppo, nell’acquisire e diffondere la conoscenza della clientela necessaria a definire le strategie e ad attuare le azioni di marketing. Le analisi statistiche sistematiche e le attività strutturate di data mining hanno infatti consentito, e consentiranno in futuro, di attribuire a ciascun cliente privato un vero e proprio “rating” di propensione verso i principali prodotti e servizi offerti da RAS o di stimare la probabilità che possa cessare, in futuro, di fruire degli stessi. Gli specialisti dedicati impiegano quotidianamente a questo scopo un’ampia gamma di strumenti dell’analisi quantitativa, dai modelli di regressione lineare generalizzata ai CART, alle reti neurali. Ne risulta per l’Azienda la capacità di isolare specifici segmenti di clientela e di valutarne il potenziale di sviluppo, avendo così la possibilità di focalizzare le iniziative commerciali e di pianificare al meglio gli investimenti di marketing. 47 LE ANALISI SUL CLIENTE E SULLA RETE DI VENDITA TIM Marina Chiaro (TIM) La testimonianza TIM si pone l’obiettivo di descrivere le principali metodologie statistiche utilizzate per l’analisi della rete di vendita e per quelle realizzate sulla clientela, in uno scenario di mercato in cui l’aumento delle linee mobili segnala una stasi. Mediante la rete di vendita TIM gestisce la diffusione di informazioni, servizi e prodotti. Il contesto di mercato ha richiesto un riposizionamento della rete distributiva alla quale è stata attribuita una mission non più legata alle sole acquisizioni di nuove linee mobili, ma legata ad altre funzionalità quali: attività di caring e retention della clientela, sviluppo del traffico, vendita di cellulari di ultima generazione, education efficace del cliente. Tali obiettivi, assegnati alla rete di vendita e differenziati per canale, vengono monitorati mediante analisi provenienti da fonti “interne” all’azienda: 1. statistiche aziendali (acquisizioni linee, compensi, vendita di servizi e di terminali) 2. verifiche sui processi di vendita e sugli strumenti tecnologici di supporto; 3. le analisi provenienti da fonti “esterne” all’azienda riguardano: a) confronti competitivi b) dati derivanti da ricerche di mercato e da attività di Mystery Shopping; Per verificare la rispondenza agli standard di qualità e di comportamento richiesti da TIM alla propria rete commerciale, viene realizzata una specifica attività di Mystery Shopping. La rilevazione riguarda tutti i punti vendita e viene realizzata periodicamente (2 o 3 volte l’anno, in funzione della segmentazione considerata) da “Mystery Shoppers”, che compilano delle schede predefinite. I risultati opportunamente “ponderati” vengono utilizzati per il piano di incentivazione dei venditori e di una parte dei punti vendita (canale TOP). Le analisi sul cliente vengono realizzate per mezzo di due strumenti: le ricerche di mercato ed i sistemi di customer profiling. Le prime vengono realizzate sia sulla base clienti che sull’intero mercato di riferimento al fine di: segmentare il mercato; 48 1. misurare le quote di mercato; 2. valutare la loyalty e la qualità del servizio di post-vendita offerto; 3. analizzare i canali distributivi; 4. effettuare pre e post test sui lanci commerciali; 5. realizzare il monitoraggio della comunicazione. I sistemi di customer profiling sono strumenti che attraverso un ampio insiemi di indicatori (anagrafica, profilo tariffario, modalità di ricarica, contatti al customer care, concentrazione di utilizzo, etc,..) consentono di conoscere il comportamento del singolo cliente. L’analisi integrata (dati interni/dati esterni) consente di capire in modo specifico chi è il cliente TIM , come cambia il suo comportamento nel tempo e a quali segmenti appartiene. 49 DIAGNOSI STRATEGICA IN 3 MAPPE. UNA RICETTA DAI MERCATI FARMACEUTICI Mirio De Rosa (CREACTIVE) Dettagli Metodologici Il Direttore Marketing chiamato a migliorare la performance aziendale può applicare il procedimento che segue per (i) selezionare prodotti su cui investire per crescere, (ii) per circoscrivere le aree geografiche dove cercare la crescita, e (iii) per stabilire come raggiungere l’obiettivo di crescita. Servendoci del portafoglio prodotti di qualche anno fa di una nota casa farmaceutica verrà individuato un prodotto appetibile in termini di sviluppo competitivo utilizzando la matrice Crescita/Quota di mercato (BCG). La matrice si forma dall’intersezione dei valori della crescita di mercato e della quota di mercato relativa e consente di differenziare il portafoglio prodotti in base ai flussi di cassa ed alla posizione di leadership. Per il prodotto individuato ed i suoi diretti concorrenti verrà poi mostrato come l’analisi delle corrispondenze (ADC) possa rendersi utile per analizzare copertura territoriale e implicazioni strategiche di marketing al fine di individuare spazi di mercato da conquistare o dove consolidarsi. Relativamente alla copertura territoriale, l’analisi delle corrispondenze è utilizzabile con n vettori di dati dove gli nij corrispondono, ad esempio, a valori di vendita o di crescita sul periodo precedente di un dato prodotto. La mappa che ne deriva consiste in una rappresentazione in bassa dimensionalità che mostra una base dati multivariata nel medesimo spazio duale. A differenza delle comuni rappresentazioni su grafici cartesiani, l’ADC consente di concentrare una quantità maggiore d’informazione su una sola mappa. L’interpretazione può risultare più ardua, ma la maggiore informazione che si può ricavare dai dati giustifica lo sforzo. Dopo aver individuato le aree geografiche dove incrementare, ad esempio, la quota di mercato verrà mostrato come i dati in forma di tabella di contingenza di un’indagine panel sulle prescrizioni possano essere utilizzati nella fase di definizione della strategia di marketing e posizionamento strategico. Se l’individuazione dei concorrenti diretti è accurata, in genere, si perviene ad un ambito competitivo ristretto, che si traduce nella capacità di rappresentare sulla mappa un’elevata porzione di 50 varianza (inerzia). Mappe ad elevata varianza sono solidi strumenti decisionali per il marketing perché mostrano le relazioni latenti tra i dati. Tali relazioni possono aiutare l’analista accorto a spiegare e prevedere gli equilibri strategici tra concorrenti. Senza pretese di presentare metodologie analitiche innovative, ci auguriamo il procedimento possa indurre spunti di riflessione in chi si premurasse di estrarre informazione supplementare da dati di mercato costosi che, troppo spesso, sono utilizzati solo parzialmente dalle divisioni marketing di molteplici industrie Abstract L’intervento illustra come sintetizzare in modo conciso, rilevante e rapido la condizione competitiva di un intero portafoglio prodotti e di un singolo prodotto. Ricorrendo alla scienza d’impresa (management science) ed alla statistica multivariata, il metodo fornisce un quadro d’insieme chiaro e dimostrabile utile per rinvigorire la discussione strategica all’interno del gruppo dirigenziale e per migliorare i risultati economici dell’impresa. Sintesi della scaletta del relatore. Dirigenti chiamati a migliorare la prestazione commerciale d’imprese con un ampio numero di prodotti possono beneficiare dal monitoraggio costante e confrontabile della performance dell’intero portafoglio prodotti e dei suoi elementi più rappresentativi. L’intervento mostra come l’analisi del portafoglio prodotti, suggerita già negli anni ’70 dal Boston Consulting Group (BCG), possa rendersi efficace per separare prodotti con potenziale di crescita da quelli meno appetibili. Relativamente ad uno dei prodotti dell’esempio viene poi mostrato come rappresentarne l’ambito strategico, utilizzando una mappa chiara e stimolante realizzata ricorrendo all’Analisi delle Corrispondenze. La stessa tecnica d’analisi multivariata servirà inoltre a tracciare il quadro della copertura distributiva dei prodotti in diretta concorrenza. Dalla lettura simultanea delle tre rappresentazioni grafiche è possibile tracciare un quadro d’insieme utile al gruppo dirigenziale per allocare investimenti; identificare sacche potenziali di crescita dall’interno; mantenere una chiara visione strategica; fissare obiettivi chiari, misurabili ed accessibili; separare i concorrenti diretti dai concorrenti generici; pianificare azioni promozionali; ed altro. Tuttavia, il contributo più rilevante che attribuisco all’utilizzo degli strumenti presentati sta nella capacità di (ri)dare vigore alla discussione strategica che dovrebbe contraddistinguere gruppi dirigenziali coesi e decisi a fare la cosa giusta per il bene dell’azienda che servono. 51 Business analysis STRUMENTI DI VALIDAZIONE STATISTICA NELLE NUOVE INFRASTRUTTURE AZIENDALI PER LA BUSINESS ANALYSIS: REQUISITI, PROSPETTIVE E CASI STUDIO D. Bruzzese (UNIVERSITÀ DEGLI STUDI DI NAPOLI “FEDERICO II”) P. Papa (CROSSZ SOLUTIONS) LA SOLUZIONE MICROSOFT PER LA BUSINESS INTELLIGENCE Federico Fabi (MICROSOFT ITALIA) L’ EFFICIENZA DELL’OFFERTA NELLE AZIENDE CHE EROGANO SERVIZI AL PUBBLICO. SISTEMI PREVISIVI PER IL FLUSSO DI CLIENTELA IN POSTE ITALIANE. Gian Piero Cervellera (POSTE ITALIANE) Duccio Stefano Gazzei (UNIVERSITÀ DEGLI STUDI DI SIENA) MODELLI DI PREVISIONE DEL "CHURN" PER L'INTERNET BANKING Carlo Panella (WESERVICE - GRUPPO BANCA POPOLARE DI MILANO) Paolo Picchizzolu (UNIVERSITÀ DI PAVIA) Paolo Giudici (UNIVERSITÀ DI PAVIA) 52 STRUMENTI DI VALIDAZIONE STATISTICA NELLE NUOVE INFRASTRUTTURE AZIENDALI PER LA BUSINESS ANALYSIS: REQUISITI, PROSPETTIVE E CASI STUDIO D. Bruzzese (UNIVERSITÀ DEGLI STUDI DI NAPOLI “FEDERICO II”) P. Papa (CROSSZ SOLUTIONS) Uno studio recente, condotto dalla School of Information Management and Systems (SIMS) dell’Università di California, Berkeley, ha rilevato che la crescita esplosiva dell’informazione che caratterizza gli attuali ambienti di business è solo all’inizio. Secondo lo studio, l’umanità nei prossimi tre anni genererà un volume di nuove informazioni maggiore di quante non ne siano state generate complessivamente negli scorsi 300.000 anni. In alcuni settori industriali data intensive, come quello delle Telecomunicazioni, della Grande Distribuzione e della Finanza, il volume dei dati raccolti dalle aziende è cresciuto ben oltre le previsioni e continua ad aumentare ad un ritmo sostenuto. Per rispondere alle nuove sfide della Business Analysis e trasformare i dati di business in informazioni di valore, le aziende necessitano quindi di sistemi di data warehousing e di sistemi analitici avanzati, in grado di elaborare, memorizzare e interrogare velocemente i terabyte di dati che oggi esistono nel mercato. Negli ultimi anni sono emerse nuove infrastrutture di supporto alla Business Analysis che adottano un approccio estremamente innovativo comprimendo all’interno di un’equazione matematica tutte le possibili risposte a qualsiasi query formulata dall’ utente, sulla base delle dimensioni di analisi configurate. In altri termini, mentre con le altre tecnologie la risposta ad una query è il contenuto della cella di una matrice, con tali nuove infrastrutture è semplicemente il risultato di un’equazione matematica: ciascun oggetto informativo contiene un set completo di risposte, basta solo selezionare quella richiesta. Queste potenti capacità di interrogazione si scontrano però con la difficoltà di esplorare in misura efficiente le informazioni ottenute e con l’esigenza di valutarne la loro significatività statistica. Partendo allora dalla semplice considerazione che il risultato di una query definisce un cluster di individui con caratteristiche identiche, di cui è possibile osservare il comportamento in relazione ad una o più metriche, gli autori si propongono di utilizzare strumenti di visualizzazione, in particolare le Coordinate Parallele, per proiettare l’insieme completo di clusters contenuto nell’oggetto informativo analizzato. Tale rappresentazione consente di cogliere le relazioni multidimensionali esistenti tra i gruppi e, attraverso l’aggiunta di criteri di validazione 53 statistica anch’essi proiettati sul sistema di rappresentazione, di evidenziare immediatamente patterns interessanti. I numerosi strumenti di interazione che il metodo delle coordinate parallele offre, insieme alla possibilità di visualizzare su grafici piani datasets a più dimensioni agevolano l’utente nella fase di ricerca di informazioni significative. La metodologia sarà illustrata mediante un’applicazione con dati reali. 54 LA SOLUZIONE MICROSOFT PER LA BUSINESS INTELLIGENCE Federico Fabi (MICROSOFT ITALIA) Durante questo intervento verrà mostrata quella che è la soluzione Microsoft nell’ambito della Business Intelligence. Il cuore di questa soluzione è Microsoft SQL Server 2000. Questo prodotto oltre ad essere un RDBMS è anche una piattaforma per la Business Intelligence e per il Data Warehousing grazie ad alcune tecnologie integrate come Analysys Services e Data Trasformation Services. Gli Analysys Services contengono al loro interno sia un Server OLAP (OnLine Anlitical Process) sia due algoritmi di Data Mining per realizzare analisi statistiche avanzate. In SQL Server 2000 sono integrati attualmente due algoritmi di Data Mining: Alberi decisionali e Clustering. I Data Trasformation Services sono invece strumenti di ETL (Extract Trasform and Load) che permettono la creazione di Data Mart o Data Warehouse, cioè contenitori di dati provenienti da fonti eterogenee pensati per l’analisi degli stessi. La soluzione Microsoft si completa con quelle che sono le componenti client composte da diverse tecnologie riconducibili alla famiglia dei prodotti Office. 55 L’ EFFICIENZA DELL’OFFERTA NELLE AZIENDE CHE EROGANO SERVIZI AL PUBBLICO. SISTEMI PREVISIVI PER IL FLUSSO DI CLIENTELA IN POSTE ITALIANE. Gian Piero Cervellera (Poste Italiane) Duccio Stefano Gazzei (Università degli Studi di Siena) La ricerca dell’efficienza aziendale passa attraverso studi di ottimizzazione: si raggiunge efficienza, infatti, quando si mantiene un livello produttivo impiegando minori risorse ovvero quando, con le stesse risorse, si riesca ad ottenere un risultato quantitativamente maggiore. Come disciplina matematica, le metodologie di ottimizzazione a supporto di questi studi sono, in verità, molto giovani. Risalgono, infatti, alla fine degli anni ‘40 i contributi di Dantzing e Koopmans: il primo risolse, tramite programmazione lineare, alcuni problemi di pianificazione per l’aeronautica americana; l’altro applicò un approccio simile allo studio dei modelli classici della teoria economica. Nel mondo aziendale, molti sono stati da allora i progressi fatti. Accanto allo sviluppo della strumentazione quantitativa, si è assistito anche alla maturazione della “vision” organizzativa aziendale. E’ ormai storia recente l’affermazione di un corpus di metodologie (Ostrenga et alii, 1992), note come Total Cost Management (TCM), le quali, rendendo esplicito il concetto che l’impresa è una serie di processi interrelati consistenti in attività che trasformano gli input in output, hanno reso possibile applicare gli strumenti per lo studio dell’efficienza dei processi produttivi anche ad ambiti diversi da quelli che videro la nascita di queste discipline. E’ questo, ad esempio, il caso delle aziende di servizi, operanti nel settore pubblico o meno, ove per anni le difficoltà incontrate dai ricercatori per individuare le relazioni dirette tra fattori produttivi ed output, aveva reso impraticabili le strategie gestionali basate sulla messa a punto di standard produttivi. Oggi metodi come l’Activity Based Costing (ABC) e l’Activity Based Management (ABM) riescono a conseguire il risultato di una distribuzione delle spese complessive rispettante i rapporti di causalità tra risorse, attività ed oggetti di costo, muovendo dalla considerazione generale secondo cui sono le attività e non i prodotti a generare i costi; dal momento che i prodotti consumano attività in modo differenziato, ogni attività produce un valore aggiunto specifico per l’azienda. Tutto questo avviene mentre alle aziende di servizi che operano nel mondo della Pubblica Amministrazione (PA) si richiede sempre più di 56 attuare metodi e politiche di gestione volte a raggiungere livelli sempre maggiori di qualità e di affidabilità dei servizi. Questo ha imposto la necessità di “…cogliere i bisogni, di definire gli obiettivi, di utilizzare al meglio le risorse disponibili e le opportunità offerte dalle nuove tecnologie, (ed) infine di valutare i risultati…” (Dipartimento della Funzione Pubblica, 2002). Anche per l’azienda pubblica, quindi, si può finalmente parlare di ricerca dell’efficienza. Il presente articolo si inserisce in tale ambito di discussione: in particolare, prendendo come caso di studio gli sportelli di Poste Italiane (PI), si propone di mostrare una metodologia per pervenire ad una corretta stima dell’andamento del flusso di clientela, al fine di meglio modulare l’offerta alle caratteristiche della domanda. Il contributo è stato strutturato in cinque parti: nella prima, si illustrano alcune tecniche statistiche utilizzate da PI per la determinazione e la misura di un output unico capace di rappresentare la produzione di sportello che, per sua natura, è assai variegata; nella seconda, viene proposto un modello per l’analisi previsionale delle dinamiche della domanda; nella terza, si illustrano alcune metodologie di controllo e previsione dei mutamenti del contesto ambientale su cui gravita l’Ufficio postale (UP). Nelle sezioni finali, infine, si presenteranno alcune applicazioni del modello (per le stime dei tempi di servizio e del flusso dei clienti), ed un caso empirico che mostra l’utilizzazione delle previsioni a fini gestionali. Bibliografia Dipartimento della Funzione Pubblica, Proposte per il cambiamento nelle amministrazioni pubbliche, Rubbettino, 2002 Ostrenga M.R., Ozan T.R., Harwood M.D. e McILHATTAN R.D., The Ernst & Young Guide to Total Cost Management, J.Wiley & Sons, 1992 57 MODELLI DI PREVISIONE DEL "CHURN" PER L'INTERNET BANKING Carlo Panella (WESERVICE - GRUPPO BANCA POPOLARE DI MILANO) Paolo Picchizzolu (UNIVERSITÀ DI PAVIA) Paolo Giudici (UNIVERSITÀ DI PAVIA) Con il termine ‘churn’ si vuole indicare il comportamento di abbandono di un servizio da parte di un cliente. Questo termine che nasce nel mondo internet per definire la disaffezione verso gli internet provider, trova comunemente uso nel mondo della telefonia mobile e in molti ambiti di servizi legati al web. Caratteristica comune di questi servizi è l’assenza di un canone e di conseguenza di un atto esplicito e formale di cessazione del servizio. La differenza in ambito bancario è l’impossibilità di formalizzare il momento in cui il cliente può essere disattivato, infatti, questi servizi non sono mai disattivabili unilateralmente ed è quindi fondamentale per intraprendere l’analisi fornire una regola per assegnare lo stato di churner al cliente inattivo. Questa regola deve ottemperare a due esigenze, una di carattere formale che vuole il churn come uno stato assorbente da cui in cui il cliente non è più riattivabile, e l’altro che incorpora esigenze di business legate alla rapidità di segnalazione del churner per avere il tempo di mettere in azione programmi di retention. Queste due esigenze devono trovare la loro composizione nella scelta di un intervallo di tempo di inattività trascorso il quale il cliente si definisce churner. L’analisi effettuata si è basata sullo studio contemporaneo di 2 modelli: Il primo utilizza un modello di regressione logistica dove la variabile risposta è dicotomica ed è volto alla previsione dei futuri churners a cui rivolgere campagne di retention, il secondo si basa sulla tecnica dei cumulative logit che accetta come variabili risposta variabili categoriche che nel nostro caso identificheranno lo stato futuro assegnato in ‘churn’ ‘informativo’ e ‘dispositivo’; questo modello risponde all’esigenza di identificare clienti su cui attuare azioni di up-selling. Vale la pena sottolineare che le performance di entrambi i modelli si sono rivelate molto buone, con un misclassification rate medio del 14% per il primo e 26% per il secondo. 58 Logistica LA GESTIONE DELLE SCORTE E DEL RIORDINO AI FORNITORI NELLA G.D.O. Giuseppe Cuffaro (COOP ITALIA) OTTIMIZZAZIONE STATISTICA DEI PERCORSI DI TRASPORTO MERCI F. Tavassi (EXECUTIVE) Donato Battistini (EXECUTIVE) DETERMINAZIONE DELLE TARIFFE DI GESTIONE DI MAGAZZINO E CONTROLLO DELLA REDITTIVITÀ Simone Vicentini (XL LOGISTICA – RIELLO) Gianluca Pachera (XL LOGISTICA – RIELLO) 59 LA GESTIONE DELLE SCORTE E DEL RIORDINO AI FORNITORI NELLA G.D.O. Giuseppe Cuffaro (COOP ITALIA) Il settore della G.D.O. (grande distribuzione organizzata) inizia a strutturarsi per la gestione delle scorte e la pianificazione degli ordini, solo negli anni ’70, con la nascita dei CE.DI. (centri di distribuzione delle merci). Le aziende distributive realizzano i CE.DI. per: ·Esprimere un’offerta commerciale distintiva e non influenzata da vincoli di servizio ·Ottimizzare la gestione delle scorte ·Realizzare economie sui costi di trasporto ·Semplificare la gestione dei rapporti tra fornitori e punti di vendita Nasce la figura del “riordinatore”, distinta da quella del “buyer”, il cui ruolo è quello di garantire il massimo livello di servizio (disponibilità di prodotto coerente alle richieste dei punti di vendita) con il minimo immobilizzo in scorte. Si sviluppano così i sistemi informatici a supporto di questa attività: ·Per la formulazione delle previsioni ·Per la puntuale gestione dei parametri di riordino ·Per la formulazione delle proposte d’ordine automatiche ·Per l’ottimizzazione dei lotti fisici d’ordine ·Per la minimizzazione dei conflitti tra esigenze del riordino e potenzialità dei CE.DI. Più recentemente lo sviluppo delle tecnologie di comunicazione EDI (electronic data interchange) apre nuove opportunità nell’ottimizzazione del ciclo dell’ordine. Tale ottimizzazione non riguarda più soltanto l’ambito aziendale, ma si estende all’esterno nell’interfaccia con l’industria fornitrice. Nasce un nuovo modello di relazioni tra industria e distribuzione e, al tradizionale rapporto commerciale, si affianca un nuovo approccio che, in piena trasparenza, tende ad incrementare efficacia ed efficienza della supply chain per dare al consumatore finale maggior servizio e maggiore convenienza. 60 OTTIMIZZAZIONE STATISTICA DEI PERCORSI DI TRASPORTO MERCI F. Tavassi (EXECUTIVE) D. Battistini (EXECUTIVE) Nel 1999 la Direzione Gruppo Executive – un Corriere Espresso in forte crescita che, a quella data, disponeva di circa 130 sedi periferiche distribuite sul territorio nazionale con un movimento di oltre 120.000 pacchi giornalieri – si trova di fronte ad una crescita inaspettata dei costi di movimentazione delle merci da una sede periferica all’altra. Nasce così il Progetto per l’Ottimizzazione delle Procedure di Smistamento delle Spedizioni. Gli obbiettivi del Progetto sono tre: misurare gli effetti di ciascuna delle variabili che intervengono nella determinazione dei costi medi unitari di movimentazione delle merci; costruire un modello matematico/statistico di simulazione per il controllo delle variabili strutturali del sistema; progettare un modello di ottimizzazione per il controllo del traffico giornaliero. La realizzazione del progetto ha incontrato essenzialmente due ordini di problemi. Il primo ha riguardato il reperimento dei dati relativi alle grandezze da tenere sotto controllo – le spedizioni giornaliere ed il collegamento di ciascuna spedizione con le relative variabili di costo (mezzi utilizzati e loro costo, tratte percorse, operazioni di carico/scarico sia nelle sedi periferiche che nei Centri di Smistamento). Il Sistema Informativo del Gruppo non era stato ovviamente progettato a questo scopo. Il secondo ordine di problemi è stato di carattere essenzialmente progettuale. L’ottimizzazione del traffico su una rete di trasporti è ormai divenuto un classico dei problemi di ottimizzazione. Il “Vehicule routing problem (VRP) ha una vasta letteratura ed è stato oggetto dello sforzo di molti studiosi. Paradossalmente il risultato principale di questi sforzi è che non esiste una soluzione né generale, né esatta del problema. La mancanza di generalità deriva dal fatto che qualsiasi soluzione ottimale del problema dipende in grande misura dalle caratteristiche specifiche del problema. Come chiariremo tra poco con un esempio la soluzione migliore cambia anche al variare di piccole condizioni iniziali, ad esempio l’ammontare delle spedizioni da fare. In ogni caso, anche a parità di condizioni iniziali, gli algoritmi che identificano la soluzione migliore del problema sono così complessi che non possono venire calcolati in tempi utili, neppure con calcolatori superveloci, non appena il numero di sedi 61 da interconnettere si avvicina al centinaio. Pertanto le soluzioni utilizzabili in pratica sono soluzioni approssimate, le cosiddette soluzioni euristiche che sacrificano una parte (piccola) dell’ottimalità assoluta a favore di tempi di soluzione accettabili. A questo proposito, va tenuto conto che la sensibilità alle condizioni iniziali richiede che le soluzioni siano ricalcolate periodicamente, al limite anche ogni giorno, e quindi un algoritmo che non offre soluzioni in tempi accettabili è sostanzialmente inutilizzabile. Il progetto si è sviluppato attraverso l’ analisi dei dati forniti dal sistema informativo aziendale riguardante il periodo che va da settembre 1998 a giugno 1999. Tale analisi ha comportato il controllo, l’integrazione ed il matching dei databases aziendali; la definizione e l’ applicazione di un modello per stimare il traffico merci per tratta e mezzo utilizzato; la definizione e il calcolo delle variabili derivate (prezzi unitari,tempi medi, etc.). L’analisi ha fornito una misura precisa della incidenza di ciascuna variabile di costo sul costo medio totale per spedizione ed in particolare: dei mezzi utilizzati e della loro variazione; delle operazioni di carico/scarico nei centri di smistamento; della scelta delle tratte da percorrere; dello squilibrio e della variazione dei flussi delle spedizioni. Il periodo preso in considerazione ha mostrato una più forte incidenza, sull’aumento totale dei costi di movimentazione, dei costi di smistamento rispetto a quelli di trasporto (il 20% contro il 2%). Ma soprattutto si è evidenziato quanto atteso: l’analisi ha mostrato con chiarezza che tutte le parti del sistema (mezzi linee costi distanze quantità movimentate etc.) sono potenzialmente fonti di movimento dei costi, esse interagiscono simultaneamente e in versi opposti, in modo tale che talvolta la dinamica è da attribuire allo stato delle linee, talaltra alle rigidità del sistema, altre ancora alla dinamica dei costi dei CS. Questa situazione sta ad indicare che va ottimizzato tutto il sistema e che è illusorio pensare che un intervento in una parte possa da solo ridurre i costi. Se si chiudono i centri si avrà un aggravio dei costi delle linee e di altri centri, se si adegua il sistema per adattarsi ai cali stagionali aumenterà il costo di variazioni e così via. Per la costruzione del modello di simulazione si è proceduto preliminarmente a: digitalizzare la mappa stradale italiana (autostrade, superstrade e strade di collegamento con le sedi); calcolare la matrice delle distanze chilometriche tra sede-sede, sede-CS e CS-CS; calcolare la stessa matrice relativa ai tempi di percorrenza. Gli algoritmi di simulazione elaborati consistono nel calcolo dei costi totali (e quindi dei costi unitari) dell’intero sistema una volta che siano dati: la localizzazione delle sedi e dei centri di smistamento; le tipologie ed i relativi costi fissi e chilometrici dei mezzi a disposizione (bilici, tre assi, due assi etc.); i vincoli sui tempi di consegna; il flusso delle spedizioni da movimentare 62 sede-sede e la composizione di questo flusso per ogni tratta dalla sede di origine alla sede di destinazione. Sulla base di questi dati, viene calcolato il mix ottimo dei mezzi tale da garantire il loro massimo utilizzo e minimizzare i costi. Il modello così costruito consente sia di valutare i possibili scenari sulla base della variazione di una qualunque delle variabili strutturali del sistema (medio e lungo periodo), sia di fornire uno strumento di supporto alle decisioni di breve periodo riguardo alla scelta, anche giornaliera, delle tratte da percorrere e dei mezzi da utilizzare, una volta che sia dato il flusso effettivo delle merci da movimentare. Riguardo alle variabili di carattere strutturale del sistema sono stati presi in considerazione i seguenti scenari: le economie di scala prodotte simulando una variazione delle quantità spedite; gli effetti della localizzazione dei centri di smistamento, simulando sia la chiusura di alcuni dei sette centri di smistamento esistenti sia l’apertura di nuovi centri; il numero e la distribuzione territoriale delle sedi periferiche; gli effetti sul sistema della asimmetria dei flussi di merci tra Nord e Sud. 63 DETERMINAZIONE DELLE TARIFFE DI GESTIONE DI MAGAZZINO E CONTROLLO DELLA REDITTIVITÀ Simone Vicentini (XL LOGISTICA – RIELLO) Gianluca Pachera (XL LOGISTICA – RIELLO) La progressiva globalizzazione dei mercati e la conseguente competitività che s’instaura a livello mondiale, impone alle imprese, al fine di sopravvivere e crescere, di concentrarsi totalmente sul proprio “core business”. A tal fine, alcune funzioni aziendali considerate non strategiche, sono gestite in “outsourcing” da società di servizi. Questo è quello che avviene per alcune funzioni logistiche tra cui i trasporti e la gestione dei magazzini. Da questa evoluzione le imprese possono ricavare un enorme vantaggio: affidare a strutture specializzate la completa gestione di tali attività, distogliendo risorse umane e finanziarie da funzioni poco redditizie per impiegarle in altre più vantaggiose per l’azienda. Tutto questo con una struttura di costo leggero e facilmente controllabile, in quanto le società di servizi applicano tariffe variabili in funzione dei volumi movimentati. E’ evidente che per raggiungere un sistema di questo tipo sono necessarie continue rilevazioni statistiche, sia all’inizio sia alla fine del processo. Inizialmente perché per determinare delle tariffe corrette è necessario conoscere a fondo i processi, i tempi e i metodi di lavorazione, i volumi movimentati e quant’altro possa influire sui costi di gestione del servizio. Successivamente perché è opportuno continuare a monitorarne l’andamento con una serie d’indicatori, rilevando eventuali scostamenti dagli standard prefissati, ma soprattutto per capire se ci siano margini di miglioramento. In particolare va sottolineata l’importanza di individuare un insieme di indicatori statistici capaci di monitorare in continuo l’attività della azienda, tenuto conto della sua specifica attività. L’originalità della esperienza maturata da XL Logistica risiede nello sforzo di definire misure statistiche appositamente costruite sul core business dell’impresa. In sostanza si tratta di misure di qualità e di performance dell’impresa che nel loro insieme consentono di tenere sotto controllo l’intero ciclo produttivo, dalla capacità produttiva utilizzata, alla redditività; dalla qualità del servizio fornito alla adeguatezza delle tariffe applicate. L’insieme di statistiche di controllo dell’attività viene poi utilizzato per definire le tariffe in funzione dei volumi movimentati, in sostanza esse sono le componenti elementari di un modello concettuale che fornisce come risultato sintetico un prezzo personalizzato per ciascun cliente. Allo stesso tempo, in questo modo si costruisce un nucleo di sistema 64 informativo che consente al management aziendale di monitorare l’attività produttiva. Non va infine sottovalutato il fatto che questa procedura è oggetto di continue revisioni e miglioramenti e che viene diffusa mediante appositi corsi di aggiornamento a tutti gli operatori commerciali e addetti alla logistica operanti nell’azienda. 65 Statistica nel settore pubblico CONTROLLI DI QUALITÀ E INTEGRAZIONE DEGLI ARCHIVI AMMINISTRATIVI. L'OSSERVATORIO UNIONCAMERE SUI GRUPPI D'IMPRESA Guido Caselli (UNIONCAMERE) UTILIZZAZIONE E ANALISI DELLE BASI INFORMATIVE AMMINISTRATIVE DELLA REGIONE LAZIO Ennio Fortunato (ISTITUTO NAZIONALE DI STATISTICA) Ugo Moretti (REGIONE LAZIO) LA STATISTICA A SUPPORTO DELLA GOVERNANCE A LIVELLO LOCALE: IL CASO DEL COMUNE DI FIRENZE Lucia Buzzigoli (UNIVERSITÀ DI FIRENZE) Riccardo Innocenti (COMUNE DI FIRENZE) Cristina Martelli (UNIVERSITÀ DI FIRENZE) STATISTICA NEL SETTORE PUBBLICO: IL CASO DELL’ASL DI BRESCIA Camillo Rossi (ASL DI BRESCIA) 66 CONTROLLI DI QUALITÀ E INTEGRAZIONE DEGLI ARCHIVI AMMINISTRATIVI. L'OSSERVATORIO UNIONCAMERE SUI GRUPPI D'IMPRESA Guido Caselli (UNIONCAMERE) Oltre 136mila imprese sono legate tra loro da partecipazioni di maggioranza. Complessivamente il fenomeno dei gruppi d’impresa interessa un quarto delle società di capitale, i tre quarti dell’occupazione dipendente e i due terzi del fatturato (sempre con riferimento alle sole società di capitale). Il dato sui gruppi d’impresa costituisce il risultato dell’integrazione di più archivi amministrativi mantenuti dal sistema camerale, dalla banca dati soci al Registro delle imprese, dal Repertorio Economico Amministrativo all’archivio dei bilanci. Obiettivo di questo intervento non è tanto quello di presentare i risultati dell’analisi sui gruppi di impresa, ma, piuttosto, quello di illustrare i passaggi seguiti nella integrazione degli archivi e analizzare i problemi metodologici connessi all’utilizzo dei dati amministrativi a fini statistici Ciò consente, inoltre, di fare il punto su alcuni dei progetti in corso nel sistema delle Camere di Commercio per migliorare l’utilizzazione a fini di analisi statistica delle banche dati amministrative camerali. L’osservatorio sui gruppi d’impresa, giunto al secondo anno, mira a ricostruire i legami di partecipazione tra le società di capitale (oltre 500mila imprese). Attualmente l’analisi sui gruppi prende in esame le sole relazioni di maggioranza assoluta, che si esplica sia attraverso il controllo diretto, sia attraverso le quote indirette detenute attraverso la partecipazione in altre imprese. Esemplificando: se l’impresa A detiene più del 50% del capitale azionario di B, A controlla B, A e B fanno parte dello stesso gruppo. Se B controlla C, allora, attraverso B, A controlla C e le tre imprese fanno parte dello stesso gruppo… L’archivio principale alla base dell’osservatorio è la banca dati dei soci (le società di capitale sono tenute a depositare il proprio assetto proprietario). La banca dati soci, per avere informazioni anagrafiche e sull’attività economica, viene incrociata con il registro delle imprese; con il REA integrato (che rappresenta anche la base dati del sistema informativo Excelsior) per avere informazioni sul numero degli addetti e dei 67 dipendenti; con l’archivio dei bilanci per poter effettuare valutazioni sulla redditività e sulla struttura patrimoniale. Un algoritmo incrocia ed elabora tutti gli archivi, il risultato finale è un nuovo archivio dove, come unità di riferimento, non ci sono più le singole imprese ma dei nuovi aggregati economici, i gruppi, con fatturato addetti, …, derivanti dalla somma delle singole imprese che lo compongono. L’analisi statistico-economica condotta sulla nuova unità di rilevazione, i gruppi d’impresa, consente di rileggere, attraverso una differente chiave di lettura, le dinamiche economiche in atto. 68 UTILIZZAZIONE E ANALISI DELLE BASI INFORMATIVE AMMINISTRATIVE DELLA REGIONE LAZIO Ennio Fortunato (ISTITUTO NAZIONALE DI STATISTICA) Ugo Moretti (REGIONE LAZIO) Negli ultimi anni, in Italia si è andata sempre più imponendo l’esigenza di un forte decentramento delle responsabilità amministrative e di programmazione della pubblica amministrazione, quale risposta alle crescenti aspettative di autonomia locale e alla generale richiesta di una maggiore efficienza della pubblica amministrazione stessa. Questa nuova attenzione impone una migliore utilizzazione dell’informazione che si origina o transita nelle regioni, in relazione alle attività legate alle competenze ad esse attribuite, nella prospettiva della costituzione di sistemi informativi statistici a garanzia dell’efficacia dei servizi erogati. Un consistente contributo in questa direzione può essere fornito dall’informazione raccolta nell’ambito dei processi amministrativi regionali e dispersa negli archivi amministrativi e gestionali. In questo quadro si inserisce il progetto: Valorizzazione e standardizzazione delle informazioni contenute negli archivi amministrativi e gestionali della Regione Lazio e di supporto alle decisioni che l’Istat e la Regione Lazio hanno sviluppato tra il 1999 e il 2001. La realizzazione di sistemi informativi statistici finalizzati all’azione di governo richiede tipicamente quattro fasi: 1. la ricognizione e la raccolta del patrimonio informativo disponibile come effetto dell’attività amministrativa; 2. la selezione delle informazioni raccolte, sulla base delle loro utilità, della loro qualità e della loro disponibilità nel tempo; 3. l’individuazione e la raccolta delle informazioni di contesto (in genere non disponibile all’interno dell’organizzazione come effetto della propria attività amministrativa) necessaria alla definizione di un modello interpretativo della realtà economica e sociale nella quale l’azione amministrativa interviene; 4. la definizione di indicatori, costruiti a partire dalle informazioni di cui ai punti precedenti, in grado di orientare di volta in volta le scelte amministrative e di valutarne gli effetti. Il progetto Istat – Regione Lazio ha affrontato le problematiche attinenti alla fase 1, concentrandosi sui passi metodologici e sulle operatività da seguire per realizzare la transizione da un sistema amministrativogestionale non sistematico ed essenzialmente autoreferenziale ad un sistema informativo statistico e, in particolare, sull’insieme di regole e di 69 scelte da operare in sede di ristrutturazione dell’informazione originaria. L’attività di progetto (che ha interessato quattro dipartimenti regionali: Scuola, Formazione e Politiche del lavoro; Cultura, Spettacolo e Turismo; Politiche per la Qualità della Vita e Sviluppo del Sistema Agricolo e del Mondo Rurale) ha in effetti evidenziato la necessità di una generale, profonda e preventiva riorganizzazione dei contenuti informativi degli archivi gestionali-amministrativi, per dotarli delle necessarie caratteristiche di strutturazione, omogeneità, e significatività: l’attività degli uffici regionali coinvolti nel progetto è risultata infatti un’attività prevalentemente manuale, il supporto informativo utilizzato generalmente cartaceo e l’informazione molto spesso di tipo non strutturato, non essendo di regola raccolta mediante questionari, moduli o schede predefiniti. Il progetto ha anche messo in evidenza una certa difficoltà di comunicazione tra soggetti di diversa cultura lavorativa, tra statistici e responsabili amministrativi. Tale difficoltà trova certamente origine nel diverso significato che il concetto di archivio assume nelle realtà di tipo amministrativo e in quelle di tipo statistico. In ambiente statistico, così come in quello informatico, un archivio è un insieme strutturato di informazioni disponibili in un dato momento su un particolare gruppo di soggetti, nel quale l’insieme di informazioni è sostanzialmente invariante da soggetto a soggetto. In ambito amministrativo l’archivio viene visto come l’insieme delle pratiche amministrative che nel tempo vengono richieste e/o acquisite per ognuno dei soggetti interessati dallo specifico processo amministrativo. Nel primo approccio (che potremo chiamare approccio informativo) prevale una lettura trasversale del processo amministrativo, nel senso che si tende ad immaginare un archivio per ogni fase del processo stesso; nel secondo (approccio amministrativo) si afferma invece una lettura longitudinale, che concentrandosi sul singolo soggetto, tende a raccogliere su di esso tutte le informazioni acquisite nel processo (faldone), indipendentemente dalle varie fasi. La diversità di approccio si traduce evidentemente in una diversa organizzazione dell’informazione e detta le principali linee di azione nella transizione dagli archivi amministrativi-gestionali a quelli statistici finalizzati all’azione di governo. In particolare vengono individuati, in una logica di progressiva integrazione informativa, due distinti e successivi passi procedurali, nei quali inquadrare le diverse operatività specifiche: 1. la definizione dell’archivio amministrativo, attraverso l’individuazione, per ricomposizione delle fasi dell’iter amministrativo, del complesso informativo disponibile per un generico soggetto coinvolto dall’attività amministrativa (integrazione orizzontale); 70 2. la definizione dell’archivio statistico, attraverso l’individuazione del complesso informativo disponibile per tutti i soggetti coinvolti dall’attività amministrativa (integrazione verticale). 71 LA STATISTICA A SUPPORTO DELLA GOVERNANCE A LIVELLO LOCALE: IL CASO DEL COMUNE DI FIRENZE Lucia Buzzigoli (UNIVERSITÀ DI FIRENZE) Riccardo Innocenti (COMUNE DI FIRENZE) Cristina Martelli (UNIVERSITÀ DI FIRENZE) La funzione statistica riveste un ruolo essenziale nella individuazione e predisposizione degli strumenti informativi adeguati a supportare la governance di un sistema complesso, sia esso un’azienda sia una pubblica amministrazione. Questo è vero a maggior ragione a livello comunale, visto che la rinnovata dignità acquisita dai comuni con la recente evoluzione del contesto istituzionale implica la necessità di sistemi di monitoraggio e valutazione più strutturati e analitici la cui messa a punto, gestione e aggiornamento raggiungono livelli di complessità notevoli a causa della specificità e varietà di relazioni sul territorio che devono analizzare. In un tale contesto, che può vantare tradizioni statistiche ben più radicate e sedimentate delle altre realtà amministrative, si tratta di recuperare un’impostazione culturale storicamente latente per reinterpretarla alla luce dei nuovi adempimenti normativi, delle nuove esigenze conoscitive e delle sempre più raffinate tecnologie disponibili per il trattamento delle informazioni. Il Comune di Firenze si è dimostrato sensibile a tali tematiche e ha da tempo predisposto una linea di intervento tesa a valorizzare la stretta connessione tra funzione statistica e funzione di governo dell’Ente, concretizzando la propria volontà innovativa con la predisposizione di numerosi progetti speciali che si avvalgono di competenze interne ed esterne all’amministrazione. Tale sensibilità non è risultata immediatamente trasferibile all’insieme degli assetti organizzativi e questo ha rappresentato un elemento di criticità, pur presente nella fase di impostazione progettuale. Il progetto di respiro più generale, predisposto insieme al Dipartimento di Statistica “G. Parenti” dell’Università di Firenze, è quello che prevede la costituzione di un sistema informativo statistico a partire dai diversi giacimenti di dati originati dall’attività amministrativa e gestionale del Comune di Firenze. Il progetto, coerentemente con quanto espresso dall’art.12 del Testo Unico sulle autonomie locali, si propone in primo luogo di valorizzare le basi di dati per conoscere le modalità di funzionamento delle strutture, per orientare decisioni di governo e valutarne l’efficacia. 72 La complessità dell’organizzazione pubblica e le peculiarità che le sono proprie – primi tra tutti i numerosi vincoli normativi ai quali deve sottostare – impediscono di predisporre il sistema informativo statistico semplicemente estrapolando i metodi usualmente adottati in ambito gestionale. Inoltre il particolare rapporto esistente in questo caso tra statistica e territorio implica la necessità di configurare la fonte informativa in maniera sufficientemente flessibile da soddisfare obiettivi conoscitivi diversi provenienti da utenze diversificate. Il presente contributo si propone di evidenziare in maniera sintetica la valenza strategica, culturale, operativa e metodologica del progetto in questione. Per quanto riguarda il primo aspetto, la consapevolezza che solo un’adeguata conoscenza del contesto in cui si opera consente un’efficace programmazione dell’attività dell’ente ed il costante monitoraggio sia delle dinamiche sociali, ambientali-territoriali, economico-produttive, sia delle ricadute delle politiche intraprese in termini di trasformazione della realtà governata ha condotto l’amministrazione fiorentina ad adottare il progetto come obiettivo aziendale per il 2003, quindi vincolante per tutti i dirigenti di ogni settore, e ad inserirlo in un Piano Integrato di Cambiamento che è stato presentato e approvato a livello nazionale dal Dipartimento della Funzione Pubblica nell’ambito dell’iniziativa “I Successi di Cantieri”. La valenza culturale del progetto è stata evidente fin dalla sua proposta iniziale: da un lato la consapevolezza delle potenzialità e dei limiti della strumentazione statistica e dall’altro la necessità di acquisire un comune e rigoroso linguaggio di riferimento e una strumentazione di base che permettano l’interscambio di procedure e metodologie rappresentano le premesse per rafforzare il ruolo istituzionale della statistica nel nuovo contesto di analisi e di raccordo tra le componenti della struttura organizzativa. In questa ottica va interpretata la individuazione della rete di referenti statistici all’interno di ogni Direzione e ufficio speciale del Comune, rete che è stata completata prima di iniziare il progetto. L’attività di formazione a cui sono stati chiamati i referenti è stata finalizzata a fornire competenze operative e di elaborazione, soprattutto per diffondere capacità di lettura critica e di contestualizzazione del dato per aumentare il suo valore informativo, al di là delle immediate connotazioni di adempimento per cui viene raccolto. Dal punto di vista operativo, il progetto è iniziato con l’analisi della struttura informativa esistente, a partire dalla considerazione che all’interno dell’amministrazione comunale esista già un enorme patrimonio di dati frutto della usuale attività dell’ente; tali dati, pur avendo una grande potenzialità informativa, non risultano ancora 73 valorizzati. Il punto di partenza di tale attività è stato identificato nella ricognizione accurata di tutte le tipologie di archivi attualmente presenti nelle varie direzioni. A questo scopo è stato predisposto un questionario molto analitico con cui si cerca non solo di descrivere i vari archivi e il loro contenuto, ma anche di verificare la disponibilità di metadati, l’omogeneità di definizioni e classificazioni, la eventuale appartenenza a database relazionali, ecc., anche in vista di successivi e necessari controlli di qualità. Già nella fase iniziale di test della ricognizione, attualmente in fase di conclusione, si sono evidenziate delle criticità di notevole interesse sia per l’organizzazione comunale sia per coloro che si occupano di tali problemi dal punto di vista metodologico. Alcune delle interessanti prospettive di analisi che si stanno aprendo sono nel campo della ricostruzione di serie storiche di dati amministrativi, nella costituzione di insiemi standard di metadati descrittivi delle fonti amministrative, nel raccordo tra sistema informativo statistico e predisposizione di un adeguato sistema di indicatori per il monitoraggio dell’attività amministrativa. 74 STATISTICA NEL SETTORE PUBBLICO: IL CASO DELL’ASL DI BRESCIA Camillo Rossi (ASL DI BRESCIA) Anche gli enti pubblici hanno bisogno di strumenti di supporto alle decisioni. Per tale ragione strumenti di analisi statistica ad alto valore aggiunto rappresentano un investimento strategico rilevante ai fini del raggiungimento degli obiettivi istituzionali quali: ·Analisi e governo della domanda di salute ·Attività di medicina preventiva e sanità pubblica umana e veterinaria. ·Tutela della salute nei luoghi di lavoro ·Assistenza socio sanitaria e sociale ·Finanziamento strutture erogatrici di prestazioni sanitarie e sociali, medici di medicina generale e pediatri di libera scelta. ·Valutazione e miglioramento della qualità delle prestazioni acquistate presso le strutture erogatrici per conto degli assistiti In tutti settori di attività dell’ASL c’è necessità del contributo dello statistico, in particolare per ·allocazione delle risorse in funzione di efficienza ed efficacia ·descrizione di fenomeni demografici ·trend temporali e analisi spaziali ·capacità di comprensione del linguaggio degli operatori sanitari ·conoscenza dei sistemi sanitari. L’ASL è l’azienda sanitaria che garantisce, finanziandole, le prestazioni specialistiche ed ospedaliere fornite da ospedali e ambulatori pubblici e privati accreditati principalmente attraverso i medici di medicina generale e pediatri di libera scelta, che sono liberi professionisti convenzionati con il servizio sanitario nazionale per erogare le cure primarie. Inoltre, l’ASL fornisce tutte le prestazioni sanitarie e socio-sanitarie nell’ambito della prevenzione, dell’assistenza sanitaria di base e dell’assistenza socio-sanitaria integrata. Dati di contesto L’ASL di Brescia copre tutto il territorio della provincia, ad eccezione della Valle Camonica. Come dimensioni è paragonabile a una piccola regione italiana come il Friuli VG o l’Umbria. 75 Popolazione (dicembre 2002) Comuni serviti Medici di medicina generale Medici pediatri di libera scelta Farmacie Strutture erogatrici di ricovero Strutture erogatrici ambulatoriali Quota capitaria sanitaria 2002 1.029.978 164 732 106 269 15 25 Euro 980.886.000 Tasso di ospedalizzazione (2001) 215,28 (x 1000 abitanti) di cui 200,20 residenti ricoverati entro ASL di cui 15,08 residenti ricoverati fuori ASL Obiettivi strategici dell’ASL di Brescia In linea con il PSSR 2001-2004, le funzioni sostanziali dell’ASL sono riassumibili in programmazione, acquisto e controllo. Sostanzialmente il ruolo dell’azienda è quello di analizzare e governare la domanda di salute della popolazione contribuendo, a livello locale, alla programmazione sanitaria. Il nucleo centrale del modello consiste nella unificazione di tutti i flussi informativi disponibili (relativi alla salute, alle prestazioni erogate, alle valorizzazioni economiche, …) attorno da una parte al singolo cittadino (gli assistiti) e dall’altra alle singole aziende (produttrici pubbliche e private). L’obiettivo è quello di passare da un insieme di informazioni separate e circoscritte (i ricoveri, le prestazioni ambulatoriali, le prescrizioni farmaceutiche…) ad un insieme coordinato che sappia identificare il bisogno di salute espresso dai cittadini, la domanda di prestazioni e le caratteristiche di prescrizione, nonchè l’offerta di prestazioni e servizi. Il coordinamento deve riguardare sia le attività richieste/svolte che la loro contropartita economica. Il Sistema ha bisogno di essere esteso a tutte le attività sanitarie, sociosanitarie e sociali (ricoveri, prestazioni ambulatoriali, farmaceutica, mortalità, …), con un approccio che valorizzi sia lo spazio (verso una geografia della domanda e dell’offerta) sia il tempo (verso il monitoraggio degli andamenti temporali), così possano essere svolte in maniera appropriata le specifiche funzioni di programmazione, acquisto e controllo. Uno dei principali problemi sul tappeto è rappresentato dall’appropriatezza della prescrizione, che si esprime in parte nelle 76 indicazioni del D.P.C.M. 29 novembre 2001 “Definizione dei livelli essenziali di assistenza” Gazzetta Ufficiale N. 33 dell’8.2.2002 Supplemento Ordinario N. 26. Possono essere definiti "inappropriati" i casi trattati in regime di ricovero ordinario o in day hospital che le strutture sanitarie possono trattare in un diverso setting assistenziale con identico beneficio per il paziente e con minore impiego di risorse. Le prestazioni sanitarie e farmaceutiche vengono per la maggior parte prescritte dai Medici di medicina generale che rappresentano, anche se non compiutamente, i gatekeeper del sistema sanitario. E’ di comune conoscenza la non omogeneità dei comportamenti nella richiesta di tipologia di erogazione della prescrizione (es.: degenza ordinaria vs day hospital o prestazione ambulatoriale, farmaci). Per tale ragione si è cercato di ricostruire il profilo di spesa sanitaria in termini di prescrizione di prestazioni di ricovero considerate potenzialmente inappropriate e indicate dal DPCM sui LEA dei mmg e pls e studiare eventuali associazioni che potessero evidenziare le caratteristiche di eventuali gruppi di medici a rischio di inappropriatezza potenziale nella prescrizione per attuare interventi formativi mirati sulle aree di criticità evidenziate. L’Azienda con applicativi di statistica ha dato disponibilità a sperimentare per la prima volta nella sanità strumenti come il data mining diffusamente utilizzati per attività di customer’s profiling nelle grandi catene di distribuzione commerciale. La prima fase di questa attività di sperimentazione, condotta sui dati relativi all'anno 2001 (basi dati utilizzate: Tabella Medici Generici e Pediatri, Tabella degli Assistiti per Medico, Tabella delle SDO e Tabella Distretti) si è articolata a sua volta nelle seguenti due tipologie di analisi: 1. analisi di classificazione dei medici di famiglia, che ha consentito di suddividere i medici di famiglia (generici e/o pediatri) in gruppi dal comportamento omogeneo, in base ad una serie d'informazioni associate al medico. Tramite i risultati di queste analisi, è possibile monitorare i medici della ASL e individuare coloro che assumono comportamenti anomali, agire con incentivi verso coloro che attuano comportamenti virtuosi dovere e monitorare il ricorso ai servizi sanitari nel territorio dell’ASL. 2. analisi sul rischio di prescrizione dei 43 DRG inappropriati, che hanno consentito di prevedere il comportamento del medico rispetto al target di interesse. In questo caso il target che si desiderava monitorare era la prescrizione del medico di ciascuno dei 43 DRG potenzialmente inappropriati. Infatti, dopo aver definito il target, i modelli predittivi hanno consentito di prevedere il comportamento del 77 medico rispetto al target, fornendo come risultato la probabilità per ogni medico di prescrivere o meno uno dei 43 DRG. I principali risultati sono rappresentati da indicazioni sulle aree di miglioramento su cui intervenire per rendere sempre più appropriato ed efficace il ricorso ai servizi sanitari, il miglioramento dell’equità nell’erogazione dei servizi sanitari e la riduzione della spesa sanitaria ritenuta impropria da un punto di vista della modalità di erogazione. In futuro sono prevedibili sviluppi soprattutto facenti capo al problema dell’analisi della domanda di salute attraverso un’analisi congiunta dei dati inerenti i ricoveri, le prescrizioni farmaceutiche e quelle ambulatoriali. L’idea è quella di utilizzare i dati presenti nel datawarehouse aziendale per effettuare una stima della domanda potenziale di servizi sanitari, la più possibile vicina alla realtà, in modo tale da avere indicazioni per calibrare l’offerta di servizi sanitari alla popolazione allocando in modo appropriato le risorse. Infine, è prevedibile l’uso di simili applicativi per la realizzazione di studi di efficacia relativa allo scopo di andare incontro a quanto previsto dal PSSR che prevede incentivi alle strutture erogatrici in funzione di fasce crescenti di qualità del servizio reso. 78