DAL CONTROLLO STATISTICO DEL PRODOTTO AL CONTROLLO

SIS
Società Italiana di Statistica
Gruppo di Coordinamento “Statistica per le Imprese”
LA STATISTICA PER LE IMPRESE
L’ESPERIENZA DEGLI OPERATORI
Programma e abstract
Bologna, 21-22 novembre 2003
ALMA MATER STUDIORUM – UNIVERSITÀ DI BOLOGNA
DIPARTIMENTO E FACOLTÀ DI SCIENZE STATISTICHE
Con il contributo di
PROGRAMMA VENERDÌ 21 NOVEMBRE 2003 - MATTINA
10.00
Apertura del convegno
10.30-11.25
Saluti
Università di Bologna
V.B. Frosini (Presidente della Società Italiana di Statistica)
Relazioni introduttive
F. Tassinari (Università di Bologna)
Impresa, statistica, statistici
I. Cipolletta (Presidente UBS Corporate Finance Italia)
Uno statistico nell’impresa: riflessioni su un percorso
11.25-13.10
Aula 1 Statistica
Sessioni parallele
Marketing e pubblicità
Statistica per la tecnologia e la
produzione
Presidente: M. Montinaro (Univ. di
Torino)
Discussant: S. Brasini (Univ. di Bologna)
V. Bonori (ZENITHOPTIMEDIA ITALIA)
Presidente: A. Zanella (Univ. Cattolica di
Milano)
Discussant: A. Giovagnoli (Univ. di
Bologna)
E. Cascini (3M ITALIA)
La misurazione del ROI delle campagne
pubblicitarie: modellistica memoriale ed
econometrica
Dal controllo statistico del prodotto al controllo
statistico del processo con l’ausilio di casi reali
C. Crespi (ACNIELSEN)
Applicazione per la valutazione della resa degli
investimenti promozionali
A. Ghiglione (ALLIED DOMECQ)
La misurazione del ROI come filosofia continuativa
nelle strategie di marketing
D. Paladini (IRI- INFOSCAN)
Un metodo per la determinazione dei livelli
ottimali di prezzo al pubblico
U. Cardamone, L. Deldossi
(STMICROELECTRONICS, UNIV. CATTOLICA DI
MILANO)
Strumenti di controllo dell’impatto ambientale in
presenza di dati autocorrelati
G.B. Frisoni, U. Magagnoli , R. Paroli (IRCCS
CENTRO SAN GIOVANNI DI DIO – FBF, UNIV.
CATTOLICA DI MILANO)
Computational neuratomy: interface between
neuroscience and statistics
P. Grazioli, E. Cascini (3M ITALIA)
Strategia complessiva per la determinazione e
l’uso delle superfici di risposta in un caso reale
complesso
Aula 3 Statistica
Aula 1 Statistica
13.10-14.00
Pausa pranzo
Palazzo Bianconcini (Via Belle Arti 42 - I piano)
2
PROGRAMMA VENERDÌ 21 NOVEMBRE 2003 - POMERIGGIO
14.00-15.40
Sessioni parallele
Analisi dei mercati
finanziari e assicurativi
Presidente: R . Ottaviani
(Univ. di Roma La
Sapienza)
Discussant: G. Pellegrini
(Univ. di Bologna)
R. Maino (SANPAOLO IMI)
Metodi Statistici nelle
Previsioni Finanziarie Metodologie e Modelli per la
Gestione del Rischio
M. Mangia, C. Conversano, D.
Vistocco (NUMERIA, UNIV. DI
CASSINO, UNIV. DI NAPOLI
FEDERICO II)
L’analisi della performance e
controllo del rischio
nell’industria del risparmio
gestito
R. Cannata, G. Millo
(ASSICURAZIONI GENERALI)
Sistemi informativi
aziendali e metodi di
supporto alle decisioni
Poster 1
Presidente: A. Rizzi (Univ.
di Roma La Sapienza)
Discussant: C. Provasi
(Univ. di Padova)
S. Calliari (BANCA INTESA)
G.P. Cervellera, G. Ghellini
(POSTE ITALIANE, UNIV. DI
SIENA)
Una soluzione a basso costo al
“Time Series Warehousing” di
larga scala per Aziende ed Enti
di Ricerca
M. Crescenzi (SPSS)
La segmentazione
comportamentale nel mercato
finance: confronto tra tecniche
tradizionali e reti neurali
M. Giacomini (SAS)
Forecasting: prevedere gli
eventi per pianificare le
strategie aziendali
B. Sfogliarini (IMS HEALTH)
CRM: il ruolo della statistica
Modelli di previsione nel
mercato assicurativo (danni)
Reti neurali e grafica: una
proposta metodologica per la
segmentazione della clientela
P. Frederic, M. Catellani, M.
Di Bacco (UNIV. DI BOLOGNA,
CIBA)
Valutazione statistica di un
indice di resa-qualità in un
processo di produzione
chimico-industriale: una analisi
predittiva
D.S. Gazzei, F. Lucattini
(UNIV. DI SIENA, POSTE
ITALIANE)
Un primo approccio per
ottimizzare la copertura
territoriale in Poste Italiane
D.S. Gazzei, F. Valiante
(UNIV. DI SIENA, CAPITALIA)
Un modello in ambito TCM per
il dimensionamento dell’area
operativa delle filiali di Banca
di Roma
L. Zauli (CRIF)
Modelli di credit scoring
sviluppati su piattaforma
D.AN.TE.
B. Torrisi, G. Skonieczny
(UNIV. DI CATANIA)
L’AMC per la valutazione di
progetti pubblici per lo
sviluppo sostenibile di un’area:
il software e un caso studio
Aula 1 Statistica
15.40-15.55
15.55-17.30
Aula 3 Statistica
Coffee break
Biblioteca di Statistica (I piano)
Sessioni parallele
Certificazione di bilancio e Analisi dei mercati
controllo di gestione
Presidente: R. Guarini
(Univ. di Roma La
Sapienza)
Discussant: C. Quintano
(Univ. Parthenope di
Napoli)
G. Neri (ERNST & YOUNG)
Campionamento statistico nella
revisione del bilancio societario
R. Sollevanti, V. Lo Vecchio
(PRICEWATERHOUSECOOPERS,
STUDIO PIROLA GISMONDI E
ASSOCIATI)
Il TFR contabilizzato secondo lo
IAS 19
M. Violi (KPMG)
Il risk management come
nuova frontiera del processo di
revisione di bilancio
Presidente: C. Lauro (Univ.
di Napoli Federico II)
Discussant: G. Marbach
(Univ. di Roma La
Sapienza)
V. Brichetti, N. Adan Munoz,
M.G. Grassia (CONSIP, UNIV.
DI NAPOLI FEDERICO II)
Analisi della customer
satisfaction e profiling dei
clienti CONSIP: un'applicazione
del modello ECSI
A. Busetto (RAS)
La Business Intelligence come
supporto alla Strategia Cliente
M. Chiaro (TIM)
Le analisi sul cliente e sulla
rete di vendita TIM
M. De Rosa (CREACTIVE)
Diagnosi strategica in 3 Mappe.
Una ricetta dai mercati
farmaceutici
Aula 2 Statistica
Poster 2
L. La Tona, M. Giacalone
(UNIV. DI MESSINA)
Qualità dei servizi: uno
strumento di controllo
E. Paolucci, M. La Torre, M.
Cardullo, E. Gallina (POSTE
ITALIANE)
La Customer Satisfaction in
Poste Italiane: indagine
conoscitiva della qualità e
studio delle percezioni della
clientela
A. De Rose, L. Gioia, E.
Degennaro (UNIV. DI ROMA,
SHERING SPA, BBC SRL)
Un’indagine di mercato per la
contraccezione orale in Italia
S. Figini, P. Giudici (UNIV. DI
PAVIA)
Metodi di link analysis per
l’individuazione delle frodi
G. Orlandi (COMUNE DI
MODENA)
Informazione statistica da dati
gestionali. Un caso concreto:
imprese del commercio in sede
fissa
17.30
Aula 3 Statistica
Aula 1 Statistica
Aula 2 Statistica
Assemblea del Gruppo di coordinamento Statistica per le Imprese
Aula 1 Statistica
3
PROGRAMMA SABATO 22 NOVEMBRE 2003 - MATTINA
10.00-11.40
Sessioni parallele
Business analysis
Logistica
Statistica nel settore
pubblico
Presidente: M. Vichi (Univ.
di Roma La Sapienza)
Discussant: G. Tassinari
(Univ. di Bologna)
D. Bruzzese, P. Papa (UNIV.
NAPOLI FEDERICO II, CROSSZ
SOLUTIONS)
Presidente: A. Erba (Univ.
di Roma La Sapienza)
Discussant: I. Drudi (Univ.
di Bologna)
G. Cuffaro (COOP ITALIA)
Presidente: A. Zuliani
(Univ. di Roma La
Sapienza)
Discussant S. Biffignandi
(Univ. di Bergamo)
G. Caselli (UNIONCAMERE)
Strumenti di validazione
statistica nelle nuove
infrastrutture aziendali per la
Business Analysis: requisiti,
prospettive e casi di studio
F. Fabi (MICROSOFT)
La strategia Microsoft per la
Business Intelligence
D.S. Gazzei, G.P. Cervellera
(UNIV. DI SIENA, POSTE
ITALIANE)
La gestione delle scorte e del
riordino ai fornitori nella
G.D.O.
F. Tavassi, D. Battistini
(EXECUTIVE)
Ottimizzazione statistica dei
percorsi di trasporto merci
S. Vicentini, G. Pachera (XL
LOGISTICA – RIELLO)
Determinazione delle tariffe di
gestione di magazzino e
controllo della redittività
L’efficienza dell’offerta nelle
aziende che erogano servizi al
pubblico. Sistemi previsivi per
il flusso di clientela in Poste
Italiane
Controlli di qualità e
integrazione degli archivi
amministrativi. L'osservatorio
Unioncamere sui gruppi
d'impresa.
E. Fortunato, U. Moretti
(ISTAT, REGIONE LAZIO)
Utilizzazione e analisi delle
basi informative
amministrative della Regione
Lazio
R. Innocenti, L. Buzzigoli, C.
Martelli (COMUNE DI FIRENZE,
UNIV. DI FIRENZE)
La statistica a supporto della
governance a livello locale: il
caso del Comune di Firenze
C. Panella, P. Picchizzolu, P.
Giudici (WESERVICE, UNIV. DI
PAVIA)
C. Rossi (ASL BRESCIA)
Statistica nel settore pubblico:
il caso dell’ASL di Brescia
Modelli di previsione del
"churn" per l'Internet banking
11.40-13.00
Aula 1 Statistica
Aula 3 Statistica
Aula 2 Economia
Tavola rotonda
La statistica ufficiale nella produzione di un sistema informativo macro e micro di
supporto alle imprese
Presidente: C. Filippucci (Univ. di Bologna)
L. Biggeri (Presidente ISTAT)
S. Billè (Presidente CONFCOMMERCIO)
G. de Caprariis (Centro Studi di CONFINDUSTRIA)
E. Giovannini (Chief Statistician dell'OECD)
S. Noè (Giunta di Presidenza CONFAPI)
13.00
Aula 1 Statistica
Aperitivo di saluto
Palazzo Bianconcini (Via Belle Arti 42 - I piano)
4
Marketing e pubblicità
LA MISURAZIONE DEL ROI DELLE CAMPAGNE
PUBBLICITARIE: MODELLISTICA MEMORIALE ED
ECONOMETRICA
Vittorio Bonori (ZENITHOPTIMEDIA ITALIA)
APPLICAZIONI PER LA VALUTAZIONE DELLA RESA DEGLI
INVESTIMENTI PROMOZIONALI
Carlotta Crespi (ACNIELSEN)
LA MISURAZIONE DEL ROI COME FILOSOFIA
CONTINUATIVA NELLE STRATEGIE DI MARKETING
Andrea Ghiglione (ALLIED DOMECQ)
UN METODO PER LA DETERMINAZIONE DEI LIVELLI
OTTIMALI DI PREZZO AL PUBBLICO
Daniele Paladini (IRI – INFOSCAN)
5
LA MISURAZIONE DEL ROI DELLE CAMPAGNE
PUBBLICITARIE: MODELLISTICA MEMORIALE ED
ECONOMETRICA
Vittorio Bonori (ZenithOptimedia Italia)
La relazione affronta la misurazione del ROI (Return on Investment)
delle campagne pubblicitarie attraverso due momenti di analisi; il primo
focalizzato sul Metodo, il secondo incentrato sugli Strumenti e
supportato da un reale caso di mercato.
ZenithOptimedia, che rappresenta uno dei più importanti Centri Media a
livello internazionale ed appartiene al primo gruppo di comunicazione al
mondo (Publicis), ha recentemente rivisto il proprio posizionamento,
diventando l’Agenzia del ROI. Questo nuovo posizionamento fa sì che
ogni fase strategica di un progetto di comunicazione sia supportata
dall’utilizzo di tecniche e strumenti statistici. Così, ad esempio, le analisi
di segmentazione del mercato possono trovare una maggiore solidità
grazie all’applicazione di tecniche di statistica multivariata, le procedure
di budget setting (definizione della corretta soglia di investimento)
vengono guidate da analisi di modellistica econometrica in ragione di
comportamenti storici del mercato ed infine le scelte “creative” o di
pianificazione possono trarre beneficio da esercizi di modellistica
memoriale (quanti soggetti mandare in onda, come farli ruotare nel corso
della campagna, quale tecnica di temporizzazione adottare, quale formato
scegliere, ecc.).
L’adozione del ROI quale variabile obiettivo implica inoltre una maggior
responsabilizzazione di tutte le funzioni aziendali, che devono
identificare, fin dalle prime fasi di ciascun progetto, i “Key Performance
Indicators” (KPIs) ritenuti idonei a misurare la performance della
campagna pubblicitaria. Questi indicatori vengono scelti coerentemente
agli obiettivi di marketing e comunicazione che l’azienda si propone di
raggiungere e permettono una reale quantificazione dei risultati. A titolo
esemplificativo, se un utente pubblicitario decide di stanziare un budget
di comunicazione per il lancio sul mercato di un nuovo prodotto, i KPIs
saranno definiti in modo da riuscire a misurare il raggiungimento degli
obiettivi che una fase di lancio solitamente prevede. Così, oltre alla
quantificazione dei risultati di vendita, l’analisi prenderà in
considerazione KPIs capaci di valutare la notorietà generata nelle prime
fasi del lancio (diffusione della conoscenza del nuovo prodotto) e la
costruzione di una corretta brand equity (identità/immagine di marca),
verificandone la sintonia con le aspirazioni di posizionamento.
6
Un’esemplificazione più concreta del metodo esposto è data da una case
history tratta dal mercato dei farmaci da banco (prodotti analgesici). In
questo comparto (medicinali per i quali non è necessaria alcuna
prescrizione medica) le vendite sono il risultato delle politiche
pubblicitarie, promozionali e distributive, mentre l’influenza del prezzo è
tendenzialmente irrilevante (il prodotto non è allocato a scaffale e viene
fornito dal farmacista). Questo esempio mostra come la modellistica,
utilizzata nella duplice veste memoriale ed econometrica, possa
supportare efficacemente le scelte strategiche aziendali. Un’azienda
farmaceutica leader a livello internazionale aveva deciso di razionalizzare
il proprio portafoglio prodotti, con l’obiettivo di assegnare a ciascun
prodotto il presidio di una specifica patologia. Come conseguenza, un
prodotto analgesico storicamente comunicato come rimedio per il mal di
testa era stato riposizionato, in chiave pubblicitaria, sulla patologia del
mal di schiena. Questa scelta, in chiave di marketing e di comunicazione,
aveva portato l’azienda ad aumentare i volumi di vendita già nel primo
anno di cambiamento. Un’analisi approfondita delle dinamiche di
vendita, grazie al contributo di un’intensa attività di modellistica, aveva
evidenziato un fattore di rischio per la profittabilità aziendale. In
sostanza, il nuovo posizionamento stava deteriorando le vendite
incrementali nel breve periodo mentre l’aumento dei volumi complessivi
di vendita, letto inizialmente come un successo, era stato determinato da
un incremento della baseline (vendite di base), e dunque dagli effetti di
lungo termine prodotti dal posizionamento originario (mal di testa).
Questa case history riapre uno storico dibattito tra effetti a breve e lungo
termine della pubblicità, evidenziando come i risultati di breve termine
non siano una garanzia di quelli a lungo.
La relazione si conclude con un interrogativo circa il futuro impiego della
Statistica in ambito aziendale. Le aziende che avranno la capacità di
adottare un metodo di lavoro “olistico” e fortemente incentrato su un
impiego efficiente dei metodi statistici potranno ambire ad occupare una
posizione centrale nel mercato.
7
APPLICAZIONI PER LA VALUTAZIONE DELLA RESA DEGLI
INVESTIMENTI PROMOZIONALI
Carlotta Crespi (ACNIELSEN)
Introduzione: La statistica presso ACNielsen
In qualità di azienda leader nel settore delle ricerche di mercato,
ACNielsen é naturalmente caratterizzata da un utilizzo diffuso di
tecniche statistiche al suo interno.Tra i reparti che si affidano all’utilizzo
di tali tecniche si distinguono Stat Ops (statistical operations, ovvero
gestione dei panel di rilevazione, controllo produzione, ecc), l’area delle
ricerche ad hoc (soprattutto di tipo qualitativo) ed i cosiddetti servizi a
valore aggiunto, tra cui Modelling & Analytics Consulting.
Modelling& Analytics Consultino
All’interno del portafoglio dei servizi a valore aggiunto, opera il gruppo
Modelling & Analytics Consulting. Tale gruppo é costituito da specialisti
con background accademico in statistica, matematica o economia che
hanno come obiettivo lo sviluppo di soluzioni, ad alto contenuto
analitico, volte a supportare i clienti di ACNielsen nelle proprie decisioni
aziendali, pricipalmente nelle aree Marketing, Trade Marketing e
Vendite.In particolare, i servizi del gruppo sono volti ad aiutare i clienti
nel minimizzare i rischi legati a decisioni sia strategiche che tattiche.
Il Modello Marketing Mix
Una delle soluzioni di maggior successo tra quelle commercializzate da
ACNielsen M&A Consulting é il cosiddetto modello Marketing Mix,
ovvero uno stumento volto a valutare la resa degli investimenti in attività
promozionali.Il prodotto consiste nell’applicazione di un modello di
regressione multivariata a set di dati disaggregati, quali le informazioni
raccolte settimanalmente presso i singoli punti vendita appartenenti al
campione retail ACNielsen. I risultati del modello vengono applicati ai
dati di vendita in modo da scomporre i volumi in tre principali
componenti: vendite di base, vendite sottratte dalla concorrenza e
vendite incrementali dovute ad attività promozionali.Tramite un’analisi
approfondita del terzo elemento, ACNielsen é in grado di valutare e
confrontare la resa degli investimenti promozionali e di fornire
raccomandazioni ai propri clienti sulle strategie da adottare.
8
UN METODO PER LA DETERMINAZIONE DEI LIVELLI
OTTIMALI DI PREZZO AL PUBBLICO
Daniele Paladini (IRI – INFOSCAN)
Il supporto che una società come IRI INFOSCAN può fornire alle
aziende che operano nel mercato dei beni di largo consumo comprende
diversi ambiti : la disponibilità di una base dati a livello di singolo codice
EAN per oltre tremila punti di vendita della distribuzione moderna
permette sia un accurato tracking, con dettaglio settimanale, delle
performance del mercato, sia la possibilità di realizzare progetti di ricerca
ad hoc mirati all’analisi di specifici aspetti di interesse. Fra questi
l’efficacia delle promozioni, i rapporti di concorrenza, il ROI legato agli
investimenti pubblicitari, l’elasticità al prezzo.
Questo intervento illustra lo strumento che IRI propone alle aziende per
la definizione dei livelli ottimali di prezzo al pubblico. Il metodo viene
presentato considerando due prospettive : da una parte il punto di vista
dell’azienda, che deve essere messa in grado di applicare efficacemente e
in maniera operativa i risultati della ricerca ; dall’altra quello dell’analista
statistico IRI, che ha bisogno di affidarsi ad una metodologia robusta ed
efficiente.
In particolare, IRI utilizza la tecnica statistica nota come Bayesian
shrinkage con l’obiettivo di ottenere stime dell’elasticità delle vendite al
prezzo che siano ragionevolmente declinabili con un dettaglio
strutturale/geografico interessante, senza perdere la stabilità né la
coerenza dei risultati. Il metodo consiste nell’utilizzare un modello
gerarchico che scompone gli effetti in una componente “fissa” e in una
componente “random”, di volta in volta associata con le caratteristiche
del soggetto studiato (nel nostro caso, il punto di vendita). I coefficienti
così stimati risultano più “sensati” rispetto ai risultati di un classico
modello OLS con lo stesso dettaglio.
9
Statistica per la tecnologia e la produzione
DAL CONTROLLO STATISTICO DEL PRODOTTO AL
CONTROLLO STATISTICO DEL PROCESSO; UN ESPERIENZA
CONCRETA
Egidio Cascini (3M ITALIA S.P.A.)
STRUMENTI DI CONTROLLO DELL'IMPATTO AMBIENTALE
IN PRESENZA DI DATI AUTOCORRELATI
Ugo Cardamone (STMICROELECTRONICS)
Laura Deldossi (UNIVERSITÀ CATTOLICA DEL S.CUORE)
COMPUTATIONAL NEUROANATOMY: INTERFACE
BETWEEN NEUROSCIENCE AND STATISTICS
Giovanni B. Frisoni (Laboratorio di Epidemiologia & Neuroimmagini
IRCCS San Giovanni di Dio FBF - The National Center for Research
and Care of Alzheimer's Disease)
Umberto Magagnoli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE)
Roberta Paroli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE)
STRATEGIA COMPLESSIVA PER LA DETERMINAZIONE E
L’USO DELLE SUPERFICI DI RISPOSTA IN UN CASO REALE
Egidio Cascini (3M ITALIA S.P.A.)
Pierattilio Grazioli (3M ITALIA S.P.A.)
10
DAL CONTROLLO STATISTICO DEL PRODOTTO AL
CONTROLLO STATISTICO DEL PROCESSO; UN ESPERIENZA
CONCRETA
Cascini Egidio (3M ITALIA S.P.A.)
Alla luce dell'esperienza concreta dell'autore, sono riproposte, in sintesi,
le tappe fondamentali della gestione della qualità industriale, dagli anni
‘70 ad oggi, con particolare riferimento al ruolo ed all'evoluzione delle
metodologie statistiche. I trent’anni considerati sono suddivisi in tre
periodi, coincidenti approssimativamente con le tre decadi, '70-'80, '80'90, e dal '90 ad oggi, identificabili rispettivamente con il controllo di
qualità del prodotto, il miglioramento della qualità del processo, e
l’attuazione di un sistema complessivo di qualità. Viene osservato come
nel primo periodo le tecniche statistiche più comunemente utilizzate
siano i piani di campionamento, soprattutto per attributi, l’analisi della
varianza, soprattutto applicata alla definizione della ripetibilità e
riproducibilità delle misure, ed un certo numero di indici per la sintesi dei
dati, soprattutto media e scarto quadratico medio delle principali
caratteristiche di qualità del prodotto, che vengono raccolti con regolarità
e precisione crescente; al controllo di qualità del prodotto già fabbricato,
viene associato, nel secondo periodo, il controllo del processo, con
l’obiettivo di limitare il numero di unità difettose, in fase di produzione;
s’inizia la sperimentazione, soprattutto fattoriale, si introducono le carte
di controllo, soprattutto di Shewart e quelle cosiddette CUSUM, in grado
di fornire indicazioni tempestive sulla deviazione da targets predefiniti e
s’inizia a considerare la possibilità dello sviluppo di modelli matematici
specifici, per la previsione del comportamento dei processi; negli ultimi
anni di questo secondo periodo fanno la loro apparizione le norme di
qualità ISO-9000, che vengono assunte, con velocità impressionante,
come sinonimo di qualità, nella maggioranza del mondo industriale;
purtroppo, il raggiungimento dell’obiettivo di queste norme, che doveva
essere quello dell’introduzione di un sistema complessivo di gestione, in
grado di favorire lo sviluppo della qualità reale, cioè della qualità dei
prodotti e dei processi, finisce per essere ostacolato, talvolta in modo
pressoché insormontabile, dalla loro stessa esistenza. Nel lavoro viene
fornito una spiegazione del fenomeno. Tenendo, infine, conto che una
loro corretta applicazione è in grado di generare risultati, anche perché,
se ben interpretate, finiscono per favorire applicazioni statistiche, anche
avanzate, si assiste oggi, in qualche realtà industriale, allo studio dei
processi autocorrelati, alla considerazione di più caratteristiche di qualità
contemporaneamente, per la definizione dell’effettiva capacità dei
11
processi, all’applicazione generalizzata dei test statistici, per una verifica
continua di varianti del processo, alla valutazione della qualità
complessiva dei prodotti, alla generazione di modelli matematici per la
previsione dei risultati, prima ancora dell’avviamento dei processi. Nel
lavoro, quindi, è fornito un esempio reale di modello, costruito per
ottimizzare un processo di produzione. L’esempio vuole sottolineare
come la ricerca costituisca, anche nel mondo industriale, un elemento
insostituibile di progresso e di miglioramento. Il modello prevede,
attraverso la costruzione di una densità discreta di probabilità, la
sequenza ottimale di produzione di k prodotti diversi, su di uno stesso
impianto, in modo da rendere minimo il numero di interventi
complessivi di manutenzione, necessari per portare a termine l’intera
campagna di produzione. La densità di probabilità, cui si fa cenno è
quella della variabile casuale, diciamo Mk, che rappresenta il numero di
manutenzioni (0, 1, 2, ..), necessario per completare la campagna di
produzione dei k prodotti diversi. E’ stata costruita sull’assunzione che,
detti A1, A2, Aj,…, Ak i prodotti da fabbricare, nota, da dati storici, e
detta Pj la probabilità di completare, senza necessità di manutenzione, la
produzione di nj unità del prodotto Aj, partendo da impianto nuovo, sia
Pj Pj Pj+1 la probabilità di completare la sequenza di nj e nj+1 unità dei
prodotti Aj, Aj+1, iniziando la produzione delle nj+1 unità del prodotto
Aj+1, immediatamente dopo il completamento delle nj unità del
prodotto Aj. Il significato fisico di questa assunzione è chiarito in
dettaglio nella memoria completa, ed è ricavato da osservazioni storiche
sul comportamento dell’impianto. Le formule che descrivono il modello,
riportate e dimostrate nella memoria completa, sono piuttosto
complicate, anche se applicabili facilmente, con un minimo di cautela; è,
però, interessante sottolineare che soltanto con il loro ausilio si è riusciti
a comprendere il motivo delle prestazioni notevolmente diverse
dell’impianto, in campagne di produzione successive, anche se
qualitativamente e quantitativamente identiche.
12
STRUMENTI DI CONTROLLO DELL'IMPATTO AMBIENTALE
IN PRESENZA DI DATI AUTOCORRELATI
Ugo Cardamone (STMICROELECTRONICS)
Laura Deldossi (UNIVERSITÀ CATTOLICA DEL S.CUORE)
Il ruolo e il contributo delle procedure di controllo statistico per il
miglioramento dei processi industriali di produzione è a tutti noto. La
loro applicazione per l’analisi dei parametri ambientali presenta però
alcune controindicazioni. I metodi statistici tradizionali, infatti, si basano
sull’assunzione che osservazioni consecutive nella traiettoria del processo
siano tra loro indipendenti. Tale assunzione non è verificata per la
maggior parte dei processi per il controllo dell’impatto ambientale, i
quali, a seguito dell’introduzione dell’uso di strumenti per l’analisi in
continuo dei parametri - e, dunque, per l’alta frequenza nella rilevazione
delle osservazioni - o in quanto processi di natura chimica, presentano
osservazioni positivamente autocorrelate. In tal caso, gli strumenti
tradizionali di controllo, ordinariamente in uso, presentano caratteristiche
molto diverse rispetto a quelle nominali. Per le carte di controllo, ad
esempio, il numero medio di falsi allarmi risulta più elevato rispetto a
quello prefissato nell’ipotesi di osservazioni indipendenti, con la
conseguenza che il loro erroneo utilizzo genera sfiducia ed oneri
improduttivi negli utilizzatori. Numerosi sono i contributi di questi ultimi
anni relativi al controllo statistico di processo (SPC) in presenza di dati
autocorrelati. In questo lavoro si presenterà una breve rassegna dei
suddetti metodi mettendone in evidenza, attraverso l’applicazione a
processi per il controllo dell’impatto ambientale, proprietà e
caratteristiche e mostrando la loro utilità per il monitoraggio ed il
miglioramento della prestazione degli impianti ecologici.
Bibliografia
Dyer, J.N., Adams, B.M., Conerly, M.D. (2003) The Reverse Moving
Average Control Chart for monitoring Autocorrelated Processes, Journal
of Quality Technology, 35, 139-152.
Jiang, W., Tsui, K., Woodal, W. (2000) A new SPC Monitoring Method:
the ARMA Chart, Technometrics, 42, 4, 399-410.
Zhang, N.F. (1998) A Statistical Control Chart for Stationary Process
Data, Technometrics, 40, 1, 24-38.
13
COMPUTATIONAL NEUROANATOMY: INTERFACE
BETWEEN NEUROSCIENCE AND STATISTICS
Giovanni B. Frisoni (Laboratorio di Epidemiologia & Neuroimmagini
IRCCS San Giovanni di Dio FBF - The National Center for Research
and Care of Alzheimer's Disease)
Umberto Magagnoli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE)
Roberta Paroli (UNIVERSITÀ CATTOLICA DEL SACRO CUORE)
Neuroanatomical structures may be profoundly or subtly affected by the
interplay of genetic and environmental factors, age, and disease. Such
effects are particularly true in healthy ageing individuals and in those who
have neurodegenerative diseases. However, early in the progression of
such diseases, neuroanatomical changes may be too mild, diffuse, or
topologically complex to be detected by simple visual inspection or
manually traced measurements of regions of interest. Statisticalmathematical models have recently been developed based on magnetic
resonance images that can capture the extraordinary morphological
variability of the human brain and detect tiny structural brain changes
associated with different neurodegenerative disease states. These
methods use statistical models sensitive to subtle changes in the size,
position, shape, and tissue characteristics of brain structures affected by
neurodegenerative diseases such as regression models with discrete
cosine functions, modified mixture model cluster analysis and spatiotemporal models such as Markov random fields or hidden Markov
random fields for statistical segmentation of brain magnetic resonance
images. Neuroanatomical features can be compared within and between
groups of individuals, taking into account age, sex, genetic background,
and disease state, to assess the structural basis of normality and disease.
The strengths and limitations of algorithms of existing computer-assisted
tools at the most advanced stage of development, will be discussed
together with available and foreseeable evidence of their usefulness at the
clinical and research level.
14
STRATEGIA COMPLESSIVA PER LA DETERMINAZIONE E
L’USO DELLE SUPERFICI DI RISPOSTA IN UN CASO REALE
Egidio Cascini (3M ITALIA S.P.A.)
Grazioli Pirattilio (3M ITALIA S.P.A.)
Nel lavoro viene descritta la strategia complessiva utilizzata per la
determinazione e l’utilizzazione della superficie di risposta di una
caratteristica fondamentale di un prodotto di largo consumo. Il prodotto,
che per motivi di riservatezza, non può essere indicato esplicitamente,
può, senza difficoltà, essere convenientemente immaginato come una
lamina quadrata di lato a. La caratteristica di qualità considerata è lo
spessore, che, riferendo la lamina a due assi cartesiani, x, y, passanti per il
centro del quadrato, può essere descritta da una funzione in due variabili
f(x, y). L’obiettivo del progetto che viene descritto in questo lavoro era di
rendere minimo il valore medio della funzione f(x, y) sulla superficie aa,
compatibilmente con un limite di specifica inferiore, Li, tale che
dappertutto fosse soddisfatta la relazione, f(x, y) > Li. Come si può
intuire facilmente, il raggiungimento dell’obiettivo posto coincideva con
la minimizzazione della varianza di f(x, y).
Il percorso sperimentale seguito può essere sintetizzato come segue:
E’ stata definita la risposta da studiare, diciamo Y , come Y = Var(f(x,
y)).
Sono state individuate le variabili indipendenti, diciamo X1, X2, …, Xn
possibilmente collegate ad Y , mediante un’analisi tecnica qualitativa
critica del processo di produzione.
E’ stata eseguita una prima analisi quantitativa di massima, cioè non
impiegando alcun test statistico, ed utilizzando i dati storici disponibili,
per una conferma iniziale sulla tendenza del valore numerico assunto da
Y, in funzione dei valori osservati delle variabili Xi, individuate
precedentemente.
E’ iniziato, quindi, il percorso sperimentale classico, con l’obiettivo finale
della determinazione della funzione Y = Y(X1, X2,…, Xn) , inserendo
nella sperimentazione soltanto le variabili indipendenti Xi che hanno
superato la prova precedente.
Il primo passo è stato un esperimento fattoriale completo, dal quale è
stato possibile individuare il percorso di massima diminuzione di Y in
funzione delle variabili indipendenti considerate.
Seguendo il percorso suggerito dalle equazioni di Lagrange si è giunti nei
pressi del punto di minimo.
15
Un esperimento centrale composto finale ci ha fornito, infine, la
superficie di risposta desiderata.
La superficie di risposta ci ha consentito di variare le condizioni di
processo, utilizzate da lungo tempo, e determinate essenzialmente, nel
corso degli anni, sulla base dell’esperienza, possiamo dire empirica, degli
operatori di produzione. Condizioni come questa sono comunemente
riscontrabili negli ambienti industriali; miglioramenti reali e significativi,
però, difficilmente possono essere ottenuti in modo empirico, perché è
molto difficile comprendere in modo completo l’effetto di variabili,
talvolta neanche prese in seria considerazione.
Determinata la superficie di risposta, è stata calcolata la variabilità
naturale a lungo termine di Y, ed insieme a nuove procedure di gestione,
è stata introdotta una carta di controllo per medie, in base alla quale è
stato possibile mettere sotto controllo indirettamente anche l’affidabilità
delle termocoppie che ci forniscono le temperature di alcuni punti
particolari dell’impianto di produzione considerato.
I risultati economici ottenuti sono stati soddisfacenti per entità, ma,
soprattutto perché stabili nel tempo.
16
Analisi dei mercati finanziari e assicurativi
METODI STATISTICI NELLE PREVISIONI FINANZIARIE METODOLOGIE E MODELLI PER LA GESTIONE DEL
RISCHIO
Renato Maino (SANPAOLO IMI)
L’ANALISI DELLA PERFORMANCE ED IL CONTROLLO DEL
RISCHIO NELL’INDUSTRIA DEL RISPARMIO GESTITO
Mariano Mangia (NUMERIA S.r.l. Analisi & dati del risparmio gestito)
Claudio Conversano (UNIVERSITÀ DEGLI STUDI DI CASSINO)
Domenico Vistocco (Università di Napoli Federico II)
MODELLI DI PREVISIONE NEL MERCATO ASSICURATIVO
(DANNI)
Roberto Cannata (ASSICURAZIONI GENERALI SPA)
Giovanni Millo (ASSICURAZIONI GENERALI SPA)
MODELLI
DI
CREDIT
PIATTAFORMA D.AN.TE.
Luca Zauli (CRIF)
SCORING
17
SVILUPPATI
SU
METODI STATISTICI NELLE PREVISIONI FINANZIARIE METODOLOGIE E MODELLI PER LA GESTIONE DEL
RISCHIO
Renato Maino (SANPAOLO IMI)
La relazione si focalizza sui modelli previsivi utilizzati per la misurazione
e la gestione del rischio, dato che essi rappresentano la componente più
dinamica delle attuali realizzazioni e stanno condizionando lo sviluppo
delle applicazioni statistiche nell'industria finanziaria.
L'intervento intende offrire un panorama dell'attuale evoluzione dei
modelli visti dalla parte dell'utilizzatore (quindi dal lato della domanda di
metodologie). Questo per offrire un contributo ai "produttori" di modelli
nel tracciare le linee di tendenza per i loro apporti.
Viene pertanto data una prima indicazione di quanto avviene nel Risk
Management sul piano organizzativo e sull'importanza che riveste nelle
organizzazioni finanziarie ed aziendali complesse. Si passerà poi a
proporre una breve tassonomia della modellistica applicata, delle linee di
tendenza e del panorama che potrebbe risultarne a seguito degli sviluppi
in corso. Si toccherà infine il ruolo che va ricoprendo l'attuale
modificazione della regolamentazione e del bisogno di elaborazione
modellistica che ne consegue.
18
L’ANALISI DELLA PERFORMANCE ED IL CONTROLLO DEL
RISCHIO NELL’INDUSTRIA DEL RISPARMIO GESTITO
Mariano Mangia (NUMERIA S.r.l. Analisi & dati del risparmio gestito)
Claudio Conversano (UNIVERSITÀ DEGLI STUDI DI CASSINO)
Domenico Vistocco (UNIVERSITÀ DI NAPOLI FEDERICO II)
Il risk management e l’analisi delle performance sono attività che solo di
recente sono state sviluppate all’interno dell’industria del risparmio
gestito, in particolare nel settore dei fondi comuni d’investimento.
Strutture e procedure di misurazione e controllo del rischio di
portafoglio sono ormai presenti in quasi tutte le società di gestione del
risparmio e l’analisi delle performance ha ricevuto un notevole impulso
con l’arrivo in Italia di alcune società indipendenti di analisi e rating, quali
Morningstar e Standard & Poor’s.
E’ da rilevare, tuttavia, che sino ad oggi l’analisi del rischio e delle
performance è stato unicamente condotta sullo strumento finanziario, il
fondo comune di investimento, e sul suo portafoglio. Manca, invece, una
analisi del grado di rischio e una valutazione della performance del
portafoglio
della
clientela
a
livello
di
singolo
cliente/intermediario/sistema e una sistematica valutazione delle
relazioni che legano il flusso delle sottoscrizioni alle diverse variabili quali
performance passata, politiche di pricing, etc. Alla stessa maniera, il
portafoglio dell’intermediario, inteso come massa complessiva in
gestione, non è valutato in termini di rischio (esposizione ai mercati
finanziari) e di variabilità (sensibilità alle variazioni dei flussi di
sottoscrizione) e, di conseguenza, il flusso dei ricavi che da esso
scaturisce appare sostanzialmente fuori del controllo dei responsabili
dell’azienda.
Gli autori si propongono di illustrare le diverse problematiche relative
alla misurazione ed al controllo del rischio di portafoglio ed all’analisi
della performance evidenziando, attraverso l’utilizzo di opportuni
strumenti statistici, i fattori che incidono su di esse e le ripercussioni che
tali problematiche possono avere sulle decisioni strategiche concernenti
le politiche di Asset Allocation operate dagli investitori istituzionali e
sulle scelte d’investimento dei risparmiatori.
19
MODELLI DI PREVISIONE NEL MERCATO ASSICURATIVO
(DANNI)
Roberto Cannata (ASSICURAZIONI GENERALI SPA)
Giovanni Millo (ASSICURAZIONI GENERALI SPA)
Da ormai quasi vent'anni l'Ufficio Studi svolge l'attività di previsione
della spesa assicurativa italiana, a supporto della pianificazione
commerciale e, negli ultimi anni, del piano strategico triennale, allo scopo
di fornire un benchmark per la definizione degli obiettivi aziendali in
termini di crescita della raccolta premi.
L'obiettivo della modellazione econometrica della spesa assicurativa è di:
- descriverne l'evoluzione temporale in termini delle sue principali
determinanti
- prevederne l'evoluzione futura
- analizzare l'effetto di possibili shock esogeni sul fatturato del settore.
Descrivere il mercato assicurativo danni in forma quantitativa è un
compito arduo per la complessità del prodotto, che ha conseguenze
pesanti sulla disponibilità di dati. A questo proposito, il fatto più
eclatante è l'impossibilità di osservare i prezzi dei prodotti. Ulteriori dati
che sarebbero necessari per un'analisi econometrica esauriente e non
sono disponibili allo stato attuale delle cose sono il numero di contratti e
le somme assicurate totali, che assieme dovrebbero descrivere l'aspetto
che nei mercati dei beni più semplici chiamiamo "quantità" del bene in
oggetto.
Quanto alla spesa per tipologia delle coperture, le rilevazioni statistiche
disponibili sono opportunamente dettagliate per ramo, consentendo uno
studio separato dei vari ed eterogenei mercati che vanno sotto il nome
collettivo di "assicurazioni contro i danni". Un livello di aggregazione
meno elevato sarebbe desiderabile dal lato della domanda: le funzioni di
domanda delle aziende e delle persone sono verosimilmente ben diverse
in termini di elasticità, stante la possibilità di autoassicurarsi per i soggetti
più dotati di capitale.
La ricerca di una specificazione econometrica per descrivere l'evoluzione
temporale del mercato dipende inoltre dalla disponibilità di serie storiche
adeguatamente lunghe.
Stabilita la pratica impossibilità di testare direttamente modelli strutturali
mediante l'analisi dell'equilibrio di prezzo e quantità, l'attenzione va
spostata sulla raccolta premi, prodotto delle precedenti e unica variabile
osservabile. I modelli risultanti saranno relazioni in forma ridotta dove
20
l'evoluzione della variabile obiettivo viene messa in relazione a quella di
un certo numero di grandezze esogene o predeterminate.
L'analisi parte dalla teoria della domanda e da quella dell'offerta di
assicurazione per identificare i principali fattori che le determinano, per
poi continuare con le caratteristiche teoriche dell'equilibrio di mercato
che ne scaturisce.
Le variabili rilevanti possono essere classificate nelle seguenti quattro
categorie: variabili di domanda, di offerta, di inerzia di portafoglio e di
prezzo.
E' opinione ampiamente condivisa in letteratura che la funzione di
domanda di assicurazioni danni reagisca positivamente a incrementi nella
probabilità del sinistro, nell'avversione al rischio dei consumatori e nella
ricchezza assicurabile. Rimane aperta la questione dell'opportuna
misurazione di alcune tra queste. Risulta efficace dal punto di vista
empirico approssimare alcuni di questi aspetti (in particolare la crescita
dei capitali assicurati) per mezzo di variabili di contabilità nazionale: nella
maggior parte dei casi il prodotto interno lordo, ma anche, a seconda del
ramo, le esportazioni, la domanda interna o gli investimenti. Un'analisi
teorica dell'equilibrio di mercato porta a concludere che incrementi nella
domanda conducono a loro volta a incrementi nel fatturato di mercato,
che cresce per effetto di un aumento sia nella quantità domandata che
nel prezzo di mercato.
Diverso il discorso per l'offerta di coperture da parte delle compagnie. E'
naturale ritenere che incrementi nei costi dei sinistri, nelle spese o nei
tassi di premio dei riassicuratori portino ad aumenti nelle tariffe. L'effetto
totale sulla raccolta di questi ultimi è però ambiguo a causa
dell'interazione con la domanda: a parità di altre condizioni, crescono i
prezzi ma diminuiscono le quantità assicurate. Il risultato complessivo
dipende dall'elasticità della domanda. Lo stesso vale per variazioni
dell'aliquota fiscale.
L'interazione tra domanda e offerta spiega la raccolta premi dovuta a
nuovi contratti. Per dare conto dell'incasso premi dovuto a contratti
stipulati nei periodi precedenti (c.d. "inerzia"), la variabile dipendente
ritardata di uno o più periodi andrà inserita tra quelle esplicative.
Da ultimo, sia motivazioni tecniche che di significatività economica delle
relazioni stimate suggeriscono di modellare esplicitamente l'effetto del
livello generale dei prezzi mediante l'inclusione di un indice di inflazione.
Le caratteristiche dinamiche della relazione vengono indagate per mezzo
di un approccio "à la London School of Economics", che permette di
discriminare il ritardo con cui modificazioni nelle condizioni sottostanti
si riflettono sulla raccolta premi. Ad esempio, per alcuni rami la dinamica
21
del processo di tariffazione si riflette chiaramente nella significatività del
rapporto sinistri a premi ritardato di due periodi, mentre quello del
periodo precedente (e, a maggior ragione, quello contemporaneo) non
risultano utili per spiegare l'andamento della spesa.
22
MODELLI
DI
CREDIT
PIATTAFORMA D.AN.TE.
SCORING
SVILUPPATI
SU
Luca Zauli (CRIF)
L’obiettivo di questo intervento è di dare una panoramica sulle attività di
CRIF Decision Solutions che opera da ormai un decennio all’interno del
mercato del credito fornendo sistemi di supporto decisionale a Banche
ed Istituti di Credito.
La sua attività può essere sintetizzata in tre aree:
1. Modellistica;
2. Consulenza;
3. Fornitura di Software.
I modelli di scoring sono modelli previsivi volti a supportare il Risk
Management ed il Portaolio marketing attraverso modelli di Credit
Bureau, che attingono le informazioni dal database Eurisc di CRIF,
modelli di accettazione e di behavioural.
In questo contesto si inserisce D.AN.TE. (acronimo di Development of
ANalitics and TEchnology) che è un software sviluppato internamente a
CDS volto a seguire lo sviluppo di modelli di score dalla lettura dei dati
fino alla creazione della reportistica finale ed a monitorare gli score nel
tempo.
Saranno tre le fasi dello sviluppo di una griglia di score con DANTE che
verranno analizzate:
1. Il raggruppamento dei dati: tramite approccio manuale, valori distinti,
metodo del percentile e della massimizzazione dell’Information Value;
2. Lo sviluppo di modelli di score ed analisi di alcune misure di
performance degli stessi: KS, IV, Fvalue, Gini index, score distribution.
3. La creazione della reportistica di Score performance in formato Rtf.
23
Sistemi informativi aziendali e metodi di
supporto alle decisioni
UNA SOLUZIONE A BASSO COSTO AL TIME-SERIES
WAREHOUSING DI AMPIA SCALA PER BANCHE CENTRALI,
ENTI DI RICERCA ED AZIENDE
Sergio Calliari (BANCA INTESA)
LA SEGMENTAZIONE COMPORTAMENTALE NEL MERCATO
FINANCE: CONFRONTO TRA TECNICHE TRADIZIONALI E
RETI NEURALI
Michele Crescenzi (SPSS ITALIA)
FORECASTING: PREVEDERE GLI EVENTI PER PIANIFICARE
LE STRATEGIE AZIENDALI
Michela Giacomini (SAS)
IL RUOLO DELLO STATISTICO-INFORMATICO: LE ESIGENZE
DEL MERCATO DEL LAVORO
Bruno Sfogliarini (IMS HEALTH)
24
UNA SOLUZIONE A BASSO COSTO AL TIME-SERIES
WAREHOUSING DI AMPIA SCALA PER BANCHE CENTRALI,
ENTI DI RICERCA ED AZIENDE
Sergio Calliari (BANCA INTESA)
Banche Centrali, Enti di Ricerca ed Aziende, collezionano e utilizzano
volumi elevati di serie storiche, sia di fonte interna che acquisita
dall’esterno, rendendo necessaria l’automatizzazione della raccolta,
l’eliminazione dei dati ridondanti (duplicazioni, ecc.) e la creazione di un
database centralizzato allo scopo di fornire dati accurati e rapidamente
agli utenti interessati.
In ambiente Windows Microsoft con Dbank è possibile costruire grandi
basi di dati centralizzate ad un costo estremamente basso rispetto a
soluzioni alternative (ad es. FAME, SAS, AREMOS, ecc.) L’approccio
consiste nell’utilizzare VB Microsoft e gli oggetti DCOM per produrre
basi di dati centralizzate (SQL Server 2000, Oracle, ecc.), permettendo a
Banche Centrali, Enti di Ricerca ed Aziende di:
•memorizzare le serie storiche in uno o più database logici accessibili
simultaneamente da tutti gli utenti ;
•eliminare la dipendenza dai fogli elettronici per la gestione dei dati, ma
utilizzandoli fruttuosamente nelle loro capacità e le loro tecniche per il
data management, consolidamento dei dati, analisi statistiche, creazione
di grafici, produzione di tabelle e rapporti, ecc.;
•rendere estremamente facile l’accesso alle serie storiche complete per
scopi di ricerca e per rapporti ad hoc;
•eliminare ridondanze dei dati e duplicazioni;
•facilitare la pubblicazione dei dati su intranet/extranet o portali verticali
(ad es. un possibile Servizio Dati Economici e Sociali di un portale per le
Scienze Sociali) data l’integrabilita di XML con SQL Server 2000.
L’approccio adottato che rende possibile il collegamento di Excel con i
database di serie storiche evidentemente risulta assai interessante per gli
utenti finali.
Attualmente sono in forma di oggetti DCOM caricati in SQL Server
2000 i seguenti database:
1.Fondo Monetario Internazionale: IFS, DOTS, BOPS, GOV - circa
500.000 serie storiche
2.OCSE (Statistical Compendium): circa 950.000 serie storiche;
25
3.World Bank: WDI (World Development Indicators) e GDF (Global
Development Finance) - circa 90.000 serie storiche;
4.UIC - cambi giornalieri Lira contro 200 valute dal 1918;
5. BIP ­ Banca d’Italia;
6. NBER - Historical Database
7. Penn World Tables 5.5, 5.6 , 6.1
26
LA SEGMENTAZIONE COMPORTAMENTALE NEL MERCATO
FINANCE: CONFRONTO TRA TECNICHE TRADIZIONALI E
RETI NEURALI
Michele Crescenzi (SPSS ITALIA)
L’obiettivo della segmentazione comportamentale è fornire uno
strumento analitico che sappia descrivere nel dettaglio e monitorare nel
tempo la composizione della customer base, ma anche fornire un
supporto decisionale costante ed efficace per la gestione delle azioni di
marketing.
In ambito finance, la segmentazione comportamentale (data driven)
affianca quella di tipo strategico (business driven), per fornire al
marketing una visione più completa ed accurata dei profili che
caratterizzano la clientela.
Dal punto di vista metodologico, la segmentazione comportamentale si
avvale delle tecniche di cluster analysis e di machine learning, che
individuano una partizione della popolazione in segmenti omogenei
rispetto alle variabili esplicative selezionate.
Nella segmentazione della clientela, SPSS segue tipicamente un
approccio misto, business e data driven. Data l’usuale complessità della
composizione della clientela finance, si rende necessario selezionare
alcuni segmenti basandosi esclusivamente su logiche di business per
sviluppare poi il modello di cluster analysis sulla popolazione restante.
Business driven
Con criteri guidati dalla conoscenza del business vengono selezionati i
primi segmenti. Il passo successivo riguarda la scelta di un arco
temporale d’osservazione adeguato per comprendere il profilo
finanziario dei clienti. Limitando il periodo d’osservazione, si escludono
dall’analisi model-based i clienti con uno storico insufficiente per cogliere
il profilo comportamentale o quelli con delle caratteristiche transazionali
temporaneamente immutate.
Data driven
Il modello viene quindi sviluppato sulla popolazione attiva. Per una
corretta identificazione del modello di segmentazione, è necessario
condurre una fase di data preparation che coinvolge normalmente la
valutazione dei valori anomali, la ricodifica delle variabili attive e la
costruzione di nuove variabili utili a comprendere meglio il
comportamento finanziario del cliente.
27
Preparata la base dati, l’analisi model based prevede il confronto tra le
tecniche statistiche più classiche, di cluster analysis, e gli algoritmi basati
sulle reti neurali non supervisionate.
28
FORECASTING: PREVEDERE GLI EVENTI PER PIANIFICARE
LE STRATEGIE AZIENDALI
Michela Giacomini (SAS)
La previsione degli eventi è la base fondamentale per pianificare i
processi di un’azienda, quali l’allocazione di fondi, la pianificazione e
schedulazione delle scorte di magazzino, la distribuzione delle risorse e
dei budget, la gestione delle campagne di marketing e delle attività di
approvvigionamento. Ogni giorno queste decisioni e molte altre sono
basate sulla previsione del futuro.
Con il presente intervento, SAS intende presentare un progetto di
forecasting per la previsione dei costi di garanzia.
La gestione delle garanzie è una questione focale per tutte le aziende che
producono beni industriali, elettronici e commerciali. Le garanzie infatti
portano a costi molto alti, i quali possono essere suddivisi in 2 tipi:
- diretti, dovuti al cambio di prodotti e/o componenti e per il servizio e
la manodopera per la riparazione;
- indiretti, di insoddisfazione del cliente e impoverimento del brand.
Spesso le aziende trattano una richiesta di riparazione in garanzia come
un item amministrativo isolato. Queste informazioni vanno invece
integrate con i dati sui clienti, sui fornitori, sui prodotti, specificando
livello temporale e geografico. Con le soluzioni SAS è possibile effettuare
un’analisi approfondita di questo tipo, che permette di ridurre i costi,
migliorare la soddisfazione del cliente e mantenere alto il nome del
brand.
Il progetto in questione è stato effettuato per un’azienda del settore
automotive e si tratta di un’applicazione jsp collocata nella intranet
aziendale, fruibile dagli utenti semplicemente attraverso l’uso di un
browser.
L’applicativo prevede una serie di report e grafici sui valori consolidati
dei costi di garanzia, visualizzabili per marca, modello, tipologia di
danno, periodo e zona geografica di interesse.
La parte più innovativa dell’applicativo presenta report e grafici sulla
previsione dei costi di garanzia, per i 12 mesi rolling successivi a quelli
consolidati. Identificando gli eventi anomali e le stagionalità verificatisi
in passato si modellano le previsioni dei costi che permettono di:
- prevedere le riserve economiche da destinare alle spese di garanzia, da
suddividere adeguatamente per marca e modello;
29
- identificare la necessità di eventuali azioni di recupero (cambio di
forniture, modifica di alcuni componenti, attività di richiamo, ecc.)
- pianificare attività future dei servizi di riparazione;
- gestire le scorte dei pezzi di ricambio;
- ottimizzare la pianificazione dei nuovi prodotti, ecc.
Il tutto con aumentati livelli di customer satisfaction.
Un’estensione dell’applicazione sarà quelle di incrociare i dati delle
garanzie con quelli delle officine che effettuano gli interventi e dei clienti
che le richiedono, al fine di identificare eventuali comportamenti
fraudolenti.
30
IL RUOLO DELLO STATISTICO-INFORMATICO: LE ESIGENZE
DEL MERCATO DEL LAVORO
Bruno Sfogliarini (IMS HEALTH)
Nel corso degli ultimi due anni, sono sempre più frequenti le ricerche di
laureati e diplomati in Statistica che abbiano anche attitudini e
conoscenze di carattere informatico, tipicamente nell’ambito del data
warehousing, della business intelligence e della distribuzione
dell’informazione via web.
Una delle cause primarie di questo interesse per profili con formazione a
metà tra statistica e informatica è la diffusione del Customer Relationship
Management, il CRM, ovvero della gestione tecnologicamente evoluta
della relazione con il cliente.
L’interesse particolare del CRM per la combinazione di statistica e
informatica nasce da una considerazione trasversale a tutti i business,
compresi quelli non-profit (es. ospedali, associazioni, amministrazioni
pubbliche):
“costa molto meno mantenere un cliente già attivo che conquistarne uno
nuovo!”
A sua volta questa affermazione si fonda sull’osservazione del
comportamento umano nell’atto di spendere o impiegare il proprio
reddito: si preferisce infatti nella stragrande maggioranza dei casi affidarsi
ad un fornitore abituale, piuttosto che affrontare l’investimento,
monetario o meno che sia, di approcciarne uno diverso e sconosciuto –
da notare che non in tutti i settori questa considerazione è valida, basti
infatti pensare ai beni ad acquisto d’impulso, dove la disponibilità del
prodotto nel momento della necessità è l’unica chiave di successo (es.
patatine, gelati, bibite, …).
Di converso, quindi, per convincere un cliente di un concorrente a
cambiare fornitore occorrerà investire pesantemente nelle leve del
marketing (pubblicità, promozioni, informazione, …), fino al punto che
il vantaggio percepito dal consumatore non sia superiore al proprio
sforzo di cambiamento.
Quindi, tutte le aziende che dispongano di un parco significativo di
clienti attivi sono oggi impegnate ad elevare le barriere all’abbandono,
migliorando il valore percepito dei propri prodotti e servizi da parte del
consumatore finale. In altri termini, se ho già molti clienti, spendo
“meglio” le risorse a disposizione in programmi di fidelizzazione
piuttosto che in azioni di conquista.
31
L’ulteriore, fondamentale, passaggio logico di questo ragionamento parte
dall’assunzione che “più si conosce il proprio cliente, meglio lo si può
servire e quindi, soddisfare”. Anche questa affermazione si riconduce alla
regolarità del comportamento di consumo, solo che, rispetto ad una
semplice nozione di preferenza per il fornitore già conosciuto,
presuppone che esista:
· una relazione positiva diretta tra la familiarità nell’interazione clientefornitore ed il grado di soddisfazione o, meglio, di fedeltà nel riacquisto
del consumatore;
· una relazione altrettanto proporzionale tra il grado di conoscenza del
profilo del consumatore individuale ed il livello di familiarità.
Per conoscere meglio il proprio cliente, si procede finalmente a
raccoglierne i dati, ovviamente nel rispetto delle norme sulla privacy, di
tipo socio-demografico, attitudinale, comportamentale da svariate fonti,
prima tra tutte il cliente stesso. Questi dati di base devono poi però
essere lavorati per produrre un profilo comprensibile ed utilizzabile per
innalzare il livello di familiarità.
Da questa sequenza logica, introdotta dalle società di consulenza più
note, e diffusa ormai a tutti i settori dell’economia, si deduce
inesorabilmente il bisogno di impiantare sistemi di acquisizione
“industrializzata” della conoscenza dei propri clienti. Questa attività si
indica universalmente come Knowledge Discovery in Database (KDD),
ed è appunto una disciplina che si colloca a metà strada tra la statistica e
l’informatica.
Il processo di KDD si dettaglia delle fasi seguenti:
1. Pulizia dei dati (rimozione di errori formali e logici e di outlier)
2. Integrazione dei dati (combinazione di fonti diverse)
3. Selezione dei dati (estrazione dei dati in analisi dalla base dati)
4. Trasformazione dei dati (manipolazione dei dati in forme adeguate al
data mining)
5. Data mining (applicazione di metodi analitici per sintetizzare relazioni
significative)
6. Valutazione delle relazioni (classificazione delle relazioni in termini di
utilità)
7. Presentazione della conoscenza (visualizzazione e sintesi delle relazioni
utili)
Il data mining costituisce il cuore, la parte nobile, del processo di
scoperta di conoscenza nelle basi dati (Knowledge Discovery in
Databases, KDD), tant’è che spesso viene inteso come sinonimo di
KDD.
32
La fase del data mining propriamente detto ha lo scopo di individuare
relazioni analitiche significative, applicando tecniche descrittive o
inferenziali. Le prime si usano per profilare, discriminare, associare e
classificare, le seconde per stimare, prevedere o prevenire.
Proprio il ruolo chiave del data mining nel KDD genera la richiesta
sempre crescente di conoscenze statistiche, e quindi di profili formati in
tal senso: mentre è relativamente facile reperire forza lavoro con
conoscenze informatiche adatte ad impiantare un data warehouse, grazie
anche allo sgonfiamento della bolla della new-economy, non è altrettanto
diffusa la conoscenza dei metodi statistici nell’offerta di lavoro attuale.
Ma, fortunatamente o sfortunatamente, è solo questo tipo di conoscenza
che consente di attivare il ciclo virtuoso del KDD, e quindi di abilitare
l’intero processo del CRM!
Infatti, solo la conoscenza e la capacità di applicare al business i metodi
della statistica descrittiva, per la riduzione della complessità, e di quella
inferenziale, per la determinazione delle relazioni di causa-effetto,
forniscono gli strumenti indispensabili per segmentare i clienti e
stimolarli nel modo giusto per ottimizzare gli investimenti.
Un piccolo esempio tratto dal settore dell’automobile può chiarire ancora
meglio il concetto: nell’ambito delle attività legate al lancio del nuovo
modello C del marchio Beta, il reparto commerciale decide di sfruttare
l’attuale parco possessori dei precedenti modelli A e B, che appunto il C
va a sostituire. Grazie alla disponibilità di due applicazioni diverse di data
mining (o della statistica, in questo caso specifico), è possibile restringere
il target dei possessori sia in termini di segmenti, che di propensione al
riacquisto, garantendo al contempo un elevato tasso di riacquisto. In
sintesi, meno soldi buttati in buste e lettere che finiranno in un cestino,
meno persone potenzialmente disturbate da un inutile tentativo di
vendita, più efficacia del marketing diretto!
Per capire come in concreto vengano utilizzate in azienda le risorse di
formazione statistica, ecco riportato di seguito un esempio tratto da un
caso reale. Si tratta di un gruppo di lavoro operante sul CRM analitico
all’interno di una grande azienda, denominato funzione Gestione e
Analisi dati.
La sua missione è assicurare:
· pulizia, validazione e arricchimento dei data-base per garantire una
materia prima di qualità a tutto il processo di CRM aziendale;
· analisi e generazione di modelli interpretativi o predittivi per
incrementare la redemption delle campagne e lo sviluppo di nuovi
prodotti e/o servizi.
33
Il gruppo è costituito da un responsabile e da tre diverse tipologie
professionali, di cui sono riportate di seguito le Job Description. In
realtà, tutte e tre le prime posizioni sono attualmente ricoperte da
statistici, mentre per l’ultima si è preferito un ingegnere.
1 - Responsabile funzione Gestione e Analisi dati
Responsabilità
Garantire la gestione, manutenzione, sviluppo del Data Warehouse dei
Clienti
Garantire il processo di analisi del DW e di acquisizione della
conoscenza
Assicurare lo sviluppo e la produzione di modelli di fidelizzazione della
clientela
Assicurare la verifica del ritorno sull’investimento dall’applicazione dei
modelli
Gestire il ciclo di miglioramento continuo di produttività della funzione
Assicurare la rispondenza delle attività con le norme vigenti (esempio:
privacy)
Supportare la definizione/attuazione delle strategie di marketing dei
servizi di competenza
E’ responsabile della motivazione, sviluppo professionale e valutazione
delle prestazioni delle risorse assegnate
E’ responsabile della definizione, aggiornamento e implementazione,
nonché del corretto funzionamento degli strumenti operativi e
tecnologici necessari per la produzione dei servizi di competenza.
Attività
Analisi fattibilità del servizio
Stima dei fabbisogni quali-quantitativi
Descrizione dei contenuti del servizio
Valorizzazione economica della progettazione
Definizione “user requirement”
Definizione attività, tempi, risorse
Pianificazione e progettazione attività, interrelazioni, output
Coordinamento risorse coinvolte
Test del servizio
Validazione del servizio
Monitoraggio del progetto
Pianificazione e progettazione interventi evolutivi del progetto
34
2 - Data Analyst
Responsabilità
Garantire l’interpretazione, l’effettuazione e la verifica della rispondenza
delle richieste di analisi da parte dei Clienti
Garantire attività continuativa di verifica, monitoraggio della qualità del
Data Base
Garantire la classificazione dei risultati delle analisi svolte.
Attività
Pianificazione attività
Verifica della qualità delle liste dati prima del loro trattamento
Sistematizzazione delle analisi
Sviluppo di programmi applicativi ad hoc
Formalizzazione delle specifiche di analisi
Esecuzione dell’analisi
Elaborazione documenti
3 - Coordinamento di gestione
Responsabilità
Assicurare il corretto funzionamento del sistema di DW
Interpretare correttamente i bisogni dei Clienti, effettuando l’analisi delle
loro necessità
Garantire l’emissione dei “business requirements” a seguito di richieste
di evoluzioni funzionali da parte dei Clienti
Garantire l’esecuzione dei tests e la validazione delle evoluzioni
funzionali
Garantire la corretta soluzione per il Cliente, attraverso l’identificazione e
il controllo dei Fornitori esterni
Garantire la corretta preventivazione dei lavoro da effettuare per conto
del Cliente
Attività
Emissione dei business requirement
Effettuazione dei test
Emissione della certificazione
Controllo del funzionamento del sistema
4 - Specialista Marketing Campaign
Responsabilità
Assicurare il disegno, la pianificazione, l’esecuzione, la valutazione, la
gestione delle campagne di marketing diretto
35
Interfacciarsi con i fornitori di materiali/servizi al fine di assicurare la
realizzazione delle campgane
Garantire l’elaborazione e preparazione dei preventivi delle campagne
per i Clienti
Assicurare presidio sui processi di gestione delle campagne, identificando
soluzioni evolutive in un’ottica di qualità totale
Assicurare la soluzione per il Cliente nel rispetto delle norme vigenti
(esempio legge 675)
Attività
Analisi di fattibilità
Preventivi, pianificazione, esecuzione e valutazione delle campagne
Relazioni con i fornitori
Interfaccia tra il Cliente e i fornitori
Generalizzando ancora di più, si può affermare che le
attività/capacità/conoscenze fondamentali per uno statistico in
un'azienda privata oggi sono:
1) contaminazione con il business, che vuol dire
·comprensione delle problematiche specifiche dell'industry
·condivisione delle strategie aziendali (mission, value proposition,
messaggi chiave, punti di forza e di debolezza, fattori unici di successo)
·comprensione del conto economico (costi, ricavi, profitti vs. fissivariabili; captive-open market; business-as-usual vs. new business)
·informazione sui clienti primari e/o dei segmenti di clientela
·esposizione alla politica commerciale
·conoscenza dei vincoli strutturali e/o di produzione dei servizi/prodotti
·assessment delle nuove idee e opportunità di business
·condivisione del budget e dei forecast
2) rapporto con il cliente interno/esterno
·capacità di empatia dal primo contatto con il cliente
·utilizzo di tecniche di stimolo/comprensione del bisogno reale del
cliente
·capacità di descrivere/strutturare il bisogno reale per iscritto
·capacità di divulgare le metodologie al cliente
·gestione delle aspettative
·abilità nella presentazione dei risultati, delle analisi
·valorizzazione del lavoro in termini di operatività/profittabilità dei
risultati
36
·mantenimento dell'empatia con il cliente ed allo stesso tempo vivacità
nello stimolare nuovi bisogni
3) project management e managerialità
·minime conoscenze di project management sufficienti ad assicurare
piccoli piani di progetto interni al gruppo di lavoro dello statistico
·capacità di recuperare condizioni critiche, es. ritardi, malattie, carenza di
risorse, ...
·spirito di gruppo
·gestione dello stress, proprio ma soprattutto dei collaboratori
·cura e supporto alla formazione professionale, propria ma soprattutto
dei collaboratori
·capacità di difendere le scelte gestionali vs. i superiori
4) conoscenze statistiche
·conoscenza diffusa ma non specialistica di tutta la statistica, ivi
compreso il data mining
·conoscenza approfondita di:
o calcolo delle probabilità di base
o statistica matematica di base
o statistica descrittiva (metodi multivariati)
o teoria del campionamento e costruzione di test
o regressione (lineare, logistica)
o econometria (metodi di previsione, serie storiche)
o ricerca operativa (metodi di ottimizzazione)reti neurali
o alberi di classificazione e regressione
5) conoscenza informatiche
· conoscenza diffusa ma non specialistica di tutta l'informatica, ivi
compresa l'intelligenza artificiale
· teoria delle macchine calcolatrici di base
· logiche di programmazione
· linguaggi: uno generico (es. java), uno statistico
· data warehousing
· windows e office
· protocolli di connessione: TCP/IP, HTTP, HTTPS, Telnet, FTP
6) conoscenze accessorie indispensabili
·lingua inglese
·capacità di effettuare ricerche sul web e conoscenza delle fonti
informative fondamentali
37
·autonomia nella gestione del proprio personal computing
·marketing di base
·teoria del CRM
·e-business
·privacy e tutela dei dati personali
Due domande finali: quanto si diffonderà la richiesta di profili adatti al
CRM analitico e dove si concentrerà, direttamente nelle aziende
produttrici o nelle società di consulenza?
La risposta alla prima si ha da un semplice ragionamento per analogia:
ogni impresa che oggi dispone di un sistema ERP è potenzialmente in
grado di impiantare una Customer Base ed attivare un processo di CRM,
e pertanto si trova a ricercare competenze statistiche.
Per quanto riguarda il secondo quesito, è prevedibile che in un primo
momento siano solo le aziende più grandi a dotarsi di un processo di
CRM, e che quindi queste abbiano le risorse sufficienti ad acquisire
internamente le competenze statistiche. In una seconda fase dello
sviluppo della domanda per il CRM, le richieste giungeranno più
frequentemente dagli studi di consulenza o dalle società di servizio.
38
Certificazione di bilancio e controllo di
gestione
IL CAMPIONAMENTO STATISTICO NELLA REVISIONE DEL
BILANCIO SOCIETARIO
Gianpaolo Neri (ERNST & YOUNG)
IL TFR CONTABILIZZATO SECONDO LO IAS 19
Roberto Sollevanti (PRICEWATERHOUSECOOPERS)
Vito Lo Vecchio (STUDIO PIROLA GISMONDI E ASSOCIATI)
IL RISK MANAGEMENT COME NUOVA FRONTIERA DEL
PROCESSO DI REVISIONE DI BILANCIO
Martina Violi (KPMG)
39
IL CAMPIONAMENTO STATISTICO NELLA REVISIONE DEL
BILANCIO SOCIETARIO
Gianpaolo Neri (ERNST & YOUNG)
Nel definire le procedure di revisione da svolgere, il revisore deve
determinare appropriati metodi per la selezione delle voci del bilancio da
esaminare al fine di raccogliere elementi probativi necessari al
raggiungimento degli obiettivi delle procedure di revisione.
Per “Campionamento di revisione” (campionamento) si intende
l’applicazione di procedure di revisione su un numero di voci inferiore
alla totalità delle voci che compongono il saldo di un conto o una classe
di operazioni in modo tale che tutte le voci abbiano una probabilità di
essere selezionate. Ciò consente al revisore di ottenere e valutare gli
elementi probativi su determinate caratteristiche delle voci selezionate e
trarre una conclusione sull’intera popolazione dalla quale il campione è
estratto. Il campionamento può essere effettuato utilizzando sia un
approccio statistico sia un approccio non statistico.
Il termine “Campionamento statistico” indica qualsiasi metodologia di
campionamento che possieda le seguenti caratteristiche:
(a) selezione casuale di un campione; e
(b) utilizzo del calcolo delle probabilità per valutare i risultati del
campione, ivi inclusa la determinazione del rischio di campionamento.
Un metodo di campionamento che non possieda le caratteristiche
evidenziate ai precedenti punti (a) e (b) è considerato un metodo di
campionamento non statistico.
“Il rischio di campionamento” deriva dalla possibilità che le conclusioni
raggiunte dal revisore, sulla base di un campione, possano essere diverse
da quelle che si sarebbero raggiunte se l’intera popolazione fosse stata
sottoposta alla stessa procedura di revisione. In termini matematici tali
rischi sono denominati livelli di affidabilità.
I principali metodi di selezione dei campioni sono: l’utilizzo delle tavole
di numeri casuali o di software specifici che ne incorporano gli algoritmi
di calcolo, la selezione sistematica e la selezione accidentale.
Il campionamento statistico può essere effettuato per variabili o per
attributi:
- il campionamento per variabili è la metodologia che più di ogni altra
risulta statisticamente corretta per determinare campioni di valori
monetari che siano rappresentativi dell’universo. In particolare è
possibile determinare entro i limiti di precisione e di livello di confidenza
40
determinati, il valore aggregato di una determinata popolazione,
attraverso la determinazione del valore medio di un campione
rappresentativo della stessa. La numerosità del campione, affinché la sua
media aritmetica sia rappresentativa della popolazione intera, (a parità di
livelli di precisione e confidenza) è funzione della variabilità
dell’universo.
- Il campionamento per attributi ha lo scopo di determinare le
caratteristiche totali di un universo, attraverso l’esame delle
caratteristiche di un campione di transazioni (es. pagamento corretto,
pagamento errato). Un esempio di campionamento statistico è la tecnica
nota come MUS (Monetary-Unit Sampling).
Nel corso dell’intervento si farà cenno delle principali metodologie
adottate durante un campionamento statistico ai fini della revisione di
voci di bilancio e delle basi statistiche che ne costituiscono l’impianto
teorico. Si farà inoltre cenno ai concetti di unità di campionamento,
errore accettabile, proiezione degli errori, stratificazione, determinazione
del campione, svolgimento della procedura di revisione e valutazione dei
risultati del campionamento.
41
IL TFR CONTABILIZZATO SECONDO LO IAS 19
Roberto Sollevanti (PRICEWATERHOUSECOOPERS)
Vito Lo Vecchio (STUDIO PIROLA GISMONDI E ASSOCIATI)
Descrizione del metodo di valutazione
Il TFR deve essere valutato applicando le norme stabilite per i “post
retirement benefit – defined benefit plans”, da non confondersi con i
“termination benefits” che riguardano, in generale, le risoluzioni dei
rapporti di lavoro per iniziativa dell’impresa.
Il metodo da applicare è il “Projected Unit Credit Method” che prevede
la seguente procedura di calcolo:
- il TFR, calcolato secondo quanto disposto dal Codice Civile, deve
essere proiettato per la durata residua prevista del rapporto di lavoro al
fine di ottenere l’ammontare che si prevede sarà pagato al momento della
risoluzione del rapporto; per far questo occorre determinare la serie delle
retribuzioni future che saranno percepite fino alla data in cui il
dipendente lascerà l’azienda stimandone la dinamica con opportune linee
salariali;
- l’ammontare di cui al punto precedente deve essere riferito alla durata
di lavoro già prestato rispetto alla durata totale prevista, quindi deve
essere attualizzato alla data del Bilancio.
Basi tecniche da utilizzare nel calcolo
Occorre distinguere tra:
- basi tecniche demografiche à servono per determinare l’evoluzione di
una collettività di lavoratori nel corso del tempo e vengono utilizzate
nella costruzione di una tavola di permanenza che permetta di
determinare la numerosità del collettivo nei vari anni; le basi
demografiche più rilevanti sono la frequenza di morte e le frequenze di
turn over;
- basi tecniche economico-finanziarie à rappresentano le ipotesi
economico-finanziarie:
 tasso di attualizzazione (a tal fine occorre utilizzare il tasso di
rendimento effettivo di obbligazioni societarie di elevata qualità,
come prestiti di emittenti con rating A o superiore);
 tasso di inflazione (serve a determinare il tasso di rivalutazione del
TFR che è pari al 75% dell’inflazione cui si somma 1,5%; deve
essere desunto da dati ufficiali consuntivi o di previsione elaborati
dal Governo, dalle autorità monetarie o dai maggiori enti di
ricerca);
42

tasso di incremento delle retribuzioni (come minimo si deve
considerare un recupero dell’inflazione; per valutare gli incrementi
retributivi può essere utile segmentare i dipendenti in classi con
prospettive omogenee);
 frequenze di anticipo di TFR.
Le variabili attuariali devono essere coordinate e coerenti tra loro: salvo
casi particolari gli incrementi di retribuzioni devono essere almeno uguali
al tasso di inflazione atteso e il tasso di attualizzazione deve tener conto
di queste aspettative.
Actuarial gains and losses
Tutte le ipotesi sulle quali si basa il conteggio del TFR debbono essere
riesaminate con cadenza annuale per confermare la loro validità o per
riflettere eventuali cambiamenti negli scenari macroeconomici o nelle
specifiche condizioni dell’impresa.
Le variazioni tra l’ammontare del TFR calcolato secondo le ipotesi
previgenti e quello determinato secondo le ipotesi più aggiornate
rappresentano i cosiddetti “actuarial gains and losses”, da riconoscersi
contabilmente come utili o perdite se il loro valore cumulato netto
eccede il 10% del valore attuale dell’obbligazione al termine dell’esercizio
precedente (il riconoscimento dell’intero ammontare non è richiesto ma
è comunque consentito).
Informativa
Lo IAS 19 richiede un livello minimo di informativa da fornire nelle note
esplicative:
- Principi Contabili adottati per il riconoscimento delle “actuarial gains
and losses”;
- descrizione del benefit concesso ai dipendenti (le caratteristiche del
TFR);
- riconciliazione delle attività e delle passività di Bilancio (con relativa
movimentazione);
- ammontare complessivo del costo riconosciuto nel Bilancio, dettagliato
per ognuno dei suoi elementi (accantonamento e interessi di
competenza, “actuarial gains and losses” imputati al Conto Economico
dell’esercizio);
- principali ipotesi attuariali usate alla data di Bilancio.
43
IL RISK MANAGEMENT COME NUOVA FRONTIERA DEL
PROCESSO DI REVISIONE DI BILANCIO
Martina Violi (KPMG)
Il processo di revisione contabile, alla luce delle nuove normative (legge
Vietti, adozione degli IAS, Sarbain Oxley) deve assicurarsi che l’azienda
attraverso un efficace ed efficiente controllo interno ed una corretta
gestione del rischio sia aderente alla normativa e al contempo raggiunga
gli obiettivi d’impresa. L’attività di revisione si sviluppa dalla definizione
di un modello dei rischi che copre gli aspetti strategici e di processo,
sostanziandosi in una serie di attività di verifica attraverso test
procedurali ed elaborazioni di dati. Lo statistico collabora nel processo di
revisione, nella definizione del modello dei rischi e nella sua
quantificazione in termini di probabilità e impatto nonchè nella fase di
remaining audit procedures per la parte di selezione e estrazione di
campioni di osservazioni su cui effettuare i test di verifica. L’intervento
ripercorrerà le principali fasi in cui si articola il processo di revisione
evidenziandone le problematiche di carattere statistico.
44
Analisi dei mercati
ANALISI DELLA CUSTOMER SATISFACTION E PROFILING
DEI CLIENTI CONSIP S.P.A: UN’APPLICAZIONE DEL
MODELLO ECSI
Veronica Brichetti (CONSIP S.P.A)
Natalia Adan Munoz (CONSIP S.P.A)
Maria Gabriella Grassia (UNIVERSITÀ DEGLI STUDI “FEDERICO II” DI
NAPOLI)
LA BUSINESS INTELLIGENCE COME SUPPORTO ALLA
STRATEGIA CLIENTE
Alberto Busetto (RAS)
LE ANALISI SUL CLIENTE E SULLA RETE DI VENDITA TIM
Marina Chiaro (TIM)
DIAGNOSI STRATEGICA IN 3 MAPPE. UNA RICETTA DAI
MERCATI FARMACEUTICI.
Mirio De Rosa (CreActive)
45
ANALISI DELLA CUSTOMER SATISFACTION E PROFILING
DEI CLIENTI CONSIP S.P.A: UN’APPLICAZIONE DEL
MODELLO ECSI
Veronica Brichetti (CONSIP S.P.A)
Natalia Adan Munoz (CONSIP S.P.A)
Maria Gabriella Grassia (UNIVERSITÀ “FEDERICO II” DI NAPOLI)
Obiettivo di questo lavoro è illustrare i risultati dell’indagine sulla
customer satisfaction svolta dalla Consip S.p.A. Per misurare la customer
satisfaction è stato adottato il modello ECSI, dove la soddisfazione è
intesa come un costrutto di natura multidimensionale non direttamente
osservabile o misurabile e legato da relazioni di causalità con altri
costrutti (immagine, attese, qualità percepita, valore percepito, fedeltà e
reclami) anch’essi non direttamente osservabili. Lo studio delle relazioni
complesse tra costrutti o variabili latenti viene effettuato per mezzo di un
modello di causalità per il quale, definendo l’insieme di variabili
manifeste (domande del questionario) e specificando le relazioni tra le
variabili latenti (modello strutturale) e tra queste e le variabili manifeste
(modello di misurazione), è possibile stimate e trattate le variabili latenti
come se fossero manifeste.
46
LA BUSINESS INTELLIGENCE COME SUPPORTO ALLA
STRATEGIA CLIENTE
Alberto Busetto (RAS)
La complessità delle moderne organizzazioni e dei mercati in cui si
trovano ad operare impone oggi, a ciascuna grande azienda, di
interrogarsi sull’effettiva capacità di gestire ed integrare l’informazione
legata a quello che è, a tutti gli effetti, il proprio patrimonio più
importante: il cliente. Anche il Gruppo RAS, con oltre 4.600 dipendenti
e cinque milioni di clienti in Italia, a cui offre servizi assicurativi, bancari
e finanziari attraverso una rete commerciale realmente multicanale
(agenzie assicurative, promotori finanziari, sportelli bancari, telefono ed
internet), ha avviato da tempo un profondo ridisegno in tal senso dei
propri processi interni.
Le molte dimensioni da tenere sotto controllo (i diversi brand, le
tipologie di prodotti e canali commerciali, il grande numero di clienti, lo
spazio ed il tempo) hanno infatti richiesto un’ampia revisione delle
infrastrutture tecnologiche ed organizzative. Oggi, un’architettura IT
centrata sul cliente supporta una struttura d’analisi interna, attraverso un
customer data warehouse dedicato e trasversale alle diverse realtà del
Gruppo, nell’acquisire e diffondere la conoscenza della clientela
necessaria a definire le strategie e ad attuare le azioni di marketing.
Le analisi statistiche sistematiche e le attività strutturate di data mining
hanno infatti consentito, e consentiranno in futuro, di attribuire a ciascun
cliente privato un vero e proprio “rating” di propensione verso i
principali prodotti e servizi offerti da RAS o di stimare la probabilità che
possa cessare, in futuro, di fruire degli stessi. Gli specialisti dedicati
impiegano quotidianamente a questo scopo un’ampia gamma di
strumenti dell’analisi quantitativa, dai modelli di regressione lineare
generalizzata ai CART, alle reti neurali.
Ne risulta per l’Azienda la capacità di isolare specifici segmenti di
clientela e di valutarne il potenziale di sviluppo, avendo così la possibilità
di focalizzare le iniziative commerciali e di pianificare al meglio gli
investimenti di marketing.
47
LE ANALISI SUL CLIENTE E SULLA RETE DI VENDITA TIM
Marina Chiaro (TIM)
La testimonianza TIM si pone l’obiettivo di descrivere le principali
metodologie statistiche utilizzate per l’analisi della rete di vendita e per
quelle realizzate sulla clientela, in uno scenario di mercato in cui
l’aumento delle linee mobili segnala una stasi.
Mediante la rete di vendita TIM gestisce la diffusione di informazioni,
servizi e prodotti.
Il contesto di mercato ha richiesto un riposizionamento della rete
distributiva alla quale è stata attribuita una mission non più legata alle
sole acquisizioni di nuove linee mobili, ma legata ad altre funzionalità
quali: attività di caring e retention della clientela, sviluppo del traffico,
vendita di cellulari di ultima generazione, education efficace del cliente.
Tali obiettivi, assegnati alla rete di vendita e differenziati per canale,
vengono monitorati mediante analisi provenienti da fonti “interne”
all’azienda:
1. statistiche aziendali (acquisizioni linee, compensi, vendita di servizi
e di terminali)
2. verifiche sui processi di vendita e sugli strumenti tecnologici di
supporto;
3. le analisi provenienti da fonti “esterne” all’azienda riguardano:
a) confronti competitivi
b) dati derivanti da ricerche di mercato e da attività di Mystery
Shopping;
Per verificare la rispondenza agli standard di qualità e di comportamento
richiesti da TIM alla propria rete commerciale, viene realizzata una
specifica attività di Mystery Shopping.
La rilevazione riguarda tutti i punti vendita e viene realizzata
periodicamente (2 o 3 volte l’anno, in funzione della segmentazione
considerata) da “Mystery Shoppers”, che compilano delle schede
predefinite. I risultati opportunamente “ponderati” vengono utilizzati per
il piano di incentivazione dei venditori e di una parte dei punti vendita
(canale TOP).
Le analisi sul cliente vengono realizzate per mezzo di due strumenti: le
ricerche di mercato ed i sistemi di customer profiling.
Le prime vengono realizzate sia sulla base clienti che sull’intero mercato
di riferimento al fine di:
segmentare il mercato;
48
1. misurare le quote di mercato;
2. valutare la loyalty e la qualità del servizio di post-vendita offerto;
3. analizzare i canali distributivi;
4. effettuare pre e post test sui lanci commerciali;
5. realizzare il monitoraggio della comunicazione.
I sistemi di customer profiling sono strumenti che attraverso un ampio
insiemi di indicatori (anagrafica, profilo tariffario, modalità di ricarica,
contatti al customer care, concentrazione di utilizzo, etc,..) consentono di
conoscere il comportamento del singolo cliente.
L’analisi integrata (dati interni/dati esterni) consente di capire in modo
specifico chi è il cliente TIM , come cambia il suo comportamento nel
tempo e a quali segmenti appartiene.
49
DIAGNOSI STRATEGICA IN 3 MAPPE. UNA RICETTA DAI
MERCATI FARMACEUTICI
Mirio De Rosa (CREACTIVE)
Dettagli Metodologici
Il Direttore Marketing chiamato a migliorare la performance aziendale
può applicare il procedimento che segue per (i) selezionare prodotti su
cui investire per crescere, (ii) per circoscrivere le aree geografiche dove
cercare la crescita, e (iii) per stabilire come raggiungere l’obiettivo di
crescita.
Servendoci del portafoglio prodotti di qualche anno fa di una nota casa
farmaceutica verrà individuato un prodotto appetibile in termini di
sviluppo competitivo utilizzando la matrice Crescita/Quota di mercato
(BCG). La matrice si forma dall’intersezione dei valori della crescita di
mercato e della quota di mercato relativa e consente di differenziare il
portafoglio prodotti in base ai flussi di cassa ed alla posizione di
leadership.
Per il prodotto individuato ed i suoi diretti concorrenti verrà poi
mostrato come l’analisi delle corrispondenze (ADC) possa rendersi utile
per analizzare copertura territoriale e implicazioni strategiche di
marketing al fine di individuare spazi di mercato da conquistare o dove
consolidarsi.
Relativamente alla copertura territoriale, l’analisi delle corrispondenze è
utilizzabile con n vettori di dati dove gli nij corrispondono, ad esempio,
a valori di vendita o di crescita sul periodo precedente di un dato
prodotto. La mappa che ne deriva consiste in una rappresentazione in
bassa dimensionalità che mostra una base dati multivariata nel medesimo
spazio duale.
A differenza delle comuni rappresentazioni su grafici cartesiani, l’ADC
consente di concentrare una quantità maggiore d’informazione su una
sola mappa. L’interpretazione può risultare più ardua, ma la maggiore
informazione che si può ricavare dai dati giustifica lo sforzo.
Dopo aver individuato le aree geografiche dove incrementare, ad
esempio, la quota di mercato verrà mostrato come i dati in forma di
tabella di contingenza di un’indagine panel sulle prescrizioni possano
essere utilizzati nella fase di definizione della strategia di marketing e
posizionamento strategico. Se l’individuazione dei concorrenti diretti è
accurata, in genere, si perviene ad un ambito competitivo ristretto, che si
traduce nella capacità di rappresentare sulla mappa un’elevata porzione di
50
varianza (inerzia). Mappe ad elevata varianza sono solidi strumenti
decisionali per il marketing perché mostrano le relazioni latenti tra i dati.
Tali relazioni possono aiutare l’analista accorto a spiegare e prevedere gli
equilibri strategici tra concorrenti.
Senza pretese di presentare metodologie analitiche innovative, ci
auguriamo il procedimento possa indurre spunti di riflessione in chi si
premurasse di estrarre informazione supplementare da dati di mercato
costosi che, troppo spesso, sono utilizzati solo parzialmente dalle
divisioni marketing di molteplici industrie
Abstract
L’intervento illustra come sintetizzare in modo conciso, rilevante e
rapido la condizione competitiva di un intero portafoglio prodotti e di un
singolo prodotto. Ricorrendo alla scienza d’impresa (management
science) ed alla statistica multivariata, il metodo fornisce un quadro
d’insieme chiaro e dimostrabile utile per rinvigorire la discussione
strategica all’interno del gruppo dirigenziale e per migliorare i risultati
economici dell’impresa.
Sintesi della scaletta del relatore.
Dirigenti chiamati a migliorare la prestazione commerciale d’imprese con
un ampio numero di prodotti possono beneficiare dal monitoraggio
costante e confrontabile della performance dell’intero portafoglio
prodotti e dei suoi elementi più rappresentativi.
L’intervento mostra come l’analisi del portafoglio prodotti, suggerita già
negli anni ’70 dal Boston Consulting Group (BCG), possa rendersi
efficace per separare prodotti con potenziale di crescita da quelli meno
appetibili.
Relativamente ad uno dei prodotti dell’esempio viene poi mostrato come
rappresentarne l’ambito strategico, utilizzando una mappa chiara e
stimolante realizzata ricorrendo all’Analisi delle Corrispondenze. La
stessa tecnica d’analisi multivariata servirà inoltre a tracciare il quadro
della copertura distributiva dei prodotti in diretta concorrenza.
Dalla lettura simultanea delle tre rappresentazioni grafiche è possibile
tracciare un quadro d’insieme utile al gruppo dirigenziale per allocare
investimenti; identificare sacche potenziali di crescita dall’interno;
mantenere una chiara visione strategica; fissare obiettivi chiari, misurabili
ed accessibili; separare i concorrenti diretti dai concorrenti generici;
pianificare azioni promozionali; ed altro.
Tuttavia, il contributo più rilevante che attribuisco all’utilizzo degli
strumenti presentati sta nella capacità di (ri)dare vigore alla discussione
strategica che dovrebbe contraddistinguere gruppi dirigenziali coesi e
decisi a fare la cosa giusta per il bene dell’azienda che servono.
51
Business analysis
STRUMENTI DI VALIDAZIONE STATISTICA NELLE NUOVE
INFRASTRUTTURE AZIENDALI PER LA BUSINESS ANALYSIS:
REQUISITI, PROSPETTIVE E CASI STUDIO
D. Bruzzese (UNIVERSITÀ DEGLI STUDI DI NAPOLI “FEDERICO II”)
P. Papa (CROSSZ SOLUTIONS)
LA SOLUZIONE MICROSOFT PER LA BUSINESS
INTELLIGENCE
Federico Fabi (MICROSOFT ITALIA)
L’ EFFICIENZA DELL’OFFERTA NELLE AZIENDE CHE
EROGANO SERVIZI AL PUBBLICO. SISTEMI PREVISIVI PER IL
FLUSSO DI CLIENTELA IN POSTE ITALIANE.
Gian Piero Cervellera (POSTE ITALIANE)
Duccio Stefano Gazzei (UNIVERSITÀ DEGLI STUDI DI SIENA)
MODELLI DI PREVISIONE DEL "CHURN" PER L'INTERNET
BANKING
Carlo Panella (WESERVICE - GRUPPO BANCA POPOLARE DI MILANO)
Paolo Picchizzolu (UNIVERSITÀ DI PAVIA)
Paolo Giudici (UNIVERSITÀ DI PAVIA)
52
STRUMENTI DI VALIDAZIONE STATISTICA NELLE NUOVE
INFRASTRUTTURE AZIENDALI PER LA BUSINESS ANALYSIS:
REQUISITI, PROSPETTIVE E CASI STUDIO
D. Bruzzese (UNIVERSITÀ DEGLI STUDI DI NAPOLI “FEDERICO II”)
P. Papa (CROSSZ SOLUTIONS)
Uno studio recente, condotto dalla School of Information Management
and Systems (SIMS) dell’Università di California, Berkeley, ha rilevato
che la crescita esplosiva dell’informazione che caratterizza gli attuali
ambienti di business è solo all’inizio. Secondo lo studio, l’umanità nei
prossimi tre anni genererà un volume di nuove informazioni maggiore di
quante non ne siano state generate complessivamente negli scorsi
300.000 anni. In alcuni settori industriali data intensive, come quello
delle Telecomunicazioni, della Grande Distribuzione e della Finanza, il
volume dei dati raccolti dalle aziende è cresciuto ben oltre le previsioni e
continua ad aumentare ad un ritmo sostenuto.
Per rispondere alle nuove sfide della Business Analysis e trasformare i
dati di business in informazioni di valore, le aziende necessitano quindi
di sistemi di data warehousing e di sistemi analitici avanzati, in grado di
elaborare, memorizzare e interrogare velocemente i terabyte di dati che
oggi esistono nel mercato.
Negli ultimi anni sono emerse nuove infrastrutture di supporto alla
Business Analysis che adottano un approccio estremamente innovativo
comprimendo all’interno di un’equazione matematica tutte le possibili
risposte a qualsiasi query formulata dall’ utente, sulla base delle
dimensioni di analisi configurate. In altri termini, mentre con le altre
tecnologie la risposta ad una query è il contenuto della cella di una
matrice, con tali nuove infrastrutture è semplicemente il risultato di
un’equazione matematica: ciascun oggetto informativo contiene un set
completo di risposte, basta solo selezionare quella richiesta.
Queste potenti capacità di interrogazione si scontrano però con la
difficoltà di esplorare in misura efficiente le informazioni ottenute e con
l’esigenza di valutarne la loro significatività statistica.
Partendo allora dalla semplice considerazione che il risultato di una query
definisce un cluster di individui con caratteristiche identiche, di cui è
possibile osservare il comportamento in relazione ad una o più metriche,
gli autori si propongono di utilizzare strumenti di visualizzazione, in
particolare le Coordinate Parallele, per proiettare l’insieme completo di
clusters contenuto nell’oggetto informativo analizzato.
Tale rappresentazione consente di cogliere le relazioni multidimensionali
esistenti tra i gruppi e, attraverso l’aggiunta di criteri di validazione
53
statistica anch’essi proiettati sul sistema di rappresentazione, di
evidenziare immediatamente patterns interessanti. I numerosi strumenti
di interazione che il metodo delle coordinate parallele offre, insieme alla
possibilità di visualizzare su grafici piani datasets a più dimensioni
agevolano l’utente nella fase di ricerca di informazioni significative.
La metodologia sarà illustrata mediante un’applicazione con dati reali.
54
LA SOLUZIONE MICROSOFT PER LA BUSINESS
INTELLIGENCE
Federico Fabi (MICROSOFT ITALIA)
Durante questo intervento verrà mostrata quella che è la soluzione
Microsoft nell’ambito della Business Intelligence.
Il cuore di questa soluzione è Microsoft SQL Server 2000. Questo
prodotto oltre ad essere un RDBMS è anche una piattaforma per la
Business Intelligence e per il Data Warehousing grazie ad alcune
tecnologie integrate come Analysys Services e Data Trasformation
Services.
Gli Analysys Services contengono al loro interno sia un Server OLAP
(OnLine Anlitical Process) sia due algoritmi di Data Mining per
realizzare analisi statistiche avanzate. In SQL Server 2000 sono integrati
attualmente due algoritmi di Data Mining: Alberi decisionali e Clustering.
I Data Trasformation Services sono invece strumenti di ETL (Extract
Trasform and Load) che permettono la creazione di Data Mart o Data
Warehouse, cioè contenitori di dati provenienti da fonti eterogenee
pensati per l’analisi degli stessi. La soluzione Microsoft si completa con
quelle che sono le componenti client composte da diverse tecnologie
riconducibili alla famiglia dei prodotti Office.
55
L’ EFFICIENZA DELL’OFFERTA NELLE AZIENDE CHE
EROGANO SERVIZI AL PUBBLICO. SISTEMI PREVISIVI PER IL
FLUSSO DI CLIENTELA IN POSTE ITALIANE.
Gian Piero Cervellera (Poste Italiane)
Duccio Stefano Gazzei (Università degli Studi di Siena)
La ricerca dell’efficienza aziendale passa attraverso studi di
ottimizzazione: si raggiunge efficienza, infatti, quando si mantiene un
livello produttivo impiegando minori risorse ovvero quando, con le
stesse risorse, si riesca ad ottenere un risultato quantitativamente
maggiore.
Come disciplina matematica, le metodologie di ottimizzazione a
supporto di questi studi sono, in verità, molto giovani. Risalgono, infatti,
alla fine degli anni ‘40 i contributi di Dantzing e Koopmans: il primo
risolse, tramite programmazione lineare, alcuni problemi di
pianificazione per l’aeronautica americana; l’altro applicò un approccio
simile allo studio dei modelli classici della teoria economica.
Nel mondo aziendale, molti sono stati da allora i progressi fatti. Accanto
allo sviluppo della strumentazione quantitativa, si è assistito anche alla
maturazione della “vision” organizzativa aziendale. E’ ormai storia
recente l’affermazione di un corpus di metodologie (Ostrenga et alii,
1992), note come Total Cost Management (TCM), le quali, rendendo
esplicito il concetto che l’impresa è una serie di processi interrelati
consistenti in attività che trasformano gli input in output, hanno reso
possibile applicare gli strumenti per lo studio dell’efficienza dei processi
produttivi anche ad ambiti diversi da quelli che videro la nascita di queste
discipline. E’ questo, ad esempio, il caso delle aziende di servizi, operanti
nel settore pubblico o meno, ove per anni le difficoltà incontrate dai
ricercatori per individuare le relazioni dirette tra fattori produttivi ed
output, aveva reso impraticabili le strategie gestionali basate sulla messa a
punto di standard produttivi.
Oggi metodi come l’Activity Based Costing (ABC) e l’Activity Based
Management (ABM) riescono a conseguire il risultato di una
distribuzione delle spese complessive rispettante i rapporti di causalità tra
risorse, attività ed oggetti di costo, muovendo dalla considerazione
generale secondo cui sono le attività e non i prodotti a generare i costi;
dal momento che i prodotti consumano attività in modo differenziato,
ogni attività produce un valore aggiunto specifico per l’azienda.
Tutto questo avviene mentre alle aziende di servizi che operano nel
mondo della Pubblica Amministrazione (PA) si richiede sempre più di
56
attuare metodi e politiche di gestione volte a raggiungere livelli sempre
maggiori di qualità e di affidabilità dei servizi. Questo ha imposto la
necessità di “…cogliere i bisogni, di definire gli obiettivi, di utilizzare al
meglio le risorse disponibili e le opportunità offerte dalle nuove
tecnologie, (ed) infine di valutare i risultati…” (Dipartimento della
Funzione Pubblica, 2002).
Anche per l’azienda pubblica, quindi, si può finalmente parlare di ricerca
dell’efficienza.
Il presente articolo si inserisce in tale ambito di discussione: in
particolare, prendendo come caso di studio gli sportelli di Poste Italiane
(PI), si propone di mostrare una metodologia per pervenire ad una
corretta stima dell’andamento del flusso di clientela, al fine di meglio
modulare l’offerta alle caratteristiche della domanda.
Il contributo è stato strutturato in cinque parti: nella prima, si illustrano
alcune tecniche statistiche utilizzate da PI per la determinazione e la
misura di un output unico capace di rappresentare la produzione di
sportello che, per sua natura, è assai variegata; nella seconda, viene
proposto un modello per l’analisi previsionale delle dinamiche della
domanda; nella terza, si illustrano alcune metodologie di controllo e
previsione dei mutamenti del contesto ambientale su cui gravita l’Ufficio
postale (UP). Nelle sezioni finali, infine, si presenteranno alcune
applicazioni del modello (per le stime dei tempi di servizio e del flusso
dei clienti), ed un caso empirico che mostra l’utilizzazione delle
previsioni a fini gestionali.
Bibliografia
Dipartimento della Funzione Pubblica, Proposte per il cambiamento
nelle amministrazioni pubbliche, Rubbettino, 2002
Ostrenga M.R., Ozan T.R., Harwood M.D. e McILHATTAN R.D., The
Ernst & Young Guide to Total Cost Management, J.Wiley & Sons, 1992
57
MODELLI DI PREVISIONE DEL "CHURN" PER L'INTERNET
BANKING
Carlo Panella (WESERVICE - GRUPPO BANCA POPOLARE DI MILANO)
Paolo Picchizzolu (UNIVERSITÀ DI PAVIA)
Paolo Giudici (UNIVERSITÀ DI PAVIA)
Con il termine ‘churn’ si vuole indicare il comportamento di abbandono
di un servizio da parte di un cliente. Questo termine che nasce nel
mondo internet per definire la disaffezione verso gli internet provider,
trova comunemente uso nel mondo della telefonia mobile e in molti
ambiti di servizi legati al web.
Caratteristica comune di questi servizi è l’assenza di un canone e di
conseguenza di un atto esplicito e formale di cessazione del servizio. La
differenza in ambito bancario è l’impossibilità di formalizzare il
momento in cui il cliente può essere disattivato, infatti, questi servizi non
sono mai disattivabili unilateralmente ed è quindi fondamentale per
intraprendere l’analisi fornire una regola per assegnare lo stato di churner
al cliente inattivo.
Questa regola deve ottemperare a due esigenze, una di carattere formale
che vuole il churn come uno stato assorbente da cui in cui il cliente non
è più riattivabile, e l’altro che incorpora esigenze di business legate alla
rapidità di segnalazione del churner per avere il tempo di mettere in
azione programmi di retention.
Queste due esigenze devono trovare la loro composizione nella scelta di
un intervallo di tempo di inattività trascorso il quale il cliente si definisce
churner.
L’analisi effettuata si è basata sullo studio contemporaneo di 2 modelli:
Il primo utilizza un modello di regressione logistica dove la variabile
risposta è dicotomica ed è volto alla previsione dei futuri churners a cui
rivolgere campagne di retention, il secondo si basa sulla tecnica dei
cumulative logit che accetta come variabili risposta variabili categoriche
che nel nostro caso identificheranno lo stato futuro assegnato in ‘churn’
‘informativo’ e ‘dispositivo’; questo modello risponde all’esigenza di
identificare clienti su cui attuare azioni di up-selling.
Vale la pena sottolineare che le performance di entrambi i modelli si
sono rivelate molto buone, con un misclassification rate medio del 14%
per il primo e 26% per il secondo.
58
Logistica
LA GESTIONE DELLE SCORTE E DEL RIORDINO AI
FORNITORI NELLA G.D.O.
Giuseppe Cuffaro (COOP ITALIA)
OTTIMIZZAZIONE STATISTICA DEI PERCORSI DI
TRASPORTO MERCI
F. Tavassi (EXECUTIVE)
Donato Battistini (EXECUTIVE)
DETERMINAZIONE DELLE TARIFFE DI GESTIONE DI
MAGAZZINO E CONTROLLO DELLA REDITTIVITÀ
Simone Vicentini (XL LOGISTICA – RIELLO)
Gianluca Pachera (XL LOGISTICA – RIELLO)
59
LA GESTIONE DELLE SCORTE E DEL RIORDINO AI
FORNITORI NELLA G.D.O.
Giuseppe Cuffaro (COOP ITALIA)
Il settore della G.D.O. (grande distribuzione organizzata) inizia a
strutturarsi per la gestione delle scorte e la pianificazione degli ordini,
solo negli anni ’70, con la nascita dei CE.DI. (centri di distribuzione delle
merci).
Le aziende distributive realizzano i CE.DI. per:
·Esprimere un’offerta commerciale distintiva e non influenzata da vincoli
di servizio
·Ottimizzare la gestione delle scorte
·Realizzare economie sui costi di trasporto
·Semplificare la gestione dei rapporti tra fornitori e punti di vendita
Nasce la figura del “riordinatore”, distinta da quella del “buyer”, il cui
ruolo è quello di garantire il massimo livello di servizio (disponibilità di
prodotto coerente alle richieste dei punti di vendita) con il minimo
immobilizzo in scorte.
Si sviluppano così i sistemi informatici a supporto di questa attività:
·Per la formulazione delle previsioni
·Per la puntuale gestione dei parametri di riordino
·Per la formulazione delle proposte d’ordine automatiche
·Per l’ottimizzazione dei lotti fisici d’ordine
·Per la minimizzazione dei conflitti tra esigenze del riordino e
potenzialità dei CE.DI.
Più recentemente lo sviluppo delle tecnologie di comunicazione EDI
(electronic data interchange) apre nuove opportunità nell’ottimizzazione
del ciclo dell’ordine. Tale ottimizzazione non riguarda più soltanto
l’ambito aziendale, ma si estende all’esterno nell’interfaccia con l’industria
fornitrice.
Nasce un nuovo modello di relazioni tra industria e distribuzione e, al
tradizionale rapporto commerciale, si affianca un nuovo approccio che,
in piena trasparenza, tende ad incrementare efficacia ed efficienza della
supply chain per dare al consumatore finale maggior servizio e maggiore
convenienza.
60
OTTIMIZZAZIONE STATISTICA DEI PERCORSI DI
TRASPORTO MERCI
F. Tavassi (EXECUTIVE)
D. Battistini (EXECUTIVE)
Nel 1999 la Direzione Gruppo Executive – un Corriere Espresso in forte
crescita che, a quella data, disponeva di circa 130 sedi periferiche
distribuite sul territorio nazionale con un movimento di oltre 120.000
pacchi giornalieri – si trova di fronte ad una crescita inaspettata dei costi
di movimentazione delle merci da una sede periferica all’altra. Nasce così
il Progetto per l’Ottimizzazione delle Procedure di Smistamento delle
Spedizioni.
Gli obbiettivi del Progetto sono tre: misurare gli effetti di ciascuna delle
variabili che intervengono nella determinazione dei costi medi unitari di
movimentazione delle merci; costruire un modello matematico/statistico
di simulazione per il controllo delle variabili strutturali del sistema;
progettare un modello di ottimizzazione per il controllo del traffico
giornaliero.
La realizzazione del progetto ha incontrato essenzialmente due ordini di
problemi.
Il primo ha riguardato il reperimento dei dati relativi alle grandezze da
tenere sotto controllo – le spedizioni giornaliere ed il collegamento di
ciascuna spedizione con le relative variabili di costo (mezzi utilizzati e
loro costo, tratte percorse, operazioni di carico/scarico sia nelle sedi
periferiche che nei Centri di Smistamento). Il Sistema Informativo del
Gruppo non era stato ovviamente progettato a questo scopo.
Il secondo ordine di problemi è stato di carattere essenzialmente
progettuale. L’ottimizzazione del traffico su una rete di trasporti è ormai
divenuto un classico dei problemi di ottimizzazione. Il “Vehicule routing
problem (VRP) ha una vasta letteratura ed è stato oggetto dello sforzo di
molti studiosi. Paradossalmente il risultato principale di questi sforzi è
che non esiste una soluzione né generale, né esatta del problema. La
mancanza di generalità deriva dal fatto che qualsiasi soluzione ottimale
del problema dipende in grande misura dalle caratteristiche specifiche del
problema. Come chiariremo tra poco con un esempio la soluzione
migliore cambia anche al variare di piccole condizioni iniziali, ad esempio
l’ammontare delle spedizioni da fare. In ogni caso, anche a parità di
condizioni iniziali, gli algoritmi che identificano la soluzione migliore del
problema sono così complessi che non possono venire calcolati in tempi
utili, neppure con calcolatori superveloci, non appena il numero di sedi
61
da interconnettere si avvicina al centinaio. Pertanto le soluzioni
utilizzabili in pratica sono soluzioni approssimate, le cosiddette soluzioni
euristiche che sacrificano una parte (piccola) dell’ottimalità assoluta a
favore di tempi di soluzione accettabili. A questo proposito, va tenuto
conto che la sensibilità alle condizioni iniziali richiede che le soluzioni
siano ricalcolate periodicamente, al limite anche ogni giorno, e quindi un
algoritmo che non offre soluzioni in tempi accettabili è sostanzialmente
inutilizzabile.
Il progetto si è sviluppato attraverso l’ analisi dei dati forniti dal sistema
informativo aziendale riguardante il periodo che va da settembre 1998 a
giugno 1999. Tale analisi ha comportato il controllo, l’integrazione ed il
matching dei databases aziendali; la definizione e l’ applicazione di un
modello per stimare il traffico merci per tratta e mezzo utilizzato; la
definizione e il calcolo delle variabili derivate (prezzi unitari,tempi medi,
etc.). L’analisi ha fornito una misura precisa della incidenza di ciascuna
variabile di costo sul costo medio totale per spedizione ed in particolare:
dei mezzi utilizzati e della loro variazione; delle operazioni di
carico/scarico nei centri di smistamento; della scelta delle tratte da
percorrere; dello squilibrio e della variazione dei flussi delle spedizioni. Il
periodo preso in considerazione ha mostrato una più forte incidenza,
sull’aumento totale dei costi di movimentazione, dei costi di smistamento
rispetto a quelli di trasporto (il 20% contro il 2%). Ma soprattutto si è
evidenziato quanto atteso: l’analisi ha mostrato con chiarezza che tutte le
parti del sistema (mezzi linee costi distanze quantità movimentate etc.)
sono potenzialmente fonti di movimento dei costi, esse interagiscono
simultaneamente e in versi opposti, in modo tale che talvolta la dinamica
è da attribuire allo stato delle linee, talaltra alle rigidità del sistema, altre
ancora alla dinamica dei costi dei CS. Questa situazione sta ad indicare
che va ottimizzato tutto il sistema e che è illusorio pensare che un
intervento in una parte possa da solo ridurre i costi. Se si chiudono i
centri si avrà un aggravio dei costi delle linee e di altri centri, se si adegua
il sistema per adattarsi ai cali stagionali aumenterà il costo di variazioni e
così via.
Per la costruzione del modello di simulazione si è proceduto
preliminarmente a: digitalizzare la mappa stradale italiana (autostrade,
superstrade e strade di collegamento con le sedi); calcolare la matrice
delle distanze chilometriche tra sede-sede, sede-CS e CS-CS; calcolare la
stessa matrice relativa ai tempi di percorrenza. Gli algoritmi di
simulazione elaborati consistono nel calcolo dei costi totali (e quindi dei
costi unitari) dell’intero sistema una volta che siano dati: la localizzazione
delle sedi e dei centri di smistamento; le tipologie ed i relativi costi fissi e
chilometrici dei mezzi a disposizione (bilici, tre assi, due assi etc.); i
vincoli sui tempi di consegna; il flusso delle spedizioni da movimentare
62
sede-sede e la composizione di questo flusso per ogni tratta dalla sede di
origine alla sede di destinazione. Sulla base di questi dati, viene calcolato
il mix ottimo dei mezzi tale da garantire il loro massimo utilizzo e
minimizzare i costi.
Il modello così costruito consente sia di valutare i possibili scenari sulla
base della variazione di una qualunque delle variabili strutturali del
sistema (medio e lungo periodo), sia di fornire uno strumento di
supporto alle decisioni di breve periodo riguardo alla scelta, anche
giornaliera, delle tratte da percorrere e dei mezzi da utilizzare, una volta
che sia dato il flusso effettivo delle merci da movimentare.
Riguardo alle variabili di carattere strutturale del sistema sono stati presi
in considerazione i seguenti scenari: le economie di scala prodotte
simulando una variazione delle quantità spedite; gli effetti della
localizzazione dei centri di smistamento, simulando sia la chiusura di
alcuni dei sette centri di smistamento esistenti sia l’apertura di nuovi
centri; il numero e la distribuzione territoriale delle sedi periferiche; gli
effetti sul sistema della asimmetria dei flussi di merci tra Nord e Sud.
63
DETERMINAZIONE DELLE TARIFFE DI GESTIONE DI
MAGAZZINO E CONTROLLO DELLA REDITTIVITÀ
Simone Vicentini (XL LOGISTICA – RIELLO)
Gianluca Pachera (XL LOGISTICA – RIELLO)
La progressiva globalizzazione dei mercati e la conseguente competitività
che s’instaura a livello mondiale, impone alle imprese, al fine di
sopravvivere e crescere, di concentrarsi totalmente sul proprio “core
business”. A tal fine, alcune funzioni aziendali considerate non
strategiche, sono gestite in “outsourcing” da società di servizi. Questo è
quello che avviene per alcune funzioni logistiche tra cui i trasporti e la
gestione dei magazzini. Da questa evoluzione le imprese possono
ricavare un enorme vantaggio: affidare a strutture specializzate la
completa gestione di tali attività, distogliendo risorse umane e finanziarie
da funzioni poco redditizie per impiegarle in altre più vantaggiose per
l’azienda. Tutto questo con una struttura di costo leggero e facilmente
controllabile, in quanto le società di servizi applicano tariffe variabili in
funzione dei volumi movimentati.
E’ evidente che per raggiungere un sistema di questo tipo sono
necessarie continue rilevazioni statistiche, sia all’inizio sia alla fine del
processo. Inizialmente perché per determinare delle tariffe corrette è
necessario conoscere a fondo i processi, i tempi e i metodi di
lavorazione, i volumi movimentati e quant’altro possa influire sui costi di
gestione del servizio. Successivamente perché è opportuno continuare a
monitorarne l’andamento con una serie d’indicatori, rilevando eventuali
scostamenti dagli standard prefissati, ma soprattutto per capire se ci
siano margini di miglioramento.
In particolare va sottolineata l’importanza di individuare un insieme di
indicatori statistici capaci di monitorare in continuo l’attività della
azienda, tenuto conto della sua specifica attività. L’originalità della
esperienza maturata da XL Logistica risiede nello sforzo di definire
misure statistiche appositamente costruite sul core business dell’impresa.
In sostanza si tratta di misure di qualità e di performance dell’impresa
che nel loro insieme consentono di tenere sotto controllo l’intero ciclo
produttivo, dalla capacità produttiva utilizzata, alla redditività; dalla
qualità del servizio fornito alla adeguatezza delle tariffe applicate.
L’insieme di statistiche di controllo dell’attività viene poi utilizzato per
definire le tariffe in funzione dei volumi movimentati, in sostanza esse
sono le componenti elementari di un modello concettuale che fornisce
come risultato sintetico un prezzo personalizzato per ciascun cliente.
Allo stesso tempo, in questo modo si costruisce un nucleo di sistema
64
informativo che consente al management aziendale di monitorare
l’attività produttiva.
Non va infine sottovalutato il fatto che questa procedura è oggetto di
continue revisioni e miglioramenti e che viene diffusa mediante appositi
corsi di aggiornamento a tutti gli operatori commerciali e addetti alla
logistica operanti nell’azienda.
65
Statistica nel settore pubblico
CONTROLLI DI QUALITÀ E INTEGRAZIONE DEGLI ARCHIVI
AMMINISTRATIVI. L'OSSERVATORIO UNIONCAMERE SUI
GRUPPI D'IMPRESA
Guido Caselli (UNIONCAMERE)
UTILIZZAZIONE E ANALISI DELLE BASI INFORMATIVE
AMMINISTRATIVE DELLA REGIONE LAZIO
Ennio Fortunato (ISTITUTO NAZIONALE DI STATISTICA)
Ugo Moretti (REGIONE LAZIO)
LA STATISTICA A SUPPORTO DELLA GOVERNANCE A
LIVELLO LOCALE: IL CASO DEL COMUNE DI FIRENZE
Lucia Buzzigoli (UNIVERSITÀ DI FIRENZE)
Riccardo Innocenti (COMUNE DI FIRENZE)
Cristina Martelli (UNIVERSITÀ DI FIRENZE)
STATISTICA NEL SETTORE PUBBLICO: IL CASO DELL’ASL DI
BRESCIA
Camillo Rossi (ASL DI BRESCIA)
66
CONTROLLI DI QUALITÀ E INTEGRAZIONE DEGLI ARCHIVI
AMMINISTRATIVI. L'OSSERVATORIO UNIONCAMERE SUI
GRUPPI D'IMPRESA
Guido Caselli (UNIONCAMERE)
Oltre 136mila imprese sono legate tra loro da partecipazioni di
maggioranza. Complessivamente il fenomeno dei gruppi d’impresa
interessa un quarto delle società di capitale, i tre quarti dell’occupazione
dipendente e i due terzi del fatturato (sempre con riferimento alle sole
società di capitale).
Il dato sui gruppi d’impresa costituisce il risultato dell’integrazione di più
archivi amministrativi mantenuti dal sistema camerale, dalla banca dati
soci al Registro delle imprese, dal Repertorio Economico Amministrativo
all’archivio dei bilanci.
Obiettivo di questo intervento non è tanto quello di presentare i risultati
dell’analisi sui gruppi di impresa, ma, piuttosto, quello di illustrare i
passaggi seguiti nella integrazione degli archivi e analizzare i problemi
metodologici connessi all’utilizzo dei dati amministrativi a fini statistici
Ciò consente, inoltre, di fare il punto su alcuni dei progetti in corso nel
sistema delle Camere di Commercio per migliorare l’utilizzazione a fini di
analisi statistica delle banche dati amministrative camerali.
L’osservatorio sui gruppi d’impresa, giunto al secondo anno, mira a
ricostruire i legami di partecipazione tra le società di capitale (oltre
500mila imprese). Attualmente l’analisi sui gruppi prende in esame le sole
relazioni di maggioranza assoluta, che si esplica sia attraverso il controllo
diretto, sia attraverso le quote indirette detenute attraverso la
partecipazione in altre imprese.
Esemplificando: se l’impresa A detiene più del 50% del capitale azionario
di B, A controlla B, A e B fanno parte dello stesso gruppo. Se B controlla
C, allora, attraverso B, A controlla C e le tre imprese fanno parte dello
stesso gruppo…
L’archivio principale alla base dell’osservatorio è la banca dati dei soci (le
società di capitale sono tenute a depositare il proprio assetto
proprietario).
La banca dati soci, per avere informazioni anagrafiche e sull’attività
economica, viene incrociata con il registro delle imprese; con il REA
integrato (che rappresenta anche la base dati del sistema informativo
Excelsior) per avere informazioni sul numero degli addetti e dei
67
dipendenti; con l’archivio dei bilanci per poter effettuare valutazioni sulla
redditività e sulla struttura patrimoniale.
Un algoritmo incrocia ed elabora tutti gli archivi, il risultato finale è un
nuovo archivio dove, come unità di riferimento, non ci sono più le
singole imprese ma dei nuovi aggregati economici, i gruppi, con fatturato
addetti, …, derivanti dalla somma delle singole imprese che lo
compongono.
L’analisi statistico-economica condotta sulla nuova unità di rilevazione, i
gruppi d’impresa, consente di rileggere, attraverso una differente chiave
di lettura, le dinamiche economiche in atto.
68
UTILIZZAZIONE E ANALISI DELLE BASI INFORMATIVE
AMMINISTRATIVE DELLA REGIONE LAZIO
Ennio Fortunato (ISTITUTO NAZIONALE DI STATISTICA)
Ugo Moretti (REGIONE LAZIO)
Negli ultimi anni, in Italia si è andata sempre più imponendo l’esigenza di
un forte decentramento delle responsabilità amministrative e di
programmazione della pubblica amministrazione, quale risposta alle
crescenti aspettative di autonomia locale e alla generale richiesta di una
maggiore efficienza della pubblica amministrazione stessa. Questa nuova
attenzione impone una migliore utilizzazione dell’informazione che si
origina o transita nelle regioni, in relazione alle attività legate alle
competenze ad esse attribuite, nella prospettiva della costituzione di
sistemi informativi statistici a garanzia dell’efficacia dei servizi erogati. Un
consistente contributo in questa direzione può essere fornito
dall’informazione raccolta nell’ambito dei processi amministrativi
regionali e dispersa negli archivi amministrativi e gestionali. In questo
quadro si inserisce il progetto: Valorizzazione e standardizzazione delle
informazioni contenute negli archivi amministrativi e gestionali della
Regione Lazio e di supporto alle decisioni che l’Istat e la Regione Lazio
hanno sviluppato tra il 1999 e il 2001.
La realizzazione di sistemi informativi statistici finalizzati all’azione di
governo richiede tipicamente quattro fasi:
1. la ricognizione e la raccolta del patrimonio informativo disponibile
come effetto dell’attività amministrativa;
2. la selezione delle informazioni raccolte, sulla base delle loro utilità,
della loro qualità e della loro disponibilità nel tempo;
3. l’individuazione e la raccolta delle informazioni di contesto (in genere
non disponibile all’interno dell’organizzazione come effetto della propria
attività amministrativa) necessaria alla definizione di un modello
interpretativo della realtà economica e sociale nella quale l’azione
amministrativa interviene;
4. la definizione di indicatori, costruiti a partire dalle informazioni di cui
ai punti precedenti, in grado di orientare di volta in volta le scelte
amministrative e di valutarne gli effetti.
Il progetto Istat – Regione Lazio ha affrontato le problematiche attinenti
alla fase 1, concentrandosi sui passi metodologici e sulle operatività da
seguire per realizzare la transizione da un sistema amministrativogestionale non sistematico ed essenzialmente autoreferenziale ad un
sistema informativo statistico e, in particolare, sull’insieme di regole e di
69
scelte da operare in sede di ristrutturazione dell’informazione originaria.
L’attività di progetto (che ha interessato quattro dipartimenti regionali:
Scuola, Formazione e Politiche del lavoro; Cultura, Spettacolo e
Turismo; Politiche per la Qualità della Vita e Sviluppo del Sistema
Agricolo e del Mondo Rurale) ha in effetti evidenziato la necessità di una
generale, profonda e preventiva riorganizzazione dei contenuti
informativi degli archivi gestionali-amministrativi, per dotarli delle
necessarie caratteristiche di strutturazione, omogeneità, e significatività:
l’attività degli uffici regionali coinvolti nel progetto è risultata infatti
un’attività prevalentemente manuale, il supporto informativo utilizzato
generalmente cartaceo e l’informazione molto spesso di tipo non
strutturato, non essendo di regola raccolta mediante questionari, moduli
o schede predefiniti.
Il progetto ha anche messo in evidenza una certa difficoltà di
comunicazione tra soggetti di diversa cultura lavorativa, tra statistici e
responsabili amministrativi. Tale difficoltà trova certamente origine nel
diverso significato che il concetto di archivio assume nelle realtà di tipo
amministrativo e in quelle di tipo statistico. In ambiente statistico, così
come in quello informatico, un archivio è un insieme strutturato di
informazioni disponibili in un dato momento su un particolare gruppo di
soggetti, nel quale l’insieme di informazioni è sostanzialmente invariante
da soggetto a soggetto. In ambito amministrativo l’archivio viene visto
come l’insieme delle pratiche amministrative che nel tempo vengono
richieste e/o acquisite per ognuno dei soggetti interessati dallo specifico
processo amministrativo. Nel primo approccio (che potremo chiamare
approccio informativo) prevale una lettura trasversale del processo
amministrativo, nel senso che si tende ad immaginare un archivio per
ogni fase del processo stesso; nel secondo (approccio amministrativo) si
afferma invece una lettura longitudinale, che concentrandosi sul singolo
soggetto, tende a raccogliere su di esso tutte le informazioni acquisite nel
processo (faldone), indipendentemente dalle varie fasi.
La diversità di approccio si traduce evidentemente in una diversa
organizzazione dell’informazione e detta le principali linee di azione nella
transizione dagli archivi amministrativi-gestionali a quelli statistici
finalizzati all’azione di governo. In particolare vengono individuati, in
una logica di progressiva integrazione informativa, due distinti e
successivi passi procedurali, nei quali inquadrare le diverse operatività
specifiche:
1. la definizione dell’archivio amministrativo, attraverso l’individuazione,
per ricomposizione delle fasi dell’iter amministrativo, del complesso
informativo disponibile per un generico soggetto coinvolto dall’attività
amministrativa (integrazione orizzontale);
70
2. la definizione dell’archivio statistico, attraverso l’individuazione del
complesso informativo disponibile per tutti i soggetti coinvolti
dall’attività amministrativa (integrazione verticale).
71
LA STATISTICA A SUPPORTO DELLA GOVERNANCE A
LIVELLO LOCALE: IL CASO DEL COMUNE DI FIRENZE
Lucia Buzzigoli (UNIVERSITÀ DI FIRENZE)
Riccardo Innocenti (COMUNE DI FIRENZE)
Cristina Martelli (UNIVERSITÀ DI FIRENZE)
La funzione statistica riveste un ruolo essenziale nella individuazione e
predisposizione degli strumenti informativi adeguati a supportare la
governance di un sistema complesso, sia esso un’azienda sia una pubblica
amministrazione. Questo è vero a maggior ragione a livello comunale,
visto che la rinnovata dignità acquisita dai comuni con la recente
evoluzione del contesto istituzionale implica la necessità di sistemi di
monitoraggio e valutazione più strutturati e analitici la cui messa a punto,
gestione e aggiornamento raggiungono livelli di complessità notevoli a
causa della specificità e varietà di relazioni sul territorio che devono
analizzare.
In un tale contesto, che può vantare tradizioni statistiche ben più radicate
e sedimentate delle altre realtà amministrative, si tratta di recuperare
un’impostazione culturale storicamente latente per reinterpretarla alla
luce dei nuovi adempimenti normativi, delle nuove esigenze conoscitive
e delle sempre più raffinate tecnologie disponibili per il trattamento delle
informazioni.
Il Comune di Firenze si è dimostrato sensibile a tali tematiche e ha da
tempo predisposto una linea di intervento tesa a valorizzare la stretta
connessione tra funzione statistica e funzione di governo dell’Ente,
concretizzando la propria volontà innovativa con la predisposizione di
numerosi progetti speciali che si avvalgono di competenze interne ed
esterne all’amministrazione. Tale sensibilità non è risultata
immediatamente trasferibile all’insieme degli assetti organizzativi e questo
ha rappresentato un elemento di criticità, pur presente nella fase di
impostazione progettuale.
Il progetto di respiro più generale, predisposto insieme al Dipartimento
di Statistica “G. Parenti” dell’Università di Firenze, è quello che prevede
la costituzione di un sistema informativo statistico a partire dai diversi
giacimenti di dati originati dall’attività amministrativa e gestionale del
Comune di Firenze.
Il progetto, coerentemente con quanto espresso dall’art.12 del Testo
Unico sulle autonomie locali, si propone in primo luogo di valorizzare le
basi di dati per conoscere le modalità di funzionamento delle strutture,
per orientare decisioni di governo e valutarne l’efficacia.
72
La complessità dell’organizzazione pubblica e le peculiarità che le sono
proprie – primi tra tutti i numerosi vincoli normativi ai quali deve
sottostare – impediscono di predisporre il sistema informativo statistico
semplicemente estrapolando i metodi usualmente adottati in ambito
gestionale. Inoltre il particolare rapporto esistente in questo caso tra
statistica e territorio implica la necessità di configurare la fonte
informativa in maniera sufficientemente flessibile da soddisfare obiettivi
conoscitivi diversi provenienti da utenze diversificate.
Il presente contributo si propone di evidenziare in maniera sintetica la
valenza strategica, culturale, operativa e metodologica del progetto in
questione.
Per quanto riguarda il primo aspetto, la consapevolezza che solo
un’adeguata conoscenza del contesto in cui si opera consente un’efficace
programmazione dell’attività dell’ente ed il costante monitoraggio sia
delle dinamiche sociali, ambientali-territoriali, economico-produttive, sia
delle ricadute delle politiche intraprese in termini di trasformazione della
realtà governata ha condotto l’amministrazione fiorentina ad adottare il
progetto come obiettivo aziendale per il 2003, quindi vincolante per tutti
i dirigenti di ogni settore, e ad inserirlo in un Piano Integrato di
Cambiamento che è stato presentato e approvato a livello nazionale dal
Dipartimento della Funzione Pubblica nell’ambito dell’iniziativa “I
Successi di Cantieri”.
La valenza culturale del progetto è stata evidente fin dalla sua proposta
iniziale: da un lato la consapevolezza delle potenzialità e dei limiti della
strumentazione statistica e dall’altro la necessità di acquisire un comune e
rigoroso linguaggio di riferimento e una strumentazione di base che
permettano l’interscambio di procedure e metodologie rappresentano le
premesse per rafforzare il ruolo istituzionale della statistica nel nuovo
contesto di analisi e di raccordo tra le componenti della struttura
organizzativa. In questa ottica va interpretata la individuazione della rete
di referenti statistici all’interno di ogni Direzione e ufficio speciale del
Comune, rete che è stata completata prima di iniziare il progetto.
L’attività di formazione a cui sono stati chiamati i referenti è stata
finalizzata a fornire competenze operative e di elaborazione, soprattutto
per diffondere capacità di lettura critica e di contestualizzazione del dato
per aumentare il suo valore informativo, al di là delle immediate
connotazioni di adempimento per cui viene raccolto.
Dal punto di vista operativo, il progetto è iniziato con l’analisi della
struttura informativa esistente, a partire dalla considerazione che
all’interno dell’amministrazione comunale esista già un enorme
patrimonio di dati frutto della usuale attività dell’ente; tali dati, pur
avendo una grande potenzialità informativa, non risultano ancora
73
valorizzati. Il punto di partenza di tale attività è stato identificato nella
ricognizione accurata di tutte le tipologie di archivi attualmente presenti
nelle varie direzioni. A questo scopo è stato predisposto un questionario
molto analitico con cui si cerca non solo di descrivere i vari archivi e il
loro contenuto, ma anche di verificare la disponibilità di metadati,
l’omogeneità di definizioni e classificazioni, la eventuale appartenenza a
database relazionali, ecc., anche in vista di successivi e necessari controlli
di qualità.
Già nella fase iniziale di test della ricognizione, attualmente in fase di
conclusione, si sono evidenziate delle criticità di notevole interesse sia
per l’organizzazione comunale sia per coloro che si occupano di tali
problemi dal punto di vista metodologico.
Alcune delle interessanti prospettive di analisi che si stanno aprendo
sono nel campo della ricostruzione di serie storiche di dati
amministrativi, nella costituzione di insiemi standard di metadati
descrittivi delle fonti amministrative, nel raccordo tra sistema
informativo statistico e predisposizione di un adeguato sistema di
indicatori per il monitoraggio dell’attività amministrativa.
74
STATISTICA NEL SETTORE PUBBLICO: IL CASO DELL’ASL DI
BRESCIA
Camillo Rossi (ASL DI BRESCIA)
Anche gli enti pubblici hanno bisogno di strumenti di supporto alle
decisioni. Per tale ragione strumenti di analisi statistica ad alto valore
aggiunto rappresentano un investimento strategico rilevante ai fini del
raggiungimento degli obiettivi istituzionali quali:
·Analisi e governo della domanda di salute
·Attività di medicina preventiva e sanità pubblica umana e veterinaria.
·Tutela della salute nei luoghi di lavoro
·Assistenza socio sanitaria e sociale
·Finanziamento strutture erogatrici di prestazioni sanitarie e sociali,
medici di medicina generale e pediatri di libera scelta.
·Valutazione e miglioramento della qualità delle prestazioni acquistate
presso le strutture erogatrici per conto degli assistiti
In tutti settori di attività dell’ASL c’è necessità del contributo dello
statistico, in particolare per
·allocazione delle risorse in funzione di efficienza ed efficacia
·descrizione di fenomeni demografici
·trend temporali e analisi spaziali
·capacità di comprensione del linguaggio degli operatori sanitari
·conoscenza dei sistemi sanitari.
L’ASL è l’azienda sanitaria che garantisce, finanziandole, le prestazioni
specialistiche ed ospedaliere fornite da ospedali e ambulatori pubblici e
privati accreditati principalmente attraverso i medici di medicina generale
e pediatri di libera scelta, che sono liberi professionisti convenzionati con
il servizio sanitario nazionale per erogare le cure primarie.
Inoltre, l’ASL fornisce tutte le prestazioni sanitarie e socio-sanitarie
nell’ambito della prevenzione, dell’assistenza sanitaria di base e
dell’assistenza socio-sanitaria integrata.
Dati di contesto
L’ASL di Brescia copre tutto il territorio della provincia, ad eccezione
della Valle Camonica. Come dimensioni è paragonabile a una piccola
regione italiana come il Friuli VG o l’Umbria.
75
Popolazione (dicembre 2002)
Comuni serviti
Medici di medicina generale
Medici pediatri di libera scelta
Farmacie
Strutture erogatrici di ricovero
Strutture erogatrici ambulatoriali
Quota capitaria sanitaria 2002
1.029.978
164
732
106
269
15
25
Euro 980.886.000
Tasso di ospedalizzazione (2001)
215,28 (x 1000 abitanti)
di cui 200,20 residenti ricoverati entro
ASL
di cui 15,08 residenti ricoverati fuori
ASL
Obiettivi strategici dell’ASL di Brescia
In linea con il PSSR 2001-2004, le funzioni sostanziali dell’ASL sono
riassumibili in programmazione, acquisto e controllo. Sostanzialmente il
ruolo dell’azienda è quello di analizzare e governare la domanda di salute
della popolazione contribuendo, a livello locale, alla programmazione
sanitaria.
Il nucleo centrale del modello consiste nella unificazione di tutti i flussi
informativi disponibili (relativi alla salute, alle prestazioni erogate, alle
valorizzazioni economiche, …) attorno da una parte al singolo cittadino
(gli assistiti) e dall’altra alle singole aziende (produttrici pubbliche e
private). L’obiettivo è quello di passare da un insieme di informazioni
separate e circoscritte (i ricoveri, le prestazioni ambulatoriali, le
prescrizioni farmaceutiche…) ad un insieme coordinato che sappia
identificare il bisogno di salute espresso dai cittadini, la domanda di
prestazioni e le caratteristiche di prescrizione, nonchè l’offerta di
prestazioni e servizi. Il coordinamento deve riguardare sia le attività
richieste/svolte che la loro contropartita economica.
Il Sistema ha bisogno di essere esteso a tutte le attività sanitarie,
sociosanitarie e sociali (ricoveri, prestazioni ambulatoriali, farmaceutica,
mortalità, …), con un approccio che valorizzi sia lo spazio (verso una
geografia della domanda e dell’offerta) sia il tempo (verso il monitoraggio
degli andamenti temporali), così possano essere svolte in maniera
appropriata le specifiche funzioni di programmazione, acquisto e
controllo.
Uno dei principali problemi sul tappeto è rappresentato
dall’appropriatezza della prescrizione, che si esprime in parte nelle
76
indicazioni del D.P.C.M. 29 novembre 2001 “Definizione dei livelli
essenziali di assistenza” Gazzetta Ufficiale N. 33 dell’8.2.2002 Supplemento Ordinario N. 26. Possono essere definiti "inappropriati" i
casi trattati in regime di ricovero ordinario o in day hospital che le
strutture sanitarie possono trattare in un diverso setting assistenziale con
identico beneficio per il paziente e con minore impiego di risorse.
Le prestazioni sanitarie e farmaceutiche vengono per la maggior parte
prescritte dai Medici di medicina generale che rappresentano, anche se
non compiutamente, i gatekeeper del sistema sanitario. E’ di comune
conoscenza la non omogeneità dei comportamenti nella richiesta di
tipologia di erogazione della prescrizione (es.: degenza ordinaria vs day
hospital o prestazione ambulatoriale, farmaci).
Per tale ragione si è cercato di ricostruire il profilo di spesa sanitaria in
termini di prescrizione di prestazioni di ricovero considerate
potenzialmente inappropriate e indicate dal DPCM sui LEA dei mmg e
pls e studiare eventuali associazioni che potessero evidenziare le
caratteristiche di eventuali gruppi di medici a rischio di inappropriatezza
potenziale nella prescrizione per attuare interventi formativi mirati sulle
aree di criticità evidenziate.
L’Azienda con applicativi di statistica ha dato disponibilità a
sperimentare per la prima volta nella sanità strumenti come il data
mining diffusamente utilizzati per attività di customer’s profiling nelle
grandi catene di distribuzione commerciale.
La prima fase di questa attività di sperimentazione, condotta sui dati
relativi all'anno 2001 (basi dati utilizzate: Tabella Medici Generici e
Pediatri, Tabella degli Assistiti per Medico, Tabella delle SDO e Tabella
Distretti) si è articolata a sua volta nelle seguenti due tipologie di analisi:
1. analisi di classificazione dei medici di famiglia, che ha consentito di
suddividere i medici di famiglia (generici e/o pediatri) in gruppi dal
comportamento omogeneo, in base ad una serie d'informazioni associate
al medico. Tramite i risultati di queste analisi, è possibile monitorare i
medici della ASL e individuare coloro che assumono comportamenti
anomali, agire con incentivi verso coloro che attuano comportamenti
virtuosi dovere e monitorare il ricorso ai servizi sanitari nel territorio
dell’ASL.
2. analisi sul rischio di prescrizione dei 43 DRG inappropriati, che hanno
consentito di prevedere il comportamento del medico rispetto al target
di interesse. In questo caso il target che si desiderava monitorare era la
prescrizione del medico di ciascuno dei 43 DRG
potenzialmente inappropriati. Infatti, dopo aver definito il target, i
modelli predittivi hanno consentito di prevedere il comportamento del
77
medico rispetto al target, fornendo come risultato la probabilità per ogni
medico di prescrivere o meno uno dei 43 DRG.
I principali risultati sono rappresentati da indicazioni sulle aree di
miglioramento su cui intervenire per rendere sempre più appropriato ed
efficace il ricorso ai servizi sanitari, il miglioramento dell’equità
nell’erogazione dei servizi sanitari e la riduzione della spesa sanitaria
ritenuta impropria da un punto di vista della modalità di erogazione.
In futuro sono prevedibili sviluppi soprattutto facenti capo al problema
dell’analisi della domanda di salute attraverso un’analisi congiunta dei dati
inerenti i ricoveri, le prescrizioni farmaceutiche e quelle ambulatoriali.
L’idea è quella di utilizzare i dati presenti nel datawarehouse aziendale
per effettuare una stima della domanda potenziale di servizi sanitari, la
più possibile vicina alla realtà, in modo tale da avere indicazioni per
calibrare l’offerta di servizi sanitari alla popolazione allocando in modo
appropriato le risorse.
Infine, è prevedibile l’uso di simili applicativi per la realizzazione di studi
di efficacia relativa allo scopo di andare incontro a quanto previsto dal
PSSR che prevede incentivi alle strutture erogatrici in funzione di fasce
crescenti di qualità del servizio reso.
78