05. 2005 2,50 anno III n.3 & rivista quadrimestrale per la diffusione della cultura statistica edizioni & rivista quadrimestrale per la diffusione della cultura statistica Statistica & Società anno III n. 3, 2005 Reg. Trib. di Roma nº 504/2002 2/9/02 Rassegna quadrimestrale gratuita per i soci SIS SOMMARIO Struttura Organizzativa: Direttore Responsabile Daniela Cocchi pag. Direttore Scientifico Luigi D’Ambra Condirettori Marcello Chiodi (Didattica, Dottorati di Ricerca, Informatica, Intervista, Statistica e mondo della produzione) Giuliana Coccia (Escursioni, Management, Mercato del lavoro, Statistica ufficiale, Territorio) Comitato Editoriale Marcello Chiodi Daniela Cocchi Giuliana Coccia Luigi D’Ambra Responsabili di Sezione Giuseppe Bove Dottorati di Ricerca Enrico Del Colle Territorio Gianfranco Galmacci Informatica Achille Lemmi Management Alberto Lombardo Statistica e mondo della produzione M. Gabriella Ottaviani Didattica Alessandra Righi Statistica ufficiale Andrea Vannucci Escursioni Alessandro Viviani Mercato del lavoro Intervista Segreteria di Redazione Michele Gallo Dipartimento di Scienze Sociali Università degli Studi di Napoli – L’Orientale Piazza S. Giovanni Maggiore, 30 – 80124 – Napoli Tel. 081 6909411 fax 081 675187 e-mail: [email protected] Finito di stampare nel mese di luglio 2005 rce edizioni Piazza Bagnoli, 19 – Napoli Tel 081 2303416 – fax 081 2428946 e-mail: [email protected] una copia 2,50 ESCURSIONI Luigi Ferrari: Scientificità e professionalità statistica nelle ricerche di mercato Aziende, Statistica, Statistici 3 6 Franco Tassinari Scenari per L’Europa al 2030: una ricerca dell’IRPPS 12 Rossella Palomba I sondaggi politici. Come garantire la qualità dei dati e la correttezza delle interpretazioni? 17 Piergiorgio Corbetta Un modello di regressione PLS per lo studio delle emissioni di sostanze inquinanti 20 Enrico Ciavolino, Giovanni Meccariello Tavola rotonda “Metodi, Modelli e Tecnologie dell’informazione a supporto delle decisioni” 26 DISTRIBUTORI DI: ASAP, ACTIVSTATS, BOUNDARYSEER, CLUSTERSEER, DATA DESK, EVIEWS, GAUSS, LINDO. LINGO, MUPAD, RATS, SCIENTIFIC NOTEBOOK, SCIENTIFIC WORD, SCIENTIFIC WORKPLACE, SPACESTAT, STAT/TRANSFER, STATA, WHAT’S BEST STATA 9.0 TStat S.r.l., distributore unico del software Stata in Italia, è lieta di annunciare il lancio della nuova versione di Stata, Stata 9, che rappresenta una importante revisione del software. Stata è un software statistico completo le cui potenzialità sono in grado di soddisfare un’ampia gamma di utenti accademici e professionali, in discipline quali economia, statistica, sociologia, psicologia, biostatistica, epidemiologia e altre. Stata 9 include una vasta gamma di funzioni statistiche e capacità di data management complete. E’ facile da usare per utenti alle prime armi, ma allo stesso tempo offre opzioni di programmazione sofisticate per gli utenti più esperti. Nuove potenzialità sviluppate da altri utenti e aggiornamenti ufficiali possono essere installati semplicemente tramite internet. Principali novità MATA, un nuovo linguaggio di programmazione matriciale • Mata è un linguaggio di programmazione a tutti gli effetti, che compila le istruzioni in linguaggio numerico, le ottimizza e le esegue molto velocemente. Mata è anche alla base di molte nuove potenzialità di Stata 9, quali i modelli “linear mixed” e i modelli probit multinomiali. • Mata usa routine LAPACK per le operazioni matriciali avanzate, quali il calcolo di autovalori e autovettori, le decomposizioni di Cholesky, LU, QR e SV. • Mata può essere utilizzato in modalità batch per modelli di grandi dimensioni o 0in modo interattivo. Stimatori per dati derivanti da indagini campionarie • Stata 9 include due nuovi stimatori di varianza per dati derivanti da indagini campionarie (survey data): “balanced repeated replications” (BRR) e “survey jackknife”. Tra le novità, sono inclusi anche “Multistage designs” e “poststratification”. Linear mixed models • Nuovi stimatori per specificare e stimare modelli “two-way”, “multilevel”, e con “hierarchical random-effects” (MANOVA, MANCOVA, Rank-order Logit, Bootstrap e altri) Analisi multivariata • Quattro nuove metodologie per l’analisi multivariata: “multidimensional scaling”, “correspondence analysis”, “biplot anaysis” e “Procrustean analysis”. • Nuove potenzialità nei metodi esistenti, specialmente per l’analisi dei fattori e dei componenti principali. Modelli probit multinomiali • Includono ora la possibilità di specificare varie strutture di correlazione e strutture definite dall’utente. Altri modelli statistici • I modelli probit e tobit possono ora includere regressori endogeni. I metodi di stima includono massima verosimiglianza e stimatori a due stadi. • Regressioni con Poisson troncata a zero e binomiale negativa. • Regressioni “stereotipe logistic”. • Morelli ARIMA stagionali con errori standard robusti. • Minimi quadrati non-lineari. Gestione dei dati • Supporto XML e banche dati FDA NDA Interfaccia utente e grafici • Interfaccia utente potenziata con editore multiplo di file do, visualizzatori multipli, finestre di grafici multiple e molto altro. Ampio supporto di processori 64-bit Ulteriori informazioni su Stata 9.0 possono essere ottenute dalla TStat S.r.l.: Tel 0864 210101 Fax 0864 206014 – Email [email protected] – Sito Internet – www.tstat.it Statistica & Società 3 ESCURSIONI Testimonianze di cultura, pratica e professione statistica all’esterno della Società Luigi Ferrari: Scientificità e professionalità statistica nelle ricerche di mercato Inauguriamo volentieri questa sezione di “Statistica e Società” con un’intervista a Luigi Ferrari, presidente dell’ASSIRM (www.assirm.it), l’Associazione che raggruppa gli istituti Italiani di Ricerche di Mercato, Sondaggi d’Opinione e Ricerche Sociali. Costituita nel 1991 su iniziativa di 14 aziende leader del settore, l’ASSIRM è cresciuta fino a rappresentare oggi, con 35 aziende associate, praticamente l’intero settore della ricerca privata. Ferrari è uno dei maggiori conoscitori e più noti protagonisti di questo settore: dopo essere stato fra i promotori della costituzione di ASSIRM, ne è stato presidente per ben quattro mandati: dall’inizio delle sue attività fino al 1995, e poi ancora dal 2001 ad oggi. In campo internazionale, dal 1993 al 1999 è stato membro del Consiglio di ESOMAR, l’associazione mondiale dei professionisti della ricerca. Questi suoi incarichi istituzionali si accompagnano ad una notevole attività di imprenditore e professionista: laureato in Economia nel 1968, si è formato nel marketing di Procter&Gamble. Nel 1971 ha fondato Explorer Marketing Research, rapidamente attestatosi fra i primi istituti di ricerca in Italia per volume d’attività, e l’ha diretto fino alla sua incorporazione nel gruppo internazionale IPSOS. Poi, evidentemente non ancora soddisfatto, nel 2001 ha fondato una nuova società di ricerca e consulenza, People Research, di cui è oggi presidente. Intervista realizzata da Andrea Vannucci, il 31 Gennaio 2005. D. “Dottor Ferrari: il settore delle ricerche di mercato e dei sondaggi d’opinione è chiaramente un ambito in cui la scienza statistica trova ampia applicazione. Come si configura in generale il tema della qualità scientifica (sul piano metodologicostatistico) delle ricerche?” R. “Nel campo delle ricerche cosiddette quantitative – perché ovviamente di queste stiamo parlando – bisogna distinguere fra le grandi ricerche continuative, multi-cliente, sia su panel che su cam- pioni storicizzati, e le piccole ricerche ad-hoc, realizzate per rispondere a un quesito specifico e per un solo cliente. Per le prime, che tipicamente si basano su grandi impianti campionari complessi, prevedono una serie ripetuta di rilevazioni e si usano per analisi di trend di lungo termine, la qualità statistica è di norma molto buona. Va osservato che queste ricerche richiedono investimenti economici molto elevati, e quindi gli istituti che le realizzano sono quei pochi, più grandi, che contano sul ritorno garantito da contratti pluriennali. Tutto ciò richiede e giustifica una metodologia molto solida. Per quanto riguarda invece la parte delle ricerche ad-hoc, che spazia dai piccoli product-test alle grandi indagini sulla brand-image, ogni scelta metodologica deve confrontarsi invariabilmente con la necessità di trovare un equilibrio fra il budget assegnato dal committente e i risultati che si desidera ottenere. La struttura e la dimensione dei campioni non sono più necessariamente quelle “ideali” sul piano statistico, bensì quelle che consentono un’analisi soddisfacente a fronte di un dato costo di esecuzione della ricerca (ovviamente, sempre con un limite minimo sotto il quale non si può che consigliare al committente di soprassedere o riconsiderare il suo investimento). In questi casi spesso il disegno campionario è più giustificato dalla pratica che non dalla teoria. Può essere allora giusto fare un product-test con 400 casi in 4 città, anche se non è un campione statistico ben rappresentativo di tutta l’Italia, perché le evidenze che si cerca di misurare sono comunque abbastanza grandi, e nell’esperienza pratica si verifica che anche con un prodotto di ricerca di questo tipo si riesce a dare al cliente le risposte che gli servono. In buona parte delle ricerche quantitative ad-hoc la statistica viene giocoforza applicata in modo non strettamente rigoroso, vuoi perché i campioni sono di dimensioni limitate, vuoi perché i casi sono estratti “per quota” e non in modo 4 D. R. D. R. Statistica & Società probabilistico, o anche perché capita spesso di dover fare delle analisi di incrocio le cui basi finiscono per essere piccole. D’altra parte, se su una ricerca specifica il cliente può spendere un budget limitato, il compito del ricercatore è di trovare la miglior soluzione compatibile con le risorse disponibili. In questi casi, non potendo basare le valutazioni sul test statistico rigoroso, sono l’esperienza e la competenza del ricercatore che devono suggerire quali evidenze possono essere ritenute indicative, valutando con attenzione le concomitanze, cercando conferme e controprove, e usando tutte le altre informazioni che si hanno su un dato fenomeno di mercato.” “Ma il committente, quanto è attento alla qualità scientifica della ricerca?” “Il cliente non è quasi mai interessato ai dettagli metodologici, ma solo al fatto che la ricerca riesca a rispondere alle sue domande: questo è quello che i clienti intendono per “qualità”. Può capitare di incontrare il responsabile interno delle ricerche che ha una formazione tecnica, ed è magari più attento ad alcuni aspetti pratici di reperimento o elaborazione, ma comunque non va dimenticato che anche in questi casi il cliente non è lui, bensì il suo “cliente interno”, quello che deve prendere delle decisioni basate sui risultati della ricerca. Assume quindi molta importanza il modo in cui i risultati sono analizzati, integrati con altre informazioni; il ricercatore è un consulente, che deve conoscere il mercato in cui opera il cliente, e se è bravo riesce a segnalare al cliente quei fenomeni che sono importanti anche quando non si può avere la garanzia del test statistico. Per la correttezza statistica del prodotto il cliente si affida all’istituto, alla sua competenza, al suo nome, all’esperienza che si è consolidata con esso.” “Quali sono stati i temi di ricerca – o i committenti – che hanno maggiormente favorito lo sviluppo metodologico delle ricerche, ponendo quesiti che hanno richiesto nuove tecniche, nuovi tipi di analisi?” “Storicamente, più o meno negli anni settanta, ci sono state le grandi case automobilistiche che hanno dato un grande impulso, per esempio, alle tecniche di conjoint-analysis, e questo perché l’automobile è un prodotto complesso, il cui acquisto è influenzato da molte variabili diverse, non solo intrinseche al prodotto ma anche di immagine di D. R. D. R. marca, di clima economico. Questo ha dato un impulso notevole alle metodologie di ricerca e analisi multivariata, sul quale poi, a rimorchio, si è sviluppato molto anche in altri ambiti. Vent’anni più tardi, negli anni novanta, si sono usate le stesse metodologie per studiare il mercato della telefonia mobile, un settore in cui i comportamenti di consumo sono, di nuovo, molto complessi, e dove gioca molto l’emotività, l’innovazione. Oggi si inizia ad applicare le analisi multivariate in campo finanziario, un ambito in cui c’è ancora molto da crescere. Questo è certamente un buon esempio di un particolare settore di clienti che hanno fatto sviluppare drasticamente una nuova metodologia di ricerca.” “Tornando al tema della qualità; se distinguiamo fra questionario, rilevazione, elaborazione e analisi, in quale di queste fasi si gioca maggiormente la qualità scientifica di una ricerca di mercato? Qual è la fase più critica sul piano metodologico?” “La fase della raccolta dei dati è senz’altro quella più critica e determinante per la qualità della ricerca: vale il principio del “garbage-in, garbage-out”; se i dati raccolti sono scadenti, non c’è disegno campionario o tecnica di analisi che possa salvare il prodotto di ricerca. Al contrario, se i dati raccolti sono buoni, l’analisi potrà magari essere mediocre, ma difficilmente potrà dare luogo a errori grossolani. E questa della qualità nella rilevazione è anche forse l’area di maggiore differenziazione fra gli istituti: la cura che si mette nel realizzare questionari, nell’istruire gli intervistatori e nel controllarli. Non è una coincidenza il fatto che gli istituti che garantiscono la maggiore qualità nelle ricerche sono particolarmente accurati nel controllo delle strutture di rilevazione.” “Su questi argomenti di cui abbiamo parlato, Lei vede una qualche specificità in ciò che si osserva in Italia rispetto ad altri paesi? Stiamo messi meglio, peggio...?” “No, credo che la situazione Italiana sia assolutamente in linea con quanto avviene in altri paesi. Il nostro è un mercato più piccolo, ad esempio, di quello Inglese, Francese o Tedesco, ma sostanzialmente il livello scientifico delle ricerche è analogo. Ci sono ovviamente delle differenze: in Inghilterra la qualità del fieldwork è certificata da un ente indipendente, in Germania si tende a fare campioni enormi anche se il questionario è di so- Statistica & Società D. R. D. R. lito più elementare. Ma globalmente i problemi di carattere scientifico sono gli stessi, non c’è una qualità veramente diversa. Sto parlando specificamente del settore delle ricerche; se invece parliamo dei sondaggi, un settore più piccolo e dove la “cassa di risonanza” è maggiore, lì le cose possono cambiare anche significativamente.” “Vi è un ruolo distinto e riconoscibile per gli statistici nelle aziende di ricerche di mercato?” “Per i motivi già ricordati, il ricercatore di mercato deve avere una competenza molto articolata, e conoscere il settore in cui opera da consulente. Quindi, la competenza metodologica “pura” non è di per sé sufficiente. Certo, uno statistico che voglia fare questa professione parte con un vantaggio notevole rispetto a chi ha svolto altri studi, perché capisce l’essenza pratica del nostro mestiere che è quella di fare stime campionarie e trarne indicazioni generali. Deve però acquisire altre competenze, tipicamente nel campo del marketing, e deve in qualche modo accettare che la sua conoscenza specifica venga utilizzata come “ingrediente” di un prodotto più articolato e complesso. Ciò che della statistica si applica in questo settore è comunque una frazione abbastanza limitata e molto specifica.” “Abbiamo toccato il tema delle istituzioni che garantiscono la qualità. In Italia l’ASSIRM nacque con una forte connotazione sul piano della qualità, e gli istituti che la costituirono volevano distinguersi rispetto ad altri proprio per le garanzie di metodo, qualità, capacità tecniche che si impegnavano a fornire. Oggi invece l’ASSIRM raggruppa praticamente tutti gli istituti che fanno ricerche, e quindi non vi è più un valore di “differenziazione” di alcuni rispetto ad altri: come si esprime, allora, l’attenzione alla qualità?”. “L’ASSIRM era nata come un’associazione di istituti prevalentemente grandi, e si era data uno statuto molto limitativo: l’accettazione di un nuovo associato prevedeva limiti di fatturato, di referenze. Questa scelta era legata a una fase storica in cui si voleva creare una consapevolezza, un’identità di un settore che era poco conosciuto. Poi, alla fine degli anni ’90, soprattutto in concomitanza con l’introduzione della normativa sulla privacy, l’associazione si è trovata sempre più spesso a svolgere un ruolo di rappresentante del- 5 la categoria ed è sembrato naturale e necessario far evolvere l’ASSIRM in una vera e propria associazione di settore, fino ad associarsi in Confindustria. Ovviamente, questo ha comportato la scelta di rimuovere i limiti all’ammissione di nuovi soci, in modo che qualsiasi azienda che svolga quest’attività economica possa effettivamente associarsi ed essere rappresentata. L’ASSIRM ha comunque mantenuto un rigido codice deontologico, dei propri criteri di certificazione di qualità, e si è dotata di un comitato disciplinare che verifica, in modo oggettivo, l’applicazione degli standard previsti da parte degli associati. L’attenzione alla qualità, quindi, è cambiata nelle forme e nelle regole, ma non è per questo ridotta.” D. “Quali opportunità vede per sviluppare un utile rapporto fra un’associazione di imprese come l’ASSIRM e un’associazione scientifica come la SIS?” R. “Noi crediamo che sia molto importante per l’ASSIRM sviluppare una collaborazione con la SIS, così come anche con tutte quelle istituzioni che, pur se non in logica imprenditoriale e commerciale, hanno un comune interesse nel settore delle ricerche basate su rilevazioni sul campo. Certamente, un primo ambito di possibile collaborazione è quello della formazione: abbiamo già sviluppato delle iniziative con alcuni istituti universitari, collaborando alla realizzazione di master e ospitando degli accademici all’interno dei nostri corsi di ricerche di mercato; queste iniziative devono essere ampliate. Ma credo anche che sarebbe molto utile sviluppare una più intensa collaborazione fra le imprese private e le istituzioni universitarie e gli scienziati “teorici” in generale. Su questo tema in particolare, credo che il problema principale sia quello di snellire le modalità e i tempi con cui si può definire una collaborazione: per un’azienda che opera sul mercato, spesso i tempi che vanno dalla progettazione alla realizzazione di una ricerca sono di poche settimane, e questo spesso finisce per impedire la collaborazione, ad esempio, con un istituto universitario. Comunque, ritengo senz’altro utile aprire un canale fra ASSIRM e SIS per esplorare diverse opportunità di scambio, e sono certo che anche quest’intervista contribuirà allo scopo!”. 6 Statistica & Società Aziende, Statistica, Statistici Franco Tassinari Dipartimento di Scienze Statistiche “Paolo Fortunati”, Università di Bologna. e-mail: [email protected] Incertezze dell’oggi Se si conviene che la Statistica consista essenzialmente in un insieme di strumenti logici e matematico-probabilistici per la misura e il trattamento di insiemi di informazioni configurabili come fenomeni di massa, ne deriva che la sua conoscenza non solo è cruciale in ambito scientifico, ma fondamentale nella gestione aziendale e di non trascurabile importanza nella vita quotidiana. È ovvio, d’altro canto, che la formazione degli specialisti e la disseminazione del sapere e della cultura statistica nella società sono compiti primari della comunità degli statistici accademici. Il tentativo di riaprire la discussione sulle prospettive della Statistica in Italia e, in particolare, sull’uso che ne viene fatto nelle aziende pone, a mio parere, l’esigenza di partire da alcune considerazioni sull’attuale situazione universitaria e dalle incertezze che sembrano segnarne le prospettive. La marcata espansione degli iscritti e i cambiamenti profondi degli ordinamenti didattici rendono, giorno dopo giorno, la vita degli atenei sempre più complicata. A ciò si aggiungono il blocco delle prese di servizio dei docenti vincitori di concorso, i tagli ai bilanci con le inevitabili ricadute negative sulla ricerca e sulla didattica, i ritardi di una nuova disciplina dei concorsi e della riforma dello stato giuridico dei docenti, la minaccia incombente di una sottrazione di competenze e di riduzione dell’autonomia. Di particolare gravità mi sembra anche la mancanza di una valutazione severa dei risultati delle modifiche introdotte agli ordinamenti didattici sui quali sembra dovrà innestarsi la nuova architettura ad Y, che comporterà inevitabilmente per la sperimentazione in atto da un triennio ulteriori complicazioni per la coesistenza del vecchio, del nuovo e del nuovissimo ordinamento e che si prolungherà per almeno altri tre-quattro anni con un inevitabile aumento di gravi incertezze per gli studenti e di problemi organizzativi per le facoltà. Sostanzialmente, alla riforma degli ordinamenti didattici il mondo accademico non si è opposto. Al contrario, prestando scarsa attenzione al fatto che la laurea triennale deve accorciare i tempi di permanenza dei giovani all’università e assicurare opportunità effettive di inserimento nel mercato del lavoro, una parte non trascurabile della corporazione accademica ha interpretato questi obiettivi introducendo nuove materie e aumentando in non pochi casi il numero delle prove d’esame rispetto ai corsi di durata quadriennale e senza preoccuparsi eccessivamente di rinnovare forme e metodi della didattica. Il risultato è che la riforma – alla quale sono stati posti in ritardo alcuni paletti con l’introduzione per i singoli corsi di studio di requisiti minimi in termini di iscritti, di docenti e di strutture (non sempre rispettati) – ha prodotto una estrema diversificazione di lauree, in alcuni comparti addirittura eccessiva, a cui le immatricolazioni non hanno ancora dato risposte adeguate. Di fatto, impostando su basi specialistiche numerosi corsi di studio triennali, si è sacrificata la dimensione culturale generale dei processi formativi rendendo più rigida la transizione dei giovani nel mondo del lavoro. Il disorientamento nella scelta del corso di laurea e l’attuale stato di confusione delle facoltà universitarie si giustificano quindi ampiamente. E per quanto riguarda l’area disciplinare in cui trovano spazio le discipline statistiche, la difficoltà di valutare in modo chiaro le professionalità dei nuovi titoli di studio inducono i giovani a preferire i corsi di laurea già ampiamente collaudati delle Facoltà di Economia, di Scienze politiche, di Giurisprudenza e di Ingegneria. Uno scoglio da superare Nel quadro appena abbozzato le Facoltà di Scienze Statistiche, che sono corsi di studio con pochi iscritti e che proprio per il rapporto favorevole studenti/docenti sono in grado di formare giovani ben Statistica & Società preparati e di qualità professionali elevate, incontrano sotto diversi aspetti difficoltà non trascurabili. Ai giovani che si laureano nelle discipline statistiche il mercato del lavoro offre non solo la possibilità di inserirsi in tempi estremamente rapidi in pressoché tutti i settori produttivi, ma anche nuove opportunità di lavoro favorite dal recente sviluppo delle tecnologie del trattamento delle informazioni e della comunicazione. Tuttavia, come qualche mese fa rilevava Il Sole-24 Ore, queste facoltà non sono in grado attualmente di soddisfare la domanda potenziale di laureati. Quello del basso numero di laureati è lo scoglio da superare. Ma a fronte di una situazione all’apparenza favorevole, i corsi di laurea nelle discipline statistiche stentano paradossalmente ad attrarre i giovani, come dimostra da alcuni anni la crisi delle iscrizioni che neppure le provvidenze previste da quest’anno per i nuovi immatricolati e la recente riforma degli ordinamenti didattici sembrano in grado di risolvere. Formulare una diagnosi sul calo delle iscrizioni, che non è congiunturale come qualcuno è portato a pensare, è difficile perché le cause sono al tempo stesso numerose e complesse. Ma è certo incontestabile che il livello tendenzialmente alto degli standard richiesti da questi corsi di studio (non sempre pienamente giustificato) favorisce la concorrenza molto forte delle lauree economiche e sociologico-politiche che non di rado i giovani prediligono per le minori difficoltà da affrontare. Parimenti incontestabile è la scarsa presenza e, di conseguenza, la visibilità limitata delle Facoltà di Scienze Statistiche, cinque in tutto (a Milano, Padova, Bologna, Roma e Messina), alle quali si aggiungono i corsi di laurea nelle discipline statistiche di alcune Facoltà di Economia, in un sistema universitario che conta oltre 500 facoltà distribuite fra 74 atenei (che sembrano molti ma che in realtà ci collocano in coda fra i paesi dell’Ocde) e poco meno di 3000 corsi triennali del nuovo ordinamento. Ovvio quindi che sia estremamente difficile attrarre giovani al di fuori dei tradizionali bacini di utenza dei singoli atenei. Ma a mio parere vi sono anche altre ragioni che spiegano il basso numero di iscritti; ragioni connesse alla scarsa cultura statistica del nostro paese, del 1 2 7 tutto anomala per una società sviluppata che nell’informazione e nella conoscenza dovrebbe trovare il suo punto di forza. In Italia, coloro che hanno idee abbastanza chiare sulla Statistica sono ancora relativamente pochi – direi, anzi – troppo pochi. Del resto, la disciplina manca od è sostanzialmente ignorata nell’istruzione secondaria, ha da tempo un ruolo marginale in numerose facoltà di Economia ed è assente in pratica nei corsi di laurea in Ingegneria gestionale e di Giurisprudenza, in corsi di studio cioè deputati alla formazione dei quadri dirigenziali delle aziende e della pubblica amministrazione. E a questo riguardo è appena il caso di sottolineare che se il dirigente non ha quanto meno mentalità statistica sarà difficile che capisca l’importanza delle tecniche quantitative e ne favorisca l’impiego all’interno dell’azienda. C’è, d’altra parte, un altro aspetto che non può non preoccupare: mi riferisco a quella sorta di deresponsabilizzazione sociale che, come sostiene Giacomo Becattini1 riferendosi agli economisti, accompagna la crescente specializzazione dei ricercatori e dalla quale non vanno esenti – di questo sono convinto – neppure gli statistici. Anche Stephen Gould riprende Benjamin Disraeli Lo scrittore inglese Herbert G. Wells sosteneva circa un secolo fa che il pensare in termini statistici sarà necessario un giorno per una vita civile ed efficiente quanto l’abilità del saper leggere e scrivere. Wells, in fondo, aveva visto giusto, ma non fu buon profeta. Più di recente Ian Hacking scrive che “la gente ha imparato ad usare i numeri […] e saper calcolare è considerato altrettanto importante che leggere e scrivere”2. Ma tutto sommato siamo ancora ben lontani dall’intendere correttamente la Statistica e dall’acquisizione di uno stile di ragionamento statistico corretto. Sono ben note, d’altra parte, e forse non casuali, le canzonature che circolano da molto tempo sulla disciplina, che non servono a fare chiarezza ma piuttosto ad alimentare confusione e opinioni distorte: dalla battuta di Trilussa all’aforisma attribuito a Disraeli, oltretutto continuamente ripre- G. BECATTINI, Per una critica dell’economia contemporanea, in “Società Italiana degli Storici della Economia. La storia dell’economia nella ricerca e nell’insegnamento”, Bari, 1996, p. 255. L’epistemologo canadese IAN HACKING ha dedicato un libro intitolato dall’editore italiano Il caso domato (Milano, 1994) al dibattito ottocentesco sui rapporti fra scienza e probabilità e, in estrema sintesi, all’erosione del determinismo. 8 Statistica & Società so 3. E difatti è di pochi mesi fa un articolo de L’Espresso che riferiva come il biologo Stephen Gould avesse riproposto la distinzione fra le bugie, le dannate bugie e la statistica. Non sono certamente pochi coloro che sostengono che non di rado il modo statistico di ragionare può risultare più efficace del ricorso a strumenti e a metodi complessi e ad elaborazioni sofisticate. Ma è dubbio che una posizione di questo tipo possa essere generalmente sostenuta. La conoscenza superficiale della Statistica coinvolge anche e soprattutto numerose aziende, specie di piccola e media dimensione, dove i metodi che qualificano il corpus della disciplina risultano di fatto poco o niente utilizzati, mentre gli statistici occupano uno spazio assai limitato e posizioni marginali o addirittura non esistono. Ovviamente generalizzare a questo riguardo non è lecito. Ed infatti, soprattutto le società di consulenza rilevano che nell’ambito di alcune piccole e medie aziende industriali emerge la consapevolezza che il vero fattore di integrazione tra i processi aziendali è la circolazione efficiente dei dati e che il dato rappresenta l’elemento integratore. Alla luce di questa visione vi sono aziende che hanno scoperto che la vera inefficienza consiste nell’avere al proprio interno dati eterogenei, raccolti e distribuiti in modo non programmato, non comunicanti tra loro e, soprattutto, scarsamente utilizzati4. Se, d’altro canto, ci si sposta nell’ambito delle grandi imprese una testimonianza esemplare è stata portata al convegno dell’Istituto Internazionale di Statistica tenutosi a Berlino nell’agosto 2003 dalla Nestlé. Ma sono ancora molte, troppe le aziende in cui è diffusa l’idea che la Statistica consista essenzialmente nella raccolta più o meno sistematica e organizzata di dati economici, amministrativi e contabili: un’idea della disciplina del tutto riduttiva e ancillare. Nel sistema delle funzioni di controllo della gestione aziendale, che pure ha registrato in questi anni uno sviluppo considerevole, non è stato introdotta a livello operativo alcuna sostanziale utilizzazione dei metodi statistici. In tal modo anche là dove viene prodotta una grande quantità di informazioni, in mancanza di competenze statistiche le funzioni di controllo, organizzazione, elaborazione, analisi e in- 3 4 terpretazione dei dati apportano inevitabilmente alla gestione aziendale contributi di conoscenza molto inferiori alle loro potenzialità. Questo purtroppo sta a significare che anche nell’insegnamento universitario i rapporti di interscambio soprattutto fra statistici e docenti di discipline aziendali non hanno fatto grandi progressi. Così come non produssero risultati significativi alcuni convegni dedicati alla Statistica Aziendale congiuntamente promossi nel corso degli anni Cinquanta da statistici e aziendalisti di chiara fama. Sotto questo profilo mezzo secolo sembra passato quasi invano! Un esempio sull’idea vaga che si ha della Statistica lo troviamo nel Documento della Commissione paritetica per i Principi di Revisione del Consiglio Nazionale dei Dottori commercialisti e del Consiglio Nazionale dei Ragionieri dal titolo “Il campionamento nella revisione” (l’edizione è del 1995) dove si legge che il campionamento può essere fatto o meno con metodi statistici e che “tutti i metodi di campionamento, quando correttamente applicati, forniscono sufficienti ed appropriate evidenze probative”. Ed ancora: ”il revisore deve usare il proprio giudizio professionale nel determinare e selezionare il campione da esaminare, nello svolgere sul campione le procedure di revisione e nel valutare i risultati ottenuti dalla applicazione di tali procedure di revisione”. Non insisto nella citazione. Mi limito soltanto a sottolineare la grossolanità e, in fondo, la pericolosità di affermazioni come quelle riportate. Le vicende recentissime dell’americana Enron e dell’italiana Parmalat testimoniano quanto meno lo scarso rigore con cui si effettuano revisioni e certificazioni. Gli eccessi della formalizzazione Un’altra posizione ricorrente sulla Statistica è quella di chi la immagina come una disciplina assai vicina o addirittura coincidente con la matematica e quindi una disciplina essenzialmente astratta. Ora, se è vero che nelle riviste scientifiche la scena è dominata dal modo di esprimersi matematico – ed è da condividere quindi la posizione di Alfredo Rizzi espressa su questa rivista secondo il quale si sta as- Negli Stati Uniti ha avuto un grande successo editoriale (oltre mezzo milione di copie vendute) un libretto di DURREL HUFF dal titolo How to Lie with Statistics, corredato di illustrazioni umoristiche, pubblicato (New York – London) nel 1954 e ristampato nel 1982. G. CAPITANI, La strategia è governare i dati, in “Il Sole – 24 Ore”, 22 gennaio 2004, p. 7. Statistica & Società sistendo ad una formalizzazione forse eccessiva dei metodi statistici – è d’altra parte fuori discussione che il matematico e lo statistico siano figure con fisionomie funzionali e professionali nettamente distinte. Quanto alle raccolte di dati statistici aziendali e generali (le statistiche appunto, ufficiali e non, ma non la Statistica) è superfluo almeno in questa sede precisare che rappresentano un ingrediente indispensabile delle analisi quantitative. Gli analisti più avvertiti sottolineano peraltro e da tempo l’urgenza di migliorare la capacità di lettura dei dati che documentano le tendenze e le principali trasformazioni economiche sia a livello aziendale che dell’intero sistema economico. Con ciò intendo dire che il dato statistico prima di tutto va letto in modo corretto e successivamente interpretato. Altra cosa dalla lettura, infatti, è l’interpretazione, che può essere diversa se diversi sono i punti di partenza da cui ci si muove. In altre parole, non ci si deve sorprendere se uno stesso risultato viene interpretato in modo diverso da analisti che partono da punti di vista diversi. In realtà, non sono tanto le statistiche che rappresentano la risorsa scarsa come molto spesso si crede e si sente dire, quanto piuttosto la capacità di leggerle correttamente, operazione certo non banale che richiede la conoscenza critica dei processi formativi da cui i dati stessi provengono. I risultati delle rilevazioni statistiche e i dati amministrativi e contabili (questi ultimi di importanza cruciale per le esigenze conoscitive della gestione aziendale e come supporto alle decisioni del management se utilizzati secondo un approccio statistico) vanno in ogni caso qualitativamente migliorati e arricchiti. Questa però è questione diversa da quella a cui ho fatto cenno sopra. La gestione di un’azienda deve necessariamente utilizzare dati che siano omogenei nella forma e nella sostanza per riuscire a descrivere in termini comparativi i vari aspetti di interesse. Ma l’analisi quantitativa dei processi economici interni ed esterni all’azienda è un’operazione complessa e – come ho già detto – è cosa diversa della semplice lettura dei risultati statistici. La Statistica modernamente intesa è configurabile come un insieme di metodi, di tecniche e di modelli che per l’apporto decisivo della teoria della pro- 5 9 babilità sono utilizzabili in quelle situazioni in cui si devono prendere decisioni in condizioni di incertezza. Sia chiaro, non strumenti per ricondurre alla certezza l’incertezza, che dipende da circostanze esterne e da aspetti non osservabili ed è un obiettivo impossibile da raggiungere, ma strumenti per ridurre – o controllare, potrei dire – l’incertezza e i rischi connessi alla assunzione di decisioni errate. Mi piace ricordare a questo punto quanto scriveva un grande statistico italiano, Rodolfo Benini5, un secolo fa: obiettivo dell’analisi statistica è quello: a) “di distinguere nei fenomeni di massa ciò che vi è di tipico nella varietà dei casi [nel senso che risponde ad una nostra idea di perfezione], di costante nella variabilità, di più probabile nell’apparente accidentalità; b) di decomporre, fino al limite che la natura del metodo [statistico] consente, il sistema di cause o forze, di cui essi fenomeni sono la risultante”. Quelli di Benini sono pilastri su cui la Statistica è ancora solidamente ancorata. La necessità di prendere decisioni in situazioni aleatorie è tipica della vita delle aziende, dove non si lavora mai sul certo ma sempre sul probabile (è una espressione ripresa da de Finetti). La produzione di grandi masse di dati e la possibilità di organizzarli in forma sistemica ha aperto nuovi orizzonti al loro utilizzo. Con il contributo fondamentale e imprescindibile delle tecnologie informatiche, dal noto lavoro pionieristico di Harold Hotelling del 1933 sulle componenti principali alle attuali procedure del Data Mining l’analisi statistica dei dati ha fatto molta strada. In ambito aziendale tuttavia per una più estesa e corretta diffusione di questi e dei metodi statistici in generale – giova ripeterlo – c’è ancora molto da fare. Sta agli statistici quindi impostare una linea di azione tesa a consolidare nei manager, nei dirigenti e negli addetti ai controlli operativi della gestione la capacità di riconoscere, da un lato, l’utilità e la qualità dei dati da utilizzare e, dall’altro, la correttezza nell’uso dei metodi, in sostanza la verifica intelligente e flessibile delle condizioni della loro applicabilità; un percorso che eviti soprattutto le scorciatoie e le seduzioni dei pacchetti informatici, sempre più potenti e versatili, ma anche fonti potenziali di pericoli se vengono utilizzati in modo acritico. R. BENINI, Principi di Statistica Metodologica, Torino, 1906, passim. 10 Statistica & Società Inganni dei numeri e sconfitte dei Nobel Mi sembra utile segnalare, anche se saranno noti a numerosi lettori, due libri di godibilissima lettura, resi disponibili nella traduzione italiana, che trattano essenzialmente il problema dell’analfabetismo statistico e i pericoli che possono derivare dall’uso improprio di metodi e modelli statistici. Del primo è autore Gerd Gigerenzer6, direttore del Center for Adaptive Behavior and Cognition del Max Planck Institut di Berlino che da anni si occupa di probabilità, statistica e degli aspetti psicologici legati al comportamento in condizioni di incertezza. Punto di partenza del libro è la constatazione di come siano numerose le persone che non esitano quotidianamente ad utilizzare dati statistici di varia natura senza riuscire ad interpretarli criticamente e mettendo in luce di conseguenza scarsa dimestichezza con il ragionamento probabilistico e con le indagini statistiche; a sua volta l’obiettivo è di fornire mediante il ricorso a casi concreti illustrati in modo estremamente semplice gli strumenti mentali per imparare a ragionare in modo statisticamente corretto attraverso una idonea rappresentazione del rischio. Il secondo volume è di Nicholas Dunbar7, editor tecnico-scientifico della rivista “Risk”. Nell’Introduzione all’edizione italiana cui è stato dato il curioso titolo Anche i Nobel perdono si racconta che “con slogan come ‘gestione del rischio’ e ‘ingegneria finanziaria’ alcuni visionari [così li definisce l’autore] avevano accarezzato l’idea di rendere scientifico ciò che fino ad allora era stato pura speculazione e scommessa. Leader dei visionari erano Robert C. Merton e Myron Scholes, premi Nobel per l’economia nel 1997 grazie alla loro teoria sul prezzo delle opzioni”8. In precedenza, nel 1993, sulla base dei risultati delle loro ricerche e con l’aiuto di importanti banchieri i due studiosi fondarono una società finanziaria (Long-Term Capital Management), con il proposito di ripulire il mercato da ogni inefficien- 6 7 8 9 za e di ottenere in cambio miliardi di dollari di utili (come si verificò in breve tempo), apparentemente senza assumersi rischi. Ma nell’estate del 1998 le loro teorie e i modelli relativi smisero di funzionare al punto che 14 banche dovettero fare fronte al disastro e creare sotto la guida della FED americana un cuscinetto da tre miliardi e mezzo di dollari per sostenere lo LTCM mentre si procedeva al suo smantellamento. Scopo del libro non è la demonizzazione dei modelli statistici messi a punto dai due premi Nobel: tutt’altro. La conclusione sostanziale è quella, anzi, di sottolineare che le cause scatenanti di una vicenda così complessa vanno ricercate nell’avidità degli uomini che guidavano le banche, quindi nei modi impropri di utilizzare i modelli e, in qualche misura forse, nelle caratteristiche di molti cicli storici in cui alla ‘bolla’ speculativa segue il crollo. Ma – come osserva acutamente Guido Rossi9 riferendo il discorso sulla cupidigia alla malattia del capitalismo finanziario – i comportamenti e la morale (o meglio la sua scomparsa) sono soltanto un segmento del problema. Come è ovvio, l’esempio serve a sottolineare ancora una volta i pericoli in cui può incorrere chi applica in modo acritico metodi e modelli statistici e quindi senza essere in grado di valutare il significato delle ipotesi alla base dei vari procedimenti e la coerenza con la natura sostanziale del fenomeno. Non è peraltro da escludere che nel modello in se possano annidarsi equivoci pericolosi o forse anche errori sostanziali. Aggiungo, riferendomi più in generale al quotidiano, che nelle fasi assai delicate dell’interpretazione dei risultati di una elaborazione statistica complessa può far danni – come ho appena osservato –, in assenza di una buona conoscenza dei metodi utilizzati, la sempre maggiore accessibilità agli strumenti di calcolo automatico e il ricorso ingenuo ai software statistici, peraltro strumenti indispensabili allo specialista. G. GIGERENZER, Calculated Risks, 2002 (nella traduzione italiana: Quando i numeri ingannano. Imparare a vivere con l’incertezza, Milano, 2003. N. DUNBAR, Inventing Money, Chichester, 2000 (traduz. italiana: Anche i Nobel perdono. Idee, persone e fatti della finanza, Milano, 2003). L’impiego dei metodi statistici e della matematica nelle analisi finanziarie ha registrato negli ultimi 30-40 anni sviluppi notevoli. Si è fatta chiarezza su alcuni fondamentali quesiti relativi alla finanza e, fra l’altro, su che cos’è il rischio, come va misurato e come può essere gestito. Emblematica, a questo riguardo, è la teoria delle decisioni di Markowitz basata sul principio della diversificazione del portafoglio. G. ROSSI, Il conflitto epidemico, Milano, 2003. Statistica & Società Prognosi Dopo alcuni accertamenti diagnostici, sia pure pervasi da incertezze, mi permetto di suggerire, a mo’ di conclusione, alcuni interventi, individuando in primo luogo i soggetti in grado di realizzarli. Mi sembra ovvio sottolineare che l’azione di recupero dello stato di arretratezza in cui versa la conoscenza della Statistica in Italia vada affidata prioritariamente ai Dipartimenti universitari di Scienze Statistiche e alla Società Italiana di Statistica, organismo istituzionalmente preposto alla diffusione della cultura statistica. Alcune iniziative molto semplici e di rapida attuazione potrebbero essere le seguenti: a) Approfondire i rapporti fra dipartimenti di discipline statistiche, dipartimenti economici ed economico–aziendali per avviare in comune progetti di ricerca nazionali. b) Dare vita ad un bollettino di informazioni in una prima fase (ma puntare al più presto ad una rivista) con una larga diffusione fra le aziende che presenti criticamente dati statistici ufficiali mettendone in luce la qualità e la portata investigativa, che segnali con commenti adeguati risultati di ricerche nazionali e internazionali di interesse per le aziende, che illustri le caratteristiche dei nuovi pacchetti informatici, ecc. c) Prestare particolare attenzione ai programmi di contenuto statistico della scuola superiore per evitare, come si verifica da tempo, che le discipline statistiche là dove sono previste dai programmi ministeriali vengano trascurate o svolte da personale incompetente. A tale fine risulterebbero utili corsi di formazione e di aggiornamento per gli insegnanti. Ma vi sono almeno altre due iniziative su cui è opportuno riflettere. 11 d) Organizzare master in Statistica per l’azienda a distanza. La diffusione della cultura statistica applicata a problemi aziendali deve anche transitare per una formazione rivolta a destinatari che già ricoprono ruoli operativi in impresa. Un’esigenza formativa di questo tipo non può evidentemente essere veicolata attraverso tradizionali master a tempo pieno. In questo senso è importante evidentemente sfruttare le opportunità offerte dalle nuove tecnologie formative. L’Università di Bologna, ad esempio, è in prima fila nell’implementazione di percorsi di e-learning appositamente progettati per un utente già inserito nel mondo del lavoro. Percorsi di studio personalizzati fruibili in remoto attraverso un personal computer, affiancati da sessioni full immersion collocate nel fine settimana, all’interno delle quali analizzare e discutere casi e problemi operativi, rappresentano una ulteriore possibilità di diffusione del sapere statistico che non dovrebbe essere trascurata. e) Promuovere cicli di seminari tematici per incentivare i rapporti fra l’ambiente accademico e quello imprenditoriale. I seminari potrebbero favorire la costituzione di spin-off accademici, ossia nuove attività imprenditoriali che traggono spunto da esperienze e ricerche realizzate presso i dipartimenti statistici che si occupano di problemi delle aziende. L’opportunità di costruire spin-off accademici su temi di ricerca statistica applicata ai fenomeni economici e aziendali in particolare rappresenta un’ulteriore opportunità che non può non essere indagata e, se possibile, percorsa con determinazione. L’auspicio a questo punto è che la comunità degli statistici soffermi l’attenzione sulle questioni richiamate e in parte appena adombrate e ne faccia oggetto di rapida e sistematica riflessione. 12 Statistica & Società Scenari per L’Europa al 2030: una ricerca dell’IRPPS Rossella Palomba IRPPS (Istituto di Ricerche sulla Popolazione e le Politiche Sociali) CNR. e-mail: [email protected] Studiare il futuro attraverso scenari Decisori, amministratori pubblici, famiglie, singoli individui si pongono spesso domande sul futuro: come sarà il futuro? Quali azioni politiche possono realmente migliorare la qualità della vita dei cittadini? Come si risolveranno in futuro le controversie politiche in atto? La risposta a domande complesse come queste non può arrivare da studi disciplinari o settoriali siano essi di tipo demografico che di mercato. Da questo tipo di analisi ci si può aspettare previsioni limitate ad alcuni settori della società come il mercato del lavoro, le pensioni o il numero di abitanti, tanto per rimanere in campo economico o demografico, ma queste informazioni non sono sufficienti a disegnare scenari futuri, ad individuare politiche che mirino ad un reale progresso sociale e misure appropriate per realizzarle. Per cercare di ampliare la prospettiva sul futuro, la Commissione Europea ha finanziato recentemente l’IRPPS perché conducesse uno studio che aveva l’obiettivo di disegnare scenari al 2030 in termini di grandi priorità politiche e di azioni concrete destinate a realizzarle. Lo studio è stato condotto in 15 paesi europei (Austria, Belgio, Cipro, Estonia, Finlandia, Germania, Italia, Lituania, Olanda, Polonia, Romania, Repubblica Ceca e Slovacca, Slovenia, Svizzera, Ungheria) ed ha riguardato tre grandi temi: invecchiamento, famiglia e fecondità e ruoli di genere. Uno studio analogo è stato condotto a livello di organizzazioni internazionali europee quali ad esempio Commissione Europea, Parlamento, Consiglio d’Europa. Per realizzare lo studio il gruppo di ricerca dell’IRPPS ha messo a punto una nuova metodologia di scenario planning. Nelle previsioni demografiche o economiche fatte dagli specialisti del settore, gli esperti stabiliscono delle ipotesi di sviluppo delle tendenze presenti. Queste ipotesi si rivelano spesso poco realistiche e troppo riduttive della realtà complessa oggetto di analisi, poiché tralasciano per semplicità e necessità di analisi di considerare tutte le possibili sinergie con settori diversi da quello di studio e si limitano a periodi di tempo breve, poiché i dati su cui si fondano sono soggetti a rapidi cambiamenti. Uno scenario invece presenta immagini alternative del futuro come conseguenza di possibili decisioni (politiche, imprenditoriali o organizzative) senza basarsi unicamente sulla estrapolazione delle tendenze esistenti. Ne deriva che il risultato di uno scenario futuro (il cosiddetto scenario planning), non è mai una fotografia accurata di quello che accadrà né va confuso con tecniche previsive di tipo quantitativo. Uno scenario è la descrizione quali-quantitativa di una possibile realtà futura a seguito di decisioni prese: l’aspetto importante, a differenza di una previsione, è perciò l’obiettivo o gli obiettivi che si intendono raggiungere e la valutazione della loro fattibilità alla luce di possibili azioni che si intraprendono. L’idea sviluppata dal gruppo di ricerca dell’IRPPS nella definizione di scenari possibili parte dalla constatazione che è importante capire i problemi della realtà che ci circonda e le cause che li hanno generati, ma, se partiamo solo da questo per progettare il domani, se guardiamo ed analizziamo la realtà sempre in maniera problematica - e in fondo anche semplicistica - non possiamo trovare soluzioni innovative né avere “visioni innovative” del futuro. È ovvio che le nostre azioni dipendano dalla storia passata e dall’esperienza vissuta, ma la presenza di un passato e di problemi nel presente non deve rappresentare un ostacolo per favorire la messa in atto di nuove opzioni o un’insormontabile barriera ad immaginare, sognare, disegnare un futuro migliore o semplicemente a far emergere nuove possibilità. Un atteggiamento che guarda solo alla negatività e alle difficoltà del presente non fa altro che trasportare nel futuro i problemi di oggi. L’idea dell’IRPPS è stata quella di disegnare un futuro che non parta da una mera estrapolazione del presente e soprattutto dei problemi del presente. Un possibile futuro nuovo svincolato dai problemi esistenti; quel futuro che vorremmo vedere realizzato; il futuro che sogniamo. In questo articolo verrà brevemente illustrato il nuovo metodo di disegno di scenari e presentata una sintesi dei risultati a livello europeo. Statistica & Società Il metodo Disegnare uno scenario implica l’utilizzo della creatività e l’impiego di tecniche adeguate. Nel nostro caso abbiamo utilizzato un tecnica di tipo policyDelphi integrata con metodologie di appreciative inquiry e l’analisi SWOT (Strenghts, Weaknesses, Opportunities, Threats). Le indagini di tipo Delfi consentono attraverso un processo iterativo di raggiungere il consenso sulla soluzione di problemi complessi nell’ambito di un gruppo di esperti/patrocinatori di idee e pensieri, che né entrano mai in contatto nel corso del processo né sono al corrente di chi siano gli altri membri che compongono il gruppo. L’idea di base di una indagine Delfi è quella di far circolare in forma anonima all’interno del gruppo (panel) le diverse posizioni dei partecipanti, consentire a ciascuno di modificare la propria posizione una volta venuti a conoscenza di quelle degli altri e trovare così una convergenza sulle soluzioni possibili, anche in situazioni di forte discordanza iniziale e eterogeneità delle posizioni ideologiche. L’anonimato impedisce alle persone più autorevoli e influenti di prevalere sulle altre e consente a tutti di rivedere i propri giudizi con maggiore libertà, senza dover difendere davanti agli altri le proprie opinioni. All’idea base della tecnica Delfi, cioè al raggiungimento del consenso sulla soluzione di un problema complesso, abbiamo abbinato la metodologia della appreciative inquiry, che consiste nell’immaginare, valorizzare e apprezzare il meglio di ciò che esiste, riflettere su come la società potrebbe essere e favorire il dialogo su come dovrebbe essere. Copperrider (1987), che è il fondatore di questa metodologia di indagine, ritiene infatti che i sistemi sociali possono evolvere verso l’immagine positiva che hanno collettivamente creato. Il panel di esperti che ha partecipato al nostro Delfi doveva perciò delineare il “sogno”, il futuro positivo da realizzare e raggiungere collettivamente, individuando le azioni politiche necessarie per realizzarlo in accordo con la tecnica dell’ appreciative inquiry. Il nostro obiettivo non era quello di disegnare un futuro utopico, ma di immaginare scenari futuri realistici e fattibili, che unissero il sogno di una società migliore alla sua messa in pratica attraverso azioni politiche adeguate. Per far questo è stato chiesto agli esperti non solo di indicare quali obiettivi politici andassero perseguiti per migliorare le società dei 15 paesi oggetto di analisi, ma anche il loro grado di fattibilità. 13 Inoltre, una volta definito lo scenario per il 2030, gli intervistati dovevano condurre un’analisi di tipo SWOT. L’analisi SWOT è una delle metodologie attualmente più diffuse per la valutazione di progetti. In generale, quando si fa una previsione o si disegna uno scenario futuro si tende ad avere un solo punto di vista. Se questo è troppo pessimistico si finisce per stroncare le idee nuove e le possibilità di vera innovazione; se è troppo ottimistico, si rischia di avventurarsi in un percorso difficile senza averne le necessarie potenzialità. Con l’analisi SWOT invece si è costretti ad analizzare un problema da quattro punti di vista diversi e contrastanti. Si tratta di un procedimento di tipo logico, sviluppato nell’ambito dell’economia aziendale, che consente di valutare i rischi e le potenzialità, sia esogene che endogene, relative alla realizzabilità di un progetto e di definire azioni strategiche e linee di intervento per facilitare il successo del progetto stesso. I fattori endogeni sono i cosiddetti punti di forza e punti di debolezza del progetto, mentre quelli esogeni sono le opportunità e rischi connessi al progetto stesso. Tra i primi si considerano tutti quegli elementi che fanno parte integrante del sistema in esame, sui quali è possibile intervenire per perseguire gli obiettivi prefissati. Tra i secondi, invece, si trovano le variabili esterne al sistema, che però possono condizionare sia positivamente che negativamente la realizzazione del progetto analizzato. Nel caso dei fattori esogeni non è possibile intervenire direttamente su di essi, ma è opportuno predisporre strutture di controllo che individuino questi fattori e ne analizzino l’evoluzione al fine di prevenire gli eventi negativi e sfruttare quelli positivi. Nel nostro caso abbiamo chiesto agli esperti di indicarci i punti di forza e di debolezza, le opportunità e i rischi connessi alla effettiva realizzazione dello scenario che avevano selezionato. In questo modo abbiamo potuto rafforzare la fattibilità dello scenario stesso, poiché nel momento in cui si definiscono le azioni politiche finalizzate a realizzare un determinato scenario sarà necessario appoggiarsi sui suoi punti di forza, smussarne i difetti, massimizzare le opportunità che vengono dall’esterno e ridurre i rischi che derivano da cambiamenti del contesto sia nazionale che internazionale. Oltre alla indicazione di politiche e azioni specifiche per realizzare lo scenario prefigurato al 2030, gli esperti intervistati dovevano, attraverso un processo grafico messo a punto dall’IRPPS, indicare le loro preferenze in termini di principali tendenze di 14 Statistica & Società popolazione. Infine, il panel di ciascun paese doveva auspicabilmente raggiungere il consenso sulla soluzione delle principali controversie politiche fonte di dibattito nazionale, non necessariamente limitate ai tre temi oggetto di analisi e cioè invecchiamento, famiglia e fecondità e ruoli di genere. Il processo seguito L’indagine Delfi era costituita da 4 round di interviste ad un panel di almeno 15 esperti in ciascun paese partecipante. Gli esperti erano persone in grado di influenzare in qualche modo il futuro. Non si trattava perciò di accademici ma di persone appartenenti a diverse organizzazioni industriali, sindacali, religiose, culturali, policy maker, gruppi di pressione, giornalisti ed esponenti delle amministrazioni locali. In ciascun paese si è partiti con un primo questionario di circa 50 obiettivi politici con almeno 400 misure per realizzarli, circa 10 tendenze di popolazione e una media di 15 controversie dibattute a livello paese. Il contenuto del questionario non era lo stesso in tutti i paesi: la comparabilità dei risultati era garantita solo dall’impiego della stessa metodologia. D’altra parte era impossibile pensare che in paesi così diversi si potesse partire con lo stesso questionario in termini di obiettivi politici, tendenze demografiche o controversie in atto. In ogni paese il questionario era suddiviso in 3 sezioni dedicate rispettivamente alle tendenze di popolazione, agli obiettivi politici e i fattori critici di successo e alle politiche “controverse”. In particolare il questionario era organizzato nel modo seguente: • Le tendenze di popolazione. L’obiettivo di questa sezione del questionario era quello di rilevare i desideri degli intervistati relativamente alla evoluzione della popolazione nei vari paesi, rappresentata da alcuni indicatori scelti ad hoc, che coglievano aspetti significativi dei tre temi oggetto di studio. Gli esperti, ai quali è stata mostrata una serie di curve, hanno dovuto disegnarne l’evoluzione al 2030, in base ai loro desideri. • Gli obiettivi politici e i fattori critici di successo. La seconda parte del questionario era finalizzata alla individuazione degli elementi più strettamente connessi alla definizione degli scenari politici. Obiettivi politici e fattori critici di successo sono elementi complementari dell’agire politico: i primi rappresentano l’oggetto dell’azione politica mentre i secondi indicano il modus di quell’agire ovvero il mezzo dell’azione. Nel nostro caso, i primi erano grandi priorità politiche da realizzare per il 2030; i secondi azioni concrete da intraprendere per garantire il successo dell’obiettivo politico prescelto. • Le politiche controverse. L’ultima sezione del questionario mirava a raccogliere l’opinione degli esperti in relazione ad una serie di argomenti che caratterizzavano il dibattito socio-politico nazionale e rispetto ai quali si manifestava un’elevata polarizzazione di opinioni. Questi argomenti sono stati definiti “politiche controverse”. Il quesito posto agli esperti mirava a rilevare se, dal loro punto di vista, una determinata legge dovesse o non dovesse essere mantenuta o, nel caso di proposte di legge, se fosse opportuno o meno porle in essere. Ciascuno dei round di indagine era concepito in modo da aggiungere ulteriori elementi di valutazione che facessero riflettere gli esperti. Nel passaggio da un round al successivo, venivano eliminati tutti quegli obiettivi e fattori di successo che non erano stati selezionati dagli intervistati o avevano raccolto un numero troppo limitato di consensi. La riduzione del numero di obiettivi politici prioritari avveniva anche in base al livello di desiderabilità, fattibilità, importanza associato dagli esperti ad un determinato obiettivo o fattore di successo. In questo modo passando da un round al successivo il numero di obiettivi politici e fattori di successo si è andato riducendo. Ad esempio nel caso dell’indagine Delfi italiana si è partiti al primo round di interviste con 40 obiettivi politici da realizzare nel 2030 e si è arrivati a selezionarne 21 nel terzo round. Questi obiettivi politici corredati con le loro misure di successo sono stati utilizzati per descrivere due scenari possibili per l’Italia al 2030 al quarto round dell’indagine Delfi (Palomba, 2005) (Grafico 1). A conclusione dell’indagine in tutti i paesi si sono ottenuti uno o più scenari con circa 20 obiettivi politici, 25-30 misure di successo per la loro attuazione, si è individuato il livello di fattibilità e desiderabilità di ciascuno scenario e si sono esplicitati rischi e potenzialità associati agli scenari indicati. I pannellisti hanno anche raggiunto il consenso sulle tendenze di popolazione auspicabili al 2030 e sulla soluzione alle principali controversie politiche in atto. Chi fosse interessato può trovare un rapporto più esteso sul metodo e sui risultati sul sito dell’IRPPS (www.irpps.cnr.it). Statistica & Società 15 16 14 12 10 8 6 4 Round 1 2 Round 2 0 Round 3 Invecchiamento Famiglia Genere Sintesi dei risultati europei Come già accennato in precedenza, ciascuno dei 15 paesi partecipanti ha ottenuto almeno due scenari: uno era molto desiderabile e molto fattibile, l’altro pur desiderabile era considerato fattibile solo a certe condizioni. Non è possibile entrare nel dettaglio di tutti i risultati ottenuti che sono estremamente ricchi di idee e di proposte per il futuro. In estrema sintesi sono emersi due fondamentali linee strategiche da perseguire: la prima riguarda gli anziani e la seconda la popolazione lavorativa. Per quanto riguarda i primi, è emerso che la loro effettiva integrazione sociale consentirà un futuro migliore. Questo può essere ottenuto attraverso un aumento della partecipazione attiva degli anziani al mercato del lavoro e alla vita sociale (ad esempio con la diffusione del job-sharing tra giovani e anziani, di part-time e di impiego di anziani in attività socialmente utili) e un prolungamento della loro indipendenza attraverso lo sviluppo e l’impiego di nuove tecnologie. In ogni caso secondo gli esperti è necessario un radicale cambiamento di atteggiamento verso il tema dell’invecchiamento della popolazione, oramai inevitabile, sia da parte dei politici che della società in generale. Per gli adulti, e le donne in particolare, è necessario introdurre politiche che realizzino effettivamente la conciliabilità tra lavoro e famiglia e consentano di trovare un giusto equilibrio tra vita privata e pubbli- Grafico 1: Riduzione degli obiettivi politici da realizzare al 2030 durante i tre round dell’indagine Delfi italiana secondo il numero di obiettivi e l’argomento ca. Per far questo è indispensabile agire sul mercato del lavoro, sulla sua organizzazione e sui suoi tempi e non più solo sul fronte dei servizi alle famiglie. Come realizzare questi scenari è fonte di una estrema ricchezza di idee e suggerimenti. Molti di questi sono legati al contesto nazionale in cui sono stati espressi, ma molti potrebbero essere facilmente esportati in altre realtà. Quello che emerge è che lo stesso obiettivo può essere raggiunto attraverso misure diverse che ne assicurino il successo. Ad esempio, la conciliabilità tra lavoro e famiglia può essere ottenuta secondo gli intervistati attraverso una maggiore flessibilità dell’organizzazione del lavoro, ma questo obiettivo si traduce in misure politiche diverse (Tabella 1). Dei due scenari al 2030, costruiti sulla base di grandi priorità politiche da perseguire e misure per la loro attuazione, gli intervistati dovevano indicare quali secondo loro fossero i maggior rischi e debolezze, opportunità e punti di forza associati agli scenari prescelti. Nella tabella 2 sono indicati i risultati complessivi della analisi SWOT. Da questa emerge che gli scenari futuri possono generare circoli virtuosi in termini ad esempio di aumento della solidarietà sociale, maggiore equità tra i generi, migliore qualità della vita, possono poggiarsi su aspetti esterni che facilitano l’attuazione degli scenari come un diverso orientamento sociale verso gli anziani o i 16 Statistica & Società Tab.1: Misure per realizzare la conciliabilità tra lavoro e famiglia per paese Paese Austria Belgio Cipro Estonia Finlandia Germania Italia Olanda Polonia Rep. Ceca e Slovacca Slovenia Svizzera Ungheria Più tempo per i genitori Più part-time per i genitori Estensione congedi parentali e di maternità Più controllo dei lavoratori sul proprio tempo di lavoro x Altro1 x x x x x x x x x x x x x x x x x x x x x x x x bambini e trovare difficoltà soprattutto nel finanziamento delle iniziative. Va segnalato che i politici in molti paesi sono considerati un rischio alla attuazione dello scenario: la loro mancanza di fiducia nella possibilità di realizzare cambiamenti a largo raggio e il loro avvicendarsi al governo costituisce uno dei rischi più sentiti per l’attuazione degli scenari. Tab.2: Risultati emersi dall’analisi SWOT condotta nei 15 paesi partecipanti. Forza Opportunità Aumento solidarietà Aumento coesione sociale Aumento equità di genere Crescita economica Aumento fecondità Nuovi atteggiamenti verso gli anziani Migliore qualità della vita Società più orientata verso I bambini Cambio di valori Maggiore ruolo delle ONG Debolezza Rischi Troppo idealismo Aumento materialismo e individualismo Problemi economici Troppa inerzia del sistema Troppo ruolo dello Stato Mancanza di fondi Crisi economica Instabilità politica Mancanza di fiducia dei politici L’Europa del 2030 desiderata e sognata dai nostri esperti sarà un’Europa che rifiuta molti dei valori e dei principi che hanno fatto parte del passato. Sarà un continente dove ogni cittadino, indipenden- 1 Telelavoro x temente dall’età, godrà di una migliore qualità della vita sostenuta da un nuovo welfare, una rinegoziazione delle regole dell’organizzazione del lavoro e una società che promuova realmente la conciliabilità tra lavoro e famiglia. Chi è attivo nel mondo del lavoro potrà scegliere liberamente come allocare il tempo tra lavoro e famiglia, chi è vicino alla pensione potrà uscire gradualmente dal mercato del lavoro e in forme differenziate, i più piccoli avranno servizi di cura appropriati; gli anziani godranno di maggiore indipendenza sia fisica che economica. I nostri esperti hanno svolto il loro ruolo di “sognatori” consegnandoci una visione positiva del futuro e indicando la strada per realizzarla. Ad altri, politici, decisori, amministratori, è dato di prendere atto di questo sogno e trasformarlo in un futuro possibile e migliore. Forse può non essere solo un sogno; può essere una sfida da considerare e realizzare. Bibliografia COOPERRIDER D.L., S RIVASTVA S. (1987) Appreciative Inquiry in Organizational Life, in W. Pastore, R. Woodman (eds), Research in Organization Change and Development, Greenwich CT, JAITRES, 129-169. PALOMBA R. (a cura di), (2005), Il tempo è dalla nostra parte, Quaderni di Demotrends, 1. La colonna “Altro” nasconde una serie di suggerimenti che vanno dalla banca del tempo a livello azienda (Italia) all’inserimento della situazione familiare tra i criteri per la promozione nella carriera. Statistica & Società 17 I sondaggi politici. Come garantire la qualità dei dati e la correttezza delle interpretazioni? Piergiorgio Corbetta Dipartimento di Scienze dell’Educazione, Università di Bologna. e-mail: [email protected] Mi sono recentemente imbattuto in internet in un banner pubblicitario per il New York Times che chiedeva: “What’s the point of an information age without the right information?”, e che potremmo liberamente tradurre: “A che serve trovarsi nell’era dell’informazione se poi questa informazione non è corretta?” Domanda retorica, che tuttavia sintetizza il senso di questo mio intervento, con il quale intendo trattare brevemente il problema dell’attendibilità dei sondaggi politici e porre – io sociologo – una “domanda vera” ai colleghi statistici: la cosiddetta “comunità scientifica” di una nazione, i suoi sottogruppi disciplinari, non dovrebbero assumersi un qualche onere di “controllo” sull’informazione scientifica (o para/pseudo-scientifica) che circola nella società denunciando i casi di “cattiva informazione”? E nell’ambito dell’informazione che in qualche modo attiene ai nostri settori disciplinari colloco i sondaggi politici. So che gli statistici se ne occupano poco: eppure si tratta di un terreno che ha ricadute non trascurabili sulla formazione dell’opinione pubblica e sui comportamenti e le “visioni del mondo” degli stessi “attori” politici. Ed in ultima analisi si tratta di un campo disciplinare che può essere pienamente ascritto alla vasta ed importante area delle applicazioni sociali della statistica. Che cosa fa di un sondaggio un cattivo sondaggio? A quali tipi di errori e di distorsioni è esposto il sondaggio politico in se stesso – e soprattutto – nella sua utilizzazione da parte dei media? Il sondaggio politico trasmesso al grande pubblico attraverso i mezzi di informazione soffre innanzitutto di una distorsione giornalistica, dovuta alla mancanza di tempo e di spazio. La pressione del tempo produce “gattini ciechi”: sondaggi mal pensati, domande mal formulate, campioni abborracciati, controlli superficiali. La tirannia dello spazio giornalistico costringe a semplificazioni fino al limite della banalità assoluta, ad analisi grezze e aproblematiche, a formulazioni unilaterali. Per non parlare poi della necessità gior- nalistica della “notizia”, che induce a forzare i toni, ad accentuare i colori ed a trovare a tutti i costi un fatto eclatante. C’è poi una seconda fonte di errore, la distorsione commerciale, dovuta al fatto che le esigenze della ricerca entrano facilmente in conflitto con le ragioni dell’economia e del profitto. Le ditte di sondaggi d’opinione sono delle normali aziende; la concorrenza nel settore è feroce, e la tentazione di diminuire i costi abbassando gli standard qualitativi è molto forte, anche perché questi sono difficilmente definibili, difficilmente controllabili e ancora più difficilmente apprezzabili da parte dei committenti; questa spirale, inevitabilmente, produce cattiva ricerca. Abbiamo infine la distorsione politica. Il sondaggio politico molto spesso è commissionato da agenzie politicamente non neutre. Non parliamo solo di partiti o candidati; i giornali stessi sono spesso animati da una visione partigiana della politica. Domande tendenziose, analisi pilotate, interpretazioni che consapevolmente o meno privilegiano un risultato e ne mettono tra parentesi un altro, sono all’ordine del giorno. Questi tipi di distorsioni che portano a cattiva ricerca potrebbero essere contrastate da un efficace sistema di controlli sui metodi utilizzati e sulla qualità del prodotto (per esempio, la domanda tendenziosa può essere smascherata e quindi la sua pratica contrastata, se venisse resa pubblica). Ma chi può effettuare questi controlli? L’autocontrollo da parte delle organizzazioni degli stessi istituti di ricerca si è dimostrato spesso illusorio (cinicamente potremmo dire che “cane non mangia cane”). In alcuni paesi, tra cui il nostro, la legge ha stabilito standard minimi e istituito un ente di vigilanza sul rispetto di questi standard. In particolare la legge italiana del 28 febbraio 2000 ha stabilito l’obbligo di rendere note, in tutte le comunicazioni sui mezzi di informazione (anche sull’articolo di giornale) le seguenti caratteristiche del sondaggio: a) soggetto che ha re- 18 Statistica & Società alizzato il sondaggio; b) committente e acquirente; c) criteri seguiti per la formazione del campione; d) metodo di raccolta delle informazioni e di elaborazione dei dati; e) numero delle persone interpellate e universo di riferimento; f) domande rivolte; g) percentuale delle persone che hanno risposto a ciascuna domanda; h) periodo in cui è stato realizzato il sondaggio. Si tratta di criteri talvolta generici (per esempio i punti c e d) e talvolta, all’opposto, troppo analitici (punto g), che comunque vengono normalmente elusi con affermazioni vaghe e criptiche (quali “metodo CATI”, “elaborazioni SPSS”, “campione casuale e rappresentativo”, ecc.), e che non affrontano il problema più grave dei sondaggi, costituito dalla mancata rappresentatività del campione. Perché questo è il vero problema dei sondaggi d’opinione. I campioni non restituiscono mai una micro-fotografia della popolazione di riferimento, ma ne danno una visione distorta per un motivo semplicissimo: anche quando selezionati con rigoroso criterio casuale (che comunque non è certo la norma), gli individui contattati, non essendo oggetti ma persone dotate di libero arbitrio, possono rifiutare l’intervista (o risultare non immediatamente reperibili, il che vuol dire “irreperibili”, in quanto nessun istituto di sondaggi si premura più di tanto di andarli a cercare di nuovo, essendo più semplice la sostituzione del nominativo con uno nuovo). E rifiutano l’intervista in percentuali altissime, quasi mai inferiore alla metà delle persone contattate. E poiché chi accetta di essere intervistato, o comunque (nel caso dell’intervista telefonica) è reperibile in casa al momento della telefonata, è diverso da chi non risponde o non è mai in casa, ne risulta un campione “distorto” (né il difetto è risolvibile con operazioni di “ponderazione” o di sostituzione con “riserve”, in quanto, per fare un esempio, l’anziano che risponde è diverso – più arzillo, più interessato alla politica, ecc. – dell’anziano che si rifiuta di rispondere). Apparentemente il punto g) fra quelli sopra menzionati dovrebbe affrontare questo problema: di fatto, così come è espresso dalla legge è un requisito farraginoso (comunicare i tassi di risposta di ogni domanda, basterebbe il tasso di risposta all’intero questionario), per cui nella realtà non viene mai applicato.L’insensibilità degli operatori della ricerca nei confronti del problema dell’insufficiente tasso di riposte è messo ben in luce, per esempio, da una lettura delle “informazioni metodologiche” che l’Assirm (l’ Associazione Istituti di Ricerche di Mer- cato, Sondaggi di Opinione, Ricerca Sociale) raccomanda ai propri soci di rendere pubbliche per ogni sondaggio: si cita la descrizione del metodo di campionamento e di ponderazione, il testo dei questionari, i margini dell’errore statistico, perfino la “descrizione delle istruzioni date agli intervistatori”, ma non si cita il tasso di risposta del sondaggio. Ed ancora questa insensibilità emerge dall’insistenza con la quale gli stessi statistici parlano di margini di errore statistico (la famosa “forchetta”, ossia i due valori entro di quali si collocherebbe il “dato vero”), dimenticando che la formuletta che applicano si riferisce a campioni “probabilistici”, cioè fatti di persone “casualmente estratte”, mentre i campioni dei sondaggi, per l’autoselezione dei rispondenti, sono quanto di più lontano si possa immaginare da un campione probabilistico. Ma ancora (ed infine): e chi ci garantisce dalle vere e proprie truffe? Il problema è assai più grave di quanto non appaia. Poco più di un anno fa, a Bologna, a poche settimane dall’elezione del sindaco e nel bel mezzo di una campagna elettorale tesa e di valenza nazionale – in quanto era in gioco per la sinistra la riconquista della sua città-simbolo e vi aveva impegnato uno dei suoi maggiori leader nazionali – a distanza di tre giorni uscivano su un giornale locale assai letto (di sinistra) e sul più importante quotidiano cittadino (di destra) le seguenti due notizie. Primo giornale: “Elezioni, Cofferati sta spiccando il volo. Nostro sondaggio, +8% su Guazzaloca”. Secondo giornale: “Bologna, è partita la volata. Guazzaloca in vantaggio (+ 8,4%)”. Si trattava di sondaggi effettuati negli stessi giorni: il primo fra il 21 ed il 27 gennaio 2004; il secondo fra il 26 ed il 28 dello stesso mese. Questa palese contraddizione creò non poco sconcerto nel dibattito politico cittadino. Nelle pagine cittadine dei quotidiani uscirono titoli della serie “Il giallo dei sondaggi elettorali”, “I sondaggi elettorali impazziti”… e commenti piuttosto irridenti nei confronti dei “sondaggisti” e delle discipline di contorno, statistica inclusa. Cos’era successo? Difficile da stabilire, anzi impossibile con gli strumenti di controllo attualmente a disposizione, anche quando tutti i requisiti comunicativi richiesti dalla legge venissero rigorosamente osservati. Lo scrivente, tuttavia, grazie alle sue personali conoscenze, riuscì a farsi consegnare dai responsabili dei due istituti di sondaggio i files con le matrici-dati. E cosa scoprì? Scoprì che un sondaggio era corretto (ovviamente quello che dava Cofferati come vincente, come poi effettivamente risultò), Statistica & Società mentre l’altro istituto di ricerca aveva dichiarato pubblicamente di aver effettuato un numero doppio di interviste rispetto a quelle effettivamente fatte, ed inoltre aveva manipolato i dati (che in realtà davano lo stesso risultato dell’altro sondaggio) per far apparire vincente il candidato della parte politica gradita al giornale nel quale pubblicava. Questo episodio mi ha insegnato una cosa. Che una sola strada è percorribile, se si vuole mettere le comunità scientifiche – o chiunque fosse interessato per qualsiasi motivo – in condizione di controllare effettivamente l’attendibilità delle informazioni messe in circolazione dai mass media: che la legge imponga la pubblicizzazione della matrice originaria dei dati. Questi potrebbero essere depositati presso un’autorità governativa, autorizzata a metterli a disposizione dietro richiesta. Certamente questo vincolo non escluderebbe in toto il rischio di manipolazioni truffaldine, ma inventare completamente dei dati non è così semplice come inventare o manipolare una tabella; sono necessari requisiti di coerenza interna che richiedono tempo (ed è una risorsa che manca a 19 chi fa dei sondaggi), ed un puntiglioso ricercatore potrebbe con un attento lavoro individuarne l’eventuale mancanza. Questo vincolo avrebbe come immediata conseguenza un balzo verso l’alto della qualità dei sondaggi, perché la possibilità, anche se potenziale, di un controllo esterno renderebbe le ditte di sondaggio assai più caute nel diffondere dati avventati o compiacenti verso questa o quella parte politica. Si tratta di una proposta che dovrebbe trovare le principali ditte di sondaggi, quelle che operano seriamente, favorevoli, in quanto sgombrerebbe il campo da una miriade di piccoli istituti, a volte dalla vita effimera, che offrono sul mercato dati abborracciati a prezzi stracciati. La reazione dell’Assirm, l’associazione italiana delle società che operano in questo settore, quando la proposta fu avanzata nel convegno promosso dall’Istituto Cattaneo e diverse associazioni di categoria (statistici, politologi, sociologi, elettoralisti: Sis, Sisp, Ais, Sise) e svoltosi presso il Mulino lo scorso marzo, non è stata favorevole. Sinceramente non ne capiamo la ragione. 20 Statistica & Società Un modello di regressione PLS per lo studio delle emissioni di sostanze inquinanti Enrico Ciavolino Research Centre on Software Technology, Seconda Università di Napoli. e-mail: [email protected] Giovanni Meccariello Istituto Motori, CNR. e-mail: [email protected] 1. Introduzione Le emissioni del traffico veicolare rappresentano un’importante fonte di inquinamento nelle città. Queste emissioni sono costituite da miscele di varie sostanze, alcune delle quali rappresentano un grosso problema per gli effetti dannosi che possono avere nei confronti della nostra salute e dell’ambiente in cui viviamo. La necessità di ridurre questo fenomeno ha portato all’introduzione di una serie di direttive che pongono delle limitazioni alla quantità di sostanze inquinanti emesse dagli autoveicoli. Gli amministratori locali sono, quindi, obbligati dalle leggi vigenti a valutare in maniera previsionale l’impatto ambientale del sistema traffico e ad intervenire con misure opportune –“blocco totale o parziale del traffico”– per evitare il superamento delle soglie d’allarme di inquinamento dell’aria. In tale contesto emerge la domanda di strumenti quantitativi capaci di valutare in maniera previsionale l’impatto, in termini di emissioni inquinanti, prodotte da specifiche famiglie (o categorie) di mezzi di trasporto, in relazione a predeterminate situazioni traffico/strada. 2. Obiettivo Questo lavoro presenta un modello statistico predittivo per lo studio delle emissioni inquinanti, basato su un campione di misure determinate dal funzionamento reale di un mezzo di trasporto. Gli inquinanti misurati sono quelli regolamentati dalla normativa 98/69/EEC, identificati dalle seguenti sostanze: CO, HC, NOX, CO2 e particolato (solo per le auto diesel). I modelli attualmente usati per le stima delle emissioni degli inquinanti, utilizzano la sola velocità media come variabile esplicativa, ma i diagrammi di previsione basati sulla sola velocità me- dia (ad eccezione della CO2) possono raggiungere una variazione del 40% rispetto alla distribuzione reale delle misure sperimentali. Tale variabilità, nello studio delle emissioni inquinanti, è causata dal fatto che la sola velocità media non è sufficiente a descrivere l’andamento del veicolo nel traffico, in quanto, a parità di velocità media, si possono generare profili di velocità completamente differenti, i quali generano emissioni inquinanti complessivamente diverse. Nasce quindi l’esigenza di identificare nuove variabili in grado di descrivere al meglio l’andamento del veicolo nel traffico. Tali variabili sono state definite tenendo conto dell’equazione dinamica del veicolo e sono di seguito riportate: media della velocità, media del quadrato e del cubo della velocità, tempo al minimo, tempo totale di guida, media del prodotto della velocità per l’accelerazione. Il modello, basato sull’equazione dinamica del veicolo, presenta delle variabili che sono fortemente correlate ed inoltre, a causa del complesso sistema di rilevazione delle misure sperimentali, il data set potrebbe presentare una matrice con dati mancanti, nonché un numero ridotto di osservazioni, dovuto al numero di prove effettuate in laboratorio. La metodologia statistica adottata per l’analisi dei dati che presentano questo tipo di caratteristiche (forte correlazione tra le variabili esplicative, numero di osservazioni ridotte, dati mancanti) è il modello di regressione Partial Least Squares (PLSr). 3. Metodologia L’approccio PLS è stato sviluppato da Herman Wold nel 1975, nell’ambito dei modelli ad equazioni strutturali, path models, utilizzando come metodo di stima dei parametri l’algoritmo NIPALS (Non Statistica & Società Linear Iterative Partial Least Squares) (H. Wold, 1966). Il modello PLS misura le relazioni esistenti tra due matrici, X e Y, mediante un modello lineare multivariato, che va oltre il tradizionale modello di regressione. Tale modello mostra le sue potenzialità in presenza di un elevato numero di variabili esplicative fortemente correlate (multicollinearità), quando le matrici da analizzare presentano dati mancanti e quando il numero delle osservazioni è esiguo rispetto ai predittori. Come per il modello di regressione, si distingue il caso in cui si è in presenza di più variabili di risposta Y (PLS2), oppure in presenza di una variabile di risposta y (PLS1). Nel corso del lavoro faremo riferimento al caso PLS2. Il metodo PLSr costruisce nuove variabili esplicative ortogonali tra loro, chiamate variabili latenti o componenti, usate come predittori delle variabili di risposta. Obiettivo del PLSr è, quindi, creare un numero m (con m < rango(X)) di componenti T, tali da catturare la massima informazione dalle variabili esplicative, in modo che siano le più utili a spiegare le variabili dipendenti e quindi il fenomeno oggetto di studio. Le componenti T sono chiamate “Xscores”, in quanto oltre ad essere predittori della Y, modellano/ricostruiscono anche la matrice X. Tali scores sono stimati come combinazione lineare tra la matrice delle variabili originali X e la matrice dei coefficienti chiamati “weights” W*. T = XW* (1) Gli “X-scores” hanno le seguenti proprietà: a) Capacità di ricostruire la matrice X, minimizzandone i residui, mediante il prodotto con la matrice P dei “loadings”di X: X = TPT + E (2) b) Capacità di essere dei buoni predittori di Y: Y = TCT + F (3) dove CT è la matrice dei coefficienti di regressione di Y sulle componenti T. I corrispettivi “Y-scores” sono identificati dalla matrice U, il cui prodotto con la matrice dei coefficienti C (loadings di Y), ricostruisce la matrice delle variabili di risposta Y, minimizzandone i residui. Tutti i parametri presentati sono determinati con l’algoritmo di stima NIPALS. I parametri components scores t e u, contengono le informazioni rela- 21 tive alla similarità e alla dissimilarità tra le unità/ osservazioni e sono usati per costruire l’ellisse di Hotelling al fine di identificare le associazioni o eventuali outliers nei dati. I weigths w e i coefficienti c danno informazioni su come si combinano le variabili originali, per spiegare le relazioni tra la X e la Y, e sono utilizzate nell’interpretazione delle componenti t e u mediante la costruzione del loading plot dove vengono rappresentate contemporaneamente sia le variabili di risposta (Y) che le variabili esplicative (X). 4. Caso Studio Il modello di analisi proposto si basa sulla rilevazione di dati provenienti da sperimentazioni condotte presso il Consiglio Nazionale delle Ricerche (CNR) Istituto Motori di Napoli, in cui sono stati registrati i valori di emissioni degli inquinanti regolamentati (98/69/EEC), mediante la riproduzione di determinati cicli di guida su banco a rulli. Il ciclo di guida rappresenta la parte di moto di un’autoveicolo su strada in un determinato intervallo di tempo e in condizioni omogenee di funzionamento. I valori di emissione sono stati misurati su un’autovettura Fiat Punto 1.9 JTD Euro III, con cicli di guida rappresentativi di diverse condizioni di traffico in percorsi urbani, extra-urbani ed autostradali. In generale, i motori a combustione interna producono monossido di carbonio (CO), anidride carbonica (CO2), ossidi di azoto (monossido NO e biossido NO2, globalmente indicati come NOX), idrocarburi derivati dalla parziale combustione del combustibile (genericamente indicati come HC), particelle solide portate in sospensione dai gas (dette particolato, indicate con PM e prodotte quasi esclusivamente dai motori Diesel) e prodotti derivanti dall’ossidazione di impurità contenute nel combustibile (quali, ad esempio, lo zolfo). La variabilità della quantità di inquinante prodotta da ciclo a ciclo può essere spiegata dalla variazione della massa totale dei gas di scarico M, funzione, a sua volta, dell’energia utilizzata dal veicolo, che è una caratteristica globale del ciclo. Tale componente è considerata nel modello mediante sei parametri cinematici, riportate in tabella 1, identificati dall’espressione che deriva M dall’integrale dell’equazione dinamica del veicolo: M≈∫P(t)dt≈∫tmarcia (a0+a1*v(t)+a2*v2(t)+Mv*a(t))*v(t) dt 22 Statistica & Società dove P(t), v(t), a(t) e Mv sono, rispettivamente, la potenza erogata dal motore, la velocità, l’accelerazione e la massa del veicolo, per le fasi di marcia, più il tempo con motore al minimo, per tener conto delle fasi in cui v = 0 (Tabella 1). Tab. 2: Indici R2 e Q2 del modello per ogni inquinante. R2 VY [5](cum) 1,00 0,80 Tab. 1: Variabili utilizzate per l’analisi. 0,60 VARIABILI DI RISPOSTA (Y) 0,40 Variabile Descrizione 0,20 CO Monossido di carbonio 0,00 HC Idrocarburi incombusti NOx Ossidi di azoto CO2 Anidride carbonica PM Particolato, solo per auto diesel VARIABILI ESPLICATIVE (X) Variabile Descrizione mv Velocità media (v>0) mv2 Media del quadrato della velocità(v>0) mv3 Media del cubo della velocità (v>0) Tidle tempo al minimo v=0 Trunning Tempo totale effettivo di guida (v>0) m_vapot_pos Media del prodotto della velocità per l’accelerazione (a(t)·v(t)) quando v(t)>0 e a(t)>0 Le variabili di risposta riportate nella matrice Y, rappresentano la quantità totale di ciascun inquinante misurata nel ciclo espressa in grammi/prova. Nel modello è stata utilizzata la trasformata logaritmica degli inquinanti, in quanto le variabili presentano dei coefficienti di variazione elevati, valori sempre positivi, nonché legami funzionali non lineari con le variabili di X. Per quanto riguarda le osservazioni, sono stati analizzati 9 cicli di guida, rappresentativi di tre diverse situazioni traffico/strada, riproducendo percorsi di tipo urbano, extra-urbano ed autostradale. ln CO Var ID ln HC ln NOx ln CO2 ln NO ln PM ln CO ln HC (g/prova) (g/prova) (g/prova) (g/prova) (g/prova) R2 (cum) 0,713844 0,587111 0,993719 0,992566 0,980074 Q2 (cum) 0,548882 0,277103 0,982728 0,92293 0,94943 ln CO2 ln PM Da tali indici, calcolati per ognuna delle variabili di risposta e su 5 componenti estratte, si evidenzia un’elevata capacità predittiva del modello per gli inquinanti NOX CO2 e PM con un R2>0,98 ed un Q2 >0,94. I cicli di guida utilizzati assicurano una copertura abbastanza ampia delle caratteristiche di guida su differenti strade e in differenti condizioni di traffico, riuscendo a riprodurre percorsi di tipo urbano (Naples 7, Naples 5, Naples 6, Urban_Cold, ArtUrban), extra-urbano (Art-Road, Naples 4, Road_Cold) ed autostradale (Art-Motorway). Nella figura 1 sono rappresentate le prime due componenti dei predittori, dove si nota una dispersione abbastanza ampia del fenomeno ed un raggruppamento dei cicli con caratteristiche cinematiche simili. Il ciclo autostradale (Art-Motorway) è stato eliminato perché esterno all’ellisse di confidenza di Hotelling, cioé outlier, infatti, le sue caratteristiche cinematiche differiscono notevolmente dagli altri cicli. 5. Risultati 3 2 Art-Road 1 t[2] Il modello di regressione PLS fornisce una serie di informazioni utili sia da un punto di vista esplorativo, per facilitare l’analisi e la comprensione del fenomeno oggetto di studio, sia predittivo, estrapolando i coefficienti di previsione del modello così costruito. La tabella 2 riporta l’indice R2, che indica la bontà di adattamento ai dati, e l’indice Q2, che indica la capacità di previsione del modello stesso, calcolato con tecnica di Cross-Validation leave one out. Q2 VY [5](cum) Naples 6 Naples 4 Naples 5 Naples 7 Art-Urban 0 -1 -2 Road_Cold_ Urban_Cold -3 -5 -4 -3 -2 -1 0 t[1] 1 2 3 4 5 Fig. 1: Rappresentazione dei cicli nello spazio delle componenti t[1] e t[2]. Statistica & Società Mediante l’ausilio dell’indice statistico VIP (Variable Importance in the Projection) (fig. 2) possiamo identificare l’importanza del contributo delle variabili nella proiezione ed identificare eventuali variabili non necessarie alla interpretazione del fenomeno eliminando le variabili con un indice < 0,8. 1,40 1,20 1,00 0,80 0,60 0,40 23 Le figure dalla 4 alla 8 rappresentano i valori predetti dal modello (quadratino rosso) e i valori misurati (triangolino nero), espressi in grammi/km, per ciascun inquinante rispetto alla velocità media. Per quanto riguarda la previsione dell’inquinante del CO (fig. 4) notiamo una forte dispersione dei valori misurati per i cicli alle basse velocità medie, questo spiega anche il basso valore di fit del modello che è di poco superiore allo 0,5, lo stesso possiamo dire per gli HC (fig. 5). Il basso valore previsionale è confermato anche da un basso indice di R2 per entrambi gli inquinanti. 0,20 0,00 m_vap_po mv Trunning mv3 mv2 Trunning CO(g/km) Pred_CO Var ID (Primary) Fig. 2: Indice VIP (Variable Importance in the Projection) 3 Nella figura 3 sono rappresentati i diagrammi (sovrapposti) dei weights w* di X e dei loadings c di Y dei primi due components scores (t[1] e t[2]) del modello, che rappresentano il 91% della variabilità del fenomeno analizzato. Da tali diagrammi è possibile valutare il livello di correlazione esistente tra le variabili di risposta (quadratino rosso), tra le variabili esplicative (triangolino nero) ed infine tra le variabili di risposta e quelle esplicative. Notiamo come le emissioni CO2, NOX e PM risultano efficacemente rappresentate e fortemente correlate tra loro. Per le emissioni di CO e HC si evidenzia, invece, una inferiore bontà di rappresentazione, dovuta a un’elevata dispersione dei valori osservati per ciascun ciclo. Le emissioni CO2, NOX e PM sono spiegate essenzialmente dal primo asse (t[1]), per cui sono direttamente proporzionali ai valori medi delle potenze della velocità (mv, mv2, mv3), alla media del prodotto velocità e accelerazione (m_vapot_pos) e al tempo di marcia (Trunning). X Y Punto 1.9 JTD - w*c[Comp.1]/w*c[Comp.2] 0,20 In CO mv2 Trunning 10 20 30 40 50 60 mv Fig. 4: Valori Predetti e Misurati di CO HC(g/km) Pred_HC 0,20 0,10 0,00 10 20 30 mv 40 50 60 Fig. 5: Valori Predetti e Misurati di HC In HC (g/prova) -0,20 w*c[2] 0 mv -0,10 In PM (g/prova) In NO COX2 (g/prova) (g/prova) In -0,30 -0,40 1 mv3 0,10 0,00 2 m_vapot_pos -0,50 CO2, NOx, PM -0,60 -0,70 -0,80 Tidle -0,90 -0,50 -0,40 -0,30 -0,20 w*c[1] -0,10 0,00 Fig. 3: Loadings Plot delle Variabili di Risposta ed Esplicative Per gli inquinanti CO2 (fig. 6) e NOX (fig. 7) il modello è in grado di spiegare quasi perfettamente l’andamento del fenomeno con un R2 prossimo a 1, inoltre il valore dell’indice Q2 maggiore di 0,98 garantisce un’ottima capacità predittiva del modello per i due inquinanti. 24 Statistica & Società CO2 (g/km) mo come la velocità media (mv) e il tempo di guida (Trunning) abbiano una forte influenza soprattutto per la produzione di CO e HC, mentre gli NOX sono influenzati anche dal tempo al minimo (Tidle). Si nota, infine, che la fase di accelerazione (m_vapot_pos) ha una influenza positiva soprattutto per la produzione del particolato (PM). Pred_CO2 500 400 300 200 100 10 20 30 40 50 60 mv Fig. 6: Valori Predetti e Misurati di CO2 . NOx(g/km) 6. Conclusioni L’impiego del modello di regressione PLS ha consentito l’utilizzo di più predittori, in modo da riuscire a tener conto dell’equazione dinamica del vei- Pred_NOx Tidle Trunning mv m2 mv3 m_vapot-pos 1,80 1,60 3,00 1,40 2,00 1,20 1,00 1,00 0,00 0,80 -1,00 0,60 0,40 -2,00 10 20 30 40 50 60 mv ln Per il particolato (fig. 8), nonostante un discreta variabilità dei dati misurati, il modello si adatta bene al fenomeno studiato (R2>0.98) ed ha un’ottima capacità predittiva (Q2>0,94). Pred_PM 120 110 100 90 80 70 60 50 40 30 10 20 30 mv 40 ln HC x ln NO 2 ln CO ln PM Fig. 9: Grafico dei coefficienti del modello. Fig. 7: Valori Predetti e Misurati di NOX. PM(g/km) CO 50 60 Fig. 8: Valori Predetti e Misurati di PM. In figura 9 sono rappresentati i coefficienti di regressione del modello per ciascun inquinante analizzato. Questa figura mostra la struttura del modello d’emissione e i coefficienti delle equazioni lineari e le relazioni esistenti fra le variabili di risposta (Y) e le variabili esplicative (X). Dai coefficienti notia- colo, senza risentire delle problematiche relative alla forte correlazione tra le variabili ed al basso numero di osservazioni. Il risultati ottenuti dall’applicazione mostrano che il metodo proposto è un valido strumento per l’analisi delle emissioni inquinanti, rivelando un buon livello di capacità predittiva e un buon livello di adattamento ai dati. Le variabili cinematiche impiegate nel modello sono in grado di spiegare più adeguatamente il comportamento delle emissioni inquinanti di un veicolo in differenti situazioni traffico/strada, migliorando la capacita di predizione del modello rispetto al solo utilizzo della velocità media. La metodologia proposta può, quindi, considerarsi un soddisfacente strumento di analisi delle emissioni inquinanti, tuttavia, ai fini di una corretta validazione del modello e per considerare in maniera più approfondita la complessa realtà del traffico urbano, il modello dovrebbe essere sperimentato su Statistica & Società 25 di uno scenario più ampio di autoveicoli (con diverse categorie di motorizzazioni) e di situazioni traffico/strada (cicli di guida). R APONE M., M ECCARIELLO G., D’ AMBRA L., (2004), “Multiblock - PLS come supporto alle decisioni per l’inquinamento urbano”, Atti del Convegno MTISD 2004, Benevento 24–26 Giugno. Bibliografia SCIPPACERCOLA S., AMENTA P., D’AMBRA L., (1995), “Il Partial Least Squares e l’analisi in componenti principali rispetto ad un sottospazio di riferimento. Un’applicazione per la rilevazione di inquinamento di ambienti fluviali”, Boll. Soc. Nat. Napoli, vol. 102, 101–116. GARTHWAITE P. H., (1994), “An interpretation of Partial Least Squares”, Journal of American Statistical Association, March 1994, vol. 89, n. 425. M ARTENS H. & M ARTENS M., (2001), “Multivariate Analysis of Quality – An introduction”, John Wiley & Sons Ltd. PHATAK A., DE JONG S., (1997), “The geometry of Partial Least Squares“, Journal of Chemometrics, vol. 11, 311338. RAPONE M., DELLA RAGIONE L., PRATI M.V., MECCARIELLO G. (2003) “Influence of the driving cycle on average emissions: development of the regression model for a case study”. Proceedings 12th International Symposium on Transport and Air Pollution, Avignon (France), vol. 2, 197-202. TENENHAUS M., (1998), La Règression PLS – Thèorie er Pratique, Edition Technip, Paris. TENENHAUS M., (1999), “L’Approche PLS”, Statistique Appliquèe, XLVII (2), 5-40. UMETRICS AB, (2002), SIMCA-P and SIMCA-P+ User Guide, Umetrics AB, Box 7960, S907 19 Umea, Sweden. WOLD S., SJOSTROM M., E RIKSSON L., (2001), “PLSregression: a basic tool of chemometrics”, Chemometrics and Intelligent Laboratory Systems, vol. 58, 109-130. 26 Statistica & Società Metodi, Modelli e Tecnologie dell’informazione a supporto delle decisioni Tavola rotonda Valutazioni, incertezza, processi decisionali: modelli consolidati, problemi aperti e prospettive future Benevento 24-25 giugno 2004 Il Convegno “Metodi, Modelli e Tecnologie dell’informazione a supporto delle decisioni” è nato con una pluralità di obiettivi: presentare alcuni risultati recenti, sia metodologici che applicativi, per ciascuna disciplina che potesse intersecare in maniera significativa l’ambito delle decisioni; mettere a confronto tali discipline, cercando di evidenziare i punti di contatto più interessanti e, in prospettiva, produttivi dal punto di vista della ricerca; l’articolazione del Convegno, in sessioni speciali e in Conferenze ad invito tenute da esperti riconosciuti, è stata pensata per favorire al massimo la rappresentatività delle diverse tematiche convergenti nel dominio delle decisioni (i dettagli del programma sono ancora disponibili sul sito http:// www.mtisd2004.unisannio.it/menu.htm; le conferenze ad invito ed una selezione degli interventi saranno pubblicate nel volume: Pietro Amenta, Luigi D’Ambra, Massimo Squillante, Aldo Ventre, Metodi, Modelli e Tecnologie dell’informazione a supporto delle decisioni, ed. Franco Angeli). La tavola rotonda “Valutazioni, incertezza, processi decisionali: modelli consolidati, problemi aperti e prospettive future” è stata, in questo senso, uno dei momenti più significativi, avendo permesso il confronto diretto tra matematici, probabilisti, statistici. Abbiamo raccolto, e pubblichiamo volentieri per “Statistica e società”, gli interventi, nella tavola rotonda, di Vittorio Frosini, Gianni Ricci, Ernesto Volpe di Prignano, Romano Scozzafava, che hanno esposto le loro tesi rispondendo alle domande: 1) quale è lo stato dell’arte attuale della tua disciplina rispetto alla tematica delle decisioni? 2) nell’ambito delle decisioni potresti indicare alcune significative relazioni tra la tua disciplina e le altre interessate alla stessa tematica? Ringraziamo i relatori per il dibattito, ricco di spunti dal punto di vista scientifico ed estremamente interessante per la vivacità che lo ha caratterizzato, cui hanno saputo dar vita. Luigi D’Ambra Massimo Squillante Intervento di Gianni Ricci Dipartimento di Economia Politica – Università di Modena e Reggio Emilia. e-mail: [email protected] Introduzione La Teoria dei giochi sta vivendo una situazione di stallo nonostante gli importanti contributi di ricercatori in Italia e all’estero. Gli economisti, che sono tra i maggiori utilizzatori della teoria dei giochi, si occupano prevalentemente dei Giochi competitivi statici a due giocatori e, in particolare, del dilemma del prigioniero come paradigma delle situazioni decisionali ad informa- zione imperfetta tra due soggetti. Parlare di giochi dinamici in Italia è velleitario più che in altri Paesi; i giochi dinamici vengono giudicati più una estensione della Teoria del controllo ottimo, “roba” da ingegneri, che una branca teorica autonoma della Teoria dei Giochi. La separazione dei ricercatori nelle società scientifiche di giochi e di giochi dinamici è un’ulteriore prova di una ricerca di autonomia più che della volontà di lavorare per trovare una chiave unica di lettura dei processi decisionali. Statistica & Società Nell’ambito dei processi decisionali sta assumendo un ruolo significativo la Fuzzy Logic; un approccio alle decisioni che supera la visione binaria (vero-falso) sostituendola con una gamma di sfumature che non possono essere trattate con i tradizionali strumenti formali della matematica. L’ansia di trattare i problemi sfumati con la FL ha portato anche ad errori terminologici, confondendo la incertezza con la imprecisione, che hanno consentito agli studiosi conservatori di liquidare senza incertezze la credibilità della Teoria Fuzzy. Fino ad oggi coloro che si sono impegnati ad utilizzare questo nuovo approccio si sono preoccupati di trovare problemi decisionali concreti che possano essere modellizzati e trattati con la logica fuzzy; questo è tanto vero che i lavori sulla fuzzy sembrano troppo spesso uno la fotocopia dell’altro pur nella diversità dei settori trattati. Lo schema si ripete, le fasi sono fisse, i risultati operativi ottenuti sono significativi ma il prezzo che viene pagato è alto in quanto si è rinunciato ad una elaborazione teorica e a sviluppi della teoria introdotta da Zadeh (1965). Personalmente ritengo che la varietà di scenari che la FL può trattare può andare a beneficio di una maggiore aderenza delle situazioni trattate con i giochi senza complicarne le formule. Anziché complicare il modello per renderlo più aderente alla realtà e trattarlo con una strumentazione che si complica corrispondentemente, si modifica la formalizzazione del problema “facendo i calcoli con le parole”. Può sembrare una “diminutio” della matematica ma non lo è; chi pretende di prevedere con certezza, o con incertezza controllata, l’evoluzione di un processo, commette, in generale, un errore di fondo. Sono in numero limitato i processi che evolvono secondo leggi dimostrabili e quindi i modelli e i relativi risultati costituiscono autostrade di riferimento e non traiettorie certe di evoluzione. L’informazione accumulata rappresenta un patrimonio che la mente umana utilizza nell’individuazione di una politica per il futuro, essa genera regole che vengono attivate per insiemi e non per valori secchi. Decidiamo di accendere il riscaldamento se abbiamo freddo non necessariamente se la temperatura scende al di sotto (tanto per dire) di 19 gradi. La decisione di vendere un’azione può avvenire se il prezzo supera un certo valore, ma anche in base ad una tendenza. È molto più semplice definire una tendenza piùttosto che un valore soglia (se, fissato un prezzo soglia, vendo e il 27 prezzo sale ancora è inevitabile che faccia i conti di quanto non ho guadagnato, è meno traumatico se vendo dopo aver soddisfatto un criterio di tendenza perché in quel caso le recriminazioni assumono una connotazione meno rigida). Gli economisti hanno spesso cercato misure precise per fenomeni che si prestano ad essere descritti solo con predicati vaghi. In tali casi, se il carattere vago non è esplicitamente riconosciuto emergono difficoltà a livello metodologico. La logica fuzzy permette di descrivere situazioni e contesti vaghi e risolvere problemi decisionali tenendo in considerazione la natura polivalente della realtà in cui viviamo. Essa è cioè in grado di utilizzare in modo rigoroso il linguaggio ordinario e i suoi predicati vaghi. Il vantaggio di tale impostazione deriva dal riuscire a descrivere e utilizzare tendenze piuttosto che valori secchi, passaggi graduali piuttosto che salti quantici. Ciò comporta il radicale mutamento del processo decisionale dal punto di vista metodologico e cognitivo. Sulla base di quanto sopra, si può fare riferimento a quella ricca messe di contributi nei vari ambiti scientifici che possa essere fruttuosamente riletta per realizzare uno studio approfondito degli aspetti teorici e metodologici delle logiche vaghe e della loro possibile integrazione con la teoria dei giochi. Ad esempio il concetto di profitto economico in finanza e il suo equipollente finanziario valore attuale netto sono passibili di molteplici traduzioni formali e presentano quindi un carattere intrinsecamente vago (Magni 2003, 2004). I processi decisionali nei quali c’è un’unica autorità decisionale sono già stati contaminati da queste considerazioni e alcune tecniche dell’Intelligenza Artificiale (AI), nate per lo sviluppo della robotica, hanno trovato sbocco in nuovi campi di applicazione come il mondo dell’economia, della finanza, del business. Questi paradigmi di AI, tolleranti nei confronti dell’imprecisione, della verità parziale, hanno consentito la costruzione di sistemi avanzati in grado di gestire situazioni complesse ed in presenza di scarsa informazione. La loro principale caratteristica è quella di trarre spunto dal ragionamento umano (o simil-umano). La mente umana ha infatti la capacità di essere tollerante nei confronti dell’imprecisione e di riassumere informazioni, di codificare quelle rilevanti per poi etichettarle raggruppandole per similarità. Gli strumenti innovativi di AI 28 Statistica & Società sono dunque in grado di gestire la conoscenza e di estrarre conoscenza. Le metodologie basate sulla conoscenza hanno lo scopo di riprodurre ciò che l’esperto fa nell’affrontare i problemi, al fine di avere uno strumento informatico in grado di emulare il comportamento umano. A tal fine è indispensabile studiare e definire procedure matematiche di aggregazione che meglio rappresentino ciò che la mente umana fa e che si adattino alla complessità del problema. Le metodologie che estraggono conoscenza hanno lo scopo di estrarre dai dati le informazioni utili a studiare fenomeni complessi al fine di produrre, anche in questo caso, una metodologia automatica in grado di riprodurre la realtà. Molti sforzi sono stati fatti per introdurre l’uso dei due approcci in campi diversi dalla robotica. In psicologia, la Logica Fuzzy è utilizzata in diversi campi: per modellare le teorie della percezione e della memoria, per estendere le scale di misura convenzionale, e per risolvere i problemi di misurazione dei concetti o caratteri non facilmente quantificabili (Smithson e Oden, 1999), per decifrare le emozioni facciali (Russel e Bullock, 1986). In campo sociale, i sistemi sfocati possono essere applicati per trattare opinioni contrapposte al fine di ricercare un consenso accettabile (Dimitrov, 1997), o per aiutare i decisori nella loro attività sociale (Yamashita, 1997). Teoria dei giochi e logica Fuzzy L’ambiziosa idea dell’applicazione alla teoria dei giochi di concetti vaghi può condurre a risultati significativi soprattutto nelle applicazioni. Ad esempio, si pensi al classico gioco dinamico che nasce dalla competizione tra lavoratori e capitalisti nella distribuzione della quota distributiva del reddito nazionale che va in salari e di quella che va come remunerazione del capitale investito dai capitalisti. Il modello è quello di R.M. Goodwin e il gioco nasce dall’obiettivo condiviso di eliminare la tensione sociale evidenziata dalle fluttuazioni dell’occupazione e dei profitti per i capitalisti e dalla competizione sui livelli rispetto ai quali stabilizzare il sistema. Senza interventi da parte dei due giocatori il sistema presenta un andamento ciclico attorno ad un punto G chiamato di Golden age, le curve integrali sono ellissi determinate dalle condizioni iniziali del gioco. Il rettangolo nel quale le curve integrali si muovono può essere diviso in 4 aree determinate dalle coordinate del punto G. (Fig. 1) B A G C D Fig. 1 Nel rettangolo A c’è alta occupazione che determina un potere forte dei lavoratori che possono giocare come leader del gioco, nel rettangolo B i lavoratori hanno bassa occupazione e i capitalisti hanno bassi profitti per cui non si può stabilire nessuna leadership nel gioco. Nel rettangolo C i lavoratori hanno bassa occupazione e i capitalisti hanno alti profitti. I capitalisti giocano il ruolo di leader e la soluzione ricercata è quella di Stackelberg. Nel rettangolo D i lavoratori hanno alta occupazione e i capitalisti hanno alti profitti. Nessuno dei due giocatori prevale sull’altro per cui si ricerca la soluzione di Nash. Una migliore descrizione dovrebbe tenere conto che nella realtà non esiste in generale un salto immediato da leader a follower e viceversa, ma un passaggio graduale (si veda Ricci, 1989). Non solo e non tanto in termini di tempo, ma soprattutto nel senso che il concetto di leadership è vago: si può essere leader ma a che grado? Addirittura ogni giocatore può essere visto come leader ad un certo grado (eventualmente zero). Forse un atteggiamento più sfumato può essere utile nel rappresentare questo tipo di situazioni. La soluzione di un gioco (soprattutto dinamico) dipende in modo decisivo dalla simmetria tra i giocatori, ovvero dalla σ-algebra dell’informazione a disposizione dei giocatori. Molto spesso la leadership generata dal livello dell’informazione posseduta viene dimenticata ricercando ugualmente la soluzione Nash anziché la soluzione Stackelberg. Sia nei giochi dinamici che in quelli ripetuti il passaggio da una situazione di leader-leader ad una situazione leader-follower spesso avviene in modo “secco” anziché in modo graduale per cui il passaggio dalla soluzione di Nash a quella di Stackelberg avviene in modo “catastrofico” (nel senso della teo- Statistica & Società ria delle catastrofi), cosa che stride rispetto a quello che può avvenire nei fenomeni reali. Un contributo ante literam in questa direzione è presentato in Magni e Ricci (1989b, 1991) che mostrano il carattere fuzzy di un gioco nel passaggio da un gioco Nash ad un gioco Stackelberg. Il loro contributo offre l’idea che nell’iterazione di un gioco di contrattazione tra due giocatori in un ambiente economico o sociale sia fondamentale, nel determinare la soluzione della contrattazione, il concetto di reputazione che un giocatore si forma nel corso del tempo. Man mano che la reputazione di un giocatore aumenta le contrattazioni si fanno a lui più favorevoli ed egli può, partendo da una situazione di simmetria (gioco Nash) incrementare il suo grado di leadership in modo graduale fino a raggiungere, eventualmente, una leadership completa (grado massimo di leadership). Un altro esempio Il portafoglio ottimo secondo il metodo di Markowitz dipende in modo univoco dal coefficiente di avversione al rischio che viene determinato elaborando valori secchi (le risposte al questionario di Markowitz!). Forse è ragionevole pensare che le risposte non siano tutte rappresentabili con numeri e 29 valori ma con valutazioni qualitative. Quindi forse i risparmiatori possono essere clusterizzati e non essere atomizzati. Se siete d’accordo allora la FL può essere utile!!!! Un settore fertile di utilizzo è quello politico Il peso di un partito in una coalizione può essere calcolato “esattamente” utilizzando formule e paradigmi già affermati come il valore Shapley, ma il peso reale va al di là della percentuale secca calcolata. La credibilità di un partito o di una coalizione viene identificata con gli esiti delle votazioni e la dinamica del consenso viene misurata con “arditi” confronti statistici. I programmi elettorali sono il concentrato di un libro di sogni, hanno perso quell’identità ideologica che nel passato consentiva agli elettori di schierarsi. In ottemperanza al principio di minima differenzazione di Hotelling ogni partito o ogni coalizione si pone al “centro” dello scenario politico. E gli elettori prendono atto delle promesse non mantenute e si preparano al rito dei nuovi annunci e dei nuovi inganni. L’ assegnazione di un rating ai partiti e ai loro programmi elettorali appare una sfida non proibitiva se si riescono a mettere insieme i concetti e gli strumenti delle due teorie. Intervento di Benito Vittorio Frosini Università Cattolica del Sacro Cuore Milano Istituto di Statistica. e-mail: [email protected] Desidero innanzitutto complimentarmi con i Professori D’Ambra e Squillante per avere organizzato questo convegno, di grande interesse per matematici e statistici, ma anche per ingegneri ed economisti, che rivolgono la loro attenzione allo studio dei criteri decisionali basati su sistemi complessi e rilevazioni multivariate, e alla loro applicazione in numerosi campi, tradizionali e innovativi. Desidero però anche osservare che il mio contributo a questa Tavola Rotonda non potrà che essere alquanto limitato, non essendo io un cultore della Teoria delle decisioni – in ambito statistico – e pertanto non avendo una visione chiara e abbastanza completa riguardo allo sviluppo della ricerca in questo campo negli ultimi anni; il mio interesse è stato sostanzialmente delimitato a un paio di sotto-argomenti, ai quali soprattutto dedicherò alcune osservazioni. Da un esame sia pure solo parziale della letteratura emerge che l’interesse nelle ricerche teoriche e applicate di teoria delle decisioni copre tuttora un vasto spettro di impostazioni, più o meno differenziate al loro interno, che elenco: (a) l’impostazione di Wald (teoria delle decisioni classica), (b) l’impostazione di Neyman-Pearson (Inductive Behaviour), (c) l’impostazione bayesiana (von Neumann-MorgensternSavage), con vari sottotipi (d) l’impostazione classica e bayesiana delle probabilità imprecise (Walley), (e) l’impostazione basata sulla verosimiglianza (Likelihood Theory di Barnard-Edwards-Royall). Come è noto, la configurazione teorica di alcune 30 Statistica & Società impostazioni viene spesso presentata in insanabile contrasto con altre impostazioni; fortunatamente, però, negli ultimi vent’anni i contrasti (teorici) si sono attenuati, e sono stati messi in evidenza reciproci sostegni e concordanze fra impostazioni apparentemente assai distanti, a partire dal generale riconoscimento della validità del suggerimento di Ronald Fisher di basare ogni inferenza – e ogni decisione – sulla corretta reference population, e quindi di impostare ogni problema inferenziale come problema di “inferenza condizionale”. Anche l’insistenza su apparenti incompatibilità e su risultati inconciliabili (che naturalmente esistono) si è notevolmente attenuata, e sembra generalmente accettato il criterio - di logica generale – che non ha alcuna validità un giudizio di “coerenza” o anche di ottimalità dell’impostazione A basato sui principi ispiratori dell’impostazione B. D’altra parte, i presunti “controesempi” si riferiscono quasi sempre a situazioni difficili, caratterizzate da scarsa informazione: sulle distribuzioni a priori, e/o sulle verosimiglianze, e/o sulle popolazioni (piccoli campioni), e/o sui risultati delle decisioni condizionali agli stati di natura, e/o sulla nonindipendenza fra azioni e stati di naturae/o sulle funzioni di perdita o utilità. In questi casi la probabilità di sbagliare è comunque grande, qualunque criterio venga seguito. E sapere che la procedura decisionale adottata manifesta una perfetta coerenza formale riguardo ai “primi principi” non può essere di grande consolazione se la decisione presa si rivela radicalmente errata. Non si dovrebbe mai dimenticare che l’obbiettivo di una procedura decisionale è quello di conseguire un risultato abbastanza buono – fra quelli possibili - e che in questo campo non esistono procedure ottimali, in presenza di tutte le incertezze accennate più sopra. A questo proposito, vorrei riprendere brevemente un argomento trattato nella mia relazione, e cioè la questione della ammissibilità di una decisione. Come è noto dalla teoria di Wald, per due regole o funzioni di decisione f e g si dice che f è dominata da g se la media delle perdite con la decisione f è maggiore o uguale alla media delle perdite con g per ogni stato di natura, e in qualche caso è maggiore. Viene quindi introdotta la terminologia (infelice) secondo la quale una decisione è ammissibile se non esiste alcuna altra decisione da cui è dominata. Sotto condizioni abbastanza generali Wald ha dimostrato che se una decisione è ammissibile, può essere ricavata come soluzione bayesiana rispet- to a qualche distribuzione a priori (eventualmente impropria). Dovremmo allora concludere che una “decisione bayesiana” – in quanto ammissibile – è da preferirsi comunque a una decisione non ammissibile? La risposta è chiaramente NO, e vale anche se fossimo concordi sulla funzione di perdita da utilizzare; infatti una decisione non ammissibile può essere molto ragionevole, e di regola produrre risultati soddisfacenti, mentre una decisione ammissibile può essere basata su una distribuzione a priori del tutto assurda per il concreto problema decisionale, e tale da produrre quasi certamente un risultato negativo. Se c’è un capitolo della Statistica che può notevolmente beneficiare di un interscambio con i contributi provenienti da altre discipline scientifiche esso è proprio quello concernente le procedure decisionali, data la ricchezza e varietà dei problemi che si incontrano nei vari settori. La mia esperienza è piuttosto limitata, ma l’interesse ad alcuni tipi di applicazioni si è mantenuto vivo negli ultimi anni. A partire dalla ben nota contrapposizione tra comportamento normativo e comportamento osservato o reale degli individui, ho seguito la letteratura economica e quella psicologica su questi temi (con amplissima sovrapposizione, tanto che il Nobel per l’Economia è stato assegnato a D. Kahneman, celebre psicologo), e ho collaborato alla valutazione di probabilità soggettive e utilità. Credo che in questo campo ci sia ancora molto lavoro per tutti, soprattutto statistici e psicologi; io stesso mi riprometto di riprendere lo studio di questi temi, insieme ad alcuni psicologi della mia università. Altri temi di ricerca, comuni ad altre discipline, di cui ho qualche esperienza, riguardano da un lato le applicazioni finanziarie, e in particolare la Teoria del portafoglio, e dall’altro le applicazioni ai processi (non stocastici, mi riferisco ai processi civili e penali). Come è ben noto, la compravendita di attività finanziarie, in particolare di azioni e obbligazioni, e più recentemente di prodotti derivati, è un settore in cui sono fioriti numerosi studi teorici di tipo matematico-statistico-econometrico, ai quali la Commissione del Premio Nobel ha riservato molta attenzione. Naturalmente, molti risultati teorici si sono riversati – spesso in modo acritico - nei modelli utilizzati dagli operatori, in particolare nella gestione dei Fondi Azionari e dei c.d. “derivati”. Questo è il classico esempio di un settore in cui le notevoli incertezze di fondo, le assunzioni inevitabilmente sem- Statistica & Società plificatrici, e la mancanza di informazioni realmente rilevanti (nonostante l’apparente dovizia di dati, migliaia di dati per ogni giornata di contrattazioni di ogni singola Borsa Valori), non raramente producono il fallimento – talvolta anche in senso giuridico – delle iniziative meglio fondate dal punto di vista delle competenze dei gestori e del sostegno degli enti partecipanti. È notissimo il caso del fallimento – impressionante per le cifre colossali coinvolte – del fondo americano LTCM, fondato e gestito dai migliori specialisti di Wall Street insieme ai premi Nobel per l’Economia Robert Merton e Myrton Scholes, inventori con Fischer Black della finanza moderna. Oltre a ciò, è altrettanto noto che quasi tutti i migliori fondi – dal punto di vista del rendimento – nel corso di un triennio, non si ritrovano ai vertici della classifica nei tre anni successivi. Le applicazioni delle regole decisionali ai processi civili e penali sono na- 31 turalmente le più difficili e delicate, poiché sono in gioco la reputazione, il patrimonio, e talvolta la libertà personale (e in alcuni stati la stessa vita) degli individui. Negli ultimi vent’anni sono stati numerosissimi i processi - soprattutto in sede civile per azioni di risarcimento, ma in qualche caso anche in sede penale – le cui sentenze hanno dovuto fare esplicito riferimento a probabilità di eventi e a rilevazioni campionarie. Giudici e avvocati hanno dovuto affrontare problemi statistici talvolta complessi, e prendere confidenza con un tipo di cultura scientifica molto lontana dalla loro preparazione e dalle loro competenze. La collaborazione fra statistici, epidemiologi e giuristi si rivelerà sempre più indispensabile per una corretta analisi delle conseguenze di decisioni, che coinvolgono aspetti importanti della nostra salute, della salvaguardia dell’ambiente in cui viviamo, e del futuro stesso dell’umanità. Intervento di Romano Scozzafava Dipartimento di Metodi e Modelli Matematici per le ScienzeApplicate, Facoltà di Ingegneria Università di Roma “La Sapienza” e-mail: [email protected] Nei problemi decisionali, al di là delle differenti metodologie ed approcci adottati, è di fondamentale importanza una rigorosa analisi preliminare del “contesto”, in modo da stabilire quali siano le “regole del gioco”. Infatti troppo spesso si incontrano nella letteratura metodi “ad-hoc”, spesso senza che venga prefisssato rigorosamente il quadro di riferimento. Di conseguenza può accadere di ritrovarsi in una “torre di Babele” da cui è difficile districarsi per comprendere le eventuali diversità delle conclusioni. In particolare, gli strumenti matematici devono essere quelli più “deboli” possibile, senza ipotesi di comodo, utili per poter applicare teorie già consolidate ma spesso poco adatte a rappresentare in modo realistico il modello di riferimento, oggetto di studio. Per esempio, l’utilizzo della teoria delle probabilità deve far riferimento a famiglie arbitrarie di eventi, senza strutture algebriche preconfezionate e poco realistiche, e deve basarsi sugli assiomi più generali (che discendono dalla sola condizione di coerenza), abbandonando quindi (salvo casi particolari) il classico modello kolmogoroviano. “A fortiori” ciò è necessario nell’utilizzo delle probabilità condizionate, che sono lo strumento essenziale ai fini dell’inferenza: questa consiste in sostanza in un problema di prolungamento di una data assegnazione di probabilità a nuovi eventi (condizionati). Ed è ben nota la maggiore flessibilità delle probabilità finitamente additive con riferimento al prolungamento, senza i vincoli imposti dalla teoria classica sigmaadditiva (p.es., teorema di Caratheodory). Invece una probabilità coerente (condizionata o no) ammette sempre un prolungamento (non necessariamente univoco) ad una famiglia più ampia di eventi (condizionati o no) rispetto alla famiglia iniziale. In conclusione, è opportuno inoltre ricordare che la teoria delle probabilità condizionate coerenti consente anche una rilettura unificante di altri strumenti utilizzati in condizione di conoscenza parziale, come la teoria fuzzy, le misure di possibilità e di informazione, la logica default. 32 Statistica & Società Intervento di Ernesto Volpe di Prignano Dipartimento di Matematica per le Decisioni Economiche, Finanziarie e Assicurative l’Università “La Sapienza” di Roma. e.mail: [email protected] Premessa Gli organizzatori di questa Tavola Rotonda mi hanno chiesto di articolare il mio intervento in relazione ai due quesiti, il cui testo considero noto, ossia: 1) quale é lo stato dell’arte attuale della tua disciplina rispetto alla tematica delle decisioni? 2) nell’ambito delle decisioni potresti indicare alcune significative relazioni tra la tua disciplina e le altre interessate alla stessa tematica? Dato che la mia disciplina di insegnamento e di ricerca è da moltissimo tempo la Matematica Finanziaria ed Attuariale, ad essa farò riferimento per i collegamenti con la Teoria delle Decisioni. A tale proposito non mi è facile tenere distinti i due quesiti, giacché – come chiarirò – la mia disciplina è strettamente legata alla Teoria delle Decisioni in una relazione di parte al tutto mentre non vedo a quale ambito dovrei estendermi per considerare e confrontare le altre discipline menzionate nel secondo quesito. Formulerò pertanto il mio intervento chiarendo in quale modo la Matematica Finanziaria ed Attuariale in certo modo rientri come caso particolare nella Teoria delle Decisioni in condizioni di certezza ed incertezza, con riguardo agli aspetti definitori e logici nonché a particolari argomenti che meglio consentono di verificare quanto qui asserito. Decisioni in condizioni di certezza Distinguendo i vari capitoli della disciplina che mi interessa, la Matematica Finanziaria classica si occupa tradizionalmente della formulazione delle leggi finanziarie, a partire da basilari principi economici e, mediante esse, della valutazione delle operazioni finanziarie, in generale e con riferimento a problemi particolari di notevole interesse finanziario, in condizioni di certezza. Dato che le valutazioni vengono fatte precipuamente per orientare il soggetto economico alle decisioni più convenienti in base ad opportuni criteri, prescindendo di norma da elementi di rischio, ecco che tale branca può farsi rientrare nella Teoria delle Decisioni in condizioni di certezza. La Matematica attuariale si occupa tradizionalmente degli aspetti matematici e tecnici delle operazioni assicurative nei vari rami, privati e sociali. In esse non si può prescindere dall’elemento di rischio, che è un aspetto essenziale dei problemi e va trattato con l’ausilio del Calcolo delle probabilità. Quindi tale branca può farsi rientrare nella Teoria delle Decisioni in condizioni di incertezza. La Matematica finanziaria moderna estende la Matematica Finanziaria classica considerando strutture più generali di tassi di interesse e occupandosi di operazioni finanziarie che tengono conto delle recenti innovazioni nei mercati finanziari e nelle quali un elemento di incertezza è sempre considerato e fronteggiato come elemento negativo, assumendosi l’ipotesi di certezza come un caso particolare ideale. Mostriamo ora come alcuni fondamentali schemi di Matematica Finanziaria classica sono riconducibili a problemi di Teoria delle Decisioni in condizioni di certezza. Facciamo riferimento alla valutazione di progetti finanziari e delle decisioni o scelte riguardo ad essi. Tale problema è basilare nella matematica finanziaria classica nonché nell’economia aziendale. Consideriamo un progetto di investimento, ossia tale che il primo movimento sia un esborso. Assumiamo un ideale c/c esclusivamente di appoggio al progetto, regolato ad un tasso x* reciproco (ossia vigente sia con saldi negativi o a debito, sia con saldi positivi o a credito) dato dal mercato (quindi dagli impieghi alternativi al progetto). Tenuto conto dei movimenti e dei tempi delle prestazioni finanziarie cui dà luogo il progetto, se il valore attuale W di tutti i movimenti (esborsi ed incassi) calcolato al tasso x* risulta positivo, allora il progetto è conveniente: si è indotti a trasferire mezzi finanziari dal mercato al Statistica & Società progetto. Se invece W(x*)<0, il progetto non è conveniente: si è indotti a trasferire mezzi finanziari dal progetto al mercato. La stessa conclusione nel caso di un progetto di finanziamento ossia tale che il primo movimento sia un incasso. In ciò consiste il criterio del valore attuale. Indichiamo ora con i* il tasso tale che W(i*)=0, ammesso che esista unico. Esso dicesi tasso interno di rendimento (abbr. TIR). Per un progetto di investimento, sotto opportune ipotesi (ad es., decrescenza di W(i)) la condizione di convenienza W(x*)>0 equivale a x*<i*, che costituisce il criterio del TIR e lumeggia ancor meglio la convenienza a trasferire mezzi dal mercato (con i progetti alternativi) al progetto in esame. Per un progetto di finanziamento, sotto opportune ipotesi (ad es., crescenza di W(i)) la condizione di convenienza del criterio del TIR diventa: x*>i*. Una naturale estensione di tali criteri conduce a quelli di scelta in alternativa fra progetti. Ma su ciò sorvoliamo. È peraltro rilevabile nell’approccio precedente una impostazione che costituisce una forte limitazione pratica degli schemi: l’ipotesi che, quando il saldo dell’ideale c/c non si mantiene con segno costante, onde si alternano fasi di investimento e di finanziamento ossia di debito e di credito verso il c/c, i tassi passivi ed attivi conseguenti debbano coincidere, il che è poco realistico. Conviene allora accennare ad uno schema più generale, noto come criterio TRM (dalle iniziali dei cognomi degli Autori proponenti1). Occorre a tale riguardo distinguere preliminarmente fra progetti puri e progetti misti. Un progetto si dice puro (ad un dato tasso) quando, contabilizzando tutti e soli i movimenti finanziari di un progetto in un c/c fruttifero a tale tasso, il saldo S(t) rimane di segno costante nell’arco temporale anteriormente al tempo T dell’ultimo movimento (mentre il saldo finale S(T) può essere >=<0, costituendo allora il risultato finanziario finale del progetto). Per ovvi motivi si parla di progetto di puro investimento (al tasso di impiego r) se il primo movimento è un esborso ed inoltre anteriormente all’ultimo movimento il sal- 1 33 do S(t) in base al tasso r si mantiene =<0; un esempio è dato, se S(T)=0, dalla gestione di un mutuo al tasso r dal punto di vista del mutuante. Si parla invece di progetto di puro finanziamento (al tasso di finanziamento k) se il primo movimento è un incasso ed inoltre anteriormente all’ultimo movimento il saldo S(t) al tasso k si mantiene >=0; un esempio è dato, se S(T)=0, dalla gestione di un mutuo al tasso k dal punto di vista del mutuatario. Un progetto si dice misto se non è puro di investimento al tasso r né puro di finanziamento al tasso k, alternandosi fasi di investimento e di finanziamento, nel senso che a tali tassi i saldi S(t) anteriormente a T non si mantengono di segno costante. La convenienza di un progetto puro si ha se e solo se al tasso assegnato risulta S(T)>0 (criterio del saldo finale) ed è evidente la stretta affinità di tale criterio con quello del valore attuale (che ovviamente può essere usato, essendo di validità generale) se si pensa che, per la scindibilità della legge composta qui usata, il valore attuale si ottiene attualizzando S(T), onde le due grandezze sono concordi di segno. Ma è evidente altresì che i progetti puri, accettando un’eventuale inversione di segno solo sull’ultimo movimento sono rari; la regola sono i progetti misti. Per essi, pensando a finanziamenti dal sistema bancario, è impensabile la clausola di tasso reciproco ed occorre riferirsi all’ipotesi: r ≠ k. Assumendo quest’ultima, nonché valori distinti r* e k* anche per i tassi esterni, di costo e di rendimento, tratti dal mercato degli investimenti e dei finanziamenti (con una generalizzazione dell’originario modello TRM), dobbiamo allora esaminare e confrontare quattro tassi: r, k, r*, k*. I criteri decisionali si generalizzano allora al modo seguente. Il saldo finale nei progetti misti è funzione di due variabili, k e r, e lo indichiamo con S(k,r) sottintendendo T. Il criterio del saldo finale, ricordando che i tassi k*, r* sono quelli esterni, conduce alla formula: S(k*,r*)>0, che generalizza W(x*)>0, per i progetti convenienti; S(k*,r*)<0 per i progetti non convenienti. Cfr. D. TEICHROEW, A. ROBICHEK, M. MONTALBANO, Mathematical Analysis of Rates of Return under Certainty e An Analysis of Criteria for Investment and Financing Decisions under Certainty , in Management Science, 1965. 34 Statistica & Società La generalizzazione del criterio del TIR presuppone quella del TIR, il quale nello schema a due variabili di tasso è sostituito dalla curva di equità di equazione: S(k,r)=0 nel piano Okr. In forma esplicita la curva ha equazione r=r0(k) ovvero k=k0(r). Gli infiniti punti della curva, di coordinate (k, r0(k)) al variare dell’ascissa k (ovvero (k0(r),r) al variare dell’ordinata r) assicurano tutti l’equità del progetto e la curva ovviamente è crescente (per conservare l’equità aumentando k, deve aumentare anche r). Ciò posto, ricordando che il criterio del TIR si generalizza al modo seguente: un progetto misto è conveniente se e solo se il punto P* =(k*,r*) si trova sotto la curva crescente di equità, il che implica: r 0 (k*)>r* o equivalentemente k0(r*)<k*. Se invece P* si trova sopra la curva di equità onde fra i tassi valgono le disuguaglianze opposte, il progetto misto non è conveniente. Questa disamina dei criteri decisionali per progetti finanziari, non ulteriormente sintetizzabile senza perdere in completezza, mostra chiaramente in qual modo un problema fondamentale della Matematica Finanziaria classica si riconduca in pieno alla Teoria delle decisioni in condizioni di certezza. Decisioni in condizioni di incertezza Nei problemi di scelta fra progetti finanziari, omogenei per durata ed input di capitale, in condizioni di incertezza, la soluzione può ottenersi ragionando sulla tabella dei payoff al modo seguente2. Per ogni possibile scelta di progetto, corrispondente alla decisione Dk , siano determinati i valori (ad es. i risultati finali ottenuti capitalizzando i cash-flows ricavabili col progetto) xhk dipendenti anche dallo stato di natura Eh che si verificherà. Pertanto ex-ante Eh sono eventi, costituenti una partizione, di cui siano valutate le probabilità ph. È possibile quindi calcolare i valori medi mk = ∑ h ph x hk dei valori aleatori relativi a ciascuna possibile decisione Dk . Un ovvio criterio decisionale è allora quello di scegliere la decisione k* corrispondente al massimo valore medio. In formula: mk * = max k ∑ h ph x hk . 2 Inoltre si può esaminare l’opportunità di approfondimenti, ossia di informazioni onerose che valgano a modificare il vettore delle ph in modo più plausibile. Supponiamo che la nuova informazione possa dar luogo a più risultati, che ex-ante sono eventi Hr costituenti una partizione, con probabilità hr . In base a ciascun possibile risultato dell’informazione le probabilità ph si modificano in ph(r ) . Per ogni r si determini la decisione ottima (r ) k*(r) risolvendo mk * = max k ∑ h p xhk . Decidendo di acquisire l’informazione, il risultato atteso, scegliendo i maxk per ogni possibile risultato dell’informazione, è dato da ∑ r hr mk *( r ) . Pertanto il valore dell’informazione, ossia la variazione di risultato se si decide di assumere l’informazione (ma ex-ante, prima che sia noto l’evento Hr che si è verificato riguardo all’informazione) è dato dalla differenza mk * − ∑ hr m ( r ) . E converrà decidere k* r di acquisire l’informazione soltanto se il costo di essa è inferiore alla predetta differenza. Ecco che anche in questo caso un importante problema di Matematica finanziaria, collegato con l’Economia Aziendale, si riconduce a schemi classici di Teoria delle Decisioni in condizioni di incertezza. Il precedente approccio è oggettivo giacché fa riferimento ai valori monetari. Ma si può anche passare all’approccio soggettivo, in cui ai valori monetari si sostituiscono le stime di utilità (secondo Von Neumann-Morgenstern) effettuate dal soggetto decisore, massimizzando i valori medi delle utilità dei valori possibili. Un altro interessante approccio soggettivo ha luogo nel campo della Matematica attuariale e vi accennerò con riferimento alle assicurazioni dei rami danni. Un assicurato sia dotato della ricchezza g ma esposto ad un rischio che può arrecare una perdita aleatoria X. Inoltre il suo atteggiamento verso il rischio sia caratterizzato da una funzione di utilità u(x), crescente e concava, definita a meno di una trasformazione lineare crescente. Egli valuta la sua situazione in E(u(g-X)) e desidera stipulare una assicurazione danni per rimuovere la situazione di rischio e passare ad una certa. Il premio puro di tale assicurazione vale E(X) ma egli è disposto a pagare un premio di tariffa π, (r ) Cfr.: B. de Finetti, F. Minisola, Matematica per le applicazioni economiche, Ed.Cremonese, pag. 342. h Statistica & Società maggiore del premio puro, come avviene nella pratica per noti motivi, ma non troppo. Vogliamo determinare la soglia massima π̂ per π, tale da conservare la vantaggiosità dell’assicurazione. Evidentemente π̂ è soluzione dell’equazione ( ) E u ( g − X ) = u ( g − π̂ ) . In base al principio dell’utilità attesa, per conservare la vantaggiosità l’assicurato deve pagare un premio di tariffa π < πˆ . Il valore π̂ , collegato al concetto di certo equivalente, è stato denominato premio di indifferenza ed ha un significato intrinseco in quanto, come è facile provare, è invariante rispetto alle trasformazioni cui è soggetta u(x). Ammesso che πc> E(X) sia il premio di tariffa minimo perché la Compagnia assicuratrice stipuli un contratto per essa vantaggioso, la condizione π c < π < πˆ garantisce la vantaggiosità del contratto per entrambe le parti contraenti. 35 Conclusioni Le precedenti considerazioni lumeggiano, in termini succinti ma adeguati allo scopo, la circostanza che, a prescindere dai formalismi necessari per impostare una disciplina matematica col dovuto rigore, molti fra i problemi fondamentali e più interessanti della Matematica Finanziaria ed Attuariale hanno un contenuto decisionale e pertanto possono farsi rientrare come particolari capitoli applicativi della Teoria delle Decisioni in condizioni di certezza e di incertezza. Questa impostazione fa riferimento agli aspetti sostanziali e concreti di quest’ultima disciplina, che peraltro negli ultimi decenni è stata dotata di una struttura alquanto formalizzata ed assiomatizzata, specie con riguardo all’approccio soggettivo. Spero di aver risposto con ciò ai quesiti postimi in questa Tavola Rotonda e ringrazio gli Organizzatori per la fiducia accordatami. 36 Statistica & Società Standard da rispettare per proporre un contributo per “Statistica & Società” I soci SIS che intendono pubblicare un contributo, devono inviarne una copia in formato elettronico (.doc) alla Segreteria di Redazione: Michele Gallo Dipartimento di Matematica e Statistica – Via Cinthia Complesso Monte S. Angelo 80126 – Napoli, e-mail: [email protected] Indicando chiaramente l’indirizzo, il recapito telefonico e l’e-mail. I contributi che non rispetteranno le seguenti norme tecniche saranno rifiutati CARATTERISTICHE RIVISTA (le misure sono espresse in millimetri) mm Formato A4 Margine destro Margine sinistro Margine superiore (compreso il numero di pagina) Margine inferiore Testo Times, corpo 11, interlinea 14, su due colonne Lunghezza rigo Spazio fra le colonne Titolo del lavoro Times, corpo 11, interlinea 14, grassetto, maiuscolo, allineamento giustificato su unico rigo Autore/i Times, corsivo, corpo 11, interlinea 14 Autore – Istituto di appartenenzaUnico rigo, Times, corpo 10, interlinea 14 Paragrafo Times, corpo 11, interlinea 14, grassetto, minuscolo, allineamento giustificato come colonna Sottoparagrafo Times, corpo 11, interlinea 14, corsivo, maiuscolo, allineamento giustificato come colonna Sommario Times, corpo 10, interlinea 14, giustificato su unico rigo Formule Times, corpo 11, interlinea 14 Tabelle possono essere su una o su due colonne (rigo mm 90 o 190) Titolo: Times, corpo 10, interlinea 14, grassetto Testo: Times, corpo 10 Grafici e figure possono essere su una o su due colonne (rigo mm90 o 190), Didascalia: Times, corpo 10, interlinea 14, grassetto Testo: Times, corpo 10 Bibliografia Times, corpo 10, interlinea 14, grassetto. 210 x 297 10 10 30 25 90 10 Programmi: Word, figure e grafici in formato tif L’accettazione/non accettazione del contributo per la pubblicazione sarà in ogni caso comunicata agli autori. Responsabilità e Proprietà I contributi, pur ritenuti validi dagli editori per il loro contenuto, sono pubblicati sotto la responsabilità degli autori. Gli autori rinunciano alla proprietà letteraria dei contributi. La riproduzione integrale o parziale della Rivista è consentita a condizione che sia citata la fonte.