Inferenza statistica : scimmiette e cattivi maestri Un titolo per sorridere Alfredo Rizzi Dipartimento di Statistica, Probabilità e Statistiche applicate Piazza A. Moro 5 00187 Roma. e-mail: [email protected] Sommario Nel lavoro vengono svolte alcune considerazioni sul problema generale dell’induzione in rapporto al procedimento deduttivo ed alla impossibilità logica di risolvere le questioni induttive con rigore scientifico. L’analisi si riferisce alle controversie tra le differenti definizioni di probabilità ed alle diverse presentazioni dell’inferenza statistica. Si criticano coloro che ritengono completamente adeguata una sola teoria inferenziale e completamente non adeguate tutte le altre Si richiamano i pericoli delle trattazioni generali a livello didattico; la generalizzazione deve essere un punto di arrivo, non di partenza. 1.1 Il problema generale dell’induzione, del suo significato e della sua validità negli aspetti generali ed in rapporto al procedimento deduttivo, in qualche modo opposto a quello induttivo, è presente nella storia della filosofia sin dai tempi di Aristotele; il filosofo greco riconosceva solo al procedimento deduttivo nella forma sillogistica valore dimostrativo e dignità di rigore scientifico attribuendo, peraltro, all’induzione una funzione del tutto subalterna e significato esclusivamente pratico e strumentale. In tempi più recenti la critica più profonda all’induzione ed agli assunti su cui essa si regge è dovuta a David Hume. Per il filosofo inglese ( 1711-1766) tutti i ragionamenti induttivi sono riconducibili alla relazione di causalità; questa non consegue da alcun ragionamento a priori, ma nasce proprio dall’esperienza. L’inferenza dal passato al presente e al futuro si regge sul postulato dell’uniformità della natura. Tale assunzione è essa stessa basata sull’induzione e quindi indimostrabile. Dopo Hume il problema dell’induzione è rimasto senza speranza di soddisfacente soluzione. Hume si muoveva nell’ambito di una conoscenza certa. Hans Reichenbach ha cercato soluzioni alla questione nella nozione di conoscenza probabile e nel calcolo delle probabilità. Ma questo filosofo non vede che il ricorso alla probabilità – in particolare, ma non solo, in una ottica frequentista – deve comunque supporre una forma di regolarità nello svolgimento degli eventi. Nella logica della ricerca (1935), Karl Popper analizza il punto di vista secondo cui le scienze empiriche possono essere caratterizzate dal fatto di usare i cosiddetti metodi induttivi, intendendosi con ciò una induzione che procede da osservazioni particolari, - campioni per gli statistici- ad osservazioni universali, quali ipotesi o teorie. Popper ritiene che per giustificare il procedimento induttivo si deve stabilire un principio di induzione che consenta di assegnare a tale procedimento una forma logicamente accettabile. Rifacendosi a Hume, Popper conclude che la validità di tale assunto poggia a sua volta su metodi induttivi, per legittimare i quali occorrerebbe assumere un principio di induzione di ordine superiore; in tal modo il tentativo di basare l’induzione sull’esperienza fallisce, perché conduce necessariamente ad un processo infinito. Popper assume , in definitiva, una posizione più radicale di quella di Hume, di Reichenbach ed anche di quella di Emanuel Kant, chiudendo con ogni tentativo di logica dell’induzione; afferma che la motivazione di tale rifiuto va cercata proprio nel fatto che la logica induttiva non fornisce un contrassegno appropriato per distinguere il carattere empirico, non metafisico di un sistema teorico. Nelle nostre discipline in sostanza il problema che si pone è il seguente: come ottenere attraverso esperienze limitate risultati e conclusioni che abbiano significato generale? L’inferenza statistica studia per l’appunto i procedimenti induttivi, di natura logica e matematica, con i quali si perviene a risultati e conclusioni di validità generale attraverso indagini condotte su un conveniente sottoinsieme ( campione ) delle manifestazioni del fenomeno di studio ( Badaloni, 2002). Nell’affrontare aspetti previsivi si ripresenta il problema logico di Hume: siamo autorizzati nel ragionamento a passare da aspetti di cui abbiamo esperienza ad altri dei quali pure abbiamo esperienza e da questi ad altri ancora di cui non abbiamo alcuna esperienza ? ( Popper, 1979). Marbach (1991), nel trattare il problema della previsione, ritiene che la realtà sia costituita da un sistema di stimoli e di accadimenti rivissuti ed ordinati nel pensiero. In tal modo si realizza il ponte tra fatto e sua valutazione interna , ovvero “ metabolizzando “ un accadimento che quindi si compone congiuntamente di avvenimenti, stimoli, ed aspettative. La macchina –Uomo agisce nella prospettiva unificatrice passato - futuro, finalizzando il già accaduto agli eventi attesi ( sperati o temuti. Nella elaborazione cosciente l’antinomia presunta tra accaduto e futuro si smorza. Rimane, come scrive Frosini ( 2000), una grande distanza fra i processi ( conoscitivi ) induttivi rispetto a quelli deduttivi.Nella deduzione non sono possibili errori- salvo che non si tratti di errori materiali; se le regole di deduzione sono state correttamente applicate, la validità delle premesse implica ( deduttivamente ) la validità della conclusione. Non così nell’induzione: il modello che conduce a descrivere la verosimiglianza può descrivere in modo molto accurato la casualità dell’esperimento in questione, ma possiamo essere stati sfortunati con l’estrazione di un campione scarsamente rappresentativo della popolazione- per l’aspetto che ci interessa; in tal caso l’inferenza, dal campione alla popolazione, non potrà evitare errori anche di grande rilievo. … è comprensibile come l’induzione cerchi di rivestire i panni – per la verità un po’ stretti – forniti dalla deduzione, nel tentativo di apparire più accettabile nella buona società e di nascondere i propri difetti. Sono cattivi maestri - secondo la mia opinione , ma ometterò in seguito questa precisazione – coloro che insegnano l’inferenza statistica senza mettere chiaramente in evidenza che gli aspetti induttivi si devono comunque confrontare con questioni logiche fondamentali, indipendentemente dal linguaggio della presentazione o dall’eleganza della teoria e da eventuali errori ed incongruenze di altre teorie. Occorre distinguere, poi, le opinioni personali del docente e i contenuti del suo insegnamento; in particolare qualora si tratti di corsi di formazione generale. Il docente deve mettere a disposizione tutti gli strumenti di formazione critica per far sì che i discenti possano valutare comparativamente le differenti alternative indipendentemente dalle sue preferenze ideologiche. Quello che è in discussione è il comportamento del maestro, non il suo livello di certezza o di appartenenza ad una scuola di pensiero. Sono scimmiette – mi si perdoni questa espressione e la dizione cattivo maestro introdotte solo per far sorridere un po’ e rendere più vivace, forse, l’esposizione – gli studiosi che dedicano tutta o parte della loro ricerca al tentativo di mostrare la superiorità di alcune teorie di altri su contrapponibili teorie sempre di altri. 1.2 Nella scienza, dopo adeguati periodi di studi ed approfondimenti, si giunge alla conclusione che certi assunzioni non sono dimostrabili, alcune teorie non sono decidibili, certe impostazioni logiche non hanno conferma dimostrazionale. Alcuni esempi: Per circa 2100 anni si è tentato di dimostrare il quinto postulato di Euclide partendo dagli altri quattro. Nikolaj Ivanovi Lobaeskij , nella prima metà dell’ottocento, ha indagato sulle proprietà di una geometria che non si basa sul quinto postulato.Con un articolo del 1829 egli fu il primo matematico – ma sembra che Gauss e F.Bòlyai fossero arrivati quasi contemporaneamente agli stessi risultati senza pubblicarli - a fare il passo rivoluzionario consistente nell’elaborare una nuova geometria, oggi nota come geometria iperbolica, costruita su una ipotesi in contraddizione con il postulato delle parallele. La geometria non euclidea è di interesse in molti rami della scienza , ed in particolare in fisica. Le geometrie di Riemann, di grande interesse in matematica, sono non euclidee. Nelle nostre discipline la metrica dello spazio determinerà il tipo di geometria. Ad esempio la metrica della città a blocchi implica la cosiddetta geometria del taxi (Rizzi,1985). Sarebbe cattivo didatta colui che iniziasse ad insegnare le geometrie non euclidee e ne facesse discendere quella euclidea come caso particolare. I giovani discepoli non lo seguirebbero! Nell’insegnare la geometria euclidea, peraltro, va dato adeguato spazio all’apertura verso concetti generali propri delle geometrie non euclidee. Anche nella nostra disciplina, in qualsiasi tipo di insegnamento, si deve andare oltre qualche formuletta stereotipata che fornisce inesistenti certezze al di fuori delle precise assunzioni di base non sempre completamente dichiarate! I fisici, dopo l’esperienza di Roemer che aveva effettuato nel 1675 una determinazione astronomica della velocità della luce, hanno confutato l’opinione corrente, già messa in discussione da Galileo Galilei, che tale velocità fosse infinita. I numerosi tentativi che cercavano di inquadrare i fenomeni luminosi in uno schema unitario portarono alle formulazioni delle teorie corpuscolare da parte di Newton e ondulatoria di Huygens. Più di duecento anni di ricerche e di polemiche tra giganti della fisica tra i quali Maxwell, Plank, Hertz, Einstein, Compton, Bohr hanno mostrato la non incompatibilità tra le due teorie. Werner Heisenberg, nel 1925, elaborò la meccanica delle matrici, sviluppata successivamente da M. Born e da P. Jordan, per descrivere un atomo senza fare intervenire concetti e quantità su cui a priori non è possibile avere informazioni sperimentali. Una delle conseguenze che il grande fisico ricavò fu, nel 1927, la deduzione del principio di indeterminazione secondo cui coppie di grandezze ( quali la posizione e la quantità di moto di una particella ) sono misurabili con un livello di precisione che riguarda essenzialmente soltanto un elemento della coppia di variabili. Ricordiamo, inoltre, l’affermazione di Heisenberg – apparsa in un articolo pubblicato su Dialectica nel 1948 nelle pagine 333 e seguenti- Ne segue che noi non diciamo più “ la meccanica di Newton è falsa “….Piuttosto ora usiamo la seguente formulazione: la meccanica classica …è rigorosamente “ giusta “ dovunque i suoi concetti possono essere applicati. Il principio di indeterminazione è di importanza fondamentale nella fisica; ma nell’insegnamento di questa disciplina va introdotto solo a livello avanzato e, ad esempio, non nella presentazione della cinematica. Kurt Gdel nel 1931, matematico venticinquenne, pubblicò il breve lavoro ber formal unentscheidbare Stze der “ Principia matematica” und Verwandter Systeme ( Sulle proposizioni formalmente indecidibili e di sistemi affini ). Questo contributo costituisce una pietra miliare nella storia della logica matematica. Nei due secoli precedenti il metodo assiomatico era utilizzato con una potenza sempre crescente. Rami vecchi e nuovi della matematica, come la ben nota aritmetica dei numeri interi ( o cardinali ), erano stati corredati con insiemi, apparentemente adeguati, di assiomi. Si era creato un diffuso convincimento per il quale ogni settore della matematica potesse essere fornito di un insieme di assiomi sufficienti per sviluppare correttamente l’infinita totalità delle proposizioni vere nell’ambito di una data area di ricerca. Il lavoro di Gdel ha dimostrato che questa ipotesi è insostenibile in quanto la coerenza di ogni sistema assiomatico è indecidibile. Ma per insegnare l’aritmetica alle scuole secondarie si deve partire dalle ricerche di Gdel o queste possono costituire solo un necessario completamento di un corso avanzato? Il premio Nobel Kenneth Arrow, all’inizio degli anni ’50, dimostrò che non è possibile costruire un dispositivo di aggregazione razionale, ad esempio nell’ambito dei sistemi elettorali che soddisfano ad alcuni assiomi che sembrano logici. In altre parole, fissate alcune condizioni che, secondo il buon senso comune, sembrano ragionevoli ed inoffensive, non esiste alcuna regola di decisione che, nei casi non banali, le soddisfi. Le condizioni riguardano la possibilità di ordinare ogni insieme coerente di preferenze individuali (unrestricted scope ), il principio di Pareto per il quale se un individuo preferisce l’alternativa X ad Y , X deve precedere Y in un ordinamento crescente, un principio che esclude l’esistenza di un dittatore che impone la sua preferenza e l’indipendenza delle alternative. Naturalmente tra le condizioni poste da Arrow, non tutte sono ugualmente convincenti. Il paradosso di Arrow, ha notevoli conseguenze di carattere logico - filosofico; da esso derivano altri paradossi che mostrano, in casi particolari, forte incoerenza dei sistemi elettorali. Esso non può impedire l’insegnamento dei sistemi elettorali dei diversi Paesi e la ricerca delle affinità e differenze tra di essi. Non si deve considerare la base delle importanti analisi in tale campo. Ci insegna, solo, che non esistono sistemi elettorali perfettamente coerenti. Karl Popper (1984) nel Poscritto alla logica della scoperta scientifica, scritto nel periodo 1951-56 ma rimasto inedito per circa 25 anni, afferma che : non c’è alcun metodo per scoprire una teoria scientifica; non c’è alcun metodo per accertare la verità di una ipotesi scientifica, quindi non c’è modo di verificarla; non c’è alcun metodo per accertare se una ipotesi è probabile o probabilmente vera. Egli aggiunge: Le teorie scientifiche si distinguono dai miti solo in quanto criticabili e suscettibili di modifiche alla luce della critica. Non possono essere né verificate né rese più probabili. Mentre Bacone riteneva che un esperimento cruciale possa rafforzare o verificare una teoria, Popper affermava che esso può al massimo confutarla o falsificarla. Popper insegnava queste teorie ai suoi studenti di un corso di filosofia della scienza. Possono rientrare nei corsi di base delle facoltà scientifiche delle nostre università? Trattazioni sommarie non rischiano di banalizzarle? 1.2.1 E’ di questi giorni l’uscita di una raccolta bilingue di scritti giniani, curata in tutti gli aspetti, nel Supplemento al numero 1 del 2001 della rivista Statistica, con impulso di Italo Scardovi e di altri studiosi della Scuola dell’università di Bologna. La lettura degli scritti di Corrado Gini che appaiono nel volume non può non indurre riflessioni profonde sulla genialità ed attualità di questo studioso che ha affrontato, tra l’altro, anche i problemi dell’induzione negli aspetti generali e particolari, rifacendosi ai padri del calcolo delle probabilità e dell’inferenza statistica. E’ con profonda partecipazione e commozione che si leggono memorie fondamentali quali Intorno alle basi logiche e alla portata gnoseologica del metodo statistico (1945), Rileggendo Bernoulli (1946 ), I test di significatività ( 1943), Postilla metodologica (1961) , oltre al ben noto lavoro I pericoli della Statistica (1939). 2.1 Teorie probabilistiche Le differenti definizioni di probabilità sono soggette a critiche da parte degli studiosi di questa disciplina e di coloro che se ne avvalgono nelle ricerche nei più diversi campi. La definizione classica ha il venenum nella specificazione della differenza tra casi ugualmente possibili e ugualmente probabili. Il suo campo di applicabilità è limitato alle situazioni assimilabili ai giochi dei dadi, delle carte,ecc. e quindi, ad esempio, in molti settori della tecnologia. Spesso nella letteratura corrente si afferma che Laplace, tra le diverse concezioni di probabilità in uso anche all’inizio del XIX secolo, aveva scelto quella classica con la implicita supposizione dell’equiprobabilità dei casi possibili. Ma la attenta lettura del Saggio filosofico sulle probabilità (1951) mostra che a Laplace, anche se non era stato del tutto esplicito, non era estranea la definizione di probabilità come rappresentazione della informazione, e non di aspetti oggettivi pur se incogniti. La definizione frequentista ha il venenum nel concetto di limite su cui si basa, non rigorosamente definibile. Si deve ricorrere ad essa in alcune situazioni del campo finanziario, nell’esame di aspetti aziendali, nella teoria dell’ affidabilità e nel controllo statistico della qualità, ecc. Ma il suo ambito di validità è più ridotto di quello di altre concezioni. Tra i sostenitori della concezione frequentista si riconoscono diverse posizioni scientifiche. Il denominatore comune è nella probabilità intesa come qualche cosa di oggettivo. Von Mises ha proposto una definizione frequentista di probabilità che, di fatto, ha portato all’abbandono di quella formulata da Laplace. Sia la definizione classica sia quella frequentista sono operative, nel senso che individuano un valore numerico della probabilità di un evento. La definizione soggettiva della probabilità come grado di fiducia che una persona ha nel verificarsi di un evento fa perdere la caratteristica assoluta di numero legato all’evento. La definizione non è operativa e necessita di meccanismi che consentano di trasformare una opinione in numero.Ciò si ottiene, ad esempio, con riferimento allo schema delle scommesse, imponendo una condizione di coerenza. Il venenum è’ proprio in questo tipo di trasformazione. Ritenere equa una scommessa non implica essere poi disposti a scommettere. Provino gli scettici a far scommettere un gestore finanziario o qualsiasi altro professionista delle decisioni! Ma questa critica non è accettata dai soggettivisti. Ad esempio, Di Bacco (2001) afferma che per esprimere la propria opinione con questa impostazione non occorre che la scommessa sia fatta per davvero, come non è necessario disporre di una pentola d’acqua per esprimere in calorie ciò che è noto circa il valore energetico di un quarto di pollo arrosto. L’impostazione assiomatica di Kolmogorov ( 1933), al di là della sua eleganza matematica, non risolve tutti i problemi delle applicazioni del calcolo delle probabilità. Deve osservarsi (Landenna – Marasini, 1986 ) che, diversamente da Kolmogorov, né classici né frequentisti chiamano in causa la -algebra anche se poi, in pratica, ricorrono ad essa o ritenendola del tutto naturale o giustificandola con motivazioni di vario tipo. Le critiche all’impostazione di Kolmogorov si estendono anche alla definizione di eventi condizionati, dedicando ad essa una attenzione marginale. Abbiamo riletto alcuni importanti volumi pubblicati recentemente in Italia da noti studiosi di Calcolo delle probabilità, citati in bibliografia. Non abbiamo riscontrato sostanziali differenze tecniche nello sviluppo dell’esposizione della disciplina, pur nella diversità degli argomenti trattati e degli approfondimenti teorici che caratterizzano questi volumi. Ad esempio, nel bel libro di Dall’Aglio (2000) l’impostazione soggettiva e il teorema di Bayes costituiscono una parte assai ridotta dell’opera. Le differenze tra l’ impostazione cosiddetta classica o oggettiva e quella soggettiva, scrive Dall’Aglio, portano a conclusioni del tutto diverse in particolare nell’induzione o inferenza statistica . L’impostazione oggettiva, detta ora anche “classica”, si basa sulle sole verosimiglianze, e per giungere a delle conclusioni introduce criteri di scelta che hanno giustificazioni intuitive ma non logiche. L’impostazione soggettiva, detta anche “bayesiana” o “neo-bayesiana“, si basa, come dice il nome sul teorema di Bayes. Anche il libro di Scozzafava (2001) , indipendentemente dalla dichiarata intenzione di recuperare in una impostazione soggettiva la visione classica e quella frequentista, ovviamente per quei particolari tipi di eventi ai quali esse sono applicabili, propone una visione concreta del calcolo delle probabilità, propedeutica o integrativa per corsi universitari di probabilità e statistica non basati sulla concezione soggettiva. Nella presentazione della disciplina i libri di probabilità rimangono sostanzialmente indipendenti dalla posizione assunta riguardo alla definizione di probabilità. In molti di questi libri, ad esempio, non si parla di scambiabilità e del teorema di rappresentazione di de Finetti ( 1937 ). Questo importante teorema mostra che, in condizioni molto generali di scambiabilità, ogni successione di variabili che possono assumere solo le determinazioni 0 e 1 può essere rappresentata come miscuglio di variabili aleatorie di Bernoulli. Tale presentazione del teorema può considerarsi caso particolare della formulazione più ampia in base alla quale se le variabili aleatorie Xi sono scambiabili, ossia se la distribuzione di un qualsiasi sottoinsieme Xi1, Xi2, … ,Xin non dipende dagli indici i1,i2,…,in -ossia dall’ordine delle variabili scelte - ma dal loro numero n, allora esiste una quantità aleatoria θ tale che, condizionatamente a questa , ogni n-pla X1, X2, …,Xn é costituita da variabili indipendenti e somiglianti. Tale teorema riveste grande importanza in una ottica bayesiana, in quanto riesce a spiegare il significato del parametro sulla base delle caratteristiche assunte circa le variabili osservabili, proprio perché la sua distribuzione viene definita per mezzo delle variabili aleatorie osservabili ( Piccinato, 1996). E’ indubbio che assume un ruolo fondamentale in Statistica se ci si pone il problema di come si possono interpretare le probabilità oggettive incognite in ambito soggettivista e, più in generale, di come si possono giustificare i modelli che sono alla base delle elaborazioni inferenziali standard. E’ forse inutile sottolineare che il teorema di rappresentazione di de Finetti ha validità generale, non legata alla sola impostazione bayesiana. Si tratta di un importante risultato della teoria della probabilità, il quale mostra che una funzione di probabilità è simmetrica se e solo se è una mistura di probabilità bernoulliane. Forse è bene che non si consideri il teorema di rappresentazione l’asse portante di una sola impostazione probabilistica. Oggi esso ha maggiore spazio nelle trattazioni bayesiane ( BernardoSmith, 1994). 2.2 L’inferenza statistica Nella storia dello sviluppo dell’inferenza statistica si possono individuare tre fasi ( de Finetti, 1959). Nella prima si affermò rapidamente la teoria bayesiana; vi furono alcune ingenuità nell’applicazione che comportarono qualche discredito e persino l’abbandono della Teoria. Le critiche principali hanno riguardato il principio di indifferenza o postulato di Bayes, che assegna come distribuzione a priori quella uniforme. Non si era compreso che l’utilizzo della distribuzione uniforme riguardava solo un caso del tutto particolare. L’impostazione bayesiana, quindi, non è la più recente. Fu il grande Pietro Simone Laplace (17491827) che diede molta importanza al lavoro di Thomas Bayes ( 1702 –1761 ). Questo ministro del culto presbiteriano, che era solo un dilettante della matematica, non si era reso conto, probabilmente, della rivoluzione da lui innescata. Laplace, nella seconda edizione de la Teorie analytique des Probabilitès del 1814, introdusse le probabilità a priori diverse. Nella prima metà del XX secolo de Finetti, Savage, Lindley e molti altri studiosi hanno proseguito l’opera di Laplace dando origine alla Statistica bayesiana. Nella seconda fase si è sviluppata la Scuola classica, con i fondamentali contributi di Ronald Aylmer Fisher, di Karl Pearson,di suo figlio Egon Sharpe Pearson, di Jerzy Neyman. Questa scuola si avvale del principio della massima verosimiglianza e della ripetizione degli esperimenti. La Teoria della stima si può far risalire alla prima pubblicazione di Ronald Fisher dell’aprile 1912, in cui l’autore utilizza il principio della massima verosimiglianza senza ancora menzionarlo; il metodo è stato sviluppato e divulgato in due importanti articoli del 1922 e 1925 ( On the Mathematical Foundations of Theoretical Statistics – Phil.Trans. Royal Society, A.222 – Theory of Statistical Estimation - Proc.Comb.Phil.Soc. 22- ). Al di là dell’importanza delle metodologie introdotte, per la prima volta è proposto un modello di inferenza statistica che contiene i tre principi fondamentali della verosimiglianza, dell’esaustività e dell’informazione. Nel primo dei due lavori di Fisher è scritto - nella nostra traduzione in italiano -: L’oggetto del metodo statistico è la riduzione dei dati. Una massa di dati deve essere sostituita da un piccolo numero di quantità che rappresentano correttamente questa massa e che devono fornire il massimo di informazione pertinente contenuta nei dati originari. Questo obiettivo si raggiunge con la costruzione di una popolazione ipotetica infinita. La statistica comporta dei problemi di specificazione che sorgono nella scelta della forma matematica della popolazione, problemi di stima,che implicano la scelta del metodo di calcolo delle quantità derivate dal campione, che noi chiameremo “ statistiche “, costruite per stimare i valori dei parametri della popolazione ipotetica ed infine i problemi di distribuzione. La forza del ragionamento fisheriano che è il fondamento della teoria dei test è costituito dalla nota affermazione o si è verificato un evento molto raro oppure la ipotesi della casualità è falsa. Tale struttura è costante in questa teoria dei test di significatività. Il concetto di test di ipotesi e la sottostante metodologia appaiono dopo la teoria della stima, nel periodo 1926 –1930. Karl Pearson, nel 1900, aveva già introdotto il test 2 di adattamento ad una legge di probabilità nota ; George Yule, assistente di Karl Pearson, e Ronald Fisher avevano individuato i gradi di libertà di questo test. Neyman e Pearson ( figlio di Karl ) sviluppano le loro argomentazioni nella convinzione che nessun test statistico possa dimostrare la verità di una data ipotesi. Non ci soffermiamo sui diversi aspetti di queste teorie, peraltro ben note agli studiosi. Vogliamo solo ricordare che Neyman contrappone polemicamente il comportamento induttivo da lui seguito al ragionamento induttivo di Fisher. Neyman, ricollegandosi al classico metodo ipotetico deduttivo, distingue tre momenti nel procedimento induttivo: l’individuazione delle ipotesi rilevanti per i fenomeni in analisi; la deduzione delle conseguenze osservative delle ipotesi; la decisione, sulla base dei risultati sperimentali, di accettare o rifiutare l’ipotesi formulata. E’ in relazione a questo ultimo momento che Neyman ritiene il metodo fisheriano carente, poiché verrebbe ammesso un nesso di implicazione logica tra i risultati sperimentali e le conclusioni riguardanti le ipotesi. Per Neyman il terzo momento del procedimento induttivo rinvia ad un atto di volontà che si concretizza in una decisione relativa ad un comportamento da adottare. E’ questa linea operativa che caratterizza il processo induttivo come comportamento e non come ragionamento. Chi decide, però, deve tener presente la possibilità di compiere due tipi di errore, i ben noti errori di prima e seconda specie, che implicano di respingere una ipotesi vera o accettare una ipotesi falsa. E’ cattivo maestro chi critica la teoria classica o quella bayesiana nelle diverse impostazioni e ritiene, in tal modo, di risolvere i problemi logici della verifica delle ipotesi con formalizzazioni ed impostazioni anch’esse criticabili. Nella terza fase delle ricerche sull’inferenza statistica affiorano le insufficienze dell’impostazione classica, si rivedono i giudizi sulle teorie bayesiane, si afferma il neo-bayesianesimo. Sono fondamentali i contributi di de Finetti, che con i Suoi lavori ha influenzato ed influenza la ricerca statistica che va sotto il nome di bayesiana. La funzione di verosimiglianza costituisce il criterio inferenziale intorno a cui è costruita la cosiddetta Teoria del supporto ( Frosini, 2000). Secondo il principio di verosimiglianza, all’interno di un modello statistico valido per un esperimento casuale tutta l’informazione ottenibile da un campione per decidere la preferenza da accordare ad una fra due ipotesi è contenuta nel rapporto di verosimiglianza calcolato sulle due ipotesi, dato il campione. Poiché una verosimiglianza non interessa in sé e per sé, ma solo in quanto rapportata o rapportabile a un’altra verosimiglianza, in genere si definisce la funzione di verosimiglianza a meno di una costante moltiplicativa che non ne altera le caratteristiche operative. Tale artificio matematico può essere sfruttato sia ignorando, nella espressione della verosimiglianza, tutti i fattori che non dipendono dal parametro di interesse in modo tale da semplificare la formula stessa, sia rapportando tutte le verosimiglianze al massimo o all’estremo superiore della stessa verosimiglianza, in modo da ottenere un valore normalizzato variabile tra zero ed uno. L’importanza della funzione di verosimiglianza nel ragionamento statistico, scrive Piccinato (1996 pag.147) , è stata riconfermata in tempi più recenti anche in una prospettiva bayesiana, pur non avendo conseguito un riconoscimento unanime nella letteratura scientifica. Il ruolo dell’esperimento è proprio quello di attribuire alle diverse ipotesi possibili un peso determinato completamente ed esclusivamente dal risultato; in definitiva il risultato dell’esperimento è la funzione di verosimiglianza stessa. Allo scopo di rendere precise le discussioni e i confronti sui fondamenti logici delle diverse procedure inferenziali, è stato anche formalmente definito ( da A. Birnbaum,1962 ) un Principio di verosimiglianza che esprime in modo particolarmente chiaro ed operativo il concetto della centralità della funzione di verosimiglianza nel senso delineato. Piccinato aggiunge: la funzione di verosimiglianza, nel quadro del modello adottato, incorpora tutta l’informazione prodotta dall’esperimento relativamente al parametro . Il principio non dice invece – e resta in certo senso un problema aperto- come vada elaborata tale informazione per risolvere i problemi inferenziali. Ed ancora…La più importante impostazione alternativa rispetto allo schema verosimiglianza-Bayes fin qui descritto, e probabilmente ancora la più diffusa (almeno mettendo insieme le diverse varianti ), è quella che si può ricondurre dal punto di vista logico al Principio del campionamento ripetuto…Le procedure statistiche debbono essere valutate per il loro comportamento in ripetizioni ipotetiche dell’esperimento che si suppongono eseguite sempre nelle stesse condizioni. Nel condividere, nella sostanza, le indicazioni di Piccinato, non si possono dimenticare le possibili critiche a tale impostazione. Inoltre il ruolo della funzione di verosimiglianza è diverso a seconda dell’impostazione logica adottata. Tommaso Salvemini (1974), con la consueta chiarezza, afferma: Rinunciando quindi a chiedere con quale probabilità un certo evento che si sia già verificato possa essere frutto, ad esempio, del caso, per risolvere i problemi di inferenza statistica ripiegheremo, come propone il Pompilj, sul concetto di conformità delle osservazioni o degli esperimenti alle ipotesi stabilite, nel senso che tra più ipotesi possibili si sceglierà quella verso cui i risultati dimostrano maggiore conformità. 2.2.1. La Società Italiana di Statistica ha sempre avuto parte attiva, sin dalla sua fondazione nel 1939, nel promuovere o incoraggiare il dibattito sui diversi approcci all’inferenza statistica, come dimostrano i molti incontri scientifici, a partire dalla Tavola rotonda di Poppi del 1966. Nell’ambito del Comitato per lo studio dei recenti sviluppi dei metodi statistici nell’approccio all’inferenza statistica istituito dalla SIS nel 1979, un gruppo di studiosi costituito dai compianti professori Alighiero Naddeo ed Amato Herzel e da Giampiero Landenna, Pieralda Ferrari, Donata Marasini condusse una analisi critica del lavoro di Ian Hacking, che partecipò alla discussione finale. Nella Logic of Statistical Inference, Hacking esamina in maniera critica, da un punto di vista logico filosofico, i differenti approcci che hanno caratterizzato il secolo scorso. Il lavoro prende origine dalle ricerche di Sir R.A. Fisher e di molti altri autori. I principali strumenti che vengono utilizzati sono: long run frequency or change; change set- up; supporto; verosimiglianza ; la legge di verosimiglianza. Con tali strumenti Hacking imposta la sua ingegnosa teoria dell’inferenza statistica. Ma gli statistici non accettano l’unicità di tale impostazione. Comunque non si evitano le questioni fondamentali della induzione. Nella suddivisione – forse troppo scolastica - dell’inferenza statistica in stima puntuale, stima per intervalli e verifica delle ipotesi, i problemi logici maggiori sorgono proprio per il significato da dare agli intervalli di confidenza e alla verifica delle ipotesi. Per quanto riguarda la stima dei parametri le proprietà che usualmente ad essi si richiedono – sufficienza, efficienza, consistenza, non distorsione – non esauriscono l’insieme delle proprietà auspicabili per uno stimatore. 2.2.2 In molte situazioni di ricerca - ed in particolare per le applicazioni in campo socio economicoi dati sono rilevati in modo non esattamente definito, presentano margini di errore anche di tipo materiale dovuti a molteplici cause, - tra le quali ad esempio quelle relative alla trascrizione sui supporti di rilevazione sia di tipo cartaceo sia magnetico, ad errate risposte, a dati mancanti ecc. - . Le ricerche sulla robustezza sono di importanza fondamentale per le applicazioni. Per molti parametri sappiamo costruire la curva di influenza, ossia la curva che, in qualche modo, misura l’effetto di contaminazioni sul campione, descrivendo, quindi, il comportamento locale di uno stimatore. E’ cattivo maestro colui che mostra l’eleganza matematica della teoria della stima e si dimentica di porre l’accento anche sugli aspetti della robustezza e sulla validità operativa dei risultati. L’errore non campionario ha, in molte situazioni di ricerca, peso di gran lunga superiore a quello campionario. Occorre renderne completamente edotti i discenti con esemplificazioni ed applicazioni che si riferiscono a situazioni operative e non di laboratorio. 2.3 Cattivi maestri sono coloro che ritengono di insegnare una sola teoria mettendo in cattiva luce le ricerche degli altri, con considerazioni affrettate, spesso non adeguatamente documentate, a volte in maniera faziosa, utilizzando argomentazioni discutibili. Spesso sono aiutati da scimmiette, studiosi talora alle prime armi che scelgono di dedicarsi ad una teoria, in base a scelte politiche di convenienza di varia natura (accademica, di appartenenza a gruppi consolidati, ecc). Noi riteniamo che il dibattito sull’inferenza statistica sia oggi sufficientemente maturo per poter accettare l’idea che non vi sia una presentazione superiore alle altre in assoluto e per tutti gli aspetti. Non vi è una teoria vera da contrapporre a tutte le altre che sarebbero quindi false. Nessuna può risolvere il problema generale dell’induzione. . Sarebbe cattivo maestro colui che dedicasse tutte le sue energie a dimostrare la verità della impostazione scientifica prescelta in contrapposizione alle altre, non impegnandosi, invece, a mostrare i limiti e la validità della teoria anche con riferimento alle applicazioni ed alle sue personali convinzioni. 2.3.1 Caratteristica fondamentale del modo di ragionare della logica del probabile è quello di valutare la probabilità delle diverse conclusioni possibili quando si fa inferenza, indipendentemente dai dati osservati; tra questi e le possibili conclusioni intercorre una relazione che non è di tipo logico-deduttivo. Sulla base dei dati non è possibile accettare o respingere una ipotesi. L’analisi dei dati provenienti da osservazioni o esperimenti ha l’obiettivo di acquisire conoscenze su fenomeni che si ritengono, in qualche modo, parzialmente o totalmente descritti dai dati stessi. In questo contesto non c’è posto per visioni meccanicistiche che demandano a strumenti neutri decisioni proprie del ricercatore, del manager o quant’altro. La risposta di uno o più test statistici, qualsiasi sia la teoria che giustifica lo strumento di cui ci si avvale, non potrà, da sola, indurre un ricercatore medico a cambiare tipo di terapia o un gestore finanziario ad effettuare un tipo di investimento in contrapposizione ad un altro. Peraltro a me sembra che questi aspetti siano ormai conoscenza comune di chi si avvale del metodo statistico in maniera appropriata. Pericoli derivano proprio dalla larga diffusione del software statistico che, se utilizzato da persone aventi scarsa conoscenza dei problemi di cui qui discutiamo, possono portare a conclusioni meccanicistiche avulse da ogni riflessione critica. Gli schemi basati sugli esperimenti non esauriscono, poi, il processo di acquisizione ed elaborazione delle informazioni. Nelle scienze socio-economiche i dati non derivano da esperimenti programmati e condotti con rigore scientifico. In questi casi la validità dei risultati derivanti dall’applicazione della teoria dei test è veramente problematica. 2.3.2 Suppes (1984, pag. 74-76) scrive:… la logica non rende assolutamente conto dei ragionamenti inferenziali che si trovano nei migliori e più accurati trattati. Se alla inferenza logica aggiungiamo ora l’inferenza bayesiana, giungiamo alle medesime conclusioni: non appare possibile costruire un processo inferenziale in termini logici o bayesiani. Se identifichiamo l’inferenza bayesiana con una estensione della logica, allora tendiamo ad isolare l’approccio bayesiano dalla effettiva pratica scientifica più di quanto vorrebbero i bayesiani come de Finetti e Savage.…. Per prendere in seria considerazione la pretesa bayesiana di rendere conto in maniera completa o quasi completa di ogni tipo di apprendimento dall’esperienza, occorrerebbe un tipo di argomento decisivo che non è sinora disponibile. Dobbiamo dunque lasciare ampio spazio ad altri metodi, anche di natura normativa….. In conclusione, penso che l’approccio bayesiano abbia un ruolo importante ma limitato, nel panorama delle attività umane…..ma dovrebbe essere evidente che nessun altro approccio ai fondamenti della statistica offre prospettive altrettanto ricche. Il teorema di Bayes può essere assunto come la regola fondamentale per imparare, in molte situazioni, dall’esperienza: fornisce una base quantitativa che consente di modificare una opinione iniziale sul verificarsi di un evento, espressa nella forma delle probabilità iniziali, alla luce dell’informazione descritta dalle verosimiglianze, per formarsi una nuova opinione sullo stesso evento, quantificabile nella forma di probabilità finali. Non tutti i fenomeni di apprendimento sono riportabili al teorema di Bayes; si pensi, ad esempio, alla capacità di distinguere oggetti, alle abilità manuali, ad alcune regole di comportamento sociale. A nostra opinione il difetto maggiore del bayesianesimo – che costituisce una indubbiamente una importante teoria scientifica- è nella pretesa di voler riportare ogni ragionamento inferenziale, ogni definizione di probabilità, nel proprio ambito. 3. Il progresso della scienza si basa su scoperte, risultati, intuizioni molto particolari, almeno in un primo momento. Gli esempi quasi esauriscono la storia della scienza. Occorre stimolare nei giovani anche il gusto dei piccoli risultati, delle teorie applicabili a situazioni specifiche, farli riflettere sull’impossibilità che ogni ricerca trovi risultati aventi carattere universale. Anche i grandi della scienza si sono cimentati su casi particolari, hanno contributo a chiarire situazioni specifiche, hanno portato, in alcune ricerche, contributi non eccezionali, si sono dedicati a quella che Khun chiama scienza normale. Ricordo quanto ha scritto Dario Fürst nel suo scritto : de Finetti e l’insegnamento della matematica ( de Finetti, 1993, pag.28): Forse tutto il pensiero di de Finetti in tema di insegnamento della matematica – e noi aggiungiamo della Statistica e del Calcolo delle probabilità– si potrebbe condensare in queste poche parole: fare in modo che lo studente senta che l’astrazione, l’assiomatizzazione, la formalizzazione siano il coronamento delle sue esperienze, un modo di inquadrare e semplificare ciò che ha già appreso,non di complicarli, un modo di scoprire l’unità sotto l’apparente diversità; fare di tutto ciò un punto di arrivo e non di partenza, come sempre è avvenuto nella storia del pensiero matematico. Come autorevolmente affermano Italo Scardovi e Paola Monari (1984) : la storia delle metodologie induttive è la storia di un lungo dibattere il ruolo delle conoscenze a priori, dei paradigmi esistenti; un continuo ripensare il nesso dialettico tra dato e ipotesi, tra realtà sperimentale e schema formale, e un ricorrente illudersi sulla possibilità di una codificazione in astratto del rapporto euristico tra modello teorico ed evidenza empirica. Se la storia della scienza è considerata come una successione o sostituzione di vecchi paradigmi con nuovi, il ruolo dell’a-priori può solamente cambiare in accordo con lo stato delle teorie dominanti del pensiero scientifico. E’ cattivo maestro colui che insegna la Statistica, sia essa l’analisi dei dati o l’inferenza o le statistiche cosiddette applicate, o il Calcolo delle probabilità, seguendo schemi astratti ed apparentemente generali come punto di partenza e non di arrivo. Ma in tal caso, come suggerisce Piccinato, si deve parlare piuttosto di cattivo didatta! E’ scimmietta lo studioso – giovane o meno giovane – il quale si affanni a mostrare, con considerazioni ed esempi, che alcune posizioni scientifiche sono superiori ad altre, con spirito di appartenenza a gruppi o scuole di pensiero, sopraffatto dall’ansia di omologarsi alle stesse. Riferimenti bibliografici AAVV (1966), Atti della Tavola rotonda su: I fondamenti del Calcolo delle probabilità, tenuta a Poppi. Scuola di Statistica dell’Università, Firenze AAVV (1978), Atti del convegno su: Induzione, Probabilità, Statistica..Università degli studi di Venezia AAVV (1978), Atti del convegno:I fondamenti dell’inferenza statistica. Dipartimento statistico. Università degli studi di Firenze AAVV (1983), Atti della Tavola rotonda su: I fondamenti dell’analisi dei dati, Istituto di Statistica e Ricerca sociale “ C. Gini”, Cisu AAVV (1982 ? ), Critical Analysis of Ian Hacking’s Book “Logic of Statistical Inference”, Società Italiana di Statistica, Committee for the study on recent developments of statistical methods in the approach to inference Badaloni M. (2002 ), Teoria dell’inferenza statistica, Dipartimento di Statistica, Probabilità e Statistiche applicate, Università di Roma “ La Sapienza “ Berardo J.M.-Smith,A.F.M. (1994), Bayesian Theory, Wiley Brizzi M. (2000), Calcolo delle probabilità con note introduttive di inferenza statistica, editrice Lo Scarabeo, Bologna Cifarelli D.M.-Muliere P. (1989), Statistica Bayesiana, Iuculano Costantini D.- Geymonat L. ( 1982 ), Filosofia della probabilità, Feltrinelli Costantini D.-Scardovi I. ( a cura di ) (1999), Quanti e statistica, Rivista Statistica,anno LIX, Daboni L-Wedlin A. (1981), Statistica. Un’introduzione alla impostazione neo-bayesiana, Utet. Dall’Aglio G. (2000), Calcolo delle probabilità, Zanichelli de Finetti B. (1937), La prevision :ses lois logiques, ses sources subjectives, Ann. Inst. H.Poincar, 7,1-68 de Finetti B. (1970) , Teoria della probabilità, Giulio Einaudi editore Einaudi de Finetti B. (1959), La probabilità e la statistica nei rapporti con l’induzione, secondo i diversi punti di vista, Atti del corso CIME su : Induzione e statistica, Varenna de Finetti B. (1993) a cura di P.Monari e Cocchi D., Probabilità e induzione, Biblioteca di Statistica, Cleub, Bologna Di Bacco M.-Frederic P. (2001), Introduzione al calcolo delle probabilità, Pitagora editrice, Bologna Feyerabend P.K. (1979), Contro il metodo, Feltrinell Frosini B.V. (2000), Introduzione alla Statistica, Carocci Geymonat L. (1977), Scienza e realismo, Feltrinelli, Milano Ghirardi G..C. (1997), Uno sguardo alle carte di Dio, Il saggiatore, Milano. Gini C. (2001), Statistica e induzione, Biblioteca di Statistica, CLEUB, Bologna Landenna G.-Marasini D.(1986), Uno sguardo alle principali concezioni probabilistiche, Giuffrè, Laplace P.S. (1951), Saggio sulle probabilità, Laterza, Bari Lessi O.(1993), Corso di probabilità, Metria Lindley D.(1990), La logica della decisione, Il Saggiatore Mackay A.F. (1980), Arrow’s Theorem :The paradox of social choice, Yale Universty Press Marbach G.(1991). La problematica delle previsioni, in G. Marbach, G. Mazziotta, A.Rizzi, Le previsioni: fondamenti logici e basi sintetiche, EtasLibri Nagel E.-Newman J.R. (1961), La prova di Gdel, Paolo Boringhieri,1961 Piccinato L.(1996), Metodi per le decisioni statistiche, Springer Pompilj G. (1952), Teoria dei campioni, Veschi, Roma Popper K. (1969), Scienza e filosofia, Einaudi. Popper K. (1979 , Objective knowledge, Clarendon,Oxford Popper K. (1984), Poscritto alla logica della scoperta scientifica, vol. 1 e 2, Il Saggiatore Rizzi A. (1985), Analisi dei dati. La Nuova Italia scientifica Rizzi A.(1991), Inferenza statistica, Utet. Salvemini T. (1974), Lezioni di Statistica, Cacucci, Bari Sandrini M.G.,(1998), Logica della ricerca:Introduzione critica ai metodi di inferenza statistica, Carocci. Scardovi I.-Monari P. (1984), Statistical Induction:Probabile Knoledge or Optimal Strategy? In Epistemologia,VII,1984,pp.102-120 Scozzafava R.(2001), Incertezza e probabilità, Zanichelli Suppes P.(1984), La logica del probabile, Cleub, Bologna