Ultima modifica: 27/2/2006 Anno accademico 2005/2006 Corso per gli allievi ordinari della Scuola Superiore Sant’Anna: Metodologia delle Scienze Sociali. Docente: Alessio Moneta1 I LEZIONE: INTRODUZIONE ALLA METODOLOGIA DELL’ECONOMIA Riflessione sul metodo. Metodologia vs. Metodologie. Metodologia normativa vs. metodologia descrittiva. Continuità tra scienza e filosofia della scienza. Scienze sociali vs. scienze naturali. Verstehen vs. erklären. Ragioni vs. cause. “L’analisi dei metodi e delle possibilità conoscitive della scienza economica risulta tanto vecchia quanto l’economia stessa, poiché l’origine e lo sviluppo di una disciplina scientifica sono da sempre accompagnati da riflessioni metodologiche” (Barrotta e Raffaelli, p. 3). Esempi: riflessioni di Smith di filosofia della scienza e riflessioni di Ricardo. Tuttavia le prima vere opere di “metodologia dell’economia” sono considerate quelle di Senior e J.S. Mill. • • • • • • • N.W. Senior (1827) Introductory Lecture on Political Economy J.S. Mill (1844) On the Definition of Political Economy J.N. Keynes (1891) Scope and Method of Political Economy …. L. Robbins (1932) The Nature and Significance of Economic Science T. Hutchinson (1938) The Significance and Basic Postulates of Economic Theory M. Friedman (1953), “The methodology of positive economics”. Dagli anni ’70 l’interesse verso la metodologia dell’economia è cresciuta notevolmente. La metodologia dell’economia è così diventata una disciplina autonoma dell’economia (o della filosofia della scienza, a seconda dei punti di vista), con riviste e istituzioni specializzate. Ciò è dovuto in parte al crollo dell’economia Keynesiana, in parte a nuovi sviluppi della filosofia della scienza, dopo la pubblicazione del libro di Kuhn (1962), The Structure of Scientific Revolutions e Lakatos (1970) Falsification and the Methodology of Scientific Research Programmes. Nuova enfasi sulla dinamica storica dell’impresa scientifica. Discipline empiriche vs. discipline non empiriche. Sviluppo dell’econometria a partire dagli anni ’40 con la Cowles Commission. Crisi dell’econometria della Cowles negli anni ’70 in seguito alla stagflation. Bibliografia (in * le letture più importanti, bibliosssup significa che il libro si trova nella biblioteca della Scuola) Backhouse, R.E. (ed.) 1994, New Directions in Economic Methodology, London and New York, Routledge, ch. 1. *Barrotta, P. e Raffaelli, T. 1998, Epistemologia ed Economia, Torino, UTET, capitolo primo. *Blaug, M. 1980, The methodology of economics, Cambridge University Press, part I-II. [bibliosssup] 1 Si prega di segnalare errori, suggerimenti o richieste di chiarimenti: [email protected]. 1 Hausman, D. 1989, “Economic Methodology in a Nutshell”, Journal of Economic Perspectives, 3, 2,115-127. *Hoover , K. 2001, The Methodology of Empirical Macroeconomics, Cambridge University Press, ch. 1. II LEZIONE: IL PROBLEMA DELL’INDUZIONE Seguendo una tradizione consolidata, le inferenze2 utilizzate nelle scienze empiriche possono essere venire distinte in due categorie: 1. inferenze deduttive; 2. inferenze induttive. 1. Inferenze deduttive: (i) tutte le informazioni veicolate dalla conclusione sono già incluse, più o meno esplicitamente, nelle premesse (la conclusione non dice nulla di più – e nulla di nuovo – rispetto alle premesse); (ii) la conclusione deriva necessariamente dalle premesse (l’inferenza è salva veritate; premesse => conclusione; le premesse sono condizioni sufficiente per la conclusione). Esempio: Premesse Tutti i corvi sono neri; Tutti gli uccelli viventi in quest’isola sono corvi. Conclusione Tutti gli uccelli viventi in quest’isola sono neri. Nota: non tutte le inferenze induttive sono “dall’universale al particolare”. 2. Inferenze induttive: (i) la conclusione è estensiva – dice qualcosa di più – rispetto alle premesse; (ii) l’inferenza non è salva veritate. Esempio (1): Premesse Il primo corvo osservato è nero; Il secondo corvo osservato è nero; … Il millesimo corvo osservato è nero. Conclusione Tutti i corvi sono neri. 2 Inferenza: processo logico per il quale, data una o più premesse, è possibile trarre una conclusione. 2 Nota: in questo esempio si tratta di un’inferenza “dal particolare all’universale”, ma come il prossimo esempio mostra, non tutte le inferenze induttive sono di questo tipo. In questo esempio, inoltre, la conclusione implica necessariamente le premesse (le premesse sono condizioni necessarie per la conclusione; premesse <= conclusione), ma neppure questa è una caratteristica necessaria per le inferenze induttive, come mostra il prossimo esempio. Esempio (2): Premesse Il primo corvo osservato è nero; Il secondo corvo osservato è nero; … Il millesimo corvo osservato è nero. Conclusione Il milleunoesimo corvo osservato è nero. Differenza tra la cosiddetta induzione matematica e l’induzione definita in questo senso. Cenni storici sull’induzione: • • • • • • Francis Bacon (1620), Novum Organum. Le tre tavole, induzione per eliminazione ed esperimenti cruciali. David Hume (1739-40) Trattato sulla Natura Umana. Causalità e sfida scettica. J.S. Mill (1843) System of Logic. I cinque canoni dell’induzione. E’interessante confrontare l’induttivismo in filosofia della scienza di Mill con il suo deduttivismo in economia. Empirismo logico e principio di verificazione. Dalla verifica alla conferma delle ipotesi. J.M. Keynes (1921) A Treatise on Probability. Caratterizzazione dell’induzione all’interno di una teoria matematica della probabilità, in cui la probabilità era interpretata come “grado di credenza”. R. Carnap (1962) Fondamenti logici della probabilità. Approccio probabilistico alla logica induttiva. Il problema dell’induzione: Modus ponens (inferenza logicamente corretta) : A→B A B Modus tollens (inferenza logicamente corretta) : A→B ~B ~A L’inferenza induttiva cade facilmente nella fallacia dell’affermare il conseguente. Sia H un’ipotesi che vogliamo confermare e A un insieme di condizioni iniziali o ipotesi ausiliarie. 3 (H & A) → O O (H & A) Il problema dell’induzione si può ricondurre a tre questioni principali: (i) Perché, in alcuni contesti, è ragionevole accettare la conclusione delle inferenze induttive, anche quando la conclusione non segue logicamente dalle premesse? (ii) Quali sono i criteri per decidere se, date certe premesse, una conclusione induttiva è preferibile ad un’altra conclusione induttiva? (iii) Quali sono i criteri per decidere se una regola induttiva è superiore ad un’altra? I punti (ii) e (iii) hanno avuto un notevole sviluppo con l’applicazione della probabilità all’induzione. Al punto (i) è stato risposto: (A) Il problema dell’induzione è insormontabile. La scienza deve basarsi su inferenze deduttive, non induttive. Per esempio, Popper ritiene che la scienza dovrebbe concentrarsi sui ragionamenti deduttivi, ovvero, sulla falsificazione piuttosto che sulla conferma. La falsificazione, infatti, segue inferenze deduttivamente certe come il modus tollens: (H & A) → O ~O ~ (H & A) (Le cose non sono, purtroppo, così semplici. Infatti non sempre è facile distinguere se stiamo negando H o una delle ipotesi ausiliarie incorporate in A. Vedi il problema di Duhem-Quine. Per questo Popper è costretto a parlare di gradi di corroborazione). (B) L’induzione ha una giustificazione induttiva. Detto così, già non stiamo dando molto credito a questo argomento, perché la sua circolarità è evidente. Però la storia e la filosofia della scienza è piena di argomenti che giustificano l’induzione utilizzando giustificazioni più o meno esplicitamente induttive, quali “il successo della scienza sarebbe un miracolo se i ragionamenti che utilizza nella scoperta e giustificazione delle sue teorie fossero fallaci; i metodi della scienza includono molti ragionamenti induttivi; i metodi induttivi funzionano e funzioneranno anche nel futuro”. (C) L’induzione ha una giustificazione deduttiva. Vi sono stati due modi di giustificare in maniera deduttiva l’induzione. 1) Si è andati in cerca di prinicipi a priori sottointesi come premesse alle inferenze induttive affinché queste potessero essere giustificate. Una potrebbe essere: “il futuro somiglia al passato”. Essa è stata proposta da Hume, con lo scopo, non di rendere logicamente valido il ragionamento induttivo, ma di giustificarlo. Mill propone il principio che ogni evento ha una causa sufficiente (principio della causalità universale) e suggerisce rigorose regole metodologiche per la ricerca dei nessi causali (i cinque canoni dell’induzione: metodo della concordanza, metodo della differenza, metodo dell’accordo e della differenza; metodo dei residui; metodo delle variazioni concomitanti). Keynes propone per giustificare l’induzione il principio della varietà limitata indipendente, per cui gli oggetti del nostro campo di ricerca “non hanno un numero infinito di qualità indipendenti; in altre parole le loro caratteristiche, per quanto numerose, si riuniscono in gruppi di connessione invariabile che sono di numero finito”. Ai principi di Mill e Keynes si può obiettare che sono a loro volta stabiliti induttivamente. 4 2) Utilizzando la teoria della probabilità, i ragionamenti induttivi vengono ridotti ad inferenze deduttive: (H & A) → O O La probabilità di (H & A) aumenta di un certo grado. (Ritorneremo ai gradi di conferma di Carnap). (C) L’induzione ha una giustificazione pragmatica. C.S. Peirce distingueva tra deduzione, induzione e abduzione. Esempio: Si consideri questa semplice inferenza induttiva (da particolari ad universale): Il reddito medio delle famiglie è aumentato in India La percentuale di reddito della famiglia media speso in generi alimentari è diminuito in India. In tutte le famiglie del mondo, quando il reddito aumenta la percentuale di reddito spesa in generi alimentari diminuisce (Legge di Engel). Rovesciando premesse e conclusioni, si ottiene la seguente inferenza deduttiva: In tutte le famiglie del mondo, quando il reddito aumenta la percentuale di reddito spesa in generi alimentari diminuisce (Legge di Engel). Il reddito medio delle famiglie è aumentato in India La percentuale di reddito della famiglia media speso in generi alimentari è diminuito in India. L’abduzione consiste nel rovesciare il sillogismo induttivo in questo modo: In tutte le famiglie del mondo, quando il reddito aumenta la percentuale di reddito spesa in generi alimentari diminuisce (Legge di Engel). La percentuale di reddito della famiglia media speso in generi alimentari è diminuito in India. Il reddito medio delle famiglie è aumentato in India L’abduzione è invece un’inferenza induttiva se adottiamo il criterio di distinzione tra deduzione ed induzione esposto all’inizio di questa lezione. L’abduzione è vista spesso come la logica della scoperta scientifica. L’idea è che tutte le credenze sono considerate fallibili, ma particolari credenze sono considerate provvisoriamente indubitabili durante l’indagine scientifica. La logica della giustificazione è invece guidata dalla deduzione + induzione (analogo al metodo ipotetico deduttivo, v. sotto). Secondo Peirce se i tre metodi (abduttivo, deduttivo ed induttivo) sono usati insieme si ottiene una procedura autocorrettiva che dovrebbe assicurare alla comunità scientifica la scoperta della verità. Bibliografia *Festa, R. 1994, “Induzione, probabilità e verisimilitudine”, in G. Giorello, Introduzione alla filosofia della scienza, Milano, Bompiani, 283-317 (paragrafo 2). [bibliosssup] *Pizzi, C. 1983, Teorie della probabilità e teorie della causa, Bologna, CLUEB, capitolo 3. 5 III LEZIONE LA CONFERMA DELLE IPOTESI Metodo ipotetico-deduttivo: 1. Formulare qualche ipotesi o teoria H; 2. Dedurre, da H più altre proposizioni, qualche predizione o asserzione riguardante dati dell’esperienza O; 3. Sottoporre a test O; 4. Confermare o non confermare H. (H & A) → O O (H & A) è confermata Nota: la premessa maggiore ((H & A) → O) riassume un’inferenza deduttiva, ma l’inferenza nel suo complesso è induttiva. I paradossi della conferma. 1. Paradosso di Hempel (1945) PG (Principio di generalizzazione) Una generalizzazione è confermata da ciascuno dei suoi esempi positivi. PE (Principio di equivalenza) Se due ipotesi sono logicamente equivalenti, allora ogni dato che conferma l’una conferma anche l’altra. Utilizzando PG e PE possiamo fare la seguente deduzione: L’ipotesi “tutti i corvi sono neri” è confermata dall’osservazione di un corvo nero. L’ipotesi “tutti i corvi sono neri” è equivalente all’ipotesi “tutte le cose non-nere sono non-corvi”. L’ipotesi “tutti i corvi sono neri” è confermata dall’osservazione di una cosa non-nera che non è un corvo (p.es. un canarino giallo). Una possibile soluzione del paradosso rimanda all’applicazione della teoria della probabilità e dell’inferernza statistica (vedi Giere 1970). 2. Paradosso di Goodman (1954) L’ipotesi “tutti gli smeraldi sono verdi” è confermata dall’osservazione di un certo numero di smeraldi verdi. Supponiamo adesso di definire due nuovi predicati: 6 1. “x è verdlù sse soddisfa almeno una delle seguenti condizioni: (i) x è verde ed è stato osservato prima del 2010; oppure (ii) x è blu ed è stato osservato dopo il 2010.” 2. “x è blerde sse soddisfa almeno una delle seguenti condizioni: (i) x è blu ed è stato osservato prima del 2010; oppure (ii) x è verde ed è stato osservato dopo il 2010.” Supponiamo di aver osservato che nel 2005 un certo numero di smeraldi sono verdi ed aver confermato l’ipotesi che tutti gli smeraldi sono verdi. Ma gli smeraldi che abbiamo osservato sono anche verdlù e quindi abbiamo anche confermato l’ipotesi che tutti gli smeraldi sono verdlù. Ne consegue che dopo il 2010 tutti gli smeraldi saranno blu. A chi risponde a questo paradosso proponendo di eliminare dai predicati che formano le ipotesi riferimenti a tempi determinati, Goodman osserva che anche “verde” potrebbe essere definito con riferimenti a tempi determinati: “x è verde sse soddisfa almeno una delle seguenti condizioni: (i) x è verdlù ed è stato osservato prima del 2010; oppure (ii) x è blerde ed è stato osservato dopo il 2010.” Il problema messo in luce dal paradosso è collegato al problema di distinguere tra generalizzazioni legiforme e generalizzazioni accidentali, problema di cui non abbiamo soluzioni convincenti, secondo Goodman. Quello che questo paradosso dimostra è che la distinzione tra generalizzazioni legiformi e generalizzazioni accidentali non può basarsi su motivi puramente sintattici. Analogamente, la forma di un’inferenza induttiva non può dirci se essa è valida oppure no, al contrario di quanto avviene con le inferenze deduttive. Soluzione del paradosso data da Goodman: “verde” è, a differenza di “verdlù”, un predicato che è “trinceato” (entrenched) nel nostro linguaggio. L’entrenchment dipende dalla frequenza con cui, nel passato, abbiamo induttivamente proiettato un predicato. In altre parole la soluzione di Goodman è in linea con il pragmatismo: ciò che è più importante è l’accordo con l’uso concreto che si fa del linguaggio. Importanza di questo paradosso per le scienze sociali. Si veda la Lucas Critique in Economia e l’importanza del concetto di stabilità od autonomia in econometria. Bibliografia *Festa, R. 1994, “Induzione, probabilità e verisimilitudine”, in G. Giorello, Introduzione alla filosofia della scienza, Milano, Bompiani, 283-317 (paragrafo 3). [bibliosssup] *Pizzi, C. 1983, Teorie della probabilità e teorie della causa, Bologna, CLUEB, capitolo 3. Giere, R.N. 1970, “An Orthodox Statistical Resolution of the Paradox of Confirmation”, Philosophy of Science, 37, 354-362. Goodman 1983, Fact, Fiction and Forecast, Cambridge MA, Harvard University Press (ch. III, IV). [bibliosssup] 7 IV LEZIONE LA PROBABILITA’ Che cos’è la probabilità? Da sempre la probabilità si presenta come concetto duale. Da una parte la probabilità si riferisce alla frequenza di un determinato evento, legata a proprietà fisiche od oggettive (p.es. di un dado), dall’altra al grado di attesa o di credenza soggettiva che avvenga un certo evento (p.es. che domani piove). Si può distinguere tra le seguenti concezioni della probabilità: 1. 2. 3. 4. 5. Concezione classica; Frequentismo; Logicismo; Soggettivismo; Assiomatica. Il calcolo delle probabilità di Kolmogorov Partiamo proprio dall’ultima, che, di solito, non è vista come una concezione autonoma della probabilità, ma di una formalizzazione del concetto di probabilità, a cui, di solito, si fornisce un’interpretazione seguendo una qualsiasi tra le concezioni moderne 2,3,4. Si potrebbe però considerare l’atteggiamento filosofico di fornire un sistema di assiomi per un concetto e di ridurre questo concetto a nient’altro che le proprietà formali definite dagli assiomi come una concezione indipendente dalle particolari interpretazioni. In modo analogo, Hilbert aveva fornito un sistema di assiomi per la geometria e la logica. Tuttavia occorre tenere presente che le concezioni moderne della probabilità 2,3,4 soddisfano tutte gli insiemi di assiomi forniti da Kolmogorov e che quindi definire la probabilità come tutto ciò che soddisfa l’insieme di assiomi di Kolmogorov non basta. Andrej Nikolaevich Kolmogorov (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933) ha formalizzato la teoria della probabilità in un sistema di assiomi basati sulla teoria degli insiemi e sulla teoria della misura. Siano A e B due proposizioni qualsiasi, appartenenti ad un insieme F di proposizioni chiuso rispetto a negazione, disgiunzione e congiunzione (in altri termini, se A e B sono elementi di F, anche A & B è un elemento di F, e ancora A v B, ~A e ~B sono elementi di F)3 Basandoci su Howson (2000), possiamo riformulare i principi basi della probabilità in questo modo: 1. 0 ≤ P(A) ≤ 1. 2. P(A v B) = P(A) + P(B), dove A e B sono mutuamente esclusivi. 3. P(A) = 1 se A è necessariamente vera. 4. P(A) = 0 se A è necessariamente falsa. 5. P(A) = 1 - P(~A). 6. se A implica necessariamente B, allora P(A) ≤ P (B). 7. se A è logicamente equivalente a B, allora P(A) = P(B). 8. P(A|B) = P(A & B) / P(B), con P(B) ≠ 0. 9. P(A|B) = 1 se B implica necessariamente A. 10. P(A|B) = 0 se B implica necessariamente ~ A. 3 ~ A equivale a non A; A v B equivale a A oppure B (dal latino vel). 8 Normalmente la teoria della probabilità è definita riferendosi ad uno spazio di eventi, ma in questo contesto (dato che vogliamo parlare di probabilità come strumento di conferma) è più comodo qui parlare di proposizioni. Tuttavia, il passaggio da un algebra delle proposizioni ad un algebra degli eventi non è difficile; basta considerare A e B come insieme di eventi e sostituire operazioni tra proposizioni con operazioni tra insiemi nel seguente modo: & diventa ∩ (intersezione), v diventa U (unione), ~ diventa l’operazione di complemento. Inoltre occorre notare che quelli che sono stati qui elencati non coincidono con gli assiomi di Kolmogorov, e non potrebbero neppure essere assiomi perché non sono indipendenti tra loro: (1), (2), (3) e (8) implicano il resto. Gli assiomi di Kolmogorov, insieme a definizioni aggiuntive sulla probabilità condizionale, implicano comunque (1)-(8). Concezione classica della probabilità La concezione classica è legata soprattutto al nome di Pierre Simon de Laplace (1749-1827), matematico, fisico ed astronomo francese. Nel 1814 viene pubblicato l’Essai philosophique sur les probabilités. Laplace vedeva il sistema della meccanica di Newton come il pilastro su cui costruire l’intero edificio della conoscenza. Esso veniva interpretato alla luce di un determinismo assoluto: ogni evento è determinato dalle sue cause. Se non riusciamo a prevedere gli eventi futuri ciò è dovuto alla limitatezza della mente umana. In questo contesto, la probabilità è per Laplace la “misura della nostra ignoranza”, nel senso che la probabilità dipende dalla parziale ignoranza delle condizioni e cause dell’evento in questione. Definizione classica di probabilità: P(e) = casi favorevoli ad e casi egualmente possibili Il problema di questa definizione è che “egualmente possibile” è difficilmente distinguibile da “egualmente probabile”, per cui il pericolo di circolarità è evidente. Il principio di ragione insufficiente o principio di indifferenza introdotto da Laplace ha il fine di sfuggire a questa circolarità: “le alternative sono egualmente possibili quando non ci sono ragioni per aspettarsi il verificarsi di una piuttosto che di un’altra”. Tuttavia rimane il problema di cosa ritenere come alternative (p.es. supponiamo di non conoscere il colore di un certo oggetto. Le alternative egualmente possibili sono “rosso e non rosso” o “rosso, nero o verde”, o etc...?) . Questo problema è evidente nel paradosso della riparametrizzazione, di cui esistono numerose versioni: si veda ad es. Festa (1994, p. 306). Supponiamo che non sappia nulla della lunghezza di uno spigolo di un cubo, eccetto il fatto che misura al massimo 10 cm. Il principio d’indifferenza mi suggerisce di considerare intervalli di lunghezza uguale come equiprobabili, distribuendo la probabilità in modo uniforme (probabilità 0.1 che lo spigolo sia lungo 1 cm, probabilità 0.2 che lo spigolo sia 2 cm, probabilità 0.3 che lo spigolo sia 3 cm, etc.). Ma allora, se assegno le probabilità nel modo appena descritto, sto assegnando implicitamente probabilità 0.1 che il volume del cubo sia 1 cm3, probabilità 0.2 che il volume sia 8 cm3, probabilità 0.3 che il volume sia 9 cm3 etc. Tuttavia ho ragione di ritenere – non sapendo affatto il volume del cubo eccetto il fatto che è al massimo 1000 cm3 – che l’ipotesi secondo la quale il volume del cubo è di 8 cm3 è 8 volte (e non 2 volte!) più probabile dell’ipotesi secondo la quale il volume del cubo è di 1 cm3. 9 Frequentismo La concezione frequentista della probabilità è legata soprattutto ai nomi di John Venn (logico inglese; The logic of chance, 1886), di Richard von Mises (matematico austriaco, fratello dell’economista Ludwig; Wahrscheinlichkeit, Statistik und Wahrheit,1928) e di Hans Reichenbach (fisico e filosofo tedesco; Wahrscheinlichkeitlehre, 1935). Essa muove dal rifiuto del principio laplaciano di ragione insufficiente e, più in generale, dal rifiuto dell’idea che si possano assegnare delle probabilità a priori, prescindendo cioè dall’esperienza. La probabilità, secondo questa concezione, è legata all’osservazione di una serie di eventi (ad es. i risultati di una serie di lanci di una moneta) ed equivale al limite in probabilità a cui tende la frequenza relativa (la proporzione) dell’evento quando tende all’infinito il numero di elementi della successione. Ad es. supponiamo lanciare ripetutamente una moneta: L1 L2 L3 L4 L5 L6 L7 L8 ottenendo i risultati: T C T T C C T C Misuriamo ad ogni lancio la proporzione del risultato T: 1 ½ 2/3 ¾ 3/5 ½ 4/7 ½ L9 L10 L11 L12 …. T C C C …. 5/9 ½ 5/11 5/12… La legge dei grandi numeri di Jakob Bernoulli (1713) ci dice che se p è la vera probabilità di ottenere T ad ogni lancio, se f è la frequenza relativa di T misurata ad ogni lancio, e se lanciamo la moneta n volte: f → p in probabilità, per n → ∞, ovvero: P ( p - ε ≤ f ≤ p + ε) → 1 per n → ∞ Il teorema di Bernoulli sembra dare fondamenti rigorosi all’operazione frequentista di assegnare probabilità a posteriori in base all’osservazione dell’esperienza. Problemi del frequentismo: 1. Il limite per una frequenza relativa esiste solo in probabilità. 2. Niente ci garantisce che il limite esiste per sequenze di variabili aleatorie di cui non sappiamo se sono distribuite identicamente. 3. Non è possibile assegnare probabilità ad eventi singoli non ripetibili. E’ interessante notare che Von Mises negava che la concezione frequentista fosse applicabile alle scienze morali, mancando l’uniformità necessaria dei fenomeni. Logicismo La concezione logicista della probabilità è legata soprattutto ai nomi di John Maynard Keynes (A Treatise on Probability, 1921) e di Rudolph Carnap (Logical Foundations of Probability, 1950). 10 Keynes e Carnap interpretano il concetto di probabilità come una generalizzazione del concetto di conseguenza logica. Essi sostengono che si può definire una funzione di probabilità pL che specifica, per ogni coppia di proposizioni p e q, il grado in cui p “probabilizza” q; i casi limite sono 1, quando p implica logicamente q, e 0, quando p implica logicamente ~q. La particolarità di questa concezione è che la probabilità viene considerata una relazione numerica che vale tra proposizioni. La logica della probabilità viene fatta coincidere con la logica induttiva: “tutti i ragionamenti induttivi, nell’ampio senso di ragionamenti non deduttivi e non dimostrativi, sono ragionamenti probabilistici” (Carnap 1950, p. v). La relazione logica su cui è basato il concetto della probabilità è il grado di conferma di un’ipotesi (o conclusione) sulla base di qualche evidenza data (o premesse). Pertanto la probabilità logica fornisce un diretto e rigoroso approccio al problema della valutazione delle teorie. I maggiori problemi della concezione logicista sono collegati al fatto che essa è basata, come la concezione classica, sul problematico principio di indifferenza. Inoltre i tentativi di dare una caratterizzazione formale dell’induzione (in modo che dalla forma dell’inferenza, analogamente a quanto succede con la logica deduttiva, siamo in grado di decidere se l’inferenza è valida o meno) sono destinati a scontrarsi con il paradosso di Goodman. Soggettivismo Gli esponenti principali della concezione soggettivista sono Frank Plumpton Ramsey (1903-1930; Foundations of Mathematics and Other Essays 1926) , Bruno de Finetti (1906-1985; La prévision: ses lois logiques, ses sources subjectives 1937) e Leonard Savage (The Foundations of Statistics 1954). La probabilità di un evento non è nient’altro che il grado di credenza soggettiva che l’evento si verifichi effettivamente. Questo grado di convinzione è rappresentabile numericamente ed è reso inter-soggettivo per mezzo di alcune condizioni di coerenza che vengono imposte. Una strada, seguita da Ramsey e Savage, è quella di arrivare a stipulare le condizioni di coerenza tramite la teoria dell’utilità, un’altra strada, seguita dallo stesso Ramsey e soprattutto da De Finetti, è quella di far coincidere i principi di razionalità con le restrizioni che il giocatore razionale pone sui quozienti di scommessa. Incominciamo dalla seconda. Scommesse e gradi di credenza (Ramsey 1926 e De Finetti 1937) Il grado di convinzione di un soggetto può essere misurato con la disposizione a scommettere. Una scommessa su A (es. A= “domani piove”) è un contratto in cui una parte (lo scommettitore a favore) ottiene da un’altra parte (lo scommettitore contro) Q euro (p.es.) se A risulta vera, mentre deve ad un’altra parte R euro se A risulta falsa. Il rapporto R/Q si chiama la quota su A; il rapporto p = R/(R+Q) si chiama il quoziente di scommessa su A; e S=R+Q è la posta in gioco. Il tuo grado di credenza in A (= probabilità di A) è identificato con il quoziente di scommessa in A che tu saresti disposto ad assegnare ad una scommessa in cui il tuo avversario prende sia la decisione riguardo all’entità della posta, sia la decisione se tu sei lo scommettitore a favore o lo scommettitore contro. 11 La nozione di coerenza (razionale) è fondamentale per la concezione soggettivista della probabilità. Sono pertanto esclusi sistemi di scommesse come il Dutch Book (p. es. scommessa 1: R=3€, Q=2€ su A; sommessa 2: R=3€, Q=2€ su ~A) che fanno sì che uno dei due scommettitori perda con probabilità 1. Si può dimostrare che in un sistema di scommesse i cui quozienti di scommessa soddisfano gli assiomi di Kolmogorov (in particolare l’assioma di probabilità finitamente additiva, v. sopra assioma 2) non si può fare alcun Dutch Book. Utilità e probabilità (Ramsey 1926 e Savage 1954) La variante utilitarista del soggettivismo assume come primitive le preferenze rispetto alle probabilità. L’idea è che le preferenze di una persona razionale possano essere governate da un certo insieme di assiomi. Supponiamo che tu preferisca l’evento X (es. “fare una passeggiata”) all’evento Y (es. “andare al cinema”), ma che tu sia indifferente rispetto alle due seguenti opzioni: 1. X se A (es. “lancio la moneta ed esce testa”), Y se ~A (“esce croce”); 2. Y se A (“esce testa”), X se ~A (“esce croce”). Ciò significa che la proposizione A ha un grado di credenza pari a ½. L’utilità attesa dell’opzione 1 è rappresentata da U(X) P(A) + U(Y) P(~A). Più in generale se sei indifferente tra X e l’opzione “Y se A, Z se ~A” allora il tuo grado di credenza in A è definito dal seguente rapporto: P(A) = (u(X) - u(Z)) / (u(Y) - u(Z)) Pertanto la probabilità può essere definita in termini di quote basate sull’utilità. Si noti che, manipolando algebricamente l’equazione, l’utilità attesa dell’opzione “Y se A, Z se ~A” corrisponde a u(X) = p(A) u(Y) + (1 – P(A)) u(Z). Si può dimostrare che la probabilità così definita soddisfa gli assiomi di Kolmogorov. Teorema di Bayes I soggettivisti vengono anche chiamati Bayesiani per il ruolo fondamentale che svolge il teorema di Bayes nell’aggiornare i gradi di credenza soggettivi (cioè le probabilità) ogni volta che accade un nuovo evento. Il reverendo inglese Thomas Bayes (1701-1761) formulò un metodo per assegnare la probabilità inversa o la probabilità da assegnare ad un’ipotesi sulla base dell’evidenza disponibile. Nonostante l’importanza del teorema di Bayes per la scuola soggettivista, non si trovano negli scritti di Bayes motivi validi per considerarlo un soggettivista ante litteram. Il teorema di Bayes segue comunque facilmente dalla definizione di probabilità condizionale (v. assioma 8 sopra). Infatti: P(A|B) = P(A & B) / P(B), con P(B) ≠ 0 (assioma 8) e P(B|A) = P(A & B) / P(A), con P(A) ≠ 0 (assioma 8), da cui segue P(A & B) = P(B|A) P(A) Sostituendo la terza riga nella prima riga otteniamo il teorema di Bayes: P(A|B) = P(B|A) P(A) / P(B) Nel contesto soggettivista (così come nella statistica bayesiana) P(A) denota la probabilità a priori dell’evento A, P(A|B) la probabilità a posteriori dell’evento A data l’evidenza B, P(B|A) la 12 verosimiglianza di A (rispetto a B), ovvero il grado di credenza che il soggetto avrebbe nel verificarsi di B nel caso che egli sapesse che A è vera. Dunque la probabilità finale di un’ipotesi P(A|B) è direttamente proporzionale alla sua probabilità iniziale P(A) e alla sua verosimiglianza P(B|A), mentre è inversamente proporzionale alla probabilità iniziale P(B) dell’evidenza B (ma direttamente proporzionale al grado di sorpresa che ha l’evidenza B, espresso da 1/P(B)) . In questo contesto, il teorema di Bayes svolge il ruolo di aggiornare le probabilità di eventi o ipotesi sulla base della nuova evidenza. Le probabilità finali di oggi costituiscono le probabilità iniziali di domani. Quanto più l’evidenza empirica è condivisa dagli agenti (o scienziati se parliamo di probabilità di ipotesi scientifiche) tanto più diminuisce il peso delle assegnazioni soggettive di probabilità. Così l’apprendimento bayesiano è visto dai soggettivisti come un meccanismo intersoggettivo che secondo loro riesce a far entrare un certo grado di obiettività nell’assegnazione delle probabilità a posteriori. Difficoltà del soggettivismo Le principali critiche a cui sono andate incontro la concezione soggettivista della probabilità concernono le condizioni di coerenza o di razionalità imposte alle probabilità personali. Queste condizioni, mentre hanno il vantaggio di rendere le probabilità personali calcolabili in quanto consistenti con gli assiomi di Kolmogorov, hanno lo svantaggio di sembrare in molti casi reali delle vere e proprie forzature. Ecco alcuni esempi. 1. Nella definizione di probabilità come quoziente di scommessa prescinde dal fatto che una persona reale difficilmente esprime gradi di credenza indifferentemente dalla posta in gioco. 2. La strada seguita da Ramsey (prendere la nozione di preferenza come primitiva) si scontra con l’osservazione che per avere un’attitudine di indifferenza o preferenza è già necessario possedere una valutazione di probabilità. 3. Gli assiomi proposti da Savage per descrivere la struttura delle preferenze coerenti generano conclusioni paradossali (si vedano i paradossi di Allais ed Ellsberg). 4. Studi di psicologia cognitiva ed economia sperimentale hanno accertato che le misure soggettive attribuite ad eventi incompatibili che esauriscono lo spazio campionario (l’insieme degli eventi possibili) spesso non hanno somma uguale a 1. 5. Simili studi hanno dimostrato che gli individui non seguono schemi di razionalità assimilabili al teorema di Bayes nell’apprendimento, ma piuttosto routines e regole del pollice (molto interessanti gli studi di Herbert Simon a proposito). Probabilità e conferma Inferenza statistica di stampo frequentista 1. La teoria statistica di Fisher. R.A. Fisher (1890-1962) è stato uno dei fondatori della moderna teoria statistica, introducendo concetti fondamentali quali correttezza, efficienza, (massima) verosimiglianza, sufficienza di una statistica. Qui ci interessa per l’invenzione del concetto di test di significatività. Nel caso più tipico, si tratta di sottoporre a test il grado di corrispondenza (goodness of fit) tra una certa statistica g, rappresentante un’ipotesi che vogliamo sottoporre a test, e una certa distribuzione χ2 (test del χ2). Una fondamentale nozione è quella del P-value (introdotto da Karl Pearson), che corrisponde all’area della coda della distribuzione χ2 per un certo valore di g. Se il valore della statistica g 13 corrisponde ad un χ2 maggiore di un certo valore soglia (livello di significatività), allora il P-value viene detto significativamente basso e l’ipotesi viene rifiutata. Principali caratteristiche metodologiche della teoria di Fisher (anni ’20 e ’30): (i) ciò che si sottopone a test sono ipotesi statistiche, non deterministiche. Le seconde sono del tipo: “tutti i corvi sono neri”, le prime sono del tipo “esce testa con probabilità p”; (ii) frequentismo di fondo: il parametro sottoposto a test si trova in un intervallo di confidenza, che corrisponde alla frequenza con cui un intervallo aleatorio contiene il vero parametro; (iii) falsificazionismo à la Popper: l’ipotesi che viene sottoposta al test (l’ipotesi nulla) non è mai provata o stabilita, ma solo eventualmente rifiutata. Debolezza principale di questo approccio: arbitrarietà con cui viene scelto il livello di significanza (normalmente vengono utilizzati i livelli suggeriti da Fisher, e cioè 1% e 5%, mentre gli statistici bayesiani fanno notare che il livello di significanza dovrebbe dipendere dalla numerosità del campione utilizzato). 2. L’approccio di Neyman-Pearson ai test di ipotesi. L’inferenza statistica ortodossa (in econometria in modo particolare) è un misto tra la concezione di Fisher e quella sviluppata dallo statistico polacco J. Neyman insieme a Egon Pearson (figlio di Karl Pearson) negli anni ’30 del secolo scorso. Il fine della teoria di Neyman-Pearson è quello di permettere una decisione tra due ipotesi alternative: è quindi una teoria di comportamento induttivo piuttosto che di inferenza induttiva. L’idea della teoria di Neyman-Pearson è di stabilire un criterio rigoroso per minimizzare le possibilità di due tipi di errori che possono occorrere quando si decide se accettare o rifiutare un’ipotesi sulla base di un test. Se H0 è l’ipotesi sottoposta al test i due possibili errori sono i seguenti: (i) errore di tipo 1: H0 viene rifiutata ma H0 è vera; (ii) errore di tipo 2: H0 viene accettata ma H0 è falsa. La probabilità di fare un errore di tipo 1 denota il livello di significatività α del test (normalmente 1% o 5% di Fisher). La misura del test è definita come P(1-P(errore di tipo 1)) = P(1-α). Il potere di un test è definito come P(1-P(errore di tipo 2)). L’idea è quello di fissare α e di trovare il test più potente (Uniformly Most Powerful), cioè il test che minimizza la probabilità di un errore di tipo 2. Il Lemma di Neyman-Pearson ci garantisce l’esistenza di test UMP per le distribuzioni statistiche standard. Normalmente si sceglie l’ipotesi H0 in modo che l’errore di tipo 1 sia l’errore che più vorremmo controllare (per es. H0 = X è innocente). Il frequentismo di fondo si manifesta nel considerare l’errore come la frequenza, se il test venisse ripetuto ogni volta con un nuovo campione, con la quale incorreremmo in errore. Come per l’approccio di Fisher, anche qui l’arbitrarietà con cui può essere scelto α è un punto debole. Statistica bayesiana A differenza dell’inferenza statistica di stampo frequentista, la statistica bayesiana non mira alla conferma o falsificazione di un’ipotesi tout court, ma all’assegnazione di una probabilità ad un’ipotesi sulla base dell’esperienza. In altre parole, una nuova evidenza empirica e può far aumentare o diminuire la probabilità di una certa ipotesi H. Per questo il bayesanesimo è considerato una teoria probabilistica della conferma, mentre la teoria di Fisher e la teoria di Neyman-Pearson sono considerate teorie non probabilistiche della conferma (si veda Howson 2000). 14 1. Bayesanesimo soggettivo. Il criterio di conferma in termini di aumento della probabilità di un’ipotesi è relativo alle distribuzioni di probabilità individuali iniziali. Alcuni bayesiani cercano di sminuire il ruolo delle probabilità a priori indicando l’esistenza di teoremi matematici che dimostrano come asintoticamente la distribuzione delle probabilità a posteriori su una classe di ipotesi alternative tra loro è indipendente dalla distribuzione a priori. Alcuni hanno anche fatto notare che la possibilità di avere probabilità iniziali non vincolate è una forza dell’approccio bayesiano anziché una debolezza, in quanto la storia della scienza è caratterizzata da una frequente mancanza di accordo tra gli scienziati, pur avendo accesso alle stesse informazioni, circa i meriti d’ipotesi rivali. Insomma, nella scienza c’è anche un certo grado di indeterminatezza e soggettività e i bayesiani soggettivi cercano di darne conto. Occorre però notare che questa apertura alla soggettività è controbilanciata da rigidi criteri di coerenza sull’apprendimento da probabilità iniziali. 2. Bayesanesimo oggettivo. I cosiddetti bayesiani oggettivi trovano inaccettabile l’assenza di vincoli sull’assegnazione delle probabilità iniziali (priors) e cercano di imporre nuove regole che possano determinare le probabilità a priori in maniera unica nei casi appropriati. Esempi di tali regole sono: - priors non informativi; - principio di massima entropia; - principio di semplicità. Probabilità e paradossi della conferma Le teorie probabilistiche della conferma offrono buone soluzioni sia al paradosso di Hempel sia al paradosso di Goodman. Per quanto riguarda il paradosso di Hempel occorre notare che: (i) il principio di generalizzazione (una generalizzazione è confermata da ciascuno dei suoi esempi positivi) non vale in una teoria probabilistica della conferma. Un esempio positivo di H può far aumentare, diminuire o rimanere uguale la probabilità di H. L’assioma 6 ci dice che se A implica necessariamente B, allora P(A) ≤ P (B). In questo caso, dall’assioma 7 segue che P(A|B) > P(A). Tuttavia, dall’ipotesi H: “tutti i corvi sono neri” non segue necessariamente che e: “x è un corvo ed un nero”. Pertanto e (l’osservazione di un corvo nero) non fa aumentare necessariamente la probabilità di H (tutti i corvi sono neri). (ii) l’osservazione e’ di un x non corvo e non nero, posto che x sia stato scelto da un campione casuale delle cose non nere (x non può essere una scarpa gialla osservata in ufficio, come suggerisce Goodman, perché in questo caso x è un non-corvo con probabilità 1), può effettivamente fare aumentare la probabilità P(H|e’ ), ma in un modo del tutto trascurabile, se osserviamo il teorema di Bayes. Infatti P(e’) sarà presumibilmente molto vicino ad 1, dato che non ci si aspetta di trovare un corvo tra le cose non nere (il grado di sorpresa è quasi nullo). Si noti che se, al contrario, in casi molto particolari, ci aspettassimo di trovare un corvo tra le cose non nere (p.es. x è preso da un gruppo di volatili bianchi che sembrano del tutto simili a corvi) e’ effettivamente confermerebbe H. Per quanto riguarda invece il paradosso di Goodman occorre notare la seguente conseguenza del teorema di Bayes. Se sia H che H’ implicano logicamente e, ne segue che P(H|e) / P(H’ |e) = 15 P(H)/P(H’ ). Quindi basta che l’ipotesi H abbia una più grande probabilità a priori rispetto a H’ perché H abbia una più grande probabilità a posteriori P(H|e) rispetto ad H’. Ed infatti è molto facile che ciò avvenga per quanto riguarda le ipotesi alternative che troviamo nel paradosso di Goodman. Anzi, chiunque assegnerebbe una probabilità a priori vicino ad 1 all’ipotesi H: “tutti gli smeraldi sono verdi” ed una probabilità a priori vicino a zero all’ipotesi H’: “tutti gli smeraldi sono verdlù”. Così uno smeraldo verde osservato prima del 2010 confermerebbe l’ipotesi H e non l’ipotesi H’. Le teorie di Fisher e Neyman-Pearson hanno pure buoni argomenti contro il paradosso di Hempel. In realtà il paradosso di Hempel non reca in principio alcuna minaccia alla teoria di Fisher (così come quella di Popper), poiché il principio di generalizzazione (una generalizzazione è confermata da ciascuno dei suoi esempi positivi) è rifiutato a priori, e le ipotesi non sono mai provate o stabilite dal test statistico, ma solo eventualmente rifiutate. Il paradosso di Hempel è facilmente risolvibile anche all’interno della teoria di Neyman-Pearson (si veda Giere 1970): se si impone che l’esempio x di una cosa non nera e non corvo sia scelto da un campione casuale di cose non nere (come accennato sopra) non si ottengono soluzioni paradossali. Il paradosso di Goodman non sembra invece facilmente risolvibile in ambito frequentista, a meno che non si dica che per l’ipotesi H’: “tutti gli smeraldi sono verdlù” non abbiamo un campione casuale significativo, ma a ciò forse si potrebbe obbiettare che non ce l’abbiamo neppure per H. Bibliografia *Festa, R. 1994, “Induzione, probabilità e verisimilitudine”, in G. Giorello, Introduzione alla filosofia della scienza, Milano, Bompiani, 283-317 (paragrafi 4-5-6). [bibliosssup] Galavotti, M.C. 2005, Philosophical Introduction to Probability, CSLI Lecture Notes (versione inglese ampliata e riveduta della Probabilità, Nuova Italia Scientifica, Firenze, 2000). Giere, R.N. 1970, “An Orthodox Statistical Resolution of the Paradox of Confirmation”, Philosophy of Science, 37, 354-362. Hájek, A. 2003, “Interpretations of Probabilities”, Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/entries/probability-interpret/#3.1 *Howson, C. 2000, “Evidence and Confirmation”, in W.H. Newton-Smith, A Companion to the Philosophy of Science, Blackwell Publishers, Malden MA, pp. 108-116. Howson, C. 1995, “Theories of Probability”, British Journal of the Philosophy of Science, 46, 1-32. Keuzenkamp, H.A. 2000, Probability, Econometrics and Truth. The Methodology of Econometrics, Cambridge: Cambridge University Press (ch. 1-4). *Pizzi, C. 1983, Teorie della probabilità e teorie della causa, Bologna, CLUEB, capitolo 3. 16 V LEZIONE LA CAUSALITA’ Introduzione Il problema della causalità ha una lunghissima tradizione in filosofia, che ovviamente non ripercorreremo qui. Basti accennare al fatto che, come è noto, mentre la formulazione di Aristotele ha avuto un’influenza centrale per il pensiero antico e medievale, il pensiero di Hume è stato un punto di riferimento costante per le riflessioni della filosofia contemporanea sul significato della relazione causa-effetto. Dei quattro tipi di cause che Aristotele distingue nella Fisica (B, 194b, 2932) – lo ricordiamo in modo schematico: causa materiale (ciò di cui qualcosa è fatto), causa formale (la forma o l’essenza di qualcosa), causa efficiente (ciò o colui che produce qualcosa) e causa finale (il fine per cui qualcosa viene prodotto) – solo la causa efficiente è oggetto di interesse per il pensiero scientifico moderno. La discussione sul concetto di causa (efficiente) è centrale nel pensiero di Hume, secondo il quale gli eventi causali sono interamente riducibili, dal punto di vista ontologico, a eventi non causali, e le relazioni di causa-effetto non sono direttamente osservabili, ma possono essere conosciute attraverso l’esperienza di «congiunzioni costanti» (cfr. Hume 173940, libro i, parte iii, sez. 2-6, 14, 15; Hume 1748, sez. 7). La riflessione di Hume è stata particolarmente influente sullo sviluppo non solo delle contemporanee riflessioni sulla causalità in filosofia della scienza, ma anche sul pensiero economico contemporaneo. Nelle scienze sociali e nell’economia contemporanea il linguaggio causale è estremamente diffuso. Sono diversi i tipi di domande causali in economia, essendo possibili diversi punti di vista: 1. Cause generali vs. cause particolari. Le relazioni causali possono essere tra variabili (per esempio, inflazione, reddito, tassi di interesse, etc.): gli shock alla produttività è causa delle fluttuazioni del reddito? Oppure possono essere tra eventi: il calo della crescita in Italia del 2002 è stata causata dagli attentati dell’11 settembre 2001? 2. Cause come controllo vs. cause come spiegazione. Il primo è il punto di vista del policymaker, il secondo è il punto di vista dello scienziato sociale. 3. Cause come spiegazione vs. cause come previsione. Il secondo è il punto di vista dell’agente operante in borsa, per esempio. 4. Cause efficienti vs. cause finali. In genere la causalità in economia, come in ogni scienza moderna, è concepita come causa efficiente. Tuttavia non mancano tentativi di spiegazioni teleologiche in economia e in genere nelle scienze sociali. 5. Cause micro-economiche vs. cause macro-economiche. Svalutazione e rivalutazione del concetto di causa nel XX secolo: Tra la fine del XIX secolo e i primi decenni del XX secolo, in concomitanza con lo svilupparsi del positivismo e poi soprattutto del neopositivismo logico, diversi scienziati e filosofi giunsero alla conclusione che il concetto di causalità fosse un residuo della metafisica e che andasse bandito dall’indagine scientifica. Ernst Mach (scienziato e filosofo austriaco) propone di sostituire al concetto di causalità il concetto di funzione (matematica). Celebre è il giudizio sarcastico che Russel dà della causalità: «La parola “causa” è legata tanto inestricabilmente a idee equivoche da rendere auspicabile la sua totale espulsione dal vocabolario filosofico (…). La legge di causalità, come molte delle cose che passano tra i filosofi, è un relitto di un’età tramontata, e sopravvive, come la monarchia, soltanto perché si suppone erroneamente che non rechi alcun danno». 17 A partire dagli anni ’50 il concetto di causalità subisce un’evoluzione e viene nello stesso tempo rivalutato sia in filosofia della scienza sia nelle scienze speciali. Negli ultimi anni il tema della causalità è diventato uno dei temi più dibattuti in filosofia della scienza. L’evoluzione del concetto di causalità, così come la sua rivalutazione è legato allo sviluppo di alcuni nuovi strumenti logici: (i) Calcolo delle probabilità; (ii) Logica modale e logica dei controfattuali (David Lewis 1973 – Robert Stalnaker 1968); (iii) Logica computazionale, sviluppo del calcolatore e nascita dei modelli di simulazione. Inoltre, la rivalutazione del concetto di causalità è anche connessa allo svilupparsi di discipline applicate che non avevano ricevuto fino ad allora una grande attenzione da parte della filosofia della scienza. I filosofi della scienza – specie quelli legati al neo-positivismo logico – avevano rivolto la loro attenzione prevalentemente alla fisica, in cui, grazie alla formalizzazione matematica, era effettivamente possibile fare a meno di nozioni causali e prediligere il concetto di funzione. Ma in settori disciplinari quali economia politica, sociologia, diritto, medicina, ingegneria l’esigenza di utilizzare nozioni causali si rafforza con il loro sviluppo, sia perché alcune di queste discipline sono meno strutturate dal punto di vista matematico (e quindi più refrattarie al concetto di funzione), sia perché in queste discipline la nozione di intervento (legata indissolubilmente alla nozione di causa) è centrale. Insomma, “il rinnovato interesse per la causalità deriva in parte dall’attenzione ad ambiti disciplinari trascurati dalle correnti filosofiche prevalenti” (Dessì 1999, p. 200). Ad es. uno dei primi segnali del nuovo interesse per la causalità negli anni ’50 è la pubblicazione di un libro di filosofia del diritto: H.L.A. Hart e A.M. Honoré, Causation in the Law, (1959, Oxford University Press). Nozioni di causalità in Filosofia della Scienza: 1. Causalità probabilistica Sviluppi della fisica nella prima metà del secolo scorso (si pensi alla fisica quantistica) hanno messo in crisi la visione determinista del mondo alla Laplace. Alcuni filosofi della scienza (H. Reichenbach, I. Good and P. Suppes) hanno suggerito, tra gli anni ’50 e ’70, che l’analisi di concetti causali dovesse basarsi su nozioni probabilistiche. L’idea centrale delle teorie probabilistiche della causalità è che la causa deve, in qualche maniera, rendere l’effetto più probabile. Questa idea viene formalizzata da Suppes (1970) nel seguente modo: un evento A causa prima facie un evento B se e solo se: (i) A occorre prima di B; (ii) P(A|B) > P(A) Difficoltà: (i) Difficoltà a distinguere relazioni causali spurie da quelle genuine (o, in altri termini, relazioni causali da correlazioni): le previsioni del tempo causano il tempo? (ii) Si basa il concetto di causalità su un concetto, quello di probabilità che è, come si è visto nella scorsa lezione, problematico o perlomeno suscettibile di diverse interpretazioni. 18 Come vedremo sotto il concetto di causalità secondo Granger presenta molti punti in comune con la causalità probabilistica. 2. Cause e condizioni Vi è una lunga tradizione (J.S. Mill p.es.) che esamina la causalità in termini di condizioni necessarie o sufficienti4: (i) A causa B se e solo se A e B sono reali e A è ceteris paribus sufficiente per B; (ii) A causa B se e solo se A e B sono reali e A è ceteris paribus necessaria per B; (iii) A causa B se e solo se A e B sono reali e A è ceteris paribus necessaria e sufficiente per B. E’ facile notare l’inapplicabilità di nozioni della causalità così definite, non solo in un mondo probabilistico, ma anche in un mondo determinisitico (e nelle scienze sociali). Ad es.: la lunghezza delle gambe del tavolo è ceteris paribus necessaria e sufficiente per la posizione di un asse di un tavolo rispetto al pavimento, ma non diremmo mai che uno degli eventi è causa dell’altro. Per quanto riguarda il caso (ii) vi è anche il problema della sovradeterminazione: se due pallottole colpiscono simultaneamente (ad es. in un plotone di esecuzione) il cuore di un uomo e ne causano la sua morte, nessuna delle due è condizione necessaria per la morte. J. Mackie (1974) rifiuta le definizioni (i)-(iii) e propone di utilizzare le condizioni necessarie e sufficienti in modo più sofisticato: (iv) Se A causa B allora A è una condizione INUS (Insufficient Necessary Unecessary Sufficient), cioè A è una parte insufficiente, ma necessaria, di una condizione complessa che a sua volta è sufficiente, ma non necessaria. Esempio: supponiamo che c’è stato un incendio causato da un corto circuito. Il corto circuito di per sé non è sufficiente a provocare un incendio (occorre anche materiale combustibile e presenza di ossigeno). Però la condizione complessa corto circuito + presenza di ossigeno + materiale infiammabile vicino al luogo del corto circuito è sufficiente a provocare un incendio, mentre non è necessaria perché altre condizioni avrebbero potuto causare l’incendio (es. benzina + fiammifero acceso + ossigeno). Il corto circuito è una parte necessaria di quella condizione (senza corto circuito e soltanto con materiale infiammabile ed ossigeno non sarebbe scoppiato l’incendio), ma da sola non sufficiente per l’incendio. Si noti però che nell’esempio preso in considerazione anche presenza di ossigeno e materiale infiammabile sono condizioni INUS dell’incendio. Tuttavia di solito non vengono considerate come cause e quindi la causa viene scelta da un insieme di condizioni. Solo il contesto e gli scopi che vogliamo ottenere possono guidarci nella scelta della causa. 3. Cause e controfattuali Alcuni filosofi contemporanei, tra i quali D. Lewis, pensano che si possa definire la causalità in termini di controfattuali. I controfattuali sono condizionali soggiuntivi (in contrapposizione con indicativo) in cui l’antecedente è contrario ai fatti. 4 A è condizione sufficiente per B se la conoscenza di A ci garantisce la conoscenza di B, mentre A è condizione necessaria per B se è indispensabile conoscere A per conoscere B. Si noti che se A è condizione sufficiente per B allora B è condizione necessaria per A e viceversa. 19 Es. di condizionale indicativo: (a) Se Oswald non uccise Kennedy, fu qualcun altro ad ucciderlo. Es. di condizionale soggiuntivo-controfattuale: (b) Se Oswald non avesse ucciso Kennedy, qualcun altro lo avrebbe fatto. Se Oswald effettivamente uccise Kenney (a) è sicuramente vera, mentre di (b) non possiamo dire niente. I controfattuali, pertanto, seguono una logica diversa dalla logica degli indicativi. Lewis propone un sistema di assiomi e delle regole di inferenza per i condizionali soggiuntivi e definisce la relazione causale come una relazione di dipendenza controfattuale. A causa B se c’è una catena di eventi dipendenti da controfattuali che lega A e B. Questa definizione di causa richiama quella data da Hume (1748): “possiamo definire una causa come un oggetto seguito da un altro, tale per cui se il primo oggetto non ci fosse stato, il secondo non sarebbe mai esistito”. La principale debolezza di questo approccio è che la nozione di controfattuale risulta avere basi ancora più incerte della nozione di causalità. 4. Cause ed interventi Secondo una nozione azionista della causalità, la causa è ciò che produce, o genera, qualcos’altro (l’effetto) che è una nuova sostanza o il cambiamento in qualcosa che già sussiste. Diversi filosofi contemporanei hanno sostenuto questa teoria (es. G. H. von Wright), che però soffre di un grosso problema di circolarità e di antropomorfismo (la causa è basata su una nozione, l’azione, che sembra già presupporre un significato causale e l’azione umana è al centro di questa nozione). Tuttavia, recentemente J. Woodward (2003) ha rielaborato una teoria della causalità basata sul concetto di manipolazione (o intervento) che supera la circolarità delle formulazioni precedenti. L’idea è che la relazione causale è sempre relativa ad una struttura invariante in un insieme di interventi. Importanza del concetto di invarianza per le scienze sociali e l’economia. Nozioni di causalità in Economia: 1. Equazioni strutturali La nozione di causalità dominante in econometria fino agli anni ’70 è legata alla tradizione della Cowles Commission e al lavoro di T. Haavelmo, “The Probability Approach in Econometrics” (1944). L’idea è che le variazioni che occorrono in modo naturale nei fattori economicamente più importanti possano fare da surrogato al controllo sperimentale mancante. Se un’equazione di regressione è propriamente specificata: y = α + β x + u, 20 allora i residui u seguono una ben definita distribuzione di probabilità. Tuttavia è la teoria economica che ci dice se x causa y oppure è y a causare x. Infatti un valore stimato di β diverso da zero è consistente sia con x causa y sia con y causa x (problema di identificazione). Il problema di identificazione corrisponde a quello che in filosofia della scienza è stato chiamato il problema della sottodeterminazione della teoria da parte dei dati, problema sul quale ha insistito in modo particolare il filosofo americano W.V. Quine. In sintesi, l’approccio Cowles-Haavelmo affida alla teoria economica (tipicamente la macroeconomia di stampo keynesiano) il compito di identificare le equazioni strutturali, ovvero le equazioni che rappresentano relazioni causa-effetto, mentre affida alla statistica il compito di misurarle. Alla relazione causa-effetto si dà un’interpretazione legata alla nozione di intervento e invarianza: A causa B se intervenendo in A possiamo modificare B e se la relazione non muta al variare di un certo insieme di condizioni. 2. La causalità secondo Granger Da un lato Granger assegna un compito più ambizioso alla statistica: quello di scoprire le cause, dall’altro lato il concetto di causa che ha in mente Granger è più debole: causalità non coincide con intervento ma piuttosto con una certa capacità di migliorare la previsione. Granger (1969), richiamandosi a N.Wiener (1956), centra l’attenzione sulla prevedibilità (da un punto di vista statistico) di una serie temporale5 Xt: “se qualche altra serie temporale Yt contiene un’informazione nei termini passati che aiuta nella previsione di Xt e se questa informazione non è contenuta in nessuna altra serie usata per prevedere Yt, allora si dice che Yt causa Xt”. E’ invalso l’uso, tra gli econometrici, di dire “Granger-causa” invece di semplicemente “causa”, probabilmente per sottolineare che i due termini non sempre coincidono. Definizione formale di Granger-causalità. Siano Xt e Yt due serie temporali, sia Ωt l’insieme delle informazioni rilevanti che sono a disposizione al tempo t, e sia F la distribuzione condizionale di probabilità di Xt: Yt è una Granger-causa di Xt+1 sse: F (Xt+1 | Ωt ) ≠ F (Xt+1 | Ωt - Yt), dove per Ωt - Yt si intende l’insieme Ωt escluso la serie storica Yt. La definizione di Granger-causalità presenta notevoli analogie con la definizione di Suppes, anzi essa può essere vista come un’applicazione della concezione probabilistica della causalità. Condivide tutte le difficoltà della teoria di Suppes. Pregi di una definizione operativa (alla P.W. Bridgman), ma rimangono molte ambiguità su come definire Ωt. Influsso che hanno esercitato i test di causalità secondo Granger nello sviluppo della Macroeconomica Neoclassica. Vicinanza tra Granger-causalità e il programma dei vettori autoregressivi (VAR) di Sims (1980). 5 Vettore di variabili aleatorie, finito o infinito. 21 3. Variabili strumentali Un metodo per risolvere il problema dell’identificazione e dell’endogeneità (il fatto che in una regressione la variabile indipendente o esplicativa è correlata ai residui) è il ricorso alle variabili strumentali. Supponiamo di voler stimare la seguente equazione: yt = α + β zt + ut, ma che z è correlato a u. Una variabile strumentale z è una variabile aleatoria che è correlata a x ma non è correlata a u. Esempio (Angrist 1990): Studio sull’influenza del servizio militare sul reddito ai tempi della guerra del Vietnam negli Stati Uniti: yt : reddito zt: servizio militare xt (variabile strumentale): data di nascita. Infatti negli Stati Uniti durante la guerra del Vietnam era stato stabilito di reclutare uomini, da aggiungersi ai soldati volontari, estraendo a sorte delle date di nascita. Così le date di nascita erano correlate al servizio militare ma non allo shock sul reddito ut. 4. Causalità e modelli di simulazione Si tratta di costruire al calcolatore economie artificiali e studiare le relazioni causali in queste economie. “One of the functions of theoretical economics is to provide fully articulated, artificial economic systems that can serve as laboratories in which policies that would be prohibitively expensive to experiment with in actual economies can be tested out at much lower cost…. [I]nsistence on the ‘realism’ of an economic model subverts its potential usefulness in thinking about reality. Any model that is well articulated to give clear answers to the questions we put to it will necessarily be artificial, abstract, patently ‘unreal’” (Lucas, “Methods and Problems in Business Cycle Theory,” 1980, reprinted in R. Lucas Studies in Business-Cycle Theory, 1981, Oxford: Basil Blackwell). Importanza della “calibrazione” nella tradizione della Macroeconomia Neoclassica. Simile approccio alla causalità (con notevoli differenze nelle assunzioni economiche) si trova nella fiorente letteratura degli Agent-Based Models. Bibliografia *Crane, T. 1995, “Causation”, in A.C. Grayling (ed.), Philosophy 1, a guide through the subject, Oxford University Press. [bibliosssup] *Dessì, P. 1999, “Causalità e Filosofia”, Sistemi Intelligenti, a. XI, n. 2, agosto. [bibliosssup] 22 *Pizzi, C. 1983, Teorie della probabilità e teorie della causa, Bologna, CLUEB, capitolo 6 e 8. *Hoover, K.D. 1998, “Causality,” in J.B. Davis, D. Wade Hands, and U. Mäki (eds.), The Handbook of Economic Methodology, Cheltenham, UK: Edward Elgar. Per gli studenti di economia: Hoover, K.D. 2001, Causality in Macroeconomics, Cambridge University Press (cap. 1 e 7). Per gli studenti di giurisprudenza: Hart, H.L.A. and A.M. Honoré 1959, Causation in the Law, Oxford. Stella, F. 1975, Leggi scientifiche e spiegazione causale in diritto penale, Milano, Giuffré. VI LEZIONE LA SPIEGAZIONE SCIENTIFICA Richiedere la spiegazione di un evento (o di una legge) significa chiedersi il perché di quell’evento (o legge). Nella concezione moderna della scienza non tutte le “domande-perché” sono scientifiche, ma solo quelle la cui risposta si accorda a certi criteri logici ed empirici. Sono stati pertanto fatti diversi tentativi di rendere espliciti questi criteri. Modello nomologico-deduttivo Formulato da Hempel-Oppenheim (1948), il modello N-D costituisce l’opinione ricevuta (received view) da cui partono i contemporanee dibattiti sulla spiegazione in filosofia della scienza. 1. L1, …, Ln 2. C1, …, Cn ___________ 3. E (leggi generali) (condizioni iniziali) (evento – o legge – da spiegare) 1 e 2: explanans 3: explanandum Condizioni che devono essere soddisfatte da ogni spiegazione che voglia essere considerata una spiegazione scientificamente valida: (a) criteri di adeguatezza logica: (i) l’explanandum deve essere conseguenza logica dell’explanans; (ii) l’explanans deve contenere almeno una legge di copertura (covering law); (iii) l’explanans deve essere controllabile indipendentemente dall’explanandum (no spiegazioni ad hoc); (b) criterio di adeguatezza empirica: (iv) l’explanans deve essere vero. Esempio: 1. Legge di copertura Ogni grave cade sulla terra con un moto accelerato uniforme di 9.8 m/s2 Velocità = accelerazione × tempo 2. Condizioni iniziali 23 Una sfera di piombo è stata lanciata 10 secondi fa e non ha ancora raggiunto il suolo. La resistenza dell’aria sulla sfera di piombo è trascurabile. ___________________________________________________________________________ 3. E La sfera di piombo sta cadendo in questo momento ad una velocità di 98 m/s Problema nel distinguere spiegazioni causali da spiegazioni non causali (esempio dell’ombra che spiega l’altezza della torre). Si presuppone qui una simmetria tra spiegazione e previsione non sempre giustificabile (specie nelle scienze sociali). Problema nel definire una legge di natura. La spiegazione statistico-deduttiva Esempio: 1. Legge di copertura (di cui almeno una statistica) In ogni lancio casuale di un dado non truccato l’uscita di una faccia ha probabilità 1/6; i risultati dei lanci sono probabilisticamente indipendenti. 2. Condizioni iniziali Il dado che si lancia non è truccato; per n volte è uscito consecutivamente il sei. ____________________________________________________________________________ 3. E La probabilità dell’uscita del sei al lancio n+1 è ancora 1/6 Il modello di spiegazione S-D può essere visto come un caso speciale del modello di spiegazione ND e condivide con questo le sue debolezze. La spiegazione statistico-induttiva Esempio: 1. Legge di copertura (di cui almeno una statistica) Vi è un’alta probabilità di guarire da un’infezione da streptococchi usando penicillina 2. Condizioni iniziali Il sig. Rossi ha un’infezione da streptococchi e si cura con penicillina ___________________________________________________________________________[0.99] 3. E Il sig. Rossi guarisce dall’infezione da streptococchi. Problema della dipendenza dal contesto nei ragionamenti induttivi (a differenza delle inferenze deduttive). Problema nel definire la rilevanza statistica. 24 Spiegazioni teleologiche Sembra esserci nelle scienze (specialmente in biologia e nelle scienze sociali) un insieme di spiegazioni in cui l’explanans non causa (né costituisce) l’explanandum. Esse sono le spiegazioni, già prese in considerazione da Aristotele, funzionali, o teleologiche in cui è il fine (télos in greco) che spiega l’evento. Esempio: 1. “Le piante contengono clorofilla affinché possano realizzare la fotosintesi” 2. “Gli orsi polari sono bianchi per mimetizzarsi con l’ambiente circostante” 3. “I consumi del sig. Rossi sono aumentati perché egli prevede un reddito più alto per l’anno prossimo” 4. “L’impresa X mette in vendita il prodotto Y al prezzo p in modo da massimizzare i propri profitti” Molti filosofi della scienza contemporanei hanno argomentato che le spiegazioni teleologiche non sono altro che spiegazioni causali camuffate e che il riferimento ad effetti futuri è solo apparente. Gli esempi 1 e 2 possono essere riformulati facendo riferimento a cause passate, le quali sono le traiettorie evolutive che hanno portato alla selezione naturale delle caratteristiche in questione. Gli esempi 3 e 4 vengono spiegati, nell’economia neoclassica, facendo riferimento a forti criteri di razionalità, ma le ambiguità non sono del tutto risolte. Bibliografia *Papineau, D. 1995, “Methodology: The elements of the Philosophy of Science”, in A.C. Grayling (ed.), Philosophy 1, a guide through the subject, Oxford University Press, section V: “Explanation”, pp. 171-179. [bibliosssup] VII LEZIONE LEGGI NELLE SCIENZE SOCIALI Il problema delle leggi di natura Una legge di natura ha in genere una struttura logica di tipo condizionale universale: per ogni x (A(x) → B(x)) Esempio: ogni grave cade sulla terra (in assenza di attrito) con un moto accelerato uniforme di 9.8 m/s2. Tuttavia questa struttura è posseduta anche dalle cosiddette generalizzazioni accidentali: Esempio di generalizzazione accidentale: ogni volta che vado a vedere la Juventus, la partita finisce 0-0. 25 Come distinguere le leggi di natura dalle generalizzazioni accidentali? 1) Alcuni filosofi hanno tentato di dimostrare che le leggi di natura, a differenza delle generalizzazioni accidentali, hanno la prerogativa di reggere controfattuali. Per esempio, una legge del tipo: “a zero gradi l’acqua ghiaccia” regge il controfattuale “se la temperatura fosse zero gradi, questa pozza d’acqua sarebbe ghiacciata”. Mentre una generalità del tipo “ogni volta che vado a vedere la Juventus la partita finisce 0-0”, anche se vera, intuitivamente, non regge il controfattuale: “se fossi andato a vedere la partita della Juventus, la partita sarebbe finita 0-0”. Tuttavia, si apre il problema di come stabilire la verità di un cotrofattuale. Se si tenta di valutare la verità del controfattuale in base alle leggi, si entra in un circolo vizioso perché l’idea di partenza era proprio di servirsi dei controfattuali per discriminare tra leggi e generalizzazioni accidentali. Causalità, legge e controfattuale risultano pertanto tre concetti interrelati, dei quali nessuno dei tre possiede fondamenti certi in grado di sorreggere gli altri. 2) Non è la logica a distinguere tra leggi e generalizzazioni accidentali, ma la pragmatica. Goodman suggerisce che riusciamo a distinguere tra predicati proiettabili come verde e non proiettabili come verdlù (v. lezione III), poiché i primi sono “trincerati” nel linguaggio, cioè finora accettati da una data comunità di parlanti. Allo stesso modo, un controfattuale è valido se comporta una proiezione trincerata. I controfattuali validi per queste ragioni pragmatiche riescono a distinguere tra leggi e generalizzazioni accidentali. Che cos’è una legge è quindi più una questione d’uso, che una forma logica. Ciò ovviamente non risolve tutti i problemi, perché le scienze sembrano far uso anche di predicati completamente nuovi e non trincerati nel linguaggio. Leggi nelle scienze sociali Ci sono leggi in economia? Hoover (2001, p. 25) presenta una lista delle generalizzazioni che gli economisti chiamano leggi: • • • • • • • • • la legge della domanda; la legge di Engel; la legge di Okun; la legge di Gresham; la legge del prezzo unico; la legge delle rendite decrescenti; la legge di Walras; la legge di Say; e forse qualcun’altra…6 Queste leggi economiche sono un miscuglio di proposizioni molto diverse tra loro: alcune sono assiomi, alcune verità analitiche, alcune regole euristiche. Ma almeno le prime quattro sono generalizzazioni empiriche robuste di una forma molto imprecisa. Per esempio, la “legge della domanda” asserisce che quando il prezzo di un certo bene cresce, la domanda cala. Però la legge non ci dice di quanto cala la domanda per ogni dato incremento di prezzo. E sappiamo che ci sono alcune eccezioni (benché relativamente rare) a questa legge. Le leggi delle scienze sociali e dell’economia sembrano valere solo ceteris paribus. 6 La legge di Gibrat, per esempio. 26 Ma questo non avviene anche nella fisica? Dopotutto, se vogliamo calcolare la velocità di un grave dobbiamo astrarre dall’attrito dell’aria. Si pensi alle difficoltà a calcolare la traiettoria di caduta di un foglio di carta da una torre. Alcuni filosofi (per esempio J. Woodward) rifiutano la dicotomia tra leggi e generalizzazioni accidentali e ritengono che ci sia un continuum di generalizzazioni tra quelle empiriche e quelle nomologiche. La nozione cruciale, in questa visione, non è però quella di legge, ma di stabilità. Sono le relazioni causali stabili (v. lezione V), relative ad un certo intervento e al variare di un certo numero di parametri, che ci permettono di intervenire e di spiegare. Abbiamo pertanto a che fare uno spettro di generalizzazioni in cui in un estremo si trovano le generalizzazioni puramente accidentali instabili al variare delle condizioni e in un altro estremo le generalizzazioni necessarie. Alcune leggi della fisica si trovano abbastanza vicine all’estremo delle generalizzazioni necessarie, in quanto da esse è possibile basare interventi causali che rimangono stabili al variare di un numero molto ampio e ben definito di condizioni. Le leggi delle scienze sociali e dell’economia, si situerebbero circa a metà di questo spettro. Infatti da esse è possibile derivare relazioni causa-effetto stabili, ma lo spazio dei parametri in cui queste relazioni sono stabili è più piccolo e più difficile e complesso da definire. Bibliografia *Hoover , K. 2001, The Methodology of Empirical Macroeconomics, Cambridge University Press, ch. 2. *Papineau, D. 1995, “Methodology: The elements of the Philosophy of Science”, in A.C. Grayling (ed.), Philosophy 1, a guide through the subject, Oxford University Press, section V: “Explanation”, pp. 139-147. [bibliosssup] VIII LEZIONE REALISMO E STRUMENTALISMO Realismo e strumentalismo in filosofia della scienza Il termine realismo scientifico è connesso a molteplici prospettive e non sempre strettamente connesse tra loro. Cerchiamo di individuare alcune caratteristiche fondamentali: (i) i realisti (o almeno una parte di essi) ritengono che le teorie scientifiche parlano (o dovrebbero palare) di caratteristiche reali del mondo, le quali esistono indipendentemente dalle nostre rappresentazioni: è quindi possibile avere teorie oggettivamente vere; (ii) i realisti (o almeno una parte di essi) ritengono che le entità (e non necessariamente le relazioni tra queste) di cui le teorie scientifiche parlano (o dovrebbero parlare) esistono nella realtà indipendentemente dalle nostre rappresentazioni; (iii) le teorie che parlano di fatti o entità inosservabili (si pensi ad es. alle particelle sub-atomiche) vanno interpretate alla lettera: esse sono una rappresentazione fedele del mondo inosservabile. Gli strumentalisti tendono invece a negare (i)-(iii) e ritengono che le teorie scientifiche sono utili strumenti il cui fine non è quello di fornire una vera descrizione del mondo, ma soltanto quella di fornire previsioni. Lo strumentalismo si accorda spesso con posizioni filosofiche (come quelle del neopositivismo logico) che negano ogni scopo ontologico alle teorie scientifiche. 27 Occorre considerare però che realismo e strumentalismo non sono posizioni filosofiche o scientifiche fisse, sono piuttosto direzioni verso cui gli approcci scientifici possono o meno tendere. Così è capitato spesso nella storia della scienza che alcuni scienziati avessero approcci strumentalistici per teorie appena formulate (es. teoria copernicana, teorie quantistiche, etc…) o in certi ambiti di ricerca (es. cosmologia, fisica delle particelle), mentre in altri ambiti di ricerca (es. chimica) il realismo è più difendibile. Argomenti utilizzati a favore del realismo: Inferenza alla migliore spiegazione (o l’argomento del “miracolo”): se le entità teoriche impiegate dalle teorie scientifiche non esistessero o se le teorie stesse non fossero almeno approssimativamente vere, l’evidente successo della scienza (in termini di previsioni e applicazioni) sarebbe certamente un miracolo. Perciò il realismo, dando cruciale importanza alla verità delle nostre teorie, offre la migliore spiegazione del successo della scienza. Argomenti utilizzati a favore dello strumentalismo: La “meta-induzione pessimista” da ciò che in passato è risultato falso: la storia della scienza ci mostra che le nostre migliori teorie sono state ripetutamente rifiutate. Ragionando in modo induttivo, questo potrebbe renderci pessimisti nei riguardi della bontà delle nostre teorie scientifiche attuali. La sotto-determinazione della teoria a causa dei dati: data qualunque teoria circa gli inosservabili che predice i fatti osservabili, ci sarà sempre una teoria alternativa che predice gli stessi fatti. Quindi non sappiamo mai quale di queste teorie è vera. Perché dovremmo sempre aspettarci teorie alternative? Un forte argomento è il seguente. Tesi di Duhem-Quine: una teoria (parlando di inosservabili) non predice mai un evento E da sola, ma sempre in congiunzione con un’ipotesi ausiliaria H: T & H → E. Se E risulta falsa si può sempre riaggiustare H in modo che T rimanga vera. Questo è anche connesso all’idea che i dati sono sempre “carichi di teoria” e il “misurare” non è un’attività neutra e autonoma dalle nostre teorie. Il criterio della semplicità (che richiama in qualche modo il “rasoio di Occam”) e l’adeguamento con l’insieme generalmente accettato di conoscenze può aiutarci a scegliere tra ipotesi alternative. La questione delle assunzioni irrealistiche in economia Milton Friedman (1953): “la metodologia dell’economia positiva”. Il saggio inizia con affermazioni di sapore Popperiano (si noti che Popper era un realista sia sulle teorie che sulle entità), benché Popper non venga mai citato: “vista come un insieme di ipotesi sostanziali, una teoria deve essere giudicata in base alla sua capacità predittiva nei riguardi della classe di fenomeni che intende ‘spiegare’. Solo l’evidenza dei fatti può mostrarci se la teoria è ‘giusta’ o ‘sbagliata’, o meglio, ‘accettata’ in via provvisoria come valida o ‘rifiutata’. (…) L’unico test rilevante della validità di un’ipotesi è il confronto delle previsioni con l’esperienza. L’ipotesi è rifiutata se le sue previsioni sono contraddette (‘frequentemente’ o più spesso che le previsioni di ipotesi alternative); è accettata se le sue previsioni non sono contraddette; un alto grado di confidenza si accompagna ad essa se ha resistito 28 a molti tentativi di contraddirla. L’evidenza dei fatti non può mai ‘dimostrare’ un’ipotesi: può solo fallire nel tentativo di dimostrare che è falsa, che è quello che generalmente intendiamo quando diciamo, in modo piuttosto inesatto, che l’ipotesi è stata ‘confermata’ dall’esperienza” (pp. 8-9). Da qui Friedman si sposta velocemente a difendere una posizione più controversa. Egli nega fortemente la tesi secondo la quale la conformità delle assunzioni di una teoria con la realtà fornisce un test di validità della teoria alternativo o aggiuntivo al test relativo alle previsioni: “Questa tesi, benché diffusa, è fondamentalmente sbagliata e produce molto danno. (…) Le ipotesi veramente importanti e significanti si troveranno ad avere ‘assunzioni’ che sono descrizioni della realtà ampiamente inaccurate e, in generale, più significante è la teoria, più irrealistiche sono le assunzioni (in questo senso). La ragione è semplice. Un’ipotesi è importante se ‘spiega’ molto con poco, se cioè astrae gli elementi comuni e cruciali dalla massa delle circostanze complesse e dettagliate che circondano i fenomeni che devono essere spiegati e permette valide previsioni sulla base di soli questi elementi. Per essere importante, pertanto, un’ipotesi deve essere, dal punto di vista descrittivo, falsa nelle sue assunzioni” (p. 14). Occorre distinguere tra “realismo” scientifico come definito in filosofia della scienza (v. sopra) e “realismo” usato dagli economisti, riferito alle assunzioni di una teoria economica (U. Mäki per distinguere i due termini chiama il primo “realism” e il secondo “realisticness”). Realismo nel secondo senso si riferisce all’accuratezza descrittiva di una certa proposizione teorica. E’ possibile essere realisti in senso filosofico senza esserlo in senso descrittivo: uno può credere che una certa teoria, pur non descrivendo la realtà in maniera esaustiva e accurata, colga aspetti veri ed “essenziali” della realtà. Quando Friedman difende l’anti-realismo delle assunzioni, si riferisce soprattutto al realismo nel secondo senso, ovvero nel senso di accuratezza descrittiva. Ma il saggio contiene anche affermazioni anti-realiste (cioè strumentaliste) nel primo senso (quello filosofico-scientifico): ad un certo punto Friedman rifiuta la tesi che le assunzioni della teoria economica debbano essere realistiche non solo nel senso sopra detto, ma rifiuta anche la tesi che le assunzioni debbano essere realistiche nel senso di assunzioni che colgano caratteristiche “essenziali” della realtà comprensibili al soggetto umano (cfr. dottrina del Verstehen) e in accordo con l’evidenza empirica sul comportamento umano (proveniente ad es. dalla sociologia e la psicologia). Friedman prende in considerazione il “cuore” della teoria neo-classica: l’assunzione che le imprese massimizzano i profitti: “…le imprese individuali si comportano come se esse stessero cercando di massimizzare i loro ritorni attesi (generalmente chiamati “profitti”, benché il termine si presti ad essere mal interpretato) e avessero piena conoscenza dei dati necessari a questo scopo; come se, cioè, conoscessero le rilevanti funzioni di costo e di domanda, calcolassero il costo marginale e la rendita marginale da tutte le azioni a loro disposizione, e scegliessero di andare avanti in ogni singola azione fino a che il rilevante costo marginale e la rendita marginale fossero uguali” (pp. 21-22) Analogamente, “l’ipotesi che le foglie [in un albero] sono posizionate come se ogni foglia cercasse deliberatamente di massimizzare la quantità di luce solare che riceve, data la posizione delle foglie vicine, come se conoscesse le leggi fisiche che determinano la quantità di luce solare che riceverebbero nelle varie posizioni e potessero muoversi rapidamente o istantaneamente da una posizione ad un’altra posizione desiderata e non occupata” (p.19). 29 Friedman ritiene che dietro questi fenomeni ci sia un processo di “selezione naturale” che garantisce che solo le imprese che si comportano come se massimizzassero rimangano nel mercato e che solo gli alberi in cui le foglie sono disposte come se massimizzassero sopravvivono: “Così il processo di ‘selezione naturale’ ci aiuta ad avvalorare l’ipotesi, o meglio, data la selezione naturale, l’accettazione dell’ipotesi può essere basata in larga misura sul ritenere che sintetizzi in maniera appropriata le condizioni per la sopravvivenza” (p. 22). Difficoltà dell’anti-realismo di Friedman nel senso di anti-realisticness: L’idea di astrarre caratteristiche essenziali (causali) della realtà e tenerne fuori altre sembra cogliere un aspetto essenziale delle scienze sociali: ma come distinguere le caratteristiche essenziali da quelle periferiche? Le assunzioni come la massimizzazione del profitto sembrano appartenere a ciò che Lakatos chiamava l’hard core di un programma di ricerca scientifico. La questione cruciale è se il programma di ricerca neo-classico è più progressivo (in senso di Lakatos) rispetto a programmi di ricerca alternativi. Difficoltà dell’anti-realismo di Friedman nel senso di anti-realism: Difetto di tutti gli approcci strumentalisti: svalutare la spiegazione (rispetto alla previsione). Si finisce di ignorare, nel caso delle assunzioni sulla massimizzazione difese da Friedman, l’evidenza empirica proveniente da altre indagini o discipline. Bibliografia Blaug, M., 1998, “Methodology of Scientific Research Programmes,” in J.B. Davis, D. Wade Hands, and U. Mäki (eds.), The Handbook of Economic Methodology, Cheltenham, UK: Edward Elgar. *Mäki, U., 1994, Reorienting the assumptions issue, in R. Backhouse (ed.), New Directions in Economic Methodology, Routledge, London and New York. Friedman, M., 1953, The Methodology of Positive Economics, in Essays in Positive Economics, Chicago: University of Chicago Press. *Papineau, D. 1995, “Methodology: The elements of the Philosophy of Science”, in A.C. Grayling (ed.), Philosophy 1, a guide through the subject, Oxford University Press, section V: “Explanation”, pp. 148-158. [bibliosssup] IX LEZIONE IL RUOLO DEI MODELLI NELLE SCIENZE SOCIALI Varietà dei modelli in economia Nell’immagine ricevuta della scienza, proveniente dal neo-positivismo logico, un modello è un’interpretazione della teoria (costituita da un sistema formale di proposizioni basato su un sistema di assiomi) fornendo una relazione isomorfica tra gli elementi della teoria e il mondo empirico. Questa concezione dei modelli è stata messa in discussione nel dibattito scientifico contemporaneo. Con modello si intende qualcosa di più generale: una descrizione (o rappresentazione semplificata) 30 del fenomeno che facilita l’accesso a quel fenomeno. In genere, in economia, si distinguono tre obiettivi a cui un modello può servire: spiegazione, previsione e controllo di un fenomeno. Questi tre obiettivi corrispondono a tre compiti generalmente assegnate all’econometria: analisi strutturale, previsione e valutazione politico-economica. In economia si possono incontrare modelli di diverso tipo: 1. Modelli logici/verbali: modelli qualitativi, esperimenti mentali (Gedankenexperimente), analogie verbali per rappresentare fenomeni economici. Classici esempi sono il modello della divisione del lavoro di Adam Smith, in cui il fenomeno è esemplificato dal paradigma della fabbrica di spille, e, ancora di Smith, il modello della “mano invisibile” per rappresentare l’equilibrio dei prezzi in un sistema economico. 2. Modelli fisici: sono tipici in discipline quali l’ingegneria in cui si costruiscono modelli in scala di oggetti (quale un aeroplano) per studiarne il comportamento in particolari situazioni (galleria del vento). Sono stati escogitati modelli fisici anche in economia: nel passato per studiare i sistemi economici sono stati costruiti dei veri e propri sistemi idraulici in cui il flusso dei liquidi rappresentava il flusso monetario (cfr. il calcolatore analogico creato da Phillips nel 1949 alla London School of Economics). Il passo successivo è stato l’utilizzo di circuiti elettrici. Adesso gli unici modelli fisici (in senso lato) sono quelli programmati coi moderni computer digitali. 3. Modelli grafici: uso di diagrammi (assi cartesiani, curve geometriche, frecce, etc.) per rappresentare dei fenomeni economici. Esempio: il modello geometrico del mercato (con curva di domanda e curva di offerta) introdotta da A. Marshall nei Principles of Economics (1890), il modello IS-LM (Hicks 1937 e Hansen 1949), la griglia delle strategie in teoria dei giochi (Von Neumann-Morgenstern 1944), l’uso di frecce per rappresentare relazioni causali in econometria (S. Wright 1934). 4. Modelli algebrici: rappresentano un sistema economico per mezzo di relazioni algebriche che formano un sistema di equazioni. Nei sistemi di equazione tipici dell’econometria vi sono variabili endogene, che sono le variabili dipendenti e sono simultaneamente determinate dal sistema di equazioni, e variabili esogene, che sono determinate fuori dal sistema, ma che influenzano il sistema influenzando il comportamento delle variabili endogene. Il sistema di equazioni contiene anche variabili aleatorie e parametri che sono stimati sulla base delle tecniche econometriche. 5. Modelli di dati e modelli statistici: Anche i dati possono essere visti come un modello, in quanto rappresentano o descrivono un certo insieme di fenomeni. Il modello statistico è la coppia (X, P) formata dalla matrice dei dati X e dalla famiglia P di distribuzioni di probabilità di X. Si noti che un modello statistico descrive il fenomeno ad un livello più generale di un modello econometrico in cui sono specificate le variabili endogene ed esogene. Modelli e simulazione Stima vs. calibrazione dei modelli macroeconometrici Vi sono diverse scuole di pensiero sull’uso dei modelli macroeconomici: Approccio della Cowles-Commission (egemone fino agli anni ’70): utilizzare gli stessi modelli (i cosiddetti modelli di equazioni strutturali o simultanee) per l’analisi strutturale, la previsione e la valutazione politico-economica. Es. modello Klein-Goldberger e i cosiddetti modelli macroeconometrici a “larga scala”. 31 In seguito alla critica di Lucas (1976) emergono nuovi metodi di intendere i modelli: Lucas, Methods and Problems in Business Cycle Theory (1980): “Si dimostra comprensione dei cicli economici costruendo un modello nel senso più letterale del termine: un’economia artificiale completamente articolata che si comporta nel tempo in modo tale da imitare da vicino il comportamento della serie temporale dell’economia reale. (…) Il nostro compito è quello (…) per dirla in parole povere ed in termini operazionali (…) di scrivere un programma in FORTRAN che abbia come ‘input’ specifiche scelte di politica economica e che generi come ‘output’ le statistiche che descrivono le caratteristiche in corso delle serie temporali di cui siamo interessati.” (si veda anche lezione V, paragrafo 4 e la citazione di Lucas che vi compare). L’approccio della “calibrazione” (opposto a “stima”) dei modelli del ciclo economico reale (cfr. Kydland e Prescott 1982, 1991) è incentrato a far corrispondere solo alcuni parametri del modello con i parametri statistici (come i “momenti secondi”) della distribuzione dei dati e considera secondario o irrilevante la corrispondenza tra modello ed evoluzione storica dei dati. Parallelamente, vengono sviluppati (Sims 1980) modelli di serie temporali multivariate, come i VAR (vettori auto-regressivi), che risultano essere molto potenti nella previsione piuttosto che nell’analisi strutturale. Bibliografia *Intriligator, M. D. 1983, “Economic and Econometric Models”, in Z. Griliches, and M.D. Intriligator, Handbook of Econometrics, North Holland: Amsterdam. [bibliosssup] Gordon, S. 1991, The History and Philosophy of Social Sciences, London:Routledge, ch. 6. [bibliosssup] X LEZIONE LA QUESTIONE DEI MICRO-FONDAMENTI Tesi della trasparenza: la maggior parte delle entità di cui si occupano le scienze sociali (es. nazioni, classi sociali, istituzioni, famiglie, tribù, mercati economici) sono anche oggetto di discorso delle persone ordinarie. (Giambattista Vico sostenne una simile tesi: la società è trasparente agli individui, perché è la loro creazione). Alla base di questa tesi, si trovano spesso queste due sottotesi: (i) le azioni sono trasparenti all’individuo, in quanto proiezioni di intenzioni o contenuti mentali (anch’essi trasparenti all’individuo) sul mondo; (ii) i fenomeni sociali sono composti dalla somma delle azioni individuali. Individualismo metodologico (Carl Menger, Ludwig von Mises, Friedrich von Hayek): le spiegazioni adeguate per i fenomeni sociali sono quelle che si basano su una teoria delle scelte e i comportamenti degli individui. Individualismo ontologico (Robert Lucas, economia neo-classica): tutto ciò che esiste in un realtà sociale (o in un sistema economico) può essere ricondotto a individui. 32 Il problema di Cournot: non è possibile (o non praticabile) spiegare il comportamento di aggregati riconducendoli alle singole decisioni di tutti gli individui, perché i comportamenti degli individui sono inter-dipendenti e tenerli tutti in considerazione sorpasserebbe di gran lunga i nostri poteri di calcolo (cfr. Hoover 2001). Riduzionismo completo della macroeconomia sulla microeconomia rappresentativo): individualismo metodologico + individualismo ontologico. (modelli agente Sopravvenienza della macroeconomia rispetto alla microeconomia: si dice che la macroeconomia sopravviene alla microeconomia quando, pur non essendo la prima riducibile alla seconda, se due mondi possibili possedessero esattamente la stessa configurazione di elementi microeconomici, allora possederebbero la stessa configurazione di elementi macroeconomici. Non vale invece il contrario: la stessa configurazione di elementi macroeconomici non implica necessariamente la stessa configurazione di elementi microeconomici (Hoover 2001). Emergenza della macroeconomia rispetto alla microeconomia: (Lane, J. Evolutionary Econ. 1993): si differenzia dalla sopravvenienza in quanto accetta la possibilità che due configurazioni identiche (o quasi-identiche) di elementi micro-economici generi configurazioni diverse di elementi macroeconomici. Bibliografia *Hoover , K. 2001, The Methodology of Empirical Macroeconomics, Cambridge University Press, ch. 3. 33