Capitolo 1
Epistemologia dell’Economia:
Cenni critici
1.1. Il linguaggio formale
Quanto è valido il tentativo di descrivere ed analizzare un sistema economico attraverso il linguaggio formale della matematica? Secondo
Alfred Marhsall esso serve solo come linguaggio sintetico e non come
ispiratore dell’analisi; il suo consiglio è di:
1. usare la matematica come un linguaggio stenografico e non
come un motore per la ricerca; 2. conservare questo linguaggio fino a conclusione del lavoro; 3. tradurre il risultato in inglese; 4. illustrare quindi tali risultati con esempi attinenti alla vita reale; 5.
bruciare l’apparato matematico; se non è possibile riuscire nell’operazione 4, bruciare i risultati all’operazione 3 1.
Secondo Marshall quindi la matematica ha una mera funzione di sintesi, totalmente subordinata alla vita reale. Eppure l’ambizione, propria di
una rilevante parte degli economisti, di descrivere l’economia attraverso
la pura formalizzazione teoretica ottenuta a partire da assiomi di base è
molto forte, forse nel tentativo inconscio di elevare il pensiero economico al rango superiore di “scienza esatta”. La scienza economica diverrebbe quindi un monolite posto fuori dal tempo e dallo spazio, un totem rappresentante la verità assoluta, statica ed immutabile nell’evolvere del
pensiero umano, un faro di riferimento per i tempi a venire. Molto simile
alla visione newtoniana della fisica, fatta di leggi universali, incontrovertibili ed immutabili a segnare le tappe del nostro cammino.
1
Corrispondenza epistolare tra Marshall e Bowley citata nel testo di Kaldor, Economics without Equilibrium, 1985.
3
Ma questa è una visione “romantica” della scienza; essa è in continua
evoluzione ed ad oggi sono stati vani gli sforzi di poter descrivere ogni
cosa attraverso il formalismo assioma-teorema. Il caso più illuminante ci
viene proprio dalla scienza esatta per eccellenza, la matematica, dove è
ampiamente accettata l’impossibilità di descrivere la realtà attraverso una
serie di equazioni. Questo risultato fondamentale del matematico austriaco Kurt Göedel, noto come “teorema di incompletezza”, demolì nel 1931
la teoria di un altro grande matematico, il tedesco David Hilbert.
Quest’ultimo aveva presentato al Congresso Internazionale dei Matematici del 1928, tenutosi a Bologna, la sua idea che tutto ciò che è vero è
anche logicamente dimostrabile a partire da una serie minimale di assiomi di base. Il fine quindi dell’impostazione assiomatica, o logico formale, è quella di poter dimostrare qualunque verità.
Da questo punto di vista la ricerca di Hilbert andrebbe nel senso di
poter dar conto di qualunque fenomeno, fisico od economico che sia,
partendo solo da un numero piccolo di assiomi e costruire da essi, attraverso induzione logico-formale, dei teoremi di esistenza. Secondo Hilbert quindi, seguendo le regole della matematica, non è possibile arrivare ad asserzioni che si contraddicono a vicenda; un teorema e la sua
contraddizione non possono convivere insieme, se l’apparato formale è
“completo”.
Ciò che Hilbert negava quindi, era la possibilità di “loop” logici quali
tipicamente i paradossi autoreferenziali. Essi rappresentano degli elementi di incompletezza in quanto il FALSO ed il VERO convivono (famoso è quello di Epimenide secondo il quale tutti i cretesi sono bugiardi
ma essendo egli stesso un cretese non è possibile stabilire se stia mentendo o dicendo la verità).
I paradossi logici erano stati già ampiamente utilizzati da Bertrand
Russell per mettere in luce la debolezza della deduzione puramente logica che pure sono alla base delle dimostrazioni matematiche. L’ambizione di Hilbert era appunto quella di pervenire ad un approccio assiomatico che escludeva la possibilità di “corto-circuiti” logici. In pratica il programma di Hilbert stabiliva la seguente gerarchia investigativa:
assiomi, regole di inferenza (logica), teoremi. In questa visione, ogni
verità matematica si traduceva in un teorema e viceversa. Tre anni dopo
la sfida di Hilbert, Gödel dimostrò l’impossibilità di pervenire ad una
tale impostazione formale; da allora tutte le scienze sono destinate a
4
convivere con la differenza tra ciò che è vero e ciò che può essere dimostrato essere vero. In altri termini Gödel ha dimostrato l’esistenza
dell’indecidibile: esistono asserzioni che non possono essere né smentite né dimostrate. Come hanno scritto i due matematici John Casti e
Werner DePauli:
Per mezzo di questo teorema Gödel soffocò una volta per tutte la
tremolante speranza di fornire un’assiomatizzazione completa e totale dell’aritmetica e dunque dell’intera matematica 2.
Gli effetti su tutto il pensiero umano di quella che probabilmente è stata una delle più operose fucine dell’Intellighentia umana, il Circolo di
Vienna, sono stati enormi, anche per le scienze economiche. Da qui provengono infatti anche John von Neumann e Oskar Morgensten. Il lavoro
di Gödel rimane uno dei principali contributi di questo straordinario
gruppo di menti superiori ma fu fortemente sollecitato dai contributi di
Russell, Whitehead, Popper e Hilbert.
Con Gödel cade quindi ogni possibilità per qualunque scienziato, e
quindi anche per lo “scienziato” economico, di pervenire a teorie completamente formalizzate che vivono al di fuori dei fenomeni che intendono spiegare. La visione “ontologica” del mondo viene meno.
1.2. Dall’incompletezza alla razionalità limitata
Il risultato di incompletezza di Gödel ha come conseguenza il fatto
che un “algoritmo”, un insieme cioè di regole e condizioni non in contrasto tra loro e quindi logicamente coerenti, non può risolvere qualunque
problema, proprio perché, per quanto fine sia l’algoritmo, esso non sarà
mai “completo”.
In economia facciamo largo uso di algoritmi, dove quello più usato è
senz’altro quello relativo alle scelte. Nella visione ortodossa, si fa ampio
uso dell’algoritmo di scelta, dove con questo si intenda:
la decisione individuale che, a partire da una funzione di utilità
e da una distribuzione di probabilità, rispecchia il principio
2
Casti e DePauli, p. 32.
5
dell’utilità attesa come caso particolare di un funzionale di tipo
media 3.
L’algoritmo quindi diventa una “mente artificiale”, una struttura formale che emula il comportamento umano, secondo l’odierna ricerca
sull’Intelligenza Artificiale, branca della più vasta dottrina che va sotto
il nome di Scienza Cognitiva il cui scopo è quello di investigare come la
conoscenza si rappresenta nella mente umana. Uno dei principali fondatori di tale approccio è Herbert Simon che ricevette il premio Nobel per
l’Economia nel 1978, non senza la sua stessa sorpresa non essendo lui
un economista. Nelle motivazioni di tale ambito riconoscimento si
legge:
What is new in Simon’s ideas is, most of all, that he rejects the
assumption made in the classic theory of the firm of an omniscient,
rational, profit-maximizing entrepreneur. He replaces this entrepreneur by a number of cooperating decision-makers, whose capacities for rational action are limited, both by a lack of knowledge
about the total consequences of their decisions, and by personal
and social ties. Since these decision-makers cannot choose the best
alternative, as can the classic entrepreneur, they have to be content
with a satisfactory alternative. Individual companies, therefore,
strive not to maximize profits but to find acceptable solutions to
acute problems. This might mean that a number of partly contradictory goals have to be reached at the same time. Each decisionmaker in such a company attempts to find a satisfactory solution to
his own set of problems, taking into consideration how others are
solving theirs.
Così la visione “cognitivista” dell’economia è quella di una realtà
talmente complessa da non poter essere descritta completamente in maniera assiomatica, come nello spirito Godeliano. La complessità diventa
la naturale barriera alla razionalità piena degli agenti, così come il teorema di incompletezza diventa il limite naturale per costruire “macchine
pensanti”.
I fautori della “razionalità limitata”, aderenti alla scuola cognitivista,
3
G. Lunghini e G. Rampa, 1996, nota 2, p. 438.
6
attingono dalle neuroscienze per modellare il processo decisionale di un
agente economico in modo da rispettare un “algoritmo” mentale, replicato in maniera interessante dall’intelligenza artificiale mediante la costruzioni di reuti nueronali al computer. Riassumendo grossolanamente, questi scienziati negano che le scelte individuali scaturiscano da processi ottimizzanti caratterizzati da una conoscenza totale del sistema ma piuttosto dal seguire poche e semplici regole comportamentali che vengono
aggiornate e migliorate attraverso l’esperienza. In particolare, le reti neuronali di tipo “Bottom Up” sono quelle che riproducono al calcolatore
non solo il funzionamento del cervello umano ma la sua architettura fatta
di neuroni e sinapsi.
Come scrivono Casti e DePauli:
Nel suo complesso una rete neurale Bottom Up rappresenta una
concezione del mondo priva di teorie e suggerisce che è possibile
comportarsi in modo intelligente nel mondo senza avere una teoria
di questo mondo (p. 115).
Un aspetto interessante della discussione sulla validità di una teoria
della razionalità limitata per le scienze sociali riguarda la sua stessa ragione di esistere: dobbiamo adottare tale visione semplicemente perché
un algoritmo di intelligenza artificiale replica molto bene il comportamento umano, almeno ex-post, o esistono motivazioni più forti di questo semplice criterio? Secondo alcuni economisti o scienziati sociali
questo non basta. Nel suo interessante libro, Peter Albin va oltre questo
criterio “empirico” di supporto alla razionalità limitata dimostrando che
l’elevato grado di complessità intrinseca (entropia) caratterizzante ogni
sistema sociale impone un tale grado di “indecidibilità” negli agenti economici da rendere vano il tentativo di imporre comportamenti pienamente razionali. In altri termini, la complessità diventa l’elemento chiave che induce gli individui a muoversi secondo regole semplici, continuamente aggiornate e a fare tesoro degli errori passati. In altri termini
a muoversi secondo i dettami della “bounded rationality” per necessità,
sia a livello di singolo agente che di policy maker.
Sulla stessa linea di pensiero ritroviamo anche il contributo di G.
Lunghini e G. Rampa sulla rilettura dell’incertezza endogena keynesiana alla luce degli sviluppi della teoria delle scelte in ambiti strategici:
7