Dipartimento di Scienze Politiche e Internazionali, Università di Siena Anno accademico 2013-14 Francesco Farina Politica Economica Internazionale Parte Prima. Equilibrio macroeconomico 1. Le funzioni di offerta aggregata e di domanda aggregata Il modello IS-LM presenta due caratteristiche importanti: 1. l’equilibrio macroeconomico non prevede necessariamente la piena occupazione della forza lavoro, in quanto è la domanda a generare l’offerta; se la domanda privata è insufficiente a generare il livello di produzione corrispondente alla piena occupazione la spesa pubblica interviene ad avvicinare il sistema economico al completo utilizzo dei fattori; 2. il livello generale dei prezzi (il prezzo, trattandosi di un modello ad un solo bene) è dato esogenamente; in altri termini, il modello IS-LM non offre una spiegazione del perché il prezzo si trovi ad un certo livello. Con il modello AS-AD queste due caratteristiche vengono superate. Il livello di attività economica, sotto la spinta degli incentivi di mercato che guidano i comportamenti di soggetti razionali al massimo utile (nel consumo) e profitto (nella produzione), è di norma pari a quello di piena occupazione. La definitiva incorporazione del livello dei prezzi di concorrenza perfetta nell’equilibrio macroeconomico avviene con la cosiddetta curva di Phillips corretta con le aspettative. 1 2. Inflazione e disinflazione Dopo la cosiddetta “età dell’oro” dei primi due decenni del secondo dopoguerra, caratterizzati da elevati tassi di crescita e prezzi in lenta evoluzione, in molte economie avanzate il fenomeno dell’inflazione riprese vigore. Negli anni ’70, il forte assorbimento di forza lavoro degli anni della crescita rapida innescò un conflitto distributivo fra salari e profitti. In concomitanza con la guerra del Kippur del 197374, si manifestarono eccezionali incrementi di prezzo del petrolio, nell’ordine del 400%. Nei paesi importatori di petrolio si pose il problema di quale gruppo sociale – i lavoratori o gli imprenditori - dovesse accollarsi il costo della cosiddetta “bolletta petrolifera”, il notevole esborso aggiuntivo che gravava sulla bilancia commerciale. Nuovi forti aumenti si ebbero nel 1979, come conseguenza del rafforzamento del potere politico dei paesi aderenti all’OPEC (Organisation of Petroleum Exporting Countries). Il conflitto distributivo si protrasse così per tutto il decennio, generando una serie di fenomeni di instabilità macroeconomica che cominciarono a placarsi solo a metà degli anni ’80. Dopo la progressiva disinflazione, che si protrasse fino a metà anni ’90, nelle tre grandi aree valutarie – del dollaro, dell’euro e dello yen - i tassi di inflazione si sono stabilizzati a livelli molto bassi. Il principale limite del modello IS-LM è quello di essere stato concepito a prezzi costanti e dunque di essere inutilizzabile per l’analisi dell’inflazione. L’ipotesi esogena di prezzi costanti e l’assenza delle aspettative sul futuro limitano notevolmente la capacità interpretativa e previsionale del modello IS-LM. Molti sforzi vennero perciò dedicati alla costruzione di un nuovo modello macroeconomico in grado di determinare endogenamente il livello dei prezzi. L’opportunità per colmare tale lacuna venne individuata nella correlazione inversa non lineare fra disoccupazione e tasso di variazione dei salari nominali che Alban W. Phillips aveva desunto nel 1958 dalla sua verifica empirica condotta sul Regno Unito dal 1861 al 2 1957. La curva di Phillips registra la tendenza dei salari a crescere a mano a mano che la forza lavoro disoccupata si riduce ed il potere di contrattazione dei lavoratori aumenta. L’incremento del salario monetario al di sopra della produttività marginale del lavoro viene annullato dalla crescita dei prezzi indotta dall’eccesso di domanda che si crea nei mercati di concorrenza perfetta nella fase espansiva del ciclo economico. La curva di Phillips venne così a rappresentare lo strumento analitico che si aggiungeva all’equilibrio macroeconomico nei mercati dei beni e della moneta. La sua considerazione nel modello IS-LM permise la determinazione endogena del livello dei prezzi, e, di conseguenza, anche dei valori nominali del salario e del reddito. La relazione inversa fra tasso di disoccupazione e tasso di inflazione venne poi estesa all’analisi dei mercati di concorrenza imperfetta. Le imprese sono definite price-setters perché non subiscono il prezzo che si forma nel proprio mercato di vendita ma lo fissano in base alla formula del mark-up (ρ): p=(1+ρ)w dove (1+ρ) è il margine di profitto che l’impresa intende assicurarsi attraverso la fissazione di un prezzo più elevato che in concorrenza perfetta. Per questo schema macroeconomico, le cose cominciarono a complicarsi quando, alla verifica empirica, il segno della relazione fra tasso di disoccupazione e tasso di inflazione mostrò un cambiamento dal valore negativo a quello positivo. All’evidenza di incrementi contestuali sia del tasso di inflazione che del tasso di disoccupazione venne dato il nome di “stagflazione”. Si pose il problema se si dovesse o meno relegare la curva di Phillips in soffitta. La risposta fu trovata nei lavori - quasi contemporanei, ma indipendenti l’uno dall’altro - di Edmund Phelps (1967) e di Milton Friedman (1968). I due economisti statunitensi elaborarono una nuova costruzione analitica, la curva di Phillips “corretta per le aspettative”. Tale nuovo strumento analitico ebbe il pregio di riconciliare il trade-off disoccupazioneinflazione individuato da Phillips con il fenomeno della “stagflazione”. Diversamente dalla concezione originaria, la curva di Phillips corretta con le aspettative risultò 3 compatibile con la “stagflazione”, e cioè con l’evidenza empirica di più elevati valori sia della disoccupazione che dell’inflazione; negli Stati Uniti, tra gli anni ’60 e gli anni ’70, la prima passò dal 4,75% al 6% e la seconda dal 2,5% al 7%. È bene innanzitutto ricordare che il termine “piena occupazione” va inteso al netto della disoccupazione puramente frizionale, cioè di chi si trova ad essere momentaneamente disoccupato perché giovane in cerca di prima occupazione che si appresta a “riempire” i posti vacanti, oppure perché è un lavoratore in via di trasferimento da un’occupazione all’altra. Nel prosieguo, al concetto di “piena occupazione” si sostituisce quello di “disoccupazione naturale” (uN nella Figura 1.4), ovvero il livello minimo cui può essere portata la disoccupazione, date le risorse disponibili nell’economia. Con la definizione di “tasso di disoccupazione naturale” (natural rate of unemployment: NRU) i modelli della Nuova Economia Classica (NCE) indicano quel livello di impiego della forza lavoro non influenzato dalle politiche macroeconomiche, ma esclusivamente determinato dalla tecnologia e dalla scelta degli agenti fra lavoro e tempo libero. Nella Figura 1, osserviamo una famiglia di curve di Phillips di breve periodo, una per ciascun tasso atteso di inflazione. Il livello della produzione (o reddito) che si realizza in corrispondenza del tasso naturale di disoccupazione – definito produzione (o reddito) potenziale - può tuttavia essere inferiore al livello di produzione efficiente (first-best); la causa consiste in imperfezioni dei mercati e/o nell’effetto distorsivo della tassazione. I modelli della Nuova Economia Keynesiana (NKE) adottano la definizione alternativa di “tasso di disoccupazione al quale l’inflazione non accelera” (non-accelerating-inflation rate of unemployment: NAIRU). Il nuovo strumento di analisi dell’inflazione distingue fra disoccupazione di breve periodo e di lungo periodo. Ciascuna curva di Phillips di breve periodo determina un equilibrio temporaneo (i punti E, B e D in Figura 1) in corrispondenza dell’eguaglianza fra i due livelli di tasso di inflazione (quella realizzata e quella attesa) nel punto di intersezione con il tasso di disoccupazione al livello naturale. 4 Ciascuna curva corrisponde ad un tasso di inflazione attesa più elevato di quello della curva che sul piano occupa la posizione inferiore: πe2>πe1>πe0. Quando il livello effettivo dei prezzi coincide con il livello atteso, l’economia si trova al tasso di disoccupazione “naturale”. La curva di Phillips di lungo periodo è quindi nient’altro che l’insieme dei punti di intersezione di ciascuna curva di Phillips di breve periodo con il tasso naturale di disoccupazione. Dopo che il tasso di disoccupazione si è discostato dal suo valore naturale (ad esempio è diminuito in seguito ad una accelerazione della crescita monetaria) si mette in moto un processo di convergenza che ha termine in corrispondenza di una diversa curva di Phillips di breve periodo (in questo esempio, più elevata). Friedman e Phelps utilizzano il modello delle aspettative adattive: gli agenti hanno aspettative che guardano al passato in modo da adattare i comportamenti a quanto è avvenuto. Nella (1.21) in assenza di nuovi eventi che provochino lo scostamento della disoccupazione dal tasso naturale (il secondo termine è nullo), l’aspettativa è che il tasso di inflazione (πt) confermi il valore determinatosi nel periodo precedente (πt-1). L’importante implicazione che ne consegue è che il concetto di “disoccupazione naturale” viene associato all’esistenza di aspettative di inflazione realizzate: l’inflazione effettiva è eguale all’inflazione attesa. Definiamo allora la curva di Phillips corretta per le aspettative come la relazione di breve periodo fra tasso di inflazione corrente e tasso di disoccupazione, dato il tasso di inflazione del periodo passato. Il tasso di inflazione corrente dipende quindi dal suo valore nell’anno precedente, dalla pressione esercitata dallo scostamento della disoccupazione dal suo livello naturale (nella misura di un coefficiente che esprime l’elasticità dell’inflazione al reddito) e da un eventuale shock: (1) π t = π t −1 − (1 / γ )(u t − u N ) + µ t 5 Figura 1. Curva di Phillips di breve e lungo periodo, inflazione e disinflazione π πe1 πe2 processo di inflazione: D→K→B→J→E πe0 3% 1% 0 E J 5% K processo di disinflazione: E→A→B→C→D A B D uN C u Supponiamo che, a partire dal punto D - in corrispondenza di un tasso di inflazione puramente frizionale, in pratica di “inflazione zero” - una banca centrale generi un’accelerazione della crescita monetaria diretta a diminuire la disoccupazione al di sotto del tasso “naturale”. Quanto meno preoccupata per l’inflazione è la banca centrale, tanto più frequente è il ricorso ad un’espansione monetaria. Con la salita del tasso di inflazione, il salario reale inizialmente si riduce, favorendo l’incremento della domanda di lavoro. I lavoratori tengono conto ex post della riduzione del potere d’acquisto del salario nominale. In seguito agli aumenti nominali rivolti a recuperare la perdita di potere d’acquisto, i profitti connessi all’aumento dei prezzi di vendita sono annullati ed il salario reale torna al livello precedente. Le imprese, constatando il ritorno dei profitti al livello precedente all’incremento dell’occupazione, correggono al ribasso le aspettative e licenziano i nuovi lavoratori assunti. Il nuovo equilibrio temporaneo si caratterizza per il ritorno al tasso naturale di disoccupazione, ma in corrispondenza di un tasso di inflazione stabilmente più alto: le imprese hanno corretto i prezzi verso l’alto riportando automaticamente gli incrementi dell’anno in 6 corso nei listini, ed i lavoratori hanno adattato il livello di salario richiesto nelle contrattazioni in funzione dell’incremento dei prezzi che si è determinato. Il nuovo valore del tasso di inflazione è ormai inglobato nei valori attesi delle grandezze nominali fissati dagli agenti. Affinché le aspettative degli agenti rinuncino ad applicarlo di anno in anno, occorre che cambi sostanzialmente il quadro di riferimento macroeconomico in base al quale essi effettuano le loro previsioni. La Figura 1 mostra due cicli economici di espansione, innescati dall’accelerazione della crescita monetaria a partire da un dato livello di tasso naturale di disoccupazione. Una prima accelerazione monetaria dà luogo ad un aumento dell’output; l’economia passa dal punto D al punto K, la disoccupazione scende, e lungo la curva di Phillips più bassa, che ingloba l’aspettativa di inflazione πe0, l’inflazione sale dall’1% al 3%. Il recupero del salario nominale e la decisione conseguente delle imprese di ridurre l’occupazione fanno risalire il tasso di disoccupazione naturale fino al punto B, nel quale il tasso effettivo di breve periodo eguaglia il tasso di disoccupazione naturale di lungo periodo. Una seconda accelerazione monetaria, a partire dal punto B, fa muovere l’economia lungo la curva ad aspettativa di inflazione πe1 (sindacati e imprese hanno incorporato nelle richieste salariali e nei listini dei prezzi l’inflazione precedente) fino al punto J, con successivo ritorno all’equilibrio nel punto E. Nei punti B ed E, il tasso di disoccupazione coincide con il livello naturale. La posizione verticale della curva di Phillips di lungo periodo riflette il fatto che al termine di ogni ciclo di espansione dell’output permane un solo mutamento duraturo: un più elevato tasso di inflazione. Mentre il tasso di inflazione cresce progressivamente, trainato dal susseguirsi di accelerazioni monetarie, il livello di disoccupazione presenta un andamento ciclico. Tale contrasto riflette la logica secondo la quale la variazione della quantità di moneta si ripercuotono sulle grandezze nominali, mentre la disoccupazione è determinata dalle forze reali che la attraggono verso il suo valore di lungo periodo. 3. Credibilità della politica monetaria e processo di disinflazione 7 Riassumiamo l’analisi svolta sulla curva di Phillips. Nella Figura 1.4, un movimento lungo la curva di Phillips di breve periodo segna un allontanamento del tasso di inflazione dal suo livello atteso, cui corrisponde un allontanamento del livello di disoccupazione dal suo tasso naturale. La convergenza dell’economia al tasso naturale di disoccupazione dimostra la “neutralità della moneta”. I tentativi della politica monetaria di aumentare i livelli di occupazione e produzione hanno effetti solo temporanei. Dopo che il tasso di inflazione è cresciuto al di sopra del suo valore atteso, il processo di disequilibrio giunge al termine allorché l’incremento nel livello di attività economica si spegne. Il più elevato tasso di inflazione viene però assunto dagli agenti nella formazione della nuova aspettativa e quindi risulta incorporato nella nuova curva di Phillips di breve periodo che occupa nel piano una posizione più elevata. A ciascuna delle curve di Phillips di breve periodo è associato un diverso livello atteso di inflazione. L’insieme dei punti in cui le curve di breve periodo eguagliano il tasso naturale di disoccupazione forma la curva verticale di Phillips di lungo periodo. Vedremo ora come l’analisi della disinflazione richieda l’adozione del modello delle aspettative razionali. Il problema è che con l’adozione di tale modello il comportamento degli agenti risulta profondamente modificato. Diversamente dal modello delle aspettative adattive, il tasso di inflazione dipende dalla variazione attesa dell’inflazione calcolata in base alle previsioni sugli eventi futuri. Ad esempio, gli agenti tengono conto della misura in cui l’autorità monetaria terrà fede al suo annuncio di crescita monetaria. Pertanto il tasso di inflazione risulta determinato dallo scostamento della disoccupazione dal tasso naturale e dall’accelerazione attesa nella crescita dei prezzi. Dato un elevato tasso di inflazione, qual è la logica economica del cosiddetto “rientro dall’inflazione”, ovvero l’annullamento della distorsione inflazionistica che dovrebbe concludersi con il ritorno all’inflazione “zero”? L’evidenza empirica ha confutato l’idea che i processi di disinflazione siano rappresentabili sottoforma di un continuum di equilibri temporanei - ciascuno in corrispondenza di una curva di Phillips che incorpora un tasso di inflazione ogni volta più basso – in una rapida convergenza all’inflazione 8 “zero”. Agenti razionali inseriscono nel loro modello di funzionamento dell’economia tutta l’informazione disponibile. Le loro aspettative riflettono previsioni formulate in base non solo all’andamento dei mercati, ma anche al grado di reputazione delle autorità monetarie riguardo alla fedele attuazione delle politiche macroeconomiche annunciate. Nel gioco fra banca centrale e agenti del settore privato il grado di credibilità degli annunci di politica monetaria può influenzare la determinazione del tasso di disoccupazione in corrispondenza del nuovo tasso di inflazione. Si parta dall’equilibrio nel punto E all’intersezione fra la curva di Phillips di breve periodo più elevata e quella di lungo periodo corrispondente al tasso naturale di disoccupazione (uN) e a un tasso di inflazione del 5% (Figura 1). Gli economisti NCE sostengono che una terapia d’urto (shock therapy) di forte contrazione della crescita monetaria sia meno costosa – in termini di perdita di posti di lavoro - di una manovra di graduale riduzione dell’inflazione. Supponiamo che agenti razionali ritengano pienamente credibile un annuncio delle autorità di forte restrizione monetaria volta a provocare un immediato abbattimento dell’inflazione, ad esempio dal 5% all’1%. Ciò si realizza sotto due condizioni principali: 1) la reputazione antiinflazionistica del governatore della banca centrale deve essere elevata; 2) la monetary stance anti-inflazionistica è segnalata agli agenti attraverso annunci e comunicazioni di politica monetaria trasparenti – tali cioè da non lasciare dubbi sulle effettive intenzioni della banca centrale – in modo da convincere gli agenti ad effettuare la correzione al ribasso delle aspettative di inflazione. Se fossero presenti tali condizioni ideali, il sistema economico passerebbe direttamente dal punto di equilibrio E al punto D, senza alcuna perdita di posti di lavoro. La curva di Phillips di breve periodo slitterà verso il basso nella posizione (πe=1%), incorporando il tasso di inflazione atteso dell’1% nel punto di intersezione con la curva di Phillips di lungo periodo (D). Se invece gli agenti non hanno fiducia nell’orientamento antiinflazionistico della manovra monetaria annunciata dalla banca centrale, una restrizione monetaria non sarà in grado di ridurre il tasso di inflazione senza incorrere in un incremento della disoccupazione. Data la rigidità delle aspettative di inflazione, 9 i contratti di lavoro continueranno ad essere firmati per salari nominali che incorporano un’inflazione al 5% ed il salario reale permarrà quindi ad un livello troppo alto, che non consente alle imprese una revisione verso il basso dei listini di vendita. La manovra monetaria restrittiva riuscirà perciò a ridurre molto lentamente l’inflazione al prezzo dell’aumento della disoccupazione nella misura determinata dalla pendenza della curva. In luogo della traslazione verso il basso della curva di Phillips di breve periodo si realizza uno spostamento lungo la curva (πe=5%) fino al punto A dove il tasso di inflazione è al 3%, ma il tasso di disoccupazione è superiore al livello naturale. La perdita di occupazione in cui si incorre attivando il processo di disinflazione è definita sacrifice ratio. In che misura i fattori istituzionali concorrono a determinare l’ampiezza del sacrifice ratio? Quanto più i contratti sono scaglionati nel tempo fra diversi settori, e quanto più lungo è il periodo per il quale il salario nominale si mantiene fisso, tanto più vischioso verso il basso è l’aggiustamento salariale, tanto più piatta risulta essere la pendenza della curva di Phillips di breve periodo, tanto maggiore sarà la perdita di posti di lavoro che precede la discesa delle aspettative inflazionistiche. Se su tale quadro istituzionale di vischiosità del salario nominale si innesta una sindacale rivolto a difendere il salario reale nei rinnovi contrattuali, una stretta monetaria rischia di accrescere notevolmente la disoccupazione. La riduzione del monte salari avverrà attraverso la riduzione della quantità occupata molto più che del prezzo del fattore lavoro. Infatti, la minore “monetizzazione” dell’economia induce le imprese a licenziare. Il modello NCE è tuttavia in grado di spiegare il processo di disinflazione senza rinunciare all’ipotesi di salari e prezzi pienamente flessibili. Un elevato sacrifice ratio viene attribuito alla bassa reputazione anti-inflazionistica della banca centrale. I processi di disinflazione intrapresi da molte economie avanzate fra metà anni ’80 e metà anni ’90 sono stati quasi sempre accompagnati da un notevole incremento della 10 disoccupazione. È ad esempio occorso molto tempo perché la “svolta” delle banche centrali europee verso l’obiettivo della stabilità monetaria fosse creduta. Queste economie hanno potuto operare su curve di Phillips di breve periodo via via inferiori soltanto dopo che gli agenti si sono convinti ad attribuire credibilità all’indirizzo di politica monetaria (monetary stance). Prima che ciò accadesse la disoccupazione ha teso a crescere, raggiungendo valori molto elevati. La Figura 1 riflette questa analisi. Una volta che l’economia sia pervenuta al punto B di equilibrio temporaneo, se le aspettative degli agenti restano immutate al livello π1e, la riduzione del tasso di inflazione al valore π=1% comporterà una notevole perdita di posti di lavoro con conseguente aumento del tasso di disoccupazione fino al punto C. Come vedremo più avanti, i modelli NKE tendono a differenziarsi da questo schema interpretativo: un elevato sacrifice ratio viene spiegato nell’ambito dei modelli macroeconomici con rigidità nominali, dove il potere di mercato delle imprese e/o dei lavoratori rende vischioso l’aggiustamento di salari e prezzi. 4. Offerta aggregata e domanda aggregata La definizione tradizionale della forma di mercato della concorrenza perfetta fa riferimento all’ipotesi che alla produzione complessiva realizzata in un mercato contribuisca un grande numero di piccole imprese: la piccola dimensione impedisce di esercitare un’influenza sul prezzo, cosicché ciascuna impresa (price taker) opera al prezzo dato dal mercato. Un’ipotesi aggiuntiva che si suole introdurre è che le imprese siano eguali fra loro. Essa consente di ricondurre alla quantità prodotta da una singola impresa “rappresentativa” l’offerta aggregata presente nel sistema economico. La moderna microeconomia prescinde comunque dall’ipotesi dell’esistenza di un grande numero di imprese. La teoria dei “mercati contendibili” ha elaborato un diverso approccio all’analisi del grado di concorrenzialità dei mercati. Invece di attribuire la pressione al ribasso dei prezzi all’impossibilità per una piccola impresa 11 di influenzare il prezzo di un mercato di ampie dimensioni, la teoria dei mercati contendibili afferma che il vero indicatore del grado di concorrenzialità è rappresentato dalle condizioni di entrata nel mercato che i potenziali entranti si trovano di fronte. Un mercato si definisce “contendibile” allorché un’impresa è in grado di sostenere i costi “irrecuperabili” (sunk cost) necessari per entrarvi e sottrarre clienti alle imprese che già vi operano. Le imprese di un mercato contendibile tendono a sottostare al vincolo delle imprese price taker: un’impresa del mercato di concorrenza perfetta che aumentasse il proprio prezzo di vendita al di sopra del prezzo vigente subirebbe delle perdite. Figura 2. Costruzione della curva di domanda aggregata (AD) e modello AS-AD r (a) p LM(p2) (b) LM(p0) LM(p1) r2 r0 AS p2 p0 r1 p1 IS 0 Y2 Y0 Y1 AD Y 0 Y2 Y0 Y1 Y Quale che sia il modello teorico di riferimento, assumiamo che un mercato sia in condizioni concorrenziali quando le imprese sono impegnate nel continuo monitoraggio dei propri costi di produzione, in quanto la produzione può essere aumentata solo a costi crescenti nel breve periodo, dati lo stock di capitale e la tecnologia. La curva di offerta aggregata di breve periodo “inclinata” positivamente (AS) individua una relazione diretta fra livelli via via più alti di prezzo e di produzione. Per ogni diminuzione del salario reale conseguita alla perdita di potere 12 d’acquisto, la massimizzazione del profitto si realizza accrescendo la produzione attraverso l’incremento dell’occupazione, da cui risulta una diminuzione della PML, che si abbassa fino al livello del salario reale (w/p). Più avanti, introdurremo anche la curva di offerta aggregata di lungo periodo, la cui posizione verticale nel piano riflette la stabilità dell’equilibrio al livello di produzione corrispondente al tasso di disoccupazione naturale. La funzione di domanda aggregata AD (YDt) è formata dall’insieme dei punti di intersezione tra la LM e la IS che si ottengono variando il livello dei prezzi. Consideriamo una famiglia di curve LM in termini reali. Lo spostamento di una funzione ha luogo quando muta il valore di una variabile che è inclusa nell’equazione, ma non è rappresentata sugli assi. Nel caso della LM, l’offerta di moneta è espressa in termini reali (M/p) pertanto, ad ogni variazione del livello di prezzo (p) corrisponde uno spostamento della curva LM sul piano e perciò varia il valore al quale la curva LM interseca la curva IS. Nella Figura 2(a) una diminuzione di prezzo (da p0 a p1, con p0>p1), comporta uno spostamento verso destra della curva LM, mentre un aumento (da p0 a p2, con p0<p2), sposta la LM verso sinistra. Ne deriva un’intersezione con la IS nel primo caso in un punto più basso, più alto nel secondo. Dall’insieme dei punti così ottenuti si costruisce la curva AD, che per semplicità viene raffigurata come una funzione lineare (Figura 2(b)). Un aumento dei prezzi (p) provoca la diminuzione dell’offerta di moneta reale (M/p); d’altro canto, dati il reddito ed il tasso di interesse, la domanda reale di moneta rimane invariata, mentre la domanda nominale aumenta nella stessa proporzione dei prezzi. Si determina perciò un eccesso della domanda reale di moneta al quale si accompagna un eccesso di offerta di titoli, cui consegue la discesa del loro prezzo di mercato e l’incremento del tasso di interesse. La domanda di finanziamento per l’investimento delle imprese cade, la domanda aggregata si contrae a seguito del minore volume di investimenti e l’occupazione si riduce. Questo effetto dei prezzi (p) sul tasso di interesse reale (r), detto “effetto saldi monetari reali”, spiega perché la 13 funzione AD presenta una relazione inversa fra domanda aggregata e tasso di interesse. È opportuno chiarire che la funzione di domanda aggregata non replica la relazione inversa della microeconomia fra prezzo e domanda per un singolo bene. Essa è la relazione di equilibrio per il mercato dei beni e per il mercato della moneta del modello IS-LM estesa alla determinazione endogena dei prezzi. Nel modello ASAD, il punto di intersezione fra domanda ed offerta aggregate determina il livello dei prezzi assieme al livello del reddito e dell’occupazione. Una volta reso endogeno il livello dei prezzi resta da superare l’altro limite del modello IS-LM: la mancata considerazione delle aspettative sul futuro. 5. Dalle aspettative adattive alle aspettative razionali L’analisi della relazione fra disoccupazione e inflazione si è molto sviluppata nei decenni successivi. Uno dei motivi di insoddisfazione riguardo alla curva di Phillips corretta con le aspettative risiedeva nell’utilizzo del modello teorico delle aspettative adattive. Nella curva di Phillips corretta con le aspettative si determina uno scostamento ed un successivo ritorno all’equilibrio in corrispondenza del tasso naturale di disoccupazione. Questa ipotesi, secondo la quale i valori attesi delle variabili vengono adeguati di periodo in periodo nella misura determinata dallo scostamento del valore osservato ex post rispetto al valore atteso ex ante, è apparsa debole per due ragioni: 1) non è realistico assumere che i lavoratori soffrano di “illusione monetaria” e contrattino il salario nominale senza formarsi delle aspettative sul suo futuro potere d’acquisto; 2) se le aspettative rilevano solo quando vengono aggiustate ex post, una politica monetaria eccessivamente espansiva – un’accelerazione della crescita monetaria tale da aumentare il tasso di inflazione potrebbe ripetersi di periodo in periodo, senza che il comportamento degli agenti venga ad essere modificato da un processo di apprendimento (learning) dalla passata esperienza. 14 Agenti che reagiscono passivamente agli eventi imprevisti, senza valutare la nuova informazione alla luce di un modello a priori del sistema economico, possono incorrere in continui errori di previsione. In termini formali, gli agenti sono esposti al rischio di errori sistematici, il che mal si concilia con l’assunzione di comportamento razionale. L’affermarsi di questa convinzione stimolò l’elaborazione di una nuova teoria delle aspettative, che ha preso il nome di ipotesi delle aspettative razionali e poté svilupparsi anche grazie all’esistenza del lavoro pionieristico di John F. Muth, che nel 1961 aveva osservato come il risultato di molte decisioni economiche dipenda in maniera sostanziale dalle aspettative sulla base delle quali esse sono state prese. Un esempio tipico è quello delle produzioni nelle quali una forte incertezza domina le aspettative sul futuro prezzo di vendita; così pure, il prezzo futuro di una azione, o il futuro tasso di cambio di una valuta, dipendono da una serie di eventi di difficile valutazione, con la conseguenza che gli operatori dei mercati finanziari sono indotti a seguire le aspettative fondate su quella che si ritiene essere “l’opinione media”. Secondo il nuovo modello, agenti razionali formulano aspettative razionali perché determinano i valori attesi delle variabili sulla base della piena conoscenza di equazioni e parametri del modello macroeconomico di funzionamento dell’economia. Mentre con aspettative adattive reagiscono passivamente ad eventi imprevisti, con aspettative razionali gli agenti inglobano nel modello in tempo reale tutta la nuova informazione che si manifesta nell’ambiente economico e determinano nuovi valori attesi. Nella visione monetarista, una banca centrale regola la quantità di moneta correggendo eventuali scostamenti del tasso di disoccupazione dal livello naturale. Pertanto, sulla base della conoscenza dell’andamento del ciclo economico e del modello utilizzato dall’autorità monetaria, gli agenti razionali finirebbero per “anticipare” gli effetti sul livello dei prezzi dei mutamenti di politica monetaria che la banca centrale annuncia e non modificherebbero i propri comportamenti. Le quantità offerte e domandate nei mercati del lavoro e dei beni non subirebbero quindi variazioni. 15 Il fatto che le aspettative siano razionali perché calcolate al meglio dell’informazione disponibile non significa che non si possano commettere errori. Gli errori sono possibili, ma soltanto se si verificano eventi stocastici: eventi che non sono conosciuti a priori né prevedibili in base alle informazioni esistenti al momento del calcolo dei valori attesi della variabile. Si dice anche che gli errori sono “ortogonali” alle informazioni, cosicché non è possibile stabilire una relazione causale che li faccia dipendere da fatti sistematici (gli elementi noti del modello). Gli errori possono solo essere determinati da fatti casuali (gli eventi stocastici). Pertanto, il valore atteso di una variabile del modello consiste nell’aspettativa matematica calcolabile inserendo nel modello tutte le informazioni disponibili necessarie a formulare la previsione. L’aspettativa matematica è il valore medio desumibile in base alle informazioni disponibili, più un eventuale disturbo stocastico di media zero e varianza σ2. Gli effetti di errori di previsione a carattere stocastico tendono ad annullarsi e non influenzano le grandezze di lungo periodo. Sotto l’ipotesi di aspettative razionali, poiché gli agenti non commettono in media errori di previsione, il tasso di disoccupazione coincide con il suo tasso “naturale” ed il tasso di inflazione coincide con il suo tasso atteso. 6. Aspettative razionali ed equilibrio macroeconomico L’ipotesi di aspettative razionali è stata oggetto di numerose critiche. La condizione indispensabile per formulare aspettative razionali è che tutta l’informazione disponibile venga utilizzata. Naturalmente, il modello delle aspettative razionali non presume che i soggetti debbano raccogliere su base individuale tutte le conoscenze necessarie a costruire le equazioni del modello di funzionamento dell’economia e calcolarne i coefficienti. Alcune fonti statistiche e analisi economiche sono pubbliche (Annuari statistici, Rapporti governativi, etc.) oppure possono essere reperite presso le istituzioni con cui i soggetti sono in contatto (il servizio studi della banca centrale, dei sindacati, delle organizzazioni degli imprenditori, etc.). Ciò nonostante, molti economisti sostengono che, se si volesse acquisire tutta la massa di informazioni 16 necessarie per calcolare con esattezza i valori attesi delle variabili, i costi sarebbero proibitivi. Un secondo problema sorge dall’inserimento nella teoria macroeconomica dell’ipotesi di comportamento conforme al modello assiomatico della razionalità. Una implicazione di tale ipotesi è che tutti gli agenti interpretino l’informazione nello stesso modo. Questo risultato viene respinto da molti economisti, in particolare dai filoni di teoria impegnati nella formalizzazione delle intuizioni di Keynes. Nella descrizione del “concorso di bellezza” (beauty contest) presente nella General Theory, Keynes esprime in nuce la visione della macroeconomia come un insieme di “equilibri plurimi”: gli agenti prenderebbero decisioni sulla base dell’aspettativa sulla reazione degli altri agenti ai segnali informativi; a loro volta i comportamenti degli altri agenti sarebbero basati sull’interpretazione delle altrui credenze; e così via. La teoria del cambiamento stocastico dei prezzi da parte delle imprese sostiene che le decisioni di prezzo sono diverse appunto perché ciascun agente reagisce a un mutamento nominale (ad esempio, un annuncio di politica monetaria) dopo essersi formato una propria aspettativa sulle decisioni di prezzo altrui. Le aspettative sono dunque inevitabilmente fondate su una conoscenza imperfetta. Ad impedire agli agenti di prevedere con esattezza il comportamento altrui è in ultima analisi il fatto che il modello di formazione delle credenze poggia su assunzioni pre-analitiche. Ciascuno agente possiede un proprio particolare insieme di assunzioni: ad esempio, il nesso di causalità fra istituzioni e funzionamento dei mercati; le norme e le convenzioni sociali; e così via. La tensione che si stabilisce fra aspettative razionali ed eterogeneità degli agenti apre una importante questione: l’inserimento nella macroeconomia delle aspettative razionali non può essere sinonimo di unicità dell’equilibrio macroeconomico. Dal momento che gli agenti hanno comportamenti diversi anche se utilizzano la stessa informazione, le aspettative razionali dipendono strettamente dalle ipotesi del modello macroeconomico utilizzato. Gli agenti di un modello ispirato alla NCE formeranno un certo insieme di aspettative razionali e determineranno un certo 17 esito economico, gli agenti di un modello ispirato alla NKE formeranno un altro insieme di aspettative razionali e determineranno un altro esito economico. Un esempio illuminante è rappresentato dai risultati opposti che si conseguono nella verifica dell’ipotesi di effetti non-keynesiani della politica fiscale, recentemente avanzata da alcuni economisti vicini alla posizione teorica del real business cycle (nell’acronimo inglese: RBC). Nei modelli NCE, un ruolo fondamentale è giocato dal grado di credibilità dell’annuncio di politica economica. Se ad esempio i consumatori percepiscono come permanente un programma di abbattimento della tassazione, il reddito permanente, valutato su tutti i periodi futuri della vita lavorativa, conosce un innalzamento con conseguente incremento della domanda. Al contrario, nei modelli NKE che incorporino le ipotesi di capacità produttiva inutilizzata e di agenti con “vincolo di liquidità”, ad un’espansione fiscale conseguono valori positivi del moltiplicatore della spesa pubblica. Così pure, i vincoli che le istituzioni poste a protezione delle remunerazioni e dell’occupazione impongono al funzionamento del mercato del lavoro sono interpretati in modi molti diversi: i modelli NCE sottolineano il pericolo che garanzie eccessive causino uno scarso impegno degli insider (i lavoratori stabilmente occupati) ed impediscano alla dinamica salariale di riflettere la dinamica della produttività; i modelli NKE guardano al sostegno dei livelli di reddito come ad uno strumento che rafforza i meccanismi di mercato riducendo la perdita di benessere causata da lunghi periodi di caduta della produzione. Nonostante i dubbi appena esposti sulla solidità delle sue fondamenta teoriche, l’ipotesi di aspettative razionali è oggi largamente accolta nei modelli macroeconomici. In primo luogo, l’idea che i soggetti non commettano errori sistematici è sembrata plausibile. In secondo luogo, l’eccellente trattabilità analitica di tale ipotesi ha fatto sì che fosse accolta con favore dai macroeconomisti. Il modello delle aspettative razionali è così stato adottato anche dagli economisti di orientamento keynesiano. In effetti, nell’adottare tale ipotesi ci si può sentire vincolati soltanto all’idea che l’equilibrio possa essere disturbato dal verificarsi di shock che 18 modificano dall’esterno il funzionamento del modello conosciuto, invalidando le previsioni che sulla sua scorta gli agenti razionali formulano. Pertanto, adottare un modello con aspettative razionali non preclude la possibilità di mostrare né l’efficacia delle politiche macroeconomiche né l’esistenza di disoccupazione involontaria (la nota conclusione di Keynes secondo la quale una quota di forza lavoro risulta disoccupata benché sarebbe disposta a lavorare al salario vigente). Basterà inserire nel modello macroeconomico ipotesi relative ad imperfezioni dei mercati o dell’informazione per pervenire a deviazioni dall’equilibrio macroeconomico “ottimale” corrispondente al completo sgombero dei mercati (market clearing) di concorrenza perfetta. Non deve perciò sorprendere se i modelli NKE contemplano una molteplicità di equilibri nei quali produzione, occupazione e prezzi si collocano a livelli diversi da quelli dell’equilibrio economico generale. 7. Nuova economia classica e nuova economia keynesiana L’analisi macroeconomica si è interrogata sull’esistenza, l’unicità e la stabilità dell’equilibrio macroeconomico risultante dall’aggregazione delle equazioni del modello di equilibrio economico generale walrasiano. Una volta descritta l’esistenza dell’equilibrio con i modelli IS-LM prima e AS-AD poi, definiti i concetti di NRU e NAIRU e analizzati i processi di inflazione e di disinflazione, confronteremo i modelli con aspettative razionali della nuova economia classica e della nuova economia keynesiana che individuano ciascuno un diverso equilibrio macroeconomico. Le principali proposizioni della visione NCE sono: 1) il sistema economico si caratterizza per la dicotomia fra settore reale (il modello walrasiano determina i prezzi relativi) e settore monetario (la teoria quantitativa della moneta nella versione 19 del monetarismo di Friedman, determina i prezzi assoluti in piena occupazione); 2) l’equilibrio macroeconomico Pareto-efficiente è garantito dalla flessibilità di tutti i prezzi che permette l’aggiustamento di mercato ed il ripristino della piena occupazione successivamente ad uno shock; 3) un’accelerazione della crescita monetaria non ha effetti reali e provoca soltanto un incremento del livello dei prezzi. Le principali proposizioni della visione NKE sono: 1) l’incertezza sul futuro causa frequenti shock, in primo luogo, della domanda aggregata; 2) la disoccupazione ciclica può mettere capo ad un equilibrio di disoccupazione strutturale a causa della vischiosità dell’aggiustamento di mercato; 3) le politiche macroeconomiche hanno effetti reali e sono quindi in grado di ridurre la perdita di benessere sociale connessa alla disoccupazione. 8. Teoria del ciclo economico reale Consideriamo un modello AS-AD con aspettative razionali. Data l’ipotesi di perfetta informazione sul funzionamento dell’economia (diversamente da quanto accade nel ciclo economico di equilibrio elaborato da Lucas non esistono imperfezioni informative), gli agenti aggiornano continuamente il proprio modello e sono perciò in grado di prevedere correttamente il livello dei prezzi. Poiché le variazioni di prezzo dei beni non hanno conseguenze sulla domanda e sull’offerta di lavoro, l’offerta aggregata è determinata unicamente dai fattori reali (tecnologia, dotazione di capitale e scelta dei soggetti tra lavoro e tempo libero) assumendo nel piano una posizione verticale ((AS*LP in Figura 3). Supponiamo si manifesti uno spostamento verso l’alto della funzione di domanda aggregata da AD0 a AD1 in Figura 3. Nei modelli NCE, il funzionamento del mercato del lavoro è definito dalle seguenti condizioni: 1) informazione perfetta sui posti disponibili, sulle caratteristiche dell’attività lavorativa e sulla sua remunerazione; 2) comportamenti razionali da parte di imprese e di lavoratori con caratteristiche omogenee; 3) costi di mobilità territoriale dei lavoratori e degli impianti nulli; 4) assenza di vincoli di tipo istituzionale, ovvero la piena flessibilità 20 dei salari e dei prezzi. Da tali condizioni consegue un aumento del prezzo (p) e del salario monetario (w) nella stessa proporzione, lasciando invariati salario reale (w/p), occupazione (L) e reddito (Y) in corrispondenza dell’intersezione dell’offerta verticale di lungo periodo (AS*LP) con la nuova funzione di domanda aggregata (AD1). La funzione di offerta aggregata (AS*LP in Figura 3) è verticale sia nel breve che nel lungo periodo, perché tutti gli agenti scontano le variazioni del livello dei prezzi (p). Le lettere A e D nel modello della NCE in Figura 3 denotano il passaggio da un punto di equilibrio AS-AD all’altro, ad un livello dei prezzi più alto e di attività economica invariato. Uno shock reale, invece, modifica la posizione della curva di offerta aggregata, spostandola da AS*LP a AS’LP, in corrispondenza di un più alto tasso di disoccupazione naturale (Figura 3(a)). Nel prosieguo di questo paragrafo, l’attenzione si concentrerà sulla cosiddetta “teoria del ciclo reale” (real business cycle: RBC). In particolare, cercheremo di spiegare perché sia centrale l’ipotesi di piena flessibilità dei salari e dei prezzi. Dato il capitale, le imprese massimizzano la quantità prodotta impiegando i lavoratori fino al punto in cui Y*=Y[LD(w/p)*]. Per comprendere come la previsione perfetta consenta ai lavoratori di percepire in ogni periodo un salario reale contrattuale corrispondente a quello di piena occupazione, occorre costruire le curve di domanda e di offerta di lavoro. Sotto l’ipotesi di aspettative razionali (pe=p) esprimiamo l’offerta di lavoro delle famiglie e la domanda di lavoro delle imprese in funzione di due grandezze: 1) il salario reale. Nel contrattare il salario monetario (w), le famiglie tengono conto del suo potere d’acquisto e le imprese del rapporto che intercorre fra livello del salario monetario in corrispondenza del lavoro domandato e livello del prezzo di vendita del prodotto. Ne consegue che l’equilibrio al tasso naturale di disoccupazione dipende dal fatto che in un mercato del lavoro di concorrenza perfetta il salario contrattuale viene a determinarsi al livello corrispondente al salario reale di “piena occupazione”: i lavoratori non soffrono di “illusione monetaria”; 21 2) il salario monetario. I lavoratori fondano le proprie richieste contrattuali sulla previsione del livello futuro del salario reale basata sulla previsione del futuro livello del prezzo. Scriviamo il salario monetario contrattuale, negoziato prima della produzione sulla base di un’aspettativa sul prezzo del prodotto, come: w=(w/p)*pe. Si consideri la produzione come la somma algebrica di due termini: il prodotto potenziale e la componente ciclica. Il prodotto potenziale corrisponde al punto sulla frontiera delle possibilità di produzione di un’economia che esprime l’efficiente impiego delle risorse disponibili. La componente ciclica è la variazione della quantità offerta in funzione di variazioni del prezzo. Nella sua versione più radicale, il modello NCE sostiene che la componente ciclica è nulla, in quanto solo i fattori reali presiedono ai livelli di occupazione e di produzione. Data l’ipotesi di aspettative razionali (pe=p), il salario monetario contrattuale può essere espresso come prodotto fra salario reale di piena occupazione (w/p)* e livello del prezzo (p): w=(w/p)*p. La domanda di lavoro dipenderà sia dal salario di piena occupazione (w/p)* sia dal rapporto (pe/p) fra prezzo atteso e prezzo realizzato: LD=LD[(w/p)*pe/p]. Definiamo allora il “salario reale effettivo” come w/p=(w/p)*/p(1α) e la domanda di lavoro come LD=LD[(w/p)*/p(1-α)], dove il parametro α indica il grado di elasticità salario-prezzo. L’immediato aggiustamento di lavoratori e imprese alle politiche macroeconomiche annunciate fa sì che ad ogni variazione del prezzo (p) corrisponda un’eguale variazione del salario monetario (w) che consente alle famiglie di mantenere costante il salario reale. Il salario monetario risulta quindi perfettamente elastico rispetto al prezzo (α=1), cosicché il “salario reale effettivo” – il salario reale che risulta successivamente ad una variazione del prezzo (p) - eguaglia il salario reale di piena occupazione: w/p=(w/p)*. Dalle funzioni di domanda e di offerta di lavoro LD=LD(w/p) e LS=LS(w/p) −1 ricaviamo la funzione di domanda inversa: w / p = LD ( LD ) e di offerta inversa: −1 w / p = LS ( LS ) da cui si ottengono nella Figura 3(b) le curve di domanda e di offerta −1 di lavoro in funzione del salario nominale: w = pLD ( LD ) e, rispettivamente, 22 −1 w = pLS ( LS ) . Un innalzamento del prezzo (p) determina uno spostamento verticale nella stessa proporzione per entrambe le curve, pertanto l’intersezione avrà lo stesso livello di occupazione (L*) ed un salario monetario aumentato nella stessa proporzione del prezzo (p). Figura 3. Equilibrio classico di piena occupazione AS’LP p (a) AS*LP LD1 w (b) LS1 LD D w1 p1 LS D p0 A A w0 AD1 AD0 0 Y’ Y* Y 0 L* L Nella Figura 3, ad ogni innalzamento del prezzo (da p0 a p1) si determina l’innalzamento del salario nominale (da w0 a w1) a livello di occupazione invariato (L*). A tale posizione di equilibrio nel mercato del lavoro corrisponde nel mercato dei beni il livello del reddito invariato (Y*) lungo la AS di lungo periodo (AS*LP). Pertanto, un incremento del livello del reddito si realizza esclusivamente per effetto dei seguenti mutamenti dei “fattori strutturali”: 1) il miglioramento (peggioramento) della tecnologia o un incremento (diminuzione) del capitale determinato dall’utilizzo di una nuova tecnologia risparmiatrice di lavoro (labour-saving); 2) l’incremento del numero di ore di lavoro offerte, se aumenta l’offerta da parte dei singoli lavoratori, oppure il tasso di partecipazione al mercato del lavoro. L’assorbimento ottimale della forza lavoro realizza così una variazione permanente nel livello di produzione. In corrispondenza dell’eguaglianza LD(w/p)*=LS(w/p)*, il 23 livello di piena occupazione (L*) ed il salario reale di piena occupazione (w/p)* dipendono unicamente dai fattori strutturali: tecnologia (A), dotazione di capitale (K) e scelta delle famiglie fra lavoro e tempo libero. L’offerta aggregata si trasla da AS*LP a AS*’LP. Figura 4. Teoria del ciclo reale w/p (a) LS L1 w/p LD3 LD2 LD1 L2 Modeste variazioni salariali si accompagnano ad ampie variazioni di occupazione L3 L (b) LD3 Ampie variazioni salariali si accompagnano a modeste variazioni di occupazione LD2 LD1 LS L1 L2 L3 L Questa è la teoria del “ciclo economico reale” (RBC). Le fasi di espansione o di recessione sono di natura reale, perché rappresentano la propagazione degli shock sul progresso tecnico oppure scaturiscono dalla sostituzione intertemporale fra consumo e tempo libero in condizioni di continuo pieno impiego. Ad esempio, uno shock reale di segno positivo fa aumentare sia la produttività del capitale, accrescendo così gli investimenti, con conseguente sostituzione di consumo futuro a consumo presente, sia la produttività del lavoro, accrescendo così l’offerta di lavoro: al netto dell’effetto reddito, viene incentivata la sostituzione di consumo presente e futuro al tempo libero, e quindi aumentano occupazione e salario reale. È allora mal 24 concepita l’idea che autorità monetarie e fiscali siano nella posizione di sfruttare continuamente il trade-off fra inflazione e disoccupazione per realizzare temporanei incrementi della produzione. Se viene annunciata un’espansione monetaria o fiscale, salari e prezzi vengono adeguati verso l’alto senza che si producano effetti reali.. La variazione inattesa della domanda aggregata è comunque da ricondurre a cause reali. Ne consegue immediatamente che le fluttuazioni dell’output non possono avere una origine monetaria. Sulla scia dei lavori di Kydland e Prescott (1977) e di Barro e Gordon (1983), un’intera generazione di modelli NCE utilizza le aspettative razionali. Poiché il learning permette di aggiornare il modello di funzionamento dell’economia, i soggetti non possono essere “ingannati” sistematicamente: se le autorità di politica economica hanno provocato in passato incrementi imprevisti del tasso di inflazione, dopo i loro annunci le aspettative di inflazione vengono riviste verso l’alto nella stessa proporzione. Le autorità monetarie e fiscali devono rifuggire dalla tentazione di promettere che le politiche macroeconomiche espansive apporteranno incrementi di occupazione e di produzione. Questa rappresentazione del ciclo economico è stata oggetto di un’attenta valutazione critica, che ne ha individuato alcuni punti di debolezza. I più importanti sono: 1) Se ogni ciclo economico ha origine esclusivamente da uno shock nella TFP, l’ampiezza della variazione della TFP deve essere rilevante, come è coerentemente previsto nei modelli teorici del RBC. Recenti tentativi di fornire una corretta misurazione empirica del progresso tecnico hanno condotto ad un calcolo della TFP nel quale si consideri anche l’impatto del grado di utilizzo della capacità produttiva e dei mercati di concorrenza imperfetta. Tali indagini, dalle quali risultano valori della dinamica della produttività totale molto più modesti rispetto alle forti oscillazioni che risultano nei modelli del RBC, appaiono come delle indirette confutazioni empiriche di questa teoria. 2) La verifica empirica ha mostrato che l’introduzione nelle imprese delle innovazioni della ICT possono causare nel breve periodo – a meno non si sia in presenza di una politica monetaria molto “accomodante” - una riduzione dell’occupazione. 3) La congettura implicita nella teoria del RBC è che la 25 sostituzione di tempo libero a lavoro (o viceversa) in seguito a uno shock reale implica che a piccole variazioni del salario reale si accompagnino ampi incrementi dell’offerta di lavoro. La sostituzione intertemporale del lavoro postulata dal modello del RBC dovrebbe pertanto essere riflessa da una curva di offerta di lavoro piuttosto piatta (Figura 4(a)). Le statistiche del lavoro sembrano però mostrare che l’entità delle fluttuazioni del livello di occupazione delle economie reali è molto esigua. L’evidenza empirica mostra infatti che shock positivi sulla produttività determinano ampi incrementi del salario e piccoli incrementi dell’occupazione, da cui risulta una curva di offerta di lavoro molto inclinata (Figura 4(b)). Anche tenendo conto non solo del numero dei lavoratori ma anche delle ore lavorate per lavoratore, le variazioni che si riscontrano nella realtà non sembrano riconducibili agli shock reali. Piuttosto, l’evidenza empirica rivela un possibile nesso di causalità di direzione opposta, che va dalle variazioni negative della TFP alla tendenza delle imprese a non ridurre l’occupazione in proporzione all’ampiezza della discesa del reddito nel corso della fase recessiva. In conclusione, la teoria del RBC potrebbe trovare una convincente verifica empirica soltanto se il sistema economico fosse investito con maggiore regolarità da fasi di accelerazione dell’innovazione tecnologica. Dalla “rivoluzione industriale” in poi, le fasi di forte incremento dell’occupazione diffuso in tutti i settori coincidono con fasi di cambiamento strutturale determinato da “grappoli” di scoperte scientifiche. La teoria del RBC ripristina di fatto la dicotomia fra settore reale e settore monetario: in mercati che funzionano perfettamente, l’equilibrio macroeconomico al pieno ed efficiente impiego delle risorse disponibili implica che la politica monetaria non possa influenzare nient’altro che le grandezze nominali e la politica fiscale abbia un mero effetto di “spiazzamento” totale. Il nuovo clima intellettuale degli anni ’90, nell’associare il conseguimento dell’efficienza economica all’operare delle forze di mercato in assenza di perturbazioni derivanti dall’intervento pubblico, accolse con favore questo approccio. 26 9. Teoria del ciclo economico con rigidità nominali Si ricorderà la presentazione dei due principali paradigmi teorici della macroeconomia del ‘900 svolta all’inizio di questo capitolo. Da un lato, la visione neo-classica di piena fiducia nella capacità delle forze di mercato di assorbire ogni tipo di shock sulla AS e sulla AD attraverso la flessibilità di tutti i prezzi. Dall’altro, la visione di Keynes della pervasività dei fallimenti macroeconomici in un’economia di mercato e della necessità delle politiche monetarie e fiscali di stabilizzazione. Negli anni ’70, tuttavia, una serie di contributi teorici, conosciuti come la “sintesi neoclassica”, svilupparono un modello che riconciliava le due visioni. L’equilibrio di lungo periodo del modello keynesiano coincideva con quello del modello neoclassico; riguardo al breve periodo, invece, il modello keynesiano mostrava il persistere della disoccupazione per il lento aggiustamento di tasso di interesse, salari e prezzi ai rispettivi valori di equilibrio di lungo periodo. Come osservò Modigliani (1977), la contrapposizione fra neo-classici e keynesiani stava perdendo i caratteri di una controversia ideologica, per venire circoscritta ad una disputa puramente empirica. I valori che i parametri delle principali equazioni assumono nelle simulazioni condotte con il condiviso modello macroeconomico avvalorano di volta in volta l’una o l’altra interpretazione del funzionamento dell’economia. Negli anni ’80, la generazione di modelli nati dall’impulso del contributo di Lucas, ha nuovamente aperto un solco profondo fra i due paradigmi teorici. I modelli NCE si sono ancorati più strettamente alle ipotesi dell’equilibrio generale intertemporale, in primo luogo all’ipotesi di continuo market clearing che i modelli NKE non hanno mai accolto. Negli anni ’90 si è registrata una nuova fase di riavvicinamento fra economia neo-classica ed economia keynesiana, che non a caso ha preso il nome di “nuova sintesi neoclassica” (Goodfriend e King, 1997). La convergenza si è realizzata con l’adesione della maggior parte dei filoni teorici NKE all’ipotesi di aspettative razionali e di alcuni filoni teorici della NCE (in disaccordo con la teoria del ciclo reale) alle spiegazioni del ciclo economico originato 27 da ostacoli di varia natura (ad esempio, fattori di natura istituzionale quali i contratti collettivi di lavoro scaglionati) che impediscono il continuo market clearing. Ne è scaturita una generazione di modelli in cui il lento aggiustamento di salari e prezzi fa sì che agli shock consegua un aggiustamento anche nelle quantità, il che consente alle politiche macroeconomiche di avere efficacia. Per riassumere in termini semplici un complesso percorso di ricerca, esporremo ora la teoria del ciclo “da rigidità nominale” mediante la rappresentazione grafica del modello AS-LM-AD. La Figura 5 esprime l’equilibrio AS-AD (a) in connessione con l’equilibrio IS-LM (b) e lo mette in relazione con l’equilibrio nel mercato del lavoro (c). Prendiamo le mosse dall’equilibrio macroeconomico in corrispondenza di Y* nella Figura 5(a). Supponiamo che un’espansione fiscale (ad esempio, una spesa pubblica in deficit) produca lo spostamento della domanda aggregata (da AD0 a AD1). Nel punto di intersezione (C) fra la nuova funzione di domanda aggregata (AD1) e l’offerta aggregata di breve periodo (ASBP0) si determina un livello di prezzo (p1) più elevato di quello (p0) individuato dall’intersezione fra la domanda aggregata (AD0) e l’offerta aggregata di lungo periodo (AS*LP). Il nuovo punto di intersezione C indotto dall’incremento della domanda aggregata corrisponde: 1) nella Figura 5(b) allo spostamento da IS0 a IS1 , all’arretramento della LM nella posizione LM1 (l’aumento del livello dei prezzi in (p1) riduce il valore reale delle scorte liquide) ed al nuovo valore del tasso di interesse (r1); 2) nella Figura 5(c), allo spostamento della domanda di lavoro da LD0 a LD1. Vediamo allora come al processo dinamico culminato nell’equilibrio temporaneo nel punto C, in corrispondenza dei più alti livelli di reddito e occupazione (Y’ e L’), partecipano il mercato monetario e finanziario ed il mercato del lavoro. Nel caso di un ciclo espansivo, l’incremento della produzione è vincolato dal più alto tasso di interesse indotto dall’incremento della domanda aggregata AD e si realizzerà quindi nella misura determinata dalla pendenza della LM, che dipende dalla 28 derivata della domanda di moneta rispetto al tasso di interesse, e dalla pendenza della IS, che dipende dalla derivata dell’investimento rispetto al tasso di interesse. Nell’ipotesi di offerta di moneta data, ci si deve chiedere da dove provenga la moneta necessaria a fare circolare la produzione aggiuntiva. La risposta sta nel funzionamento del mercato monetario e finanziario. Dopo lo spostamento in senso espansivo della IS (da IS0 a IS1), l’accresciuto volume di produzione induce le famiglie a smobilizzare titoli dal proprio portafoglio, allo scopo di disporre di un livello di scorte liquide (domanda di moneta) sufficiente a consentire le maggiori transazioni. A questa offerta di vecchi titoli si vanno ad aggiungere le nuove emissioni a copertura della spesa pubblica in deficit. L’eccesso di offerta di titoli si riflette nella riduzione del loro prezzo di mercato e nell’aumento del tasso di interesse. Poiché una parte dei progetti di investimento del settore privato hanno ora una redditività attesa inferiore al tasso di interesse, una parte dell’incremento di reddito viene ad essere “tagliato”. Si osservi che se l’offerta aggregata fosse stata verticale anche nel breve periodo, il reddito non si sarebbe mosso da Y*. In tal caso, infatti, tutto l’aggiustamento sarebbe avvenuto attraverso l’aumento del livello dei prezzi che riduce le scorte liquide reali dei soggetti nella stessa misura in cui sono aumentati i loro redditi monetari; l’aggiustamento può essere rappresentato nella Figura 5(b) mediante l’arretramento della LM fino alla posizione LM2 in corrispondenza del tasso di interesse i2. Il processo di squilibrio e successivo riequilibrio innescato dall’incremento della domanda aggregata si ripercuote anche nel mercato del lavoro. Nel prosieguo, utilizzeremo due distinti concetti di rigidità: 1) La vischiosità del salario nominale Figura 5. Offerta aggregata e domanda aggregata 29 AS*LP p ASBP1 D p2 p1 B (a) ASBP0 C p0 A AD1 AD0 0 Y* (b) IS0 D r1 r0 Y IS1 r r2 Y’ C LM2 A LM1 LM0 0 Y* Y’ Y LD1 w LS1 LD0 D w2 w1 B C w* 0 (c) LS0 A L* L' L 30 che porta alla determinazione di un livello diverso da quello compatibile con il salario reale di piena occupazione; 2) La rigidità del salario reale, che consiste nella variazione del salario nominale nella stessa proporzione della variazione del livello dei prezzi. La vischiosità riflette il dato istituzionale della contrattazione salariale scaglionata, che fonda l’assunzione di un’elasticità del salario al prezzo inferiore all’unità (α<1). L’aggiustamento del salario nominale è più lento dell’incremento indotto nei prezzi dall’aumento dei costi di produzione. Il settore reale non torna immediatamente al valore di equilibrio walrasiano. Lo “sgombero” del mercato del lavoro non si realizza. Il “salario reale effettivo” (w/p)*pe/p è maggiore del salario reale di piena occupazione (w/p)* perché lo shock inatteso causa l’aumento sia della produzione che del prezzo. È appunto lo scostamento verso il basso del salario reale effettivo rispetto al livello del salario reale di piena occupazione a favorire la salita del livello di occupazione e di produzione. Il “salario reale effettivo” è infatti: w/p=(w/p)*/p(1-α) e la domanda di lavoro è: LD=LD[(w/p)*/p(1-α)]. Allo spostamento della domanda aggregata da AD0 a AD1 nella Figura 5(a), corrisponde in Figura 5(c) la traslazione della domanda di lavoro LD nella posizione LD1 che individua la nuova intersezione con la LS nel punto C. Una volta che il processo dinamico giunge a compimento con il passaggio del livello dei prezzi in (p2) e con il ritocco verso l’alto di tutte le grandezze nominali (l’aumento del livello dei prezzi riporta quantità reale di moneta, salario reale e tasso di interesse reale ai valori iniziali), l’espansione temporanea di occupazione e output ha termine con la traslazione dell’offerta aggregata verso sinistra (da ASBP0 a ASBP1). All’aumento dei prezzi e all’incremento dell’occupazione al di sopra del livello naturale – conseguente ai nuovi lavoratori entrati nel mercato e/o all’aumento del lavoro straordinario – e del salario al livello w1, fanno seguito i rinnovi contrattuali che completano l’adeguamento verso l’alto del salario nominale (w2). Il ritorno del salario reale al valore iniziale determinerà un arretramento della offerta di lavoro e nella Figura 5(c) verrà ripristinata la piena occupazione al livello L* in 31 corrispondenza del punto D e del livello iniziale di reddito (Y*) delle Figure 5(a) e 5(b). L’offerta aggregata di breve periodo (ASBP1) nel punto di intersezione con la domanda aggregata (AD1) riproduce l’equilibrio originario (Y* e L*) sull’offerta di lungo periodo AS*LP. La teoria del ciclo con rigidità nominali ipotizza che il salario contrattuale vari in misura meno che proporzionale rispetto alla divergenza del prezzo realizzato rispetto al prezzo atteso. Tale ipotesi è cruciale. Se la politica monetaria assume un orientamento “accomodante”, il processo di riequilibrio viene accelerato: le imprese godono dell’incentivo ad accrescere la produzione e l’occupazione a un tasso di interesse calante, oltre al vantaggio di un salario monetario che permane costante per tutto il periodo di tempo che intercorre fra l’aumento del prezzo ed il rinnovo contrattuale. Abbiamo visto come una politica fiscale espansiva possa garantire un incremento dell’occupazione e della produzione tale da innalzare – per un breve periodo di tempo – il livello del reddito al di sopra del valore corrispondente al tasso di disoccupazione “naturale” (o del NAIRU nel modello NKE). Il modello macroeconomico AS-LM-AD è tuttavia in grado di accogliere l’intuizione di Keynes sull’importanza delle aspettative sul futuro nel corso di una fase ciclica recessiva. Quando nei mercati si diffondono aspettative pessimistiche sul livello della domanda futura, tali da abbassare il livello di attività economica, è possibile che l’aggiustamento di mercato si riveli non solo lento – per l’ipotesi di vischiosità dei salari e dei prezzi – ma, cosa ancor più rilevante, anche insufficiente a realizzare una ripresa economica tale da ripristinare il livello di produzione iniziale. A partire dall’equilibrio macroeconomico in Y*, L* e w*, supponiamo che un innalzamento dell’incertezza sulla domanda futura deprima le decisioni di investimento delle imprese, con conseguente caduta dei livelli di produzione e di occupazione. Dall’ipotesi di rigidità del salario reale nel mercato del lavoro discende il protrarsi della disoccupazione ciclica per molti periodi. 32 Nell’ambito di un modello con mercati di concorrenza perfetta possiamo solo dire che il salario reale individuato dal rapporto fra salario monetario contrattuale e livello dei prezzi permane ad un livello maggiore del salario reale di piena occupazione a causa di una distorsione misurata dal valore che assume il parametro (ς): w/p=ς(w/p)* con ς>1. Di conseguenza, il market clearing è sospeso perché il mancato abbassamento del salario nominale al livello coerente con il salario reale di piena occupazione determina la costanza del salario reale ad un livello “troppo alto” perché il sistema economico possa assorbire tutta la forza lavoro disponibile. Consideriamo le alternative di politica economica proposte rispettivamente dalla NCE e dalla NKE. 1) Nei modelli della NCE, la disoccupazione viene attribuita ad un salario di riserva dei lavoratori (la remunerazione alla quale i lavoratori sono disposti ad occuparsi) che fattori istituzionali mantengono ad un livello superiore al salario walrasiano di piena occupazione e viene chiesta ai lavoratori la riduzione del saggio marginale di sostituzione fra tempo libero e lavoro che permetterebbe la stipula di contratti di lavoro a quel salario (w2) al quale le imprese sono in grado di aumentare la domanda di lavoro fino al livello di equilibrio (L*). In assenza dell’ipotesi di salario reale rigido verso il basso il modello prevede che il progressivo aggiustamento verso il basso dei nuovi livelli contrattuali sia agevolato da aspettative di ulteriore caduta dei prezzi, tali da indurre la discesa del salario nominale al livello w2. La “politica dell’offerta” (supply side) proposta dalla NCE consiste innanzitutto nelle politiche microeconomiche di deregolamentazione del mercato del lavoro finalizzate a restituire piena flessibilità del salario e dell’utilizzo della forza lavoro. A partire dall’equilibrio di disoccupazione l’aumento dell’offerta di lavoro (la traslazione verso destra della funzione) consente alla domanda di lavoro di aumentare parallelamente alla discesa del salario. Coerentemente con la “legge di Say”, il ripristino della produzione di piena occupazione determinerà il ritorno della domanda aggregata nella posizione AD. Pertanto, il salario nominale è coerente con il salario 33 reale dell’equilibrio di “piena occupazione” in corrispondenza dell’intersezione fra AS0 e AD0 ai valori di equilibrio L* e Y*. 2) Nei modelli della NKE, nei quali la disoccupazione è attribuita ad aspettative di profittabilità delle imprese molto basse i neo-keynesiani ritengono che la flessibilità del salario nominale sia in grado di riportare l’economia nella posizione di piena occupazione. Affinché avvenga l’incremento del saggio marginale di sostituzione con la traslazione dell’offerta di lavoro occorre suscitare la ripresa delle aspettative di profitto e quindi l’incremento degli investimenti. L’intervento consiste nelle politiche monetarie e fiscali espansive (“dal lato della domanda”) che sfruttano la costanza del salario nominale fra un rinnovo contrattuale e l’altro e sono finalizzate a riportare la domanda aggregata al più alto livello e ristabilire il livello iniziale della domanda di lavoro. La domanda di lavoro risale fino al ristabilirsi del livello iniziale del salario reale, mentre il salario nominale (w*) resta costante. Il ripristino dell’equilibrio macroeconomico di partenza si realizza in corrispondenza dell’intersezione della domanda aggregata AD0 con la AS0 ai valori di equilibrio L* e Y*. Al di là dell’insufficiente trattazione dell’equilibrio di disoccupazione nella Teoria Generale, la preoccupazione di Keynes era quella di scongiurare che nelle imprese delle economie capitalistiche aspettative di profitto pessimistiche dei manager, degli azionisti e degli operatori finanziari trasformassero una disoccupazione di origine ciclica in una condizione di disoccupazione strutturale. Data l’assunzione di concorrenza perfetta, l’eccesso di offerta di lavoro dovrebbe indurre il necessario abbassamento del salario nominale che ripristina il precedente livello di occupazione. La serie dei rinnovi contrattuali scaglionati dovrebbe determinare il lento aggiustamento verso il basso del salario.. Supponiamo che il fattore istituzionale renda la riduzione del salario troppo lenta, sicché una quota di forza lavoro rimanga disoccupata. La presenza di tale rigidità del salario reale impedisce che abbia luogo il completo aggiustamento di mercato. Poiché non si 34 realizza l’aggiustamento “spontaneo” di mercato, occorre l’intervento della politica economica. Definiamo equilibrio di disoccupazione strutturale l’equilibrio determinato da un salario reale che rimane rigido a un livello superiore a quello dell’equilibrio walrasiano. Nella Figura 6 descriviamo un concetto introdotto da Edmund Phelps nel 1972: l’equilibrio con isteresi del tasso di disoccupazione (dal greco hystéresis, ritardo nell’aggiustamento). La funzione ASLP presenta un’inclinazione verticale – al pari della AS*LP di “piena occupazione” – perché l’output è indipendente dal prezzo: l’elasticità del salario al prezzo è assunta uguale ad 1 per cui ogni aumento del livello dei prezzi fa salire il salario nominale nella stessa proporzione. Fattori strutturali impediscono alla ASLP di tornare nella posizione AS*LP. Le imprese, dato lo stock di capitale, producono al massimo livello compatibile con un salario nominale (w’) che corrisponde a un salario reale contrattuale (w/p) in eccesso rispetto a quello di “piena occupazione” (w/p)*. L’equilibrio fra domanda e offerta di lavoro in corrispondenza del salario nominale (w’) determina un livello di occupazione minore di quello che si individuerebbe in base all’offerta di lavoro corrispondente al salario reale di piena occupazione. Nell’equilibrio al livello di reddito Y’ inferiore a Y*, la disoccupazione è pari alla distanza L*-L’. Figura 6. Equilibrio con isteresi 35 ASLP p w w' AS*LP (1) w* LD Y’ Y* Y L’ LS’ L* (3) LS* L (2) L’equilibrio fra domanda e offerta aggregata può avere luogo a diversi livelli di impiego della forza lavoro. Quando non funzionano i meccanismi omeostatici che nell’economia walrasiana garantiscono il ritorno all’equilibrio Pareto-ottimo, il sistema economico si mantiene costantemente al di sotto dell’impiego efficiente delle risorse. La visione di Keynes di un equilibrio macroeconomico nel quale i disoccupati non siano volontari (desiderano sostituire tempo libero ad ore di lavoro) ma involontari (cercano lavoro, ma non lo trovano) trova una sistemazione analitica nel processo di isteresi che si mette in atto durante il ciclo negativo innescato da uno shock e che culmina con la traslazione verso sinistra dell’offerta aggregata (dalla posizione ASLP* alla posizione AS’LP). È opportuno aggiungere che il termine di disoccupazione strutturale è riferito alla persistente sotto-occupazione e sotto-partecipazione al mercato del lavoro tipiche delle condizioni di arretratezza o di ristagno economico. La cause del basso livello di reddito pro capite risiedono un’insufficiente dotazione di infrastrutture, in un livello inadeguato sia del capitale fisico (per dimensione e/o livello tecnologico) sia del capitale umano (grado di istruzione della forza lavoro). Indicando con Y il reddito, 36 con POP tutta la popolazione, con L gli occupati e con N la forza lavoro, le condizioni di arretratezza o stagnazione economica si riflettono in un basso livello della produttività del lavoro (Y/L) del tasso di occupazione (L/N) e del tasso di partecipazione (N/POP). Il reddito pro capite (Y/POP) può essere dunque espresso come: Y/POP=Y/L·L/N·N/POP. 10. Politica monetaria di stabilizzazione L’allontanamento del sistema dall’equilibrio macroeconomico ai valori naturali dell’output e della disoccupazione viene ricondotto al funzionamento di due mercati: il mercato del credito e delle attività finanziarie ed il mercato del lavoro. In alcune rivisitazioni del modello del “Trattato della moneta” e della “Teoria generale” di Keynes, lo scostamento dal NAIRU viene spiegato con l’incapacità dei mercati finanziari di assicurare, mediante la determinazione del valore di equilibrio del saggio di interesse, il coordinamento intertemporale fra risparmi ed investimenti (Leijonhufvud, 1968 e 1981), oppure con l’informazione asimmetrica che induce le banche a mantenere fisso il tasso di interesse sui prestiti e variare la quantità (razionamento del credito) (Greenwald e Stiglitz, 1988, 1993, 2003). Per ragioni di spazio, concentreremo l’attenzione soltanto sul funzionamento non concorrenziale del mercato del lavoro. L’avere assunto esogena la rigidità del salario reale rende poco soddisfacente la spiegazione della trasformazione della disoccupazione ciclica in disoccupazione strutturale. L’analisi dei mercati di concorrenza imperfetta in questo paragrafo permetterà di fare qualche passo avanti verso una spiegazione endogena della persistenza dell’equilibrio di disoccupazione. 37 Prendiamo le mosse da una funzione di produzione in forma lineare estremamente semplificata, in base alla quale nel breve periodo la produzione dipende solo dall’occupazione secondo il coefficiente a che esprime la tecnica di produzione: Y = aL . La forza lavoro (N) è data dalla somma di disoccupati (U) e occupati (L): N=U+L. Considerando il tasso di disoccupazione u=U/N, si ottiene: Y=a(N-U)=aNaNu, che rappresenta la differenza fra la produzione potenziale totale e la produzione “perduta” a causa della disoccupazione. La legge di Okun mette in relazione lo scostamento della disoccupazione dal suo valore d’equilibrio al tasso naturale (uN), determinato dall’equilibrio nel mercato del lavoro con lo scostamento del reddito dal suo valore d’equilibrio, il reddito potenziale (YN), che possiamo anche definire il livello “naturale” del reddito, in altre parole il reddito potenziale corrispondente all’utilizzo della forza lavoro consentito dalle risorse. Pertanto, scriviamo l’equazione che esprime la legge di Okun: Y = YN + b(u − u N ) dove il coefficiente b rappresenta lo scostamento del reddito dal suo valore naturale per un dato scostamento della disoccupazione dal suo valore naturale. L’equazione può anche essere scritta come: u = u N + 1 / b(Y − YN ) La curva di Phillips, espressa in termini di disoccupazione, è allora: u =u N − γ (π − π e ) + µ 38 dove π è il tasso di inflazione, πe è il tasso di inflazione atteso e il coefficiente γ misura la variazione della disoccupazione generata dalla variazione del tasso di inflazione. Il termine µ (che rappresenta uno shock esogeno) introduce l’incertezza, in quanto esprime un possibile disturbo stocastico dalla posizione di equilibrio, con media E(µ)=0 e varianza σ2. Dalle ultime due equazioni si ottiene: Y − YN = bγ (π − π e ) + µ La tradizionale curva di Phillips, espressa in termini di reddito invece che di disoccupazione, può essere scritta come: Y = YN + α (π − π e ) + µ dove α=bγ esprime l’elasticità del reddito a variazioni del tasso di inflazione rispetto al valore atteso. Pertanto, data la stabilità del valore del coefficiente b espresso dalla legge di Okun, il valore del coefficiente α presenta un’elevata correlazione con il valore del coefficiente γ, l’elasticità della disoccupazione al tasso di inflazione che costituisce la pendenza della curva di Phillips. Tale coefficiente è l’indicatore del grado di reattività del mercato del lavoro alla trasmissione degli impulsi monetari, e cioè agli shock ed ai cambiamenti nella politica monetaria. Se le aspettative di inflazione non sono corrette, per ogni punto di inflazione in eccesso, il reddito è più alto rispetto al livello “naturale” nella misura determinata da α e la disoccupazione più bassa nella misura determinata da γ. D’ora in avanti, per indicare le condizioni (di rigidità o di flessibilità) del mercato del lavoro faremo riferimento direttamente al valore (alto o basso) di α. Quanto più alto è il valore di α, tanto maggiore è la variazione dell’occupazione e del reddito in funzione di una data variazione del tasso di inflazione. In generale, un processo di inflazione sarà tanto più rapido quanto più basso è il valore di α (più inclinata è la curva di Phillips di breve periodo, più rigido è 39 il mercato del lavoro), mentre un processo di disinflazione sarà tanto più rapido quanto più alto è il valore di α (più piatta è la curva di Phillips di breve periodo, più flessibile è il mercato del lavoro). Supponiamo che le autorità monetarie scelgano una funzione quadratica che esprime la perdita sociale (Loss) che la banca centrale intende minimizzare. L’equazione che segue definisce il comportamento dell’autorità di politica monetaria diretto a annullare gli scostamenti di inflazione e output dai rispettivi valori-obiettivo, al fine di massimizzare il benessere sociale: Loss = β (π − π *) 2 + (Y − Y *) 2 dove l’obiettivo di inflazione è π* e l’obiettivo di reddito è Y*=δYN. Si assuma che la banca centrale dichiari un obiettivo di inflazione pari a π*=0, mentre l’obiettivo di reddito perseguito sia pari a Y*=δYN, con δ>1 che esprime il convincimento dell’autorità monetaria che il livello di produzione al quale il sistema economico sta operando non è soddisfacente. Il parametro β è il peso che indica la preferenza per una bassa inflazione: tanto maggiore è il suo valore, tanto più l’autorità monetaria ritiene che la variazione dell’inflazione (normalizzata per la variazione dell’output nel secondo termine) rappresenti una perdita per la società. Pertanto, nel fissare un valore del coefficiente δ maggiore di 1, la banca centrale esprime l’intenzione di perseguire un obiettivo di reddito superiore al livello naturale attraverso una crescita monetaria al tempo t+1 di ampiezza maggiore rispetto all’ “annuncio” al tempo t. Supponiamo che la banca centrale, dopo avere annunciato l’obiettivo di crescita monetaria, osservi uno shock di offerta negativo al tempo t. Lo shock µ è noto alla banca centrale, ma non è noto ai lavoratori nel momento in cui firmano il contratto salariale sulla base dell’aspettativa di inflazione formatasi al tempo t-1 e dell’annuncio della banca centrale. I lavoratori assumono che l’inflazione attesa sia eguale al suo valore corrente ed il valore atteso dello shock esogeno µ è: E(µ)=0. 40 Poiché il valore atteso di µ è zero, la varianza è: σ²(μ)=E(µ2)–0=E(µ2). In economia aperta, i processi inflazionistici “a sorpresa” generati dalle politiche di creazione nonannunciata di moneta innescano anche un processo di deprezzamento della valuta. L’incremento del tasso di inflazione non penalizza le merci sui mercati esteri: al contrario, la perdita di valore della valuta consente un recupero di competitività che favorisce una ripresa di breve periodo nelle esportazioni. Questo modello di comportamento delle autorità monetarie è incompatibile con l’equilibrio macroeconomico che si determina nella teoria del ciclo reale (RBC). Nei modelli con mercati ispirati alla teoria del ciclo reale, un tasso di disoccupazione eccessivamente alto ha una sola possibile spiegazione: i fattori istituzionali nel mercato del lavoro che ne distorcono il funzionamento comprimendo il reddito di equilibrio ad un livello inferiore a quello implicito nella disponibilità delle risorse. Le politiche monetarie e fiscali non sono in grado di modificare il livello potenziale dell’output. Il coefficiente δ, che misura l’ incremento del livello di reddito (e la diminuzione della disoccupazione) che le autorità monetarie ritengono di potere conseguire, attribuirebbe indebitamente alla politica monetaria la capacità di influenzare le grandezze reali. L’ipotesi δ>1 è invece compatibile con l’equilibrio macroeconomico determinato nel modello del ciclo con rigidità nominali. Abbandoniamo l’ipotesi che la banca centrale osservi uno shock e supponiamo invece che i contratti siano scaglionati nel tempo. Nei modelli con rigidità nominali, la contrattazione sindacale determina un salario nominale che non può mutare nell’arco temporale della durata dell’accordo contrattuale. La banca centrale gode perciò del vantaggio di poter dare avvio ad un’espansione monetaria a salario monetario dato e costante. Qualunque sia il comportamento delle autorità monetarie - il caso in cui l’accelerazione della crescita monetaria corrisponda a quella annunciata, oppure il caso in cui la banca centrale crea ripetutamente una quantità di moneta superiore a quella annunciata - la presenza di contratti scaglionati impedisce l’immediato adeguamento di salari e prezzi. La banca centrale annuncia l’obiettivo di crescita monetaria avendo 41 l’informazione sui livelli retributivi riportati nei contratti di lavoro firmati dalle organizzazioni dei lavoratori e degli imprenditori. Il salario nominale è stato negoziato sulla base delle aspettative di inflazione esistenti e rimarrà in vigore per tutto il periodo previsto. Una volta ricevuta l’informazione sull’accordo raggiunto dalle parti sociali, per la banca centrale sorge l’incentivo a mutare la propria decisione modificando la crescita monetaria in funzione dell’ obiettivo di reddito Y* fissato nella Loss. Il vantaggio informativo di cui gode l’autorità monetaria si riflette nell’“incoerenza temporale” che caratterizza la politica monetaria (Kydland e Prescott, 1977, Barro e Gordon, 1983). È probabile che dopo una fase di apprendimento gli agenti economici – imprenditori, lavoratori e operatori dei mercati finanziari – si formino l’opinione che il modello di comportamento delle autorità monetarie si caratterizza per un maggiore peso dato alla stabilizzazione del valore “medio” dell’output al prezzo di una più elevata inflazione “media”. Ma l’eventuale learning della strategia della banca centrale - la conoscenza acquisita dagli agenti razionali della reiterata strategia di creare moneta in eccesso rispetto all’annuncio non è in grado di frapporre un ostacolo all’obiettivo delle autorità monetarie di elevare il livello di attività economica al di sopra del tasso di disoccupazione “naturale”. 11. Il settore pubblico La ricerca storica documenta che in ogni epoca lo Stato ha direttamente partecipato all’allocazione dei fattori produttivi, oppure ha accompagnato lo sviluppo del settore privato, definendo la cornice istituzionale che stabilisce i vincoli per le decisioni dei soggetti che operano nei mercati. Nel XIX secolo il rafforzamento dell’apparato amministrativo degli Stati nazionali procedette di pari passo con l’accelerazione dell’espansione del settore industriale e con la crescente urbanizzazione della popolazione. In Europa, il rapido 42 ampliamento della spesa pubblica fu prevalentemente destinato alla produzione dei beni pubblici basilari (esercito, magistratura, polizia, infrastrutture). Sul finire del secolo, l’aumento delle dimensioni del settore pubblico ha coinciso con l’estendersi delle finalità delle istituzioni pubbliche alla solidarietà ed alla protezione sociale. Le leggi sulle assicurazioni sociali varate in Germania da Bismarck negli anni 1880 vengono ricordate come la nascita dello stato sociale. Una forte accelerazione della spesa sociale si manifestò negli anni ’30 e poi nel secondo dopoguerra. La percentuale della spesa pubblica sul PIL nelle 14 maggiori economie industrializzate, che nel 1870 era in media dell’8%, raggiunse nel 1960 il valore del 30%. Negli ultimi quattro decenni del Novecento, il fabbisogno delle istituzioni del Welfare ha rappresentato la componente più dinamica della spesa pubblica complessiva, che ha così raggiunto in media il 40% del PIL, con picchi superiori al 50% nei paesi scandinavi. Le istituzioni sui cui si fonda l’economia di mercato e l’intervento di regolazione dell’economia da parte dell’operatore pubblico sono riconducibili alle seguenti tipologie: 1) l’allocazione di risorse nella produzione dei principali beni pubblici: le infrastrutture di base dello Stato (polizia, magistratura, esercito) e le opere pubbliche; 2) la stabilizzazione macroeconomica realizzata dalla politica fiscale del governo; 3) il sistema di istruzione, che viene considerata un bene meritorio, in molte aree del mondo è organizzato dal settore pubblico, essenzialmente per l’interesse della collettività a garantire a tutti i cittadini eguale accesso alla formazione del capitale umano; 4) le assicurazioni sociali, quali sono, in primo luogo, i sistemi sanitario e pensionistico; 5) la solidarietà sociale organizzata attraverso le politiche di “pura redistribuzione” consistenti in trasferimenti monetari (sussidi di disoccupazione e di povertà) e servizi sociali (ad esempio, le politiche di contrasto dell’esclusione sociale), con finanziamento a carico della fiscalità generale; 6) le funzioni di controllo e di promozione della concorrenza nei mercati, svolte dall’Autorità Anti-Trust. In particolare, questa Autorità vigila affinché i processi di privatizzazione delle imprese di proprietà pubblica e la ricerca di incrementi di 43 efficienza attraverso le innovazioni e le economie di scala non sfocino in concentrazioni monopolistiche tali da distorcere il funzionamento concorrenziale dei mercati, sia nel settore reale che nel settore finanziario. Nel prosieguo, ometteremo la trattazione delle istituzioni comprese nei punti 1) e 5), che sono oggetto dell’analisi microeconomica. 11.1. La politica fiscale di stabilizzazione La politica fiscale di stabilizzazione macroeconomica è rivolta a contrastare gli shock temporanei. Allo scopo di evitare che le fluttuazioni cicliche negative finiscano per avvitare i mercati dei beni di consumo e di investimento in una spirale recessiva, quale ad esempio quella che ebbe luogo durante la Grande Depressione degli anni ’30 del ‘900, la struttura del bilancio pubblico si è trasformata in modo che la domanda del settore pubblico possa compensare – attraverso gli stabilizzatori automatici ed eventuali interventi discrezionali di spesa - una caduta nella domanda del settore privato causata da uno shock temporaneo di domanda o di offerta. Il moltiplicatore della spesa pubblica Procediamo dunque ad inserire l’intervento pubblico nel nostro modello, approfondendo l’analisi del moltiplicatore del reddito. L’introduzione del settore pubblico nel modello macroeconomico di breve periodo comporta che nell’equazione del reddito nazionale si tenga conto della tassazione e della spesa pubblica. Consideriamo la tassazione (T) una proporzione del reddito (T=τY); il livello della spesa pubblica (G) e delle esportazioni (E) un dato; il consumo una funzione del reddito disponibile (C=cYd) definito per differenza tra il reddito e l’imposizione fiscale (Yd=Y-T); l’investimento una grandezza autonoma (I) e le importazioni (M) una funzione lineare del reddito (M=α1Y). Sostituendo nell’equazione che descrive la condizione di equilibrio 44 Y=C+I+G+X–M le componenti della domanda aggregata che dipendono dal reddito interno (Y), si ottiene: Y 1 (G + I + X ) 1 − c (1 − τ ) + α1 Questa equazione pone il livello del reddito in funzione delle componenti della spesa autonoma attraverso il moltiplicatore di un’economia aperta, ovvero la frazione al cui denominatore compaiono la propensione al consumo (c), la proporzione della tassazione sul reddito (τ) e la propensione all’importazione (α1). La dimensione dell’incremento del reddito attivato ad esempio da un impulso espansivo della spesa pubblica dipende positivamente dalla propensione al consumo (c) e negativamente da τ e da α1. In particolare, la propensione ad importare (α1) ha un effetto riduttivo sulla moltiplicazione del reddito attivato da un impulso di spesa pubblica. Tale effetto si spiega con l’apertura agli scambi con l’estero che dirotta dalle imprese nazionali alle imprese estere una parte dell’effetto moltiplicativo sulla produzione. Dato il reddito disponibile (Yd), il risparmio privato è il complemento al consumo: S=Y-T-C. Sostituendo il reddito (Y) con il lato destro della condizione di equilibrio e riordinando i termini, scriviamo la condizione di equilibrio tra produzione e reddito in economia aperta e con settore pubblico in modo da evidenziare la relazione tra risparmi al netto degli investimenti nel settore privato (SI), disavanzo del settore pubblico (T-G) e saldo della bilancia commerciale (M-X): (S - I) + (T - G) + (M - X ) = 0 45 Prendendo le mosse dal settore privato, supponiamo che il termine (S-I) sia in disequilibrio. Un eventuale eccesso del risparmio sugli investimenti (S>I) va a finanziare – attraverso il sistema bancario e i mercati finanziari - un deficit pubblico (T<G) e/o un eccesso nell’aggregato degli scambi internazionali di domanda estera che si rivolge ai beni interni rispetto alla domanda interna di beni esteri (M<X). Per semplicità, consideriamo che tutto il debito pubblico sia posseduto dai residenti e che non vi sia un reddito netto da investimenti finanziari all’estero. In altri termini, il risparmio netto del paese nei confronti del “resto del mondo” coincide con il saldo primario delle partite correnti. Esattamente come accade nel caso del settore privato e del settore pubblico, un eventuale disavanzo corrente dei conti primari delle partite correnti richiederà la formazione di avanzi nei periodi futuri. In un mondo di mercati globalizzati e in un sistema monetario internazionale incentrato sui cambi flessibili fra le tre principali valute – dollaro USA, euro e yen – anche il canale dei tassi di cambio è rilevante ai fini del nesso moneta-reddito. Ad esempio, una manovra di restrizione monetaria induce un incremento del tasso di interesse e così causa una preferenza relativa a favore dei depositi denominati in quella valuta; i capitali attratti nel paese provocano l’apprezzamento della valuta, con conseguente calo delle esportazioni e quindi del reddito. Così pure, nei mercati finanziari l’equilibrio dipende dall’incontro fra domanda e offerta di fondi prestabili. Consideriamo invece il caso in cui le esportazioni nette siano positive: X – M = NX > 0. Possiamo interpretare tale eccesso di esportazioni sulle importazioni come l’esito di un finanziamento del sistema bancario internazionale agli importatori esteri, che consente loro di effettuare pagamenti pari al valore dei beni acquistati. Ricordando che in contabilità nazionale un surplus di bilancio pubblico viene definito risparmio pubblico, pensiamo l’equazione precedente in termini di una eguaglianza fra investimenti (all’interno ed all’estero) e risparmi (privati e pubblici): 46 I+(X-M) = S+(T–G) che possiamo anche descrivere come l’equilibrio macroeconomico completo (relativo cioè a tutti e tre i settori privato, pubblico ed estero): (S - I ) = (G - T) +(X-M) Definiamo le esportazioni nette: NX = (X-M). Alle esportazioni nette corrispondono le importazioni nette di capitali (investimenti stranieri nel paese meno investimenti del paese all’estero): NKI. Quindi: NX = NKI Negli ultimi decenni, l’incremento della spesa pubblica non ha trovato in molti paesi un adeguato corrispettivo nell’incremento delle entrate fiscali; si è reso necessario il ricorso all’indebitamento, con conseguente accumulazione di uno stock di debito pubblico. Come sappiamo, nel modello IS-LM (dove nel mercato monetario sono presenti solo moneta e titoli) l’emissione di titoli per il finanziamento della spesa è una domanda di fondi liquidi che va ad aggiungersi a quella proveniente dalle decisioni di investimento delle imprese. Il conseguente eccesso di domanda sull’offerta di fondi liquidi, provocando un innalzamento del tasso di interesse “taglia” le decisioni di investimento (effetto di “spiazzamento”). Se consideriamo portafogli composti da tre attività finanziarie (moneta, titoli ed azioni), nell’ipotesi di alta sostituibilità fra titoli e azioni l’effetto sulle decisioni di investimento non muta: l’aumento del tasso di interesse si trasmette anche ai rendimenti azionari; al più alto rendimento corrisponde la discesa delle quotazioni che riduce la convenienza ad emettere azioni deprimendo l’attività di investimento delle imprese. Nei paesi in cui ha rilievo la propensione a finanziare il consumo nel mercato del credito (rateizzazione, etc.), la discesa della domanda aggregata riguarda anche la componente dei consumi privati. In economia aperta, si determina un ulteriore effetto 47 depressivo sulla domanda aggregata: l’aumento del tasso di interesse sui titoli pubblici indotto dalle emissioni a copertura del deficit genera un afflusso di capitali dall’estero e il conseguente apprezzamento della valuta ha un impatto riduttivo sulle esportazioni. Un forte ricorso del settore pubblico all’indebitamento può dunque causare la discesa delle tre componenti della domanda aggregata (consumo, investimento ed esportazioni) e spegnere completamente l’incremento del reddito generato dal moltiplicatore della spesa pubblica. Inoltre, è possibile che si determini il fenomeno dei deficit gemelli. A partire da un bilancio pubblico in pareggio, una riduzione delle tasse in presenza di spesa pubblica costante genera deficit pubblico, ovvero diminuisce il risparmio pubblico. Nella visione NCE, i soggetti ricardiani aumenteranno il proprio risparmio. Nella visione NKE, potrebbero anche tagliare gli investimenti o ridurre le importazioni nette di capitale. Il deficit pubblico dà origine al deficit estero (deficit gemelli). La discesa del capitale fa salire la PMK ed il tasso di interesse e declinare la PML ed il salario, con conseguente aggiustamento nelle decisioni di investimento. È qui che rilevano gli aspetti istituzionali riguardanti i nessi fra economia reale e mercati monetari e finanziari e la visione di endogeneità della formazione delle scorte liquide per effetto della concessione di credito a imprenditori e consumatori. In un modello di finanziamento del sistema economico imperniato sul credito bancario il grado di sostituibilità fra obbligazioni ed azioni tende ad essere basso in quanto moneta e obbligazioni finiscono per formare un unico aggregato. Gli aggiuntivi titoli emessi per finanziare un’espansione della spesa pubblica hanno in questo caso un effetto espansivo sul livello del reddito. Infatti, in presenza di un grado di sostituibilità del debito pubblico maggiore con la moneta che con il capitale azionario, ad una più elevata quota di titoli pubblici in portafoglio dovrà accompagnarsi un corrispondente adeguamento verso l’alto della quota di azioni. Tale aggiuntiva domanda di azioni provoca una salita delle quotazioni di borsa (e la 48 correlata riduzione dei tassi di rendimento azionario) che agisce da stimolo sulle decisioni di investimento delle imprese che si finanziano nel mercato dei capitali. Pertanto, l’espansione della spesa pubblica in deficit causerà un “effetto spiazzamento” di ampiezza inferiore a quello del modello di finanziamento in cui obbligazioni ed azioni formano un unico aggregato. "Equivalenza ricardiana” ed effetti non-keynesiani della politica fiscale È giunto il momento di superare lo schema analitico nel quale è solo il reddito corrente ad influenzare il consumo. Nella realtà, il soggetto massimizza il suo benessere attraverso la scelta del paniere di consumo corrispondente alle sue preferenze su un arco temporale pluriperiodale. I piani di consumo dei soggetti vengono decisi in relazione al reddito permanente, che si definisce come il valore medio annuale del flusso di reddito atteso lungo tutto il periodo di vita: in breve, lo stock di ricchezza dell’individuo. Il piano di consumo risultante dalla tangenza del vincolo intertemporale di bilancio costituito dal valore attualizzato dei flussi di reddito futuro atteso con la curva di indifferenza più elevata rappresenta la combinazione di consumo presente e di consumo futuro che rende massima la soddisfazione dell’individuo. Nell’equazione del “moltiplicatore” la propensione al consumo dei soggetti è uno dei parametri che legano un impulso di spesa pubblica alla moltiplicazione del reddito. Come si interrelano allora settore privato e settore pubblico riguardo alla formazione della complessiva domanda di consumo in una prospettiva pluriperiodale? Analizziamo l’approccio alla politica fiscale basato sulla teoria dell’ “equivalenza ricardiana”. Le ipotesi sono le seguenti: i soggetti hanno vita infinita; i mercati dei capitali sono perfetti; la capacità previsionale dei soggetti è perfetta; la tassazione, per non risultare troppo distorsiva, è a somma fissa. Presentiamo ora le equazioni che esprimono il vincolo intertemporale di bilancio del settore privato e del settore pubblico su un arco temporale ridotto per semplicità a due anni (i valori del secondo periodo sono attualizzati al presente). Per 49 il settore privato, tenendo presente che il consumo dipende dal reddito disponibile al netto delle tasse, il vincolo di bilancio intertemporale relativo a due periodi è espresso dall’equazione (12.4) dove la somma di consumo presente e consumo futuro del consumatore “rappresentativo” eguaglia la somma del reddito disponibile dei due periodi (t=1,2): (12.4) C1 + C2 Y − T2 = (Y1 − T1 ) + 2 1+ r 1+ r Per il settore pubblico, esprimiamo il vincolo nei termini dell’eguaglianza fra la spesa pubblica presente e futura e le entrate fiscali dei due periodi: (12.5) G1 + G2 T = T1 + 2 1+ r 1+ r Nel caso in cui un incremento di spesa pubblica venga finanziamento con emissione di titoli invece che con le tasse, i soggetti ritengono che una eventuale variazione dello stock di debito pubblico posseduto in portafoglio non rappresenti una effettiva variazione della loro ricchezza. La consapevolezza che lo Stato, per essere in grado di restituire il debito contratto con il settore privato, dovrà aumentare le tasse, li induce infatti a non considerare il valore dei titoli pubblici una aggiunta alla loro dotazione di ricchezza. Troviamo conferma analitica di questa visione sommando i due vincoli di bilancio della (12.4) e della (12.5): (12.6) C1 + C2 Y − G2 = (Y1 − G1 ) + 2 1+ r 1+ r Come si vede, nell’equazione non compare il finanziamento della spesa pubblica: il consumo (valore presente e valore futuro attualizzato) risulta eguagliare la differenza 50 fra reddito e spesa pubblica (valore presente e valore futuro attualizzato). La spiegazione è appunto che non conta il modo in cui la spesa pubblica viene finanziata: nel periodo t, la spesa pubblica può essere finanziata con tassazione, oppure, alternativamente, con l’emissione di titoli. I soggetti “ricardiani” sono razionali e in seguito ad un aumento di valore (aumento del prezzo o della quantità) dei titoli pubblici detenuti in portafoglio non adeguano verso l’alto i piani di consumo in quanto non si sentono più ricchi. Infatti, essi prevedono un aumento della tassazione nei periodi futuri, e quindi il reddito permanente (calcolato su due periodi) non subisce variazioni. Con il primo tipo di finanziamento (tasse), la copertura della spesa avviene in ciascun periodo (equazione 12.5); con il secondo tipo di finanziamento (emissione di titoli: B=G), il reddito verrà decurtato domani dalle tasse future: T1=0 e T2=B(1+r)+G2. I piani di consumo non vengono modificati né nel periodo t né nel periodo t+1 ed il moltiplicatore della spesa pubblica risulta pari a zero. Pertanto, l’equivalenza ricardiana non riconosce né il sostegno di breve periodo alla stabilità macroeconomica svolto dal moltiplicatore della spesa pubblica né il sostegno alla formazione del reddito svolto nel lungo periodo dalla produzione dei beni pubblici, in primo luogo le infrastrutture e la formazione del capitale umano. All’“equivalenza ricardiana” viene mossa la critica di non essere valida se i soggetti sono vincolati nel consumo a causa del basso reddito. Per realizzare i piani di consumo, non potendo offrire beni in garanzia (collateral) a fronte di un prestito, questi soggetti sono costretti a pagare alti tassi di interesse (se poi le banche seguono una politica di “razionamento” del credito a tasso costante, le loro richieste di prestito saranno certamente respinte) (Stiglitz e Weiss, 1981). Qualora la spesa pubblica non sia finanziata con la tassazione ma a copertura del deficit vengano emessi titoli pubblici, i soggetti con vicoli di liquidità sono avvantaggiati. La ragione è che i tassi 51 di interesse sui titoli pubblici sono inferiori ai tassi sopportati dai privati nel momento in cui accendono un mutuo (di norma, la solvibilità di uno Stato sovrano è ritenuta superiore a quella di un privato). È “come se” il governo “aiutasse” i soggetti privati ad ottenere dalle banche un finanziamento allo stesso tasso di interesse che esse praticano al governo. Ad essere avvantaggiati dal finanziamento in titoli pubblici saranno soprattutto i soggetti a basso reddito, il cui consumo sarà più ampio nel caso di finanziamento in titoli che nel caso di finanziamento mediante la tassazione. Ad esempio, il consumo del disoccupato al netto della spesa per interessi è maggiore nel caso in cui il finanziamento sia costituito dal sussidio di disoccupazione che nel caso di ricorso al credito bancario. Contrariamente all’equivalenza ricardiana, almeno sotto il profilo della distribuzione del reddito, la modalità di finanziamento non è irrilevante ed il moltiplicatore della spesa pubblica presenta un valore positivo. Il livello di reddito dei soggetti ed il “vincolo di liquidità” in cui i loro piani di consumo possono incorrere hanno anche rilievo riguardo all’influsso del tasso di interesse sulla distribuzione del consumo fra presente e futuro. L’impatto di un aumento del tasso di interesse sulla spesa di consumo dipende infatti dalla circostanza di finanziare tale spesa con il proprio risparmio oppure con il ricorso al credito. Il segno di tale impatto è comunque di difficile determinazione. Nell’originaria funzione del consumo introdotta da Keynes, fondata sul reddito corrente, un aumento del tasso di interesse avvantaggia i risparmiatori-prestatori (che incrementeranno il consumo) e penalizza i consumatori-debitori (che ridurranno il consumo a causa di un ammontare di pagamenti per interessi più elevato). Nell’aggregato, si realizza una redistribuzione di reddito a favore dei soggetti a più alto reddito, e quindi a minore propensione al consumo, con conseguente effetto deflazionistico sulla domanda aggregata. Nella prospettiva intertemporale fondata sul reddito atteso nei periodi futuri, l’impatto delle variazioni del tasso di interesse sul consumo è più complesso. L’impatto, ad esempio, di un aumento del tasso di interesse è la risultante di due effetti ambedue di segno incerto: 1) l’effetto reddito, che è diverso nel caso dei creditori (che aumentano il consumo presente e futuro) e 52 dei debitori (a fronte della decurtazione del reddito causata dai più ingenti esborsi per interessi, questi soggetti ridurranno il consumo presente); 2) l’effetto sostituzione che induce il consumatore a ridurre il consumo presente perché è aumentato il costo del credito potrebbe causare una riduzione della domanda nel presente; ma il tasso di interesse rappresenta il prezzo intertemporale del consumo, cosicché la caduta del reddito futuro potrebbe generare un effetto riduttivo sul consumo futuro ancora più rilevante. Pertanto, l’impatto complessivo di un aumento del tasso di interesse sulla spesa di consumo risulta essere incerto. La teoria dell’ “equivalenza ricardiana” è la principale fra le ipotesi su cui si fonda la tesi dei cosiddetti “effetti non-keynesiani” della politica fiscale. Dopo una riduzione della spesa pubblica che modifichi le loro previsioni sul reddito permanente, i soggetti razionali “ricardiani” –- possono avere l’aspettativa di una riduzione delle tasse. La condizione è la seguente: il “taglio” della spesa pubblica deve essere percepito dai soggetti come permanente. Tale percezione ha luogo in particolare quando la spesa pubblica è di tipo strutturale e la sua riduzione è sostanzialmente irreversibile (ad esempio, una riforma delle pensioni). La restrizione fiscale – permettendo di realizzare una decumulazione di debito pubblico - crea l’aspettativa di un ridimensionamento del settore pubblico e quindi di un sentiero declinante della tassazione futura. Il reddito permanente più elevato indurrà i soggetti ad aumentare il proprio consumo. L’effetto sul reddito di una variazione della fiscal stance in senso restrittivo sarebbe dunque opposto rispetto alla visione keynesiana. È robusta questa tesi di fronte ad un rilassamento dell’ ipotesi di “equivalenza ricardiana”? In altre parole, se aumentiamo il grado di realismo del complesso di ipotesi che fondano l”equivalenza ricardiana” - ad esempio, supponendo che un certo numero di soggetti siano vincolati nel consumo a causa delle condizioni imperfette del mercato del credito sopra dette - si ottiene ancora il risultato non-keynesiano di un aumento della domanda privata come conseguenza di una contrazione della spesa pubblica? 53 Sembra che la risposta debba essere negativa. Nei modelli che ipotizzano la presenza di una certa quota di soggetti non-ricardiani all’interno della popolazione, ad una contrazione fiscale non conseguono di norma risultati non-keynesiani. Si può dimostrare che quanto più alta è la percentuale di soggetti non-ricardiani, quanto più basso il tasso di sconto sul consumo futuro (i consumatori sono poco impazienti) e quanto più bassa nella percezione dei soggetti è la persistenza della spesa pubblica da un periodo all’altro, tanto meno è probabile che si riscontri un effetto non-keynesiano della politica di spesa pubblica (Creel et al., 2005). L’evidenza empirica di effetti non-keynesiani delle politiche di decumulazione del debito pubblico è finora piuttosto ridotta, in ciò rispecchiando la particolarità delle ipotesi sotto le quali è contemplabile il loro manifestarsi. Il vincolo intertemporale del bilancio pubblico Approfondiamo ora l’analisi del vincolo del bilancio pubblico, considerando – oltre alla tassazione – anche il finanziamento in moneta e titoli. Nell’equazione che segue, tale vincolo viene espresso mediante l’eguaglianza fra disavanzo e suo finanziamento: (12.7) (G − T ) + iB = dB / dt + dM / dt dove G è la spesa pubblica in beni e servizi, T è il gettito fiscale, i è il tasso di interesse nominale sul debito pubblico, B è il debito pubblico, dB/dt è la derivata prima rispetto al tempo dello stock di titoli pubblici e dM/dt è la derivata della quantità di moneta rispetto al tempo, ed esprime la quota di deficit pubblico che viene finanziata con l’espansione di base monetaria attraverso l’acquisto di titoli pubblici da parte della banca centrale. L’espansione della spesa pubblica, non accompagnata da un proporzionale incremento della tassazione, ha determinato in molte economie avanzate 54 l’accumulazione di uno stock di debito pubblico. Pertanto, esprimiamo il vincolo del bilancio pubblico nel periodo t con l’equazione: (12.8) Bt = (1 + it )Bt −1 − (Tt − Gt ) − (M t − M t −1 ) Essa indica che la variazione del debito pubblico (nel periodo t rispetto al periodo t-1) sarà positiva se lo stock di debito ereditato dal periodo precedente - comprensivo della spesa per gli interessi su tale ammontare di debito - non sarà eguagliato dalla somma algebrica fra la differenza fra spesa pubblica ed entrate fiscali e la variazione della quantità di moneta. Eliminando la notazione di tempo ed annullando il finanziamento in moneta (abolito nel corso degli ultimi decenni nelle economie avanzate), risulta che la variazione del debito sarà positiva o negativa a seconda che la somma algebrica fra saldo primario (G – T) e spesa per interessi (iB) sia positiva o negativa: (12.9) ∆B = G − T + iB Per normalizzare le poste della finanza pubblica fra paesi di dimensioni diverse, e quindi di diversa ampiezza assoluta del PIL, si suole considerare deficit e debito pubblico come percentuali del PIL. Deriviamo totalmente B/Y, ottenendo: (12.10) B B 1 d = dB + − 2 Y Y Y dY il che equivale ad esprimere il lato destro della (12.7), una volta annullato il finanziamento in moneta, in termini di differenze: 55 (12.11) B ∆B B ∆Y − ∆ = Y Y Y Y Ponendo b=B/Y e g=∆Y/Y, si ottiene: (12.12) ∆b = ∆B − bg Y Sostituendo la (12.9) nella (12.12) si ottiene: (12.13) ∆b = G + iB − T − bg Y Ponendo γ=G/Y e τ=T/Y, si ricava: (12.14) ∆b = g − τ + (i − g )b Questa equazione evidenzia la questione fondamentale che sta alla base del concetto di sostenibilità del debito pubblico, ovvero il cosiddetto “effetto palla di neve” (snowball effect). Sottraendo il tasso di inflazione (π) sia dal tasso di interesse nominale (i) che dal tasso di crescita del reddito nominale (g) si ottengono, rispettivamente, (r) ed (x). Un eccesso del tasso di interesse reale (r) rispetto al tasso di crescita reale (x), benché esprima la condizione di efficienza dinamica del sistema economico (in breve, la crescita economica è garantita, in quanto l’attività di investimento è sostenuta da un tasso di rendimento del capitale che è più alto del tasso a cui cresce l’economia), mette a rischio la sostenibilità del debito pubblico. L’autorità fiscale è costretta a ricorrere a nuove emissioni di titoli, aggravando il problema del debito pubblico. Intuitivamente, al dato valore di b l’ammontare delle 56 risorse necessarie a finanziare la spesa annua per interessi risulta essere di ampiezza maggiore rispetto alle risorse aggiuntive che si rendono disponibili nel periodo. Se infatti il tasso di interesse eccede il tasso di crescita dell’economia, il rapporto debito pubblico / PIL è destinato a crescere, perché le risorse aggiuntive che vengono a formarsi in ogni anno non generano entrate fiscali in misura sufficiente a finanziare i deficit primario (D1) e secondario (D2), è inevitabile procedere a nuove emissioni di titoli pubblici. La credibilità di un programma di riduzione del debito pubblico dipende quindi molto dalla capacità di crescere dell’economia, in modo che il governo non debba ricorrere al mercato finanziario e cioè all’emissione di nuovi titoli per coprire i deficit primario (D1) e secondario (D2). Il cosiddetto Ponzi Game rappresenta il caso estremo di insostenibilità prospettica di una posizione debitoria. Ponzi è il nome del banchiere che, nella Boston dei primi anni Venti del secolo scorso, inventò uno schema di investimento finanziario ad alto rischio: gli interessi sulle somme prestate venivano pagati con le somme ricevute dai nuovi investitori. Ponzi trascinò con sé in una rovinosa bancarotta migliaia di risparmiatori americani. Molti suoi emuli hanno fatto lo stesso in Europa, anche in tempi recenti (si pensi alle crisi bancarie, come la “corsa agli sportelli” della Northern Bank, al fallimento della banca franco-belga Dexia, al virtuale fallimento della Bankia, salvata dal governo spagnolo, e agli scandali finanziari causati dalla City nel Regno Unito, e da imprese produttive come la Parmalat e la Cirio in Italia). Al pari dei soggetti del settore privati, neppure i governi sono immuni dalla tentazione di volere condurre un Ponzi Game. Esempi recenti sono l’Argentina e la Grecia. Il governo argentino ha fatto ricorso nel 2001 al ripudio del proprio debito pubblico, una significativa quota del quale era detenuto da risparmiatori stranieri, dando poi vita ad una lunga trattativa che ha condotto ad una restituzione del prestito ai creditori (banche, fondi pensione, risparmiatori, etc.) pari a circa il 30% del valore nominale. Il caso della Grecia è un po’ diverso. Il governo greco nella prima metà ha occultato molte poste di spesa pubblica, comunicando dati inesatti di bilancio pubblico all’agenzia ufficiale di statistica della Commissione 57 Europea. Quando è scoppiata la crisi finanziaria, ad ancora più quando la conseguente recessione ha prosciugato il danaro nelle casse dello stato, la Grecia ha dovuto dare conto dei dati effettivi di bilancio per ricevere gli aiuti dell’EFSF (European Financial Stability Fund), il fondo salva-stati dell’Eurozona. L’evidente impossibilità che la debole economia del paese potesse generare in futuro surplus di bilancio pubblico tali da riassorbire l’ingentissimo debito pubblico accumulato ha indotto la Commissione Europea ad imporre alla Grecia un accordo nel quale l’erogazione di fondi è stata subordinata a drastiche riforme (a cominciare dal ridimensionamento del settore pubblico ed a un taglio medio del 30% agli stipendi pubblici)e ad un hair-cut, ovvero un taglio del debito pubblico (con parziale recupero del danaro investito nei titoli greci garantito solo ai prestatori privati). Considerando la gravità della crisi economica, con tassi di crescita del PIL ancora negativi, è probabile che la Grecia non sia in grado di annullare il notevole ammontare di debito pubblico ancora in essere. Nel marzo 1933, nel corso della Grande Depressione che seguì il crollo di Wall Street dell’ottobre 1929, il presidente degli Stati Uniti F.D. Roosevelt presentò una "Legge bancaria d'emergenza", che venne subito approvata dal Congresso. Essa rendeva possibile anche delle ristrutturazioni fallimentari con la cancellazione delle esposizioni speculative delle banche. Anzitutto fu creata e applicata la legge GlassSteagall che separava le banche commerciali da quelle di investimento con il divieto di utilizzo dei risparmi dei cittadini per operazioni fatte nell'interesse delle banche. Fu inoltre creata la Federal Deposits Insurance Corporation, a cui oggi l'Europa vorrebbe ispirarsi, che dava la garanzia dello Stato ai risparmi delle famiglie e dei privati. Venne riorganizzata la Reconstruction Finance Corporation, istituzione statale fino ad allora utilizzata per il salvataggio delle banche decotte, e trasformata in una specie di fondo di sviluppo per l'emissione a lungo termine di crediti per la "ripresa economica", per gli investimenti in infrastrutture e per la creazione di posti di lavoro. Purtroppo, poco è stato fatto – negli Stati Uniti ed in Europa – per rafforzare la regolamentazione dell’attività delle banche e elle Borse, per riformare a legislazione 58 sugli istituti finanziari che hanno dato origine alla crisi e per combattere l’attuale recessione. L’equazione contiene anche altri due aspetti del problema della sostenibilità del debito pubblico. Il primo è che una eventuale differenza positiva fra tasso di interesse e tasso di crescita è tanto più grave quanto elevato è il valore di b (con un rapporto pari al 100%, un punto di eccesso del tasso di interesse si scarica in un punto in più di debito pubblico in rapporto al PIL. Il secondo è il seguente. Definendo il debito pubblico come: bt - bt-1 = ( it – gt) bt-1 + D1 affinché lo stock di debito rispetto al PIL sia almeno stabilizzato – e cioè: bt - bt-1 = 0 - è necessario che il lato sinistro dell’equazione sia pari a zero. Ovvero che, nel caso di valore positivo del primo termine a causa di un eccesso del tasso di interesse sul tasso di crescita, il surplus primario strutturale (il saldo di bilancio al netto delle variazione di breve periodo indotte dalle fasi cicliche di espansione e di riduzione del PIL) sia tale da generare nel secondo termine il valore negativo di ampiezza sufficiente a validare il segno di eguaglianza con il lato destro. Pertanto, la sostenibilità del debito pubblico dipenda sia dal’evoluzione del PIL, sia dall’accumulazione di debito pubblico avvenuta in passato, sia 59 dall’andamento dei deficit primario e secondario. La Tabella qui sopra disaggrega le diverse fonti di alimentazione del debito pubblico nei paesi dell’Eurozona a 12 paesi (prima cioè dell’ingresso di Malta, Cipro, Slovenia, Slovacchia, Estonia). Prendiamo l’esempio dell’Itaia: dal 2002 al 2007 dalla tabella risulta una variazione in aumento del rapporto debito pubblico /PIL (1,6%). Tale valore risulta dalla somma algebrica fra l’apporto riduttivo sul debito pubblico (alla scadenza, è possibile ripagare l’importo dei titoli di debito pubblico, senza doverli nuovamente emetterli) determinato dalle aggiuntive entrate fiscali generate dalla crescita del PIL (1,4%) e da altre voci (1,8%) da un lato, ed i deficit primario (- 0,9%, ovvero entrate fiscali inferiori alla spesa pubblica) e secondario (il valore della spesa per interessi pari al 4%) dall’altro. Poiché l’apporto riduttivo sul debito pubblico (3,2%) è inferiore alla spesa per interessi (4%), fra 2002 e il 2007 si è determinato un incremento del rapporto debito pubblico /PIL pari a -1,6%. Possiamo anche aggiungere che in Europa, negli anni ’70 e ’80, oltre alle due suddette fonti di incremento del rapporto debito pubblico/PIL (un aumento del deficit primario ed un eccesso del tasso di interesse nominale rispetto al tasso di crescita del reddito nominale), anche l’alta inflazione ha giocato un ruolo nell’andamento di 60 deficit e debito pubblico. Considerando che il tasso di crescita (g) consta di una componente reale (x) e di una componente monetaria (π): g=x+π e tenendo conto dell’equazione di Fisher: r=i-πe, poniamo eguale a zero il tasso di crescita dell’economia (x), in modo da isolare l’impatto dell’inflazione sulla dinamica del debito pubblico. Dall’equazione (12.14) si ottiene il vincolo del bilancio pubblico espresso in termini reali: (12.15) ( ∆b = γ − τ + b r + π e − π ) L’equazione (12.15) esplicita questa terza fonte di incremento del rapporto debito pubblico / PIL: πe>π. Contrariamente all’ipotesi di aspettative razionali, il tasso di inflazione che effettivamente si realizza ex post può discostarsi per difetto dal tasso atteso. Quando le aspettative di inflazione non si realizzano perché il tasso di inflazione ex post risulta superiore all’inflazione attesa, la tassa da inflazione (una forma di signoraggio) riduce il valore reale del debito pubblico; ma se le aspettative di inflazione non si realizzano perché il tasso di inflazione ex post risulta inferiore all’inflazione attesa, il governo ha aumentato il tasso di interesse nominale in una misura superiore all’incremento da riconoscere ai possessori del debito pubblico. Di conseguenza, le emissioni di nuovi titoli a copertura della spesa per interessi sono in eccesso rispetto all’effettivo bisogno, provocando un incremento non dovuto dello stock di debito pubblico. Vediamo ora come si misura la sostenibilità di lungo periodo del debito pubblico. In base alle equazioni (12.14) e (12.15) formuliamo ora il vincolo del bilancio pubblico in termini reali: (12.16) bt = (1 + r )bt −1 − (t t − γ t ) 61 Risolvendo per bt-1 ed iterando per i periodi successivi, dopo k iterazioni si ottiene il VIBP: k (12.17) −i bt = ∑ (1 + r ) (vt +i ) + (1 + r ) bt + k −k i =0 dove alla differenza fra entrate ed uscite fiscali (al netto della spesa per interessi) è sostituito il simbolo del saldo di bilancio primario rispetto al PIL v (se maggiore di zero, il saldo si definisce surplus). La spia del problema della sostenibilità risiede nella presenza del termine b nel secondo termine del lato destro dell’equazione: nulla garantisce che non possa aumentare. L’equazione non vincola infatti b per ogni valore del programmato surplus v nel primo termine. Il soddisfacimento del vincolo intertemporale del bilancio pubblico è rispettato se e soltanto se – oltre gli importi della serie futura dei surplus di bilancio primario ν t +i = τ t +i − γ t +i che compaiono al primo termine sono opportunamente commisurati ai valori dei tassi di interesse e di crescita - vale anche la “condizione di trasversalità”, che esclude per ipotesi ogni eventuale incremento di b causato dall’ eccedenza del tasso di interesse sul tasso di crescita. In breve, non è possibile programmare l’ampiezza dei surplus in modo tale da finanziare anche il deficit aggiuntivo provocato da tale eventuale eccedenza. Tale condizione consiste nell’azzeramento del valore del secondo termine sul lato destro della (12.17) all’avvicinarsi del tempo all’infinito ( k → ∞ ): lim(1 + r ) bt + k = 0 −k (12.18) k →∞ Quando il debito pubblico in rapporto al PIL aumenta nei periodi t+k ad un tasso inferiore al fattore di sconto 1+r la “condizione di trasversalità” è soddisfatta. Si noti che l’analisi intertemporale del vincolo del bilancio pubblico presuppone la validità dell’“equivalenza ricardiana”: soggetti ricardiani che “internalizzano” il valore 62 presente del vincolo di bilancio ed il soddisfacimento della condizione di trasversalità. Dopo un impulso di politica fiscale, la mancata modifica dei piani di consumo fa sì che il moltiplicatore della spesa pubblica sia pari a zero. Riscriviamo la (12.17) aggiungendo, nell’equazione (12.19), il segno di disuguaglianza. Ciò riflette l’esistenza di due diverse possibili strategie a disposizione dell’autorità fiscale nel perseguimento dell’obiettivo della decumulazione del debito pubblico: k (12.19) −i bt ≥ ∑ (1 + r ) (vt +i ) + (1 + r ) bt + k −k i =0 Assumiamo che il secondo membro sul lato destro sia pari a zero, cosicché la “condizione di trasversalità” sia rispettata. Poniamoci la seguente domanda: il valore attualizzato al presente dei surplus futuri in rapporto al PIL che compare al primo termine deve essere di ampiezza tale da ripagare completamente il debito pubblico in essere al tempo t? In altre parole, l’equazione (4.19) deve essere necessariamente soddisfatta con il segno di uguaglianza, oppure è ammissibile anche il segno di disuguaglianza? Distinguiamo due posizioni teoriche: 1) nella visione NCE, soprattutto nella versione RBC dove le tasse sono sempre distorsive e la gran parte della spesa pubblica è considerata un “male pubblico”, l’obiettivo deve essere il completo “ritiro” del debito. Deve quindi valere il segno di eguaglianza a zero: bt = 0 . In altri termini, il governo deve programmare una serie di surplus futuri tale da produrre l’azzeramento del debito pubblico; 2) nella visione NKE, un valore positivo del rapporto debito pubblico / PIL non è di per sé una minaccia per l’equilibrio macroeconomico. L’intervento pubblico non si giustifica soltanto in base al contributo della spesa pubblica alla stabilizzazione di breve periodo del reddito dopo uno shock negativo. Le politiche pubbliche sostengono la crescita nel lungo periodo: quanto maggiore è la qualità dell’intervento 63 pubblico nell’economia, tanto maggiore il contributo che la spesa pubblica dà alla TFP, alla crescita del capitale umano attraverso il sistema educativo, alla sostenibilità del sistema pensionistico pubblico, date le condizioni demografiche, e della sanità pubblica, dato il grado di protezione sociale desiderato dai cittadini. Tuttavia, al pari di quanto vale nel caso delle imprese private, il bilancio del settore pubblico con il settore creditizio e finanziario può presentare un saldo negativo, ma la questione della solvibilità non può essere elusa. Benché sia difficile quantificare in un “numero magico” l’obiettivo di abbattimento del debito pubblico, un valore-limite per la consistenza dello stock di debito pubblico (b*) è indispensabile. Da tale valore discende infatti il rating assegnato al paese emittente dalle agenzie internazionali di valutazione. Nell’attuale contesto di mercati finanziari globalizzati, la valutazione delle attività finanziarie emesse dai governi dei paesi ad alto debito pubblico – e quindi il “premio per il rischio” da cui dipende il tasso di interesse da riconoscere ai risparmiatori che le detengono in portafoglio - sono legati alla credibilità dei piani di decumulazione. In definitiva, la visione NKE propone la riduzione del debito pubblico fino a quel valore predefinito, che è considerato – nelle date condizioni dell’equilibrio macroeconomico del paese - il massimo tollerabile stock di debito pubblico. Tuttavia, al pari di quanto vale nel caso delle imprese private, il bilancio del settore pubblico con il settore creditizio e finanziario può presentare un saldo negativo, ma la questione della solvibilità non può essere elusa. Benché sia difficile quantificare in un “numero magico” l’obiettivo di abbattimento del debito pubblico, un valore-limite per la consistenza dello stock di debito pubblico (b*) è indispensabile. Da tale valore discende infatti il rating assegnato al paese emittente dalle agenzie internazionali di valutazione. Nell’attuale contesto di mercati finanziari globalizzati, la valutazione delle attività finanziarie emesse dai governi dei paesi ad alto debito pubblico – e quindi il “premio per il rischio” da cui dipende il tasso di interesse da riconoscere ai risparmiatori che le detengono in portafoglio - sono legati alla credibilità dei piani di 64 decumulazione. In definitiva, la visione NKE propone la riduzione del debito pubblico fino a quel valore predefinito, che è considerato – nelle date condizioni dell’equilibrio macroeconomico del paese - il massimo tollerabile stock di debito pubblico: bt = b * . Regole di politica fiscale Così come le autorità monetarie possono legare la propria funzione di comportamento ad una regola di politica monetaria (la Regola di Taylor), i governi variano la fiscal stance in base a diverse concezioni del ruolo della politica fiscale. A scopi puramente didattici, ovvero al di là della scarsa applicabilità alla realtà di profonda crisi che i bilanci pubblici dei governi dell’Eurozona stanno attraversando, esporremo due regole fiscali (in mancanza di locuzioni italiane entrate nell’uso, le indichiamo unicamente con i termini inglesi): 1) il perseguimento di una fiscal stance ispirata al Tax Smoothing (TS), che riflette l’approccio teorico della NCE; 2) il perseguimento di una fiscal stance che definiremo Expenditure Smoothing (ES), che si ispira all’approccio teorico della NKE. Il Tax Smoothing (Barro, 1979) è oggi l’approccio dominante in letteratura. L’obiettivo della politica fiscale consiste in una politica del bilancio pubblico che interferisca il meno possibile con il funzionamento dei mercati. A tal fine, la politica fiscale deve seguire i seguenti precetti: a) il saggio di tassazione (τ = T/Y) deve essere mantenuto tendenzialmente costante; b) il bilancio pubblico va mantenuto in pareggio come valore medio, azzerando nel medio periodo le oscillazioni del saldo che si determinano nel corso del ciclo economico. La politica di stabilizzazione va di conseguenza circoscritta all’operare degli stabilizzatori automatici escludendo il ricorso alle manovre discrezionali. Il saldo del bilancio primario rispetto al PIL (vt) sia così definito: 65 (12.20) νt = Tt − Gt = (t t − γ t ) Yt dove T sono le entrate fiscali, G è la spesa pubblica, Y il PIL, τ = T/Y è il rapporto tassazione / PIL e γ = G/Y il rapporto spesa pubblica / PIL. La variazione del rapporto surplus/PIL implicata da tale regola fiscale è: (12.21) ∆ν t = ∆Tt − ∆Gt = g (t t − g t ) Yt −1 L’ammontare di surplus di bilancio pubblico primario che si viene a formare nel corso di una fase ciclica di espansione del reddito (g) – anche nel caso risulti superiore rispetto al suo valore potenziale (g*) – va accantonato per essere utilizzato nella successiva fase negativa del ciclo economico. Nel corso di una recessione, l’operare degli stabilizzatori automatici potrà così essere completamente finanziato con risorse già disponibili, evitando che la riduzione delle entrate fiscali e l’incremento delle spese sociali causate dalla diminuzione del reddito (ad esempio, i sussidi di disoccupazione) aprano un deficit di bilancio. Questa concezione della fiscal stance, ispirata alla NCE, non è esente da problemi. Come vedremo nel Capitolo 9, la sua attuazione può inserire una distorsione deflazionistica nella governance macroeconomica. L’Expenditure Smoothing è così sintetizzabile. In un’economia di mercato l’incertezza sul futuro causa l’instabilità della domanda aggregata (Keynes, 1936). Una normale fluttuazione del reddito può trasformarsi in una recessione prolungata, con effetti negativi duraturi sulle determinanti della crescita (Galì, 2005; van der Ploeg, 2005). Per evitare che una recessione sfoci in un equilibrio di isteresi, con conseguente incremento del NAIRU, la politica fiscale non può consistere unicamente nell’operare degli stabilizzatori automatici. Gli investimenti pubblici rappresentano un sostegno alla crescita di lungo periodo e vanno quindi scorporati dal 66 calcolo sul saldo di bilancio (la cosiddetta “regola aurea” di politica fiscale) in quanto non inficiano la sostenibilità fiscale. La variazione del rapporto surplus/PIL implicata da questa regola fiscale – in presenza di una crescita al tasso potenziale (il valore di trend g*) – è la seguente: ∆v ' ' t = gt t −1 − g * g t −1 Questa equazione dice che dal volume delle entrate determinato dal prodotto fra τt-1 ed il tasso di crescita dell’economia g va sottratto il prodotto fra tasso di crescita potenziale e quota di spesa pubblica sul PIL nella proporzione del coefficiente γt-1. In ciascun periodo, infatti, la spesa pubblica va determinata in modo da preservare una proporzione costante con il trend di crescita del PIL. L’obiettivo consiste nel garantire che beni pubblici e meritori si mantengano in linea con l’espansione del sistema economico (von Hagen e Bruckner, 2002). Inoltre, ogni aggiuntivo surplus di bilancio pubblico che si venga a formare nel corso di una fase ciclica di espansione del reddito al di sopra del valore di trend (g > g*) va destinata al finanziamento delle manovre di politica fiscale discrezionale. La giustificazione teorica di un orientamento pro-ciclico della politica fiscale anche in una fase di espansione risiede nella presenza di disoccupazione strutturale. L’approccio keynesiano attribuisce infatti alla politica fiscale il compito di ridurre la disoccupazione strutturale. La concezione keynesiana della fiscal stance non è di facile attuazione. Il principale problema consiste nelle voci di spesa pubblica da privilegiare, allo scopo di garantire un incremento del capitale umano che permetta l’assorbimento della disoccupazione strutturale e di evitare che sprechi si accompagnino alla gestione politica dei fondi pubblici. In sintesi, le due regole fiscali determinano variazioni della fiscal stance il cui valore è positivo o negativo in relazione al valore che assume la differenza fra la variazione del surplus risultante dalla crescita del reddito e la sommatoria delle grandezze in parentesi quadra (le suddette modalità di impiego del surplus che 67 caratterizza ciascuna regola fiscale). Un valore positivo della differenza indica una restrizione fiscale: non tutto il surplus che si è venuto a creare nel periodo viene speso. Mentre un valore negativo indica un’espansione fiscale, ovvero un ammontare superiore rispetto al surplus che si è venuto a creare nel periodo viene speso. Scriviamo la variazione della fiscal stance che esprime la Tax Smoothing (equazione 12.22) e la Expernditure Smoothing (equazione 12.23) al netto della spesa per interessi: (12.22) ∆vt (TS ) = ∆ν t * + [ λτ 1 t −1 ( g t − g *) − λ2γ t −1 ( g t − g *) ] − iB / Y la variazione della fiscal stance secondo la regola del TS prescrive che al surplus Δν* che si forma con il reddito di trend vada aggiunto un accantonamento nel periodo di “vacche grasse” - al tasso costante τt-1, se (gt–g*) > 0, λ1 = 1; se (gt–g*) < 0, λ1 = 0 - e sottratta una spesa nel periodo di “vacche magre” - al tasso γ t-1, se (gt–g*) < 0, λ2 = 1; se (gt – g*) > 0, λ2 = 0. (12.23) ∆ν t ( ES ) = ∆ν *t − [λ3γ t −1 ( gt − g*)] − iB / Y la variazione della fiscal stance secondo la regola del ES prescrive che al surplus Δν* che si forma con il reddito di trend vada sottratta una spesa nella fase di espansione – λ3 = 1 se (gt – g*) > 0 e λ3 = 0 se (gt – g*) < 0 – che si va ad aggiungere al finanziamento della spesa pubblica necessaria a mantenere un rapporto costante con il trend di crescita del PIL (γt-1 g*). Come si è detto, l’obiettivo è assorbire la disoccupazione strutturale. L’interazione strategica fra banca centrale e governo 68 L’interazione fra politica monetaria e politica fiscale che viene a determinarsi in un paese è analizzata dalla teoria macroeconomica come un gioco di coordinamento con conflitto di interessi. Le assunzioni sulle preferenze di banca centrale e governo sono le seguenti: l’autorità fiscale attribuisce un’importanza prioritaria agli obiettivi di occupazione e di reddito; l’autorità monetaria ha l’obiettivo prioritario della stabilità monetaria e cerca di perseguire questi due obiettivi soltanto in via secondaria. Presenteremo ora le due forme particolari di coordinamento con uno Stackelberg leader, lo schema di gioco in cui un giocatore muove per primo e condiziona il comportamento dell’altro giocatore. Nel gioco fra autorità monetaria ed autorità fiscale, un’autorità si coordina con l’altra in quanto si trova nelle condizioni di dover accettare l’esito preferito dall’altra. L’opinione della letteratura si divide sul tema del coordinamento fra autorità monetaria e autorità fiscale. L’analisi viene condotta secondo l’approccio definito di “dominanza monetaria” adottato dal monetarismo e dai modelli della “nuova sintesi neoclassica”, e successivamente secondo l’approccio definito di “dominanza fiscale”. Dominanza monetaria Ipotizzando una struttura del gioco di tipo sequenziale, i pay-off in Figura 4.1 riflettono l’assegnazione alla banca centrale del ruolo di Stackelberg leader nell’interazione strategica con il governo al fine di conseguire l’obiettivo prioritario dell’inflazione “zero”. Il pay-off massimo per l’autorità monetaria si realizza con il coordinamento di entrambe le autorità nella strategia restrittiva. Il governo ha invece l’ordine di preferenza opposto: il livello di reddito è anteposto ad un obiettivo di inflazione ed il pay-off massimo è quindi associato al coordinamento di entrambe le autorità nella strategia espansiva. Figura 7. Chicken Game tra politica monetaria e politica fiscale POLITICA FISCALE Restrizione Restrizione Espansione 4,2 -1 , -1 69 POLITICA MONETARIA Espansione 0,0 1, 3 La soluzione del gioco fra autorità monetarie e fiscali viene presentata da questo approccio mediante gli equilibri di Nash del Chicken Game (CG) in Figura 4.1. I possibili equilibri di Nash sono due: l’equilibrio di “dominanza monetaria” - la comune adozione della strategia di restrizione, dove è massimo il pay-off delle autorità monetarie – e l’equilibrio di “dominanza fiscale” - la comune adozione della strategia di espansione, dove è massimo il pay-off delle autorità fiscali. Dalla matrice dei pay-off risulta essere Pareto-ottimo l’equilibrio denominato di “dominanza monetaria” (MD): le autorità monetarie fissano la strategia in grado di assicurare la stabilità monetaria ed il governo assume un comportamento restrittivo, conforme all’obiettivo prioritario prescelto dalla banca centrale. Il motivo risiede nell’assunto secondo il quale il coordinamento fra le due autorità su politiche di segno espansivo fornisce un pay-off sociale inferiore al coordinamento su politiche di senso restrittivo. Vediamo in Figura 1 come viene concepito il gioco. Qualora il governo fosse orientato a perseguire una manovra espansiva, nonostante la strategia di “restrizione” annunciata dall’autorità monetaria, il gioco rischierebbe di concludersi con l’esito peggiore per ambedue le autorità: la coppia di pay-off (–1, -1) corrispondente all’espansione fiscale e alla restrizione monetaria. Nell’agire da Stackelberg leader, la banca centrale evita di essere indotta a adottare, dopo un’espansione fiscale, la strategia “espansione” (il basso pay-off rispecchia il fallimento dell’obiettivo prioritario della stabilità monetaria). La banca centrale è in grado di imporre la convergenza del governo sul coordinamento di “restrizione” a condizione che abbia una reputazione anti-inflazionistica tale da rendere credibile l’impegno annunciato di non deflettere dalla scelta della strategia “restrizione”. Nel perseguire con coerenza un orientamento rigidamente restrittivo, l’autorità monetaria riesce a costringere il governo a condividere la decisione sulla monetary stance e perciò ad imprimere un indirizzo restrittivo alla politica fiscale. In questo 70 approccio la comune strategia restrittiva delle due autorità configura l’equilibrio di Nash di “dominanza monetaria”, che - per i valori assegnati ai pay-off - è anche la soluzione più vantaggiosa per la società (la somma dei pay-off è massima). Quando le autorità monetarie perseguono rigorosamente una strategia antiinflazionistica la politica monetaria è definita “attiva”. Il comportamento del governo deve rimanere “passivo” rispetto alla strategia di politica monetaria della banca centrale e seguire una fiscal stance coerente con il vincolo intertemporale del bilancio pubblico (VIBP), anche definita Regime Ricardiano (RR). La subalternità del governo all’autorità monetaria trova legittimazione nella teoria dell’“equivalenza ricardiana”. Con soggetti ricardiani, gli interventi fiscali di stabilizzazione non hanno efficacia sull’equilibrio macroeconomico. Nell’inglobare la proposizione di “inefficacia della politica fiscale”, l’equilibrio Pareto-ottimo di dominanza monetaria implica la validità della teoria dell’equivalenza ricardiana. Dominanza fiscale Le cose cambiano se si assume che sia invalida l’ipotesi di equivalenza ricardiana (ad esempio, perché la razionalità limitata degli agenti impedisce il formarsi di aspettative razionali; oppure, perché la realizzazione dei loro programmi di consumo è soggetta ad un vincolo di liquidità). Nel cosiddetto “Regime Non-Ricardiano” (RNR), le politiche fiscali di stabilizzazione possono essere efficaci nell’aumentare il livello di occupazione e di reddito. Pertanto, nel gioco fra le due autorità, il governo assume il ruolo di Stackelberg leader e la politica fiscale viene definita “attiva” (Leeper, 1991). Una parte delle scorte liquide aggiuntive che la formazione di un deficit pubblico rende disponibili per gli agenti viene destinata al consumo e si mette in moto un processo di moltiplicazione del reddito. Gli agenti non prendendo in considerazione l’eventualità di tasse future considerano i titoli pubblici emessi a fronte della spesa pubblica un’aggiunta alla propria ricchezza netta; di conseguenza 71 anche l’“effetto ricchezza” contribuisce ad aumentare le decisioni di consumo. Abbiamo visto che nell’approccio della “nuova sintesi neoclassica” la matrice dei pay-off è costruita in modo che si realizzi l’equilibrio Pareto-ottimo di “dominanza monetaria”. Quale equilibrio si raggiunge nel caso di “dominanza fiscale”? In effetti, il quadro teorico si presenta meno chiaro che nel caso di “dominanza monetaria”. Nell’accettare la visione monetarista secondo la quale la determinazione del livello dei prezzi è di competenza esclusiva della politica monetaria, l’approccio della “nuova sintesi neoclassica” interpreta il VIBP come un’identità (Buiter, 2002). Essa afferma che il governo, al pari delle famiglie e delle imprese, è obbligato a soddisfare il vincolo per qualunque livello dei prezzi e dei tassi di interesse futuri. Di fronte ad ogni possibile causa di peggioramento delle finanze pubbliche, e quindi di un eventuale mancato rispetto del VIBP, il governo è obbligato a provvedere, programmando più elevate entrate fiscali nei periodi futuri. Se non lo fa, oppure se la strategia annunciata non è credibile, gli operatori finanziari reagiranno imponendo nei mercati un incremento del tasso di interesse, cosicché ai possessori di titoli pubblici verrà riconosciuto un “premio per il rischio” di default del governo. Quale che sia la modalità, quindi, il VIBP è soddisfatto come identità. La revisione dei prezzi e dei tassi di rendimento che consegue a ciascuna emissione di titoli del debito pubblico trova però un limite nella credibilità del governo agli occhi degli operatori finanziari. Nel Chicken Game, in presenza di una banca centrale che tiene fede all’impegno a giocare “restrizione”, data l’ipotesi di RR, una fiscal stance espansiva non può che condurre all’esito peggiore. Nella visione monetarista, l’incapacità delle politiche fiscali keynesiane di incidere sul livello di attività economica implica che la spesa pubblica finanziata con emissione di titoli finirà nel lungo periodo per costringere la banca centrale ad innescare un processo inflazionistico. Due economisti statunitensi, Thomas Sargent e Neil Wallace (1975), hanno elaborato un modello di “unpleasant arithmetics” dove si dimostra che l’accumulazione di debito pubblico causata dalle politiche fiscali di stabilizzazione è destinata ad imbattersi in un “limite massimo”, in ultima analisi riconducibile alla 72 solvibilità fiscale del governo. Nel processo di ottimizzazione dei propri portafogli, infatti, i risparmiatori finiscono per non aumentare al di sopra di una soglia massima la quota di ricchezza finanziaria in titoli pubblici. L’autorità monetaria è quindi costretta ad intervenire per soddisfare il VIBP attraverso il “signoraggio”. La politica che prende il nome di “signoraggio” intende evocare la potestà del signore medievale si attribuiva di mutare a proprio piacimento il valore della moneta, ad esempio modificando il contenuto aureo della moneta-merce. Ai nostri giorni, la principale fonte di signoraggio consiste nell’incremento del tasso di inflazione che consegue all’immissione di moneta nei mercati primario e secondario per acquistare titoli. La Fiscal Theory of the Price Level (FTPL) (Leith e Wren-Lewis, 2000); Canzoneri e Diba, 2003) offre una spiegazione alternativa della dominanza fiscale. L’incremento dei prezzi sarebbe la conseguenza non di un’espansione monetaria attuata dalla banca centrale, ma del regime non-ricardiano generato dal comportamento del governo. Si supponga che il governo ricorra ad un impulso di spesa pubblica finanziato con emissione di nuovo debito pubblico, e che la banca centrale tenga fede all’orientamento restrittivo annunciato aumentando il tasso di interesse. L’“effetto ricchezza” messo in moto dall’incremento delle attività finanziarie in portafoglio, determina un eccesso di domanda che sfocia in un’accelerazione dell’inflazione. Pertanto, il processo di moltiplicazione dell’output viene spento sul nascere e la politica fiscale finisce per influenzare solo le variabili nominali: tassi di interesse e prezzi. (Christiano e Fitzgerald, 2000). In tal modo, il VIBP è una condizione di equilibrio che viene soddisfatta attraverso la riduzione che l’incremento dei prezzi produce nel valore reale del debito pubblico, che verrà così ad eguagliarsi al valore attualizzato dei surplus di bilancio che nei periodi futuri dovranno estinguerlo. Lo schema logico proposto dalla FTPL può essere espresso sinteticamente in questi termini. Assumiamo che la ricchezza dei soggetti sia composta solo da moneta (M) e titoli pubblici (B). La ricchezza in termini reali (W) è quindi eguale a: 73 W = (M + B) / p Se la velocità di circolazione è normalizzata a 1, l’identità fra quantità di moneta (M) e reddito nominale (Yp) può essere espressa come: M/p=Y, e la relazione fra livello dei prezzi e stock di debito pubblico: p = B / (W - Y) La FTPL interpreta questa equazione come una condizione di equilibrio dove ad ogni incremento dello stock di titoli deve corrispondere un incremento proporzionale del livello dei prezzi. In conclusione, la visione monetarista ritiene che il rispetto del VIBP sia garantito dal coordinamento di “dominanza monetaria” conseguibile in virtù della reputazione della banca centrale, che deve essere tale da indurre il governo a convergere nella strategia della restrizione. Nella visione della FTPL, invece, il governo non si sente impegnato al rispetto del VIBP e i consumatori non ricardiani hanno la percezione che i titoli posseduti in portafoglio rappresentino ricchezza netta (Woodford, 2001). Sotto questa ipotesi l’esito del gioco è la dominanza fiscale: il governo determina la crescita del livello dei prezzi ed il rispetto del VIBP è così assicurato dall’abbattimento del valore reale dello stock di debito pubblico indotto dall’effetto espansivo sul consumo dovuto all’effetto ricchezza. Benché la FTPL non sia riuscita a soppiantare la visione ortodossa della “dominanza monetaria”, è un fatto che molti processi di decumulazione di alti debiti pubblici si siano giovati di fasi di inflazione molto elevata, a cominciare dalla crescita rapida e notevolissima dei prezzi che ha caratterizzato entrambe le “guerre mondiali”. 74 Parte Seconda. Politica Monetaria e Fiscale dell’Unione Monetaria Europea 1. L’Unione Monetaria Europea: la formazione di un’area valutaria Sulle vicende storiche dalle quali nascono le istituzioni cui fa capo la produzione dei beni pubblici di un paese – magistratura, polizia, difesa, sistema fiscale, istruzione, sanità, etc. - la produzione scientifica è abbondante e prodiga di interpretazioni. Lo stato dell’arte è invece insoddisfacente per quanto riguarda un’altra istituzione fondamentale: la moneta. Non è infatti semplice dare una definizione perspicua di che cosa sia la moneta; tanto meno nell’area dell’euro, giacché i paesi che adottano la nuova valuta non formano uno Stato federale. Nella figura 1, sull’asse verticale compare il grado di simmetria (tanto minore è il grado di esposizione di un paese ad uno shock asimmetrico, tanto maggiore la simmetria con il resto dell’area) e sull’asse orizzontale il grado di integrazione economica (tanto maggiore è l’interscambio commerciale, tanto più integrati sono i mercati dei paesi dell’area valutaria, tanto più la competizione di mercato eguaglia il prezzo di vendita dei beni). La Figura 1 presenta una linea continua: è la linea costituita dai punti di eguali valori delle coordinate simmetria e integrazione, ovvero i costi dell’adesione sono eguali ai benefici dell’adesione. Essa separa l’area superiore di ottima area valutaria (AVO), da quella inferiore dove i costi dell’adesione a una moneta comune superano i benefici. La pendenza negativa indica che quanto più basso è il grado di simmetria (e cioè quanto più esposto è un paese a uno shock asimmetrico) tanto maggiore – per ogni dato livello di integrazione – dovrà essere la flessibilità del mercato del lavoro. In tal modo, una più alta elasticità della disoccupazione al salario compenserà una troppo alta esposizione a shock asimmetrici. Alla destra della linea AVO, dato il grado di simmetria, la flessibilità del mercato del lavoro è sufficientemente ampia, a 75 sinistra è insufficiente. L’assunzione comunemente presente in letteratura è che all’inizio dell’unione monetaria solo i paesi del Centro (EMU-7) si collocassero completamente all’interno dell’area superiore (benefici superiori ai costi), mentre quelli della Periferia (EMU-5) erano al di sotto. Se i paesi della Periferia fossero riusciti ad aumentare la suddetta elasticità e quindi migliorare la competitività di prezzo la linea AVO si sarebbe spostata verso il basso, in modo da includere anche questi paesi nella zona del grafico in cui l’unione monetaria è per loro “ottima” (benefici superiori ai costi). Figura 1. Area Valutaria Ottima (Optimal Currency Area) symmetry OCA EMU-7 NO OCA EMU-5 Integration Pertanto, un’area valutaria si definisce “ottima” se la sovranità monetaria esercitata della valuta comune produce - per l’aggregato degli stati che l’adottano - benefici che eccedono i costi. Se i criteri in base ai quali si dà vita ad un’area valutaria fossero esclusivamente quelli economici, una nuova valuta che subentri ad una pluralità di valute “regionali” non dovrebbe estendere la propria sovranità oltre la “regione marginale”, da intendersi come la regione che presenta l’eguaglianza al margine fra benefici e costi dell’inclusione nell’area valutaria. Le vicende storiche finiscono 76 comunque per determinare entità statuali i cui confini spesso non sono conformi a quelli definiti dai criteri di ottimalità economica. Un processo di integrazione vede di solito coinvolti sistemi economici anche molto distanti per livello tecnologico delle produzioni e meccanismi di aggiustamento macroeconomico. Per decidere la propria adesione, i governi hanno dovuto valutare se le politiche economiche che erano chiamati a realizzare avrebbero consentito di soddisfare il “vincolo di partecipazione”, ovvero la condizione che per il paese la differenza attesa fra benefici e costi fosse positiva. D’altro canto, le interdipendenze economiche sono pervasive: un paese caratterizzato da forte instabilità macroeconomica può infatti rappresentare un’esternalità negativa per tutti i membri dell’area valutaria. La formazione dell’area valutaria si è quindi configurata come un gioco strategico in condizione di incertezza, dove il calcolo del “vincolo di partecipazione” di un paese dipendeva da quello di tutti gli altri ipotetici membri dell’area valutaria. In effetti, il progetto di un’area valutaria europea è stato avviato nell’aspettativa che ne sarebbe sortito un incremento del benessere comune. Non esiste, d’altro canto, alcuna garanzia che dal valore positivo della somma algebrica dei guadagni e delle perdite attesi per l’area valutaria nel suo complesso consegua un valore positivo anche per ciascuno dei paesi che ne avrebbero fatto parte. Occorre dunque trovare un accordo sui criteri di ammissione. Ad esempio, lo SME, il Trattato di Maastricht, il PSC, e la più generale cornice istituzionale hanno permesso il raggiungimento del “miglioramento paretiano” di una minore instabilità macroeconomica, dopo i decenni di alta inflazione e disoccupazione. Ciascun governo ha dovuto accettare un trade-off intertemporale: intraprendere politiche macroeconomiche dirette a creare nel breve periodo la disinflazione ed il riequilibrio delle finanze pubbliche, nell’aspettativa di ricevere un “dividendo” dall’incremento di benessere comune che si sarebbe realizzato nel medio-lungo termine. L’opinione prevalente, come si è detto, è che al suo nascere l’UME non rappresentasse un’area valutaria “ottima”. La relativa facilità con cui i paesi dell’UME hanno ciò nonostante raggiunto l’accordo sulla composizione dell’area 77 valutaria è così sintetizzabile. L’incertezza sul futuro rende il “velo di ignoranza” sui guadagni e sulle perdite che si realizzeranno nel corso degli anni sufficientemente spesso da impedire una precisa valutazione sulla loro distribuzione fra i singoli paesi. La Germania ed i paesi dell’ “area del marco” osteggiarono a lungo la nascita dell’UME a dodici paesi, nel timore che la somma algebrica fra benefici e costi potesse risultare collettivamente negativa nel caso fossero stati ammessi i paesi mediterranei. Il “velo di ignoranza” e la ragionevole aspettativa che il varo di una moneta unica che si andava ad affiancare al mercato unico avrebbe permesso un sostanzioso allargamento della “torta”, aiutò la scelta politica di una “grande UME” a prevalere sui dubbi dell’economia. La creazione del mercato unico in Europa, avviata nel 1957 e culminata nel 1993, ha rappresentato una politica dell’integrazione in sintonia con il criterio di valutazione dell’“ottimalità” di un’area valutaria sostenuto da Ronald Mc Kinnon: il grado di apertura commerciale. L’unione monetari realizzata nel 1999 dovrebbe rappresentare il secondo grande cambiamento strutturale in sintonia con l’integrazione economica. L’area valutaria europea è formata in prevalenza da imprese in concorrenza monopolistica e da paesi che presentano una netta preponderanza dei flussi di merci intra-area rispetto a quelli extra-area. Favorendo l’ulteriore espansione degli scambi commerciali fra paesi che producono gli stessi beni, l’unione monetaria dovrebbe restringere la divergenza tra i prezzi ( si ricordi la “legge del prezzo unico”) e ridurre la probabilità di shock asimmetrici. 2. Ottimalità di un’area valutaria I costi dell’adozione di una valuta comune si connettono innanzitutto alla perdita dell’opzione alternativa della flessibilità del cambio nominale: tanto maggiore è la probabilità per un paese di subire uno shock asimmetrico, tanto maggiore è il costo del passaggio alla valuta comune (il costo-opportunità di non potere utilizzare il tasso di cambio della propria valuta come strumento di politica economica). L’aspettativa di benefici eccedenti i costi si fonda sull’idea che all’integrazione commerciale 78 conseguirà una maggiore simmetria negli shock. Con la riduzione dell’eterogeneità dei cicli economici nazionali, ovvero della diversità fra paesi riguardo al periodo in cui hanno luogo gli shock o all’ampiezza dello scostamento di inflazione e output dai valori di equilibrio, dovrebbe declinare nel tempo l’antinomia fra l’uniformità dell’esposizione alla politica monetaria comune e l’eterogeneità delle condizioni macroeconomiche dei singoli paesi. In primo luogo, la liberalizzazione dei movimenti di capitale - nel rendere possibili rapidi spostamenti di attività finanziarie da un mercato all’altro di dimensioni tali da influenzare in modo significativo i tassi di cambio - ha vanificato il ruolo di stabilizzazione della politica valutaria. In secondo luogo, la moderna teoria macroeconomica, nell’attribuire importanza prioritaria alla stabilità monetaria, ha ridimensionato l’importanza di possedere una propria valuta. Un’economia che presenta una divergenza reale (una minore dotazione o produttività delle risorse) rispetto alle economie più “forti” con le quali è in competizione sui mercati, non deve porvi rimedio con politiche macroeconomiche “non annunciate” che inneschino un’inflazione “a sorpresa” e la conseguente svalutazione del cambio. Politiche monetarie e fiscali incoerenti con i valori-obiettivo di inflazione ed output hanno la sola conseguenza di aggiungere alla divergenza reale la divergenza nominale (il tasso di inflazione). Alla strategia di breve periodo di sostenere le esportazioni attraverso la flessibilità del tasso di cambio andrebbe preferito il commitment di evitare la tentazione dell’aggiustamento nominale “legandosi all’albero maestro”. Nel caso dei paesi dell’UME, l’albero maestro è l’euro. L’adozione di una valuta comune sancisce l’impegno a non farsi “guerre commerciali”e ad adottare le politiche più appropriate per migliorare i “fondamentali” dell’economia. D’altronde, i costi di uscita dalla valuta comune sarebbero elevatissimi: gli alti tassi di interesse che graverebbero su attività finanziarie nuovamente denominate nella valuta nazionale, la fiducia nella quale si è però azzerata con il passaggio all’euro. Nella prospettiva teorica dell’impulso che l’euro dovrebbe dare alla formazione di un unico ciclo economico europeo è stata avanzata la tesi che un’insieme di paesi non debba necessariamente 79 possedere ex ante la caratteristica di essere un’area valutaria “ottima” per decidere l’introduzione di una valuta comune. Il crisma dell’ottimalità verrebbe acquisito dall’UME ex post (Frankel e Rose, 1998; Rose, 2000). Alcuni benefici, relativi alle funzioni di unità di conto e mezzo di scambio della moneta, sono immediati. Ad esempio, la maggiore trasparenza dei segnali di mercato, conquistata con l’uniformità valutaria del prezzo dei beni in tutti i mercati dell’eurozona è un impulso alla concorrenza. Benefici non secondari sono anche l’azzeramento dei costi di transazione legati al cambio da una valuta all’altra (le commissioni bancarie) e, più in generale, la maggiore efficienza nei servizi di liquidità. I più importanti benefici saranno però appropriabili e verificabili solo nel medio-lungo periodo, in seguito all’impulso all’integrazione commerciale ed alle funzioni dell’euro come mezzo di pagamento internazionale. La fine della volatilità del tasso di cambio nominale esercitò in alcuni paesi dell’eurozona un forte impulso all’incremento delle imprese esportatrici: le prime analisi quantitative sull’impatto dell’introduzione dell’euro sul commercio intraUME stimano un incremento del loro numero compreso fra il 5% ed il 10% (Baldwin, 2006). Con l’annullamento del rischio di cambio, le aspettative sulla domanda futura nei mercati dell’UME risultano meno aleatorie. Ci si attende anche che la valuta comune riduca notevolmente il rischio sistemico sulle decisioni di investimento, producendo così un effetto propulsivo sulla crescita economica. Un rilevante beneficio per il finanziamento degli investimenti proviene dall’abbassamento del tasso di interesse seguito all’annullamento del “premio per il rischio” di tasso di cambio. Anche il “premio per il rischio” di default (esigibile in base al grado di solvibilità fiscale di un paese gravato da un consistente debito pubblico) è pressoché assente: i differenziali fra i tassi di interesse dei titoli pubblici sono oggi molto esigui. Va però aggiunto che la riduzione del costo del danaro non è un beneficio irreversibile. Benché i vincoli del PSC non concernano direttamente il debito pubblico, tutti i paesi dell’eurozona con uno stock di debito pubblico superiore al 60% del PIL continuano ad essere soggetti all’impegno di provvedere al ritiro del 80 quantitativo eccedente il limite. Né i mercati finanziari internazionali paiono disposti ad accettare che i governi nazionali confidino sull’euro quale perenne garanzia della propria solvibilità fiscale per dilazionare l’abbattimento del debito pubblico. La violazione del limite del 3% per il rapporto deficit / PIL potrebbe indurre gli operatori finanziari a chiedere nuovamente un “premio per il rischio“ di default, innalzando il tasso di interesse sul debito pubblico di uno o più paesi dell’UME. 3. Instabilità macroeconomica e convergenza nominale Uno dei motivi per i quali un gruppo di paesi ha raramente dato vita ad un’unione monetaria senza avere in precedenza realizzato un’unione politica è la fiducia che deve accompagnare la nuova valuta una volta introdotta nei mercati. Una moneta circola fra i cittadini di una entità statuale in quanto è unanime la fiducia che il segno monetario verrà accettato come mezzo di estinzione dei debiti. Naturalmente, il crisma della sovranità monetaria non viene acquisito da una valuta nel momento in cui un atto giuridico ne dichiara l’entrata in circolazione. I problemi di credibilità che la lira incontrò nei mercati finanziari europei nei primi due decenni del Regno d’Italia, al punto da rendere necessaria l’introduzione del corso forzoso, indicano che la reputazione viene conquistata nel corso di un lungo processo di costruzione della fiducia. 4. Dal Sistema Monetario Europeo all’Unione Monetaria Europea Con la costituzione dell’Unione Monetaria Europea (UME) si è creata una valuta che non porta sui biglietti e sulle monete il sigillo di un potere statuale, ma sarebbe sbagliato pensare che l’euro sia nato per una sorta di supremazia acquisita dall’economia sulla politica. Anche nel caso di questa “moneta senza stato”, le 81 motivazioni politiche si sono infatti fortemente intrecciate con le motivazioni di efficienza economica, e spesso hanno fatto aggio su queste ultime. L’aspirazione all’unificazione monetaria è una costante della storia europea da quasi due secoli. Sebbene abbia avuto realizzazione soltanto a cavallo del millennio, essa trovò espressione già nel XIX secolo. La formazione dello stato unitario in Italia (1861) ed in Germania (1871) generò due unioni monetarie. In quegli stessi anni videro la luce anche due accordi valutari. Il primo fu l’Unione Monetaria Latina, l’accordo del 1865 (che durò, fra alterne vicende, fino al 1926) fra Belgio, Francia, Italia e Svizzera, con l’adesione della Grecia nel 1868 e poi anche di altri paesi, consistente nell’emissione di monete di oro e di argento con eguale contenuto. Il secondo fu l’Unione Monetaria Scandinava, creata nel 1872 da Danimarca, Norvegia e Svezia e imperniata sulla doppia circolazione della moneta nazionale e di una moneta comune, nell’ambito del sistema del gold standard e dissolta con la prima guerra mondiale. L’aspirazione all’unificazione monetaria ha ricevuto un nuovo impulso nel 1970, quando il Consiglio dei ministri della Comunità Europea diede l’incarico ad un comitato di esperti presieduto dal Primo ministro lussemburghese Pierre Werner di studiare la possibilità di dar vita all’unione monetaria. Il Rapporto Werner, fissava una serie di tappe per la realizzazione dell’unione monetaria, da portare a compimento entro il 1980. Fra la dissoluzione dell’ordine monetario di Bretton Woods e la crisi petrolifera del 1973-74, ebbe breve vita (dall’aprile 1972 al dicembre 1974) un accordo, conosciuto con il nome di “serpente valutario”, cui parteciparono Germania, Belgio, Olanda e Lussemburgo e, per periodi brevi, anche Italia, Francia e Regno Unito. I paesi aderenti si impegnavano al coordinamento fra i tassi di cambio con l’obiettivo di ridurre le esternalità negative che reciprocamente si determinavano fra i paesi europei a causa dell’autonoma fluttuazione delle loro valute rispetto al dollaro USA. L’accordo tuttavia fallì il suo obiettivo: tutto il peso della correzione necessaria a preservare la catena di parità fra i tassi di cambio avrebbe dovuto essere sostenuto dai paesi a valuta debole, senza che fossero previsti strumenti di concessione di credito che permettessero loro di fronteggiare gli attacchi della 82 speculazione internazionale. Nel marzo del 1979 per iniziativa del Cancelliere tedesco Helmut Schmidt e del Presidente francese Valery Giscard d’Estaing, i paesi della CEE sottoscrissero un accordo per l’introduzione di cambi fissi fra le rispettive valute. L’accordo valutario, al quale non aderì il Regno Unito, prese il nome di Sistema Monetario Europeo (SME). 4.1. L’assetto istituzionale del Sistema Monetario Europeo L’ambizioso obiettivo che i fondatori dello SME si posero nel 1979 era quello di instaurare in Europa la stabilità monetaria. Di fronte alla forte instabilità macroeconomica che negli anni ’70 succedette a due decenni di crescita equilibrata, i paesi europei si erano trovati impreparati. Nel 1973-74, a seguito della guerra dello Yom Kippur, il prezzo del petrolio quadruplicò; un ulteriore forte incremento si ebbe poi nel 1979-80. La traslazione degli accresciuti costi sui prezzi dei beni non fu sempre completa, perché dipendeva dalla capacità delle imprese di mantenere rigido il mark-up. I rinnovi dei contratti salariali, e l’introduzione di meccanismi automatici di indicizzazione, alimentavano una spirale salari-prezzi. In molte economie europee, si registrò un forte incremento del costo del lavoro per unità di prodotto (CLUP). Alla crescita dei prezzi contribuiva una politica monetaria diretta ad “accomodare” la domanda di finanziamento sia del settore privato che del settore pubblico. I processi inflazionistici indebolivano le bilance commerciali e quindi anche i tassi di cambio delle valute dei paesi a più alta dinamica del CLUP. Poiché il meccanismo di inflazione-svalutazione consentiva di recuperare la perdita di competitività subita nei mercati esteri a causa dell’inflazione, i governi vedevano con favore che il cambio venisse lasciato libero deprezzarsi. Tuttavia, le politiche monetarie e fiscali espansive, comportando aspettative e tassi di inflazione in crescita, accentuavano il conflitto distributivo interno; e le svalutazioni competitive non riuscivano a garantire che brevi periodi di incremento delle esportazioni. Nel corso degli anni ’70, il sostegno assicurato alla domanda dalle esportazioni andò declinando. Le difficoltà incontrate nell’affrontare in maniera non cooperativa l’instabilità macroeconomica convinse gli otto governi dei paesi aderenti allo SME ad un mutamento radicale di strategia. 83 L’impegno a seguire una politica monetaria orientata alla difesa di cambi fissi significò “legarsi le mani” con un vincolo esterno (Putnam, 1988). L’adesione allo SME esprimeva la speranza che la bassa inflazione si sarebbe imposta a imprese e sindacati come il bene pubblico da cui tutti avrebbero tratto vantaggio (Giavazzi e Pagano, 1988). L’accordo prevedeva che i tassi di cambio fossero fissi ma aggiustabili. Nei primi anni di vita dello SME, quando una o più banche centrali dichiaravano di non riuscire a tenere fede all’impegno di difendere le loro parità con manovre restrittive, si fece spesso ricorso – durante i week-end, a mercati finanziari chiusi - al riallineamento delle parità centrali. Lo strumento tecnico consisteva nella modificazione delle parità bilaterali del cosiddetto meccanismo dei tassi di cambio (MTC). La duplice banda di oscillazione (verso l’alto e verso il basso) attorno alla parità centrale definiva l’intervallo di tolleranza entro il quale le banche centrali erano al riparo da attacchi speculativi alle rispettive valute. Fino al 1993 la banda fu del ±2,25%, ma margini più ampi (±6%) vennero concessi all’Italia (fino al passaggio alla banda stretta fra il gennaio 1990 ed il settembre 1992) e al Regno Unito durante la sua adesione fra il 1990 ed il 1992. L’assetto istituzionale dello SME è stato definito di tipo asimmetrico. Le politiche monetarie nazionali non venivano coordinate, in quanto si affermò progressivamente l’egemonia del marco tedesco. Vediamo allora le ragioni dell’asimmetria di politica monetaria. Alla nascita dello SME, i divari fra i tassi di inflazione superavano a volte i 10 punti percentuali. Questi divari posero gravi problemi alle banche centrali. Benché il cambio della valuta tendesse ad indebolirsi, esse non potevano deflazionare le proprie economie mediante un’improvvisa “gelata” di liquidità: la cura avrebbe avuto probabilmente l’effetto di uccidere il malato. Supponiamo che in un paese ad alta inflazione, ad esempio l’Italia, un peggioramento della bilancia dei pagamenti con la Germania provochi la riduzione dell’offerta di moneta. È quanto accadde nella prima metà degli anni ’80 quando l’economia italiana subì una perdita di competitività, che 84 causò un saldo commerciale di segno negativo. Un’economia con una dinamica dei costi di produzione più rapida di quella dei principali concorrenti europei incontra difficoltà a frenare la perdita di competitività. Un riallineamento delle parità bilaterali della lira poteva essere solo ritardato dallo strumento amministrativo del controllo dei movimenti dei capitali e dagli interventi di vendita di marchi nei mercati valutari. Per ridurre la frequenza delle richieste di riallineamento, fu creata l’unità di conto europea (European Currency Unit: ECU), una valuta fittizia consistente nel paniere delle valute, ciascuna pesata per il PIL del proprio paese sul PIL totale. In caso di tensioni sui cambi, l’ECU avrebbe dovuto segnalare tempestivamente se, all’interno della banda bilaterale di oscillazione, andasse considerata responsabile del raggiungimento del margine massimo di deprezzamento la valuta a rischio di svalutazione o invece la valuta in apprezzamento. Pertanto, l’ECU avrebbe dovuto fungere da indicatore di divergenza, segnalando alla banca centrale della valuta “deviante” la necessità di porre un deciso ed immediato freno alla crescita monetaria. L’ECU non venne di fatto mai utilizzato allo scopo di individuare la valuta “deviante”. Lo SME divenne presto un sistema di cambi fissi nel quale le condizioni di liquidità all’interno dell’area non venivano determinate su base cooperativa dalle banche centrali ma piuttosto in modo egemonico dalla Bundesbank. Non è difficile comprendere le ragioni che portarono a questo assetto asimmetrico dello SME. In un sistema di cambi fissi fra n paesi occorre stabilire solo n-1 parità bilaterali. Se le parità bilaterali fossero state determinate come il valore di ciascuna valuta rispetto all’ECU, si sarebbe dato vita ad uno SME “cooperativo”. In assenza di un credibile meccanismo di coordinamento, le n-1 parità bilaterali finiscono per essere vincolate al tasso di cambio determinato dalla politica monetaria della banca centrale che si guadagna il privilegio di essere considerata quella che emette l’n-sima valuta. In un accordo finalizzato al ripristino della stabilità monetaria, la Bundesbank emerse come la banca centrale che mostrava maggior determinazione a seguire una rigorosa strategia anti-inflazionistica, ed al contempo apparteneva al paese dotato della struttura produttiva più forte e con estese ramificazioni nel sistema finanziario 85 europeo (l’area finanziaria formata da Germania, Danimarca e Benelux si presentava molto integrata già all’avvio dello SME). Le parità bilaterali del MTC furono concepite come rapporto di ciascuna delle n-1 valute rispetto ad una n-esima valuta. Alla Bundesbank fu di fatto riconosciuta la posizione di n-esima banca centrale. Di conseguenza, il marco tedesco conquistò il ruolo di àncora nominale del MTC e la Bundesbank poté godere del privilegio consistente nella libertà di determinare un obiettivo quantitativo di crescita monetaria tarato sulle condizioni macroeconomiche della sola Germania, piuttosto che su quelle dell’intera zona valutaria a cambi fissi. Nei paesi ad “alta” inflazione, la svolta restrittiva di politica monetaria imposta dalla partecipazione allo SME limitò l’autonomia delle banche centrali nell’accomodare gli incrementi dei costi di produzione attraverso l’aggiustamento delle grandezze nominali. Tuttavia permaneva il problema della divergenza reale, ovvero una dinamica del CLUP tale da mettere a repentaglio la competitività sui mercati esteri e spingere il deprezzamento della valuta fino al limite superiore della banda di oscillazione. Tutti i paesi partecipanti al MTC – ad eccezione della Germania - dovettero ricorrere a numerosi aggiustamenti delle parità di cambio nel periodo 1979-86. I riallineamenti fra le valute non compensavano in tutta la loro ampiezza i differenziali inflazionistici. La logica dei cambi dello SME era quella di essere fissi ma aggiustabili. Tale grado di flessibilità andava però interpretato in modo che non venissero vanificati né l’impegno alla difesa dei cambi né l’incentivo a perseguire l’obiettivo della disinflazione. Pertanto, fra i governatori delle banche centrali si affermò la convenzione per cui la percentuale di aggiustamento delle parità bilaterali da concedere alle valute in difficoltà non dovesse coprire l’intero differenziale di tasso di inflazione di quei paesi con l’ECU. Una prima prova del fatto che il funzionamento dello SME andò progressivamente imperniandosi sulla posizione dominante della Germania è la politica di pegging col marco tedesco seguita dalle altre banche centrali. Come mostrano le stime econometriche (Fratianni e von Hagen, 1990), esse hanno teso a 86 regolare la crescita monetaria in funzione della stabilità del cambio delle rispettive valute con il marco. Con la politica di pegging, i governatori delle banche centrali degli altri paesi dello SME si prefiggevano l’obiettivo di acquisire – attraverso una maggiore credibilità dell’orientamento anti-inflazionistico della politica monetaria – la fiducia nella serietà dell’impegno a difendere i cambi fissi. La Bundesbank ha potuto di fatto decidere la liquidità dell’intera area dello SME appunto perché le n-1 banche centrali degli altri paesi regolavano la propria politica monetaria sulla crescita monetaria del paese con l’n-esima banca centrale. Una seconda prova dell’assetto egemonico assunto dallo SME è il fatto che l’autonomia della Bundesbank nella determinazione della crescita del proprio aggregato monetario non ha sostanzialmente incontrato ostacoli (Farina, 1990). Le banche centrali impegnate a superare una fase di instabilità macroeconomica ed a difendere la propria valuta da attacchi speculativi effettuano di routine interventi nei mercati valutari impiegando le proprie riserve internazionali nel riacquisto della propria valuta. Per facilitare tali operazioni di mercato aperto, lo SME prevedeva la concessione di credito della durata di 3 mesi (very short-term financing facility) da prelevare da un fondo comune alimentato dai contributi di tutti i paesi partecipanti. Poiché questo strumento non era in grado di entrare in funzione tempestivamente, le banche centrali dello SME le cui valute attraversassero una fase di deprezzamento hanno spesso fatto ricorso a manovre di acquisto della propria valuta nel mercato – mediante la vendita di marchi detenuti nelle proprie riserve internazionali – al fine di sostenere il tasso di cambio all’interno della griglia delle parità bilaterali. Tali operazioni di mercato aperto contrastavano però con la politica monetaria della Bundesbank, orientata a stabilizzare le condizioni macroeconomiche della Germania. Ogniqualvolta la banca centrale di un paese con una bilancia dei pagamenti in rosso (ed eventualmente sottoposta ad un attacco speculativo allo scopo di lucrare profitti puntando alla revisione della parità ufficiali nei mercati valutari) abbia operato un intervento di vendita di marchi per sostenere la propria valuta, la Bundesbank ha provveduto a ripristinare le condizioni monetarie preesistenti. Onde 87 impedire l’incremento della quantità di marchi in circolazione provocato dalle vendite effettuate dalle banche centrali della valuta in difficoltà, la Bundesbank attuava una manovra di “sterilizzazione”: la distruzione, attraverso operazioni di mercato aperto di segno opposto, dell’eccesso di marchi rispetto alla circolazione fissata dal proprio obiettivo di crescita monetaria. Le autorità monetarie tedesche non hanno mai voluto tenere in conto l’eventualità che all’origine di una forte deviazione del marco dalla parità centrale - piuttosto che la debolezza di una o più valute dello SME - vi fosse la propria politica del cambio (ad esempio, una manovra diretta a contrastare una tendenza del marco a svalutarsi rispetto al dollaro). È stata questa una ragione non secondaria del mancato impiego dell’ECU come strumento di individuazione della valuta deviante. Con la strategia di volere stabilire in piena autonomia le complessive condizioni di liquidità dell’area dello SME, la Bundesbank ha inteso comunicare a banche centrali, governi e mercati che la Germania non era disposta a condividere con le banche centrali di altre valute il costo dell’aggiustamento di tensioni in cui fossero coinvolte le proprie parità bilaterali. 4.2. L’evoluzione del Sistema Monetario Europeo Esamineremo ora la performance macroeconomica delle varie economie partecipanti allo SME lungo i venti anni che vanno dalla sua costituzione (1979) al passaggio ai cambi irrevocabilmente fissi (1999), preludio all’introduzione dell’euro il 1 gennaio 2002. Ripartiamo i paesi in tre gruppi: 1) Centro, costituito dalla Germania, dai cosiddetti paesi dell’area del marco (Belgio, Olanda, Lussemburgo e Danimarca) e dalla Francia (che, dopo i primi anni di alta inflazione, nel 1989-91 raggiunse una stabilità monetaria pari a quella tedesca); 2) Periferia A, costituita da Italia, Spagna e Regno Unito; 3) Periferia B, costituita da Irlanda, Portogallo e Grecia. Questa ripartizione, benché aggreghi paesi che hanno aderito allo SME in date differenti – tra i paesi della Periferia, soltanto Italia ed Irlanda hanno partecipato allo SME fin dall’inizio - mette in luce la loro diversa posizione riguardo ai due caratteri di fondo del cammino verso l’integrazione monetaria ed economica: 1) il processo di convergenza nominale, che è riflesso dalla distinzione fra Centro e Periferia, in 88 quanto la Germania (e gli altri paesi della cosiddetta “zona del marco”) hanno mediamente presentato tassi di inflazione e di interesse nominale alquanto inferiori rispetto a quelli dei paesi periferici; 2) il processo di convergenza reale, che vede i paesi della Periferia A collocarsi a metà strada fra il Centro ed il gruppo di paesi della Periferia B che nel 1979 presentavano un ritardo in termini di reddito pro capite più elevato rispetto al Centro. Per i paesi che di volta in volta vi hanno aderito, lo SME ha rappresentato il sistema di incentivazione per la lotta all’inflazione. Il conseguimento della convergenza nominale era infatti la pre-condizione per affrontare il problema della convergenza reale. Le vicende dello SME si possono suddividere in tre periodi. Il primo periodo dello SME (1979-86) vide molte revisioni delle parità centrali. Il secondo periodo (1987-1993) fu caratterizzato dall’assenza di riallineamenti dei cambi fissi. Dopo la crisi dello SME del 1992-93, il margine di oscillazione fu allargato dal ±2,25% al ±15%. Consentire un deprezzamento di ben 15 punti rispetto alla parità centrale mette di fatto una valuta al riparo dal pericolo di attacchi: gli speculatori internazionali non sono in grado di mobilitare gli enormi quantitativi di capitale necessari a provocare una svalutazione. Durante il terzo periodo dello SME (1993-98), il meccanismo di imposizione della regola (enforcement) della stabilità monetaria, rappresentato dall’impegno delle banche centrali a difendere le parità fisse – pena la svalutazione e la conseguente perdita di credibilità della politica monetaria come principale strumento della lotta all’inflazione – era ormai privo di efficacia. L’enforcement della convergenza nominale passò così dallo SME ai “criteri di Maastricht”. All’impegno a difendere le parità bilaterali del MTC si sostituì la “regola fissa” dei valori cui fare convergere tasso di inflazione, tasso di interesse, deficit pubblico e debito pubblico. A conclusione di questa ricostruzione dell’avvio del processo di unificazione monetaria in Europa, descriviamo sinteticamente l’evoluzione dello SME e l’andamento delle principali variabili coinvolte nella convergenza nominale. I molti riallineamenti che ebbero luogo nel corso della prima fase dello SME (1979-86) 89 erano la conseguenza della debolezza della bilancia commerciale causata dagli ampi differenziali di tasso di inflazione. Se non avessero potuto beneficiare dello “scudo” dei controlli sui movimenti dei capitali, molti paesi dello SME non sarebbero stati in grado di partecipare al MTC al fianco di paesi con una più ridotta dinamica dei prezzi. Gli ampi differenziali di inflazione, dovuti al fatto che le dinamiche dei costi di produzione ed il grado di rigore di governatori e ministri del Tesoro differivano molto fra i vari paesi, rendevano poco credibili le parità bilaterali (Farina, 1993). Nonostante il controllo sui movimenti di capitali consentisse di allontanare nel tempo l’aggiustamento delle parità bilaterali, i riallineamenti dei tassi di cambio – soprattutto nei primi quattro anni - furono numerosi. L’intonazione restrittiva della politica monetaria non riusciva infatti a porre un freno alla spirale salari-prezzi alimentata da aspettative di inflazione al rialzo. Il conseguente basso grado di credibilità della politica monetaria spingeva gli operatori dei mercati finanziari a frequenti attacchi speculativi nei confronti delle valute che si avvicinavano al margine superiore della banda. Nella Tabella 7.1, sono riportate date ed ampiezza degli aggiustamenti nelle parità centrali espresse in rapporto al marco tedesco, conformemente alla strategia “egemonica” mediante la quale la Bundesbank finiva per regolare la quantità di moneta circolante in tutta l’area dello SME. Nonostante i riallineamenti, l’impegno delle banche centrali a realizzare la disinflazione non venne meno. L’adeguamento del cambio nominale alle divergenze fra le economie reali veniva di volta in volta attuato in una misura tale da annullare solo una percentuale mediamente compresa fra un mezzo e i due terzi del differenziale di inflazione maturato da una svalutazione all’altra. Lo scopo era quello di rendere efficace la partecipazione allo SME “legandosi all’albero maestro”, secondo la nota metafora ispirata al comportamento di Ulisse di fronte alle sirene, e cioè tenere a freno la tentazione di risolvere le tensioni inflazionistiche sul piano dell’ “accomodamento” monetario. L’ancoraggio della propria valuta a quella emessa da una banca centrale ad elevata reputazione anti-inflazionistica era considerata la strategia migliore per convincere da un lato le imprese ed i lavoratori a migliorare 90 l’efficienza del sistema produttivo contenendo la dinamica dei costi, e dall’altro i mercati finanziari del rigore con cui venivano difese le parità di cambio della propria valuta. Tabella 7.1 – Riallineamenti delle parità bilaterali con il marco tedesco: 1973-1993 Francia Italia Olanda Belgio Danimarca Irlanda Spagna Portogallo Regno (*) (*) (*) Unito (**) 24/09/1979 -2,00 -2,00 -2,00 -2,00 -5,00 -2,00 30/11/1979 -5,00 23/03/1981 -6,00 -5,50 -5,50 05/10/1981 -8,50 -8,50 -5,50 22/02/1982 -8,50 -3,00 14/06/1982 -10,00 -7,00 -4,25 -4,25 -4,25 -3,00 -9,00 21/03/1983 -8,00 -8,00 -2,00 -4,00 22/07/1985 -8,00 -3,00 -2,00 07/04/1986 -6,00 -2,00 -3,00 04/08/1986 -8,00 -3,00 -1,00 -3,00 -3,00 12/01/1987 -3,00 08/01/1990 -3,70 14/09/1992 -7,00 16/09/1992 -5,00 -6,00 23/11/1992 -6,00 01/02/1993 -10,00 -6,50 14/05/1993 -8,00 cumulativa -25,50 -44,10 -4,00 -24,40 -27,00 -37,10 -17,80 -12,10 Il trattino indica che la parità della valuta con il marco non ha subito variazioni nel riallineamento delle parità bilaterali. (*) Una casella vuota indica che la valuta non faceva parte al meccanismo di tassi di cambio nell’anno in questione: è il caso della peseta spagnola e dello scudo portoghese fino al 1990 e della lira italiana dopo all’uscita dallo SME nel 1992; (**) la sterlina inglese non ha subito alcun riallineamento durante la permanenza del Regno Unito nello SME 1990- 92. La seconda fase (1987-92) si caratterizzò per l’assenza di riallineamenti. Il processo di completamento del mercato unico si riverberava sullo SME attraverso un più deciso impegno delle banche centrali a rafforzare l’orientamento restrittivo della politica monetaria a difesa delle parità bilaterali con il marco. Una certa convergenza nominale fra le economie - dovuta alla riduzione nei differenziali di costo del lavoro per unità di prodotto, ed alla strategia di disinflazione perseguita da banche centrali e governi – stava producendo l’effetto di rallentare la perdita di competitività dei paesi 91 a più alta inflazione e perciò di rendere le valute “deboli” meno esposte ad attacchi speculativi. La stabilità delle parità fra le valute indusse molti economisti a formarsi l’opinione che lo SME stesse conoscendo un “cambiamento strutturale”. Le autorità monetarie e fiscali dei paesi della Periferia, considerando come ormai acquisita la fiducia dei mercati internazionali nella credibilità delle politiche macroeconomiche, finirono per ritenere che non sussistessero più motivi per attacchi speculativi alla griglia di parità fisse del MTC; in altre parole, che si fosse ormai realizzato il passaggio ad uno SME “forte” (Giavazzi e Spaventa, 1990). Tale convinzione aprì le porte alla decisione dei governi europei ad adeguarsi senza indugi alla tendenza internazionale alla liberalizzazione dei movimenti dei capitali. Benché i persistenti differenziali fra i valori del CLUP non lasciassero presagire una diminuzione della pressione delle bilance commerciali sulle parità di cambio, si procedette con rapidità al definitivo smantellamento degli ostacoli amministrativi alle operazioni finanziarie e valutarie. In tal modo, si finì per aggiungere una fonte nuova di volatilità dei cambi – i movimenti dei capitali – alla tradizionale tendenza a deprezzarsi delle valute delle economie meno competitive. La decisione di liberalizzare conferì ai mercati finanziari internazionali il ruolo di arbitri dell’operato delle banche centrali e dei governi. L’esposizione delle valute dello SME alla speculazione internazionale ne risultò notevolmente accresciuta. In presenza di una progressiva crescita dimensionale degli spostamenti di capitali da un mercato finanziario all’altro, l’andamento dei cambi a termine divenne un segnale rilevante per comprendere le aspettative dei mercati sulle prospettive delle valute “deboli” all’interno delle bande di oscillazione delle parità di cambio. Tale segnale esercitava una pressione sulle banche centrali delle economie con un alto differenziale di inflazione rispetto alla Germania affinché realizzassero una difesa più rigorosa del tasso di cambio fisso con il marco. Il timore che le aspettative di svalutazione causate dai differenziali di inflazione innescassero tensioni speculative contro la valuta indusse le banche centrali dei paesi più esposti ad innalzare i tassi di interesse in una misura superiore a quella richiesta dal pegging con il marco. 92 D’altro canto, la politica fiscale discrezionale si manteneva espansiva, soprattutto nei paesi con alta disoccupazione. Di conseguenza, l’incremento dei tassi di interesse si rendeva necessario anche per la necessità di piazzare i titoli a copertura dei crescenti deficit pubblici. La lunga fase di alti tassi di interesse, perdurata fino a metà anni novanta, si affermò sia per segnalare la credibilità alla difesa dei cambi fissi sia per la necessità di accomodare per tutta la sua ampiezza - e cioè senza il contributo di una riduzione del tasso di interesse tedesco – la remunerazione da riconoscere agli operatori finanziari per due tipi di rischio: 1) il rischio di svalutazione; 2) il rischio di ripudio del debito pubblico (vedi Box 2). Il differenziale di rendimento (rispetto alle attività finanziarie denominate nella valuta leader dello SME) delle attività finanziarie denominate nelle valute “deboli”, ed emesse da governi gravati da un elevato rapporto tra debito pubblico e PIL, si è mantenuto molto ampio per tutti gli anni ‘80. Gli istogrammi in Figura 7.4 mostrano come i paesi della Periferia A - in presenza di tassi di interesse molto elevati – abbiano presentato nella seconda metà degli anni ottanta tassi di crescita molto bassi, inferiori persino a quelli della Periferia B. L’adesione alla Comunità Europea ed il diffondersi in Europa di un clima intellettuale favorevole ad una bassa inflazione indusse altri governi a chiedere ed ottenere l’ammissione nello SME. Il MTC si estese così a tre nuove valute: la peseta spagnola nel giugno 1989, la sterlina inglese nell’ottobre 1990 e lo scudo portoghese nell’aprile 1992. La contraddizione fra cambi fissi ed egemonia del marco tedesco continuava però a rappresentare una minaccia per la stabilità dello SME. Questa debolezza strutturale non era destinata ad emergere fino a che il ciclo economico del paese leader non si fosse distaccato drasticamente dal ciclo economico degli altri paesi dello SME. La ragione è semplice. Immaginiamo che un paese appartenente ad un meccanismo di cambi fissi si trovi in una fase declinante del ciclo economico. Nel piano tasso di interesse-domanda di moneta (Figura 1.2), ciò determina uno spostamento verso sinistra e verso il basso della funzione di domanda di moneta. Saranno gli stessi meccanismi di mercato innescati dalla diversità delle fasi cicliche 93 attraversate dalle economie dei diversi paesi del MTC a determinare spontaneamente lo spostamento di fondi da un paese all’altro, generando una riduzione della circolazione monetaria del paese in fase recessiva ed un aumento della circolazione monetaria degli altri paesi. Una fase declinante del ciclo economico dei paesi della Periferia avrebbe quindi dovuto causare la discesa del tasso di interesse ed una tendenza dei capitali ad abbandonare il mercato finanziario interno in cerca di investimenti più redditizi, in primo luogo in Germania. Questo processo di aggiustamento si inceppò nella realtà più complessa che venne a determinarsi a cavallo degli anni ’90. In quei convulsi anni che videro il crollo dell’Unione Sovietica e dei regimi dei paesi dell’Europa dell’Est, lo shock istituzionale dell’unificazione politica tedesca andò a sommarsi allo shock che le bilance dei pagamenti stavano subendo con il progressivo passaggio alla piena libertà dei movimenti dei capitali: la liberalizzazione dei mercati finanziari fu completata entro la data stabilita del luglio 1990, e la proclamazione della repubblica di Germania avvenne nel novembre del 1990. Questi due shock si rivelarono troppo destabilizzanti per un accordo di cambi fissi che aveva nella “dominanza tedesca” il suo punto di forza ed al tempo stesso la sua principale debolezza. Le tensioni valutarie che ne conseguirono portarono nel settembre 1992 all’uscita di lira e sterlina dallo SME. Esaminiamo allora brevemente le cause di fondo del collasso dello SME. Le crisi valutarie del 1992-93 fecero emergere il problema che si determina in ogni processo di integrazione sia reale che monetaria fra paesi caratterizzati da diverse condizioni macroeconomiche. Tale problema è rappresentato dal cosiddetto “quartetto impossibile”: in presenza di un mercato unico (la libera circolazione di merci, servizi e lavoro), di cambi fissi e di libertà dei movimenti dei capitali, non si dà anche l’autonomia della politica monetaria. La metafora del “quartetto impossibile” intende suggerire che l’obiettivo che aveva dato origine allo SME - il bene pubblico della stabilità monetaria attraverso politiche monetarie che impedissero il verificarsi di processi di inflazione-svalutazione - diventava di dubbia realizzazione 94 una volta giunto a compimento il processo di liberalizzazione dei capitali. I mercati finanziari, consapevoli del fatto che i “fondamentali” di un paese non potevano più a lungo permettere alla banca centrale di mantenere fisse le parità della valuta nella griglia del MTC, avrebbero con ogni probabilità proceduto ad un attacco speculativo. Infatti, fino a che esercitano il potere di emettere moneta, le autorità monetarie dispongono di un’autonomia decisionale che rende incompleto il “contratto” con il quale si sono impegnate con gli altri banchieri centrali a difendere i cambi fissi. Il potere di signoraggio fa sì che le banche centrali, anche se sono vincolate da un accordo di cambi fissi, possano pur sempre venire meno all’impegno della difesa del cambio e mettere in atto un’ “inflazione a sorpresa”. Il problema del “quartetto impossibile” da questione teorica divenne realtà appena dopo il manifestarsi dello shock asimmetrico dell’unificazione tedesca. A tale evento va infatti ricondotto il forte “scollamento” che per la prima volta dalla nascita dello SME si determinò fra il ciclo economico della Germania e quello degli altri paesi dell’Europa continentale (e in particolare l’Italia) che attraversavano una fase recessiva. Questi paesi seguivano il ciclo economico declinante degli Stati Uniti; la Germania conosceva invece un’espansione caratterizzata da forti tensioni inflazionistiche: dal lato della domanda, a causa dei programmi di spesa in investimenti pubblici all’Est e della conversione del marco della DDR con il marco occidentale secondo l’irrealistico rapporto di 1 a 1; e dal lato dell’offerta, a causa del vuoto di produzione creatosi con il collasso industriale nei Laender della Germania Orientale. Nel settembre 1992 la lira italiana e la sterlina inglese, dopo che le rispettive banche centrali ebbero dilapidato nel corso dell’estate ingenti riserve valutarie per resistere ai forti e ripetuti attacchi speculativi, vennero costrette ad uscire dal MTC. Nel corso del 1993, una nuova ondata speculativa investì il franco francese, la peseta spagnola, il franco belga e la corona danese. Questa seconda fase speculativa portò alla decisione di ampliare al 15% i margini di oscillazione. Dal momento che il tasso di inflazione francese era divenuto il più basso dello SME, apparve evidente (quanto 95 meno con riferimento al caso francese) che la valuta alla quale attribuire lo scostamento dalla normale oscillazione attorno alla parità centrale, fosse il marco e la causa risiedesse nelle difficoltà post-unificazione attraversate dalla Germania. Nel dibattito sui regimi di cambio, un orientamento teorico sostiene che le aspettative di svalutazione degli operatori impegnati in attacchi speculativi ad una valuta tendano ad auto-avverarsi (Obstfeld, 1986). Questa tesi delle aspettative che si autorealizzano (self-fulfilling expectations) è senza dubbio attraente. Ed è vero che la liberalizzazione e la globalizzazione finanziaria hanno messo la speculazione internazionale in grado di mobilitare ingenti flussi di moneta trasferibili in tempo reale da un mercato all’altro e da una valuta all’altra. Riguardo allo SME, tuttavia, attribuire ai mercati finanziari la responsabilità del collasso sarebbe una conclusione affrettata. In effetti, diversamente da quanto sostiene la tesi delle self-fulfilling expectations, si può dire che il MTC con margini di oscillazione del ±2,25% avrebbe potuto superare lo shock asimmetrico della riunificazione tedesca. Nell’estate del 1992, di fronte all’indisponibilità della Bundesbank a rinunciare alla propria politica monetaria restrittiva, molti speculatori internazionali si convinsero che la debolezza di lira e sterlina rendeva elevata l’aspettativa di profitti da speculazione sui cambi. La speculazione si realizzò attraverso la vendita di posizioni non coperte in lire e sterline, per poi riacquistare queste valute al più basso prezzo conseguito alla svalutazione ed onorare i contratti a termine. Se la Bundesbank avesse accettato di concedere un ampio finanziamento ai governatori in difficoltà, il coordinamento fra le operazioni valutarie delle banche centrali avrebbe posto a difesa dello SME un ammontare di riserve internazionali da impegnare nell’acquisto di queste valute ben superiore all’ammontare dei capitali mobilitati dalla speculazione finanziaria (Buiter, Corsetti e Pesenti, 2001). Lo SME a banda stretta ebbe termine con la nuova ondata speculativa dell’estate del 1993. La banca centrale tedesca non volle invece accordare pieno sostegno alle richieste di crediti in marchi avanzate dalla Francia. Il timore fu che un ampliamento della circolazione monetaria del marco avrebbe messo a repentaglio la strategia anti-inflazionistica 96 diretta a contrastare l’instabilità macroeconomica seguita alla riunificazione. D’altro canto, le pressioni esercitate nel 1993 sulla Banca di Francia, perché si assumesse l’onere di risolvere la crisi svalutando il franco all’interno della griglia delle parità bilaterali del MTC, non andarono a buon fine. La Francia, promotrice dello SME di concerto con la Germania, non volle che il franco francese apparisse in posizione subordinata rispetto al marco. La terza fase dello SME (1993-98) vide il MTC divenire un semplice simulacro di regime di cambi fissi: la banda allargata del ±15% metteva le banche centrali al riparo da attacchi speculativi. La crisi del 1992-93 segnò lo spartiacque fra la strategia dei cambi fissi e quella dei criteri di convergenza che avrebbe condotto all’unificazione monetaria. La convergenza nominale venne affidata all’impegno delle autorità monetarie e fiscali a raggiungere gli obiettivi fissati dai criteri quantitativi di Maastricht. I quattro criteri per superare l’esame di ammissione alla terza fase del programma di unificazione monetaria, che ha portato alla nascita dell’euro, furono i seguenti: 1) un tasso di inflazione che non eccedesse di più dell’1,5% la media dei tre più bassi valori dei tassi di inflazione nello SME; 2) un tasso di interesse a lungo termine che non eccedesse di più del 2% i tre più bassi valori registrati nei paesi dello SME; 3) un rapporto deficit pubblico / PIL che non eccedesse il 3%; 4) un rapporto debito pubblico / PIL che non eccedesse il 60%. Inoltre, nei due anni precedenti l’ingresso nell’unione monetaria, la valuta doveva fare parte del MTC e non subire svalutazioni. La storia dello SME è racchiusa nelle seguenti evidenze empiriche più significative: 1) La lenta riduzione dell’inflazione (Figura 7.1). Dopo la discesa iniziale del 198286 (favorita dal contro-shock di riduzione del prezzo del petrolio) il tasso di inflazione subisce una risalita alla fine degli anni ’80 (soprattutto nei paesi della Periferia) e soltanto dopo le crisi del 1992 e del 1993 si avvicina o raggiunge il basso livello cui l’inflazione era stata portata in Germania. 97 2) L’incremento della disoccupazione (Figura 7.2). Successivamente alla riduzione degli anni 1987-89, la disoccupazione si stabilizza attorno a valori ancora piuttosto elevati, in particolare nella Periferia A (dove si registrarono tassi di interesse in salita ed una prolungata caduta del tasso di crescita del reddito). Questi dati hanno indotto a formulare l’ipotesi che la devoluzione di fatto alla Germania della determinazione dello stock di moneta in circolazione nell’area dello SME abbia comportato una restrizione monetaria superiore all’obiettivo di sconfiggere l’inflazione, e cioè ad una distorsione in senso deflazionistico della crescita europea. Figura 7.2. SME: tassi di disoccupazione Figura 7.1. SME: tassi di inflazione 25 16 20 14 12 15 10 10 Centro Periferia A Periferia B Centro Periferia A 19 98 19 96 19 94 19 92 19 90 19 88 19 86 19 84 19 82 19 78 19 98 19 96 19 94 19 92 19 90 19 88 19 86 19 84 19 82 4 19 80 0 19 78 6 19 80 8 5 Periferia B 3) Lo squilibrio nei flussi commerciali intra-SME (Figura 7.3). I paesi che hanno dato vita all’Unione monetaria europea costituiscono un’area relativamente chiusa. Di conseguenza, i flussi commerciali intra-SME hanno rappresentato un indicatore di competitività molto importante nella valutazione della credibilità del MTC da parte dei mercati finanziari, esercitando un’influenza rilevante sull’andamento dei cambi. Dall’andamento dei valori del rapporto Partite correnti / PIL in alcuni paesi dello SME si rileva come il surplus commerciale della Germania cresca dalla costituzione dello SME fino allo shock asimmetrico rappresentato dalla riunificazione politica tedesca. All’opposto, si registrano trend decrescenti e caratterizzati da forti deficit per le tre economie della Periferia A (ad esempio, nella fase di cambi stabili 1987-92 l’Italia registra crescenti passivi della bilancia commerciale). 98 Figura 7.3. SME: partite correnti / PIL Figura 7.4. T assi di inflzione, tassi di crescita reali e tassi di interesse a breve termine 8 18 6 16 14 4 12 2 10 8 0 6 -2 4 2 -4 0 19 98 19 96 19 94 19 92 19 90 19 88 19 86 19 84 -2 19 82 19 80 -6 1979/86 Centro 1987/92 Centro 1993/98 Centro 1979/86 Periferia A 1987/92 Periferia A Tassi di inflazione Germania Italia Spagna Regno Unito 1993/98 Periferia A 1979/86 Periferia B 1987/92 Periferia B 1993/98 Periferia B Tassi di crescita del PIL reale Tassi di interesse reali a breve termine Negli anni successivi alle crisi 1992-93, invece, ai valori negativi del rapporto in Germania (causati dalle conseguenze economiche del processo di riunificazione) corrispondono notevoli recuperi nella Periferia A, con il passaggio ad elevati surplus in Italia. Si può ipotizzare che questa robusta correlazione fra gli andamenti speculari dei flussi commerciali del Centro e della Periferia abbia contribuito a determinare i trend di deprezzamento reale del marco e di apprezzamento reale delle valute della Periferia prodotti dai differenziali inflazionistici con la Germania in presenza di cambi fissi. 4) La stagnazione della crescita (Figura 7.4). Il forte incremento dei tassi di interesse ed i bassi valori del tasso di crescita sono probabilmente legati da un rapporto di causalità. Questa evidenza empirica di alti tassi di interesse e bassa crescita è particolarmente chiara nei paesi della Periferia. Nella seconda e nella terza fase, nei paesi della Periferia la tendenza dei tassi di inflazione a decrescere è accompagnata da un forte incremento dei tassi di interesse e dalla caduta dei tassi di crescita dell’economia (tali fenomeni appaiono meno evidenti nella Periferia A che non nella Periferia B perché due paesi - Spagna e Regno Unito - hanno partecipato allo SME per un numero di anni molto esiguo). Il bilancio complessivo dello SME è moderatamente positivo sul piano della disinflazione, e alquanto negativo per quanto riguarda l’incremento della 99 disoccupazione. Il risultato della bassa inflazione è maturato molto lentamente ed è stato pienamente conseguito dallo SME soltanto successivamente ai 15 anni di funzionamento del MTC con banda “stretta” del ±2,25%, e cioè nella terza fase, durante la quale la strategia di integrazione monetaria si è imperniata sui criteri di Maastricht, che imponevano politiche macroeconomiche restrittive. Una possibile spiegazione per la vischiosità delle aspettative di inflazione deriva dalla semplice osservazione che il progressivo – per quanto lento - restringimento del differenziale di tassi di inflazione fra un paese della Periferia e la Germania (il paese con il più basso tasso di inflazione nello SME fino al 1990) non chiudeva, ma rendeva soltanto progressivamente più lento, l’ampliarsi della “forbice” di prezzo fra le merci del paese della Periferia e quelle tedesche. Questa evidenza empirica fa sorgere un interrogativo sul rapporto fra i costi e i benefici di una strategia di disinflazione rigidamente imperniata sull’acquisizione di credibilità delle n-1 banche centrali. L’impegno delle autorità monetarie dei paesi partecipanti allo SME a promuovere la disinflazione si confrontava con un forte disincentivo. Mantenere la valuta all’interno delle bande di oscillazione attorno alla parità centrale del meccanismo di cambi fissi era in contraddizione con il desiderio di politiche monetarie e fiscali “attive”, in grado cioè di sostenere il livello di attività economica con impulsi espansivi sul reddito. In effetti, si tratta di un conflitto fra obiettivi che si presenta ogni volta che un paese accetti di adottare un regime di cambi fissi: l’esigenza di segnalare l’impegno alla difesa del cambio fisso costringeva le n-1 banche centrali – in misura ovviamente diversa, in ragione della diversa reputazione delle autorità monetarie e della diversa affidabilità dei governi – a mantenere elevati i livelli dei tassi di interesse. Un processo di disinflazione che dura più di 15 anni rappresenta un periodo troppo lungo perché la “cura” (le politiche macroeconomiche restrittive) non provochi l’effetto collaterale di debilitare l’organismo. Sono state forse sottostimate le ricadute sull’espansione produttiva e occupazionale della strategia di difendere le parità con il marco legando la creazione di moneta alla politica monetaria della Bundesbank. Se è vero che gli “alti” tassi di 100 interesse hanno contribuito a determinare la bassa a crescita economica, ci si deve chiedere se la stabilità monetaria avrebbe potuto essere ottenuta ad un costo inferiore. Non avendo l’ambizione di offrire risposte definitive, nei prossimi paragrafi ci limiteremo a presentare l’apparato analitico necessario a formarsi un’opinione argomentata sui vari aspetti del processo di convergenza nominale e reale in Europa. 4.3. L’Unione Monetaria Europea Con l’adozione da parte del Consiglio europeo del rapporto Delors (dal nome del presidente della Commissione Europea dell’epoca), nel 1989 si diede l’avvio alla costruzione dell’Unione Economica e Monetaria. Il rapporto Delors prevedeva tre tappe per il cammino che avrebbe condotto all’unificazione monetaria. La prima tappa (1990-1993) consisteva nel rafforzamento della cooperazione nella politica monetaria, dopo la completa liberalizzazione dei movimenti di capitale. Per le tappe successive, che comportavano la creazione della banca centrale e il varo della moneta comune, fu necessario un adeguamento costituzionale. La ratifica del Trattato sull’UE (TUE) - detto anche Trattato di Maastricht, dal nome del luogo in cui fu firmato nel 1991 – rese possibile la seconda tappa (1994-1998) rivolta alla creazione dell’Istituto Monetario Europeo, un’istituzione designata alla preparazione all’integrazione monetaria. Tale organismo ha provveduto a mettere i mercati monetari e finanziari ed il sistema dei pagamenti nelle condizioni di affrontare il passaggio ai cambi irrevocabilmente fissi e l’entrata in operatività della Banca Centrale Europea (BCE). La terza tappa, che corrisponde al periodo di cambi irrevocabilmente fissi (1 gennaio 1999 - 31 dicembre 2001), vide l’adozione dell’euro nelle transazioni finanziarie, l’emissione di titoli pubblici in euro e la possibilità per risparmiatori ed imprese di optare per conti bancari in euro. I criteri di Maastricht segnarono l’accelerazione del processo di integrazione monetaria e l’ampliamento della strategia di coordinamento dalla moneta al bilancio pubblico. La logica del cambio di strategia dai cambi fissi dello SME a banda stretta ai quattro indicatori di convergenza è così riassumibile. Fra il 1979 ed il 1993, l’enforcement della monetary stance anti-inflazionistica era stato affidato alla 101 sanzione dei mercati finanziari internazionali nella forma del riconoscimento di un “premio per il rischio” di svalutazione e di default del governo, da inglobare nel tasso di interesse sulle attività finanziarie denominate nella valuta “debole”. Con l’adozione della banda larga del ±15%, i paesi impegnati nel processo di integrazione monetaria posero virtualmente fine agli attacchi speculativi nei confronti della valuta della banca centrale inadempiente all’impegno anti-inflazionistico. Dal 1993 al 1998 il processo di convergenza nominale venne a fondarsi sulla strategia di enforcement basata su indicatori numerici. Poiché il rispetto dei criteri di Maastricht rappresentava la condizione per la definitiva fissazione delle parità, all’enforcement della minaccia di attacchi speculativi si sostituì l’enforcement della minaccia dell’esclusione dall’unione monetaria. Il criterio aggiuntivo che imponeva la permanenza nel MTC per almeno due anni prima della fissazione definitiva delle parità bilaterali fu soddisfatto con l’adesione dello scellino austriaco nel gennaio 1995, del marco finlandese nell’ottobre 1996 e con il rientro nel MTC della lira italiana nel novembre 1996. Nel maggio 1998, al momento della verifica di congruenza dei quattro indicatori macroeconomici con i parametri di Maastricht, l’obiettivo della convergenza nominale risultò sostanzialmente raggiunto. Undici paesi rispettavano il limite massimo fissato per tassi di inflazione e di interesse, nonché i criteri per deficit e debito pubblico sul PIL. In base ad un comma del Trattato, fu infatti possibile considerare in “sicuro trend decrescente” i rapporti debito pubblico/PIL ben più alti del limite del 60%, di Italia e Belgio e poi anche della Grecia. Una volta definiti i tassi di cambio irrevocabilmente fissi undici valute il 1 gennaio 1999 diedero vita all’unione monetaria. Esattamente un anno dopo, l’ingresso nell’UME della dracma greca (rientrata nel MTC solo nel marzo 1998) portò a dodici il numero di paesi dell’UE che il 1 gennaio 2002 misero in circolazione l’euro. Il 1 gennaio 2007 la Slovenia diviene il tredicesimo paese dell’UME. Nel gioco strategico del coordinamento monetario per ciascuno dei paesi dell’UME il pay-off della partecipazione ha un valore che è funzione del numero 102 degli aderenti. Molti paesi – a cominciare dalla Germania – avrebbero voluto che alcuni paesi dello SME non fossero nel gruppo dei paesi fondatori dell’UME per timore che la loro instabilità macroeconomica e l’inaffidabilità dei loro governi si riverberassero sulla credibilità del nuovo segno monetario. L’“uscita” da un accordo di cambi fissi ma aggiustabili come lo SME, e a maggior ragione l’“uscita” da un accordo di cambi irrevocabilmente fissi, comporta la sanzione di mercato consistente nella perdita di reputazione da parte della banca centrale e del governo che si erano assunti l’impegno di difendere le parità bilaterali. Benché la valuta europea sia un segno monetario cui non corrisponde il potenziale economico di uno stato. I legami fra paesi che si stabiliscono in un’unione monetaria sono ben maggiori di quelli implicati da un accordo di cambi fissi. Il ripristino dell’autonomia di politica monetaria si configura come una vera e propria “secessione”. Si può dire che se un qualunque paese dell’UME decidesse di ritornare al proprio segno monetario i “costi” di uscita (exit) - quelli sopportati dal paese stesso e quelli a carico dei paesi membri - sarebbero molto elevati. I benefici della riduzione dei costi di transazione e dell’incertezza sul cambio, nonché il probabile incremento della quota in euro sul totale delle riserve ufficiali detenute dalle maggiori banche centrali non europee una volta consolidatosi il ruolo dell’euro nei mercati internazionali, sono fattori che innalzano il costo dell’uscita e dovrebbero accrescere il valore della lealtà ai comuni obiettivi (loyalty). Il vero problema, come vedremo più avanti, è la corretta definizione dei comuni obiettivi. Il sostanziale successo della creazione della moneta europea ha indotto i Paesi dell’Europa Centro-Orientale, per i quali il valore dell’adozione dell’euro è molto alto, ad accelerare l’ingresso nell’UME. Tali paesi, oltre ad adeguare norme giuridiche e regolamentazione dei mercati monetari e finanziari, sono impegnati nella realizzazione delle politiche macroeconomiche necessarie per ridurre inflazione e deficit pubblico. 103 5. Tassi di inflazione Applichiamo l’analisi della disinflazione svolta nella Parte Prima, identificando un paese della Periferia (I) con l’Italia e uno del Centro (G) con la Germania. Come si è osservato introducendo il concetto del “quartetto impossibile”, la lunga fase di stabilità valutaria che caratterizzò lo SME fra il 1987 ed il 1992 provocò in molti paesi della Periferia una situazione di incompatibilità fra gli obiettivi della disinflazione e del mantenimento del livello di attività economica. Data la scelta, maturata a metà anni ’80, di evitare aggiustamenti del MTC, il tasso di cambio nominale con le altre valute doveva mantenersi fisso e quindi la monetary stance doveva seguire l’orientamento restrittivo della Bundesbank. Le economie dei paesi della Periferia avevano però performance troppo difformi da quelle dei paesi del Centro. Il tasso di inflazione nel primo paese (πI) superava il tasso di inflazione nel secondo (πG), nella misura determinata dal rispettivo eccesso del tasso di crescita del • • salario ( w ) rispetto alla dinamica della produttività del lavoro ( ξ ). Dato il divario • • • • w I / ξ I > w G / ξ G , si determinava un differenziale inflazionistico: πI>πG. Pertanto, un livello del CLUP maggiore in Italia che non in Germania costituiva un fattore di squilibrio di competitività fra i due paesi. Precedentemente al regime di cambi fissi ma aggiustabili dello SME, la compensazione di un valore minore di uno del rapporto fra il tasso di inflazione in Germania ed il tasso di inflazione in Italia (πG/πI<1) si realizzava attraverso il deprezzamento della lira rispetto al marco (un innalzamento di ê) proporzionale al differenziale inflazionistico determinato dal divario fra i due CLUP, in modo da mantenere invariato il tasso di cambio reale, eˆ = eˆ ⋅ π G / π I . Con il passaggio ai cambi fissi, il tasso di cambio nominale deve essere mantenuto fisso dalla politica monetaria • della Banca d’Italia ( eˆ = 0 ). Poiché la produttività non è modificabile nel breve periodo, la discesa del rapporto π G / π I è sanata dalla variazione del valore del tasso di 104 cambio reale ( ε ), nella misura richiesta dall’eccesso di salario che si registra in Italia. In luogo dell’aggiustamento del cambio nominale (una maggiore quantità di lire per acquistare un marco) si realizza l’apprezzamento del cambio reale (una maggiore quantità di beni italiani per acquistare la medesima quantità di beni tedeschi). Il tasso di cambio reale subisce pertanto una riduzione al di sotto del suo valore di lungo periodo ( ε N ) corrispondente alla parità dei poteri d’acquisto: ε N > ε . 6. Deficit pubblico e debito pubblico Nel processo di convergenza nominale, uno dei criteri da soddisfare per la partecipazione all’unione monetaria era il limite del 3% per il rapporto deficit pubblico/PIL. La Commissione Europea ha imputato ai governi europei di non avere introdotto le riforme necessarie a rendere la struttura delle finanze pubbliche adeguata ai due obiettivi della stabilizzazione macroeconomica e della decumulazione del debito pubblico. Le fiscal stance dei paesi dell’UME sono state oggetto dei seguenti rilievi: 1) non avere applicato il Tax Smoothing (§ 4.5), lasciando incrementare il rapporto deficit pubblico/PIL nelle fasi espansive del ciclo invece di accantonare un surplus di bilancio da utilizzare nei periodi di “vacche magre”; 2) avere rinunciato ad una strategia di lungo periodo rivolta alla riduzione degli alti rapporti debito pubblico/PIL, lasciando che nelle fasi recessive la lenta dinamica del denominatore accrescesse il valore del rapporto debito pubblico/PIL. La tesi sostenuta dalla Commissione Europea è che nei paesi dell’UE - ad esclusione di Lussemburgo, Regno Unito, Finlandia, Irlanda e Svezia - “la maggior parte dell’incremento del rapporto debito pubblico/PIL ebbe luogo nei periodi di nonrecessione, allorché le politiche di bilancio non controbilanciarono gli effetti della recessione sulla dinamica del debito, ma lo aumentarono ulteriormente” (Buti, et al., 1997). La prima domanda che allora ci dobbiamo porre riguarda le cause dell’incremento registrato dal rapporto fra il deficit pubblico ed il PIL nei paesi dell’UE fra gli anni ’70 e gli anni ’90. 105 La politica fiscale si compone dell’operare degli stabilizzatori automatici nel corso del ciclo economico e della politica discrezionale del governo. Rispetto agli effetti sul saldo di bilancio pubblico che gli stabilizzatori automatici determinano nel corso del ciclo economico attraverso gli effetti di “smussamento” delle oscillazioni del reddito, ogni manovra discrezionale attuata dal governo opera una variazione in aumento o in diminuzione. La “regola fiscale” seguita dal governo consiste appunto nella variazione del saldo di bilancio, e cioè nella variazione da imprimere ogni anno alla fiscal stance, al fine di renderla conforme agli obiettivi della politica fiscale. La misurazione della fiscal stance avviene isolando la componente strutturale del saldo di bilancio, e cioè sottraendo dal saldo complessivo la componente ciclica del saldo di bilancio determinata dall’operare degli stabilizzatori automatici del ciclo economico. Per calcolare la componente ciclica occorre misurare l’output gap, la divergenza della produzione effettiva dalla produzione potenziale di lungo periodo. Per ottenere una proxy di quest’ultima, si ricorre al reddito “tendenziale” mediante l’applicazione alla serie del prodotto lordo effettivo del filtro Hodrick-Prescott. Questo metodo di livellamento dei valori annuali mediante medie mobili concatenate, benché comporti una distorsione della stima per gli anni più recenti, è solitamente preferito al metodo alternativo - la stima econometrica del prodotto potenziale – che implica il ricorso ad una funzione Cobb-Douglas. Pertanto, la componente ciclica del bilancio pubblico dal saldo complessivo viene calcolata moltiplicando l’output gap per il valore che esprime la sensibilità al ciclo delle entrate e delle uscite fiscali (l’elasticità delle entrate moltiplicato il rapporto (τ) tassazione/PIL e l’elasticità delle uscite moltiplicato il rapporto (γ) spesa pubblica/PIL). La variazione della fiscal stance viene così stimata mediante la sottrazione di questa componente ciclica dal saldo di bilancio complessivo. Come valutare il comportamento del governo? Un giudizio sulla politica fiscale può essere espresso con la semplice comparazione fra questa stima della variazione della fiscal stance al netto degli effetti del ciclo nell’anno t e l’effettivo saldo di bilancio primario nell’anno precedente. Ci chiediamo, di fatto, quale fiscal stance 106 sarebbe risultata dalla politica discrezionale se il livello del PIL fosse rimasto invariato rispetto al periodo precedente (depurando cioè il saldo dalla sua componente “ciclica”. Il saldo di bilancio “corretto per il ciclo” (cyclically adjusted) può essere anche definito come il valore che il saldo primario del bilancio pubblico avrebbe assunto se il PIL fosse rimasto costante dal tempo t-1 al tempo t: vt(Yt-1)/Yt. Il saldo primario registra, per ogni periodo, le decisioni di diretta emanazione delle autorità fiscali. Non essendo incluse le spese per interessi sul debito, si tratta in effetti – è bene sottolinearlo - del “saldo primario strutturale”. Il metodo statistico per determinare il saldo primario strutturale è la stima econometrica dei parametri che legano la crescita dell’occupazione (Blanchard, 1990) oppure del reddito ai rapporti Tt/Yt e Gt/Yt (Farina e Tamborini, 2002). I valori stimati vanno inseriti come parametri noti in una nuova regressione che lega questa volta la crescita del reddito all’incognita che vogliamo determinare, il valore in ogni anno della fiscal stance. La variazione del saldo primario strutturale del bilancio pubblico è misurata dalla differenza fra valore stimato (il saldo primario corretto per il ciclo) e valore effettivo del periodo precedente: vt(Yt-1)/Yt− vt-1/Yt-1. La variazione della fiscal stance al netto degli effetti del ciclo si definisce anche “impulso fiscale”. Se il valore della differenza è positivo, l’“impulso fiscale” è in senso restrittivo; se è negativo, l’“impulso fiscale” è in senso espansivo. ____________________________________________________________________ BOX. Fiscal Impulses 1.Public deficit / GDP ratio In order to evaluate the FAs behaviour net of the cycle, we have to single out the discretionary fiscal policy. We then compute the value that the fiscal stance would have taken if the GDP would have remained constant from time t-1 to time t, that is the structural budget net of the impact of automatic stabilizers on Y. The budget, on both the revenue and expenditure sides, responds directly to the first differences in GDP measured by the real growth rate (g t = Yt / Yt-1 – 1); to avoid the endogeneity problem, the employment rate could be chosen instead of g. The variation of the structural budget (or ‘fiscal impulse’) is measured by the difference between the simulated budget at time t and the actual budget at time t–1. Therefore, considering also a trend component t and the error u: 107 Gt/Yt = a1 + b11(gt) + b12 trend + u1t is the relation between total expenditure and GDP, and Tt/Yt = a2 + b21(gt) + b22 trend + u2t is the relation between total revenue and GDP. By using the coefficients of the two equations, it is possible to compute the overall balance F = T-G , which would have resulted at time t had the GDP remained constant (i.e. if its value were that of the previous year). The overall balance / GDP ratio (considering the GDP constant at time t-1) is then: Ft (Yt −1 ) / Yt = ( aˆ2 − aˆ1 ) + (bˆ21 − bˆ11 ) g t −1 + (bˆ22 − bˆ12 )t Therefore, Ft(Yt-1) / Yt / Ft -1 Yt-1 (simulated – actual value) is the variation of the structural budget or ‘fiscal impulse’. This change in the fiscal stance indicates a fiscal restriction independent of the cycle if the value is positive, and a fiscal expansion if the value is negative. We shall use f to denote the ratio between F and GDP, and f^ to denote the ratio between Ft (Yt-1) and GDP. Overall, fiscal impulses seem to have complied with the logic of Tax Smoothing in almost all EMS years. Ft (Yt −1 ) / Yt = ( aˆ 2 − aˆ1 ) + (bˆ21 − bˆ11 ) g t −1 + (bˆ22 − bˆ12 ) t For example, an actual budget balance of expansionary sign (the line of the actual budget balance lies below the neutral budget line) gives rise to restrictive discretionary measures (the histogram of the fiscal impulse is above the neutral budget line). The more pronounced a variation of the budget balance tends to be, the greater is the subsequent change of fiscal stance (f^t – ft-1 ). ____________________________________________________________________ Valutiamo allora la prima critica della Commissione Europea. Per analizzare la strategia di politica fiscale perseguita dai paesi dell’UE, abbiamo scelto l’andamento del rapporto deficit pubblico/PIL in Germania ed Italia (Figura 7.6). Questi due paesi di grandi dimensioni e di lunga partecipazione al sistema di cambi fissi dello SME presentano un grado di stabilizzazione del ciclo attraverso gli stabilizzatori automatici, ed anche di correlazione della sensibilità del bilancio con la dimensione del settore pubblico, abbastanza rappresentativi della media UE. Nella Figura 7.6, con v si indica il rapporto vt-1/Yt-1 e con ύ si indica il rapporto vt(Yt-1)/Yt. L’indice di variazione della fiscal stance di Germania mostra che nel complesso gli impulsi fiscali paiono avere seguito, in quasi tutti gli anni, la logica del Tax Smoothing. I 108 tracciati degli impulsi fiscali hanno infatti un andamento pressoché speculare rispetto a quello del saldo di bilancio effettivo, oscillando attorno alla linea di bilancio neutrale. Se si escludono la crisi dello Yom Kippur (1973-74) e la riunificazione tedesca (1989-90), a saldi di bilancio effettivo vt-1 di segno espansivo (il tracciato è sotto la linea di bilancio neutrale) corrispondono di norma interventi discrezionali restrittivi (l’istogramma dell’impulso fiscale (ύt–vt-1) è sopra la linea di bilancio neutrale). La manovra discrezionale di riduzione del deficit primario strutturale creato nel periodo precedente è di norma di ampiezza sufficiente. Il grafico dell’Italia delinea uno scenario diverso. La variazione del saldo primario strutturale operata dall’autorità fiscale non è mai tale da riportare in pareggio il saldo primario del bilancio pubblico. Alla tendenza espansiva dei deficit pubblici al netto del ciclo (valori costantemente negativi del saldo primario strutturale intorno al 4%) corrispondono per tutto il periodo 1976-91 variazioni compensative della fiscal stance ampiamente insufficienti (intorno al 2%). Di conseguenza, i deficit primari contribuivano di anno in anno ad alimentare la formazione di debito pubblico. Figura 7.6. Impulsi fiscali (a) Germania (b) Italia 8 4 3 2 1 0 -1 -2 -3 -4 -5 6 4 2 0 -2 -4 -6 -8 1970 1975 1980 1985 ύ(t)-v(t-1) 1990 v(t-1) 1995 1970 1975 1980 ύ(t)-v(t-1) 1985 1990 1995 v(t-1) Fonte: Farina e Tamborini (2002) Dopo il varo dello SME, a valori del deficit pubblico via via più moderati seguono impulsi fiscali restrittivi sul saldo strutturale primario via via più rilevanti. A partire dal 1991 si registra il passaggio del rapporto saldo di bilancio pubblico 109 primario / PIL a un valore positivo. Sebbene il comportamento delle autorità fiscali non appaia incline a fare lievitare senza limiti la spesa pubblica, la gestione del deficit non appare conforme alla “disciplina fiscale”, in quanto vengono sottovalutate le conseguenze dei deficit in termini di accumulazione di debito pubblico. Nel loro complesso, questi risultati suggeriscono che le autorità fiscali tedesche, ma non quelle italiane, orientarono le fiscal stance al rispetto del Tax Smoothing. La seconda critica della Commissione Europea mette in questione la volontà delle autorità fiscali dei paesi dell’UE di realizzare una stabilizzazione compatibile con il vincolo intertemporale del bilancio pubblico. Ricordando le prime due fonti di incremento di debito pubblico nell’equazione (4.10), in ciascun anno il rapporto debito pubblico/PIL viene stabilizzato – e cioè il suo tasso di variazione è nullo - se il saldo del bilancio pubblico primario è : ν=(i– g)b. Per valutare questa critica della Commissione Europea, occorre individuare il saldo strutturale di stabilizzazione del debito (ύ*). Suddividendo il saldo del bilancio pubblico nella componente strutturale (ύ) e nella componente ciclica (νc), possiamo definire (ύ*) come il valore del saldo strutturale primario di ogni anno t che stabilizza il debito pubblico primario al livello t-1. Il saldo strutturale di stabilizzazione del debito (ύ*) si ricava calcolando la differenza fra il tasso di interesse nominale al netto della dinamica del reddito nominale moltiplicato il rapporto debito pubblico/PIL e la componente ciclica del saldo di bilancio pubblico: (7.10) ύ*=(i-g)b-νc Il perseguimento dell’obiettivo del debito pubblico dipende dai due fattori del prodotto (i–g)b. Quanto più elevati sono la differenza fra tasso di interesse e tasso di crescita e/o l’indebitamento pubblico in rapporto al PIL, tanto più ampia deve essere la restrizione fiscale da attivare. Benché sia una strategia di politica fiscale diretta a mantenere il bilancio pubblico mediamente in pareggio, il Tax Smoothing non coinvolge questi due fattori, ma esplicita soltanto un criterio riferito al saldo primario: 110 (§ 4.2). Tale criterio non è però sufficiente, in quanto per valutare l’operato dei governi la Commissione Europea prende in considerazione la somma dei deficit primario e secondario. Un giudizio formulato unicamente in base al Tax Smoothing conduce ad ambiguità interpretative. Supponiamo che gli stabilizzatori automatici – a partire da un bilancio pubblico in pareggio - creino un deficit primario nel corso di una fase recessiva. Supponiamo anche che una precedente fase espansiva abbia consentito l’accantonamento di entrate fiscali che possano ora esse impiegate a copertura del deficit. Possiamo concludere che l’attuazione del principio del Tax Smoothing – ovvero un valore costante del saggio di tassazione ed un andamento oscillatorio delle finanze pubbliche conforme alla fase del ciclo – sia sufficiente a garantire la permanenza in pareggio del bilancio nel medio periodo? La risposta non può che essere negativa. Infatti, tale principio prescinde dalla copertura del deficit secondario. Un esogeno aumento livello del tasso di interesse potrebbe aprire nel bilancio pubblico un deficit destinato a durare per più periodi. Egualmente, una caduta strutturale del tasso di crescita potrebbe causare un innalzamento del rapporto deficit pubblico complessivo / PIL (il che renderà necessario un adeguamento verso l’alto del saggio di tassazione e/o verso il basso della spesa pubblica). Il problema è allora che la Commissione Europea misura correttamente la fiscal stance dei paesi dell’Unione Europea con riferimento al saldo strutturale primario (escludendo cioè la spesa per interessi), ma emette il suo giudizio con riferimento al deficit pubblico complessivo. Viene abbracciata la concezione della regolazione del bilancio pubblico in funzione dell’obiettivo di lungo periodo di mantenere in equilibrio il VIBP. Non è solo l’indebitamento consistente negli aggiuntivi titoli (emessi a copertura di una nuova spesa pubblica) e la relativa spesa per interessi - come vuole il Tax Smoothing a dovere essere estinto nel breve termine (nel corso della successiva ripresa economica). Quale che sia infatti l’origine di un deficit pubblico (deficit primario oppure deficit secondario), al fine di mantenere in equilibrio il VIBP, l’autorità fiscale deve farsi carico del deficit pubblico complessivo e non solo di quello primario. Se la differenza (i–g) presenta un valore positivo, la 111 restrizione fiscale dovrà eccedere la semplice copertura di un eventuale saldo negativo primario per tutto l’importo della differenza moltiplicata per il “peso”, il rapporto (b) debito pubblico / PIL. Ogniqualvolta si determini un trade-off fra stabilizzazione del debito pubblico (o decumulazione, nel caso di un paese con rapporto debito / PIL superiore al 60%) e stabilizzazione del reddito attraverso una politica fiscale discrezionale espansiva, deve essere quest’ultima a cedere il passo. La Commissione Europea riconduce ogni incremento del rapporto (b) deficit pubblico/PIL ad un eccessiva formazione di deficit primario da parte delle autorità fiscali. Nell’avanzare la tesi secondo la quale negli ultimi decenni molti paesi dell’UE non si sarebbero comportati in accordo con le prescrizioni del Tax Smoothing, viene così sottaciuto che il primo termine dell’equazione (7.10) può costituire un’importante causa della salita dei rapporti medi di deficit pubblico/PIL dell’UE. Se nei periodi di output gap positivo tale rapporto ha continuato ad aumentare, anche se ad una velocità minore, l’origine potrebbe risiedere nell’avvitamento fra salita dei tassi di interesse ed incremento delle emissioni di titoli pubblici. La domanda da porsi è allora la seguente: quali fattori hanno causato nei paesi europei fiscal stance non conformi alla stabilizzazione del rapporto debito pubblico/PIL e alla decumulazione del debito pubblico in eccesso? I tracciati della Figura 7.7 mettono a confronto, per ciascun paese, il saldo strutturale primario che la fiscal stance ha determinato (ύ(t)) ed il saldo strutturale primario che sarebbe stato necessario per stabilizzare il debito pubblico sul PIL (ύ*(t)). In Germania, gli andamenti speculari dei tracciati dei saldi primari effettivi e stimati dimostrano che la differenza (i–g) non ha contribuito ad alimentare il debito pubblico. Il saldo strutturale primario oscilla prima attorno alla linea di neutralità, per poi conoscere variazioni della fiscal stance di segno restrittivo, soprattutto nel corso degli anni ’90, quando gli elevati valori raggiunti dal debito pubblico provocano picchi molti alti del saldo strutturale primario che stabilizza il debito pubblico. Di nuovo, il quadro si presenta completamente diverso in Italia. Le insufficienti manovre discrezionali di restrizione fiscale aprirono ampi divari fra spesa pubblica e 112 entrate fiscali e richiesero quindi emissioni di titoli tali da alimentare l’accumulazione di debito pubblico. Il trend di impulsi fiscali sempre meno espansivi, che ha inizio nel 1976 e che prosegue quasi costantemente fino al passaggio a variazioni della fiscal stance sempre restrittive già nel 1988, appare sovrastato dal tracciato dell’attivo strutturale di bilancio pubblico che sarebbe stato necessario – dal 1980 fino al 1989 – per stabilizzare il rapporto (b) debito pubblico/PIL: solo nella seconda metà degli anni ’90, con la discesa dei tassi di interesse, si determinò un’inversione nei valori del nuovo indicatore. La valutazione dell’operato delle autorità fiscali è allora la seguente. Figura 7.7. Stabilizzazione del debito pubblico (a) Germania (b) Italia 8 6 4 2 0 6 5 4 3 2 1 0 -1 -2 -3 -4 -2 -4 -6 -8 -10 -12 1970 1975 1980 1985 ύ(t) 1990 1995 1970 1975 ύ*(t) 1980 ύ(t) 1985 1990 1995 ύ*(t) Fonte: Farina e Tamborini (2002) Dai primi anni ’80 in poi, le autorità fiscali hanno avuto come punto di riferimento per i loro interventi discrezionali la compensazione di medio periodo di tendenze espansive del deficit di bilancio pubblico. I governi non si preoccupavano dello squilibrio che l’andamento del deficit pubblico complessivo andava producendo nell’equazione del VIBP. D’altro canto, la crescente dinamica del rapporto debito pubblico/PIL fu alimentata da un’espansione della spesa per interessi in buona misura determinata dalla politica di difesa del cambio della lira nello SME, che richiedeva ampi differenziali di tasso di interesse con la Germania. 113 I tracciati mostrano che la distanza fra fiscal stance effettiva e fiscal stance “di stabilizzazione del debito pubblico” è stata notevole: per neutralizzare l’impatto di incremento del rapporto causato dalla fonte “esogena” tasso di interesse, sarebbero state necessarie rilevanti manovre fiscali restrittive. Nel corso degli anni ’80, le autorità fiscali italiane non riuscirono ad avviare la decumulazione; negli anni ‘90 ad alimentare la formazione di nuovo debito non è stato il deficit primario ma il deficit secondario, a causa degli alti tassi di interesse. Una strategia di rapida decumulazione avrebbe richiesto, piuttosto che la semplice rinuncia a politiche fiscali discrezionali, manovre restrittive anche durante le fasi di recessione. Considerando anche l’orientamento restrittivo della politica monetaria, tali impulsi di restrizioni fiscali avrebbero probabilmente generato effetti deflazionistici. 7. Tassi di interesse L’ultimo criterio di Maastricht che rimane da esaminare è la convergenza fra i tassi di interesse. Questa grandezza rileva non solo nella determinazione della dinamica dei deficit pubblici attraverso la spesa per interessi ma influenza anche direttamente il sentiero di crescita di un’economia. L’evidenza empirica suggerisce che i differenziali di tasso di interesse di molti degli n-1 paesi del MTC nei confronti del paese leader dello SME non sempre ha rispecchiato l’andamento del tasso di cambio (vedi in Figura 8.2 i differenziali (spread) rispetto ai titoli pubblici tedeschi). Perché la “parità dei tassi di interesse” è stata spesso in disequilibrio? La teoria macroeconomica ci propone le seguenti possibili spiegazioni della divergenza (§ 3.4): 1) il premio per il rischio di cambio (svalutazione). I valori attesi e realizzati delle parità bilaterali fra le valute del MTC erano influenzati da un insufficiente grado di credibilità della politica monetaria delle n-1 banche centrali impegnate a perseguire la disinflazione delle rispettive economie mediante la strategia di pegging nei confronti del marco; 2) il premio per il rischio di ripudio del debito pubblico da parte di un governo. Come spiega il modello di Sargent e Wallace (§ 4.3.2), i mercati finanziari si attendono che la banca centrale, di fronte alla 114 difficoltà del governo a piazzare le nuove emissioni, faccia ricorso alla “monetizzazione” del debito pubblico. Ricordando l’equazione (4.16), che esplicita la terza fonte di incremento del rapporto debito pubblico / PIL, è possibile che l’eccesso del livello dei tassi di interesse, rispetto alla svalutazione registrata ex post, in molti paesi della Periferia dello SME sia stato causato da un errore di previsione. Le aspettative razionali non vengono realizzate: πe–π≠0. L’impulso alla crescita del rapporto debito pubblico/PIL sarebbe quindi provenuto da aspettative di inflazione superiori al tasso di inflazione realizzatosi ex post (πe–π>0). Un eccesso di inflazione attesa nei mercati rispetto al valore che si realizza ex post comporta un livello dei tassi di rendimento nominale dei titoli pubblici più elevato di quello che risulta nella condizione di “parità dei tassi di interesse”, e l’aumento della spesa per interessi viene finanziato con emissione di debito. In molti paesi dello SME, il divario (πe>π) ha rappresentato un’importante determinante della crescita del rapporto debito pubblico/PIL. Se il divario (πe>π) si ripresenta per più periodi, l’accelerazione nell’accumulazione di debito pubblico può essere notevole. Infatti, la crescita della spesa per interessi verrà alimentata sia nella sua componente di prezzo (i) che nella sua componente di quantità (B). Non è però semplice, anche ricorrendo a stime econometriche, stabilire in che misura l’errore di previsione spieghi il divario fra differenziale di tasso di interesse e variazione del tasso di cambio e/o la spinta verso l’alto che la crescita del debito pubblico imprime al tasso di interesse. Le aspettative di inflazione e le aspettative di variazione del tasso di cambio, non essendo misurabili ex ante, non sono verificabili ex post. 8. Regimi di cambio Consideriamo i due principali regimi di tasso di cambio fra le valute: 1. il regime di tassi di cambio flessibili consiste nella determinazione del rapporto di cambio mediante le libere contrattazioni che avvengono fra gli operatori nei mercati valutari; 115 2. il regime di tassi di cambio fissi consiste nell’accordo cooperativo mediante il quale le banche centrali di vari paesi fissano le parità bilaterali fra le loro valute con bande di oscillazione sufficientemente strette, definite da un livello massimo e da un livello minimo del cambio rispetto alla parità centrale - e si impegnano a difenderle, mediante appropriati interventi di compravendita nei mercati valutari, in presenza di movimenti che rischiano di provocare uno scostamento dalla parità centrale di ampiezza superiore all’oscillazione massima concordata. Il tasso di cambio nominale indica il rapporto in cui due valute vengono scambiate. Esprimendo il prezzo di una valuta relativamente ad un’altra, il tasso di cambio nominale può essere definito in due modi: 1) quotazione certo per incerto (e): la quantità di valuta estera richiesta per l’acquisto di un’unità di valuta nazionale; 2) quotazione incerto per certo(ê): la quantità di valuta nazionale richiesta per un’unità di valuta estera. Poiché le due quotazioni sono l’una il reciproco dell’altra (e=1/ê), nel valutare gli effetti di una variazione del tasso di cambio occorre fare attenzione alla definizione cui si fa riferimento. In seguito all’introduzione dell’euro è divenuta di uso più comune la prima quotazione: quanti dollari vengono richiesti per un euro nei mercati valutari internazionali. Un apprezzamento della nostra valuta, l’euro, si traduce in un aumento del tasso di cambio. È facile constatare che, se il valore del tasso di cambio dollaro-euro aumenta quando l’euro si apprezza e, quindi, il dollaro si deprezza, lo stesso valore rappresenta per un cittadino statunitense la quotazione incerto per certo. Facciamo un esempio. Il prezzo della moneta estera (dollaro) in termini della moneta interna (euro) sia: 1,30$ = 1€. Al converso, il prezzo della moneta nazionale in termini di moneta estera sarà: 0,7€ = 1$ il tasso di cambio Euro/US dollar è il tasso di cambio nominale come prezzo della moneta estera in termini della moneta nazionale: quante unità della moneta estera (US dollar) sono necessarie per acquisire una moneta nazionale (euro) (certo per incerto). Nel regime di tassi di cambio fissi (ma aggiustabili) dello SME il tasso di cambio veniva così calcolato: quante unità della moneta nazionale (lira) erano necessarie per acquisire una moneta estera (DM). 116 Il valore “incerto” veniva attribuito alla valuta interna; “certo” era il valore della valuta estera. Con l’Euro, al contrario, “certo” è divenuto il valore della valuta interna e “incerto” il valore della valuta estera. Pertanto, il tasso di cambio reale con la quotazione certo per incerto è: Tasso di cambio reale: ε = e p / pW E con la quotazione incerto per certo è: Tasso di cambio reale: ε’ = e’ pW / p Ricordiamo infine due definizioni. 1, La “Legge del prezzo unico”: il libero scambio rende eguale il prezzo di un bene in tutti i mercati del mondo, a meno della conversione da una valuta all’altra (e naturalmente di eventuali costi di transazione). 2. La Parità dei Poteri d’Acquisto: secondo questa condizione, ancora più ipotetica della prima perché riguarda tutti i beni, il tasso di cambio di equilibrio fra due paesi è uguale al rapporto fra i loro livelli dei prezzi, a meno naturalmente dei costi di trasporto e delle condizioni tendenzialmente non concorrenziali che caratterizzano il settore dei servizi. Pertanto, l’evidenza empirica non può fornire conferma alla PPP e alla legge del prezzo unico. Troppo pervasive sono le condizioni di invalidità delle due condizioni, causate dal grado di scostamento dei mercati dalla condizioni di concorrenza perfetta, dalla presenza di barriere commerciali e di beni non commerciabili, e dalle differenze internazionali nella misura ufficiale del livello dei prezzi. Il tasso di cambio reale (o ragione di scambio) indica il rapporto di scambio tra beni nazionali ed esteri: in altre parole, determina la quantità di beni esteri che è possibile ottenere contro un’unità di beni nazionali. Si definisce tasso di cambio reale effettivo il rapporto fra l’indice dei prezzi ed il livello medio dei prezzi esteri (una media ponderata i cui pesi esprimono la rilevanza che ciascun paese estero riveste nell’interscambio commerciale). Con la quotazione certo per incerto, il tasso di cambio reale (ε ) di un paese in relazione ad un paese estero (le cui variabili saranno indicate con W in apice) è definito dal rapporto tra il livello del prezzo interno (p) ed 117 il livello del prezzo estero (pW) espressi nella stessa valuta attraverso il tasso di cambio nominale: e = ep / p W ( eˆ = eˆp W / p se si utilizza la quotazione incerto per certo). Se, ad esempio, esistesse un solo bene e fosse prodotto sia negli Stati Uniti che nell’Unione Europea, per calcolare il tasso di cambio reale un europeo dovrebbe trasformare in euro il prezzo del bene estero espresso in dollari - dividendo il prezzo in dollari per il tasso di cambio nominale (e) quotato certo per incerto (oppure moltiplicandolo per la quotazione (ê=1/e) incerto per certo) - e rapportarlo al prezzo del bene nazionale espresso in euro. Estendendo questo ragionamento all’insieme dei beni prodotti nell’UE e negli US, il tasso di cambio reale raffronta l’indice dei prezzi delle due economie espressi nella stessa valuta. Data la piena libertà di circolazione dei beni, la condizione di “parità dei poteri d’acquisto” (PPA) ci dice che – nelle condizioni ideali di assenza di costi di transazione – il libero scambio fa sì che ciascun prodotto abbia lo stesso prezzo in qualsiasi luogo del mondo, a meno della conversione da una valuta all’altra effettuata in base al tasso di cambio nominale. La “legge del prezzo unico” vuole che e = p W / p . In altre parole, almeno nel lungo periodo, il tasso di cambio reale ( ε ) deve essere uguale a 1. Il tasso di cambio reale, essendo il rapporto tra prezzi interni e prezzi esteri espressi nella stessa valuta, è il principale indicatore della competitività con l’estero. Il suo valore rimane costante quando il differenziale di inflazione del paese rispetto all’estero si trasmette completamente in una variazione del tasso di cambio nominale. Ad esempio un deprezzamento nominale della valuta nazionale (in regime di cambi fissi: una svalutazione) indica una riduzione del suo potere d’acquisto e corrisponde ad una diminuzione del tasso di cambio quotato certo per incerto (ad un aumento, se quotato incerto per certo). Un deprezzamento nominale dell’euro rende meno conveniente per i residenti nell’UE l’acquisto dei beni di importazione dagli US e più conveniente per i cittadini statunitensi acquistare i beni prodotti nei paesi dell’UE. Un 118 effetto prevedibile è l’incremento delle esportazioni dall’UE verso gli US. La condizione di Marshall-Lerner prescrive che, affinché tale riequilibrio possa avvenire, l’aggiustamento nelle quantità scambiate deve essere più che proporzionale rispetto alle variazioni dei loro prezzi relativi. Ciò richiede che la somma delle elasticità della domanda di importazioni e di esportazioni rispetto al tasso di cambio sia maggiore di 1. In altre parole, nel medio termine l’aumento del valore delle esportazioni deve essere superiore all’aumento del valore delle importazioni. Gli operatori esteri troveranno conveniente accrescere la domanda di beni prodotti nel paese la cui valuta è divenuta più a buon mercato. Tuttavia, per quanto si debba ipotizzare una riduzione delle importazioni divenute più costose, il valore degli esborsi per pagare i beni importati si accresce per il loro maggiore costo unitario. Questo saldo netto positivo nella bilancia commerciale durerà fintantoché l’incremento dell’inflazione importata non si sarà tradotto in un adeguamento dei salari e del livello generale dei prezzi. Una volta che il vantaggio di competitività acquisito con la discesa del cambio si sia esaurito, il disavanzo commerciale torna a salire (di qui la nota definizione di curva J). Con riferimento alla quotazione (e) certo per incerto che qui seguiremo, la • variazione percentuale del tasso di cambio reale ( ε = ∆ε / ε ) è data dalla somma della • variazione percentuale del tasso di cambio nominale ( e = ∆e / e ) e del tasso di inflazione nazionale ( π ) al netto del tasso di inflazione estero ( π W ): • • e = e+ π − π W . In termini di tasso di cambio nominale tale relazione è: • • ε = ε+π W −π . 119 In regime di cambi flessibili, il tasso di apprezzamento nominale è dato dalla somma fra il tasso di apprezzamento reale ed il differenziale di inflazione che si registra tra i due paesi. Un tasso di inflazione interno più basso del tasso di inflazione estero (πW – π > 0) si riflette in una corrispondente differenza fra tasso di cambio nominale e tasso di cambio reale. Il tasso di cambio nominale della valuta interna si apprezza, mentre il tasso di cambio reale rimarrà invariato al livello naturale di lungo periodo (ε N ) corrispondente alla PPA. In regime di cambi fissi invece ciò non accade: poiché il tasso di cambio nominale rimane costante è il tasso di cambio reale a ridursi, discostandosi dal suo livello ε N . Quando il tasso di cambio reale (ε ) di un paese scende, si realizza un deprezzamento reale della valuta nazionale. Il contrario accade nel caso di apprezzamento reale. Se i due paesi non producono gli stessi beni e/o producono beni non commerciabili, il tasso di cambio reale può essere diverso da 1 anche nel lungo periodo. In altre parole, viene meno la validità della versione assoluta della parità dei poteri d’acquisto (la cosiddetta “legge del prezzo unico”). L’epoca successiva alla fine del sistema di Bretton Woods nel 1971 è stata caratterizzata da un notevole incremento della volatilità dei cambi. I disallineamenti del tasso di cambio reale fra le principali valute, rispetto al valore di equilibrio di lungo periodo indicato dalla PPA, risultano molto più ampi in regime di cambi flessibili che in regime di cambi fissi e presentano una durata molto maggiore di ciò che intendiamo per “breve periodo”. L’evidenza empirica di lunghi cicli di allontanamento del tasso di cambio reale effettivo dal suo valore di equilibrio di lungo periodo può essere ricondotta all’incremento della produzione dei beni non commerciabili (NT) rispetto alla produzione di beni commerciabili (T). In assenza di barriere tariffarie, l’integrazione dei mercati fa sì che si determini l’eguaglianza dei prezzi dei beni commerciabili fra i paesi, ma nei settori dei beni non commerciabili – non esposti alla concorrenza internazionale e con una dinamica della produttività più lenta – tale processo di livellamento non si genera. Ad esempio, alcuni dei periodi, lunghi anche un decennio, di fluttuazione del tasso di cambio tra il dollaro USA e il marco tedesco e tra il 120 dollaro USA e lo yen sono interpretati in base ad una più lenta crescita della produttività del lavoro rispetto alla dinamica salariale, con conseguente variazione del cambio della valuta. Consideriamo due paesi e supponiamo che la dinamica della produttività abbia un’accelerazione nel settore T nel paese 1, ma non nel paese 2. La dinamica salariale che nel paese 1 consegue agli incrementi di produttività nel settore T si trasmette anche al settore NT, dove invece la produttività aumenta più lentamente. Quanto più ampio è il divario fra la dinamica della produttività nel settore T e quella del settore NT nel paese 1 rispetto al paese 2, tanto maggiore sarà l’incremento relativo nel tasso di inflazione nel paese 1. Infatti, il differenziale di tasso di inflazione risulta dal divario fra i rapporti tra il settore T ed il settore NT nei due paesi. Il cosiddetto “effetto Balassa-Samuelson” prevede appunto che il tasso di inflazione sia più elevato nel paese 1 che nel paese 2: π 1 − π 2 = (1 − Φ )( PML1 − PML2 ) nella misura determinata dalla quota sul PIL del settore NT. Il divario nella proporzione tra il settore tradable ed il settore non tradable determina il peggioramento della posizione competitiva relativa del paese 1. Nel breve periodo, il conseguente disavanzo commerciale potrebbe essere compensato da un avanzo nei movimenti di capitali. Nel lungo periodo, tuttavia, il ritorno al tasso di cambio reale di equilibrio di lungo periodo può realizzarsi solo per effetto di un aggiustamento strutturale. Menzioniamo due possibili percorsi: a) un prolungato periodo di crescita monetaria nel paese 1 inferiore a quella del paese 2, tale da annullare il differenziale di inflazione attraverso la deflazione dei consumi in beni del settore T; b) una traslazione verso l’esterno della frontiera delle possibilità di produzione (indotto da un aumento del progresso tecnico, oppure da un aumento delle risorse disponibili, qual è ad esempio la scoperta di un giacimento petrolifero) che 121 produce un innalzamento del tasso di cambio reale e colloca stabilmente il paese 1 ad un più alto livello di benessere. 9. Parità dei tassi di interesse Supponiamo che l’operatore europeo sappia che sui mercati internazionali si è formata la comune opinione che il tasso di cambio fra dollaro ed euro nel prossimo anno vedrà un apprezzamento dell’euro ( ete+1 > et ). La condizione di arbitraggio dovrà tener conto di tali aspettative. Il rendimento atteso dall’investimento di un euro negli Stati Uniti, tenuto conto della variazione attesa del valore del dollaro, in equilibrio sarà dato da: (1 + iUMEt ) = (1 + iUSt ) et ete+1 Facciamo un esempio. Supponiamo che il tasso di interesse sulle attività finanziarie denominate in dollari dal 3% salga al 4% (iUS=0,04), mentre quello sulle attività finanziarie denominate in euro resti al 3% (iUME=0,03) e che occorrano 1,21 dollari per un euro. In base all’equazione della parità scoperta, il verificarsi di una variazione nei tassi di interesse comporta una variazione nel tasso di cambio atteso. Applicando la (3.4) si otterrà un apprezzamento atteso dell’euro che verrà scambiato a 1,22 dollari per un euro: (1 + iUMEt ) = (1 + iUSt ) et ete+1 (1+0,03)=(1+0,04)(1,21/1,22) Questa equazione definisce la parità scoperta dei tassi di interesse. Se gli operatori fossero neutrali rispetto al rischio, l’equivalenza fra gli investimenti nei due mercati si raggiungerebbe in corrispondenza del tasso di cambio atteso al quale l’investitore europeo ottiene, negli Stati Uniti, lo stesso tasso di interesse che guadagnerebbe nell’Unione Monetaria Europea. L’equazione della parità scoperta dei tassi di interesse può essere scritta come: 122 e 1 + iUMEt = et 1 + iUSt et +1 da cui, riordinando i termini: ete+1 − et 1 + iUSt = 1+ 1 + iUMEt et Per valori contenuti dei tassi, il tasso di interesse nazionale può essere approssimato dalla somma algebrica tra tasso di interesse estero e tasso di variazione attesa della valuta nazionale: iUMEt ≅ iUSt ete+1 − et − et ovvero: iUSt ≅ iUMEt ete+1 − et + et Un deprezzamento atteso dell’euro rispetto al dollaro, che equivale ad un apprezzamento atteso del dollaro ( ete+1 < et ), implica quindi un valore negativo del secondo termine sul lato destro dell’equazione (3.5) e comporta un eccesso del tasso di interesse UME rispetto al tasso di interesse US. Al converso, un apprezzamento atteso dell’euro rispetto al dollaro, che equivale ad un deprezzamento atteso del dollaro ( ete+1 > et ), implica un valore positivo del secondo termine sul lato destro e comporta un eccesso del tasso di interesse US rispetto al tasso di interesse UME: iUMEt ≅ iUSt ete+1 − et + et ovvero: iUSt ≅ iUMEt ete+1 − et − et Abbiamo finora assunto che l’operatore europeo accetti di sostenere il rischio del rendimento incerto connesso all’aspettativa di apprezzamento atteso del dollaro. Infatti, all’operatore si è attribuita una neutralità al rischio. Tuttavia, l’alta volatilità del tasso di interesse e/o del tasso di cambio rende molto plausibile l’ipotesi che l’operatore non sia neutrale, ma sia avverso al rischio. 123 Il differenziale fra tassi di interesse e deprezzamento di una valuta rispetto all’altra nella realtà si discosta spesso da zero. Come vedremo, a meno che non si tratti di allontanamento dall’ipotesi di aspettative razionali (i soggetti non riescono a prevedere con esattezza il cambio futuro), la divergenza viene attribuita alla ricompensa per l’avversione al rischio. La parità scoperta deve allora essere corretta per tenere conto del fattore di rischio: il premio che l’operatore europeo desidera ricevere per il rischio connesso all’investimento in dollari. Nell’equazione che descrive la parità scoperta dei tassi di interesse dovremo perciò aggiungere un termine (ϕt) legato al possesso dell’attività finanziaria denominata in dollari: iUMEt ≅ iUSt ete+1 − et + + ϕt et Esiste tuttavia il mezzo per coprirsi dal rischio connesso al possesso del titolo estero: l’informazione sul prezzo futuro a pronti di ogni valuta è disponibile nei listini finanziari. Il mercato finanziario offre infatti – sotto forma del valore del tasso di cambio a termine (f) - la propria aspettativa riguardo al valore del dollaro rispetto all’euro ad una data futura. Il premio per il rischio (ϕt), che deve coprire proprio un eventuale errore di previsione sull’ampiezza del futuro apprezzamento del dollaro, dipende dalla differenza fra l’aspettativa del futuro cambio a pronti ( ete+1 ) ed il tasso di cambio a termine ( f t ). Sottraendo il tasso di cambio da ambedue i termini e dividendoli entrambi ancora per (et), possiamo scrivere: ete+1 − et f − et ϕt = − t et et 124 In effetti, è l’insieme di tutte le operazioni sul futuro realizzate da tutti gli investitori del mercato finanziario a determinare l’informazione sul cambio a termine (ft) che riflette l’aspettativa riguardo al futuro cambio a pronti ( ete+1 ). Nell’ipotesi di aspettative razionali, tale previsione risulta confermata ex post: ete+1 = et +1 . Prendiamo perciò le mosse dal comportamento del singolo investitore, osservando che l’eventuale errore di previsione sul tasso di cambio a termine in cui incorre può avere due cause: 1) la presenza del premio per il rischio: ϕ t = (ete+1 − f t ) / et 2) un errore di previsione sul tasso a pronti futuro a causa di condizioni di “razionalità limitata”, la ridotta capacità di calcolo e di previsione probabilistica relativamente agli eventi futuri: (et +1 − ete+1 ) / et . Sotto l’ipotesi di aspettative razionali l’errore di previsione sul futuro tasso a pronti è eguale a zero. A determinare un errore di previsione del cambio a termine residua allora solo la presenza del premio per il rischio. L’operatore ha due possibilità. Se ritiene di possedere una corretta informazione sul premio per il rischio tenterà di “battere” il mercato e farà guadagni da arbitraggio se la sua aspettativa sul futuro cambio a pronti risulterà più precisa di quella prevalente nel mercato. Se, invece, l’operatore si è formato il convincimento che le aspettative prevalenti nel mercato siano effettivamente “aspettative razionali”, preferirà allinearsi all’aspettativa prevalente e fare riferimento all’informazione offerto dal mercato, rappresentata dal tasso di cambio a termine (f). L’operatore si coprirà dal rischio costituito dal rendimento incerto del titolo estero, contrattando la vendita a un anno da oggi - al prezzo rappresentato dal tasso di cambio a termine - del ricavo in dollari che riceverà dall’investimento nei titoli USA. In assenza di controlli dei capitali, di nuovo per approssimazione, si ottiene la formulazione della parità coperta dei tassi di interesse: (3.8) iUMEt ≅ iUSt − f t − et et 125 Il termine che si aggiunge al tasso di interesse statunitense è detto “sconto” se di valore negativo (si accetta un tasso di interesse più basso nell’UME se il mercato prevede un apprezzamento dell’euro) e “premio” se di valore positivo (l’operatore richiede un differenziale positivo di rendimento se il mercato prevede un deprezzamento dell’euro). Data l’ipotesi di aspettative razionali, il mercato dovrebbe essere in grado di prevedere con sufficiente esattezza (di norma, più è lungo il periodo, meno precisa è la stima) quale sarà il futuro tasso di cambio a pronti. In tal caso, il tasso di cambio a termine, che esprime appunto l’aspettativa di mercato sul tasso di cambio a pronti futuro, risulterà a posteriori eguale al tasso di cambio a pronti atteso: f t = ete+1 . Se nelle due equazioni i rispettivi termini risultano ex ante diversi fra loro: ete+1 − et f − et ≠ t et et Ricapitolando, la differenza fra cambio atteso e cambio a termine ex post sarà data da: et +1 − f t et +1 − ete+1 ete+1 − f t = + et et et . Tale differenza può avere due origini. La prima è una previsione errata: l’aspettativa sul tasso di cambio non viene convalidata ex post (un valore positivo del primo termine a destra). Se escludiamo tale eventualità adottando l’ipotesi di aspettative razionali, a spiegare il mancato realizzarsi della previsione sul tasso di cambio a pronti futuro sarà la seconda causa: il premio per il rischio (un valore positivo del secondo termine a destra). Sotto l’ipotesi di aspettative razionali a determinare un errore di previsione del cambio a termine residua solo la presenza di un premio per il rischio. L’operatore ha due possibilità. Se ritiene di valutarlo meglio del mercato tenterà di “batterlo” : farà 126 guadagni da arbitraggio se la sua aspettativa sul futuro cambio a pronti risulterà più precisa di quella prevalente nel mercato. Sotto l’ipotesi di aspettative razionali a determinare un errore di previsione del cambio a termine residua solo la presenza di un premio per il rischio. L’operatore ha due possibilità. Se ritiene di valutarlo meglio del mercato tenterà di “batterlo” : farà guadagni da arbitraggio se la sua aspettativa sul futuro cambio a pronti risulterà più precisa di quella prevalente nel mercato. Se, invece, l’operatore si è formato il convincimento che le aspettative prevalenti nel mercato siano effettivamente “aspettative razionali”, preferirà allinearsi all’aspettativa prevalente e fare riferimento all’informazione offerto dal mercato, rappresentata dal tasso di cambio a termine (f). L’operatore si coprirà dal rischio costituito dal rendimento incerto del titolo estero, contrattando la vendita a un anno da oggi - al prezzo rappresentato dal tasso di cambio a termine - del ricavo in dollari che riceverà dall’investimento nei titoli USA. Il termine che si aggiunge al tasso di interesse statunitense è detto “sconto” se di valore negativo (si accetta un tasso di interesse più basso nell’UME se il mercato prevede un apprezzamento dell’euro) e “premio” se di valore positivo (l’operatore richiede un differenziale positivo di rendimento se il mercato prevede un deprezzamento dell’euro). Data l’ipotesi di aspettative razionali, il mercato dovrebbe essere in grado di prevedere con sufficiente esattezza (di norma, più è lungo il periodo, meno precisa è la stima) quale sarà il futuro tasso di cambio a pronti. In tal caso, il tasso di cambio a termine, che esprime appunto l’aspettativa di mercato sul tasso di cambio a pronti futuro, risulterà a posteriori eguale al tasso di cambio a pronti atteso. La crisi dello SME nel 1992-93, che determinò l’uscita di lira e sterlina dal meccanismo di tassi di cambio, portò al superamento dei cambi fissi come strategica dell’unificazione monetaria. La causa di fondo della crisi fu il “quartetto impossibile” di cui si è già parlato: 1. Mercato unico; 2. Tassi di cambio fissi; 3. Autonomia della politica monetaria e 4. Liberalizzazione movimenti di capitale sono mutualmente 127 incompatibili. Una volta realizzato nel 1990 anche in Europa il punto 4., la politica monetaria perde la residua autonomia. Occorre dunque prenderne atto ed accelerare l’unione monetaria sottoponendo il processo di integrazione monetaria alla convergenza nominale descritta dai criteri di Maastricht. 10. Tassi di interesse e integrazione monetaria europea Un importante criterio di Maastricht è la convergenza fra i tassi di interesse. Questa grandezza rileva non solo nella determinazione della dinamica dei deficit pubblici attraverso la spesa per interessi ma influenza anche direttamente il sentiero di crescita di un’economia. L’evidenza empirica suggerisce che i differenziali di tasso di interesse di molti degli n-1 paesi del MTC nei confronti del paese leader dello SME non sempre ha rispecchiato l’andamento del tasso di cambio (vedi in Figura 8.2 i differenziali (spread) rispetto ai titoli pubblici tedeschi). Perché la “parità dei tassi di interesse” è stata spesso in disequilibrio? La teoria macroeconomica ci propone le seguenti possibili spiegazioni della divergenza (§ 3.4): 1) il premio per il rischio di cambio (svalutazione). I valori attesi e realizzati delle parità bilaterali fra le valute del MTC erano influenzati da un insufficiente grado di credibilità della politica monetaria delle n-1 banche centrali impegnate a perseguire la disinflazione delle rispettive economie mediante la strategia di pegging nei confronti del marco; 2) il premio per il rischio di ripudio del debito pubblico da parte di un governo. Come spiega il modello di Sargent e Wallace (§ 4.3.2), i mercati finanziari si attendono che la banca centrale, di fronte alla difficoltà del governo a piazzare le nuove emissioni, faccia ricorso alla “monetizzazione” del debito pubblico. Ricordando l’equazione (4.16), che esplicita la terza fonte di incremento del rapporto debito pubblico / PIL, è possibile che l’eccesso del livello dei tassi di interesse, rispetto alla svalutazione registrata ex post, in molti paesi della Periferia dello SME sia stato causato da un errore di previsione. Le aspettative razionali non vengono 128 realizzate: πe–π≠0. L’impulso alla crescita del rapporto debito pubblico/PIL sarebbe quindi provenuto da aspettative di inflazione superiori al tasso di inflazione realizzatosi ex post (πe–π>0). Un eccesso di inflazione attesa nei mercati rispetto al valore che si realizza ex post comporta un livello dei tassi di rendimento nominale dei titoli pubblici più elevato di quello che risulta nella condizione di “parità dei tassi di interesse”, e l’aumento della spesa per interessi viene finanziato con emissione di debito. In molti paesi dello SME, il divario (πe>π) ha rappresentato un’importante determinante della crescita del rapporto debito pubblico/PIL. Se il divario (πe>π) si ripresenta per più periodi, l’accelerazione nell’accumulazione di debito pubblico può essere notevole. Infatti, la crescita della spesa per interessi verrà alimentata sia nella sua componente di prezzo (i) che nella sua componente di quantità (B). Non è però semplice, anche ricorrendo a stime econometriche, stabilire in che misura l’errore di previsione spieghi il divario fra differenziale di tasso di interesse e variazione del tasso di cambio e/o la spinta verso l’alto che la crescita del debito pubblico imprime al tasso di interesse. Le aspettative di inflazione e le aspettative di variazione del tasso di cambio, non essendo misurabili ex ante, non sono verificabili ex post. Prescindiamo allora da questa possibile causa di divergenza e concentriamo l’attenzione sul ruolo avuto dal “premio per il rischio” di svalutazione e/o “ripudio” sull’evoluzione del rapporto debito pubblico / PIL. Per essere nelle condizioni di effettuare questa indagine, occorre assumere che – anche riguardo a mercati molto volatili come quelli finanziari e valutari - sia formulabile l’ipotesi di aspettative razionali. Se adottiamo l’ipotesi che gli agenti abbiano aspettative razionali di variazione del tasso di cambio (ragionando su una valuta dello SME rispetto al marco si tratta di aspettative di svalutazione), la svalutazione attesa è misurabile con la svalutazione effettivamente determinatasi ex post. Nell’attuare una politica di pegging del marco, a causa di entrambi i “premi per il rischio”, le banche centrali dei paesi ad alta inflazione furono costrette a riconoscere a risparmiatori ed operatori finanziari ampi margini di tasso di interesse in eccesso rispetto a quelli pagati sulle attività finanziarie denominate nel marco. 129 Naturalmente, il problema della scarsa credibilità dell’impegno al rispetto della parità bilaterali con il marco tedesco e della solvibilità dei governi riguardava essenzialmente le valute delle economie ad alta inflazione, quelle dei paesi della Periferia. Nella Figura 7.5, abbiamo visto che, successivamente ad uno shock di ampiezza pari a quella della Germania, sarebbe occorsa una manovra restrittiva della Banca d’Italia per fare scendere l’economia lungo la curva di Phillips di breve periodo fino al punto I” ed evitare che il differenziale di inflazione con la Germania si allargasse. La stretta monetaria avrebbe però comportato una contrazione troppo drastica dell’output e dell’occupazione. Le banche centrali della Periferia lasciavano così che i differenziali di inflazione si ampliassero, con conseguente ampliamento anche dei differenziali di tasso di interesse. Ricordando le equazioni (3.4-3.8) del § 3.4, nell’equazione (7.11) il primo termine esprime il divario fra il tassi di interesse (i) di un paese rappresentativo della Periferia e quello del paese leader dello SME, la Germania (iG); il secondo termine rappresenta il deprezzamento atteso della valuta della Periferia (ad esempio, l’Italia) rispetto al marco; inoltre sia ft il tasso di cambio a termine: (7.11) eˆte+1 − eˆt ft − eˆt ft − eˆt eˆte+1 − et G (it − i ) − ]+[ ] = [(it − it ) − − eˆt eˆt eˆt eˆt G t Se si adotta l’ipotesi di aspettative razionali e si misura la variazione attesa del tasso di cambio mediante il tasso di cambio ex post (et+1), dal computo della (7.11) risulta che i valori del primo termine sono stati sistematicamente in eccesso rispetto a quelli del secondo termine. Come si è spiegato nel § 3.4, in equilibrio il differenziale di interesse eguaglia il deprezzamento del tasso di cambio. Nell’equazione (7.11), un’eventuale divergenza fra differenziale di inflazione con la Germania e deprezzamento rispetto al marco può dipendere da un valore diverso da zero della somma algebrica delle due parentesi che compaiono sul lato destro. Descriveremo ora le probabili cause di tale divergenza (Farina, 1990). 130 Nella prima fase dello SME (1979-1986), la differenza sul lato sinistro assunse valore negativo. Come sappiamo, dal momento che i primi anni dello SME furono caratterizzati da frequenti riallineamenti fra le valute, questo risultato non può derivare da un’elevata credibilità della politica monetaria del paese della Periferia nel perseguire la difesa delle parità di cambio. L’evidenza empirica suggerisce che questa diseguaglianza dipese essenzialmente dal valore negativo del primo termine sul lato destro. La parità scoperta dei tassi di interesse assunse valore negativo in molti paesi della Periferia a causa di un divario positivo fra cambio a termine e cambio a pronti che presentava un’ampiezza maggiore del differenziale di interesse. Ciò accade se è presente il “rischio paese”. Il grado di libertà che i controlli amministrativi adottati nella prima fase dello SME in alcuni paesi a valuta debole (ad esempio, Italia e Francia nei primi anni ’80) assicuravano alla politica monetaria condusse alla formazione di un “cuneo” fra i differenziali di tassi di interesse on shore (determinato sul mercato finanziario interno) e off shore (determinato sui mercati finanziari internazionali) con la Germania. I vincoli posti alla fuoriuscita di capitali permettevano infatti ai tassi di interesse del mercato interno di evitare un aggiustamento verso l’alto di ampiezza congrua all’ ampliamento dei differenziali di interesse con la Germania – approssimati dalle variazioni percentuali del “premio a termine” della valuta rispetto al marco, e cioè l’aspettativa di mercato sul futuro tasso spot – che si veniva a determinare sui mercati finanziari internazionali. Nella seconda metà degli anni ’80, parallelamente all’abolizione dei controlli, tale “cuneo” andò restringendosi, fino ad annullarsi con il completamento della liberalizzazione dei movimenti dei capitali in tutti i paesi dello SME nel maggio del 1990. Nella seconda fase dello SME (1987-1992), in molti paesi della Periferia la parità scoperta dei tassi di interesse (equazione 7.11) tese a discostarsi ancora dallo zero, ma per assumere questa volta valori positivi. L’origine di tale inversione di segno risiede questa volta nell’andamento della seconda parentesi quadra sul lato destro. La differenza positiva fra cambio a termine e cambio a pronti con il marco – risultando più ampia del deprezzamento registrato dalla lira ex post - indica la 131 presenza di un “rischio valuta” che sostanzialmente dà origine alla divergenza positiva – sul lato sinistro – fra differenziale di interesse con la Germania e deprezzamento ex post della valuta nei confronti del marco. Lungo tutto il periodo di perfetta stabilità dei tassi di cambio all’interno del MTC si riscontra un eccesso del differenziale di tasso di interesse rispetto a variazioni di tasso di cambio. Questa persistenza non può che riflettere l’incompatibilità – percepita nei mercati finanziari – fra cambi fissi e credibilità della politica monetaria dei paesi ad alta inflazione che seguivano una strategia di pegging nei confronti del marco. La spiegazione della diseguaglianza fra differenziali di interesse e variazione del cambio con il marco risiede quindi nella sfiducia nutrita dagli operatori dei mercati finanziari nei confronti dell’annuncio di una monetary stance anti-inflazionistica da parte delle autorità monetarie (premio per il rischio di svalutazione) e/o nella solvibilità del governo (premio per il rischio di ripudio del debito pubblico). Questa sfiducia faceva anche sì che le aspettative di svalutazione implicite nei differenziali di tassi di interesse della Periferia con la Germania - benché trovassero una conferma soltanto parziale nel successivo deprezzamento del tasso di cambio delle valute più deboli nei confronti del marco – venissero corrette con molta lentezza. 11. La politica monetaria nell’Unione Monetaria Europea La moneta comune è entrata nella vita quotidiana dei cittadini europei nel periodo compreso fra il 1 gennaio e il 1 luglio 2002, quando le banconote e le monete in euro sostituirono le valute nazionali in 12 paesi. Il successo della moneta unica non va circoscritto alla conferma dell’acquisita stabilità monetaria, con un tasso di inflazione dell’area valutaria che si è mantenuto intorno al 2%. In effetti, parallelamente alla convergenza dei tassi di interesse nominali, indotta dall’accelerazione nella discesa dei tassi di inflazione, già a partire dal 1994, anche la dispersione dei valori tassi di interesse reali a breve termine conobbe una riduzione rapida e di crescente ampiezza. 132 Successivamente alla decisione di dare avvio all’unione monetaria, il processo di convergenza nominale fra i paesi dell’UME subì una ulteriore accelerazione. Figura 8.1. Convergenza nei tassi di interesse a breve termine, area dell'euro (deviazione standard) 6 5 4 3 2 1 0 1980 1984 1988 nominali 1992 reali 1996 2000 reali senza Grecia Figura 8.2. Spread dei titoli pubblici decennali rispetto ai corrispondenti titoli tedeschi 133 Dal 1999 in poi, si è registrato il sostanziale uguagliamento fra i tassi di rendimento dei titoli pubblici a breve termine (Figura 8.1) ed un notevole restringimento degli spread dei titoli pubblici decennali dei maggiori paesi rispetto ai corrispondenti titoli tedeschi. (Figura 8.2). È infatti aumentata la fiducia sulla solvibilità fiscale dei paesi ad alto debito pubblico, come dimostra il sostanziale azzeramento del premio per il rischio sui titoli pubblici. Per quanto si sia manifestata una tendenza all’avvicinamento fra i tassi di rendimento azionari, la percezione del rischio-nazione è invece ancora elevata riguardo alle attività finanziarie del settore privato. 12. La regola monetaria Fra i cambiamenti strutturali avvenuti negli anni ’70 ed ’80 va annoverato anche l’affermarsi di un nuovo clima intellettuale riguardo al dilemma di fronte al quale le autorità monetarie si trovano di fronte, la scelta fra discrezionalità e regole di politica monetaria. Il principale schema interpretativo di questi due decenni di “alta inflazione” è stato il modello dell’ “incoerenza temporale” della politica monetaria. Tale modello ha contribuito a diffondere nella teoria della politica monetaria un’opinione sfavorevole riguardo al potere discrezionale delle autorità monetarie ed al loro comportamento “attivistico” nelle politiche di stabilizzazione. I sostenitori dell’adozione di una “regola fissa” hanno proposto una commitment technology (ad esempio, la sanzione della penalità pecuniaria a carico del governatore che non si attenga alla regola, § 8.8) che vincoli in modo credibile l’azione delle autorità monetarie. Un evidente vantaggio della regola fissa, rispetto alla discrezionalità, è che una banca centrale la cui volontà di tenere fede alla regola risulti credibile riesce ad ottenere comportamenti di minore incremento dei prezzi da parte delle imprese price-setter. Il problema di determinare la regola ottima consiste nell’incompletezza dell’informazione a disposizione delle autorità monetarie. Riguardo al meccanismo di trasmissione della politica monetaria e alle determinanti dell’inflazione, è difficile stabilire in che misura il governatore debba tenere conto dello scostamento dell’inflazione e dell’output dai valori-obiettivo e di quanto occorra variare il tasso di 134 interesse. Va rilevato, tuttavia, che nell’ultimo decennio l’affidabilità delle stime delle variabili rilevanti è notevolmente migliorata. Concentreremo l’attenzione sulla Regola di Taylor, che oggi rappresenta la funzione di reazione delle principali banche centrali. Con l’adozione di questa regola di politica monetaria, il tasso di interesse ha soppiantato la quantità di moneta quale strumento di attuazione della politica monetaria. Ecco l’equazione che esprime la Regola di Taylor: it * = i + λ0 + λ1 (π te+1 − π *) + λ2 (Yt − Y *) + ζ 1et + ζ 2 et −1 l’equazione in base alla quale le autorità monetarie determinano il valore dell’obiettivo di tasso di interesse perseguito in funzione dei valori noti dello scostamento del tasso di inflazione e dell’output gap dal valore-obiettivo e dall’andamento del tasso di cambio. Il valore corrente del tasso di interesse va ricondotto ad eguaglianza con quello che si stima essere il suo valore di lungo periodo. La contraddizione fra l’obiettivo di un rigoroso perseguimento della stabilità monetaria e l’obiettivo della stabilizzazione del reddito è meno rilevante di quanto appaia con riferimento ad un modello macroeconomico di concorrenza perfetta con perfetta flessibilità di salari e prezzi. Tasso di inflazione e output gap non sempre sono perfetti sostituti nel segnalare le tensioni di domanda presenti nel sistema economico. Un processo di aggiustamento divergente fra i due mercati – ad esempio, per una disomogeneità fra wage gap e price gap in concorrenza monopolistica - può influenzare la strategia di politica monetaria. Se la flessibilità del mercato dei beni differisce da quella del mercato del lavoro, soprattutto nel caso di una manovra di stabilizzazione diretta ad assorbire uno shock negativo di offerta, le autorità monetarie – per determinare l’opportuna variazione del tasso di interesse - debbono tenere conto sia dell’uno che dell’altro scostamento delle due grandezze dai rispettivi valori-obiettivo. 135 L’originario studio di Taylor determina il tasso di interesse della Federal Reserve sulla base dei due termini noti (inflation gap e output gap) ed attribuendo dei valori noti ai parametri λ1, λ2. Affinché la determinazione del tasso-obiettivo it* sia precisa, è tuttavia necessaria la stima econometrica dei valori dei parametri. Essa consiste nell’utilizzare come termine noto il valore corrente del tasso di interesse sul lato sinistro dell’equazione, cosicché i due parametri diventano le incognite da determinare. Una regressione condotta sulla politica monetaria degli anni 1987-89 ha stimato i seguenti coefficienti: per la Bundesbank λ1=1,3 e λ2= 0,2, e per la Federal Reserve i λ1=1,0 e λ2=0,9. Il confronto mostra che nel trade-off inflazionedisoccupazione la banca centrale che guidato la creazione di moneta in Europa negli anni dello SME dava all’obiettivo di inflazione un peso superiore ed all’obiettivo di reddito (e di riduzione della disoccupazione) un peso molto inferiore a quelli della banca centrale degli Stati Uniti. I coefficienti recentemente stimati per la BCE (λ1=1,5, e λ2=0,5) indicano come la banca centrale europea sia ancora più rigorosa della Bundesbank nel fissare un alto valore del parametro relativo alla stabilità monetaria; il valore superiore a quello della Bundesbank del parametro relativo all’obiettivo della stabilizzazione dell’output sembra da attribuire al fatto che nei primi anni dell’euro si è manifestato un forte shock di domanda, a fronte della dominante presenza di shock di offerta negativi negli anni dello SME. Non va poi dimenticato che le politiche di stabilizzazione sono la risultante delle due stance monetaria e fiscale. Il policy mix che scaturisce dalle decisioni delle due autorità può alternativamente consistere in un equilibrio di Nash, dove ciascuna autorità massimizza la propria funzione di comportamento sulla base dell’aspettativa sulle credenze e sulle strategie dell’altra autorità, oppure in un equilibrio cooperativo, dove le autorità agiscono di concerto. La Commissione Europea si attende che la politica fiscale – in particolare nei paesi dell’UME ad “alto” debito pubblico privilegi l’obiettivo della decumulazione del debito su quello della stabilizzazione dell’output. L’obiettivo della stabilizzazione dell’output viene così a ricadere sulla sola politica monetaria. In presenza di uno shock d’offerta negativo simmetrico, la 136 BCE può rendere il perseguimento dell’obiettivo di stabilizzazione compatibile con l’obiettivo prioritario della stabilità monetaria realizzando una correzione al rialzo del tasso di interesse meno che proporzionale rispetto alla variazione del tasso di inflazione. Il tasso di interesse-obiettivo viene perciò determinato mediante la somma fra tasso di interesse-obiettivo della Regola di Taylor e tasso di interesse del periodo precedente moltiplicati ciascuno per un “peso” (θ<1 e μt è l’errore stocastico): (8.1) it = θit * +(1 − θ )it −1 + µ t Tanto minore è il valore attribuito al “peso” che la banca centrale applica al tasso di interesse-obiettivo di lungo periodo (θ) – e, quindi, tanto più conta il tasso del periodo precedente (1-θ) - tanto più “lento” è l’adeguamento del tasso di interesse di mercato al valore-obiettivo it* perseguito dalla banca centrale. 13. La funzione di comportamento del governatore A causa del problema dell’“incoerenza temporale”, un paese può avere ereditato una distorsione inflazionistica dalla “storia passata” della politica monetaria della propria banca centrale. È quanto è accaduto nei decenni scorsi alla maggior parte dei paesi europei. Negli anni di “alta” inflazione, le autorità monetarie sono esposte al pericolo di un insufficiente grado di credibilità dei loro annunci di crescita monetaria. Di qui, l’idea di contrastare il problema dell’“incoerenza temporale” rafforzando l’indipendenza, la responsabilità e la trasparenza della banca centrale. Kenneth S. Rogoff (1985) è l’economista che ha elaborato un modello formale nel quale dimostra che la funzione di benessere sociale di un paese conoscerebbe un “miglioramento paretiano” con la nomina di un governatore “conservatore”, definito come una personalità nota per la sua fedeltà al perseguimento della stabilità monetaria attraverso segnali e comportamenti diretti a sottolineare l’impegno antiinflazionistico della banca centrale. Un banchiere centrale “alla Rogoff” conferisce una elevata credibilità alla propria strategia, assumendosi la responsabilità di una tolleranza per la disoccupazione maggiore di quella della società. Tale orientamento si riflette in comportamenti di politica monetaria indipendenti dalla preferenza del 137 governo, che viene invece influenzata dall’effetto negativo che un aumento della disoccupazione avrebbe sul voto degli elettori. Con una strategia dell’informazione trasparente, tale da convincere i mercati della sincerità della promessa di aggiungere un fattore additivo Ω>0 all’“avversione all’inflazione” della società (β+Ω), la banca centrale guadagna una forte reputazione anti-inflazionistica, il che le dà un vantaggio nell’affrontare il problema di credibilità causato dall’“incoerenza temporale”. Di fronte al trade-off fra credibilità e flessibilità, il prezzo che un governatore “conservatore” si troverà spesso a dover pagare è la rinuncia alla flessibilità – tipica del governatore “tradizionale” - nell’azione di politica monetaria, ricorrendo in misura molto limitata a manovre di stabilizzazione macroeconomica (Schaling, 1995). Considerando queste ipotesi, l’equazione presentata nella Parte Prima diviene: (8.2) Loss = [( β + Ω)(π − π *) 2 + [(Y − Y *)]2 con π* = 0 e Y*=δYN , dove δ>1. Da questa equazione si ottiene il tasso di inflazione d’equilibrio; rispetto alla (2.13), al denominatore ora compare il termine aggiuntivo Ω, che riflette la diminuzione del tasso di inflazione che si associa alla nomina di un governatore “conservatore”: (8.3) π = α β +Ω (δ − 1)YN Pertanto, il tasso di inflazione presenta una correlazione diretta con la pendenza della curva di Phillips (α), ed una correlazione inversa con: 1) l’“avversione inflazione” (β) aumentata del più forte impegno anti-inflazionistico del governatore “conservatore” (il fattore additivo Ω>0), e 2) l’obiettivo di reddito al di sopra del suo livello “naturale” (δ>1). 138 In base alla descrizione sopra fatta, il comportamento del banchiere centrale “conservatore” si connota per l’indipendenza. In che misura il governatore di Francoforte rispecchia questo identikit? Lo Statuto assegna un’indipendenza pressoché totale agli organi decisionali della BCE. La definizione di obiettivi di crescita del reddito e dell’occupazione da affiancare all’obiettivo primario della stabilità dei prezzi viene lasciata nel vago. Sull’indipendenza dalle autorità monetarie nazionali, in primo luogo dai rispettivi governi, vigila la Corte di Giustizia Europea. Essa ha il potere si rimuovere un membro del Consiglio Direttivo della BCE che si renda responsabile dei comportamenti vietati dall’art. 108 del Trattato, secondo il quale i membri del CD non “possono sollecitare o accettare istruzioni dalle istituzioni o dagli organi comunitari, dai governi degli Stati membri né da qualsiasi altro organismo”. Si suole perciò dire che l’UME soffre di un “deficit democratico”, in quanto manca un organo con effettivi poteri di controllo preposto alla verifica delle decisioni delle autorità monetarie. Ad esempio, il Presidente della Federal Reserve statunitense deve rispondere riguardo agli effetti che la politica monetaria ha sulla dinamica occupazionale, relazionando dinanzi al Congresso nella cosiddetta “HumphreyHawkins testimony”. Il Presidente della BCE presenta un rapporto annuale sulla politica monetaria davanti al Parlamento Europeo ed informa i capi di governo dei paesi dell’UME negli incontri periodici. Tali forme di comunicazione ex post non configurano comunque un credibile meccanismo di pesi e contrappesi (check and balances) esercitato dagli organismi politici nei confronti dell’istituzione monetaria. Fintantoché sarà dotata di poteri limitati, l’assemblea del Parlamento Europeo, per quanto legittimata dal voto popolare, non potrà godere dell’autorità per rappresentare un’istituzione di controllo sull’operato del Comitato Esecutivo e/o del Consiglio Direttivo della BCE. D’altro canto, esiste un’ambiguità nella posizione di teoria monetaria secondo la quale una banca centrale dovrebbe essere statutariamente obbligata ad ottemperare al contempo ai due principi dell’indipendenza dalle altre istituzioni e della 139 responsabilità (accountability) di fronte ad una o più organi costituzionale. Negli Stati Uniti, il Congresso detiene un potere di sanzione, consistente nella possibilità di votare un emendamento costituzionale che modifichi le prerogative della Federal Reserve. Un’istituzione di controllo democratico sulle decisioni della BCE potrebbe avere obiettivi diversi da quelli del governatore, ad esempio riguardo al livello di occupazione come nel caso del Congresso USA. Gli operatori finanziari potrebbero d’altro canto formarsi l’aspettativa che l’indipendenza acquisita della banca centrale con la nomina di un governatore “conservatore” che ha rafforzato l’avversione all’inflazione rispetto al valore preferito della società è destinata ad affievolirsi. In altre parole, esiste anche un trade-off fra indipendenza (β+Ω) e responsabilità (ϑ). Considerando tutti questi parametri (β+Ω-ϑ), la funzione di perdita sociale diviene: (8.4) Loss = ( β + Ω − ϑ )π 2 + [α (π − π *) + (1 − δ )YN ]2 L’indipendenza della BCE ha il suo “tallone d’Achille” nell’eccesso di discrezionalità nell’informazione dei mercati. Non vengono comunicati i risultati delle eventuali votazioni a maggioranza ed il processo decisionale non è neppure conoscibile ex post, dato che non esiste obbligo di pubblicare i verbali delle riunioni del Consiglio Direttivo. L’obiettivo di accrescere il grado di legittimazione democratica della politica monetaria può in effetti essere perseguito soltanto accrescendo la responsabilità. In effetti, il controllo da parte di un organo costituzionale implica una forte trasparenza che a sua volta finisce per ridurre l’indipendenza, in quanto il condizionamento da parte delle istituzioni politiche elettive è destinato ad aumentare. Il vero trade-off sembra dunque essere quello fra indipendenza e trasparenza. La condotta della BCE potrebbe guadagnare in trasparenza con l’adozione della strategia di comunicazione ex ante, imperniata sulla distinzione fra indipendenza di obiettivo e indipendenza di strumento. Secondo questa soluzione istituzionale, seguita dalla Bank of England, una banca centrale deve godere di piena indipendenza sul modo in cui perseguire gli obiettivi, ma non sugli obiettivi stessi. La decisione politica fissa l’obiettivo di tasso di inflazione, e questo valore viene poi 140 liberamente perseguito dalla banca centrale in virtù dell’indipendenza riconosciutale limitatamente alla variazione da imprimere al tasso di interesse. Nell’intraprendere una manovra monetaria espansiva, la banca centrale dovrà però rendere trasparente la base analitica del proprio convincimento. Ad esempio, il governatore dovrà giustificare con l’evidenza econometrica che un livello di reddito più elevato sia compatibile con l’obiettivo di inflazione. Tracciamo le rette di stabilizzazione di tre modelli di comportamento del governatore: tradizionale, conservatore e “con obiettivo espresso in termini di tasso d’inflazione” (inflation targeting). Nella Figura 8.3, curve di Phillips sono lineari e l’intercetta per i primi due modelli parte da zero anche per la disoccupazione. Al governatore “tradizionale” viene attribuita la retta di stabilizzazione con la pendenza più elevata (T): si assume che tale governatore conduca una politica monetaria secondo una funzione di perdita sociale in cui il peso per l’“avversione all’inflazione” (β) riflette la valutazione della società. Al governatore “conservatore” viene attribuita la retta di stabilizzazione con pendenza inferiore (C): si assume che conduca una politica monetaria ispirata ad una funzione di perdita sociale che incorpora un peso per l’“avversione all’inflazione” superiore a quello della società. Infine, nella strategia di inflation targeting, il comportamento delle autorità monetarie è vincolato al perseguimento di un valore-obiettivo annunciato espresso in termini di tasso di inflazione annuo (Z). Il governatore “tradizionale”, nell’adottare per l‘inflazione lo stesso peso della società, accetta anche la distorsione inflazionistica implicita nei comportamenti delle cosiddette parti sociali, le organizzazioni delle imprese e dei lavoratori. Anche il governatore inflation targeting accetta il peso che al valore-obiettivo dell’inflazione è assegnato dalla società; tuttavia, la preferenza per un obiettivo di inflazione puramente “frizionale” compreso fra lo 0% e il 2% è resa credibile dall’impegno a tenere fede al valore-obiettivo del livello di reddito “naturale” (con il parametro δ=1). La pendenza della retta di stabilizzazione del governatore inflation targeting (Z) è 141 identica a quella del governatore “tradizionale” (T), ma l’intercetta zero esprime l’adesione all’obiettivo di “inflazione zero”. Un annuncio da parte delle autorità monetarie di perseguire l’obiettivo di “inflazione zero” implica la rinuncia alla distorsione inflazionistica. Con tale impegno, il governatore inflation targeting abbandona la visione della politica monetaria basata sul trade-off fra credibilità e flessibilità. Infatti, allo scopo di segnalare la credibilità della propria politica monetaria, una banca centrale rinuncia a ridurre il tasso di disoccupazione al di sotto del valore naturale: il punto di intersezione fra la curva di Phillips di breve e quella di lungo periodo si sposta da A ad A’. Il governatore inflation targeting esprime così la disponibilità a una manovra monetaria di stabilizzazione successiva a uno shock in base alla pendenza della retta di stabilizzazione desiderata dalla società, ma è indisponibile a spingere il reddito al di sopra del livello “naturale”. Una tale strategia, infatti, innalzando le aspettative inflazionistiche, finirebbe per incorporare nel sistema economico un tasso di inflazione “medio” positivo superiore al valore frizionale compreso fra l’1% ed il 2%, con conseguente perdita di reputazione anti-inflazionistica. L’impegno del governatore inflation targeting a realizzare un obiettivo di “inflazione zero” potrebbe essere sostenuto da un disincentivo a deviare dall’annuncio. In letteratura si ipotizza che il contratto del governatore preveda come meccanismo di enforcement una sanzione in caso di mancato conseguimento. Secondo Carl E. Walsh (1995), la sanzione a carico delle autorità monetarie dovrebbe consistere nella penale di una somma di danaro per ciascun punto di scostamento dall’obiettivo. In caso di shock di offerta negativo, il governatore inflation targeting deve lasciare aumentare il tasso di disoccupazione. Nella Figura 8.3, tale comportamento è rappresentato con la traslazione verso destra della retta di stabilizzazione da Z a Z’. In assenza di politica di stabilizzazione, l’incremento della disoccupazione dà luogo a una nuova curva di Phillips di lungo periodo (uN’). In corrispondenza dell’incrocio fra questa curva e la curva di Phillips successiva allo shock negativo, verrà così raggiunto un equilibrio nel punto A”. La strategia 142 dell’inflation targeting mantiene l’economia ancorata all’inflazione zero al prezzo di “accettare” tutto l’incremento del tasso di disoccupazione (A’–A”) indotto dallo shock negativo. Consideriamo le funzioni di comportamento dei governatori (T) e (C). Successivamente ad uno shock negativo rappresentato dallo spostamento verso l’alto a destra (Figura 8.3) della curva di Phillips, l’incremento della disoccupazione risulta contenuto in un’ampiezza minore nella nuova posizione di equilibrio. In corrispondenza delle rette di stabilizzazione dei governatori T e C si individuano i tassi di disoccupazione AT e AC. Tali valori sono inferiori a quello (A”) determinato dal governatore Z. Figura 8.3. Tre modelli di governatore: tradizionale, conservatore e inflation targeting uN uN’ π T C Z Z’ π=0 A’ AT AC A A” u La funzione di comportamento del governatore “conservatore”, tuttavia, prevedendo un grado di stabilizzazione minore, determina un tasso di disoccupazione superiore a quello del governatore “tradizionale”. Quest’ultimo, infatti, è nelle condizioni di sfruttare il trade-off fra flessibilità e credibilità, assegnando un peso maggiore alla “flessibilità” di produzione ed occupazione che non alla “credibilità” dell’orientamento anti-inflazionistico della propria politica monetaria. 143 Attualmente, la strategia di politica monetaria dell’ inflation targeting è ufficialmente adottata dalle banche centrali dei seguenti paesi: Regno Unito, Canada, Australia, Nuova Zelanda, Svezia, Brasile, Corea del Sud. I detrattori di tale strategia ritengono che essa inglobi una potenziale distorsione in senso deflazionistico, per l’impossibilità di deviare dal valore numerico assegnato all’obiettivo finale di politica monetaria. I sostenitori della sua adozione da parte delle banche centrali ritengono al contrario che essa conferisca una maggiore flessibilità alla politica monetaria. Al di là di questo dibattito teorico, si può osservare che un contratto che commini al governatore una sanzione commisurata all’eccesso sul tasso di inflazione annunciato presenta il rischio di distorsione nel comportamento di attuazione del contratto. Infatti, in presenza di uno shock negativo di offerta, il governatore razionale potrebbe essere indotto dal disincentivo rappresentato dalla sanzione ad un comportamento fortemente “avverso al rischio” ed ipotizzare a priori un’origine reale (una variazione delle preferenze o della TFP) dello shock. Il governatore si astiene dall’attuare una manovra monetaria di stabilizzazione evitando così di incorrere nella sanzione in caso di ripresa dell’inflazione. La giustificazione teorica per tale comportamento si trova nei modelli della NCE, dove si argomenta che le politiche macroeconomiche dirette a contrastare uno shock di offerta negativo producono soltanto una perdita di benessere. In particolare, i modelli che si ispirano al RBC riconducono la persistenza di shock negativi di offerta a fattori strutturali, quali ad esempio rigidità del mercato del lavoro oppure tasse distorsive. In presenza di un impiego inefficiente delle risorse (un tasso di disoccupazione che viene giudicato eccessivamente alto), una traslazione verso sinistra della curva di Phillips verticale e verso destra della AS verticale non sarebbero conseguibili attraverso politiche macroeconomiche, ma unicamente attraverso riforme microeconomiche tali da eliminare le suddette distorsioni. Nella Figura qui sopra, uno shock negativo si riflette nello spostamento verso sinistra della curva di Phillips di lungo periodo in corrispondenza dell’inflazione “zero” e dell’equilibrio al valore del NRU o del NAIRU (uN). Secondo il punto di 144 vista della RBC, tale spostamento andrebbe considerato dalla banca centrale come una nuova posizione di lungo periodo del NRU (uN’) determinata da fattori reali. Secondo i modelli della NKE, invece, a rendere strutturale l’innalzamento del NAIRU è proprio il mancato ricorso alle politiche macroeconomiche di stabilizzazione, che crea le condizioni per il manifestarsi del fenomeno dell’isteresi. Una strategia monetaria di moderato e lento incremento del tasso di interesse consente invece quella salita dei prezzi necessaria a ridurre il salario reale e favorire la ripresa della domanda di lavoro. Tuttavia, una funzione di reazione che contempli un “peso” θ vicino a zero può indurre gli agenti del settore privato a formulare la congettura che la banca centrale stia cedendo alle pressioni per l’attuazione di una politica accomodante; di conseguenza, imprese e lavoratori ritoccherebbero verso l’alto prezzi e salari e le aspettative di inflazione finirebbero per aumentare. Questa preoccupazione diventa una certezza per i teorici del “ciclo economico reale”. Questa scuola di pensiero si pronuncia decisamente a favore dell’inflation targeting. Una banca centrale che riferisca la propria manovra ad un esplicito obiettivo tasso di inflazione risponde al canone di comportamento che esige obiettivi chiari annunciati in termini numerici. La strategia dell’inflation targeting si fonda su uno spettro di informazioni che copre tutto l’insieme di possibili shock di offerta e di domanda. La Regola di Taylor sarebbe sub-ottimale perché – non tenendo conto dei fattori di origine reale come determinanti delle fluttuazioni cicliche - comunicherebbe segnali ambigui ai mercati. 14. La politica monetaria della BCE Il lungo processo di integrazione monetaria era stato caratterizzato da un lungo periodo di “alti” tassi di interesse reale determinati dalla Bundesbank per l’intera area dello SME. Una spiegazione alternativa della lenta crescita del decennio 1985-95 è stata individuata nei bassi tassi di crescita del reddito, che vengono messi in relazione con gli alti tassi di interesse e con l’abbandono in Europa delle politiche macroeconomiche di sostegno ai livelli di attività economica (Phelps, 1994; Fitoussi et al., 2000). 145 L’evidenza empirica presentata nella Figura qui sotto mostra come per tutto il periodo centrale dello SME, il tasso di interesse fosse superiore al tasso di crescita. Se si escludono episodi particolari (il picco della recessione nel 1982 per gli Stati Uniti e nel 1993 per Germania, Francia ed Italia) , il confronto fra i tracciati per i tre maggiori paesi dello SME e gli Stati Uniti è particolarmente illuminante. Mentre i valori delle due variabili sono mediamente in equilibrio negli Stati Uniti, si registra mediamente un eccesso del tasso di interesse sul tasso di crescita, che a volte raggiunge una notevole ampiezza (in tutto il decennio 1985-95 i tassi di interesse sono stati in Europa superiori a quelli statunitensi; nel periodo 1989-93 i tassi a breve hanno sopravanzato i tassi a lungo termine). Figura. Tassi di interesse e tassi di crescita (valori reali): Germania, Francia, Italia e Stati Uniti (1979-2004) Germania crescita tasso di interesse a breve termine crescita 2003 2001 1999 1997 1995 1993 1991 1989 1987 1985 1983 -2 1981 2003 2001 1999 -2 1997 0 1995 0 1993 2 1991 2 1989 4 1987 4 1985 6 1983 6 1981 8 1979 8 1979 Francia tasso di interesse a breve termine Italia Stati Uniti 10 8 8 6 6 4 4 2 2 -6 2003 2001 1999 1997 1995 1993 1991 1989 1987 1985 1983 -2 1981 -4 0 1979 2003 2001 1999 1997 1995 1993 1991 1989 1987 1985 1983 1981 -2 1979 0 -4 crescita tasso di interesse a breve termine crescita tasso di interesse a breve termine 146 Nei tre paesi dello SME, il periodo di maggiore eccesso del tasso di interesse rispetto al tasso di crescita è quello che va dalla fine della prima fase (1979-86) alla fine della seconda fase (1987-92) dello SME. I tracciati di Germania da un lato e Francia ed Italia dall’altro, sono molto diversi. In Italia, i divari positivi appaiono molto più pronunciati rispetto a quelli del paese leader dello SME già a partire dalla prima fase: nel § 6.6 ne abbiamo individuato l’origine nel differenziale di tasso di interesse dovuto ai premi per il rischio di cambio e di default. Nelle principali fasi recessive conosciute dai paesi dello SME (1980-82 e 1991-93), si può ipotizzare che l’orientamento restrittivo della politica monetaria della Bundesbank abbia finito per penalizzare non solo l’evoluzione del rapporto deficit pubblico/PIL (a causa dell’impatto negativo che alti tassi inducevano sul deficit secondario al numeratore e della lenta dinamica del PIL al denominatore) ma anche la crescita economica. Come viene illustrato nella Figura 8.4 in Germania, Francia ed Italia soltanto la drastica discesa dei tassi di interesse determinata dal passaggio all’unione monetaria rende nuovamente possibile quell’eccesso del tasso di crescita sul tasso di interesse che era scomparso con l’inizio dello SME. Figura 8.5. Tasso di cambio dollaro/euro 1.4 1.3 1.2 1.1 1.0 0.9 0.8 gen99 lug99 gen00 lug00 gen01 lug01 gen02 lug02 gen03 lug03 gen04 lug04 gen05 lug05 gen06 lug06 147 L’unione monetaria ha anche coinciso con una fase di bassi tassi di interesse reali nei mercati finanziari internazionali. L’ambiente economico in cui la BCE si trova ad operare è dunque fondamentalmente diverso rispetto a quello in cui erano venute a trovarsi la Bundesbank e le altre banche centrali europee. La monetary stance fino ad oggi realizzata dalla BCE va valutata su due questioni: 1) la forte oscillazione del cambio euro-dollaro; 2) la recessione economica che ebbe inizio nel 2001. Alla crescente divaricazione fra Stati Uniti ed Unione Monetaria Europea degli ultimi venti anni ha senza dubbio contribuito la diversa concezione delle politiche macroeconomiche. All’indomani di ogni recessione che colpisca l’economia statunitense, mentre le forze di mercato ripristinano le condizioni dell’equilibrio macroeconomico attraverso un rapido aggiustamento di salari e prezzi, le autorità monetarie e fiscali convergono nel sostegno della domanda necessario a permettere la ripresa economica. Dopo l’interruzione causata dallo scoppio della bolla dei titoli ICT del 2000, la crescita del PIL favorita dalla stagione di bassi tassi di interesse inaugurata dalla Fed di Greenspan, è continuata senza significative fluttuazioni cicliche. La risalita delle quotazioni di borsa ha innescato un prolungato effettoricchezza sulla domanda di consumo che ha permesso all’economia statunitense fino allo scoppio della crisi finanziaria - di mantenere sostenuta la crescita del PIL. Pertanto, la coesione sociale è perseguita mantenendo alto il tasso di occupazione con le politiche monetaria e fiscale “attive”, mentre il ruolo dello Stato sociale è limitato ai programmi per i più poveri. Obiettivo delle amministrazioni americane è il contrasto di gravi condizioni di povertà e di esclusione sociale, non la riduzione della diseguaglianza di reddito. Distanze anche ingenti fra i guadagni sono legittimate dal capitale umano di cui si dispone, e quindi dal “merito”, qualsiasi fosse l’”insieme di opportunità” di cui disponeva il soggetto nel corso della propria formazione. Questa visione trova spiegazione con la priorità lessicografica data alla tutela degli incentivi di mercato, che consigliano di favorire l’iniziativa privata nel campo dell’istruzione e di mantenere deregolamentato il mercato del lavoro. 148 Il coinvolgimento delle autorità pubbliche nell’economia non è circoscritto alla stabilizzazione del reddito nel breve periodo, ma interessa anche la dinamica di lungo periodo. Negli Stati Uniti, un paese di libero mercato che in molti settori si colloca sulla frontiera tecnologica, le agenzie dello Stato federale svolgono una politica di sostegno alla ricerca, garantendo al sistema produttivo un flusso continuo di brevetti che sostengono la dinamica della Produttività Totale dei Fattori (Total Factor Productivity: TFP) (Vanderbussche et al., 2004). Le recenti vicende delle economie avanzate mostrano però come nel corso della crescita le forze di mercato tendano ad allargare le disparità di reddito e di ricchezza, in misura tanto maggiore quanto più ridotti sono i programmi pubblici di protezione sociale e di redistribuzione. Negli ultimi venti anni, il rapporto fra i redditi dei top-incomes e quelli del ceto medio è così passata negli Stati Uniti da 40 a 419, il reddito della popolazione più povera (il primo centile) è pari a ¼ del PIL totale ed il 40% della ricchezza si concentra oggi nell’1% più ricco della popolazione (Stiglitz, 2013). Per quanto riguarda la politica monetaria, va ricordato che all’avvio dell’unione monetaria la strategia della BCE era diretta ad orientare verso l’alto il tasso di cambio dell’Euro rispetto al dollaro statunitense. L’obiettivo era quello di fare acquisire una forte “reputazione” ad una valuta nuova la cui banca centrale non ha alle spalle un potere sovrano. Fra il 2000 ed il 2001, l’apprezzamento dell’Euro venne realizzato spingendo verso l’alto il costo del danaro, con l’obiettivo di “anticipare” un presunto aumento dell’inflazione attesa (la core inflation era infatti stabile) . Nel corso di questa manovra restrittiva intervenne lo shock delle “Twin Towers”, che ebbe l’effetto di aggravare la tendenza deflazionistica che la monetary stance stava già imprimendo all’attività economica. Tabella 3. Output gap nell’UME e negli Stati Uniti 200 200 200 200 0 1 2 3 T2 T2 T2 T1 T2 T3 T4 149 T1 0, UME 5 0,8 2, US 4 0,6 0,7 0,8 0,3 T3 T4 T1 T3 T4 T1 T3 T4 - - - - - - - 0,1 0,7 0,8 -0,9 1,2 1,6 2,1 -2,4 2,7 2,8 - 2,8 - - - - - - - - 2,1 1,5 0,6 -0,6 1,4 1,5 1,0 -1,4 1,1 1,5 1,9 -1,9 1,3 1,3 Fonte: Croci Angelini e Farina (2007) Dopo la discesa dell’euro nei confronti del dollaro all’avvio dell’UME nel gennaio del 1999, nel luglio 2001 ha inizio una eccezionale risalita. La rivalutazione dell’euro si colloca attorno al 40% (Figura 8.5) rispetto al valore minimo. Un problema interpretativo della strategia della BCE è che non è chiara la funzione di comportamento delle autorità di fronte al rapporto di cambio dell’euro con il dollaro. Qualora l’inflazione media attesa nell’UME sia in aumento, ma il dollaro tenda a deprezzarsi nei confronti dell’euro, un intervento della BCE di correzione verso l’alto del tasso di interesse, allo scopo di contrastare l’accelerazione nella dinamica dei prezzi nell’area dell’euro, entra in conflitto con l’esigenza di evitare che un tasso di cambio troppo forte con il dollaro indebolisca la competitività delle merci europee. Il dilemma sul valore più appropriato da fare assumere alla velocità di adeguamento del costo del danaro sembra avere messo in difficoltà la BCE nei primi anni del nuovo millennio. All’apprezzamento dell’euro ha contribuito il progressivo innalzamento del tasso di interesse da parte della BCE. Fra il 2000 ed il 2001, il costo del danaro sembra aumentare in conformità con l’approccio teorico sotteso alla nuova curva di Phillips, e cioè allo scopo di “anticipare” un presunto aumento dell’inflazione attesa (la core inflation era infatti stabile). Nel corso di questa manovra restrittiva, è intervenuto lo shock delle “torri gemelle”, che ha finito per aggravare la tendenza deflazionistica che la monetary stance stava già imprimendo all’attività economica. Ci sono dunque indizi che inducono a formulare l’ipotesi che la governance 150 macroeconomica - il mandato della BCE a perseguire prioritariamente l’obiettivo della stabilità monetaria e la subordinazione delle politiche fiscali nazionali al PSC – finisca per orientare l’eurozona in senso deflazionistico. A partire dal terzo trimestre del 2002, la crescita nell’UME, già lenta, ha subito un ulteriore caduta ed i divari di output gap con gli Stati Uniti hanno teso ad ampliarsi. A partire dal 2003, alla ripresa negli Stati Uniti ha corrisposto la continuazione della stagnazione della domanda in Europa (vedi Tabella qui sotto). Figura. Output gap e politiche di stabilizzazione nell’UME e negli USA. USA 2 7 1 7 1 6 0 6 0 5 -1 5 -1 4 -2 4 -3 3 -2 3 -4 2 -3 2 -5 1 -4 1 -6 0 -5 0 19 94 19 95 19 96 19 97 19 98 19 99 20 00 20 01 20 02 20 03 20 04 8 % del PIL potenziale 2 19 94 19 95 19 96 19 97 19 98 19 99 20 00 20 01 20 02 20 03 20 04 % del PIL potenziale Eurozona output gap output gap deficit % PIL deficit % PIL tassi di interesse a breve (scala a destra) tassi di interesse a breve (scala a destra) La Figura qui sopra offre due spunti di riflessione riguardo a questa ipotesi: 1) successivamente alla recessione dei primi anni novanta, ad output gap negativi di ampiezza maggiore nell’eurozona rispetto agli Stati Uniti corrisposero ancora nel 1994 e 1995 rapporti deficit /PIL altrettanto più elevati. I paesi dell’eurozona espansero i deficit pubblici in misura molto maggiore di quanto non abbiano fatto dopo la recessione causata dallo shock di domanda delle “torri gemelle”. Le politiche di stabilizzazione macroeconomiche furono efficaci perché il Trattato di Maastricht 151 non aveva ancora incominciato a “mordere”. Gli output gap negativi indussero i governi a manovrare sia il tasso di interesse che i deficit pubblici in funzione anticiclica; 2) durante la recessione dei primi anni del nuovo millennio, il confronto con gli Stati Uniti mette in evidenza come l’azione di stabilizzazione sia della Fed che del Tesoro sia stata molto più intensa che non quella della BCE e dei governi nazionali vincolati dal PSC. Rispetto all’eurozona, nel 2003 e 2004 il tasso di interesse nominale presenta negli Stati Uniti valori molto più bassi e l’ampiezza del deficit pubblico supera di molto l’ampiezza dell’output gap. L’evidenza empirica sopra presentata suggerisce che l’azione della BCE abbia dato priorità assoluta alla stabilità monetaria, in quanto fra il 2002 e il 2005 gli aggiustamenti verso l’alto del tasso di interesse sono stati adottati in presenza di output gap negativi e sembrano quindi avere voluto anticipare possibili tensioni al rialzo dei prezzi. Ci sono dunque elementi per sostenere che la BCE abbia di fatto adottato la strategia inflation targeting di immediata reazione all’inflazione attesa, ponendo il “peso” θ=1. Con un tasso di inflazione medio UME attorno al 2%, l’output gap può rivelarsi un’informazione indispensabile sulla fase ciclica. Tale informazione è particolarmente preziosa nell’area valutaria europea, dove la persistente dispersione dell’ampiezza delle fluttuazioni cicliche fra i paesi comporta il rischio per i paesi a minore tasso di inflazione e più ampio output gap di subire una insufficiente stabilizzazione di politica monetaria. Pertanto, anche quando la sua funzione di reazione fa riferimento al solo scostamento del tasso di inflazione dal suo valore-obiettivo, l’autorità monetaria non può non tenere conto dell’output gap. Nella prospettiva interpretativa della NKE, che sottolinea l’esigenza di evitare spinte deflazionistiche in regime di “bassa inflazione”, soltanto dopo che la variazione del tasso di interesse abbia ridotto l’output gap la banca centrale dovrebbe concentrarsi sull’obiettivo di riportare l’inflazione sul sentiero di convergenza al valore annunciato. La monetary stance della BCE (Figura 8.6) non evidenzia una particolare sagacia nel modulare le variazioni del tasso di 152 interesse in modo che i segnali tesi a scoraggiare le aspettative inflazionistiche non abbiano un effetto depressivo sulla domanda aggregata dei paesi UME. In conclusione, la politica monetaria comune dei primi cinque anni è stata condotta sotto il segno della prudenza. Una delle principali motivazioni risiede nel difficile equilibrio fra l’esigenza della BCE di costruirsi una reputazione antiinflazionistica e l’esigenza di impedire che i fattori di instabilità macroeconomica – ad esempio, lo shock (simmetrico negativo) di domanda rappresentato dall’attacco alle “torri gemelle” - compromettano le già molto deboli prospettive della crescita economica nell’area dell’euro. Questa difficoltà è stata accresciuta dalla circostanza che, se si esclude un breve intervallo fra metà 2000 e metà 2001, l’obiettivo intermedio della politica monetaria – un tasso di crescita dell’aggregato M3 fissato dalla BCE al 4,5% annuo - è stato sempre mancato per eccesso, in una misura fra i 2 ed i 4 punti percentuali per anno. Una possibile spiegazione chiama in causa i valori immobiliari. Il rapido abbassamento dei tassi di interesse potrebbe avere stimolato la domanda di abitazioni con conseguente esplosione dei prezzi, oppure, all’inverso, l’alta percentuale europea di residenti proprietari potrebbe avere beneficiato di un effetto ricchezza da incremento dei valori immobiliari tale da provocare un notevole innalzamento della domanda di moneta. Diversamente da altre banche centrali, la BCE non utilizza un indice del costo della vita che includa anche il prezzo delle case. La lentezza e la timidezza con cui la BCE ha corretto il tasso di interesse al ribasso potrebbe avere origine dall’incertezza sull’effettivo significato del livello abnorme di M3. Una strategia di politica monetaria sostanzialmente imperniata sull’inflation targeting, ma che si sviluppa senza un relativo annuncio e basandosi sul monitoraggio della M3, non è in grado né di intervenire con prontezza né di comunicare segnali credibili ai mercati. BOX. LA STRATEGIA DI INFLATION TARGETING, LA FED E LA BCE Le vicende che hanno posto fine alla fase espansiva degli Stati Uniti, prolungatasi per tutti gli anni ’90, sono molto illuminanti a proposito della strategia di inflation targeting. La Federal Reserve si è trovata di fronte al dilemma fra due interpretazioni 153 alternative di questo ciclo economico di inusuale lunghezza: i) la prima ipotizzava un “salto” indotto dal cambiamento tecnologico nel livello della TFP, connesso al largo impiego nelle imprese delle nuove tecnologie dell’informatica e delle telecomunicazioni; ii) la seconda riteneva che la lunga fase espansiva consistesse in uno shock positivo di domanda: l’incremento indotto nella domanda di consumo dall’effetto ricchezza conseguente alla lunga crescita dei valori dei titoli delle imprese delle nuove tecnologie. Se fosse stata vera la prima ipotesi, la Federal Reserve avrebbe dovuto evitare di intervenire. Allorché il cambiamento tecnologico determini un innalzamento del reddito potenziale, il sostegno di una politica monetaria espansiva alla crescita della produzione non troverebbe un limite nelle condizioni dell’offerta, ma si tradurrebbe piuttosto in una riduzione strutturale del tasso naturale di disoccupazione che la politica monetaria dovrebbe guardarsi bene dal contrastare. Se fosse invece stata vera la seconda ipotesi, una restrizione monetaria “preventiva” avrebbe consentito un progressivo calo dei valori azionari, in modo da evitare che le aspettative - prendendo atto che le quotazioni esprimevano un valore attuale dei profitti futuri di molto superiore all’effettiva capitalizzazione – sgonfiassero repentinamente la “bolla speculativa”, con conseguente grave rischio di recessione per il crollo dei prezzi di borsa e quindi della domanda aggregata. Nella stima del tasso di inflazione, la Federal Reserve avrebbe perciò dovuto tenere conto, oltre che dell’indice dei prezzi dei beni, anche delle quotazioni delle attività finanziarie e procedere ad un innalzamento del tasso di interesse. È probabile che questo sia stato il percorso logico seguito dal governatore Alan Greenspan e che fra le due opposte ipotesi sull’espansione USA la verità stesse nel mezzo. La strategia seguita è consistita in una moderata e graduale restrizione monetaria (un valore di θ vicino a 0 nella 8.1 del § 8.5), diretta innanzitutto ad influenzare al ribasso le aspettative degli operatori di mercato sui rendimenti azionari. Tale strategia non è tuttavia riuscita ad evitare lo scoppio della “bolla” e la conseguente recessione. Ma le cose sarebbero probabilmente andate ancora peggio se la Fed avesse deciso – erroneamente – che il decremento del tasso di disoccupazione fosse unicamente il segnale di un incremento di produttività di tutto il sistema economico e non avesse favorito l’adeguamento al ribasso delle aspettative di crescita. Il governatore Greenspan, che ha guidato la Federal Reserve fino al dicembre 2005, è stato contrario ad ancorare la politica monetaria del suo paese all’annuncio di un obiettivo in termini di tasso di inflazione. Di fronte ad un peggioramento delle condizioni macroeconomiche (ad esempio, una caduta della domanda) la banca centrale si trova nell’impossibilità di adottare una manovra di stabilizzazione, pena la perdita di reputazione. La caratteristica principale della sua azione è stata quella di interpretare la regola di Taylor utilizzando nel modo più esteso possibile lo “smussamento” della variazione del tasso di interesse per il perseguimento dell’obiettivo della stabilizzazione degli output gap. Il nuovo governatore, Ben S. Bernanke, anche se non ha ancora adottato l’inflation targeting, ritiene che la chiarezza e la trasparenza dell’annuncio di un valore-obiettivo per il tasso di inflazione ponga la banca centrale nelle condizioni di affrontare una recessione con una maggiore flessibilità di politica monetaria. 154 La funzione di comportamento della BCE si ispira alla strategia dell’inflation targeting. Nonostante lo shock negativo delle “torri gemelle” sia stato di domanda e non di offerta, il comportamento della BCE è stato molto prudente. Il suo primo governatore, l’olandese Willem F. Duisenberg, ha abbassato il tasso di interesse con ritardo ed in maniera molto più progressiva di quanto non abbia fatto il governatore Greenspan. Il secondo governatore della BCE, il francese Jean-Claud Trichet, si è mosso sulle orme del suo predecessore. Il terzo governatore, l’italiano Mario Draghi, si è trovato a dovere affrontare la più grave crisi dopo quella del ’29. 155 15. Nuova Economia Classica, Nuova Economia Keynesiana e mercati finanziari All’inizio degli anni ’80 del secolo scorso, l’approccio neo-classico e monetarista divenne il paradigma di teoria economica dominante. Successivamente, una volta che il pensiero keynesiano accolse l’ipotesi di aspettative razionali, i modelli della Nuova Economia Classica (NCE) e della Nuova Economia Keynesiana (NKE) hanno condiviso l’apparato analitico che prende il nome di Nuova Sintesi Neoclassica (Goodfriend e King, 1997). Più recentemente, con l’avvento dei modelli DSGE (Dynamic Stocastic General Equilibrium), l’economia neo-keynesiana si è ulteriormente avvicinata alla Nuova Economia Classica, con la scelta metodologica di adottare l’ipotesi di mercati dei capitali efficienti. Un aspetto non secondario continua comunque a differenziare i modelli DSGE ispirati alla NKE da quelli ispirati alla NCE: diversamente dalle ipotesi di mercati di concorrenza perfetta e di prezzi completamente flessibili tipiche di quest’ultimo approccio, i modelli Neo-Keynesiani innestano sull’impianto analitico dell’equilibrio intertemporale le ipotesi di mercati di concorrenza monopolistica e di salari e prezzi vischiosi. Ricordiamo alcuni caratteri del comportamento microeconomico dei soggetti, già esposti precedentemente. Coerentemente con l’ipotesi di mercati completi, i vincoli di bilancio intertemporali di tutti soggetti sono soddisfatti in mercati in cui domanda ed offerta dipendono da tutti i possibili stati di natura futuri. In particolare, nel modello NCE, poiché il ruolo della moneta è indebolito dall’avere legato il ciclo economico esclusivamente a fattori reali (preferenze e tecnologia), non sono possibili non solo fallimenti ed insolvenze, ma neppure frizioni nel sistema dei pagamenti dovute a situazioni di illiquidità, in quanto manca un ruolo per il bene moneta. I prezzi delle attività finanziarie riflettono perfettamente tutta l’informazione rilevante e perciò sono in grado di fornire i segnali corretti per l’allocazione delle risorse. Tali prezzi dipendono però da una lunga catena di aspettative. L’assunzione è quindi che i 156 soggetti anticipino correttamente i prezzi che verranno fissati ad ogni data futura dagli operatori dei mercati futuri. Poiché le tecniche di ottimizzazione dinamica impongono che l’impatto sul prezzo oggi di un futuro infinitamente distante sia zero, le aspettative sui prezzi nel lungo periodo sono realizzate per definizione. Il problema è che nella realtà non esiste nessun banditore walrasiano o pianificatore di un’economia centralizzata, che garantiscono il realizzarsi di questo equilibrio intertemporale. Nei mercati decentralizzati dell’economia reale le aspettative non rispettano le stringenti condizioni del modello matematico, ma sono esposte alle più diverse influenze. Al progressivo avvicinamento fra le due visioni neoclassica e neo-keynesiana della macroeconomia – con la condivisione nei modelli DSGE delle due ipotesi di aspettative razionali e mercati dei capitali efficienti - ha contribuito anche il processo di deregolamentazione dei mercati dei capitali e del sistema bancario. Fu proprio l’influenza intellettuale della NCE a portare negli Stati Uniti al rigetto del GlassSteagall Act. Nel 1999, il Gramm Leach Bliley Act revocò la netta separazione giuridica fra banche commerciali e banche d'investimento, e il divieto a uno stesso soggetto di svolgere entrambe le attività. Inoltre, per allineare gli interessi di manager e azionisti e risolvere il problema di agenzia (i principali-azionisti erano i beneficiari dei profitti ottenuti dagli agenti-managers), furono creati i bonus. I bassi tassi di interesse determinati dalla politica monetaria espansiva a partire dall’inizio degli anni 90, stimolarono la domanda di mutui; la concessione di mutui anche a soggetti a basso reddito produsse l’aumento del moltiplicatore del credito senza che dovesse intervenire alcun incremento della base monetaria. Al contempo, l’innovazione finanziaria consentita dalla deregolamentazione condusse alla creazione di nuovi prodotti che permisero la suddivisione del rischio su una vasta platea di acquirenti (risparmiatori, banche, istituzioni finanziarie). A tale risultato ha probabilmente contribuito anche la Federal Riserve. La politica monetaria negli Stati Uniti è stata così accomodante, ed i tassi di interesse così bassi, da incentivare l’incremento del leverage delle banche, interessate ad accrescere i propri profitti attraverso 157 l’intermediazione dei nuovi prodotti (titoli derivati, etc.). La forte espansione della liquidità potrebbe essere stata una concausa di trend di forte crescita delle quotazioni di borsa, con la formazione e l’esplosione di due importanti bolle speculative negli ultimi quindici anni. Come vedremo più approfonditamente in seguito, le banche commerciali, essendo state autorizzate ad operare nell’emissione e nel trading di attività ad alto rischio, si dedicarono alla cartolarizzazione dei prestiti subprime in asset-backed-securities (ABS) agendo di fatto come banche di investimento. D’altro canto, le banche di investimento cominciarono ad effettuare prestiti al pari delle banche commerciali. Tuttavia, prestando liquidità agli Hedge Funds e prestando le attività finanziarie da loro ricevute in garanzia, si trovarono in bilancio un eccesso di attività a breve e di passività a lungo termine proprio mentre i prezzi delle attività finanziarie e degli immobili cominciarono a declinare. Affinché non si producano bolle speculative occorre che le banche tengano conto dell’informazione fornita dalle agenzie di rating sulla loro salute ed iscrivano nei propri bilanci le attività finanziarie aggiornando il loro valore in base all’evoluzione dei prezzi di mercato. Ciò non è accaduto perché sono mancati gli incentivi appropriati perché questi comportamenti virtuosi si radicassero nei mercati finanziari. Negli Stati Uniti, l'assunzione di rischi sproporzionati è stata resa possibile dalla decisione delle autorità di sorveglianza di liberare le banche dai requisiti di capitale: nel 2004, l’indebolimento del limite sul grado di leverage indusse le banche di investimento di Wall Street ad accrescere i loro investimenti finanziari ad alto rischio. Il tasso di rischiosità del sistema bancario statunitense era accresciuto dal fatto che con l’assorbimento delle banche commerciali da parte delle principali banche di investimento tutte le banche USA erano “troppo grandi per fallire”. Si è così ignorato che le banche stavano accumulando rischi insostenibili alla luce del rapporto fra indebitamento e capitale. Ciò del resto avveniva anche in Europa, dove la collusione fra controllanti e controllati è stata altrettanto estesa che negli Stati Uniti: i requisiti di capitale previsti dalla regolamentazione conosciuta come Basilea1 si sono rivelati del tutto inadeguati 158 ad impedire che rating compiacenti nascondessero le situazioni di rischio e che i contratti di credit default swap (CDS) li assicurassero in maniera del tutto inconsistente. 16. L’ipotesi di mercati dei capitali efficienti L’ipotesi di mercati dei capitali efficienti può essere espressa mediante l’equazione del tasso di rendimento R di un’attività finanziaria: C + Pt+1 - Pt (1) R = _____________ Pt dove: R = rendimento derivante dall’investimento in un titolo da t a t+1 Pt+1 = prezzo di un titolo al tempo t+1 alla fine del periodo dell’investimento Pt = prezzo di un titolo al tempo t all’inizio del periodo di investimento C = flusso di cassa (cedola o dividendo) ricevuto nel periodo da t a t+1. Essendo noti il prezzo corrente ed il pagamento C, l’unica variabile incerta è il prezzo del periodo successivo Pt+1. Indicando con Pt+1e l’aspettativa del prezzo di un titolo, per ottenere l’equazione che esprime il rendimento atteso Re è sufficiente sostituire nella (1) Pt+1 il suo valore atteso Pt+1e L’ipotesi di mercato efficiente considera le aspettative come previsioni ottimali formulate sulle informazioni disponibili. Pertanto, il mercato è efficiente perché riflette tutte le informazioni disponibili. Definiamo Pp la migliore previsione di prezzo possibile sulla base dell’informazione disponibile è Pt+1 e = Pt+1 p L’aspettativa del rendimento al tempo t è uguale alla migliore previsione possibile: 159 (2) Re = Rp Non potendo osservare né Re né Pt+1e , l’equilibrio fra domanda ed offerta di titoli eguaglia l’aspettativa sul rendimento del titolo Re: Re = R* Sostituendo Re con R* nella equazione 2, si ha: Rp = R* I prezzi correnti in un mercato finanziario saranno fissati in modo che la previsione ottimale del rendimento di un titolo ottenuta usando tutte le informazioni disponibili sia eguale al rendimento di equilibrio del titolo. Chi acquista un’attività finanziaria assume una posizione lunga, chi vende una posizione corta. In ambedue i casi, il soggetto si assume il rischio sul prezzo dell’attività indotto da una variazione del tasso di interesse: una posizione lunga può incorrere nella caduta del prezzo dell’attività acquistata; una posizione corta può incorrere nell’aumento del prezzo dell’attività venduta). Supponendo che il prezzo di un’azione sia pari a $90 e che nuove informazioni inducono a ritenere che l’anno prossimo il prezzo sarà Pt+1 e = $120, se il rendimento annuale di equilibrio R* è 15% (uguale alla migliore previsione Rp ) e non sono pagati dividendi (C=0), dopo l’apertura il prezzo aumenterebbe a $104,35. Inserendo tali valori nell’equazione (1) si ottiene: 120 - Pt (1) 0,15 = _____________ Pt Supponiamo che il valore dell’azione sia del 10% su base annuale, ed il suo prezzo corrente sia inferiore alla previsione per domani Pt+1 p; la previsione ottimale del rendimento sarà 50%, superiore a 10%. La condizione di mercato efficiente riflette il comportamento di prezzo perché – come l’esempio rivela – esistono opportunità di profitto che verranno sfruttate: se Pt+1 e > Pt, l’acquisto del titolo provocherà la salita del suo prezzo in rapporto al prezzo futuro Pt+1e , con conseguente riduzione di Rp . 160 La condizione di mercato efficiente è soddisfatta quando il prezzo corrente è aumentato abbastanza da fare sì che Rp sia eguale a R*. La versione “forte” della condizione di mercato efficiente prevede non solo che siano sfruttate tutte le opportunità di profitto (in quanto si utilizzano tutte le informazioni pubblicamente disponibili), ma anche che i prezzi siano correttamente determinati, ovvero riflettano il “valore fondamentale” dei titoli. Si intende dire che il livello di prezzo è fissato tenendo conto delle aspettative future dei prezzi e dei dividendi pagati dal titolo, scontati mediante un tasso che incorpora anche il premio al rischio. Pertanto, la teoria dei mercati efficienti si basa su due assunzioni: 1) i prezzi delle attività finanziarie riflettono con esattezza il valore del capitale fisico, permettendo un fluido trasferimento del risparmio all’investimento; 2) i mercati finanziari sono in grado di autoregolarsi. Queste due ipotesi espungono dalla macroeconomia qualsiasi ruolo per l’informazione imperfetta e per comportamenti di razionalità limitata. Akerlof e Shiller (2007) hanno ad esempio lamentato come l’ipotesi di aspettative razionali abbia eliminato il concetto di animal spirits - le aspettative ottimistiche o pessimistiche degli imprenditori - dai modelli macroeconomici. D’altro canto, come dimostrato da Grossman e Stiglitz, la fluttuazione dei prezzi attorno ai valori corretti rappresenta una condizione necessaria per incentivare gli investitori razionali ad acquisire l'informazione. Se infatti i prezzi fossero sempre esattamente eguali al valore corretto, si presenterebbe un paradosso dell'informazione: i prezzi rifletterebbero l'informazione disponibile, ma nessuno avrebbe interesse a raccogliere l'informazione perché non ci sarebbe modo di trarre profitto da essa. La teoria dominante assume invece che agenti perfettamente razionali inseriscano nel sistema di equazioni che esprime il funzionamento dell’economia tutta la informazione disponibile per calcolare le probabilità ed i payoff attesi in relazione al verificarsi di ciascun possibile stato di natura. Il processo di massimizzazione delle 161 imprese mette capo alla scelta dei progetti con la più alta utilità attesa. L’inserimento nel modello della nuova informazione disponibile porta – noti i termini noti ed i valori dei coefficienti - a ricalcolare i valori delle incognite. L’assunzione di comportamento razionale e le condizioni di informazione completa consentono l’efficiente funzionamento dei mercati finanziari e conseguentemente escludono la possibilità che si presentino “bolle speculative”. Nel corso degli anni che precedettero la crisi finanziaria 2007-09, tuttavia, le condizioni che dovrebbero impedire il formarsi delle bolle speculative erano assenti. L’informazione fornita dalle agenzie di rating era distorta, in quanto esse operavano in pieno conflitto di interessi, dovendo essere imparziali nei confronti delle banche monitorate ma al contempo essendo interessate a sopravvalutare la redditività delle banche in quanto facevano anche profitti con la consulenza alle banche sui nuovi prodotti finanziari in cui investire. La ragionevole regola di valutare le attività finanziarie in base ai prezzi di mercato diviene perversa in presenza di mercati dei capitali imperfetti: se una bolla finanziaria nasce ma non viene riconosciuta, si è indotti a presumere – erroneamente - di trovarsi di fronte ad un corretto rating delle banche. Ex post, e cioè dopo lo scoppio della bolla, tale presunzione si rivelerà infondata, in quanto ad elevate quotazioni non corrisponderanno elevati profitti. La crisi finanziaria 2007-09 ha gettato un’ombra sugli anni della “Grande Moderazione”. Con tale espressione si intende la crescita del reddito e dell’occupazione in presenza di inflazione bassa e stabile che caratterizzò le economie avanzate negli anni ’90. Alla Federal Reserve è stato da molti economisti attribuito il merito di avere saputo favorire quest’epoca di crescita continua con alto tasso di occupazione e senza inflazione. Benché il 2000 fu l’anno in cui scoppiò la bolla dot.com, fino all’esplodere della crisi finanziaria del 2007-09 il giudizio sulla politica monetaria del governatore Greenspan era più che lusinghiero. Al governatore veniva solo imputato di avere troppo a lungo favorito con bassi tassi di interesse la crescita dei listini finanziari, senza rendersi conto che alla fine degli anni ’90 i prezzi 162 delle azioni erano troppo elevati rispetto alle aspettative di profitto futuro delle imprese dei settori ICT. La crisi finanziaria 2007-09, nel dimostrare quanto tali economie fossero in effetti esposte a gravi pericoli, ha anche rimosso molte certezze. Ci si interroga ad esempio sull’intonazione costantemente espansiva che Greenspan diede alla politica monetaria della Fed, con l’effetto di sostenere dal 1992 al 2000 una crescita dell’economia statunitense mai interrotta da fasi cicliche negative, ma anche di generare un trend di crescita delle quotazioni di Wall Street che si è rivelato non conforme alle prospettive di profitto delle imprese. Come ha documentato Robert Shiller, una bolla finanziaria si caratterizza per un'anomala convergenza delle opinioni e delle aspettative degli investitori e degli intermediari finanziari sull'andamento dei prezzi delle attività patrimoniali: non solo diminuisce la percezione del rischio, ma viene meno la normale differenza di opinioni che, quando i prezzi salgono, induce alcuni a comperare e altri a vendere. Questo accade quando la giusta preoccupazione delle autorità monetarie e governative di intervenire nei mercati allo scopo di impedire crisi di sfiducia è usata male dal sistema bancario. Negli anni precedenti le bolle speculative di fine secolo scorso, a Wall Street si consolidò l'opinione secondo cui la Federal Reserve americana e il Tesoro sarebbero intervenuti per salvare i finanzieri dai loro errori, da un lato con la creazione di moneta, dall'altro evitando il fallimento delle banche troppo esposte. Questa aspettativa ha creato un perverso incentivo per le banche, invogliandole ad assumere un atteggiamento opportunistico. Le banche hanno scambiato la giusta preoccupazione di proteggere i risparmiatori per la licenza di accrescere a dismisura il grado di rischio della loro attività. A favorire l’azzardo morale delle banche è stata anche la presenza di un grave conflitto di interessi: i ministri del Tesoro provengono spesso dai ranghi di Wall Street. 163 17. Mercati efficienti e modello macroeconomico Due aspetti del modello macroeconomico - comuni sia alla NCE che alla NKE – vengono oggi sottoposti a critica: 1) il passaggio dall’utilizzo della quantità di base monetaria al tasso di interesse come principale strumento della politica monetaria (com’è noto, a partire dalla fine degli anni ’70 la forte volatilità della domanda di moneta determinata dalla innovazione finanziaria ha destituito di fondamento l’idea che gli aggregati monetari M1,M2 ed M3 rappresentino indicatori affidabili del grado di monetizzazione dell’economia); 2) l’utilizzo della Regola di Taylor come funzione-obiettivo della politica monetaria (com’è noto, questa regola prevede che il tasso di interesse venga manovrato dalla banca centrale verso l’alto o verso il basso con l’obiettivo di annullare un eventuale divario del tasso di inflazione dal tasso di inflazione scelto - esplicitamente o implicitamente - come target della politica monetaria e dell’output dal suo livello di equilibrio corrispondente al tasso naturale di disoccupazione). Queste due critiche convergono nella conclusione secondo cui il controllo dell’economia attraverso la manovra del tasso di interesse alla luce dello scostamento dal suo valore di lungo periodo risultante dall’equazione di Taylor presenti due limiti fondamentali sul piano teorico: A) la regola di Taylor non dovrebbe tenere conto soltanto dell’inflazione dei beni ma anche dell’inflazione dei valori delle azioni e dei valori immobiliari. Mentre da un lato si diffondeva rapidamente l’uso del tasso di interesse per il controllo dell’economia da parte delle Banche centrali, dall’altro non ci si rendeva conto che la centralità in tal modo acquisita dal nesso fra politica monetaria e mercato finanziario imponeva la considerazione anche dell’andamento dei prezzi delle azioni nel computo del tasso di inflazione. Se vengono la politica monetaria reagisce ad incrementi dei valori borsistici che non trovano spiegazione nei bilanci delle imprese 164 ma derivano da un eccesso di liquidità, l’inflation gap positivo che risulterà nell’equazione di Taylor imporrà un aumento del tasso di interesse e una probabile bolla finanziaria verrà eliminata sul nascere. Tuttavia, la mancata considerazione dei prezzi finanziari e immobiliari nell’equazione di Taylor rende il ruolo centrale attribuito al tasso di interesse ed al nesso fra politica monetaria e mercato finanziario inutilizzabile ai fini di una corretta interpretazione dell’andamento del mercato dei capitali. Come ha riconosciuto lo stesso Lucas, “The problem is that the new theories, the theories embedded in general equilibrium dynamics […] don't let us think about the US experience in the 1930s or about financial crises and their consequences […] We may be disillusioned with the Keynesian apparatus for thinking about these things, but it doesn't mean that this replacement apparatus can do it either" (Lucas, 2004, p. 23). B) La considerazione in un modello di equilibrio intertemporale delle ipotesi di agenti perfettamente razionali e di perfetto funzionamento dei mercati dei capitali destituisce di rilevanza eventuali squilibri fra risparmi ed investimenti. Ogni eccesso degli investimenti sui risparmi determinata da prezzi errati delle attività finanziarie non rappresenta la spia di un’allocazione delle risorse incompatibile con l’equilibrio di lungo periodo, ma viene interpretato come squilibrio temporaneo che sarà rapidamente eliminato da mercati finanziari capaci di autoregolarsi. Il fatto è che la realtà dei mercati finanziari degli ultimi anni ha finito per distanziarsi di molto dalle ipotesi dei modelli teorici. Il mutamento strutturale avvenuto a partire dagli anni ’70 - la crescente volatilità di tassi di interesse e quotazioni delle attività finanziarie – ha però favorito lo sviluppo di un filone alternativo ai modelli basati su aspettative razionali e mercati dei capitali efficienti, basato sull’idea che i cambiamenti futuri nei prezzi delle azioni non sono prevedibili. E’ stato osservato che i prezzi delle azioni sovra-reagiscono alle notizie (un alto fatturato fa crescere di molto la quotazione), per poi diminuire nel medio periodo. Tale andamento dei valori azionari suggerisce che almeno parte dell’erraticità delle quotazioni di borsa, la cosiddetta random walk , può trovare spiegazione in fenomeni psicologici. Dal 165 momento che le quotazioni hanno un andamento casuale, è difficile “battere” il mercato, ovvero guadagnare un rendimento superiore al valore di equilibrio: con l’arbitraggio vengono immediatamente sfruttate tutte le opportunità di profitto. 18. Grande Depressione (1929) e Crisi finanziaria (2007-09) L’interpretazione più condivisa delle cause della Grande Depressione degli anni ’30 del secolo scorso, che seguì il crollo di Wall Street del ’29, si incentra su due aspetti principali: 1) Il ritorno al gold standard, che vincolò fortemente la creazione di moneta negli Stati Uniti: la politica monetaria restrittiva portò a tassi di interesse nominali dal 4% in sù, cui fecero seguito una forte deflazione dei prezzi (- 25% nel 1929-33) e tassi di interesse reale negativi superiori al 10% che “tagliarono” gli investimenti (Friedman-Schwartz,1963;Bernanke,2000, 2004); 2) La forte sottovalutazione della stabilità del sistema bancario: poiché nessuna banca era così grande da dovere essere considerata “sistemica” (e cioè con troppe interconnessioni con il sistema bancario nel suo complesso perché potesse essere lasciata fallire), non si fece molto per impedire i fallimenti, con gravi conseguenze per il finanziamento delle imprese. La sospensione del Gold Standard e la svalutazione del dollaro (una “bancarotta” di fatto degli Stati Uniti) decise da F.D. Roosevelt consentirono alla Federal Reserve di attuare la politica monetaria espansiva che innescò la ripresa economica, con la rapida risalita degli investimenti alla fine degli anni ‘30; il ruolo della politica fiscale nell’uscita dalla crisi tende oggi ad essere ridimensionato, o perché si ritiene che gli interventi di deficit spending degli anni ’30 non furono affatto massicci (il rapporto deficit pubblico/PIL non superò il 5%) o perché alla spesa pubblica in infrastrutture non si attribuisce un elevato valore del moltiplicatore nel breve periodo. La Grande Depressione, infatti, venne innescata da una bolla del mercato finanziario, non del mercato immobiliare. Pertanto, stabilire un parallelo fra la 166 Grande Depressione e la crisi finanziaria 2007-09 è più agevole in termini di conseguenze che di cause. Guardiamo allora all’impatto rispettivamente della crisi del ’29 e della crisi finanziaria 2007-09. Come si osserva nei tre grafici che seguono (tratti da Eichengreen-O’Rurke, 2009), rispetto ai mesi successivi alla crisi del ’29, l’impatto iniziale è stato invece oggi altrettanto pronunciato sul PIL mondiale e molto più grave su un indice delle quotazioni dei mercati finanziari internazionali, e sul commercio mondiale. 19.Banche commerciali e banche di investimento Dopo la grande crisi degli anni ’30, la riforma del sistema bancario degli Stati Uniti si articolò in tre provvedimenti: 1) la Banca centrale assunse la funzione di prestatrice di ultima istanza (lender of last resort) del sistema economico; 2) lo Stato istituì il meccanismo dell’assicurazione pubblica dei depositi (con l’istituzione della Federal Deposit Insurance, il governo dà la garanzia della restituzione della liquidità ai depositanti delle banche insolventi, il che sollevò le banche dal timore di “corsa agli sportelli” in caso di panico finanziario); 3) la regolamentazione del sistema bancario divenne più stringente: il Glass-Steagall Act introdotto nel 1933 istituì la separazione fra banche commerciali (autorizzate a raccogliere depositi presso i risparmiatori) e banche di investimenti (che si finanziano esclusivamente sui mercati finanziari). La logica di questo assetto istituzionale è molto semplice. Da un lato, le banche commerciali beneficiano della prerogativa di reperire liquidità attraendo depositi e sono protette dalla assicurazione dei depositi e dalla funzione di prestatore di ultima 167 istanza della banca centrale. Dall’altro, le banche di investimento, non godendo della raccolta dei depositi devono essere autorizzate a finanziare le loro attività illiquide con linee di credito a breve termine aperte dalle banche commerciali, e sono costrette a legare strettamente la durata delle passività alla durata delle loro attività. Pertanto, il regime di separazione fra banche commerciali e di investimento ha la funzione di impedire la commistione di entità finanziarie diverse. Il punto è che le prime non dovrebbero essere autorizzate a vendere il loro portafoglio di prestiti (securization). Il motivo di fondo è che la securization non elimina il rischio per le banche: anche ricorrendo alla cartolarizzazione, infatti, il materializzarsi del rischio del credito impone il ritorno dei prestiti nei bilanci delle banche, indebolendo la loro struttura patrimoniale. Pertanto, risulta inevitabile il trasferimento del rischio alla Banca centrale, che attraverso la funzione di prestatore di ultima istanza garantisce la solvibilità della banca. Nella teoria economica, dagli anni ’70 in poi, si è imposta una visione del funzionamento di un’economia monetaria fondata su tre ipotesi: 1) aspettative razionali consentono ai mercati finanziari di allocare i risparmi fra progetti di investimento alternativi così da massimizzare il benessere; 2) mercati efficienti garantiscono che i prezzi delle attività finanziarie riflettano i fondamentali, ovvero le aspettative (razionali) sui profitti futuri delle imprese; 3) i mercati sono in grado di auto-regolarsi. Come viene spesso ricordato, il governatore della Federal Reserve del decennio scorso ha affermato nella sua autobiografia, pubblicata nel 2007, che “le autorità (monetarie e fiscali) non dovrebbero interferire nell’attività di impollinazione svolta dalle api di Wall Street”. Il clima intellettuale favorevole al modello NCE fece guadagnare credibilità alle ipotesi di aspettative razionali e mercati dei capitali efficienti. Si diffuse la convinzione che la promozione dell’efficienza economica si esaurisca nel liberare il funzionamento dei mercati dalle limitazioni imposte dalla regolamentazione. Sull’onda della deregolamentazione nel 1999 fu abolito il GlassSteagall Act. 168 Com’è noto, la funzione svolta dalle banche di raccogliere depositi a breve termine e prestare a lungo termine è essenziale per la crescita economica, in quanto la moneta bancaria favorisce il trasferimento dei risparmi delle famiglie agli investimenti delle imprese. L’espansione dell’attività delle banche commerciali e di investimento ha contribuito a accrescere l’instabilità macroeconomica seguita ala deregolamentazione ha determinato un forte incremento dell’attività bancaria. Alla moltiplicazione delle attività finanziarie si è accompagnata la creazione di nuovi tipi di contratti a termine (vedi BOX 1). ____________________________________________________________________ BOX 1. CONTRATTI A TERMINE I soggetti avversi al rischio si difendono dal rischio di variazione dei prezzi delle attività finanziarie con la copertura offerta dai contratti forward. La copertura del rischio sui tassi di interesse avviene con i contratti a termine: vendere l’attività finanziaria ad una data futura al prezzo forward corrente (alla pari) consente di eliminare il rischio sul prezzo che una variazione del tasso di interesse potrebbe creare. Il contratto forward fa tuttavia nascere due problemi: 1. Rischio di liquidità. Nonostante i broker avvicinino le parti acquirente e venditrice, non sempre i mercati offrono un numero adeguato di offerenti ed acquirenti, cosicché la carenza di operatori comporta una mancanza di liquidità per una data attività finanziaria. 2. Rischio di insolvenza. Se al tempo t+1 cade il prezzo dell’attività che è stata rivenduta con un contratto forward che scade al tempo t+2, l’acquirente potrebbe rifiutarsi di acquistarlo al prezzo (più alto) convenuto al tempo t. Un financial future si differenzia dal contratto forward per caratteristiche che riducono i due suddetti rischi. Il rischio di liquidità viene contrastato dal fatto che la data di scadenza del contratto è standardizzata, il che accresce il numero di acquirenti e venditori disponibili ad entrare in contatto. Inoltre, il contratto può essere venduto in ogni momento prima della scadenza; il trasferimento può riguardare non solo il titolo su cui si è costruito il future, ma una molteplicità di titoli. L’operatore non si viene a trovare nelle mani da chi voglia monopolizzare il mercato rastrellando tale titolo. In tal modo, gli investitori con posizione corta evitano di non trovare i titoli che per contratto forward è obbligato a trasferire alla data convenuta. Il rischio di insolvenza è ridotto dalla stipula in una stanza di compensazione associata alla borsa dei future. Compratori e venditori debbono versare un deposito iniziale – il margine obbligatorio – in un conto di garanzia tenuto dal loro intermediario. Mediante il mark to market, ad ogni chiusura quotidiana dei mercati le variazioni nel valore dei titoli vanno aggiunte o sottratte dal conto di garanzia. Il rischio che un trader risulti 169 insolvente è di molto ridotto: se il saldo scende sotto il margine obbligatorio di mantenimento, dovrà versare danaro nel conto. Una option call (put) è un contratto che dà al compratore il diritto di acquistare (vendere) un’attività finanziaria a un prezzo specificato - prezzo di esercizio - entro un determinato periodo di tempo. Chi acquista un contratto future al prezzo di 115 si accetta di pagare 115.000 dollari per un valore nominale di 100.000 dollari. Se un investitore, pagando un premio di 2000 dollari, acquista un contratto di opzione call sul contratto su obbligazioni del Tesoro scadenza giugno, con un prezzo di esercizio di 115, di fatto ottiene il diritto ad acquistare il contratto future per le obbligazioni del Tesoro a giugno al prezzo di 115 (115.000 dollari per contratto), diritto esercitabile in ogni momento fino alla scadenza. Alla scadenza, se il prezzo del contratto future fosse 115, l’opzione call è at the money: ovvero, è indifferente esercitare o meno l’opzione per acquistare l’opzione future, dal momento che l’esercizio dell’opzione a 115 quando il prezzo di mercato è anch’esso a 115 non produce né guadagni né perdite. Poiché l’investitore ha pagato 2000 dollari per l’opzione, l’operazione è in perdita. Se invece il prezzo fosse 120, l’opzione sarebbe on the money e l’investitore esercitando l’opzione paga il prezzo di esercizio 115 per vendere a 120, con un guadagno del 5% (5000 dollari) sul contratto di 100.000 dollari in obbligazioni del Tesoro. Il guadagno netto è 5000-3000=2000. L’opzione call protegge l’investitore da perdite superiori al premio di 2000 dollari. La perdita sul contratto future sarà di 5000 dollari se il prezzo scende alla scadenza scende a 110 e aumenterà via via che il prezzo diminuisce. Il prezzo di acquisto è chiamato premio per la caratteristica di tipo assicurativo dei contratti. Se il prezzo dell’attività finanziaria sottostante aumenta rispetto a quello di esercizio, i guadagni crescono con una progressione lineare. L’investitore, rinunciando a qualcosa acquistando un contratto di opzione in luogo di un contratto future. Quando il prezzo dell’attività finanziaria sottostante supera il prezzo di esercizio, i guadagni sono sempre inferiori a quelli del contratto future, di importo pari al premio di 2000 dollari che ha pagato. Quando è inferiore, l’opzione put è on the money e i profitti aumentano via via che il prezzo del contratto future diminuisce. Quando la durata aumenta, cresce la probabilità che il prezzo sia molto alto o molto basso entro la data di scadenza. Se il prezzo sale molto e supera notevolmente il prezzo di esercizio, l’opzione call frutterà un forte guadagno. Similmente, per l’opzione put la variabilità dei prezzi dell’attività finanziaria sottostante cresce a mano a mano che la durata si allunga: l’opzione put avrà valore maggiore all’aumentare della durata. Per questi contratti di opzione vale il motto: “se esce croce vinco; se esce testa non perdo troppo”. La più grande variabilità dei prezzi alla scadenza aumenta i profitti medi per l’opzione, alzando il premio che gli investitori saranno disposti a pagare. ____________________________________________________________________ 170 TABELLA 1: I sei più ampi movimenti dell’indice medio industriale Dow-Jones (ottobre 2008) Date Var.Per. (1) Frequenza media “normale” (2) 07/10/2008 -5.11% Una volta in 5.345 anni 09/10/2008 -7.33% Una volta in 3,373,629,757 anni 13/10/2008 11.08% Una volta in 603.033610921669000000000 anni 15/10/2008 -7.87% Una volta in 171,265,623,633 anni 22/10/2008 -5.86% Una volta in 117,103 anni 28/10/2008 10.88 Una volta in 73.357.946.799.753.900.000.000 anni (1) Rendimenti giornalieri dal 01/01/1971 al 31/10/2008 (Source Datastream) (2) Media della distribuzione = 0; Dev. St. = 1.032% Le bolle speculative con successivo crollo delle quotazioni di borsa sono divenute sempre più frequenti (Tabella 1). Negli anni ’80 e ’90 si ebbero due bolle nei mercati valutari: un eccessivo apprezzamento del dollaro rispetto al marco tedesco (DM). Nel 1999-2002 ebbe luogo un’ondata di euforia seguita dallo scoppio della bolla dot-com (anche detta IT bubble) seguita da una forte depressione (vedi Figura 8). La crescita della capitalizzazione del mercato azionario di Wall Street del 30% nel 2007 (la capitalizzazione arriva fino a 15 trilioni di dollari, con 3,5 trilioni in più rispetto al 2006) non trova giustificazione nella crescita del PIL del 5% (pari a solo 650 miliardi di dollari) (vedi Figura 9). L’ incremento del leverage è stato notevole: il rapporto attività/depositi delle 5 banche maggiori a livello mondiale ha superato nel 2007 il 200%. Anche i bilanci delle banche europee hanno registrato questi aumenti (vedi Figura 10). Il problema è che i rendimenti delle attività non hanno una distribuzione normale ma ampie code, ovvero esiste un’alta probabilità che si verifichino bolle. I modelli con distribuzione normale dei rendimenti sottostimano ampiamente gli shocks: un’osservazione (giornaliera) che devia dalla media di 5 volte la deviazione standard si presenta solo una volta in 7000 anni. Ma nella realtà degli 171 ultimi 80 anni tali ampi cambiamenti si sono presentati ben 74 volte. La Tabella 1 mostra i 6 maggiori cambiamenti percentuali dell’indice Dow Jones Industrial Average nel molto turbolento ottobre 2008 e misura quanto frequenti sarebbero nell’ipotesi di distribuzione normale di questi eventi. I risultati sono sorprendenti: con una deviazione standard di cambiamenti giornalieri di 1,032% (sul periodo 19712008) cambiamenti di tali ampiezza possono avvenire solo una volta in un intervallo da 73 a 603 miliardi di anni. Nonostante la teoria dei mercati finanziari assuma proprio una distribuzione normale, si sono avuti due cambiamenti giornalieri superiori al 10% durante lo stesso mese. Inoltre, nella simulazione sugli altri quattro avvenuti nel mese di ottobre la frequenza risulta ancora più elevata. Dal luglio 2006 al luglio 2007, l’economia USA ha visto aumentare il valore del capitale del 30%, con una capitalizzazione che è passata da 11,5 a 15 migliaia di miliardi. Come è stato possibile un incremento di 3,5 trilioni quando il PIL aumentava soltanto di 650 miliardi (5%)? (vedi Figura 9). La causa di questa crescita dei valori azionari del 30% e della successiva caduta di nuovo del 30% probabilmente risiede in un’ondata di ottimismo eccessivo seguita da un’ondata di pessimismo eccessivo (l’indice Dow Jones, dopo essere sceso a 7.000, nel settembre del 2009 ha recuperato il 50% della perdita, tornando attorno ai 9.000 dollari). Similmente, nel periodo 2000-07 secondo l’indice Case-Shiller i prezzi delle case negli Stati Uniti sono più che raddoppiati, ma fra luglio 2007 e luglio 2008 sono caduti del 20%. Pertanto, dopo avere favorito alti tassi di crescita, la deregolamentazione e la conseguente innovazione finanziaria ha aumentato la volatilità dei mercati ed innalzato la probabilità di una crisi finanziaria. Le banche hanno infatti incominciato ad operare in attività finanziarie precedentemente trattate solo dalle banche di investimento; queste ultime hanno cominciato a prestare liquidità agli hedge funds accettando azioni come garanzia del prestito; in tal modo, si trasformavano in aziende creatrici di credito al pari delle banche commerciali, ma con la particolarità di venirsi a trovare con una forte polarizzazione fra attività a lungo termine e passività a breve termine. 172 La deregolamentazione presenta senza dubbio dei vantaggi: 1) la suddivisione dei rischi su una vasta platea di risparmiatori ed operatori finanziari; 2) la maggiore offerta di credito ad imprenditori e consumatori; 3) la diminuzione del costo del credito. Il problema è che l’auto-regolazione del sistema bancario non è di norma efficiente. In primo luogo, una volta che banche commerciali e banche di investimento hanno finito per condividere una lunga gamma di operazioni, nella struttura di attività e passività il rischio di liquidità ha finito con il fondersi pericolosamente con il rischio di solvibilità. Figura 9. Le quotazioni di Wall Street (2006-2008): gli indici Dow Jones e Standard and Poor’s 2007: US GDP growth: + 5%, does not explain Wall Street capitalization: + 30% (3,5 trillions more than in 2006) In secondo luogo, il mark-to-market, ovvero la regola di inserire in bilancio alla quotazione di mercato le attività possedute, è un segnale troppo spesso ingannevole 173 della solidità della banca: allorché il mercato finanziario è soggetto ad una bolla il mark-to-market determina una stima del valore delle attività gonfiata rispetto all’effettiva profittabilità attesa. In terzo luogo, l’assicurazione sui prestiti (i CDS, credit default swaps) era determinata in base a modelli che prevedevano rendimenti distribuiti normalmente, il che non trova riscontro nella realtà in mercati finanziari caratterizzati da una crescente volatilità dei prezzi a causa dell’esposizione alle bolle speculative. In quarto luogo, le agenzie di rating, dovendo valutare i bilanci delle banche alle quali fornivano i CDS, non erano indotte ad attribuire il corretto “valore di merito” alla banca, ma a segnalare una condizione migliore della realtà. Pertanto, contrariamente alla teoria economica dominante, i mercati non sono efficienti, essenzialmente per due motivi: 1) la nascita di bolle speculative è endemica ai mercati finanziari; 2) i mercati finanziari non sono capaci di auto-regolarsi. La prova che le agenzie di rating sono colluse con le banche da esse supervisionate è che – contrariamente al Teorema di Modigliani-Miller - il mercato finanziario è più costoso del mercato del credito. Se gli acquirenti di obbligazioni bancarie fossero state correttamente informate riguardo alla effettiva probabilità di restituzione del prestito, avrebbero domandato adeguati premi di rischio o riduzioni del prezzo delle obbligazioni sufficienti ad equalizzare il costo dell’indebitamento nel mercato del credito con quello del mercato finanziario. Chi non utilizza il leverage di indebitamento sul mercato creditizio ma rispetta un valore prudenziale del rapporto capitale/prestito non viene premiato ma penalizzato dal mercato finanziario. In teoria, sia i risparmiatori che prestano alle banche che i governi potrebbero prevedere il rischio addizionale cui vanno incontro nel caso in cui una banca scelga un rapporto capitale/indebitamento troppo basso. I risparmiatori potrebbero chiedere un tasso di interesse più alto sui prestiti alle banche oppure un tasso di rendimento più basso sulle azioni ed i governi dovrebbero applicare una percentuale di tassazione più alta sul mercato del credito. Quello che invece accade è che non si tiene conto dell’assenza di informazione sulla probabilità di restituzione del prestito. 174 Secondo autorevoli economisti, non sospettabili di simpatie dirigiste, è auspicabile il ritorno alla separazione fra banche commerciali e banche di investimento. Le prime devono limitarsi a raccogliere depositi (o se li scambiano attraverso il credito interbancario) a breve ed a trasformarli in un portafoglio di attività prestando a lungo termine, senza cadere nella tentazione di effettuare la securization dei prestiti erogati (la cartolarizzazione non annulla la natura dei prestiti di rappresentare una passività, in quanto essa riemerge nel caso in cui si materializzi il rischio di credito). Le seconde devono rinunciare a finanziarsi a breve presso le banche commerciali ed operare mantenendo passività con eguale durata delle attività. In quinto luogo, il funzionamento dei mercati finanziari è indebolito dalla sottovalutazione della limited liability (d’ora in avanti, LL) degli azionisti: i creditori delle corporations non hanno diritti da vantare sulle attività personali degli azionisti. Il problema della LL porta alla sottovalutazione dei rischi, ovvero alla realizzazione di progetti di investimento con un eccessivo grado di rischio. Gli investitori prendono tutti i profitti dei loro investimenti in caso di successo, mentre se le cose vanno male la loro perdita è limitata allo stock di capitale investito senza estendersi anche alle loro proprietà. Questa asimmetria ha provocato l’assunzione di eccessivo rischio. La LL venne introdotta negli Stati Uniti ed in Europa nel XIX secolo per facilitare l’attività di finanziamento di progetti di investimento industriali che gli imprenditori non avrebbero altrimenti potuto intraprendere. Gli imprenditori si trasformano però in scommettitori in un mondo di enorme incertezza economica come quello attuale. Il punto è che essi non dovrebbero essere nelle condizioni di decidere autonomamente il grado di loro liability, e cioè di scegliere da soli quale sia l’adeguato rapporto capitale/prestiti della loro corporation. Questa autonomia fa sì che scelgano un rapporto troppo basso e che distribuiscono agli azionisti come dividendi una quota troppo ampia dei profitti invece di accrescere il capitale. Le banche di investimento US hanno operato con un rapporto del 4% in quanto non sono state soggette alla stessa supervisione delle banche commerciali US (che infatti operano con un rapporto di almeno il 7%). 175 In sesto luogo, a livello internazionale, la competizione fra i sistemi bancari ha eroso la qualità dei prodotti finanziari a causa dell’informazione asimmetrica: il risparmiatore non ha la possibilità di determinare la probabilità della restituzione del proprio prestito. La competizione fra i sistemi bancari non può essere paragonata con la competizione fra gli Stati, che si fanno concorrenza per attrarre capitali nei mercati globali liberalizzati attraverso la riduzione della tassazione sul capitale. In quest’ultima, infatti, è assente un sistema di regolamentazione. Tuttavia, la regolamentazione bancaria non ha funzionato. Le banche hanno approfittato della informazione asimmetrica ed hanno accresciuto la propria attività lasciando troppo scarse riserve di capitale a garanzia dell’estinzione dei debiti assunti a fronte dei prodotti venduti, hanno cioè venduto obbligazioni come collaterale del debito, allungando la catena delle attività finanziarie collegate fra loro. 20. La diffusione dei mutui subprime e le cartolarizzazioni (securization) I mutui subprime consistono in prestiti per acquisto casa che le banche degli Stati Uniti hanno concessi a soggetti a basso reddito e/o occupazione precaria e quindi ad alto rischio di non restituzione del debito (e dei relativi interessi). La forte crescita dei mutui fu dovuta ad un comportamento miope (o forse sarebbe meglio dire azzardato) delle banche. La continua salita dei prezzi delle case ha infatti indotto le banche a considerare come un trend di crescita di lungo periodo quello che era semplicemente un andamento ciclico crescente dei valori immobiliari innescato dalla politica monetaria espansiva di Greenspan. Sia gli acquirenti delle case che le banche si attendevano che un’eventuale insostenibilità del piano di restituzione del mutuo avrebbe portato alla vendita della casa con un guadagno in conto capitale per chi è costretto a rivendere la casa e nessuna perdita per la banca mutuataria. Alla crescita del prezzo delle case, pertanto, si è accompagnata una crescente fiducia nella virtuosità della strategia aggressiva di offerta di mutui a condizioni molto meno stringenti di quanto il grado di rischio delle concessioni di prestito avrebbe richiesto. 176 D’altro canto, a mano a mano che i nuovi soggetti mutuatari si rivelavano essere a sempre più basso reddito e capacità di sostenere il piano di ammortamento del mutuo, aumentava anche il ricorso al trasferimento al mercato del rischio di credito (la securization o “cartolarizzazione”). Negli Stati Uniti, i mutui si distinguono in base alla seguente scala di rischio crescente: Agency, Jumbo, Alt-A, Subprime. Queste due ultime categorie di mutui sono concessi a soggetti definiti “non-prime borrowers” (vedi Tabella qui sotto): Loans (Agency, Jumbo, Alt-A, Subprime) and Securization Subprime % Alt-A N. Secur. N. Secur. 2001 190 87 46 60 11 2002 231 123 53 68 54 2003 335 195 58 85 74 2004 540 362 67 200 159 2005 625 465 74 380 332 2006 600 448 75 400 366 2007 191 275 Fonte: Inside Mortgage Finance % 19 79 87 79 87 91 La cartolarizzazione dei mutui sub-prime consiste nella suddivisione di un portafoglio di mutui in diverse tranche, ciascuna con un diverso grado di rischio. L’efficienza nell’allocazione del rischio aumenta, perché gli acquirenti dei pacchetti di tranche rappresentano un’ampia platea di investitori con diverso profilo di rischio. La categoria più rischiosa – la tranche equity, solitamente piazzata ad hedge funds – è stata abolita perché le perdite hanno raggiunto il 5% del portafoglio (impegnava l’investitore a coprire il primo 5% delle perdite sul miliardo di mutui, a fronte di un altrettanto elevato tasso di interesse sul capitale (30%)). La categoria meno rischiosa è la tranche senior che permette di ricevere una AAA dalle agenzie di rating. Per raggiungere lo stesso risultato, un portafoglio di mutui della categoria mezzanine (la 177 tranche attualmente più rischiosa) viene suddiviso e “impacchettato” assieme a tranche di mutui di categoria meno rischiosa. La cartolarizzazione di II livello consiste nella seguente operazione. Tranche provenienti da differenti portafogli di mutui cartolarizzati vengono riunite in un nuovo portafoglio, a sua volta diviso in tranche costruite in modo da generare un’aggregazione di rischi eterogenei: il 60% di tali prodotti riesce ad ottenere un rating AAA, cosicché il 90% dei mutui originari riesce ad ottenere AAA. Il differenziale molto grande fra la rata dei mutui e i coupon consegnati dalle tranche consente alle banche di pagare un tasso su titoli AAA ben più elevato di altri prodotti e continuare ad ottenere un significativo margine. L’offerta di obbligazioni “rappresentative” di quote di mutui venne presentata dalle banche come un esempio delle virtù dei mercati: l’assorbimento di tali titoli da parte del pubblico e delle istituzioni finanziarie (banche commerciali e banche di investimento) avrebbe consentito la distribuzione del rischio su una vastissima platea di soggetti istituzionali e non. Lo scoppio della bolla immobiliare avrebbe quindi dovuto essere assorbito senza eccessivi problemi, in quanto il brusco calo dei prezzi avrebbe colpito non poche grandi banche ma una miriade di acquirenti di piccoli pacchetti di attività finanziarie legate ai mutui subprime. La grave crisi finanziarie che è conseguita allo scoppio della bolla immobiliare ha tre principali cause: 1) l’opacità delle attività finanziarie legate ai subprime: i derivati creati come tranche di pacchetti di mutui subprime (CDO) ed i titoli derivati creati come tranche di titoli derivati (CDO2) sono titoli troppo complessi perché se ne possa determinare con precisione il valore di mercato; 2) l’incertezza crescente che ha investito l’attività della moltitudine di istituzioni bancarie con CDO in portafoglio; 3) l’acquisto a debito dei derivati ha comportato l’incremento vertiginoso del grado di leverage delle banche: una volta iniziato il declino dei prezzi dei titoli, è aumentata la probabilità di insolvenza delle banche ad alto leverage. Se il valore delle passività eccede il valore delle attività, il capitale ha valore negativo ed il rischio di insolvenza è elevato. Il processo di auto-aggravamento della 178 crisi bancaria ha una semplice spiegazione: il default di una categoria di titoli particolarmente rischiosa provochi l’aspettativa di perdite sul lato delle attività; quanto più esiguo è l’ammontare del capitale a sostegno dell’eccesso di passività su un valore declinante delle attività, tanto maggiore è il rischio che la crisi di liquidità si trasformi in vera e propria insolvenza. Il modello “originate and redistribute” prevedeva che le banche “impacchettassero” i mutui di diverso grado di rischio da esse creati attraverso special purpose vehicles (SIV), branche esterne al bilancio delle banche che detenevano larghe posizioni in asset-backed securities (ABS), che nel caso dei titoli dei mutui subprime prendevano il nome di mortgage-based securities (MBS). Le SIV, che si finanziavano con linee di credito ottenute nel mercato dei prestiti a breve termine, acquisirono un’ampia liquidità allo scopo di ottenere una valutazione AAA delle agenzie di rating. La solvibilità dei titoli ABS e MBS creati dalle banche e venduti sul mercato finanziario interno ed internazionale dipendeva dai piani di rientro della liquidità prestata ai mutuatari. Quando il prezzo delle case cominciò a calare, si diffuse la sfiducia nei MBS, le banche incontrarono difficoltà nel rifinanziare i MBS, ed anche il mercato degli ABS venne investito da una crescente incertezza. Il collasso del mercato dei prestiti a breve termine negli USA nell’estate del 2007 obbligò le banche a fare rientrare nei loro bilanci i portafogli di ABS delle rispettive SIV. L’innovazione finanziaria dei CDS venne utilizzata per assicurare il rischio sulle ABS, in modo da mantenerle nei propri bilanci ma liberarsi del rischio sui prestiti. Ciò creò nelle banche l’illusione di un basso grado di rischio della propria attività. D’altro canto, chi sottoscrive un CDS relativo al fallimento di una società cui ha prestato un milione di dollari non deve – a differenza di quando acquista un’obbligazione - pagare nulla oggi. Il che ha naturalmente portato ad una enorme crescita dell’assunzione di rischio attraverso i CDS. La diffusione dei derivati in un grande numero di banche di vari paesi, nell’accrescere l’integrazione fra i mercati finanziari, ha anche aumentato il rischio sistemico. Gli ABS venivano anche venduti sui mercati finanziari internazionali. Data 179 la scarsa trasparenza sul contenuto degli ABS e dei MBS, alla iscrizione in bilancio dei titoli precedentemente collocati nei SIV si accompagnò una grave crisi di fiducia. L'instabilità sistemica non nasce dal fatto che un intermediario o un fondo possa non rimborsare i denari ricevuti dagli investitori, infliggendo loro delle perdite. Nasce quando su tali passività vi è una garanzia esplicita o implicita di restituzione a vista senza perdite - che è appunto la caratteristica dei depositi bancari. Le banche sono sottoposte a vincoli prudenziali proprio perché, accettando passività garantite, li impieghino a scadenza più lunga con oculatezza; a garanzia dei depositanti, devono tenere adeguati cuscinetti di capitale, cui ricorrere per soddisfare le richieste di rimborso dei depositanti. Un modo per superare una crisi di liquidità è la vendita di attività finanziarie. Anche nelle banche di investimento con forte debito a breve, la richiesta dei creditori di ripagare questi crediti costrinse a liquidare rapidamente parte dell'attivo, sopportando grosse perdite. A parità di leva finanziaria, la quantità di debito a breve è un forte meccanismo d'instabilità sistemica. La decumulazione di attività fa infatti scendere la valutazione di mercato delle stesse banche, in quanto la caduta del valore delle attività finanziarie possedute dalle banche potrebbe trasformare una crisi di liquidità in crisi di insolvenza. I governi potrebbero perciò sentirsi obbligati ad accrescere i fondi destinati alla ricapitalizzazione delle banche. L’ingente sostegno finanziario dei governi alle banche ha il risvolto negativo di sostituire debito privato con debito pubblico. Le banche a rischio di insolvenza vedono crollare la loro affidabilità, e perciò trovano crescente difficoltà nel reperire il nuovo credito necessario per aumentare il tasso di capitalizzazione (il rapporto valore delle attività/valore delle passività). La vendita di attività rischiose causa un caduta del loro prezzo; a sua volta, cade anche il prezzo di attività finanziarie simili, che condividono il problema di una difficile e incerta valutazione. Tutte le istituzioni finanziarie gravate da titoli di incerto valore, ed anche le banche solvibili che posseggono in portafoglio tali attività con valore in ribasso, vengono trascinate nella crisi. Infatti, la diffusione del panico fa sì che anche 180 le banche più solide siano colpite dal ritiro dei depositi e debbano vendere attività finanziarie. Ciò che accadde negli anni 30, però, non avrebbe dovuto ripetersi oggi, perché dopo la Grande Depressione seguita al crollo di Wall Street del ‘29 vennero attuate le tre grandi riforme prima ricordate (1) la funzione di prestatori di ultima istanza delle banche centrali; 2) l’assicurazione dei depositi fornita dai governi; 3) la regolamentazione bancaria, quale ad esempio la separazione dal lungo termine delle banche commerciali introdotto negli Stati Uniti nel 1933 con il Glass-Steagall Act). La perdita di valore delle attività in portafoglio che si determina nel corso di una crisi finanziaria è un incentivo per le banche di investimento a fare fronte ai pagamenti ed alla richiesta di restituzione dei crediti e per le banche commerciali a reagire alla “corsa” al ritiro dei depositi (anche quando il governo ha stabilito la garanzia pubblica sui depositi) frenando i prestiti interbancari piuttosto che ricorrendo alla onerosa vendita delle proprie attività a prezzi in continuo calo. Il prosciugarsi dell’importante fonte di liquidità rappresentata dal credito interbancario si è ripercossa sulla economia reale sotto forma di restrizione del credito ad imprese e famiglie. Il razionamento del credito è stata una delle cause che hanno portato alla trasformazione della crisi finanziaria in crisi economica. Il limite della visione di regolamentazione denominata Basilea2 è consistito nell’avere adottato l’ipotesi di mercati dei capitali efficienti. Ciò ha consentito alle banche di individuare il capital ratio che massimizzasse i profitto anche al costo di incrementare il grado di rischio della propria attività. Dal momento che tale grado di rischio non è quantificabile, a causa delle bolle che nascono continuamente in mercati dei capitali imperfetti, le banche sono state incentivate all’azzardo morale, e cioè all’aumento del grado di rischio. Ciò induce a ritenere che per evitare nuove crisi non sarà sufficiente aumentare il rapporto di capitalizzazione delle banche rispetto alla normativa di Basilea2. Nessun livello di capitale per fare fronte alle crisi di liquidità può evitare che lo svilupparsi della crisi con la discesa dei valori delle attività finanziarie possa trasformare una crisi di liquidità in crisi di solvibilità. E’ in primo luogo l’attività delle banche a dovere essere oggetto della regolamentazione bancaria. 181 Le banche dovrebbero essere incentivate a legare la durata delle proprie passività alla durata delle loro attività, le banche di investimento non dovrebbero procedere al finanziamento con credito a breve termine delle attività a lungo termine e quindi meno liquide. Pertanto, una nuova crisi finanziaria può essere evitata solo con interventi strutturali che ripristini la separazione fra banca commerciale e banca di investimento, impedendo la securization dei prestiti, il modello “originate and distribute”. Riassumiamo la formazione di una piramide di titoli derivati che contengono altri titoli. La cartolarizzazione, infatti, fa giungere alle banche liquidità che viene reinvestita in nuovi prestiti, cui fa nuovamente seguito la securization. I mutui subprime sono stati aggregati negli structured investment vehicle (SIV) e frazionati per ottenere un AAA; sono state poi emesse obbligazioni di debito collateralizzato (CDO), frazionato nuovamente in AAA, e collocate prevalentemente nei portafogli di istituzioni non-levered, come banche centrali, fondi sovrani, fondi pensione, etc, ma detenute anche dal settore levered (banche domestiche ed estere) per la loro caratteristica di attività “sicure”. Le tranche di AAA erano però troppo larghe rispetto alla capacità dei sottostanti strumenti rischiosi di giustificare una valutazione così lusinghiera. Le banche commerciali hanno preso troppo a prestito per comprare attività tossiche. Istituzioni ad alto leverage detenevano attività molto vulnerabili, perché l’assenza di informazione sul loro contenuto le rendeva attività caratterizzate da incertezza piuttosto che da rischio assicurabile (Caballero and Krishnamurthy 2008a). Di conseguenza, il verificarsi di illiquidità dovute ad un eccessivo leverage diffonde la sfiducia, inceppa il meccanismo dei prestiti interbancari e finisce per generare il blocco dell’attività creditizia. Quando un’ondata di pessimismo induce i depositanti a ritirare la propria liquidità, le banche incorrono in una crisi di liquidità. Quando la caduta della fiducia è originata da prestiti che non vengono restituiti alle banche la situazione è ancora più grave, perché le banche incorrono in una crisi di insolvenza. Ciò accade quando per fare fronte ai propri debiti la banca vende attività. La decumulazione di attività dai 182 portafogli contribuisce però a deprimere i corsi delle azioni. Una crisi di insolvenza che travolge alcune banche può infatti contagiare anche le banche sane se la caduta di fiducia si generalizza. Le banche sane rischiano al pari delle banche fortemente indebitate un massiccio ritiro di depositi. Ciò le costringe a vendere attività di loro proprietà. L’eccesso di offerta di attività sui mercati provoca la riduzione dei prezzi azionari e quindi anche della quotazione di borsa delle banche sane. In tal modo, la crisi di insolvenza si diffonde dalle banche colpite da mancata restituzione dei prestiti alle banche sane. Poiché lo scoppio di una bolla speculativa interrompe la catena fiduciaria fra debitori e creditori, il processo di propagazione della crisi finanziaria ha l’effetto di bloccare il processo di moltiplicazione del credito. Non essendo più in grado di ricevere credito, le banche sono costrette a ridurre drasticamente la concessione di credito all’economia e alle altre banche. La riduzione dell’attività di intermediazione ha quindi prodotto un processo di deleveraging, ovvero una riduzione del rapporto fra fondi presi a prestito e capitale proprio. Il problema è che il deleveraging rischia di non fermarsi e può quindi sfociare in una grave recessione. La svalutazione dei prezzi delle attività possedute ha pericolosamente ridotto la capitalizzazione delle banche, costringendo le banche centrali ad un’immissione di liquidità diretta ad impedire i fallimenti bancari, ed i governi ad offrire la garanzia non solo sui depositi dei risparmiatori ma anche sul prestito interbancario. In tal modo, si è impedito un collasso completo della fiducia di una banca nella solvibilità della banca che le chiede prestiti, ed evitato che si bloccasse completamente il meccanismo di trasmissione della liquidità all’interno del settore bancario, con grave nocumento per il finanziamento delle imprese. In alcuni casi, si è reso necessario procedere alla ricapitalizzazione o alla nazionalizzazione delle banche. Un problema dell’attuale fase di ristrutturazione del sistema bancario è che le fusioni indotte dalla necessità di evitare il fallimento di alcune banche ha determinato un innalzamento ulteriore della dimensione media, il che rende meno credibile il ripudio annunciato dalle autorità monetarie e governative 183 del principio “troppo grande per fallire” che aveva indotto numerose banche ad accrescere il grado di rischio delle proprie operazioni. I prodotti delle banche insolventi sono stati definiti lemons (bidoni) perché la cartolarizzazione ha fatto sì che la banca venditrice di tali prodotti finanziari sfruttasse la mancanza di informazione dell’acquirente riducendone la qualità. In tal modo, il risparmiatore acquirente di tali CDO si è trovato nell’impossibilità di stabilire il valore di credito (l’affidabilità) dei clienti all’inizio della catena del prestito (ad esempio, coloro che hanno sottoscritto i mutui sub-prime). D’altro canto, negli Stati Uniti chi domandava un mutuo sulla casa sapeva che in caso di insolvenza avrebbe dovuto dare soltanto alla banca le chiavi di casa, senza alcuna penalità ulteriore. Questo ha fatto sì che anche dal lato della domanda di mutui si sia scelto di aumentare il grado di rischio. La propensione a finanziare acquisti di attività finanziarie a lungo termine con ingenti quantità di credito a breve termine rappresenta un grave comportamento di azzardo morale che allontana i mercati da un corretto funzionamento. Infatti, gli agenti razionali reagiscono riducendo il proprio grado di fiducia, con conseguenze negative sulle transazioni in beni ed in titoli; e gli agenti che sono invece più inclini a seguire i “sentimenti” dei mercati finanziari adottano un comportamento “imitativo” e si accodano al “gregge” che spinge la corrente ascensionale dei prezzi delle attività finanziarie, senza tenere conto che le quotazioni eccedono di gran lunga i rendimenti attesi. L’ingente indebitamento dello Stato che consegue ai salvataggi delle banche è nient’altro che la conseguenza dell’avere consentito l’eccezionale indebitamento delle grandi istituzioni finanziarie che accumulavano attività usando la leva dei finanziamenti a breve termine confidando - esattamente come le banche concedevano mutui ad elevata rischiosità confidando che la salita dei prezzi delle case non si sarebbe esaurita - sull’illusione che la crescita economica non avrebbe avuto fine, e che prezzi dei prezzi delle attività finanziarie in continuo incremento fossero sostenibili. 184 Gli squilibri macroeconomici globali sono stati indirettamente favoriti dalla carenza di regolamentazione dell’attività bancaria. Infatti, le attività di investimento negli Stati Uniti sono state finanziate in maniera crescente attraverso l’indebitamento estero (la vendita all’estero di attività finanziarie) invece che attraverso il risparmio. L’eccesso di importazione sulle esportazioni, che ha raggiunto un picco del 5,5% del PIL, è stato finanziato con prodotti finanziari il cui valore si è rivelato non corrispondente al rating attribuito dalle agenzie agli istituti emittenti. D’altro canto, la regolamentazione europea ha varato il Basilea2 ma non ha modificato la regolamentazione sul calcolo dei rischi. Le banche continuano ad operare sulla base dei modelli di rischio commerciale invece che su modelli di rischio sistemico e non richiedono alcun coefficiente di riserva di capitale sulle attività off-shore. Riassumiamo brevemente alcuni aspetti centrali dell’analisi fin qui svolta. Il giudizio complessivo sulle origini della crisi finanziaria chiama in causa la teoria dei “fallimenti del mercato”. La scarsa e difettosa regolamentazione dei mercati finanziari ha provocato una grave sottostima dei rischi insiti nella creazione di derivati. Molti intermediari hanno costruito strumenti finanziari di cui non erano in grado di valutare il grado di rischio hanno preso eccessivi rischi ignorando il rischio sistemico, ovvero la rapida propagazione dell’insolvenza da un operatore all’altro. Il modello “originate and distribute” separa la concessione del prestito dalla decisione di investimento finanziario, determinando così problemi di azzardo morale. Le agenzie di rating sono incorse nel conflitto di interessi L’elevata remunerazione dei managers ha creato la tendenza allo short-termism, ovvero la strategia di accelerare il conseguimento di elevati utili, in modo da avvantaggiarsi dell’incremento probabile nelle quotazioni di borsa. La regolamentazione ha fallito nel permettere alle banche di accumulare passività al di fuori del proprio bilancio e di tollerare una crescita eccessiva dei prestiti nel grado di leverage (attività totali / capitale degli azionisti) e nel calcolare il value at risk degli intermediari finanziari su base individuale, escludendo il rischio sistemico. D’altro canto, le cause della crisi finanziaria non possono neppure essere circoscritte al mercato dei sub-prime, la cui dimensione 185 (3.000 dollari) è una piccolissima quantità rispetto al totale delle attività mondiali (80 trilioni di dollari). L’effetto di amplificazione della crisi è stato indotto da tre fattori: 1) la deregolamentazione bancaria ha sortito la conseguenza di amplificare i cicli economici positivi; 2) la prociclicità del leverage a causa dei vincoli imposti dal grado di leverage delle banche; 2) la necessità di calcolare il valore delle attività in base alla quotazione di mercato (nel caso una perdita sull’investimento provochi una crisi di insolvenza che erode il capitale della banca commerciale o di investimento, il vincolo sull’adeguatezza di capitale impone di vendere attività per ottenere liquidità. Vendite forzate producono però crolli dei prezzi di borsa che hanno a loro volta l’effetto di peggiorare i conti delle banche con conseguente ulteriore ricorso a vendita di attività. L’opposto accade durante un boom: l’aumento di valore del proprio portafoglio induce le banche ad accrescere la propria attività rifornendosi in base ad una sorta di “effetto ricchezza”. Un motivo per cui si afferma oggi che la politica monetaria esageratamente espansiva per un numero troppo alto di anni sia stata dissennata: un innalzamento dei tassi di interesse durante un ciclo economico espansivo non si consiglia soltanto per spegnere sul nascere tensione di aumento dei prezzi dei beni, ma anche per impedire che la salita delle quotazioni di borsa faccia sentire più ricchi gli intermediari finanziari e quindi generi un aumento della domanda di prestiti che si riflette nella nascita di bubbles. 21. Il ruolo degli Hedge Funds Gli Hedge Funds sono pool formati da un piccolo numero di investitori che hanno costruito un fondo che gestisce un portafoglio di attività finanziarie e sono molto attivi nei mercati dei titoli derivati. Il loro numero è passato da 3500 a 10000 dal 1999 ed il 2008. La regolamentazione degli Hedge Funds è molto leggera, cosicché l’assunzione di rischio è elevata. Anche l’introduzione del divieto di detenere posizioni corte (short selling) ha causato un incremento della volatilità ed una riduzione della liquidità del mercato, ma non ha portato alla stabilizzazione dei valori 186 delle attività finanziarie. Gli HF operano con un alto leverage: le strategie a basso rischio utilizza un grado di leva pari a 10 volte il capitale; a un grado di rischio più elevato corrisponde un grado di leva pari a 2 volte il capitale. Una tipica operazione consiste nella vendita di titoli allo scoperto, che permette di lucrare – al momento in cui vengono acquistati nel mercato, allo scopo di consegnarli agli acquirenti - il differenziale fra il loro valore corrente ed il minore valore che la speculazione al ribasso ha permesso di conseguire. Molti HF forniscono al proprio broker solo una quota del capitale, prendendo a prestito liquidità per la restante parte dietro garanzia di titoli. Se però il valore dell’investimento scende al di sotto di una certa soglia, il broker ha diritto di liquidare parte dei titoli per rientrare nel margine. Se i titoli risultano essere illiquidi, la discesa del prezzo si ripercuote un una perdita che si traduce in una perdita di valore del portafoglio sottoscritto dagli investitori. Inoltre, poiché operano su mercati molto sottili, eventuali vendite forzate danno luogo a un aggravamento reciproco della solvibilità di HF accomunati da strategie simili. Pertanto, il ricavato dei titoli venduti allo scoperto permette all’HF di pagare il loro acquisto per consegnarli all’acquirente lucrando un profitto speculativo. Tuttavia, se l’investitore non vuole subire la discesa del prezzo procurata dalla vendita, i titoli in garanzia vengono venduti: quanto maggiore è il capitale preso a prestito dall’HF, tanto maggiore è la perdita del valore capitale dato in garanzia per la posizione debitoria aperta per acquistare i titoli da consegnare all’acquirente-investitore. Qual è stato il ruolo degli Hedge Funds in questa crisi finanziaria? L’opinione degli economisti si divide fra coloro che ritengono queste istituzioni finanziarie del tutto estranee allo scoppio delle bolle immobiliare e finanziaria, chi li ritiene colpevoli della gravità degli effetti, ovvero della profondità della crisi che ha colpito il sistema bancario, e chi li considera direttamente all’origine della crisi finanziaria. La terza tesi può essere così argomentata. Negli ultimi anni ’90, il tasso di rendimento degli Hedge Funds aveva raggiunto la ragguardevole cifra del 20%. Le banche furono soggette alla pressione di dovere mettersi in grado di raggiungere lo 187 stesso risultato. Nel perseguire l’obiettivo di innalzare il tasso di rendimento sui capitali i manager fanno riferimento alle seguenti equazioni: (1) R’ = α E’ + (1 – α )i (2) E’ = (1/ α) R’ - [(1- α) / α] i (3) E’ = (1 / α ) R’ - [(i / α) – i ] (4) E’ = i + (1/ α) (R’ – i) La banca può accrescere i propri profitti sfruttando il differenziale R’ – i. La strategia consiste nell’abbassare il rapporto fra capitale e titoli (α); in alternativa, la banca può accrescere il differenziale R’ – i. E’ opportuno ricordare che nell’ipotesi di mercati dei capitali efficienti è implicita l’accettazione del Teorema di Modigliani-Miller, secondo il quale il saggio di rendimento del capitale non è influenzato da quale sia la fonte di finanziamento, il credito bancario oppure l’emissione di azioni. La strategia di elevare il leverage (una riduzione di α) provocherà un aumento del tasso di interesse praticato dalla banca che finirà per compensare l’ abbassamento del rapporto fra capitale ed indebitamento (α). L’incremento del premio per il rischio della banca neutralizzerà l’impatto del più basso α. Se però i mercati dei capitali sono imperfetti, con α = 1/10, i = 5% ed R’ = 6%, la banca può aumentare l’iniziale saggio di rendimento sulle attività (15%) innalzando il leverage. Il rapporto capitale/indebitamento si ridurrà a 1/20, cosicché il saggio di rendimento crescerà dal 15% al 25%: da E’ = 5% + 10% (1) si passa a E’ = 5% + 20% (1). In alternativa, la banca potrebbe lasciare invariato α = 1/10 e ampliare il differenziale dall’1% al 2%: E’ = 5% + 10% (2). 188 Tuttavia, considerando che il tasso di interesse nominale ingloba il tasso di inflazione atteso (con aspettative razionali: π = πe , l’equazione di Fisher è: i = r + π), e che nel lungo periodo si deve realizzare l’eguaglianza fra tasso di crescita e tasso di interesse reale (G = r), l’obiettivo di un saggio di rendimento del 25% è poco realistico. Il saggio di rendimento E’ = E’ – π è dato da: E’ = gY + (1/ α ) [R’ – (gY + π )] Ponendo R’ = R’ - π , possiamo scrivere il saggio di rendimento E’ in funzione di R’ (…): E’ = [1 – (1/ α )] gY + [1/ α] R’ ( Z, gY , A) Assumendo per semplicità che il saggio complessivo di rendimento sul capitale R’ dipenda dal premio per il rischio Z della banca “rappresentativa” (che corrisponde al saggio di crescita del mercato, supposto pari al tasso di crescita del reddito gY), considerando il tasso di progresso tecnico (A) , abbiamo: R’ = q’Z + q’’ gY + q’’’A (con q’,q’’, q’’’ > 1), per q’>1 si ottiene che la produzione ha sempre un impatto positivo su E’: E’ = [1 – (1/ α ) (1-q’)] gY + [1/ α ] q’Z + q’’’A In un periodo di forte crescita del progresso tecnico A, il saggio di rendimento della banca rappresentativa cresce, dato il premio per il rischio Z. Se il saggio di rendimento deve essere eguale al tasso di interesse sui titoli pubblici privi di rischio più il premio per il rischio (il premio moltiplicato per la varianza delle quotazioni di borsa). Se il tasso di interesse sui titoli pubblici è pari al 4%, ed il saggio di rendimento richiesto sul capitale è pari al 25%, il management della banca deve impegnarsi in progetti di investimento con un premio per il rischio che in media sia 189 pari al 21%. In Europa, le banche furono così costrette ad accrescere il leverage e ad aggirare il vincolo sul minimo rapporto capitale/indebitamento imposto da Basilea2 ponendo le attività finanziarie rischiose in strutture fuori bilancio (i SIV). Basilea1 aveva imposto un basso coefficiente di rischio sui prestiti delle banche commerciali alle banche di investimento, invogliando le prime a trasferire attività rischiose fuori bilancio. Poiché i crediti interbancari, a differenza dei depositi, non sono garantiti dallo Stato, l’espansione del credito generata attraverso il mercato interbancario accrebbe la rischiosità dei bilanci delle banche commerciali. 190 Parte Terza. La crisi dell’Eurozona 1. Squilibri macroeconomici globali Mentre la volatilità del reddito è molto diminuita negli anni della “Grande Moderazione”, le crisi finanziarie sistemiche sono state numerose: le “big five financial crisis” (Reinhardt-Rogoff, 2008) delle economie avanzate (Spagna 1977, Norvegia 1987, Finlandia, 1991, Svezia, 1991, and Giappone, 1992), la crisi di Colombia (1998) ed Argentina (2001) e le crisi asiatiche (Hong Kong, Indonesia, Malaysia, Filippine, e Thailandia). Il nesso fra la crisi finanziaria 2007-09 e gli squilibri macroeconomici internazionali è dimostrato dal fatto che contestualmente alle maggiori crisi finanziarie si sono verificate forti deviazioni dei tassi di cambio dai valori dell’equilibrio di lungo periodo. Nell’attuale crisi, questo nesso è la risultante di tre fattori: 1) La crescita continua senza oscillazioni cicliche rilevanti conosciuta dagli Stati Uniti ha indotto un esagerato grado di ottimismo ed una minore avversione al rischio; 2) la politica monetaria espansiva della Fed ha stimolato le banche a sfruttare i bassi tassi di interesse per accrescere a dismisura il loro grado di leverage; 3) l’atteggiamento di benign neglect con cui le banche centrali ed istituzioni internazionali (IMF,WB) hanno guardato a tali squilibri ha consentito che si prolungassero le deviazioni dal valore di lungo periodo PPP dei tassi di cambio reali di valute le cui economie hanno un notevole rilievo nel commercio internazionale. L’equilibrio macroeconomico consiste della soma algebrica dei bilanci dei settori private, pubblico ed estero. Nel caso il risparmio ecceda l’investimento, il flusso in eccesso viene trasmesso dai mercati finanziari al settore pubblico per coprire un deficit (l’eventuale eccesso di spesa pubblica sulla tassazione: G>T) e/o per permettere agli operatori esteri di pagare l’eccesso di importazioni (i beni esportati dal paese stesso in eccesso rispetto alle proprie importazioni:X>M) 191 Nel caso in cui sia l’investimento a sopravanzare il risparmio (S < I), l’eccesso di domanda interna deve essere compensato da un surplus del bilancio pubblico (G < T) e/o di capitali provenienti dall’estero. (un eccesso di importazioni sulle importazioni: X < M). In altri termini, i flussi di capitale finanzieranno l’eccesso di spesa pubblica sulla tassazione (il deficit pubblico interno) e/o l’eccesso di importazioni sulle esportazioni. Gli Stati Uniti sono un caso speciale: come paese che “vive al di sopra dei propri mezzi”, il deficit del settore privato viene coperto dagli investitori esteri, il cui apporto di capitali non solo consente di acquistare le importazioni nette, ma va ad acquistare il debito pubblico emesso a fronte del deficit pubblico (l’eccesso della spesa pubblica sulla tassazione). Un eccesso di risparmio sull’investimento è cosa positiva o negativa? E’ cosa positiva se è utilizzato dai pensionati all’acquisto di attività finanziarie o di fondi pensione, oppure se le imprese investono i propri profitti all’estero a causa dei più alti profitti attesi; negativa se riflette la necessità di assicurazione dei lavoratori rispetto ai rischi microeconomici o macroeconomici in un paese con un ristretto Stato sociale (un esempio è la China). Non è facile stabilire se una crescita export-led sia cosa positiva o negativa (ad esempio, Cina e Germania) dsl momento che sottrae domanda ai principali competitori (gli Stati Uniti e gli altri paesi dell’Unione Europea). I regimi di cambio, gli accordi commerciali e le politiche macroeconomiche contano. Gli Stati Uniti hanno conosciuto nel 1996-2000 un boom delle quotazioni di borsa (trainato dalle azioni high-tech) che ha sostenuto le decisioni di investimento; nel 2000-2008 hanno conosciuto un deficit pubblico del 6% (per i 3/4 causato dai tagli alle tasse sui redditi alti introdotti da Bush) ed un deficit commerciale del 6%. Tali “deficit gemelli” sono spiegati nel modello Mundell-Fleming come l’esito di un elevato tasso di interesse che attrae capitali dall’estero, con conseguente apprezzamento reale ed eccesso delle importazioni sulle esportazioni (il surplus commerciale della Cina fu pari all’11% nel 2006. L’eccesso di riserve internazionali viene accumulato per i tradizionali scopi 192 precauzionali, oppure viene destinato all’acquisto di titoli pubblici sicuri, come i titoli emessi dagli Stati Uniti, il paese emittente della valuta utilizzata come principale mezzo di pagamento internazionale). Il processo di deregolamentazione dell’attività bancaria, rapidamente estesosi dagli Stati Uniti all’Unione Europea ed all’Asia, fu all’origine di un’enorme crescita del credito in paesi come Spagna ed Irlanda (dove l’inflazione superiore alla media dei paesi UME rendeva il già basso tasso di interesse vicino allo zero in termini reali) e la nuova bolla (questa volta anche immobiliare) negli Stati Uniti accrebbero l’instabilità macroeconomica. La crisi finanziaria 200709 ha progressivamente ridotto il deficit commerciale, ma il debito pubblico è aumentato a causa della spesa sostenuta dal Tesoro USA per ripianare i debiti delle banche. Infine, i rapporti deficit/PIL e debito pubblico /PIL sono saliti notevolmente anche per il passaggio a valori negativi dei tassi di crescita. La caduta della produzione è anche comportato la caduta dell’occupazione: dal 2007 al 2009 il tasso di disoccupazione è cresciuto nei paesi avanzati di 14,3 milioni e nei paesi emergenti di 8 milioni. L’aspetto più preoccupante è che si prevede che il tasso di occupazione precedente la recessione verrà recuperato soltanto nel 2015, con la conseguenza che un gran numero di disoccupati non rientrerà nel mercato del lavoro (il 37% della disoccupazione viene infatti considerata di lungo periodo). La crisi è stata affrontata negli Stati Uniti con il sostegno finanziario del Tesoro alle banche in crisi e con la politica monetaria espansiva della Fed diretta a rimettere in moto il circuito del credito interbancario, che era stato bloccato dalla caduta della fiducia di ciascuna banca nella solvibilità della banca che le chiedeva un finanziamento di liquidità. Queste forti immissioni di liquidità hanno aiutato famiglie ed imprese a dare inizio alla riduzione del loro indebitamento privato. Tuttavia, la necessità per le banche di aggiornare il valore del loro attivo in attività finanziarie in base agli attuali prezzi di mercato rende difficile accrescere il credito. Inoltre, la crisi finanziaria ha grandemente intaccato il venture capital. La domanda interna ristagna anche perché la caduta dell’occupazione è stata maggiore rispetto ai paesi europei, non solo per la minore protezione dei posti di lavoro tipica del mercato del lavoro 193 flessibile degli Stati Uniti, ma anche perché ad essere fortemente colpito dalla recessione è stato il settore edile che è quello a maggiore intensità di lavoro (il tasso di disoccupazione USA ha raggiunto nel 2010 il 9,6%. Del resto, è stato calcolato che nelle passate crisi economiche il deleveraging ha richiesto in media sette anni (Reinhardt e Rogoff, 2008). L’incremento del deficit e del debito pubblico causato dai programmi di stimolo fiscale ha permesso la ripresa economica nel breve periodo. ll riequilibrio strutturale dei bilanci pubblici e privati richiede però che si realizzino entrambe o almeno una delle seguenti due condizioni: 1) l’incremento del tasso di risparmio; 2) l’incremento delle esportazioni nette. Dal 2008 al 2010, la propensione al risparmio è già aumentata dal 2,7% al 6%. Le esportazioni non sono però aumentate a sufficienza, in quanto la competitività delle merci USA sui mercati in forte espansione (quelli dei paesi emergenti) è possibile solo mediante la rivalutazione delle valute di quei paesi, in primo luogo attraverso una forte svalutazione del dollaro rispetto al renmimbi. 194 I paesi che perseguono una crescita export-led sono interessati ad evitare afflussi di capitali, in quanto l’eccesso di domanda di valuta interna (in cambio della cessione di valuta estera incassata con le esportazioni) ne provoca l’apprezzamento nei mercato valutario. Inoltre, benché presenti il vantaggio di frenare le esportazioni ed indebolire la valuta (il che aiuta la ripresa delle esportazioni), la conversione dei capitali in valuta interna rischia di creare pressioni inflazionistiche. In alternativa, i capitali possono essere esportati. I capitali in entrata come pagamento delle elevate esportazioni cinesi in parte vengono accumulati come riserve internazionali, in parte entrano nel portafoglio dei fondi sovrani cinesi, e in parte sono destinati all’acquisto di titoli pubblici (soprattutto le emissioni del Tesoro USA). Il restringimento degli squilibri macroeconomici globali rappresenta un miglioramento paretiano. Il motivo è che gli afflussi di capitale nei paesi avanzati si riflettono in investimenti che non saranno altrettanto redditizi di quanto sarebbero investimenti effettuati in paesi emergenti nel caso in cui verso questi paesi venissero ri-orientati in seguito al riequilibrio dei flussi commerciali. L’aspetto negativo consiste nella reazione dei paesi in deficit commerciale, che potranno ricorrere a misure protezionistiche (le tariffe commerciali, utilizzate dagli Stati Uniti), oppure alla manipolazione del mercato dei cambi (la manovra al ribasso della sterlina svolto 195 dal Regno Unito) oppure al controllo dei movimenti di capitale (la tassazione sugli afflussi di capitale effettuata dal Giappone e dalla Tailandia). Le due figure (vedi i due grafici sopra) testimoniano i divari di bilancia commerciale che caratterizzano le relazioni economiche fra le varie aree economiche. Nel secondo grafico, si nota in particolare come la Germania abbia un notevole surplus commerciale, mentre i paesi dell’Unione Europea compaiono nell’aggregato “resto del mondo” in leggero deficit dei conti correnti. Pertanto, un’eventuale divergenza (positiva o negativa) fra risparmi (S) ed investimenti (I) nel settore privato viene annullata dalla somma algebrica di eventuali divari fra le spesa pubblica e le entrate fiscali (T) nel settore pubblico e fra importazioni (M) ed esportazioni (X) nel settore estero: S - I = (G - T) - (X – M) L’economia degli Stati Uniti ha a lungo vissuto “al di sopra dei propri mezzi”. Gli Stati Uniti, prima della crisi finanziaria 2007-09, si registrava sia un eccesso degli investimenti rispetto ai risparmi che il deficit commerciale ed il deficit pubblico. Le istituzioni private (banche, etc.), i fondi sovrani e le Banche Centrali di Cina, Giappone, India e Sud-Est Asiatico sono i principali acquirenti dei titoli emessi da imprese private e dal Tesoro degli Stati Uniti a fronte di tali deficit. Gli Stati Uniti si sono sempre più caratterizzati come un’economia del debito: il settore privato (dove le banche figurano in un unico aggregato con le imprese produttrici di beni) era in forte deficit perché i consumatori hanno accresciuto il proprio indebitamento con le banche (l’esempio tipico sono i mutui subprime) e le imprese private hanno finanziato con emissioni di attività finanziarie i loro eccessi di spesa; il settore pubblico, dopo avere quasi raggiunto a fine anni ‘90 il pareggio di bilancio, ha ripreso a creare deficit ed ha perciò accresciuto la vendita del debito pubblico, soprattutto all’estero. 196 Il potenziale economico degli Stati Uniti, e la funzione finora svolta dalla sua Banca centrale di creare la valuta che è il principale mezzo di pagamento internazionale, hanno fatto sì che il dollaro abbia goduto di una notevole credibilità finanziaria e di non essere indebolito sui mercati valutari da tali squilibri macroeconomici. Nel breve periodo, le esportazioni vengono sostenute dal trend di lento deprezzamento del dollaro rispetto allo Yen ed all’Euro. Nel lungo periodo, tuttavia, occorrerà che lo squilibrio venga sanato in termini reali. Infatti, benché il deprezzamento del dollaro consenta agli Stati Uniti di rendere meno care sui mercati esteri le proprie merci, la perdita di valore in termini nominali non è sufficiente. Fintantoché il tasso di cambio reale – che rappresenta in ultima analisi l’indicatore della competitività di un paese – riflette un rapporto salario/produttività più elevato rispetto ai concorrenti, ogni aggiustamento nominale apporta un sollievo solo temporaneo alla bilancia commerciale. L’aggiustamento deve quindi essere reale. Per ripristinare l’equilibrio del settore reale, le strade sono due: o si accrescono la moderazione salariale e la dinamica della produttività, di modo che un rapporto salario/produttività al livello dei concorrenti e la minore inflazione spingano le esportazioni, oppure occorre comprimere il consumo, in modo da ridurre le importazioni. La prima strada agisce direttamente sul tasso di cambio reale; la seconda, elimina lo squilibrio del settore privato e migliora indirettamente il tasso di cambio reale attraverso l’apprezzamento nominale determinato dalla discesa delle importazioni nette. Per ridurre l’importazione di beni di consumo dall’estero, gli Stati Uniti dovrebbero essere in grado di riequilibrare il rapporto fra risparmi e consumi, aumentando la formazione di risparmio attraverso la riduzione del consumo (è infatti improbabile che il tasso di crescita possa essere portato al livello necessario a sostenere il volume in essere di consumo). Il crollo dei prezzi delle attività finanziarie e la disoccupazione generata dalla recessione economica hanno prodotto la caduta della domanda privata al di sotto del livello corrispondente alla capacità produttiva. L’aggiustamento di 197 mercato è così cominciato: i fallimenti e le ristrutturazioni industriali hanno fatto crollare il reddito e i consumi. La contraddizione presente nell’attuale situazione macroeconomica degli Stati Uniti è che mentre l’aggiustamento di mercato sta consentendo al settore privato di riequilibrare i risparmi agli investimenti (l’eccesso di investimenti si va ridimensionando), l’aggiustamento attraverso le politiche macroeconomiche di stabilizzazione va in direzione opposta a quella richiesta dal riequilibrio. Infatti, occorrerebbe che la diminuzione del reddito venisse accompagnata da una politica monetaria moderata e che una restrizione fiscale contribuisse alla diminuzione della domanda di consumo necessaria al riequilibrio fra risparmi ed investimenti. Al contrario, assistiamo: 1) ad una poderosa creazione di moneta da parte della Fed allo scopo di effettuare i salvataggi delle banche di investimento in crisi di solvibilità, di sollevare le banche dai titoli peggiori in modo da ripristinare la fiducia e permettere la ripresa del credito interbancario, e di sostenere con iniezioni di liquidità a bassissimo tasso di interesse i bilanci delle imprese produttrici in crisi; 2) ad una forte espansione della spesa pubblica, che rende inevitabile l’incremento del debito pubblico. L’attuazione di politiche monetarie e fiscali di segno espansivo, quando invece il riequilibrio macroeconomico reale imporrebbe la restrizione, ha una spiegazione: impedire che la recessione si avviti in una stagnazione di lungo periodo. Se le manovre fiscali fossero di segno restrittivo, allo scopo di ripristinare il pareggio del bilancio pubblico, si potrebbe innescare un meccanismo simile al paradosso della parsimonia di Keynes: una diminuzione della domanda di consumo che determina una discesa del reddito di ampiezza tale da impedire che si raggiunga l’obiettivo di incrementare il risparmio. Come si è accennato nel par.2 della Parte Seconda, il crollo di Wall Street del ’29 fu aggravato proprio dall’adozione del gold standard nel Regno Unito (1931) e negli Stati Uniti (1933): riserve in oro mantenute costanti e bilancio pubblico in pareggio costrinsero in un primo tempo il Tesoro ad impulsi fiscali restrittivi. Come si è anche detto, durante la crisi 2007-09 la stasi dell’attività di 198 credito per la crisi di fiducia che blocca il credito interbancario, ed il deleveraging delle banche impegnate ad innalzare il rapporto capitale/ indebitamento, è sfociato in una forte discesa dell’attività produttiva. In assenza di un sostegno anti-ciclico della domanda pubblica, il rischio è che la recessione si trasformi in una lunga depressione economica. Questo è il rischio che attualmente corre l’Unione Europea. Dopo l’espansione degli anni 2004-08 dove – rispetto al periodo precedente 1999-03 (vedi il grafico qui sopra) - la forte espansione del credito e del PIL generavano deficit nella bilancia commerciale, la crisi finanziaria ha reso necessari i salvataggi bancari a carico dei bilanci pubblici. I conseguenti impulsi fiscali restrittivi diretti a ridurre deficit e debito pubblico hanno provocato gravi tendenze deflattive. . Alla strutturale assenza in Europa di una economia che svolga il ruolo di “locomotiva” generando domanda per il resto dell’area economica (la Germania continua ad essere, anzi è sempre più, un’economia export-led), si aggiunge oggi la scarsa propensione a manovre reflazionistiche dei governi. Un paese come la Grecia ha un alto deficit pubblico ed un alto moltiplicatore del reddito. Una restrizione fiscale diretta a risanare i conti pubblici ha pertanto un impatto deflattivo molto grande. L’impatto sull’output del 199 moltiplicatore negativo è probabilmente insostenibile sul piano sociale. D’altro canto, la Germania ha interesse a proseguire nella strategia della crescita export-led e quindi non accetta di innalzare la domanda interna con un’espansione fiscale (e infatti è stato molto limitato lo stimolo di spesa pubblica per superare la recessione). I governi delle grandi economie europee (soprattutto quelli dei paesi gravati da un ingente debito pubblico, in primo luogo l’Italia) stanno seguendo una manovra fiscale prudente, diretta ad evitare il sostegno pubblico ad una domanda aggregata ridottasi in seguito alla recessione seguita alla crisi finanziaria. In parte, il rifiuto ad attivare manovre di bilancio espansive dipende dal timore che incrementi della tassazione vengano pagati sul piano elettorale e che ulteriori emissioni di debito pubblico comportino il riconoscimento di un premio per il rischio più elevato. Ma il problema è l’interdipendenza strategica che orienta alla deflazione competitiva le economie europee: il timore maggiore di ciascun governo europeo è che tutti gli altri governi assumano un atteggiamento free-riding e cioè non espandano la spesa pubblica nell’aspettativa che siano gli altri a farlo, in modo da beneficiare di un incremento della domanda senza dovere sopportare il costo del finanziamento del deficit pubblico. Per eliminare l’esternalità positiva , che avvantaggia i paesi che godono di un aumento di domanda per lo stimolo fiscale espansivo deciso un altro paese, ed impedire perciò che si realizzi l’equilibrio Pareto-non-ottimo in cui tutti i paesi scelgano di mantenere il bilancio vicino al pareggio, sarebbe necessario coordinare le politiche fiscali. Ma la strategia della cooperazione è ancora estranea alla visione spesso miopemente opportunistica che i governi hanno dell’integrazione economica europea. Nel 2009, il PIL dell’UE dovrebbe calare del 3,6% ed il PIL degli Stati Uniti del 3,7%. Negli Stati Uniti (come anche negli altri paesi maggiormente colpiti dallo scoppio della bolla finanziaria, in primo luogo il Regno Unito), l’attuale crisi economica sta consentendo il riassorbimento dell’eccesso di deficit del settore privato, con un aumento del risparmio ed una caduta degli investimenti. Al converso, in un paese con grande surplus come la Germania si assiste ad una riduzione 200 dell’eccesso del reddito sulla spesa ( risparmio meno investimenti). In questo paese, il deterioramento dei conti pubblici rappresenta anche la compensazione del ridimensionamento del surplus nel bilancio con l’estero (la caduta delle esportazioni per la crisi della domanda mondiale è la principale causa del decremento della crescita superiore alla media UE). In generale, rispetto agli Stati Uniti, la ripresa economica dopo la recessione è meno sostenuta dalle politiche macroeconomiche in Europa. La BCE, diversamente dalla Federal Reserve, non ha il potere di gestire le situazioni d'insolvenza (la clausola di no bail-out vincola l’apporto di liquidità ai paesi in difficoltà). Il PSC limita non solo le politiche di sostegno della domanda aggregata, ma anche il salvataggio o la nazionalizzazione delle banche insolventi. Questo è il rischio che attualmente corre l’Unione Europea. Alla strutturale assenza in Europa di una economia che svolga il ruolo di “locomotiva” generando domanda per il resto dell’area economica (la Germania continua ad essere, anzi è sempre più, un’economia export-led), si aggiunge oggi la scarsa propensione a manovre reflazionistiche dei governi. Un paese come la Grecia, con un alto deficit pubblico ed un alto moltiplicatore del reddito (a causa di un elevato tasso di risparmio (12%) ed una forte apertura commerciale (+25%). Una restrizione fiscale diretta a risanare i conti pubblici ha pertanto un impatto deflattivo molto grande. L’impatto sull’output del moltiplicatore negativo è probabilmente insostenibile sul piano sociale. D’altro canto, la Germania ha interesse a proseguire nella strategia della crescita export-led e quindi non accetta di innalzare la domanda interna con un’espansione fiscale (e infatti è stato molto limitato lo stimolo di spesa pubblica per superare la recessione). I governi delle grandi economie europee (soprattutto quelli dei paesi gravati da un ingente debito pubblico, in primo luogo l’Italia) stanno seguendo una manovra fiscale prudente, diretta ad evitare il sostegno pubblico ad una domanda aggregata ridottasi in seguito alla recessione seguita alla crisi finanziaria. In parte, il rifiuto ad attivare manovre di bilancio espansive dipende dal timore che incrementi della tassazione vengano pagati sul piano elettorale e che ulteriori emissioni di debito pubblico comportino il riconoscimento di un premio per il rischio più elevato. Ma il problema 201 è l’interdipendenza strategica che orienta alla deflazione competitiva le economie europee: il timore maggiore di ciascun governo europeo è che tutti gli altri governi assumano un atteggiamento free-riding e cioè non espandano la spesa pubblica nell’aspettativa che siano gli altri a farlo, in modo da beneficiare di un incremento della domanda senza dovere sopportare il costo del finanziamento del deficit pubblico. Per eliminare l’esternalità positiva che avvantaggia i paesi che godono di un aumento di domanda per lo stimolo fiscale espansivo deciso un altro paese, ed impedire perciò che si realizzi l’equilibrio Pareto-non-ottimo in cui tutti i paesi scelgano di mantenere il bilancio vicino al pareggio, sarebbe necessario coordinare le politiche fiscali. Ma la strategia della cooperazione è ancora estranea alla visione spesso miopemente opportunistica che i governi hanno dell’integrazione economica europea. Nel 2009, il PIL dell’UE dovrebbe calare del 3,6% ed il PIL degli Stati Uniti del 3,7%. Negli Stati Uniti (come anche negli altri paesi maggiormente colpiti dallo scoppio della bolla finanziaria, in primo luogo il Regno Unito), l’attuale crisi economica sta consentendo il riassorbimento dell’eccesso di deficit del settore privato, con un aumento del risparmio ed una caduta degli investimenti. Al converso, in un paese con grande surplus come la Germania si assiste ad una riduzione dell’eccesso del reddito sulla spesa ( risparmio meno investimenti). In questo paese, il deterioramento dei conti pubblici rappresenta anche la compensazione del ridimensionamento del surplus nel bilancio con l’estero (la caduta delle esportazioni per la crisi della domanda mondiale è la principale causa del decremento della crescita superiore alla media UE). In generale, rispetto agli Stati Uniti, la ripresa economica dopo la recessione è meno sostenuta dalle politiche macroeconomiche in Europa. La BCE, diversamente dalla Fed.Reserve, non ha il potere di gestire le situazioni d'insolvenza (la clausola di no bail-out vincola l’apporto di liquidità ai paesi in difficoltà). Il PSC limita non solo le politiche di sostegno della domanda aggregata. Ma anche il salvataggio o la nazionalizzazione delle banche insolventi. 202 2. L’origine della crisi finanziaria e i flussi di capitali internazionali E’ molto diffusa l’opinione che l’efficienza dell’economia di mercato dipenda dal fatto che essa poggia su incentivi solidi: le imprese che fanno bene ricevono il premio del profitto, le imprese che fanno male ricevono la punizione dell’espulsione dal mercato. In base a questo principio, che ha fatto tollerare all'americano medio le centinaia di milioni di dollari guadagnati dai top manager, Drexel ed Enron erano state lasciate fallire, perché la maggioranza degli americani credeva fermamente nel principio "chi sbaglia paga". Nella crisi attuale, tuttavia, i comportamenti arrischiati non sempre sono stati puniti. Il motivo è noto: date le notevoli implicazioni sistemiche di questa crisi, si vogliono evitare fallimenti a catena che potrebbero generare costi sociali molto pesanti: la disoccupazione e la distruzione di capitale umano. Non andrebbe comunque dimenticata l’esigenza di ripristinare una regolamentazione dell’attività bancaria di cui si è troppo ottimisticamente pensato di potere fare a meno. La tesi secondo cui controllare l’innovazione finanziaria ha il solo effetto di rallentare la crescita economica, con pochi benefici riguardo alla prevenzione di crisi future, si fonda sull’assunto errato che l’efficienza operativa delle istituzioni finanziarie coincida sempre con l’ottimo economico. Ciò non è necessariamente vero in presenza di mercati dei capitali imperfetti, quando cioè la massimizzazione del profitto delle istituzioni finanziarie non riflette l’efficienza allocativa della liquidità investita a causa dell’informazione asimmetrica. La massimizzazione del profitto è garantita – limitatamente al breve termine dall’effetto imitativo che spinge gli investitori ad acquistare i titoli con prezzo in ascesa, favorendo così la formazione della bolla; l’efficienza allocativa è sempre più precaria perché la disponibilità di liquidità genera una eccessiva creazione di attività finanziarie senza che sia stato controllato il titolo di merito dei titoli derivati. Ad esempio, le banche che cartolarizzano svolgono la virtuosa funzione di ripartire il rischio in modo da diluirli nel sistema dei pagamenti, ma tendono spesso a non 203 assumersi i costi informativi (ed il monitoraggio) delle proprie operazioni, non assumendosi quindi la responsabilità di assicurarsi sulla solvibilità dei debitori. Occorre uscire da una regolamentazione troppo blanda che permette un forte indebitamento a breve termine a fronte di attività a lungo termine, da cui inevitabilmente deriva un’eccessiva assunzione di rischi. E’ stato osservato che il problema della regolamentazione è di essere sempre imperfetta e comunque destinata a restare sempre un passo indietro rispetto all’innovazione finanziaria (Blanchard, 2008). Tale rischio è senza dubbio presente, ma non può esimere dalla ricerca – by trial and errors – del più appropriato insieme di strumenti di controllo compatibile con un funzionamento efficiente del sistema bancario. I più importanti indicatori della solidità di una banca sono: 1. il Tier1 (Capital Ratio ), che è dato dal rapporto fra il patrimonio di base della banca e le sue attività ponderate in base al rischio e rappresenta la quota più solida facilmente disponibile del patrimonio della banca; 2. il Core Tier 1, ovvero il Tier 1 al netto degli strumenti ibridi (gli strumenti finanziari che possono essere emessi dalle banche sotto forma di obbligazioni, certificati di deposito e buoni fruttiferi o altri titoli). I principali provvedimenti suggeriti sono i seguenti: 1) Il fabbisogno di capitale deve essere fissato a livelli più alti (le azioni ordinarie devono rappresentare la gran parte del capitale Tier1) in base a parametri graduati in funzione del grado di interconnessione che ciascuna banca ha all’interno del complessivo sistema bancario; 2) I requisiti minimi di capitale debbono variare in relazione al ciclo economico: in altri termini, invece di un indebitamento con andamento pro-ciclico, che cioè aumenta al peggiorare della condizione di bilancio, occorre che in periodi di espansione si richieda alle banche di accumulare quel capitale in eccesso che dovrà servire a ripianare senza scosse eventuali perdite che dovessero manifestarsi nel corso delle fasi recessive; 3) L’attribuzione di un valore di rischio più alto ai titoli detenuti dalle banche, il che dovrebbe scoraggiare la cartolarizzazione. Quale che sia l’opinione sulle proposte di riforma, è forse utile riconsiderare il dibattito che negli anni ’70 vide i proponenti della “New Theory of the Bank” che 204 propugnavano l’ipotesi di “Informazione imperfetta” (IIH) (Stiglitz, Weiss, Hellwig ed altri) contrapporsi alla teoria dominante che propugnava l’ipotesi dei “Mercati dei capitali efficienti” (EMH) avanzata da Fama. Il fulcro della critica alla (IIH) consisteva nel sottolineare che le banche sono speciali istituti finanziari perché incorrono nel “rischio di controparte” che sorge nella relazione bilaterale con un prenditore di prestito singolo. Diversamente dal rischio di un’attività finanziaria scambiata in un grande mercato fra anonimi operatori, il “rischio di controparte” varia in funzione del tipo di contratto e dei costi di valutazione e di monitoraggio della transazione che il prestatore deve sostenere. Un assetto efficiente dei mercati, tale cioè da dare soluzione all’asimmetria informativa fra banca prestatrice ed prenditore del prestito impedendo che l’imperfezione conduca al fallimento di mercato, richiede un intermediario che investa massicciamente nella raccolta di informazione. La stagione della deregolamentazione degli anni ’80 relegò rapidamente nell’oblio l’analisi della IIH e diede impulso a “conglomerazioni finanziarie” dove la banca raccoglitrice di depositi ha finito per rappresentare il braccio collettore di liquidità di un complesso sistema di entità finanziarie che fanno trading in titoli derivati di varia natura (Tamborini, 2009). Il bilancio di queste entità finanziarie presenta peculiari caratteristiche: 1) un’alta quota di attività finanziarie scambiabili nel mercato rispetto ai prestiti diretti; 2) un alta percentuale di passività a breve termine rispetto ai depositi; 3) alti rendimenti da operazioni di mercato rispetto a bassi margini di intermediazione diretta; 4) un grado di leverage superiore al 30%. La nascita delle “conglomerate finanziarie” ha condotto all’abbandono della tradizionale concezione dell’attività bancaria, nell’illusoria convinzione che sia possibile sostituire gli standard debt contracts come i CDO, senza sopportare i costi di valutazione e di monitoraggio. L’errore è stato quello di ritenere che il rischio legato all’asimmetria informativa inerente alla relazione bilaterale (ad esempio, fra banca che concede un mutuo e mutuatario) potesse essere trattato come rischio diversificabile, assicurabile e commerciabile (il modello ”originate and redistribute”). 205 L’espansione delle negoziazioni in titoli derivati ha un diretto collegamento con gli squilibri macroeconomici globali: 1) L’accumulazione di riserve internazionali in dollari, e azioni e titoli pubblici del Tesoro statunitense, con cui le banche centrali delle economie emergenti hanno intermediato l’eccesso di risparmio dei loro paesi presenta dal 2003 ad oggi una forte correlazione il deficit commerciale degli Stati Uniti; 2) I mutui a lungo termine ed i CDO hanno finito per spiazzare nei portafogli di risparmiatori e banche dei paesi emergenti i ben più sicuri e liquidi titoli pubblici del Tesoro statunitense. Negli anni 2000-2007, l’offerta di titoli legata all’enorme risparmio negativo delle famiglie (su 7.000 miliardi di dollari, ben 5.000 sono sotto forma di mutui) non trovava sufficiente copertura nella domanda dei paesi emergenti, perché il surplus commerciale di questi ultimi (determinato dall’incremento del deficit delle partite correnti US, pari a 5.000 miliardi di dollari) era dedicato dalle banche centrali all’accumulazione di riserve internazionali in dollari sotto forma di debito pubblico statunitense. La securization è stato lo strumento finanziario che ha consentito ai mutui sottostanti i Mortgage Backed Securities (MBS) di acquisire il grado di affidabilità e di liquidità necessario per essere assorbito nei portafogli delle banche e degli operatori finanziari di Giappone e paesi emergenti, che erano stati spiazzati dalle banche centrali nel mercato dei più sicuri titoli pubblici statunitensi (Gros, 2009). In assenza di una governance internazionale, successivamente alla ripresa economica gli squilibri macroeconomici internazionali sono destinati ad ampliarsi nuovamente. Il coordinamento internazionale delle politiche economiche ed un nuovo sistema monetario internazionale rappresentano la pre-condizione per il loro assorbimento nel lungo periodo. Gli Stati Uniti potrebbero ricorrere all’introduzione di nuove tariffe nei confronti delle merci cinesi, mentre il quadro istituzionale che regola il mercato unico europeo impedisce ai paesi dell’Unione monetaria europea di fare lo stesso con la Germania. 206 Un mondo con meno squilibri macroeconomici richiede che gli Stati Uniti risparmino di più e la Germania risparmi di meno. In tal modo, i maggiori partner commerciali dei due paesi avranno la possibilità di accrescere le proprie esportazioni e rilanciare la crescita. Un eccessivo (insufficiente) valore delle esportazioni della Cina (dei paesi UME, Germania esclusa) ed un livello eccessivamente basso (alto) del consumo in Germania (negli Stati Uniti), implicano che vi sarà una carenza di commercio internazionale e di crescita nell’economia globale. Il livello interno di domanda conta per il commercio internazionale e per la crescita. Con l’introduzione dell’euro, i regolatori hanno permesso alle banche di acquisire somme illimitate di obbligazioni statali senza mettere da parte alcun capitale azionario, mentre la BCE ha ridotto il prezzo dei titoli di stato di tutta l’eurozona in ugual misura. Le banche commerciali hanno trovato vantaggioso accumulare le obbligazioni dei paesi più deboli per guadagnare qualche punto base extra, il che ha portato ad una convergenza dei tassi di interesse in tutta l’eurozona. In questo contesto, la Germania, in difficoltà a causa del peso della riunificazione, ha implementato una serie di riforme strutturali diventando più competitiva, mentre altri paesi hanno goduto invece del boom immobiliare e dei consumi sulla spinta del credito a basso tasso di interesse, diventando così meno competitivi. Poi è arrivato il crollo del 2008 e i governi si sono trovati a dover salvare le loro banche. Alcuni di loro si sono trovati nella posizione dei paesi in via di sviluppo con un eccesso di indebitamento in una valuta sulla quale non avevano il controllo. L’Europa si è quindi divisa tra paesi creditori e debitori, rispecchiando in tal modo la divergenza delle prestazioni economiche. Quando i mercati finanziari hanno scoperto che le obbligazioni statali, presumibilmente prive di rischio, potevano in realtà finire in un default forzato, hanno deciso di alzare vertiginosamente il premio di rischio. Questa mossa ha reso le banche commerciali potenzialmente insolventi a causa del peso di tali obbligazioni 207 sul loro bilancio, provocando le cosiddette crisi gemelle del debito sovrano e del sistema bancario. All’inizio della crisi, un crollo dell’euro sembrava inconcepibile. Gli attivi e passivi denominati nella moneta unica erano talmente intrecciati che un eventuale fallimento avrebbe portato ad un tracollo incontrollabile. Ma con il progredire della crisi, il sistema finanziario è stato ridefinito sempre di più su base nazionale, una tendenza che ha preso slancio soprattutto negli ultimi mesi, mentre l’operazione di rifinanziamento a lungo termine della BCE ha permesso alle banche di Spagna e Italia di acquistare le proprie obbligazioni statali. Allo stesso tempo, le banche hanno preferito liberarsi delle attività finanziarie degli altri paesi, mentre i risk manager tentano di trovare una corrispondenza tra attivi e passivi a livello nazionale piuttosto che operando sull’intera consistenza delle attività finanziarie dell’Eurozona. Per evitare un ritorno - pericoloso oltre che inefficiente - a mercati separati, l’eurozona ha bisogno di un’unione bancaria: uno schema di assicurazione-deposito per contenere la fuga di capitali, una fonte europea di finanziamento per la ricapitalizzazione delle banche ed un sistema di supervisione e regolamentazione per tutta l’eurozona. I paesi altamente indebitati avrebbero poi bisogno di un alleggerimento dei costi finanziari che potrebbe essere attuato in diversi modi. Il problema è che tutte le modalità possibili richiedono il sostegno attivo della Germania. In una serie di paper con Carmen Reinhart, Rogoff ha mostrato che livelli di debito molto elevati pari al 90% del Pil rappresentano un peso secolare che si ripercuote sulla crescita economica nel lungo termine e che spesso dura per due decenni o più. I costi cumulativi possono essere sbalorditivi. Gli episodi di debito elevato registrati dal 1800 sono durati 23 anni e sono associati a un tasso di crescita che è oltre un punto percentuale al di sotto del tasso previsto per i periodi con livelli debitori inferiori. Dunque, dopo un quarto di secolo di debito elevato, il reddito potrebbe essere il 25% in meno di quanto non sarebbe con normali tassi di crescita. 208 Fa riflettere il fatto che quasi la metà dei casi di debito elevato avvenuti dal 1800 siano associati a tassi di interesse reali (depurati dell’inflazione) bassi o normali. La lenta crescita del Giappone e i bassi tassi di interesse degli ultimi due decenni sono emblematici. Inoltre, sostenere un enorme peso debitorio rischia di far lievitare in futuro i tassi di interesse globali, anche senza un tracollo in stile greco. È esattamente ciò che accade oggi, quando, dopo il massiccio e prolungato allentamento monetario messo in atto dalle principali banche centrali, molti governi si ritrovano con titoli correlati al proprio debito a scadenze eccezionalmente brevi. Di conseguenza, corrono il rischio che un’impennata dei tassi di interesse si traduca rapidamente in costi di indebitamento più elevati. L’attività di arbitraggio fa sì che in equilibrio il rapporto tra i rendimenti dei titoli sia pari al rapporto tra i tassi di cambio: a parità di rischio, liquidità e durata, un euro investito nell’UE deve rendere come un dollaro investito negli US. Supponendo una perfetta mobilità dei capitali, che si traduce in assenza di costi di transazione nell’operazione di cambio delle valute, un operatore europeo può decidere indifferentemente di investire un euro sul mercato nazionale dei titoli al tempo t ed ottenere al tempo t+1 la restituzione dell’euro investito oltre al tasso di interesse nominale corrisposto (1+iUME), oppure può decidere di cambiare l’euro in dollari (moltiplicandolo per il tasso di cambio e) ed investire gli e dollari così ottenuti sul mercato US riscuotendo, al termine del periodo, e(1+iUS) dollari che verranno a loro volta cambiati in euro dividendoli per il tasso di cambio atteso. 3. Le autorità governative e monetarie e la crisi finanziaria Il comportamento delle autorità è stato ondivago. Poiché le cause profonde della crisi non sono state chiare per un lungo periodo, a logica di intervento è stata decisa passo dopo passo: Bear Stearns, fu salvata, Lehman Brothers fu lasciata fallire, AIG fu salvata, in alcuni casi si è proceduto la ricapitalizzazione delle banche, per salvare 209 due fondi immobiliari semi-pubblici (Fannie Mae e Freddie Mac) si è scelta la strada della completa nazionalizzazione. Una plausibile spiegazione per la soluzione drastica scelta per una banca di investimento di grandi dimensioni come Bear Stearns e per il colosso assicurativo AIG è che erano troppo interconnesse con il sistema bancario perché potessero fallire senza provocare una grave crisi sistemica. Negli Stati Uniti, a partire dalla metà del 2007 lo spread fra il tasso di interesse medio sui prestiti interbancari a tre mesi (“Libor”) ed il tasso di interesse dei T-Bills a tre mesi è cresciuto continuamente e si è poi impennato successivamente al fallimento della Lehman Brothers, segnale ai mercati finanziari che il governo non avrebbe necessariamente continuato ad impedire il fallimento delle grandi banche (il motto “too big to fail” non valeva più). Si è molto dibattuto sulla decisione di lasciare fallire la Lehman Brothers. Questa banca di investimento aveva attività in portafoglio pari a ben il 5% del totale del sistema bancario US ed aveva immesso nel mercato titoli a breve e lungo termine per un valore pari al 50% di tutte le obbligazioni emesse dalle banche commerciali. Benché Lehman Brothers non operasse in depositi, il forte impatto che perdite non ingenti di depositi nei fallimenti bancari ebbero sull’attività economica dopo il crollo del ’29 avrebbe dovuto suggerire che il sistema bancario US sarebbe stato grandemente colpito dalla sua scomparsa (Gros-Alcidi, 2009). Nell’ottobre 2008 venne varato il Troubled Assets Relief Program (TARP), per consentire al Tesoro di rifinanziare le banche (o acquistare le loro attività) fino a 700 miliardi di dollari 8° tale cifra va poi aggiunta la spesa di 250 miliardi di dollari per salvare Bear Stearns e Fannie Mae e Freddie Mac. In alcuni paesi il piano di salvataggio prevede anche la creazione di una “bad bank” nella quale convogliare i titoli tossici. Il principale problema è consistito nella determinazione del prezzo di acquisto: in questo caso il valore di equilibrio si colloca fra il prezzo (basso) offerto dall’istituzione che si accolla la “bad bank” sulla base dell’aspettativa di ulteriore calo dei prezzi di mercato delle attività tossiche possedute dalle banche ed il prezzo (alto) con cui i titoli sono iscritti nel bilancio della banca; 210 quanto più al rialzo è la stima a lungo termine del prezzo del titolo, tanto minore è la discesa del prezzo di vendita del titolo rispetto al suo valore in bilancio; Le banche centrali hanno continuamente ampliato la lista di istituzioni finanziarie meritevoli di sostegno e di attività finanziarie considerate come garanzia. La discriminante non è fra istituzioni come le banche d’investimento che possono svolgere il trading e banche commerciali cui va invece vietato di assumere gli alti rischi dell’attività di trading perché operano con depositi che godono dell’assicurazione pubblica. La discriminante è piuttosto fra banche “non sistemiche” e banche “sistemiche”: queste ultime, essendo molto grandi e molto interconnesse con il sistema bancario, possono causare con la loro scomparsa una catena di fallimenti. Lo sforzo sostenuto dalla Fed per permettere al settore bancario di recuperare la solvibilità e ricostruire la catena di relazioni fiduciarie fra i vari istituti è stato di enorme portata. Il contribuente è stato chiamato ad accollarsi il 76 ed il 40% dell’intervento di iniezione di capitale pubblico nelle 50 maggiori banche USA ed UE. Le principali misure sono state: 1) per impedire la dissoluzione del sistema bancario, a portare fra 0 e 0,25 il tasso di interesse, la Fed ha provveduto ad iniezioni di liquidità mediante l’acquisto di attività finanziarie, il cosiddetto quantitative easing (vedi BOX 4), operazioni di mercato aperto in acquisto di attività finanziarie diverse dai titoli pubblici; 2) le garanzie sui depositi interbancari per impedire il collasso dell’attività bancaria, minacciata dalla crisi di fiducia nella rispettiva solvibilità che interrompeva la trasmissione di liquidità attraverso il credito interbancario. E’ opinione diffusa che adottare una sola di queste misure sarebbe stato insufficiente. Ad esempio, il solo acquisto dei titoli tossici non necessariamente avrebbe potuto risolvere il problema del rischio di insolvenza. E’ indispensabile una regolamentazione che imponga standard minimi di capitale di rischio differenziato per categorie di banche: un più alto capital ratio per le banche che essendo di grandi dimensioni e molto interconnesse comportano un rischio sistemico più elevato. Sono necessarie misure non convenzionali: come aumentare la qualità di moneta comprando titoli di stato. E' quanto ha fatto la FED che ha seguito una strategia 211 basata su tre misure: prestare alle istituzioni finanziarie, fornire liquidità direttamente ai mercati monetari e del credito, acquistare titoli a lungo termine.. La BCE. Invece, non ha intrapreso questa via. Il motivo è che il prestatore di ultima istanza è uno solo, lo Stato. Difficile svolgere questo ruolo senza un'autorità fiscale alle spalle, che ripiani eventuali perdite. Il 2 aprile 2009 la BCE ha tagliato il tasso d’interesse di riferimento all’1,25%, il 5 luglio del 2012 il tasso è stato ulteriormente ridotto all’1%. Ci stiamo avvicinando al livello minimo, ossia zero, già raggiunto dall’americana Federal Reserve (Fed). Per valutare il grado di restrizione monetaria, concentrare l’attenzione sui tassi, come si fa in tempi normali, è oggi fuorviante. In tempo di crisi, il classico meccanismo di trasmissione della politica monetaria non funziona: da un lato l’aumento della base monetaria non si trasmette in aumento della quantità di moneta, perché le banche tesaurizzano la liquidità presso i depositi della banca centrale; dall’altro, i movimenti del tasso EONIA non si riflettono sugli altri tassi. La politica monetaria in tempo di crisi si attua mediante misure non convenzionali, che vanno sotto il nome di quantitative easing. In breve, il quantitative easing consiste nell’aumentare la quantità di moneta acquistando attività finanziarie. Le maggiori banche centrali del mondo (tranne la BCE) lo stanno facendo. La strategia di quantitative easing adottata dalla Fed non è però sufficiente: l’aumento della base monetaria non si trasforma in aumento della quantità di moneta, ossia, questo aumento di liquidità non è trasferito dalle banche al mercato del credito, ma tesaurizzato in riserve in eccesso presso le banca centrale.: Il credit easing, anch’esso molto praticato dalla Fed, si basa sulla variazione della dimensione e della composizione del lato dell’attivo del bilancio. Per comprendere come la politica monetaria agisca in tempo di crisi si deve, quindi, guardare al bilancio della Fed. Prima della crisi il totale delle attività della Fed è di circa 880 miliardi di dollari. A fronte di passività consistenti sostanzialmente in larghissima parte di circolante, la 212 banca centrale detiene una quantità di titoli in portafoglio, pari a circa il 90% del budget totale. I principali motivi per cui la BCE ha tardato ad adottare misure di quantitative easing sono: 1. il sistema economico europeo è più banco-centrico e meno “finanziarizzato” di quello degli Stati Uniti, e il budget della BCE rispetto al PIL dell’Eurozona è più grande di quello della Fed rispetto al PIL USA; 2. Il prestatore di ultima istanza, in fin dei conti, è uno solo: lo Stato. Per la BCE è difficile svolgere appieno questo ruolo, non avendo un’autorità fiscale alle spalle che possa appianare eventuali perdite. 4. La Grande Recessione (2010-13) e gli squilibri macroeconomici globali Negli ultimi decenni, le crisi finanziarie sistemiche sono state numerose: le “big five financial crisis” (Reinhardt-Rogoff, 2008) delle economie avanzate (Spagna 1977, Norvegia 1987, Finlandia, 1991, Svezia, 1991, and Japan, 1992), la crisi di Colombia (1998) ed Argentina (2001) e le crisi asiatiche (Hong Kong, Indonesia, Malesia, Filippine, e Tailandia). Nei primi anni del nuovo millennio, tuttavia, la volatilità del reddito era molto diminuita. In particolare, nell’Eurozona, la bassa dinamica dei salari e dei prezzi – la cosiddetta “Grande Moderazione”, aveva favorito mediamente una leggera accelerazione della crescita economica. Tutto è cambiato a partire dalla crisi finanziaria 2007-09, che ha provocato una grave recessione da cui le economie europee stentano ad uscire, anche per la ridotta domanda da parte di Stati Uniti e Cina. Il nesso fra la crisi finanziaria 2007-09 e gli squilibri macroeconomici internazionali è dimostrato dal fatto che contestualmente alle maggiori crisi finanziarie si sono verificate forti deviazioni dei tassi di cambio dai valori dell’equilibrio di lungo periodo. Nell’attuale crisi, questo nesso è la risultante di tre fattori: 1) La crescita continua senza oscillazioni cicliche rilevanti conosciuta dagli Stati Uniti ha indotto aspettative esageratamente ottimistiche ed una minore avversione al rischio; 2) la 213 politica monetaria espansiva della Fed ha stimolato le banche a sfruttare i bassi tassi di interesse per accrescere a dismisura il loro grado di leverage; 3) l’atteggiamento di benign neglect con cui le banche centrali ed istituzioni internazionali (IMF, World Bank) hanno guardato a tali squilibri ha consentito che si prolungassero le deviazioni dal valore di lungo periodo PPP dei tassi di cambio reali di valute le cui economie hanno un notevole rilievo nel commercio internazionale. L’equilibrio macroeconomico consiste della somma algebrica dei bilanci dei settori private, pubblico ed estero. Nel caso il risparmio ecceda l’investimento, il flusso in eccesso viene trasmesso dai mercati finanziari al settore pubblico per coprire un deficit (l’eventuale eccesso di spesa pubblica sulla tassazione: G>T) e/o per permettere agli operatori esteri di pagare l’eccesso di importazioni (i beni esportati dal paese stesso in eccesso rispetto alle proprie importazioni:X>M) Nel caso in cui sia l’investimento a sopravanzare il risparmio (S < I), l’eccesso di domanda interna deve essere compensato o da un surplus del bilancio pubblico (G < T), oppure da capitali provenienti dall’estero (un eccesso di importazioni sulle importazioni: X < M), oppure, naturalmente, in parte dall’uno e in parte dall’altro dei due flussi. I flussi di capitale provenienti dall’estero finanzieranno l’eccesso di spesa pubblica sulla tassazione (il deficit pubblico interno) e/o l’eccesso di importazioni sulle esportazioni. Gli Stati Uniti sono un caso speciale: come paese che “vive al di sopra dei propri mezzi”, il deficit del settore privato viene coperto dagli investitori esteri, il cui apporto di capitali non solo consente di acquistare le importazioni nette, ma va ad acquistare il debito pubblico emesso a fronte del deficit pubblico (l’eccesso della spesa pubblica sulla tassazione). Un eccesso di risparmio sull’investimento è cosa positiva o negativa? E’ cosa positiva se è utilizzato dai pensionati all’acquisto di attività finanziarie o di fondi pensione, oppure se le imprese investono i propri profitti all’estero a causa dei più alti profitti attesi; negativa se riflette la necessità di assicurazione dei lavoratori rispetto ai rischi 214 microeconomici o macroeconomici in un paese con un ristretto Stato sociale (un esempio è la Cina). Non è facile stabilire se una crescita export-led sia cosa positiva o negativa (ad esempio, Cina e Germania) dsl momento che sottrae domanda ai principali competitori (gli Stati Uniti e gli altri paesi dell’Unione Europea). I regimi di cambio, gli accordi commerciali e le politiche macroeconomiche contano. Gli Stati Uniti hanno conosciuto nel 1996-2000 un boom delle quotazioni di borsa (trainato dalle azioni high-tech) che ha sostenuto le decisioni di investimento; nel 2000-2008 hanno conosciuto un deficit pubblico del 6% (per i 3/4 causato dai tagli alle tasse sui redditi alti introdotti da Bush) ed un deficit commerciale del 6%. Tali “deficit gemelli” sono spiegati nel modello Mundell-Fleming come l’esito di un elevato tasso di interesse che attrae capitali dall’estero, con conseguente apprezzamento reale ed eccesso delle importazioni sulle esportazioni (il surplus commerciale della Cina fu pari all’11% nel 2006. L’eccesso di riserve internazionali viene accumulato per i tradizionali scopi precauzionali, oppure viene destinato all’acquisto di titoli pubblici sicuri, come i titoli emessi dagli Stati Uniti, il paese emittente della valuta utilizzata come principale mezzo di pagamento internazionale). Il processo di deregolamentazione dell’attività bancaria, rapidamente estesosi dagli Stati Uniti all’Unione Europea ed all’Asia, fu all’origine di un’enorme crescita del credito in paesi come Spagna ed Irlanda (dove l’inflazione superiore alla media dei paesi UME rendeva il già basso tasso di interesse vicino allo zero in termini reali) e la nuova bolla (questa volta anche immobiliare) negli Stati Uniti accrebbero l’instabilità macroeconomica. La crisi finanziaria 2007-09 ha progressivamente ridotto il deficit commerciale, ma il debito pubblico è aumentato a causa della spesa sostenuta dal Tesoro USA per ripianare i debiti delle banche. Infine, i rapporti deficit/PIL e debito pubblico /PIL sono saliti notevolmente anche per il passaggio a valori negativi dei tassi di crescita. La caduta della produzione è anche comportato la caduta dell’occupazione: dal 2007 al 2009 il tasso di disoccupazione è cresciuto nei paesi avanzati di 14,3 milioni e nei paesi emergenti di 8 milioni. L’aspetto più preoccupante è che si prevede che il tasso 215 di occupazione precedente la recessione verrà recuperato soltanto nel 2015, con la conseguenza che un gran numero di disoccupati non rientrerà nel mercato del lavoro (il 37% della disoccupazione viene infatti considerata di lungo periodo). La crisi è stata affrontata negli Stati Uniti con il sostegno finanziario del Tesoro alle banche in crisi e con la politica monetaria espansiva della Fed diretta a rimettere in moto il circuito del credito interbancario, che era stato bloccato dalla caduta della fiducia di ciascuna banca nella solvibilità della banca che le chiedeva un finanziamento di liquidità. Queste forti immissioni di liquidità hanno aiutato famiglie ed imprese a dare inizio alla riduzione del loro indebitamento privato. Tuttavia, la necessità per le banche di aggiornare il valore del loro attivo in attività finanziarie in base agli attuali prezzi di mercato rende difficile accrescere il credito. Inoltre, la crisi finanziaria ha grandemente intaccato il venture capital. La domanda interna ristagna anche perché la caduta dell’occupazione è stata maggiore rispetto ai paesi europei, non solo per la minore protezione dei posti di lavoro tipica del mercato del lavoro flessibile degli Stati Uniti, ma anche perché ad essere fortemente colpito dalla recessione è stato il settore edile che è quello a maggiore intensità di lavoro (il tasso di disoccupazione USA ha raggiunto nel 2010 il 9,6%. Del resto, è stato calcolato che nelle passate crisi economiche il deleveraging ha richiesto in media sette anni (Reinhardt e Rogoff, 2008). L’incremento del deficit e debito pubblico causato dai programmi di stimolo fiscale hanno permesso la ripresa economica nel breve periodo. ll riequilibrio strutturale dei bilanci pubblici e privati richiede però che si realizzino entrambe o almeno una delle seguenti due condizioni: 1) l’incremento del tasso di risparmio; 2) l’incremento delle esportazioni nette. Dal 2008 al 2010, la propensione al risparmio è già aumentata dal 2,7% al 6%. Le esportazioni non sono però aumentate a sufficienza, in quanto la competitività delle merci USA sui mercati in forte espansione (quelli dei paesi emergenti) è possibile solo mediante la rivalutazione delle valute di quei paesi, in primo luogo attraverso una forte svalutazione del dollaro rispetto al renmimbi. 216 Lo squilibrio macroeconomico all’interno dell’Eurozona, che vede il surplus di conto corrente della Germania contrapporsi (anche nel senso di impedirne il riassorbimento) dei deficit presenti in molti paesi della Periferia) prtesenta analogie con quello esistente fra Cina e Stati Uniti. Prima della crisi finanziaria, lo squilibrio macroeconomico interno USA era all’ingrosso così quantificabile: (S - I) = (G - T) + (X - M) -3 +4 -7 In breve, il resto del mondo, in primo luogo la Cina, stava finanziando il deficit commerciale USA, acquistandone i titoli pubblici e delle imprese private. Dopo che la recessione seguita alla crisi finanziaria ha fortemente ridotto la domanda interna, ed il deficit pubblico viene alimentato dal trasferimento dei debiti delle banche al governo federale, il settore privato presenta uno squilibrio in diminuzione, il settore pubblico ha accresciuto la propria esposizione debitoria, mentre il settore estero ha visto ridursi il proprio deficit: (S - I) = (G - T) + (X - M) -1 +5 -6 Questo lento processo di riequilibrio vede in primo piano il ruolo del tasso di cambio. Con l’alleggerimento dei controlli sui movimenti di capitale, che limitano la conversione in renmimbi dei dollari ricevuti dagli esportatori dei settori pubblico e privato cinesi, l’eccesso di offerta di dollari a Pechino ha apprezzato il cambio della valuta cinese con il dollaro. La rivalutazione consentita dalle autorità cinesi al renmimbi ha ridotto il surplus commerciale della Cina ed il deficit degli Stati Uniti. Lo stesso riequilibrio non può accadere nell’UME, dal momento che la valuta comune rende impossibile la rivalutazione nominale della Germania e la svalutazione nominale dei paesi periferici. Un eventuale riequilibrio rimane così affidato ad un 217 apprezzamento reale della Germania - attraverso un tasso di inflazione più alto della media UME che ne riduca le esportazioni nette verso il resto dell’UME - e un deprezzamento reale dei paesi periferici – attraverso quella discesa dei salari e dei prezzi che renderebbe più competitive le merci di queste economie a più alto CLUP. Il rifiuto della Germania ad avere un tasso di inflazione più alto del 2%, e l’indisponibilità dei governi delle economie “deboli” ad affrontare, in una fase di grave recessione, il costo sociale della deflazione (meno salario e più disoccupazione) rendono molto improbabile questo processo di riequilibrio. I valori dei tre settori, da cui risulta l’equilibrio macroeconomico per la media dell’UME, possono essere all’incirca quantificati come segue: (S - I) = (G - T) + (X - M) +6 +6 0 Dal momento che i paesi periferici non posseggono potere di contrattazione rispetto alla Germania, è quest’ultima a dettare condizioni per la sopravvivenza dell’euro. La strategia suggerita ai paesi periferici dalla Germania consiste in una restrizione fiscale che elimini o quanto meno riduca il deficit pubblico in modo da tranquillizzare i mercati finanziari ed in riforme economiche di flessibilizzazione dei mercati del lavoro e dei prodotti tali da avviare una deflazione di salari e prezzi e da spostare la domanda dal mercato interno al settore esterno in modo da volgere ad un valore positivo le esportazioni nette: (S - I) = (G - T) + (X - M) +6 +4 +2 Tabella. Paesi periferici: ULC relativi alla media UME (1970-2010) =100 218 Come la tabella qui sopra mostra, fino al 2011 l’Irlanda è riuscita a realizzare una (più che) completa deflazione, e cioè la svalutazione interna conseguente a una discesa degli Unit Labour Costs (CLUP) che permette di recuperare la competitività perduta. Per la prima volta, i paesi emergenti e quelli in via di sviluppo hanno partecipato agli sforzi coordinati e concertati per superare la Grande Recessione. Nel 2008 tutti sapevano che l'ascesa dei paesi emergenti e in via di sviluppo stava ridisegnando la cartina economica globale. Si credeva però che questo sarebbe stato un trend graduale. In realtà, quello che si supponeva dovesse richiedere dieci o vent'anni è accaduto in appena cinque. A dimostrarlo con chiarezza è un semplice dato statistico: nel 2007 i paesi avanzati producevano quasi i tre quarti del PIL combinato dei G-20. Nel 2012 questa percentuale è scesa al 63%. I differenziali di crescita, unitamente agli alti prezzi del petrolio e delle materie prime, hanno determinato un consistente spostamento nella distribuzione dei redditi nel mondo. La ripresa ha subito dimostrato che l'economia globale aveva più di un solo motore trainante. La Cina e gli altri paesi emergenti, benché siano stati colpiti da un grave shock della domanda che ha avuto severe ripercussioni sulle loro esportazioni, non sono stati investiti dal caos finanziario. Al contrario, il valore dei titoli di stato americani posseduti da Cina e altri paesi si è impennato in conseguenza del calo dei tassi di interesse. Un'altra ragione all'origine della ripresa dell’economia internazionale è stata la tempestiva risposta messa a punto nel 2009 dai paesi del G-20, che ha concesso 219 all'economia statunitense il tempo di riprendersi. Fra il 2011 e il 2013, la politica della Fed di continui Quantitative Easing – l’acquisto di titoli diretto ad abbassare i tassi di interesse a lungo termine e stimolare gli investimenti – ha prodotto l’effetto di invertire il tradizionale afflusso dei capitali internazionali (prevalentemente dei paesi emergenti) verso le economie avanzate. Infatti, i capitali si sono diretti verso i paesi emergenti, e cioè i mercati finanziari nei quali si era aperto un differenziale positivo di tasso di interesse. A fine 2013, con l’annuncio della Fed di riduzione progressiva della creazione di moneta da dirottare attraverso i QE agli operatori di mercato, la direzione dei flussi si sta nuovamente modificando. I paesi emergenti avevano interpretato l'acquisto di titoli a lunga scadenza della Fed come una svalutazione competitiva del dollaro e temuto un massiccio afflusso di liquidità, provocando il rialzo dei loro tassi. Questo fenomeno, oltre a ridurre la competitività del loro export, li avrebbe esposti ai contraccolpi della brusca interruzione dei flussi di capitale quando gli Usa avessero invertito il corso. Il timore era fondato: il solo annuncio che la Fed ridimensioni le operazioni non convenzionali di QE ha portato alla fuga di capitali dai paesi emergenti ed al ritorno al tradizionale “modello” secondo cui sono i paesi meno avanzati a finanziare la crescita (ed il deficit pubblico) dei paesi avanzati. Qual è stato l’effetto dell’iniziale dirottamento dei flussi di capitale verso i paesi emergenti? Non si sono avuti effetti sulle partite correnti, né di questi né degli Stati Uniti. Infatti, a più esportazioni degli Stati Uniti (meno degli emergenti, la cui crescita del PIL rallentava in seguito alla crisi mondiale) hanno corrisposto meno importazioni negli emergenti (più negli Stati Uniti). Le cose sono andate diversamente nell’UME, dove dopo la crisi dell’euro si è registrato un rapido rientro verso il Centro dei capitali investiti nella prima metà dei 2000 nei paesi periferici. L'interruzione dei flussi di capitale verso i membri meridionali dell'area ha costretto questi paesi a intervenire sulle partite correnti, portandole dal deficit combinato di 300 miliardi di dollari di tre anni fa all'attuale piccolo surplus. In altre parole, la necessità di ridurre deficit e debito pubblico ha indotto la Periferia a tagli di spesa 220 pubblica e incrementi delle tasse che hanno depresso la domanda interna (con conseguente caduta delle importazioni) e prodotto il miglioramento del CLUP che ha favorito la ripresa delle esportazioni. Siccome i paesi del Centro non hanno aumentato la loro domanda, nell'eurozona si riscontra il più forte surplus nelle partite correnti a livello mondiale, superiore persino a quello della Cina. Come dimostra il fatto che l'euro è forte, questa straordinaria fluttuazione di quasi 400 miliardi di dollari nel saldo delle partite correnti dell'eurozona non è il risultato di una «svalutazione competitiva». La vera causa del forte surplus commerciale è stata una domanda interna così debole che negli ultimi cinque anni si è avuto un ristagno delle importazioni (con un tasso di crescita annuale media dello 0,25%). La causa della situazione attuale è l’effetto congiunto dell'austerità nella Periferia e dell’assenza di un aumento della domanda interna in Germania e quindi nel Centro (di cui l’economia tedesca è gran parte). La debolezza della domanda europea è la ragione per cui i saldi delle partite correnti dei mercati emergenti sono peggiorati. 5. La divergenza macroeconomica all’interno dell’Eurozona L’unione monetaria diede un forte impulso all’integrazione finanziaria. Sull’onda della fine del rischio di tasso di cambio e dell’abbattimento del premio di rischio sui titoli pubblici per il grande valore attribuito alla loro denominazione in euro, si ebbero importanti fusioni fra grandi banche europee ed acquisti reciproci in notevoli quantità di titoli pubblici degli altri paesi dell’Eurozona da parte di banche e operatori privati. Gli squilibri macroeconomici che si sono successivamente formati fra Centro e Periferia dell’Eurozona hanno due spiegazioni, probabilmente complementari (vedi le due Figure qui sotto: la prima mette in relazione l’andamento del rapporto conto corrente / PIL con l’evoluzione della domanda interna; la seconda mostra la dinamica della REER - real effective exchange rate - divergente nella Periferia rispetto alla Germania). 221 La prima spiegazione consiste nel fatto che la forte espansione indotta dall’integrazione finanziaria nei finanziamenti cross-border ed i bassissimi tassi di interesse hanno causato eccessi di domanda di credito da parte delle imprese, ma l’espansione della domanda ha riguardato – oltre che le attività finanziarie, con la formazione di bolle speculative - soprattutto settori non suscettibili di accelerare la crescita e favorire la convergenza del PIL pro capite verso i valori dei paesi più avanzati. Pertanto, ne è conseguito un notevole incremento delle importazioni che ha contribuito a formare i deficit commerciali dei paesi periferici (vedi tabella qui sotto). Total domestic demand growth rate, % w.r.t. EMU average Figure 1 - Domestic demand and current account (average 2002-2007) 1,5 ES IE GR 1 0,5 FI FR AT IT Eurozone PT 0 BE NL -0,5 DE -1 -20 -15 -10 -5 0 5 10 15 Current account balance, % of GDP La seconda spiegazione degli squilibri all’interno dell’Eurozona è che una volta private della “valvola di sfogo” della svalutazione de tasso di cambio, I paesi periferici a più rapida crescita del CLUP (più che per la dinamica salariale a causa del lento miglioramento della produttività del lavoro) hanno visto progressivamente peggiorare il loro REER. Si è perciò ridotta la loro competitività sui mercati esteri, con forti perdite di quote di mercato. La diminuzione delle esportazioni, assieme all’aumento delle importazioni, ha causato ingenti deficit di conto corrente (vedi tabella qui sotto). 222 140 Figure 2 - REER based on relative ULC 130 120 110 100 90 80 2000 BE IT 2001 2002 DE NL 2003 2004 IE AT 2005 2006 GR PT 2007 2008 ES FI 2009 2010 FR La moneta unica fu salutata dai mercati come una specie di bonanza. Come si è visto con i due grafici qui sopra, le bolle speculative alimentate da tassi reali di interesse vicini allo zero negli anni 2004-07 – soprattutto in Irlanda e Spagna – e la competitività declinante in concomitanza con politiche di consolidamento del bilancio pubblico monitorate dal PSC – soprattutto in Grecia, Portogallo ed Italia erano chiari segnali di una crescita poco solida, ben prima dell’arrivo della crisi finanziaria nata oltre-oceano. Evidentemente, le prospettive di facili guadagni indussero gli operatori finanziari – in primo luogo le banche – a puntare sui profitti di breve periodo. In nome dello short-termism, l’attrazione esercitata da prospettive di profitto a breve termine, in alcuni paesi della Periferia si alimentò un ciclo espansivo imperniato sul settore immobiliare e sulla continua salita dei listini della borsa. Attratti dai più elevati rendimenti, i capitali si trasferivano dal Centro alla Periferia. Si preferì ignorare che a risparmi in calo per la crescita dei consumi si sommavano 223 decisioni di investimento che erano lungi dal garantire un sano processo di catchingup basato sui settori produttivi avanzati. Il fatto è che nei mercati dei paesi periferici si determinarono erronei segnali di prezzo: dal momento che gli operatori finanziari non chiedevano che un premio per il rischio quasi nullo rispetto al tasso di interesse benchmark tedesco, il tasso di interesse nominale sul credito rifletteva da vicino il tassi di interesse “comune” sull’euro. I mercati non tenevano quindi conto delle condizioni di capitalizzazione delle banche nè del fatto che il tasso di interesse reale era quasi zero (registrando i forti differenziali di tasso di inflazione rispetto ai paesi del Nord dell’unione monetaria). Di conseguenza, il tasso di interesse sui titoli pubblici del Sud Europa, che dovrebbe essere sensibile all’andamento di deficit e debito pubblici, presentava spread quasi nulli con i Bund tedeschi. In questa ”bolla” di “illusione finanziaria” i mercati si comportarono come se si fosse in presenza di un’area valutaria che prevedesse la funzione di prestatore di ultima istanza per la banca centrale ed una garanzia “comune” sullo stock di titoli sovrani dei paesi del Nord come del Sud Europa. Primo, le banche centrali nazionali (BCN) dei paesi periferici sottovalutavano il rischio preso da istituti bancari fortemente esposti a breve termine nel finanziamento di investimenti di lungo termine, cui si aggiungeva l’azzardo di portafogli squilibrati verso titoli ad alta volatilità. Secondo, la condizione di “sostenibilità” del debito pubblico era clamorosamente assente. Qualche anno di crescita accelerata non basta a generare aspettative di flussi di reddito futuri – e perciò di entrate fiscali - adeguati al rimborso del debito pubblico. Su tale miopia delle BCN si innestò la crisi economica. All’insolvenza delle banche, a fronte di crediti inesigibili, si sommò - una volta che il loro debito privato veniva trasformato in debito pubblico – il perverso “moltiplicatore” della crisi determinato dall’intreccio debito bancario-debito sovrano. Seguirono la stasi del credito, il crollo della domanda, la sfiducia dei consumatori a basso reddito e la forte restrizione fiscale (l’”austerità”) imposta dall’esplosione del rapporto debito pubblico / PIL . 224 I leader europei non sono riusciti a fare abbastanza per evitare che nell’unione monetaria rimanesse alla mercé dei mercati. Si è dovuto aspettare fino al vertice di Bruxelles del 28 giugno 2012 per assistere a due decisioni efficaci. 1. La fine del nesso fra debito delle banche e debito pubblico. Con l’intervento finanziario a favore delle banche da parte dell’Esm - invece che degli Stati - viene sanata l’assurdità dell’incremento – del tutto gratuito – che ne conseguiva nel debito pubblico. L’incremento del rapporto debito pubblico / PIL, a sua volta, si veniva a ripercuotere sull’affidabilità e sulla capitalizzazione delle banche stesse. ed il valore dei titoli pubblici dati in garanzia alla BCE diminuiva, con gravi effetti sulla strategia di rafforzamento dei capitali voluta da Basilea3. C’erano poi altri due effetti perversi: (i) l’incremento sulla spesa per interessi - e quindi aggiuntive emissioni di titoli conseguente all’aumento dello spread dopo un aumento del debito sovrano; (ii) il grave nocumento alla concorrenza, in quanto imprese simili – ma appartenenti a sistemi-paese diversi – finivano con il finanziarsi a tassi di mercato molto divaricati fra Centro e Periferia. L’ostinazione tedesca nell’opporsi ad una garanzia collettiva sulle situazioni debitorie nazionali era stata solo mitigata dalla scelta di Draghi a fine 2011 di inondare le banche di liquidità al tasso dell’1% per permettere loro di acquistare il debito sovrano di paesi a rischio di chiusura del finanziamento dei mercati. Il nuovo fondo salva-stati Esm sarà probabilmente autorizzato ad acquistare - direttamente e sul mercato primario - i titoli pubblici una volta che lo spread si avvicina ad una soglia (ancora da definire) e la BCE dovrebbe ricevere l’autorizzazione ad agire in simbiosi con l’Esm. Se riceverà la licenza bancaria, il fondo potrà chiedere liquidità alla BCE (dietro cessione di titoli a garanzia) e dotarsi così di munizioni ben superiori agli attuali 500 miliardi di euro (del tutto insufficienti, se fosse ad esempio l’Italia a trovarsi nelle condizioni di richiedere un prestito). Siamo molto vicini - in via indiretta – a quella funzione di “prestatore di ultima istanza” della BCE il cui divieto la Germania volle inserire nello Statuto della banca centrale. Ragionevolmente, la sola condizione per 225 esaudire una richiesta di intervento è che il sostegno finanziario non fronteggi una crisi di insolvenza, ma una crisi di liquidità causata da un’impennata dello spread. Infine, la fiducia degli investitori privati dovrebbe essere rafforzata dall’avere deciso che i prestatori istituzionali (come l’Esm) non godranno più dello status di creditori privilegiati in caso di insolvenza. 2. Un primo passo verso l’Unione bancaria. In attesa del passaggio a Francoforte anche della regolamentazione e vigilanza sui sistemi creditizi e finanziari è stato approvato l’intervento finanziario dell’Esm a favore delle banche in difficoltà e delle loro esigenze di ricapitalizzazione, con la supervisione finanziaria dei bilanci delle banche assegnata alla BCE. L’aspetto innovativo di tale decisione risiede nell’avere di fatto superato l’altro veto tedesco: il pooling – la garanzia “comune” – delle passività. Si tratta di una condivisione del rischio che per ora è limitata alle passività delle banche private e domani – quando, e se, si darà avvio all’Unione fiscale – dovrebbe estendersi alle passività degli Stati. Il problema più grave e di più difficile soluzione è quello della crescita. Nella struttura istituzionale disegnata a Maastricht alle politiche fiscali nazionali venne demandato il compito di fronteggiare con interventi espansivi gli shock asimmetrici (mentre alla politica monetaria della BCE fu assegnata la responsabilità di reagire agli shock che colpiscono allo stesso modo tutti i paesi membri). Maastricht immaginava che squilibri limitati ad un paese - causati da cadute della domanda o da incrementi nei costi di produzione - avrebbero potuto essere agevolmente risolti utilizzando riserve di entrate fiscali e - nei casi di grave recessione - sostegni pubblici finanziati con emissione di titoli. L’unica condizione era un livello basso del rapporto debito pubblico / PIL. Non è andata così, come dimostrano le gravi crisi in cui si dibattono ancora oggi due paesi inizialmente a basso debito pubblico come Irlanda e Spagna. Il perché è presto detto. Maastricht ha avuto la colpa di sottostimare la forte eterogeneità dei paesi periferici rispetto al Centro. In particolare, due “ritardi” strutturali: (i) la debolezza di 226 alcuni sistemi bancari, dovuta all’inefficienza della regolamentazione nazionale; (ii) il divario di efficienza produttiva della Periferia nei confronti del Centro, che prima del passaggio all’euro veniva mascherato dal progressivo riallineamento nominale del tasso di cambio e che ha poi generato l’accumularsi di perdite nella bilancia commerciale di paesi come Grecia, Portogallo, Spagna e (in misura molto minore) Italia. Come si è già detto, l’equazione : (S – I) = (G – T) + (X – M) rappresenta l’equilibrio macroeconomico complessivo di un sistema economico. Ogni diseguaglianza fra le variabili all’interno di ciascuno dei tre settori - Risparmi e Investimenti nel settore privato, Spesa pubblica (G) e Tassazione nel settore pubblico, ed Esportazioni (X) ed Importazioni (M) nel settore estero - viene a scomparire nella somma algebrica delle varie poste. Ciò vale sia riguardo ai singoli settori all’interno di ciascun paese, sia nell’annullamento degli squilibri reciproci all’interno di un’area valutaria. L’equilibrio macroeconomico dell’Eurozona nel suo complesso è naturalmente un’identità contabile. Al netto dell’interscambio dell’Eurozona con il resto del mondo (il cui bilancio non si allontana mai troppo dal pareggio) una posizione di squilibrio in surplus in un paese o gruppo di paesi (Centro o Periferia) corrisponde una posizione di squilibrio in deficit in un altro paese o gruppo di paesi (Centro o Periferia). L’Eurozona si presenta oggi fortemente divaricata fra un Centro in surplus ed una Periferia in deficit. A partire dall’avvio dell’unione monetaria – ed in misura crescente all’indomani della crisi finanziaria - in alcuni paesi (in primis la Germania, seguita da Austria e Finlandia) si registra un surplus dei risparmi sugli investimenti cui corrisponde un surplus di bilancia commerciale, mentre i paesi della Periferia sono gravati da deficit di conto corrente provocati da una forte dinamica del tasso di cambio reale effettivo, 227 la cui misura, il costo del lavoro per unità di prodotto (CLUP), indica la competitività del sistema economico. Nella Periferia, in particolare in Irlanda e Spagna dove il tasso di crescita è stato fino al 2007 superiore alla media UME, l’origine del problema risiede nella rapida espansione della domanda domestica, dove alla discesa del risparmio hanno corrisposto le “bolle speculative” invece che gli investimenti produttivi necessari alla crescita e alla “sostenibilità” dell’indebitamento bancario e sovrano. In Portogallo ed Italia, dove il tasso di crescita è stato fino al 2007 inferiore alla media UME (come anche in Grecia, alla luce della revisione dei dati sul PIL) un ruolo importante nel favorire l’accumularsi di deficit commerciali con l’estero (il cui corrispettivo è il surplus commerciale del Centro) è stato svolto in anni passati anche dai deficit presenti nel bilancio pubblico. Il messaggio di questa contabilità macroeconomica è semplice. I paesi della Periferia non hanno individualmente le risorse non solo per realizzare il catching-up di lungo periodo, ma neppure per uscire dalla recessione e stimolare la ripresa economica per bloccare i deficit con l’estero di breve periodo. L’attuale crisi dimostra come la struttura istituzionale dell’unione monetaria fosse inadeguata a fronteggiare un grave shock esogeno, qual è stata la crisi finanziaria nata negli Stati Uniti. Per riequilibrare esportazioni ed importazioni, questi paesi non hanno altra strategia che di deflazionare l’economia, provocando una discesa del CLUP, e quindi del reddito e dei consumi. Gli elevati costi sociali di una tale strategia sono già sotto gli occhi di tutti. La conseguente risalita del risparmio, da cui ci si aspetta un miglioramento della bilancia commerciale, potrebbe però bastare. Essa, infatti, causa una variazione di segno positivo sul lato sinistro dell’equazione, proprio mentre sul lato destro la forte restrizione fiscale produce nel bilancio pubblico una variazione negativa. Il fatto è che nel settore estero si registra un andamento diverso da paese e paese (in 3 delle 5 economie periferiche le esportazioni conoscono una riduzione superiore alla discesa indotta dalla recessione nelle importazioni) ma complessivamente ben lontano dal generare quel valore ampiamente positivo di 228 ripresa delle esportazioni che sarebbe necessario per ripristinare l’equilibrio macroeconomico complessivo e frenare così la recessione evitando ulteriori cadute del reddito. In sintesi, al prezzo di una drastica deflazione anche la Periferia ora presenta un risparmio netto nel settore privato, ma lo squilibrio macroeconomico – e quindi la necessità di trasferimenti di capitali direttamente o indirettamente provenienti dal Centro – persisterà fintantoché non verrà alleviato il divario di efficienza con il Centro. Anche portando in pareggio il bilancio pubblico in modo da comprimere i consumi: (S > I) < (G = T) + (X < M) l’eccesso di risparmio indotto dalle strategie di riduzione dei debiti di banche e famiglie è insufficiente per eliminare il deficit commerciale, poiché lo squilibrio con l’estero non è colmabile senza una forte ripresa di competitività rispetto al Centro La contabilità macroeconomica suesposta, pur nella sua approssimazione, mostra come l’unione monetaria non possa andare avanti senza tenere conto della divergenza reale che mina la coesione economica e sociale al suo interno. A Maastricht si puntò su una progressiva convergenza fra i sistemi economici, nell’aspettativa che le condizioni di minore incertezza conseguenti al processo di unificazione monetaria avrebbero favorito il catching-up. Si è probabilmente trattato di un eccesso di fiducia nelle “magnifiche sorti e progressive” delle libere forze del mercato. Nel breve periodo, occorre una ripresa della domanda tedesca, tale da favorire la riduzione dei deficit di conto corrente della Periferia. Bisognerà poi, nel medio periodo, creare le strutture istituzionali necessarie a sostenere un progetto per la crescita, dove l’idea di integrazione della Periferia con il Centro abbia la stessa dignità dell’idea di convergenza spontanea, guidata dalle sole forze di mercato, da parte delle economie “meno avanzate”. 6. Crisi finanziaria e rilancio dell’integrazione europea 229 Come si vede nel grafico qui sotto, l’inizio della crisi finanziaria, nel 2007-09, si è riflesso in un incremento rapidissimo dei tassi di interesse sul debito pubblico dei paesi periferici dell’Eurozona. Il tasso di interesse più basso è quello sui Bund tedeschi, la cui elevata “solvibilità” giustifica la prassi di calcolare lo spread dei tassi di interesse nazionali come differenza rispetto a quello della Germania I tre grafici che seguono (Barrios, 2012) presentano la correlazione dello spread con il Bund decennale con, rispettivamente, il saldo atteso del bilancio pubblico, il rapporto debito pubblico / PIL, il rapporto conto corrente /PIL degli (n-1) paesi dell’Eurozona. 230 231 Il messaggio di queste correlazioni è che ciascun paese della Periferia dell’Eurozona mostra di avere uno o più punti deboli (deficit pubblico, rapporto debito pubblico/PIL, conto corrente /PIL) che compromettono la fiducia dei mercati finanziari nella sostenibilità del debito pubblico. Un dato interessante è che Germania e Portogallo hanno differenti tassi di interesse ma all’incirca eguali saldi di bilancio pubblico ed eguali rapporti debito pubblico/PIL. E’ evidente che il premio di rischio che il Portogallo è costretto a pagare si spiega soprattutto con il pessimo rapporto conto corrente/PIL. Altra evidenza empirica significativa è quella che presentano Italia e Portogallo, che hanno pressoché eguali tassi di interesse ma rapporti conto corrente/PIL molto diversi. Questa volta si può osservare che l’Italia paga l’alto rapporto debito pubblico/PIL. Un altro esempio riguarda Grecia e Irlanda, che hanno all’incirca eguali i tassi di interesse: tuttavia, rispetto alla Grecia quest’ultimo paese ha un rapporto bilancio pubblico/PIL molto più alto ma molto più bassi rapporti debito pubblico/PIL e conto corrente/PIL. L’Irlanda paga il salvataggio delle banche da parte del governo, che ha portato a livelli elevatissimi il rapporto deficit pubblico/PIL. Un altro esempio riguarda la Spagna, che rispetto all’Austria, un paese vicino alla Germania per “sostenibilità fiscale”, nel secondo trimestre 2009 presenta molto peggiori valori per tutti e tre gli indicatori, ma all’incirca eguale tasso di interesse. In effetti, successivamente alla perdita di credibilità di Irlanda e Grecia, nel 2011 la Spagna ha subito il contagio di tali paesi ed è stata penalizzata dai mercati finanziari con un innalzamento del premio per il rischio tale da determinare un elevato spread rispetto alla Germania. Nel grafico qui sotto, che fotografa la situazione al 30 luglio 2009, la forte correlazione fra spread e CDS (credit default swaps) di ciascun paese rispetto alla Germania sta ad indicare come il prezzo dell’assicurazione del default di uno stato segua l’andamento dello spread, espressione del grado di rischio del debito pubblico di un paese. Successivamente, al di là delle forti oscillazioni dei mercati verso l’alto e 232 verso il basso, la situazione strutturale è peggiorata. La lentezza con cui i paesi più indebitati hanno attuato le restrizioni di bilancio pubblico, l’ulteriore peggioramento dell’andamento del PIL che ne è conseguito, il sostanziale disaccordo della Germania rispetto ad una decisa strategia di sostegno ai paesi sotto attacco speculativo sono le principali cause dell’incremento del rischio sul debito sovrano dei paesi periferici percepito dai mercati. Al 10 agosto 2012, il tasso di interesse sui titoli pubblici decennali in Germania, pari all’1,3% in termini nominali, risulta negativo in termini reali: a fronte di un tasso di inflazione di poco inferiore al 2%. Per il Belgio (2,5%) e la Francia (2,1%) il tasso di interesse reale è intorno allo zero. La spiegazione risiede nell’eccesso di domanda dei titoli considerati “sicuri”, privi di un rischio di default dello stato emittente, che provoca un aumento del prezzo di mercato al di sopra del valore di emissione, con conseguente riduzione del tasso effettivo di rendimento. Al converso, la crisi di fiducia nella “solvibilità” dei governi dei paesi periferici dell’Eurozona si riflette in 233 valori molto alti dei tassi di interesse nominali: Grecia: 24,4%; Portogallo: 9,9%; Irlanda: 6,0%; Spagna: 6,9%; Italia: 5.9%. Questa “fuga verso la qualità” sui mercati finanziari internazionali si esprime nella ristrutturazione dei portafoglio, con acquisti dei Bund e con vendite dei titoli pubblici dei paesi periferici dell’Eurozona, che subiscono pesanti perdite nelle quotazioni e conseguente incremento del tasso di interesse. impedendo ai governi di cercare finanziamenti nei mercati attraverso nuove emissioni e rendendo quindi indispensabile accettare le radicali restrizioni di bilancio pubblico alla cui attuazione le autorità europee condizionano l’erogazione dei prestiti. La perdita di credibilità della sostenibilità fiscale dei paesi periferici dell’Eurozona – ovvero quanto possa essere realistico attendersi il rispetto del vincolo intertemporale del bilancio – non è solo causata da alti deficit e debiti pubblici, alti spread e basse prospettive di crescita del PIL, ma anche dall’effetto perverso dell’integrazione finanziaria avvenuta nell’Eurozona: l’aumento del rischio sistemico, ovvero la perdita di credibilità del sistema nel suo complesso, in questo caso dalla partecipazione ad un’area valutaria in crisi, che si riverbera sulle prospettive di solvibilità dei singoli paesi. Le interconnessioni che si sono venute a creare fra le banche e fra le imprese private europee non consistono soltanto in forti divaricazioni fra surplus nei bilanci del Centro e deficit nei bilanci della Periferia, ma anche in portafogli di banche del Centro gravate dai debiti pubblici, e anche di imprese private, della Periferia. Il “rischio sistemico" aggiunge perciò, alla specifica situazione di bassa solvibilità, anche una richiesta di “premio per il rischio” aggiuntivo di “contagio”, ovvero che la solvibilità di un paese venga a soffrire per il peggioramento delle condizioni degli altri. Rischio sistemico ed effetto-domino generato dal “contagio” hanno fatto nascere l’aspettativa che l’esistenza futura dell’Eurozona possa essere revocata in dubbio. Pertanto, la “fuga verso la qualità” sui mercati finanziari internazionali si esprime nella ristrutturazione dei portafoglio da parte di banche, fondi pensione, risparmiatori. Nel grafico qui sotto, i tracciati dei tassi di interesse dei Bund decennali e 234 dell’indicatore VIX dei rendimenti nel mercato di borsa USA vanno in direzione opposta, appunto perché la crisi finanziaria mentre causava la caduta delle quotazioni azionarie negli Stati Uniti generava un ritorno dei capitali nel mercato del debito pubblico tedesco (l’eccesso di domanda di Bund ne provoca l’aumento del prezzo di mercato) considerati più sicuro di quelli della Periferia. In seguito agli acquisti dei Bund tedeschi e alle vendite dei titoli pubblici dei paesi periferici dell’Eurozona, che subiscono pesanti perdite nelle quotazioni e conseguente incremento del tasso di interesse a valori proibitivi. I governi, non potendo pagare tassi elevatissimi a fronte di un tasso di crescita che continua a presentare valori negativi, non sono più nella condizione di cercare finanziamenti nei mercati attraverso nuove emissioni. Diviene quindi indispensabile accettare le radicali restrizioni di bilancio pubblico alla cui attuazione le autorità europee condizionano l’erogazione dei prestiti. 7. Una valutazione della crisi dell’Eurozona Nello slancio ideale dei padri fondatori, l’Europa avrebbe dovuto lasciarsi alle spalle secoli di guerre e proiettarsi in un futuro di pace e di prosperità. Quel progetto appare ancora oggi attuale, perché felicemente ispirato dalle virtù del doux commerce lodato 235 da Montesquieu: l’intuizione secondo la quale l’accumularsi di joint ventures in ambito economico – come si ricorderà, si cominciò dal carbone e dall’acciaio avrebbe non solo cementato interessi fino a quel momento contrapposti, ma anche favorito il nascere di passioni comuni, fino a realizzare quel demos europeo della cui lunga latitanza la storia è stata triste testimone. A distanza di più di mezzo secolo dal Trattato di Roma, però, la crisi dell’Eurozona – la punta avanzata del progetto europeo - ci obbliga ad aggiungere un punto interrogativo al motto con cui il progetto dell’Europa unita è stato denominato: Uniti nella diversità ? Nel sottolineare la diversità fra i popoli d’Europa, il motto tradiva la consapevolezza di quanto arduo sarebbe stato superare i particolarismi nazionali. La rapida integrazione finanziaria seguita al varo della moneta unica, con l’agevole collocazione dei titoli pubblici nazionali in tutti i mercati dell’area valutaria, a cominciare da quelli delle economie più forti, aveva generato l’illusione che si stesse ormai consolidando l’integrazione fra i mercati sia reali che del credito. Con l’arrivo della crisi finanziaria dagli Stati Uniti, la maggior parte dei governi europei ha dovuto fare fronte ai fallimenti, alle perdite ed ai salvataggi del settore bancario mediante crescenti disavanzi pubblici e conseguente forte innalzamento del rapporto debito pubblico / PIL. Parallelamente, negli operatori dei mercati finanziari (banche, assicurazioni, fondi pensione, fondi sovrani, risparmiatori privati) è venuta meno la fiducia nella garanzia della denominazione in euro, cosicché il premio per il rischio di default, che nel primo decennio dell’euro si era quasi azzerato (anche sul debito dei paesi con finanze pubbliche poco in ordine), è rapidamente schizzato verso l’alto. Un sistema a rete con crescenti interconnessioni fra banche con forti posizioni nel debito pubblico a rischio di insolvenza delle economie periferiche ha così innescato in Europa il rischio sistemico e la paura del contagio. La crisi finanziaria e la conseguente Grande Recessione stanno drammaticamente rivelando all’Europa monetaria che uno spazio economico integrato non può fare a meno di un assetto istituzionale sovra-nazionale di eguale dimensione e interconnessione. 236 In Europa, tuttavia, la politica è estremamente debole e fa fatica a tenere testa all’economia. Gli Stati-nazione europei annichiliscono di impotenza nei nuovi scenari del mondo globalizzato. La politica resiste invece negli Stati Uniti. Eppure sono un paese con un debito pubblico che ha raggiunto il 100% del PIL; senza contare il disavanzo strutturale di molti stati, anche di primissimo piano come la California, che se non venisse finanziato dalle agenzie federali ma coperto con emissione di titoli renderebbe il debito statunitense secondo solo a quello del Giappone (al 225,8% del PIL nel 2010). Ma un default degli Stati Uniti è naturalmente un ossimoro. Il mondo ha sostituito il tallone aureo con il dollar standard, ha cioè riposto la “fiducia di ultima istanza” nella valuta depositaria dell’unico potere economico e militare “in carica” nel governo del mondo. Ci vorrà il tempo di completare il suo catching-up perché la Cina possa aspirare al ruolo di superpotenza. Nel frattempo, i paesi dell’Eurozona faticano a rendersi conto che la diversità, piuttosto che una risorsa, si sta rivelando la causa del declino. Il primato dell’economia dipende oggi dal fatto che la solvibilità dei governi 237 delle economie periferiche (Grecia, Irlanda, Italia, Portogallo, Spagna) è messa in dubbio da una crescita del PIL mediamente bassa negli ultimi due decenni e negativa negli ultimi anni. E poiché non promette affatto di riprendersi, l’aspettativa è che non ci sarà negli anni futuri quell’incremento del gettito fiscale necessario a finanziare un esborso per interessi gonfiato dalla aumento dello spread rispetto al tasso-base sui titoli tedeschi. A ciò va aggiunta la problematicità dell’abbattimento del debito pubblico. Primo, quanto più ravvicinate sono le date di scadenza di un ingente debito, tanto meno una crescita modesta consentirà di accumulare i surplus di bilancio necessari ad estinguerne ampie quote. Secondo, in assenza di acquirenti delle posizioni debitorie, il credito all’economia ed il sostegno pubblico alla domanda aggregata languono, con conseguenze esiziali per la formazione di nuovo PIL, da cui proviene anche il risparmio privato che alimenta la copertura dei bilanci in rosso. Terzo, in un momento in cui la deflazione è in corso in tutt’Europa, l’onere di sostenere la domanda aggregata ricade sulle componenti interne, prostrate dall’incremento del prelievo fiscale imposto dai consolidamenti fiscali. Come da più parti sottolineato, manovre di restrizione fiscale di ampia portata, come quella realizzata a dicembre scorso in Italia, comportano un deleveraging eccessivamente rapido dello stato, che va ad aggiungersi al deleveraging delle banche e delle imprese. Il nuovo Patto di Stabilità e Crescita (il cosiddetto Fiscal Compact, approvato nel Consiglio Europeo dell’8-9 dicembre 2011) imporrà ad ogni paese il cui rapporto debito pubblico/PIL sia superiore al 60% una riduzione annua pari ad 1/20 della distanza dal valore di riferimento Per dare qualche numero: se l’attuale accordo europeo verrà ratificato senza i parametri aggiuntivi proposti da Monti, l’Italia, dovrebbe abbattere il debito del 3% del PIL, cioè una volta e mezza la “manovra Monti”, per 20 anni (se invece si computerà anche il debito del settore privato, molto basso in Italia, la riduzione potrebbe scendere all’1,5% del PIL). La BCE si dichiara impotente di fronte ad un problema di lungo periodo qual è la crescita e si concentra sul ripristino di un ordinato funzionamento del settore bancario e finanziario. Il finanziamento dell’economia reale è infatti messo a rischio dal 238 mismatch fra un’offerta di attività finanziarie, pubbliche e private, ad alto rischio da parte delle banche, ed una domanda dei mercati concentrata sui titoli a basso rischio. Nel tentativo di aggirare il divieto statutario di acquistare all’emissione il debito pubblico dei paesi dell’Unione Monetaria Europea (UME), e impossibilitata ad assorbire i titoli pubblici smobilizzati dagli operatori finanziari, in quanto ciò configurerebbe la resa all’”indisciplina fiscale” dei governi, il governatore Draghi ha scelto la strada di rifinanziare all’1% le banche per allontanare il rischio di un credit crunch ed al contempo favorire l’acquisto di titoli dei pesi periferici, che hanno oggi rendimenti fino al 7% (in più, in Italia il governo Monti ha fornito la garanzia pubblica su obbligazioni bancarie di dubbio valore, per facilitarne il trasferimento alla BCE come collaterale dei prestiti ottenuti). Non potendo sostenere i governi, la BCE ha inondato di liquidità le banche. Il prestito illimitato concesso a piene mani (480 miliardi di euro a tre anni), una volta investito in titoli pubblici, è stato però in gran parte ceduto dalle banche come collaterale o solo parcheggiato presso la BCE allo 0,25%. Ma l’obiettivo di ripristinare la fiducia nel mercato dei finanziamenti interbancari sembra raggiunto. Il coordinamento fra le istituzioni europee è carente. Mentre l’operazione Draghi, favorendo il deleveraging, mira a ridurre l’elevata leva finanziaria delle banche, l'European Banking Agency (EBA) impone di fatto di aumentarla. A fronte della perdita di valore dei titoli pubblici dei Paesi periferici detenuti in portafoglio, interpretando l’innalzamento del capital ratio imposto da Basilea3 come l’obbligo ad una valutazione dei titoli delle banche agli attuali prezzi di mercato, l’EBA ha richiesto alle banche 114 miliardi di aumenti di capitale. Il risultato di questa miope strategia è che le banche del Nord Europa si sono sentite incoraggiate ad orientare il deleveraging allo smobilizzo dei titoli dei paesi periferici. Il debito pubblico denominato in euro sta tornando ad essere collocato entro i confini di ciascuno stato emittente in proporzioni che non si vedevano da prima dell’unione monetaria. La tendenza alla ri-nazionalizzazione del debito pubblico avrebbe comunque dovuto 239 avviare la diminuzione degli spread. Così non è stato. La spiegazione è che la rinazionalizzazione non può sostituire la funzione di lender of last resort, e cioè la prerogativa, di cui la BCE è priva, di fornire la garanzia collettiva sul debito pubblico di ciascun paese. I mercati internazionali, consapevoli di questo handicap dell’Eurozona, nel corso del 2011 hanno modificato in modo strutturale le aspettative sulla solvibilità dei paesi periferici e proseguiranno la smobilizzazione dei titoli pubblici denominati in euro fino al punto in cui il loro valore si sarà adeguato al nuovo grado di rischiosità attribuito a ciascuno stato. Per tenere fede al moloch dell’indipendenza della politica monetaria dalla politica fiscale (sconosciuta negli Stati Uniti), stati-giganti nel contesto globale e dotati di una moneta sopravvalutata rispetto al dollaro, si ritrovano ad essere stati-lillipuziani, costretti a impegnare i beni reali nazionali per ritirare dai mercati debito pubblico (è allo studio in Italia un fondo immobiliare cui conferire beni dello stato come garanzia sull’emissione di titoli da cedere in cambio alle banche). E’ proprio ciò che hanno periodicamente fatto i paesi dell’America Latina di fronte alla fuga degli investitori americani. Perché siamo arrivati a tanto? La crisi sistemica della finanza europea è venuta a innestatasi su una redistribuzione di lungo periodo della produzione mondiale fra economie a diverso grado di sviluppo. L’Eurozona risulta quindi doppiamente penalizzata dall’evoluzione dell’economia globale. In primo luogo, perché si trova in condizione di svantaggio riguardo ai due principali fattori della crescita del XXI secolo: il progresso tecnico ed il capitale umano, da cui dipende l’incremento della produttività totale dei fattori, sono distribuiti in maniera molto diseguale fra Nord e Sud d’Europa. In secondo luogo, perché le basse prospettive di crescita generano una spirale deflazionistica, in quanto l’incertezza delle imprese e delle famiglie sui redditi futuri aumenta e si eleva il grado di rischio che i mercati applicano ai debiti che gli stati hanno contratto. Dovrebbe essere evidente a tutti i governanti europei che le sfide cui la globalizzazione ci sta ponendo di fronte sono troppo grandi per essere affrontate in 240 ordine sparso. L’incendio che oggi minaccia la casa comune fa infatti emergere in tutta la sua gravità una debolezza istituzionale che data da almeno due decenni prima della nascita dell’euro. Essa risiede nell’avere risparmiato sui materiali da costruzione. Le istituzioni esistenti sono infatti servite innanzitutto per sbandierare il “vincolo dell’Europa”, per convincere l’elettorato nazionale ad accettare le politiche macroeconomiche imposte dalla globalizzazione finanziaria, dimenticando che esse sono in aperto conflitto con l’esigenza di creare il consenso delle opinioni pubbliche attorno ad una strategia di crescita economica comune. La gestione politica della crisi dell’Eurozona è stata finora deludente. Il ritardo culturale dei governanti europei è notevole. Nell’autunno 2010, Merkel e Sarkozy dichiararono improvvidamente che le eventuali insolvenze degli stati non sarebbero ricadute solo sui governi dell’Eurozona, ovvero sulla tassazione dei contribuenti, perché anche gli acquirenti privati del debito greco sarebbero stati chiamati a partecipare all’haircut del 50% del valore nominale del debito greco. Come dire ai mercati: state alla larga dai bond dell’Europa periferica. Poi venne creato il fondo salva-stati (l’European Financial Stability Facility: EFSF), e si perseverò nell’errore di stabilire la condanna dei piromani prima di avere provveduto a spegnere l’incendio. Ad esempio, il finanziamento dell’EFSF pro-quota da parte dei paesi dell’Eurozona viene contabilizzato come voce del debito pubblico nazionale. Non deve perciò sorprendere la scarsa credibilità che è stata riconosciuta all’EFSF nel momento in cui ha tentato di finanziarsi sul mercato. Nonostante che Standard&Poor’s abbia decretato il downgrading delle emissioni dell’EFSF conseguenza diretta del downgrading di paesi contribuenti al fondo, come Francia ed Austria, la cui garanzia ha perso il rating massimo AAA - l’ammontare del rifinanziamento al fondo salva-stati rimane avvolto nella nebbia. Per fornire la garanzia della solvibilità ai debiti pubblici di Italia e Spagna occorrerebbero ben più del doppio dei 700 miliardi che si potrebbero mettere insieme fra i probabili 500 dell’EFSF e i 200 del FMI. Il fondo salva-stati è la soluzione solo se fa le veci della 241 BCE nel fungere da prestatore di ultima istanza. E’ auspicabile che la Merkel, una volta incassata la ratifica dell’accordo sul Fiscal Compact il 30 gennaio, dia il via libera a marzo al varo ad un European Stabilization Mechanism (ESM) - il nuovo fondo che opererà dal prossimo luglio – che abbia accesso alla BCE al pari delle banche e sia autorizzato ad operare sul mercato sia primario che secondario. Le istituzioni comunitarie non hanno dato prova di maggiore lungimiranza progettuale. Nella copiosa letteratura sull’integrazione europea, il ruolo del metodo comunitario – riassumibile nel diritto di iniziativa sulle politiche comuni della Commissione europea - è stato descritto come l’”oscillare di un pendolo”. Anni di forte impulso all’integrazione sono stati seguiti da anni di sostanziale blocco se non di arretramento. Il metodo comunitario è riuscito ad esercitare una spinta propulsiva sull’integrazione europea unicamente nelle fasi favorevoli della congiuntura economica, nelle quali il “mutuo vantaggio” degli stati aveva modo di prevalere sul conflitto fra gli interessi nazionali. La stagflazione scoppiata negli anni ’70 segnò però la fine del “mutuo vantaggio”, poiché le “svalutazioni competitive” dei principali paesi europei avevano ormai trasformato i contrapposti tentativi di rilancio delle esportazioni in un gioco a somma zero. Gli Stati-nazione scelsero saggiamente di aggrapparsi al “vincolo esterno” dell’Europa e combattere l’inflazione attraverso il passaggio nel 1979 ai tassi di cambio fissi del Sistema Monetario Europeo (SME). Per i governi ciò significò accettare politiche monetarie restrittive, tali da preservare i tassi di cambio fissi dello SME e consentire quella convergenza nominale – un processo di disinflazione mitigato da periodici e limitati aggiustamenti delle parità di cambio - necessaria a contrastare la declinante competitività rispetto a concorrenti dotati di maggiore efficienza produttiva, in primo luogo la Germania. Il fatto è che le istituzioni europee hanno progressivamente smarrito la stella polare del progetto unitario lasciando l’iniziativa ad una sempre più rapida globalizzazione. 242 La miccia dell’incendio odierno fu innescata nel 1990, anno spartiacque fra due epoche storiche. In quell’anno giunse a compimento in Europa il processo di liberalizzazione dei movimenti di capitale. L’Europa comunitaria mancò della visione prospettica necessaria a costruire un disegno unitario dei mercati finanziari e si limitò all’adeguamento passivo al progetto egemonico dalla finanza globale, che aveva preso avvio nei primi anni ’80 con la drastica deregolamentazione bancaria degli Stati Uniti. Il 1990 fu perciò testimone della sostanziale cessione agli operatori finanziari del potere di determinazione sulle politiche monetaria e valutaria nazionali. Nell’abolire i controlli e lasciare agli operatori la piena libertà di “ottimizzare” il proprio portafoglio di attività finanziarie, spostando capitali da una piazza all’altra in tempo reale alla ricerca del migliore rapporto fra rendimento atteso e grado di rischio, venne sancita la cancellazione del primato della politica degli Stati-nazione sull’economia globale. Nel 1991, il Trattato di Maastricht consegnò al metodo comunitario il compito di mettere l’integrazione monetaria europea al passo con le sfide poste dalla globalizzazione, subordinando l’ingresso nell’unione monetaria al rispetto dei noti “criteri” per la convergenza nominale. L’impatto dirompente che la liberalizzazione dei movimenti dei capitali avrebbe potuto avere su un complesso processo di integrazione monetaria e reale non venne percepito in tutta la sua portata. In seguito ai vincoli su deficit e debito pubblico, molti paesi dell’Eurozona, già indeboliti della perdita di autonomia che la liberalizzazione finanziaria aveva causato alle politiche monetarie e valutarie (come la crisi dello SME nel 1992-93 dimostrò al di là di ogni ragionevole dubbio), dovettero acconciarsi a perdere anche lo strumento della politica fiscale. Lo snodo cruciale, che ci conduce direttamente alla crisi attuale, fu il modo in cui venne concepita l’unificazione monetaria entro il 1999. Le guidelines monetarie e fiscali che nel corso degli anni ’90 furono imposte agli stati concentravano tutta l’attenzione sulla convergenza nominale necessaria per l’ammissione all’euro. La preoccupazione principale della Germania fu quella di legittimare la nuova valuta come segno monetario non soggetto a svilimento e di mettere la Banca Centrale 243 Europea (BCE) al riparo da ogni tentativo di abbattere i debiti pubblici attraverso la “monetizzazione”. L’impianto istituzionale fu perciò circoscritto al disegno di una BCE fedele erede della Bundesbank ed alle più stringenti regole sui bilanci pubblici nazionali del Patto di stabilità e crescita (PSC). La persistente eterogeneità fra le economie - in termini di livelli di produttività e di regolamentazione dei mercati avrebbe piuttosto richiesto un disegno istituzionale all’altezza dei conflitti distributivi che sarebbero inevitabilmente sorti. Si sottovalutò che l’aggiustamento di mercato – la discesa di salari e prezzi – sarebbe rimasto il solo strumento per contrastare ogni divario di efficienza dei paesi periferici rispetto alle economie più avanzate. Preoccupata solo della disciplina delle politiche macroeconomiche, l’Europa monetaria demandò la riduzione dei forti divari fra Centro e Periferia alle sole forze di mercato. Non prevedendo quell’ampliamento del bilancio europeo indispensabile ad una crescita equilibrata, l’UME nacque del tutto impreparata rispetto alla complessità del processo di catching-up cui erano obbligati i paesi meno avanzati. Le economie periferiche a più basso reddito pro capite si sono così trovate ad affrontare il passaggio da economie di produzioni agricole ed industriali tradizionali ad economie di servizi prive degli strumenti di politica economica di cui le econome avanzate avevano goduto nel loro “decollo economico”. Né l’impatto deflazionistico della governance macroeconomica ha trovato compensazione nei programmi di coesione sociale di Bruxelles. Non è un caso che, dopo avere constatato i numerosi difetti dei fondi strutturali e di coesione ad inizio anni 2000 - si pensi al Rapporto Sapir (2004) - non si sia mai realizzata una sostanziale revisione delle politiche di sostegno alla convergenza reale. Paesi a lenta dinamica della produttività (in diversa misura, Grecia, Italia, Portogallo e Spagna) hanno conosciuto una forte e continua divaricazione del costo del lavoro per unità di prodotto dalla media dell’Eurozona, che ha minato la competitività delle loro esportazioni, provocando la cessione alla Germania di ulteriori quote del mercato europeo. Le “bolle” speculative immobiliari e finanziarie create dalle banche irlandesi e spagnole nel periodo 2004-2007 hanno dimostrato che con il varo dell’euro ci 244 sarebbe stato un gran bisogno di attente politiche a livello comunitario. Nel servire sistemi produttivi eterogenei, la politica monetaria comune avrebbe dovuto essere accompagnata dalla centralizzazione della vigilanza monetaria e della regolamentazione finanziaria. Un clima intellettuale poco propenso a regolare la finanza fece invece sì che queste “bolle” non venissero governate né in patria né a Francoforte. E al loro “scoppio”, le insolvenze degli operatori privati sono state sopportate dal bilancio pubblico, con conseguenze a lungo termine sulla dinamica dell’occupazione e della produzione. Una politica economica europea imperniata su un mix deflazionistico di politica monetaria comune e politiche fiscali nazionali può risolvere problemi di competitività di breve periodo, ma non accompagnare la convergenza reale di lungo periodo. L’assenza nell’Eurozona di un bilancio europeo degno di questo nome riflette la rinuncia ideologica ad affrontare in termini sistemici la questione del cambiamento strutturale. Dopo avere realizzato la convergenza nominale, sarebbe occorso monitorare la bilancia commerciale dei paesi dell’Eurozona e sostenere con adeguate politiche comunitarie la “rincorsa” dei paesi periferici al più elevato reddito pro capite dei paesi più avanzati. Nell’epoca degli squilibri macroeconomici globali, dove nell’allargare surplus e deficit di conto corrente all’interno dell’unione monetaria la Germania gioca lo stesso ruolo della Cina nei confronti degli Stati Uniti, un bilancio da riequilibrare è anche quello dell’interscambio intra-Eurozona. I forti nessi di causalità che legano politiche macroeconomiche e fattori della crescita sono così rimasti per tutto il decennio scorso al di fuori dell’orizzonte teorico delle autorità europee. Nell’aumentare il tasso di interesse sull’euro dopo i primi, illusori, sintomi di ripresa nel 2010 (+0,25% ad aprile 2011 e +0,25% a luglio 2011), l’ex governatore della BCE Trichet ha mostrato di continuare a temere il drago ormai sconfitto dell’inflazione. Il problema era invece la deflazione conseguente al deleveraging delle banche e delle imprese, che però non compariva nell’agenda dei Consigli europei, essendo i ministri dell’economia impegnati a rincorrere i mercati finanziari contraendo i bilanci pubblici. E oggi il Fiscal Compact, nel prevedere la perdita di “sovranità” dei governi sui bilanci 245 nazionali, non solo annulla le speranze di un rafforzamento delle tutele pubbliche in Europa – dagli ammortizzatori sociali, alle misure per promuovere l’occupazione femminile, all’estensione del diritto all’istruzione – ma prospetta la rinuncia alle politiche “attive” del lavoro indispensabili per portare a più dignitosi livelli il tasso di occupazione. Il problema dell’euro è allora così riassumibile. Primo. Con un debito pubblico in rapporto al PIL molto elevato ed una pressione fiscale spesso al massimo storico, i paesi periferici dell’Eurozona non presentano le condizioni di solvibilità a lungo termine per ottenere dai mercati i capitali necessari alla ripresa economica. L’emissione di debito pubblico europeo – quindi, non più solo denominato in euro, ma “sovrano”, i cosiddetti Eurobonds – è l’unico modo efficace per abbattere il debito pubblico nazionale, in quanto permette di “ritirare” le quote di in eccesso rispetto al limite del 60% del PIL (come proposto, con differenze marginali, nei vari piani diretti ad eliminare il rischio di default). Secondo. Una governance macroeconomica non più orientata alla deflazione ma all’espansione produttiva ed occupazionale non è oggi realisticamente realizzabile singolarmente da paesi impegnati a contenere drasticamente la spesa pubblica. Una ripresa credibile è concepibile solo nella dimensione sovra-nazionale di un’Unione fiscale che sostenga il livello della domanda a livello europeo. Gli Eurobonds dovrebbero quindi anche essere utilizzati per raccogliere i capitali per progetti comuni di beni pubblici. Se mercati affamati di attività finanziarie di buona qualità contenessero lo spread sul Bund decennale (il cui tasso di interesse è inferiore al 2%) intorno ai 100 punti, emissioni comuni potrebbero essere piazzate ad un tasso di interesse intorno al 3%. A frenare questa soluzione c’è una questione più profonda: il ritardo nella formazione di un demos europeo, che è particolarmente visibile nell’approccio all’Europa del paese che ha assunto la guida de facto del processo di integrazione. La Germania fa mostra di non volersi caricare il peso maggiore della ripresa europea. Rifiuta quel riequilibrio della propria domanda interna rispetto a quella estera che permetterebbe parallelamente ai paesi periferici di far risalire la loro quota di esportazioni sul totale 246 del commercio intra-UME. E si oppone anche ad una impostazione meno restrittiva della politica monetaria comune (se la BCE innalzasse il suo target di inflazione al di sopra del 2%, un cambio stabilmente inferiore dell’euro rispetto al dollaro potrebbe spingere le esportazioni dell’intera unione monetaria). La storia insegna che i più importanti processi di unificazione politica si sono realizzati in Europa sotto la guida di potenze regionali: Prussia e Regno di Sardegna hanno svolto la funzione storica di creare due grandi Stati-Nazione. L’approccio intergovernativo va però adeguato al complesso mondo dell’inizio del nuovo millennio. Avendo lanciato l’attacco all’euro, la finanza globale tiene sotto scacco tutti i governi dei paesi dell’Eurozona, non solo i “deboli” ma anche i “forti”. Ciò sottrae a Germania e Francia il coraggio politico per portare avanti con convinzione il processo di unificazione europea, a cominciare dall’Unione fiscale. La soggezione ai mercati finanziari aggrava il problema dell’assenza di demos, perché finisce per accrescere il deficit democratico che mina il progetto unitario. Con ogni probabilità, pochi paesi sottoporranno al voto popolare il progettato Trattato europeo, destinato a recepire l’accordo sul Fiscal Compact. Avendo l’obiettivo di rafforzare i vincoli di politica fiscale del PSC mettendo sotto il controllo intergovernativo i bilanci pubblici nazionali, il Fiscal Compact di fatto sottrae ai cittadini delle comunità nazionali il controllo democratico sulle proprie scelte economiche. Il nuovo Trattato rischierebbe perciò di essere bocciato. Se la reazione della diarchia franco-tedesca all’attacco dei mercati si esaurisse nel semplice consolidamento fiscale verrebbe emessa la condanna definitiva del progetto unitario. Di fronte all’impasse generato dall’odierno “gioco europeo” – la matrice dei pay-off dove c’è “chi perde” e “chi guadagna” da un’Europa più solidale - l’obiettivo della crescita rappresenta l’ultima chance per il rilancio dell’idea di Europa. La crisi dell’euro affonda le sue radici nell’assenza di un fine realmente comune, che è cosa diversa dal semplice sforzo congiunto per raggiungere un obiettivo che rimane nell’interesse dei singoli stati, quale fu la disinflazione che aprì la strada alla moneta unica. Il fine comune è oggi la ripresa della crescita del continente Europa, che è realizzabile facendo rivivere lo spirito del doux commerce. La crescita consentirebbe 247 di trasformare l’attuale gioco non-cooperativo, ripristinando quella struttura di gioco di “mutuo vantaggio” fra i paesi dell’Eurozona, felicemente perseguita nella prima fase del processo di integrazione. Al concetto di doux commerce è connaturato lo stretto legame fra bene comune e democrazia. Una guida “intergovernativa” all’altezza del compito di progettare una strategia di crescita “comunitaria” impedirebbe ai partiti populisti nazionali di illudere gli elettorati con la menzogna che la causa della crisi è l’euro e non invece le deboli istituzioni europee che essi stessi hanno contribuito a mettere in piedi. Solo così – per usare una metafora - il metalmeccanico di Wolfsburg non temerà più l’Europa dei trasferimenti al dipendente pubblico di Atene. Come ha scritto di recente Jürgen Habermas, “(è) necessario attuare un’integrazione politica basata sul benessere sociale, in modo che la pluralità nazionale e la ricchezza culturale (…) della ”vecchia Europa” possano essere protette dall’appiattimento di una globalizzazione sempre più veloce” (Zur Verfassung Europas. Ein Essay, Suhrkamp, 2011). Nel medio-lungo, la credibilità dell’Eurozona è affidata alla realizzazione di quelle riforme istituzionali che dovrebbero portare l’integrazione europea alla meta dell’Unione politica. 1) L’Unione bancaria, ovvero la creazione di un’autorità di sorveglianza e monitoraggio delle attività del sistema bancario dei paesi membri, di un fondo per la ricapitalizzazione delle banche in difficoltà, l’accordo per una garanzia commune sui depositi bancari; 2) L’Unione fiscale, ovvero la creazione di un bilancio pubblico europeo degno di questo nome (la contribuzione dei singoli paesi all’attuale bilancio è pari appena all’1% del PIL complessivo dell’Unione Europea) (finanziato da un saggio di tassazione comune), in modo da organizzare politiche di stabilizzazione, di allocazione (la creazione di beni pubblici europei) e di redistribuzione (un sistema europeo di protezione sociale ed il rafforzamento dei fondi strutturali in modo da rilanciare la convergenza reale delle regioni arretrate. La Germania, attraverso un gruppo consistente di economisti, lamenta l’”azzardo morale” dei paesi periferici. Nella loro interpretazione, il sistema Target2 non 248 rappresenterebbe lo strumento operativo dei rapporti istituzionali fra la BCE e le BCN preposto alle poste attive e passive contabilizzate a Francoforte, ma lo strumento di dilazionamento del necessario aggiustamento reale delle economie periferiche. Per provare la loro tesi, gli economisti tedeschi mettono in luce come il rifinanziamento delle banche greche oberate dai debiti a seguito di crediti inesigibili si presenti perfettamente correlato con l’indebitamento della Banca di Grecia nell’ambito del Target2. Gli economisti tedeschi fanno notare come, a fine 2011, il 93 % dello stock di moneta creato dall’Eurosistema (l’autorizzazione data dalla BCE alle BCN a stampare moneta) prevenisse dai 5 paesi periferici (Grecia, Irlanda, Italia, Portogallo and Spagna) che rappresentano solo il 34% del PIL dell’Eurozona. Come ha ironicamente osservato Sinn, uno degli economisti tedeschi più rigoristi, “The European system may prove more robust than the Bretton Woods system, given that the national central banks of the Netherlands, Finland, Luxembourg and Germany, which accumulated Target claims instead of dollar claims, will be unable to follow General De Gaulles’s example and convert their claims into gold (…) The Target imbalances show that a system with idiosyncratic country risks and international interest spreads for public and private bonds is incompatible with a monetary system that allows countries to finance their balance-of-payments deficits with the printing press, without having to pay for the extra money-printing with marketable assets as is the case in the USA. Such a system will always induce the less-solid countries to draw Target credit to avoid the risk premium that the market demands, leading eventually to a balance-of-payments crisis. To avoid this problem, Europe has only two options. Either it socializes national debts in order to eliminate the international differences in interest rates (by creating a uniform default risk for all countries), limiting excessive borrowing through the imposition of politically mandated constraints. Or it ensures that the Target balances are redeemed annually with marketable assets, keeping the debt burdens within the national responsibility and allowing for country defaults and interest differentials The US obviously chose the 249 second route. States can go bankrupt, excessive capital flows are prevented by state- specific interest spreads, and the Target balances are unattractive, since they have to be settled with marketable assets. This system is stable, because it avoids excessive capital flows between the states and thus excessive US-internal trade imbalances.” 250 Questa posizione interpretativa rivela una incomprensione della differenza fra integrazione e convergenza. Se il sistema USA prevede la responsabilizzazione dei singoli Stati è proprio perché ha attraversato una lunga fase di integrazione economica, coordinata dagli interventi di politica economica del governo federale, che ha permesso a tutti gli Stati di raggiungere un certo livello di sviluppo. L’assenza di tale coordinamento nell’Unione Europea ha lasciato che l’integrazione fosse affidata alla sola convergenza di mercato. Nel grafico centrale dei tre presentati qui sopra, si può osservare la lunga fase di “quiete” (spread con il Bund vicino a zero) fra il 1998, anno in cui superarono l’”esame di ammissione” tutti gli 11 paesi aspiranti all’unione monetaria, ed il 2007, anno dello scoppio negli Stati Uniti della crisi finanziaria. Il primo dei due grafici qui sotto ripercorre le varie fasi dal restringimento progressivo dei differenziali dei titoli pubblici della maggior parte dei paesi rispetto alla media dell’Eurozona: dal restringimento progressivo dei differenziali fra il 1985 ed il passaggio all’UME nel 1999 (con 1 anno di ritardo la Grecia); al pressoché completo azzeramento con l’introduzione dell’Euro nel 2002; alla stabilità intorno allo zero del premio per il rischio di default; all’innalzamento degli spread dal 2008 al 2011. Nel grafico qui sopra la corrispondente caduta delle quotazioni. Si può dire che l’euro nacque sull’onda di una scommessa. Nella valutazione prevalente fra gli economisti al momento della sua progettazione agli inizi degli anni ’90, l’unione monetaria europea (UME) non era giudicata un’”area valutaria ottima”. La previsione prevalente fu che i costi (essenzialmente, la fine delle svalutazioni competitive) si sarebbero rivelati in eccesso rispetto ai benefici (essenzialmente, la drastica riduzione del costo del danaro e la minore aleatorietà dei progetti di investimento). 251 INTEREST RATES. 10-YEARS GOVERNMENT BONDS PRICES OF 10-YEARS GOVERNMENT BONDS Mundell (1961) giudicava improbabile che i vantaggi di efficienza legati all’accelerazione dell’integrazione economica ed alla accresciuta competizione fra i sistemi produttivi potessero compensare l’elevata esposizione al rischio di shock asimmetrici di paesi eterogenei. Successivamente ad uno shock negativo,. la rigidità 252 del mercato del lavoro avrebbe impedito di ridurre il salario reale l’aggiustamento di mercato non si sarebbe realizzato e l’economia sarebbe entrata in recessione. In Europa, i paesi a più alta dinamica dei salari e più bassa dinamica della produttività del lavoro (relativamente ai paesi “forti” come la Germania) avrebbero maggiormente sofferto dell’impossibilità di recuperare competitività attraverso il meccanismo di inflazione-svalutazione del cambio. L’aspettativa di non-ottimalità dell’Eurozona non influenzò i politici, in quanto l’avvio nel 1991 del processo di unificazione monetaria culminato nella fissazione di tassi di cambio irrevocabili nel 1999 fu una decisione eminentemente politica promossa da Kohl e Mitterrand, che scaturì dallo “scambio” fra rinuncia al marco tedesco ed avallo alla riunificazione delle due Germanie. Paradossalmente, anche gli economisti ortodossi sostennero il progetto, attratti non tanto da un’Unione Europea sempre più integrata quanto dai cambiamenti strutturali da loro da tempo auspicati. Infatti, per varare la moneta unica si sarebbero finalmente realizzate in gran numero privatizzazioni e liberalizzazioni dei mercati, la politica monetaria sarebbe stata rigorosamente anti-inflazionstica e la politica fiscale rivolta al ridimensionamento dei deficit e debiti pubblici, con la rinuncia alle manovre discrezionali di segno espansivo. Inoltre, Mundell, Premio Nobel per l’Economia nel 1999, aveva corretto l’iniziale giudizio negativo sulla moneta unica in Europa, sottolineando come le probabili fasi di congiuntura negativa delle economie più deboli sarebbero state sostenibili anche dopo la perdita dello strumento di politica valutaria. Infatti, la liberalizzazione dei movimenti dei capitali avrebbe permesso un costante flusso di capitali verso le economie più arretrate e la fine del rischio di cambio avrebbe assicurato una più facile gestione dei portafogli dei risparmiatori. I timori sull’investimento dei risparmi nelle deboli economie dei paesi della Periferia venivano nell’analisi di Mundell fugati dalla diversificazione del rischio: le perdite sui titoli delle imprese dei paesi deboli sarebbero state compensate dai guadagni su quelli dei paesi forti; a garantire poi la solvibilità fiscale dei governi avrebbe provveduto la BCE, attraverso la credibilità che 253 la denominazione nella nuova valuta avrebbe conferito al debito. Le conseguenze negative degli shock asimmetrici erano quindi affrontabili anche dalle economie periferiche. Il sostegno all’avvenuta decisione di varare l’euro venne infine razionalizzato con l’idea rassicurante che il computo costi-benefici andasse fatto tenendo conto del mutamento strutturale, e calcolato in base a modelli macroeconomici dove i coefficienti delle variabili considerate fossero quelli ex post (per ipotesi, migliori) e non quelli ex ante (si veda Frankel e Rose, 1998). L’ottimistica previsione di Mundell non ha finora trovato conferma. L’incentivo all’attività di investimento rappresentato dalla forte riduzione del costo del danaro (per la fine del rischio di cambio e la sostanziale riduzione del premio sul rischio di default) non ha dato i frutti sperati, neppure negli anni iniziali dell’Eurozona (19992006) che hanno preceduto la crisi finanziaria e la successiva Grande Recessione. E’ vero che l’integrazione finanziaria ha visto le banche del Nord Europa acquistare attività emesse sia del settore pubblico che da quello privato dei paesi della Periferia, che fino al 2005-06 hanno conosciuto i tassi di crescita più elevati. Ma ciò ha solo creato l‘illusione delle virtù miracolose della ricetta supply-side: più liberalizzi i mercati, riduci le tasse e ridimensioni il sistema di protezione sociale, più sprigioni le forze progressive dei mercati. In realtà, la carenza di capacità imprenditoriali nei settori tecnologicamente avanzati fece sì che nella Periferia dell’Eurozona l’espansione degli investimenti favorita da bassissimi tassi di interessi reali si concentrassero nei settori finanziari ed immobiliari. Il forte processo di integrazione finanziaria avvenuto all’interno dell’Eurozona non ha prodotto lo sperato rafforzamento dei fattori di crescita delle economie periferiche, rimanendo solo una tessera del più generale fenomeno della globalizzazione. Inoltre, ci troviamo oggi di fronte ad un’inversione di tendenza dell’integrazione finanziaria in Europa. Le operazioni della BCE di rifinanziamento delle banche (le LTRO) hanno avuto l’effetto di favorire una “rinazionalizzazione” del debito pubblico dei paesi dell’Eurozona e dei capitali bancari. 254 Vale allora la pena ricordare come, negli ultimi due decenni, soltanto due paesi – a partire dai primi anni ’90 l’Irlanda, un po’ di anni più avanti la Spagna – sono stati capaci di tradurre in realtà il catching-up previsto dalla modellistica della convergenza economica. Sono però questi i paesi dove la “rincorsa” ai reddito pro capite dell’ “Europa avanzata” ha fatto leva non tanto sull’efficienza dinamica quanto su fattori trainanti particolarmente fragili quali le “bolle” immobiliari e bancarie (ed in Irlanda anche la competizione fiscale). E sono di nuovo questi i paesi (la Grecia è un discorso a parte) dove la crescita e la convergenza economica sono state colpite a morte dallo shock macroeconomico originato dalla crisi finanziaria. Le vicende europee dimostrano che in un’economia in cui l’adozione di una moneta comune con i paesi concorrenti sottrae al tasso di cambio reale (l’indicatore della competitività) la “valvola di sfogo” dell’accomodamento nominale non riesce a fare fronte ad uno shock sistemico. La competitività delle economie “emergenti” sui mercati internazionali gode dei benefici del regime dei cambi flessibili vigente fra le principali aree valutarie. Del beneficio di opportune oscillazioni del cambio nominale non godono invece i paesi periferici dell’area valutaria europea, sicché l’aggiustamento di mercato (fuor di metafora, il drastico abbattimento dei costi di produzione attraverso la riduzione dei salari ed il ridimensionamento della forza lavoro stabilmente occupata) si rivela insufficiente a creare le condizioni per il ritorno alla crescita. Gli incentivi messi in campo dal libero mercato non si rivelano sufficienti, almeno in Europa, per realizzare il catching-up. I sistemi produttivi più deboli hanno bisogno della progettazione pubblica di un ambiente favorevole all’innalzamento della “produttività totale dei fattori”, ovvero ricerca tecnologica, istruzione e infrastrutture. Nell’ Eurozona, il sostegno di appropriate istituzioni comuni, avviando il passaggio dal coordinamento delle politiche fiscali indispensabile a “rassicurare” i mercati all’unione fiscale, non sembra più a lungo procrastinabile. L’errore non è stato l’euro, ma la insufficiente struttura istituzionale che ha minato i potenziali benefici della moneta comune sulla crescita delle economie europee. Si è 255 troppo a lungo ignorato che le istituzioni rivestono un ruolo fondamentale ed insostituibile nel contenere gli effetti degli shock ed accelerare il cambiamento strutturale delle economie. Questa grave sottovalutazione ha molto pesato allorché la crisi finanziaria ha messo a nudo tutte le pecche del disegno dell’Eurozona. Una volta affidata la creazione di moneta alla francofortese BCE, ed assoggettate le politiche fiscali al vincolo del PSC, dell’assenza di una sufficiente convergenza reale non ci si preoccupò. A contrastare eventuali shock esogeni ci avrebbe pensato la capacità di aggiustamento che i mercati liberalizzati avrebbero raggiunto grazie all’integrazione. L’adozione poco meditata dell’ideologia liberista fece così dimenticare che la convergenza nominale che ha portato all’euro in nessun modo rappresentava la garanzia di una spontanea realizzazione della convergenza reale, ovvero di un progressivo abbattimento del costo del lavoro per unità di prodotto (salario/produttività del lavoro) verso i valori delle più efficienti economie del Nord. Oggi, di fronte alla grave crisi dei paesi della Periferia, “le stesse cose ritornano”. I valori della dinamica del PIL – positivi in Germania e gravemente negativi nella Periferia – non sono soltanto la conseguenza del rientro dal debito pubblico generato dai salvataggi delle banche, ma dimostrano che il problema della convergenza reale fra le economie europee è ancora tutto da affrontare. Oggi, per uscire dalla crisi, occorrerebbero esattamente le stesse scelte di policy che si invocavano allora: una BCE che non fosse fotocopia della Bundesbank, politiche fiscali di stabilizzazione coordinate a Bruxelles; adeguati finanziamenti comunitari di sostegno allo sviluppo. Tredici anni fa, se fosse stato sorretto da un coordinamento istituzionale all’altezza dei complessi aggiustamenti reali che avrebbero dovuto accompagnare l‘introduzione dell’euro, i sistemi produttivi più deboli della Periferia sarebbero forse riusciti ad utilizzare l’abbattimento dei tassi di interesse e dei costi di transazione per accrescere l’efficienza produttiva; ed i governi (in primis, i paesi con un rapporto debito pubblico/PIL superiore al 60%, all’epoca solo Italia, Belgio e Grecia) a destinare le somme risparmiate grazie alla minore spesa per interessi prima alla decumulazione del debito pubblico e poi al finanziamento di investimenti in infrastrutture ed al 256 miglioramento del capitale umano. Oggi, con il sistema bancario imballato dal deleveraging e la domanda interna depressa dal moltiplicatore negativo del bilancio pubblico, imprese e governi nazionali non possono sperare nelle sole “magnifiche sorti e progressive” dell’aggiustamento di mercato e del consolidamento fiscale. La ripresa della crescita nella Periferia, se ci sarà, sarà trainata dall’Europa unita. La moneta unica fu salutata dai mercati come una specie di bonanza. Le bolle speculative alimentate da tassi reali di interesse vicini allo zero negli anni 2004-07 – soprattutto in Irlanda e Spagna – e la competitività declinante in concomitanza con politiche di consolidamento del bilancio pubblico monitorate dal PSC – soprattutto in Grecia, Portogallo ed Italia - erano chiari segnali di una crescita poco solida, ben prima dell’arrivo della crisi finanziaria nata oltre-oceano. Evidentemente, le prospettive di facili guadagni indussero gli operatori finanziari – in primo luogo le banche – a puntare sui profitti di breve periodo. In nome dello short-termism, in alcuni paesi della Periferia si alimentò un ciclo espansivo imperniato sul settore immobiliare e sulla continua salita dei listini della borsa. Attratti dai più elevati rendimenti, i capitali si trasferivano dal Centro alla Periferia. Si preferì ignorare che a risparmi in calo per la crescita dei consumi si sommavano decisioni di investimento che erano lungi dal garantire un sano processo di catching-up basato sui settori produttivi avanzati. Il fatto è che nei mercati dei paesi periferici si determinarono erronei segnali di prezzo: il tasso di interesse nominale sul credito rifletteva troppo da vicino il tassi di interesse “comune” sull’euro, senza tenere quindi conto non solo delle condizioni di capitalizzazione delle banche ma soprattutto del fatto che il tasso di interesse reale era quasi zero (registrando i forti differenziali di tasso di inflazione rispetto ai paesi del Nord dell’unione monetaria) ed il tasso di interesse sui titoli pubblici, che dovrebbe essere sensibile all’andamento di deficit e debito pubblici, presentava spread quasi nulli con i Bund tedeschi. In questa ”bolla” di “illusione finanziaria” i mercati si comportarono come se si fosse in presenza di un’area valutaria che prevedesse la 257 funzione di prestatore di ultima istanza per la banca centrale ed una garanzia “comune” sullo stock di titoli sovrani dei paesi del Nord come del Sud Europa. Perché i prezzi dei mercati non registravano aspettative molto incerte sulla crescita futura dei paesi periferici dell’Eurozona, e quindi la scarsa solvibilità dei debiti privati e sovrani? Primo, le banche centrali nazionali (BCN) dei paesi periferici sottovalutavano il rischio preso da istituti bancari fortemente esposti a breve termine nel finanziamento di investimenti di lungo termine, cui si aggiungeva l’azzardo di portafogli squilibrati verso titoli ad alta volatilità. Secondo, la condizione di “sostenibilità” del debito pubblico era clamorosamente assente. Qualche anno di crescita accelerata non basta a generare aspettative di flussi di reddito futuri – e perciò di entrate fiscali - adeguati al rimborso del debito pubblico. Su tale miopia delle BCN si innestò la crisi economica. All’insolvenza delle banche, a fronte di crediti inesigibili, si sommò - una volta che il loro debito privato veniva trasformato in debito pubblico – il perverso “moltiplicatore” della crisi determinato dall’intreccio debito bancario-debito sovrano. Seguirono la stasi del credito, il crollo della domanda, la sfiducia dei consumatori a basso reddito e la forte restrizione fiscale (l’”austerità”) imposta dall’esplosione del rapporto debito pubblico / PIL . Detto tutto ciò, nel vertice di Bruxelles i leader europei sono riusciti a fare abbastanza per evitare che nell’unione monetaria rimanesse alla mercé dei mercati. Va sottolineata la grande portata di due principali decisioni: La prima: La fine del nesso fra debito delle banche e debito pubblico. Con l’intervento finanziario a favore delle banche da parte dell’Esm - invece che degli Stati - viene sanata l’assurdità dell’incremento – del tutto gratuito – che ne conseguiva nel debito pubblico. L’incremento del rapporto debito pubblico / PIL, a sua volta, si veniva a ripercuotere sull’affidabilità e sulla capitalizzazione delle banche stesse. ed il valore dei titoli pubblici dati in garanzia alla BCE diminuiva, con gravi effetti sulla strategia di rafforzamento dei capitali voluta da Basilea3. C’erano poi altri due effetti perversi: (i) l’incremento sulla spesa per interessi - e quindi aggiuntive emissioni di titoli conseguente all’aumento dello spread dopo un aumento del debito sovrano; (ii) il 258 grave nocumento alla concorrenza, in quanto imprese simili – ma appartenenti a sistemi-paese diversi – finivano con il finanziarsi a tassi di mercato molto divaricati fra Centro e Periferia. L’ostinazione tedesca nell’opporsi ad una garanzia collettiva sulle situazioni debitorie nazionali era stata solo mitigata dalla scelta di Draghi di inondare le banche di liquidità al tasso dell’1% per permettere loro di acquistare il debito sovrano di paesi a rischio di chiusura del finanziamento dei mercati. Il nuovo fondo salva-stati Esm potrà acquistare - direttamente e sul mercato primario - i bond pubblici una volta che lo spread si avvicina ad una soglia (ancora da definire) e la BCE dovrebbe ricevere l’autorizzazione ad agire in simbiosi con l’Esm e permettere al fondo di dotarsi di munizioni ben superiori agli attuali 500 miliardi di euro (del tutto insufficienti, se fosse ad esempio l’Italia a trovarsi nelle condizioni di richiedere un prestito). Siamo molto vicini - in via indiretta – a quella funzione di “prestatore di ultima istanza” della BCE il cui divieto la Germania volle inserire nello Statuto della banca centrale. Ragionevolmente, la sola condizione per esaudire una richiesta di intervento è che il sostegno finanziario non fronteggi una crisi di insolvenza, ma una crisi di liquidità causata da un’impennata dello spread. Infine, la fiducia degli investitori privati dovrebbe essere rafforzata dall’avere deciso che i prestatori istituzionali (come l’Esm) non godranno più dello status di creditori privilegiati in caso di insolvenza. La seconda: Un primo passo verso l’Unione bancaria. In attesa del passaggio a Francoforte anche della regolamentazione e vigilanza sui sistemi creditizi e finanziari è stato approvato l’intervento finanziario dell’Esm a favore delle banche in difficoltà e delle loro esigenze di ricapitalizzazione, con la supervisione finanziaria dei bilanci delle banche assegnata alla BCE. L’aspetto innovativo di tale decisione risiede nell’avere di fatto superato l’altro veto tedesco: il pooling – la garanzia “comune” – delle passività. Si tratta di una condivisione del rischio che per ora è limitata alle passività delle banche private e domani – quando, e se, si darà avvio all’Unione fiscale – dovrebbe estendersi alle passività degli Stati. 259 Come anticipavo all’inizio, il problema vero continua ad essere quello della crescita. I leader europei non riescono neanche ad impostare la sua soluzione e lo collocano nel “lungo periodo”. I finanziamenti stanziati durante i vertice sono infatti insufficienti e lo strumento dei project bonds tutto da definire. Il problema è grave e di difficile soluzione perché è nato a Maastricht. Nella struttura istituzionale disegnata a Maastricht alle politiche fiscali nazionali venne demandato il compito di fronteggiare con interventi espansivi gli shock asimmetrici (mentre alla politica monetaria della BCE fu assegnata la responsabilità di reagire agli shock che colpiscono allo stesso modo tutti i paesi membri). Maastricht immaginava che squilibri limitati ad un paese - causati da cadute della domanda o da incrementi nei costi di produzione - avrebbero potuto essere agevolmente risolti utilizzando riserve di entrate fiscali e - nei casi di grave recessione - sostegni pubblici finanziati con emissione di titoli. L’unica condizione era un livello basso del rapporto debito pubblico / PIL. Non è andata così, come dimostrano le gravi crisi in cui si dibattono ancora oggi due paesi inizialmente a basso debito pubblico come Irlanda e Spagna. Il perché è presto detto. Maastricht ha avuto la colpa di sottostimare la forte eterogeneità dei paesi periferici rispetto al Centro. In particolare, due “ritardi” strutturali: (i) la debolezza di alcuni sistemi bancari, dovuta all’inefficienza della regolamentazione nazionale; (ii) il divario di efficienza produttiva della Periferia nei confronti del Centro, che prima del passaggio all’euro veniva mascherato dal progressivo riallineamento nominale del tasso di cambio e che ha poi generato l’accumularsi di perdite nella bilancia commerciale di paesi come Grecia, Portogallo, Spagna e (in misura molto minore) Italia. L’equazione : (S – I) = (G – T) + (X – M) – come più volte detto - rappresenta l’equilibrio macroeconomico complessivo di un sistema economico. Ogni diseguaglianza fra le variabili all’interno di ciascuno dei tre settori - Risparmi e Investimenti nel settore privato, Spesa pubblica (G) e Tassazione nel settore pubblico, ed Esportazioni (X) ed Importazioni (M) nel settore estero - viene a scomparire nella 260 somma algebrica delle varie poste. Ciò vale sia riguardo ai singoli settori all’interno di ciascun paese, sia nell’annullamento degli squilibri reciproci all’interno di un’area valutaria. L’equilibrio macroeconomico dell’Eurozona nel suo complesso è naturalmente un’identità contabile. Al netto dell’interscambio dell’Eurozona con il resto del mondo (il cui bilancio non si allontana mai troppo dal pareggio) una posizione di squilibrio in surplus in un paese o gruppo di paesi (Centro o Periferia) corrisponde una posizione di squilibrio in deficit in un altro paese o gruppo di paesi (Centro o Periferia). L’Eurozona si presenta oggi fortemente divaricata fra un Centro in surplus ed una Periferia in deficit. A partire dall’avvio dell’unione monetaria – ed in misura crescente all’indomani della crisi finanziaria - in alcuni paesi (in primis la Germania, seguita da Austria e Finlandia) si registra un surplus dei risparmi sugli investimenti cui corrisponde un surplus di bilancia commerciale, mentre i paesi della Periferia sono gravati da deficit di conto corrente provocati da una forte dinamica del tasso di cambio reale effettivo, la cui misura, il costo del lavoro per unità di prodotto (CLUP), indica la competitività del sistema economico. Nella Periferia, in particolare in Irlanda e Spagna, l’origine del problema risiede nella rapida espansione della domanda domestica, dove alla discesa del risparmio hanno corrisposto le “bolle speculative” invece che gli investimenti produttivi necessari alla crescita e alla “sostenibilità” dell’indebitamento bancario e sovrano. In Grecia, Portogallo ed Italia, un ruolo importante nel favorire l’accumularsi di deficit commerciali con l’estero (il cui corrispettivo è il surplus commerciale del Centro) è stato svolto in anni passati anche dai deficit presenti nel bilancio pubblico. Il messaggio di questa contabilità macroeconomica è semplice. I paesi della Periferia non hanno individualmente le risorse non solo per realizzare il catching-up di lungo periodo, ma neppure per uscire dalla recessione e stimolare la ripresa economica per bloccare i deficit con l’estero di breve periodo. L’attuale crisi dimostra come la struttura istituzionale dell’unione monetaria fosse inadeguata a fronteggiare un grave 261 shock esogeno, qual è stata la “crisi finanziaria americana”. Per riequilibrare esportazioni ed importazioni, questi paesi non hanno altra strategia che di deflazionare l’economia, provocando una discesa del CLUP, e quindi del reddito e dei consumi. Gli elevati costi sociali di una tale strategia sono già sotto gli occhi di tutti. La conseguente risalita del risparmio, da cui ci si aspetta un miglioramento della bilancia commerciale, potrebbe però bastare. Essa, infatti, causa una variazione di segno positivo sul lato sinistro dell’equazione, proprio mentre sul lato destro la forte restrizione fiscale produce nel bilancio pubblico una variazione negativa. Il fatto è che nel settore estero si registra un andamento diverso da paese e paese (in 3 delle 5 economie periferiche le esportazioni conoscono una riduzione superiore alla discesa indotta dalla recessione nelle importazioni) ma complessivamente ben lontano dal generare quel valore ampiamente positivo di ripresa delle esportazioni che sarebbe necessario per ripristinare l’equilibrio macroeconomico complessivo e frenare così la recessione evitando ulteriori cadute del reddito. In sintesi, al prezzo di una drastica deflazione anche la Periferia ora presenta un risparmio netto nel settore privato, ma lo squilibrio macroeconomico – e quindi la necessità di trasferimenti di capitali direttamente o indirettamente provenienti dal Centro – persisterà fintantoché non verrà alleviato il divario di efficienza con il Centro. Anche portando in pareggio il bilancio pubblico in modo da comprimere i consumi: (S > I) < (G = T) + (X < M) l’eccesso di risparmio è insufficiente per eliminare il deficit commerciale poiché lo squilibrio non è colmabile senza una forte ripresa di competitività rispetto al Centro La contabilità macroeconomica suesposta, pur nella sua approssimazione, mostra come l’unione monetaria non possa andare avanti senza tenere conto della divergenza reale che mina la coesione economica e sociale al suo interno. A Maastricht si puntò su una progressiva convergenza fra i sistemi economici, nell’aspettativa che le 262 condizioni di minore incertezza conseguenti al processo di unificazione monetaria avrebbero favorito il catching-up. Si è probabilmente trattato di un eccesso di fiducia nelle “magnifiche sorti e progressive” delle libere forze del mercato. Ora bisognerà affrettarsi a creare le strutture istituzionali che mancano nella costruzione europea. Occorre un progetto per la crescita, dove l’idea di integrazione della Periferia con il Centro abbia la stessa dignità dell’idea di convergenza spontanea, guidata dalle sole forze di mercato, da parte delle economie “meno avanzate”. E’ forse il caso di rammentare ai capi di governo dell’Eurozona che uno dei principali strumenti di politica economica per l’integrazione, come l’economia del benessere e la scienza delle finanze insegnano, è l’unione fiscale. 263 Parte Quarta. Governance macroeconomica e coesione sociale nell’Unione Monetaria Europea 1. L’economia dell’UME e a Grande Recessione Nel 2013 la Grande Recessione continua in Europa. Le economie avanzate registrano il double-dip, la doppia caduta, nel tasso di crescita (vedi Tabella 1), in diminuzione dal 2007 al 2009 e nuovamente nel 2012 dopo la parentesi del 2010. Parallelamente, scende la quota dei salari nel reddito: il tasso di disoccupazione è salito dal 5,8% (2007) all’8,5% (2011) della forza lavoro; e l’indice della crescita cumulata del salario reale, riproducendo la doppia caduta del reddito, è di nuovo in decremento: ponendo pari a 100 il valore del 2000, l’indice era salito a 103.3 nel 2006 ed a 104.5 nel 2007, si era ridotto a 104.1 nel 2008, è tornato a salire nel 2009 (104.9) e nel 2010 (105.5), per poi scendere nuovamente a partire dal 2011 (105.0) (ILO, 2013). Anche nell’Eurozona, il double-dip, da tempo paventato soprattutto dai governi della Periferia alle prese con la sostenibilità del bilancio pubblico, è divenuto realtà negli indicatori macroeconomici per il 2012 (vedi Tabella 1). Il tasso di crescita del PIL, negativo nel 2009 in tutti i paesi, è tornato nel 2012 nuovamente negativo in Italia e Spagna, di poco superiore allo zero in Francia e di poco positivo in Germania. La previsione sul PIL per il 2013 è di una rinnovata divergenza tra la crescita della Germania, che è ripartita nel primo trimestre, e quella dei paesi periferici, più Slovenia e Cipro, dove l’anno in corso si concluderà probabilmente di nuovo con un abbassamento del PIL. Molto preoccupante il dato di crescita negativa dell’Italia, dopo che quello finale del 2012 è stato corretto al rialzo (Vedi Tabella 1). Confrontando le proiezioni su reddito e disoccupazione con i dati delle aree valutarie del dollaro e dello Yen, la previsione sul benessere futuro nei paesi dell’Eurozona e sulla sua distribuzione fra le persone appare poco lusinghiera (vedi Tabella 2). 264 Tabella 1. Tassi di crescita del PIL reale 1994 - 200 200 200 200 200 200 201 201 201 201 4 5 6 7 8 9 0 1 2 (*) 2003 economie 3 2,8 3,1 2,6 3,0 2,8 0,1 -3,5 3,0 1,6 1,2 1,2 USA 3,3 3,5 3,1 2,7 1,9 -0,3 -3,1 2,4 1,8 2,2 1,9 Eurozona 2,2 2,2 1,7 3,2 3,0 0,4 -4,4 2,0 1,4 -0,6 -0,3 Germania 1,5 0,7 0,8 3,9 3,4 0,8 -5,1 4,0 3,1 0,9 Francia 2,2 2,5 1,8 2,5 2,3 -0,1 -3,1 1,7 1,7 0,0 -0,1 Italia 1,7 1,7 0,9 2,2 1,7 -1,2 -5,5 1,8 0,4 -2,4 -1,5 Spagna 3,6 3,3 3,6 4,1 3,5 0,9 -3,7 -0,3 0,4 -1,4 -1,6 Olanda 2,9 2,2 2,0 3,4 3,9 1,8 -3,7 1,6 1,1 -0,9 0,5 Belgio 2,3 3,3 1,8 2,7 2,9 1,0 -2,8 2,4 1,8 -0,2 0,2 Austria 2,4 2,6 2,4 3,7 3,7 1,4 -3,8 2,1 2,7 0,8 Grecia 3,5 4,4 2,3 5,5 3,0 -0,2 -3,3 -3,5 -6,9 -6,4 -4,2 Portogallo 2,7 1,6 0,8 1,4 2,4 0,0 -2,9 1,4 -1,7 -3,2 -2,3 Finlandia 3,8 4,1 2,9 4,4 5,3 0,3 -8,5 3,3 Irlanda 6,9 4,4 5,9 5,4 5,4 -2,1 -5,5 -0,8 Slovacchia 4,4 5,1 6,7 8,3 10,5 5,8 -4,9 Slovenia 4,1 4,4 4,0 5,8 7,0 Lussemburgo 4,4 4,4 5,4 5,0 6,6 Estonia 5,7 6,3 8,9 10,1 avanzate 0,8 0,6 2,7 -0,2 0,5 1,4 0,9 1,1 4,2 3,3 2,0 1,4 3,4 -7,8 1,2 0,6 -2,3 -2,0 0,8 -5,3 2,7 1,6 0,1 0,1 2,3 7,6 3,2 3,0 -- 7,5 -3,7 14,3 Cipro 4,3 Malta - 4,2 3,9 4,1 5,1 3,6 -1,9 1,1 0,5 -2,4 -0,5 3,7 3,1 4,4 4,1 -2,6 2,5 2,1 0,8 1,3 (*) Proiezioni Fonte: IMF (2013) 265 Tabella 2 PIL, prezzi al consumo, conto corrente, disoccupazione (tassi di variazione annua) PIL reale proiezioni 2012 2013 1,3 1,5 2,2 2,1 -0,4 0,2 2,2 1,2 -0,4 1,1 1,9 2,0 2,1 3,0 prezzi al consumo proiezioni 2011 2012 2013 2,7 1,9 1,6 3,1 2,0 1,8 2,7 2,3 1,6 -0,3 0,0 -0,2 4,5 2,7 1,9 2,9 1,8 2,0 3,1 2,2 2,4 2011 Economie avanzate 1,6 Stati Uniti 1,8 Euro area 1,4 Giappone -0,8 Regno Unito 0,8 Canada 2,4 Altre economie avanzate* 3,2 Economie asiatiche di nuova industrializzazione 4,0 2,1 3,6 3,6 * economie del G7 ed altri paesi dell'eurozona esclusi 2,7 2,7 saldo di conto corrente/PIL disoccupazione proiezioni proiezioni 2013 2011 2012 2013 2011 2012 -0,4 -0,3 7,9 8,0 8,1 -0,2 -3,1 -3,1 -3,1 9,0 8,2 8,1 1,3 0,0 1,1 10,2 11,2 11,5 2,3 4,6 4,5 4,4 2,0 1,6 -0,9 -3,3 -2,7 8,0 8,1 8,1 -3,4 -3,7 -2,8 7,5 7,3 7,3 4,7 3,7 3,3 4,5 4,5 4,6 6,6 5,6 5,5 3,6 3,5 3,5 Fonte: IMF (2012) Figura 1. Indice di Gini nell’Unione Europea (2012) Fonte: Eurostat (2012) 266 Le difficoltà che le economie avanzate stanno incontrando nel rilancio della crescita, dell’occupazione e dei salari, lancia un messaggio preoccupante: l’aumento della diseguaglianza di reddito nei paesi “ricchi” non accenna a fermarsi. Come viene autorevolmente denunciato (Stiglitz, 2013), la diseguaglianza interpersonale fra i redditi negli Stati Uniti è in forte accelerazione. All’interno nell’Unione Monetaria Europea (UME), l’indice di Gini segnala una netta frattura: la diseguaglianza di reddito si colloca al di sopra del valore 0,30 nella cosiddetta Periferia - Italia, Spagna, Portogallo, Irlanda e Grecia - ed al di sotto del valore 0,30 nel cosiddetto Centro: Germania, Austria, Francia, Finlandia, Olanda, Belgio, Lussemburgo (vedi Figura 1) . La disparità fra i redditi delle persone nell’Eurozona si presenta inoltre fortemente intrecciata con la disparità in aumento fra i redditi pro capite degli Stati membri (European Commission, 2012), il che preoccupa anche per l’impatto negativo sul giudizio degli elettorati sulla moneta unica. Nel prosieguo, l’attenzione verrà concentrata soprattutto sulle cause della Grande Recessione e sul suo impatto sulle diseguaglianze fra le persone ed i paesi dell’Eurozona. Verrà approfondito il ruolo giocato dalle politiche macroeconomiche che hanno regolato i processi di convergenza nominale (i cambi fissi a banda stretta dello SME dal 1979 al 1992; i criteri di Maastricht dal 1993 al 1998) e dalle istituzioni dell’unione monetaria - la BCE ed il Patto di Stabilità e Crescita (PSC) negli ultimi quindici anni (1999-2013). In particolare, si esaminerà perché le istituzioni di governance dell’Eurozona non siano riuscite ad impedire la crescente divergenza fra i paesi del Centro e quelli della Periferia. 2.Le crisi finanziaria e la Grande Recessione L’economia mondiale continua a subire le conseguenze di un sistema monetario internazionale ereditato dal “mondo di ieri” della guerra fredda e dell’irragionevole ondata di deregolamentazione imposta agli Stati dai mercati 267 globalizzati. E’ opinione largamente condivisa che la liberalizzazione finanziaria che negli ultimi decenni si è accompagnata alla globalizzazione degli scambi commerciali ha determinato un generale incremento del grado di rischio nelle transazioni finanziarie dei paesi avanzati (OCSE). Una seria governance macroeconomica internazionale dei mercati del credito e dei capitali (Claessens et al., 2011) è tanto urgente quanto improbabile nel breve termine. Infatti, la finanziariazzazione delle economie ha grandemente accresciuto il potere degli investitori istituzionali (fondi pensione, compagnie assicurative, etc.) e degli hedge funds . Questa comunità internazionale dei “creditori” tiene in ostaggio governi nazionali che proprio in seguito alla crisi finanziaria hanno dovuto ricorrere a un crescente indebitamento sui mercati. Né i governi né le grandi istituzioni internazionali (IMF, World Bank, WTO, etc.) sembrano in grado di realizzare azioni di coordinamento fra i paesi avanzati al fine di rendere possibile una regolamentazione più efficace dei mercati. Vale la pena ricordare com’è nata la crisi, riprendendo l’analisi sopra svolta. Nel corso del primo decennio del nuovo millennio le banche statunitensi hanno eccessivamente espanso la propria attività verso una categoria di mutui per l’acquisto di una casa (i sub-prime) gravati da un alto rischio di mancato pagamento delle quote di restituzione del prestito e degli interessi. Nella gran parte dei casi, i mutui venivano concessi a soggetti a basso reddito e con posto di lavoro precario e i titoli cartolarizzati erano venduti ai risparmiatori a condizioni di trasparenza molto opache. Queste emissioni di CDO (Collateralized debt obligation: obbligazioni di debito collateralizzato) che aggregavano i mutui sub-prime (appunto, obbligazioni la cui garanzia è un debito), venivano poi frazionate nuovamente in base al rating. La collocazione avveniva prevalentemente nei portafogli di istituzioni non-levered (ovvero, la cui attività non si basa su liquidità presa a prestito: ad esempio, banche centrali, fondi sovrani, fondi pensione) oppure nelle SIV (Structured Investment Vehicles), branche esterne al bilancio delle stesse banche, in cui vengono collocate le attività finanziarie poco liquide. A loro volta le SIV erano finanziate con linee di credito ottenute nel mercato dei prestiti a breve termine, in modo da acquisire 268 un’ampia liquidità allo scopo di ottenere una valutazione AAA delle agenzie di rating. La solvibilità dei titoli ABS (Asset-Backed Securities, ovvero un'emissione obbligazionaria consistente in una cartolarizzazione, in quanto garantita dai titoli sottostanti) e MBS (Mortgage-Backed Securities, ovvero una cartolarizzazione garantita da mutui) - creati dalle banche e venduti sul mercato finanziario interno ed internazionale - dipendeva dai piani di rientro della liquidità prestata ai mutuatari. Benché definiti sub-prime, i fondi prestati per l’acquisto di una casa non potevano presentare per le banche un’aspettativa di restituzione sufficientemente elevata. Perché allora si moltiplicarono? La logica del modello “originate and redistribute” è semplice. La stipula di prestiti dà di norma luogo ad una assunzione di rischio che la banca attraverso la successiva emissione e vendita di titoli obbligazionari derivati “ridistribuisce” – indebolendo così di molto l’impatto di un eventuale default - su una vasta platea di soggetti (istituzionali e non). La creazione di attività finanziarie per ridistribuire il rischio assunto con i sottostanti titoli sub-prime ha però comportato negli Stati Uniti dei primi anni duemila un aumento inatteso del grado di rischio dell’attività bancaria. Ogni volta che un nuovo derivato veniva emesso, la tripla AAA faceva riferimento ad un titolo costruito con una quota decrescente di titoli di “alta qualità”. Le emissioni di CDO – che “contenevano” emissioni di obbligazioni la cui liquidità a scadenza era legata all’aspettativa di restituzione delle originarie tranche di sub-prime – presentavano un grado di rischio ben superiore alla valutazione AAA attribuita dalle agenzie di rating. Infatti, ad ogni successiva cartolarizzazione, la tranche “migliore” quella che “conteneva” i sub-prime relativamente meno rischiosi - era considerata meritevole della AAA, ma di fatto presentava un grado di rischio più elevato, diversamente da quanto implicato dal rating attribuitole. Poiché le banche prendevano molta liquidità a prestito per comprare attività con un grado di liquidità difficilmente determinabile, non solo il loro leverage si andava accrescendo, ma l’assenza di informazione sul valore dei loro derivati rendeva molto vulnerabili le attività detenute in portafoglio. 269 Quando il prezzo delle case cominciò a calare e si diffuse la sfiducia nei MBS, le banche incontrarono difficoltà nel rifinanziarli ed anche il mercato degli ABS venne contagiato. Il collasso del mercato dei prestiti a breve termine nell’estate del 2007 obbligò le banche statunitensi a fare rientrare nei loro bilanci l’ammontare di ABS presente nelle rispettive SIV. I derivati, nati per coprire il rischio sulle attività finanziarie detenute, si sono di fatto trasformati in un contratto di assunzione del rischio, poiché a causa della mancata regolamentazione nei mercati del credito e del capitale il rischio assicurabile si è trasformato in incertezza. Come ha potuto determinarsi un Ponzi game delle dimensioni della crisi dei sub-prime? Negli Stati Uniti, si è ampliato dagli anni ’80 in poi – soprattutto per le famiglie dei ceti medio-bassi - il divario fra il livello di reddito necessario a mantenere lo standard di vita ed il reddito guadagnato. Questo impoverimento relativo ha fortemente inciso sull’aspettativa di “mobilità sociale”, principale fondamento del “sogno americano”. Economisti come Sen, Stiglitz, Krugman e Fitoussi hanno collegato l’espansione dei mutui alla volontà dell’establishment politico ed economico di rilanciare la visione degli Stati Uniti come la “terra delle opportunità”, in un epoca in cui nei ceti esclusi dal benessere si andava di molto appannando l’aspettativa di una rapida ascesa nella scala sociale (Sen et al., 2013). Offrire l’opportunità di divenire proprietari di una casa – mediante un mutuo concesso da una banca, indipendentemente dal livello di reddito e molto spesso in assenza di un posto di lavoro fisso – è divenuto l’antidoto alla crescente polarizzazione in atto nella distribuzione del reddito, con la caduta dei guadagni del ceto medio verso il decile dei poveri e l’innalzamento della quota di reddito percepita dai più ricchi in virtù di superstipendi e stock option. Successivamente allo shock negativo dei sub-prime, negli Stati Uniti l’aggiustamento di mercato (la discesa di salari e prezzi) ha avuto un peso preponderante rispetto all’operare dello Stato sociale, la cui tutela del lavoro e la cui capacità redistributiva sono notoriamente molto limitate. Pertanto, la recessione ha finito per avere effetti molto marcati nella distribuzione del reddito, perché alla 270 probabile perdita del posto di lavoro consegue una ripresa della produzione e di nuova occupazione che sono subordinate all’accettazione, da parte delle fasce di forza lavoro a basso skill, della discesa del salario ad un più basso livello. Nel corso della recessione 1980-82, i redditi percepiti dall’ultimo decile si ridussero del 20%, recuperando il terreno perduto solo a fine anni ’90. Anche la ripresa del 2009-2010 è stata molto penalizzante per i lavoratori a basso reddito: l’1% della popolazione con i redditi più alti ha catturato ben il 93% della crescita del PIL. La crisi finanziaria ha una genesi affatto diversa in Europa. Le situazioni di illiquidità o di insolvenza sono solo in parte la conseguenza della globalizzazione finanziaria, e cioè degli ingenti quantitativi di ABS statunitensi accumulati nei propri portafogli dagli istituti di credito Europei trasformatisi in banche di investimento (Acharya e Schnabl, 2010). Il problema delle insolvenze bancarie è sorto in Europa soprattutto a causa delle forti interconnessioni fra banche di paesi eterogenei per performance macroeconomica e per condizioni di stabilità del sistema bancario. Il contesto nazionale ha agito da moltiplicatore del grado di rischio delle banche in difficoltà, favorendo la rapida trasmissione del “contagio” delle situazioni di insolvenza. In seguito ai processi di integrazione finanziaria conseguiti al cambiamento strutturale della moneta unica, le banche del Centro hanno assunto forti posizioni nelle attività finanziarie emesse da imprese e governi della Periferia finendo per legarsi strettamente con il sistema bancario della Periferia. La strategia di spostare sugli acquirenti delle obbligazioni il rischio inizialmente assunto rientrava di norma nel novero dei comportamenti virtuosi, poiché riguardava prestiti a grado di rischio inferiore rispetto ai mutui statunitensi. Se una strategia di diversificazione del rischio di portafoglio si sviluppa nell’ambito di un network di banche fortemente interconnesse, è probabile che fra gli investitori si diffonda il pessimismo. Una volta che uno shock esogeno colpisce un paese il cui sistema bancario abbia sviluppato ampie esposizioni cross-border in derivati illiquidi con le altre banche del network, e queste economie presentino un forte squilibrio 271 macroeconomico, si creano le condizioni per il sorgere di un rischio sistemico (Croci Angelini e Farina, 2012). Quando in Europa il market sentiment sulla solvibilità dei governi mutò repentinamente verso aspettative pessimistiche, alcune grandi banche si trovarono in difficoltà nell’assorbire le perdite causate dalla crisi dei sub-prime per la loro scarsa capitalizzazione rispetto al grado di leverage cui si erano esposte per operare nei mercati finanziari. Il considerevole investimento di portafoglio delle grandi banche del Centro nel debito sovrano della Periferia – a più alto rendimento, ma a più basso rating, in quanto più rischioso perché emesso da governi alle prese con livelli alti o in rapido peggioramento del debito pubblico rispetto al PIL - ha peggiorato la qualità dell’attivo delle banche. Se il valore delle passività eccede il valore delle attività, il capitale ha valore negativo. Il default di una categoria di titoli particolarmente rischiosa – com’è accaduto con i titoli tossici statunitensi – genera immediatamente l’aspettativa di perdite. Quanto più esiguo è l’ammontare del capitale a sostegno delle passività, tanto maggiore è il rischio che la crisi di liquidità si trasformi in vera e propria insolvenza. Perché è accaduto? La ragione principale va individuata nell’estensione della deregolamentazione dei mercati in un’Europa con sistemi produttivi eterogenei, una regolamentazione del sistema bancario molto inefficiente, ed un coordinamento delle politiche di bilancio pubblico tendenzialmente deflazionistico. In mercati dove si andava creando un pericoloso legame reciproco fra banche e governi –con l’esposizione delle prime nelle passività rischiose dei secondi e con i salvataggi bancari da parte dei governi - la moltiplicazione di prodotti finanziari ha reso sempre più opaca l’informazione, riducendo l’affidabilità dei prezzi quali segnali per le scelte dei soggetti. Ne è un esempio illuminante l’innovazione finanziaria dei CDS (credit default swaps). Un CDS garantisce, dietro pagamento di un premio, il valore di emissione di un titolo. Il valore di mercato di un CDS oscilla in funzione delle credenze sul valore dell’attività assicurata, che in mercati affetti da comportamenti puramente imitativi sono molto mutevoli. Questa forma di assicurazione del valore 272 di un’attività finanziaria, invece di stabilizzare le quotazioni offrendo agli operatori un aggiuntivo segnale di prezzo, tende a far dipendere le quotazioni dei titoli derivati più alle credenze legate al volume dell’attività speculativa che all’informazione sull’economia reale, accentuando l’incertezza sui moderni mercati deregolamentati. Pertanto, l’altezza raggiunta dallo spread sui titoli pubblici dei paesi periferici dell’Eurozona è solo in parte imputabile all’altezza del rapporto debito pubblico / PIL ed ai fondamentali delle economie, perché dipende anche dal sentiment che prevale sui mercati, dall’ottimismo o dal pessimismo degli operatori (De Grauwe e Ji, 2012). Lo dimostra il fatto che il premio per il rischio di default che determina lo spread sui titoli pubblici dei paesi periferici - lungi dal rappresentare un corretto “segnale” sulla effettiva sostenibilità del debito di un paese - risulta strettamente correlato ai premi crescenti che vengono richiesti sui CDS. L’esplosione degli spread sui titoli sovrani della Periferia è in definitiva derivata dal sommarsi di tre fattori: l’incremento del grado di avversione al rischio a livello internazionale, il rischio di credito che si è venuto formando nei singoli paesi in base ai rispettivi squilibri macroeconomici, e il contagio trasmesso nella Periferia dalla Grecia ( che assieme all’Irlanda è il paese con le finanze pubbliche maggiormente dissestate ) (De Santis, 2012). La crisi dell’Eurozona affonda le sue radici nella debole cornice istituzionale dell’integrazione monetaria Europea. L’abolizione del “rischio di cambio”, la drastica riduzione sull’incertezza degli investimenti, e l’abbattimento dei costi di transazione conseguite all’introduzione dell’Euro, generarono un market sentiment di forte ottimismo negli anni di avvio della moneta unica. L’appartenenza ad un’unica area valutaria ha avuto effetti distorsivi sulla performance macroeconomica di alcuni paesi. E’ noto che il tasso di interesse nominale eguale per tutti - fissato dalla BCE in base ai valori medi di inflazione ed output gap , a fronte di persistenti differenziali fra i paesi – riduce la capacità della politica monetaria di stabilizzare il reddito nella misura necessaria nelle diverse economie (Farina 1999; Farina e Tamborini, 2002). In paesi come Irlanda e Spagna si è in effetti determinata – fra il 2004 e il 2007 - una sovra-stabilizzazione del reddito: la forte crescita dell’output, favorita dalla discesa a 273 valori negativi dei tassi di interesse reali (dato un tasso di inflazione in questi paesi superiore alla media dell’Eurozona) e dall’ampia disponibilità di credito generata dall’integrazione finanziaria, ha alimentato la speculazione finanziaria ed immobiliare da cui sono scaturite le disastrose “bolle” dei due paesi. Sia i sistemi bancari della Periferia maggiormente impegnati nell’espansione del credito (Irlanda e Spagna), che quelli del Centro nei quali si è investito nel debito sovrano più redditizio (Germania e Francia), presentano però una regolamentazione carente a causa della collusione fra banche private ed agenzie di supervisione. La debolezza strutturale di parte del settore bancario europeo è stata affrontata con la più stringente regolamentazione dell’attività bancaria di Basilea2. Tuttavia, l’entrata in vigore del più elevato livello di capital ratio ha coinciso con l’instabilità finanziaria e macroeconomica seguita allo scoppio della crisi finanziaria. Molte situazioni di illiquidità si sono evolute verso l’insolvenza e dal clima di sfiducia reciproca fra le banche è sortito un inasprimento delle condizioni del credito. Dopo l’ingente incremento del debito pubblico provocato dai salvataggi bancari, molti governi hanno dovuto concordare con la “troika” programmi di consolidamento fiscale per ottenere sostegno finanziario. Ad erodere la affidabilità finanziaria è stato non solo lo squilibrio del bilancio pubblico ma anche quello della bilancia commerciale. In alcuni paesi periferici come Portogallo, Grecia, e in misura minore in Italia, il conto corrente in crescente deficit per la divaricazione del costo del lavoro per unità di prodotto (CLUP), in continua salita rispetto alla Germania dopo la fine degli aggiustamenti di cambio nominale - ha generato ingenti surplus delle banche tedesche, contabilizzate nel sistema Target2 della BCE. Finché circolavano le valute nazionali, i deficit di conto corrente trovavano copertura negli afflussi di capitale, che consentivano alla banca centrale di aumentare la concessione di base monetaria alle banche commerciali. L’accumulazione di posizione debitoria portava infine alla cessione di riserve internazionali da parte della banca centrale. 274 Con l’avvento dell’Euro, il sistema Target2 prevede che le banche centrali dei paesi in surplus accumulino attivi contabili - e quelle dei paesi in deficit, passivi contabili - presso la BCE. I flussi commerciali in surplus della Germania, ed in deficit dei paesi con eccesso di importazioni con la Germania, della contabilità Target2, risultano come attivi delle banche tedesche nei confronti di soggetti prenditori di prestito residenti nei paesi periferici i quali con questa liquidità pagano come aggregato l’eccesso di importazioni. La gravità del quadro macroeconomico prodotto da crisi finanziaria e recessione è ben noto. Dal 2008 ad oggi, nell’Irlanda dei mercati deregolamentati, in virtù della riduzione della risalita della produttività che si è accompagnata alla riduzione del salario la discesa del CLUP ha raggiunto il 12,5%. L’aggiustamento reale è stata minore in Grecia (-5%) ed in Portogallo (-6%), paesi che con la Spagna hanno registrato una notevole perdita di posti di lavoro. La disoccupazione, all’11,5% nell’Eurozona, ha infatti toccato picchi del 25,5% in Spagna, del 24% in Grecia, e del 15,7% in Portogallo. Prima della crisi le banche centrali nazionali presentavano squilibri nel bilancio complessivo dell’Eurozona di importo relativamente esiguo, in quanto il pagamento delle importazioni nette dei paesi periferici trovavano contropartita negli afflussi di capitale di investitori privati stranieri - prevalentemente capitali investiti in FDI (investimenti diretti esteri), nelle azioni, e nel più redditizio debito pubblico della Periferia - provenienti dalla Germania, ma anche dall’Olanda e dalla Finlandia. Dopo che la bancarotta Lehmann Brothers del settembre 2008 ebbe provocato un notevole incremento nel grado di incertezza dei mercati finanziari, una gran parte dei capitali precedentemente investiti si sono progressivamente ritirati, cosicché a fronte delle posizioni passive della Periferia questi paesi vantano corrispondenti crediti contabilizzati nel sistema Target2. Il nuovo assetto delle transazioni monetarie fra i paesi dell’unione monetaria creato dal sistema Target2 ha senza dubbio impedito che le conseguenze della crisi finanziaria fossero più gravi. Nel sostituirsi ad esborsi valutari a favore del paese in 275 surplus, esso ha preservato la Periferia da una deflazione reale ancora più profonda di quella che si è determinata. Senza Target2, le economie periferiche più indebitate avrebbero dovuto abbattere il costo di produzione per unità di prodotto in misura ben superiore, al prezzo di un maggiore aumento della disoccupazione e tagli ai salari ed alla spesa sociale ancora più drastici. Gli effetti in termini di disgregazione sociale sarebbero stati ancora più drammatici di quelli cui abbiamo assistito (EEAG, 2012). Riassumendo. Negli Stati Uniti, la deregolamentazione bancaria degli anni ’80 è stata all’origine della commistione fra banche di investimento e banche commerciali che prima sostenne il castello di titoli cartellizzati edificato con la politica dei “mutui-casa per tutti” e poi ne determinò il crollo. Nell’UME, la crisi dei sub-prime ha colpito un tessuto di banche con alto grado rischio, perché fortemente interconnesse e appartenenti a paesi membri molto eterogenei fra loro, innescando una situazione di rischio sistemico che si è trasmessa al debito pubblico. Ciò che deve sorprendere non è lo scoppio della crisi, ma perché i mercati siano stati negli anni precedenti tanto “miopi” da non “dare un prezzo” al grado di rischio del debito sovrano. La cornice istituzionale dell’unione monetaria è stata infatti costruita sulla base dell’idea un po’ semplicistica che denominazione in Euro del debito sovrano ed area valutaria dell’Euro fossero concetti intercambiabili. Se ciò fosse stato vero, o quanto meno se i mercati avessero continuato ad assumere che la denominazione in Euro rappresentasse una sorta di garanzia comune sui debiti sovrani, i flussi di capitali cross-border sarebbero stati considerati – definitivamente e a tutti gli effetti flussi interni all’Eurozona, e non avremmo assistito dopo lo scoppio della crisi allo smobilizzo del debito sovrano della Periferia da parte delle banche del Centro. Per comprendere le ragioni dell’impatto molto pesante che la Grande Recessione ha avuto sull’equilibrio macroeconomico dell’Eurozona e sulle diseguaglianze fra e all’interno dei paesi, occorrerà ora analizzare le diverse regole cui risponde la governance di politica monetaria e fiscale sulle due sponde dell’Atlantico. 276 3. Le politiche macroeconomiche di stabilizzazione: un confronto con gli Stati Uniti Nell’analizzare il nesso fra crescita economica e Stato sociale si tende spesso a sottovalutare un aspetto importante. Le politiche macroeconomiche esercitano un’influenza sempre più rilevante sui fattori da cui dipende l’incremento del reddito pro capite nelle economie avanzate. Le manovre di stabilizzazione anticiclica, che nel sistema di Bretton Woods ed in un’epoca di bassa volatilità incidevano soltanto sull’equilibrio macroeconomico di breve periodo, finiscono oggi per incidere sul reddito potenziale, assumendo così una funzione di cerniera fra il breve periodo e il lungo periodo. Più in generale, la separazione fra la regolazione del ciclo economico e le determinanti della crescita economica si è andata progressivamente affievolendo (Delli Gatti, 2012). L’importanza dell’“attivismo” di politica monetaria e fiscale ai fini della ripresa economica all’indomani di un shock è particolarmente evidente. La risalita del PIL è stata più rapida negli Stati Uniti, mentre nell’Eurozona proseguiva la stagnazione della domanda. Come risulta dalla Figura 2, nel 2003 e 2004 il tasso di interesse nominale viene spinto dalla Fed a valori molto più bassi che nell’UME. Nella sequenza in Tabella 3, si osserva poi come negli Stati Uniti, solo tre trimestri dopo l’ultimo del 2001 l’output gap negativo comincia a contrarsi; nell’UME, al contrario, la caduta del reddito ha inizio nell’ultimo trimestre del 2001 e l’output gap negativo continua ad ampliarsi per tutto il 2003. E’ evidente che l’informazione sull’output gap è particolarmente preziosa nell’area valutaria Europea: il processo di convergenza ad un ciclo economico “comune” non si è ancora compiuto e la politica monetaria non sempre si presenta ottimale per ciascun singolo paese, data la diversa ampiezza delle fluttuazioni cicliche. L’azione della BCE diede invece priorità assoluta alla stabilità monetaria, benché il tasso di inflazione medio UME si collocasse attorno al valore-obiettivo del 2% e l’output gap tardasse a restringersi. 277 Fra il 2002 e il 2005, nonostante la presenza di output gap negativi, il tasso di interesse è stato modificato verso l’alto. Ci sono dunque elementi per sostenere che la BCE abbia di fatto adottato la strategia inflation targeting di immediata reazione all’inflazione attesa, anche al prezzo di effetti deflazionistici. In sintesi, durante gli anni di avvicinamento alla moneta unica attraverso il soddisfacimento dei criteri di Maastricht, e poi negli anni dell’unione monetaria che hanno preceduto la crisi finanziaria a causa dei vincoli del PSC, i governi nazionali hanno incontrato crescenti ostacoli nello svolgere la funzione di stabilizzazione del reddito dopo uno shock negativo. Alla politica fiscale sono state di fatto proibite non solo le manovre discrezionali di attuazione di impegni programmatici assunti dai governi, ma anche il normale operare degli stabilizzatori automatici (Farina e Ricciuti, 2006). Quando un abbassamento del livello del PIL rispetto al reddito potenziale ha messo in moto un incremento della spesa pubblica (in presenza di declinanti entrate fiscali) è stato spesso necessario sterilizzare l’impulso degli stabilizzatori automatici per evitare l’impatto di incremento eccessivo del deficit pubblico. Tabella 4: Composizione dell’ European Economic Recovery Plan (EERP) Destinazione Impulso Fiscale (% PIL) 2009 2010 Strumenti Famiglie 0.4 0.3 τC, τN, τWh, TR Imprese 0.2 0.2 τWf Investimenti pubblici 0.3 0.2 IG Mercato del lavoro 0.1 0.1 G Totale 1.1 0.8 Legenda: τC =tassazione consumo, τN=tassazione redditi da lavoro, τWh= contributi sociali lavoratori, τWf =contributi sociali imprese, TR=trasferimenti; G= consumi pubblici, IG=investimenti pubblici. 278 Fonte: Coenen G. et al. (2012b) Una forte divaricazione nella governance macroeconomica sulle due sponde dell’Atlantico è andata in scena anche dopo la bancarotta di Lehman Brothers nel settembre 2008. Per quanto riguarda la politica fiscale, il Tesoro americano – mediante diversi piani di intervento, dalla Tarp all’ARRA - ha realizzato nel 2009-10 una forte espansione della spesa pubblica, che ha portato il rapporto deficit pubblico / PIL all’8% ed il rapporto debito pubblico / PIL ad avvicinarsi al 100%. In Europa, lo stimolo fiscale è stato molto più debole. La Tabella 4 mostra come le politiche discrezionali, che in via eccezionale i paesi dell’Unione Europea hanno potuto affiancare all’operare degli stabilizzatori automatici, sono state dirette al sostegno dei bilanci famigliari nella misura del 40% (soprattutto mediante la riduzione di tasse e contributi sociali), generando un incremento del PIL pari all’1.1% nel 2009 e dello 0,8% nel 2010. Per quanto riguarda la politica monetaria, la Fed si è data come priorità la ripresa della produzione e del reddito, conformemente all’obiettivo del proprio statuto di difendere il livello di occupazione assieme alla stabilità monetaria. Nella prima fase della crisi (2007-09) vennero ridotti i tassi di interesse a lungo termine attraverso operazioni di mercato aperto di acquisto di titoli al fine di stimolare gli investimenti. Nella seconda fase della crisi (2010-12), a partire dal 2010, venne riattivato il canale del credito interbancario . La Fed ha infatti messo in atto tre programmi di quantitative easing (QE), concedendo alle banche enormi quantitativi di liquidità e accettando in cambio come collaterale ogni categoria di titoli, anche quelli che sono espressione di crediti inesigibili (i cosiddetti junk bonds). Molto diversa, ancora una volta, la governance macroeconomica nell’UME. In modo simile a quanto era accaduto nel 2001-03, la BCE ha infatti dimostrato scarsa flessibilità nella manovra monetaria post-crisi. Trichet ha dato avvio al quantitative easing con ritardo, e per importi molto più contenuti, e nel 2009 ha sopravvalutato le tensioni inflazionistiche (non distinguendo la core inflation dall’andamento volatile 279 dei prezzi dell’energia e dei beni alimentari), aumentando improvvidamente il tasso di interesse. In presenza di output gap positivi durante la timida ripresa del 2010, l’espansione della liquidità venne così bloccata troppo precocemente. La BCE ha dunque inizialmente reagito in modo improvvido alla crisi finanziaria, proprio nel momento in cui in alcuni dei paesi della Periferia si emettevano ingenti quantitativi di titoli pubblici, poiché i governi dovevano accollarsi le perdite bancarie (ricorrendo in alcuni casi a ricapitalizzazione, in altri direttamente alla nazionalizzazione). Gli spread, i differenziali di tasso di interesse con la Germania dei paesi periferici, che si erano ridotti a livelli molto bassi subito dopo l’avvio dell’unione monetaria, ed erano calati ulteriormente nel clima di euforia dei mercati degli anni 2004-07, hanno conosciuto una crescita esponenziale. I motivi sono oggetto di approfondita verifica econometrica in letteratura. Le principali cause su cui si indaga sono le seguenti. Figura 3. debito pubblico/PIL 180 160 140 120 100 80 60 40 20 0 2007 2011 Fonte: AMECO 280 Primo, il problema della sostenibilità finanziaria del debito pubblico (vedi Figura 3). In Irlanda e Spagna, i rapporti debito pubblico / PIL sono balzati rispettivamente al 110% ed al 90%. In altri paesi, la crisi economica è conseguita all’eccesso di spesa pubblica rispetto alla tassazione (in primo luogo, in Grecia), ed alla diminuzione delle esportazioni a causa della progressiva perdita di competitività del sistema produttivo (di nuovo la Grecia, ma anche il Portogallo e fino al 2010 l’Italia). L’aumento del debito al numeratore si è andato così ad aggiungere al crollo del PIL al denominatore, aggravando le aspettative pessimistiche degli investitori, anche a causa del persistente intreccio fra banche e governi. Secondo, la mancata ripresa della crescita, causata dalla caduta della domanda privata e pubblica e dalla declinante competitività che deprime le esportazioni, ha accresciuto i timori dei mercati sulla capacità dei governi di disporre delle entrate fiscali necessarie a ridurre il debito pubblico. Inoltre, nella Periferia le condizioni di finanziamento sono fortemente peggiorate. I tassi di interesse praticati alle imprese hanno teso a divergere da paese a paese per la trasmissione dello spread sui titoli pubblici al costo del danaro, in misura proporzionale ai livelli cui in ciascun paese aumentava il premio sul rischio di default; la crisi di fiducia fra le banche ha poi causato il credit crunch - il prosciugarsi della liquidità concessa alle imprese per il blocco del credito interbancario. La crisi dell’Eurozona è stata fronteggiata dalla BCE con una strategia poco aggressiva. Dall’agosto 2008 all’agosto 2011 l’aumento dell’erogazione di liquidità è stato incrementato solo del 39%, a fronte del 201% della Fed. Dopo l’acquisto di titoli greci, a partire dal maggio 2010, diretto a contenere la salita dello spread, la BCE ha lanciato un programma di acquisto di debito sovrano sul mercato secondario, ma per importi molto più limitati di quelli di Fed e BoE (vedi Figura 4). Figura 4. Acquisti di attività finanziarie come percentuale del PIL 281 (Federal Reserve, Bank of England, Banca Centrale Europea) 1.1 5.3 7.5 9.7 10.9 12.11 14.1 18.3 20.5 22.7 23.9 25.11 27.1 31.3 2.6 4.8 6.8 8.12 9.2 12.4 2009 2010 2011 2012 Fonte: Gros, Alcidi e Giovanni (2012) L’orientamento di politica monetaria è cambiato con l’arrivo del nuovo governatore. A partire dal dicembre 2011 - un mese dopo il suo insediamento – Draghi ha dato avvio al Long Term Refinancing Operations (LTRO) allo scopo di superare il credit crunch con operazioni di ampliamento della concessione di credito alle banche ed ha cercato di porre rimedio all’asimmetria creatasi nella trasmissione monetaria (il costo del credito molto maggiore nella Periferia che nel Centro) riducendo il tasso di rifinanziamento per le banche da 1,50% a 1,25% nel novembre 2011, all’1% nel dicembre 2011 e allo 0,75% nel luglio 2012. Il limite della politica monetaria della BCE è quella di fornire un sostegno solo indiretto ai governi il cui debito pubblico è sotto l’attacco dei mercati. Sono state infatti le banche a rivolgere le linee di finanziamento non tanto al credito alle imprese quanto ad acquisti di titoli sovrani per sostenerne le quotazioni e raffreddare lo spread. Tale strategia ha però perpetuato il pericoloso intreccio fra banche e Stati, che 282 in alcuni paesi periferici ha frenato la discesa dello spread. Nel ricorrere al mercato per il finanziamento dei deficit, i governi dei paesi periferici hanno sopportato due conseguenze negative: l’aumento del debito sovrano e l’innalzamento dei profili futuri di spesa per interessi. L’altezza degli spread, che si riverberava in emissioni a rendimenti molto più onerosi, ha inoltre fatto sì che i governi - per conservare la fiducia dei mercati nella sostenibilità fiscale - abbiano dovuto programmare surplus di bilancio di volta in volta più ampi. La strategia di alleggerimento delle posizioni debitorie delle banche non ha potuto essere estesa ai governi. Com’è noto, lo statuto della BCE impedisce l’impegno diretto nel sostegno ai titoli pubblici dei paesi membri, onde scoraggiare l’azzardo morale di espansioni fiscali condotte nell’aspettativa di un eventuale bailout. Inoltre, per la debolezza istituzionale che le deriva dal non avere alle spalle un potere politico, la BCE non può assumersi il rischio di credito ed ha quindi mantenuto la seniority rispetto alle istituzioni private riguardo al rimborso del debito sovrano che le è stato ceduto come collaterale dalle banche. Quanto penalizzante sia, per la credibilità dell’Euro, questo paradossale status della BCE è emerso con chiarezza durante la recente crisi di Cipro, per il cui superamento è stato necessario ricorrere al prelievo forzoso sui depositi bancari eccedenti i 100.000 Euro. Questa decisione contraddice l’impegno alla esenzione dei depositi - prevista dal progetto di Unione bancaria - da qualsiasi bail-out. L’aspetto più inquietante è però che la seniority della BCE dovrà valere anche sui prestiti concessi a Cipro, il che implica che neppure i depositi inferiori a 100.000 Euro possono essere considerati al riparo dal prelievo forzoso. La vicenda cipriota ha dimostrato dunque che il varo dell’Unione bancaria è urgente anche sotto il profilo dell’impossibilità di un intervento risoluto della BCE per affrontare le situazioni di pericolo per la stabilità finanziaria dell’Eurozona. Il rinnovarsi di aspettative pessimistiche sul futuro dell’Eurozona, dopo l’inversione del breve ciclo di ripresa ed il maturare dello scenario del double-dip, ha indotto la BCE al varo nel settembre 2012 dell’Outright Monetary Transactions 283 Program (OMT), la nuova operazione di rifinanziamento delle banche con la quale la BCE ha inteso segnalare di essere pronta a sostenere la concessione di credito ed intervenire in ogni momento nel mercato secondario per calmierare gli spread. Ancora una volta, perdurando l’impossibilità per la BCE di acquistare all’emissione i titoli di debito pubblico, il sostegno ai governi è stato solo indiretto, e cioè realizzato attraverso la concessione di credito da parte del fondo salva-stati EFSF. La credibilità di fronte ai mercati di tale strategia di sostegno dipende dalla garanzia che il capitale a disposizione dell’EFSF è in grado di fornire ai governi. Sommando ai 700 miliardi trasferiti dal vecchio fondo salva-stati European Financial Stability Facility (EFSF) al nuovo fondo, l’European Stablity Mechanism (ESM), i due prestiti triennali alle banche tramite LTRO da 1000 miliardi, il vecchio Securities markets programme (SMP) da 200 miliardi, e le nuove linee di finanziamento potenzialmente illimitato dell’OMT, la disponibilità di fondi raggiunge i 2.000 miliardi. Inoltre, nell’ottobre 2012 i paesi dell’Eurozona si sono impegnati ad trasmettere al nuovo fondo salva-stati ESM una maggiore dotazione di capitale. Tuttavia, è mancata la decisione che avrebbe avuto l’effetto di tranquillizzare definitivamente i mercati: il varo del meccanismo sostitutivo della fondamentale funzione di prestatore di ultima istanza - Lender of Last Resort (LoLR) - di cui è priva la BCE, ovvero il finanziamento immediato ai governi in difficoltà attraverso l’acquisto del debito pubblico da parte dell’ESM. La concessione all’ESM della prerogativa di godere dell’accesso diretto al finanziamento della BCE, fornendo come collaterale il debito pubblico acquistato con il proprio fondo di dotazione, è stata infatti rinviata al momento in cui vedrà la luce l’Unione bancaria. Se l’ESM potesse emettere obbligazioni offrendo i 700 miliardi come garanzia si raggiungerebbe l’obiettivo di una capacità di aiuto finanziario per la sostenibilità del debito pubblico di tutti i paesi periferici. Negli anni di aspettative ottimistiche sul futuro dell’Eurozona, l’integrazione finanziaria aveva notevolmente accresciuto la diversificazione sull’estero dei portafogli finanziari. La quota del debito pubblico nazionale detenuto dalle banche – 284 la cosiddetta home bias dei portafogli - era scesa nel 2007 al 25% circa del totale in Germania, Italia, Spagna e Portogallo in seguito all’integrazione finanziaria ed alle aspettative ottimistiche che prevalsero nella prima fase dell’Euro - (BIS, 2012). L’incertezza sulle sorti dell’Eurozona ha provocato la ri-nazionalizzazione del debito pubblico Gli elevati livelli raggiunti dagli spread nella Periferia hanno indotto le banche del Centro alla flight to quality, la fuga verso i titoli di qualità. Tenendo presente la fragilità istituzionale di un’unione monetaria priva di un potere statuale sovrano e di una banca centrale che possa svolgere la funzione di LoLR, è comprensibile come - anche in presenza di significativi tagli ai deficit di bilancio dal 2010 in poi i mercati abbiano tenuto sotto pressione i paesi periferici. Soprattutto dopo che la drammatica crisi della Grecia ha innescato il contagio verso il debito pubblico degli altri paesi periferici, ingenti flussi di capitale, in rientro dalla Periferia verso il Centro, hanno provocato la riduzione del tasso di interesse sul Bund tedesco e l’aumento di quelli della Periferia. Soprattutto le banche tedesche e francesi hanno ristrutturato i portafogli riducendo l’investimento nei redditizi titoli greci e sostituendolo prevalentemente con debito sovrano nazionale. Ci si deve chiedere quanto appropriata sia stata la strategia di recupero della fiducia dei mercati. Il limite principale della attuale governance macroeconomica è rappresentato dall’approccio della “condizionalità”, gli impegni cui è soggetto il finanziamento del fondo salva-stati ai governi in difficoltà della Periferia. La cosiddetta politica fiscale dell’”austerità” - richiesta dalla cosiddetta troika (BCE, Commissione Europea, IMF) per accelerare il rientro da elevati deficit e debiti pubblici - è finalizzata a rassicurare i mercati, impedendo l’opportunismo ex post dei governi periferici, ovvero la mancata attuazione - una volta ottenuti i fondi - delle misure fiscali restrittive secondo le regole ed i tempi concordati. Il fatto è che la troika ha sistematicamente sottostimato gli effetti deflazionistici che gli impulsi fiscali restrittivi generano nel corso di una grave crisi. Una BCE dotata di poteri illimitati di intervento sui mercati - al pari della Fed, della BoE e della BoJ - avrebbe 285 evitato sia lo spreco di risorse regalate, con gli eccezionali livelli raggiunti dallo spread, alla rendita finanziaria, sia i sacrifici, enormi quanto evitabili, inflitti successivamente alle popolazioni dalle gravose misure di restrizione fiscale. La “condizionalità” dell’accesso dei governi al prestito dell’ESM alle misure fiscali di austerità prolunga quindi l’incertezza sui destini dei paesi dell’Eurozona. Come si è già messo in luce, il problema di fondo è l’impianto istituzionale dell’Eurozona. Poiché il nuovo fondo salva-stati (European Stability Mechanism: ESM) potrà finanziarsi presso la BCE solo dopo che sarà giunta a compimento l’Unione bancaria, permane il meccanismo perverso secondo cui il debito privato conseguente ai fallimenti bancari si traduce – via salvataggio e/o ricapitalizzazioni – in aggiuntivo debito pubblico che le banche acquistano con i fondi prelevati dalla BCE. Per autorizzare la ricapitalizzazione diretta delle banche in difficoltà da parte dell’ESM è infatti indispensabile il varo della gestione centralizzata della vigilanza, che dovrebbe annullare la porzione del premio richiesto dai mercati sul rischio di default dovuta ad una possibile collusione fra banche ed autorità di vigilanza nazionali. Il varo dell’Unione bancaria, consentendo all’ESM di finanziarsi in misura illimitata presso la BCE e sollevando gli Stati dalla necessità di emettere titoli sovrani per coprire perdite di banche private, offrirà garanzie sufficienti ai mercati a fronte di nuove insolvenze di banche europee. Quanto meno, nella valutazione dei mercati il rischio-paese non sarà più gravato dalla reciproca esposizione delle banche e dei governi all’altrui rischio di insolvenza. Finché l’Unione bancaria non diventerà operativa, per rafforzare la credibilità della proclamata garanzia sulla solvibilità dei debiti sovrani la BCE ha come sola opzione il ricorso agli annunci. Si ricorderà l’annuncio di Draghi sulla difesa ad oltranza dell’Eurozona dagli attacchi della speculazione: “Believe me, the ECB will do whatever it takes…”. Nel frattempo, di fronte agli attacchi speculativi ai paesi periferici che hanno fatto sorgere dubbi sulla stessa sopravvivenza dell’Euro, la stabilità macroeconomica è divenuta prerogativa esclusiva dell’Ecofin. Nel prossimo paragrafo, si valuterà la strategia scelta dal 286 consesso dei ministri dell’economia dei governi nell’UME, sotto la guida della Germania, per combattere la crisi di credibilità dell’Eurozona. 4. La politica dell’”austerità” ed il debito pubblico sul PIL L’accumulazione di un elevato rapporto fra lo stock di debito pubblico ed il PIL, una volta escluso che si faccia ricorso al finanziamento monetario del Tesoro, è derivato dall’esigenza di coprire i deficit primari annuali ed una crescente spesa per interessi. In questo quadro, più alto è il tasso di interesse nominale e più basso il tasso di crescita del reddito nominale, più alto dovrà essere il surplus primario che stabilizza il rapporto debito pubblico/PIL (vedi BOX 1). L’aumento del premio di rischio sul debito pubblico dei paesi periferici riflette appunto la valutazione dei mercati di un peggioramento della sostenibilità fiscale, dopo che il tasso di crescita è calato molto al di sotto del tasso di interesse, con la conseguenza che per stabilizzare il debito pubblico i governi debbono programmare un più ampio surplus primario per gli anni futuri. Il nuovo strumento di controllo sulle finanze pubbliche nazionali, il Fiscal Compact varato nel 2012, oltre a imporre un deficit strutturale non eccedente lo 0,5% (1% per i paesi con rapporto debito/PIL inferiore al 60%), stabilisce che in 20 anni i paesi dell’Eurozona debbano completare il rimborso di tutto il debito pubblico in rapporto al PIL in eccesso rispetto al 60% . Ciò comporta una programmazione di surplus di bilancio - per venti periodi futuri - di ampiezza direttamente proporzionale al livello del rapporto debito/PIL rispetto del vincolo del 60%. L’ampiezza dei surplus annui da realizzare è particolarmente gravosa per i paesi della Periferia: i rapporti debito/PIL, notevolmente aumentati fra il 2007 ed il 2011 a causa della crisi (vedi Figura 4) vedono a fine 2012 quattro paesi al di sopra del 100% del PIL: Grecia (152,6%), Italia (127,3%), Portogallo (120,3%), Irlanda (117%) (dati Eurostat). L’aspetto paradossale del Fiscal Compact è di essere una istituzione di governance macroeconomica finalizzata a vigilare sui governi di un’area valutaria che presenta 287 rispetto alle altre - il più basso rapporto di debito pubblico sul PIL. Secondo il computo dell’OECD, l’Eurozona, prima della crisi finanziaria (2007), si collocava al 77% e a fine 2012 al 79%; mentre gli Stati Uniti sono passati nello stesso periodo dal 67% all’86% (senza contabilizzare il debito delle agenzie governative), il Regno Unito dal 58% al 107%, ed il Giappone dal 166% al 169%. Consideriamo le due visioni dell’impatto atteso dall’”austerità” sull’andamento del PIL. La prima, assimilabile alla prospettiva keynesiana, ritiene inevitabile che la ricerca del pareggio di bilancio attraverso impulsi di restrizione fiscale comporti un calo del reddito. La seconda, la tesi degli “effetti non-keynesiani”, riflette l’analisi macroeconomica della Nuova Economia Classica (NCE), ma anche quella dei modelli neo-keynesiani DSGE che condividono molte ipotesi con i modelli della NCE. Questa modellistica sostiene che il consolidamento fiscale induce un effetto espansivo sull’output: il ridimensionamento dell’intervento pubblico indurrebbe infatti soggetti razionali ad accrescere la domanda di consumo intertemporale, dando quindi impulso alla crescita. Infatti, di fronte ad un abbassamento permanente della spesa pubblica che i soggetti giudichino credibile, l’aspettativa di riduzione delle tasse fa sì che essi si attendano un incremento del proprio reddito disponibile, il che li indurrebbe ad aumentare il consumo (Giavazzi e Pagano, 1990). Pertanto, una restrizione fiscale di tipo strutturale che portasse ad un ridimensionamento della spesa sociale (ad esempio, una riforma pensionistica che fa scendere stabilmente questa voce della spesa pubblica) sortirebbe l’effetto di cambiare il segno del moltiplicatore del reddito – da negativo, come accade nel modello keynesiano – a positivo. Va ricordato che l’ipotesi degli “effetti non-keynesiani” della politica fiscale (Giavazzi e Pagano, 1990; Alesina et al., 2012; Alesina e Ardagna, 2013), è stata più enunciata che verificata. Recenti stime econometriche (Guajardo, 2011; Perotti, 2011) hanno confermato le conclusioni da tempo note riguardo ai limiti teorici e metodologici di tale ipotesi (Farina e Tamborini, 2002). Deboli effetti espansivi sono stati rilevati in piccole economie aperte (Danimarca, Irlanda, Svezia e Finlandia), ma 288 solo in concomitanza con episodi di deprezzamento del cambio (Barrios et al, 2011). A generare gli effetti espansivi sull’output è stata quindi la domanda estera, non i tagli di bilancio pubblico. Ciononostante, l’influenza intellettuale di questo approccio teorico sulla Commissione Europea è stata costante. Di fatto, il Patto di Stabilità e Crescita (PSC) - che è stato in vigore dal 1997, poi rivisto nel 2005, fino alla sua sostituzione con i vincoli ancora più stringenti del Fiscal Compact - si è configurato come l’applicazione dell’ipotesi degli “effetti non-keynesiani” alla politica fiscale nell’unione monetaria, in quanto prometteva che il ridimensionamento del bilancio pubblico avrebbe dato impulso alla ripresa del PIL . ____________________________________________________________________ BOX 1. Politica di bilancio e sostenibilità fiscale Esprimiamo il vincolo del bilancio pubblico nel periodo t con l’equazione: (1) Bt = (1 + it )Bt −1 − (Tt − Gt ) − (M t − M t −1 ) Essa indica che la variazione del debito pubblico (nel periodo t rispetto al periodo t-1) sarà positiva se lo stock di debito ereditato dal periodo precedente comprensivo della spesa per gli interessi su tale ammontare di debito - non sarà eguagliato dalla somma algebrica fra la differenza fra spesa pubblica ed entrate fiscali e la variazione della quantità di moneta. Eliminando la notazione di tempo ed annullando il finanziamento in moneta (abolito nel corso degli ultimi decenni nelle economie avanzate), risulta che la variazione del debito sarà positiva o negativa a seconda che la somma algebrica fra saldo primario (G – T) e spesa per interessi (iB) sia positiva o negativa: ∆B = G − T + iB (2) Per normalizzare le poste della finanza pubblica fra paesi di dimensioni diverse, e quindi di diversa ampiezza assoluta del PIL, si suole considerare deficit e debito pubblico come percentuali del PIL. Deriviamo totalmente B/Y, ottenendo: (3) B B 1 d = dB + − 2 dY Y Y Y il che equivale ad esprimere il lato destro della (4.7), una volta annullato il finanziamento in moneta, in termini di differenze: 289 (4) B ∆B B ∆Y ∆ = − Y Y Y Y Ponendo b=B/Y e g=DY/Y, si ottiene: (5) ∆b = ∆B − bg Y Sostituendo la (2) nella (5) si ottiene: (6) = ∆b G − T + iB − bg Y Ponendo g=G/Y e t=T/Y, si ricava: ∆b = g − τ + (i − g )b (7) Ponendo g - t = v (surplus/PIL), l’azzeramento della crescita del rapporto debito pubblico/PIL (∆b = 0) si realizza allorché nel saldo di bilancio si registra un surplus - indichiamo questa grandezza con v’ - il cui valore eguaglia il prodotto fra la somma algebrica di tasso di interesse nominale (i) e tasso di crescita del PIL nominale (g), e lo stock di debito pubblico in rapporto al PIL (b): (8) v ‘ = (i – g) b La condizione affinché sia fermata l’ulteriore accumulazione di debito in rapporto al PIL è dunque che la formazione di surplus di bilancio sia tale da eguagliare la differenza fra il tasso di interesse e il tasso di crescita del reddito moltiplicata per il rapporto debito pubblico/PIL. Una politica di restrizione fiscale – la cosiddetta “austerità” - influenza il surplus di bilancio pubblico che stabilizza il rapporto debito/PIL per due vie: 1) attraverso la derivata δ g / δ d (la variazione indotta nel tasso di crescita g) ; 2) attraverso la derivata δ b / δ d (la variazione indotta nel rapporto debito/PIL) . Si analizzeranno ora gli effetti di una politica di “austerità” studiando la derivata del surplus/PIL che stabilizza il debito/PIL rispetto al deficit/PIL ( δ v’ / δ d ). ∂ν t ' ∂g ∂b = − t bt + t ( it − gt ) ∂dt ∂dt ∂dt (9) Quale che sia la prospettiva interpretativa - keynesiana o neo-classica - si può ritenere che inizialmente il reddito non potrà non risentire di un impulso fiscale restrittivo, cosicché ad una discesa del deficit al denominatore conseguirà una discesa del PIL al numeratore. Si deve perciò presumere che il primo termine di questa derivata – dato il segno meno davanti al valore positivo del moltiplicatore – sia inizialmente negativo. Per quanto riguarda il secondo termine della derivata, è opportuna una valutazione empirica relativa ai paesi periferici, in quanto è ad essi che è in primo luogo richiesta la manovra di restrizione fiscale. Consideriamo a tale scopo l’identità 290 che lega fra loro i valori del rapporto debito pubblico/PIL (b) in due periodi diversi attraverso il deficit pubblico sul PIL ( d): (10) b = d + bt-1 (Yt-1 / Y t ) Si è visto che il tasso di crescita g , che può essere scritto come: [ ( Yt-1 / Y t) – 1 ] , è legato positivamente al rapporto deficit pubblico /PIL. Si dimostra (Maurer, 2012) che la derivata del surplus che stabilizza il debito pubblico sul PIL (v’) rispetto al rapporto deficit pubblico/PIL (dt) presenta questa relazione con il tasso di crescita g e con il rapporto debito / PIL della (10): ∂ν t ' ∂g t 1 = 1 − bt −1 ∂d t ∂d t (1 + g t )2 (11) Anche approssimando ad 1 il valore di (1+gt)2 , un’ipotesi che favorisce un segno positivo nella derivata δ b / δ d), è probabile che una politica di austerità - di riduzione del deficit/PIL con l’obiettivo di ridurre il debito e porre un calmiere sullo spread - sia destinata all’insuccesso. Infatti, la derivata del debito rispetto al deficit è negativa se si determinano due condizioni: 1) il debito/PIL ereditato dall’anno precedente è al di sopra del 100% 2) il moltiplicatore fiscale δ g / δ d è non inferiore ad 1. La prima condizione riflette la situazione di tutti i paesi periferici dell’Eurozona, nei quali il debito pubblico supera il 100% del PIL. La seconda condizione è di difficile valutazione, dal momento che le stime econometriche condotte in base al modello keynesiano tendono ad indicare un valore del moltiplicatore fiscale certamente superiore ad 1 (fino a poco superiore a 2 in presenza di politica monetaria espansiva) mentre quelle condotte in base al modello neoclassico rilevano di norma valori fra 0 ed 1. Si approfondirà la questione con un’analisi del lungo periodo, considerando per semplicità, ma senza perdita di generalità, due soli periodi: (12) bt+1 = d t+1 + d t (Yt / Y t+1 ) + b t-1 (Yt-1 / Y t) (Yt / Y t+1 ) Nell’ipotesi che il governo annunci una riduzione del deficit che sia permanente nel tempo (d t+1 = d t ) - e che tale annuncio sia credibile – si perviene alla seguente equazione della derivata del rapporto debito / PIL nel periodo t+1 in relazione al rapporto deficit / PIL del periodo t: (13) δ bt+1 / δ dt = 2 – (dt + 2 bt-1 ) (δ gt / δ dt ) Affinché la derivata δ bt+1 / δ dt sia positiva, e quindi l’impulso fiscale restrittivo abbia successo nell’abbassare il debito pubblico sul PIL, nella (13) il termine (dt + 2 bt-1 ) (δ gt / δ dt ) dovrebbe essere inferiore a 2. Nell’ipotesi che il moltiplicatore fiscale non sia inferiore ad 1 (l’ipotesi keynesiana), il valore 2 per il quale è moltiplicato il debito pubblico sul PIL rende cruciale il verificarsi della condizione di b >100%. Dato che questa condizione è ampiamente soddisfatta dai paesi periferici, è probabile che il termine (dt + 2 bt-1 ) (δ gt / δ dt ) sia maggiore di 2. Pertanto, l’impulso fiscale restrittivo, provocando una discesa pronunciata dell’output, nel lungo periodo finisce per aumentare – invece che diminuire - il debito pubblico in rapporto al PIL. 291 Tornando all’equazione (9), si perviene alla seguente conclusione: se il differenziale fra tasso di interesse e tasso di crescita è positivo (condizione ampiamente soddisfatta nei paesi periferici), dato che entrambi i due termini sul lato sinistro sono negativi, la derivata del surplus/PIL che stabilizza il debito/PIL (v’) rispetto al deficit/PIL : ( δ v’ / δ d ) assume valore negativo. Se dunque in un paese periferico l’”austerità” è destinata a causare un incremento del surplus necessario ad impedire un’ulteriore accumulazione del debito pubblico in rapporto al PIL, i mercati si chiedono dove il governo troverà le aggiuntive entrate fiscali o dove riuscirà a tagliare la spesa pubblica. ____________________________________________________________________ In letteratura, la maggior parte delle verifiche econometriche sono condotte mediante modelli neo-keynesiani DSGE, che alle rigidità nominali dei modelli neokeynesiani affiancano molte ipotesi neo-classiche favorevoli al verificarsi degli “effetti non-keynesiani”. Nelle simulazioni su questi modelli, tale risultato non trova però conferma. Dall’analisi economica sviluppata nel BOX 1 risulta piuttosto che per la Periferia dell’Eurozona vale l’esito affermato dalla prospettiva keynesiana. In altre parole, una restrizione fiscale aumenta il surplus di bilancio necessario a stabilizzare il rapporto debito pubblico / PIL. In un paese periferico l’”austerità” è destinata a causare un incremento del surplus necessario ad impedire un’ulteriore accumulazione del debito pubblico in rapporto al PIL. I mercati si chiedono: riuscirà il governo a tagliare la spesa pubblica? Se non ci riesce, dove troverà le aggiuntive entrate fiscali? Il vero discrimine fra la prospettiva teorica ortodossa e quella keynesiana si coglie nei modelli con eterogeneità fra i soggetti, dove la principale fonte di eterogeneità è rappresentata dalla disparità di reddito. Affinché si realizzi il risultato keynesiano – il segno positivo del moltiplicatore fiscale - è sufficiente abbandonare l’ipotesi di mercati finanziari perfetti - che livellano redditi e piani di consumo intertemporale di tutti i soggetti in virtù dell’apertura di linee di credito illimitate da parte delle banche – e tenere conto del fatto che una quota di popolazione è soggetta a “vincolo di liquidità”. 292 Il ruolo cruciale che il “vincolo di liquidità” riveste per il determinarsi del risultato keynesiano rappresenta la cartina di tornasole dell’importanza della diseguaglianza di reddito nella determinazione dell’equilibrio macroeconomico. Un impulso fiscale espansivo agisce sia sul livello che nell’alleviare le conseguenze di una distribuzione del reddito sperequata sul livello di benessere dei soggetti a basso reddito. Una volta che, per effetto dell’espansione fiscale, un incremento del reddito corrente (la variabile indipendente della funzione del consumo, secondo l’originaria formulazione di Keynes) abbia liberato i soggetti dal “vincolo di liquidità”, ai tagli ai piani di consumo cui tali soggetti erano stati costretti subentra l’incremento delle decisioni di spesa. Come si è accennato nel punto 3, in Europa gli stimoli fiscali si sono troppo precocemente esauriti. Dopo le timide manovre fiscali di sostegno all’economia seguite allo scoppio della crisi finanziaria, i governi hanno dovuto sottostare all’obbligo di continue manovre restrittive per ridurre il deficit complessivo (primario e secondario) fino al pareggio di bilancio, nonostante i loro paesi non fossero affatto usciti dalla fase recessiva. L’”austerità” però non riduce ma aumenta il rapporto debito pubblico/PIL, in quanto la restrizioni fiscali hanno l’effetto di deprimere il reddito (vedi il BOX 1). E’ allora probabile che il principale fattore che fa temere agli investitori il default degli Stati non sia tanto rappresentato da un alto debito pubblico quanto dall’impulso negativo che l’austerità determina sulla crescita. La restrizione fiscale imposta ai paesi periferici, riducendo il livello del reddito, fa lievitare il tasso di interesse (per la richiesta di un più alto premio per il rischio sul debito pubblico rispetto a quello, pari a zero, sul Bund tedesco), che a sua volta fa aumentare il surplus necessario a stabilizzare il debito pubblico. L’obiettivo perseguito dall’austerità, ovvero mettere un freno all’accumulazione di debito e recuperare la sostenibilità fiscale, è destinato ad auto-distruggersi. Come si vedrà nel prossimo paragrafo, l’“austerità” si rivelata essere self-defeating, perché le manovre di restrizione fiscale hanno determinato una perdita di output tale da fare aumentare – invece che diminuire - il rapporto debito pubblico / PIL. 293 5. Gli effetti deflazionistici della politica dell’“austerità” Si è provato a misurare l’impatto sulla crescita della politica di austerità imposta ai paesi dell’Eurozona. . Nella Figura 5, per ciascun paese dell’Eurozona, il tasso di crescita del PIL (asse verticale) è messo in relazione con l’“austerità” rispetto al PIL (asse orizzontale). La variabile indipendente consiste nell’indicatore dell’”austerità”, misurata come differenza fra l’effettiva variazione del saldo di bilancio pubblico e il valore che tale saldo “avrebbe dovuto assumere” in base ai valori della quota della tassazione sul PIL e del tasso di crescita “normali” dell’Eurozona, L’ipotesi è che l’impulso fiscale restrittivo induce una caduta del PIL, con la conseguente diminuzione delle entrate fiscali. Per calcolare il valore simulato si è moltiplicata la variazione della crescita del PIL, in quattro bienni fra il 2007 e il 2012, al netto del valore medio di lungo periodo del tasso di crescita (2% annuo, quindi 4% su due anni) per il valore medio della tassazione Europea (0.45%). La variabile dipendente adottata è il tasso di crescita di lungo periodo riferito all’aggregato dell’Eurozona. Come si vede dalle regressioni, in tutto il periodo successivo alla crisi finanziaria, l’impatto dell’austerità sulla crescita è negativo. In particolare, il moltiplicatore è quasi pari ad 1 nel 2007-09 e raggiunge il valore più alto (1,43) nel biennio 2009-11, allorché le misure di restrizione fiscale imposte ai paesi periferici hanno finito per bloccare la ripresa della crescita dopo il primo crollo del PIL nel 2009. Figura 5. Tasso di crescita del PIL (asse verticale) e “austerità” / PIL (asse orizzontale) nell’Eurozona (2007-2012) 294 20 2007-9 10 2008-10 15 5 10 5 0 -20 0 -15 -10 -5 -5 0 -15 -10 -5 0 5 5 10 15 -5 -10 -10 -15 -20 20 -15 20 2009-11 15 15 10 10 5 5 0 -10 -5 0 5 10 15 2010-12 0 -15 -10 -5 0 -5 -5 -10 -10 -15 -15 5 10 15 20 25 Il risultato di austerità self-defeating illustrato dalla Figura 5 è compatibile con vari “paradossi” descritti in letteratura, ciascuno riconducibile a diverse ipotesi sull’inclinazione delle rette di offerta e domanda aggregata (il modello AS-AD). Keynes introdusse il “paradosso della parsimonia”: quanto più si risparmia, tanto più il risparmio declina a causa della discesa del reddito da cui viene a formarsi. La necessità di accrescere il risparmio per fare fronte ad un abbassamento atteso dei redditi futuri (o al ripianamento di debiti accumulati) ha l’effetto di ridurre il reddito se le imprese prevedono una domanda aggregata in calo. Un secondo paradosso discende dall’”effetto Fisher”: il deleveraging attuato per fare fronte alla crisi sortisce effetti negativi sulla domanda. Il deleveraging, invece di migliorare le condizioni di liquidità dei soggetti, provoca una deflazione 295 che ha l’effetto di aumentare il valore del debito, che a sua volta costringe famiglie e imprese ad una spirale di continui tagli di spesa. Il terzo paradosso prende il nome di “paradosso della fatica” (Eggertsson, 2010a e 2010b). La contrazione della componente pubblica dei redditi delle famiglie determinata dal ridimensionamento dei trasferimenti monetari e/o dei servizi pubblici gratuiti goduti – induce la forza lavoro ad aumentare le ore di lavoro offerte. Per quanto l’aggregato dei lavoratori si sforzi di ridurre il livello di disoccupazione con un aumento dell’offerta di lavoro a salario invariato, la flessibilità verso il basso di salari e prezzi innesca un processo deflattivo. L’aumento dell’offerta di lavoro resta puramente nozionale, poiché la domanda aggregata e quindi il livello di attività economica si riducono, vanificando il miglioramento delle condizioni di costo del lavoro ottenuto dalle imprese (Eggertsson e Krugman, 2010). Questi luoghi teorici sono poco praticati dal cosiddetto “Brussels – Frankfurt consensus”, le tesi di molti economisti delle due principali istituzioni Europee (Commissione Europea e BCE) ispirate alla teoria economica ortodossa. Un influente approccio alla crisi dell’Eurozona elaborato dalla Commissione Europea vuole che tanto più è alta la credibilità del programma di consolidamento fiscale e l’impegno del governo nell’attuarlo, tanto più i paesi in difficoltà per l’innalzamento dello spread potranno limitare le riforme strutturali di aggiustamento reale dell’economia (Buti, Roeger e Turrini, 2009). Di fatto, si propone ai governi un tradeoff, un più rapido consolidamento fiscale in cambio di un’ampiezza più contenuta della deflazione di salari e prezzi. Se i governi fanno mostra di non accettare tale scambio, resistendo ad un rapido consolidamento fiscale, Bruxelles potrebbe fare ricorso ad una strategia di “complementarietà”: il consolidamento verrebbe comunque imposto, sotto il ricatto della sospensione degli aiuti finanziari. In aggiunta, allo scopo di accelerare la deflazione, andrebbero anche imposti interventi di flessibilizzazione del mercato del lavoro. Ex post, possiamo dire che questo scenario teorico ha rappresentato il copione per il dramma che è andato in scena nel 2011-12 e che i greci hanno sperimentato 296 sulla propria pelle dopo l’aspro contenzioso che ha visto la Grecia sottomettersi a poco a poco ai diktat emessi dalla signora Merkel, con la Commissione Europea e l’EFSF nel ruolo di esecutori. Suona in effetti come una beffa la “svolta” della Commissione Europea, che di fronte all’evidente impatto recessivo dell’austerità ed alle pressioni di Hollande ha autorizzato una proroga per Francia e Spagna – ma non per l’Italia, che pure era stata la prima della classe nel portare al di sotto del 3% il rapporto deficit pubblico /PIL – nel raggiungimento del pareggio di bilancio. L’impostazione che il “Brussels – Frankfurt consensus” dà al problema del riequilibrio dei conti pubblici non tiene conto di un problema di breve periodo e di uno di lungo periodo. Il problema di lungo periodo è che la riduzione della spesa pubblica consiste sostanzialmente nel ridimensionamento dei trasferimenti e delle tutele del Welfare, dimenticando che il ritorno dei paesi della Periferia su un sentiero di crescita e di convergenza economica di lungo periodo è incompatibile con l’ingente costo sociale di riforme strutturali che si sostanziano in tagli alla sanità e all’istruzione. Nel lungo periodo, la diseguaglianza inter-regionale di reddito è infatti fortemente correlata con la diseguaglianza di opportunità di popolazioni residenti in aree con diverso grado di sviluppo, il che a sua volta presenta una serie di interrelazioni con la diseguaglianza interpersonale di reddito (Wilkinson e Pickett, 2009; Aghion e Cage, 2011). Il problema di breve periodo è che sia il taglio del deficit pubblico realizzato con la riduzione della spesa pubblica e l’aumento delle tasse, sia il taglio dei costi di produzione realizzato con l’abbassamento del salario ed i licenziamenti, esercitano un effetto depressivo sulla domanda. Una strategia di rientro da un alto debito pubblico deve tenere conto del fatto che quando il tasso di crescita si trova al di sotto del tasso di interesse – come accade ormai da anni nell’Eurozona - il surplus generato dai governi (attraverso consolidamenti fiscali che richiedono grandi sacrifici per i cittadini) si rivela fatalmente insufficiente a causa della concomitante caduta dell’output e quindi delle entrate fiscali. La questione del moltiplicatore fiscale non si esaurisce tuttavia nel dibattito teorico sulle relazioni analitiche che presiedono alla variazione dell’output dopo un 297 impulso espansivo o restrittivo di politica fiscale. C’è anche la questione delle ipotesi che presiedono ai modelli economici utilizzati nell’analisi previsionale delle principali istituzioni internazionali di analisi macroeconomica, che risentono del’influenza intellettuale del pensiero economico dominante. Non è stato ad esempio adeguatamente sottolineato che il Fondo Monetario Internazionale (FMI) – nell’ambito della troika formata con la Commissione Europea e la BCE – ha potuto obbligare i governi dei paesi periferici a misure fiscali fortemente restrittive proprio sulla base di una valutazione dei loro effetti in termini di produzione ed occupazione perdute che è risultata ex post largamente sottostimata. In un recente lavoro (Blanchard e Leigh, 2013), Olivier Blanchard, l’economista capo del FMI, ha riconosciuto che l’effetto negativo che il moltiplicatore fiscale ha esercitato sul reddito si è rivelato durante la crisi molto superiore a quanto la teoria economica e le analisi econometriche avevano indotto a credere. L’utilizzo di parametri sottostimati nella previsione dell’impatto sul reddito dell’”austerità” ha determinato un significativo errore di misurazione rispetto all’effettiva caduta del PIL (l’errore per difetto è stato di - 1,2 nel caso del FMI e di 0,4 nel caso dell’OECD) (IMF, 2012). Che la distorsione verso il basso delle previsioni sull’impatto dell’”austerità” sia la conseguenza dei modelli teorici utilizzati è dunque un dato oggettivo: lo testimonia l’erroneità dei valori dei parametri inseriti nei modelli econometrici. Il vasto consenso sviluppatosi nella teoria macroeconomica attorno alla più recente versione della “sintesi neo-classica” ha orientato i policy-makers ad attribuire autorevolezza assoluta a verifiche empiriche condotte in base a modelli rigorosamente basati sulle ipotesi di aspettative razionali e mercati perfetti. Hanno così acquisito indiscussa reputazione scientifica le tesi secondo le quali l’espansione della spesa pubblica ha un impatto poco rilevante sull’attività economica (Ramey, 2012) e che il valore del moltiplicatore fiscale più elevato sia quello relativo alla tassazione (Alesina et al., 2012). 298 Ben diversi sono i risultati cui pervengono gli studi il cui schema teorico non è ancorato alla “sintesi neo-classica” dominante e le cui stime econometriche tengono conto: 1) della quota di popolazione con “vincolo di liquidità”. Un indizio dell’importanza del “vincolo di liquidità” cui sono soggette le famiglie a basso reddito è l’elevato valore del moltiplicatore negativo - la forte perdita di output ed occupazione - prodotto dalle misure di austerità (Auerbach e Gorodnichenko, 2012). In presenza di tali condizioni, una espansioni quantitativa della liquidità può generare un moltiplicatore del reddito non inferiore ad 1,5 (in alcuni casi superiore a 2) e di valore di norma più alto in relazione alla spesa pubblica che non alle tasse (Coenen et al., 2012a e 2012b). Questa evidenza empirica suggerisce che nella formulazione di piani di consolidamento fiscale si sarebbe dovuto tenere in maggior conto la distribuzione del reddito e che per accrescere l’effetto moltiplicativo degli auspicabili impulsi fiscali espansivi sarebbe opportuno attivare trasferimenti monetari mirati ai soggetti in condizioni di “vincolo di liquidità”. Se si vuole, una minore quota della restrizione del bilancio pubblico a carico della spesa sociale si impone per ragioni di teoria macroeconomica, prima ancora che di equità; 2) delle condizioni del ciclo economico. Il risultato keynesiano di valore positivo ed elevato del moltiplicatore sconfessa le politiche di “condizionalità” imposte dalla troika per invertire il trend di aumento del rapporto debito pubblico / PIL causato dai salvataggi e dalla caduta dell’output. Quando, a partire dal 2009-10, molti governi dell’Eurozona hanno dovuto attuare gli interventi fiscali restrittivi, si sono generati aspettative pessimistiche ed effetti pro-ciclici sul reddito (Creel e Saraceno, 2010). Allo stesso modo, il risultato keynesiano accresce l’importanza di attivare la spesa pubblica. Nelle condizioni macroeconomiche di domanda di consumo particolarmente depressa che oggi caratterizzano le economie avanzate, è molto probabile che ad un impulso fiscale espansivo si associ un moltiplicatore positivo ed elevato (Baum, 2012). 299 3) del grado di “accomodamento” della politica monetaria. Una forte espansione monetaria ad un tasso di interesse nominale vicino allo zero, in assenza di tensioni al rialzo dell’inflazione, genera un moltiplicatore positivo, tanto più elevato quanto più la manovra “accomodante” si prolunga fino a due anni (Christiano et al., 2011). In presenza di una recessione molto grave come quella in corso, probabilmente caratterizzata anche dalla “trappola della liquidità” , la strategia di politica monetaria più appropriata consiste in una decisa azione espansiva diretta a ribaltare le aspettative degli agenti economici. La BCE potrebbe condurre una politica monetaria più aggressiva, mediante un tasso di interesse che non si mantenga di fatto a ¾ di punto al di sopra del livello fissato dalla Fed. Il cambiamenti strutturale risolutivo per generare l’aspettativa di maggiori guadagni e dare un forte stimolo all’attività di investimento, ma precluso ad una banca centrale non sostenuta da un potere sovrano, consisterebbe nell’inserimento di un più alto valore-obiettivo di tasso di inflazione nella “regola di Taylor”, in modo da determinare un eccesso di inflazione attesa rispetto al tasso di inflazione corrente (Eggertsson e Krugman, 2012). 4) dell’impatto espansivo sul PIL esercitato dalla spesa pubblica per investimento. In generale, l’impatto della variazione della spesa pubblica risulta essere superiore a quello della tassazione, il che smentisce la tesi sopra menzionata molto propagandata ma poco verificata - secondo la quale la ripresa della crescita è subordinata alla riduzione dell’intervento pubblico nell’economia, per l’impatto espansivo che una minore tassazione determinerebbe sull’economia reale. In particolare, all’interno della spesa pubblica, la preminenza degli investimenti pubblici nel sostegno dell’attività economica trova conferma in uno studio della Commissione Europea (vedi Tabella 5), che presenta i valori dell’impatto sul PIL dell’Eurozona di un impulso limitato all’area valutaria europea (a sinistra), oppure di un impulso a livello globale (a destra), in presenza di vincoli di liquidità (si considerano le famiglie che non sono soggette a vincolo di collaterale da fornire a garanzia perché l’accesso al credito bancario è loro precluso a priori, a causa di un reddito molto basso) e con vincolo di collaterale (si considerano le famiglie che sono soggette a vincolo di 300 collaterale e quindi non riescono ad accedere al credito bancario) e in presenza di accomodamento monetario da parte della banca centrale. Per i sussidi all’investimento si riscontrano valori del moltiplicatore superiori a 2 (se l’impulso è globale e se sia la politica monetaria che la politica fiscale sono espansive). Gli investimenti pubblici, gli acquisti pubblici e gli stipendi pubblici presentano valori del moltiplicatore molto elevati in relazione ad un impulso globale. Questa rapida ricognizione della vasta letteratura empirica sulla crisi induce a ritenere che, in presenza dei due dati oggettivi del “vincolo di liquidità” e della grave recessione, l’”austerità” dovrebbe lasciare il posto ad un’intonazione ancora più espansiva della politica monetaria e ad una maggiore spesa in investimenti pubblici. L’elevata spinta sul reddito esercitata dalla spesa pubblica in investimenti dimostra quanto miope sia rigorismo di Bruxelles e di Berlino, che hanno respinto la richiesta di mitigare l’impatto sulla crescita delle misure di rientro dagli alti deficit pubblici attraverso l’esclusione delle spese per investimenti dal calcolo del bilancio pubblico (la cosiddetta “regola aurea”). Se poi la politica monetaria della BCE avesse seguito quella della Fed, che all’indomani della crisi finanziaria ha portato fino a zero il tasso di interesse – a fronte dell’0,75 cui ancora permane in Europa - e realizzato programmi di QE ben molto più ampi, la successiva recessione sarebbe probabilmente stata meno pronunciata. I valori del moltiplicatore corrispondenti al più forte impulso alla risalita del PIL sono infatti quelli attivati dagli investimenti pubblici sotto le due condizioni già citate ( cioè realizzati durante una fase di grave recessione e da consumi famigliari “liberati” dal vincolo di liquidità) ma anche in presenza di un tasso di interesse nominale vicino allo zero (Auerbach e Gorodnichenko, 2013). 301 Tabella 5. Moltiplicatori fiscali di un impulso temporaneo (*) Impulso UE Impulso globale senza vincolo con vincolo con esp. senza vincolo con vincolo con esp. di coll. Sussidi all’invest.. di coll. mon. di coll. di coll. mon. 1,52 1,59 2,04 2,00 2,11 0,89 0,91 1,08 1,04 1,08 0,81 1,03 0,94 1,00 2,63 Invest. pubblici 1,24 Acq.pubblici 0,78 1,21 Stipendi pubblici 1,11 Totale trasferimenti 1,26 1,39 1,15 1,34 1,46 0,20 0,41 0,53 0,24 0,51 - 0,67 0,86 - 0,82 0,66 0,69 0,89 0,81 0,86 0,62 Trasferimenti a fam. 1,01 con vincolo. coll. Trasferimenti a fam. 1,05 con vincolo. liq. Tass.lavoro 0,22 0,44 0,55 0,26 0,53 0,64 Tass.cons. 0,40 0,48 0,65 0,49 0,59 0,76 Tass.propr. 0,01 0,12 0,18 0,01 0,16 0,21 Tass.redditi impresa 0,02 0,03 0,04 0,03 0,04 0,05 (*) Impatto di un impulso fiscale temporaneo di un anno sul PIL dell’Eurozona. Fonte: European Commission ( 2010). 302 L’idea che una più aggressiva azione di politica monetaria permetterebbe all’Eurozona di raggiungere e mantenere un più elevato livello di attività economica converge con la tesi spesso sostenuta da Olivier Blanchard.: Per evitare il rischio che la politica monetaria finisca per essere sub-ottimale, e cioè per peggiorare il livello del benessere della popolazione, la monetary stance determinata dai modelli macroeconomici dovrebbe riflettere la resilienza delle istituzioni del mercato del lavoro in Europa (Blanchard e Galì, 2009). In breve, in regime di rigidità nominali, la politica monetaria ottimale deve abbandonare l’inflation targeting e assumere l’obiettivo di un tasso di inflazione non troppo vicino allo zero. In coerenza con tale prospettiva teorica, in lavori precedenti la crisi finanziaria Blanchard suggerì implicitamente che il presupposto per risollevare la domanda aggregata nell’Eurozona con una politica monetaria espansiva di stabilizzazione consiste in un valore-obiettivo del tasso di inflazione più vicino al 4% della Fed che non al 2% della BCE. La tendenza espansiva impressa alla politica monetaria da Fed e BoJ – che da molti mesi accettano l’innalzamento dell’inflazione e manifestano un benign neglect nei confronti della debolezza del tasso di cambio di USD e Yen – risponde all’esigenza di rilanciare la crescita guadagnando quote di mercato estero attraverso un cambio più competitivo. La BCE non pare però orientata ad impedire che il rafforzamento dell’Euro deprima ulteriormente il livello della domanda aggregata nell’Eurozona. Eppure, come si vedrà nel paragrafo successivo, la soluzione del problema della domanda nell’UME è urgente, in quanto si connette strettamente con la questione dello squilibrio macroeconomico esistente all’interno dell’Eurozona, che vede una forte divaricazione fra un eccesso di risparmio nel Centro (essenzialmente in Germania, date le dimensioni della sua economia) ed un deficit di risparmio nella Periferia. Di fronte al rifiuto della Germania ad indirizzare la propria economia verso un aumento della domanda interna - invece di puntare tutto sul traino delle esportazioni - il rilancio della domanda nell’Eurozona sembra essere affidato soprattutto alle politiche monetarie e fiscali comuni. 303 6. Lo squilibrio macroeconomico all’interno dell’Eurozona L’equilibrio macroeconomico complessivo di un sistema economico è sintetizzabile mediante la seguente equazione a tre settori: (S – I) = (G – T) + (X – M) Ogni diseguaglianza fra le variabili all’interno di ciascuno dei tre settori – Risparmi (S) e Investimenti (I) nel settore privato, Spesa pubblica (G) e Tassazione (T) nel settore pubblico, ed Esportazioni (X) ed Importazioni (M) nel settore estero viene a scomparire nella somma algebrica delle varie poste. Ciò vale sia riguardo ai singoli settori all’interno di ciascuna economia, sia nell’annullamento degli squilibri reciproci all’interno di un’area valutaria come l’UME. Se l’equazione fa riferimento all’Eurozona nel suo complesso l’equilibrio macroeconomico che essa individua è un’identità contabile. Figura 6. 140 REER basata sul CLUP relativo 130 120 110 100 90 80 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Belgio Germania Irlanda Grecia Spagna Francia Italia Paesi Bassi Austria Portogallo Finlandia 304 Al netto dell’interscambio dell’Eurozona con il resto del mondo (il cui bilancio non si peraltro mai allontanato troppo dal pareggio), una posizione di squilibrio in surplus in un paese o gruppo di paesi (Centro o Periferia) corrisponde una posizione di squilibrio in deficit in un altro paese o gruppo di paesi (Centro o Periferia). L’Eurozona si presenta oggi fortemente divaricata fra un Centro in surplus ed una Periferia in deficit. Per compensare l’eccesso delle importazioni rispetto alle esportazioni, nella Periferia si renderebbe necessario un deficit di bilancio pubblico (ma i vincoli imposti dal PSC inducono ad escludere tale possibile compensazione) oppure la discesa del risparmio relativamente all’investimento (S < I). Supponendo per semplicità che sia stato già conseguito il pareggio del bilancio pubblico richiesto dal Fiscal Compact: (G = T), l’equilibrio macroeconomico del Centro si può schematicamente rappresentare così: Centro: (S >I) = (X > M) A partire dall’avvio dell’unione monetaria – ed in misura crescente all’indomani della crisi finanziaria - in alcuni paesi del Centro (in primis la Germania, seguita da Austria e Finlandia) si registra un surplus dei risparmi sugli investimenti, cui corrisponde un surplus di bilancia commerciale. Le condizioni finanziarie delle banche dei paesi del Centro-Nord dell’Eurozona (pure essendo banche internazionali, il loro capitale è in maggioranza ancora in mani nazionali) hanno potuto naturalmente giovarsi delle buone performance economiche delle economie “forti” in cui svolgono la maggior parte della propria attività, contribuendo a favorire la formazione dei flussi di capitale che operatori esteri hanno destinato all’acquisto delle esportazioni nette del Centro. L’equilibrio macroeconomico della Periferia si può schematicamente rappresentare così: 305 Periferia: (S < I) = (G > T) + (X < M) I flussi di liquidità provenienti in primo luogo dalle banche del Centro hanno finanziato le passività emesse a copertura dei deficit pubblici (G > T) e di conto corrente (X < M). Il deficit pubblico si è accresciuto in questi anni di crisi, portando tutti i paesi al di sopra del limite del 3% del PIL. La grande Recessione ha invece ridimensionato il disavanzo di conto corrente, accumulatosi in seguito alla rapida espansione delle importazioni (in particolare, in Irlanda, Grecia e Spagna), ed a causa della continua crescita, dal 1999 in poi, del costo del lavoro per unità di prodotto , che misura il tasso di cambio reale effettivo (Real Effective Exchange Rate: REER; vedi Figura 6) rispetto alla media dell’Eurozona. In Grecia e Portogallo (ed in minore misura in Italia), paesi accomunati da una sostanziale stasi della produttività, la dinamica salariale ha finito per causare una progressiva perdita di competitività. Il costo del lavoro per unità di prodotto (relativamente al valore medio dell’Eurozona) si è andato notevolmente accrescendo, seguendo un andamento speculare rispetto alla Germania (ed in minore misura ad Austria e Finlandia) che ha notevolmente penalizzato le esportazioni. L’eccezione è rappresentata dall’Irlanda, che nonostante abbia conosciuto l’aumento della REER più poderoso fra i paesi periferici fino alla disastrosa crisi bancaria, ha conosciuto esportazioni nette positive, anche grazie al vantaggio competitivo garantito dal ricorso alla concorrenza fiscale. La notevole espansione delle esportazioni tedesche è il frutto - oltre che della competitività sul piano della qualità - della moderazione salariale e della buona dinamica della produttività, che hanno permesso un forte recupero della competitività di prezzo rispetto ai primi anni del nuovo millennio. Il conto corrente in rapporto al PIL del Centro, nel quale è naturalmente molto rilevante l’interscambio della Germania, è così stato strutturalmente in surplus, a fronte del deficit della Periferia, in diminuzione in seguito al crollo delle importazioni degli anni più recenti (vedi Figura 7). 306 La semplice contabilità macroeconomica suesposta illustra come la divaricazione che si è aperta all’interno dell’unione monetaria Europea dipenda dalla debole domanda e dalla divergenza reale che si registrano nella Periferia. A minare la coesione economica e sociale all’interno dell’Eurozona, è la crisi della crescita in questi paesi più che dai livelli raggiunti dal debito pubblico. Come è facile desumere dall’equazione dell’equilibrio macroeconomico, affinché un eccesso delle importazioni sulle esportazioni venga annullato è necessario un saldo negativo del bilancio pubblico (G > T) - che i vincoli imposti dal PSC inducono però ad escludere a priori - oppure la discesa del risparmio relativamente all’investimento (S < I). Questa seconda soluzione, che avvierebbe il ripristino dell’equilibrio macroeconomico complessivo all’interno dei paesi della Periferia, è però anch’essa di difficile realizzazione: dovrebbero infatti crescere i consumi, il che è molto improbabile al culmine di una fase recessiva. Banche gravate dalle perdite di valore delle attività finanziarie private e pubbliche detenute in portafoglio, famiglie con redditi calanti, e imprese con fatturato che va a picco, sono infatti state costrette a ricorrere ad un forzato deleveraging. Figura 7. conto corrente/PIL 6 4 2 0 -2 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 -4 centro periferia -6 -8 -10 -12 Fonte: AMECO 307 L’obiettivo di evitare che condizioni di illiquidità degenerino in insolvenze ha dunque fatto sì che il risparmio - invece di calare - si accrescesse, provocando un eccesso del risparmio sull’investimento (S > I) da cui è conseguito una discesa dell’output. Poiché il nuovo equilibrio di sottoccupazione non è stabile, essendo stato ottenuto con la riduzione delle importazioni prodotta dalla discesa del PIL, permane inoltre il rischio di ulteriore caduta del reddito causata dalla perdurante crisi di competitività della Periferia. Quest’analisi implica che non possiamo attenderci che nei paesi della Periferia si determini un’autonoma ripresa della domanda interna: il Fiscal Compact blocca la capacità di spesa in deficit dei governi ed il deleveraging continua a comprimere la domanda privata. Pertanto, una riduzione durevole dello squilibrio macroeconomico fra Centro e Periferia potrà realizzarsi in seguito ad uno dei due seguenti cambiamenti strutturali: 1) un trasferimento di domanda dal Centro alla Periferia, attraverso un decremento e un incremento del risparmio in ciascuna area, rispettivamente; 2) una ancora più drastica deflazione reale nella Periferia, tale da ridurre il divario di competitività con il Centro e riportare a valori positivi il tasso di crescita attraverso l’aumento delle esportazioni. Le due soluzioni non sono equivalenti. Dall’analisi fin qui svolta risulta evidente che i problemi in cui oggi si dibatte l’Eurozona sono stati innescati dall’intreccio fra banche e governi scaturiti dalla crisi finanziaria, ma affondano le loro radici nella mancata convergenza fra Centro e Periferia acuita dalla debole crescita economica. E’ a questo problema che è dedicata l’analisi del paragrafo che segue. 7. Le determinanti della crescita di lungo periodo E’ allarmante il confronto fra le determinanti della crescita economica nell’Unione Europea e negli Stati Uniti (vedi Figura 8). L’avvicinamento del reddito pro capite del gruppo di 15 paesi dell’Unione Europea (e cioè prima degli ultimi allargamenti) a quello degli Stati Uniti, che ebbe 308 luogo dal dopoguerra al 1995, fu l’esito della sostituzione di capitale a lavoro, più che di investimenti innovativi e dell’innalzamento del capitale umano fra gli occupati. Fra 1995 ed il 2005, la netta ripresa della crescita della TFP negli Stati Uniti scaturì dalla combinazione fra gli alti volume di investimento in Information communication technology (ICT), la concentrazione nei settori avanzati di un management ad alto capitale umano che ha promosso investimenti ad alto grado di rischio, e forti guadagni di efficienza nel settore dei servizi (Acemoglu et al., 2006). La crescita della TFP nei paesi dell’UME è stata invece molto più lenta, con valori inferiori di tassi di occupazione (soprattutto della forza lavoro femminile) e numero di ore lavorate (ancora oggi intorno a 1600 ore annue nell’EU-15 contro 1900 negli Stati Uniti). Nel decennio 1995-2005, il distacco fra la crescita dell’UE-15 e quella degli Stati Uniti si è perciò notevolmente ampliato, soprattutto a causa dell’insufficiente dinamica della TFP, in parte causata dalla modesta introduzione di progresso tecnico nei settori utilizzatori delle innovazioni della ICT (van Ark, 2008) Il modello di crescita neo-classico prevede la tendenza delle economie arretrate (a livello iniziale del PIL pro capite relativamente più basso) a conoscere tassi di crescita relativamente più elevati, fino a realizzare il catching-up – il processo di progressivo avvicinamento alle economie più avanzate che all’inizio del periodo presentano un PIL pro capite relativamente più alto. Tale tendenza si esprime nella cosiddetta convergenza beta, il valore negativo del coefficiente che lega il reddito pro capite iniziale dei paesi al tasso di crescita medio del periodo successivo. Nella Figura 9.1, compaiono sull’asse verticale il tasso di crescita medio del periodo 1993-2009 e sull’asse orizzontale il PIL pro capite del 1993 per i paesi che decisero di entrare fin dalla sua costituzione nell’unione monetaria, più i tre paesi dell’Unione Europea che scelsero di rimanerne fuori (Regno Unito, Svezia e Danimarca). Il 1993 è l’anno in cui prende le mosse il processo di unificazione monetaria, sancito dal Trattato di Maastricht, che coincide anche con il completamento del mercato unico; il 2009 è il primo anno della Grande Recessione. 309 Figura 8. Contributo percentuale alla crescita del PIL: Unione Europea (EU15) e Stati Uniti (*) (*)EU15ex = ; USA-SIC (Standard Industrial Classification System, USA) Legenda (dal basso verso l’alto): ore lavorate; composizione del lavoro; capitale dei settori ICT; capitale dei settori non-ICT; PTF. Fonte: Timmer, O’Mahony e van Ark (2007) Affinché l’interpolante tracciata nel grafico potesse riflettere l’avvenuto catching-up dei paesi della Periferia rispetto al Centro - il risultato previsto dal modello di crescita neo-classico – la sua pendenza avrebbe dovuto essere negativa (e quanto più inclinata fosse stata la retta, tanto più avrebbe segnalato un rapido catching-up). La retta di interpolazione si presenta invece pressoché piatta, ad indicare l’assenza di convergenza reale per i paesi che hanno partecipato all’attuazione dei criteri di convergenza nominale concordati a Maastricht. Gli incentivi che mercato unico e moneta unica hanno creato per l’espansione delle forze di mercato non si sono perciò rivelati adeguati a promuovere il catching-up della Periferia. Trova così conferma il giudizio precedentemente espresso: le politiche macroeconomiche realizzate dai paesi dell’Eurozona in base al PSC, e le riforme microeconomiche suggerite dalle guidelines della Commissione Europea, hanno avuto successo nel conseguire la convergenza verso una bassa inflazione, ma la loro 310 intonazione restrittiva ha penalizzato la crescita dell’occupazione e del reddito, in particolare nei paesi periferici meno avanzati. Figura 9.1. Figure 3. Per capita GDP beta convergence in EU 15 (PPP) growth rates 1993-2009 1,4 Ireland 1,2 1 0,6 0,4 0,2 0 Luxembourg Greece Spain Netherlands Finland UK Portugal Sweden Belgium France Austria Denmark Germany Italy 0,8 5 0 10 15 20 25 30 35 per capita GDP 1993 Fonte: Farina (2012) Figura 9.2 Figure 2. Per capita GDP beta convergence in EU 27 (PPP) 2 EE 1,8 RO SK LV PL LT IE BG HU SI CY CZ EL ES NL FI PT UK SEBE MT FR DK AT DE IT 1,6 1,4 1,2 1 0,8 0,6 0,4 0,2 LU 0 0 5 10 15 20 25 30 35 311 Nella Figura 9.2, il quadro cambia radicalmente: l’aggiunta degli altri paesi dell’Unione Europea fa sì che si realizzi il risultato atteso di convergenza economica dalla teoria della crescita di Solow. I paesi dell’”allargamento”, avendo inizialmente valori di reddito pro capite molto inferiori, realizzano il catching-up rispetto alle economie più avanzate. Mentre sui mercati internazionali la competitività delle economie “emergenti” (i BRIC) gode dei benefici del regime dei cambi flessibili vigente fra le principali aree valutarie, i paesi periferici dell’area valutaria Europea dispongono solo dell’”aggiustamento” di mercato, l’abbattimento dei costi di produzione attraverso la riduzione dei salari ed il ridimensionamento della forza lavoro stabilmente occupata. Questo strumento non può essere sufficiente, considerando anche lo scarso impatto dei fondi strutturali e di coesione, a creare le condizioni per la convergenza. Il processo del catching-up intra-UME non ha in effetti beneficiato dell’integrazione finanziaria seguita all’unione monetaria. Il credito a tasso di interesse reale molto basso (o negativo) garantito dalla partecipazione all’Eurozona alle imprese della Periferia non si è tradotto in quella spinta agli investimenti in settori innovativi che avrebbero favorito il restringimento del divario di TFP fra le due aree. L’espansione del credito indotta dall’integrazione finanziaria si è infatti concentrata negli investimenti in settori produttivi arretrati o nella speculazione culminata nello scoppio delle “bolle” immobiliare e finanziaria (Giavazzi e Spaventa, 2011). Una interpretazione completamente opposta della mancata convergenza fra i PIL pro capite dei paesi dell’Eurozona viene proposta dell’ European Economic Advisory Group (EEAG), che fa capo all’istituto di ricerca tedesco di indirizzo “ortodosso” CESifo. L’idea è che all’interno di un’area valutaria europea gli squilibri macroeconomici siano fisiologici: i paesi impegnati nel catching-up - conoscendo tassi di crescita maggiori di quelli dei paesi più avanzati - finiscono necessariamente per trovarsi in deficit commerciale. La più rapida integrazione finanziaria determinatasi dopo il passaggio alla moneta unica avrebbe quindi opportunamente favorito il trasferimento di capitali dal Centro alla Periferia, la cui dotazione di 312 capitale relativamente inferiore garantisce il conseguimento di tassi di rendimento dell’investimento più elevati (Blanchard e Giavazzi, 2002). Il fatto è che tale processo virtuoso, che avrebbe dovuto culminare nel catching-up della Periferia, non si è realizzato, perché i mercati sono perfetti soltanto nei manuali di economia. Come uno dei due suddetti autori ha recentemente riconosciuto nel lavoro appena citato (Giavazzi e Spaventa, 2011), il trasferimento di capitali non ha imboccato la strada degli investimenti in settori innovativi, ma la più facile via della speculazione. Secondo la ricerca dell’EEAG guidata da Sinn, l’economista tedesco che guida la “guerra santa” contro i governi dei paesi periferici (Sinn e Wollmershäuser, 2012), il sistema Target2 è una sorta di finanziamento che la BCE fornisce per il catching-up della Periferia. Nel momento in cui la BCE fa fronte agli squilibri macroeconomici dell’Eurozona fornendo liquidità ad libitum alle banche dei paesi in deficit commerciale, si determina una sorta di crowding-out (un “taglio” dei fondi disponibili) ai danni della Germania. A causa del dirottamento del risparmio verso i paesi periferici, l’economia tedesca avrebbe subito una caduta dell’attività di investimento (EEAG, 2013). Non sussisterebbe poi alcun motivo di invocare un riproporzionamento della domanda fra Centro e Periferia, incentivando una espansione della domanda interna soprattutto in Germania, in quanto con la discesa delle importazioni provocata dalla Grande Recessione gli squilibri macroeconomici si sarebbero di molto ridimensionati. Questa interpretazione non corrisponde ai dati della realtà. In primo luogo, l’analisi dell’EEAG è inficiata dal fatto che i flussi di liquidità di gran lunga più consistenti non sono le partite correnti ma i movimenti di capitali, che sono in gran parte ritornati al Centro dopo il raid speculativo in Sud Europa. In secondo luogo, la prova addotta dall’istituto di ricerca per dimostrare l’esistenza di convergenza reale è inconsistente. Il catching-up che viene misurato nel Rapporto dell’EEAG – mediante l’evidenza empirica di una forte correlazione fra tasso di crescita del PIL pro capite e deficit commerciali - è quello dei paesi dell’Europa Centro-Est nei confronti dei 12 paesi che hanno dato avvio all’UME, non quella dei paesi della Periferia nella loro 313 “rincorsa” dei paesi del Centro. Il buon andamento del catching-up dei paesi CEEC è una di pochi aspetti positivi nell’evoluzione dei redditi pro capite all’interno dell’Unione Europea (Farina, 2012). Esso si pone in netta controtendenza rispetto al fallimento del catching-up della Periferia nei confronti del Centro, illustrato in Figura 9.1. I paesi dell’Eurozona si trovano oggi di fronte ad una impasse nella loro capacità di procedere sulla strada dell’integrazione economica. Al di là della più dura competizione provocata dalla globalizzazione dei mercati e della grave recessione in corso, i principali ostacoli sono rappresentati dall’eterogeneità dei sistemi produttivi eterogenei fra loro, dalla diversità dei problemi di cui soffrono i sistemi bancari (la collusione con le autorità di regolamentazione nel Centro, l’insufficiente capitalizzazione degli istituti bancari in molti paesi della Periferia), dall’assenza delle condizioni per la sostenibilità finanziaria dei debiti sovrani della Periferia. Per fare fronte alla sfida dell’integrazione economica, l’Europa ha scelto l’opzione dell’“integrazione negativa”, con l’abbattimento delle barriere doganali e tariffarie prima e il coordinamento decentrato di mercato poi. I processi di liberalizzazione e deregolamentazione che hanno accompagnato il completamento del mercato unico e la realizzazione della moneta unica, assieme ai crescenti vincoli cui è stato sottoposto l’intervento pubblico, hanno fortemente inciso sulla capacità dei governi di promuovere la convergenza delle economie periferiche meno avanzate. Questi cambiamenti strutturali hanno avuto l’effetto di porre le eterogenee economie dell’Eurozona - che hanno perso gli strumenti della politica monetaria, della manovra del cambio e delle politiche fiscali discrezionali - in una posizione di eguaglianza di fronte alla competizione sui mercati globali. Inoltre, fin dall’avvio dell’unione monetaria, per evitare la “procedura di infrazione” prevista dal PSC allorché il rapporto deficit pubblico/PIL eccede il limite previsto, ad esempio per effetto sia di minori tasse e maggiore spesa sociale al numeratore che di una prolungata dinamica negativa del PIL al denominatore - molti governi hanno dovuto restringere l’operare degli stabilizzatori automatici, con effetti pro-ciclici che hanno 314 inciso sulla crescita. L’Europa degli anni futuri sembra destinata a dover affrontare un drammatico trade-off: l’alternativa fra l’ulteriore restringimento dell’autonomia di politica fiscale previsto dal Fiscal Compact e la difesa dei diritti sociali. Fino al default di Lehmann Brothers nel 2008, sulle due sponde dell’Atlantico esisteva una sorta di specializzazione riguardo allo strumento utilizzato nel perseguire la coesione sociale. Negli Stati Uniti, la coesione sociale è prevalentemente affidata alle politiche macroeconomiche di stabilizzazione, che hanno tenuto alto il tasso di occupazione mentre si andava allargando la diseguaglianza di reddito. Nell’Unione Monetaria Europea, la coesione sociale è prevalentemente affidata allo Stato sociale: le istituzioni del mercato del lavoro (EPL, salario minimo, sussidi di disoccupazione) contengono la sperequazione fra i redditi di mercato, ed il sistema della tassazione e degli altri trasferimenti monetari riducono ulteriormente la diseguaglianza di reddito disponibile rispetto a quella che è stata determinata dal mercato. La capacità di reazione delle economie dell’Eurozona, di fronte ad uno shock esogeno particolarmente grave come la crisi finanziaria del 2007-08, è stata molto limitata Se ne sono analizzati i motivi: la politica poco aggressiva della BCE; i vincoli del PSC che hanno depresso la componente pubblica della domanda aggregata; le drastiche misure di restrizione fiscale imposte dalla troika ad una Periferia in piena recessione. L’”aggiustamento” di mercato attraverso la deflazione di salari e prezzi, avviato in alcuni paesi per fare fronte alla scarsa competitività con l’estero del sistema produttivo, sta aggravando la diseguaglianza fra i redditi di mercato. L’impatto dell’”austerità” sulla capacità di stabilizzazione del reddito delle politiche di bilancio, ha poi anche affievolito la capacità redistributiva dell’intervento pubblico. Il meccanismo di tassazione e trasferimenti monetari oggi recupera in una percentuale inferiore a un decennio fa l’ampliamento che l’aggiustamento di mercato successivo ad uno shock negativo produce nella dispersione fra i redditi guadagnati nel mercato. Dopo che la politica fiscale è stata privata delle manovre discrezionali, 315 che negli Stati Uniti costituiscono invece il fulcro dell’intervento pubblico, l’Eurozona non solo dispone oggi di una capacità di stabilizzazione macroeconomica inferiore degli Stati Uniti ma ha anche perso molto del suo vantaggio sul piano della redistribuzione del reddito. Il progressivo ridimensionamento della spesa sociale ha contribuito alla discesa anche del reddito disponibile famigliare, spingendo una quota non piccola di popolazione a basso reddito al di sotto della soglia di povertà relativa. Le istituzioni della protezione sociale e della redistribuzione tendono così ad avvicinarsi all’approccio anglo-sassone, ovvero al contrasto alle diseguaglianze realizzato attraverso una safety net per l’estrema indigenza. Guardando alla Grecia, forse neppure questo è garantito. Il progetto europeo potrà davvero ripartire quando una struttura istituzionale più solida ed articolata permetterà che all’idea di convergenza spontanea, guidata dalle sole forze di mercato, subentri una strategia di integrazione della Periferia con il Centro. Non ci si può nascondere che la costruzione di nuove politiche pubbliche comuni - per contrastare la recessione economica e l’aumento delle diseguaglianze - è oggi bloccata dalle prossime elezioni politiche nello Stato-nazione leader dell’Eurozona. Una volta superato questo ostacolo, è auspicabile che si creino le condizioni per una maggiore cooperazione fra Centro e Periferia. In questa prospettiva, non sembra più a lungo procrastinabile l’esigenza di affiancare al Fiscal Compact – il cui primo obiettivo è il coordinamento delle politiche fiscali diretto a “rassicurare” i mercati – l’avvio dell’Unione Fiscale. Le politiche pubbliche comuni potranno così essere finanziate attraverso l’emissione di debito pubblico con la mutua garanzia di tutti i paesi; e dovrà anche essere rivista, dopo la bocciatura del Parlamento Europeo, la recente miope scelta di restringere un bilancio centrale di dimensioni già troppo esigue. Sarebbe ingenuo aspettarsi in tempi brevi un unanime accordo per un’Unione Fiscale dove le principali voci di entrata e di spesa vengano trasferite a livello centrale. Il principale ostacolo è costituito dal timore della Germania (ma anche dei paesi nordici e del Regno Unito) che un tale rafforzamento delle politiche pubbliche europee finisca per affidare il superamento 316 degli shock permanenti - il catching-up da parte dei paesi meno avanzati – ad una strategia di “aiuti di Stato” organizzata a Bruxelles, che verrebbe a sostituirsi all’autonome forze di mercato. Quale che sia il giudizio sulla necessità di politiche di sviluppo delle aree arretrate più incisive di quelle attuate con i Fondi Strutturali e di Coesione, è evidente che i divari di efficienza economica all’interno dell’Eurozona sono un impedimento di ordine politico, prima ancora che economico -difficilmente superabile. Dalla piena centralizzazione delle tre funzioni dell’intervento pubblico (di stabilizzazione del reddito, redistributiva e allocativa) scaturirebbe infatti un flusso continuo di ridistribuzione dei redditi dal Centro alla Periferia, la cosiddetta “Transfer Union” paventata dalla Germania. Una nuova stagione dell’integrazione europea può più realisticamente prendere le mosse da un inizio di Unione Fiscale che varasse un meccanismo di mutual risk-sharing - una mutua assicurazione contro i rischi macroeconomici finanziata con una tassa comune. L’obiettivo di politica economica dovrebbe essere duplice: 1) generare trasferimenti diretti al livellamento del PIL nei paesi il cui tasso di crescita annuale si sia collocato al di sotto della media dell’Eurozona. In tal modo, si contrasterebbe il pericolo che una grave caduta del reddito al di sotto del livello potenziale, come quella sperimentata dopo la crisi finanziaria, possa allargare il distacco della Periferia rispetto al Centro, con il concreto rischio di provocare la fine dell’area valutaria comune; 2) creare uno schema europeo di salario minimo garantito, per impedire che una fase di alta disoccupazione, soprattutto giovanile, allarghi ulteriormente le diseguaglianze e provochi la caduta di molti redditi al di sotto della soglia di povertà relativa (misurata, in ciascun paese, con il reddito famigliare al di sotto del 50% del reddito mediano). Il passo successivo sulla strada dell’Unione Fiscale dovrebbe puntare ad una politica di bilancio europea finanziata con una percentuale di tassazione sul PIL ben superiore all’attuale 1% circa del PIL dell’Unione Europea. Le politiche di allocazione delle risorse andrebbero ripristinate al livello sovra-nazionale. I governi 317 nazionali hanno infatti dovuto progressivamente rinunciare alle politiche di investimento, una volta che il coordinamento delle politiche di bilancio regolato dal PSC li ha costretti all’abbandono delle manovre discrezionali. Una governance macroeconomica sovra-nazionale rivolta alla produzione di infrastrutture comuni potrebbe promuovere, mediante le economie di scala, l’indispensabile incremento della produttività totale dei fattori. La caratteristica dei beni pubblici di generare una diffusione dei benefici non influenzata dalle disparità di reddito garantirebbe poi che alla ripresa della crescita del PIL non si accompagni un peggioramento della divergenza reale della Periferia, ma uno sviluppo più equilibrato del benessere fra le diverse aree. Nel dibattito economico di questi anni figura il tema dei beni comuni. Questa tipologia di beni si differenzia da quella dei beni pubblici in quanto ne condivide la caratteristica di non-escludibilità dal consumo ma è altresì soggetta al problema della rivalità nel consumo (a differenza dei beni pubblici, il consumo del bene comune da parte di un soggetto ne riduce la quantità disponibile per tutti gli altri). La “tragedia dei commons” consiste nell’eccessivo consumo che finisce per far deperire il bene comune - un pascolo su cui non cresce più l’erba o un mare la cui fauna si è estinta una volta che non si provveda alla regolamentazione del suo utilizzo. Volendo declinare il concetto di bene comune in termini macroeconomici, si potrebbe dire che gli Stati dell’Eurozona rischiano di distruggere il “bene comune” Euro. Come si è argomentato, nella fase iniziale tutti i paesi hanno goduto dei benefici dell’unione monetaria, in primo luogo la fine del rischio di cambio per le imprese e la drastica riduzione dei tassi di interesse. Con il successivo ampliarsi dello squilibrio macroeconomico - con il Centro in surplus commerciale e la Periferia in deficit commerciale - le cose sono cambiate. L’aggiustamento reale che ha permesso il salvataggio dell’Euro da una possibile scomparsa dopo la crisi finanziaria è finora ricaduto totalmente sulla Periferia. La Germania, il paese che con la fine degli aggiustamenti del cambio nominale ha tratto grande spinta alle proprie esportazioni 318 attraverso il deprezzamento reale, si fatta paladina della politica dell’austerità. Tutti i paesi periferici, seppure in diversa misura, si trovano oggi in piena deflazione reale per gli effetti perversi di tale politica: il ripetersi di valori negativi del tasso di crescita del PIL e la riduzione di salario e occupazione. Nel punto 7, si è osservato come una strategia cooperativa per il superamento dello squilibrio macroeconomico intra-UME consisterebbe in un incremento di domanda nel Centro, in particolare modo nel paese di maggiori dimensioni e con il più alto rapporto surplus commerciale/PIL. Se infatti la BCE continua a mantenere l’obiettivo di inflazione intorno al 2%, ad una Periferia con un’inflazione che l’austerità ha fatto scendere al di sotto del 2% dovrebbe corrispondere un Centro con un’inflazione superiore al 2%. Un aggiustamento simmetrico all’interno dell’Eurozona richiederebbe quindi che la Germania facesse la sua parte, con una crescita della domanda interna cui conseguirebbe un tasso di inflazione superiore al 2%. Nel frattempo, però, la recessione sta producendo il riassorbimento dello squilibrio macroeconomico fra Periferia e Centro, in quanto la diminuzione delle importazioni della Periferia ne riduce il deficit commerciale con il Centro. Ciò dà motivo alla Germania di evitare di accollarsi la sua parte dell’aggiustamento, attraverso quell’espansione della domanda interna che consentirebbe alla Periferia una ripresa trainata dalle esportazioni. Tale strategia di “aggiustamento simmetrico”compenserebbe i paesi periferici, il cui livello di attività economica è stato gravemente penalizzato dalla politica dell’austerità. Occorre oggi impedire che la massimizzazione dell’utilità della moneta unica da parte di ciascun paese condanni l’area valutaria europea alla definitiva “nonottimalità”, fino alla “tragedia” della fine del “bene comune” ed al ritorno alle valute nazionali. A tale scopo, i governi dovrebbero essere solidali nella scelta di politiche comuni che permettano di dividersi benefici e costi in modo simmetrico. E’ noto che negli Stati Uniti, alcuni decenni dopo l’indipendenza, molti Stati crearono forti deficit nei propri bilanci pubblici. La soluzione allo “sfruttamento competitivo” del bene 319 comune “dollaro” venne trovata nell’Unione fiscale. Sembra però che nell’Unione Monetaria Europea l’unica lezione che si sappia apprendere da oltre Atlantico sia quella della deregolamentazione. 320 Parte Quinta: Unione Europea 1. L’ Unione Europea in una prospettiva storica L’unione fra i paesi europei nacque come progetto politico. L’obiettivo di assicurare un futuro di pace ai popoli europei portò i padri fondatori a concepire un processo di unificazione sia economica che politica. Fra loro ricordiamo Altiero Spinelli, uno degli estensori del Manifesto di Ventotene del 1941; Robert Schuman, l’autore della dichiarazione del 9 maggio, giorno in cui oggi celebriamo l’Europa unita; Jean Monnet, l’ispiratore del primo concreto passo verso l’integrazione europea: la Comunità Europea del Carbone e dell’Acciaio (CECA), creata nel 1951 da Belgio, Francia e Germania Italia, Lussemburgo e Olanda allo scopo di favorire l’impiego comune di queste materie prime per la ripresa industriale post-bellica ed accelerare al contempo la ripresa delle relazioni politiche. Come si è già detto, nel marzo 1957 a Roma vennero firmati i Trattati con i quali quegli stessi sei paesi istituivano la Comunità Economica Europea (CEE) e la Comunità Europea dell’Energia Atomica (Euratom). Nel 1968 fu completata l’eliminazione delle tariffe e delle quote sul commercio interno e si proclamò la libera circolazione di merci, servizi, capitali e lavoro. Successivamente, aderirono alle Comunità Europee (CE) altri nove paesi (Regno Unito, Danimarca e Irlanda nel 1972, Grecia nel 1981, Spagna, e Portogallo nel 1986, Austria, Finlandia e Svezia nel 1995), sei dei quali avevano inizialmente fatto parte di un progetto alternativo: l’Accordo Europeo di Libero Scambio (EFTA) siglato nel 1960. L’abolizione delle barriere non tariffarie ed il graduale passaggio a votazioni a maggioranza furono le principali decisioni contenute nell’Atto Unico Europeo (AUE) del 1986. La cornice istituzionale dei tre pilastri - Comunità Europea, Politica estera e di sicurezza comune (PESC) e Giustizia e affari interni (GAI) - in cui si articola l’Unione Europea (UE) venne istituita nel 1991 con il Trattato di Maastricht (TUE) che diede anche avvio 321 all’Unione Monetaria Europea (UME). Nel 2004 l’adesione di dieci nuovi paesi (Cipro, Estonia, Lettonia, Lituania, Malta, Polonia, Repubblica Ceca, Slovacchia, Slovenia, Ungheria) ha segnato il passaggio dell’Unione Europea da 15 paesi (UE15) a 25 paesi (UE-25). Il 1 gennaio 2007, l’allargamento a Bulgaria e Romania ha portato l’Unione Europea a ventisette paesi (UE-27). Il lungimirante obiettivo dell’unificazione politica si è finora rivelato troppo ambizioso. L’eterogeneità dei valori e degli interessi ha impedito l’affermarsi di un modello condiviso di organizzazione dell’economia e della società. L’orizzonte del progetto originario è stato così delimitato all’elaborazione di accordi di “mutuo vantaggio”, consistenti in politiche pubbliche comuni in campo economico e più recentemente anche nella cooperazione nel campo della politica estera, della difesa e della sicurezza. La formazione del mercato unico ha visto il progressivo abbattimento delle diverse forme di barriere al libero scambio (dalle tariffe, alle barriere tecniche connesse alla regolamentazione ambientale, sanitaria, etc.). Le imprese hanno beneficiato del libero accesso su tutti i mercati, nei quali si sono al contempo confrontate con la concorrenza delle imprese degli altri paesi dell’UE. La pressione al ribasso esercitata sui prezzi ha accentuato la competizione nel mercato dei prodotti, stimolando le imprese alla riduzione dei costi ed all’introduzione di innovazioni di processo e di prodotto. L’attuale fase di integrazione si contraddistingue per il complesso intreccio fra diverse finalità. L’obiettivo di aumentare il grado di concorrenza dei mercati mediante i processi di liberalizzazione e di privatizzazione nel campo dei servizi e dell’energia entra spesso in conflitto con la ricerca di economie di scala attraverso fusioni ed acquisizioni che stanno dando origine a grandi compagnie multinazionali. L’obiettivo di rafforzare la protezione sociale di fronte all’aumento dell’incertezza economica e delle diseguaglianze determinati dalla globalizzazione si scontra con l’eterogeneità delle comunità e delle economie europee, che rendono difficile l’armonizzazione dei sistemi di Welfare. La 322 legislazione presente nei singoli paesi frappone ostacoli alla regolazione a livello europeo dei mercati dei beni, del lavoro e dei servizi finanziari. L Come vedremo nel prosieguo, la conseguenza più grave di tale “integrazione incompiuta” è l’assenza nella costruzione europea di alcune “istituzioni” – l’unione bancaria, l’unione fiscale, l’inserimento nello Statuto della BCE della funzione di prestatore di ultima istanza - indispensabili a garantire la credibilità dell’unione monetaria e quindi la sopravvivenza dell’Euro. Negli ultimi decenni le economie europee si sono sviluppate all’interno di un quadro di regole affatto nuovo. Alle istituzioni nazionali si è affiancato un livello istituzionale sovranazionale con lo scopo di dare attuazione alle politiche di integrazione. Il mercato unico ha sancito la libera circolazione di beni, servizi, capitali e persone. L’Unione Monetaria Europea (UME) ha dato vita ad un’unica moneta e ad un’unica autorità monetaria. La Commissione Europea ha esteso gli interventi di regolazione diretti a rafforzare la concorrenza nei mercati. Il Patto di Stabilità e Crescita (PSC) ha vincolato i bilanci pubblici delle dodici autorità fiscali nazionali. Le politiche di coesione hanno finanziato lo sviluppo delle aree arretrate. Prima di affrontare le modificazioni che ne sono seguite nelle relazioni fra le grandezze macroeconomiche, in questo capitolo ci soffermeremo sulla valutazione dell’eurozona come area valutaria ottimale, sulle diverse forme di coordinamento fra i sistemi fiscali, e sul rapporto fra il principio di sussidiarietà adottato dall’UE e la teoria del federalismo fiscale. Dopo questa rapida sintesi, esaminiamo l’UE nei suoi diversi aspetti. Per sapere che cosa è l’Unione Europea (UE) sarebbe necessaria una definizione, ma ciò pone la prima questione: è evidente che non coincide con un tradizionale stato a struttura federale, o confederale, ma è riduttivo limitarne la valutazione ad un mero susseguirsi di accordi internazionali: si tratta infatti di un’entità che si colloca tra questi due estremi, oscillando tra l’uno e l’altro in ragione della mutevolezza 323 dell’esprit du temps, lo “spirito dei tempi”. La seconda questione, che riguarda gli aspetti dinamici, viene posta dalla domanda: “è quello che era e quello che sarà?” e poiché la risposta, almeno per il passato, è certamente “no”, non si può evitare di investigare la natura dell’istituzione UE, tenendo conto di questi due aspetti: da un lato esaminandone la struttura costituzionale, e dall’altro riflettendo sulla sua evoluzione nel corso degli anni. L’UE oggi è l’insieme di ventisette paesi uniti dall’impegno al rispetto dei Trattati. I Trattati sottoscritti dai ventisette paesi, così come l’acquis communautaire accumulato nel corso dei decenni, sono molto richiedenti e spesso sottintendono un intento non esplicitamente scritto. La struttura costituzionale dell’UE è a fondamento delle istituzioni e delle procedure che presiedono alla formulazione e all’attuazione delle politiche comuni. Occorre dunque esaminare quali organismi sono stati istituiti, per quale ragione e con quali caratteristiche. L’impronta evolutiva, che in maniera più o meno intenzionale ha permeato l’impianto istituzionale dell’UE, è ascrivibile principalmente allo iato, presente sin dalle sue origini che datano dalla metà del secolo scorso, tra l’ambizione di dar vita ad un’iniziativa politica di grande portata storica e la realtà di un esperimento di integrazione economica in principio piuttosto limitato. Il progetto, prefigurato in Italia fin dal Manifesto di Ventotene e sostenuto da coloro che vengono collettivamente indicati come i “padri fondatori” aveva lo scopo di impedire il ripetersi di conflitti in Europa. Questo intendimento si tradusse nella formulazione di un disegno istituzionale diretto a garantire alle istituzioni comunitarie una potenziale indipendenza dai governi nazionali, un’indipendenza che queste avrebbero comunque dovuto dimostrare di meritare alla prova dei fatti. Ne risultò un’istituzione nella quale gli elementi a carattere intergovernativo – cioè quelli nei quali i paesi, attraverso i propri governi, agiscono in prima persona come accade negli accordi internazionali – erano strettamente intrecciati con gli elementi a carattere sovranazionale – cioè quelli nei quali i paesi rinunciano alla propria sovranità nazionale a favore di un’entità diversa costituita da una costruzione comune 324 – e tale intreccio si è articolato in maniera variabile nel tempo seguendo una dialettica in continua evoluzione. L’Unione Europea è un’istituzione sui generis, con un assetto istituzionale dotato di caratteri potenzialmente federali e strutturato su un’impostazione di governo multilivello che ripartisce la responsabilità decisionale tra gli stati nazionali e le istituzioni sovranazionali, e comprende al contempo aspetti caratteristici di uno stato nazionale accanto ad aspetti propri di un’organizzazione internazionale. 2. Le istituzioni dell’U.E. nel progetto originario Nell’immediato dopoguerra sono stati numerosi i tentativi di aggregazione degli stati europei in un progetto comune che di volta in volta ha assunto connotazioni e formule diverse a seconda delle diverse istanze cui intendeva rispondere: l’Organizzazione Europea per la Cooperazione Economica (OECE) per la gestione della ricostruzione post-bellica, l’Unione dell’Europa Occidentale (UEO) per la difesa, il Consiglio d’Europa per il riconoscimento di quei diritti fondamentali che fanno riferimento ad una cifra culturale condivisa. Il tratto comune a tutte le organizzazioni europee fondate nel dopoguerra mette in luce l’esigenza innegabile, seppure forse non avvertita con la stessa urgenza da parte di tutti i paesi europei, di dar vita ad una costruzione comune che includesse un certo grado di cooperazione anche nell’ambito della politica e che potesse essere in grado di garantire la pace. La strategia di cooperazione fu avviata inizialmente tra sei paesi - Belgio, Francia, Italia, Lussemburgo, Paesi Bassi e Repubblica Federale Tedesca - con l’istituzione della Comunità Europea del Carbone e dell’Acciaio (CECA) nel settore carbosiderurgico. Questo accordo, firmato a Parigi nel 1951, costituiva il tentativo, o la speranza, di coinvolgere in futuro anche la sfera politica attraverso l’instaurarsi della consuetudine di una collaborazione, che avesse inizio ed occasione da un settore economico decisivo per l’industria pesante, per quel tempo di fondamentale importanza ed insieme simbolico, poiché la sua produzione forniva la materia prima 325 per l’industria bellica. Tale metodo di cooperazione venne definito “funzionalista” o “gradualista” per indicare il fatto che agli strumenti viene attribuita la funzione di creare le condizioni per un successivo estendersi dell’accordo di singoli obiettivi ad una molteplicità di politiche comuni, fino ad imporre, nelle intenzioni di alcuni, la necessità dell’obiettivo massimo: l’unione politica. La strategia funzionalista venne applicata, con meno fortuna, anche ai settori della difesa, con la Comunità Europea di Difesa (CED), e della politica, con la Comunità Politica Europea (CPE), due iniziative che col senno di poi oggi riteniamo troppo ambiziose per quel tempo, e che non riuscirono ad essere portate a compimento. La stessa strategia ebbe successo invece in due diverse sfere di applicazione con la firma, da parte degli stessi sei paesi, dei due Trattati di Roma che nel 1957 diedero vita alla CEE e all’Euratom concepite con un impianto istituzionale organizzato sulla falsariga di quello sperimentato nella CECA. La cooperazione, che inizialmente coinvolgeva solo il settore carbo-siderurgico, fu quindi estesa alle aree dei rapporti commerciali e delle fonti di energia. Questo modo di procedere rappresentava la conferma della caratteristica evolutiva degli accordi tra i sei paesi e della praticabilità dell’approccio funzionalista all’integrazione, con il quale si considera l’integrazione politica un’inevitabile conseguenza, implicita nell’instabilità intrinseca al processo di integrazione economica ed ascrivibile agli effetti di ricaduta (spill-over) tra le politiche. Secondo questa concezione, per avere successo l’integrazione europea avrebbe dovuto rispondere alle domande che sarebbero poste dalla sfera economica ed estendersi successivamente dall’ambito del commercio, della finanza e dell’economia a quello delle relazioni internazionali, della difesa e della politica estera, cioè, secondo una nota classificazione di Raymond Aron, dalla bassa all’alta politica. A. Una forma istituzionale in evoluzione: integrazione come processo, non come stato La volontà di gettare le basi per un’organizzazione ampia che andasse oltre l’istituzione di un accordo commerciale tra sei paesi era evidente già nel Preambolo 326 del Trattato di Roma che istituiva la Comunità Economica Europea, dove è esplicito il riferimento alle superiori ambizioni del progetto di integrazione che riconoscono la necessità di “… porre le fondamenta di un’unione sempre più stretta fra i popoli europei … facendo appello agli altri popoli d’Europa, animati dallo stesso ideale, perché si associno al loro sforzo”. D’altro canto, gli obiettivi della Comunità, definiti dall’articolo 2, non avevano carattere soltanto economico ma investivano anche la sfera politica, coinvolgendo un ampio spettro di questioni di portata generale: vengono citati infatti oltre ad uno sviluppo armonioso dell’attività economica, un’espansione continua ed equilibrata, un’accresciuta stabilità, un miglioramento del tenore di vita e più strette relazioni tra gli stati partecipanti. Il carattere evolutivo dell’integrazione europea veniva ribadito, dopo oltre trent’anni, a Maastricht nel Preambolo del Trattato sull’Unione Europea (TUE) che, riconoscendo l’attualità degli stessi obiettivi già espressi nel 1957, ne ampliava la portata con l’impegno a: “… portare avanti il processo di creazione di un’unione sempre più stretta fra i popoli dell’Europa … in previsione degli ulteriori passi da compiere ai fini dello sviluppo dell’integrazione europea”. Il carattere di processo conferito all’integrazione viene affermato nei Trattati dal riferimento all’impegno comune in un procedimento dinamico, aperto a sviluppi futuri di cui ancora si ignorava il contenuto, ed è in contrasto con la concezione statica dell’integrazione che invece ritiene che il patto tra i paesi debba ratificare il raggiungimento di uno stato di cose esattamente stabilito negli accordi, e che dovrebbe essere inteso come definitivo. Pur non potendosi sostenere una stretta coincidenza tra carattere evolutivo e sovranazionale da un lato, e statico e intergovernativo dall’altro, l’antitesi tra processo e stato – che in quegli anni veniva riflessa rispettivamente dall’impostazione anglosassone e da quella continentale – fu chiarita dai Trattati che privilegiavano la concezione dell’integrazione come processo. L’istituzione era considerata in continua transizione verso una costruzione futura, che avrebbe forse finito con l’affrancarsi dal carattere intergovernativo tipico dell’accordo tra stati nazionali che restano 327 pienamente sovrani e si impegnano limitatamente a quanto definito nel testo concordato e sottoscritto. Traspare spesso dal testo invece un’implicita presa di posizione a favore dell’impronta sovranazionale. A causa dell’evidente contrasto tra le elevate ambizioni, che avrebbero voluto una ideale costruzione federale, ed i vincoli dettati dal realismo, che si prefiggeva di ottenere un accordo su “un punto limitato e decisivo”, pur nell’impostazione ispirata all’approccio funzionalista, che sta all’origine della natura evolutiva dell’impianto istituzionale dell’Unione Europea, questa ha potuto acquisire caratteristiche federali e sovranazionali. Le funzioni esecutive, legislative e giudiziarie indipendenti dai singoli stati membri furono attribuite al Parlamento, alla Commissione, al Consiglio dei Ministri e alla Corte di Giustizia, gli organi istituzionali previsti nel 1957 ai quali più tardi si sono aggiunti la Corte dei Conti, il Comitato delle Regioni, la Banca Centrale Europea e gli altri organismi che attualmente compongono l’architettura europea. B. L’intreccio intergovernativo/sovranazionale e l’indipendenza delle istituzioni comuni Le istituzioni dell’UE, nel loro continuo mutare, hanno pur tuttavia mantenuto una caratteristica costante che si ravvisa nell’equilibrio mutevole che ha caratterizzato la condivisione dei poteri tra i due diversi livelli di governo: quello comune europeo e quello individuale nazionale. Ciò deriva dall’aver immaginato che, per raggiungere scopi che vanno al di là di quelli delle consuete organizzazioni internazionali, le istituzioni europee dovessero essere almeno in parte indipendenti dai governi nazionali. Nei piani di Jean Monnet, al tempo commissario alla pianificazione francese, un esecutivo indipendente doveva costituire il punto qualificante della Comunità che si sarebbe dovuta costruire. Fin dalla dichiarazione del ministro degli esteri francese Schuman, il 9 maggio 1950, con la quale si gettano le basi per “… mettere la produzione francese e tedesca di carbone e di acciaio sotto una comune Alta Autorità, nel quadro di un’organizzazione aperta alla partecipazione di altri paesi europei … [per] … rendere la guerra fra Francia e Germania non solo impensabile, 328 ma materialmente impossibile”, l’Alta Autorità – che sarebbe poi divenuta la futura Commissione – veniva concepita come l’istituzione cui si delegava la responsabilità per il settore carbo-siderurgico accordandole la più ampia autonomia. L’Alta Autorità, varata sotto la guida di Jean Monnet, più che un mandato, aveva una missione: per competenza le veniva conferito il primato sui governi nazionali. La struttura istituzionale comunitaria rifletteva la preoccupazione di evitare un’eccessiva ingerenza delle capitali nazionali nel processo decisionale comune e di promuovere un metodo in grado di giungere a decisioni frutto della volontà collettiva. Nell’impossibilità di dar vita ad un’entità politica comune, nella quale sarebbe stato naturale riprodurre la tradizionale separazione tra i poteri – legislativo, esecutivo e giudiziario – che è propria degli stati nazionali democratici, il progetto comunitario ha privilegiato l’intreccio tra i poteri delle diverse istituzioni, secondo uno schema inedito che già dall’inizio mirava a porre le condizioni per una progressiva erosione dei poteri nazionali. Il concetto stesso di integrazione dunque si considerava in evoluzione: il disegno istituzionale si caratterizzava per la tensione tra l’intero, riconosciuto e legittimato dalle sue parti, e le sue stesse parti: ciò implicava che l’equilibrio tra i diversi poteri sarebbe stato continuamente ridefinito. I governi nazionali mantengono la capacità di alterare i poteri delle istituzioni comuni. Essendo i depositari della legittimazione popolare, essi possono intervenire sia direttamente in prima persona, che indirettamente attraverso le istituzioni comuni. I poteri decisionali sono condivisi dalle diverse istituzioni ed ognuna deve tenere conto delle prerogative delle altre. Il processo decisionale collettivo comporta dunque una perdita significativa di sovranità nazionale. Tuttavia, l’affievolimento del potere da parte dei governi non va sopravvalutato. Le istituzioni comunitarie sono sì indipendenti, ma allo stesso tempo sono anche soggette al controllo dei governi nazionali dai quali comunque proviene la legittimazione degli organismi comuni. Si tratta quindi ogni volta di trovare un punto di equilibrio tra quali e quanti poteri affidare all’istituzione comune, in quale forma e secondo quale procedura. 329 I poteri dell’UE, così come le sue aree di competenza, col passare degli anni si sono accresciuti notevolmente, ma ciò non è consistito tanto nella transizione verso un governo europeo, ad esempio attraverso un rafforzamento del potere e dei compiti della Commissione, quanto nel mutevole equilibrio che si è determinato nella condivisione del potere tra Parlamento e Consiglio, per cui una buona parte dell’attività decisionale, pur trasferita nell’ambito di responsabilità comune, nonostante le maggiori responsabilità attribuite al Parlamento, è rimasta comunque nella disponibilità ultima dei governi nazionali. Tuttavia, va anche riconosciuto che nessun governo nazionale, singolarmente preso, è in condizioni di controllare in solitudine, né tantomeno di determinare, le decisioni comuni. Il potere dei governi deve essere inteso prima di tutto in senso collettivo e si concretizza sia nei compromessi periodicamente raggiunti nelle Conferenze InterGovernative (CIG), nelle quali si decidono le innovazioni di tipo costituzionale, sia, più spesso, per le decisioni ordinarie durante le sedute del Consiglio. Il Consiglio stesso poi interagisce con le altre istituzioni che in base alle procedure prestabilite sono in grado di esercitare - e a volte anche di estendere - la propria influenza. C. La forma istituzionale pre-federale con un governo multilivello Il trasferimento di competenze ha assunto gradi diversi in relazione ai diversi ambiti interessati dal processo di integrazione. La parzialità delle competenze e dei poteri che i governi nazionali sono stati disposti a trasferire al livello sovranazionale ha fatto sì che l’impianto istituzionale dell’UE si configurasse come uno schema di governo multilivello del quale sono parte sia gli stati membri che le istituzioni comuni. In alcuni casi il trasferimento delle competenze nazionali alle istituzioni comunitarie è stato completo. L’UE, ad esempio, ha assunto le competenze degli stati membri nella gestione del commercio estero con la determinazione delle tariffe doganali e la stipula degli accordi commerciali nell’ambito un tempo del GATT ed ora del WTO dove l’UE “parla con una sola voce”. Anche la politica monetaria più recentemente è diventata di competenza comunitaria per i paesi che hanno adottato l’euro. La delega totale delle competenze è un aspetto dell’integrazione al quale ciascuno stato membro 330 è particolarmente attento, volendo evitare di cedere elementi importanti di sovranità nazionale senza adeguate garanzie. In altri casi la competenza nazionale è stata limitata. La limitazione delle prerogative nazionali è più cogente quando è prescritto l’obbligo di coordinamento o di armonizzazione, come accade, ad esempio, nel caso delle sovvenzioni alle imprese, per concedere le quali è necessario richiedere l'autorizzazione comunitaria, dato che la loro erogazione potrebbe falsare la concorrenza tra gli stati membri; è invece meno vincolante quando è previsto soltanto lo scambio di informazioni o opinioni attraverso l’informazione reciproca o le consultazioni ufficiali. In altre aree, infine, le istituzioni comunitarie non intervengono nelle decisioni degli stati membri. Ciò avviene, ad esempio, per le imposte dirette sui redditi dei privati, le imposte di proprietà e le tasse di successione tuttora di esclusiva competenza nazionale. Può inoltre accadere che le iniziative nazionali e comunitarie si affianchino o anche si sovrappongano, ad esempio, nel co-finanziamento delle iniziative che fanno capo ai fondi strutturali o nell’attuazione di programmi comuni nel campo della ricerca e sviluppo tecnologico. La ripartizione verticale dei poteri e delle competenze tra UE e stati membri pone alcune questioni che riguardano la compresenza nell’impianto istituzionale dell’UE di aspetti distintivi di un’entità statuale con altri tipici di un’organizzazione internazionale. Osservando la volontarietà dell’associazione tra gli stati e la problematica praticabilità di eventuali azioni coercitive, le istituzioni sovranazionali possono essere considerate semplici intermediari per i quali legittimità e sovranità esistono nella misura in cui la prima venga esplicitamente concessa dai governi e la seconda venga esercitata su loro delega. Tuttavia la presenza del Parlamento europeo e della Corte di giustizia, ed il rilevante ruolo che è stato loro affidato, certamente impediscono di assimilare l’UE alle più consuete organizzazioni internazionali. La responsabilità politica che l’UE si può assumere sulla base dell’attuale struttura istituzionale, pur insufficiente, è più ampia e profonda di quella di una usuale organizzazione internazionale. La varietà degli ambiti decisionali soggetti alla 331 votazione a maggioranza, e quindi aperti alla possibilità che un paese membro si possa trovare in minoranza e debba perciò subire decisioni di cui non condivide i contenuti – un tratto distintivo di un’istituzione sovranazionale – non solo è sempre stata maggiore che per qualsiasi altro organismo internazionale, ma con i trattati di revisione del Trattato di Roma i paesi membri hanno volontariamente accresciuto sia l’adesione a questa regola di voto che l’importanza delle aree di intervento. L’interpretazione della natura dell’impianto istituzionale dell’UE coinvolge anche il giudizio sugli aspetti federali della condivisione e della ripartizione dei poteri, e delle competenze cui una struttura di governo multilivello viene naturalmente associata. La divisione delle competenze tra istituzioni centrali e locali costituisce una caratteristica fondamentale dei sistemi federali che si fondano sulla comune partecipazione al potere secondo un patto (foedus) il cui contenuto definisce le modalità della condivisione dei poteri (power sharing). Il federalismo aspira a coniugare unità e diversità in una combinazione ottima. Tuttavia, a questa definizione non corrisponde una precisa formula utilizzabile per ripartire in modo univoco le competenze tra i livelli di governo, dato che questa valutazione è soggettiva. Poiché con il termine “federalista” si potrebbe anche intendere “finalizzato ad una futura federazione”, il Regno Unito si è più volte opposto al riferimento al federalismo nei principi del Trattato sull’Unione Europea e anche in seguito temendo che questo termine potesse evocare una progressiva e rapida perdita di sovranità nazionale piuttosto che un’ottima ripartizione dei poteri politici e delle funzioni amministrative. L’approfondimento dell’integrazione nell’UE, che si traduce nel moltiplicarsi delle sfere di competenza ben al di là delle sole politiche commerciali, tuttavia ha comportato di fatto una crescente somiglianza con il federalismo seppure limitato alla sfera economica. Parallelamente, il principio di sussidiarietà è stato introdotto dal TUE e si è affermato nell’acquis communautaire. Tale principio stabilisce che l’intervento dell’UE deve essere limitato ai settori nei quali è in grado di agire più 332 efficacemente dei singoli stati membri, e rappresenta il tentativo di conseguire un’allocazione dei poteri efficiente. Negli stati federali, tuttavia, al livello centrale vengono attribuite le funzioni di politica monetaria e del tasso di cambio, ed alcune funzioni di politica fiscale, che vengono gestite da un bilancio federale basato su un autonomo sistema di prelievo fiscale federale e su una spesa pubblica che rappresenta una quota considerevole dell’insieme della spesa pubblica e assolve a tutte e tre le funzioni che tradizionalmente le vengono attribuite: allocativa, stabilizzatrice e redistributiva. È inoltre prevista l’elezione diretta del governo federale ed una corte suprema garantisce il rispetto delle regole federali. Nell’UE invece, si fa implicito riferimento ad un’entità statuale pre-federale perché, in assenza di un governo eletto, il potere può essere esercitato dall’autorità centrale solo con l’autorizzazione delle autorità nazionali sotto la cui responsabilità restano in massima parte le politiche legate alla spesa pubblica. I principi comuni, in primo luogo il principio di non discriminazione tra soggetti appartenenti ai paesi membri, il monitoraggio del rispetto della normativa comunitaria da parte della Commissione, il controllo dell’osservanza dei Trattati da parte della Corte di Giustizia, riguardano principalmente l’integrazione di mercato. Fra le condizioni da soddisfare per procedere all’adesione all’UE, inoltre, non è incluso l’obbligo alla partecipazione all’Unione Economica e Monetaria (UEM), mentre manca quasi completamente il potere dell’UE in materia fiscale e di bilancio: questi elementi invece rappresentano di norma componenti qualificanti di uno stato federale. La vicenda che avrebbe dovuto portare all’adozione della Costituzione europea, è illuminante. Nonostante venne approvata nel 2007 dopo un lungo e tormentato iter – e firmata da tutti gli Stati in occasione del Consiglio europeo a Roma nell’ottobre del 2004 - pochi mesi più tardi l’adozione della Costituzione fu bloccata dall’esito negativo di un referendum sia nei Paesi Bassi che in Francia. Una sua versione ridotta, rivista e corretta, il Trattato di Lisbona, è entrata in vigore nel 2009 ed è stata letta da più parti come l’immissione di un apparato frenante teso a circoscrivere 333 quell’evoluzione che, tra alti e bassi, negli anni aveva caratterizzato l’integrazione europea. Le modifiche sono state apportate fin dal Preambolo e già dal primo articolo si aggiunge che spetta agli Stati membri l’attribuzione delle competenze per il conseguimento degli obiettivi dell’Unione, mentre l’articolo 2 viene sostituito e, nel ridefinire gli obiettivi dell’Unione, si sottolinea che essa li persegue in base alle competenze che le vengono attribuite dai trattati. All’articolo 3bis si legge che “qualsiasi competenza non attribuita all'Unione nei trattati appartiene agli Stati membri”, mentre all’articolo 3ter si insiste sulla “delimitazione delle competenze dell’Unione”. A tale scopo si precisa che le competenze dell’UE vengono determinate in base ai principi di: a) attribuzione, che ne circoscrive la portata, b) sussidiarietà, che si applica nei settori nei quali la competenza non è esclusiva, per limitare l’intervento dell’UE ai soli casi in cui non sia conveniente raggiungere gli obiettivi comuni con altri mezzi, cioè a livello inferiore c) proporzionalità, cui si fa ricorso per limitare l’azione dell’UE allo stretto necessario per il conseguimento degli obiettivi stabiliti dai Trattati. La puntuale definizione delle competenze – esclusive, concorrenti o di sostegno e coordinamento – viene precisata nel titolo I “Categorie e settori di competenza dell’Unione” di nuova introduzione, tra i primi punti che concernono le modifiche al Trattato che istituisce la Comunità europea (TCE), ora rinominato Trattato sul funzionamento dell’Unione europea. Precedentemente, invece, vigeva l’Articolo 235 del Trattato di Roma che, al contrario, tendeva ad ampliare l’azione comune stabilendo che “quando un’azione della Comunità risulti necessaria per raggiungere, nel funzionamento del mercato comune, uno degli scopi della Comunità, senza che il presente Trattato abbia previsto i poteri d’azione a tal uopo richiesti, il Consiglio, deliberando all’unanimità su proposta della Commissione e dopo aver consultato l’Assemblea, prende le disposizioni del caso.” 334 Sono stati altresì eliminati - anche se sedici paesi, allegando una dichiarazione separata, hanno voluto riaffermarne la validità - gli aspetti simbolici che negli anni avevano almeno in parte contribuito, se non alla costruzione di un’identità europea, almeno ad alimentare il senso di appartenenza: la bandiera e l’inno, in primo luogo, il motto e la festa in misura certamente minore. Il messaggio, nel complesso, pare indicare che l’integrazione – al di fuori della liberalizzazione degli scambi e di quanto possa servire a questo scopo – forse è andata troppo oltre e comunque è cambiato lo “spirito del tempo”. D’altro canto però, alcune disposizioni sembrano indicare che un qualche progresso verso una maggiore integrazione non è mancato: la Carta dei diritti fondamentali dell’U.E. è stata recepita, sono state aggiunte disposizioni relative ai principi democratici, la Banca centrale europea e la Corte dei conti figurano a pieno titolo tra le istituzioni il cui numero quindi viene elevato a sette, mentre i rapporti interistituzionali, i compiti e le relative procedure sono stati riformulati. L’introduzione dell’alto rappresentante per la politica estera e di sicurezza comune, così come quella del presidente del Consiglio europeo, è stata salutata come un’importante novità capace di far compiere passi avanti all’UE, ma questa materia è stata sottratta alla competenza della Corte di giustizia, una delle istituzioni che più hanno contribuito all’integrazione nel passato. 3. Interpretazioni ex post: finalità, necessità e modalità dell’integrazione Con il procedere dell’integrazione l’architettura istituzionale dell’UE è stata più volte emendata e, in seguito ai trattati di revisione, sono stati varati nuovi organismi e si sono aggiunte nuove regole e nuove procedure secondo un processo tutt’altro che lineare. Il delicato equilibrio tra gli elementi intergovernativi e quelli sovranazionali è sempre stato al centro del dibattito sulla natura del disegno istituzionale comunitario. Tuttavia, il giudizio su quale elemento abbia di volta in volta prevalso è controverso. 335 Nella CECA, il cui disegno istituzionale introduceva caratteristiche prevalentemente sovranazionali, non era stata contemplata l’istituzione del Consiglio dei ministri. Nell’architettura istituzionale della CEE, dove per la prima volta furono attribuiti poteri a questo organismo, il ruolo dei ministri dei paesi membri era fondamentale, ma si riteneva che fosse destinato a declinare in un futuro prossimo. Il deperimento delle funzioni del Consiglio invece non si è verificato, e nemmeno specularmente l’accrescimento del ruolo della Commissione. Piuttosto, con gli incontri prima informali tra capi di stato e di governo, e poi, parallelamente alla sua crescente importanza, l’istituzione del Consiglio europeo, si è aggiunto un nuovo organismo a carattere decisamente intergovernativo. Non si può però nemmeno sostenere che il TUE abbia accentuato il tratto intergovernativo complessivo dell’assetto istituzionale dell’UE: il ruolo del Parlamento è stato potenziato con la procedura di co-decisione che ne aumenta i poteri, ma nel contempo è stato anche disposto che i due pilastri che si aggiungono al primo, la Comunità Europea – la Politica Estera e di Sicurezza Comune (PESC) e la Giustizia e Affari Interni (GAI) – siano interamente gestiti per via intergovernativa sottraendoli dall’influenza del Parlamento e dalla giurisdizione della Corte di Giustizia. Vero è anche che il Trattato di Amsterdam ha poi trasferito una parte delle materie comprese nel capitolo GAI - quali visti, asilo politico e immigrazione - dal terzo al primo pilastro dell’UE, per cui la valutazione sull’eventuale indebolimento della cifra sovranazionale è tutt’altro che concorde. Il Trattato di Lisbona, non sfugge a questo giudizio ambivalente, anzi, al contrario, lo rafforza. Si può osservare, ad esempio, che i tre pilastri, con la difformità di procedure che li caratterizzava, sono stati aboliti insieme ai riferimenti alla CE, a vantaggio di un’Unione più coesa e compiuta; tuttavia il sistema decisionale relativo alla politica estera e di sicurezza comune è ancora soggetto a norme e procedure specifiche ed il ruolo del Parlamento e della Commissione differiscono da quanto previsto per le questioni ordinarie, che seguono la prassi tradizionalmente indicata come metodo comunitario . Oppure si può notare che, se da un lato il ruolo del 336 Parlamento europeo si rafforza – ad esempio con il ricorso alla procedura legislativa ordinaria gode di maggiore potere decisionale – per la prima volta viene inserito un ruolo anche per i Parlamenti nazionali, ampiamente descritto dal nuovo articolo 8c, e ripreso anche successivamente. Altri esempi contrastanti possono essere proposti con riferimento da un lato all’inclusione della Carta dei diritti fondamentali dell’UE ed alla possibilità da parte dei cittadini di “… prendere l’iniziativa d’invitare la Commissione europea, nell’ambito delle sue attribuzioni, a presentare una proposta …” due elementi entrambi volti alla costruzione di un demos europeo, mentre dall’altro le competenze esclusive e quelle comuni degli Stati e dell’UE vengono elencate puntigliosamente. Infine, è stata introdotta la possibilità per gli Stati di recedere dall’Unione e con questa vengono specificate tutte le procedure che in tal caso dovrebbero essere seguite. A ciò si aggiunga il controverso giudizio sull’intenzionalità dei provvedimenti. L’Unione Europea è stata in grado di conciliare considerevoli divergenze di vedute in modo da conseguire progressi notevoli nel campo dell’integrazione economica, e a volte è anche sembrato che accordi faticosamente raggiunti abbiano dato risultati in larga parte imprevisti. Va anche tenuto presente che, in una struttura in continua mutazione, l’interpretazione degli sviluppi occorsi alla luce sia delle finalità dichiarate nel corso degli anni, che della necessità del percorso comune ed anche delle modalità che l’integrazione europea ha conosciuto è spesso tutt’altro che univoca sia per i singoli paesi membri ognuno dotato di identità più spesso propria, che comune, che per le maggioranze di governo che al loro interno si sono via via succedute. A. Il processo di integrazione Riconoscendo che il processo di integrazione economica veniva ritenuto da molti uno strumento per raggiungere il fine dell’integrazione politica, si chiarisce la ragione per cui molti degli obiettivi che il Trattato di Roma assegnava alla Comunità Economica 337 Europea – che l’articolo 9 (oggi soppresso) si dichiarava “fondata sopra un’unione doganale” – potessero invece essere pienamente raggiunti solo attraverso un’unione economica, cioè con un livello di integrazione ben più profondo di un accordo commerciale, sia pur impegnativo. Ma se le ragioni della politica possono spiegare il disegno del quadro istituzionale delineato negli anni Cinquanta, gli sviluppi successivi fino alla realizzazione dell’unione economica e monetaria sono stati quasi interamente una conseguenza dell’integrazione di mercato. Oggi si potrebbe forse addirittura rovesciare il rapporto tra economia e politica - e tra mezzi e fini all’origine del processo di integrazione. Sempre più spesso viene infatti richiamata l’esigenza di colmare il deficit di integrazione sul piano politico proprio allo scopo di permettere un migliore funzionamento dell’integrazione sul piano economico. A questo argomento è strettamente connesso il giudizio sulla effettiva necessità dell’integrazione. I governi nazionali potrebbero infatti chiedersi, di fronte alle sfide di un’economia globale, se l’integrazione rappresenti un rimedio all’inadeguatezza degli strumenti a disposizione dei governi stessi, oppure un pesante vincolo alla loro sovranità, cioè alla capacità di decidere autonomamente, senza dover sottostare a restrizioni imposte dall’esterno, in che modo ritengono di interagire con i problemi posti dalla globalizzazione. La risposta non è semplice ed implica uno spostamento d’accenti dalla preoccupazione su quanta perdita di sovranità sia inevitabile, o desiderabile, per un paese, anzi per quel paese, a quello sulla effettiva cifra della sovranità nazionale. In un contesto nel quale la crescente interdipendenza internazionale ha di fatto comportato una considerevole perdita della capacità di autodeterminarsi, e cioè di sovranità nazionale, la partecipazione all’UE può essere letta come una scelta obbligata. La stessa domanda può anche essere formulata da un punto di vista comunitario, ovvero sovranazionale, e cioè se l’UE debba essere concepita come un mero sottoinsieme del mercato mondiale unificato, oppure debba proseguire il cammino del progetto ideale dei padri fondatori, e cioè aspirare ad essere una comunità di popoli che condivide le alte finalità sancite dai Trattati. 338 L’adozione di una struttura organizzativa federale, anziché all’opposto di una statocentrica, cioè strettamente intergovernativa, rende problematico discernere una chiara linea evolutiva. Si è perciò indotti ad una ricostruzione del delicato equilibrio tra caratteristiche sovranazionali ed intergovernative e tra soluzioni nazionali o europee in termini di puro cambiamento. Le “oscillazioni del pendolo” è la metafora coniata da Helen Wallace (1996) per descrivere l’alternarsi di fasi in cui si attuano politiche nazionali divergenti ed altre che vedono il prevalere di obiettivi condivisi, come frutto dell’instabile interrelazione tra idee ed interessi diversi di diversi attori istituzionali e tra i diversi livelli ai quali si svolge il gioco. Senza una tendenza discernibile dunque non si tratterebbe di evoluzione, ma solo di continuo cambiamento. L’interpretazione di Robert Putnam (1988) descrive un gioco condotto a due livelli. Le posizioni dei governi vengono infatti elaborate in un primo tempo a livello nazionale e poi definite nelle istituzioni comuni. Gli attori sono sempre i governi nazionali, che partecipano ai negoziati comunitari a livello intergovernativo. Il sistema decisionale dell’U.E. è dunque basato su stati nazionali che controllano la direzione e la velocità del processo di integrazione ed hanno ben chiaro che si sono associati per cooperare nel perseguimento di alcuni scopi specifici. La supremazia degli stati nazionali sarebbe dimostrata anche dal fatto che le politiche dell’UE vengono perseguite da organismi nazionali, mentre le istituzioni europee sono competenti solo riguardo al processo decisionale ed alla supervisione dell’implementazione. L’evoluzione allora consiste in una continua riorganizzazione che permetta agli stati di conservare una fetta sostanziale del potere. In mancanza di un modello teorico in grado di cogliere l’essenza di quello che è accaduto e di spiegarlo compiutamente attraverso qualche indicatore che chiarisca se esiste una direzione intenzionale degli sviluppi del processo di integrazione, anche il concetto di evoluzione è dunque aperto a diverse interpretazioni. B. Il processo di integrazione: tra intenzioni ed interpretazioni 339 Un'altra interprezione si fonda sul confronto con la diversa architettura istituzionale dell’EFTA, l’associazione europea di libero scambio fondata nel 1960 da Regno Unito, Danimarca, Norvegia, Svezia, Austria, Svizzera e Portogallo. Questi paesi, contrari all’impianto sovranazionale che avrebbe costituito una importante caratteristica della CEE, ne avevano ritenuto l’adesione troppo impegnativa, preferendo invece un accordo che si limitasse alla sfera commerciale. In deroga al multilateralismo - principio cardine degli accordi GATT, che promana dall’osservanza della clausola sulla nazione più favorita (MFN) - l’istituzione di aree di libero scambio e unioni doganali fu ammessa dall’accordo, probabilmente considerando che tali forme di integrazione economica avrebbero applicato il principio del multilateralismo, se non erga omnes, almeno tra loro. L’istituzione di un’area di libero scambio comporta l’eliminazione degli ostacoli al commercio tra i paesi membri, ma permette loro di perseguire indipendentemente le proprie politiche commerciali, stabilendo in modo autonomo il livello delle proprie tariffe sulle importazioni dal resto del mondo. Un’unione doganale invece richiede che i paesi si accordino su una tariffa doganale comune che grava sugli scambi con i paesi terzi, mentre, come per l’area di libero scambio, vengono eliminate le restrizioni sugli scambi reciproci. La CEE dunque scelse il secondo tipo di accordo regionale, l’EFTA il primo. I paesi promotori dell’EFTA ritenevano che un accordo di portata più limitata rispetto al Trattato CE avrebbe avuto più successo proprio a causa delle minori occasioni di contrasto che avrebbe offerto per gli interessi nazionali. Non dovendo concordare un’unica politica commerciale, ad esempio, si sarebbe potuto evitare il sorgere di prevedibili conflitti tra i paesi membri nell’ambito dei negoziati sull’entità della tariffa doganale comune. Ad essa dall’accordo veniva richiesto di non dar luogo ad un’espansione del protezionismo, ma la sua esatta determinazione veniva lasciata aperta all’esito del negoziato. I fatti hanno poi smentito questa previsione: i minori conflitti non hanno affatto contribuito ad aumentare la coesione dei paesi membri di 340 questa istituzione che invece ha conosciuto un considerevole numero di defezioni di stati che successivamente hanno fatto il proprio ingresso nella CEE prima e poi nell’UE. Altri paesi, nel frattempo, hanno aderito all’EFTA. Nel 1973 il primo ampliamento, che ha visto il passaggio del Regno Unito e della Danimarca dall’EFTA alla CEE, ha coinciso con l’istituzione di un’unica area di libero scambio tra quest’ultima ed i residui paesi aderenti all’EFTA. Nel 1992, l’area di libero scambio, che dunque comprendeva diciotto paesi, di cui dodici della CE e sei dell’EFTA, fu trasformata nello Spazio Economico Europeo (SEE). In tal modo l’accordo di integrazione economica fu esteso al mercato unico, comprendendo così non solo la libera circolazione dei beni, ma anche quella dei servizi, dei capitali e del lavoro. Tuttavia, l’aver esteso questi accordi a tutta l’area non è stato sufficiente ad impedire che fossero ugualmente avanzate alcune candidature, da parte di paesi dell’EFTA, per l’adesione all’UE. Questi paesi hanno quindi dato prova non solo di preferire l’unione doganale all’area di libero scambio, ma di voler anche condividere tutto l’acquis communautaire, pur non avendo fino a quel momento contribuito alla sua costruzione. Il confronto tra il “modello CEE” ed il “modello EFTA” pare accreditare l’ipotesi secondo la quale le cause della maggiore instabilità del secondo risiedono proprio nella minore profondità di tale accordo, mentre il lentissimo e faticoso, quanto continuo, processo di integrazione conosciuto dal primo modello andrebbe ricondotto proprio al maggiore coinvolgimento che ha sempre richiesto ai suoi membri. Il progressivo svuotamento dell’EFTA potrebbe indicare non solo la superiorità del metodo comunitario e della via seguita per raggiungere l’integrazione economica, ma anche del fine – un fine politico piuttosto che commerciale – che questa si era posta come obiettivo. Il riconoscimento dei fini politici, anche se non condiviso da tutti i paesi - membri e potenziali - può essere comunque importante. Il gruppo di paesi determinato a raggiungerli assicurerà una coesione sufficiente a non far mancare la massa critica che farà ritenere agli altri che sia meglio partecipare all’integrazione, anche senza condividerne il fine ultimo, piuttosto che rimanere isolati. 341 C. Il processo di integrazione: diversi modelli e alcune definizioni Il susseguirsi degli ampliamenti dell’UE a nuovi paesi, se da un lato ne testimonia la vitalità e il successo, dall’altro ha posto il problema dell’accrescersi dell’eterogeneità dei paesi che ne fanno parte. Le nuove adesioni, portando con sé nuove istanze, hanno contribuito al cambiamento istituzionale, così come all’estendersi delle competenze comunitarie a nuove aree e al determinarsi del mutevole equilibrio tra i poteri dei diversi organismi. Tradizionalmente, il processo di integrazione economica è stato oggetto di studio soprattutto per quanto attiene all’integrazione dei mercati e agli effetti che ne possono discendere in termini sia di liberalizzazione degli scambi che delle conseguenti nuove opportunità che si vengono ad individuare. Il coinvolgimento completo dell’economia di un paese tuttavia era implicito nel concetto di “processo”, ed era parimenti implicito che tale coinvolgimento dovesse interessare sempre tutti i paesi che avessero aderito all’accordo. Si ricordi che un criterio vincolante per l’approvazione da parte del GATT degli accordi di commercio preferenziale – quali sono le prime forme di integrazione: le unioni doganali e le aree di libero scambio – richiedeva la sostanziale assenza di esenzioni da tali accordi sia di settori produttivi che di prodotti. Pertanto, sembrava ovvio che il processo di integrazione dovesse venire concepito nel divenire e senza riserve. Nel tentativo di definire precisamente le forme dell’integrazione economica, una prima distinzione è stata avanzata per differenziare l’integrazione commerciale dall’integrazione delle politiche. La prima si riferisce al fatto che le condizioni di domanda e di offerta nei diversi mercati sono determinanti per valutare il livello di integrazione tra i paesi, e si ritiene che questo sia tanto maggiore quanto maggiore è la convergenza che si osserva nel livello dei prezzi. L’osservazione della “legge del prezzo unico” darebbe una misura del livello di integrazione commerciale. La seconda non dispone di indicatori precisi e può arrivare a comprendere accordi di grado diverso che vanno dalla consultazione, alla cooperazione, al coordinamento, 342 alle politiche comuni applicate con regole nazionali, fino alla loro completa centralizzazione. Un’altra distinzione ricorrente, dovuta al premio Nobel Jan Tinbergen (1954), è quella tra integrazione negativa, che indica la rimozione di ostacoli e discriminazioni su base nazionale nei confronti delle regole e delle politiche che ricadono sotto la comune sorveglianza, ed integrazione positiva, che si riferisce al trasferimento di competenze ad istituzioni comuni deputate a gestirle in prima persona. Nella interpretazione corrente, una liberalizzazione commerciale tra paesi membri, che coinvolga i servizi ferroviari costituisce un esempio di integrazione negativa, mentre la definizione di una politica comune del trasporto ferroviario che ne stabilisca le regole generali e valga allo stesso modo per tutti i paesi è un esempio di integrazione positiva. Successivamente, e in misura maggiore in relazione alla maggiore eterogeneità dei paesi che hanno aderito all’UE - un esperimento di integrazione economica che si è rivelato ben più impegnativo di quanto mai avessero previsto le deroghe autorizzate dal GATT - si è posto il problema del se e del come si potesse “dosare” l’integrazione secondo i desideri diversi dei diversi paesi. La strategia incrementale delineata da Jean Monnet puntava a far emergere un interesse europeo superiore agli interessi nazionali e consisteva nel perseguire politiche comuni nelle aree nelle quali si poteva trovare una via alla cooperazione che sfruttando i vantaggi reciproci potesse realizzare il bene comune. L’integrazione veniva concepita come una successione di accordi ciascuno dei quali comportava ricadute su ambiti diversi - e spesso anche un interesse diverso per i diversi paesi - da cui scaturivano accordi cooperativi fondati su due impegni: 1) l’espansione verso un’integrazione sempre più stretta dichiarato nel preambolo sia del Trattato di Roma che del Trattato di Maastricht e 2) il recepimento dell’acquis communautaire entro il termine del periodo transitorio che viene negoziato per i paesi di nuova adesione. L’architettura istituzionale dell’UE non prevede una completa separazione dei poteri in capo alle sue istituzioni, ma si fonda su un complesso sistema di pesi e contrappesi 343 teso all’ottenimento di una decisione consensuale. Tuttavia, non sempre tutti i paesi sono stati pronti ad impegnarsi ed a partecipare pienamente a quanto consegue da ognuna delle decisioni comuni. Si è posto pertanto il problema di come rispondere ad esigenze sentite in modo anche molto diverso dai diversi paesi. Quando, nel 1975, fu presentato il rapporto Tindemans, che prospettava un’Europa a due velocità, si aprì un dibattito sull’opportunità politica di questa proposta, che aveva origine dal tentativo di aggirare le difficoltà incontrate dal processo di integrazione dopo il primo ampliamento. In quell’occasione il numero dei paesi della CE era aumentato di un terzo (da sei a nove) e la popolazione di un quarto e ciò avveniva nel clima di instabilità economica dei primi anni Settanta. Oggi, dopo che in molti ed importanti casi - gli accordi di Schengen , la Carta Sociale , l’Unione economica e monetaria - è accaduto che sia stato possibile evitare che l’adozione dovesse essere effettuata da tutti i paesi alla stessa data, è invalso l’uso di presentare, accanto alla trattazione dell’integrazione “tradizionale” anche le ragioni e i presupposti che stanno alla base dell’integrazione “flessibile”. Nell’ambito di questa nuova concezione dell’integrazione, sono state coniate varie locuzioni intese a suggerire la possibilità di percorsi immaginati per consentire ai paesi di impegnarsi gradualmente nei diversi livelli di integrazione: Europa a più velocità, a cerchi concentrici, alla carta, a geometria variabile. Al concetto di integrazione flessibile fanno capo nuovi strumenti: il coordinamento aperto e la cooperazione rafforzata. Il coordinamento aperto Il metodo di coordinamento aperto si applica a questioni di competenza nazionale e consiste nel delineare obiettivi e procedure volte a promuovere la convergenza ad uno standard comune in determinate aree di applicazione. Questa nuova formula, che indica un percorso molto diverso dal metodo comunitario, prevede che tutti i paesi si impegnino insieme, ma ciascuno con strumenti propri autonomamente determinati, 344 allo scopo di raggiungere gli obiettivi stabiliti congiuntamente. Il campo di applicazione riguarda un ampio numero di settori tra i quali sono comprese sia l’istruzione che la lotta all’esclusione sociale. In genere investe questioni per le quali i paesi non hanno trovato accordo sul percorso da seguire, pur condividendo l’obiettivo. Per “modernizzare il modello sociale Europeo” e conseguire obiettivi quali le pari opportunità nel mercato del lavoro, il miglior manto delle qualifiche e gli incentivi all’occupabilità, il sostegno allo spirito imprenditoriale, si è preferito affidarsi alla cooperazione tra i paesi su base volontaria, anziché ricorrere a regole in grado di fissare un percorso uguale per tutti. Benché facciano riferimento ad obiettivi identificati ed approvati dal Consiglio, gli interventi necessari non vengono tradotti in regolamenti, direttive e decisioni ma inducono i paesi membri a formulare piani comuni e trasmetterli alla Commissione che si limita alla sorveglianza, mentre Parlamento e Corte di giustizia svolgono un ruolo molto minore. Si tratta dunque di un metodo a carattere intergovernativo nel quale il controllo e la valutazione avviene tra pari: gli stati partecipanti utilizzano principalmente il confronto (benchmarking) e la diffusione delle buone pratiche (best practice). Un esempio di coordinamento aperto è costituito dalla Strategia di Lisbona con la quale l’Unione europea si riprometteva di “… diventare l’economia basata sulla conoscenza più competitiva e dinamica del mondo, in grado di realizzare una crescita economica sostenibile, con nuovi e migliori posti di lavoro e una maggiore coesione sociale”. A tale scopo fu deciso tra l’altro di elevare il tasso di occupazione dal 62,5% osservato nel 1999 per i quindici paesi al 70% , quello relativo alla popolazione femminile dal 53% al 60% e quello relativo alla popolazione anziana (lavoratori di età compresa tra i 55 ed i 64 anni) dal 37,1% al 50% entro il 2010. Per raggiungere tali obiettivi, ciascun paese poteva intraprendere le azioni che giudicava più adatte per il proprio mercato del lavoro, ma si riteneva che il controllo fra pari (peer pressure) avrebbe contribuito a consolidare la determinazione di quei paesi che si erano mostrati meno entusiasti ed avrebbero osteggiato il varo di una politica 345 comune, mentre invece con questo metodo probabilmente si sarebbero preoccupati di evitare una caduta della propria reputazione. La cooperazione rafforzata Il metodo della cooperazione rafforzata istituzionalizza la facoltà di non procedere insieme nel disegno e nella pratica delle politiche comuni. Introdotta dal Trattato di Amsterdam, semplificata dal Trattato di Nizza e consolidata dal Trattato di Lisbona, la cooperazione rafforzata dà la possibilità ad un sottoinsieme di paesi di procedere nell’integrazione in ambiti nei quali non tutti sono preparati ad impegnarsi subito, anche se ci si aspetta che lo faranno in seguito. I paesi che lo desiderano possono essere autorizzati dall’insieme dei paesi membri a stabilire accordi separati, secondo procedure definite collettivamente, nel caso in cui sia accertata l’indisponibilità di alcuni a prendere parte all’iniziativa fin dal suo avvio. La facoltà di esenzione (opting out) viene concessa, ai paesi che lo desiderano, per evitare che una paralisi decisionale impedisca a tutti gli altri di dotarsi di strumenti ritenuti utili al processo di integrazione. Gli accordi che derivano da una cooperazione rafforzata non rientrano nell’ambito dell’acquis communautaire e non sono vincolanti per i paesi che non partecipano, i quali perdono la possibilità di influenzarne il corso. Le cooperazioni rafforzate sono intese a promuovere la realizzazione degli obiettivi dell'Unione, a proteggere i suoi interessi e a rafforzare il suo processo di integrazione. Gli Stati membri che intendono instaurare tra loro una cooperazione rafforzata nel quadro delle competenze non esclusive dell'Unione possono far ricorso alle sue istituzioni ed esercitare tali competenze. Il Trattato di Lisbona stabilisce che tutti i membri del Consiglio possono partecipare alle sue deliberazioni, ma solo i rappresentanti degli Stati membri che partecipano possono prendere parte al voto. Gli atti adottati nel quadro di una cooperazione rafforzata vincolano solo gli Stati membri partecipanti e, non essendo considerati un acquis non devono essere sottoscritti dagli Stati candidati all'adesione all'Unione. Il Consiglio può autorizzare una cooperazione 346 rafforzata se ritiene che gli obiettivi che si pone non possano essere conseguiti entro un termine ragionevole dall'Unione nel suo insieme e vi partecipano almeno nove Stati membri. Possono essere oggetto di cooperazione rafforzata ad eccezione di quelle nelle quali è stata riconosciuta la competenza esclusiva dell’UE. Poiché è necessario assicurare che tale strumento agisca in coerenza con tutte le politiche comuni, la procedura istitutiva prevede che i paesi che desiderano varare una cooperazione rafforzata ne facciano domanda alla Commissione che, se la ritiene ammissibile, provvederà ad inoltrare la proposta al Consiglio, il quale, ottenuta l’approvazione del Parlamento, può approvarla. Per partecipare ad una cooperazione rafforzata già esistente un paese deve inoltrare la propria domanda alla Commissione ed al Consiglio. Se la Commissione non l’autorizza, il paese può rivolgersi direttamente al Consiglio. Nonostante lo snellimento e le facilitazioni che sono successivamente state introdotte per la formazione di cooperazioni rafforzate, questo strumento non ha trovato l’applicazione che ci si aspettava come riflesso del dibattito suscitato. Come esempi si portano a volte gli accordi di Schengen, o l’integrazione monetaria dallo SME in poi, poiché in entrambi i casi non tutti i paesi hanno partecipato fin dall’inizio a queste iniziative varate al di fuori del quadro comunitario. Si tratta tuttavia di esempi ante litteram dato che la loro costituzione è stata antecedente all’istituzione delle cooperazioni rafforzate. Inoltre, pur non partecipando all’UE, fanno parte della zona Schengen anche l’Islanda e la Norvegia. Uno dei problemi da superare, ed una delle ragioni che potrebbe spiegare tanta prudenza, consiste nella valutazione dell’eventuale danno, conseguente alla formazione di una cooperazione rafforzata, per chi decidesse di non partecipare. Il danno arrecato dovrebbe essere compensato? Un altro problema, ad esso collegato, deriva dall’eventuale comportamento strategico che ogni paese potrebbe adottare riservandosi di partecipare solo a fronte dell’evidenza di benefici netti da essa derivanti, mentre di solito le politiche comuni vengono disegnate “sotto un velo di 347 ignoranza” circa gli eventuali beneficiari, anzi avendo in mente che ogni paese può trovarsi di volta in volta nella posizione di beneficiario o meno. 4. Le istituzioni dell’Unione Europea Alle quattro istituzioni previste all’articolo 4 del Trattato di Roma – Assemblea, Consiglio, Commissione, e Corte di Giustizia – si sono aggiunte successivamente il Consiglio europeo, la Corte dei Conti e la Banca Centrale europea. Il Parlamento Europeo L’Assemblea, poi ridenominata Parlamento Europeo (PE), è stata concepita con funzioni prevalentemente consultive, diverse quindi da quelle dei parlamenti nazionali degli stati membri e con poteri molto più circoscritti. Già prevista nel quadro istituzionale che faceva capo alla CECA, allo scopo di evitare che l’operato di questa istituzione dipendesse dall’approvazione da parte dei governi nazionali, i suoi membri in un primo tempo venivano scelti tra gli eletti nei parlamenti nazionali ed erano tenuti a riunirsi una volta all’anno (il secondo martedì di marzo). L’istituzione del PE, luogo di rappresentanza democratica dei “popoli degli Stati riuniti nella Comunità”, incarna simbolicamente il superamento delle nazionalità separate ed ha rappresentato l’immagine più significativa della riconciliazione francotedesca che sta alla base del progetto di integrazione in Europa. Esprime il tentativo di dar vita - da principio solo simbolicamente, poi attraverso la legittimazione conseguita con le elezioni a suffragio universale diretto - all’Europa dei popoli che, secondo la concezione ideale di Jean Monnet, avrebbe dovuto prevalere sull’Europa delle patrie, che corrisponde invece ad un disegno istituzionale intrinsecamente intergovernativo al tempo propugnato, fra gli altri, da Charles de Gaulle. 348 Il ruolo del PE, definito da Ralf Dahrendorf “la foglia di fico” democratica su un corpo le cui caratteristiche rimanevano essenzialmente quelle di un organismo burocratico, col procedere dell’integrazione si è notevolmente ampliato. Dal 1979, quando per la prima volta si sono tenute elezioni a suffragio universale, i parlamentari europei, legittimati dal voto diretto e solo eccezionalmente forniti di doppio mandato – ai Parlamenti nazionale ed europeo – hanno cercato costantemente di contribuire a colmare il deficit democratico lamentato per le istituzioni europee, facendosi attribuire nuovi compiti, a volte anche solo simbolici, e moltiplicando le iniziative tese ad accrescere la propria influenza. Nel febbraio del 1984, approvando a larghissima maggioranza, con deputati di ogni gruppo politico e di ogni paese, il Progetto di Trattato sull’Unione Europea presentato su iniziativa di Altiero Spinelli, il Parlamento europeo aveva svolto un ruolo di primaria importanza nel rimettere in moto il processo di integrazione che incontrava un periodo di stasi (l’eurosclerosi). Tale ruolo venne premiato con un’estensione dei suoi poteri. Il Parlamento Europeo ha anche cercato di riformare i rapporti che lo legano alle altre istituzioni comunitarie, in particolare nell’equilibrio tra i propri poteri e quelli del Consiglio. Il potenziamento delle sue prerogative costituisce, infatti, la via maestra per il progressivo superamento del gap democratico. Nel contesto di tale dibattito, il PE ha chiesto ed ottenuto dalle Conferenze Intergovernative indette per le modifiche ai Trattati un accresciuto ruolo nelle procedure decisionali e l’elezione del presidente della Commissione su parere del Consiglio europeo. I poteri che oggi esercita - legislativo, di bilancio e di controllo - hanno potuto rafforzarsi e consolidarsi, attraverso i successivi trattati, investendo nuove aree di competenza ed irrobustendo la cifra sovranazionale della costruzione istituzionale comunitaria. Il potere legislativo, limitato alla procedura di consultazione secondo il Trattato di Roma del 1957, in seguito al TUE viene condiviso con il Consiglio dell’Unione su una base ormai paritaria, secondo la procedura di co-decisione che si applicava alla maggior parte delle decisioni assunte nell’ambito del primo pilastro dell’Unione 349 Europea. I poteri del PE, in seguito all’adozione del Trattato di Lisbona, sono stati rafforzati principalmente riguardo all’approvazione del bilancio comune e nell’estendere le aree nelle quali può intervenire: la sicurezza e la giustizia saranno soggette alla procedura di co-decisione divenuta procedura legislativa ordinaria. Il potere di iniziativa politica spetta alla Commissione, ma il Parlamento può chiedere l’inizio della procedura ed esercitare comunque pressioni. Si ritiene che in alcune occasioni, nelle quali la capacità decisionale del Consiglio appariva piuttosto debole, un esempio tra tutti il ruolo giocato nell’iter che ha condotto all’approvazione dell’Atto Unico Europeo, il Parlamento Europeo abbia svolto efficacemente un’opera di indirizzo e di sostegno alla Commissione. Il potere in materia di bilancio prevede che, solo dopo l’approvazione definitiva del Parlamento, il bilancio preventivo possa entrare in vigore e, in questo modo, possa conferire alla Commissione piena capacità di spesa. In caso contrario, il Parlamento, qualora ritenga che le modifiche suggerite non siano state accolte, può respingere il bilancio in seconda lettura e pretenderne una completa riformulazione, mentre la mancata approvazione entro i termini fa scattare il passaggio all’esercizio provvisorio di bilancio. Anche il bilancio consuntivo deve essere passato al vaglio del Parlamento Europeo che può rifiutarne l’approvazione. Il Parlamento vota la fiducia all’insediamento della Commissione, dopo aver sottoposto i singoli commissari a un’audizione e, con i 2/3 dei voti espressi e la maggioranza dei parlamentari, può votare la sfiducia alla Commissione nel suo complesso, ma non può influenzarne la successiva composizione. Le mozioni di sfiducia, che finora sono state presentate non hanno mai raggiunto il necessario numero di voti, tuttavia nel marzo del 1999 la commissione Santer si dimise proprio per evitare la mozione di censura. Il potere di controllo del PE si è esteso dall’esame dell’attività della sola Commissione - nei confronti della quale può esercitare il diritto di censura - al diritto ad esprimersi sull’operato di tutte le istituzioni, incluso il Consiglio europeo, e a partecipare senza limiti alla discussione su ogni attività che riguardi aspetti dell’attività comunitaria attraverso interrogazioni, commissioni 350 d’inchiesta e anche ricorsi. Anche la nomina del presidente e di tutto il consiglio direttivo della BCE deve essere approvata dal PE che annualmente, in seduta plenaria, riceve il rendiconto dell’attività da parte del presidente della BCE. Le elezioni dei parlamentari europei si svolgono ogni cinque anni, con un sistema elettorale comune per quanto riguarda la definizione dell’elettorato e le regola proporzionale, ma che mantiene procedure elettorali diverse nei paesi membri, ad esempio per la definizione delle circoscrizioni e i giorni di apertura dei seggi. Il numero di parlamentari europei eletti in ciascun paese membro è fissato dai trattati. Questo numero si è accresciuto in seguito sia alla prima elezione diretta che alle nuove adesioni, inclusa quella dei 5 Laender conseguita all’unificazione tedesca. Attualmente, nella Settima legislatura (2009-2014) il PE è composto da deputati che si riconoscono in oltre 100 partiti nazionali, riuniti in gruppi parlamentari transnazionali cui partecipano i parlamentare europei di orientamento affine, indipendentemente dalla loro nazionalità. Tuttavia, generalmente solo nei due gruppi parlamentari più numerosi sono rappresentate tutte le nazionalità. Il Trattato di Lisbona ha fissato in 750 più il Presidente il numero massimo dei parlamentari europei che sarà possibile eleggere dalla prossima legislatura in poi, a meno di ripensamenti, indipendentemente dal numero delle adesioni di nuovi paesi che in futuro potranno interessare l’UE. Il numero minimo di deputati eletti in un paese è fissato in sei, mentre il massimo è pari a novantasei. Nell’attuale settima legislatura che si concluderà nel 2014, il numero di eletti è pari a 753. Così come in Francia e nel Regno Unito, paesi di pari consistenza demografica anche in Italia il numero di deputati è stato ridotto da 78 a 72; all’Italia è stato inoltre attribuito un deputato osservatore che si è aggiunto nel 2011, mentre la Francia oggi conta 74 parlamentari. Il numero di parlamentari si è accresciuto in seguito ai successivi ampliamenti, ma non solo. Mentre il numero di deputati per il Lussemburgo è rimasto immutato nel corso degli anni, il numero dei parlamentari eletti negli altri paesi ha avuto 351 l’incremento maggiore – da 36 ad 81 deputati per i paesi più grandi – nella prima legislatura nella quale il PE è stato eletto, invece che nominato. Il Parlamento Europeo ha sede ufficiale a Strasburgo, che fin dal 1952 è stata sede dell’Assemblea, ma gran parte dei lavori parlamentari, ad esempio quelli delle commissioni, si svolgono a Bruxelles. I poteri costituzionali del Parlamento Europeo sono ancora molto inferiori a quelli dei parlamenti nazionali specialmente in riferimento ai rapporti che esistono tra questi e i governi, che sono espressione della maggioranza parlamentare. Tuttavia, il PE ha utilizzato ogni occasione per spingersi ai confini delle sue possibilità di intervento, ad esempio sottoponendo i commissari all’audizione che prelude il loro insediamento, oppure impegnandosi in un accordo interistituzionale con il Consiglio e la Commissione per la stesura del bilancio, o per la procedura dei comitati di conciliazione, La procedura di parere conforme, che viene usata per accordi internazionali, fondi strutturali, sanzioni verso uno stato membro, rappresenta tuttavia un ampliamento di potere più simbolica che reale. Il Consiglio dell’UE In passato denominato Consiglio dei Ministri o Consiglio dell’Unione Europea, è composto dai ministri dei paesi membri, che rispondono al proprio parlamento nazionale delle decisioni assunte collettivamente. Si tratta dunque di un’istituzione a carattere inter-governativo nella quale, per ciascun paese, siede un solo rappresentante del governo, di volta in volta competente per la materia del suo dicastero. Il suo compito è, principalmente, quello di tutelare gli interessi nazionali nel corso delle discussioni che precedono ogni decisione comune ed in sede deliberante. Il Consiglio presiede all’attività legislativa dell’Unione Europea ed ha il potere di controllo finale sulla normativa comunitaria. Dall’entrata in vigore del TUE, per 352 quanto riguarda le decisioni relative alla Comunità Europea, che costituiva il primo pilastro nell’architettura dell’Unione, questa funzione veniva esercitata insieme al Parlamento Europeo, deliberando sulle proposte avanzate dalla Commissione. L’adozione di decisioni comuni poteva essere effettuata secondo le procedure di consultazione , di cooperazione , co-decisione e parere conforme, che si applicano coerentemente a quanto indicato nei trattati, e si differenziano tra loro per il diverso grado di coinvolgimento richiesto da parte del PE. Tradizionalmente, la materia agricola era soggetta alla procedura di consultazione, per le spese non obbligatorie del bilancio comune si applicava la procedura di cooperazione, mentre per le decisioni nell’ambito del mercato interno vigeva la procedura di co-decisione. Il Trattato di Lisbona ha esteso il ricorso a tale procedura che diviene così la procedura ordinaria per l’adozione delle decisioni abituali. Ne restano escluse alcuni importanti ambiti decisionali tra cui la materia fiscale. L’attività decisionale esercitata nell’ambito degli altri due pilastri previsti dal Trattato di Maastricht (Trattato dell’Unione Europea) era soggetta a procedure diverse. Nell’area della politica estera e sicurezza comune (PESC), che costituiva il secondo pilastro, il Consiglio doveva seguire gli orientamenti dettati dal Consiglio europeo giungendo alla formulazione di azioni o posizioni comuni, mentre nell’area degli affari interni e giustizia (GAI), che costituiva il terzo pilastro, il Consiglio agiva su iniziativa della Commissione ovvero di uno stato membro e, oltre ad adottare posizioni comuni, poteva anche emanare decisioni e stabilire convenzioni. Oltre all’attività legislativa, il Consiglio condivide con il Parlamento Europeo la responsabilità di approvare il bilancio generale dell’UE, ed ha il compito di coordinamento delle politiche economiche degli stati membri e di ratifica degli accordi internazionali stipulati a nome della Comunità, in primis gli accordi commerciali che impegnano i paesi dell’Unione Europea nell’ambito del GATT/WTO. Il semestre di presidenza del Consiglio viene assunto a turno dai paesi membri secondo un ordine che tradizionalmente rispettava l’ordine alfabetico dei nomi dei 353 paesi membri in lingua originale. Dal 1993 tuttavia l’ordine è stato modificato ed i turni di presidenza vengono stabiliti periodicamente di comune accordo per diversi anni a venire. Per garantire continuità nella gestione dell’agenda, la presidenza di turno lavora in stretto contatto con quella che l’ha preceduta e quella che seguirà nell’ambito della cosiddetta “troika”; quindi la responsabilità effettiva del semestre di presidenza copre, di fatto, diciotto mesi. Il Consiglio si riunisce in formazione diversa a seconda del tema da trattare: ne fanno parte, in base alla specifica area di competenza, di volta in volta i ministri responsabili in sede nazionale dell’argomento posto all’ordine del giorno. Le formazioni di più antica data - quali il Consiglio “Affari generali” composto dai ministri degli esteri ed il Consiglio “Agricoltura” composto dai ministri dell’agricoltura - sono state affiancate dal Consiglio “Ecofin” composto dai ministri dell’economia e delle finanze, e successivamente anche dai Consigli Lavoro, Trasporti, Energia, Ambiente e successivamente Sanità, Turismo ed altri. Per questa sua peculiarità, che coniuga unità e variabilità di composizione, il Consiglio è stato paragonato all’Idra di Lerna, il mostro con tante teste su un corpo solo, descritto dalla mitologia classica. Il paragone intendeva sottolineare l’inconsueto aspetto multiforme che contraddistingue questa istituzione, le cui caratteristiche fanno sì che essa si differenzi totalmente da un Consiglio dei ministri tradizionale, riferito ad un governo nazionale, nel quale siedono tutti i ministri del governo in carica. Il Trattato di Lisbona, forse anche per questo, ha cambiato la denominazione da Consiglio dei ministri a Consiglio dell’Unione Europea e, fissando in dieci il numero delle sue formazioni, ha proseguito nella tendenza a ridurre il numero delle teste dell’Idra, una caratteristica che spesso - ostacolando l’unitarietà di comportamenti a causa, ad esempio, di vedute ed opinioni opposte tra i ministri economici ed i ministri dell’agricoltura - è stata ritenuta un limite all’efficacia dell’operato del Consiglio. Infatti, benché la variabilità della sua composizione non ne pregiudichi l’unità istituzionale, sono stati a volte sollevati dubbi sull’efficacia di un processo 354 decisionale che si affida ad una formazione variabile a seconda della materia trattata. Da questo connotato istituzionale conseguirebbe inevitabilmente una certa frammentarietà delle decisioni, quando non addirittura una vera e propria deresponsabilizzazione, lamentata in primo luogo riguardo alle decisioni di spesa a carico del bilancio comune. Alle molte teste del Consiglio è stata attribuita in passato una delle principali cause del progressivo lievitare delle spese di bilancio, una circostanza che ha portato a diverse crisi finanziarie ed istituzionali nel corso degli anni Ottanta. Dalle ventidue formazioni esistenti negli anni Novanta, oggi sono presenti: 1. Affari generali, costituito dai ministri degli esteri lavora a stretto contatto con il Consiglio europeo; 2. Affari esteri, presieduto dall’Alto rappresentante dell’Unione per gli affari esteri e la politica di sicurezza (posizione ricoperta oggi dalla signora Catherine Ashton); 3. Economia e finanza (Ecofin), si riunisce una volta al mese ed è competente anche per le questioni relative all’unione monetaria; in tal caso sono abilitati alla votazione solo i ministri dei paesi che hanno adottato la valuta comune e che costituiscono l’Eurogruppo; 4. Giustizia e affari interni (GAI), composto dai ministri degli interni; 5. Occupazione, politica sociale, salute e consumatori, 6. Competitività (mercato interno, industria, ricerca e spazio), 7. Trasporti, telecomunicazioni ed energia, 8. Agricoltura e pesca, 9. Ambiente, 10. Istruzione, gioventù, cultura e sport. Le proposte avanzate dalla Commissione possono talvolta essere votate a maggioranza semplice o più spesso a maggioranza qualificata, ma il ricorso esplicito alle votazioni è meno frequente della ricerca del consenso unanime di tutto il Consiglio. Il Trattato di Roma stabiliva che l’unanimità dovesse essere raggiunta de jure obbligatoriamente soltanto durante gli anni del periodo transitorio (1957-1969) e, al termine di questo periodo, solo per le nuove adesioni e per l’adozione di proposte che non fossero state presentate dalla Commissione. In effetti invece, la prassi ha voluto che l’unanimità sia stata ricercata de facto in ogni occasione anche molto dopo il 355 1969. Questa consuetudine si è radicata in conseguenza all’accaduto durante il “periodo della poltrona vuota”, conclusosi con il “Compromesso del Lussemburgo”. La Francia, contraria all’approvazione del pacchetto presentato dalla Commissione che si articolava in tre punti - regolamentazione del settore agricolo, istituzione di risorse di bilancio autonome e accresciuti poteri per il Parlamento Europeo – ritirò la propria delegazione e si astenne dal partecipare alle riunioni per protesta finché il 28 gennaio 1966 fu raggiunto un accordo secondo il quale, se un paese avesse dichiarato che una decisione comune avrebbe potuto mettere a rischio importanti interessi nazionali, il Consiglio si sarebbe impegnato a ricercare una soluzione accettabile da tutti i suoi membri. Il Compromesso del Lussemburgo, dovuto all’insistenza francese per la ricerca del consenso unanime, ha avuto effetti di lungo termine sulla prassi delle votazioni. La strategia dell’astensione dalle attività collegiali ha avuto un effetto durevole sulle procedure di votazione. Anche se in seguito non sono mancati i tentativi, anche autorevoli, di far applicare il dettato costituzionale, si è osservata una notevole riluttanza a sostituire la prassi delle votazioni all'unanimità con votazioni a maggioranza in tutti quei casi in cui questa procedura sarebbe stata consentita. A ciò ha contribuito il fatto che “gli interessi vitali della nazione” sono stati spesso invocati con disinvoltura anche se non sempre con lo stesso esito. Ad esempio nel 1982 quando il Regno Unito oppose un veto, senza successo, alla annuale decisione sull’aumento dei prezzi agricoli perché voleva collegarla ad una riduzione del suo contributo al bilancio, o nel 1983 quando, nella stessa occasione, la Germania giudicò insufficiente l’aumento dei prezzi agricoli proposto dalla Commissione e riuscì ad impedire che si arrivasse alla decisione che osteggiava. Si ritiene che la ricerca dell’unanimità sia stata un motivo non secondario di difficoltà ai fini del contenimento della spesa agricola, per lunghi anni uno dei problemi più spinosi nei rapporti tra i paesi e le istituzioni comunitarie. La soluzione di compromesso, infatti, spesso è stata trovata nella pratica del log-rolling, cioè dell’approvazione incrociata delle istanze di tutti i paesi, collegate tra loro in “pacchetti” da votarsi in toto. In 356 molti casi, nessuna di queste proposte, singolarmente presa, avrebbe potuto raccogliere i voti necessari per essere approvata, ma in presenza di un vincolo di bilancio accomodante (soft budget constraint) è la composizione stessa del “pacchetto” che ne rende possibile l’approvazione. Benché già nelle conclusioni del Consiglio europeo di Parigi del 1974 venisse incoraggiato esplicitamente un maggiore ricorso alle votazioni a maggioranza, come era previsto dal Trattato di Roma, queste sono entrate nella prassi solo in seguito all’entrata in vigore dell’Atto Unico Europeo, che le richiede espressamente per le decisioni relative al “completamento del mercato interno”, cioè quelle che riguardano la rimozione degli ostacoli che limitano la libera circolazione dei beni, dei servizi, delle persone e dei capitali. Tabella 1 – Evoluzione della ponderazione dei voti nel Consiglio per le votazioni a maggioranza qualificata in seguito agli ampliamenti CE-6 CE-9 CE-10 CE-12 UE-15 UE-25 CEEA Francia 4 10 10 10 10 29 10 Germania 4 10 10 10 10 29 10 Italia 4 10 10 10 10 29 10 Belgio 2 5 5 5 5 12 5 Paesi Bassi 2 5 5 5 5 13 5 Lussemburgo 1 2 2 2 2 4 2 Danimarca 3 3 3 3 7 3 Irlanda 3 3 3 3 7 3 Regno Unito 10 10 10 10 29 10 5 5 5 12 5 Spagna 8 8 27 8 Portogallo 5 5 12 5 4 10 4 Grecia Austria 357 Finlandia 3 7 3 Svezia 4 10 4 Repubblica Ceca 12 5 Estonia 4 3 Cipro 4 2 Lettonia 4 3 Lituania 7 3 Ungheria 12 5 Malta 3 2 Polonia 27 8 Slovenia 4 3 Slovacchia 7 3 totale 17 58 63 76 87 321 124 maggioranza 12 41 45 54 62 232 88 Quota % 0.706 0.707 0.714 0.711 0.713 0.723 0.71 La procedura di voto in base alla maggioranza qualificata prevede che ai paesi vengano attribuiti voti in proporzione alla popolazione che rappresentano e che per essere approvata una proposta debba raccogliere un numero di voti favorevoli non inferiore ad una soglia prefissata. La ponderazione dei voti per i sei paesi fondatori erano stata stabilita secondo il seguente criterio: 4 per i tre più grandi (Francia, Germania e Italia), 2 per Belgio e Paesi Bassi ed 1 per il Lussemburgo e con la soglia di 12 voti favorevoli necessari perché una mozione potesse passare. Dopo il primo ampliamento la ponderazione è stata rivista per consentire a Danimarca e Irlanda un peso che riflettesse la loro dimensione intermedia nell’ambito dei tre paesi più piccoli. Le Tabelle 1 e 2 mostrano rispettivamente come è cambiata la ponderazione dei voti e la soglia per la maggioranza qualificata. Inizialmente definita dal rapporto 12/17, pari 358 cioè al 70,6%, di conseguenza è stata posta pari a 41 voti favorevoli sul totale di 58, in modo da mantenere la stessa quota del 71% di voti favorevoli. In seguito ai successivi ampliamenti queste cifre sono state modificate ed attualmente per ottenere la maggioranza qualificata in seno al Consiglio dell’Unione occorrono 255 voti su un totale di 345, che corrisponde ad aver elevato la soglia al 74% dei voti favorevoli per adottare una delibera. Pertanto, una delibera può essere bloccata da una minoranza in grado di raccogliere 91voti contrari. Il Consiglio è assistito nella sue funzioni dal Comitato dei Rappresentanti Permanenti (COREPER) un organo composto di ambasciatori che rappresentano gli stati membri presso l’UE e che ha il compito di preparare le riunioni dei ministri coordinando l’attività di numerose commissioni tecniche, comitati e gruppi di lavoro e di risolvere preliminarmente le questioni che, per loro natura, non richiedono l’intervento diretto del Consiglio. Tabella 2 - Ponderazione nel Consiglio per votazioni a maggioranza qualificata Paesi Numero di voti Germania, Francia, Italia, Regno Unito 29 Spagna, Polonia 27 Romania 14 Paesi Bassi 13 Belgio, Repubblica ceca, Grecia, Ungheria, Portogallo 12 Austria, Bulgaria, Svezia 10 Danimarca, Irlanda, Lituania, Repubblica slovacca, Finlandia 7 Cipro, Estonia, Lettonia, Lussemburgo, Slovenia 4 Malta 3 Totale 345 Da più parti sono state avanzate in diverse occasioni opinioni critiche in merito alla struttura ed al funzionamento del Consiglio relativamente all’insufficiente coesione 359 tra i consigli settoriali, alla lentezza delle procedure, ed alla eccessiva dispersione del potere, che rende difficile prendere decisioni rapide ed incisive. Alcuni dei cambiamenti introdotti ne hanno migliorato la capacità decisionale: il maggiore ricorso alle votazioni a maggioranza, la maggiore continuità assicurata dalla troika, lo sviluppo di programmi di ampio respiro graduali e di lungo periodo, il maggior potere e responsabilità alla presidenza. La Commissione Europea Nell’ambito delle istituzioni dell’Unione Europea, la Commissione, che ha sede a Bruxelles, è l’apparato burocratico con funzioni propositive ed esecutive cui è stato affidato il compito di assicurare il funzionamento e lo sviluppo del mercato comune. In base al Trattato di Lisbona la Commissione europea promuove l’interesse generale dell’UE e a tal fine adotta iniziative. Vigila sull’applicazione dei Trattati e del diritto dell’UE sotto il controllo della Corte di Giustizia. Dà esecuzione al bilancio e gestisce i programmi. Esercita funzioni di coordinamento, di esecuzione e di gestione, alle condizioni stabilite dai trattati. Assicura la rappresentanza esterna dell'Unione, fatta eccezione per la politica estera e di sicurezza comune e per gli altri casi previsti dai trattati. Avvia il processo di programmazione annuale e pluriennale dell'Unione per giungere ad accordi interistituzionali. La Commissione è un organo tecnico, non politico, anche se a volte si è resa promotrice di iniziative di ampio respiro, che comportavano inevitabilmente implicazioni politiche. Questa caratteristica di organo tecnico con finalità politiche era già ben presente nell’Alta Autorità, l’organismo che ha preceduto la Commissione nell’impianto istituzionale della CECA. All’Alta Autorità erano state attribuite competenze tecniche necessarie per l’organizzazione del settore carbo-siderurgico, ma, oltre al suo operare, il fatto stesso che fosse stata istituita, rivestiva un innegabile significato politico, coerentemente con l’approccio funzionalista all’integrazione. Per questa ragione, il confronto tra i poteri esecutivi della Commissione e quelli dei singoli governi 360 nazionali è piuttosto improprio, dato che la Commissione non è un governo; ma anche il confronto con altri organismi tecnici, quali le segreterie delle diverse organizzazioni internazionali, appare mal posto e decisamente riduttivo. I componenti della Commissione devono essere cittadini di uno stato membro e vengono scelti tra personalità che offrono massima garanzia di indipendenza, competenza ed impegno europeo. I commissari vengono nominati di comune accordo dagli stati membri dal presidente della Commissione, dopo che questo è stato eletto dal Parlamento europeo su proposta da parte del Consiglio europeo. Il presidente della Commissione partecipa alla selezione dei commissari dato che la Commissione deve seguirne gli orientamenti politici. Una volta nominati, i commissari “non sollecitano né accettano istruzioni da alcun governo, istituzione,organo o organismo” rimangono in carica per cinque anni con mandato rinnovabile e devono rassegnare le dimissioni se il presidente lo chiede. La durata dell’incarico, inizialmente stabilita in quattro anni, è stata elevata a cinque in modo che il rinnovo della Commissione avvenga in coincidenza con l’inizio di ogni nuova legislatura. Il Parlamento, eletto sei mesi prima, sottopone tutti i commissari a un’audizione e al voto e in qualsiasi momento può esprimere la sfiducia alla Commissione intera costringendola a dimettersi in blocco. Il Trattato di Roma richiedeva la nomina di almeno un commissario per ogni paese membro, ed inizialmente si era stabilito che dai paesi “grandi” avessero diritto ad inviare due commissari. Oggi nella Commissione europea siede un rappresentante per ogni paese. Tuttavia, in seguito alle adesioni del nuovo millennio, che hanno quasi raddoppiato il numero dei paesi membri ed in previsione di ulteriori ampliamenti, è stato convenuto di limitarne il numero ai due terzi del numero dei paesi membri, a partire dalla nomina della prossima Commissione che avverrà il 1° novembre 2014 e di instaurare una rotazione paritaria che tenga conto delle caratteristiche demografiche e geografiche dei paesi e ne rifletta la varietà. L’indipendenza dai governi nazionali ed il compito di salvaguardare gli interessi collettivi della Comunità hanno indotto a ritenere che questa istituzione intenda 361 prefigurare un modello federale di governo. Di conseguenza, il suo operato andrebbe valutato in termini sia della tendenza ad una dilatazione dei suoi poteri, che di un più o meno rapido approssimarsi alla struttura di un’eventuale federazione. La controversia sull’opportunità di un’evoluzione dell’UE verso una federazione europea ha fatto sì che la Commissione sia stata oggetto di valutazioni contrastanti: è stata definita da un lato “il cuore e il motore della Comunità” e allo stesso tempo, nelle parole di de Gaulle, “questo embrione di tecnocrazia in gran parte straniera”. La Commissione è organizzata in Direzioni Generali, in genere poste sotto la guida speciale di un commissario e Servizi generali che fanno capo al presidente, sul quale grava anche la responsabilità sull’operato dell’istituzione. La struttura organizzativa viene ridefinita al momento dell’insediamento di ogni nuova Commissione, anche allo scopo di includere le aree di competenza comunitaria che possono essersi aggiunte col procedere dell’integrazione. Non esiste tuttavia una precisa corrispondenza tra il numero dei commissari e quello delle direzioni generali. I commissari nominano il proprio gabinetto e sono responsabili di un portafoglio, che può corrispondere ad una o più direzioni generali (o anche ad una parte di queste) o a una serie di problematiche. Anche se l’iniziativa dei singoli commissari viene in genere favorita dalla coincidenza tra l’area della propria direzione generale e del portafoglio, questa corrispondenza flessibile sottolinea il carattere collegiale cui si è sempre ispirato il metodo di lavoro della Commissione. Nell’ambito del sistema decisionale comunitario, la Commissione europea ha il diritto di iniziativa politica, che consiste nel formulare proposte nell’interesse generale della Comunità da sottoporre al Parlamento e al Consiglio. Il campo di azione può comprendere obiettivi strategici e di grande portata come sono stati i provvedimenti in campo monetario per l’avvio del Sistema Monetario Europeo per la Commissione Jenkins (1977-81) o il completamento del mercato interno per la Commissione Delors (1985-95), o l’ampliamento, difficile per il necessario adeguamento istituzionale, a dieci nuovi paesi per la Commissione Prodi (20002004), oppure anche soltanto proporre la legislazione per gestire una politica esistente 362 o che si rende necessaria in seguito all’inclusione di una nuova area di interesse comune. Le proposte devono riguardare aree comprese nella giurisdizione comunitaria o ad essa riconducibili e vengono discusse preliminarmente, attraverso scambi di opinioni e pareri tecnici, con i rappresentanti di tutti i settori della società, in modo di cercare di conciliare i diversi interessi. La Commissione svolge così anche un ruolo di mediazione tra gli stati membri con l’obiettivo di vigilare sul prevalere degli interessi dell’Unione su quelli nazionali. Il ruolo di “guardiano dei Trattati” comporta il potere di controllo sull’effettivo rispetto dei principi dei Trattati e della normativa europea da parte di individui, imprese, stati membri. La Commissione può indagare e verificare il rispetto delle norme. Se rileva un’applicazione scorretta della legislazione europea, può avviare procedure di infrazione e comminare ammende. In caso di perdurante inadempienza a conformarsi alla normativa comune la Commissione si appella alla Corte di giustizia. Tuttavia, l’area di interesse comunitario col tempo si è molto ampliata, la Commissione, che dispone di un organico di circa 23000 unità, non ha personale sufficiente per svolgere autonomamente questa funzione in modo adeguato. È stato perciò introdotto l’obbligo di notifica: ad esempio, devono essere notificati alla Commissione tutti gli atti legislativi da parte dei paesi che intendano erogare sussidi statali potenzialmente in contrasto con la politica di concorrenza, oppure le decisioni delle imprese che progettano standard nazionali che potrebbero costituire un ostacolo agli scambi anche indirettamente. La Commissione ha il potere esecutivo sia nella gestione del bilancio generale per il finanziamento delle politiche comuni, che per alcune politiche – tra cui la politica di concorrenza - per le quali la normativa prevede una maggiore autonomia decisionale; la Commissione rappresenta gli stati membri nei negoziati sul commercio internazionale ed in genere nelle relazioni commerciali esterne. In questa veste, ha rappresentato l'interlocutore privilegiato dell’amministrazione americana riguardo alla definizione degli accordi WTO. Inoltre, ha assunto il coordinamento degli aiuti 363 occidentali alle economie dell’Europa centro-orientale e cura la raccolta di informazioni e pareri tecnici su cui si costruiscono i negoziati per le nuove adesioni. Nell’operato della Commissione ampia delega di responsabilità viene assegnata alle strutture amministrative degli stati membri. Nell’avallare questa scelta si è privilegiato il modello tedesco nel quale la legge federale viene applicata dalle autorità locali, a differenza di quanto avviene negli Stati Uniti dove questo compito è assegnato alle autorità federali. Ciò consente di mantenere un organico più snello, ma nello stesso tempo comporta una minore efficacia dell’azione sia nel caso di incapacità che nel caso di mancanza di volontà locale ad applicare la normativa. La Commissione è stata al centro di tutti i principali cambiamenti intervenuti nell’Unione Europea: il programma per il completamento del mercato interno; lo sviluppo dei piani per l'unione economica e monetaria; la formulazione di una nuova generazione di politiche ambientali; il disegno di una strategia di sviluppo per le regioni arretrate della CE, la costruzione di programmi di ricerca in collaborazione con il settore privato. Un ruolo di questa importanza è stato giocato senza che sia stata sostanzialmente modificata né la struttura, né l’organizzazione della Commissione, che in massima parte rispecchia quanto deciso nel 1957. Questo risultato è attribuibile ad elementi sia esterni, quali i cambiamenti nelle priorità degli stati membri, nell’agenda comunitaria e nei rapporti con le altre istituzioni, che interni: in primo luogo il personale politico del collegio dei commissari - che generalmente hanno ricoperto ruoli politici di spicco nei loro paesi più spesso come ministri o leader politici, ma anche come accademici ed altre personalità che a vario titolo hanno svolto un importante ruolo nella vita pubblica. Il giudizio sull’attuale status della Commissione all’interno della complessa strategia istituzionale della UE è controverso. È stata avanzata l’ipotesi un indebolimento dei poteri della Commissione. Il declino sarebbe osservabile fin dalla conclusione del periodo transitorio e riconducibile ad un insieme di fattori, anche contraddittori, che fanno riferimento da un lato alla partecipazione tiepida di una parte dei paesi nuovi 364 aderenti e alla difficoltà di gestione degli impegni assunti e dall’altra al pressoché continuo emergere di questioni delicate che mettono in evidenza il problema del cosiddetto “gap democratico” delle istituzioni comunitarie. Una prova del suo ruolo meno propositivo ed anche della minore capacità di fare osservare le politiche decise, sarebbe il mancato aumento dei suoi poteri nei due nuovi pilastri che hanno affiancato la Comunità Europea nelle disposizioni del Trattato di Maastricht. Questa interpretazione non sembra convincente. La sua influenza, e indirettamente i suoi poteri, sono aumentati con l’ampliarsi delle politiche e l’aggiungersi delle nuove aree di competenza. Pur non rappresentando l’unica forza motrice, è indubbio che svolga un ruolo centrale nel processo di integrazione. La Corte di Giustizia dell’Unione Europea La Corte di Giustizia dell’Unione Europea comprende la Corte di Giustizia, il Tribunale e i tribunali specializzati ed è assistita dagli avvocati generali. E’ necessario evitare di confondere la Corte di Giustizia, che ha sede in Lussemburgo, sia con la Corte Europea dei Diritti Umani di Strasburgo, organismo del Consiglio d’Europa, che con la Corte Internazionale di Giustizia dell'Aia, organismo delle Nazioni Unite. Solo la prima fa parte dell’impianto istituzionale dell’UE. La sua attività ha avuto inizio con il Trattato di Parigi che nel 1951 ha istituito la CECA. La sua giurisdizione è stata poi estesa alle altre due Comunità Europee (CEE e Euratom) istituite dai Trattati di Roma nel 1957. La Corte di giustizia ha il compito di far osservare i Trattati e la normativa adottata dalle istituzioni comuni sia attraverso l’interpretazione che l’applicazione della legislazione comune. Occorre infatti assicurarsi che in ciascun paese il diritto venga applicato allo stesso modo. I giudici rimangono in carica per sei anni rinnovabili. Al fine di assicurare continuità all’istituzione, i mandati non scadono mai contemporaneamente, ma ogni tre anni si procede alla nomina di una parte dei suoi componenti e all’elezione del presidente 365 della Corte. Nonostante che per consuetudine l’incarico venga attribuito tenendo conto, oltre che della comprovata indipendenza e competenza giuridica, anche della nazionalità dei giudici – uno per stato membro, così come per il Tribunale - questi non rappresentano il proprio paese in seno alla Corte. L’indipendenza del loro ruolo è protetta sia dalla segretezza delle votazioni che si tengono a maggioranza che dall’inamovibilità. Quest’ultima sussiste a meno che, con votazione unanime da parte dei membri della Corte stessa, venga riconosciuta un’evidente impossibilità a continuare a svolgere l’attività giudicante. Le procedure di voto a maggioranza e l’indipendenza dalla nazionalità, insieme al ruolo che le è stato assegnato, concorrono a definire il carattere sovranazionale di questa istituzione. La Corte si riunisce in seduta plenaria solo su richiesta di uno stato o di una istituzione parte in causa, mentre di solito i lavori si svolgono in una delle otto sezioni composte di tre giudici o di cinque per le questioni più complesse. Nella sua attività è assistita dagli avvocati generali cui è demandato il compito di esaminare il caso e presentarlo alla Corte in udienza pubblica. La Corte dirime controversie sorte tra gli stati membri, fra le istituzioni e gli stati membri ed anche fra le istituzioni stesse: ad esempio, nel 1983 Parlamento Europeo ricorse alla Corte di Giustizia contro il Consiglio dei Ministri imputato di non aver realizzato la politica comune dei trasporti come prescritto dal Trattato di Roma, mentre nel 1986 fu il Consiglio dei Ministri a ricorrere contro il Parlamento Europeo per la mancata approvazione del bilancio. I ricorsi possono essere per inadempimento al fine di obbligare gli stati membri ad osservare la normativa comunitaria; di annullamento, in caso di illegittimità di atti vincolanti emessi nell’ambito della normativa comunitaria; per carenza, contro l’inattività delle istituzioni comunitarie; o anche per risarcimento di danni derivanti dall’esercizio delle funzioni di istituzioni comunitarie. La Corte di giustizia ha il potere di condannare ad ammende la parte inadempiente se accerta il mancato rispetto delle sue sentenze che sono inappellabili. 366 Secondo le disposizioni dell'AUE, dal 1989 la Corte di giustizia è stata affiancata dal Tribunale di primo grado, una corte con struttura analoga alla Corte di Giustizia, che insieme ad essa fa parte della Corte di Giustizia dell’UE. Si tratta di un Tribunale di grado inferiore, che si occupa dei ricorsi per annullamento, carenza o risarcimento da parte di persone fisiche o giuridiche contro le istituzioni comunitarie, incluse le controversie con i dipendenti della Comunità. Le sentenze del Tribunale di primo grado sono appellabili presso la Corte di Giustizia. Il Tribunale è competente per i ricorsi degli stati membri contro la Commissione, per gli aiuti di stati e le pratiche commerciali, per la proprietà intellettuale, la concorrenza, i marchi. Giudicando sui rapporti tra le istituzioni, la Corte di giustizia assume un ruolo costituzionale, mentre ai fini dell’interpretazione e applicazione uniforme del diritto ha l’autorità di corte suprema. Il Trattato di Amsterdam ha esteso la giurisdizione della Corte di Giustizia alle materie incluse nel terzo pilastro dell’UE e ne ha stabilito la competenza a “pronunciarsi in via pregiudiziale sulla validità o l’interpretazione delle decisioni-quadro e delle decisioni, sull’interpretazione di convenzioni (…) e sulla validità e interpretazione delle misure di applicazione delle stesse.” Il ruolo che ha svolto la Corte di Giustizia nella storia dell’UE è forse meno noto, ma è stato di grande importanza ai fini della definizione delle caratteristiche dell’istituzione europea che oggi conosciamo. A ciò hanno contribuito diversi elementi, tra i quali occorre ricordare l’interpretazione in senso evolutivo che ha dato dell’equilibrio tra le competenze degli Stati membri e quelle trasferite alle istituzioni comuni, ma, ancor prima, l’aver sancito i due principi fondamentali dell’efficacia diretta del diritto comunitario negli stati membri e del primato della norma comunitaria sulla norma nazionale. Quest’ultimo, necessario per evitare applicazioni discordanti della normativa negli stati membri, ha avuto un ruolo determinante nel rafforzare le caratteristiche sovranazionali, e dunque la cifra federalista, della costruzione istituzionale europea. In seguito ai pronunciamenti della Corte di Giustizia i cittadini europei possono appellarsi alla normativa comunitaria davanti ai 367 propri giudici ed far invalidare la normativa nazionale qualora se ne riconosca l’incongruenza. La Corte di Giustizia ha svolto un ruolo decisivo nel processo di integrazione, sia riguardo alla struttura costituzionale dell’UE, dove passi importanti sono stati compiuti grazie a sentenze della Corte che hanno esteso le competenze dell’UE nel campo delle politiche sociali e ancora di più nell’ambito del mercato comune dove la Corte è intervenuta a garanzia delle quattro libertà. Non si deve ritenere però che la Corte di Giustizia abbia deliberato sempre a favore di un’estensione delle prerogative comunitarie: ad esempio in una causa iniziata dal Regno Unito contro la Commissione diede ragione al Regno Unito e sentenziò che la Commissione non disponeva della base legale per finanziare progetti pilota il cui scopo era quello di combattere la povertà e l’esclusione sociale. L’interpretazione ampia della libera circolazione dei beni ha consentito, prima con la sentenza Dassonville del 1974, e successivamente con la sentenza Cassis de Dijon del 1979, l’affermazione del principio generale di riconoscimento reciproco, mentre l’interpretazione della libera circolazione delle persone ha contribuito ad eliminare varie discriminazioni, in genere basate sulla diversa nazionalità, a carico degli immigrati. Nell’interpretazione della libera circolazione dei capitali sono state dichiarate illegittime le autorizzazioni nazionali all’esportazione di monete, banconote e assegni. Tuttavia il potere della Corte di Giustizia come propulsore dell’integrazione europea è limitato essendo più facile che dia luogo a provvedimenti inquadrabili come integrazione negativa piuttosto che positiva. Infatti, i suoi pronunciamenti sono in grado di interpretare o emendare una politica esistente, ma più difficilmente riescono a dar vita ad una nuova politica. Viene spesso riconosciuto il ruolo di grande importanza che la Corte di Giustizia ha svolto nell’indirizzo della normativa comunitaria in senso sovranazionale e per il rafforzamento del mercato comune, ma il programma di completamento del mercato interno ha dovuto essere adottato attraverso atti legislativi ad hoc. 368 Il Consiglio europeo Il Consiglio europeo, da non confondere con il Consiglio d’Europa, non faceva parte dell’impianto istituzionale originario della Comunità Europea, ma è stato aggiunto trenta anni più tardi dall’Atto Unico Europeo, che nel 1987 ha apportato la prima revisione al Trattato di Roma. Nei primi anni della Comunità, le massime autorità politiche dei paesi membri occasionalmente si riunivano, anche in assenza di una specifica disposizione nei Trattati, per discutere ai più alti livelli questioni la cui soluzione incontrava difficoltà nell’ambito del sistema decisionale comunitario. L’insoddisfazione per il lento procedere dell’integrazione, una volta terminata la fase di avvio, spinse il presidente francese Giscard d’Estaing ed il cancelliere tedesco Schmidt a proporre di dar vita ad incontri periodici informali in modo da istituzionalizzare le riunioni dei capi di stato e di governo dei paesi membri. Al vertice di Parigi del 1974 i capi di governo rilasciarono un comunicato congiunto che annunciava che per “… assicurare una generale continuità e coerenza nelle attività della Comunità e nel lavoro sulla cooperazione politica” si sarebbero riuniti tre volte l’anno, assistiti dai loro ministri degli esteri in quello che sarebbe poi divenuto il Consiglio europeo e del quale fu chiamato a far parte anche il presidente della Commissione, assistito da un altro membro della Commissione stessa. Per buona parte degli anni ’80, gli incontri furono dominati dai problemi del finanziamento della Comunità - relativi alla ripartizione tra gli stati membri dei contributi e delle spese del bilancio comune - che avevano condotto ad una situazione di paralisi decisionale dalla quale il Consiglio dei Ministri sembrava incapace di uscire. Il carattere informale dei vertici, che si tenevano al di fuori dal dettato costituzionale, e al tempo stesso l’autorevolezza dei suoi esponenti, hanno fatto sì che il Consiglio europeo abbia potuto conseguire risultati di rilievo nel dare appoggio alle nuove adesioni, al varo delle Conferenze Inter-Governative (CIG) che precedono le riforme istituzionali, al progetto di un’Unione Economica e Monetaria. 369 Il Consiglio europeo è nato come accordo politico ai massimi vertici, ma al di fuori del Trattati ed ha mantenuto un carattere extra-costituzionale riconducibile all’assenza di una base giuridica per le sue riunioni, fino all’adozione dell’Atto Unico Europeo. Questo, ne ha riconosciuto l’esistenza e precisato la composizione; la necessità è stata implicitamente dichiarata stabilendo che si debba riunire almeno due volte l’anno. Tuttavia, i compiti, le competenze ed i rapporti con le altre istituzioni non furono definiti. Il Trattato sull’Unione Europea e, successivamente il Trattato di Amsterdam, hanno provveduto a rendere meno vago il ruolo del Consiglio europeo riconoscendone e confermandone la responsabilità di definire gli orientamenti politici dell’Unione, con speciale riferimento al secondo pilastro, cioè alla Politica Estera e Sicurezza Comune (PESC). È, tuttavia, solo con il Trattato di Lisbona che il Consiglio europeo acquisisce lo status di istituzione dell’UE: mentre si nega che abbia capacità legislativa si afferma che da esso deve provenire l’impulso all’azione, l’orientamento politico, e la definizione delle priorità pronunciandosi per consenso. Viene istituita la figura del Presidente “permanente”, cioè non più un capo di stato o di governo determinato in base alla rotazione di presidenza che si applica al Consiglio dell’UE, ma, una volta eletto per due anni e mezzo rinnovabili una volta, il suo ruolo diviene incompatibile con un mandato nazionale. Due nuove figure si aggiungono alla sua composizione tradizionale : il presidente del Consiglio europeo e l’alto rappresentante dell’UE per gli affari esteri e la sicurezza comune. Vengono programmate due riunioni per ciascun semestre. Il Consiglio europeo, privo di potere legislativo e quindi non deferibile alla Corte di Giustizia, si riuniva abitualmente in giugno e in dicembre al termine di ogni turno di presidenza per discutere della situazione economica generale dell’UE, dello stato di avanzamento delle iniziative proposte in sessioni precedenti e spesso anche di qualche argomento di particolare importanza e attualità o che ha rappresentato l’impegno speciale del turno di presidenza, mentre per la discussione su punti più circoscritti e urgenti era stata mantenuta la possibilità di convocare vertici 370 “straordinari”. Successivamente, il numero di riunioni programmate è raddoppiato, l’agenda si è molto accresciuta ed ha acquisito procedure di routine, perdendo così quell’immagine di riunioni di emergenza nelle quali ci si appella ai decisori di ultima istanza, una caratteristica dei primi vertici. È cura della presidenza di turno riferire successivamente i contenuti delle discussioni alla prima seduta del Parlamento. Date le sue caratteristiche del tutto particolari, è raro che in seno al Consiglio europeo si voti, mentre è divenuta consuetudine la stesura di un documento finale, “le conclusioni della presidenza”, che sintetizzi il consenso generale sui punti trattati. Il fatto che si colga l’occasione del Consiglio europeo per l’annuncio dei progressi nella soluzione o nell’impostazione di qualche aspetto politicamente di rilievo ha contribuito a far ritenere che in passato le sue riunioni siano state determinanti ai fini di sbloccare le questioni più intricate e di indirizzare gli orientamenti generali dell’apparato istituzionale. Il Consiglio europeo aggiunge un altro elemento intergovernativo all’impianto istituzionale dell’UE sia per la struttura, la composizione ed il modus operandi, che per la tendenza a fissare la direzione strategica globale. Il Consiglio dell’UE, che resta l’istituzione responsabile dell’attività legislativa, ha ceduto potere per l’abitudine che ha assunto di deferire al Consiglio europeo le questioni che non riesce a risolvere. Si tratta quindi di una perdita di potere volontaria: dato che non sono definiti né il ruolo né le competenze del Consiglio europeo la sottrazione di potere, non si inquadra in un rapporto strettamente gerarchico, ma corrisponde a quanto il Consiglio è disposto a farsi sottrarre. Entrambe le istituzioni sono infatti fortemente impegnate nella strategia intergovernativa del processo di integrazione. La Corte dei conti Istituita nel 1975, con sede in Lussemburgo, è entrata in vigore nel 1977 in sostituzione degli organi di revisione esistenti per le tre Comunità Europee: la Commissione di controllo di CEE e Euratom e il revisore dei conti della CECA. Il 371 TUE la colloca tra gli organi istituzionali comunitari (costituzionali) principali. Analogamente alla composizione della Corte di Giustizia dell’UE, suoi componenti sono tanti quanti i paesi membri e sono nominati dal Consiglio su designazione nazionale. Come per la Corte di giustizia, la nomina deve tener conto della competenza, certificata dalla precedente attività di revisione svolta dai candidati, e della loro indipendenza. La Corte dei conti deve esaminare le entrate e uscite del bilancio della Comunità, accertarne la correttezza e legittimità e una volta l’anno presentarne il rendiconto. La corte può anche svolgere indagini negli stati membri per le operazioni che questi effettuano per conto dell’UE (spese dei fondi comuni, riscossione dei dazi) e negli stati terzi che beneficiano di aiuti finanziari. Il problema delle frodi è ben presente alla Corte dei conti che ha più volte sollecitato il miglioramento dei controlli. A richiesta di un’istituzione della CE – un’opportunità che più spesso è stata sfruttata dal PE – può preparare relazioni su argomenti specifici a e redigere pareri preventivi quando viene emesso un regolamento finanziario. La Banca Centrale Europea Istituita nel 1998, erede dell’Istituto Monetario Europeo (IME) preposto a gestire la fase di transizione dalle valute nazionali all’euro, la Banca Centrale Europea (BCE) con sede a Francoforte sul Meno è l’organismo al quale il Trattato di Maastricht conferisce il diritto di emissione di banconote con corso legale nella Comunità. La sua struttura si articola in un Consiglio direttivo ed un Comitato esecutivo, e insieme alle banche centrali nazionali dei paesi che hanno adottato l’euro forma l’Eurosistema, mentre insieme alle banche centrali nazionali di tutti i paesi membri dell’UE, dà luogo al Sistema Europeo delle Banche Centrali (SEBC). Il Comitato esecutivo è composto da presidente, vicepresidente e quattro membri, tutti di nomina governativa, approvata dalle istituzioni comunitarie, con un mandato della durata di otto anni. Nel Consiglio direttivo, che ha la responsabilità della politica monetaria ed è a sua volta composto dal comitato esecutivo e dai governatori delle banche centrali 372 nazionali dei paesi che partecipano all’unione monetaria, ogni membro dispone di un voto e si delibera votando a maggioranza semplice; in caso di parità il voto del presidente è decisivo. L’indipendenza della BCE nel perseguire la politica monetaria - una caratteristica che negli anni recenti è stata giudicata molto favorevolmente dall’analisi economica - è sancita dal Trattato, così come viene statuito che l’obiettivo, al quale debbono essere orientate le decisioni dell’Eurosistema, consiste nel mantenere la stabilità dei prezzi. Così come accade per la Commissione, anche i componenti di questa istituzione non devono accettare né tantomeno sollecitare istruzioni provenienti dall’esterno. La BCE è dotata delle competenze e degli strumenti che le consentono di perseguire una politica monetaria autonoma. L’indipendenza politica della BCE è stata fortemente voluta dai paesi le cui banche centrali nazionali già godevano di questa caratteristica, in primo luogo dalla Germania. È sembrato impensabile, all’atto della sua costituzione, che tali paesi potessero acconsentire a partecipare ad un’unione monetaria gestita da una banca centrale la cui indipendenza fosse ritenuta di un livello inferiore a quanto veniva garantito alla propria banca centrale. Non si deve dimenticare, tuttavia, che in un paese democratico l’indipendenza dalla politica pone problemi sul piano della legittimazione non solo degli obiettivi, ma soprattutto dell’indirizzo da imprimere al corso delle azioni, degli strumenti da utilizzare quando la scelta è possibile, della valutazione della scala di priorità e dell’intensità delle stesse. È stato evocato a tale proposito il dittatore benevolo (Fitoussi, 2003). Non tutti i paesi membri dell’UE hanno adottato l’euro e quindi non tutti sono rappresentati negli organi deliberanti della BCE. Tuttavia, le decisioni assunte dalla BCE, dato l’alto livello di integrazione economica esistente tra i paesi dell’UE, sono destinate ad incidere anche sulle economie dei paesi che (ancora) mantengono in circolazione la propria valuta. Questa è una delle ragioni che hanno spinto molti paesi ad entrare nell’unione monetaria appena le condizioni lo hanno consentito. 373 La trasparenza, in base alla quale vengono resi noti gli obiettivi e le azioni dirette al loro conseguimento, rendendo intellegibili le decisioni in merito alla politica monetaria contribuisce alla credibilità e di conseguenza all’efficacia della politica stessa. Una dote altrettanto importante, che non si ottiene per statuto, ma deve essere conquistata sul campo con la coerenza dell’operato è la credibilità. Questo elemento viene valutato alla luce della performance della BCE nel perseguire i propri obiettivi che vengono resi pubblici anche allo scopo di misurare l’efficacia delle misure intraprese. La trasparenza delle azioni e la credibilità della gestione conferiscono alla politica monetaria una certa prevedibilità che dovrebbe contribuire alla formazione di aspettative più precise. Tuttavia, non sempre l’anticipazione delle azioni della BCE da parte dei mercati è completamente virtuosa. Se da un lato ciò permette una migliore trasmissione della politica monetaria agli investimenti ed ai consumi, dall’altro può svuotare l’efficacia della politica stessa rendendo possibile soltanto interventi “a sorpresa”. L’ammissione all’unione monetaria è possibile se si dimostra di aver rispettato i criteri di convergenza che riguardano l’andamento: a) dei prezzi: il tasso di inflazione non deve superare di oltre 1,5 punti percentuali quello dei tre stati che hanno conseguito la maggiore stabilità dei prezzi nell’anno precedente; b) della finanza pubblica: il disavanzo del bilancio pubblico non deve essere eccessivo, cioè non deve superare il 3% in rapporto al PIL, ed il debito pubblico non deve essere superiore al 60% del PIL; tali valori possono essere maggiori se solo se ne dimostra una continua e rapida discesa, o, per il deficit, se si tratta di un episodio eccezionale e temporaneo; c) del tasso di cambio: per almeno due anni il paese deve aver rispettato i margini di fluttuazione previsti dal Sistema Monetario Europeo e non essere stato costretto a svalutare nei confronti dell’euro; 374 d) del tasso di interesse di lungo termine: nell’anno precedente non deve essere stato maggiore di oltre 2 punti percentuali di quello osservato nei tre stati membri che hanno avuto i risultati migliori in termini di stabilità dei prezzi. Tali criteri sono stati introdotti dal Trattato di Maastricht per determinare l’ammissione all’unione monetaria prima che questa fosse effettivamente varata e sono ancora validi per le nuove ammissioni. Anche i paesi che ne fanno parte, tuttavia, mantengono l’obbligo di osservare i criteri relativi alla finanza pubblica, mentre per questi paesi è ovviamente decaduto il criterio relativo al tasso di cambio. Il rispetto dei criteri per l’ammissione riflette la preoccupazione che i paesi che entrano a far parte dell’unione monetaria non abbiano (ancora) conseguito le caratteristiche desiderabili per la partecipazione ad un’area valutaria ottimale e si possano verificare nel tempo tensioni che mettano in pericolo la gestione della valuta comune. Sono stati proposti vari criteri per stabilire se un gruppo di paesi costituisce un’area valutaria ottimale. Tra questi ricordiamo come fattori favorevoli: il grado di apertura dell’economia verso l’estero (McKinnon, 1963), la mobilità internazionale del lavoro (Mundell, 1961), la diversificazione della struttura produttiva (Kenen, 1969), l’esistenza di meccanismi che, attivando trasferimenti internazionali, possano contenere l’impatto di shock asimmetrici, ma anche la ferma volontà di partecipare e di essere disposti a sacrificare autonomia. È stato anche osservato (DeGrauwe, 2006) che la capacità di soddisfare tali criteri potrebbe essere endogena, in altre parole potrebbe essere resa più facile dalla partecipazione all’area valutaria anche in assenza di un completo adeguamento ai suoi criteri. Altre istituzioni ed organi consultivi La Banca Europea degli Investimenti (BEI) istituita dal Trattato di Roma del 1957, ha sede in Lussemburgo e “… ha il compito di contribuire, facendo appello al mercato dei capitali ed alle proprie risorse, allo sviluppo equilibrato e senza scosse del mercato comune nell’interesse della Comunità.” Questa finalità è stata interpretata come finanziamento agevolato di progetti che rivestano una certa importanza per la 375 realizzazione di obiettivi comunitari. La maggior parte dei fondi della banca, che non ha fini di lucro, viene impiegata nei paesi membri, ma può essere destinata al rafforzamento di politiche di sviluppo anche di altri paesi, in particolare di quelli che rivestono una particolare importanza per i paesi dell’UE, quali i paesi dell’Africa, Caraibi e Pacifico (ACP), i paesi mediterranei o quelli dell’Europa centro-orientale. La caratteristica principale degli interventi è che devono essere destinati alle aree meno sviluppate, e in queste devono promuovere la modernizzazione. I finanziamenti non devono essere diretti ad un solo paese membro, ma a più d’uno o all’UE nel complesso. I fondi della BEI non provengono dal bilancio comune, ma sono in parte versati dai paesi membri e in parte reperiti sul mercato dei capitali. Da qualche tempo è operativo anche il fondo europeo di investimento (FEI) in parte finanziato dalla BEI, che ha lo scopo di gestire fonti di finanziamento per progetti destinati alle piccole e medie imprese e progetti di interesse comune. Entrambe le istituzioni hanno la regola del co-finanziamento, cioè non intervengono mai per intero nel finanziamento di un progetto, ma secondo quote in genere non superiori alla metà dell’importo totale. Il Consiglio dei governatori della BEI, che coincide con l’Ecofin, si riunisce una volta l’anno, ha la responsabilità di indirizzo e delibera all’unanimità oppure a maggioranza dei membri; tale maggioranza deve essere pari almeno al 45% del capitale versato. Il Consiglio di amministrazione, composto di 22 consiglieri nominati dai governi ed uno dalla Commissione, ha la responsabilità di assegnare i prestiti, fissare i tassi e trovare i fondi. Il Comitato di gestione è l’organo esecutivo responsabile dell’operato particolare della BEI. Il Mediatore europeo, una figura istituzionale che si è aggiunta nel 1994, viene nominato dal Parlamento europeo all'inizio di ciascuna legislatura e per tutta la sua durata, scegliendolo tra i cittadini dell'Unione che offrono garanzie di competenza e di indipendenza. Sin dal momento in cui assume l'incarico il Mediatore si impegna solennemente all’indipendenza dinanzi alla Corte di giustizia delle Comunità europee ed ogni anno presenta una relazione complessiva al Parlamento europeo. Gli Stati 376 membri, le istituzioni e gli organi comunitari hanno l'obbligo di fornire al mediatore le informazioni richieste. Il mediatore, che può anche agire di propria iniziativa, se non riceve l'assistenza necessaria ne informa il Parlamento europeo. Qualsiasi cittadino (o qualsiasi persona giuridica) dell'Unione può presentare - direttamente o tramite un parlamentare europeo - al mediatore, una denuncia di cattiva amministrazione in relazione all'azione delle istituzioni e degli organi comunitari. La denuncia deve essere presentata entro due anni a decorrere dalla data in cui i fatti che la giustificano sono portati a conoscenza del ricorrente. Il Comitato economico e sociale (CES) è un organo consultivo istituito da Trattato di Roma ritenuto necessario per rappresentare gli interessi settoriali. Oggi conta 344 membri proposti dai governi nazionali in numero proporzionale al proprio peso demografico, e nominati dal Consiglio, ma che partecipano a titolo personale, anche se in genere sono rappresentanti di organizzazione industriali, sindacali, consumatori, ambientaliste. Per alcune questioni il parere del CES è obbligatorio, per altre la consultazione è facoltativa e può agire anche di propria iniziativa. Gli interessi rappresentati dal CES - dal Gruppo dei datori di lavoro, Gruppo dei lavoratori dipendenti, Interessi vari (nel quale si trovano rappresentati sia i consumatori che, stranamente, gli agricoltori) - hanno anche altre vie di influenza, attraverso i segretari dei ministri o i gabinetti dei commissari o nei vari comitati di cui queste istituzioni si avvalgono. L’efficacia della sua azione, tuttavia, risiede più nella sua capacità di influenza che nell’espressione formale del parere anche perché questo spesso è richiesto ad accordo raggiunto. Il Comitato delle Regioni (CDR) istituito dal TUE per rappresentare le comunità locali, ha iniziato ad operare nel marzo 1994 con funzioni analoghe a quelle del CES, di cui mantiene lo stesso numero di componenti. A questo organo il TUE ha assegnato funzioni consultive obbligatorie per tutte le questioni che si ripercuotono in ambito locale. A quelle indicate inizialmente: istruzione, cultura, sanità, coesione e reti trans-europee, il Trattato di Amsterdam ha aggiunto: politica dell’occupazione, politica sociale, ambiente, formazione professionale e trasporti. Come il CES, anche 377 il CDR può agire di propria iniziativa. Sente il compito di difendere il principio di sussidiarietà e patrocina quattro livelli di governo: europeo, nazionale, regionale e municipale in partenariato verticale. I suoi membri sono rappresentanti eletti di organismi amministrativi sub-nazionali. È organizzato in sei commissioni che si incaricano di elaborare i pareri da esporre nelle sessioni plenarie. Il ruolo del CDR è uscito rafforzato dalle disposizioni del Trattato di Lisbona. Agenzie, centri, fondazioni, osservatori Esiste inoltre una serie di organismi “indipendenti” che operano con vari ruoli e a diversi livelli e dei quali qui, in un elenco incompleto, si ricorda il solo nome: l’ Accademia europea di polizia, l’Agenzia dell’Unione europea per i diritti fondamentali, l’Agenzia europea dell’ambiente (AEA), l’Agenzia europea per la sicurezza e la salute sul lavoro (EU-OSHA), l’Agenzia europea per i medicinali, l’Agenzia europea per la sicurezza aerea (AESA), l’Agenzia europea per la sicurezza marittima (AESM), l’Agenzia europea per la difesa, l’Agenzia europea di controllo della pesca, l’Agenzia esecutiva per l’istruzione, gli audiovisivi e la cultura, l’Agenzia esecutiva per la ricerca, l’Agenzia esecutiva per la salute e i consumatori, Agenzia esecutiva per la competitività e l'innovazione, Agenzia europea per la sicurezza delle reti e dell’informazione, l’Autorità europea per la sicurezza alimentare (EFSA); il Centro europeo per lo sviluppo della formazione professionale (CEDEFOP), il Centro di traduzione degli organismi dell’UE (CdT), il Centro satellitare dell’UE (CSUE), il Centro europeo per la prevenzione e il controllo delle malattie, la Fondazione europea per la formazione professionale (ETF), la Fondazione europea per il miglioramento delle condizioni di vita e di lavoro (EUROFOUND); l’Osservatorio europeo delle droghe e delle dipendenze (OEDT), l’Osservatorio europeo dei fenomeni di razzismo e xenofobia (EUMC); l’Istituto europeo per gli studi sulla sicurezza (ISS), l’Istituto europeo per l'uguaglianza di genere, l’Istituto europeo di innovazione e tecnologia, l’Ufficio comunitario delle varietà vegetali (UCVV), l’Ufficio per l’armonizzazione del mercato interno, 378 l’Europol, l’ufficio della polizia europea e l’Eurojust, l’organismo per il consolidamento della cooperazione giudiziaria. 3. Il “deficit democratico” Il Trattato di Lisbona è stato firmato al termine di un lungo iter che – con l’approvazione del Progetto di Trattato proposto dalla Convenzione sul Futuro dell’Europa alla Conferenza Intergovernativa – avrebbe dovuto portare all’adozione della Costituzione dell’UE. Questo nuovo disegno costituzionale dell’UE; noto come il “Trattato che istituisce una Costituzione per l’Europa”, fu abbandonato perché, quando fu sottoposto a ratifica presso i paesi membri, fu respinto dal referendum sia in Francia che nei Paesi Bassi. Ciò è bastato perché i sette paesi che ancora non si erano espressi evitassero di farlo. Probabilmente la particolare miscela di caratteri sovranazionali ed intergovernativi di questa iniziativa ha incontrato l’opposizione, per opposti motivi, sia di chi desiderava che di chi temeva “più Europa”. Da un lato, infatti, la Costituzione era frutto di un metodo prettamente intergovernativo che non aveva potuto tener conto delle aspirazioni di coloro che avrebbero voluto che scaturisse da una procedura simile a quella che si sarebbe seguita se il progetto costituzionale fosse stato nazionale. In tal caso, sarebbero state indette le elezioni per una Costituente al termine di un approfondito dibattito sui temi da affrontare. La procedura seguita, che si ispirava più alla stesura di un Trattato internazionale che all’espressione di una volontà popolare maturata dalla discussione nel paese e convogliata dall’elezione dei rappresentanti, aveva mancato di coinvolgere i cittadini. Per chi avrebbe voluto “più Europa” si trattava di un’imperdonabile mancanza di democrazia nel metodo prima ancora che nei contenuti. Ma anche su questi le critiche abbondavano. Forse per poter trovare un compromesso con chi temeva “più Europa” ed osteggiava l’idea stessa che potesse essere promulgata una Costituzione europea, nel definire l’identità dell’UE era stata 379 abbandonata l’espressione che all’articolo 1 del TUE citava il “… processo di creazione di un’unione sempre più stretta tra i popoli dell’Europa …” e sostituita con una che all’articolo 1 si riferiva alle competenze che gli stati avrebbero conferito all’UE. Inoltre, l’impossibilità raggiungere un accordo sul passaggio delle votazioni in materia fiscale dalla regola dell’unanimità a quella della maggioranza aveva fatto squillare forte il campanello d’allarme sulla effettiva possibilità di dar vita ad un’entità politica nella quale, come nel contratto sociale nazionale, la tassazione e la rappresentazione si riflettono l’una nell’altra: il principio “no taxation without representation” è ancora ben presente nel pensiero dei leader europei. Il Trattato di Lisbona, che ha raccolto l’eredità della mancata Costituzione, ma è stato portato a compimento con la firma nel dicembre del 2007 e l’entrata in vigore il 1° dicembre 2009, ha comunque potuto incorporare elementi qualificanti sotto il profilo costituzionale quali la Carta dei diritti fondamentali, la dichiarazione di personalità giuridica dell’UE, e l’impegno a promuovere metodi diversi di integrazione, quali la cooperazione rafforzata ed il coordinamento aperto, che consentano di proseguire il cammino comune a chi non intende abbandonare i tradizionali intenti del processo di integrazione. Questi ultimi sviluppi, che da un lato ampliano la portata dell’impegno comune, ma allo stesso tempo impongono limiti, pur permettendo a chi lo desidera di oltrepassarli con il varo di iniziative che non coinvolgono tutti i paesi membri, ma possono comportare varie conseguenze su di loro, pongono il problema del contenuto di democrazia che caratterizza l’UE. La definizione di democrazia è chiara in termini generali, ma controversa nella sua applicazione fattuale. Perché si parla di deficit democratico a proposito dell’UE? La prima obiezione deriva dall’osservazione che, tra tutte le istituzioni comuni, solo il Parlamento ha un diretto contatto con gli elettori verso i quali è responsabile. Ma, anche se il suo ruolo ha acquistato rilievo nel corso degli anni, l’iter legislativo prevede che la Commissione ed il Consiglio intervengano con un peso tutt’altro che 380 secondario. Inoltre, quanto maggiore è l’indipendenza assicurata alla BCE tanto minore è il controllo che può essere esercitato sul piano democratico. Se la BCE deve perseguire soltanto la stabilità monetaria e la Commissione deve adoperarsi soprattutto nella gestione del mercato interno e del commercio internazionale, importanti ambiti decisionali, con ampie ripercussioni sulla vita di tutti i cittadini, sono sottratti al loro controllo. Va osservato, tuttavia, che in molti paesi possono essere chiamati ad importanti ruoli di governo, dal partito o dalla coalizione che ha vinto le elezioni, cittadini che non sono stati eletti, ma la cui legittimità democratica promana dall’elezione democratica cui sono stati soggetti coloro che li hanno nominati. Allo stesso modo va giudicato il proliferare di Agenzie ed altri organismi indipendenti. Un’altra obiezione sorge dall’incoraggiare il ricorso alle votazioni a maggioranza nel Consiglio, che ha portato al diffondersi di questa regola di voto fino a considerare la regola dell’unanimità quasi desueta. Poiché nel Consiglio i ministri rappresentano il proprio paese, se si trovano in minoranza si determina una situazione per cui il paese da loro rappresentato sarà obbligato ad osservare i provvedimenti votati dalla maggioranza, ma per i quali esso ha espresso un voto contrario. Nelle votazioni del Consiglio, ciò rende impossibile ai ministri la responsabilità verso i propri elettori nazionali. Un altro punto critico, che tuttavia non riguarda solo l’UE, consiste nel modo in cui si assicurano le pari opportunità a tutti i cittadini in modo che la democrazia economica non abbia a soffrire del mancato, o distorto, parere espresso dagli individui che appartengono a gruppi svantaggiati. L’integrazione negativa attraverso la quale è stato costruito il mercato interno spesso non è stata accompagnata dalla necessaria integrazione positiva volta a correggere gli attesi fallimenti del mercato (Scharpf, 1999). La lotta all’inflazione perseguita dalla BCE, la perdita dello strumento del tasso di cambio e la proibizione per gli aiuti statali alle imprese hanno ridotto la capacità di intervento dei singoli paesi nella gestione della propria politica economica non solo per quanto riguarda la politica 381 monetaria e le altre politiche comuni, ma anche – per la competizione fiscale tra i paesi in conseguenza all’unione monetaria – nella destinazione della spesa pubblica ai programmi di istruzione e di potenziamento del capitale umano, alla sicurezza sociale, alla sanità, al welfare state. La concorrenza fiscale, necessaria ad evitare la fuga dei capitali - diversamente dalla concorrenza di mercato che tende ad escludere le imprese non competitive e a rafforzare in tal modo il funzionamento del mercato – può portare all’erosione della coesione sociale poiché i paesi sono costretti a ridurre tasse e trasferimenti per attirare i contribuenti ricchi ed i capitali ed allontanare chi necessita di sostegno. L’obiezione alla coesione sociale, specie quando viene sollecitata tra i paesi dell’UE, cioè a livello internazionale, si fonda sull’osservazione che un demos europeo non esiste, mentre esistono i popoli europei. Un’obiezione analoga era stata rivolta alla Costituzione europea. Che riconoscimento si deve attribuire alla scelta di condividere norme e valori (Habermas, 2001) e in base a quale indicatore si può affermare che questa condivisione esiste o va ricercata? 4. La “sostenibilità” della globalizzazione: tendenze al decentramento ed all’integrazione istituzionale I processi di globalizzazione degli ultimi decenni, accrescendo il potere degli operatori di mercato, hanno indotto gli Stati a varie strategie di difesa degli spazi decisionali pubblici. Si può sostenere che l’obiettivo è stato quello di rendere la globalizzazione “sostenibile”, cercando di preservare le strutture democratiche del potere politico dai crescenti vincoli alla governance nazionale posti dalla liberalizzazione dei mercati dei prodotti e finanziari. La necessità di fare fronte ad un ruolo più ampio conquistato dai mercati nelle società avanzate ha da un lato stimolato l’evoluzione dei sistemi politici verso un maggiore decentramento, e dall’altro generato una più forte volontà di rafforzare il potere politico mediante forme di integrazione sovra-nazionale. Ad esempio, in Europa, non 382 solo venne accelerato negli anni ’80 il processo di costruzione del mercato unico, ma si cominciarono a programmare le diverse fasi di integrazione monetaria che hanno poi portato alla moneta unica. Nel prosieguo, verranno le ragioni economiche che sono alla base di tali processi. 5. Obiettivi e vincoli del decentramento fiscale Il decentramento fiscale si fonda su un duplice assunto riguardo alla produzione di beni pubblici e meritori: i) i governi di livello inferiore appartenenti ad uno Stato unitario o ad una Federazione, in virtù della loro vicinanza alle comunità locali, garantiscono un migliore soddisfacimento delle preferenze dei residenti nella giurisdizione; ii) gli elettori delle giurisdizioni di livello inferiore esercitano un controllo sui governi locali (imponendo l’assunzione di responsabilità sulle funzioni loro assegnate, la cosiddetta accountability) più efficace di quello che può essere esercitato sulla classe politica del governo centrale. Più in generale il federalismo fiscale promuoverebbe una più diretta partecipazione dei cittadini al processo politico. Per i motivi appena detti, il principio di sussidiarietà richiede che i poteri di prelievo e di spesa vengano attribuiti al livello di governo più basso possibile. Come è testimoniato dalla grande varietà degli assetti statuali multi-livello presenti a livello mondiale, il quadro concettuale su cui si fonda la teoria del federalismo fiscale, benché semplice, è di difficile attuazione. Basti osservare che i valori degli indicatori generalmente impiegati per misurare il grado di decentramento (la quota di entrate fiscali o di spesa pubblica dei livelli di governo inferiori sui rispettivi totali nazionali o in rapporto al Pil) risultano a volte più elevati negli Stati unitari (ad esempio i Paesi scandinavi) che non negli Stati federali (ad esempio Stati Uniti e Germania). Inoltre, all’incremento delle responsabilità di spesa dei governi sub-nazionali che si è registrato negli ultimi decenni non si è accompagnato un parallelo ampliamento delle basi della tassazione locale. La quota sul totale della spesa che fa 383 capo ai governi locali è cresciuta ad un tasso di gran lunga superiore a quella della tassazione locale sul totale del prelievo. Di qui, la compresenza per i governi di livello inferiore di una più estesa autonomia sul lato della spesa e di una crescente dipendenza dai trasferimenti dal centro. Una delle principali ragioni è che, di norma, le basi imponibili appropriate per la tassazione locale sono relativamente ristrette. E’ infatti difficile individuare cespiti per i quale si realizzino contemporaneamente tutti i requisiti che sono generalmente richiesti per costituire il fondamento di una buona imposta locale: immobilità della base imponibile, distribuzione geografica omogenea, non-esportabilità dell’imposta, limitata variabilità del gettito nell’alternarsi dei cicli economici. Ne consegue che i governi sub-nazionali devono necessariamente soddisfare le proprie crescenti esigenze di finanziamento non con tributi propri ma con compartecipazioni sui tributi statali e con trasferimenti erogati dal governo centrale. Inoltre, gli indicatori usualmente impiegati tendono a sopravvalutare l'effettivo grado di decentramento. L'incidenza totale dei trasferimenti (espliciti ed impliciti) è probabilmente maggiore di quella che è rappresentata nelle statistiche, mentre non è generalmente possibile enucleare dal totale delle entrate tributarie dei governi subnazionali la percentuale di gettito proveniente dalle compartecipazioni che sono caratterizzate da un grado di autonomia certamente molto limitato. La complessità dei problemi implicati dall’organizzazione statuale multi-livello fa sì che la struttura federale o unitaria assunta da uno Stato vada ricondotta più alle dinamiche socio-economiche sviluppatesi nella particolare evoluzione storica di ciascun Paese, che non ad una scelta deliberata, fondata su un confronto fra costi e benefici dei processi di devoluzione delle competenze di spesa e delle responsabilità di tassazione. Infatti, a causa del complesso interrelarsi dei guadagni e delle perdite fra le giurisdizioni, una valutazione dei processi di decentramento fiscale sotto il profilo dell’efficienza e dell’equità è compito estremamente arduo. La principale questione relativa all’efficienza riguarda gli ostacoli che la devoluzione inevitabilmente frappone allo sfruttamento delle economie di scala nella fornitura di 384 importanti beni pubblici, come ad esempio le infrastrutture nell’ambito delle comunicazioni viarie e delle telecomunicazioni, oggi considerati investimenti di alto valore strategico per lo sviluppo di un Paese. Emerge poi spesso un problema di non-equivalenza fiscale, ovvero cioè il fatto che la dimensione dell’area nella quale ricadono i benefici della fornitura del bene pubblico è più ampia di quella della giurisdizione che decide e finanzia l’offerta pubblica. La conseguente creazione di spillover fra giurisdizioni locali (ad esempio, l’aggravio di spesa che le Regioni con migliori prestazioni sanitarie subiscono a causa della mobilità dei pazienti da altre Regioni) genera problemi del tipo principale-agente. L’equilibrio fra costi sopportati dai residenti nella giurisdizione e benefici del servizio fruiti anche da residenti in altre giurisdizioni viene distorto, e ciò indebolisce gli incentivi delle giurisdizioni di livello inferiore nel perseguire l’efficienza nella quantità e qualità di servizi forniti ad un «principale» che è costituito dai cittadini-elettori. Più in generale, l’eterogeneità nella dotazione di risorse fiscali delle giurisdizioni locali si riflette sulle differenti quantità e qualità dei servizi pubblici fruibili in ciascuna di esse, ponendo un chiaro problema di equità nelle modalità dell’intervento pubblico. Si determina infatti un trade-off fra decentramento delle funzioni di prelievo e di spesa da un lato, e capacità di tutti i governi locali, diversamente dotati in termini di risorse finanziarie, di soddisfare le preferenze delle rispettive comunità, dall’altro. Tanto più il governo centrale attua la devoluzione delle competenze, tanto più pressante diviene il problema di colmare l’ineguale capacità fiscale fra le giurisdizioni territoriali. La perequazione fiscale è affidata ai trasferimenti, attraverso i quali le giurisdizioni in avanzo fiscale finanziano quelle in disavanzo, direttamente mediante trasferimenti orizzontali, oppure indirettamente, per il tramite dei trasferimenti verticali attivati dal bilancio del governo centrale. Quanto detto consente allora di comprendere perché il principio di sussidiarietà, che è alla base del federalismo fiscale, sia spesso attuato in maniera soltanto parziale, lasciando in realtà alla responsabilità congiunta di governo centrale 385 e governi locali in insieme ampio di competenze rilevanti, tanto nell’ambito della tassazione quanto in quello della spesa. D’altro canto, la determinazione del ruolo dei diversi livelli di governo nell’ambito di queste materie condivise costituisce una decisione in condizioni di incertezza, che configura un’interazione strategica fra i soggetti istituzionali coinvolti ed è quindi oggetto di contrattazione. Infatti, quanto più ampia è l’area delle competenze condivise, tanto maggiore è il rischio di «azzardo morale» da parte del governo locale la cui disciplina fiscale potrebbe essere compromessa dall’aspettativa di un ripiano delle spese in eccesso da parte del governo centrale. E, di converso, è anche possibile che il governo centrale imponga standard sui programmi di spesa gestiti localmente senza garantire ai governi locali le risorse finanziarie corrispondenti (unfunded mandates). 6. La tendenza al federalismo fiscale Negli ultimi decenni, sia negli stati federali che in quelli caratterizzati da una struttura di governo centralizzata, la tendenza al decentramento fiscale ha prevalso su quella alla centralizzazione delle competenze di prelievo e di spesa pubblica. Le riforme dell’organizzazione statuale nella direzione del federalismo fiscale attuate da molti paesi nel secondo dopoguerra hanno seguito linee evolutive alquanto differenti fra loro. Si può dire che in nessun caso è stato replicato l’equilibrato modello degli Stati Uniti, dove il complesso intreccio fra bilancio federale e matching grants di tipo verticale ed orizzontale fa sì che la funzione di redistribuzione fra gli stati della federazione svolga un ruolo complementare rispetto alla funzione di stabilizzazione macroeconomica. In alcuni paesi è aumentata l’autonomia regionale (Spagna, Belgio, Danimarca, Italia e Messico) ed è anche aumentata la quota di prelievo fiscale assegnata ai governi di livello inferiore. In altri paesi il decentramento ha invece segnato il passo o è addirittura regredito (Francia, Germania), ed il potere impositivo si è conseguentemente ridotto. In altri paesi ancora (Svezia, Norvegia ed Austria), l’alta 386 mobilità della base impositiva (il reddito personale) su cui si fonda il prelievo fiscale dei governi locali ha provocato una tendenziale riduzione della tassazione subnazionale (OECD, 2003). Non sembra quindi individuabile una precisa corrispondenza fra devoluzione dei poteri e devoluzione dell’imposizione fiscale. I sistemi di federalismo fiscale che osserviamo nella realtà mostrano comunque una tendenza a seguire due diversi modelli riguardo alla realizzazione dell’equalizzazione fiscale: il federalismo competitivo ed il federalismo cooperativo. Nei paesi la cui struttura statuale è fin dall’inizio di tipo federale, il decentramento ha assunto i caratteri del primo modello. Nei paesi che nascono con un forte potere centrale, realizzando il decentramento fiscale soltanto in una fase successiva alla loro costituzione come entità politica unitaria, ha prevalso il secondo modello. Federazioni di tradizione anglo-sassone, quali sono l’Australia ed il Canada, si avvicinano al modello del “federalismo competitivo”. Nel sistema perequativo della federazione australiana, l’elevato onere di partecipazione al fondo cui gli stati più ricchi erano sottoposti per soddisfare all’equità inter-giurisidizionale ha avuto l’effetto di disincentivare la ricerca di diversità, generando così l’omogeneizzazione verso il basso della tassazione regionale. Il sistema confederale canadese sembra più orientato a contemperare l’obiettivo di perequazione inter-giurisdizionale con gli incentivi. Il livello di tassazione è infatti vincolato dalla concorrenza fiscale cui le province fanno ricorso a causa dell’assenza di una compartecipazione delle province nei tributi prelevati dal governo centrale. Tuttavia, i bilanci delle province sono finanziati sia dalle entrate derivanti dalle imposte locali sia da una forte redistribuzione verticale. L’entità dei trasferimenti realizzati dal meccanismo di equalizzazione canadese è commisurata alla capacità fiscale media delle province di maggiori dimensioni ed il fondo è legato alla crescita del PIL federale (Smart, 2005). Un secondo gruppo di paesi, cui appartengono molti stati europei, adotta il modello del “federalismo cooperativo”. Nel sistema federale della Germania, considerato l’archetipo del federalismo cooperativo, l’obiettivo della perequazione inter-giurisdizionale fa premio sull’esigenza di preservare le preferenze 387 idiosincratiche ed il principio del beneficio, cosicché la base impositiva è poco decentrata. In un sistema di prelievo fiscale in cui la maggior parte dei tributi è di competenza del governo centrale, la struttura del bilancio federale è fortemente condizionata dai bisogni dei Lander, soprattutto per quanto riguarda il finanziamento dei programmi di spesa per i Lander dell’Est. La politiche pubbliche che i governi regionali destinano al miglioramento del benessere sociale delle comunità locali vengono finanziate sia con una generosa perequazione inter-giurisdizionale, sia attraverso la ripartizione dell’IVA secondo un criterio redistributivo che avvantaggia i Lander più poveri. Il tentativo di riformare il sistema di equalizzazione e restringere la capacità di spesa dei livelli inferiori di governo (Fenge e von Weizsacker, 2001), ponendo un limite al potere di veto della Bundesrat sulla legislazione del governo federale, è recentemente fallito. Un obiettivo perseguito dal decentramento fiscale attuato in alcuni paesi europei è stato quello di trovare una soluzione ai molteplici problemi distributivi legati alla frammentazione sociale creata dalle diversità culturale (ulteriormente accentuate dall’immigrazione extra-comunitaria). Due paesi europei accomunati dalla sovrapposizione fra diversità etniche e linguistiche, che hanno finito per sommare la disuguaglianza inter-giurisdizionale alla disuguaglianza di reddito pro capite, sono Spagna e Belgio. In Spagna, il finanziamento dei bilanci dei livelli di governo inferiori (le Comunidades) ha luogo mediante la compartecipazione alle entrate del governo centrale e le imposte proprie. La debolezza del meccanismo di perequazione fiscale ha portato ad un notevole indebitamento delle regioni con minore capacità fiscale. Il decentramento, inoltre, contrariamente all’obiettivo di accrescere l’efficienza nella fornitura dei beni pubblici sfruttando la maggiore vicinanza alle preferenze locali, causa una tendenza dei governi regionali ad aumentare la spesa pubblica. Il grado di autonomia regionale, notevolmente accresciutosi in seguito ai processi di devoluzione, ha dovuto essere 388 mitigato da un più stringente controllo del governo centrale sulla spesa delle giurisdizioni locali. Il sistema federale del Belgio presenta un grado di complessità tale da avvicinare la questione della perequazione fiscale in questo paese al caso del decentramento italiano. Uno dei problemi principali è rappresentato dall’alta concentrazione in Vallonia della popolazione anziana, a bassa istruzione e a minore tasso di partecipazione al mercato del lavoro. I valloni, avendo un livello di reddito pro capite e di capacità contributiva inferiore a quello della comunità fiamminga, hanno goduto di crescenti flussi redistributivi (van Parijs, 1999). La creazione della regione di Bruxelles, che aveva fra l’altro l’obiettivo di facilitare la composizione delle questioni distributive che tradizionalmente oppongono le regioni della Vallonia e delle Fiandre, non ha mitigato gli squilibri fra i flussi di tassazione e di trasferimenti. Il meccanismo dell’equalizzazione fiscale è infatti reso particolarmente difficile dell’intrecciarsi e dal sovrapporsi di più dimensioni di giustizia distributiva: l’equità interpersonale, intergiurisdizionale ed inter-generazionale. 7. Decentramento fiscale ed equità orizzontale Una delle ragioni che inducono uno Stato ad intraprendere un processo di decentramento fiscale consiste nell’aspettativa che i governi di livello inferiore appartenenti ad una nazione o ad una federazione, in virtù della loro “vicinanza” alle comunità locali, siano in grado di promuovere un migliore soddisfacimento delle preferenze degli individui riguardo alla produzione di beni pubblici e meritori. Tuttavia, è possibile che si determini un trade-off fra decentramento delle funzioni di prelievo e di spesa da un lato, e eguaglianza fra i governi locali riguardo alla possibilità di soddisfare le preferenze delle rispettive comunità, dall’altro. L’eterogeneità nella dotazione di risorse di ciascuna giurisdizione si riflette in una diversa quantità e qualità dei servizi pubblici realizzabili nelle varie giurisdizioni. Il 389 divario di capacità fiscale fra le giurisdizioni può impedire il conseguimento dell’equità orizzontale, e cioè del diritto all’eguale trattamento che viene riconosciuto ad individui con eguale reddito, anche qualora siano residenti in giurisdizioni diverse e quindi a diverso livello di reddito prodotto e di reddito pro capite. Nelle nazioni o negli stati federali in cui il governo centrale decide che tale principio di equalizzazione fiscale debba dominare il principio della “libertà di scelta”, e cioè la varietà e qualità dei servizi pubblici, è probabile che sorgano conflitti fra le comunità locali. Le giurisdizioni “ricche” potrebbero ritenere che il meccanismo della perequazione inter-giurisdizionale, data la maggiore contribuzione al bilancio del governo centrale, compromette la loro capacità di spesa per la realizzazione dei beni pubblici e meritori nella varietà e qualità richiesta dalle preferenze delle proprie comunità locali. D’altro canto, prendendo il caso italiano, se proseguisse il cammino verso la devoluzione, e non si predisponesse un adeguato sistema perequativo, molte regioni dotate di una scarsa capacità fiscale dovrebbero fare affidamento sui trasferimenti dal governo centrale anche per i servizi pubblici essenziali. Si noti che il problema dell’equità fiscale fra regioni ricche e regioni povere è distinto da quello della disuguaglianza interpersonale di reddito e della sua sostenibilità sociale. E’ vero che in alcuni paesi, anche appartenenti all’Unione Europea, la disuguaglianza inter-giurisdizionale (il divario fra i redditi pro-capite fra le regioni) tenda a sovrapporsi alla disuguaglianza interpersonale di reddito. Tuttavia, il decentramento fiscale, riducendo la redistribuzione operata dal governo centrale, separa la questione dell’equità “orizzontale” (la disparità di trattamento fra comunità locali) da quella relativa all’ equità “verticale” (la disuguaglianza fra le persone). Il problema di disuguaglianza che viene affrontato dai meccanismi di perequazione fiscale è quello di tipo orizzontale: la violazione del diritto della persona – sia alto o basso il decile di reddito cui appartiene - a non subire discriminazioni in base alla giurisdizione di appartenenza. 390 Quanto più ampia è la differenza fra l’ammontare e la qualità delle risorse e le responsabilità pubbliche delle giurisdizioni di livello inferiore a causa dei particolari bisogni della popolazione (ad esempio, carenza di infrastrutture, strutture educative e sanitarie insufficienti, etc.), tanto più è probabile che individui con eguale reddito, a causa della residenza in giurisdizioni diverse, ricevano un trattamento diseguale. Gli individui residenti nelle regioni povere, benché non siano responsabili di divergenze della performance di reddito della propria giurisdizione, risulteranno discriminati rispetto agli individui con reddito eguale ma residenti nelle regioni più ricche, in quanto riceveranno un residuo fiscale netto tanto più basso quanto più il reddito medio della propria giurisdizione risulti inferiore alla media nazionale (o federale). Come conciliare il decentramento fiscale con l’equità orizzontale? La salvaguardia dell’equità orizzontale impone che ad un livello di tassazione tendenzialmente eguale fra giurisdizioni locali a diverso reddito pro-capite si affianchi uno schema di equalizzazione fiscale che consenta di annullare un difetto dei benefici di spesa rispetto alle tasse pagate di individui con lo stesso reddito residenti in giurisdizioni diverse. Il principio di eguale residuo fiscale netto per le persone ad eguale reddito è realizzato mediante i matching grants, attraverso i quali le giurisdizioni in avanzo fiscale finanziano quelle in disavanzo (direttamente mediante grants orizzontali, oppure indirettamente, attraverso i trasferimenti verticali del bilancio del governo centrale). Le giurisdizioni che devono cedere risorse vengono differenziate da quelle che devono ricevere risorse in base al rapporto fra l’indice di capacità fiscale di ciascuna giurisdizione e l’indice di perequazione (tale da annullare anche eventuali distorsioni dovute al caso di tassi di imposizione che risultino differenti fra le giurisdizioni). I meccanismi di perequazione inter-giurisdizionale hanno il compito di favorire il conseguimento dell’”eguaglianza nei punti di partenza” fra giurisdizioni a diverso grado di sviluppo, evitando al contempo che il trasferimento di risorse fra le giurisdizioni comprometta gli incentivi di mercato degli individui e delle imprese e la 391 “libertà di scelta” dei servizi pubblici da parte delle comunità locali. Riguardo alla questione degli incentivi, essendo rivolti all’equalizzazione fra le risorse delle giurisdizioni, i matching grants hanno un ovvio contenuto di redistribuzione intergiurisdizionale, che si va ad aggiungere all’eventuale impatto redistributivo delle politiche pubbliche realizzate dal governo centrale. L’obiettivo di equalizzare i residui fiscali netti di individui con eguale reddito può avere effetti distorsivi. Le analisi sui fallimenti del governo affermano che una più elevata pressione fiscale nelle regioni a reddito pro capite più alto della media nazionale (o federale) indebolisce gli incentivi al lavoro degli individui e gli incentivi ad investire delle imprese; mentre il flusso di risorse destinate alle giurisdizioni a minore grado di sviluppo (o maggiormente esposte a shock macroeconomici a causa della più debole struttura produttiva) ridurrebbe l’impegno ad indirizzare le risorse locali verso un processo di crescita guidato dalle forze di mercato. Un'altra questione riguarda essenzialmente la “libertà di scelta” dei residenti delle giurisdizioni “ricche”. Allorché una nazione (o una federazione) sia caratterizzata da notevoli disparità di reddito pro capite fra le giurisdizioni di cui si compone, la posizione di contribuenti nette ai matching grants potrebbe impedire alle giurisdizioni “ricche” di soddisfare le preferenze locali, sia in termini di quantità di beni pubblici e meritori, sia sotto il profilo della varietà delle opzioni (il pluralismo culturale negli indirizzi formativi del sistema di istruzione, una vasta gamma di servizi a pagamento nella sanità, etc.) che i residenti si attendono dal decentramento fiscale. La possibile interferenza dei matching grants con gli incentivi di mercato e con la “libertà di scelta”, benché non sia del tutto eliminabile, viene solitamente mitigata orientando il disegno delle politiche pubbliche al soddisfacimento dell’equità attuariale. La letteratura abbonda di lavori che presentano schemi di trasferimenti perequativi disegnati con l’obiettivo di incorporare nella legislazione fiscale un grado di earmarking sufficientemente elevato da garantire a gruppi sociali ed individui la possibilità di verificare la coerenza del livello di imposizione sopportato con gli 392 standard attesi nell’erogazione del servizio pubblico. E’ ad esempio possibile imporre, al livello di governo che riceve i matching grants, il rispetto del principio del beneficio. Tale obiettivo viene perseguito attraverso l’attribuzione dei fondi per la coesione sociale a specifici programmi di spesa (earmarking). Questi aspetti distributivi del decentramento istituzionale sono stati ulteriormente complicati dalla crisi finanziaria del 2007-08 e dalla successiva recessione. In Italia, ad esempio il lungo e contrastato passaggio al federalismo fiscale sta subendo le conseguenze dell’esigenza di procedere ad una forte restrizione della politica fiscale. Ad essere immediatamente colpito è il meccanismo di perequazione inter-regionale, che per essere seriamente realizzato necessita di ingenti risorse. 8. Spillovers fra livelli di governo e competizione fiscale In Europa, il contemporaneo sviluppo del federalismo verso l’alto - l’integrazione fra gli Stati, che genera istituzioni sovra-nazionali e politiche pubbliche comuni - e del federalismo verso il basso – l’attribuzione di potestà fiscale ai livelli sub-nazionali di governo – sta producendo un sistema multi-livello i cui tratti costitutivi sono ancora tutti da definire. Un primo aspetto è comunque già evidente. L’evoluzione di molti paesi verso tre livelli di governo (locale, nazionale ed europeo) implica una riduzione del grado di corrispondenza fra il territorio di riferimento della giurisdizione politica e l’area sulla quale le politiche pubbliche della giurisdizione esercitano i loro effetti economici. L’integrazione dei mercati e l’unione monetaria, hanno moltiplicato le interdipendenze economiche fra le nazioni dell’Unione Europea, con potenziali effetti riduttivi sulle entrate fiscali dei governi centrali. Il numero degli spillovers fra le giurisdizioni, che è destinato ad accrescersi sia per la mobilità dei capitali e del lavoro (in primo luogo, i flussi di lavoratori in uscita dai paesi dell’Est) sia per l’incremento dei livelli di governo, rappresenta la condizione permessiva per l’innescarsi della 393 competizione fiscale. E’ infatti evidente che - all’azzerarsi dei controlli sui movimenti di capitale e al ridursi i costi del trasferimento di lavoratore di residenza da un paese ad un altro - ha fatto seguito un aumento delle pressioni concorrenziali. Per trattenere i capitali finanziari e le imprese produttive gli Stati abbassano la tassazione sui rendimenti finanziari e sui profitti; per evitare la perdita di posti di lavoro i lavoratori autoctoni devono accettare salari (e contributi sociali) più bassi. L’analisi economica ha elaborato numerosi modelli che mettono in luce come anche il federalismo possa innescare una competizione fiscale tale da produrre, al livello di coordinamento fra sistemi economici in competizione fra loro, le medesime condizioni di fallimento che si manifestano nel coordinamento di mercato (Sinn, 2003). Da un lato, l’ampliarsi dell’impatto delle politiche al di fuori dei confini nazionali tende ad accrescere l’eterogeneità fra le giurisdizioni riguardo alle diverse dimensioni economico-sociali da cui scaturisce il benessere sociale degli individui (reddito pro capite, caratteri del sistema fiscale e della protezione sociale, etc.). Dall’altro, le imperfezioni di mercato, in particolare i fattori agglomerativi che agiscono a livello settoriale e territoriale (ad esempio, l’attrazione esercitata dalle aree dotate di buone università e di forti strutture di ricerca sulle localizzazioni delle imprese dei settori avanzati), ostacolano la convergenza reale fra giurisdizioni a diverso livello di reddito pro capite e spesso accentuano la marginalizzazione delle aree arretrate. A minori entrate fiscali consegue minore spesa pubblica. Riguardo alle prospettive di “corsa al ribasso” in Europa nella realizzazione delle politiche pubbliche, è stato osservato come “le riforme degli ammortizzatori sociali e delle pensioni, dirette a ridurre la “generosità del sistema” di protezione sociale degli Stati membri, subiscono una accelerazione a partire dal 1991, data nella quale il processo di integrazione europeo ha ricevuto un significativo impulso. Sull’insieme delle 15 riforme strutturali avviate fra il 1991 ed il 2003 (8 relative al sistema pensionistico e 7 riguardanti l’assicurazione contro la disoccupazione) 14 (rispettivamente, 8 e 6) avevano visto diminuire la “generosità del sistema” (Fitoussi e LeCacheux, 2002, 394 pp.108-9). Questa tendenza al ridimensionamento della spesa sociale ha recentemente subito un’accelerazione con le misure di austerità varate dai governi dell’Eurozona in seguito al riflettersi della crisi finanziaria sulla sostenibilità del debito pubblico dei paesi “periferici”. Pertanto, sul futuro delle assicurazioni sociali, già minacciate sul piano del finanziamento dalla tendenza internazionale alla riduzione della tassazione sul capitale (il che impedisce di tassare adeguatamente le multinazionali) indotta dalla globalizzazione e dall’evoluzione demografica, incombe ora anche la centralizzazione nelle mani di un’autorità di controllo dell’Unione Europea del controllo dei bilanci pubblici nazionali. Se i bassi tassi di crescita delle economie europee dovessero perdurare, soprattutto nelle nazioni in cui il livello di tassazione è maggiore della media europea in quanto il settore pubblico intermedia una quota ingente di risorse, potremmo assistere ad una tendenza verso la restrizione fiscale tale da provocare una significativa perdita di capacità fiscale dei governi centrali. Le conseguenti riduzioni nei programmi della spesa sociale a favore dei soggetti “svantaggiati” e delle giurisdizioni locali a più basso reddito pro-capite si riverbereranno negativamente sulla funzione di equalizzazione. La perequazione fiscale svolta dai matching grants che i governi centrali destinano alle giurisdizioni locali dei paesi dell’Unione Europea ne risulterà gravemente indebolita. Un ulteriore aspetto riguarda l’impatto del decentramento sulla pressione fiscale nei livelli inferiori di governo. La funzione di redistribuzione intergiurisdizionale dei matching grants genera infatti anche spillovers sul sistema dei tributi e della spesa di ciascuna giurisdizione sub-nazionale. L’investitura di responsabilità nei confronti delle comunità locali che grava sui rappresentanti da esse eletti fa sì che il controllo democratico sulla tassazione e sulla spesa pubblica realizzati dai governi locali sia maggiore quanto più esteso è il decentramento politico. Tuttavia, alla più elevata autonomia regionale realizzata con il trasferimento di competenze alle giurisdizioni di livello inferiore non sempre corrisponde un 395 proporzionale incremento dell’autonomia di bilancio. La letteratura esprime a questo proposito due giudizi contrapposti. Nell’indirizzo di Public Choice, si osserva come decentramento istituzionale e decentramento delle funzioni di imposizione fiscale e di spesa pubblica possano entrare in conflitto. La funzione di comportamento “auto-interessato” indurrebbe i rappresentanti dei governi locali a perseguire una strategia opportunistica, consistente in una sorta di asimmetria fiscale: la loro azione sarebbe infatti diretta ad acquisire la funzione di spesa lasciando invece la funzione impositiva presso il governo centrale (Stegarescu, 2005). In effetti, è quanto è avvenuto negli ultimi venti anni in Italia. Il cosiddetto ”Patto di Stabilità interno” intende porre rimedio proprio a questo problema. Allo scopo di una evitare tale distorsione degli incentivi, andrebbe preservata la gerarchia fra i livelli di governo. In particolare, andrebbe evitata la negoziazione fra i rappresentanti delle istituzioni locali ed il governo centrale riguardo alla suddivisione di funzioni e di capacità di tassazione e di spesa. Un altro indirizzo della letteratura, invece, associa alla equalizzazione fiscale fra i livelli inferiori di governo un incentivo per le giurisidizioni locali ad aumentare il livello di tassazione. Questo filone di ricerca attribuisce ai matching grants un effetto di riduzione del costo marginale della raccolta di tributi (Buettner, 2005 e Dahlby, 2002). I trasferimenti verticali del governo centrale verso i livelli inferiori di governo, nel liberare dall’imposizione alcune risorse locali, consentirebbero alle giurisdizioni l’incremento della pressione fiscale complessiva. Si genererebbe così un effetto di bilanciamento rispetto alla tendenza, attribuita alla competizione fiscale fra le giurisdizioni, a provocare il ridimensionamento della pressione fiscale e quindi della spesa sociale (Bucovetsky e Smart, 2002; Koethenbuerger, 2002). L’evidenza empirica indica comunque che il decentramento fiscale non ha condotto ad una maggiore disponibilità di risorse a disposizione dei governi subnazionali. Come si è accennato, il vincolo sovra-nazionale di politica fiscale ha indotto alcuni governi centrali ad estendere il Patto di stabilità fino al livello delle entità amministrative di più piccole dimensioni. 396 Il finanziamento delle politiche pubbliche delle giurisdizioni sub-nazionali dovrà inoltre fare sempre meno affidamento sul governo nazionale. Tanto più rapidamente globalizzazione e competizione fiscale accelereranno la riduzione delle spese per la coesione sociale a livello nazionale, tanto più indispensabile diverrà la disponibilità di finanziamenti europei per le politiche pubbliche perequative dei paesi dell’UE a reddito pro capite inferiore alla media. D’altro canto, gli strumenti di federalismo cooperativo che attualmente operano al livello di Unione Europea – in primo luogo, i Fondi strutturali diretti a riequilibrare il divario di capacità fiscale determinato dal basso reddito pro capite – non hanno la dimensione necessaria ad influire sulla tendenza alla concentrazione settoriale e produttiva in atto nel continente. 9. La suddivisione delle competenze di prelievo e di spesa Negli ultimi decenni, sia negli Stati federali che in quelli caratterizzati da una struttura di governo centralizzata, la tendenza al decentramento ha prevalso sulla centralizzazione delle responsabilità di prelievo e di spesa pubblica. Tuttavia, come sopra richiamato, le riforme degli assetti istituzionali nella direzione del federalismo fiscale attuate da molti Paesi hanno seguito linee evolutive fra loro alquanto differenti. Si può affermare che in nessun caso è stato replicato l’equilibrato modello degli Stati Uniti, dove il complesso intreccio fra bilancio federale e trasferimenti di tipo verticale ed orizzontale fa sì che la funzione di redistribuzione delle risorse finanziarie fra gli Stati della Federazione svolga un ruolo complementare rispetto alla funzione di stabilizzazione macroeconomica, cioè agli interventi finalizzati a mantenere elevata occupazione, a controllare l’inflazione, a sostenere la crescita economica. Come sopra discusso, il potere impositivo dovrebbe seguire il potere di spesa. Questo va bene in linea di principio ma molto meno in pratica per diversi motivi, non ultimo per la ristrettezza delle basi imponibili appropriate per essere affidate alla 397 tassazione locale. Dai confronti internazionali non sembra emergere una precisa corrispondenza fra devoluzione delle competenze di spesa e devoluzione dell’imposizione fiscale. Anche se negli ultimi 15 anni la quota delle entrate locali (al netto dei trasferimenti intergovernativi) su quelle totali della pubblica amministrazione è aumentata soltanto marginalmente nella media dei paesi Ocse, in alcuni Paesi il peso relativo delle entrate locali si è accresciuto parallelamente ai processi di devoluzione (Spagna, Danimarca, Italia), mentre in altri (Svezia, Norvegia ed Austria) l’alta mobilità della base impositiva (i redditi personali) su cui si fonda il prelievo fiscale locale ha determinato una graduale riduzione della quota delle entrate sub-nazionali. In altri Paesi (Germania e Francia), al di là dell’aumento della percentuale delle entrate locali, si è assistito ad una riduzione dell’autonomia impositiva riconosciuta alle giurisdizioni locali. Anche in termini di composizione delle entrate locali tra tributi, trasferimenti ed entrate non fiscali non è facile riconoscere elementi comuni (vedi Figura 1a: Composizione delle entrate dei governi sub-nazionali). Anche se molto differenziati tra singole nazioni, i trasferimenti a favore dei livelli di governo locale presentano nei Paesi unitari valori mediamente superiori a quella registrata nei Paesi federali come quota delle entrate locali complessive. Altrettanti diversificato tra Paesi è poi il ricorso a tariffe e canoni per l'utilizzo di servizi pubblici locali. Se poi analizziamo in maggior dettaglio, sulla base delle statistiche fiscali pubblicate dal Fmi e dall’Ocse, le diverse tipologie di imposte che sono concretamente attribuite ai livelli sub-nazionali, di nuovo si rileva nel confronto tra Paesi una forte differenziazione (si veda la Figura 1b: Composizione delle entrate tributarie dei governi sub-nazionali). 398 Figure 1a e 1b 399 Nella quasi totalità dei Paesi federali ed unitari le imposte sulla proprietà e sul reddito (personale e societario) assicurano la quota di gran lunga più significativa dei gettiti fiscali a livello locale. In particolare, le imposte sui redditi sono una fonte rilevante di gettito locale nei Paesi del Nord Europa e dell’Europa centrale, in Canada, in Giappone, negli Stati Uniti. Le imposte locali sui redditi assumono in generale la forma di addizionali o sovrimposte su tributi gravati dal governo centrale. Gettiti relativamente importanti sono poi offerti della tassazione locale sui consumi che assume generalmente la forma di un’imposta monofase al dettaglio. Tab.1 Evoluzione delle spese dei governi sub-nazionali a partire dal 1970 (% del totale dell’Amministrazion pubblica) 1975 1980 1985 1990 1995 dato più 1970 recente Stati federali Germania 45 44 44 41 41 41 38 (1998) Svizzera 56 55 53 52 50 48 47 (1999) Austria 32 31 30 30 30 31 31 (1998) Spagna 11 30 21 30 32 (1997) Stati unitari Danimarca 47 48 44 44 43 44 46 (2000) Svezia 45 44 40 37 37 31 34 (1998) Norvegia 40 33 32 38 33 32 33 (1997) Finlandia 38 38 39 40 41 34 36 (1998) Francia 17 17 16 16 18 18 17 (1997) Italia 27 27 27 24 28 (1999) Belgio (1) 14 12 11 11 11 (1997) 25 Olanda 27 26 23 24 22 (1997) Regno Unito 30 30 26 24 25 22 22 (1998) Irlanda 27 28 27 25 23 24 25 (1997) Portogallo 7 8 8 10 (1998) (1) Nel periodo considerato il Belgio si è trasformato da Stato unitario in Stato federale. Le statistiche continuano a riportare i livelli di governo diversi da quello locale nell’aggregato del governo centrale. Fonte: Imf Government Financial Statistics, 2001. Passando ad analizzare l’attribuzione delle competenze di spesa tra i vari livelli di governo, l’evidenza empirica suggerisce che la suddivisione delle materie di intervento pubblico fra governo centrale e giurisdizioni locali configura un equilibrio 400 fortemente instabile, con l’alternarsi fra tendenze a riformare la forma-Stato in senso federale e successive riforme dirette a modificare l’organizzazione delle competenze nel senso dell’accentramento. La Tabella 1 rivela infatti come in molti Paesi, sia federali che unitari, si sia assistito ad una sorta di «pendolo» fra fasi di accrescimento e fasi di contrazione della quota di spesa pubblica attivata dai livelli di governo inferiori. E’ tuttavia degno di nota il fatto che la quota di spesa dei governi sub-nazionali si sia ridotta in alcuni Paesi a struttura federale (Germania e Svizzera), mentre fra i Paesi a struttura unitaria lo stesso indicatore di decentramento permanga ben al di sopra del 30% nei Paesi scandinavi, raggiungendo il 46% in Danimarca. Anche la scomposizione per funzioni delle spese dei governi sub-nazionali (Tab. 2) riserva in termini comparativi un quadro assai variegato, confermando come l’attribuzione delle varie funzioni tra governi centrale e sub-nazionali sembra dipendere, più che da considerazioni di efficienza economica, dalle vicende storiche e dalla struttura socio-economica dei vari Paesi. Uno dei pochi tratti riconoscibili sembra riguardare l’istruzione, dove la quota di spesa attivata dalle giurisdizioni locali risulta sistematicamente maggiore nei Paesi federali (spicca il caso della Germania) rispetto ai Paesi unitari. Significativo è poi il caso della Danimarca, dove i livelli locali di governo controllano in misura pressoché esclusiva la spesa sanitaria. Infine, si può notare come Francia, Norvegia ed Olanda condividano con due Paesi federali, come Germania e Svizzera, l’attribuzione alle giurisdizioni locali di un ruolo prevalente nell’ambito degli interventi pubblici in campo residenziale. 401 Tab. 2 Composizione delle spese dei governi sub-nazionali per funzione (% del totale dell’Amministrazione pubblica per ciascuna funzione) Istruzione Sanità Sicurezza Abitazioni e Ordine Affari Totale sociale e assetto pubblico e economici welfare territoriale sicurezza Stati federali Germania (1996) 96 28 79 93 64 38 92 Svizzera (1999) 90 31 23 85 37 47 93 72 48 9 25 n.d. 31 Austria (1998) 3 Spagna (1997) 31 6 93 71 41 60 32 Stati unitari Danimarca (2000) 46 95 55 33 13 35 46 Norvegia (1998) 63 77 19 87 17 17 34 Francia (1993) 37 2 9 82 28 18 17 Olanda (1997) 5 14 79 33 25 26 22 Regno Unito (1998) 0 20 41 67 52 29 22 Irlanda (1997) 48 6 100 22 70 70 25 Fonte: Imf Government Financial Statistics, 2001. 9. La devoluzione dei poteri dei governi nazionali verso l’Unione Europea I processi di unificazione dei mercati dei prodotti e dei mercati finanziari, assieme all’unione monetaria, hanno inteso dare attuazione innanzitutto all’obiettivo di accrescere il benessere delle popolazioni europee attraverso i guadagni di efficienza conseguenti all’integrazione e all’armonizzazione. A tale obiettivo si è progressivamente aggiunta la volontà degli Stati europei di fare fronte comune contro la perdita di efficacia degli strumenti di intervento dei governi nell’economia nazionale una volta che i mercati sono unificati. La domanda che ci si può porre è se la “sostenibilità” della sfida che la globalizzazione porta alla costruzione europea sia davvero assicurata dall’attuale configurazione delle strutture di governance di Bruxelles e Francoforte. L’assetto istituzionale dell’Unione Europea prevede la centralizzazione della politica monetaria e il mantenimento della politica fiscale alla dimensione nazionale. Tale asimmetria viene solitamente giustificata ricordando come l’obiettivo primario del 402 processo di integrazione monetaria europea sia quello di garantire in Europa la stabilità monetaria, mentre le politiche pubbliche dovrebbero tendere al soddisfacimento delle eterogenee preferenze dei cittadini delle diverse comunità nazionali. Poiché questa costruzione istituzionale è esposta all’impatto negativo che eccessivi livelli dei deficit e dei debiti pubblici nazionali potrebbero trasmettere sul tasso di interesse comune, il Patto di stabilità e crescita rappresenta il meccanismo di enforcement deputato al coordinamento delle politiche fiscali nazionali verso una condotta compatibile con l’indirizzo anti-inflazionistico della Banca centrale europea. E’ certamente vero che il coordinamento delle politiche fiscali a fini di stabilizzazione macroeconomica richiederebbe iniziative a livello sovra-nazionale che vanno ben oltre l’adesione dei singoli Stati membri al Patto di stabilità e crescita, ma il raggiungimento di questo obiettivo (per esempio, attraverso l’ampliamento del bilancio comunitari) sembra ancora assai lontano. L’introduzione del Patto di stabilità e crescita ha certamente portato a risultati desiderabili, soprattutto per un Paese ad alto debito pubblico come l’Italia. A livello europeo, il Patto di stabilità ha dimostrato di essere sufficientemente efficace e credibile nell’evitare che singoli Paesi si comportino da free rider, evitando i necessari aggiustamenti dei propri conti pubblici e beneficiando, al contempo, dei vantaggi derivanti dal condividere un’area di stabilità monetaria. Per l’Italia poi il vincolo esterno del Patto di stabilità ha rappresentato l’elemento chiave per spingere il nostro Paese verso un processo di risanamento dei conti pubblici richiesto dal peso preponderante del debito. E’ vero del resto che, come è noto, l’attuale assetto dell’assegnazione delle politiche monetaria e fiscale tra il livello comunitario e quello nazionale e la conseguente collocazione del Patto di stabilità e crescita come snodo di questo rapporto non è esente da critiche. L’imposizione di vincoli quantitativi ai governi nazionali viene, ad esempio, giudicata una strategia poco attenta all’inefficienza che spesso accompagna l’adozione di regole fisse uniformi per tutti i Paesi, quale che sia 403 la fase del ciclo attraversata da ciascuno di essi e la solvibilità fiscale di un Paese alla luce del rapporto fra stock di debito pubblico e PIL. In particolare, il perseguimento della riduzione del debito pubblico al 60% del PIL in 20 anni (recentemente imposta dal Fiscal Compact che ha sostituito il PSC), generando un comune orientamento restrittivo delle politiche fiscali nazionali, finirà per deprimere ulteriormente il livello di domanda nell’area economica europea già fortemente ridottosi a causa della recessione. Tale esternalità negativa che ciascun processo di consolidamento produce a danno di tutti gli altri Paesi dell’Unione monetaria richiederebbe un intervento compensativo a sostegno della domanda aggregata. In altri termini, come sopra richiamato, sarebbe auspicabile che la banca centrale europea promuovesse un coordinamento con le politiche fiscali nazionali ed orientasse in senso espansivo la politica monetaria sotto la condizione di una maggiore credibilità delle stance fiscali nazionali. L’assegnazione delle politiche fra il livello comunitario ed il livello nazionale appare poi ancora meno convincente quando la si esamini nella prospettiva complessiva delle politiche macroeconomiche e delle riforme microeconomiche invocate dalla Commissione europea. In misura ancora maggiore dopo la crisi dell’Eurozona, Bruxelles chiede ai governi nazionali più incisivi interventi diretti ad accrescere la flessibilità del mercato del lavoro, una maggiore concorrenza nei mercati dei beni e dei servizi di pubblica utilità ed il completamento della liberalizzazione dei mercati dei capitali e del credito. L’obiettivo è quello di rendere più efficiente e più rapido l’aggiustamento di mercato attraverso la variazione dei salari e dei prezzi successivamente ad uno shock di domanda o di offerta, riducendo così l’intervento fiscale di stabilizzazione macroeconomica al solo operare degli stabilizzatori automatici. Tale strategia sembra dimenticare che le riforme microeconomiche, sebbene senza dubbio accrescano l’efficienza nel medio-lungo periodo, hanno un costo di breve periodo. In base alla schematizzazione di politiche microeconomiche e 404 macroeconomiche per livello di governo responsabile della conduzione di tali politiche riportata nella tabella a p.201, si osserva come le riforme invocate dalla Commissione, anche a causa della riduzione delle rendite presenti nei mercati del lavoro, dei beni e dei servizi, comporterebbe una minore redditività delle imprese ed una maggiore incertezza del posto di lavoro. Tali effetti che andrebbero controbilanciati da una politica fiscale nazionale meno vincolata dalle stringenti regole del Fiscal Compact, e quindi maggiormente in grado di compensare i gruppi sociali che subiscono una perdita. Sia la questione del corretto mix fra la politica monetaria della BCE e le politiche fiscali nazionali, sia il problema della compatibilità fra queste politiche macroeconomiche e le riforme microeconomiche inevitabilmente si intrecciano con la progressiva attuazione in Europa dell’organizzazione multi-livello delle politiche pubbliche. Appare evidente che i processi di riorganizzazione in senso federale in corso nell’Unione europea richiedono un attento bilanciamento tra devoluzione verso l’alto e verso il basso, affinché la ripartizione dei poteri possa evolvere verso l'efficiente svolgimento delle tre funzioni – allocativa, stabilizzatrice e redistributiva – dell'intervento pubblico. In definitiva, sembra che la recessione scatenata dalla crisi finanziaria stia avendo l’effetto di destabilizzare il parallelo evolversi dei processi di decentramento giurisdizionale - il federalismo fiscale – e dei processi di integrazione sovra-nazionale – l’Unione Europea e l’Unione Monetaria Europea. La “sostenibilità” della globalizzazione si è allontanata con la crescente instabilità macroeconomica innescata dalla crisi. Il più stretto controllo che inevitabilmente la Commissione Europea e le altre agenzie di monitoraggio dovranno esercitare sui bilanci pubblici degli Stati nazionali sta orientando la strategia dei governi sempre più verso un accelerazione dell’integrazione ed un freno al decentramento giurisdizionale. 405 406