6 Introduzione al Value at Risk per i rischi di mercato 6.1 Metodi convenzionali – 6.1.1 Introduzione al Value at Risk – 6.1.2 Il VaR e l’approccio delta – 6.1.2.1 Il modello prezzo-rendimento – 6.1.2.2 L’intervallo di confidenza – 6.1.2.3 L’orizzonte temporale – 6.1.2.4 Previsione della volatilità – 6.1.2.5 L’approccio delta-normal: mapping dei flussi e criticità – 6.1.3 Il VaR in opzioni e l’approccio delta-gamma: cenni – 6.1.4 Simulazioni storiche – 6.1.5 Simulazione MonteCarlo – 6.1.6 L'analisi degli scenari (stress test) – 6.1.7 I limiti dei metodi convenzionali - 6.1.8 La teoria dei valori estremi: cenni – 6.2 Gli utilizzi della metodologia del Value-at-Risk – 6.3 Utilizzo delle misure VaR: criticità – 6.4 I modelli interni ai fini della vigilanza – 6.4.1 Introduzione – 6.4.2 Procedura di riconoscimento – 6.4.3 Requisiti patrimoniali nell’ottica di Vigilanza – 6.4.4 Per una vigilanza incentive-compatible nello sviluppo dei modelli interni - 6.4.5 Prove di stress Appendici al capitolo cap. 6 – Appendice 6.A Value at Risk di un portafoglio azionario - Appendice 6.B Requisiti a fronte dei rischi di posizione su titoli, di cambio e di posizioni su merci – Appendice 6.C Requisiti qualitativi dei modelli interni 6.1 Metodi convenzionali 6.1.1 Introduzione al Value at Risk I Modelli Valore a rischio (VaR) rappresentano un tentativo di misurare il rischio di mercato associato all’intero portafoglio di attività di una istituzione finanziaria mediante un’unica misura quantitativa. A differenza dei sistemi di misurazione tradizionali (ad esempio duration e convexity per i titoli a reddito fisso; le lettere greche per le opzioni) che tendono a focalizzare l’attenzione sui rischi dei singoli strumenti in maniera isolata, ignorando gli effetti della correlazione, il VaR riassume tramite un singolo numero, che esprime una misura monetaria, il rischio di mercato globale 288 Capitolo 6 dell’istituzione, tenendo in considerazione l’interdipendenza tra i singoli tipi di rischio. Il concetto alla base del modello consiste nel voler misurare statisticamente il rischio di mercato associato ad una determinata attività finanziaria. Si definisce, pertanto, il valore a rischio come la massima perdita attesa che una certa posizione può subire a fronte di movimenti avversi dei fattori di rischio rilevanti in un determinato orizzonte temporale in corrispondenza di un certo intervallo di confidenza. Ciò comporta per le istituzioni finanziarie il passaggio da una classificazione delle posizioni di bilancio per categorie di strumenti finanziari (azioni, obbligazioni, opzioni, ecc.) a una classificazione per categorie di rischio (tassi di interesse, tassi di cambio, prezzi o indici azionari, ecc.). Per ogni categoria di rischio è, pertanto, possibile quantificare l’esposizione complessiva al rischio mediante la seguente relazione basata sulle assunzioni di metodi parametrici: VAR ( MM (r ))( ) t [6.1] dove MM esprime il valore delle posizioni, la sensibilità del valore della posizione rispetto ad un fattore di rischio specifico, (r) il suddetto fattore di rischio, la volatilità identificata come la deviazione standard dei rendimenti rispetto al loro valore medio ed è la costante che individua l’intervallo di confidenza (una coda) di una distribuzione normale standardizzata e t l’holding period. Per una maggiore comprensione della formula, supponiamo di misurare il VaR giornaliero di un investimento in zero coupon bond per un importo di 50 milioni di euro con vita residua 15 anni, tasso di rendimento effettivo a scadenza 6,35%. Nella fattispecie il è rappresentato dalla duration modificata ed è pari a 14 anni, mentre la volatilità dei tassi è dello 0,30%. Il calcolo del VaR viene implementato in due fasi: nella prima, si verifica la sensibilità dell’esposizione dell’investimento al rischio di mercato attraverso la ponderazione del market to market della posizione al fattore di rischio r)); nella seconda, si focalizza l’attenzione sulla variabilità, espressa in funzione delle previsioni di volatilità giornaliera del tasso. Pertanto, ipotizzando una distribuzione Introduzione al Value at Risk per i rischi di mercato 289 normale dei tassi di interesse ed un intervallo di confidenza di 2,33 la massima variazione del prezzo attesa in un giorno nel 99% dei casi è: VaR =(50*14,104*0,0635*2,33*0,30)= 3,130 mln di euro Il che equivale ad affermare che le oscillazioni del prezzo giornaliero si dovrebbero mantenere nell’area indicata dalla stima del VaR nel 99% dei casi e solo nel 1% le perdite potranno risultare superiori a 3,130 milioni di euro. Tale sistema di misurazione consente, pertanto, non solo di riassumere attraverso un singolo numero il rischio di una posizione ma di comparare i rischi di mercato fra posizioni diverse all’interno della stessa banca e fra banche diverse. A titolo esemplificativo, supponiamo che la banca A presenti un VaR giornaliero (ossia riferito a un holding period di un giorno) di 50 milioni di euro in corrispondenza di un intervallo di confidenza del 95%, mentre la banca B rileva un VaR settimanale di analogo importo per un eguale livello di confidenza del 95%. Quale portafoglio delle due banche risulta essere più rischioso? La banca A sarà soggetta ad una massima perdita probabile di 50 milioni di euro ogni 20 giorni; la banca B presenta un profilo di rischio pari ad una massima perdita probabile di 50 milioni di euro ogni 20 settimane, ciò significa che il rischio di mercato con riferimento a periodi di osservazione rispettivamente di 20 giorni e di 20 settimane sottostima le perdite effettive non più di una volta (20 x 0,05). La banca A è, pertanto, esposta a perdite superiori ai 50 milioni di euro 12,5 volte in un anno (ossia 250/20, il che equivale al 5% di 250 con manifestazione temporale ogni 20 giorni), mentre la banca B 2,6 volte l’anno (52/20). Questo non significa, però, che l’intermediario A rilevi una rischiosità 4,8 (12,5/2,6) volte superiore a quella di B. Ai fini di una efficace confronto dei valori forniti dal modello VaR, la stima ottenuta dalle due banche dovranno essere proiettate in un periodo di osservazione omogeneo, nel caso specifico un anno. Per cui con t = 1 anno e = 95%, la perdita massima probabile per A è di 793,7 milioni di euro in un anno, mentre per B è di 360,55 milioni di euro. L’intermediario A dispone, pertanto, di 290 Capitolo 6 un portafoglio due volte circa più rischioso di quello di B. Dal punto di vista metodologico, per la quantificazione dell’esposizione al rischio occorre formulare alcune ipotesi: sulla forma della distribuzione di probabilità; sull’intervallo di confidenza; sull’orizzonte temporale. Per quanto concerne la forma della distribuzione di probabilità dei rendimenti di periodo si assume o meno, a seconda dei modelli, una forma della funzione di distribuzione dei movimenti attesi dei rendimenti con possibilità di applicare soluzioni parametriche o di valutare direttamente la distribuzione di frequenze dall’analisi dei dati per la metodologia di calcolo del valore a rischio. La scelta dell’intervallo di confidenza esprime il grado di protezione desiderato nei confronti di movimenti avversi nei fattori di mercato rilevanti, ossia la percentuale di copertura che si intende garantire rispetto agli eventi indesiderati. Gradi di protezione differenti riflettono livelli diversi d’avversione al rischio da parte di un intermediario e costi diversi connessi alla probabilità di variazione del prezzo superiore a quello stimato dal VaR. Occorre, infine, definire l’orizzonte temporale lungo il quale misurare la perdita1. A tale scopo, vengono presi in considerazione fattori di tipo oggettivo, indipendenti dalle aspettative della banca o del singolo operatore, come, ad esempio, lo spessore e la profondità del mercato nel quale lo strumento viene negoziato. In altri termini, la liquidabilità dello strumento stesso, definito come tempo necessario ai fini di una normale transazione o ai fini di una copertura della posizione. Un secondo fattore che può essere E’ intuitivo come la scelta del periodo di osservazione influenzi direttamente la misura del valore a rischio. Un breve orizzonte temporale riflette correttamente gli andamenti recenti del mercato, ma proprio a causa di questa estrema fedeltà, o rispondenza, a ciò che è accaduto nell’immediato passato il valore a rischio potrebbe venire determinato in modo scorretto, in particolare se sul mercato imperversassero situazioni turbolente o fortemente volatili: in questo caso la misura del valore a rischio sarebbe sovrastimata. Al contrario, un periodo di osservazione più lungo, nel caso di squilibri negli andamenti dei fondamentali, medierebbe la misurazione del rischio con i dati più lontani nel tempo, appartenenti a momenti di normalità dei mercati, anche se in questo caso si tratterebbe di un modello meno sensibile ai mutamenti dello scenario ambientale. 1 Introduzione al Value at Risk per i rischi di mercato 291 considerato nella determinazione dell'orizzonte temporale è invece di tipo soggettivo, nel senso che scaturisce direttamente dagli obiettivi del singolo operatore e/o dell'istituzione finanziaria. Si tratta del periodo di detenzione (holding period) della singola posizione. In tal senso, una posizione di trading, assunta con un'ottica di tipo speculativo di brevissimo periodo, dovrebbe essere valutata con un orizzonte temporale più breve rispetto a quello relativo ad una posizione, sul medesimo strumento finanziario, considerata di investimento (e, dunque, misurata su un orizzonte di tempo più lungo). 6.1.2 Il VaR e l’approccio delta Tra i diversi metodi di calcolo del VaR quello più applicato presso le istituzioni finanziarie è il “metodo delle varianze e covarianze”, a volte chiamato anche metodo analitico o parametrico. Esso rappresenta la versione originale dei modelli VaR ossia quella sviluppata per prima e, come tale, quella più rapidamente diffusasi presso le banche anglosassoni. I modelli appartenenti a questa categoria si caratterizzano per due principali elementi. Anzitutto, il rischio viene misurato sulla base della sensibilità della posizione (portafoglio di posizioni) a variazioni dei fattori di mercato, e del grado di correlazione fra gli stessi. La determinazione del livello di confidenza desiderato è subordinata all’ipotesi di una distribuzione normale delle variazione dei rendimenti della posizione o del portafoglio. La diffusione del metodo parametrico nell’ambito dei sistemi di Risk Management si riconduce al modello probabilistico Risk Metrics, elaborato e messo a disposizione della comunità finanziaria da J.P. Morgan2 per la valutazione e gestione del rischio 2 Nelle intenzioni di J.P. Morgan la metodologia di Risk Metrics è stata resa di pubblico dominio per tre principali motivazioni: Interesse a promuovere una maggiore trasparenza in materia di rischi di mercato; Stabilire un benchmark, un indice di riferimento, un comune termine di paragone per la misura dei rischi di mercato; Rendere disponibili sofisticati strumenti di misurazione del rischio al altri potenziali utenti, operatori del mercato, che non hanno le risorse e le capacità per sviluppare propri sistemi di misurazione . Cfr. J.P. Morgan, Technical Document (1996). 292 Capitolo 6 di mercato generato da portafogli composti da attività finanziarie a reddito fisso, titoli azionari, tassi di cambio, merci e da tutti i prodotti derivati collegati a queste attività. A tale modello si ispirano i tanti prodotti sviluppati dalla software industry. Si fa notare, che l’approccio varianze-covarianze si caratterizza per una certa semplicità, relativa, non tanto al profilo concettuale, quanto all’onerosità dei calcoli e dunque dei sistemi informativi di supporto. A fronte di tali vantaggi, l’approccio in questione presenta diverse critcità , principalmente legate all’impianto teorico che sta alla base dell’intera metodologia di calcolo del VaR di una posizione o di un portafoglio di posizioni. Tali ipotesi riguardano in particolare due aspetti: la distribuzione dei rendimenti dei fattori di mercato; il grado di sensibilità delle posizioni di rischio al variare dei fattori di mercato. 6.1.2.1 Il modello prezzo-rendimento Un’ipotesi alla base del modello riguarda proprio i movimenti dei prezzi; che si muovono in modo casuale e con una distribuzione delle variazioni assimilabile a una funzione di tipo normale standardizzata: Per valutare analiticamente i movimenti potenziali dei prezzi, e la loro incidenza sul valore delle posizioni in portafoglio, in modo da ottenere una misura della massima perdita potenziale, si ipotizza di misurare il rischio in termini di variazioni di prezzo, espresse come rendimenti logaritmici. Il rendimento di un singolo strumento3 viene pertanto definito con la seguente espressione: 3 Per descrivere i cambiamenti nelle variabili di mercato, data una serie storica P t dei prezzi di una attività finanziaria, il logaritmo del rapporto tra il prezzo al tempo t e il prezzo al tempo t-1, per piccoli cambiamenti, si approssima alle variazioni percentuali del prezzo (P t-Pt-1)/Pt. Data, ad esempio, una serie composta da 3 prezzi relativi ad un ipotetico titolo, (P 1 = 100, P2 = 108, P3 = 100), le variazioni percentuali rispettivamente al tempo 2 e al tempo 3 risultano differenti, sebbene il valore iniziale e quello finale siano coincidenti (P 2-P1)/P1= 8% e (P3-P2)/P2 = -7,4%. Esprimendo i rendimenti alle epoche 2 e 3 con l’operatore logaritmico, si osserva che essi tendono ad assumere valori che si approssimano essendo ln(108/100)=7,696 e ln(100/108)=-7,696. Introduzione al Value at Risk per i rischi di mercato 293 rt ln Pt Pt 1 [6.2] dove rt è il rendimento al tempo t e P è il prezzo di uno strumento finanziario valutato rispettivamente in t e t-1: pertanto, il rendimento di un portafoglio (rpt) composto da n strumenti finanziari analiticamente è dato: n r pt w i r it [6.3] i 1 ove wi rappresenta il peso del rendimento logaritmico dell’i esima attività. Tale scelta è da attribuirsi alle proprietà statistiche della distribuzione di r nel tempo che si configura come una distribuzione di tipo normale. Il prezzo di un’attività finanziaria risulta coerente con un processo diffusivo continuo di tipo logaritmico qui di seguito descritto: r it i t i ,t i ,t t [6.4] ove i è il rendimento annuo atteso dell’attività iesima per una unità di tempo; t è un intervallo di tempo; i,t è la volatilità del prezzo dell’attività iesima al tempo t ed è una estrazione casuale di una distribuzione normale standardizzata, ossia una distribuzione normale con media nulla e deviazione standard pari a 1, del rendimento dell’attività iesima. Si ha, quindi, che t è il tasso di rendimento atteso e t rappresenta la componente stocastica (ossia la variabilità del sentiero temporale seguito da rit ). L’assunzione è che le variazioni del tasso di rendimento in un breve periodo di tempo t siano le stesse, indipendentemente dal livello dei prezzi dell’azione. 294 Capitolo 6 Per un portafoglio composto da tre titoli, per volatilità di tempo più prolungate rispetto a quella giornaliera, la stima del VaR è misurabile con il seguente metodo di calcolo4. Dato la sequenza dei rendimenti dei tre titoli: r 1, t 1 t 1,t 1,t t r 2, t 2 t 2, t 2, t t r 3, t 3 t 3, t 3, t t [6.5] il rendimento del portafoglio è dato r p ,t w 1r 1,t w 2 r 2,t w 3 r 3,t e la varianza [6.6] 2 p , t w 2 1 2 1, t w 2 2 2 2, t w 2 3 2 3, t 2w 1w 2 12, t 2w 2 w 3 23, t 2w 1w 3 13, t [6.7] ove: w 1 , w 2 , w 3 sono le quote di portafoglio investite nei tre titoli; 21 , 2 2 , 2 3 sono rispettivamente le varianze dei rendimenti dei singoli titoli; 12 , 23 , 13 indicano le correlazione5 rispettivamente tra il rendimento della posizione 1 con la 2, della posizione 2 con la 3 e, infine, della posizione 1 con la 3. 4 Risk Metrics (1996), p. 72. Il coefficiente di correlazione tra la variabile x e la variabile y applicato nei metodi parametrici è dato dalla seguente formula: 5 Covarianza (x, y) Varianza (x) * Varianza (y) coeff. Corr. La covarianza, espressione del movimento congiunto di due variabili, è data dalla seguente espressione: ( xi x )( yi y ) Cov ( x, y ) i n dove: xi = valore i-esimo assunto dalla variabile x yi = valore i-esimo assunto dalla variabile y x = valore medio della variabile x y= valore medio della variabile y n = numero delle osservazioni nel campione Una covarianza positiva indica che le due variabili sono caratterizzate da variazioni di segno uguale rispetto alla propria media (entrambe al rialzo o entrambe al ribasso). Se le due variabili seguono percorsi inversi, invece, la covarianza assume valori negativi. Infine, se le due variabili sono tra loro indipendenti, la covarianza è nulla. La covarianza tra due variabili x e y può esprimersi anche con la formula seguente : Introduzione al Value at Risk per i rischi di mercato 295 Nel caso di n titoli la volatilità del portafoglio è, pertanto, espressa dalla varianza: p n w i 1 2 i ˆ 2 i 2 w w ˆ ˆ ˆ i j i j ij [6.8] ove wi è la quota di portafoglio investita nell’attività i esima; 2 i è la Varianza del rendimento dell’attività iesima; ij è il grado di correlazione tra il rendimento della posizione iesima e di quella jesima6. Il calcolo del valore a rischio di un portafoglio di più posizioni, si fonda sulla teoria di portafoglio originariamente sviluppata da Markowitz7, e comporta l’analisi dei coefficienti di correlazione fra i rendimenti delle singole posizioni che compongono il portafoglio. La determinazione del VaR di un portafoglio costituito da più posizioni finanziarie è agevole quando il portafoglio si compone di un numero limitato di attività finanziarie, mentre presenta delle Cov ( x, y ) x y yx dove xy indica il coefficiente di correlazione fra le due variabili. Esso assume valori compresi tra –1 e +1. Se xy = +1 le due variabili sono caratterizzate da correlazione perfetta positiva, ossia le variazioni al rialzo di una variabile sono contestuali ad analoghe variazioni al rialzo dell’altra. Se xy = -1 le due variabili sono caratterizzate da correlazione perfetta negativa, ossia le due variabili seguono percorsi esattamente opposti. Se xy = 0 le due variabili sono fra loro indipendenti. Dalla formula sopraindicata si ha che il coefficiente di correlazione () è dato dalla seguente espressione: xy Cov( x, y ) yx x y x y 6 Il grado di correlazione si desume dalla covarianza delle posizioni iesima e jesima con il prodotto tra la deviazione standard della posizione iesima e quella della posizione j esima, cioè ij = ij/ij da cui risulta che ij 7 I fondamenti dell’analisi moderna del rischio sono contenuti in un famoso lavoro del 1952 del premio Nobel Harry Markowitz, dedicato ai principi per la selezione di portafoglio. Markowitz, in tale lavoro, ha mostrato la rilevanza di una politica di diversificazione del portafoglio come strumento per la riduzione del rischio e ha identificato i criteri sulla base dei quali un investitore razionale dovrebbe compiere le proprie scelte di portafoglio. 296 Capitolo 6 complessità di calcolo quando esso risulta essere caratterizzato dalla presenza di un numero considerevole di strumenti. Nell’ipotesi di un portafoglio costituito da un numero elevato di strumenti finanziari, si rende necessario ricorrere all’algebra matriciale la quale richiede il calcolo di numerose correlazioni (in numero pari a [n2-n]/2), che può risultare notevolmente oneroso. In alternativa, selezionati alcuni fattori di rischio di mercato (tassi di interesse, di cambio, prezzi azionari), è possibile misurare la volatilità sulla base dei coefficienti di correlazione fra i rendimenti dei diversi fattori di mercato caratterizzati da una distribuzione normale congiunta. In altri termini, selezionate n variabili di mercato, il prezzo di ogni strumento contenuto nel portafoglio viene espresso come una funzione lineare del fattore di rischio. Il valore del portafoglio è, pertanto, la sommatoria del valore dei singoli strumenti : Posta, quindi, l'ipotesi di normalità della distribuzione dei rendimenti dei fattori di rischio (i) e di linearità delle relazioni fra i prezzi delle posizioni e i fattori di mercato, si può assumere che anche i rendimenti di un portafoglio siano distribuiti normalmente. Ne consegue che le volatilità risultano proporzionali i i [6.9] e le correlazioni invariate i , j [6.10] Analiticamente la volatilità del portafoglio è uguale a: p n i 1 2 i i2 2 ( i i)( j j) ij [6.11] ove i j rappresentano le singole sensibilità delle variazioni delle posizioni a variazioni del fattori specifici di mercato. In particolare, applicando tale formula al calcolo del VaR di un portafoglio composto da diversi strumenti finanziari, avremo: Introduzione al Value at Risk per i rischi di mercato 297 VAR p VM VM i i j i i j j j ij 1/ 2 [6.12] cioè VAR p VAR 12 VAR 22 .... 2VAR 1 VAR 2 12 ..... 1/ 2 [6.13] dove VAR p Value at Risk del portafoglio VARi Value at Risk della posizione iesima. 6.1.2.2 L’intervallo di confidenza La scelta dell’intervallo di confidenza esprime la probabilità di possibili variazioni sfavorevoli dei fattori di mercato; il livello del grado di protezione scelto rappresenta, quindi, una misura dello scenario pessimistico (worst case scenario). Ad elevati intervalli di confidenza si associa una misura delle perdite che raramente dovrebbero eccedere il valore a rischio stimato. L'ipotesi di distribuzione normale dei rendimenti consente di tradurre il fattore α prescelto nel grado di confidenza della misura di rischio ottenuta e viceversa8. Posto che la funzione matematica che descrive l’andamento dei rendimenti giornalieri s’identifica in letteratura nella curva di tipo normale, in cui i casi estremi sono i più rari e i valori centrali sono i più frequenti, analiticamente si ha: f (x) 1 2 2 x 1 e 2 2 [6.14] 8 Si precisa, che la possibilità di associare intervalli di confidenza a multipli della deviazione standard non riguarda esclusivamente la distribuzione normale. 298 Capitolo 6 dove f(x) rappresenta la funzione di densità, e indicano rispettivamente la media e la deviazione standard della variabile casuale x9. La funzione di densità f(x) può essere utilizzata per stimare la probabilità che la variabile considerata (x) assuma un valore compreso in un dato intervallo. A tal fine è sufficiente ricorrere al calcolo dell'integrale della funzione in corrispondenza dell'intervallo desiderato. Per rendere più semplice il calcolo dell’integrale si procede ad una standardizzazione della variabile casuale. La standardizzazione di una variabile casuale consiste nell’esprimere gli scarti (x-) in unità di: x [6.15] tale che N (0,1) per cui x La media e la varianza della variabile casuale standardizzata sono pertanto: E ( x ) E () [6.16] V ( x ) V ( ) 2 2 Si può, quindi, calcolare la probabilità che la variabile casuale standardizzata (x) assuma valori compresi in un certo intervallo. Risulta, infatti, che: 9 Gli altri termini della relazione risultano essere valori costanti, essendo =3,14 ed e exp 2,718; il fattore 1 (2) è una costante che permette di rendere l’area totale sottesa alla funzione f(x) pari all’unità, mentre il numero e, la base del logaritmo Neperiano o naturale descrive l’andamento campanulare e simmetrico della curva. La funzione di densità è simmetrica rispetto alla retta x= cresce da 0 a 1 (2) per x che passa da a decresce da 1 (2) a zero per x che passa da a ; ha due flessi, ascendente il primo e discendente il secondo, rispettivamente nei punti e . Introduzione al Value at Risk per i rischi di mercato 299 il 66% della distribuzione delle frequenze è compreso in valori di = +1 ed il95% è compreso in valori di = +2 ed = -2. Ciò equivale a dire che la probabilità, che una variabile casuale assuma valori ricompresi intorno alla sua media, più o meno la deviazione standard presa una volta, è del 68%; ovvero, la deviazione standard presa una volta ci fornisce la misura del raggio intorno alla media nel quale è atteso il 68% degli eventi. Figura 6.1 E’ possibile pertanto definire il numero delle deviazioni standard per cui l’area sottostante alla coda destra o sinistra sia pari a c10. c Pr ob(X q) f ( x )dx q [6.17] ove 10 Volendo stimare i movimenti attesi dei tassi di interesse con media 1% e volatilità 12% compresi in un intervallo =+2 ed =-2, abbiamo xmin=1%-2*12%=-23% xmax=1%+2*12%=+25% Ciò equivale a dire che per un dato intervallo di confidenza, ossia = -2; = +2, vi è una probabilità del 95% che il valore atteso dei prezzi subisca una variazione minima del 23% e massima del 25%, ed una probabilità del 5% che il prezzo possa assumere una variazione in valore assoluto superiore alla percentuale stimata. 300 Capitolo 6 x = variabile casuale q = probabilità sufficientemente piccola Occorre a questo punto precisare che, pur considerando l'intera gamma dei possibili rendimenti, se la finalità è quella di determinare le perdite potenziali e dunque il valore a rischio della posizione, va tenuto conto che ciascuna di questa è esposta esclusivamente a metà degli eventi racchiusi nella distribuzione di probabilità. E’ necessario, quindi, considerare rispettivamente la sezione della coda destra, per le posizioni corte esposte al rischio di un rialzo dei prezzi, e la sezione sinistra, per le posizioni lunghe sensibili a una diminuzione dei prezzi. Ne consegue che il livello di protezione associato a un certo multiplo della deviazione standard è più elevato rispetto alle possibilità di considerare sia gli eventi favorevoli che quelli sfavorevoli. Scegliere di prendere 2 volte la deviazione standard significa considerare il 95% degli eventi possibili intorno alla media. Poiché il restante 5% si distribuisce equamente negli estremi della curva solo nel 2,5% dei casi si manifestano eventi fortemente avversi. I livelli di protezione corrispondenti ai diversi multipli di deviazione standard sono riassunti nella tabella che segue. Tabella 6.1 PERCENTILE VALORE 99.99 99.9 99 97.72 97.5 95 90 -3.715 -3.090 -2.326 -2.000 -1.960 -1.645 -1.282 84.13 50 -1.000 0.000 La scelta dell’intervallo di confidenza 11 è funzione del grado di avversione al rischio dell’investitore: una maggiore avversione spinge a selezionare un multiplo della volatilità superiore in modo da ottenere un maggior grado di protezione e, di converso, una minore probabilità di realizzare una perdita superiore a quanto 11 In Risk Metrics viene utilizzato un intervallo di confidenza del 90% (1,282 volte la deviazione standard) che lascia ai movimenti avversi una probabilità di verificarsi del 5%. Questa misura può anche essere interpretata in un modo diverso ed attribuendogli un altro valore informativo: infatti, il 5% degli eventi non coperti implica che si dovrebbe verificare una forte perdita all’incirca ogni 20 giorni lavorativi; se si decidesse di coprire il 99% degli eventi probabili, bisognerebbe attendere in media 100 giorni lavorativi per poter accertare la bontà della stima. Introduzione al Value at Risk per i rischi di mercato 301 stimato con il VaR. Ne consegue che in mercati efficienti ciò si riflette in un minor premio a rischio richiesto dagli investitori, quindi, in una riduzione del costo dei mezzi propri. 6.1.2.3 L’orizzonte temporale Per il calcolo del Valore a Rischio occorre definire l'orizzonte temporale futuro lungo il quale si desidera misurare la perdita potenziale. Per la definizione dell’orizzonte temporale, occorre prendere in considerazione, da un lato, i fattori che incidono sulla liquidabilità dello strumento, ossia lo spessore, la profondità e la dimensione del mercato nel quale lo strumento viene negoziato, dall’altro, le strategie dell’operatore. Il grado di liquidità di una posizione dipende dal tempo necessario per una normale transazione, ossia dalla microstruttura del mercato e dalla dimensione della transazione stessa, giacché importi elevati rendono meno liquida la posizione. Posizioni relativamente modeste in titoli benchmark sono facilmente smobilizzabili; circostanze, invero, non replicabili qualora l’importo della transazione assuma valori di gran lunga superiore ai volumi medi giornalieri negoziati. Per quanto riguarda le strategie, l’operatore può operare in un’ottica speculativa e di investimento. Portafogli di trading devono essere naturalmente valutati su un orizzonte giornaliero; viceversa, per portafogli di investimento è necessario scegliere holding period più lunghi. Si discute se la scelta di un arco temporale prolungato soffra o meno di una minore significatività di natura informativa dei dati. L’ampiezza dell’arco temporale di previsione dipende dalla frequenza con cui vengono aggiornate le stime. Orizzonti temporali di tre mesi utilizzano stime della volatilità e della correlazione storica di tre mesi da confrontare con la volatilità effettiva dei successivi tre mesi. Osservazioni prolungate nel tempo sono più efficaci ai fini delle previsioni della volatilità. Si è dimostrato che la volatilità degli strumenti finanziari, in particolare dei prezzi azionari, pur subendo forti variazioni nel breve periodo, nel medio e lungo termine 302 Capitolo 6 tendono a ritornare al valore medio (mean reversion). Queste affermazioni sono meno verificabili per i mercati dei tassi di cambio e di interesse sui cui si riflettono le misure di politica monetaria. Ne consegue che, assumendo campioni più ampi, le stime risultano più corrette, contraddicendo affermazioni di natura intuitiva, secondo le quali la maggiore ampiezza del campione disperde le informazioni sui dati più recenti del mercato. D’altra parte, è possibile ipotizzare orizzonti temporali di ampiezza diversa del periodo di rilevazione del campione storico per ridurre l’errore di campionamento. Le valutazioni esposte devono trovare corretta applicazione al mercato di riferimento, ossia non sono traslabili, ad esempio in mercati come quello dei cambi ove assuma rilevanza preponderante le condizioni più recenti ai fini di una previsione più efficace12. E’ prassi comune che per posizioni aventi un unico fattore di rischio riferiti ad orizzonti diversi, la volatilità per tempi più prolungati venga ottenuta dalla volatilità giornaliera. Ciò e possibile in relazione alle proprietà dei modelli di comportamento del prezzo, secondo le quali, in un qualsiasi intervallo di lunghezza T, la variazione del valore di una variabile che segue un processo di Wiener, si distribuisce in modo normale con media nulla e deviazione standard pari a T . La volatilità alla fine di un intervallo T, è misurabile moltiplicando la volatilità giornaliera per la T , ossia per il numero dei giorni compresi nell’holding period selezionato. T G T 6.1.2.4 [6.18] Previsione della volatilità Il modella delta, basato sulla sensibilità delle variazioni del valore dello strumento finanziario al fattore di rischio di mercato, presenta un vantaggio e al tempo stesso uno svantaggio: il primo, è rappresentato dal fatto che i prezzi e i tassi storici sono facilmente osservabili per tutti i mercati. Il secondo fa riferimento ai problemi 12 Sironi A. (1996), p. 168. Introduzione al Value at Risk per i rischi di mercato 303 che si incontrano nel misurare le volatilità e le correlazioni sulla base di andamenti passati, i quali potrebbero non rappresentare al meglio i possibili andamenti futuri dei rendimenti, in particolare in situazioni critiche di instabilità ed incertezza. Inoltre, utilizzando il delta valuation method le posizioni in attività non lineari non possono essere stimate se non introducendo nel modello fattori di ordine superiore di correzione (delta, gamma, vega) e, comunque, per piccoli movimenti dei tassi di cambiamento, quando le opzioni sono lontane dalla scadenza o quando si trovano in posizioni out the money. In generale i modelli previsionali, compreso dunque il Risk Metrics, presentano delle criticità per cui debbono essere affinati, da un lato, e raffrontabili con metodologie diverse, dall'altro, al fine di tener conto, anche di situazioni estremamente pessimistiche. Per quanto concerne il primo aspetto la stima della volatilità è stata effettuata in Risk Metrics introducendo il metodo delle medie mobili esponenziali per attribuire alla volatilità dei fattori di mercato una ponderazione non uniforme di . Tradizionalmente, sono state impiegate medie mobili caratterizzate dalla eguaglianza dei pesi, conseguendo risultati non sempre soddisfacenti poiché tutti i punti della serie vengono considerati con lo stesso fattore di ponderazione. Si osservano, infatti, rapidi movimenti verso l’alto della media mobile quando nella serie entrano valori molto elevati e allo stesso tempo rapide discese, quando tali osservazioni escono dal calcolo della media; gli adeguamenti, inoltre, della media mobile semplice alle condizioni reali sono molto lenti e spesso distanti, in valore assoluto, dai valori di osservazione Per evitare questo problema si impiegano proprio le medie mobili esponenziali nelle quali le ultime osservazioni della serie storica (le più recenti) sono considerate, nel calcolo della medie mobile, con un peso maggiore. Le medie mobili esponenziali, ossia il metodo Exponentially Weighted Moving Average (EWMA), forniscono due grandi vantaggi: le stime della volatilità reagiscono più velocemente agli shock del mercato (avendo gli ultimi dati più peso nella stima); le stime decrescono, dopo una forte reazione di prezzo, gradualmente 304 Capitolo 6 al passare del tempo, seguendo la diminuzione di valore dei pesi di ponderazione. La media esponenziale, al contrario di quella semplice, non rimane influenzata dai valori di picco per molto tempo e si adegua molto velocemente. Essa, infatti, attribuisce un peso maggiore alle osservazioni più recenti; il peso assegnato ad ogni punto della serie storica dipende da un valore chiamato decay factor o “discount coefficient”, il quale indica il “grado di persistenza” delle osservazioni campionarie passate. Essendo tale costante sempre compresa fra 0 e 1, si può affermare che (1-λ) indica la velocità di decadimento delle osservazioni passate nella media. Maggiore è la costante λ, maggiore è la ponderazione attribuita alle osservazioni passate e dunque meno rapido è l’adeguamento della media alle condizioni più recenti. Ogni osservazione della serie storica (composta da n elementi) che rientra nella media mobile esponenziale viene ponderata in base alla seguente espressione: w j j (1 ) con 0 1, e j che va da zero a n-1 nella quale gli w j rappresentano la serie dei pesi (la somma dei quali tende all’unità al crescere dei punti della serie), e è il decay factor. Nelle medie mobili semplici tutti gli w j sono eguali. Il valore da attribuire a dovrà essere scelto in modo opportuno13: la sua misura dipenderà da quanto velocemente si 13 RiskMetrics Tm assume un unico e costante fattore di decadimento da applicare all'intera matrice di covarianza (pari a = 0,94 per la stima VaR giornaliera e = 0,97 per quella mensile). Questa scelta appare un'arbitraria assunzione del modello, sebbene giustificabile in base alla mole di dati sottostanti la gigantesca matrice di covarianza fornita, in quanto non vi sono le ragioni teoriche per assumere che le varianze evolvano nel tempo nello stesso modo, in differenti paesi e su diverse categorie di asset. L'ottimo (unico) della matrice di RiskMetrics Tm è trovato con una procedura che utilizza il criterio di minimizzazione dell’errore quadratico medio (RMSE - Root Mean Squared Prediction Error) connesso alla previsione della volatilità; nella formula che segue, il valore è funzione del decay factor e il valore per una specifica serie di dati (per ogni fattore di rischio) viene scelto come quello che rende minimo il RMSE: RMSE= 1 T 2 rt 12 ˆ 2t 1/ t () T t 1 Introduzione al Value at Risk per i rischi di mercato 305 muove la serie storica, ovvero dalla sua variabilità. Più i dati della serie saranno maggiore è la ponderazione attribuita alle osservazioni più recenti: il valore di sarà allora più vicino allo zero14. E’ inoltre importante determinare la scelta del numero delle osservazioni passate, per un dato valore del decay factor, affinchè la somma dei w j tenda all’unità e, quindi, si possa utilizzare correttamente il metodo esponenziale. Per determinare questo valore di soglia (K) utilizziamo una sommatoria dei valori dei pesi (tra K e infinito) e poniamola uguale ad un fattore di tolleranza (FT) che dovrà essere sufficientemente vicino allo zero, ovvero risolvendo per K: FT (1 ) J (1 K ) K K 1 K 2 .... JK (1 ) 1 K K K 2 ... FT [6.19] K FTeK log( FT ) / log( ) Per un dato valore di e di FT, il numero di giorni di cui si necessita per il metodo E.W.M.A. è K. La relazione che lega il fattore di tolleranza, il decay factor ed il numero di dati da impiegare è mostrata nella seguente tabella. Per esempio, fissando il fattore di tolleranza all’1% e stabilendo un valore del decay factor pari a 0,92 il numero di dati storici dove T è il numero di previsioni disponibile. Viene così individuato per ogni fattore di rischio i del portafoglio un ottimo i; la somma dei i opportunamente pesati consente di ottenere il valore uniforme da applicare a tutti i fattori di rischio della matrice di covarianza. Vi è da dire che il documento tecnico di RiskMetrics Tm non fornisce la dimensione della precisa riduzione dell'errore ottenuta utilizzando il criterio sopra descritto. Uno dei motivi della scarsa performance dell'approccio RiskMetrics Tm è ascrivibile all'uso di un unico fattore di decadimento per tutte le serie presenti nella matrice di covarianza. Il ottimo per ogni fattore di rischio di mercato presente nella matrice di covarianza basato sul criterio RMSE è infatti sensibilmente diverso sia all'interno delle categorie di asset (i stimati per gli indici azionari delle principali 22 economie sembrano quelli con minore dispersione, con valori compresi tra 0,955 e 0,985 più dispersi, e quindi molto meno significativa la previsione ottenuta con il rappresentativo dell'intera matrice, risultano invece i sulle valute e sui tassi ad un anno, con valori rispettivamente compresi tra 0,92-0,99 e 0,85-0,99) sia tra categorie di asset. 14 Per valori piccoli di , i primi valori di più grandi. j (quelli da assegnare ai dati più recenti) saranno 306 Capitolo 6 necessario al sistema E.W.M.A. per calcolare correttamente la deviazione standard sarà pari a 55. Tabella 6.2 Fattore di tolleranza DECAY FACTOR 0.00001 0.0001 0.001 0.01 0.85 71 57 43 28 0.86 76 61 46 31 0.87 83 66 50 33 0.88 90 72 54 36 0.89 99 79 59 40 0.90 109 87 66 44 0.91 122 98 73 49 0.92 138 110 83 63 0.93 159 127 95 63 0.94 186 149 112 74 0.95 224 180 135 90 0.96 282 226 169 113 0.97 378 302 227 151 0.98 570 456 342 228 0.99 1146 916 687 458 6.1.2.5 L’approccio delta-normal: mapping dei flussi e criticità La mappatura dei flussi Una volta definite le assunzioni distributive e quelle ad esse correlate sulle funzioni di prezzo, un elemento critico per l'implementazione dell'approccio delta-normal è individuabile nell'esatta specificazione dei fattori di rischio sottostanti il portafoglio. Infatti, accade sovente che le posizioni assunte da una istituzione finanziaria abbiano un valore di mercato che risulta funzione di più variabili di mercato. E’ necessario, allora, un processo di mappatura dei fattori che influenzano il valore del portafoglio, ovvero una scomposizione della posizione nelle relative componenti elementari. Un esempio di mapping, considerando una approssimazione lineare (approccio delta-normaI), può essere fatto considerando un insieme di posizioni in titoli a reddito fisso: la banca d'affari J.P.Morgan Introduzione al Value at Risk per i rischi di mercato 307 adotta un sistema di buckets "disposti"15 su un numero di venti scadenze la cui numerosità dipende dalla segmentazione e dal grado di liquidità alle varie scadenze del mercato dei titoli. Il criterio adottato per realizzare il mapping dipende dalla scelta del fattore di rischio. Nel caso del rischio di interesse, i flussi del portafoglio obbligazionario sono collocati su una griglia standard di scadenze e, mediante interpolazione lineare o quadratica vincolata a un set di condizioni, i flussi con scadenza non coincidente con i vertici sono attribuiti tra due scadenze16 intermedie. Il Value-at-Risk relativo alla scadenza j sarà: VaRj = k * (VMj * MDj *rj * rj ), dove VMj è il valore di mercato del jesimo cash-flow, MDj la relativa modified duration, rj il tasso d'interesse e rj la sua volatilità. Il VaR del portafoglio sarà quindi il risultato dell'interazione tra le volatilità di tasso relative alle varie scadenze (rrj, rrk) e le correlazioni (jk) tra i tassi lungo i vertices della yield curve, ossia: VaR k * m n (VM j1 k 1 j * MD j * rj * rj )(VM k * MDk * rk * rk ) * jk [6.20] Si può verificare dalla 6.20 che il VaR dipende non solo dalle variabilità originate da ciascun cash flow (modified duration * volatilità del tasso) singolarmente preso, ma anche dai coefficienti di correlazione jk, che, in questo caso, misurano le correlazioni esistenti tra le variazioni dei tassi riferite ai diversi vertices e l'effetto di diversificazione generato dalla composizione del portafoglio. Il metodo analizzato, soddisfa le esigenze di misurazione del rischio di un portafoglio in base ad una univoca e determinata selezione dei fattori di rischio, nei mercati rilevanti in cui opera una banca. Si vuole però mettere in evidenza come uno degli elementi critici alla base dell'implementazione dell'approccio varianze-covarianze sia proprio quello della identificazione e della 15 Coerentemente con le disposizioni di vigilanza. I nodi selezionati, denominati vertici, sono 14 e vanno da 1 mese a 30 anni e per ognuno di essi J.P. Morgan fornisce le volatilità e le correlazioni. 16 308 Capitolo 6 mappatura esatta dei fattori di rischio sottostanti il portafoglio, in particolare, nel caso in cui gli intermediari finanziari abbiano portafogli ampi e globalmente diversificati. All'uopo, le principali banche d'investimento statunitensi17 hanno scelto di ricondurre la rischiosità delle posizioni detenute ad un insieme di fattori di mercato (fattori di rischio) quali i tassi di interesse relativi alle diverse scadenze (con la metodologia, precedentemente analizzata, di suddivisione dei flussi in bucket rappresentativi delle diverse scadenze18), i tassi di cambio, gli indici azionari e delle commodities. La mappatura del portafoglio non è facile da implementare in quanto comporta necessariamente un trade-off: nel caso dei tassi di interesse, ad esempio, una specificazione molto accurata di tutta la struttura a termine può fornire una rappresentazione del portafoglio migliore. Il numero di informazioni diviene, però, estremamente elevato, per cui risulta arduo stimare e controllare la stabilità delle volatilità e delle correlazioni sottostanti. Viceversa, utilizzare un livello di aggregazione troppo sintetico, stabilendo solo pochi buckets per descrivere l'intera curva dei tassi, potrebbe invece limitare fortemente l'attendibilità della stima del rischio del portafoglio. La soluzione al problema di una adeguata "mappatura", con l’identificazione dei fattori di rischio effettivamente rilevanti per il portafoglio detenuto, non ha un algoritmo preciso su cui basarsi. In generale, si dovrebbero aggregare strumenti i cui flussi, per ogni potenziale bucket, mostrino volatilità analoghe ed elevati livelli di correlazione. Il numero di buckets da considerare dipende quindi da quanto la volatilità varia lungo la struttura a termine e dalle correlazioni tra i differenti tassi. Al riguardo, nel caso estremo in cui le volatilità siano uguali tra le diverse scadenze ed i differenti tassi risultino perfettamente correlati non vi sarà la necessità di effettuare una mappatura, in quanto il rischio del portafoglio sarà funzione unicamente della volatilità del tasso e della modified duration del portafoglio. 17 J.P. Morgan, Goldman Sachs, Salomon Smith Barney. Impostazione condivisa anche nelle regole di vigilanza internazionale inerenti l'utilizzo del maturity method per il rischio di tasso d'interesse nell'ambito del ed. metodo standardizzato; anche per i ed. modelli interni vi è la previsione dì un requisito minimo di modellizzazione della yield curve pari ad almeno 6 segmenti di maturità, cfr. Comitato di Basilea. 18 Introduzione al Value at Risk per i rischi di mercato 309 I punti di forza e di debolezza del Delta-normal I punti di forza di questo modello si possono individuare nel fatto che esso è indipendente dall’oggetto cui è applicato, consente, quindi, di misurare, confrontare ed aggregare il rischio di prodotti diversi. Esso fornisce, quindi, uno strumento utile a misurare la variabilità dei rendimenti delle attività finanziarie, nel periodo di riferimento, permettendo una corretta allocazione del capitale nella fascia rischio-rendimento desiderata. Al contrario, i punti di debolezza risiedono nella utilizzazione di informazioni passate; le serie storiche dei prezzi non sono sempre rappresentative dei rischi futuri. Dubbi vengono sollevati sulla scelta della distribuzione normale delle variazioni dei rendimenti. Infatti, l’ipotesi di distribuzione normale dei rendimenti delle attività finanziarie, sebbene abbia fatto registrare molto spesso opinioni discordanti, è in realtà un punto in comune a molti dei modelli di analisi finanziaria sviluppati negli ultimi decenni. Il motivo dei dissensi, da parte della comunità finanziaria, è dovuto al fatto che questa ipotesi non trova conferma nelle verifiche empiriche condotte su varie categorie di strumenti finanziari. Le critiche più ricorrenti, che hanno portato a ricercare soluzioni alternative alla distribuzione normale, sono rappresentate proprio dai risultati di questi studi. In particolare: la distribuzione dei rendimenti delle attività finanziarie mostra generalmente code più spesse (fat tails) nella estrema destra e sinistra della distribuzione, rispetto ad una curva normale teorica, ovvero, vi sono numerosi valori cosiddetti outliers. Variazioni di prezzo lontane dal valore medio hanno, dunque, maggior probabilità di verificarsi rispetto a quanto implicitamente previsto con una distribuzione normale. Questa caratteristica prende il nome di curtosi (una curtosi positiva indica la presenza di code spesse); il picco intorno alla media della distribuzione dei rendimenti è generalmente più elevato di quello tipico di 310 Capitolo 6 6.1.3 una distribuzione normale: questa caratteristica viene chiamata leptocurtosi; la distribuzione dei rendimenti risulta esser generalmente non simmetrica intorno alla media, ovvero si riscontrano più osservazioni nella metà sinistra della curva (quelle inferiori alla media) rispetto al numero di osservazioni rilevate nella parte destra (negative skewness). Al contrario, una skewness positiva è indice di una distribuzione asimmetrica verso destra, con un numero maggiore di osservazioni superiori alla media. Il VaR in opzioni e l’approccio delta-gamma: cenni Il modello descritto presuppone un'approssimazione del primo ordine nella sensitività ai fattori di rischio: questa stima, nel caso di opzioni, può realizzare un buon fitting “locale" nelle immediate vicinanze del punto di valutazione, ossia per piccoli cambiamenti nel valore del sottostante, ma risulta inadeguata per ampi movimenti dei prezzi. Poiché la metodologia VaR si propone di quantificare, con una attendibile stima, il rischio di perdite connesse a questi ampi movimenti avversi, non tener conto della curvatura dei profili di payoff degli strumenti del tipo embedded (ma anche semplicemente di titoli obbligazionari ad elevata convessità) può dar luogo ad una rappresentazione fortemente inadeguata del reale rischio cui la posizione è esposta, tanto maggiore quanto più la curvatura è pronunciata. A questo scopo è stato proposto19 l'utilizzo di una approssimazione delta-gamma del valore di mercato del book contenente opzioni valutabili con lettere greche rispettivamente per ogni asset sottostante e per ogni coppia di asset sottostanti. Combinando tutti i delta e i gamma, la variazione totale del valore del portafoglio avrà la seguente approssimazione: 19 Cfr. Wilson T. (1997), p.75. L’autore è stato il primo a proporre un metodo di approssimazione delta-gamma per le variazioni di valore del portafoglio. Per un approfondimento Fallon J. (1996). Introduzione al Value at Risk per i rischi di mercato 311 n P() j X j j1 1 n 2 j1 n k 1 jk X jX k [6.21] dove, i j rappresentano le sensitività (delta) ai cambiamenti X j nei fattori dì rischio, e jk i vari gamma dei portafoglio; per j = k il gamma sarà la variazione relativa del jesimo delta rispetto ad un cambiamento nel fattore di rischio Xj. Se il prezzo degli asset è funzione unicamente di un fattore di rischio, si potrebbero ignorare i termini gamma per j k (questa semplificazione è spesso effettuata nella realtà operativa 20). Questo approccio non si dimostra efficace in tutti i casi: ad esempio, per le opzioni molto vicine alla scadenza e at-the-money il gamma tende ad essere estremamente grande e quindi non significativo; un problema simile si ha per le opzioni con barriera, quando l'asset sottostante è prossimo alla barriera. L'applicabilità dell'approccio delta-gamma è quindi condizionato dalla data di scadenza dell'opzione rispetto all'orizzonte temporale di calcolo del VaR: l'informazione fornita dal delta-gamma sarà robusta quanto più l'orizzonte temporale è minore del tempo a scadenza dell'opzione. Il peso relativo dell'effetto gamma nello spiegare la variazione del valore di mercato dello strumento è poi tanto maggiore quanto più lungo è l'orizzonte temporale di riferimento. L'inclusione della componente gamma nei calcoli comporta, inoltre, che la distribuzione dei returns del portafoglio venga influenzata dai quadrati di variabili random ipotizzate normali, i quali danno luogo ad una asimmetria21 della distribuzione. In questo caso, l'ipotizzata normalità condizionale e quindi la simmetria della distribuzione viene meno, invalidando l'utilizzo dei quantili della distribuzione normale standard. L’aggiunta di un secondo parametro per correggere la non linearità del delta trasforma gli stessi momenti dell'analisi statistica: ad esempio, la varianza dei returns di 20 Cfr. Wilson T. (1997),. Il prodotto dei termini gamma quando j k può essere importante per prodotti strutturati fortemente dipendenti dalle correlazioni di mercato come i differential swaps, le choosers options e dovrebbe essere inserito ne valutazioni in quanto questi prodotti hanno un valore della derivata seconda "incrociata" elevato. 21 Posizione gamma negativa (opzione venduta) implicherà asimmetria negativa e viceversa 312 Capitolo 6 un'opzione differisce dalla varianza 2 del relativo strumento sottostante per un fattore (2 + 0,522). L'importanza di un appropriato trattamento del rischio di mercato delle opzioni è oggi evidenziata anche da esplicite indicazioni degli organismi di vigilanza bancari internazionali, i quali prevedono una distinzione nelle capacità di monitoraggio e di gestione delle posizioni in derivati: queste devono essere commisurate alla dimensione e complessità dell'esposizione sopportata. In particolare, nell'ambito del metodo cd. standardizzato è previsto uno specifico onere di capitale da mantenere a fronte del "gamma impact” calcolato con il secondo membro dell'espansione in serie di Taylor come: 1/2**(X2), dove X2 rappresenta la variazione predefinita dell'under1ying dell'opzione, che secondo le stime della vigilanza, è pari all'8% per le opzioni su singole azioni, indici azionari e tassi di cambio ed al 15% per le commodities. Per le opzioni sui tassi la variazione da applicare si deve invece basare su di una griglia temporale di pesi per il rischio variabili in funzione della scadenza. Nonostante l'approccio delta-gamma sia, tra i metodi analizzati, il più adeguato a descrivere la relazione di non linearità tra la variazione del fattore di rischio22 cui l’opzione è esposta e la variazione del valore di mercato dell'opzione, esso non coglie un aspetto rilevante della rischiosità connessa ad opzioni complesse (ma anche a semplici combinazioni di opzioni plain vanilla, call e put). In particolare, trascura la caratteristica della non monotonicità della relazione tra il prezzo dell'underlying e valore della posizione "strutturata" in opzioni. Questa caratteristica fa si che l'analisi della massima perdite potenziale svolta, considerando forti variazioni dei prezzi, porti a risultati non consistenti rispetto al reale profilo di rischio della posizione: la non monotonicità implica perciò che le perdite maggiori non si verifichino in corrispondenza di forti shocks dei prezzi del sottostante. Ad esempio, la massima perdita di una posizione short in una butterfly23, si avrà in corrispondenza di un 22 Oltre al delta ed al gamma per una descrizione completa della sensibilità del prezzo di un’opzione, si dovrebbero considerare anche gli altri coefficienti di sensibilità e di conseguenza i fattori di rischio a questi corrispondenti: la volatilità attesa del prezzo dell'attività sottostante, il livello di variazione del tasso di interesse a breve. 23 La butterfly ha una struttura sintetica ottenibile con diversi mix di call e put: ossia vendendo due call con diversi strike e acquistando due call con identico strike intermedio tra i primi due. Introduzione al Value at Risk per i rischi di mercato 313 prezzo determinato24 e non di variazioni estreme dei prezzi. Tale limite non consente l’estensione dell'approccio delta-gamma per tutte le posizioni, favorendo la diffusione dei metodi di valutazione “piena" (full valuation), ossia dei metodi di simulazione, anche chiamati modelli “non parametrici”. I modelli rientranti in questa categoria sono definiti tali in quanto, non formulando alcuna ipotesi relativa alla forma funzionale della distribuzione dei rendimenti dei fattori di mercato, non richiedono di stimare i parametri di tale distribuzione25. In pratica tali modelli calcolano il VaR non come prodotto della sensibilità della posizione/portafoglio per la volatilità della variabile di mercato rilevante, ma ricalcolando, anzitutto, l'intero valore di mercato della posizione/portafoglio in base alle nuove condizioni risultanti dalle variazioni stimate delle variabili di mercato che influenzano tale valore. In particolare, fra i modelli non parametrici si possono individuare due principali approcci per la stima del VaR di un portafoglio: le Simulazioni storiche; le Simulazioni MonteCarlo. Nonostante le rilevanti differenze fra queste due categorie di approcci, è possibile individuare alcune caratteristiche che li accomunano: a) Full valuation: diversamente dall’approccio varianzecovarianze, il quale si fonda sui coefficienti di sensibilità, i modelli di simulazione si basano su una logica di valutazione piena. Il valore di mercato delle posizioni/portafogli di cui si intende stimare il VaR viene rivalutato, mediante opportune formule di pricing, sulla 24 Questo prezzo, nel caso in esame, corrisponde allo strike delle due call acquistate. In realtà, ciò è vero unicamente per le simulazioni storiche, le quali non richiedono effettivamente di formulare alcuna ipotesi analitica circa le distribuzioni dei rendimenti. Essa non risulta invece adatta per le simulazioni MonteCarlo, le quali richiedono di selezionare una distribuzione analitica multivariata per i rendimenti dei fattori di mercato e di stimare i parametri di tale distribuzione quali medie, varianze e covarianze. 25 314 Capitolo 6 base delle condizioni simulate dei fattori di mercato. Il meccanismo di full-valuation consente di superare il problema della non-linearità delle relazioni di pricing che legano tra di loro le variazioni di prezzo degli strumenti in portafoglio alle variazioni dei fattori di mercato, restituendo variazioni del valore del portafoglio vere e non approssimate. Tale caratteristica è tanto più desiderabile quanto maggiore é la componente opzionale del portafoglio di cui bisogna calcolare il Valore a Rischio. b) Logica del percentile: nei modelli di simulazione il VaR è stimato tagliando la distribuzione empirica di probabilità delle variazioni di valore del portafoglio al percentile di confidenza desiderato. Ad esempio, date 10.000 simulazioni MonteCarlo dei fattori di mercato che generano 10.000 variazioni del valore del portafoglio in esame, il VaR al 99% è calcolato prendendo la 100-esima peggiore osservazione. Analogamente si procede per le Simulazioni storiche. c) Ipotesi distribuzione normale: l’ultimo tratto comune ai modelli di simulazione è l’assenza dell’ipotesi di normalità della distribuzione dei rendimenti di mercato. Tale caratteristica è auspicabile poiché, come abbiamo già detto, numerosi studi empirici hanno mostrato come la distribuzione effettiva dei rendimenti dei fattori di mercato sia in realtà caratterizzata da code spesse e da un livello di curtosi superiore a quello di una distribuzione normale. 6.1.4 Simulazioni storiche La valutazione di un portafoglio/posizione attraverso questa procedura di calcolo risulta molto semplice e prescinde da qualunque ipotesi sul tipo di funzione di densità dei rendimenti e, se effettuata direttamente sui prezzi delle attività, non richiede la stima dei coefficienti di sensibilità ai fattori di rischio. Il primo passo da compiere, nel caso del calcolo diretto sui prezzi e, quindi di full valuation, consiste nel costruire un database dei prezzi, per ogni istante del periodo di osservazione prescelto. Il secondo, consiste nel rivalutare il portafoglio/posizione mantenendo ferme le Introduzione al Value at Risk per i rischi di mercato 315 quote investite, per ogni istante temporale, in modo da pervenire ad una serie storica dei valori dello stesso. Applicando, quindi, la distribuzione storica al portafoglio analizzato, si ottiene una serie di profit and loss, P&L (VM1 = VM1 – VM0), che successivamente ordinata dal peggiore al migliore risultato (ossia dalla massima perdita al massimo profitto), consente di costruire una distribuzione empirica delle variazioni di valore del portafoglio. Poiché in questo caso non vi è alcuna ipotesi circa la natura della distribuzione della variabile di mercato, l’individuazione dell'intervallo di confidenza desiderato non avviene sulla base di un multiplo della volatilità storica,come nei metodi parametrici, ma individuando direttamente lo specifico percentile, nel senso che la distribuzione dei P&L storici viene "tagliata" al percentile corrispondente al livello di confidenza prescelto, cui corrisponderà un valore di P&L che rappresenta il VaR del portafoglio. I pregi di tale approccio sono piuttosto evidenti: non prevede la stima di altri indicatori intermedi (correlazioni e volatilità) almeno nella versione di calcolo direttamente dai prezzi, cattura la struttura delle correlazioni riflessa nelle variazioni congiunte dei fattori di mercato, permettendo di superare il problema di instabilità delle correlazioni. Inoltre, non fissando a priori nessun modello distributivo, consente di superare i limiti imposti dall’ipotesi di normalità dei rendimenti. L'unica ipotesi implicita è che i rendimenti estratti dalla distribuzione storica siano in realtà estratti da una distribuzione futura. Ne segue che la corrispondenza biunivoca fra intervallo di confidenza desiderato e variazioni dei fattori di mercato non risente di eventuali asimmetrie o leptocurtosi delle distribuzioni dei rendimenti dei fattori di mercato. Se i rendimenti dei fattori di mercato non sono distribuiti normalmente, ma hanno un comportamento probabilistico stabile nel tempo, il modello delle Simulazioni storiche fornisce, dunque, indicazioni più precise rispetto ai modelli parametrici. Nondimeno, effettuando una valutazione piena del portafoglio/posizione, il metodo delle Simulazioni Storiche permette di “catturare” anche variazioni di ordine superiore al primo, come l’effetto gamma per i prodotti derivati, e le componenti di convessità caratteristici di alcuni titoli strutturati. Inoltre, la logica sottostante a tale metodo di simulazione risulta 316 Capitolo 6 facilmente comprensibile e comunicabile fra le varie business unit di una banca. A fronte di questi pregi, però, occorre rilevare alcuni limiti del metodo in questione. In generale, se è vero che il metodo delle Simulazioni storiche è in grado di cogliere la distribuzione effettiva dei rendimenti, e dunque l’eventuale presenza di “code spesse”, esso condurrà, in presenza di una distribuzione leptocurtica, a misure di VaR più elevate di quelle che si otterrebbero con il metodo varianze-covarianze. Le Simulazioni Storiche, inoltre, ipotizzano implicitamente la stabilità temporale della distribuzione storica dei fattori di mercato, quindi che i dati della serie siano indipendenti ed identicamente distribuiti. Ma, nella realtà dei fatti, si riscontra, sovente che la distribuzione congiunta non osservabile dei rendimenti dei fattori di mercato cambia nel tempo; è eteroschedastica. In tal caso, i risultati del modello delle Simulazioni storiche, avranno uno scarso significato sia concettuale che operativo. I risultati raggiunti, inoltre, con tale metodo hanno una forte dipendenza dall’intervallo temporale prescelto, il quale può modificare in maniera sensibile i risultati stessi. Un altro problema relativo alla stima del VaR con questo tipo di approccio è legato all’intervallo di confidenza – il livello di probabilità p di perdita fissato – se scelto molto alto e avendo pochi dati per l’analisi, può portare ad una stima non corretta del VaR. Per esempio, scegliendo come probabilità il valore di 0,99 e avendo una finestra temporale di 100 dati, il quantile corrispondente verrebbe posizionato al 99-esimo elemento con un solo valore del portafoglio al di là di tale limite, quindi sarebbe statisticamente poco significativo. E’ opportuno, infine, sottolineare le difficoltà spesso riscontrabili nel provvedere ad un’accurata raccolta dei dati che tale approccio richiede. E’ necessario, infatti, poter disporre di un archivio storico dei prezzi dell’attività presenti in portafoglio quanto più dettagliato ed aggiornato. Nella realtà operativa, si dispone sovente di numero limitato di osservazioni storiche, che si traduce tipicamente in una scarsa definizione delle code della distribuzione empirica di probabilità. Le uniche variazioni dei fattori di mercato che il modello considera possibili sono infatti quelle verificatesi in passato, nell’orizzonte storico preso a Introduzione al Value at Risk per i rischi di mercato 317 riferimento. Esiste, però, una relazione di trade-off riguardo alla lunghezza ottimale della serie storica di riferimento: incrementare il più possibile la lunghezza della serie storica di riferimento, allontanandosi troppo nel tempo, non è consigliabile, perché diviene più probabile che sia violata l’ipotesi di stabilità della distribuzione; si rischia di estrarre dei dati da una distribuzione ormai “obsoleta”. Una possibile risposta a tale problema è data dall’approccio ibrido. L’approccio ibrido combina i pregi delle Simulazioni Storiche (assenza di ipotesi esplicite circa la forma funzionale della distribuzione dei rendimenti dei fattori di mercato, valutazione piena, preservazione della struttura delle correlazioni) con i vantaggi propri della tecnica delle medie mobili esponenziali per la stima della volatilità illustrata con riferimento all’approccio varianze-covarianze (elevato contenuto informativo connesso all’utilizzo di un ampio campione storico e aggiornamento dei dati connesso alla tecnica delle ponderazioni decrescenti)26. 6.1.5 Simulazione MonteCarlo Le Simulazioni MonteCarlo27 rappresentano una delle più sofisticate ed accurate metodologie di stima del VaR, ma sono anche le più complesse e costose da implementare. Le simulazioni MonteCarlo sono state originariamente utilizzate in finanza per il pricing di strumenti complessi, quali le opzioni esotiche, per i quali non 26 L’approccio Ibrido è stato proposto da Boudoukh, Richardson e Whitelaw (1998). Esso consente di utilizzare una serie storica relativamente lunga ma attribuisce ad ogni osservazione passata una ponderazione tanto maggiore quanto più questa è recente, secondo una logica simile a quella propria delle medie mobili esponenziali utilizzate, sovente, nell’approccio varianzecovarianze per la stima della volatilità storica. In tal modo, ciascuna osservazione non contribuisce alla determinazione del VaR unicamente in funzione della propria intensità, ma anche in base alla propria ponderazione, ossia in base alla relativa lontana/vicinanza temporale rispetto al momento della valutazione. 27 L’origine del termine MonteCarlo risale agli anni ‘40, quando con tale locuzione venne designato un piano di simulazioni sviluppato durante la sperimentazione della prima bomba atomica. Il ricorso a tali simulazioni si rese necessario perché i problemi affrontati dal gruppo di fisici e matematici avevano raggiunto un livello di sostanziale intrattabilità analitica. Essi si ispirarono, nella scelta del nome MonteCarlo, all’aleatorietà dei guadagni tipica della casa da gioco del principato monegasco. Attraverso la generazione dei numeri casuali, essi, determinarono i parametri delle equazioni che descrivevano la dinamica delle esplosioni nucleari. Il termine MonteCarlo Method viene, infatti, utilizzato, come sinonimo di simulazione stocastica. 318 Capitolo 6 è possibile ottenere una soluzione attraverso una formula chiusa o quasi chiusa di valutazione e, quindi si rende necessario ricorrere ad un metodo numerico che permetta di ottenere una soluzione approssimata 28 accettabile . Con le simulazioni MonteCarlo si generano un ampio numero di scenari (nell'ordine di alcune migliaia) in maniera random basandosi su di una assunta distribuzione di probabilità congiunta dei fattori di rischio di mercato (in genere si ipotizza una distribuzione normale): le caratteristiche statistiche dei fattori di rischio (volatilità e correlazioni29) sono determinate utilizzando i dati storici di mercato. Una volta specificata questa distribuzione congiunta, sono usate delle tecniche30 per generare il set di scenari in base a dei correlati numeri random: in questo modo gli scenari generati rifletteranno le caratteristiche statistiche derivate dai dati storici. L'insieme degli scenari ottenuti costituiscono una simulazione; la simulazione viene ripetuta numerose volte 31, utilizzando ogni volta un diverso set di scenari random. Da ognuna di queste simulazioni si estrae il percentile desiderato, il quale rappresenterà la massima perdita probabile32 stimata per il portafoglio, in corrispondenza di quel predeterminato livello di confidenza. La media aritmetica dei percentili darà la misura VaR cercata, caratterizzata da una deviazione standard che fornisce la dimensione dell'errore di convergenza delle simulazioni. Quest'ultimo potrà essere ridotto semplicemente utilizzando più 28 L’utilizzo della simulazione MonteCarlo per la valutazione del prezzo di un’opzione consiste nel determinare dei possibili sentieri (path) per il prezzo del bene sottostante per ricavare il valore dell’opzione come media attualizzata dei payoff, ipotizzando che si operi in un ambiente neutrale al rischio, in mercati completi, in cui non esistono opportunità di arbitraggio, costi di transazione, e le attività sono infinitamente divisibile e vendibili allo scoperto. 29 Le volatilità e le correlazioni possono essere predisposte per rappresentare uno scenario economico specifico rispetto al quale si può implementare una analisi di stress. Lo stress testing è un'altra tecnica simulativa per analisi di sensitività di portafogli rispetto a ipotizzate variazioni estreme avverse di mercato e sarà affrontata nella sezione successiva. 30 Ad esempio il documento tecnico RiskMetric 1996 utilizza la decomposizione di Cholesky della matrice di covarianza tale che =A’ A; viene poi generato un vettore Z = A’Y di variabili random i cui elementi avranno una distribuzione normale multivariata e covarianza , ed Y è un vettore di variabili standardizzate N ~ (0, 1) con matrice di covarianza identica I, così che var(Z) = A' E(YY’) A = A’IA = A'A = . 31 Generalmente i "simulation paths" sono circa 10.000. 32 Quella in considerazione è solo una delle tipologie di simulazioni di MonteCarlo possibili: qui la focalizzazione è sulle code estreme della distribuzione del portafoglio; altri tipi di simulazione sono ad es. dirette al pricing di strumenti finanziari individuando il valore medio futuro dell'insieme di strumenti detenuti. Altre ancora fanno ipotesi diverse sul tipo di distribuzione sottostante il vettore Y. Introduzione al Value at Risk per i rischi di mercato 319 scenari33 in quanto il suo valore è inversamente proporzionale alla radice quadrata del numero degli scenari utilizzati ( 1 / n ): ad esempio34, un VaR calcolato come media aritmetica degli appropriati percentili di 50 simulazioni, ognuna costituita da un differente set di 1500 scenari, ha un errore di convergenza (deviazione standard) del 4%; per ridurre l'errore al 2% bisognerà utilizzare 6000 scenari per ogni simulazione. Oltre alla velocità di convergenza, la selezione stessa degli scenari può comportare altri tipi di problemi: la specificata distribuzione assunta per i fattori di rischio (ad es. la lognormale) può riflettere in maniera non adeguata la vera distribuzione q dei fattori di rischio stessi; essendo stimate da un limitato set di dati storici, le volatilítà e le correlazioni possono essere significativamente differenti dalle reali volatilità e le correlazioni di q (il cosiddetto sampling error); i dati storici, dai quali sono desunte le volatilità e correlazioni, possono non riflettere perfettamente le condizioni del mercato correnti, poiché queste sono non stazionarie (variano nel tempo). Aumentando la dimensione delle serie storiche dei dati si riduce l'errore di convergenza, ma aumenta l'errore dovuto alla non stazionarietà della serie; d’altro canto, basando la stima unicamente sui dati più recenti si ipotizza un miglioramento sulle rappresentazioni della effettiva distribuzione dei fattori di rischio. Il metodo MonteCarlo, pur consentendo una valutazione piena35 di strumenti finanziari con caratteristiche di payoff anche abbastanza complesse36, non produce stime stabili in quanto sono condizionate ogni volta dal risultato delle simulazioni. Il numero delle simulazioni effettuabili, e quindi la possibile riduzione dell'errore di convergenza, è influenzato, tra l'altro, dal 33 Non c'è un limite teorico al numero degli scenari utilizzabili: i vincoli reali sono dovuti alle velocità di calcolo offerte dai computer e dalla necessità di conoscere le stime VaR in tempi brevi. 34 L'esempio è tratto da Holton C. (1998), p. 61. 35 Le variazioni del portafoglio sono determinate, con riferimento agli scenari utilizzati per descrivere le variazioni dei fattori di mercato, mediante riprezzamento in base ad opportune formule di pricing degli strumenti che caratterizzano il portafoglio. 36 Come le opzioni con barriera (barrier option tipo knock-in etc.) il cui valore dipende dalla probabilità che il prezzo dell'asset sottostante superi o meno una predeterminata soglia: per questo tipo di opzioni è importante l’intero sentiero temporale dei prezzi (sono path dependent) il quale si presta ad essere simulato con le tecniche MonteCarlo. 320 Capitolo 6 dimensionamento del portafoglio sul quale le simulazioni sono implementate. La fase probabilmente più critica del metodo MonteCarlo è quella della simulazione degli scenari evolutivi del risk factor individuato. Essa necessita di ricorrere a un generatore di numeri casuali o pseudo-casuali37. Il criterio più frequentemente utilizzato è rappresentato dall’estrazione da una distribuzione uniforme con valori compresi nell’intervallo fra zero e uno 38. Quando la posizione di cui si intende stimare il Valore a Rischio è sensibile a più risk factor, oppure si tratta, non più di una singola posizione, ma di un intero portafoglio la stima del VaR richiede, inoltre, di tenere in considerazione la struttura delle correlazioni fra i rendimenti di tali fattori. Diversamente da quanto accade per il metodo delle Simulazioni Storiche, infatti, il metodo MonteCarlo, essendo fondato sulla generazione di un numero elevato di scenari per ogni fattore di mercato, non è in grado di catturare automaticamente tali correlazioni. Si dovrà procedere, quindi, come segue: Stima della matrice varianze-covarianze dei rendimenti dei fattori di mercato (); Scomposizione della stessa in due matrici simmetriche, A e AT, con = A AT, dove A è una matrice triangolare con dei valori nulli nel quadrante superiore destro e AT è la sua trasposta, mediante la cosiddetta “scomposizione di Cholesky”;. Generazione degli scenari relativi alle variazioni dei fattori di mercato moltiplicando la matrice AT , la quale riflette le correlazioni storiche fra i rendimenti dei fattori di mercato, 37 I numeri pseudo casuali permettono di “riempire” il dominio di riferimento in modo più uniforme ed evitare così i fenomeni di concentrazione in alcune sotto-aree che sovente si accompagnano all’utilizzo di numeri casuali.. 38 I passi da compiere sono i seguenti: -Estrazione di un numero U da una distribuzione uniforme [0,1]. -Determinazione dell’inversa della funzione di ripartizione- della distribuzione da cui si desidera effettuare il campionamento. -Calcolo del valore x di tale funzione f(x) corrispondente al numero U estratto. -Ripetizione delle precedenti fasi un numero molto elevato di volte. Introduzione al Value at Risk per i rischi di mercato 321 per un vettore di numeri casuali z. In pratica, tenendo in considerazione la struttura delle correlazioni, si estrae, mediante il ricorso a un generatore di numeri casuali, un elevato numero di valori (solitamente 10.000) per ogni fattore di mercato; Calcolo della variazione del valore di mercato del portafoglio in esame in corrispondenza di ognuno degli scenari simulati costruendo in questo modo la distribuzione empirica di probabilità delle variazioni del valore di mercato del portafoglio. Determinazione del VaR tagliando la distribuzione empirica di probabilità dei valore di mercato del portafoglio in esame in corrispondenza del percentile relativo al livello di confidenza prescelto. Il metodo descritto necessita, dunque, diversamente dalle Simulazioni storiche, di stimare la matrice delle varianzecovarianze dei fattori di mercato; si ripresenta dunque il problema della stabilità di tale matrice. Ma questo non è il solo svantaggio di cui soffre tale metodo. Esso, essendo generalmente basato sull’utilizzo di un numero particolarmente elevato di scenari, al fine di stimare nel modo più accurato possibile la distribuzione empirica di probabilità delle variazioni dei fattori di mercato, tende a fondare le misure di VaR su variazioni che raramente rappresentano valori estremi. Nondimeno, va ricordato che il metodo MonteCarlo, pur essendo numericamente efficiente, se confrontato con altre procedure numeriche, risulta comunque oneroso, in termini di tempo e di risorse informatiche richieste, rispetto al modello varianze-covarianze. Non vanno taciuti, tuttavia, i vantaggi connessi al ricorso al metodo MonteCarlo. Anzitutto, simulando l'evoluzione dei fattori di mercato e ricalcolando il valore di mercato delle posizioni che compongono l'intero portafoglio alle nuove condizioni di simulate, permette di superare il problema della non linearità e/o non monotonicità dei payoff delle posizioni. Esso, si presta, inoltre, ad essere utilizzato con qualunque forma funzionale della distribuzione dei rendimenti dei fattori di mercato lascia, quindi, il Risk manager libero di scegliere la distribuzione ritenuta più idonea 322 Capitolo 6 a spiegare le variazioni dei fattori di mercato in esame. Infine, il metodo MonteCarlo simulando, non solo il valore finale che ogni singola variabile di mercato subisce nel corso del periodo considerato, ma anche il percorso evolutivo di tale variabile nello stesso periodo, offre il vantaggio di consentire di analizzare anche il rischio connesso a particolari categorie di opzioni, le cosiddette opzioni esotiche path dependent, il cui payoff dipende non solo dal valore che le variabili di mercato assumono a scadenza ma anche dal percorso evolutivo che le stesse seguono nel periodo oggetto di simulazione. 6.1.6 L'analisi degli scenari (stress test) Le prove di stress rappresentano un'ulteriore tecnica simulativa raccomandata dagli organi di Vigilanza come integrativa e di supporto alle stime di VaR prodotte dai modelli interni. La necessità di affiancare le stime del rischio di mercato prodotte dai modelli interni con prove di stress è legata ai limiti metodologici che questi ultimi presentano, come , ad esempio, l'instabilità delle correlazioni, l'ipotesi di distribuzione normale dei rendimenti, empiricamente confutata dalla presenza di code più spesse (fat tails) e da fenomeni di leptocurtosi e asimmetria negativa. I modelli del Value-at-Risk tentano di misurare il rischio connesso ad eventi estremi, ma sulla base delle ipotesi limitative descritte. In considerazione di ciò, il Comitato di Basilea ha raccomandato l'utilizzo continuo di prove di stress, da implementare mediante il ricorso a tecniche di simulazione basate sulla costruzione di scenari pessimistici di evoluzione dei mercati (crollo dei mercati azionari, interventi strutturali sul mercato dei cambi, ecc.). Lo stress test dovrebbe essere implementato in modo da riflettere periodi di movimenti estremi di mercato. Il Comitato raccomanda, infatti, di testare la robustezza del portafoglio rispetto a periodi particolari di tensione dei mercati, quali il crash dei mercati azionari del 1987 (con un movimento negativo dell'indice S&P500 pari ad oltre 20 deviazioni standard), la crisi valutaria europea del 1992, la crisi dei pesos messicani (18 deviazioni standard). Lo scenario dovrebbe comunque essere costruito in funzione del particolare tipo di esposizioni del portafoglio. Ad esempio, una banca italiana con un Introduzione al Value at Risk per i rischi di mercato 323 consistente portafoglio di titoli di debito dovrebbe verificare gli effetti sul portafoglio anche della caduta dei mercato obbligazionario italiano del 15 agosto 1994 (10 deviazioni standard). Questi periodi hanno in comune ampi ed inusuali movimenti dei fattori di rischio sottostanti ai portafogli ad essi esposti, spesso accoppiati a drastici cambiamenti (anche di segno) nelle correlazioni e negli spread39 (in particolare, numerose verifiche empiriche condotte su differenti mercati hanno evidenziato come in periodi di stress i diversi mercati tendano ad essere maggiormente correlati e le correlazioni stesse approssimano i loro valori massimi40). All'uopo vi è una generale “regola del pollice”41 (rule of thumb) che assegna ad ogni mercato finanziario la probabilità che almeno una volta l'anno si registri un movimento pari a 4 o più deviazioni standard, ed in ogni anno vi sarà almeno un mercato che subirà un movimento giornaliero più grande di 10 deviazioni standard. Per gli intermediari autorizzati all'uso dei risultati prodotti dai modelli proprietari ai fini della determinazione del proporzionale patrimonio di vigilanza, la metodologia di stress testing42, è prevista, nelle intenzioni di vigilanza, al fine di includere il rischio di mercato e gli aspetti di liquidità connessi ai low-probability events incluse le varie componenti dei rischi di credito e operativo, e quindi di valutare la capacità dell'intermediario di assorbire le potenziali grandi perdite e identificare le azioni da adottare per ridurre i rischi in questione. Le prove di stress dovrebbero essere indirizzate anche ad identificare gli scenari capaci di cogliere i rischi maggiori cui l'intermediario è esposto in base alle particolari caratteristiche del proprio portafoglio: se le prove rivelano una significativa vulnerabilità ad un identificato set di eventi, questa deve essere gestita attivamente tramite un appropriato hedging o con la riduzione della dimensione dell'esposizione. 39 Cfr. Dumbar N. (1998), pp 32-36. Una forte variazione degli spreads provocata dalla crisi russa del 1998 ha portato ad una fortissima riduzione del valore del portafoglio del fondo Long Term Capital Management (LTCM). 40 Cfr. Bookstaber R. (1997), pp. 103-104. 41 Cfr. Bookstaber R., op.cit.. 42 Cfr. Basle Committee on Banldng Supervision (2001 a), op. cit, p. 46. 324 Capitolo 6 Numerose sono le motivazioni alla base della necessità di un'integrazione delle stime VaR con i risultati delle prove di stress: per la loro stessa natura, gli "stress events" sono improbabili, e i dati usati per le stime VaR non incorporano molte informazioni riguardo questi potenziali eventi, i quali risultano spesso “fuori del campione” (outliers); il loro impatto sul valore del portafoglio, infatti, giace frequentemente oltre il 99° percentile tipicamente usato nelle stime VaR. In questa direzione, le prove di stress potrebbero dare una misura della perdite che ci si può attendere nel rimanente 1 % dei casi. Inoltre, le situazioni di "stress" dei mercati si evolvono tipicamente su periodi più lunghi di quello giornaliero, mentre è la distribuzione giornaliera dei rendimenti quella generalmente usata per le stime VaR, le quali sono poi "scalate" per la radice di T per raggiungere l'orizzonte temporale desiderato (ipotesi questa valida in assenza di correlazione seriale). I modelli VaR quindi necessitano, nelle previsioni degli organi di Vigilanza, di uno strumento di integrazione affinché possano essere utilizzati nella determinazione di un patrimonio adeguato a fronteggiare le perdite inattese e a garantire la sopravvivenza dell'istituzione finanziaria. Lo strumento di integrazione previsto si sostanzia nelle prove di stress fin qui descritte che, tentando di cogliere il rischio connesso agli eventi remoti presenti nelle code delle distribuzioni dei rendimenti dei fattori di mercato, integrano, l'analisi statistica alla base del VaR, con un forte elemento di soggettività nella definizione degli scenari worst case, ossia proprio dove i rischi sono più grandi e andrebbero in qualche modo analizzati in base ad assunti parametrici e con una base di fondatezza statistica. Le prove di stress, allo stato attuale, benché previste e validate dagli organi di Vigilanza, non sono senza svantaggi come fonte di informazioni: oltre alla già accennata soggettività (e quindi non fondatezza sul piano statistico) esse rappresentano infatti solo un limitato numero di scenari possibili, con la probabilità di ogni scenario impossibile da stimare esattamente e con il rischio di non individuare gli scenari con un'incidenza potenziale maggiore sul valore del portafoglio e nello stesso tempo più plausibili di altri. In questo senso, per portafogli ad elevato contenuto di opzionalità embedded, spesso il worst case scenario, basato su movimenti estremi di mercato, è inadatto a rappresentare le più grandi perdite Introduzione al Value at Risk per i rischi di mercato 325 cui si è esposti, le quali possono invece situarsi in corrispondenza di contenute variazioni di mercato. 6.1.7 I limiti dei metodi convenzionali I metodi convenzionali di stima dei rischio di mercato descritti finora sembrano fallire il loro scopo proprio su un punto critico: l'identificazione dei rischi connessi ad eventi anche molto remoti, che sono quelli verso i quali la Vigilanza si è ispirata nel regolamentare sia i requisiti quantitativi dei modelli proprietari delle istituzioni finanziarie che l'elevato fattore di moltiplicazione da applicare alle stime prodotte dai modelli stessi. Un limite comune ai modelli VaR analizzati è che essi si basano tutti, in maniera più o meno accentuata, sulle ipotesi di normalità dei rendimenti. Le evidenze empiriche43, al contrario, mostrano che le distribuzioni dei rendimenti dei fattori di mercato sono caratterizzate da fat tails, ossia vi è una dispersione degli eventi estremi nelle "code" delle distribuzioni più ampia di quanto suggerito dalla distribuzione normale, da asimmetria negativa, derivante dalla presenza di un maggior numero di osservazioni nelle code sinistre delle distribuzioni rispetto alle code destre, e da un addensarsi delle osservazioni nelle prossimità del valore medio. Ignorando tali caratteristiche non si attribuisce la dovuta importanza alle osservazioni che si concentrano sulle code della distribuzione, contrariamente a quello che suggerirebbe un prudente sistema di Risk Management 44. 43 In particolare, tra le numerose ricerche in merito, Cfr. Duffle D. e Pari J. (1997);gli autori hanno misurato i momenti terzo e quarto delle variazioni giomaliere di 33 serie finanziarie sul periodo 1986-1996, verificando la presenza di valori di skewness e kurtosis significativamente diversi dai valori della normale. 44 Accettare l’assunzione di normalità, infatti, comporta che la probabilità di osservare un evento a 4 deviazioni standard dal valore medio sia pari a circa 3 su 100.000 – circa una in 130 anni (considerando 250 giorni lavorativi in un anno se ne hanno infatti circa 32.500 in 130 anni). In pratica, però, questi movimenti di mercato insoliti si osservano nella maggior parte dei principali mercati quasi ogni anno. Si consideri, ad esempio, il tasso di cambio della lira con il dollaro nel periodo che va dal 9-feb-1973 al 22-ott-1996. La volatilità su base giornaliera è risultata pari allo 0,71%. Negli oltre 23 anni considerati, le variazioni giornaliere superiori a 4 deviazioni standard dalla media, superiori cioè al 2,85%, sono state ben 27. Si è avuto in media 1,14 eventi a 4 deviazioni standard ogni anno. Cfr., Barone E., Bragò A. (1996), Lavoro preparato per la Vª Tor Vergata Financial Conference, Roma 28-30 Nov.. 326 Capitolo 6 L'ipotesi di normalità caratterizza fortemente i modelli parametrici, che derivano la distribuzione del valore del portafoglio dalla normalità multivariata dei fattori di mercato ad esso sottostanti. Il legame con la normalità di questi modelli è poi rinforzato dalla creazione di intervalli di confidenza che soggiacciono ad appropriati valori della normale standard. I modelli di simulazione tipo MonteCarlo invece hanno una minore dipendenza dagli assunti di normalità.Questi selezionano i percentili corrispondenti agli intervalli di confidenza usuali dell'analisi VaR in base alla tecnica del "taglio" delle distribuzioni simulate agli appropriati livelli. Le simulazioni però richiedono che venga definita una distribuzione sulla base della quale generare numeri casuali ed è frequente che a tale scopo venga la distribuzione normale anche se, in questo modo, si rinuncia a una gran parte del valore aggiunto che la tecnica MonteCarlo può offrire rispetto ai modelli parametrici. Un secondo problema che coinvolge ambedue le tecniche simulative analizzate ed i modelli parametrici è individuabile nella dipendenza dall'utilizzo di input storici: in particolare i modelli sono limitati dalla scarsa aderenza alla realtà delle ipotesi di stazionarietà. Tutti i modelli del VaR, infatti, fondano le stime prodotte in base alla considerazione della storia passata delle variazioni dei risk factors45. Critiche sono, quindi, le scelte inerenti il tipo di set di dati da utilizzare e la frequenza di campionamento da considerare, in quanto agiscono fortemente sulla sensitività del VaR. Set alternativi possono produrre configurazioni di rischio molto diverse: una serie giornaliera potrebbe comporsi di tutti i dati di chiusura del mercato, oppure basarsi su dati intraday come i massimi e i minimi registrati nel corso di ogni giornata di mercato aperto. La misura di rischio ne sarà influenzata in misura maggiore per livelli di volatilità elevati. Una volta scelto il set di informazioni, il periodo di osservazione rappresenta un ulteriore elemento che incide sul valore del VaR. Basilea in merito suggerisce almeno un anno di dati giornalieri. Un numero limitato di osservazioni storiche si traduce spesso in una scarsa definizione 45 Ossia sono backward-oriented. Introduzione al Value at Risk per i rischi di mercato 327 delle code della distribuzione empirica di probabilità ed in una scarsa rappresentazione degli eventi più rischiosi nel campione prescelto, rispetto ad una loro teorica frequenza di lunghissimo periodo. A fronte di questo si potrebbe aumentare la dimensione del campione storico, ma questa scelta è limitata dal problemi già visti di stabilità della distribuzione. La frequenza di campionamento (sampling frequency) dovrebbe essere sufficientemente elevata da consentire di ottenere un set di dati statisticamente significativo. Questo problema è rilevante specie se l'orizzonte temporale del VaR è superiore a quello giornaliero poiché se, ad esempio, si stima il VaR su di un orizzonte temporale decadale su periodi indipendenti l'uno dall'altro (non-overlapping), si eviterà di introdurre un effetto artificiale di autocorrelazione, ma il set di dati disponibile si ridurrà di una fattore pari a 10, o pari rispettivamente a 22 per la stima mensile e a 264 circa per quella annuale. Per questo si è diffusa la prassi (consigliata anche dal Comitato di Basilea nell’"Amendment"), di effettuare uno scaling delle stime VaR giornaliere per la T, dove T è l'holding period di riferimento. In questo modo si può utilizzare un campione di dati basato sulle variazioni giornaliere, e quindi un numero di dati maggiore sul quale effettuare la stima. Il Comitato di Basilea si è orientato in questa scelta anche per in considerazione del fatto che il rischio di uno scenario di mercato estremo, rispetto al quale le istituzioni finanziarie dovrebbero essere protette da un adeguato grado di capitalizzazione, è accompagnato da problemi di scarsa liquidità e dalla conseguente difficoltà di smobilizzare la posizione, o il portafoglio di posizioni: questo può portare a perdite più pesanti di quanto non accada in situazioni di normale liquidità, anche in conseguenza dell'allargamento degli spread di denarolettera. A fronte di questo rischio vi è quindi un legame tra la scelta dell'holding period e la liquidità delle posizioni: maggiore è il tempo presumibile di smobilizzo, più lungo dovrà essere l'orizzonte temporale da considerare. Lo scaling per la radice di T previsto da Basilea è in generale coerente col fatto che, per quasi tutti i portafogli, il VaR incrementa con la lunghezza del tempo, poiché la volatilità assoluta aumenta al crescere dell'orizzonte temporale. 328 Capitolo 6 Purtroppo, unicamente sotto alcune condizioni 46, raramente riscontrabili nella realtà empirica, questo scaling può essere adeguato: La relazione tra deviazioni standard e probabilità delle code può essere fissata se i fattori di mercato mostrano una distribuzione normale congiunta. Comunque, la normalità è, come già visto, una semplificazione poco aderente alla realtà fat-tailed, e le VaRiazioni giornaliere non sono indipendenti nel tempo, ma è invece riscontrabile una dipendenza seriale47. Le osservazioni giornaliere risultano autocorrelate, e si registrano fenomeni di volatility clustering; La matrice delle correlazioni non risulta costante nell'orizzonte temporale di riferimento; Vi è un drift nei fattori di mercato. L'assunzione di media pari a zero (nel caso dell'approccio varianze-covarianze) o comunque implicitamente considerata fissata (come nel caso delle Simulazioni storiche) può essere ragionevole solo per periodi di tempo brevi (ad es. 1 giorno), ma è debole sugli orizzonti periodali decadali prescritti dagli organi di vigilanza. La considerazione dell'operare congiunto dei fattori limitanti analizzati condiziona la bontà dei risultati ottenibili dai diversi modelli VaR in relazione al rischio insito nelle code estreme: le stime VaR si dimostrano estremamente sensibili non solo alle assunzioni di distribuzione, ed al tipo di dati che ne determinano le diverse possibili implementazioni, ma anche alle ipotesi sulle misure di correlazione da considerare. Le implicazioni di queste discrepanze si riflettono nel dettato "prudenziale" di Basilea e sono particolarmente rilevanti dato l'uso della metodologia VaR ai fini della determinazione dell'adeguatezza patrimoniale. La protezione da eventi estremi, fonti possibili di default individuali e/o di una destabilizzazione sistemica (effetto domino) 46 47 Cfr. Iacono F. Skeie D, (1996). Cfr. Sironi A. e Saita F. (1998) verificano una dipendenza seriale su diversi indici di mercato. Introduzione al Value at Risk per i rischi di mercato 329 del sistema finanziario, e la loro accurata individuazione è uno dei problemi più rilevanti dell'attività di Vigilanza, che è indirizzata a rendere maggiormente consapevoli le banche, correlandone proporzionalmente il livello di patrimonializzazione (secondo un fattore, considerando una distribuzione normale standard, pari ad almeno: * 2,33* 10 * 3 = 22,1 deviazioni standard) alle stime di rischiosità prodotte dai modelli proprietari. In contrasto, l'ottica degli intermediari finanziari è sensibilmente diversa, ed è il frutto della percezione di un trade-off tra il costo della protezione rispetto ad eventi estremi (e connesso rischio di default) ed il costo di operare con un livello di patrimonio da remunerare eccessivamente elevato. Queste prospettive alternative possono essere parzialmente riconciliate assicurando che i requisiti di capitale, a fronte dei rischi sostenuti, siano determinati con la più efficiente metodologia disponibile48. I modelli "convenzionali" del valore a rischio finora trattati 49 falliscono nel fornire questa riconciliazione. Questi modelli sono nati nelle istituzioni finanziarie più sofisticate, con l'obiettivo di gestire il rischio di eventi riferibili ad un "normale" andamento delle variabili fonti di rischio, e non con la finalità di definire un qualche grado di adeguatezza patrimoniale, garanzia di solvibilità a fronte di eventi estremi. E' infatti vero che gli eventi estremi "non normali" sono trascurati dai modelli del VaR, ma è nello stesso tempo vero che tali eventi estremi non fanno parte della gestione corrente del rischio rispetto alla quale tali modelli sono stati implementati inizialmente. In questo senso, è identificabile uno scollamento nell'azione degli organi di vigilanza, che da un lato "garantiscono" l'uso dei modelli interni, dall'altro sottopongono l'utilizzo di questi ad uno stringente set di condizioni di validazione moltiplicative dei risultati prodotti (lo scaling per la radice dell'orizzonte temporale decadale, il fattore di moltiplicazione pari almeno a tre, l'integrazione con le prove di stress), in quanto ne riconoscono esplicitamente l'inadeguatezza rispetto alle finalità dì una prudente 48 Ossia le diverse parti dovrebbero preferire una metodologia che garantisca, per un dato margine di sicurezza, i requisiti di capitale più bassi, o che per un dato livello di capitale fornisca il più ampio margine di sicurezza. 49 Identificabili peraltro negli stessi suggeriti nell"'Amendment" come base metodologica dei modelli proprietari. 330 Capitolo 6 calibrazione dell'adeguatezza patrimoniale e di identificazione dei grandi rischi (model risk). Ciò che si intende porre in dubbio non sono le finalità degli organi di Vigilanza, che si sostanziano tra l'altro in una spinta all'adeguamento della struttura organizzativa, dei sistemi informativi e dei controlli interni50 delle banche affinché siano altamente affidabile nella gestione e controllo dei rischi, né tantomeno il meccanismo "prudenziale" di supervisione che si è sostituito all'approccio normativo precedente, quanto lo strumento (i modelli interni) utilizzato per cogliere gli eventi estremi, rispetto ai quali la Vigilanza ha predisposto tutto il set di condizioni di validazione descritto. In questo contesto, si pone un problema di carenza di incentivi per le istituzioni finanziarie a migliorare i modelli VaR: infatti, nonostante un'istituzione finanziaria riesca a sviluppare un modello VaR che più correttamente stimi gli eventi di mercato con bassissima probabilità di accadimento, questa si vedrà sempre applicare lo stesso elevato fattore di moltiplicazione "minimo", a fronte di una stima VaR migliore (presumibilmente più elevata di quella ottenibile con i metodi convenzionali). Di fronte a questo meccanismo invariante, l’istituzione finanziaria non avrà convenienza a migliorare il suo modello proprietario, venendosi a creare, così, un effetto perverso che è funzione del sistema stesso di incentivi risultante dagli elevati livelli del fattore di moltiplicazione. Una proposta innovativa è da collegarsi all'intenso sforzo di ricerca che negli ultimi tempi è stato fatto per il miglioramento delle metodologie quantitative alla base dei modelli VaR. Rispetto ai modelli convenzionali, a fronte dei quali Basilea ha prescritto il set di condizioni di utilizzo, sono ora disponibili applicazioni, come quelle fondate sui risultati di recenti ricerche di applicazione dell'extreme value theory alla metodologia del VaR, che più correttamente si focalizzano sulle code estreme delle distribuzioni del rendimenti di mercato. La considerazione dei miglioramenti nella stima VaR dovrebbe dunque riflettersi in una diminuzione del fattore di moltiplicazione. 50 Cfr. Basel Committee on Banking Supervision (1998), Framework for Internal Control System in Banking Organizations, September; Banca d'Italia (1998), Sistema dei controlli interni, compiti del collegio sindacale, G.U. 20 ottobre. Introduzione al Value at Risk per i rischi di mercato 331 6.1.8 La teoria dei valori estremi: cenni Si è visto come i modelli più diffusi di stima del VaR siano riferibili a due categorie principali: la prima categoria utilizza la modellizzazione parametrica di una distribuzione condizionale (usualmente la normale), facendo una previsione dell'intera distribuzione dei rendimenti, dalla quale solo le code sono il riferimento per il VaR. Questi modelli stimano i parametri pesandoli sul centro della distribuzione, quindi con un riferimento specifico ad eventi "comuni", mentre il VaR è una misura tipica degli eventi estremi presenti nelle code delle distribuzioni. I limiti maggiori dei modelli parametrici sono riscontrabili non solo nell’ipotizzata normalità51, ma anche nelle tecniche utilizzate per tenere conto della eteroschedasticità condizionale delle variazioni dei fattori di mercato. Mentre le variazioni giornaliere sono influenzate dal fenomeno della eteroschedasticità, la presenza di questo effetto su di un holding period decadale (che è quello previsto dalle autorità di vigilanza) è meno evidente; inoltre l'effetto di eteroschedasticità è legato a variazioni nella volatilità di breve termine, mentre gli eventi estremi, riferiti ad un intervallo di confidenza pari o maggiore al 99%, sono molto più indipendenti 52 nel tempo. La seconda categoria di modelli, invece, non necessita di una predeterminata forma parametrica per la distribuzione da utilizzare, ma si basa su di un approccio non parametrico fondato sulle Simulazioni storiche, nelle quali i pesi correnti del portafoglio sono applicati alle serie di osservazioni storiche dei returns registrati dai fattori di mercato sottostanti il portafoglio stesso. Anche questa categoria di modelli non si dimostra robusta nella stima dei percentili e delle probabilità inerenti gli eventi estremi a causa dei problemi già visti, ed, in particolare, per la presenza, nelle serie storiche, di poche osservazioni rappresentative dei tail events, che rendono la stima discreta e con una varianza elevata. Inoltre, la distribuzione empirica dei returns storici non può fornire 51 Contraddetta dalle evidenze empiriche. Anche ipotizzando altre distribuzioni dei fattori di mercato, ad es. la Student-t o la lambda generalizzata, si dovrebbe comunque considerare la non stazionarietà delle serie finanziarie. 52 Cfr. Danielsson J., De Vries C., Hartmann P. (1998), p. 101. 332 Capitolo 6 la probabilità di subire perdite più grandi di quelle presenti nella finestra di dati utilizzata, la quale è assegnata pari a zero. La conseguenza di quanto esposto si manifesta nella scarsa attendibilità dei modelli VaR proprio dove sono più importanti. La protezione dagli eventi estremi di mercato è infatti uno degli obiettivi dell'attività di vigilanza bancaria, nel quale si riconoscono anche le istituzioni finanziarie53. Un buon modello VaR dovrebbe perciò correttamente rappresentare la probabilità di questi eventi presenti nelle code delle distribuzioni, fornendone stime omogenee e accurate dei percentili e delle correlate probabilità. A questo scopo alcuni risultati sono ascrivibili ad un'area della statistica conosciuta come "teoria dei valori estremi" (Extreme Value Theory). Le caratteristiche di questo approccio includono: un metodo di stima che è localizzato all'oggetto di interesse (le code delle distribuzioni) piuttosto che all'intera funzione di densità di probabilità; una forma funzionale della coda della distribuzione che può essere formulata a priori54. In questo nuovo approccio le distribuzioni heavy-tailed possono mostrare un comportamento nelle code, ad un primo ordine di approssimazione, molto simile alla forma della coda della distribuzione di Pareto. Così, se la distribuzione oggetto di analisi è conosciuta essere heavy tailed, la probabilità delle perdite più grandi potrà essere descritta da: P{R<-r} = F(-r) a•r- r [6.22] dove le probabilità di coda dipendono da due parametri, a e , rispettivamente una costante di scaling e un cosiddetto indice di coda (tail index). L'evento estremo diverrà più probabile, e la coda sarà più spessa, quanto più l'indice di coda è minore. Gli strumenti offerti dalla teoria dei valori estremi consentono di 53 Cfr. Focardi S. e Troiani M. (1997), p. 78. Gli autori presentano una ricerca condotta da The Intertek Group su un campione internazionale di 80 banche: i risultati pongono in evidenza come la protezione da eventi estremi, la risposta agli organi di vigilanza e l'ottimizzazione delle attività sono i tre obiettivi principali di gestione del rischio. 54 Cfr Diebold F.X., Schuennann T. e Stroughair J.D. (1998). Introduzione al Value at Risk per i rischi di mercato 333 stimare i parametri della coda. A differenza degli approcci tradizionali alla stima del VaR, i risultati statistici basati sulla teoria dei valori estremi forniscono la possibilità di strutturare una forma parametrica alle code delle distribuzioni empiriche, dalla quale stimare le probabilità ed i quantili relativi senza dover ricorrere ad arbitrarietà nelle assunzioni sulle distribuzioni o sui pesi da adottare. Un modello VaR può così essere costruito semiparametricamente combinando la simulazione storica per 1"'interno" della distribuzione dei rendimenti (di un fattore di mercato, di un portafoglio) insieme alla stima parametrica per le code. Uno dei problemi rilevanti da risolvere, e che per lungo tempo ha limitato le possibilità di implementazione di questo metodo, riguarda la determinazione del punto d'inizio della coda, oltre il quale si trovano le osservazioni estreme sulle quali stimare i parametri della coda stessa. Recenti ricerche55 hanno individuato una efficiente metodologia basata su un ricampionamento bootstrap. 6.2 Gli utilizzi della metodologia del Value-at-Risk A fronte di una comune definizione di rischio basata sul VaR, sono stati analizzati i diversi approcci di misurazione allo stadio attuale maggiormente implementati. Nonostante lo scopo principale dei modelli proprietari delle istituzioni finanziarie sia quello di gestire il rischio, sono emerse negli ultimi anni diverse finalità e implicazioni operative nell'utilizzo dei risultati che scaturiscono da questi modelli, insieme ad un'estensione del loro ambito di applicazione: da una prima fase di applicazione, limitata ai rischi di mercato del portafoglio di negoziazione, gli intermediari hanno iniziato ad estendere l'utilizzo della metodologia al portafoglio immobilizzato fino alla inclusione di tutte le poste di bilancio attive e passive, stimando ogni tipologia di rischio. Ed è proprio la versatilità di utilizzo delle stime VaR e la sua relativa facilità di comprensione ad aver contribuito alla sua rapida diffusione ed accettazione da parte degli intermediari finanziari, degli organismi di vigilanza ed in diverse applicazioni nelle corporate. Le finalità 55 Cfr. Danielsson J. e. De Vries C. (1997). 334 Capitolo 6 principali nell'utilizzazione delle misure VaR sono riconducibili al percorso logico di seguito analizzato, in ordine di progressività nel loro livello di utilizzo all'interno delle istituzioni finanziarie. a) Confronto e aggregazione fra tipologie di rischio ed istituzioni differenti. L'esposizione al rischio di mercato del portafoglio di un intermediario è stata precedentemente definita nei termini di volatilità dei sottostanti fattori di rischio e sensitività del portafoglio stesso a questi fattori, i quali sono soggetti ad un livello di specificazione tale che sia rappresentativo del rischio in ogni singolo mercato. Ogni metodo è profondamente associato con il suo specifico mercato e non può essere applicato direttamente ad altri mercati. Ad esempio, il rischio di tasso d'interesse di un titolo di stato può essere misurato nella sua formulazione più semplice dalla duration. Una approssimazione più corretta della stima si ha mediante la determinazione dalla convessità o dalla sensitività a shift non paralleli (ad es., con le key rate durations di Ho56). Per il portafoglio azionario il rischio sistemico può essere stimato mediante il beta. I rischi associati ad una opzione, o ad un portafoglio di opzioni, possono essere misurati dall'intero set delle "lettere greche", ognuna espressione delle variazioni del prezzo rispetto a cambiamenti nei parametri della formula di pricing. Anche queste ultime misure di rischio non possono essere applicate direttamente ad altri strumenti, in quanto costruite sulla base di criteri metodologici fra loro differenziati, che rendono non confrontabile l'importanza relativa dei rischi di mercato assunti su mercati diversi. L'introduzione del VaR, come rilevato all’inizio del capitolo, ha colmato questo divario di raffronto: basandosi sul livello di esposizione delle singole posizioni, individuabile con le misure di sensitività appena descritte o tramite una rivalutazione delle posizioni alle condizioni di mercato simulate57, e sulla volatilità di ogni 56 Cfr. Dattatreya R.E. e Peng S. Y. (1995). Gli Autori presentano un'estensiva applicazione delle key rate duration nella valutazione della rischiosità di obbligazioni strutturate. 57 Cfr. Sironi A. e Saita F. (1998). Introduzione al Value at Risk per i rischi di mercato 335 fattore di rischio. La misura di rischio VaR viene, pertanto, calcolata in base a criteri metodologici omogenei (livello di confidenza, holding period, etc.) che forniscono una approssimazione unidimensionale dei rischi ai quali un portafoglio di strumenti finanziari globalmente diversificato è esposto. Sintetizzando in un unico valore la massima perdita probabile cui esposta la posizione, il VaR soddisfa due importanti esigenze; consente infatti sia di confrontare fra loro strumenti rischiosi diversi sia, soprattutto, di aggregare rischi diversi agevolando il calcolo del rischio complessivo di portafoglio. L'aggregazione dei rischi può essere implementata con criteri diversi, dipendendo dal tipo di modello (tra quelli già visti) adottato: con la matrice di correlazione dei fattori di mercato, nel caso di un approccio tipo RiskMetrics scenari evolutivi se si utilizza uno dei metodi di simulazione. Grazie a queste caratteristiche metodologiche, si è realizzata una convergenza dell’industria dell'intermediazione finanziaria e degli organismi di Vigilanza verso una metrica comune, che consenta una immediata percezione del profilo di rischio sopportato ed una sua confrontabilità anche fra istituzioni finanziarie diverse. Queste ultime, soprattutto investment bank anglosassoni, negli anni recenti hanno iniziato a rivelare nei reports annuali e trimestrali anche le loro stime di VaR medio registrato nel periodo. Il diretto confronto delle stime VaR tra le varie banche risulta comunque ridotto da alcune discrezionalità nella scelta di parametri critici del calcolo. Nei dati della tabella che segue, tratti da un recente articolo di Hendricks e Hirtle58, sono descritti i VaR di alcune grandi banche, i cui reports annuali sono sufficientemente dettagliati da indicare holding period, percentili sottostanti la stima e metodologia implementata. 58 Cfr. Hendricks D. e Hirtle B. (1997). 336 Capitolo 6 Tabella 6.3 - Misure di VaR annuale medio riportate da alcune banche U.S. BANCA BankAmerica Banker Trust Chase Manhattan Citicorp J.P. Morgan VaR annuale medio giornaliero ( milioni $) 4259 39 24 45 21 Percentile 97.5 99.0 95.0 2 95.0 Come indicato nella tabella, tutte le stime sono basate su di un holding period giornaliero, ed i percentili sono tutti compresi tra il 95% e il 99%. Le divergenze in questi parametri, così come su altri aspetti della stima, quali le assunzioni sulle correlazioni, danno luogo a difficoltà nel realizzare una diretta confrontabilità delle stime VaR. Inoltre i VaR medi annuali potrebbero essere integrati con i valori massimo e minimo del VaR registrati nel periodo inerente il report e con la stessa volatilità del VaR, ma anche con la media e la volatilità dei cambiamenti di valore del portafoglio. b) Determinazione dei limiti operativi La predisposizione di adeguati modelli di misurazione dell'esposizione al rischio del portafoglio e la comunicazione del profilo di rischio all’interno dell'istituzione, e nella reportistica verso l'esterno, è solo il primo passo verso un adeguato processo interno integrato di gestione dei rischi finanziari (risk management). Infatti, la pura quantificazione della rischiosità delle posizioni gestite in termini di perdita potenziale (risk measurement), per quanto fornita da un modello accurato, è da considerarsi unicamente come una prima fase logica di un processo più ampio di gestione e di controllo delle posizioni a rischio. A questo scopo, la struttura del modello interno ed i suoi 59 La stima è fatta sotto l'assunzione di un coefficiente di correlazione tra le categorie di asset pari a 1. Assumendo una correlazione nulla si sarebbe ottenuta una stima pari a 18 mil.$. 60 Il livello di confidenza 2 è pari al 97.7 percentile ipotizzando una distribuzione normale. Introduzione al Value at Risk per i rischi di mercato 337 output dovrebbero configurarsi, a sua volta, come un input per un ulteriore livello di utilizzazione rispetto a specifiche finalità gestionali. Queste sono individuabili: nella fissazione di limiti all'operatività delle singole unità risktaking ai fini del controllo dell’esposizione. Fornire limiti adeguati a supportare le scelte di risk taking consente correttamente di misurare la redditività corretta dal rischio in relazione al capitale assorbito, nell’ambito di un processo sistematico di allocazione del capitale tra le varie unità all'interno dell'istituzione finanziaria (capital allocation), al fine di massimizzare la redditività, complessiva e di ogni singola unità, rispetto ai rischi sostenuti (performance measurement). Tale soluzione potrebbe produrre l’effetto di una specializzazione di ogni operatore per ogni tipologia di rischio, con una concentrazione dell’operatività sul proprio core business, rendendo più affidabile il processo di auditing. L’introduzione di un simile meccanismo non è di facile attuazione, laddove le unità operano in prodotti multirischio, rispetto ai quali si deve procedere alla determinazione di ogni tipologie di rischio accessorio per avviare operazioni di copertura interne. Si può intuire come tali operazioni di hedging richiedano criteri oggettivi per la determinazione del tasso di trasferimento di non sempre facile realizzazione. L'utilizzo dei limiti di assunzione dei rischi, in termini di un denominatore comune, consente di sfruttare le proprietà di aggregazione e confrontabilità del VaR con riferimento, però, a un preciso orizzonte temporale in funzione della propensione al rischio del management e degli azionisti. La determinazione di un sistema di limiti standardizzato, il suo continuo aggiornamento ed il connesso sistema di reporting può essere molto difficile in relazione ad una forte complessità dell'operatività della banca, ma è proprio in relazione a questa operatività che esso diventa maggiormente indispensabile. Il sistema dei limiti deve comunque essere costruito secondo una logica gerarchica61, 61 Cfr. ABI (1996), p. 57. 338 Capitolo 6 che permetta l'aggregazione ai livelli superiori dei limiti assunti dalle varie unità operative assoggettate ai limiti stessi, tenendo presente che le misure VaR incorporano un effetto di diversificazione del rischio dovuto alle correlazioni. Considerare questo effetto porta ad una impostazione della struttura gerarchica dei limiti tale che i limiti di rischio al livello superiore potranno essere minori della somma dei limiti di rischio delle unità ad esso sottostanti. Vi è però una differenza nel governo dei rischi tramite il set dei limiti riferibile all'orizzonte temporale ed al livello gerarchico considerato: nel medio termine (pianificazione strategica) e a livello di alta direzione, possono essere considerate stabili sia la propensione al rischio che il livello del limiti; invece nel breve termine, e a livello di unità risktaking operative (specie all'interno dell'area finanza), la revisione dinamica dei limiti è fondamentale per il governo dei rischi finanziari e va monitorata frequentemente. In questo senso, la singola unità risk-taking, sulla base del VaR assegnato, del grado di sensibilità delle posizioni ai fattori di rischio di mercato e del livello di volatilità di questi ultimi, può determinare il limite di posizione massima da assumere. Eventuali variazioni nei livelli di volatilità generano corrispondenti variazioni dei limiti62 di posizione assumibili, dando luogo ad un adeguamento automatico dei limiti operativi coerentemente con le condizioni di volatilità dei singoli mercati (se la volatilità diminuisce, il limite aumenta, e viceversa), favorendo una riallocazione dinamica del capitale verso strumenti e mercati meno volatili. A causa di questa relazione diretta volatilità-limite di posizione, una scelta importante nel settare il sistema dei limiti è da rilevarsi nella frequenza dell’aggiornamento delle volatilità: l'eteroschedasticità dei rendimenti degli strumenti finanziari comporta una modificazione della volatilità nel tempo, così che una revisione istantanea dei 62 Cfr. Sironi A. e Saita F. (1998), p. 69; gli autori presentano un esempio dei limiti di posizione su BTP decennali. Introduzione al Value at Risk per i rischi di mercato 339 limiti di posizione, ogni qualvolta il livello di volatilità muta, avrebbe la conseguenza di un'incertezza continua sull'entità delle posizioni assumibili, con l'effetto di mantenere le unità coinvolte sempre molto distanti dai limiti massimi nominali; questa eventualità, sebbene "migliori" il profilo di rischio, può portare però ad una strutturale sottoutilizzazione (e quindi ad una minore remunerazione) del VaR disponibile. La soluzione adottata da molte banche internazionali, per le esigenze dì una maggiore certezza operativa, si sostanzia nell'estensione dell'orizzonte temporale (ad es., adottando un aggiornamento mensile63) di revisione degli input di vo latilità in un’ottica di compromesso tra la necessità di tracking dei mercati e le esigenze rilevate. Oltre alle variazioni della volatilità dei diversi fattori di rischio, occorre tenere in considerazione anche l'impatto delle correlazioni tra i diversi rischi, tanto più importante se i limiti stessi sono stati definiti in base anche alle correlazioni tra i rischi sostenuti dalle singole unità.In questo caso, l'accentuarsi del grado di correlazione positiva tra due mercati può far diminuire il limite di VaR massimo assegnato alle due unità, proprio in conseguenza della riduzione dei benefici derivanti dalla diversificazione del rischio. Le finalità esposte sono riconosciute dalle autorità di Vigilanza, le quali, nel definire i requisiti qualitativi dei modelli interni delle banche, ai fini della determinazione del patrimonio di vigilanza, hanno indicato l'importanza dell’interrelazione tra il sistema interno di misurazione dei rischi ed i limiti di esposizione e di trading. c) Misure di risk-adjusted performance e allocazione del capitale. Ulteriore finalità di tipo gestionale perseguibile con i modelli Var è la costruzione di misure di performance correte per il rischio attraverso la quantificazione del 63 L’intervallo minimo di revisione è comunque fissato dalle autorità di vigilanza, che richiedono una revisione delle volatilità e correlazioni almeno trimestrale. 340 Capitolo 6 capitale a rischio e la sua allocazione alle aree di affari. Al fine di consentire al top management di valutare la performance in termini di rischio-rendimento occorre, infatti, introdurre misure di Risk-Adjusted Performance (RAPM) per determinare la contribuzione di ciascuna linea di business alla creazione del valore complessivo. I metodi utilizzati si focalizzano sul concetto di allocazione del capitale, basandosi sul rapporto tra risultato reddituale e relativo capitale economico a rischio, quantificato ex post, sulla base dei rischi assunti, oppure ex ante, in sede di pianificazione. In generale, si può osservare come le opportunità di investimento dipendono dal trade-off rischio rendimento, ossia dalla capacità del business di originari profitti crescenti rispetto al livello di capitale assorbito a fronte del rischio associato. La performance di due o più attività riproduce nei RAPM, di cui sono state fornite nozioni introduttive nel capitolo 1, gli effetti della volatilità e delle correlazioni sul livello di rendimento. Per poter apprezzare, invero, il contributo di uno strumento finanziario alla redditività del portafoglio e, quindi, valutare la sua attrattività, occorre prendere in considerazione tre elementi la rischiosità dello strumento, il grado di correlazione con il rendimento del portafoglio e il premio offerto dallo strumento rispetto al free risk. La logica di tale approccio si racchiude su una semplice intuizione, ossia, che la volatilità della distribuzione dei rendimenti dei singoli strumenti contribuisce alla volatilità complessiva di un portafoglio, che, non essendo diversificabile, deve trovare copertura nella variabile strategica mezzi propri. In prima approssimazione, è lecito affermare che lo strumento piu appetibile, secondo l’approccio del CAPM, potrebbe individuarsi in quella attività che offre il maggior extrarendimento rispetto al tasso free risk per unità di rischio complessiva. Posto che il rendimento in eccesso di una singola transazione può essere espressa da r’-rf, ove r’ indica il rendimento conseguito dalla transazione ed rf il costo del capitale preso a prestito Introduzione al Value at Risk per i rischi di mercato 341 dalla banca., si può assumere che il portafoglio attivo della banca rappresenti una buona proxi del portafoglio ottimale di mercato cui comparare l’opportunità di investimento disponibile. Indichiamo tale portafoglio che massimizza il rischio rendimento con M e formalizziamo il CAPM come segue: E (r r f ) E (r mr f ) [6.23] ove rm identifica il mix delle attività bancarie. La precedente relazione può essere riscritta: cov( r ,r m) E ( r r f ) E (r mr f ) (r m) ossia E ( r r f ) E (r mr f ) cov( r ,r m) (r m) (r m) [6.24] ove E(rm-rf)/(rm) = indice di Sharpe Cov(r,rm)/(rm) = contribuzione marginale della attività al portafoglio ottimale per cui R ( EE ) E ( r r f ) E (r mr f ) cov( r ,r m) (r m) (r m) [6.25] La tangente al portafoglio ottimale M rappresenta la market line, ove si colloca il set di opportunità che forniscono il rendimento più alto per ogni livello di rischio. Il valore di R(EE) esprime il di rendimento in eccesso e gli asset che registrano il più elevato R( EE) sono quelle maggiormente appetibili perché forniscono al portafoglio il più alto rendimento rispetto alla medesima contribuzione di rischio. Tale indicatore dipende quindi dalla misura dello Sharpe ratio, di difficile utilizzazione operativa a causa delle segmentazioni di mercato, delle differenti avversioni 342 Capitolo 6 al rischio per livelli di rischi diversi e non diversi. Tale misura esprime anche le opportunità di investimento in grado di creare valore per l’azionista. Esso offre informazioni sulle relazioni rendimento rischio e correlazione con il portafoglio della banca: il set di investimenti da selezionare sono quelli che a parità di rendimento e rischio presentano un basso grado di correlazione con il portafoglio di mercato; d’altra parte, attività che presentano rendimenti più bassi e rischi più bassi, ma livelli di correlazione più elevati, non risultano essere appetibili. 6.3 Utilizzo delle misure VaR: criticità Nonostante la generale diffusione ed accettazione della metodologia VaR presso tutte le maggiori banche (ed il crescente utilizzo anche in applicazioni corporate), vi sono diversi elementi che dovrebbero essere tenuti in considerazione per evitarne un utilizzo acritico. La stesso Comitato di Basilea suggerisce di gestire la "non robustezza" del VaR con l'aggiunta di stress testing e con politiche dei limiti. Vengono di seguito analizzate le principali criticità che emergono nell’utilizzo delle misure VaR. Sensitività di implementazione. Mentre l’impianto teorico sottostante la metodologia VaR è abbastanza diretto e consente lle diverse Risk Unit di utilizzare un linguaggio comune, l’i implementazione di questa ha generato divergenze in merito alla congruità dei risultati. Vi sono stati numerosi studi tendenti a confrontare la bontà dei diversi modelli VaR64 su portafogli dalle caratteristiche molto differenti ed è stata notata una forte variabilità delle stime VaR (identificabile nel model risk) in relazione ai parametri, al periodo di osservazione del campione, alle assunzioni 64 Cfr. ad esempio Hendricks D., Hirtle B. (1997) e Beder S.T. (1995), pp. 12-24. Nel suo studio, Hendricks confronta 12 modelli VaR su 1000 portafogli valutari scelti in maniera random utilizzando nove criteri di valutazione della bontà delle performance. Dall’analisi risultano scostamenti di entità poco rilevante, in relazione anche alla semplicità del portafoglio utilizzato. Beder ha invece applicato modelli di simulazione del tipo Storiche e MonteCarlo, differenti per i data set e le correlazioni utilizzate con riferimento a 3 portafogli ipotetici composti rispettivamente di titoli di debito, opzioni, e una combinazione dei due precedenti. L'autrice ha ottenuto risultati VaR differenti per un fattore pari a 14 sul portafoglio più complesso. Introduzione al Value at Risk per i rischi di mercato 343 sulle correlazioni tra strumenti di classi di asset, alla tecnica di mapping utilizzata. Il rischio di implementazione (implementation risk) è più specifico: è riconducibile alle differenze nelle misure VaR dovute, appunto, alle diverse modalità di implementazione dello stesso modello sullo stesso portafoglio. Così il rischio di implementazione può essere considerato "interno" al model risk65. Un modello formale (tipo RiskMetric) non potrà mai fornire una descrizione completa e valida per ogni situazione a causa della varietà potenzialmente infinita di strumenti finanziari e delle diverse tecniche istituzionali e statistiche di ogni mercato. Così un modello sarà sempre incompleto ed implicherà delle decisioni di implementazione che sono fonte di variazioni nell'output. Questa fattispecie di rischio dovrebbe essere considerata al fine di evitare un utilizzo acritico del modello VaR: una condizione necessaria nell'uso di ogni modello dovrebbe quindi fare riferimento ad una quantificazione e limitazione del rischio implementazione, al fine di consentire una più consistente comparazione tra intermediari. Diversità di orizzonti temporali di riferimento e problemi di armonizzazione. Il passaggio dalla semplice misurazione e quantificazione dei rischi all’implementazione, comporta numerosi problemi di tipo organizzativo e di selezione dell’unita temporale cui la gestione del rischio deve fare riferimento, finalizzato, nel suo stadio più evoluto, all'allocazione del capitale ed alla definizione di limiti operativi per ogni unità di business. Ogni unità infatti tende a misurare il VaR coerentemente con il proprio orizzonte temporale di riferimento: le misure VaR per il rischio di mercato hanno in genere un orizzonte giornaliero o decadale. Di converso, le modellizzazioni del rischio di default o del rischio di credito legate a variazioni nella matrice di transizione delle probabilità di cambiamento dei rating66, utilizzano tipicamente un periodo di osservazione annuale, poiché la frequenza di default o di cambiamento del merito di credito, di un emittente o di un affidato, hanno un più lungo orizzonte temporale rispetto al rischio di mercato. Aggregare questi differenti rischi in 65 Cfr. Marshall C. e Siege M. (1997), p. 92. Queste modellizzazioni sono riferite alle due principali metodologie di assessment del rischio di credito, individuabili rispettivamente nel modello Credit Plus (Credit Swiss First Boston) e CreditMetrics (J.P.Morgan). 66 344 Capitolo 6 una singola misura VaR riferita ad un unico orizzonte temporale, persino assumendo che il rischio di credito e di mercato siano indipendenti, può non fornire soddisfacenti indicazioni riguardo al rischio globale cui l’intermediario è esposto. In particolare, le ipotesi di indipendenza sono critiche: rischio di mercato e di credito sono interrelati e dovrebbero essere valutati congiuntamente, poiché una variazione di mercato ampia può influenzare il rischio di credito di una posizione, così come una variazione nel merito di credito di un emittente è correlata a variazioni nei valori di mercato. Tuttavia, alcune istituzioni (ad es. Banker Trust) hanno optato per un holding period annuale, per entrambe le aree dei rischi di mercato e rischi di credito. Tale scelta presuppone il cumulo dei rischi con orizzonte temporale breve con quelli di lungo periodo, con effetti di accentuazione del rischio dovuto alla non linearità delle posizioni detenute. Una posizione in opzioni, come abbiamo già detto, è caratterizzata dalla presenza di un effetto di secondo ordine nella relazione tra fattore di rischio e valore di mercato per cui si verrebbero a configurare situazioni anomale in presenza di uno shock annuale. L'armonizzazione dei diversi orizzonti temporali può avvenire in modi diversi. Una prima modalità è quella, già vista, di scalare le misure di volatilità giornaliera, tipiche dell'area finanza, mediante la radice di T, valida sotto le ipotesi restrittive di indipendenza seriale e le altre già analizzate. Un'altra possibile soluzione è quella di calcolare la massima perdita probabile sull'orizzonte di riferimento scelto per l'intera istituzione (mensile, annuale) direttamente sulla base della serie storica delle variazioni calcolate sull'orizzonte selezionato. Questo evita la necessità di basarsi sull'ipotesi di indipendenza seriale, ma si riduce la lunghezza, e quindi anche la significatività, della serie storica proporzionalmente all'holding period ipotizzato, in quanto i rendimenti vanno calcolati su periodi non-overlapping, al fine di evitare di introdurre effetti di autocorrelazione. Ci si dovrebbe basare quindi su serie storiche molto lunghe, purtroppo non sempre disponibili. Introduzione al Value at Risk per i rischi di mercato 345 La necessità di armonizzazione temporale delle misure VaR tra le diverse unità della banca, pur apparendo in letteratura di difficile soluzione., è oggetto di alcune riflessioni. E' importante, prima di qualsiasi aggregazione, quantomeno stabilire gli holding period corretti per ogni area, che dovrebbero essere individuati in funzione: della tempestività con la quale è possibile effettuare il markto-market delle posizioni assunte. I maggiori problemi si hanno per il portafoglio di crediti immobilizzati, per i quali non vi è una valutazione al mercato, ma sui quali dovrebbero essere sviluppati meccanismi di valutazione differenti dalla logica di contabilizzazione. Una banca potrà avere una percezione dei rischi cui è esposta solo monitorando di continuo l'insieme delle posizioni che generano rischi; della frequenza con la quale sono monitorate effettivamente le posizioni di ogni unità; dei tempi ritenuti necessari per lo smobilizzo delle posizioni67 che sono funzione sia della liquidità del mercato, che della dimensione relativa delle posizioni assunte. In particolare, il problema della esatta considerazione delle differenze di liquidità tra diversi mercati è un'ulteriore elemento di criticità delle misure VaR. Infatti, qualora si assuma una posizione su due titoli simili per tipologia, scadenza, e con identica misura di VaR, ma negoziati su due differenti mercati con diverso grado di liquidità, si rimarrà esposti al rischio in misura differente, che il VaR da solo non riesce ad individuare. I due titoli, con analoghe misure di VaR, non presentano lo stesso livello di rischio a causa dei differenti tempi e costi dì smobilizzo a fronte di situazioni avverse dei mercati. 67 Un possibile orizzonte di riferimento per il portafoglio crediti può essere individuato nei tempi necessari alla strutturazione di una operazione di securitization. In Italia i tempi di riferimento di operazioni di questo tipo possono ammontare a diversi mesi poiché la rarità di questo tipo di operazione non consente di avere a disposizione un sufficiente numero di parametri per la loro valutazione. 346 Capitolo 6 Una soluzione intuitiva, in tal senso, si ravvisa nella scelta di rapporto inverso tra liquidità della posizione ed holding period: ad una maggiore illiquidità di una posizione, si fa corrispondere un periodo di detenzione più lungo. E’ una scelta, però, che poggia su ipotesi irrealistiche68, in particolare, nel caso di un movimento avverso, anche protratto per più giorni, difficilmente la posizione è lasciata immutata, ma viene almeno progressivamente ridotta anche considerando costi di transazione non nulli (costi nulli vengono invece ipotizzati nel caso di semplice aumento dell'holding period). Il costo dell'esposizione che residua man mano che la posizione viene liquidata e i costi dì transazione all'uopo sostenuti sono però legati da una relazione di trade-off. Infatti, lo smobilizzo tempestivo della posizione dà luogo ad una minore esposizione residua, ma genera maggiori costi di transazione dovuti all'allargamento degli spreads che si registrano nei momenti di tensione dei mercati. 6.4 I modelli interni ai fini della Vigilanza 6.4.1 Introduzione La regolamentazione finalizzata ad incentivare il contenimento del rischio attraverso l’introduzione di livelli minimi di patrimonio si riconduce, nella sua formulazione originaria, all’Accordo del 15/7/1998, realizzato dal Comitato di Basilea per la Vigilanza Bancaria. L’estensione della regolamentazione ai trattamenti di rischi di mercato si è avuta con la direttiva europea 93/6 per l’adeguatezza del capitale (CAD) e nell’Emendamento all’Accordo sul capitale del Gennaio 1996. I rischi di mercato, in generale, comprendono sia il rischio generico che il rischio specifico. Il primo si riferisce a cambiamenti nel valore di mercato degli strumenti di bilancio e fuori bilancio risultanti da movimenti dei prezzi di mercato, come i cambiamenti nei tassi di interesse e delle valute, nei prezzi delle azioni o delle commodities. Il rischio specifico si origina per effetto di variazioni nel valore di mercato delle singole posizioni da attribuirsi alla 68 Cfr. Sironi A. e Marsella M. (1997), op. cit., p. 478. Introduzione al Value at Risk per i rischi di mercato 347 solvibilità dell’emittente. L’Emendamento prevede che i rischi in questione, possano essere misurati secondo due metodologie alternative: il metodo cosiddetto standardizzato ed i modelli interni. Il primo si basa sull’approccio del tipo building blocks, secondo il quale i requisiti di capitale sono prima determinati separatamente, mercato per mercato, con algoritmo standard per ogni categoria di asset (tassi di interesse, azioni, valute, merci), successivamente, sono sommati per determinare l’onere globale relativo al rischio di mercato. Vi è da rilevare che gli organismi di vigilanza riconoscono la possibilità di compensazione tra le posizioni long e short, all’interno di una classe di asset, ma non tra classi diverse. Questa scelta additiva sottende ad una visione molto prudente del rischio da parte delle Autorità di Vigilanza, le quali implicitamente assumono che ampi movimenti avversi di mercato possono avvenire contemporaneamente in ogni classe di asset, senza riconoscere peraltro i benefici della diversificazione dovuti alle correlazioni tra le classi. Il metodo standardizzato utilizza, inoltre, un sistema di ponderazioni che, benché basato sull’esperienza storica e in funzione della volatilità dei rendimenti, risulta invariato, non considerando l’evoluzione nel tempo delle volatilità dei fattori di rischio. L’introduzione di modelli proprietari per il controllo delle esposizioni ai rischi di mercato, e la successiva conversione del valore a rischio complessivo in requisito patrimoniale, rappresenta, forse, l’innovazione più significativa nelle regole di vigilanza prudenziale. Viene in tal modo ad instaurarsi, tra regulators ed intermediari, una struttura contrattuale di delega, sottoposta a condizioni che garantiscono la trasparenza e l’omogeneità di trattamento tra i diversi delegati. Affinché il meccanismo di delega funzioni, ossia influenzi e favorisca un comportamento degli intermediari consono con gli obiettivi di vigilanza, la struttura del contratto dovrebbe essere incentivante. Poiché lo scopo della normativa di vigilanza è l’imposizione di dotazioni di capitale continuamente proporzionale ai rischi assunti (conseguibile unicamente tramite il monitoraggio continuo ed accurato degli stessi), le nuove disposizioni costituiscono un incentivo generale alla predisposizione di specifici sistemi di rilevazione e modellizzazione dei rischi di mercato. Le Autorità di Vigilanza 348 Capitolo 6 hanno riconosciuto alle istituzioni finanziarie la possibilità di utilizzare propri modelli interni di valutazione di rischio, individuando nella metodologia di Value at Risk l’impianto quantitativo fondante dell’implementazione di questi modelli. Al fine, però, di conciliare l’esigenza di mantenere la flessibilità e l’integrità delle diverse modellizzazioni del rischio adottate autonomamente dagli intermediari con la necessità di assicurare la coerenza, la trasparenza e l’omogeneità dei requisiti patrimoniali tra banche che utilizzano modelli diversi, la regolamentazione definisce una serie di standard qualitativi e quantitativi che i modelli devono possedere per poter essere utilizzati nella determinazione del requisito patrimoniale. La Banca d’Italia, con l’Aggiornamento dell’11 febbraio 2000 alla circolare n.229 del 21 aprile 1999, ha recepito nella normativa interna, le innovazioni introdotte nella regolamentazione internazionale sui requisiti patrimoniali di vigilanza69. In particolare, le principali modifiche inerenti i rischi di mercato possono essere riassunte nei seguenti punti: viene finalmente consentito alle banche, previo riconoscimento (validazione) da parte delle Autorità di Vigilanza, l’uso di modelli interni per il calcolo dei requisiti patrimoniali sui rischi di mercato, in alternativa a modelli standard troppo penalizzanti, al fine di incentivarle a dotarsi di strumenti avanzati di misurazione e controllo dei rischi; viene ampliata la metodologia standardizzata al fine di considerare anche il rischio di posizione su merci e di introdurre nuovi criteri per la valutazione delle opzioni; viene previsto l’obbligo di applicare il metodo del valore corrente per il calcolo del rischio di controparte su contratti derivati su tassi di interesse e di cambio a partire da gennaio 2001. Tralasciando, in questa sede, gli ultimi due punti, nella circolare n. 229 è disciplinata la procedura per il riconoscimento dei modelli interni da parte della Banca 69 Comitato di Basilea: Emendamento all’Accordo sul capitale per incorporarvi i rischi di mercato del gennaio 1996. Unione Europea: direttiva 98/31/CE, direttiva 98/32/CE, direttiva 98/33/CE. Introduzione al Value at Risk per i rischi di mercato 349 d’Italia per il calcolo dei requisiti patrimoniali sui rischi di mercato70. I modelli interni riconosciuti validi devono calcolare l’esposizione quotidiana al rischio attraverso l’approccio del valore a rischio, anche se la stessa Banca d’Italia richiede che le banche continuino a misurare e controllare il rischio di mercato con strumenti di misurazione di tipo tradizionale (ad esempio analisi di sensitivity). 6.4.2 Procedura di riconoscimento Le Autorità di Vigilanza riconoscono i modelli interni, quali stimatori dei requisiti patrimoniali a fronte dei rischi di mercato, subordinatamente alla verifica di specifici requisiti qualitativi di tipo organizzativo e di requisiti quantitativi rappresentati dalle condizioni minime di solidità e affidabilità statistica del modello adottato. La procedura di riconoscimento, che comporta un’approfondita analisi di tutti gli aspetti relativi al processo di gestione dei rischi (operatività della banca sui mercati, assunzioni statistiche del modello, sistemi informativi, modelli di pricing, analisi delle performance aziendali su basi giornaliera, ecc.), s’inquadra nell’attività di supervisione sulle banche, coerentemente con l’approccio cartolare che negli ultimi anni ha privilegiato le analisi e gli incontri settoriali. Nel concreto, è prevista una fase preliminare di confronto con la banca, attraverso l’esame della documentazione e lo svolgimento di incontri con i responsabili del processo di gestione del rischio al fine di verificare la coerenza del modello al dettato normativo e di richiedere alla banca tutte le necessarie modifiche. Tale fase si conclude con la redazione di una 70 Tale disciplina normativa è suddivisa nelle seguenti sezioni: Sezione I: “Disposizioni di carattere generale”. Sezione II: “Procedura di riconoscimento”. Sezione III: “Criteri per il riconoscimento del modello interno”. Sezione IV: “Calcolo dei requisiti a fronte dei rischi di posizione su titoli, di cambio e di posizione su merci”. Sezione V: “Prove di stress”. Banca d’Italia, (1999), Istruzioni di Vigilanza per le Banche, Circolare n. 229 del 21 aprile, Titolo IV (Vigilanza regolamentare), Capitolo 3 (Requisiti patrimoniali sui rischi di mercato), Parte Seconda (Modelli interni per il calcolo dei requisiti patrimoniali a fronte dei rischi di mercato). 350 Capitolo 6 relazione, nella quale si esprime un giudizio sulla idoneità della banca a presentare la domanda per il riconoscimento del modello. La normativa prevede che tale procedura si sviluppi sulla base di tre fasi. a) Presentazione della domanda di riconoscimento del modello. b) Esame del modello. c) Comunicazione dell’esito della domanda. L’attività di validazione svolta dall’Authority, in definitiva, si sostanzia nel verificare la conformità del modello a specifici requisiti qualitativi di tipo organizzativo e quantitativi, indicati nella normativa di vigilanza71. I primi, in particolare, assumono nel giudizio una rilevanza maggiore in quanto consentono, immediatamente, di comprendere le reali intenzioni della banca di dotarsi di un’efficace strumento di governo del rischio, che non sia finalizzato esclusivamente alla misurazione, ma che concorra, unitamente al management, alla creazione di valore per gli azionisti. La normativa, più precisamente, stabilisce che la banca possiede un sistema di gestione del rischio concettualmente corretto, ed applicato in maniera esaustiva, quando sono soddisfatte una serie di requisiti qualitativi. Da ciò si evince che la misurazione del rischio rappresenta, nell’ottica della vigilanza, solo una prima fase di un processo più complesso finalizzato, attraverso il controllo ed il governo del rischio, all’assunzione, da parte del management delle banche, di strategie di investimento consapevoli del correlato profilo di rischio-rendimento. 6.4.3 Requisiti patrimoniali nell’ottica di Vigilanza Le banche che utilizzano il modello interno devono soddisfare un requisito patrimoniale corrispondente al maggiore tra i due importi seguenti: 71 Per approfondimenti si veda l’appendice a questo capitolo. Introduzione al Value at Risk per i rischi di mercato 351 la misura del valore a rischio (VaR) del giorno precedente; la media delle misure del VaR giornaliero nei 60 giorni operativi precedenti, moltiplicata per un fattore non inferiore a 3 (hysteria factor) eventualmente maggiorata sulla base dei risultati dei test retrospettivi 72. Per poter calcolare, tramite il modello, il requisito patrimoniale a fronte del rischio specifico su titoli di debito (rischio idiosincratico) le banche devono dimostrare che il modello sia in grado di: 72 spiegare la variazione storica dei prezzi nel portafoglio (una misura in grado di spiegare la variazione storica dei prezzi è 2 il valore della R di una regressione; in questo caso il modello della banca dovrebbe essere in grado di spiegare almeno il 90% della variazione storica dei prezzi o di includere esplicitamente stime della variabilità dei residui non catturati nei fattori della regressione)73; riflettere la concentrazione del portafoglio (il modello interno della banca deve risultare sensibile alle variazioni nella composizione del portafoglio in modo da prevedere requisiti patrimoniali crescenti all’aumentare della concentrazione del portafoglio); resistere a una situazione sfavorevole (il modello interno della banca deve essere in grado di segnalare un rischio crescente nel caso di situazione sfavorevole)74; Il moltiplicatore hysteria factor intende ovviare ad alcune debolezze dei modelli VaR: esistenza di fenomeni di fat tails, high peaks, leptocurtosi e asimmetrie delle distribuzioni dei fattori di rischio; andamenti futuri delle volatilità e correlazioni diverse da quelle riscontrate in passato; calcolo del VaR solo sulle posizioni di fine giornata; incapacità del modello di cogliere nella maniera appropriata eventi di marcato di natura eccezionale (shock); utilizzo di ipotesi semplificatrici per il pricing degli strumenti. Per i modelli per i quali non è possibile calcolare un indice della bontà di stima le banche definiscono, insieme alla Banca d’Italia, misure di valutazione alternative. 74 Tale risultato, può essere ottenuto incorporando nel periodo di stima del modello almeno un intero ciclo economico e assicurando che il modello si sia rivelato accurato nella fase discendente del ciclo. Alternativamente, il risultato può essere ottenuto attraverso una simulazione delle situazioni storicamente o probabilisticamente peggiori. 73 352 Capitolo 6 essere convalidato da test retrospettivi volti a verificare che il rischio specifico sia valutato in modo adeguato. Inoltre, le banche devono dimostrare di essere in possesso di metodologie idonee a valutare adeguatamente il rischio di evento e di inadempimento per le posizioni in titoli di debito e in titoli di capitale. Qualora la banca non sia in grado di fornire tale dimostrazione, il requisito patrimoniale dovrà includere una maggiorazione. Per la determinazione di tale maggiorazione viene effettuato un calcolo analogo a quello utilizzato per il modello per il rischio generale di mercato, nel caso in cui quest'ultimo non abbia superato i test retrospettivi. In particolare, alla misura del rischio specifico calcolata dalla banca sulla base del proprio modello viene applicata una maggiorazione pari a 1 (che si aggiunge al fattore moltiplicativo di 3)75. 75 Al momento, non sono conosciuti nell’industria bancaria nazionale e internazionale modelli in grado di misurare, per le poste del portafoglio non immobilizzato, il rischio di evento e di default. Pertanto ci si concentra sul solo rischio idiosincratico, dando quindi per scontato che il riconoscimento di un modello che colga tale rischio sia comunque accompagnato dall’applicazione della maggiorazione per il rischio di evento (fattore di maggiorazione pari a 1). Per quanto riguarda il rischio specifico su titoli di capitale, nell’approccio Capital Asset Pricing Model (CAPM) viene identificato come componente residuale, analiticamente: Ri R f Rm R f ei 2Ri 2Rm 2 ei dove: Ri rappresenta il rendimento del titolo di capitale i-esimo. Rf rappresenta il risk free rate (in genere il rendimento dei titoli di stato ad un anno). rappresenta il grado del rischio sistematico del titolo azionario i-esimo. (Rm - Rf ) rappresenta il premio al rischio. ei rappresenta lo scarto. 2(Ri) rappresenta la volatilità del titolo azionario i-esimo (rischio complessivo) 2(ei) rappresenta la volatilità dello scarto (rischio specifico). Quando invece si utilizza come fattore di rischio le variazioni di prezzo del singolo titolo la componente individuale di rischio è incorporata nella misura di rischio. L’identificazione della componente di rischio specifico rispetto al rischio generico avviene attraverso l’ausilio di un modello CAPM, in base al quale 2Ri 2Rm 2 ei Per quanto concerne invece il rischio specifico per i titoli di debito, questo è rappresentato dallo spread risk. Tipicamente riguarda i titoli corporate con spread creditizio. Questa componente non è stata ancora validata a causa di una serie di problemi: - le quotazioni individuali dei titoli non sono sempre disponibili e spesso poco significative; - necessario lavoro sui dati individuali per raggrupparli (per classi di rating, settore, ecc); - problema di disomogeneità dei dati; - la costruzione di curve di spread non è cosi immediata come per titoli government (non è applicabile il bootstrapping), si rende quindi necessario utilizzare tecniche di interpolazione; - difficoltà di individuare la natura del rischio (idiosincratico, di evento, di categoria, residuale); - forte componente di rischio creditizio. Introduzione al Value at Risk per i rischi di mercato 353 Analiticamente il requisito patrimoniale calcolato con il modello interno è dato dalla seguente formula: Ct max VaRt -1 t * RSM t 1 , t * 1 60 1 60 VaR t -i t * RSM t i 60 i 1 60 i 1 [6.26] dove: Ct è il requisito patrimoniale al giorno t. VaRt-i è il valore a rischio calcolato secondo il modello per il portafoglio detenuto al giorno t-i. t è il fattore moltiplicativo, non inferiore a 3 (eventualmente aumentato a seguito del backtesting). t rappresenta il fattore moltiplicativo, che varia in relazione all'adeguatezza del modello interno a calcolare il rischio di evento o di inadempimento. Tale fattore assume valore 0 oppure 1 a seconda che la banca dimostri o meno di essere in grado di valutare adeguatamente tale rischio. Al massimo, quindi, il fattore moltiplicativo (t + t) può assumere un valore pari a 4. RSMt-i è l'ammontare di capitale destinato alla copertura dei rischi specifici degli strumenti finanziari sul portafoglio detenuto il giorno t-i, calcolato secondo il modello interno. Ai fini del calcolo della maggiorazione per il rischio specifico, il fattore moltiplicativo può essere applicato dalla banca a due misure alternative di valore a rischio (RSMt-i): la parte di rischio specifico della misura del VaR che dovrebbe essere isolata conformemente alle norme di vigilanza76; le misure del VaR di subportafogli di debito o di posizioni in titoli di capitale che contengono un rischio specifico. 76 In particolare, per i titoli di capitale, il sistema di misurazione dovrebbe impiegare un fattore di rischio distinto per ciascuno dei mercati mobiliari nei quali la banca detiene posizioni significative; mentre per i titoli di debito, il modello dovrebbe incorporare i fattori di rischio relativi ai tassi d’interesse di ciascuna valuta nella quale la banca detenga posizioni, iscritte in bilancio o fuori bilancio, che costituiscano un’esposizione al rischio di tasso d’interesse. 354 Capitolo 6 Le banche che utilizzano la seconda opzione individuano la loro struttura di subportafogli e la comunicano alla Banca d’Italia. La banca che intende modificare tale struttura chiede l’autorizzazione della Banca d’Italia, la quale si pronuncia entro i 30 giorni successivi alla richiesta; il termine è sospeso nel caso di richiesta di informazioni aggiuntive. Le banche possono utilizzare una combinazione tra metodologia standardizzata e modello interno a condizione che ciascuna categoria generale di rischio sia valutata sulla base di un unico approccio (modelli interni o metodo standardizzato) e che tutti gli elementi del rischio di mercato siano misurati77. In particolare: I coefficienti patrimoniali calcolati in base al metodo standardizzato e ai modelli interni dovranno essere aggregati mediante sommatoria semplice. Le banche che usano modelli interni solo per alcune categorie di rischio dovranno estendere quanto prima i loro modelli a tutti i rischi di mercato cui sono esposte. La banca che abbia adottato uno o più modelli interni non può chiedere di tornare a utilizzare la metodologia standardizzata per la misurazione dei rischi già valutati mediante tali modelli. Le banche possono chiedere alla Banca d'Italia di modificare la combinazione dei due approcci solo nel senso di un maggiore utilizzo del modello interno. Qualora la Banca d'Italia non sollevi obiezioni alla modifica nei 60 giorni successivi alla comunicazione, la banca può utilizzare la nuova combinazione per il calcolo dei requisiti patrimoniali; il termine è sospeso nel caso di richiesta di informazioni aggiuntive. Nel caso in cui la banca adotti una combinazione che preveda il calcolo del rischio specifico di posizione su titoli secondo la metodologia standardizzata, il requisito patrimoniale è definito dalla seguente formula78: 77 Per categoria generale di rischio si intende uno dei rischi per i quali è definito uno specifico requisito patrimoniale. 78 Si ipotizzi che in data 14 giugno 2002 si abbia un portafoglio composto di azioni con i seguenti valori di mercato di cui si intende calcolare il requisito patrimoniale per il rischio di Introduzione al Value at Risk per i rischi di mercato 355 1 60 C maxVaR t 1 , t * VaRt i RSSt 1 60 i 1 dove: [6.27] Ct è il requisito patrimoniale al giorno t. VaRt-i è il valore a rischio calcolato secondo il modello per il portafoglio detenuto al giorno t-i. t è il fattore moltiplicativo, non inferiore a 3. RSSt-1 è l’ammontare supplementare di capitale per la copertura dei rischi specifici degli strumenti finanziari sul portafoglio detenuto il giorno t-i, calcolato secondo la metodologia standardizzata. Il calcolo del VaR deve essere effettuato su base giornaliera e deve prevedere un intervallo di confidenza unilaterale del 99 per cento ed un periodo di detenzione pari a 10 giorni79. Inoltre, il periodo storico di osservazione, per il calcolo dei parametri di volatilità e correlazioni, deve riferirsi ad almeno un anno precedente, tranne nel caso in cui un aumento improvviso e significativo delle volatilità dei prezzi giustifichi un periodo di posizione generico. In particolare, in tale data i valori per le singole azioni e per il portafoglio complessivo sono dati da: MTM Telecom SpA BNL SpA FIAT SpA Portafoglio 840.379 816.385 807.855 2.464.619 VaR95% VaR95% 14 giugno 2002 media ultimi 60 giorni 30.618 32.249 33.602 80.632 35.947 36.207 37.425 86.517 Max VaR99%, (VaR95% * 2,33/1,645) 48.086 51.496 47.707 122.643 Il requisito patrimoniale per il rischio di posizione generico, calcolato sulla base del modello interno, risulta essere quindi compreso 367.928 euro (fattore moltiplicativo pari a 3) e 490.570 euro (fattore moltiplicativo pari a 4) a seconda del giudizio formulato dalla vigilanza sulla rispondenza del modello ai requisiti qualitativi e quantitativi determinati. Il requisito patrimoniale per il rischio di posizione specifico, determinato con la metodologia standard, è dato dalla seguente formula: requisito di vigilanza = [|posizione lunghe| + |posizione corte|] * 8% Nell’ipotesi analizzata è pari a 197.110 euro (2.464.619 * 8%). Quindi il rischio di posizione complessivo (generico + specifico) è dato dalla somma dei due valori. 79 La scelta di richiedere un holding period di 10 giorni è stata una scelta di compromesso. Si è voluto mediare tra i diversi gradi di liquidità dei mercati su cui vengono negoziati i valori mobiliari. Alcuni, quelli più liquidi, consentirebbero la chiusura delle posizioni anche prima di 10 giorni, mentre per altri si pone esattamente il problema opposto. 356 Capitolo 6 osservazione più breve80. Per le banche che impiegano sistemi di ponderazione, il periodo di osservazione può risalire ai 6 mesi precedenti in termini di media ponderata (possibilità di applicare fattori di decadimento in maniera di dare maggiore rilevanza ai dati più recenti). Le serie di dati utilizzate devono essere aggiornate con frequenza almeno trimestrale. Le banche procedono ad aggiornamenti più frequenti ogniqualvolta le condizioni di mercato mutino in maniera sostanziale. Per il calcolo del VaR, le banche possono utilizzare correlazioni empiriche nell'ambito della stessa categoria di rischio e fra categorie di rischio distinte. La Banca d'Italia accerta che il metodo di misurazione delle correlazioni della banca sia corretto e applicato in maniera esaustiva. Per quanto riguarda le “analisi retrospettive” (c.d. backtesting) la normativa richiede che venga effettuato un test che metta a confronto il VaR, calcolato secondo il modello interno, con la variazione effettiva del portafoglio, al fine di verificare che le misure di rischio elaborate dalla banca al 99° percentile coprono effettivamente il 99% dei risultati di negoziazione, ossia, in termini statistici, che la percentuale osservata dei risultati economici il cui valore è inferiore al VaR sia conforme al livello di confidenza del 99%. Peraltro, è richiesto espressamente dalla vigilanza, che il risultato reddituale possa essere disaggregato per portafogli al fine di consentire anche lo svolgimento di backtesting per fattori di rischio. Il test cosi strutturato, però, pone a confronto due grandezze tra loro disomogenee. Infatti, la misura di rischio considerata esprime il rischio del portafoglio al tempo 0, mentre il dato reddituale effettivo posto a confronto è calcolato tenendo conto delle posizioni al tempo 1 e di altre componenti (quali l’operatività intraday, ecc.). Il confronto è quindi alterato in quanto la misura di rischio e la componente reddituale non sono stimati in riferimento a due portafogli omogenei. Si rende quindi necessario conciliare le caratteristiche del risultato reddituale gestionale con 80 Il periodo di un anno è ritenuto sufficientemente lungo da ricomprendere shock di mercato significativi. Il problema, in genere evidenziato dalle banche, è che esso non rende il VaR abbastanza sensibile ai dati più recenti. Introduzione al Value at Risk per i rischi di mercato 357 quello utilizzabile ai fini della validazione 81. Stante la difficoltà di riconciliazione dei due risultati reddituali, la stessa Autorità di Vigilanza può richiedere di effettuare un secondo tipo di test retrospettivo sulla base di variazioni ipotetiche del valore del portafoglio, calcolate mantenendo invariate le posizioni di fine giornata. Tale test valuta, in maniera più rigorosa dal punto di vista statistico, la capacità previsionale del modello ponendo a confronto due grandezze calcolate entrambi sulla stessa composizione di portafoglio82. La formula per il calcolo dei requisiti patrimoniali prevede un fattore moltiplicativo (hysteria factor) almeno pari a 3 da applicare al VaR stimato col modello interno. In funzione del numero degli scostamenti83 – registrati nell’arco di 12 mesi – si applica un diverso fattore di maggiorazione, riportati nella tabella seguente, che si aggiunge al fattore moltiplicativo 3 84. Tabella 6.4 - Fattori di maggiorazione. Numero di scostamenti meno di 5 5 6 7 8 9 10 o più Fattore di maggiorazione 0,00 0,40 0,50 0,65 0,75 0,85 1,00 La banca deve notificare prontamente alla Banca d’Italia gli scostamenti risultanti dal programma di test retrospettivi che hanno 81 In particolare, dal risultato reddituale gestionale vanno escluse le seguenti voci: commissioni pagate; costo del finanziamento; operazioni aperte e chiuse nel corso della giornata (operatività intraday); operazioni aperte nel corso della giornata; cedole maturate (accrual); tutte le componenti reddituali che non riguardano il trading book (operazioni di tesoreria che riguardano il banking book, ecc.). 82 Sebbene del disposto normativo si legge che la vigilanza riconosca pari dignità ai due test menzionati, in realtà sembrerebbe che attribuisca maggior rilevanza al test di secondo tipo anche se il test con il reddito effettivo non va trascurato dal momento che mostra il rapporto tra il VaR (sulla base del quale viene calcolato il requisito patrimoniale) e il reddito effettivamente realizzato dalla banca quel giorno. 83 Si ha uno scostamento quando la variazione effettiva del valore del portafoglio supera il VaR calcolato secondo il modello interno. 84 I risultati sono riferiti ad un periodo di osservazione pari a 250 giorni. - 358 Capitolo 6 determinato l’aumento del fattore di maggiorazione; peraltro la stessa banca può richiedere all’organo di vigilanza l’esonero dalla correzione del fattore di moltiplicazione, qualora lo scostamento sia imputabile a fattori eccezionali. Quando il numero degli scostamenti risulta essere eccessivo, la Banca d’Italia può imporre misure correttive al modello al fine di ottenere una stima del rischio più attendibile. Qualora, nonostante tali correttivi, il modello produca un numero di scostamenti superiore a quello atteso, l’organo di vigilanza può revocare il riconoscimento del modello interno. La normativa prevede che la Banca d’Italia, pur in caso di validazione del modello, possa indicare gli eventuali punti non pienamente conformi con gli standard richiesti e fissare di conseguenza un requisito patrimoniale aggiuntivo (ulteriore rispetto all’hysteria factor e alla maggiorazione dovuta dall’esito del backtesting). La regolamentazione è basata su un sistema di incentivi, nel senso che tale ulteriore requisito, per il quale non è stabilito alcun limite minimo o massimo, viene ridotto qualora la banca abbia rimosso le criticità. In definitiva, le tre aree che concorrono a determinare il giudizio sul modello e, quindi, il requisito aggiuntivo sono: organizzazione e processi di controllo del rischio; modello di calcolo del rischio; sistemi informativi. Nella valutazione delle tre aree la vigilanza tiene conto anche dell’affidabilità dell’attività di internal audit svolta sull’intero processo di risk management85. 85 Oltre al requisito aggiuntivo possono essere attivati altri meccanismi compensativi di natura procedurale-organizzativa che consentono di mantenere sotto controllo il processo di assunzione dei rischi. Vi è una sorta di trade-off tra criteri quantitativi e qualitativi. Ad esempio eventuali punti critici del sistema di misurazione dei rischi potrebbero essere ritenuti compensati da un più accurato e rigoroso sistema di limiti operativi che scenda in profondità nella gestione della banca. Introduzione al Value at Risk per i rischi di mercato 359 6.4.4 Per una vigilanza incentive-compatible nello sviluppo dei modelli interni Il fattore di moltiplicazione è calibrato dalle Autorità di Vigilanza in funzione della bontà del modello interno valutata con i test retrospettivi: minore è il numero di “eccezioni” realizzate più vicino a tre sarà l’elemento moltiplicativo e, quindi minore, sarà il conseguente requisito di patrimonializzazione. Si fa notare che l’attuale schema di graduazione del fattore di moltiplicazione può generare effetti perversi nel comportamento degli intermediari, rispetto al miglioramento dei modelli proprietari di stima del rischio. Il contratto implicito tra organo di controllo e soggetto vigilato prevede, infatti, la possibilità di utilizzare i modelli solo se questi dimostrano una adeguata capacità di stimare il rischio, in caso contrario deve esistere un meccanismo di penalizzazione credibile, disincentivante rispetto all’adozione di modelli inadeguati. Questo meccanismo è individuato dall’attuale normativa in una graduazione del fattore di moltiplicazione FM(v), in funzione del numero v di violazioni realizzate rispetto al VaR previsto nel modello interno. Il requisito di capitale (RCrm), a fronte del rischio di mercato, è allora esprimibile come segue: RCrmt 1 max VaR t ( T , ); FM ( v ) 1 59 VaR t 1 (T , ) RS t 60 i 0 [6.28] dove FM(v) è il fattore di moltiplicazione, variabile tra 3 e 4 a seconda della bontà del modello; VaR(T,) indica il VaR decadale su un intervallo di confidenza (100-) con = 1; infine RSt è un onere di capitale addizionale a fronte del rischio specifico di portafoglio86. Il requisito patrimoniale cui l’intermediario dovrà far fronte su base giornaliera sarà così pari al maggiore tra le due quantità in parentesi, ossia al massimo tra il requisito dedotto dal 86 Nel settembre 1997 l’Amendment è stato integrato per tener conto del rischio specifico di strumenti legati ad azioni e tassi di interesse, consentendo alle banche che già soddisfano i requisiti quali-quantitativi di calcolo del rischio generale di mercato, di utilizzare i modelli proprietari anche per il calcolo del rischio specifico, sottoposti ad un ulteriore set di condizioni. Cfr. Basle Committee on Banking Supervision di Basilea “Modifications to the Market Risk Amendment” Banca dei Regolamenti Internazionale, settembre, 1997. 360 Capitolo 6 valore a rischio del giorno precedente e quello calcolato sulla media del VaR degli ultimi 60 giorni, maggiorato del fattore moltiplicativo FM(v). In questo modo, si ottempera sia all’esigenza di considerare giorni di particolare rischiosità del portafoglio, sia a quella di mantenere una stabilità dei requisiti patrimoniali, grazie all’effetto della media. L’effetto dell’elevato fattore di moltiplicazione FM(v), comunque, fa si che il requisito patrimoniale venga calcolato essenzialmente in base al secondo elemento in parentesi. FM(v), nelle previsioni di Amendment, varia da un minimo assoluto di 3 ad un massimo di 487 (quest’ultimo valore maggiorabile a discrezione delle singole Autorità di Vigilanza nazionali). Il Comitato di Basilea ha sottolineato come il fattore di add-on compreso tra 0 ed 1 fornisca un incentivo alla costruzione di modelli VaR più accurati: minore è il numero delle eccezioni realizzate (ossia il numero di volte nelle quali la perdita effettiva realizzatasi sul portafoglio è maggiore di quanto previsto nel modello VaR), più vicino a tre sarà l’elemento moltiplicativo e, quindi, minore il conseguente requisito di patrimonializzazione. Si vuole qui rilevare, tuttavia, come la struttura dell’incentivo sia completamente dominata dalla componente fissa pari a tre, la quale elimina qualsiasi vantaggio potenziale di raggiungere un grado di precisione del modello tale che l’add-on sia pari a 0. A tal fine potrebbe ritenersi utile individuare un valore di indifferenza del fattore di moltiplicazione tra il VaR corrispondente all’approssimazione normale e il VaR calcolato con un metodo più sofisticato: questo valore indica il fattore di moltiplicazione Fm(i) da applicare al metodo semiparametrico affinché i due metodi siano indifferenti rispetto al requisito di capitale generato. Posto. RC rm( N ) VaR( N ) 10 FM ( v ) RC rm( V ) VaR( V ) 10 FM i( v ) [6.29] 87 Tale incremento dipende dai risultati dei test retrospettivi e dal conseguente posizionamento sulle tre zone di classificazione dell’accuratezza del modello. Introduzione al Value at Risk per i rischi di mercato 361 dove RCrm(N) rappresenta il requisito di capitale corrispondente all’approssimazione normale ed RCrm (v) il requisito corrispondente all’utilizzo di un metodo alternativo. Uguagliando le due espressioni ed esprimendole in funzione di FMi(v) si ha FMi(v)=FM(v)*VaR(N)/VaR(v) [6.30] ove il rapporto tra le due stime VaR fornisce il fattore di scala da applicare all’FM(v) per ottenere il fattore di moltiplicazione di indifferenza. Supponendo che VaR(N) sia eguale a 4,1 e VaR(v) a 5,4, FMi(v) è pari a 2,3 che è significativamente minore a 3. Nello schema descritto, l’onere di capitale benchmark a fronte del rischio di mercato è quello individuato con l’utilizzo della distribuzione normale, ma il fattore di moltiplicazione minimo è in funzione dell’utilizzo di metodi migliori della normale. Secondo l’approccio di Vigilanza, ogni metodo di valutazione, per quanto accurato, poiché comporta stime più elevate della massima perdita probabile (in % anche non ampie) rispetto ad un modello più approssimato, non risulta conveniente alla banca di implementarlo ai fini dei requisiti patrimoniali. L’onere massimo dell’imprecisione è solo del 33% rispetto all’onere minimo del capitale, per cui è plausibile ipotizzare che l’intermediario preferisca la comminazione di una pena da parte della vigilanza, piuttosto che sopportare immediatamente un aggravio del livello di patrimonio adeguato ai nuovi rischi stimati dal VaR. Le considerazione esposte possono essere ulteriormente affinate considerando l’avversione al rischio dell’organo di Vigilanza.. Riscrivendo il fattore di proporzionalità: VaR( N ) VaR( V ) VaR( N ) *VaR a [6.31] (V ) dove l’esponente a, finora considerato implicitamente pari a 1, esprime l’avversione al rischio dell’organo di Vigilanza. Per valori di a maggiori di 1 si osserva una diminuzione dell’onere del capitale rispetto a quello calcolato con shift semplice. Un livello più elevato di a implica una minore avversione al rischio da parte dell’organo di Vigilanza. Poiché il fattore Fm i(v) è minore del suo 362 Capitolo 6 valore di indifferenza, il requisito di capitale in corrispondenza di metodologie VaR più esatte risulterà minore. Per una corretta applicazione occorre stabilire una relazione funzionale tra il numero di exceptions (ossia il numero di volte, nell’orizzonte temporale di riferimento dei test retrospettivi, nelle quali la perdita effettiva registrata sul portafoglio è maggiore rispetto alla massima perdita probabile prevista nel modello proprietario) ed i valori dell’esponente. L’individuazione di queste relazioni potrebbe essere oggetto di un ulteriore approfondimento. 6.4.5 Prove di stress La natura statistica del VaR e le approssimazioni semplificatrici adottate dalle banche, nell’implementare i modelli di calcolo, hanno convinto le Autorità di Vigilanza ad imporre, quale misura di controllo del rischio complementare al VaR, un adeguato e completo programma di prove di stress per il presidio di eventi e fattori che potrebbero incidere gravemente sulla posizione della banca. Tali prove, che vanno condotte periodicamente al fine di cogliere i mutamenti nel profilo di rischio del portafoglio, devono essere comunicati regolarmente all’alta direzione e, periodicamente, al consiglio di amministrazione. Gli scenari di stress utilizzati, devono contemplare un’ampia gamma di fattori in grado di generare perdite e guadagni straordinari nei portafogli di negoziazione o di rendere particolarmente difficoltoso il controllo dei rischi. Fra tali fattori rientrano eventi a bassa probabilità concernenti tutte le principali fattispecie di rischio, ivi incluse le varie componenti dei rischi di mercato, di credito e operativi. Gli scenari di stress devono poter mettere in evidenza l'impatto di questi eventi sulle posizioni con caratteristiche di prezzo sia lineari che non lineari (ad esempio opzioni e strumenti con comportamento analogo). Le prove di stress, devono essere di natura sia quantitativa sia qualitativa e contemplare tanto il rischio di mercato quanto gli effetti di liquidità generati da turbative di mercato. La normativa individua due tipologie di prove di stress a) Prove di stress definite dalla Banca d’Italia; Introduzione al Value at Risk per i rischi di mercato 363 Prove che non richiedono simulazioni da parte delle banche. Al fine di consentire alla Banca d’Italia di valutare quanti giorni di perdite massime sarebbero coperti da una data stima del valore a rischio, le banche comunicano alla Banca d’Italia i dati sulle perdite più elevate subite durante il periodo di segnalazione. Questi dati vengono raffrontati con la copertura patrimoniale derivante dal modello interno della banca in modo da valutare la capacità del patrimonio di vigilanza di assorbire ingenti perdite potenziali. Prove che richiedono simulazioni da parte delle banche. Le banche sottopongono i propri portafogli a vari scenari di stress simulati e forniscono i relativi risultati alla Banca d'Italia. Si tratta di prove volte ad evidenziare le specificità dei singoli portafogli. Un primo tipo di scenario, comprende periodi passati di forte perturbazione tenendo conto sia degli ampi movimenti di prezzo sia della forte riduzione della liquidità che si è accompagnata a questi eventi (historical scenarios). Un secondo tipo di scenario misura la sensibilità dell'esposizione ai rischi di mercato a determinate variazioni nei parametri presuntivi di volatilità e correlazione (historical volatility scenarios). La normativa non prevede che le prove di stress riguardino scenari standard, anche se ciò sarebbe utile per confrontare i risultati nel tempo b) Prove di stress condotte dalle singole banche Al fine di cogliere le specificità del proprio portafoglio, ciascuna banca deve individuare situazioni di stress che essa considera massimamente sfavorevoli. Tali prove dovrebbero essere effettuate sia a livello di portafoglio complessivo sia a livello di singoli desk o per fattori di rischio. Le banche forniscono alla Banca d'Italia una descrizione della metodologia impiegata per definire e testare gli scenari di stress e dei risultati ottenuti. Gli scenari dovrebbero descrivere situazioni straordinarie di mercato ma al tempo stesso risultare 364 Capitolo 6 plausibili88. La selezione degli scenari deve tener conto del profilo di rischio della banca e delle assunzioni semplificatrici previste dal modello di calcolo del VaR. I risultati dei test sono periodicamente riesaminati dall'alta direzione della banca e devono trovare riflesso nelle linee operative e nei limiti di esposizione fissati dall’alta direzione e dal consiglio di amministrazione. Inoltre, se tali risultati indicassero una particolare vulnerabilità di fronte ad una data serie di circostanze, la banca sarebbe tenuta ad adottare idonee misure per gestire adeguatamente i rischi. Le banche devono combinare le prove di stress definite dalla Banca d'Italia con quelle da loro elaborate in funzione alle caratteristiche delle proprie posizioni aperte al rischio e delle proprie aspettative circa l’evoluzione dei fattori di rischio rilevanti. 88 Alcune delle tipologie più diffuse di prove di stress, anche a livello internazionale, sono quelle di seguito riportate: - movimenti paralleli della curva dei tassi d’interesse; - cambiamenti di inclinazione della curva dei tassi; - combinazione dei primi due scenari (cambiamento forma curve); - cambiamenti delle correlazioni tra curve dei tassi diverse (per divisa); - mutamenti della volatilità e del livello degli indici dei mercati azionari; - mutamenti della volatilità e del valore dei principali tassi di cambio; - mutamento delle correlazioni fra i principali fattori di rischio. 7 Introduzione alle metodologie di misurazione del rischio di credito 7.1 Dall’eliminazione alla gestione del rischio di credito – 7.2 Il rischio di credito nella gestione bancaria – 7.3 Gli elementi caratterizzanti del rischio di credito – 7.4 La probabilità di default – 7.4.1 La definizione dello stato di insolvenza – 7.4.2 La scelta dell’orizzonte temporale di riferimento – 7.5 Il tasso di perdita in caso di insolvenza – 7.5.1 Fattori che determinano il tasso di perdita in caso di default – 7.5.2 Metodi di stima della LGD: cenni – 7.5.3 La distribuzione della LGD: la Beta – 7.5.4 Modello LossCalc di Moody’sKMV: cenni – 7.6 La valutazione dell’esposizione a rischio di default – 7.7 La perdita attesa e inattesa della singola esposizione – 7.8 Limiti e problemi dell’approccio binomiale. L’approccio multinomiale – 7.9 Dalla perdita della singola esposizione alla perdita di portafoglio – 7.10 La distribuzione delle perdite ed il capitale economico – Appendici al Cap. 7 – Appendice 7.A. Probabilità di default e time horizon: aspetti formali – Appendice 7.B. La distribuzione Beta – Appendice 7.C. Derivazione di ULMCi. 7.1 Dall’eliminazione alla gestione del rischio di credito Il sistema bancario italiano si è storicamente caratterizzato per un peculiare atteggiamento nelle modalità di assegnazione dei giudizi di affidamento e nelle politiche dei prestiti, connotato da due fondamentali linee. La prima si può individuare nell’onerosa e spesso ingiustificata richiesta di garanzie reali o personali ai soggetti richiedenti l’affidamento. Secondo quest’approccio il ”buon” prenditore era colui il quale fosse disposto ad offrire idonee malleverie, a prescindere dalla sua solidità patrimoniale o dalla bontà del progetto da finanziare. 408 Capitolo 7 La seconda si sviluppa con la prassi dei fidi multipli, caratterizzati da un frazionamento spinto del portafoglio commerciale. I due approcci, pur comportando una forte inefficienza a livello di sistema, hanno consentito alle banche di operare in condizioni di relativa stabilità. Essi hanno anche fortemente sminuito la capacità del management bancario italiano di valutare progetti e prenditori. L’accrescimento della competitività nel mercato del credito, a seguito dell’introduzione dell’euro, ha inciso negativamente su questo sistema protetto, riducendo gli spread nei tassi attivi e nei margini di profitto e spingendo le banche ad assumere un atteggiamento più aggressivo. D’altra parte, la scarsa capacità del management bancario di selezionare e di monitorare le linee di credito ha, tuttavia, prodotto un forte deterioramento della qualità con un aumento sensibile delle sofferenze. Tali circostanze hanno indotto gli intermediari ad implementare idonei modelli e procedure in grado di fronteggiare la maggiore incertezza che caratterizza il mutato contesto competitivo del mercato finanziario e del credito, consentendo di valutare in maniera più accurata ed efficiente le condizioni di rischiosità degli impieghi. A questo processo evolutivo non sono ovviamente estranee le Autorità di Vigilanza, che, a partire dalla fine degli anni novanta, hanno avviato un processo di riforma fortemente innovativo degli accordi esistenti, che consentirà una più sensibile misurazione e allocazione del capitale rispetto all’effettivo rischio di credito, riconoscendo a livello istituzionale la validità dei giudizi espressi per mezzo di sistemi di rating. In prospettiva, gli intermediari faranno ricorso a un sistema di valutazione del giudizio di affidabilità espresso, non più in “forma argomentata” e con modalità dicotomica, ma attraverso misure multidimensionali in grado di catturare le diverse variabili che su queste incidono. Sul piano organizzativo, il fenomeno delineato porterà le istituzioni creditizie a dotarsi al loro interno di opportune entità organizzative, quali sistemi di CRM (Credit Risk Management), caratterizzate da un complesso delle risorse umane, tecniche e informatiche, finalizzate alla misurazione e gestione del rischio di credito ed alla allocazione efficiente del capitale d’impresa. Il rischio di credito 409 La novità più importante di tale cambiamento, che da alcuni viene definito epocale, sta forse nel mutato habitus mentale dei credit manager nei confronti del rischio. Se in passato il rischio era concepito come un fattore critico da individuare ed eliminare, oggi è considerato come una variabile da misurare e gestire. 7.2 Il rischio di credito nella gestione bancaria La letteratura sul rischio di credito è multidisciplinare, poiché si avvale sia dell’economia aziendale, che di metodologie, tecniche e strumenti quantitativi. L’analisi del rischio di credito può svolgersi, come mostrato nella Fig. 7.1, lungo tre direttrici che individuano: a) la delimitazione dell’oggetto e l’individuazione delle variabili-chiave esplicative; b) la valutazione dell’impatto sulla struttura organizzativa; c) lo sviluppo e l’analisi dei modelli teorici di misurazione. Con riferimento al punto sub a), la puntualizzazione può apparire ridondante: ogni analisi richiede la preventiva esplicitazione e delimitazione del proprio oggetto d’indagine, che nel caso del rischio di credito assume particolari connotazioni. In generale, si può affermare che tale oggetto di indagine dovrebbe focalizzarsi sulle fonti di incertezza, che generano improvvise variazioni nel corso del tempo del valore di mercato di un prestito. Premesso che il rischio trae origine dall’impossibilità di possedere una perfetta conoscenza delle cause che concorrono alla determinazione del risultato di un fenomeno posticipato nel tempo, le problematiche del rischio di credito derivano dalla difficoltà di individuare la rischiosità di un soggetto e dalle asimmetrie informative, che sono ampliate anche dalla valutazione dei costi opportunità. Quest’ultimi si concretizzano in un mancato guadagno per un finanziamento non concesso ad un soggetto ritenuto erroneamente non affidabile. Il riconoscimento del livello di rischio associato ad una controparte, inoltre, non si limita al solo momento di erogazione del fido, ma deve essere monitorato nel tempo allo scopo di individuare e valutare eventuali cambiamenti nelle sue condizioni economico-patrimoniali. 410 Capitolo 7 Figura 7.1 - Le tre dimensioni dell’analisi del rischio di credito Delimitazione dell’oggetto di indagine Modellizzazione Impatto organizzativo Approccio gestionalefinanziario Approccio matematicostatistico Con riferimento al punto sub b), osserviamo che ogni elemento di innovazione nei modelli e nei paradigmi gestionali di un’impresa deve avere un impatto diretto sul suo assetto organizzativo. Ancora una volta, l’area della gestione del rischio di credito si caratterizza come più critica e allo stesso tempo molto complessa. La spiegazione più evidente è legata alla natura delle informazioni che si collocano “a monte” dei processi di misurazione. Ai fini dell’affidamento, gli analisti acquisiscono ed elaborano una serie di informazioni prevalentemente ricercate all’interno della stessa organizzazione bancaria nell’ambito dei rapporti di clientela. Se nel lungo periodo la possibilità di elaborare delle serie storiche relative ai propri affidati, con opportune operazioni di data mining, può essere di grande ausilio per un corretto apprezzamento del rischio del portafoglio commerciale, nel breve costituisce una vera e propria sfida per le banche – specie quelle di piccole dimensioni – che devono affrontare un radicale re-engineering dei processi. In particolare, dovranno irrobustire il loro sistema informativo per far fronte all’enorme onere di dati, sia in termini di volumi di carico, che di elaborazione degli stessi. La scarsa frequenza del fenomeno Il rischio di credito 411 del default non fa che aumentare le esigenze dimensionali dei data warehouse bancari. Il punto sub c), nonostante la sua preminenza nell’ambito delle analisi sul rischio, appare abbastanza autoesplicante. I modelli per la gestione del rischio di credito di portafogli commerciali sono mutuati da quelli per la misurazione del rischio di mercato dei portafogli di negoziazione. Come osservato, però, la natura del rischio di credito, e in particolare dei dati in input ai processi di misurazione, non permette un’immediata traslazione dei modelli di mercato sulla valutazione dei fidi, anche in ragione della relativa rarità del default rispetto agli eventi di perdita sui portafogli di trading. Come rilevato “a monte” di queste osservazioni, si può indagare sul fenomeno avvalendosi di adeguati modelli organizzativogestionali supportati da robusti modelli di analisi quantitativa. Al riguardo, la Figura 7.1 mostra che il problema di una chiara percezione e formalizzazione del concetto di rischio è essenziale in entrambi gli approcci, evidenziando un’area d’interposizione, prodotta dalle interazioni tra i profili gestionali e le valutazioni sulle problematiche di misurazione e viceversa. L’analisi successiva s’incentrerà, in particolare, sullo studio dei modelli di misurazione, pur nella consapevolezza che il rischio di credito non deve essere concepito in modo autonomo e completamente svincolato dalle altre forme di rischio. In effetti, gli accademici e i supervisori prospettano un mondo ideale in cui, secondo un approccio di tipo top-down, il management è chiamato ad impostare le linee guida per la gestione del rischio, che devono poi essere implementate attraverso un processo integrale lungo tutte le aree d’affari. Tuttavia, la prassi, da un lato, e lo stato dell’arte della letteratura concernente la modellistica, dall’altro, pongono forti limitazioni a tale impostazione. Allo stato attuale delle conoscenze non si dispone di un modello in grado di affrontare la gestione del rischio su base consolidata, integrando in un unico processo di valutazione omogeneo e coerente tutte le tipologie di rischi finanziari (ed eventualmente non finanziari) a tutti i livelli della struttura organizzativa. La modellistica all’uopo esistente è di tipo settoriale, 412 Capitolo 7 in grado di valutare l’impatto congiunto di più fonti di incertezza rispetto a specifici business o specifici strumenti finanziari1. Una seconda considerazione è di ordine più squisitamente didattico. Un’analisi puntuale dei modelli e delle procedure di misurazione e gestione richiede, comunque, una individuazione e una misurazione singola e congiunta delle diverse tipologie di rischio, per poi valutarne l’impatto sulle performance e sulla creazione di valore per l’impresa bancaria. 7.3 Gli elementi caratterizzanti del rischio di credito Il valore di mercato di un titolo di credito, di qualunque natura esso sia, può essere espresso come somma dei futuri flussi di cassa cui il credito dà origine, scontati in base ad un dato tasso d’interesse. Più formalmente, indicando con F = {F1,F2,…,Fh,…,FT} il vettore degli importi promessi dal titolo, con t = {t1,t2,…,th,…,tT} lo scadenziario previsto dal titolo e con i = {i1,i2,…,ih,…,iT} il vettore dei tassi d’interesse applicati in fase di valutazione, il valore del titolo (LV0) può essere così espresso: LV0 (F, T, i) F1 1 i1 F2 1 i2 ... FT 1 iT 1 T Ft 1 it t 1 2 T t [7.1] In realtà, all’apparente semplicità che emerge nella derivazione del valore di mercato del titolo, si contrappongono importanti elementi di incertezza sulla futura determinazione delle variabili prese in considerazione. Come è noto, il tasso di interesse richiesto per gli investimenti soggetti a rischio di insolvenza è pari al tasso delle attività prive di rischio, maggiorato di uno spread direttamente proporzionale al rischio assunto. È evidente, quindi, che una variazione dei tassi privi di rischio, ovvero del grado di rischio associato ad una controparte, genera una corrispondente 1 Molto spesso questi modelli sono volti a fissare un sistema di limiti nell’assunzione di esposizioni verso particolari strumenti derivati da parte delle imprese bancarie. Ad esempio, nel caso degli swap si cerca di valutare il duplice impatto che può avere sia la variazione dei tassi di mercato di riferimento sia il fallimento della controparte. Si valuta, cioè, l’intersezione tra rischio di tasso e rischio di credito. Il rischio di credito 413 variazione dei fattori di sconto, in funzione dei quali si procede all’attualizzazione dei flussi di cassa. Inoltre, proprio perché soggetto ad insolvenza, lo stesso vettore dei flussi di cassa può subire delle variazioni sia in termini di importi, che della cadenza temporale. Dalle fonti d’incertezza evidenziate se ne deduce che il valore di mercato di un credito è soggetto ad improvvise variazioni nel corso del tempo. In tali variazioni si concretizza il rischio di credito. In termini più formali il rischio di credito può essere definito come: “la possibilità che una variazione inattesa del merito creditizio di una controparte nei confronti della quale esiste un’esposizione generi una corrispondente variazione inattesa del valore di mercato della posizione creditoria”2. Da tale formulazione discende un importante corollario: il concetto di rischio di credito non è circoscritto al solo evento insolvenza (rischio di default), ma si estende anche all’ipotesi di deterioramento del grado di solvibilità della controparte e al conseguente alterarsi del valore di mercato dei suoi debiti (rischio di spread). Una trattazione del rischio di credito, ai fini di una sua corretta misurazione, richiede l’analisi dei suoi “driver” fondamentali, quali: a) una distribuzione di probabilità sull’evoluzione futura del merito creditizio del debitore; b) il tasso di perdita in caso di insolvenza; c) l’esposizione in caso di default. 7.4 La probabilità di default 7.4.1 La definizione dello stato di insolvenza Una chiara ed esplicita definizione del concetto d’insolvenza è essenziale per rimuovere le possibili ambiguità metodologiche. Con il termine insolvenza si qualificano tutte le situazioni in cui il 2 Cfr. Sironi A. (2000), pp. 42 ss. 414 Capitolo 7 debitore possa essere sia inadempiente, che incapace di onorare le proprie obbligazioni contrattuali. La capacità del debitore di adempiere le obbligazioni assunte dipende dall’andamento nel corso del tempo di una serie di elementi, di natura endogena ed esogena all’impresa stessa. Tra i primi, figurano la capacità dell’impresa di generare profitti, tali da permettere il rimborso del debito alle scadenze stabilite e il normale proseguimento della gestione. Tra i secondi, invece, va annoverato l’andamento prospettico e congiunturale del mercato in cui l’impresa opera. Attraverso l’assegnazione di una distribuzione di probabilità si cerca di formalizzare l’incertezza sugli eventi futuri. Al riguardo, si pone l’esigenza di individuare, su basi oggettive, gli eventi che possono avere un potere segnaletico nei confronti dell’insolvenza e, quindi, di valutare l’intensità del segnale in funzione della probabilità di default. Ad esempio, atteso il valore segnaletico dell’irregolarità dei pagamenti, è necessario fissare una discriminazione tra ritardi che possono definirsi fisiologici e ritardi patologici, che sono da ritenersi manifestazione di uno stato di insolvenza del debitore. Dal punto di vista della modellistica, può essere importante chiarire il legame che sussiste tra l’adempimento e l’evento o gli eventi segnaletici. Ad esempio, si può ritenere che l’inizio di un’azione legale, da parte di uno dei creditori nei confronti dell’obbligato, sia espressione di uno stato di insolvenza e, quindi, di inadempimento. In effetti, si potrebbe valutare l’ipotesi che l’azione del creditore non sortisca effetti sul debitore, il quale potrebbe essere in grado di onorare il debito; ciò equivale a ritenere che l’inadempimento, in seguito all’azione giudiziaria, sia semplicemente un evento probabile. Ovviamente, se, dato il segnale S e l’evento inadempimento A, la dipendenza di A da S è di tipo logico, allora è possibile ragionare esclusivamente sulla probabilità di S per avere anche le informazioni sulla probabilità di A; viceversa, se tra A ed S si assume una dipendenza stocastica, allora si introduce un grado di difficoltà in più e diventa necessario stimare P(A | S), ossia la probabilità condizionata di A, dato S. La valutazione oggettiva di tali eventi3 ha consentito di passare 3 Sotto questo aspetto, come verrà approfondito nel secondo capitolo, le innovazioni maggiori sono state introdotte nel Nuovo Accordo di Basilea che ha accolto due definizioni di default: di tipo soggettivo e di tipo oggettivo. Il rischio di credito 415 dall’impiego di approcci dicotomici, diretti alla previsione di uno dei due soli stati entro cui l’obbligato può ricadere (solvibile/non solvibile), all’impiego di approcci cardinali o ordinali, mirati all’individuazione della posizione relativa del cliente all’interno di una più o meno ampia scala qualitativa o quantitativa atta ad esprimere la potenziale rischiosità. L’approccio dicotomico è largamente basato sulle valutazioni soggettive espresse congiuntamente da più specialisti, relativamente ad alcuni aspetti dell’obbligato che costituiscono le quattro C del credito: la reputazione dell’obbligato (character); la struttura finanziaria ed il leverage dell’impresa (capital); la continuità del flusso di reddito (capacity); la presenza di garanzie (collateral). In una visione allargata, nell’approccio ordinale/cardinale alla stima del merito creditizio si possono far confluire tutti i modelli o sistemi, sviluppati nel corso degli ultimi due decenni, diretti alla determinazione della rischiosità di una controparte. Naturalmente, un’analisi esaustiva della letteratura sull’argomento è alquanto ardua, se si tiene conto della vastità degli ambiti di riferimento. Ai fini di una corretta esposizione, sembra preferibile adottare, quale ottica interpretativa della letteratura esistente, l’indagine sugli spazi di applicabilità dei sistemi di valutazione dei prenditori. Una volta esplicitata la chiave di lettura della modellistica, è bene ricordare il significato attribuito ai termini ordinali e cardinali, nell’ambito delle due dimensioni minime entro cui si misura il rischio di credito: probabilità dell’evento creditizio di riferimento e perdita attesa. L’approccio ordinale raccoglie le metodologie dirette all’assegnazione di un prenditore ad una classe qualitativa, dato che condivide con questa una serie di caratteristiche predefinite; l’approccio cardinale, invece, comprende quelle metodologie che consentono di ottenere una stima quantitativa diretta della grandezza di riferimento. Focalizzando l’attenzione sui dati di input richiesti, per un’effettiva implementazione dei sistemi, è possibile poi 416 Capitolo 7 distinguere tra modelli basati sui dati di bilancio (accountingbased) e modelli basati su quotazioni di mercato (market-based). Modelli accounting-based Prendendo in esame dapprima i modelli accounting-based, si può affermare, nel privilegiare il carattere cronologico della letteratura, che tali modelli impiegano essenzialmente metodologie statistiche di analisi multivariata, in cui le variabili contabili di riferimento vengono tra loro combinate in maniera tale da produrre un valore numerico, che può essere a sua volta interpretato o come la probabilità di default dell’obbligato o come un punteggio (score4) utile ai fini dell’attribuzione dell’obbligato ad una classe in base a dei range predefiniti5. I più diffusi sono quelli basati: sulle tecniche di analisi discriminante, volte a classificare le imprese sane e insolventi e a confrontare l’indice ottenuto dalla media ponderata degli indicatori selezionati rispetto a un valore soglia; sulle tecniche di analisi logistica, da cui si desume direttamente una stima della probabilità di insolvenza, dati i valori delle variabili selezionate; sui modelli di duration, in cui si stima la probabilità di default e la distanza temporale dal verificarsi l’evento; sui sistemi esperti, ai quali appartengono gli alberi decisionali e le reti neurali, che hanno contribuito a fornire utili supporti sia alla valutazione che alla decisione di affidamenti. 4 Il termine scoring viene utilizzato in senso lato, estendendosi a tutti i modelli che, a partire da un insieme di dati di input, consentono di ottenere una valutazione numerica della rischiosità dell’obbligato. Sotto tale profilo si collocano i modelli di scoring da cui si ottengono valutazioni numeriche generiche, le analisi logit il cui output è interpretabile come la probabilità di default. 5 Vi sono naturalmente anche modelli di scoring univariati, i cui ratios chiave del potenziale prenditore vengono confrontati con quelli di benchmark riferiti all’industria o gruppo, al fine di ottenere uno score senza tuttavia adottare alcuna forma di confronto “trasversale” dei dati. Sebbene questi siano stati i primi modelli statistici effettivamente impiegati per la previsione delle insolvenze, possono ormai considerarsi superati. Il più noto lavoro condotto facendo uso dell’analisi univariata viene generalmente riconosciuto in Beaver W. (1966), le cui conclusioni più interessanti sono riassunte in Szego G. e Varetto F. (1999). Il rischio di credito 417 Tali modelli, pur avendo una certa validità empirica, in corrispondenza di diverse fasi del ciclo economico e di aree geografiche, sono stati oggetto di alcune critiche. In primo luogo, è stato rilevato come tali approcci, basandosi sulle evidenze contabili, siano fondati sui dati raccolti ad intervalli temporali discreti ed indicativi della storia passata (backward looking), al contrario dei dati di mercato che invece sono maggiormente reattivi nell’anticipare le variazioni delle aspettative degli operatori (forward looking). In secondo luogo, le formulazioni analitiche di tali approcci impiegano funzioni lineari dei dati di base, che contrastano con una realtà la quale raramente soddisfa questa proprietà. Infine, occorre rilevare come tali modelli conservino ancora un certo margine di soggettività, in quanto non sono basati su un modello teorico di riferimento che lega tra loro le variabili chiave attraverso specifiche relazioni funzionali. Modelli market-based I modelli market-based si sviluppano nel corso degli anni ’90, proprio in risposta a tali criticità. L’obiettivo è quello di definire modelli di analisi del processo di default del prenditore, attraverso due approcci fondamentali: strutturale, da un lato, e in forma ridotta, dall’altro. Nell’approccio strutturale, che prende avvio dai fondamentali lavori di Black e Scholes (1973) e Merton (1974), l’evento default viene ricondotto all’evoluzione della struttura patrimoniale dell’impresa. Più specificatamente, le azioni di un’impresa possono essere assimilate ad una opzione call scritta sul valore dell’attivo, con prezzo di esercizio pari al valore del debito. La probabilità di default viene ricavata attraverso il valore dell’attivo e della sua volatilità e viene definita come probabilità che il valore degli asset scenda sotto il valore nominale del debito. Il legame tra valore degli asset e solvibilità dell’impresa, che caratterizza i modelli strutturali, sebbene rappresenti un elemento particolarmente solido su cui basare la stima della probabilità di default e del recovery rate, è viziato da un forte limite, riguardante il flusso informativo 418 Capitolo 7 necessario alla stima dei parametri, realisticamente sostenibili solo per le società dotate di una quotazione nei mercati finanziari6. I modelli in forma ridotta, invece, cercano di dedurre le proprietà del processo di default dal differenziale dei tassi che esiste tra i titoli rischiosi e i titoli privi di rischio, sulla base dell’assunto che tale differenziale rappresenti il compenso richiesto dagli investitori per il rischio di insolvenza. Nell’ambito di tale filone verrà brevemente analizzato, ai fini della stima delle probabilità default, la struttura a termine degli spread creditizi . Sebbene tali modelli richiedano un input molto più modesto rispetto ai modelli strutturali, l’assenza di un legame endogeno alla struttura dell’impresa ne indebolisce le implicazioni. Il fondamento teorico dell’approccio basato sulla struttura a termine degli spread creditizi è costituito dalla determinazione del tasso di perdita attesa direttamente dalla struttura a termine degli spread creditizi riferiti a un certo emittente, nell’ipotesi di investitori neutrali al rischio. Il punto di partenza di tale metodologia è quindi la costruzione della curva dei rendimenti zero coupon riferiti a titoli risk free e a titoli rischiosi appartenenti ad una classe di rating da cui derivare le rispettive curve dei tassi forward. Per cui: indicando con 0rt il tasso zero coupon bond valutato in 0 e cadente in t e 0ix,t il medesimo tasso calcolato in corrispondenza della classe di rischio x, i corrispondenti tassi forward, relativi al periodo t-1, t, vengono ricavati come segue: t 1 r t (1 0 r t ) t 1 ; (1 0 r t 1 ) t 1 t 1 i x ,t (1 0 i x ,t ) t (1 0 i x ,t 1 ) t 1 1 [7.2] Ponendo la condizione di neutralità verso il rischio due investimenti risultano equivalenti quando il montante investito nel titolo free risk è equivalente al valore atteso del montante investito nel titolo rischioso. Affinché il valore atteso del rendimento del titolo rischioso sia pari al rendimento certo del titolo risk free, posto che la differenza 6 Infatti, il valore e la volatilità degli asset, necessari per l'implementazione dei modelli strutturali, non è direttamente osservabile, ma può essere approssimato attraverso i prezzi di mercato dei titoli azionari. Il rischio di credito 419 tra i due rendimenti dipenda dalla probabilità di perdita attesa implicita nell’attività rischiosa, deve essere verificata la seguente espressione: (1 0 r t ) (1 0 i x,t )(1 El x,t ) [7.3] dove ELx,1 indica il tasso di perdita attesa per la classe x nel periodo 0,t. Tale espressione è valida anche per i tassi forward uniperiodali, pertanto si ha: (1 t 1 r t ) (1 t 1 i x ,t )(1 t 1 El x ,t ) [7.4] per cui: t 1 EL 1 x ,t (1 t 1 r t ) (1 t 1 i x ,t ) [7.5] Dal tasso di perdita attesa è ricavabile la probabilità default per la classe x, poiché: t 1 EL x ,t t 1 p t *LGD t 1 p t (1 RR) [7.6] dove: t-1pt = probabilità default relativa al periodo compreso tra t-1 e t RR = recovery rate si ha : t 1 p t t 1 EL x ,t 1 RR [7.7] Da tale relazione possiamo desumere la probabilità marginale che il titolo rischioso non vada in default, ovvero 420 Capitolo 7 st= 1-t-1pt [7.8] dove: st = probabilità di sopravvivenza del titolo rischioso nel periodo t-1, t La probabilità cumulata di sopravvivenza al T-esimo periodo è pertanto pari: T S T (1 t 1 p t ) [7.9] 1 La probabilità di perdita cumulata per il titolo rischioso nel periodo T-esimo è il complemento a 1 dell’espressione precedente PT=1-ST [7.10] Il limite di tale approccio è nell’ipotesi di risk neutrale dell’investitore, ossia nella mancanza di richiesta da parte del mercato di un premio per un investimento in un titolo rischioso, per cui la remunerazione richiesta dal mercato dipende dalla perdita attesa e non piuttosto dalla variabilità della stessa, generando una sovrastima del tasso di perdita attesa scontato dal mercato. 7.4.2 La scelta dell’orizzonte temporale di riferimento In linea di massima si può osservare dall’esperienza empirica che la probabilità di default aumenta con il crescere dell’orizzonte temporale, ma con un’intensità diversa; pertanto, non è possibile stabilire una linearità tra l’holding period considerato e il tasso di insolvenza. L’esperienza empirica7 su un campione di debitori bancari in Italia dimostra che i tassi d’insolvenza sono più elevati nei primi anni e si riducono nei successivi. Per cui l’ipotesi di stimare i tassi annui costanti al valore del primo anno genera una sovrastima della propensione all’insolvenza 7 Cfr Resti A.(2001), pp .32-36 Il rischio di credito 421 di lungo periodo, poiché non tiene conto di un possibile più efficace monitoraggio da parte della banca nei confronti del cliente con l’aumentare della durata del fido. In generale, si osserva che la scelta dell’orizzonte temporale, in un modello di misurazione del rischio, dovrebbe essere verificata alla luce del grado di liquidità del mercato di riferimento, della posizione di rischio assunta e del periodo di detenzione della singola posizione. L’assenza di un mercato secondario per il portafoglio commerciale non consente di applicare tali criteri di tipo oggettivo e soggettivo. Ne consegue che appare ipotizzabile selezionare un holding period pari alla durata del credito, ciò rende più complessa la stima della distribuzione delle probabilità, data l’ampia differenziazione delle scadenze delle singole posizioni e l’esistenza di numerose posizioni contrattualmente prive di scadenza. La soluzione generalmente adottata è di un anno, in considerazione del tasso di rotazione del portafoglio. Soluzione invero discutibile per le singole posizioni con vita residua superiore all’anno, sulle quali non influisce l’eventuale rotazione del portafoglio. Tuttavia, tale assunzione è coerente con il tempo adottato per la revisione degli affidamenti a vista e con il ciclo di budget delle banche. 7.5 Il tasso di perdita in caso di insolvenza 7.5.1 Fattori che determinano il tasso di perdita in caso di default Il rischio di credito, a parità di probabilità di default (PD), si presenta più elevato per quelle esposizioni in cui il tasso di perdita in caso di default, detto Loss Given Default (LGD), è maggiore8. Si definisce tasso di perdita in caso di insolvenza la frazione di credito residuo che con certezza non sarà possibile recuperare 8 La letteratura parla a riguardo anche di “severity of loss”, ossia di serietà del danno, in caso di insolvenza. 422 Capitolo 7 qualora abbia a verificarsi l’evento di default; specularmente il tasso di recupero (RR) indica la frazione di credito recuperata. Dalle ricerche condotte sull’argomento è emerso quanto segue: la distribuzione dei tassi di recovery è caratterizzata da frequenza elevata in corrispondenza sia di recovery alti, intorno al 70%-80%, che di recovery bassi, circa il 20% o 30%. Se ne deduce una distribuzione bimodale, per cui la media quale indicatore centrale è fuorviante; i driver che incidono sul tasso di recupero sono rappresentati principalmente dalla presenza o meno di garanzie e dal livello di subordinazione del prestito nella struttura del capitale del prenditore; il tasso di recupero è fortemente influenzato dalla fase del ciclo economico. Nel periodo di recessione il tasso di recupero, secondo verifiche svolte nei mercati finanziari statunitensi, può diventare pari circa a un terzo rispetto alla media di lungo periodo; il settore di appartenenza dell’obbligato può contribuire notevolmente a spiegare il livello dei tassi di recupero: settori a capital intensive sono caratterizzati da livelli di recupero più elevati rispetto ai settori labour intensive; la dimensione dell’esposizione sembra non avere un ruolo rilevante nella spiegazione dei tassi di perdita. Misura Essendo i concetti di “tasso di perdita” e “tasso di recupero” simmetrici, poichè il primo è il complemento ad 1 del secondo, si può esprimere la Loss Given Default (LGD) come: perdite valore recuperato 1 1 RR esposizione esposizione RR tasso di recupero LGD [7.11] Occorre evidenziare i problemi specifici che nascono dalla stima della perdita e delle esposizioni al momento del default. La perdita dipende: Il rischio di credito 423 dall’ammontare nozionale del prestito (nel caso del credito commerciale anche dalla forma tecnica del prestito); dal costo opportunità degli interessi non percepiti, dalla presenza di collaterali, dai costi amministrativi direttamente sostenuti nelle procedure concorsuali e/o nelle procedure di recupero crediti interne; dalla stima del tempo richiesto per rendere liquide tali attività (ossia del tempo che intercorre tra il passaggio in default e il recupero, parziale o totale, dell’importo prestato); dalla individuazione dei tassi di sconto da applicare ai flussi derivanti dal recupero. Dal punto di vista della dinamica temporale, il default si ha in corrispondenza del mancato pagamento degli interessi o della cedola; le procedure di liquidazione per il recupero del credito in genere hanno una durata di due o quattro anni dall’ultimo pagamento. Analisi dei driver I driver che incidono sulla distribuzione della LGD e, quindi sull’ eventuale bimodalità, sono: Tipologia di debito e grado di seniority; Fattori legati a settori industriali; Indicatori macroeconomici; Collaterali. Tipologia di debito e grado di seniority E’ verosimile ritenere che i fattori esplicativi più importanti sulla distribuzione del RR sono dati dalla tipologia di debito e dal grado di seniority. Le distribuzioni del recovey rate per differenti classi di seniority, fornite da Moody’s, per il periodo 1970-2002, sono di tipo binomiale per livelli di seniority più elevati. Inoltre, i tassi di 424 Capitolo 7 recovery aumentano quando i creditori dell’impresa in default sono in grado di monitorare l’andamento delll’attività imprenditoriale. Circostanze entrambe verificabili nell’ambito degli affidamenti erogati dalla banca. Fattori legati ai settori industriali Generalmente viene riconosciuto che il settore di appartenenza del prenditore influisce sul livello della LGD dei bond, mentre sussistono elementi di incertezza per l’area prestiti. In particolare, le imprese appartenenti ai settori capital-intensive possono godere di perdite minori. Al riguardo, si menzionano le stime di Altman e Kishore (1996) e di Carty e Lieberman (1996), che confermano tale dinamica dei tassi recovery per classi settoriali. Indicatori macroeconomici Il ricorso alle variabili macroeconomiche consente di incorporare nelle stime della LGD gli effetti del ciclo economico. Le verifiche empiriche hanno mostrato come il recovery rate si riduca drasticamente nei periodi di recessione rispetto alla media di lungo periodo. Studi condotti nel mercato dei bond statunitensi (Moody’s) rilevano come il recovery rate sia stato mediamente del 40%, riducendosi drasticamente di circa 1/3 nella fase di recessione. Circostanze invero non verificabili per titoli investment grade, che per effetto del loro elevato standing creditizio riflettono in misura minore l’andamento dell’economia. I collaterali Prima di affrontare i metodi di stima della LGD, una nota a parte meritano i collaterali. Nel dettaglio, la presenza di garanzie, reali o personali, incide notevolmente sulle prospettive di recupero degli importi erogati; ciò dipende dal valore della garanzia rispetto all’ammontare del credito e dal grado di liquidità e di efficacia del collaterale. Il tema degli strumenti finanziari per la protezione dal rischio di credito è molto vasto, ma in questa sede ci limiteremo a darne una prima introduzione di carattere descrittivo. È opportuno classificare le diverse tipologie di protezione per poter, successivamente, misurare l’impatto che queste hanno sul rischio dell’esposizione Il rischio di credito 425 cui si riferiscono e su quello del portafoglio nel suo insieme. Possiamo distinguere la famiglia di strumenti finanziari, che forniscono al debitore una protezione dal rischio di credito, in tre classi: le garanzie reali e personali; le clausole contrattuali (covenant); i contratti finanziari ad hoc, c.d. derivati creditizi (credit derivative). Il creditore, mediante l’escussione delle garanzie reali o personali in caso di default, ha la possibilità di recuperare gli importi concessi al prenditore rivalendosi sul bene dato in garanzia o sul patrimonio del garante. Con le covenants, invece, la banca incide attraverso clausole contrattuali, fissate all’atto della stipula del contratto di finanziamento, sull’andamento del rapporto creditizio.9 I credit derivative, di cui si dirà diffusamente nei capitoli successivi, a loro volta, operano in modo simile alle garanzie personali, consentendo al creditore, attraverso il “provider”, di coprirsi dal rischio di perdite sui crediti al verificarsi di determinati eventi creditizi (collegabili all’insolvenza). Due sono gli aspetti rilevanti che vanno messi in risalto ai fini della misurazione del rischio in presenza di strumenti di protezione: la valutazione delle garanzie e degli altri strumenti di protezione; la valutazione del default congiunto. Per quanto concerne il primo aspetto, rilevanza assume il trattamento delle garanzie. La loro valutazione è affrontata dal Nuovo Accordo sul Capitale nell’ambito delle tecniche di 9 Ad, esempio, su alcune linee di credito la banca potrebbe riservarsi il diritto, sotto predeterminate condizioni, di limitare l’utilizzo del fido; oppure di modificare le condizioni di tasso al mutare dello standing creditizio del cliente. Gli effetti della mitigation si possono, pertanto, manifestare, diversamente dagli altri strumenti, prima del verificarsi del default, attraverso il controllo dell’EAD. L’analisi dei covenant può estendersi includendo non solo le clausole di mitigazione, ma anche quelle svantaggiose per la banca, che comportino un’accentuazione del rischio di una posizione, come nel caso di clausole (espresse o implicite) di postergazione del credito. 426 Capitolo 7 mitigazione del rischio di credito. Questo afferma il principio della cd “PD substitution”, vale a dire la sostituzione della qualità creditizia del garantito con quella del garante o del venditore di protezione nel caso dei derivati. Sostanzialmente, si esclude la possibilità di una correlazione fra i default del garante e del garantito. Viceversa, la verifica dei fattori comuni che generano un comovimento del rischio di insolvenza e di recupero è un problema che va affrontato in tutta la sua complessità.10 Se il default del prenditore e il default del garante sono correlati si affievoliscono gli effetti della garanzia a fronte di un aumento della probabilità di default congiunto. Come si dirà, un sistema semplice per valutare le correlazioni consiste nel ricorrere al concetto di PD condizionata, ossia la probabilità che dato il fallimento di un soggetto B, nel nostro caso il garantito, si verifichi anche quello del soggetto G, il garante. In termini formali tale probabilità è indicata come P(B|G). Da un punto di vista economico, una correlazione positiva fra le controparti di una garanzia riduce l’efficacia di quest’ultima. Ai fini di una migliore comprensione introduciamo il concetto di joint default probability (JDP), ossia di fallimento congiunto. La JDP dipende dalla correlazione tra prenditore e garante, usualmente, la correlazione tra gli eventi di default è positiva quando entrambi i soggetti rispondono ai cambiamenti macroeconomici. Se gli eventi di default sono indipendenti la JDP è data dal prodotto delle PD stand alone; viceversa, per correlazioni positive, JDP assume un valore più elevato, mentre configura valori più bassi per correlazioni negative. 10 In uno scritto,. Resti A. (2002), p. 13, chiarisce tale concetto attraverso una esemplificazione da cui si evince come la PD a lungo termine di un prenditore stimata nel 6% subisca variazione positive nella fase negativa del ciclo economico, assumendo un valore del 10%, per decrescere al 2% in un periodo di espansione dell’economia. In analogia, posto che entrambi gli scenari, di espansione e di recessione, presentano analoghe probabilità di verificarsi, ipotizza che la LGD attesa pari al 50%, subisca variazioni al 70% nella fase di recessione e al 30% in caso di espansione. La stima della perdita attesa, come verrà successivamente analizzata, normalmente calcolata come il prodotto delle medie non condizionate, nel caso degli scenari dovrà essere calcolata come media non condizionata su tutti gli scenari, ossia ½*70%*10% + 1/2*30%*2% = 3,8%. Tale valore risulta più elevato di 80 centesimi rispetto al prodotto delle medie non condizionate , pari al 3%. Il rischio di credito 427 7.5.2 Metodi di stima della LGD: cenni Dal momento che l’incertezza nella LGD dipende da diversi fattori, non sarebbe, perciò, scorretto modellarne solo alcuni per catturare il rischio complessivo che ne deriva. Ad esempio, anche se è di fondamentale importanza, ai fini del recupero, valutare correttamente l’impatto delle garanzie, limitarsi a considerare questo unico, ancorché importante fattore, può essere riduttivo. Data una singola posizione, allora, piuttosto che fare ipotesi sul valore delle diverse garanzie, si potrebbe fare un’ipotesi direttamente sulla forma della distribuzione della variabile stocastica LGD. Naturalmente i due approcci non sono in netto contrasto poiché, assunto un certo andamento teorico della PDF (probability density function), i parametri che in concreto la caratterizzano dipenderanno a loro volta dai fattori su delineati: seniority, garanzie, ecc. Con questo metodo si può tenere conto anche dell’impatto della correlazione: invero, la distribuzione di probabilità della LGD per un prestito non assistito da garanzia sarà sicuramente diversa da quella di un prestito garantito; a sua volta un prestito assistito da garanzia personale, in cui la PD del garante è scarsamente correlata a quella del garantito, presenterà una distribuzione diversa da quella di un prestito caratterizzato da elevata probabilità di default congiunto. Un primo problema da affrontare è pertanto la stima della LGD. Al riguardo si possono individuare almeno tre metodologia di stima: Market LGD Implied Market LGD Workout LGD Market LGD. Il tasso di perdita in caso di insolvenza può essere direttamente esplicitato dai prezzi di mercato dei titoli divenuti insolventi. Utilizzata dalle agenzie di rating per le stime periodicamente pubblicate, il vantaggio di tale metodologia consiste nel fatto che i prezzi sono il risultato di transazioni di mercato e, pertanto, svincolati da valutazioni soggettive. Inoltre, i prezzi riflettono le aspettative degli investitori sul recovery, opportunamente scontato e, quindi, includono le perdite sia sul 428 Capitolo 7 nozionale che sui mancati interessi, così come i costi di ristrutturazione e l’incertezza sull’ammontare recuperato. Implied market LGD. La LGD può essere stimata sulla base dei prezzi dei titoli quotati, non già in default, adottando un idoneo modello di pricing. Al riguardo si fa riferimento allo spread sul tasso risk free, che è dato dal premio corrisposto agli investitori per il rischio di default stimato sul titolo. Lo spread, invero, è funzione della PD e della LGD (ed eventualmente di un premio per la liquidità). Workout LGD. Il tasso di perdita può essere stimato attraverso l’individuazione dei cash flow (in termini di ammontare e di tempi) del processo di liquidazione dell’impresa. I flussi vengono quindi scontati, sebbene non appaia del tutto ovvio quale sia il tasso più corretto da applicare. In linea di principio, il tasso più appropriato dovrebbe essere quello di un’attività che contiene lo stesso livello di rischio. Alcune considerazioni sui modelli di stima In generale ogni modello di stima dovrebbe distinguere le osservazioni in funzione della tipologia del prestito e della fase del ciclo economico. Pertanto, l’analisi della LGD dovrebbe essere implementata come segue: data la variabile LGD, vanno individuati una serie di fattori, X1, X2, …, Xn, da cui questa dipende, cercando di indagare in che modo ciascuno di questi possa impattare sulla stessa LGD. Posto che X1 esprime il default del garante, è possibile valutare l’eventualità che tale default possa avvenire congiuntamente a quello del prenditore; oppure, posto che X2 indichi il livello dell’esposizione su una linea di credito discrezionale, si può analizzare il livello di indebitamento del prenditore in presenza del default. Se assumiamo che la LGD sia una variabile casuale distribuita secondo una data PDF, il nostro problema può essere modellato in questi termini: LGD = f (a1, a2, a3, …, ar), [7.12] Il rischio di credito 429 dove f è una funzione di densità da selezionare sulla base di opportune considerazioni teoriche e a1, a2, a3, …, ar esprimono i parametri che caratterizzano negli specifici casi la densità (si pensi a media e varianza nel caso di una densità Normale). Giova ripetere che tali parametri dipendono dal modo in cui i fattori X1, X2 …, Xn incidono sulla LGD . Individuato il modello teorico per la f, i parametri a1, a2, a3, …, ar andranno stimati empiricamente attraverso tecniche di campionamento. A tal fine, sarà opportuno raggruppare i prenditori in cluster omogenei in base, ad esempio, alla seniority/settore/ciclo, ecc. (prestiti senior unsecured per il settore manifatturiero in fase di recessione), per stimare per ogni segmento individuato la relativa LGD coeteris paribus, maggiore sarà la granularità dei cluster e maggiore sarà la precisione delle stime, ma anche il costo della loro implementazione in sede operativa. Se si stima la LGD come rapporto tra le perdite subite ed il totale delle esposizioni in default, una valutazione corretta dovrebbe contenere un numero sufficientemente elevato di osservazioni per quella specifica cella della tabella con cui si rappresentano dei cluster. L’applicazione di un metodo di regressione semplice per spiegare i dati riduce i problemi legati alla numerosità delle osservazioni. Come è noto, in questi casi le variabili qualitative vengono rappresentate attraverso opportune variabili dummy (si pensi, ad esempio, alla rappresentazione delle caratteristiche dell’operazione). Per rendere più efficaci le stime si possono utilizzare tecniche di regressione non lineare, ma ciò evidentemente tende a comportare una maggiore complessità nei calcoli, che deve essere giustificata da un adeguato beneficio in termini di accuratezza (maggiore) dei risultati. Quando la numerosità o la dimensione non consentono, ovvero non giustificano il ricorso a cospicui database di serie storiche, può diventare vantaggioso ricorrere a tecniche di simulazione basate sulle reti neurali. Emerge con chiarezza l’esistenza di un trade-off tra livello di sofisticazione del modello adottato ed accuratezza delle stime. Un modello particolarmente complesso, e quindi più ricco di parametri, 430 Capitolo 7 è in grado di spiegare meglio i dati ma può non essere altrettanto efficiente in fase di implementazione o addirittura non applicabile a specifiche realtà operative. 7.5.3 La distribuzione della LGD: la Beta La determinazione dei parametri della distribuzione dei valori regrediti si pone come un problema di statistica parametrica; ossia, si tratta di individuare degli opportuni stimatori da cui inferire i parametri in base all’osservazione delle serie storiche. In base ad argomentazioni teoriche relative alla natura del prestito (forma tecnica, presenza di collaterali, ecc.) è possibile stabilire un range di oscillazione ragionevole per questi parametri. Le 60 diverse famiglie di distribuzioni si caratterizzano generalmente per avere delle forme tendenzialmente simili al variare dei parametri da cui dipendono. Si pensi alla forma della distribuzione normale che è più o meno decentrata rispetto allo zero ed allungata a seconda dei valori di media e varianza. Nel nostro caso, invece, è necessario ricorrere ad una distribuzione di probabilità teorica molta generica, che riesca a catturare la molteplicità di forme con cui si potrebbe presentare il tasso di recupero per le diverse tipologie di prestiti. Per poter ricondurre ad unitarietà popolazioni statistiche con caratteristiche molto diverse si può utilizzare la funzione Beta. In termini non rigorosi si può affermare che essa racchiude molte distribuzioni in una. Variando opportunamente i suoi parametri, si possono ottenere, infatti, andamenti della distribuzione radicalmente diversi. Come si chiarirà meglio in seguito, essa riesce anche a modellare con più coerenza il range di variabilità del RR, che è [0,1] e non [-, +] come può accadere nel caso delle funzioni normali. Per poter apprezzare i benefici dell’utilizzo della Beta è necessario richiamare, in primis, la sua definizione formale in termini probabilistici ed i suoi valori notevoli. La PDF della Beta è definita come segue: Il rischio di credito 431 X ~ Beta( , ) : ( ) 1 f X ( x; , ) x (1 x) 0 x 1 ( )( ) [7.13] Rinviando all’appendice per gli aspetti formali, notiamo che la funzione, diversamente da quanto accade per altre tipologie di distribuzioni (per esempio la famiglia delle gaussiane), non presenta tra i suoi parametri la media e la varianza. Queste sono calcolabili rispettivamente come: EX VX 2 ( ) ( 1) [7.14] Ciò posto riscriviamo la relazione in questi termini: RR ~ Beta( , ) [7.15] dove RR [0,1] Ciò significa che il tasso di recupero è distribuito secondo una Beta e che esso deve essere compreso nell’intervallo zero-uno, essendo il valore “zero” rappresentativo della situazione in cui viene perso l’intero ammontare del prestito in ipotesi di default, ed “uno” il caso in cui è possibile recuperare tutto il (il 100% del) credito nonostante il default,. Come si mostra in appendice, al variare dei parametri e , la funzione può assumere forme molto diverse ed in alcuni casi antitetiche. Ad esempio, accanto alla forma “a campana”, legata all’ambiente delle distribuzioni normali, essa può assumere l’opposta forma ad ‘U’. In questa ipotesi si parla anche di bimodalità della distribuzione del tasso di recupero (o di perdita), poiché, diversamente da quanto accade per le distribuzioni unimodali, presenta due valori prevalenti, che si collocano o coincidono con zero ed uno (recupero nullo e recupero totale). Accade, allora, che il valore medio sia del tutto inadeguato a dare 432 Capitolo 7 una rappresentazione significativa della distribuzione; esso è, all’opposto di quanto siamo abituati a pensare (avendo istintivamente in mente una distribuzione normale o la definizione stessa di valore atteso), un valore intorno al quale si concentra una bassissima probabilità, essendo questa, al contrario, concentrata sulla parte esterna della curva ad ‘U’. L’utilizzo della funzione Beta richiede la stima dei relativi parametri sulla base dell’analisi delle serie storiche. 7.5.4 Modello LossCalc di Moody’s-KMV: cenni Un’applicazione molto articolata in tal senso è rappresenta dal modello LossCalc di Moody’s-KMV. Tale modello presenta tra i suoi punti di forza l’inclusione di fattori di stima legati al trend economico, il che ne migliora l’affidabilità. Esso, inoltre, riconoscendo l’importanza dell’orizzonte temporale, produce due distinte stime: una su base immediata, il cui uso è suggerito per le esposizioni inferiori all’anno, ed una su base annuale, indicata per le altre maturità. Venendo al dettaglio dei fattori usati da LossCalc, questi possono essere distinti in quattro categorie: tipologia di debito e grado di seniority; indicatori della struttura finanziaria dell’impresa; fattori legati ai settori industriali; indicatori macroeconomici. Tipologia di debito e grado di seniority – I fattori esplicativi più importanti sono quelli inclusi nella prima categoria: essi sono dati dalle medie su base storica dei tassi di recupero, suddivisi per tipologia di debito e grado di seniority. Nonostante la loro importanza, in termini relativi, essi pesano sul modello per meno del 50%. Indicatori della struttura finanziaria dell’impresa – Nell’ ambito della struttura del capitale dell’impresa viene considerato un fattore tipico: il leverage, inteso come rapporto tra attività totali e Il rischio di credito 433 passività totali. Si considera, poi, il grado di seniority del debito rispetto alla specifica struttura finanziaria dell’impresa. Si noti che, mentre nella categoria precedente la seniority del debito era espressa in termini assoluti, qui è relativa al passivo dell’impresa, per cui una certa classe di debito può avere una posizione elevata nell’ambito di una data unità produttiva, anche se in termini assoluti il livello di privilegi attribuito ai creditori non sia elevato. Fattori legati ai settori industriali – Con riferimento alla terza categoria vengono calcolate le medie mobili dei tassi di recupero per 12 settori industriali. Moody’s mette in risalto come il settore che presenta il tasso di recupero più basso in caso di default sia quello bancario. La natura del business e la caratteristica immaterialità dell’attivo della banca, fanno sì che, quando essa fallisce, sia sempre “troppo tardi per i creditori”, ottenere una soddisfazione parziale dei loro diritti attraverso le procedure di enforcement. Indicatori macroeconomici – Il ricorso alle variabili macroeconomiche della quarta sezione consente di incorporare nelle stime gli effetti del ciclo economico rendendo il modello conditional. Gli indicatori macroeconomici considerati sono: il Moody's Bankrupt Bond Index, un indice mensile che misura il rendimento delle obbligazioni emesse da società sottoposte a procedura fallimentare (anche non valutate da Moody's e non americane purché denominate in dollari); la media dei tassi di default registrati su un arco di 12 mesi per le imprese incluse da Moody’s nello speculative grade; l’Index of Leading Economic Indicators, prodotto dalla Conference Board Inc. La media dei default rispetto allo speculative grade si è rivelata scarsamente significativa per le stime su base immediata per cui, in questo caso, non viene presa in considerazione. Va notato che le diverse variabili illustrate presentano la caratteristica di una bassa correlazione. In generale le variabili utilizzate sono state presentate in base al grado di significatività statistica. Pertanto variabili interessanti sul piano dell’analisi teorica, come il rapporto EBIT/Vendite o 434 Capitolo 7 Passività correnti / Attività correnti, sono state escluse, poiché i test hanno dimostrato che esse hanno un basso potere esplicativo. Con riferimento alla stima della LGD è emerso come, mentre in termini teorici possa essere semplice parlare di ammontare di credito recuperato, nella pratica i lunghi tempi delle procedure giudiziarie vanifichino la possibilità di stime empiriche basate su serie storiche. Anche la valutazione contabile basata sull’attualizzazione dei cash flow post-default può essere troppo complessa da applicarsi su larga scala. Moody’s sceglie, perciò, di considerare la quotazione di mercato fornita da alcuni broker di riferimento ad un mese dal default come definizione di “recupero dello strumento soggetto al default” In questo contesto Moody’s mette in risalto come le risultanze del suo data base, unitamente ad una serie di studi effettuati, mostrino un andamento non normale della LGD, ma modellizzabile piuttosto con una densità di tipo Beta. Figura 7.2 - Andamento della funzione di distrib.ne della LGD Fonte: Moody’s-KMV A questo punto va rilevato come Moody’s scelga di tenere riservati i dettagli implementativi del proprio modello. Viene, comunque, chiarito che la LGD è dapprima stimata in una versione “normalizzata” attraverso una regressione lineare che usa come Il rischio di credito 435 fattori esplicativi le 9 variabili su indicate. Una volta regrediti, attraverso opportune tecniche econometriche, i valori vengono, poi, ricondotti alla densità Beta attraverso una procedura qui riportata in appendice. Va ancora notato che, per migliorare il procedimento di fitting, i 9 fattori sono in alcuni casi trasformati prima di essere inseriti nell’equazione di regressione, secondo una procedura non esternata, che Moody’s definisce mini-modelling. Anche se non vi è alcuna disclosure sui pesi che hanno i 9 fattori nel modello di regressione, a livello aggregato, viene fornito il peso per categoria. Con riferimento alle 4 categorie summenzionate, l’influenza relativa sulla procedura di stima è rappresentata in termini grafici nella figura che segue. Figura 7.3 - Pesi dei driver nella procedura di stima della LGD Fonte: Moody’s-KMV 7.6 La valutazione dell’esposizione a rischio di default In generale si può osservare che l’esposizione del banking book si origina o dall’erogazione di finanziamenti all’impresa / individuo, o dall’acquisizione di varie tipologie di titoli emessi sul mercato dall’impresa a copertura dei propri fabbisogni. Ai fini della determinazione dell’esposizione a rischio assume rilevanza il valore della stessa al momento del default, valore 436 Capitolo 7 determinabile sin dall’inizio per alcune tipologie di credito oppure di incerta determinazione per altre in assenza di un importo definito e di un piano di rimborso. Possono essere assimilati al primo tipo: a) prestiti con caratteristiche analoghe a zero coupon bond, in cui l’erogazione è pari all’ammontare definito nel momento del perfezionamento del contratto, b) prestiti “autoliquidantesi” concessi dalla banca al cliente sotto la forma di sconto o anticipazione fissa, e infine c) prestiti utilizzabili nel loro importo massimo. Nella seconda categoria si riconducono tipicamente le forme di finanziamento caratterizzate da una certa discrezionalità da parte del debitore nelle modalità di utilizzo. Le esposizioni si distinguono, inoltre, in quelle di natura monetaria da quelle non monetarie rappresentate principalmente da crediti di firma, ossia da posizioni fuori bilancio che generano un impegno di cassa solo in ipotesi default dell’impresa affidata. Pertanto, il rischio di tale operazione è solo potenziale anche se potrebbe esser rilevante, qualora si manifestasse l’evento default. Ai fini della stima dell’esposizione tale categoria può essere trattata alla stregua di un prestito di importo certo. L’innovazione finanziaria rende ancora più complessa la quantificazione corretta del valore dell’esposizione a rischio. Nel caso dei derivati la possibile manifestazione del rischio di credito è collegata a un andamento sfavorevole del fattore di rischio di mercato. Pertanto, la misura dell’esposizione è scomponibile in una parte definita ”corrente”, coincidente con il valore di sostituzione, e un’altra parte aleatoria, definita esposizione potenziale, legata alle variazioni nel valore di mercato del contratto. La figura 7.4 illustra per diverse tipologie di prodotti l’andamento possibile dell’esposizione. Un approfondimento merita di essere svolto sulle linee di credito del banking book, i cui fattori fondamentali possono essere individuati: nel profilo di ammortamento del prestito; nel tasso di utilizzazione del credito concesso. Il rischio di credito 437 Figura 7.4 - Profilo temporale delle esposizioni per vari prodotti finanziari L’esposizione di tutte le forme tecniche caratterizzate da un profilo di ammortamento è certo, poiché vengono pattuite, all’atto dell’erogazione, le scadenze e gli importi da rimborsare, fatta eccezione per i prestiti con possibilità di estinzione anticipata (ad esempio i mutui). In quest’ultimo caso, il cliente può rimborsare anticipatamente il prestito quando è in grado di rinegoziare la stessa posizione sul mercato a tassi più bassi. Si ravvisa in questa ipotesi la possibilità per il cliente di esercitare un’opzione call di tipo americano venduta dalla banca. Più in particolare, nel mutuo con opzione di rimborso l’attività sottostante è costituita dalla successione delle rate non ancora scadute che possono essere “riacquistate” dal mutuatario al prezzo di esercizio determinato dal valore del debito residuo. Un altro “trigger” per l’estinzione anticipata può essere rappresentato dall’“upgrading” del debitore, che, anche in tal caso, avrà interesse ad esercitare il suo diritto ad estinguere e a rinegoziare la propria posizione, per poter usufruire di un tasso più favorevole che il suo nuovo standing creditizio comporterà11. Per quanto concerne i metodi di valutazione per le esposizioni a valore certo, si ritiene utile richiamare le metodologie applicate nell’ambito dei principali modelli industriali. Al riguardo, le principali tecniche applicate12 sono: valore nominale dell’esposizione, corretto da una eventuale percentuale di recupero conseguente al default (Creditrisk+); 11 Si può consultare, con riguardo al caso dei mutui, “La valutazione delle opzioni implicite nei mutui bancari” in Drago D. (2001). 12 Zazzara C. (2001), in Resti A. (a cura di), pp.81-89 438 Capitolo 7 attualizzazione dei flussi di cassa futuri dell’esposizione ai tassi di interesse maggiorati di spread per il rischio di insolvenza. Il valore mark-to-market dell’esposizione si modifica in relazione alle variazioni intervenute nella struttura dei tassi a termine foward a un anno relativi alle emissioni obbligazionarie societarie per le varie classi di rating13. In analogia a Creditrisk+, si utilizza, in caso di default, il valore nominale dell’esposizione rettificato in base a una percentuale di recupero (Credit Metrics); attualizzazione dei flussi di cassa futuri condizionati al verificarsi di un particolare evento in un contesto di neutralità verso il rischio; il valore dell’esposizione si determina, pertanto, come somma del valore attuale della componente default risk e di quella rischiosa (Portafolio Manager KMV). Vanno, infine, considerate le linee di credito a vista o a valore incerto, in cui il cliente attraverso il movimento del conto può ripristinare l’ammontare di credito accordato. Più specificatamente, il fattore effettivamente soggetto a rischio, comunemente definito Adjusted Exposure (AE), è dato dal valore dell’utilizzato più una frazione, UAD (Usage At Default), del margine ancora disponibile pari alla differenza tra accordato e utilizzato. Secondo una logica simile a quella della teoria dell’opzione, l’apertura di credito può, pertanto, essere suddivisa in due parti: la componente rischiosa, individuata come sopra, e quella non rischiosa. La UAD si può assimilare a un diritto di opzione che viene concesso dalla banca al prenditore a fronte di un premio, ossia ad una commissione di impegno, che viene corrisposta dall’affidato. In questo caso, l’unico limite è rappresentato dal massimale concesso che opera come un “cap”. La UAD rappresenta per l’affidato una sorta di assicurazione contro l’eventualità di non poter più finanziare le proprie attività 13 I tassi di attualizzazione da applicare sono correlati negativamente alle classi di rating, risultando naturalmente più bassi per quelle migliori, e positivamente agli orizzonti temporali, assumendo valori più alti per le scadenze più lontane. Il rischio di credito 439 Figura 7.5 I fattori a rischio dell’apertura di credito Componente rischiosa: Utilizzato + (Accordato-Utilizzato)UAD APERTURA DI CREDITO Componente non rischiosa: (Accordato – Utilizzato) (1-UAD) .La stima di tale variabile si presenta, tuttavia, complessa, poiché differisce per ogni apertura di credito al variare delle condizioni finanziarie dell’affidato. E’ perciò necessario fare attente previsioni sul tasso d’utilizzo in caso di insolvenza, poiché in genere all’approssimarsi della crisi di impresa il prenditore tende ad accentuare il ricorso al prestito per sopraggiunta incapacità di generare i normali flussi di cassa Il metodo più semplice può essere implementato con le informazioni relative all’effettivo grado di utilizzo delle linee di credito disponibili presso ciascuna banca; la maggior parte delle esposizioni sono revocabili per cui non è detto che raggiungono i limiti indicati da Asarnow e Marker 14. Infine, ci sono forti 14 Asarnow E., Marker J. (1995) hanno elaborato una prima stima di tale variabile per i loan commitments, generando una distribuzione dei valori dell’impegno di affidamento per ogni classe di rating. .La seguente tabella mostra il grado di utilizzo medio dei Loan Commitments della Citybank in funzione della classe di rating. Classe di rating Percentuale di credito utilizzato(a) Percentuale media di utilizzo del credito* (b) Componente rischiosa = = (a) + (b) [1-(a)] AAA 0,1% 69.0% 69.03% AA 1.6% 73.0% 73.43% A 4.6% 71.0% 72.33% BBB 20.0% 65.0% 72.00% BB 46.8% 52.0% 74.46% B 63.7% 48,0% 81.12% CCC 75.0% 44.0% 86.00% * normalmente non utilizzata in caso di default 440 Capitolo 7 difficoltà nel monitorare le variazioni della UAD al mutare delle condizioni finanziarie dell’affidato anche in virtù che la relazione banca/cliente non sia esclusiva e globale ma venga inficiata dalla pratica diffusa dei fidi multipli. 7.7 La perdita attesa e inattesa della singola esposizione Dopo aver individuato i driver del rischio di credito, è possibile procedere ulteriormente nell’analisi per definire una prima misura del rischio associato ad una data posizione debitoria e, quindi, all’intero portafoglio. Si consideri una singola posizione debitoria della quale sono noti i tre elementi caratterizzanti – PD, LGD, EAD – introdotti in precedenza e riferiti ad un orizzonte temporale di un anno. Nel breve periodo, è ragionevole accettare una visione dicotomica dello stato di solvibilità del debitore corrispondente ai due eventi default/non default. Da un punto di vista formale, l’incertezza sul futuro merito creditizio del debitore può essere modellizzata attraverso l’introduzione di una variabile casuale Bernoulliana15, D, che assume valore 1 per l’evento di default con probabilità PD e valore 0 per l’evento non default con probabilità 1-PD: DBer (PD) Nella figura 7.6 viene rappresentato l’istogramma della Bernoulliana considerata. Figura 7.6 – Istogramma della bernoulliana 1-PD PD D=0 D=1 D Figura 1.1 15 La variabile casuale di Bernoulli viene spesso impiegata per trattare i fenomeni che danno origine unicamente a due eventi tra loro incompatibili del tipo sucesso/insuccesso. Il rischio di credito 441 Moltiplicando per LGD la variabile casuale D si ottiene una nuova variabile casuale, trasformazione lineare della precedente, che esprime la perdita della posizione debitoria nei due casi esaminati, con le rispettive probabilità. Al termine del periodo considerato, quindi, la perdita sarà pari a LGD con probabilità PD, oppure 0 con probabilità 1-PD. Il valore atteso della variabile casuale LGDD viene definito tasso di perdita atteso (Expected Loss Rate, ELR) e rappresenta una misura indicativa della frazione di credito che verrà persa, tenendo allo stesso tempo conto della perdita in caso di insolvenza e della probabilità che questa si verifichi: ELR LGDPD [7.16] Il prodotto fra il tasso di perdita e l’esposizione in caso di insolvenza viene denominato perdita attesa (Expected Loss, EL) ed esprime in termini assoluti l’ordine di grandezza della possibile perdita: EL EAD ELR EAD LGD PD [7.17] Con la definizione del concetto di perdita attesa si è introdotta una prima forma di misurazione del livello di rischio associato ad una singola posizione secondo l’approccio “default mode”, per il quale la perdita si manifesta solo a seguito dell’insolvenza del debitore. Per una corretta interpretazione di tali misure, tuttavia, è importante soffermarsi ulteriormente sul procedimento impiegato per ottenerla. La modellizzazione sull’esito di un credito, attraverso una variabile casuale, rappresenta un’utile formalizzazione di un evento futuro e, in quanto tale, incerto. In altri termini, lo stato d’incertezza sugli accadimenti futuri viene espresso ricorrendo ad una formalizzazione, seppure semplificata dei possibili eventi ed associando a questi una misura del grado di fiducia che si ripone nella loro verificabilità. 442 Capitolo 7 ESEMPIO: Calcolo dell’EL Posto una esposizione a rischio è pari a 100.000 euro, una PD ad un anno del 5 e una perdita in caso di insolvenza del 40 del debito, il valore della perdita attesa (EL) si calcola come segue: ELR 0.40.05 0.02 EL 0.02100.000 2.000 La perdita attesa di una singola esposizione rappresenta una misura espressa a priori, che tiene conto sia della dimensione della perdita, sia della probabilità che questa si verifichi. In quanto media ponderata in base alla probabilità dei due possibili risultati, la perdita attesa è un valore intermedio tra questi. Si noti, tuttavia, che al termine del periodo considerato la perdita effettiva sarà pari ad uno solo dei due valori ipotizzati, cioè 0 oppure EADLGD, e quindi diversa dalla perdita attesa. Da un punto di vista probabilistico, la perdita attesa non è altro che una misura globale di una distribuzione, che fornisce una prima indicazione di quanto vicino ad un valore o all’altro la perdita tende a collocarsi, tenuto conto delle rispettive probabilità. Facendo riferimento a una singola posizione debitoria, quindi, ha senso considerare la perdita attesa come una valida previsione della perdita effettiva solo su un numero sufficientemente ampio di periodi. Su un orizzonte temporale limitato, invece, occorre considerare non solo la perdita attesa ma anche la sua variabilità, ossia quanto la perdita effettiva può, in senso probabilistico, discostarsi dalla perdita attesa. Per il tasso di perdita, la misura solitamente impiegata per determinare la variabilità della distribuzione è lo scarto quadratico medio, definibile come perdita inattesa (Unexpected Loss Rate, ULR), nel nostro caso abbiamo: ULR ( EL 0) 2 (1 PD) ( EL EAD LGD) 2 PD , [7.18] Il rischio di credito 443 ossia la perdita inattesa è espressa come somma degli scarti al quadrato della perdita dal valore atteso (EL), ponderati con le relative probabilità. Sostituendo ad EL il suo valore si ha, perciò: ULR ( EAD LGD PD ) 2 (1 PD) ( EAD LGD PD EAD LGD ) 2 PD [7.19] da cui con semplici calcoli si ha: ULR EAD 2 LGD 2 PD 2 (1 PD) ( EAD 2 LGD 2 ) ( PD 1)2 PD EAD LGD PD 2 PD3 PD3 PD 2PD 2 [7.20] La perdità inattesa è, dunque, pari a: ULR EAD LGD PD PD 2 [7.21] Assumendo un’esposizione unitaria si può porre: ULR LGD PD PD 2 [7.22] Non sorprendentemente, il tasso di perdita inatteso aumenta al crescere di LGD e di PD. Lo scarto quadratico medio, infatti, non è altro che la radice della media del quadrato degli scarti dal valore atteso, ponderati in base alle rispettive probabilità. Pertanto, al crescere di LGD aumenta lo scarto della perdita dal suo valore atteso. Allo stesso modo, al crescere di PD aumenta il peso attribuito a tale scarto16. E’ evidente che quanto maggiore è ULR, tanto maggiore è il grado d’incertezza, e quindi il rischio, associato all’esposizione. Il prodotto tra il tasso di perdita e l’esposizione in 16 Il termine sotto il segno di radice è lo scarto quadratico medio di D: Sqm( D ) Var( D ) ( 0 PD )2 ( 1 PD ) ( 1 PD )2 PD PD ( 1 PD ) Si può dimostrare che Sqm(D), per PD[0,1], è inizialmente crescente, raggiunge un punto di massimo per PD = 0,5 e diventa poi decrescente. Pertanto, si può affermare che al crescere di PD cresce anche Sqm(D) in quanto nel contesto in esame il range entro cui oscilla PD è sempre molto basso e largamente al di sotto di 0,5. 444 Capitolo 7 caso di default viene definito perdita inattesa (Unexpected Loss, UL): UL EAD ULR [7.23] EAD LGD PD (1 PD) ed esprime in termini assoluti, anziché relativi, la variabilità dell’esposizione. ESEMPIO: Stima dell’ULR L’importanza della variabilità della distribuzione come indicatore del rischio può essere correttamente valutata confrontando distribuzioni simili. Tralasciando per semplicità l’esposizione in caso di insolvenza, si considerino due esposizioni, A e B, caratterizzate dai seguenti elementi di rischio: A: B: PDA= PDB= 0.10 0.04 LGDA= LGDB= 0.2 0.5 Si verifica facilmente che i due crediti hanno il medesimo tasso di perdita atteso: A: B: ELRA= ELRB= 0.100.2=0.02 0.040.4=0.02 L’esposizione A è caratterizzata da una probabilità di default particolarmente elevata e da un basso tasso di perdita in caso di insolvenza. Viceversa, per l’esposizione B si ha una probabilità di default molto bassa ma un alto tasso di perdita. Pertanto, ai fini di una corretta misurazione del rischio, le due esposizioni, sebbene abbiano la stessa perdita attesa, non possono essere considerate identiche. Osservando la figura 7.7, infatti, si può notare come l’esposizione A tenda ad essere più concentrata intorno al suo valore atteso di quanto invece non avvenga per l’esposizione B. Tale impressione è confermata dalla misurazione dei due scarti quadratici medi: A: ULRA= 0.2 0.10(1 0.10) = 0.06 Il rischio di credito 445 B: ULRB= 0.5 0.041 0.04 = 0.0980 Se ne deduce, quindi, che il livello di incertezza sull’esito finale del credito associato all’esposizione A è maggiore rispetto all’esposizione B. Nella figura 7.7 viene rappresentata la relazione tra probabilità di insolvenza e perdita attesa per le due esposizioni, rispettivamente Ae B di cui all’esempio riportato sopra. Figura 7.7 – Probabilità di insolvenza e tasso di perdita attesa 446 Capitolo 7 Graficamente, (fig. 7.8) con riferimento alla esemplificazione sulla stima dell’ULR, in ipotesi di LGD costante, la relazione fra probabilità di insolvenza e ULR può essere rappresentata per le due esposizioni A e B come segue. Figura 7.8 – Probabilità di insolvenza e tasso di perdita inatteso Qualora si ipotizzi anche una volatilità del tasso di recupero, la relazione precedente si modifica nel modo seguente: ULRLGD PD(1 PD)(1 LGD) 2 PD 2 LGD [7.24] Il rischio di credito 447 7.8 Limiti e problemi dell’approccio binomiale. L’approccio multinomiale L’approccio binomiale, secondo la logica default mode, si muove solo su due possibili stati, per cui il fattore di rischio è rappresentato da una variazione inattesa della probabilità di insolvenza e da un eventuale possibile diminuzione del tasso di recupero, trascurando il deterioramento del merito creditizio e il diverso grado di rischio associato a una maggiore vita residua del credito. Si osserva, infatti, come nel caso di una durata del credito inferiore a 1 anno, l’eventualità di deterioramento del merito creditizio non assuma rilevanza, poiché la perdita sarà pari, in caso di default, al completamento a 1 del tasso di recupero; viceversa, la migrazione diventa un fenomeno non trascurabile nel caso di durata del credito superiore all’anno. Per ovviare a tale problema, si rende necessario: a) implementare un sistema di rating al fine di assegnare ad ogni obbligato ad una specifica classe secondo una scala ordinale, dalla quale è desumibile il tasso di insolvenza atteso; b) costruire una matrice di transizione pluriennale, da cui ottenere il tasso di insolvenza di un prenditore appartenente alla stessa classe di merito nell’orizzonte temporale considerato e valori differenti di tassi di insolvenza in caso di migrazioni verso altre classi di rating. Il fenomeno della migrazione verrà sviluppato procedendo alla valutazione del processo a due stati di default, per poi, successivamente, stimare il più completo rating process, caratterizzato da un numero di stati maggiore di due (rispetto ai quali il default è un caso particolare). Osserviamo preliminarmente che, da un punto di vista statistico, le migrazioni creditizie possono essere viste come esperimenti multinomiali17 Esse possono essere analizzate ricorrendo alla teoria delle catene di Markov, cui si rinvia18. Su queste basi uno strumento essenziale per lo studio del 17 Un esperimento multinomiale è un'estensione del concetto di esperimento binomiale (stilizzato con il lancio di un moneta), utilizzato per modellare il default. L'esperimento multinomiale (stilizzabile con il lancio di una “moneta a più facce”) consiste nell'esecuzione di n prove, ciascuna delle quali può avere k possibili risultati. Con riferimento al nostro caso, siamo interessati a modellare i k possibili rating che possono avere un prenditore o un'emissione in n anni. 18 Cfr. Baldi P. (1992). 448 Capitolo 7 processo di rating è dato dalla più volte citata matrice di transizione o di migrazione. In questo contesto possiamo definirla come una matrice. Q(t), il cui generico elemento pij(t) esprime, con riferimento ad un orizzonte temporale t, la probabilità del borrower o della facility19 di migrare dallo stato i allo stato j. La matrice di transizione fornisce, pertanto, l'evoluzione del profilo di rating ad un certo istante, senza alcuna indicazione, però, sulla dinamica della migrazione. Per esempio, un prenditore che migri alla classe C, partendo da A, potrebbe pervenirvi in modo diretto oppure passando dal livello B o dal livello D, etc. Per avere un rappresentazione dinamica della migrazione è necessario mettere a confronto matrici relative a periodi diversi (e preferibilmente contigui). Quanto esposto può meglio essere formalizzato asserendo che, essendo RT il processo di rating, con t = 0, ..., T, è: L'espressione esprime la probabilità condizionata che, dato il rating iniziale di ordine i rispetto ai K possibili, dopo t periodi questo sia pari a j20. Le matrici di transizione possono essere studiate in termini teorici od empirici. Nel primo, caso ci possiamo chiedere quale relazione esista tra matrici relative ad orizzonte temporali diversi, in particolare, si può derivare per via teorica le matrici a t anni a partire da quelle ad 1 anno. È, poi, possibile stimare le probabilità sulla base di osservazioni empiriche relative alle frequenze storiche delle migrazioni verso i diversi stati creditizi. Con riferimento al primo punto si può mostrare che: Q(t)= Qt [7.25] 19 Come è ovvio, il giudizio sul merito creditizio può interessare il prenditore o le singole esposizioni. Le considerazioni che svolgeremo in questa sezione si applicano indifferentemente all'uno o all'altro dei casi. Di seguito, perciò, ci riferiremo genericamente alle migrazioni che interessano i prenditori, restando sottinteso che, salvo quando diversamente specificato, l'analisi è replicabile nel contesto del facility rating. 20 In un'applicazione pratica è necessario specificare l'unità temporale usata e l'istante di rifermento. In questo contesto parliamo genericamente di “periodo t” per non appesantire l'esposizione. Il lettore può supporre che i periodi siano annuali e che il rating faccia riferimento all'inizio del periodo (inizio dell'anno). Il rischio di credito 449 dove: Q:= Q(1) [7.26] Rinviando all'appendice 7C per la dimostrazione formale della 7.25, ci limitiamo qui a fornire una giustificazione intuitiva. A tal fine, ricordiamo preliminarmente che (secondo la teoria assiomatica) la probabilità che si verifichi l'evento A e l'evento B, sotto ipotesi di indipendenza, è data dal prodotto delle loro probabilità individuali, ossia pApB, mentre quella che si verifichi o l'uno l'altro degli eventi è data dalla somma della probabilità individuali, pA + pB Stante l'irrilevanza nella 7.25 dei periodi intermedi (siamo interessati solo allo stato di partenza ed a quello di arrivo), osserviamo che esistono varie alternative di migrazione da i a j nel periodo considerato: più sono i periodi, più sono possibili diverse combinazioni di percorsi per raggiungere un certo stato. Ad esempio, con t = 2 e K= 3 i percorsi possibili per passare dallo stato 1 allo stato 3 sono, con ovvio significato dei simboli: 1 → 1 → 3, 1 → 2 → 3, 1 → 3 →3, 1 → 4 → 3 [7.27] Ponendo pij:= pij(1), la probabilità che si pervenga allo stato finale attraverso il primo percorso (ossia che si verifichi la pseudo-migrazione 1 → 1 e la migrazione 1 → 3) si ottiene dal prodotto di p11p13; ne segue che la probabilità che si pervenga allo stato finale attraverso uno qualsiasi dei percorsi possibili (ossia la probabilità che si verifichi o il primo o il secondo o il terzo o il quarto percorso) si ottiene sommando le probabilità dei singoli percorsi. Si ha, quindi, che: [7.28] In base alla 7.25, la probabilità p13 di cui alla 7.26, deve corrispondere all'elemento di posizione (1, 3) della matrice Q2. Applicando il calcolo matriciale, si ha, infatti, che: [7.29] 450 Capitolo 7 Le considerazioni sin qui svolte saranno oggetto di un’applicazione. Nella figura 7.9 viene, all'uopo, rappresentata, usando la metrica di Moody's, una matrice di transizione ad un anno. Notiamo che tale tabella contiene anche una colonna indicante la probabilità che l'impresa non venga più assoggettata al rating, c.d.withdrawn rating (WR). Applicando la formule di cui sopra, è possibile ricavare le matrici di transizione teoriche a due e tre anni, di cui alle figure 7.10 e 7.11. A tal fine, posta pari a la matrice di migrazione ad 1 anno (figura 7.9), a meno delle colonne “Def” e “WR”, le tabelle di cui alle figure 7.10 e 7.11 sono ottenute, in applicazione della 7.25, calcolando Q2 Q3. Possiamo provare a verificare la 7.26 e la 7.27 con riferimento alla tabella di cui alla figura 7.10. Osserviamo che con la metrica usata la probabilità p13 va intesa come la probabilità di migrare dopo due anni dallo stato AAA a quello Aa2, in simboli p AAA,Aa2. Si rileva come i percorsi possibili per tale transizione siano i seguenti 17: Nel primo percorso, ad esempio, si ipotizza che la migrazione in due anni da Aaa ad Aa2 avvenga migrando da Aaa ad Aaa il primo anno e da Aaa ad Aa2 il secondo anno. Posta la stabilità dei tassi di migrazione, essendo indipendenti, la probabilità congiunta è data dal prodotto delle probabilità di transizione annuali desunte dalla tabella di cui alla figura 7.9 pAaa,AaapAaa,Aa2 con riferimento a tutti i possibili percorsi si ha: Il rischio di credito 451 Le probabilità dei singoli percorsi Poiché l'intersezione degli eventi indicati nella prima colonna della tabella è vuota, la probabilità del loro alternativo verificarsi può essere calcolata sommando le loro probabilità individuali; perciò in base alla seconda colonna della tabella si ha: [7.30] Sommando i valori della terza colonna della tabella, possiamo risolvere: 452 Capitolo 7 Guardando attentamente alla probabilità p Aaa,Aa2,, si può notare come questa possa intendersi come prodotto della riga 1 per la colonna tre della matrice di migrazione Q. Ricordando la regola del prodotto matriciale, tale probabilità deve anche corrispondere alla cella (1,3) della matrice Q(2). Invero nella tabella di cui alla figura 7.10, possiamo notare come la probabilità di migrazione da Aaa a Aa2 è proprio 5.56%, il che costituisce, peraltro, una giustificazione logico-intuitiva della 7.25. Tornando alla figura 7.9, possiamo notare anche come la stessa migrazione di classe, ma con riferimento ad un orizzonte di un solo anno, presenti un valore pari a 3.13% < 5.56%. Il che significa che è più probabile subire un downgrading in 2 anni piuttosto che in 1. Abbiamo così calcolato la probabilità teorica di migrare dallo stato Aaa allo stato Aa2 in due anni. Per ottenere un'intera matrice questi stessi calcoli, pur non brevi, andrebbero replicati tante volte quante sono le celle della matrice (con la nostra ipotesi semplificatrice 17X17=289). Se, poi, siamo interessati a valutare un orizzonte temporale più lungo di due anni (tre, quattro etc.), dobbiamo reiterare il procedimento relativo a due anni tante volte quanti sono i periodi aggiuntivi (ad esempio, con tre anni la procedura qui seguita andrebbe replicata 17X17X2=578 volte!). Ovviamente è impensabile eseguire questi calcoli in modo per così dire manuale; nei contesti operativi dovranno impiegarsi appositi tool applicativi che consentano di produrre tali valori con continuità ed efficienza21. Venendo ora al problema della stima, indichiamo con n i(t) e nij(t) rispettivamente il numero di imprese che si trova nello stato i al tempo t e il numero di imprese nella classe i in t che passa a j in t + 1. 21 Nel nostro caso le tabelle di cui alle figure 7.10 e 7.11 sono state ricavate tramite un software dedicato all'algebra matriciale, MatLab. Il rischio di credito 453 La probabilità di transizione da i a j, entro il periodo t valutata all'inizio del periodo, può essere stimata come: [7.31] Possiamo affinare i nostri calcoli raccogliendo le osservazioni relative a più periodi. In tal caso, se il set di imprese/emissioni sottoposte a rating fosse costante nel tempo, si potrebbe stimare la probabilità di migrazione uniperiodale utilizzando semplicemente la probabilità di transizione media osservata durante l'arco multiperiodale considerato. Nella pratica, però, il rating può essere sospeso, ossia l'agenzia di rating può non emettere più il giudizio di merito per un dato prenditore (o un dato strumento finanziario). È, allora, necessario definire dei criteri per trattare queste tipologie di serie, che tendono ad essere la norma piuttosto che l'eccezione. In genere si assume che l'assenza di rating debba essere considerata in senso inferenziale come non informativa. Ne segue che il ritiro del rating da parte dell'agenzia comporta l'esclusione dal computo della probabilità di transizione delle relative osservazioni rispetto ai periodi in cui non si è prodotto il rating. Su questa base, se supponessimo che gli esperimenti multinomiali con cui viene rappresentato il processo di rating siano indipendenti, possiamo determinare lo stimatore di massima verosimiglianza per la probabilità di migrazione come: [7.32] Dove, per quanto detto, andranno esclusi quei periodi per cui non sussiste rating. Il limite principale di un processo markoviano è la stabilità dei tassi di migrazione, ossia la probabilità di default con cui un soggetto, che si muove da una classe ad un’altra, risulti indipendente dalla propria storia passata e costante e uguale per tutti i soggetti classificati nella stessa classe. La stima della perdita 454 Capitolo 7 inattesa ULRj,t,relativa a un credito di rating j con vita residua pari a t, potrebbe essere calcolata, con un’approccio semplificato, come radice quadrata del prodotto tra tasso di migrazione (TM j,t) per gli scarti al quadrato delle differenze tra la perdita attesa del credito di classe i e vita residua t-1 e la perdita attesa di un credito di classe j e scadenza t-1, in ipotesi di una LGD costante. La formula dovrebbe essere modificata in relazione alla possibilità che la perdita attesa associata ad ogni classe di rating possa risultare superiore a quanto stimato per effetto della volatilità della LGD. Invero, tale approccio prende in esame solo la perdita originata dal default e non quella manifestatasi per effetto del deterioramento del merito creditizio. A tal fine, si deve approfondire la relazione che susissiste tra valore dell’esposizione e rating assegnato. Al riguardo, soluzioni diverse sono prospettate nei modelli industriali dei quali citiamo l’approccio di Credit Metrics che sarà sviluppato nel capitolo successivo Il rischio di credito 455 Figura 7.9 456 Capitolo 7 Figura 7.10 Figura 7.11 Il rischio di credito 457 458 Capitolo 7 7.9 Dalla perdita della singola esposizione alla perdita di portafoglio Nel paragrafo precedente sono stati introdotti gli elementi fondamentali per la definizione del rischio di credito e si è visto come questi vengano impiegati nella misurazione del livello di rischio associato ad una singola esposizione. I concetti esposti possono essere estesi e opportunamente integrati ai fini della misurazione del rischio che caratterizza un intero portafoglio crediti. Si consideri ora un portafoglio composto da N esposizioni, per ciascuna delle quali siano noti i tre elementi caratterizzanti, PDi, LGDi, EADi, i=1,2,...,N. Così come per una singola esposizione, una prima misura del rischio di portafoglio è data dalla perdita attesa del portafoglio, facilmente ottenibile dalla somma delle singole perdite attese: N EL PDi LGDi EADi i 1 [7.33] N ELi i 1 Avendo modellizzato il fenomeno della perdita in termini di una variabile casuale, infatti, la perdita di portafoglio non è altro che la somma delle singole perdite, essendo lineare ed additiva; il suo valore atteso, quindi, è ottenuto semplicemente sommando i singoli valori attesi. Il tasso di perdita atteso, cioè la frazione del valore del portafoglio soggetta a rischio, si ottiene dividendo la perdita attesa per la sommatoria delle esposizioni in caso di default: ELR N EL N EAD i 1 wi LGDi PDi [7.34] i 1 i dove wi EAD EAD i rappresenta il peso della singola esposizione sull’intero portafoglio. Il rischio di credito 459 La perdita attesa di portafoglio, intesa come misura del rischio di un portafoglio crediti, presenta tuttavia un problema analogo a quello della perdita attesa di una singola esposizione. In generale, il valore atteso fornisce un’indicazione sintetica sull’andamento di una distribuzione di probabilità; in altri termini, esso esprime una misura orientativa del valore intorno al quale tende a localizzarsi (ossia a concentrarsi) una distribuzione. Per un portafoglio crediti, quindi, la perdita attesa rappresenta di certo un’utile informazione della rischiosità sottostante, ma non è per sé sufficiente a fornire una misura esaustiva della perdita del portafoglio stesso. Se l’obiettivo è quello di misurare la possibile perdita futura associata ad un portafoglio, in modo da adottare degli opportuni provvedimenti cautelativi, la sola perdita attesa, presa singolarmente, non è una misura idonea a soddisfare tale esigenza. E’ importante individuare la corretta prospettiva entro cui il concetto di perdita attesa deve essere giudicato. Con la misurazione della perdita attesa si cerca di stimare a priori l’ordine di grandezza della perdita che potrà derivare dal portafoglio. Tuttavia, la perdita effettiva, in quanto somma di eventi incerti, si rivelerà a posteriori sempre diversa dalla perdita attesa. Come visto per una singola esposizione, quindi, nel quantificare il rischio di portafoglio crediti diventa indispensabile selezionare una misura della variabilità della perdita intorno al valore atteso. E’ necessario tenere conto della perdita inattesa, ossia della possibilità che la perdita effettiva sia superiore a quella attesa. Anche in questo caso, si può impiegare lo scarto quadratico medio per misurare la rappresentatività del valore atteso come indice sintetico della distribuzione. A livello di portafoglio, infatti, subentra un ulteriore elemento di incertezza che influisce sulla variabilità complessiva: la correlazione fra diverse esposizioni. Quindi va valutata l’influenza che ogni esposizione può manifestare sulla probabilità di default delle altre esposizioni di cui si compone il portafoglio. Si consideri per semplicità un portafoglio composto unicamente da due esposizioni A e B. Ai fini di una corretta valutazione delle perdite cui il portafoglio è soggetto non è sufficiente la conoscenza delle singole perdite inattese –cioè ULA e ULB–, ma è necessario tener conto della variabile congiunta, ossia del grado di influenza reciproca che può istaurarsi tra due posizioni. L’indice solitamente impiegato per studiare il grado di 460 Capitolo 7 dipendenza reciproca sugli eventi di default di una coppia eventi di default/non-default è il coefficiente di correlazione lineare: Corr (DA, DB). La figura 7.12 può essere utile per comprendere intuitivamente l’importanza della correlazione nella determinazione della complessiva variabilità del portafoglio. Figura 7. 12 – Alberi a cascata Nella figura sono riportati più alberi “a cascata”, ciascuno dei quali evidenzia una diversa forma di correlazione. Senza perdita di Il rischio di credito 461 generalità nella figura si sottintende che gli eventi di default/non default avvengano secondo una precisa successione: dapprima si osserva l’esito dell’esposizione A e successivamente viene a determinarsi, a seconda del tipo di correlazione esistente, l’esito dell’esposizione B. Operando in questa ottica, attraverso la correlazione si misura il modo in cui le probabilità di default di B si modificano in funzione dell’esito di A. Si consideri come benchmark il caso in cui la correlazione è nulla, Corr (D A, DB) = 0. In assenza di correlazione, i due eventi sono tra loro indipendenti. Le probabilità di default di A non alterano le probabilità di default di B e viceversa. La presenza di correlazione, invece, fa sì che il default o non default della prima esposizione modifichi le probabilità di default dell’altra (come evidenziato dal segno di collegamento più marcato). Una correlazione positiva, Corr (DA, DB) > 0, implica che i due eventi tendono a muoversi nella stessa direzione. Si ha una propensione al contemporaneo verificarsi degli eventi di default o non default dei due crediti. In altri termini, il default di A aumenta la probabilità di default di B, mentre il non default di A aumenta la probabilità di non default di B. Al contrario, una correlazione negativa, Corr (DA, DB) < 0, indica una tendenza ad un movimento inverso dei due eventi: il default di una esposizione riduce le probabilità di default dell’altra. Da tali considerazioni emerge con chiarezza l’importanza della correlazione nella misurazione della variabilità del portafoglio. Si può dimostrare che per il semplice portafoglio considerato la perdita inattesa, cioè lo scarto quadratico medio della distribuzione, possa essere espressa come: UL i UL2A UL2B 2 ULA ULB Corr DA , DB [7.35] dove ULi, per i = A,B, è la perdita inattesa della singola esposizione. Il tasso di perdita inatteso riferito all’intero portafoglio diventa: ULP wA2 UL2A wB2 UL2B 2 wa wB ULA ULB Corr DA , DB [7.36] 462 Capitolo 7 Come può dedursi dalla espressioni appena ricavate, la correlazione, in quanto misura della variabilità congiunta degli eventi di default, diventa una componente della variabilità del portafoglio. Proseguendo il ragionamento sviluppato in precedenza, la presenza di una correlazione positiva aumenta la variabilità della perdita in quanto vi è una tendenza ad uno spostamento congiunto sull’esito delle due esposizioni. Al contrario, una correlazione negativa riduce la variabilità del portafoglio poiché la tendenza al movimento inverso tra le due esposizioni compensa le singole variabilità. Estendendo gli effetti della diversificazione su un portafoglio caratterizzato da n titoli, si ha UL P n n w w i 1 j 1 i j i , j UL i UL j [7.37] ne consegue che il contributo di ciascun prestito sulla rischiosità complessiva del portafoglio dipende dal livello della perdita attesa, dal peso di ciascuna posizione sulla esposizione complessiva del portafoglio e dalla correlazione tra la singola esposizione con le altre del portafoglio. La contribuzione marginale di un singolo prestito Ai fini della politica dei prestiti in una logica di portafoglio è interessante stimare il contributo marginale del singolo prestito sul rischio complessivo di portafoglio (ULMCi)22, per verificarne vuoi l’impatto sulla redditività attesa, vuoi l’effetto sul livello di diversificazione e, quindi, sul grado di concentrazione. Definiamo contribuzione di rischio marginale come l’incremento marginale di rischio della singola esposizione sul rischio complessivo del portafoglio . Analiticamente si deve calcolare la derivata parziale della perdita attesa del portafoglio rispetto alla perdita attesa del prestito i-esimo. 22 L’analisi si sviluppa secondo l’impostazione di Ong M.K., (1999), (p. 127), escludendo dalla derivazione di ULC la ponderazione di w i, ed assumendo che la perdita inattesa sia espressa come misura monetaria piuttosto che una percentuale dell’intero portafoglio. Il rischio di credito 463 ULMC i UL P UL i UL P2 UL i 1 2 1 UL P2 2 n n UL j UL k 1 j 1 k 1 UL i 2UL P 1 2 UL P2 UL i n UL j ij jk j 1 UL P [7.38] Dalla formula si evince come il contributo marginale di ciascun prestito alla volatilità del portafoglio dipenda dall’incidenza percentuale della perdita attesa dei singoli prestiti caratterizzanti il portafoglio. Volendo esprimere la volatilità del portafoglio in termini di volatilità del prestito i-esimo, possiamo anche riscrivere la formula del contributo marginale come segue: n UL P UL j 1 UL i P n UL I ULMC i UL i [7.39] i 1 Se l’incidenza percentuale di ciascun prestito nel portafoglio rimane costante risulta costante anche il contributo marginale della volatilità di ciascun prestito sulla volatilità complessiva del portafoglio Posto che ULi/ULP sia costante, si ha che n UL P ULMC i * UL i [7.40] i 1 La relazione esprime come la volatilità del portafoglio sia pari al prodotto della sommatoria dei contributi marginali di ciascun componente del portafoglio per la UL di ogni prestito. Possiamo pertanto stimare il contributo totale della volatilità di ciascun prestito (ULCi) come23: 23 Per un’analisi maggiormente dettagliata cfr. Ong M.K., (1999) pp.132-134. 464 Capitolo 7 n ULC i ULMC i *UL i 24 UL j 1 j ij [7.41] UL i UL P da cui si desume la proprietà che la sommatoria degli ULC i equivale alla volatilità del portafoglio, essendo: n n UL n ULC UL i i 1 i 1 j 1 i j UL UL P n n i 1 j 1 UL UL ij i j ij UL P UL2P UL P UL P [7.42] Ne consegue che la contribuzione marginale è una misura di rischio non diversificabile della singola posizione sull’intero portafoglio. Contribuzione marginale e correlazione di default Assumendo che il portafoglio sia caratterizzato da n prestiti che approssimativamente presentano le stesse caratteristiche e sono di importo uguale (1/n), si ha che ij== costante (per tutti i J). Riscrivendo l’equazione 1.9.5 si ha: n UL P n cov i , j i 1 j 1 n var i 1 n cov i , j j ,i j [7.43] da cui si dovrebbe ulteriormente derivare che: n UL UL P i 1 2 i 2 cov i , j i, j j n UL i 1 2 i n 2 UL i UL j i ,i j n(n 1) nUL 2 UL i n n(n 1)UL 2i 2 2 2 i 24 Cfr Ong M.K. (1999) p. 127 [7.44] Il rischio di credito 465 si ha , pertanto, che : UL P UL i n (n 2 n) 1.21 Assumendo quindi l’ipotesi di crediti di analogo importo possiamo riscrivere la contribuzione marginale del prestito i-esimo (ULCi) come: UL P 1 1 1 UL i n (n 2 n) UL (1 ) n n n n i ULC i [7.45] che per valore di n elevati può essere ridotta: ULC i UL i [7.46] Combinando la 1.9.9 e la 1.9.14, possiamo riscrivere: n UL j 1 j i, j UL P [7.47] dove esprime la media ponderata delle correlazioni tra i prestiti. Dall’analisi svolta emerge quanto segue: per il calcolo della perdita inattesa di un portafoglio applicando la 7.46 si deve stimare [n(n-1)]/2 correlazioni; circostanza invero di difficile soluzione essendo il portafoglio caratterizzato da un numero elevatissimo di posizioni25; l’applicazione della 7.46 non prende in considerazione prestiti di ammontare diversi e fattori di correlazione di natura differente, non consentendo, quindi, di valutare la concentrazione del portafoglio. 25 Un portafoglio commerciale di medie dimensioni include 2000 posizioni, rispettto alle quali si deve procedere alla stima di 1.999.000 correlazioni, cfr. Ong, M.K. (1999), p. 142 466 Capitolo 7 Correlazioni e concentrazione del rischio e diversificazione attraverso la stima dell’asset correlation La correlazione, la concentrazione del rischio e la diversificazione sono aspetti diversi di un unico problema. Per minimizzare il calcolo del numero delle defaul correlation e mettere in evidenza gli effetti del rischio di concentrazione occorre individuare i fattori casuali comuni che sono alla base delle correlazioni di default. La presenza del rischio sistemico, quale l’appartenenza delle imprese a settori produttivi o aree geografiche omogenee, non consente di eliminare il rischio attraverso la diversificazione, ossia la variabilità del tasso medio registrato dal portafoglio, mediante selezioni di impieghi a bassa correlazione. Si potrebbero inoltre considerare anche i fattori macroeconomici (PIL, variazione tassi di interesse) per spiegare l’evoluzione del merito creditizio delle imprese. Una delle metodologie al riguardo utilizzate per la stima della correlazione si basa sul modello di option pricing, secondo il quale la probabilità congiunta di insolvenza di due imprese viene determinata in funzione del grado di correlazione fra le variazioni del valore di mercato delle loro attività, che può determinare l’insolvenza di entrambe. Si può pertanto raffigurare la distribuzione di probabilità di tutti i possibili valori futuri, ad esempio, di due imprese e stimarne la probabilità di default in ipotesi di scenari più sfavorevoli in cui il valore dell’attivo sia inferiore a quello del debito. Si procede, quindi, alla valutazione congiunta delle probabilità di default delle due imprese, appartenenti allo stesso “cluster” geosettoriale, con le stesse modalità analizzate nel paragrafo precedente. L’ipotesi di correlazione e quindi il calcolo delle probabilità, associate ai relativi eventi, richiede di analizzare i fattori dai quali dipendono le variazioni degli attivi delle due imprese. Supponendo di individuare due componenti, una macroeconomica e una idiosincratica, le variazioni di valore risultano essere pari alla media ponderata delle variazioni dei due fattori. Qualora si attribuisca un peso pari a 100 al fattore macroeconomico, la correlazione sarebbe positiva e pari a 1, viceversa, avrebbe valore nullo se fosse pari a 100 il peso della componente idiosincratica. Il rischio di credito 467 Solo in quest’ultimo caso, le probabilità associate all’evento default sarebbero pari al prodotto delle probabilità di insolvenza delle due imprese. Ne consegue che una forte correlazione tra prenditori dello stesso cluster sarebbe indice di una elevata presenza di fattori macroeconomici, specularmente, segnali deboli di correlazione sarebbero espressivi di una prevalenza di componenti idiosincratiche. Pertanto, occorre verificare per un’attenta politica della diversificazione del portafoglio se, e in che misura, le imprese appartenenti allo stesso cluster siano correlate tra insolvenze all’interno dello stesso segmento e se, e in che misura, imprese appartenenti a cluster diversi siano tra loro correlate in relazione a singoli fattori macroeconomici. Nel primo caso occorre accertare la presenza o meno di sensibili escursioni del tasso di insolvenza medio; analiticamente, indicando con σ2 la volatilità delle serie storiche dei tassi di decadimento, il grado di correlazione medio tra i default dello stesso cluster è dato: 2 2 [ 7.48] dove μ indica la probabilità di default di lungo periodo della variabile binaria x che descrive il default dell’i-esimo prenditore del cluster, ossia: 1 n N x [ 7.49] i i 1 Al fine di stimare la correlazione media tra segmenti diversi collocati tra aree geografiche o settori distinti, si deve stimare il coefficiente di correlazione media di due imprese appartenenti a cluster x e y: xy cov x , y x x 2 y y 2 , [ 7.50] 468 Capitolo 7 dove μx e μy sono le probabilità di insolvenza di lungo periodo dei segmenti x e y. 7.10 La distribuzione delle perdite ed il capitale economico Nella misurazione del rischio di un portafoglio crediti è di fondamentale importanza la valutazione congiunta del valore atteso delle perdite e della loro variabilità. La prima misura rappresenta un indicatore dell’ordine di grandezza della perdita. La seconda, invece, fornisce un’indicazione sulla significatività del valore atteso come indice di sintesi rappresentativo di una distribuzione. In altre parole, calcolando la variabilità delle perdite intorno al valore atteso, si cerca di determinare una misura dello stato di incertezza sull’esito finale del portafoglio. E’ necessario enfatizzare il ruolo della variabilità nella misurazione del rischio di portafoglio. Dalla definizione di rischio, esposta all’inizio del capitolo, può dedursi che il concetto di rischiosità è strettamente connesso al verificarsi di un evento inatteso. Quindi la perdita attesa non rappresenta la vera incognita di un portafoglio di esposizioni. Qualora un’istituzione finanziaria decida di concedere un prestito ad una controparte, con la consapevolezza che questa potrà subire un deterioramento della propria condizione di solvibilità, è verosimile ritenere che tale ipotesi venga congruamente presa in considerazione con la scelta di un appropriato tasso di interesse sul prestito. Paradossalmente, se la perdita di un portafoglio fosse nota a priori con certezza, cioè con variabilità nulla, la banca non dovrebbe fronteggiare alcun rischio in quanto tale perdita verrebbe coperta e opportunamente ridistribuita fra le diverse controparti caricando uno spread sul tasso del prestito. Il rischio di credito, quindi, è più propriamente rappresentato dalla perdita inattesa, ovvero dalla variabilità dell’evento dannoso intorno al suo valore atteso. Il rischio di credito 469 Figura 7. 13 – Distribuzione delle perdite Ora, se si riconosce l’importanza della perdita inattesa nella misurazione del rischio di un portafoglio crediti, occorre chiedersi fino a che punto lo scarto quadratico medio fornisca un’adeguata rappresentazione. Tale adeguatezza è a sua volta legata alla asimmetria della distribuzione oggetto di valutazione. Nella Figura 7.13 la tipica distribuzione delle perdite di un portafoglio crediti (dal tratto più marcato) viene confrontata con una distribuzione simmetrica avente lo stesso valore atteso e scarto quadratico medio. La distribuzione delle perdite è generalmente caratterizzata da una notevole asimmetria positiva, cioè da una coda verso destra (long tail). Ciò è dovuto alle specifiche caratteristiche del rischio di credito. Da un lato, infatti, l’evento di default tende a verificarsi con probabilità piuttosto ridotta, ma dando origine a perdite consistenti. Dall’altro, l’evento di non-default, che si verifica con un’alta probabilità, dà luogo ad una perdita nulla. Tale asimmetria nei payoff e nelle probabilità genera la tipica asimmetria nella distribuzione delle perdite di portafoglio. Lo scarto quadratico medio viene definito come una misura simmetrica della variabilità, in quanto non distingue fra scarti positivi e negativi rispetto al valore atteso26. Per distribuzioni simmetriche, rispetto alle quali la 26 Lo scarto quadratico medio non è altro che la radice quadrata della varianza. Questa è data dalla media, ponderata in base alle rispettive probabilità, del quadrato degli scarti tra i valori che la distribuzione può assumere ed il valore atteso. Poiché nella varianza viene computato il quadrato degli scarti, in modo da evitare che scarti positivi vengano compensati da scarti negativi, se ne calcola la radice quadrata per esprimere la variabilità nella stessa unità di misura del fenomeno. 470 Capitolo 7 probabilità di avere scarti positivi è la stessa degli scarti negativi, lo scarto quadratico medio fornisce un’indicazione di quanto più o meno strette siano le code della distribuzione intorno al valore atteso. Figura 7. 14 – Distribuzione delle perdite: "il peso delle code” Viceversa, per distribuzioni fortemente asimmetriche, quale la distribuzione delle perdite di portafoglio, la variabilità è principalmente imputabile agli scarti positivi, ovvero alla coda lunga. Se ne deduce, allora, che per una corretta misurazione dello stato di incertezza che caratterizza un portafoglio è necessario valutare “il peso” della coda. Per superare tale problema si ricorre alla scelta di opportuni intervalli di confidenza. Come è noto, per distribuzioni continue, l’area sottostante al grafico su un dato intervallo rappresenta la probabilità che la variabile casuale assuma una determinazione compresa tra gli estremi dell’intervallo stesso. Nota la distribuzione delle perdite ed assegnata una probabilità arbitraria P%, si può calcolare il percentile LP% che caratterizza l’intervallo di confidenza [0,LP%] rispetto al quale è possibile a priori affermare che la perdita effettiva tende a collocarsi con probabilità P%. Nella figura 7.14 viene tracciata la distribuzione delle perdite. All’area al di sotto dell’intera curva, tratteggiata diagonalmente, viene assegnato il valore di 100 (o, più formalmente, di 1). L’area ombreggiata compresa tra 0 ed LP%, invece, assume valore P%, dove P esprime la probabilità che la perdita “cada” all’interno dell’intervallo [0,LP%]. Ad esempio, per Il rischio di credito 471 la distribuzione tracciata nella Figura 7.14, viene determinato l’ammontare di perdita L99% rispetto al quale è verosimile ritenere che la perdita effettiva si mantenga al di sotto di esso con una probabilità pari al 99%. Più in generale, assegnata la distribuzione delle perdite ed indicando con P% la probabilità arbitrariamente fissata che caratterizza l’intervallo di confidenza, il valore LP% così ottenuto viene detto valore a rischio (Value at Risk, VaR) al P%. La logica sottostante alla metodologia del VaR è quella di calcolare la massima perdita che un portafoglio crediti può generare, ricostruendo la distribuzione delle perdite, e di impiegare tale distribuzione per verificare il danno subito nello scenario peggiore che può determinarsi con un dato margine di probabilità. La differenza tra il valore a rischio LP% e la perdita attesa EL viene definita capitale economico (CE = LP% - EL) e rappresenta la massima perdita inattesa che la banca può subire con probabilità assegnata. Per cui, determinata la perdita attesa , ELp , la perdita inattesa, ULp , ci si può domandare quale sia l’ammontare di capitale economico,CE, tale che , per una dato livello di protezione (z), risulti : P L p % EL p CE z [7.51] Essendo il capitale economico un multiplo (k) dell’ULp, si ha: CE = k*UNLp [7.52] La 7.51 può essere pertanto riscritta: L p % El p P k z UL p [7.53] Nell’isolare la funzione di ripartizione delle perdite passate negli impieghi di una classe di rating elevata, si osserva una forte asimmetria a destra, da attribuire a una bassissima probabilità di subire perdite elevate e una elevata probabilità di tassi prossimi allo 0. 472 Capitolo 7 Viceversa, in quei crediti di classe di rating peggiore la distribuzione di probabilità dei tassi tende verso una normale, riducendosi il grado di asimmetria. Questo consente, diversamente dall’approccio in cui la stima della perdita non attesa è pari alla deviazione massima rispetto al valore medio atteso, di ipotizzare una forma funzionale della distribuzione del tipo beta27. 27 Tale distribuzione è caratterizzata da 2 parametri e che mostrano la concentrazione, in termini di probabilità, della distribuzione dei tassi di perdita intorno al valore atteso e lo spessore della coda di distribuzione che rappresenta la probabilità di ottenere tassi di perdita inattesa significativamente più elevati di quelli attesi. Il rischio di credito 473 Appendici al capitolo 7 Appendice 7.A - Probabilità di default e time horizon: aspetti formali Definiamo i seguenti eventi: Dk = «fallimento dell’obbligato al k-mo anno» Ek = «fallimento dell’obbligato entro k anni» Determinare la probabilità dell’evento Ek, posto che P Ek è la probabilità cumulata rispetto alle probabilità marginali P Dj ≤ k. Per semplicità supponiamo che: k (PDk p) [7.A.1] e che: (j k )( D j Dk ) [7.A.2] Dalla 7.A.1 si desume che le probabilità marginali (quelle relative ai singoli anni) sono costanti e dalla 7.A.2 che gli eventi Dk sono indipendenti. Procedendo per induzione, si determina il valore di P E1 e P E2. Risulta: PE1 PD1 p [7.A.3] PE2 P ( D1 D2 ) PD1 PD2 P ( D1 D2 ) [7.A.4] 474 Capitolo 7 Ricordando la 7.A.2 (indipendenza), si ha: D1 D2 P ( D1 D2 ) P D1P D2 p 2 [7.A.5] Perciò: P E2 2 p p 2 1 (1 p ) 2 [7.A.6] Si calcoli il valore di P E3: P E3 P ( D1 D2 D3 ) P ( E2 D3 ) P E2 P D3 P ( E2 D3 ) [7.A.7] Ancora una volta, sfruttando la 7.A.2, si ha: P E3 P E2 P D3 P E2 P D3 P E2 P D3 (1 P E2 ) [7.A.8] Usando la 7.A.7, P E3 1 (1 p ) 2 p (1 p ) 2 [7.A.9] Da cui, evidenziando (1 p ) 2 , P E3 1 (1 p)3 [7.A 10] Osservando la 7.A.7 e la 7.A.10, otteniamo la probabilità cumulata relativa ad un arbitrario numero n di anni: pn P En 1 (1 p ) n [7.A.11] Il limite della 7.A.11 è di considerare costante nel tempo le probabilità marginali. Viceversa, è verosimile ipotizzare che le probabilità tendano a modificarsi nel tempo e il passato si rifletta sul futuro. L’evidenza empirica conferma come in Italia e non solo Il rischio di credito 475 che le probabilità di insolvenza marginali28 tendono a diminuire nel tempo. Ciò si può giustificare in base alla teoria delle asimmetrie informative e della relazione con la clientela. Dal nostro punto di vista, se il tasso di insolvenza non è costante nel tempo, la 7.A.11 va rivista, semplicemente sostituendo all’unica probabilità annuale di insolvenza (p), le singole probabilità marginali. Indicando la probabilità cumulata con ( p̂ n ) , si ha: n pn 1 (1 d k ) [7.A.12] k 1 dove: dk P Dk [7.A.13] Dal momento che le probabilità marginali non sono più costanti, ma disponiamo di una struttura di probabilità differenziate per le diverse scadenze, si calcola la probabilità media come segue: p :1 (1 p ) n pn [7.A.14] p può essere determinato per via numerica risolvendo l’equazione: n 1 (1 p ) n 1 (1 d k ) [7.A.15] k 1 28 I dati possono essere facilmente ricavati dalle serie storiche archiviati nei sistemi nformativi aziendali delle singole banche o su base aggregata dagli organismi di vigilanza 476 Capitolo 7 Appendice 7.B - La distribuzione Beta Ricordiamo che: Beta( , ) : ( ) 1 f X ( x; , ) x (1 x) 0 x 1 ( )( ) X [7. B.1] dove : R R rappresenta la c.d. funzione Gamma, definita da: ( ) : x 1 x e dx [7. B.2] 0 È possibile dimostrare che se è intero allora la Gamma si riduce ad un fattoriale, ossia: N ( ) ( 1)! [7. B.3] Infatti: (1) e x dx 1 [7. B.4] 0 inoltre se > 0 integrando per parti si ha: ( 1) x x x e dx x e 0 Poiché x e x 0 x 1e x dx [7. B.5] 0 0 0 allora ( 1) ( ) [7. B.6] Si dimostra che la media della distribuzione betaè eguale 1 0 xf ( x; ; )dx [7. B.7] Il rischio di credito 477 e la varianza risulta essere: 1 2 x 2f x; ; dx 2 1 0 2 [7. B.8] Nel nostro caso il tasso di recupero è distribuito secondo una Beta ed è compreso nell’intervallo zero-uno: essendo il valore “zero” rappresentativo del caso di insolvenza in cui la perdita è pari all’intero valore del prestito ed “uno” il caso in cui è possibile, nonostante il default, recuperare l’intero ammontare del credito. La forma della distribuzione dipende pertanto da e Assumendo che= si dimostra che la funzione è simmetrica. I grafici possono essere numericamente generati, in modo relativamente semplice, attraverso un foglio elettronico con alcune accortezze29. A titolo esemplificativo, ipotizziamo che: =2, =2. In tal caso, il grafico della Beta sull’intervallo [0,1] è quello indicato nella figura che segue: Distribuzione Beta 2 1,5 PDF(RR) 1 0,5 0 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 RR: Tasso di recupero 29 Il lettore osservi che Microsoft Excel dispone la CDF (Cumulative Density Function) e la gamma e non la PDF (Probability Density Function). Altri pacchetti più avanzati, quali Mathematica o MatLab sono, invece, in grado di calcolare direttamente la PDF. 478 Capitolo 7 Il grafico appare simmetrico rispetto al valore medio atteso della distribuzione . Dalla 7.B.8 risulta, infatti, che: EX 2 1 22 2 [7. B.9] Con riferimento ai tassi di recupero, vi potrebbero essere molte situazioni in cui i valori si concentrano intorno agli estremi. “zero” ed “uno”, piuttosto che intorno al valor medio. Circostanza verosimile, poiché in ipotesi di insolvenza del debitore il tasso di recupero potrebbe essere nullo, viceversa, assumere valori pari all’unità in ipotesi di solvibilità del prenditore. Pertanto un tasso di recupero pari al valore medio, ossia il 50% , è scarsamente rappresentativo del valore effettivo di realizzo del credito. Una distribuzione beta, data la sua flessibilità, può pertanto individuare una forma ad U, maggiormente rappresentativa dell’evoluzione del tasso di recupero. Ricorrendo a una semplificazione, si supponga che: =0.1, =0.1 In tal caso, sulla base delle considerazioni svolte in precedenza, è possibile disegnare il grafico della Beta indicato nella figura che segue: Distribuzione Beta 2 1,5 PDF(RR) 1 0,5 0 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 RR: Tasso di recupero 1 Il rischio di credito 479 Anche in questo caso, da un punto di vista geometrico, il valore medio è sempre del 50% EX 0.1 1 0.1 0.1 2 [7. B.10] però, gli eventi si addensano nell’area in prossimità delle code 30. In corrispondenza degli stessi intervalli indicati nelle esemplificazione precedente, si dimostra come la probabilità di stimare valori prossimi agli estremi sia pari circa al 44%, mentre la probabilità che i valori attesi si addensano intorno al valore medio sia solo dello 3,5%. Una difficoltà, che si incontra nell’implementazioni operative dei modelli che utilizzano la distribuzione Beta, è da attribuire ai due parametri e , che non sono direttamente osservabili su un campione statistico. Diversamente, la distribuzione Normale è completamente descritta attraverso la sua media e varianza; perciò ai fini operativi si pone solo il problema di stimare la media e la varianza campionarie per applicarle al modello teorico. Si rende, allora, necessario anche per la Beta esprimere i suoi parametri sulla base dei valori di media e varianza che caratterizzano la popolazione statistica. A tal fine possiamo considerare la 7.B.8 come un sistema da risolversi rispetto alle incognite e . Dopo opportuni calcoli si ottiene: 2 2 , 2 1 2 2 1 2 . [7. B.11] Dove e 2 sono la media e la varianza. 30 Data la forma della distribuzione, il termine code può apparire poco indicato, ma viene usato per ragioni di confronto con il grafico precedente. 480 Capitolo 7 Appendice 7.C Derivazione di ULMCi Per calcolare la derivata parziale della perdita attesa del portafoglio rispetto alla perdita attesa del prestito i-esimo, si richiama la 7.C.1. UL P UL P ULMC i UL i UL i 2 1 2 1 UL P2 2 n n UL j UL k 1 j 1 k 1 UL i 2UL P 1 2 UL P2 UL i jk n UL j 1 j ij [7.C.1] UL P Scriviamo: n n n n n n k 1 j 1 UL jUL k jk UL jUL k jk UL iUL k ik UL jUL i j 1 k 1 j 1 k 1 j i k i ji [7.C.2] si ha: n n UL j UL k j 1 k 1 UL i jk n n k 1 j 1 UL k ik UL j n n j 1 j 1 UL j ij UL j e, poiché ij n n UL j UL k j 1 k 1 UL i ji jk : 2 n UL j 1 j ij Quindi il contributo al margine è dato da: ji ji [7.C.3] Il rischio di credito 481 n ULMC i UL j 1 j ij UL P [7.C.4] 8 I Sistemi di Rating Interno 8.1 Il Rating: definizioni e concetti fondamentali – 8.2 Segmentazione del portafoglio – 8.3 Implementazione del sistema di Rating – 8.3.1 La metodologia – 8.3.2 Analisi del modulo statistico – 8.3.2.1 Raccolta e analisi dei dati – 8.3.2.2 Estrazione del campione – 8.3.2.3 Modellizzazione – 8.3.3 Cenni sui moduli andamentali e qualitativi – 8.4 Dallo score al Rating: la granularità del sistema – 8.5 Il processo di assegnazione e revisione del giudizio – 8.6 Reporting e Monitoring – 8.7 Stabilità e consistenza dei Sistemi di Rating 8.1 Il Rating: definizioni e concetti fondamentali Il termine rating viene generalmente impiegato per descrivere il processo di assegnazione di un giudizio sintetico sulle caratteristiche qualitative e/o quantitative di una data unità singolarmente considerata. In ambito creditizio il rating viene utilizzato come sistema di segnalazione della rischiosità implicita di un prenditore. Nell’accezioni proposti da Standard&Poor’s e Moody’s, le più note agenzie attualmente operanti, il rating viene così definito: “Il rating di un’esposizione creditizia è il complessivo merito creditizio di un obbligato, ovvero del merito creditizio di un obbligato rispetto ad un titolo di credito o altra obbligazione finanziaria, basata sui fattori di rischio primari” “…un’opinione circa la futura abilità ed il vincolo legale di un emittente di far fronte ai pagamenti periodici sul debito principale e sugli interessi di un titolo a reddito fisso” 1. Una definizione più articolata, in grado di cogliere anche una prima descrizione del meccanismo sottostate al processo in 1 Traduzioni a cura dell’Autore, Standard&Poor’s, (1998). 482 Capitolo 8 questione, può essere rinvenuta in De Laurentis2, dove per rating si intende: “la classificazione di un prenditore o di una specifica operazione in una tra più classi di rischio creditizio predefinite in modo contiguo e ordinale, a cui saranno collegati tassi attesi di insolvenza o di perdita diversi”. È così già possibile pervenire all’individuazione di due fasi concettualmente distinte del processo di rating: la fase di rating assignment in cui l’obbligato o l’operazione sono assegnati, attraverso una valutazione qualitativa, alla classe ordinale di rating predefinita nel sistema; la fase di rating quantification in cui le classi di rating vengono associate alle misure cardinali di rischio. L’insieme delle definizioni proposte permette inoltre di evidenziare, in breve, i molteplici aspetti che entrano nella composizione di un sistema di rating. E’possibile individuare, in linea generale, diverse fasi o momenti fortemente correlati tra loro che caratterizzano un complessivo processo di assegnazione di un giudizio sullo stato di solvibilità di un obbligato: Individuazione e raccolta delle informazioni necessarie; Elaborazione delle informazioni per mezzo di valutazioni soggettive e/o oggettive; Esplicitazione del rating assegnato alla controparte e/o operazione; Revisione periodica del giudizio. È importante fin d’ora mettere in rilievo che non è possibile identificare un Sistema di Rating ideale, cioè valido in assoluto ea prescindere dalla singola situazione. Al contrario, l’architettura di questo – cioè, la specificazione e l’implementazione delle diverse 2 Cfr. De Laurentis G. (2000). I Sistemi di Rating Interno 483 componenti evidenziate – è legata in modo indissolubile alla finalità che con il Rating si intende perseguire3. Lo scopo primario di un Sistema di Rating Interno, è proprio quello di pervenire ad una misurazione –come si vedrà, diretta o indiretta – della perdita attesa connessa ad una specifica esposizione. In definitiva, il livello di dettaglio assegnato alle singole componenti e l’assetto effettivo del Sistema sono legati alle finalità che attraverso il Rating si intendono perseguire, nonché al grado di integrazione dei singoli stadi. La scelta delle componenti, quindi, dipende da numerosi fattori, quali la natura del business posto in essere dalla banca, l’efficienza dell’informazione disponibile, la consistenza dei rating prodotti ed, in ultima analisi, da una comparazione dei costi connessi al Sistema di Rating ed i benefici che da questo si intendono ottenere. Una prima distinzione tra Sistemi di Rating può essere rinvenuta tra il rating della controparte (borrower rating) ed il rating dell’operazione (facility rating) a seconda l’entità oggetto di valutazione. Nel primo caso il rating mira ad apprezzare, sulla base del profilo del debitore, il rischio ad esso connesso e quindi, ad individuare una probabilità di default. Il rating dell’operazione, invece, include la contemporanea stima, da un lato, della probabilità di default dell’impresa e dall’altro del valore di liquidazione degli asset ed il grado di seniority ad essi associati attraverso cui pervenire ad una valutazione diretta della perdita attesa. Si va facendo strada anche un’ulteriore distinzione identificabile come il rating della severity of loss in cui il rating dell’operazione viene fatto discendere dalla combinazione esplicita del rating della PD con il rating della LGD. Sulla base dei criteri evidenziati, si può operare una successiva distinzione. Se la classificazione è basata sulla misurazione diretta della perdita attesa, prescindendo dalla quantificazione delle sue componenti, il Sistema è focalizzato sulla singola operazione (facility rating) e viene definito monodimensionale (onedimensional). Per contro, un sistema bidimensionale (two 3 Tale aspetto è stato enfatizzato da Treacy W. e Carey M. (2000), i quali hanno in più occasioni sottolineato come “form follows function”. Ad esempio, una banca che utilizza il Rating principalmente per identificare deterioramenti o problematiche nelle esposizioni può ritenere che un numero di classi relativamente ristretto possa essere sufficiente. Viceversa, nel caso in cui il Rating viene usato nella misurazione della redditività interna, allora può essere più utile una scala composta da un numero relativamente elevato di classi. 484 Capitolo 8 dimensional) permette, da un lato, l’esplicitazione del rating controparte attraverso la stima della PD e, dall’altro, l’esplicitazione del rating dell’operazione attraverso l’expected loss (EL). Un sistema più complesso, invece, permette di raggiungere una misurazione indiretta della perdita attesa attraverso una stima disgiunta della probabilità di default, da un lato, e del tasso di perdita dall’altro. In definitiva un sistema one-dimensional coincide, di fatto, con un facility rating. Un sistema twodimensional può essere ottenuto dalla combinazione di un borrower rating e di un facility rating. In quest’ultimo caso, il borrower rating stima la probabilità di default della controparte mentre il facility rating, tipicamente composto di un numero di classi identico al primo, associa all’operazione la perdita attesa registrata in corrispondenza della classe di appartenenza della controparte, fatto salvo un eventuale aggiustamento per tenere conto delle garanzie migliori o peggiori della media4. In alternativa, un Sistema two-dimensional può essere ottenuto dal prodotto degli output di un borrower rating e un severity-of-loss rating. La scelta tra Sistemi monodimensionali o bidimensionali deve essere valutata intorno al trade-off che sussiste tra costi di implementazione e mantenimento del Sistema da un lato e livello di accuratezza desiderato dall’altro. In genere, i primi si prestano ad essere impiegati per funzioni amministrative o di controllo, ammesso che la natura del business primario della banca rimanga stabile nel corso del tempo, mentre i secondi sono più adatti nei casi in cui si intende impiegare l’output del modello nelle fasi di pricing, di analisi della profittabilità e quale input dei credit risk model. Occorre sottolineare, inoltre, che, nell’ambito dei Sistemi bidimensionali, le metodologie che stimano esplicitamente la PD e la LGD (Sistemi PD-LGD) presentano notevoli vantaggi, rispetto alle metodologie che stimano la PD e successivamente la EL (Sistemi PD-EL). Questi ultimi, infatti, prevedono tipicamente dei limiti nell’assegnazione della classe di EL, una volta nota la classe 4 È bene sottolineare che un facility rating di un Sistema one-dimensional non coincide, di norma, con un facility rating di un Sistema two-dimensional. L’unico elemento comune riguarda l’oggetto di valutazione, ovvero la singola operazione. Ci si attende, tuttavia, che il primo valuta contemporaneamente le caratteristiche del debitore e dell’operazione su un’unica scala mentre il secondo si riferisce esplicitamente all’operazione (e quindi alle garanzie a questa connesse), lasciando il compito di stimare la qualità creditizia dell’obbligato al borrower rating. I Sistemi di Rating Interno 485 di PD5. È evidente, quindi, che possono sorgere delle distorsioni nella stima della rischiosità dell’operazione nei casi in cui la perdita in caso di insolvenza sia obiettivamente lontana dalla media. Altresì, la stima separata della LGD permette di confrontare le valutazioni effettuate dal Sistema con l’esperienza storica della banca. Infine, si può sostenere che i Sistemi PD-LGD siano maggiormente in linea con il quadro normativo che viene delineato sulle recenti proposte di modifica dell’Accordo sui requisiti patrimoniali. Le informazioni da raccogliere ed utilizzare per l’effettiva implementazione del Sistema di Rating Interno sono piuttosto numerose ed eterogenee, comprendendo, a titolo indicativo, le capacità di reddito e di cash flow storica e prospettica, la solidità finanziaria dell’impresa, le garanzie offerte, la qualità del management, la dimensione, nonché la rischiosità del settore e paese di appartenenza6. In base alla natura delle informazioni raccolte, gli approcci sono classificabili raccogliendo, da un lato, quelli che utilizzano informazioni sia soggettive che oggettive e, dall’altro, quelli che invece fanno uso esclusivamente di informazioni oggettive 7. Non è possibile fissare a priori l’importanza da attribuire alle due forme di informazione in esame poiché il peso a queste assegnato dipende da diversi fattori e, principalmente, dalla dimensione delle controparti. L’incidenza delle informazioni soggettive è, in genere, proporzionale alle dimensioni della controparte. È ragionevole attendersi, infatti, che la complessità di un’impresa di grandi dimensioni non può essere colta nella sua pienezza attraverso dati numerici ma necessiti di una valutazione di fattori di natura soggettiva attraverso cui raggiungere una visione più dettagliata e articolata della situazione patrimoniale e finanziaria. Viceversa, la relativa semplicità strutturale di controparti di piccole dimensioni può essere agevolmente colta 5 In altri termini, dopo aver stimato la classe di appartenenza dell’obbligato, le regole tradizionalmente imposte a tali sistemi prevedono che nella successiva fase di definizione della classe di perdita attesa, non ci si possa discostare di, ad esempio, una classe in più o in meno rispetto a quella individuata in precedenza. 6 Nel paragrafo successivo verranno esaminate in dettaglio tali informazioni. 7 È bene notare che la distinzione tra informazioni di natura soggettiva/oggettiva non coincide con la distinzione qualitativa/quantitativa. È possibile identificare, infatti, dati di natura qualitativa, come ad esempio il settore industriale di appartenenza, ma che godono di una forma oggettiva. Cfr. De Laurentis G. ( 2001). 486 Capitolo 8 mediante l’esame di dati numerici, o comunque qualitativi ma oggettivizzabili, storici e correnti. In funzione della metodologia adottata in sede di elaborazione e sintesi delle informazioni è poi possibile distinguere fra statisticalbased process, basate su valutazione di tipo statistico, ed expert judgement-based process, basati su un processo di analisi qualitativa condotta da parte di esperti del merito creditizio. Un altro elemento di distinzione nell’ambito di un Sistema di Rating Interno riguarda il numero delle classi di cui questo si compone. Il vantaggio di una maggiore numerosità delle classi è quella di addivenire ad una migliore graduazione del rischio. A tal riguardo è possibile distinguere tra rating ad elevata granularità e rating scarsamente granulari. La scelta del numero di classi è funzionale all’uso a cui il Sistema e destinato. Ad esempio, se il giudizio che scaturisce dal Rating viene poi impiegato quale elemento primario nella fase di pricing dell’esposizione, è evidente che un Sistema altamente granulare è più adeguato. Viceversa, se il Rating viene utilizzato come strumento di definizione di limiti nella composizione del banking book, rispetto a “fasce” di rischiosità, un sistema con poche classi può essere sufficiente. In linea teorica, è poi possibile individuare una relazione positiva tra granularità da un lato e dimensione dell’istituto di credito e livello di concorrenzialità del mercato di riferimento, dall’altro. Da tali considerazioni discende un corollario: il numero di classi dipende dal segmento di clientela dell’istituto. Per le grandi imprese il maggior dettaglio nella graduazione del rischio riguarderà le classi ricomprese nell’ambito dell’investment grade. Per le imprese del middle market e le famiglie produttrici la maggiore granularità riguarderà le classi caratterizzate da livelli di rischio elevati. Infine, per ciò che concerne l’orizzonte temporale di riferimento di un Sistema di Rating, la letteratura sull’argomento è solita distinguere tra due filosofie alternative adottate in sede di giudizio I Sistemi di Rating Interno 487 Tabella 8.1 Criteri Entità oggetto di valutazione Elementi oggetto di misurazione Tipo di informazioni richieste Modalità del processo di sintesi Numero di classi Orizzonte temporale Classificazioni Borrower Rating Facility Rating One-dimensional (EL) Two-dimensional (PD-EL) o (PD-LGD) Informazioni Oggettive Informazioni Soggettive Statistical Based Judgment Based Alta Granularità Point-in-Time Bassa Granularità Through-the-cycle dei prenditori. Secondo la logica Point-in-Time il merito creditizio della controparte è valutato facendo riferimento alle condizioni di solvibilità correnti. In particolare, tale accezione non è circoscritta alle sole condizioni attuali, bensì si estende alle condizioni attualmente previste per il periodo relativo al finanziamento. Nella logica Through-the-Cycle, invece, la rischiosità di un obbligato è valutata su un orizzonte temporale ben più ampio, misurato in genere rispetto al periodo di durata del prestito ovvero su un intero ciclo economico. In quest’ultimo caso, oggetto di valutazione è principalmente la capacità di sopravvivenza della controparte nella fase peggiore del ciclo economico o in condizioni particolarmente avverse del settore di appartenenza (stress scenario). In altri termini, le condizioni di solvibilità del prenditore vengono valutate come se questi si trovasse nella fase peggiore del ciclo. Ne discende, allora, che variazioni della classe di rating possono in tal caso verificarsi solo nell’ipotesi di shock strutturali che influenzano le condizioni di lungo periodo dell’obbligato. La scelta tra la prima filosofia o la seconda, anche in tal caso, viene a dipendere dallo scopo a cui è preposto un Sistema di Rating. La logica Through-the-Cycle è adottata prevalentemente dalle agenzie di rating in vista degli elevati costi che questa richiede ed in virtù della natura del servizio prestato8. Al contrario, l’impostazione 8 Come è stato già sottolineato in precedenza, infatti, il giudizio espresso dalle agenzie di rating può essere considerato come un meccanismo di segnalazione della rischiosità di un titolo a favore degli investitori privati i quali preferiscono di solito adottare delle strategie di portafoglio orientate al lungo periodo (buy and hold). 488 Capitolo 8 Point-in-Time, più sensibile a variazioni del merito creditizio della controparte nel breve e brevissimo periodo, meglio si presta a rispondere a funzioni di reporting e monitoring della rischiosità del portafoglio. Nel corso dell’ultimo decennio si è assistito ad un rinnovato interesse, da parte sia del mondo accademico che dell’industria bancaria, alle tematiche connesse al rischio di credito. Tale attenzione, motivata dalle esigenze di una più efficiente gestione ed allocazione del capitale, anche in conseguenza delle consistenti perdite causate dai più noti financial distress, ha condotto all’introduzione di meglio articolate e complesse metodologie statistico-matematiche di valutazione della rischiosità delle singole controparti e di gestione del portafoglio. Non per ultimo, l’argomento è stato ripreso dalle Autorità di Vigilanza nazionali ed internazionali nella recente fase di revisione della normativa sui requisiti patrimoniali delle istituzioni finanziarie. L’approccio tradizionale adottato nella selezione della clientela, meglio noto come “istruttoria fidi”, consente di pervenire semplicemente ad una valutazione dicotomica della rischiosità sottostante, dando origine ad un output esclusivamente in termini di affidabilità/non affidabilità della singola controparte, senza esprimere alcun giudizio sulla sua rischiosità relativa. L’introduzione di metodologie più sofisticate permette una naturale estensione del giudizio basata sulla classificazione della rischiosità in più gruppi omogenei attraverso un’analisi approfondita dell’informazione disponibile. 8.2 Segmentazione del portafoglio Propedeutica a tali fasi è la ripartizione e la gestione della clientela secondo classi di merito definite statisticamente. E’ evidente, che quanto più il sistema impiegato è attendibile nella segmentazione della popolazione in classe di rischio, tanto minori saranno i costi dovuti al fenomeno della selezione avversa e, dunque, tanto maggiore la profittabilità del portafoglio crediti. La segmentazione può avvenire, in relazione alla tipologia e alla dimensione della controparte, in base a una o più variabili che il sistema mette a disposizione in seguito alle scelte effettuate dalla I Sistemi di Rating Interno 489 banca. Esempi di variabili sono: il fatturato, la natura dell’attività svolta, la storicità del rapporto tra banca e cliente, il settore di appartenenza, l’area geografica di attività e la forma giuridica. Figura 8.1 Criteri per la segmentazione CAUSE DI DEFAULT FONTI INFORMATIVE SEGMENTAZIONE DEL PORTAFOGLIO CREDITI ORGANIZZAZIONE MARGINI E COSTII L’obiettivo è quello di dividere l’universo dei prenditori, esistenti e potenziali, in gruppi il più possibile omogenei. A tal fine nell’ambito della individuazione dei criteri di segmentazione occorre tenere in considerazione le cause di default, le fonte informative, l’organizzazione all’interno della banca, i margini e i costi generati dal rapporto . Cause di default Le cause di insolvenza presentano una casistica ampia e differenziata a livello dimensionale e giuridico. A livello di impresa il peggioramento del merito creditizio di un’ azienda, può ricondursi a fattori macroeconomici o a fattori specifici dell’impresa. Ad esempio, nel caso di un’azienda con mercati di sbocco concentrati su paesi esteri, il default può essere causato da un repentino rafforzamento del cambio o dal deteriorarsi delle condizioni politiche del mercato di riferimento, che comportano un brusco ridimensionamento dei flussi di cassa rispetto alle aspettative dell’azienda stessa. Nel caso delle persone fisiche, le cause del default si riconducono alla stabilità delle fonti di reddito, presenti e future, allo stile di vita; fattori questi che possono influenzare in modo 490 Capitolo 8 significativo la capacità di onorare gli impegni presi dal prenditore nei confronti della banca. Fonti informative Un modello di valutazione del merito creditizio deve essere supportato, infatti, da un set di informazioni quali-quantitative omogenee per tutte le controparti analizzate, ma i dati concretamente disponibili per i diversi segmenti di clientela possono variare anche in modo determinante. Nel caso di società di capitali, la valutazione del merito creditizio si avvale di informazioni di bilancio, ma anche delle valutazioni del mercato e dei giudizi espressi dalle agenzie di rating. Per le società di dimensione minore, i dati contabili, talvolta imprecisi, poco dettagliati e scarsamente affidabili, devono essere integrati con fonti di informazione esogene (mercati, soggetti terzi, provider) con informazioni sul titolare /soci (rapporto fra family risk e business risk, informazioni sul patrimonio e proprietà immobiliare). Nel caso dei finanziamenti a privati, non avendo a disposizione un vero e proprio bilancio familiare il processo di valutazione si muove su dati relativi alle fonti di reddito del prenditore, alla proprietà immobiliare, al patrimonio, allo stile di vita. Organizzazione Strutture dedicate, orientate al presidio di specifici segmenti, sono all’uopo costituiti all’interno di una banca in modo da creare unità specialistiche che assistono il cliente in tutte le sue esigenze. Pertanto i diversi strumenti di misurazione del merito creditizio devono riflettere l’operatività dei centri preposti alla relazione di clientela. Costi di istruttoria I costi di istruttoria variano il relazione alla dimensione della clientela: sono alti per le imprese a fronte di esposizioni di importo elevato; contenuti per le esposizioni minime delle imprese minori. I Sistemi di Rating Interno 491 8.3 Implementazione del sistema di Rating 8.3.1 La metodologia Per ciascun modulo, in corrispondenza di ogni segmento, in relazione alle proprie peculiarità, viene applicato, in funzione della metodologia adottata in sede di elaborazione e sintesi delle informazioni, l’approccio oggettivo, cioè basato sull’impiego di specifiche metodologie statistico-matematiche (statistical-based process), o l’approccio soggettivo, cioè fondato su un giudizio qualitativo espresso da analisti esperti (expert judgement-based process). Di fatto, i Modelli di Rating effettivamente implementati nella pratica delle Istituzioni Finanziarie non possono essere ricondotti ad alcuno dei due estremi evidenziati. Bensì, nella maggior parte dei casi si preferisce optare per l’adozione di sistemi ibridi, cioè ottenuti dalla combinazione dei precedenti. In linea di massima, i sistemi prevedono una prima fase costituita da una valutazione oggettiva, effettuata per mezzo di un modello statistico, ed una seconda fase, condotta al fine dell’introduzione dell’intervento umano in cui l’output del modello viene approvato o corretto da un analista esperto9. Quest’ultima metodologia è in grado di superare i limiti insiti degli approcci completamente oggettivi o soggettivi10. Naturalmente, l’influenza dei due metodi di valutazione nel giudizio finale è diversa a seconda della dimensione dell’esposizione e della controparte considerata in funzione sia dei costi richiesti che della effettiva applicabilità dell’uno o dell’altro metodo. È evidente, infatti, che, dato il dispendio di risorse cui una attenta valutazione da parte di esperto può dare origine, un maggiore approfondimento dell’analisi soggettiva è riservato solo alle esposizioni di considerevole ammontare. D’altro canto, l’applicazione di metodi statistici di 9 Si noti, tuttavia, che in genere i “gradi di libertà” di cui dispone l’analista per la correzione dei risultati non vanno oltre una o due classi in più (upgrading) o in meno (downgrading) rispetto a quelle individuate dal modello statistico (constrained expert judgement-based process). 10 Se da un lato i modelli di natura statistica non tengono conto nella debita considerazione delle variabili di tipo qualitativo, nel senso che vi sono alcune variabili rilevanti ai fini del giudizio di affidabilità, ma che mal si prestano ad una quantificazione e manipolazione numerica, dall’altro lato il limite dei modelli soggettivi può essere rinvenuto nella possibilità di pervenire a valutazioni diverse pur partendo dallo stesso set informativo iniziale. Cfr. Gaetano A., Poliaghi P. e Vandali W. (2001). 492 Capitolo 8 scoring si presta più facilmente alla valutazione di realtà small business, dove la numerosità e l’omogeneità della popolazione considerata permettono una parametrizzazione dei modelli consistente rispetto al loro uso11. Le classificazioni basate sulla natura della informazioni impiegate e dei metodi di elaborazione sono tra loro strettamente connesse. Ci si attende, cioè, che l’informazione oggettiva sia manipolata per mezzo di approcci statistico-matematici, mentre quella soggettiva venga esaminata grazie all’intervento di analisti. Il passaggio dall’oggettività alla soggettività del Sistema di Rating è in funzione della dimensione della controparte. Ad esempio, indicando con il peso attribuito alla componente oggettiva (CO) in una scala da 0 a 100 e con 1- il peso della componente soggettiva (CS), il rating finale (R) può essere ottenuto dai singoli punteggi ponderati, R= CO+(1-) CS. Il peso dei due fattori varia, pertanto, nel continuum, al variare della dimensione della controparte. Nella prassi operativa si stanno affermando sitemi ibridi, articolati su tre step: modulo statistico modulo andamentale modulo qualitativo Il peso dei tre score nel rating è una componente parametrica definita in fase di impianto sulla base di una relazione del tipo R=X*S (Statistico)+Y*S(andamentale)+Z*S(qualitativo) [8.1] Dove S indica lo score rispettivamente per i singoli componenti il Rating ed X,Y,Z rispettivamente i pesi. L’analisi che segue s’incentra sullo scoring statistico con brevi cenni alle altre sue tipologie di score. 11 L’utilizzo di sistemi di scoring puri, cioè scevri da qualunque intervento umano viene solitamente riservato al settore retail. I Sistemi di Rating Interno 493 8.3.2 Analisi del modulo statistico Lo sviluppo del modello statistico, dopo aver selezionato i segmenti, si articola in quattro fasi (figura n° 8.3) 1. 2. 3. 4. raccolta e analisi dei dati estrazione del campione modellizzazione analisi dei risultati 8.3.2.1 Raccolta e analisi dei dati Il patrimonio informativo È noto che la previsione delle insolvenze e la definizione di un giudizio di affidabilità su un obbligato sono operazioni particolarmente complesse a causa, da un lato, della numerosità dei fattori che influiscono sullo stato di solvibilità e, dall’altro, delle difficoltà nella modellizzazione di tali elementi e del modo in cui questi interagiscono tra loro. In generale, i fattori di rischio (risk factors) presi in esame in fase di assegnazione dipendono dal grado di accuratezza che si intende raggiungere, e quindi, in ultima analisi, dalle finalità riservate al Sistema di Rating. Occorre sottolineare, inoltre, che i criteri selezionati, espressi in termini formali, sebbene costituiscano una guida utile, risultano spesso piuttosto scarni e poco articolati e quindi di non immediata applicabilità al caso concreto. Molto spesso, quindi, l’attribuzione della classe di rischiosità riflette la cultura creditizia interna della banca piuttosto che una “griglia” di regole standardizzate. Le indagini sugli ambienti entro cui si svolge l’analisi condotta dal rater si spostano progressivamente dalle caratteristiche proprie dell’impresa al contesto settoriale in cui questa opera, per poi passare all’esame delle componenti strutturali di rischiosità del paese di appartenenza. Nel seguito, verranno brevemente descritti i singoli fattori oggetto di analisi. Si premette che gli aspetti trattati e i criteri adottati nella valutazione di questi possono essere concettualmente separati in due gruppi. Da un lato, possono essere rinvenuti gli elementi mirati alla stima della probabilità di default, ovvero diretti 494 Capitolo 8 Figura 8.2 – Analisi del modulo statistico Classe rating Percentuale di rischiosità Monitoraggio modello I Sistemi di Rating Interno 495 SEGMENTAZIONE RACCOLTA ED ANALISI DEI DATI CAMPIONAMENTO DEI GRUPPI DI IMPRESA MODELLIZZAZIONE ANALISI DEI RISULTATI 496 Capitolo 8 alla valutazione della capacità di reddito del prenditore intesa quale capacità di generare flussi di cassa futuri, per il puntuale adempimento delle obbligazioni assunte. Dall’altro, si trovano quegli elementi funzionali alla definizione della effettiva severità della perdita, e quindi finalizzati alla determinazione del valore di liquidazione degli assets aziendali. Occorre sottolineare, tuttavia, che il confine tra i due aggregati è alquanto labile, nel senso che quasi mai è possibile riservare l’esame di un dato aspetto unicamente alla stima della PD o della LGD. Nella maggior parte dei casi, infatti, dallo stesso aspetto, oggetto di analisi, si ottengono informazioni valide per entrambi gli scopi12. Analisi quantitativa Analisi Finanziaria. Il primo passo da compiere per la valutazione delle caratteristiche proprie dell’obbligato, qualora si tratti di un’impresa, è fondato sull’esame dei dati di bilancio. In generale, l’analisi di bilancio consiste in un insieme di tecniche particolari che, mediante confronti tra valori patrimoniali ed economici, facilita l’interpretazione dei dati risultanti dal bilancio stesso. Tali valutazioni possono essere attuate attraverso l’impiego di due metodologie tra loro complementari: l’analisi per indici e l’analisi per flussi. L’analisi di bilancio per indici (ratios analysis), attraverso il calcolo di appositi rapporti o differenze tra valori o classi di valori contenuti nel bilancio opportunamente riclassificato consente di valutare la situazione patrimoniale, finanziaria ed economica dell’impresa. In definitiva, tali confronti consentono di accertare se l'azienda osservata è solida, ossia sufficientemente 12 Probabilmente, sarebbe più corretto affermare che, ai fini della stima della PD o della LGD, ciò che cambia non è tanto il tipo di informazione considerata, ma il modo in cui questa viene manipolata. Ad esempio, dall’analisi della situazione finanziaria viene presa in esame la struttura finanziaria dell’impresa distinguendo tra attività e passività correnti o a lungo termine al fine di dedurre la capacità dell’impresa di armonizzare l’orizzonte temporale delle fonti di finanziamento con quello degli impieghi e quindi di minimizzare i costi del finanziamento. In tal caso vengono impiegati indici di bilancio quali il current ratio o l’incidenza degli oneri finanziari sul risultato d’esercizio. La stessa fonte di informazione – il Bilancio d’Esercizio – viene poi usata per la determinazione dello stato di liquidità (e di liquidabilità) dell’impresa ai fini della stima della LGD. Ancora, l’informazione sullo stato di competitività del settore in cui l’impresa opera può essere impiegato tanto per la stima della PD quanto nella stima della LGD. Nel primo caso, infatti, si può ragionevolmente sostenere che una forte competitività aumenti la verosimiglianza di un default dell’impresa a seguito, ad esempio, di errori strategici. Allo stesso tempo, dalla stessa informazione si può dedurre che, in caso di default, è possibile una più rapida liquidazione delle immobilizzazioni dell’impresa. I Sistemi di Rating Interno 497 capitalizzata, ha prodotto liquidità, per cui è in grado di fronteggiare prontamente ed economicamente i propri impegni; è in grado di rinnovarsi, e, quindi, è capace di recuperare monetariamente gli investimenti in tempi ragionevolmente brevi; ha una redditività soddisfacente, ossia remunera adeguatamente il capitale ed è efficiente, poiché è in grado di utilizzare in modo ottimale le risorse di cui dispone. È evidente che ogni ratio non può essere considerata singolarmente ma come elemento di un sistema più complesso, che va esaminato nella sua interezza per non giungere ad interpretazioni limitative. Infatti, ai fini di una corretta analisi, ciascun indice deve essere valutato rispetto agli altri indici della stessa azienda (dimensione aziendale), rispetto agli indici medi del settore di appartenenza (dimensione settoriale) ed in termini di reattività alle fluttuazioni del ciclo economico nonché di stabilità (o, viceversa, di volatilità) nel corso del tempo (dimensione temporale)13. È opportuno sottolineare che la bontà e la qualità dell’analisi non è collegata alla quantità dei quozienti calcolati, che peraltro può essere elevatissima. L’analisi di bilancio, infatti, può essere condotta per una molteplicità di scopi. Una massa eccessiva di dati, pertanto, può essere fuorviante o rendere molto più complessa la formulazione delle conclusioni. Un ulteriore strumento a disposizione dell’analista è rappresentato dal rendiconto finanziario, un documento nel quale trova una esaustiva rappresentazione l’attività finanziaria dell’impresa. La dinamica finanziaria della gestione è studiata prevalentemente mediante l’analisi dei flussi di capitale circolante netto e dei flussi di liquidità immediata o di cassa. Assumendo che l’oggetto di analisi sia la determinazione della rischiosità relativa dell’impresa, è possibile impiegare diversi metodi statistico-matematici per individuare quegli indici maggiormente significativi a tale scopo. Può essere utile verificare 13 È chiaro che essendo l’azienda un organismo vitale ove sussistono forti interrelazioni tra le diverse aree gestionali e funzionali, occorre procedere ad una valutazione della stessa nel suo complesso. Altresì gli indici riscontrati nell'analisi della situazione economica, patrimoniale e finanziaria dell'obbligato assumono una dimensione relativa rispetto al settore di appartenenza, poiché i ratios eletti ai fini dell'assegnazione del rating sono comparati a quelli desunti come benchmark dal relativo settore industriale. Infine, si tratta di analisi temporale o sequenziale poiché non dovrà limitarsi ai dati di un solo esercizio, ma essere estesa ad un numero adeguato di esercizi (di solito, almeno tre). 498 Capitolo 8 quali indici risultano maggiormente rappresentativi nella previsione delle insolvenze. La qualità dei dati di bilancio. Il rater dovrà esprimere un giudizio sul grado di attendibilità o di credibilità e di espressività del bilancio. Si tratta in sostanza di accertare la corrispondenza del valore delle poste iscritte in bilancio con i corretti criteri di valutazione e gli opportuni principi contabili. Tuttavia, poiché l’analista esterno non dispone di un’ampia informativa al riguardo, può essere accolta con particolare favore la certificazione rilasciata da una società di revisione e l’assenza di eccezioni mosse dai revisori stessi o dai sindaci. Informazioni qualitative. Le variabili di bilancio forniscono solo una rappresentazione della situazione complessiva dell’impresa. Per migliorare le capacità diagnostiche delle funzioni occore acquisire informazioni sull’ambiente esterno, sull’organizzazione, sui problemi interni, sulle principali decisioni chiave adottate dall’impresa. Le variabili Le variabili da utilizzare per alimentare i processi statistici sono diversi a seconda del segmento del campione considerato e possono essere distinte in due principali gruppi: il primo comprende indicatori di bilancio relativi principalmente alla situazione reddituale, alla struttura finanziaria e alla liquidità, distinti ovviamente in base alla natura dell’attività svolta; il secondo è caratterizzato da indicatori che offrono una prospettiva di analisi su variabili di bilancio, su aspetti qualitativi, quantificabili e non, e da alcuni dati anagrafici dei soggetti. Controllo formale sulla base dei dati. E’ essenziale compiere alcune operazioni preliminari, quali il controllo delle inversione di segno (es. Perdite / patrimonio negativo), individuazione degli outliers, ossia indicatori economicamente corretti ma privi di significato che si collocano I Sistemi di Rating Interno 499 agli estremi della distribuzione, verifica della monotonocità del segnali economico e finanziario, per cui a partire da un certo valore l’indicatore segnala la preferenza per uno dei gruppi della società, prima di quel valore, e procedendo in direzione opposta, la preferenza va un altro gruppo. Riduzione degli indicatori da inserire nel modello Sulla base dei test di valutazione, come le analisi fattoriali, vengono isolati un numero ridotto di variabili ritenute più significative. Il periodo di riferimento La scelta del periodo di distanza dell’evento default, su cui stimare il modello, presenta alcune criticità. Si dimostra che stime su t-1 forniscono buone capacità diagnostiche, che vengono meno se applicati a periodi di riferimento più ampi, t-2, t-3. Stime così lontane hanno significato solo per individuare fragilità strutturali che associate a debolezze economiche siano causa di insolvenza. 8.3.2.2 Estrazione del campione Definizione dei gruppi di imprese La definizione di imprese bad o anomale e di imprese sane o good rappresentano scelte cruciali del modello. Nel primo caso, occorre definire lo stato di default. Nell’ipotesi più restrittiva l’anomalia viene definita strettamente come fallimento o come evento connesso a una dichiarazione di una procedura concorsuale prevista dalla normativa giuridica. Nel caso delle banche è utile considerare non solo l’evento estremo ma anche i segnali del processo di crisi aziendale in atto, quale le sofferenze, gli incagli superiore a un certo periodo e le ristrutturazioni. Per quanto concerne le imprese sane, se apparentemente presenta maggiore possibilità di individuazione, di fatto, include un coacervo di imprese che versano in situazioni molto diverse tra loro, ossia imprese attive, ma anche controparti incagliate, in evidenza o exincagliate. Dal punto di vista statistico ed economico dovrebbero essere escluse dal campione le imprese eccellenti e quelle 500 Capitolo 8 vulnerabili, al fine di isolare unità produttive rappresentative di condizioni normali di gestione. Composizione del campione In teoria la numerosità del campione dovrebbe riflettere la popolazione, ad esempio il 10% fallite e il 90% sane. Si preferisce, per evitare sovrapposizioni delle distribuzioni di variabili, utilizzare una numerosità di campioni paritetici, che pur violando il concetto di casualità del campionamento, riduce i costi diretti e indiretti degli errori. 8.3.2.3 Modellizzazione Nell’approccio ordinale/cardinale alla stima del merito creditizio possono essere fatti confluire tutti i modelli o sistemi diretti alla determinazione della rischiosità di una controparte sviluppati nel corso degli ultimi due decenni. Naturalmente, una classificazione esaustiva della letteratura sull’argomento è alquanto ardua, se si tiene conto della vastità della tematica. Ai fini di una corretta esposizione, sembra preferibile adottare, quale ottica interpretativa della letteratura esistente, la ragion d’essere originaria del presente lavoro, ovvero l’indagine sugli spazi di applicabilità dei sistemi di valutazione dei prenditori. Una volta esplicitata la chiave di lettura della modellistica, è bene ricordare il significato attribuito ai termini ordinale e cardinale nell’ambito delle due dimensioni minime entro cui si misura il rischio di credito: probabilità dell’evento creditizio di riferimento e perdita incorsa ovvero la perdita attesa. L’approccio ordinale raccoglie le metodologie dirette all’assegnazione di un prenditore ad una classe qualitativa, poiché condivide con questa una serie di caratteristiche predefinite. L’approccio cardinale, invece, comprende quelle metodologie che consentono di ottenere una stima quantitativa diretta della grandezza di riferimento (PD o ELR). Focalizzando l’attenzione sui dati di input richiesti per una effettiva implementazione dei sistemi, è possibile poi distinguere tra modelli basati sui dati di bilancio (accounting-based) e modelli basati sulle quotazioni di mercato (market-based). Prendendo in esame dapprima i modelli accounting-based, anche in virtù di I Sistemi di Rating Interno 501 considerazioni di carattere cronologico della letteratura, si può affermare che tali modelli impiegano essenzialmente metodologie statistiche di analisi multivariata in cui le variabili contabili di riferimento vengono tra loro combinate e pensate in maniera tale da produrre un valore numerico che può essere a sua volta interpretato come la probabilità default dell’obbligato o un punteggio (score14) utile ai fini dell’attribuzione dell’obbligato ad una classe in base a dei range predefiniti15. Possono essere individuati almeno quattro approcci metodologici di analisi multivariata di rischio di credito: i modelli di probabilità lineare; il modello logit; il modello probit; i modelli di analisi discriminante. Tali modelli16 mostrano una certa validità empirica in corrispondenza sia di diverse fasi del ciclo economico che di aree geografiche, sono stati comunque oggetto di alcune critiche. In primo luogo, è stato evidenziato come tali approcci, facendo fondamento sulle risultanze contabili, sono di fatto basati su dati raccolti ad intervalli temporali discreti e indicativi della storia 14 È utile anticipare che, trattandosi di un argomento che ha ricevuto un’attenzione diffusa solo in tempi recenti, l’analisi dei modelli di Rating non beneficia di una terminologia omogenea. In questa sede, il termine scoring viene utilizzato in senso lato, estendendolo a tutti i modelli che, a partire da un insieme di dati di input, consenta di ottenere una valutazione numerica della rischiosità dell’obbligato. In tale ottica, verranno considerati modelli di scoring non solo i modelli da cui si ottengono valutazioni numeriche generiche ma anche le analisi logit, il cui output è interpretabile come la probabilità di default. È in tal senso che in questa sede viene interpretata la definizione proposta da De Laurentis G. (1998) in Sironi A. e Marsella M.: “Lo scoring è […] una specifica tecnica di determinazione di una misura quantitativa di affidabilità di un prenditore (più raramente di un’operazione) sulla base di variabili di input e relazioni, rispettivamente, individuate e stimate su predefiniti campioni di debitori utilizzando apposite metodologie statistiche”. 15 Vi sono, naturalmente, anche modelli di scoring univariati in cui i ratios chiave del potenziale prenditore vengono confrontati con quelli di benchmark riferiti all’industria (o gruppo), al fine di ottenere uno score senza tuttavia adottare alcuna forma di confronto “trasversale” dei dati. Sebbene questi siano stati i primi modelli statistici effettivamente impiegati per la previsione delle insolvenze, possono ormai considerarsi superati e vengono pertanto esclusi dalla presente rassegna. L’approccio univariato alle previsione delle insolvente coincide sostanzialmente con l’analisi finanziaria illustrata nel paragrafo precedente. Il più noto lavoro condotto facendo uso dell’analisi univariata viene generalmente riconosciuto in Beaver W.(1966), le cui conclusioni più interessanti sono riassunte da F. Varetto (1999) in Szego G. e Varetto F. 16 Per un approfondimento di tali modelli si rinvia a una letteratura specialistica in Szego G. e Varetto F. (1999). 502 Capitolo 8 passata (bakward looking), al contrario dei dati di mercato che invece sono maggiormente reattivi nell’anticipare le variazioni delle aspettative degli operatori (forward looking). In secondo luogo, le formulazioni analitiche di tali approcci impiegano funzioni lineari dei dati di base che contrastano con una realtà che raramente soddisfa questa proprietà. Infine, occorre rilevare come tali modelli conservino ancora un certo margine di soggettività in quanto non basati su un modello teorico di riferimento che lega tra loro le variabili chiave attraverso specifiche relazioni funzionali. I modelli market-based si sviluppano nel corso degli anni ‘90 proprio in risposta a tali criticità. L’obiettivo è quello di definire e modellizzare, in termini analitici, il processo di default del prenditore. In tale classe di modelli vengono solitamente riconosciuti due approcci: strutturale da un lato ed in forma ridotta dall’altro. Nell’approccio strutturale, che prende avvio dai fondamentali lavori di Black e Scholes (1973) e Merton (1974), l’evento di default viene ricondotto all’evoluzione della struttura patrimoniale dell’impresa. L’impresa, cioè, cade in default quando il valore degli assets, alla maturity del debito, scende al di sotto del valore nominale di quest’ultimo. Sebbene il legame tra valore degli assets e solvibilità dell’impresa, che caratterizza i modelli strutturali, rappresenti un elemento particolarmente solido su cui basare la stima della probabilità di default e del recovery rate, il limite principale riguarda il flusso informativo necessario alla stima dei parametri, realisticamente sostenibile solo per le società dotate di una quotazione nei mercati finanziari17. I modelli in forma ridotta, invece, cercano di dedurre le proprietà del processo di default dal differenziale di tassi che sussiste tra i titoli rischiosi ed i titoli privi di rischio, sulla base dell’assunto che tale differenziale rappresenti il compenso richiesto dagli investitori per il rischio di insolvenza. Sebbene tali modelli necessitino di un input molto più modesto rispetto ai modelli strutturali, l’assenza di un legame 17 L’effettiva implementazione dei modelli strutturali, infatti, richiede la conoscenza del valore degli assets e della volatilità del processo stocastico che ne governa l’evoluzione (o di variabili direttamente connesse a questi ultimi). Tali dati, ovviamente, non sono direttamente osservabili ma possono essere approssimati solo attraverso i prezzi di mercato dei titoli azionari. I Sistemi di Rating Interno 503 endogeno alla implicazioni18. struttura dell’impresa ne indebolisce le 8.3.3 Cenni sui moduli andamentali e qualitativi L’obiettivo fondamentale è di anticipare la manifestazione delle insolvenze attraverso tempestiva acquisizione e analisi dei dati rilevanti che qualificano l’andamento storico del rapporto banca cliente, una preselezione dei casi critici (anomalie) ed un controllo selettivo per classi di rischio. Ciò comporta una rilevazione delle posizioni anomale, una valutazione di tipo andamentale sull’evoluzione di queste ultime, attraverso la storicizzazione delle stesse e dei dati analizzati; l’attribuzione di un giudizio sintetico sul grado di rischio; una classificazione dei soggetti analizzati all’interno di differenti classi pass e/o fail; una misurazione del grado di affidabilità del cliente e del grado di rischio a livello di singolo prodotto erogato. La valutazione qualitativa si basa su un modulo costituito da una serie di questionari creati ad hoc per raggruppamenti omogenei di soggetti con il duplice obiettivo di una valutazione qualitativa del soggetto e di archiviare informazioni supplementari sui diversi prenditori ad integrazione del supporto informativo disponibile all’interno di ciascuna banca. Il questionario si articola in tre aree, una relativa all’analisi della controparte, l’altra al settore di appartenenza e l’ultima al Paese di operatività. Il rating assegnato da agenzie esterne a livello di controparte, qualora esista19, e di settore rappresenta un fondamentale input nella valutazione interna effettuata dalla banca. Tale elemento, infatti, può essere, eventualmente accompagnato da un sistema di mapping, completamente sostitutivo del rating interno o costituire il punto di partenza per ulteriori analisi20. Qualora l’impresa oggetto di valutazione intrattenga rapporti commerciali di rilievo verso paesi esteri, o svolga la propria attività 18 Da come descritto, i modelli in forma ridotta utilizzano i dati sulle quotazioni di mercato del debito obbligazionario emesso da un’impresa. 19 In genere, infatti, tale tipo di informazione esiste solo quando l’impresa è di grandi dimensioni. Viceversa, nella maggior parte dei casi, tale informazione è indisponibile. 20 Cfr. Basel Committee on Banking Supervision (2000). 504 Capitolo 8 all’estero21, l’assegnazione del rating richiede un’ulteriore fase necessaria all’analisi del rischio Paese. In generale, tale fase è finalizzata all’esame dell’ambiente politico, economico, sociale, tecnologico e naturale dei paesi in cui l’impresa agisce o intende agire. Gli aspetti menzionati possono essere fonte di incertezza sotto numerosi punti di vista, in funzione del tipo di attività e di rapporto intrattenuto. A titolo esemplificativo, nella valutazione si può essere interessati a: la conoscenza dell’atteggiamento della classe politica nei confronti degli scambi internazionali, delle multinazionali, dell’iniziativa privata, e così via; all’eventualità di un cambiamento del quadro normativo, tale da comportare un mutamento, sia positivo che negativo, degli scenari; la possibilità che si verifichino tensioni sociali e politiche tali da condurre ad una nazionalizzazione o espropriazione delle attività o ad un consolidamento del debito pubblico; il sopravvenire di vincoli alla conversione valutaria o dell'indisponibilità della valuta in cui è espresso il debito; la possibilità che vi siano ampie fluttuazioni del tasso di cambio22. Generalmente il rating assegnato al Paese estero da un'agenzia esterna funge da indicatore alla valutazione interna del rischio Paese. I punteggi associati alle diverse risposte vengono ponderate in base ai pesi attribuiti agli argomenti e alle domande e concorrono al calcolo dello score qualitativo che determina, insieme agli altri settori intermedi, il rating della controparte non definitivo 21 In tal senso potrebbe essere utile fissare una soglia percentuale delle entrate o attività localizzate al di fuori del mercato locale oltre la quale avvalersi anche del fattore rischio Paese. 22 È chiaro che un deprezzamento della moneta estera è uno svantaggio se l’impresa esporta la sua produzione mentre è un vantaggio se l’impresa importa materie prime. Un ragionamento opposto, poi, vale nel caso di un apprezzamento del tasso di cambio. I Sistemi di Rating Interno 505 8.4 Dallo score al Rating: la granularità del sistema Nei paragrafi precedenti sono stati illustrati i criteri e le metodologie di che generalmente vengono seguite nella definizione di un Sistema di Rating. È verosimile ritenere, tuttavia, che nell’implementazione operativa di un framework di gestione avanzata del rischio di credito, l’Istituzione Finanziaria, dopo aver definito i principi-guida, realizzi Sistemi di Rating differenziati a seconda del sub-portafoglio considerato. In altri termini, le metodologie esposte vengono tra loro miscelate in funzione delle caratteristiche dello specifico segmento considerato23. Naturalmente, il raffinamento e l’accuratezza del Sistema per subportafoglio ha senso fino a quando l’ampiezza di quest’ultimo giustifica l’impiego di risorse che comporta (analisi costi/benefici). Una volta stabiliti i sub-portafogli di riferimento, occorre affrontare due problemi tra loro consecutivi di grande importanza: La definizione della numerosità e dell’ampiezza delle classi ordinali di rating incluse in ciascun sub-portafoglio; La creazione di una master scale, ovvero una scala di rating singola che permetta di ricondurre ad unità le valutazioni ottenute sui diversi segmenti, garantendo così la confrontabilità del rischio implicito in giudizi di diversa natura (ovvero, tra prenditori differentemente caratterizzati) nonché la coerenza nella valutazione dei rischi complessivi. Nel seguito del paragrafo, quindi, verranno affrontate tali tematiche. Numero ed ampiezza delle classi. Una classe di rating raccoglie tutti i debitori accomunati da caratteristiche di rischio omogenee, espresse in termini di probabilità di default o perdita attesa. Nella definizione del numero e dell’ampiezza di classi di cui si compone il sistema, il primo 23 Ad esempio, i subportafogli in questione potrebbero essere differenziati in base alla dimensione dell’obbligato (retail, small business, middle market, corporate e large corporate), dell’area geografica di operatività (Nord, Centro, Sud), del settore di appartenenza (Industria, costruzioni, servizi). 506 Capitolo 8 passo da compiere consiste nella specificazione dell’evento di default. È possibile adottare, infatti, diverse definizioni (o proxy) di default ma in ogni caso questa condizione consiste in uno stato definitivo dal quale, una volta raggiunto, non è più possibile migrare verso altre classi (absorbing state)24. Occorre premettere che, di fatto, non esiste un principio generale che guidi l’Istituzione Finanziaria nella realizzazione della scala di rating. Come già anticipato in precedenza25, la scelta del numero e dell’ampiezza delle classi deve essere attentamente valutata in relazione al caso concreto, ovvero alle funzionalità che si intendono assegnare al Sistema e quindi, in ultima analisi, al livello di dettaglio che si intende raggiungere nella graduazione del rischio, al portafoglio esistente ed alle strategie sul profilo di rischio che la banca intende adottare. Può essere utile a tal fine suddividere la scala di rating in macroclassi, in riferimento ad una condizione più estesa dello stato di salute del debitore e provvedere successivamente ad un’ulteriore ripartizione delle macro-classi così individuate. La terminologia impiegata in tal senso dalla letteratura sull’argomento dipende dall’oggetto di riferimento. In un’ottica focalizzata alla graduazione interna si distingue tra Pass grades e Watch grades: L’area Pass grades identifica le imprese sane. Vengono incluse, quindi, le classi che comportano un’accettazione del finanziamento (nel caso del primo rapporto) o comunque dello standing creditizio dell’obbligato (nel caso di un downgrading) senza dare origine all’eventuale considerazione di procedure di rientro; L’area Watch Grades, invece, identifica le imprese problematiche. Poiché il Sistema di Rating deve comunque conservare una funzionalità di monitoraggio sulle posizioni, vengono incluse le classi che identificano i diversi gradi di difficoltà che si riscontrano nelle procedure di rientro. 24 Per una sintesi delle diverse definizioni di default proposte e del dibattito attualmente in corso presso le Istituzioni di Vigilanza nazionali ed internazionali si rinvia al paragrafo 3.10. 25 Cfr. Infra par. 3.2. I Sistemi di Rating Interno 507 Naturalmente, il confine tra le due aree non sempre è ben definito. In particolare, si è soliti sovrapporre l’ultima classe dell’area Pass alla prima classe dell’area Watch. In genere tale classe non dà origine alla concessione del finanziamento, ma viene raggiunta solo a seguito di un downgrading26. Dal punto di vista dell’Autorità di Vigilanza, soprattutto statunitense, la “parte bassa” della scala viene identificata come Regulatory grades e comprende tutte le posizioni che manifestano difficoltà di rientro, così come definite dalle Autorità stesse. Per tali classi sono previste specifiche norme in relazione alle riserve 27. In assenza di una regola generale, che in qualche modo guidi l’Istituzione Finanziaria nella identificazione del numero e dell’ampiezza delle classi di cui si compone ciascuna area, può essere d’aiuto, sviluppando le considerazioni di De Laurentis 28 , soffermarsi sull’esemplificazione delle scelte che diverse banche potrebbero adottare in rapporto a differenti esigenze. Nella figura 8.2 vengono rappresentate tre diverse scale di rating associate a tre banche diverse, A, B e C, ipotizzando per semplicità lo stesso numero di classi e valutandone soltanto l’ampiezza. Figura 8.3 – Scale di Rating La banca A opera prevalentemente nel segmento retail, caratterizzato, come è noto, da una certa omogeneità della 26 Cfr. G. De Laurentis (2001) e A. Resti (2001). Le Autorità statunitensi distinguono tra: Other Assets Especially Mentioned (OAEM), Substandard, Doubtful e Loss, a cui sono rispettivamente associate specifici coefficienti di riserva. Cfr. W. Tracey e M. Carey (1998). 28 Cfr. De Laurentis, (2001). 27 508 Capitolo 8 rischiosità dei prenditori. Per la banca A può essere opportuno scegliere la stessa ampiezza per ogni classe, al fine di evitare una eccessiva concentrazione dei prenditori nelle classi più rischiose qualora adotti un scala come quella di B o di C. Per contro, le banche B e C, operando prevalentemente nel settore corporate, potrebbero essere specificatamente interessate ad un migliore raffinamento nelle classi alte della scala, poiché operando in mercati molto concorrenziali, l’esatta determinazione della rischiosità del potenziale prenditore si traduce in un miglioramento del pricing, agendo quindi su un fattore altamente strategico. Poi, la scelta del numero di classi su cui effettuare un maggiore raffinamento della valutazione di rischiosità potrebbe essere dettata da esigenze organizzative o da motivazioni legate al costo del raffinamento. Ad esempio, la banca C, essendo di grandi dimensioni ed operante a livello nazionale ed internazionale, potrebbe individuare delle economie di scala nell’utilizzo di classi di piccola ampiezza. Viceversa, la banca C, operante ad un livello più localizzato può trovare non conveniente il massiccio impiego di risorse che la costruzione ed il mantenimento che un sistema di rating così sofisticato comporta. Master scale. Una volta effettuate le scelte sulla segmentazione del portafoglio e costruiti i differenti sotto-sistemi di rating, è necessario individuare una metodologia che consenta di ricondurre ad unità le valutazioni implicite in ciascuna scala. Tale esigenza, infatti, può essere considerata imprescindibile allorquando si riconosca il rating come primo passo verso una gestione avanzata del rischio. È solo su una scala di valutazione comune, infatti, che è possibile seguire le strategie della banca in relazione alle sue politiche di pricing e di allocazione del capitale, nella misura della profittabilità, nella determinazione delle riserve in rapporto al suo risk appetite. In ragione della difformità tra i diversi Sistemi di Rating implementati all’interno di un istituto, la realizzazione di un unico metro di giudizio sulla rischiosità dei diversi assets della banca può essere più o meno difficoltosa. Le uniche metodologie adatta alla riconduzione delle singole scale in una scala unica può avvenire I Sistemi di Rating Interno 509 solo attraverso le frequenze relative di default29. L’esperienza storica sulle perdite in ciascuna classe di ogni scala, può essere d’aiuto alla banca per valutare la rischiosità delle scale di diversa dimensione quali-quantitativa. In assenza di dati storici sufficienti – come si vedrà, problema comune alla maggior parte delle istituzioni – è possibile fare riferimento al sistema del mapping, ossia all’associazione delle classi di rating interno alle classi di un’agenzia esterna e fare riferimento, quindi, alle probabilità di default calcolate da quest’ultima. 8.5 Il processo di assegnazione e revisione del giudizio L’implementazione ed il mantenimento di un Sistema di Rating pervadono fortemente l’organizzazione dell’Istituzione Finanziaria. In un’ottica allargata di gestione del rischio di credito si rivela opportuno un reengineering dei processi di affidamento. È verosimile ritenere, infatti, che i profondi cambiamenti prospettati dalle scelte operate in merito a tale aspetto si rifletteranno sul rapporto con la clientela e sul posizionamento della banca sul mercato. In un recente studio dell’ABI30 viene suggerita la creazione di una unità autonoma di gestione del rischio al pari di quanto realizzato da molte Istituzioni per la gestione del rischio di mercato. Compito di tale unità, quindi, dovrebbe essere quello di procedere all’approvazione ed al controllo dei rating proposti da altri soggetti nonché, in taluni casi, ad una loro diretta definizione. L’autonomia dell’unità in questione dovrebbe essere intesa come indipendenza gerarchica e funzionale dall’Area Crediti. Tuttavia, occorre rilevare che, se si considerano i costi che questa unità implicherebbe, una simile soluzione si scontra con la sostenibilità economica di una tale scelta31. Nella realtà operativa si assiste spesso alla creazione di una unità di revisione dei rating nell’ambito dell’Area Crediti ma distaccate dalle unità con potere deliberante. 29 Cfr. Resti A. (2001). Cfr. ABI, (2000). 31 Cfr. Treacy W.e Carey M. (2000). 30 510 Capitolo 8 In un modello organizzativo “classico” gli organi preposti al funzionamento dei sistemi di rating sono così identificati32: Gestori del rapporto (Relationship Managers o Loan Officers), ovvero operatori che svolgono funzioni commerciali, con compiti di istruttoria e, per taluni segmenti di attività, anche poteri deliberativi di assegnazione del rating; Addetti fidi (Credit Staff) responsabili della concessione e del rinnovo dei fidi; Unità di revisione dei rating (Loan Rewiew Unit) con funzioni di auditing o controllo. La responsabilità primaria nell’assegnazione del rating viene a dipendere essenzialmente dal business mix della banca. Nel segmento del middle market e small business è lasciato un maggior argine di libertà al gestore del rapporto. Tale soluzione viene seguita dalle banche principalmente perché la descritta unità, in virtù della funzione svolta, possiede un ricco patrimonio informativo sulle controparti, il che incide positivamente sulla contrazione dei costi e dei tempi di approvazione del finanziamento. Il processo per l’assegnazione del rating alle controparti large corporate è invece demandato agli addetti fidi. I più elevati costi connessi ad una maggiore meticolosità nell’assegnazione del rating possono essere coperti dai margini di profitto più ampi. In taluni casi è prevista la cooperazione tra le due unità per pervenire in un processo informale (pre-approval process) all’attribuzione del rating. Occorre rilevare, poi, che spesso le performance del Relationship Manager, e quindi la loro remunerazione, sono valutate in funzione dei volumi e/o redditività dell’Area Crediti creando un incentivo all’adozione di comportamenti maggiormente orientati alla soddisfazione economica personale piuttosto che agli interessi della banca. Tali circostanze, infatti, potrebbero influenzate in maniera ottimistica la proposizione o assegnazione del rating. L’assegnazione di un rating migliore rispetto a quello reale da un lato evita l’avvio di indagini 32 Cfr. Treacy W. e Carey M. (2000). I Sistemi di Rating Interno 511 integrative (non più di competenza del Relationship Manager) allorquando la rischiosità eccede un livello predefinito, e dall’altro accresce la profittabilità dell’operazione. Il rating deve essere visto come un processo dinamico. Il merito creditizio di un prenditore, infatti, può modificarsi nel corso del tempo. È necessario, pertanto, verificare con periodicità la coerenza dei giudizi assegnati al fine di individuare variazioni di rilievo in grado di produrre modifiche sostanziali alla rischiosità dell’obbligato. Soprattutto in un’ottica mark-to-market, una delle più importanti finalità generalmente attribuite ad un Sistema di Rating, infatti, è quello di monitorare le singole posizioni per anticipare variazioni inattese del merito creditizio del portafoglio. Tali aspetti si riflettono fortemente sul pricing dei prestiti (cioè sulla rinegoziazione dei termini del finanziamento), sulla creazione delle riserve e l’allocazione del capitale. Particolare importanza assumono, quindi, i processi di revisione: monitoraggio di chi ha elaborato e/o approvato il rating; revisioni periodiche trimestrali o annuali dei crediti più rischiosi; le revisioni mirate o a campione da parte di loan review unit. Il primo ambito del processo di revisione (monitoring) può anche non essere svolto in maniera continuativa. In genere esso viene a basarsi sull’utilizzo di credit scoring model. Inoltre, ove si renda necessario il passaggio di un obbligato ad una diversa classe di rating, il processo di assegnazione deve ricalcare quello relativo al momento dell’instaurarsi del rapporto. Le revisioni periodiche sono svolte dagli operatori di linea o dal credit staff che tentano di individuare le modalità per migliorare il rischio delle posizioni watch grade. Le unità di revisioni rischi sono invece unità indipendenti con compiti diversificati. Tra gli altri svolgono funzioni consultive in caso di difficoltà riscontrate nell’assegnazione del rating; mantengono l’integrità del sistema di rating disciplinando i comportamenti di operatori che emanano rating non accurati; svolgono un processo di revisione a campione e, in caso di 512 Capitolo 8 scostamento di almeno due classi, chiedono un confronto con coloro che hanno istruito e/o deliberato l’assegnazione. 8.6 Reporting e Monitoring Un adeguato sistema di reportistica direzionale derivante da un Sistema di Rating Interno attraverso un’aggregazione e stratificazione del rischio, consente di descrivere il trend di rischiosità del portafoglio crediti e rappresenta, quindi, un fattore strategico di rilievo. Tradizionalmente il report sottoposto all’attenzione dell’alta direzione e del consiglio di amministrazione era incentrato sull’andamento delle partite anomale (incagli, sofferenze); attraverso un Sistema di Rating è, invece, possibile analizzare in dettaglio l’andamento delle distribuzioni di esposizioni tra le varie classi di rating. Le esposizioni possono essere considerate sia in termini di accordato, utilizzato e EAD (esposizione al momento del default), sia in termini di esposizioni nette cioè ottenute sottraendo ai valori anzidetti il valore atteso di recupero per singole linee di credito associate ad un dato debitore. Gli strumenti utilizzati al fine di identificare il mix di portafoglio per classi di rating sono essenzialmente rappresentazioni grafiche, ovvero tabulati. Per rendere l’analisi più analitica è possibile incrociare i risultati del rapporto esposizione/classe di rating con altri fattori quali ramo di attività dei prenditori, forma giuridica dell’affidato, forma tecnica del finanziamento e quant’altro. Nell’ipotesi in cui la reportistica debba alimentare il processo di controllo delle performances allora è possibile combinare la dimensione dell’esposizioni a rischio con quella riferita alle “aree di risultato” (dipendenze o aree territoriali) e ai “centri di responsabilità” (gestori del rapporto, unità organizzative). Ai fini di una informativa di sintesi è possibile avvalersi di un indicatore del rating medio ponderato, noto come WeightedAverage Risk Rating (WARR), espresso dalla seguente formula: n WARR ri e i i 1 n ej j 1 [8.2] I Sistemi di Rating Interno 513 dove ri rappresenta la classe di rischio i-esima, ei l’esposizione totale della classe i-esima ed il denominatore rappresenta l’esposizione complessiva di portafoglio. L’indicatore così definito esprime la classe media di rating del portafoglio, ponderando ciascuna controparte in base alla rispettiva esposizione. Tale algoritmo, pur consentendo di cogliere le modifiche intervenute nel mix delle esposizioni rispetto ai rating assegnati, presenta un limite poiché le probabilità di default e le perdite non crescono in misura lineare rispetto alle classi di rating33. Un altro indicatore di sintesi è rappresentato dal rapporto tra il numero degli upgrade ed il numero dei downgrade: n upgrade i 1 [8.3] m downgrade j 1 ovviamente se il rapporto è superiore all’unità si ha un miglioramento della qualità del portafoglio, mentre se è inferiore all’unità si assiste ad un peggioramento dello stesso. Un maggiore livello di analiticità può essere ottenuto mettendo a confronto la differenza tra i notches – cioè il numero di classi su cui è avvenuto lo spostamento della controparte – degli upgrades e dei downgrades ed il numero totale dei debitori rated attraverso la seguente espressione: n m i 1 j 1 upgrade notches downgrade notches credit quality drift numero dei debitori rated [8.4] Tale rappresentazione consente di individuare la consistenza degli upgrade rispetto ai downgrade e l’intensità del movimento netto rispetto al totale dei soggetti rated. Ove risultino disponibili i tassi di perdita attesi per ogni classe di rating, ponderandoli con le relative esposizioni, è possibile ottenere il tasso di perdita medio di 33 In termini non del tutto corretti, si potrebbe affermare che un aumento del WARR del 10% non implica un aumento della perdita attesa o della probabilità di default media del portafoglio della stessa misura. 514 Capitolo 8 portafoglio. Ad esempio, considerando un ipotetico portafoglio di 100 esposizioni, se vi sono stati 5 upgrade di due classi, 5 upgrade di una classe e 10 downgrade di una classe, l’indicatore misura un miglioramento medio del 5% del merito creditizio del portafoglio: credit quality drift 5 2 5 1 10 1 100 5% [8.5] Occorre rilevare, tuttavia, come la misura così ottenuta sia fortemente parziale rispetto alle variabili fondamentali del rischio poiché non prende in considerazione l’esposizione associata alla variazione del merito creditizio della singola controparte. Ad esempio, un drift positivo del credit rating medio potrebbe essere causato in larga misura da un upgrade di numerose piccole controparti, pur in presenza di un pesante downgrade di una controparte di grandi dimensioni. 8.7 Stabilità e consistenza dei Sistemi di Rating Come si è visto, un Sistema di Rating permette l’assegnazione di un obbligato ad una specifica classe, secondo una scala ordinale, in base alla rischiosità di cui questo è portatore – espressa facendo riferimento alla probabilità di default (PD) o al tasso di perdita atteso (ELR). Il giudizio fornito dal Sistema rappresenta una valutazione qualitativa del rischio creditizio del prenditore espressa attraverso l’individuazione di una categoria che meglio lo rappresenta. Tuttavia, il concreto utilizzo del giudizio così espresso per le finalità generalmente riconosciute ad un Sistema di Rating implica la trasformazione della classe qualitativa di merito creditizio in un dato numerico idoneo a fornire una misura quantitativa della probabilità di default o del tasso di perdita atteso. Il passaggio da una misura ordinale ad una misura cardinale, noto come rating quantification, viene solitamente riconosciuto come una delle fasi più delicate nell’implementazione di un Sistema di Rating Interno. I problemi principali di tale operazione restano in larga misura legati alla enorme mole di dati richiesta per ottenere stime significative delle variabili di rischio di credito I Sistemi di Rating Interno 515 considerate. Assumendo che il processo di assegnazione soddisfi una proprietà di coerenza (consistency) – sia, cioè, in grado di classificare prenditori simili nella stessa classe e prenditori differenti in classi diverse – il criterio di più immediato e metodologicamente corretto per esplicitare la probabilità di default da una classe di rating è quello di stimare la frequenza relativa dei default della classe stessa (ovvero, del tasso medio di perdita). Tuttavia, un’indagine più approfondita degli aspetti analitici di tale metodologia rivela le sostanziali difficoltà che la rendono nella maggior parte dei casi di fatto impraticabile. Il problema è quello di stimare la probabilità di default implicita della i-esima classe, PDi. L’evento creditizio di riferimento viene quindi formalizzato assumendo che il fenomeno possa essere trattato in termini di una distribuzione Bernoulliana, Bij(PD), che assume valore 1 quando la j-esima impresa della classe i cade in default e valore 0 quando questo non si verifica. Poiché il valore atteso di una Bernoulliana è esattamente PD, lo stimatore della probabilità di default non è altro che la media campionaria della classe: PD B1 j B2 j ... B N j j Nj [8.6] dove Ni è il numero di obbligati appartenenti alla classe i-esima. La probabilità di default stimata, quindi, non è altro che la frequenza relativa delle insolvenze, ossia il rapporto tra i default di una classe ed il numero di obbligati appartenenti alla stessa classe. Dalla probabilità di default stimata è poi possibile impiegare la (8.6) per passare alla deviazione standard della stima, PD , la quale misura il grado di affidabilità riposto nella stima ottenuta: PD PD1 PD Nj [8.7] 516 Capitolo 8 Se si fissa la deviazione standard desiderata, la (8.7) può essere risolta per ottenere il numero di osservazioni necessario a tale scopo, data la probabilità di default: PD1 PD Nj [8.8] PD Una semplice analisi numerica dell’equazione (8.8) permette di comprendere il carico informativo richiesto per ottenere delle stime accettabili della probabilità di default. La tabella 8.2 contiene i valori ottenuti applicando la (8.8) in corrispondenza di diversi valori di PD e PD. Ad esempio, in corrispondenza di una probabilità di default del 2% occorrono 8711 osservazioni per raggiungere una deviazione desiderata pari allo 0,15%. Da tali valori si intuisce, facilmente, come il numero di osservazioni richiesto per una stima significativa delle probabilità di default implicite in una classe di rating sia estremamente elevato, anche in considerazione del numero di classi di cui si compone il Sistema.Tale problema assume una rilevanza estrema allorquando si considera che il numero di Istituzioni Finanziarie, tanto a livello nazionale che internazionale, in grado di accedere a database talmente ampi da soddisfare le necessità informative richieste è veramente molto esiguo. Tabella 8.2 PD 0,5% 1,0% 1,5% 2,0% 2,5% 3,0% 3,5% 4,0% 4,5% 5,0% Deviazione Standard (obiettivo) 0,10% 0,15% 0,25% 4975 2211 796 9900 4400 1584 14775 6567 2364 19600 8711 3136 24375 10833 3900 29100 12933 4656 33775 15011 5404 38400 17067 6144 42975 19100 6876 47500 21111 7600 0,30% 553 1100 1642 2178 2708 3233 3753 4267 4775 5278 I Sistemi di Rating Interno 517 Una soluzione spesso prospettata per ovviare a tale inconveniente è quella di individuare una relazione (mapping) tra le classi di cui si compone il Sistema Interno e quelle di un’agenzia esterna, per le quali sono disponibili frequenze relative di default, calcolate su dati storici particolarmente ampi. Tale metodologia, tuttavia, non è di immediata applicabilità come si potrebbe ritenere in prima analisi. L’individuazione di un legame tra classi interne e tassi di default esterni pone infatti due problemi rilevanti: L’identificazione della classe sulla scala esterna che meglio si adatta a rappresentare la classe di rating interna34; La diversa natura dei Sistemi di Rating Interno rispetto ai giudizi delle agenzie esterne. La prima questione può essere fronteggiata ricorrendo a delle valutazioni soggettive da parte dei rater sulle metodologie attraverso cui si perviene all’assegnazione dei giudizi tanto all’interno quanto all’esterno al fine di creare la più omogenea armonizzazione tra le due scale. Una metodologia meno soggettiva, invece, consiste nell’identificare una relazione tra le diverse classi per mezzo di un processo di inferenza condotto sulla base degli indici di bilancio risultanti dalle due valutazioni. In altri termini, gli indici di bilancio di un gruppo di imprese classificate secondo la scala interna viene confrontato con gli indici di un gruppo classificato da un’agenzia esterna per ottenere delle indicazioni sui corretti accoppiamenti35. Una volta individuata la migliore associazione tra la scala interna e quella esterna, occorre valutare con estrema attenzione la diversa natura del giudizio assegnato dai Sistemi di Rating considerati. In tale fase, infatti, diventa particolarmente rilevante la diversa filosofia con cui vengono condotti i processi di 34 Naturalmente, la relazione non deve necessariamente essere del tipo one-to-one. Poiché difficilmente le due scale avranno lo stesso numero di classi, in relazione al numero di classi di cui si compone il sistema interno in rapporto a quello esterno, è possibile associare una o più classi interne ad una classe esterna o viceversa una stessa classe interna a due classi esterne. 35 La “bontà teorica” della metodologia descritta, se non pone grossi problemi quando effettuata da banche anglosassoni, lascia qualche dubbio se applicata al sistema italiana a causa delle forti differenze normative, istituzionali e di definizione del default esistenti tra l’ambito operativo italiano ed il mondo anglosassone. Cfr. ABI, (2000). 518 Capitolo 8 assegnazione del giudizio. Come è stato già evidenziato, con la logica throught-the-cycle, impiegata dall’agenzie di rating esterne, il giudizio di affidabilità dell’obbligato viene assegnato valutando le capacità di reazione di questi in una fase avversa del ciclo. Viceversa, nella logica point-in-time tipica dei Sistemi di Rating Interno, la valutazione della controparte viene effettuata avendo come riferimento prevalente le sue condizioni correnti. Questo sfasamento nell’assegnazione dei giudizi può condurre a significativi errori sulla stima della probabilità di default in relazione alla fase del ciclo economico in cui viene effettuato il mapping. Il problema in questione si presta ad essere esposto mediante un semplice esempio numerico36. Si consideri una banca il cui Sistema di Rating è caratterizzato da sei classi Pass, come elencate nella tabella 8.3. La stessa tabella riporta, inoltre, le probabilità di default associate a ciascuna classe, ma che la banca non conosce a causa della mancanza di dati storici e che cerca di inferire attraverso la metodologia del mapping. Si ipotizzi ora che la banca debba classificare due prenditori, A e B. A causa della natura Point-in-time del Sistema di Rating Interno della banca, la Tabella 8.3 Fasi positive Rating Interno Probabilità di default A classe 4 1% B classe 5 3% Fasi negative Rating Interno Probabilità di default classe 5 2% classe 6 6% Rating esterno Probabilità media BB/Ba 1,50% B+/B1 4,00% classificazione effettuata dipenderà strettamente dalla fase del ciclo economico. Nella tabella 8.3 vengono quindi riportate le 36 Cfr. W. Tracey e M. Carey, (1998). I Sistemi di Rating Interno 519 valutazioni che la banca effettuerebbe in relazione ai diversi momenti del ciclo economico nonché le relative probabilità di default di A e B, comunque ignote alla banca. Si supponga che la banca effettui il proprio esercizio di mapping in una fase positiva del ciclo economico e quindi, in base al rating assegnato alle stesse società da un’agenzia esterna, ravvisi una corrispondenza tra la proprie classi 4 e 5 e, rispettivamente, le classi esterne BB/Ba e B+/B1. L’ultima riga della tabella 8.3 riporta le probabilità di default medie associate dalle agenzie di rating a tali classi. Pertanto, qualora la banca conduca il proprio esercizio di mapping in una fase positiva del ciclo si troverebbe a sovrastimare le probabilità di default reali, assegnando una PD dell’1,5% e del 4% alle proprie classi interne 4 e 5. Viceversa, qualora la stessa procedura venisse condotta in una fase negativa del ciclo, la banca, avendo assegnato i due prenditori alle classi 5 e 6, associerebbe a queste le classi esterne BB/Ba e B+/B1, generando una sottostima della effettiva probabilità di default.