Capital Management

annuncio pubblicitario
6
Introduzione al Value at Risk
per i rischi di mercato
6.1 Metodi convenzionali – 6.1.1 Introduzione al Value at Risk – 6.1.2 Il VaR
e l’approccio delta – 6.1.2.1 Il modello prezzo-rendimento – 6.1.2.2
L’intervallo di confidenza – 6.1.2.3 L’orizzonte temporale – 6.1.2.4 Previsione
della volatilità – 6.1.2.5 L’approccio delta-normal: mapping dei flussi e
criticità – 6.1.3 Il VaR in opzioni e l’approccio delta-gamma: cenni – 6.1.4
Simulazioni storiche – 6.1.5 Simulazione MonteCarlo – 6.1.6 L'analisi degli
scenari (stress test) – 6.1.7 I limiti dei metodi convenzionali - 6.1.8 La teoria
dei valori estremi: cenni – 6.2 Gli utilizzi della metodologia del Value-at-Risk
– 6.3 Utilizzo delle misure VaR: criticità – 6.4 I modelli interni ai fini della
vigilanza – 6.4.1 Introduzione – 6.4.2 Procedura di riconoscimento – 6.4.3
Requisiti patrimoniali nell’ottica di Vigilanza – 6.4.4 Per una vigilanza
incentive-compatible nello sviluppo dei modelli interni - 6.4.5 Prove di stress Appendici al capitolo cap. 6 – Appendice 6.A Value at Risk di un portafoglio
azionario - Appendice 6.B Requisiti a fronte dei rischi di posizione su titoli, di
cambio e di posizioni su merci – Appendice 6.C Requisiti qualitativi dei
modelli interni
6.1 Metodi convenzionali
6.1.1
Introduzione al Value at Risk
I Modelli Valore a rischio (VaR) rappresentano un tentativo di
misurare il rischio di mercato associato all’intero portafoglio di
attività di una istituzione finanziaria mediante un’unica misura
quantitativa.
A differenza dei sistemi di misurazione tradizionali (ad esempio
duration e convexity per i titoli a reddito fisso; le lettere greche per
le opzioni) che tendono a focalizzare l’attenzione sui rischi dei
singoli strumenti in maniera isolata, ignorando gli effetti della
correlazione, il VaR riassume tramite un singolo numero, che
esprime una misura monetaria, il rischio di mercato globale
288 Capitolo 6
dell’istituzione, tenendo in considerazione l’interdipendenza tra i
singoli tipi di rischio.
Il concetto alla base del modello consiste nel voler misurare
statisticamente il rischio di mercato associato ad una determinata
attività finanziaria. Si definisce, pertanto, il valore a rischio come la
massima perdita attesa che una certa posizione può subire a fronte
di movimenti avversi dei fattori di rischio rilevanti in un
determinato orizzonte temporale in corrispondenza di un certo
intervallo di confidenza.
Ciò comporta per le istituzioni finanziarie il passaggio da una
classificazione delle posizioni di bilancio per categorie di strumenti
finanziari (azioni, obbligazioni, opzioni, ecc.) a una classificazione
per categorie di rischio (tassi di interesse, tassi di cambio, prezzi o
indici azionari, ecc.).
Per ogni categoria di rischio è, pertanto, possibile quantificare
l’esposizione complessiva al rischio mediante la seguente relazione
basata sulle assunzioni di metodi parametrici:
VAR  ( MM   (r ))(   )  t
[6.1]
dove MM esprime il valore delle posizioni, la sensibilità del
valore della posizione rispetto ad un fattore di rischio specifico, (r)
il suddetto fattore di rischio,  la volatilità identificata come la
deviazione standard dei rendimenti rispetto al loro valore medio ed
 è la costante che individua l’intervallo di confidenza (una coda)
di una distribuzione normale standardizzata e t l’holding period.
Per una maggiore comprensione della formula, supponiamo di
misurare il VaR giornaliero di un investimento in zero coupon
bond per un importo di 50 milioni di euro con vita residua 15 anni,
tasso di rendimento effettivo a scadenza 6,35%. Nella fattispecie il
 è rappresentato dalla duration modificata ed è pari a 14 anni,
mentre la volatilità dei tassi è dello 0,30%. Il calcolo del VaR viene
implementato in due fasi: nella prima, si verifica la sensibilità
dell’esposizione dell’investimento al rischio di mercato attraverso
la ponderazione del market to market della posizione al fattore di
rischio r)); nella seconda, si focalizza l’attenzione sulla
variabilità, espressa in funzione delle previsioni di volatilità
giornaliera del tasso. Pertanto, ipotizzando una distribuzione
Introduzione al Value at Risk per i rischi di mercato 289
normale dei tassi di interesse ed un intervallo di confidenza  di
2,33 la massima variazione del prezzo attesa in un giorno nel 99%
dei casi è:
VaR =(50*14,104*0,0635*2,33*0,30)= 3,130 mln di euro
Il che equivale ad affermare che le oscillazioni del prezzo
giornaliero si dovrebbero mantenere nell’area indicata dalla stima
del VaR nel 99% dei casi e solo nel 1% le perdite potranno risultare
superiori a 3,130 milioni di euro. Tale sistema di misurazione
consente, pertanto, non solo di riassumere attraverso un singolo
numero il rischio di una posizione ma di comparare i rischi di
mercato fra posizioni diverse all’interno della stessa banca e fra
banche diverse.
A titolo esemplificativo, supponiamo che la banca A presenti un
VaR giornaliero (ossia riferito a un holding period di un giorno) di
50 milioni di euro in corrispondenza di un intervallo di confidenza
del 95%, mentre la banca B rileva un VaR settimanale di analogo
importo per un eguale livello di confidenza del 95%. Quale
portafoglio delle due banche risulta essere più rischioso? La banca
A sarà soggetta ad una massima perdita probabile di 50 milioni di
euro ogni 20 giorni; la banca B presenta un profilo di rischio pari
ad una massima perdita probabile di 50 milioni di euro ogni 20
settimane, ciò significa che il rischio di mercato con riferimento a
periodi di osservazione rispettivamente di 20 giorni e di 20
settimane sottostima le perdite effettive non più di una volta (20 x
0,05). La banca A è, pertanto, esposta a perdite superiori ai 50
milioni di euro 12,5 volte in un anno (ossia 250/20, il che equivale
al 5% di 250 con manifestazione temporale ogni 20 giorni), mentre
la banca B 2,6 volte l’anno (52/20). Questo non significa, però, che
l’intermediario A rilevi una rischiosità 4,8 (12,5/2,6) volte
superiore a quella di B.
Ai fini di una efficace confronto dei valori forniti dal modello
VaR, la stima ottenuta dalle due banche dovranno essere proiettate
in un periodo di osservazione omogeneo, nel caso specifico un
anno. Per cui con t = 1 anno e = 95%, la perdita massima
probabile per A è di 793,7 milioni di euro in un anno, mentre per B
è di 360,55 milioni di euro. L’intermediario A dispone, pertanto, di
290 Capitolo 6
un portafoglio due volte circa più rischioso di quello di B. Dal
punto di vista metodologico, per la quantificazione dell’esposizione
al rischio occorre formulare alcune ipotesi:
 sulla forma della distribuzione di probabilità;
 sull’intervallo di confidenza;
 sull’orizzonte temporale.
Per quanto concerne la forma della distribuzione di probabilità
dei rendimenti di periodo si assume o meno, a seconda dei modelli,
una forma della funzione di distribuzione dei movimenti attesi dei
rendimenti con possibilità di applicare soluzioni parametriche o di
valutare direttamente la distribuzione di frequenze dall’analisi dei
dati per la metodologia di calcolo del valore a rischio.
La scelta dell’intervallo di confidenza esprime il grado di
protezione desiderato nei confronti di movimenti avversi nei fattori
di mercato rilevanti, ossia la percentuale di copertura che si intende
garantire rispetto agli eventi indesiderati. Gradi di protezione
differenti riflettono livelli diversi d’avversione al rischio da parte di
un intermediario e costi diversi connessi alla probabilità di
variazione del prezzo superiore a quello stimato dal VaR.
Occorre, infine, definire l’orizzonte temporale lungo il quale
misurare la perdita1. A tale scopo, vengono presi in considerazione
fattori di tipo oggettivo, indipendenti dalle aspettative della banca o del
singolo operatore, come, ad esempio, lo spessore e la profondità del
mercato nel quale lo strumento viene negoziato. In altri termini, la
liquidabilità dello strumento stesso, definito come tempo
necessario ai fini di una normale transazione o ai fini di una
copertura della posizione. Un secondo fattore che può essere
E’ intuitivo come la scelta del periodo di osservazione influenzi direttamente la misura del
valore a rischio. Un breve orizzonte temporale riflette correttamente gli andamenti recenti del
mercato, ma proprio a causa di questa estrema fedeltà, o rispondenza, a ciò che è accaduto
nell’immediato passato il valore a rischio potrebbe venire determinato in modo scorretto, in
particolare se sul mercato imperversassero situazioni turbolente o fortemente volatili: in questo caso
la misura del valore a rischio sarebbe sovrastimata.
Al contrario, un periodo di osservazione più lungo, nel caso di squilibri negli andamenti dei
fondamentali, medierebbe la misurazione del rischio con i dati più lontani nel tempo, appartenenti a
momenti di normalità dei mercati, anche se in questo caso si tratterebbe di un modello meno sensibile
ai mutamenti dello scenario ambientale.
1
Introduzione al Value at Risk per i rischi di mercato 291
considerato nella determinazione dell'orizzonte temporale è invece
di tipo soggettivo, nel senso che scaturisce direttamente dagli
obiettivi del singolo operatore e/o dell'istituzione finanziaria. Si
tratta del periodo di detenzione (holding period) della singola
posizione. In tal senso, una posizione di trading, assunta con
un'ottica di tipo speculativo di brevissimo periodo, dovrebbe essere
valutata con un orizzonte temporale più breve rispetto a quello
relativo ad una posizione, sul medesimo strumento finanziario,
considerata di investimento (e, dunque, misurata su un orizzonte di
tempo più lungo).
6.1.2
Il VaR e l’approccio delta
Tra i diversi metodi di calcolo del VaR quello più applicato
presso le istituzioni finanziarie è il “metodo delle varianze e
covarianze”, a volte chiamato anche metodo analitico o
parametrico. Esso rappresenta la versione originale dei modelli
VaR ossia quella sviluppata per prima e, come tale, quella più
rapidamente diffusasi presso le banche anglosassoni.
I modelli appartenenti a questa categoria si caratterizzano per
due principali elementi. Anzitutto, il rischio viene misurato sulla
base della sensibilità della posizione (portafoglio di posizioni) a
variazioni dei fattori di mercato, e del grado di correlazione fra gli
stessi. La determinazione del livello di confidenza desiderato è
subordinata all’ipotesi di una distribuzione normale delle
variazione dei rendimenti della posizione o del portafoglio.
La diffusione del metodo parametrico nell’ambito dei sistemi di
Risk Management si riconduce al modello probabilistico Risk
Metrics, elaborato e messo a disposizione della comunità
finanziaria da J.P. Morgan2 per la valutazione e gestione del rischio
2
Nelle intenzioni di J.P. Morgan la metodologia di Risk Metrics è stata resa di pubblico
dominio per tre principali motivazioni:

Interesse a promuovere una maggiore trasparenza in materia di rischi di mercato;

Stabilire un benchmark, un indice di riferimento, un comune termine di paragone per
la misura dei rischi di mercato;

Rendere disponibili sofisticati strumenti di misurazione del rischio al altri potenziali
utenti, operatori del mercato, che non hanno le risorse e le capacità per sviluppare
propri sistemi di misurazione .
Cfr. J.P. Morgan, Technical Document (1996).
292 Capitolo 6
di mercato generato da portafogli composti da attività finanziarie a
reddito fisso, titoli azionari, tassi di cambio, merci e da tutti i
prodotti derivati collegati a queste attività. A tale modello si
ispirano i tanti prodotti sviluppati dalla software industry.
Si fa notare, che l’approccio varianze-covarianze si caratterizza
per una certa semplicità, relativa, non tanto al profilo concettuale,
quanto all’onerosità dei calcoli e dunque dei sistemi informativi di
supporto. A fronte di tali vantaggi, l’approccio in questione
presenta diverse critcità , principalmente legate all’impianto teorico
che sta alla base dell’intera metodologia di calcolo del VaR di una
posizione o di un portafoglio di posizioni. Tali ipotesi riguardano in
particolare due aspetti:


la distribuzione dei rendimenti dei fattori di mercato;
il grado di sensibilità delle posizioni di rischio al variare dei
fattori di mercato.
6.1.2.1 Il modello prezzo-rendimento
Un’ipotesi alla base del modello riguarda proprio i movimenti
dei prezzi; che si muovono in modo casuale e con una distribuzione
delle variazioni assimilabile a una funzione di tipo normale
standardizzata:
Per valutare analiticamente i movimenti potenziali dei prezzi, e
la loro incidenza sul valore delle posizioni in portafoglio, in modo
da ottenere una misura della massima perdita potenziale, si ipotizza
di misurare il rischio in termini di variazioni di prezzo, espresse
come rendimenti logaritmici.
Il rendimento di un singolo strumento3 viene pertanto definito
con la seguente espressione:
3
Per descrivere i cambiamenti nelle variabili di mercato, data una serie storica P t dei prezzi di
una attività finanziaria, il logaritmo del rapporto tra il prezzo al tempo t e il prezzo al tempo t-1, per
piccoli cambiamenti, si approssima alle variazioni percentuali del prezzo (P t-Pt-1)/Pt. Data, ad
esempio, una serie composta da 3 prezzi relativi ad un ipotetico titolo, (P 1 = 100, P2 = 108, P3 = 100),
le variazioni percentuali rispettivamente al tempo 2 e al tempo 3 risultano differenti, sebbene il valore
iniziale e quello finale siano coincidenti (P 2-P1)/P1= 8% e (P3-P2)/P2 = -7,4%. Esprimendo i
rendimenti alle epoche 2 e 3 con l’operatore logaritmico, si osserva che essi tendono ad assumere
valori che si approssimano essendo ln(108/100)=7,696 e ln(100/108)=-7,696.
Introduzione al Value at Risk per i rischi di mercato 293
rt  ln
Pt
Pt 1
[6.2]
dove rt è il rendimento al tempo t e P è il prezzo di uno strumento
finanziario valutato rispettivamente in t e t-1: pertanto, il
rendimento di un portafoglio (rpt) composto da n strumenti
finanziari analiticamente è dato:
n
r pt   w i r it
[6.3]
i 1
ove wi rappresenta il peso del rendimento logaritmico dell’i esima
attività.
Tale scelta è da attribuirsi alle proprietà statistiche della
distribuzione di r nel tempo che si configura come una
distribuzione di tipo normale.
Il prezzo di un’attività finanziaria risulta coerente con un
processo diffusivo continuo di tipo logaritmico qui di seguito
descritto:
r it  i t  i ,t  i ,t t
[6.4]
ove  i è il rendimento annuo atteso dell’attività iesima per una
unità di tempo; t è un intervallo di tempo;  i,t è la volatilità del
prezzo dell’attività iesima al tempo t ed  è una estrazione casuale di
una distribuzione normale standardizzata, ossia una distribuzione
normale con media nulla e deviazione standard pari a 1, del
rendimento dell’attività iesima. Si ha, quindi, che t è il tasso di
rendimento atteso e  t rappresenta la componente stocastica
(ossia la variabilità del sentiero temporale seguito da rit ).
L’assunzione è che le variazioni del tasso di rendimento in un
breve periodo di tempo t siano le stesse, indipendentemente dal
livello dei prezzi dell’azione.
294 Capitolo 6
Per un portafoglio composto da tre titoli, per volatilità di tempo
più prolungate rispetto a quella giornaliera, la stima del VaR è
misurabile con il seguente metodo di calcolo4.
Dato la sequenza dei rendimenti dei tre titoli:
r 1, t 1 t 1,t 1,t t
r 2, t  2 t   2, t  2, t t
r 3, t  3 t  3, t  3, t t
[6.5]
il rendimento del portafoglio è dato
r p ,t  w 1r 1,t  w 2 r 2,t  w 3 r 3,t
e la varianza
[6.6]
 2 p , t  w 2 1  2 1, t  w 2 2  2 2, t  w 2 3  2 3, t 2w 1w 2 
12, t
2w 2 w 3 
23, t
2w 1w 3 
13, t
[6.7]
ove:
w 1 , w 2 , w 3 sono le quote di portafoglio investite nei tre titoli;
21 , 2 2 , 2 3 sono rispettivamente le varianze dei rendimenti dei
singoli titoli;
12 ,  23 , 13 indicano le correlazione5 rispettivamente tra il
rendimento della posizione 1 con la 2, della posizione 2 con la 3 e,
infine, della posizione 1 con la 3.
4
Risk Metrics (1996), p. 72.
Il coefficiente di correlazione tra la variabile x e la variabile y applicato nei metodi parametrici
è dato dalla seguente formula:
5
Covarianza (x, y)
Varianza (x) * Varianza (y)
coeff. Corr. 
La covarianza, espressione del movimento congiunto di due variabili, è data dalla seguente
espressione:
 ( xi   x )( yi   y )
Cov ( x, y ) 
i
n
dove:
xi = valore i-esimo assunto dalla variabile x
yi = valore i-esimo assunto dalla variabile y
x = valore medio della variabile x
 y= valore medio della variabile y
n = numero delle osservazioni nel campione
Una covarianza positiva indica che le due variabili sono caratterizzate da variazioni di segno
uguale rispetto alla propria media (entrambe al rialzo o entrambe al ribasso).
Se le due variabili seguono percorsi inversi, invece, la covarianza assume valori negativi. Infine,
se le due variabili sono tra loro indipendenti, la covarianza è nulla. La covarianza tra due variabili x e
y può esprimersi anche con la formula seguente :
Introduzione al Value at Risk per i rischi di mercato 295
Nel caso di n titoli la volatilità del portafoglio è, pertanto,
espressa dalla varianza:
p 
n
w
i 1
2
i
ˆ 2 i 2
 w w ˆ ˆ ˆ
i
j
i
j
ij
[6.8]
ove
wi è la quota di portafoglio investita nell’attività i esima;
 2 i è la Varianza del rendimento dell’attività iesima;
ij è il grado di correlazione tra il rendimento della posizione
iesima e di quella jesima6.
Il calcolo del valore a rischio di un portafoglio di più posizioni,
si fonda sulla teoria di portafoglio originariamente sviluppata da
Markowitz7, e comporta l’analisi dei coefficienti di correlazione fra
i rendimenti delle singole posizioni che compongono il portafoglio.
La determinazione del VaR di un portafoglio costituito da più
posizioni finanziarie è agevole quando il portafoglio si compone di
un numero limitato di attività finanziarie, mentre presenta delle
Cov ( x, y )   x y  yx
dove xy indica il coefficiente di correlazione fra le due variabili. Esso assume valori compresi
tra –1 e +1.
Se xy = +1 le due variabili sono caratterizzate da correlazione perfetta positiva, ossia le
variazioni al rialzo di una variabile sono contestuali ad analoghe variazioni al rialzo dell’altra.
Se xy = -1 le due variabili sono caratterizzate da correlazione perfetta negativa, ossia le due
variabili seguono percorsi esattamente opposti.
Se xy = 0 le due variabili sono fra loro indipendenti.
Dalla formula sopraindicata si ha che il coefficiente di correlazione () è dato dalla seguente
espressione:
 xy
Cov( x, y )
 yx 

 x y
 x y
6
Il grado di correlazione si desume dalla covarianza delle posizioni iesima e jesima con il prodotto
tra la deviazione standard della posizione iesima e quella della posizione j esima, cioè ij = ij/ij da cui
risulta che ij 
7
I fondamenti dell’analisi moderna del rischio sono contenuti in un famoso lavoro del 1952 del
premio Nobel Harry Markowitz, dedicato ai principi per la selezione di portafoglio. Markowitz, in
tale lavoro, ha mostrato la rilevanza di una politica di diversificazione del portafoglio come
strumento per la riduzione del rischio e ha identificato i criteri sulla base dei quali un investitore
razionale dovrebbe compiere le proprie scelte di portafoglio.
296 Capitolo 6
complessità di calcolo quando esso risulta essere caratterizzato
dalla presenza di un numero considerevole di strumenti.
Nell’ipotesi di un portafoglio costituito da un numero elevato di
strumenti finanziari, si rende necessario ricorrere all’algebra
matriciale la quale richiede il calcolo di numerose correlazioni (in
numero pari a [n2-n]/2), che può risultare notevolmente oneroso.
In alternativa, selezionati alcuni fattori di rischio di mercato
(tassi di interesse, di cambio, prezzi azionari), è possibile misurare
la volatilità sulla base dei coefficienti di correlazione fra i
rendimenti dei diversi fattori di mercato caratterizzati da una
distribuzione normale congiunta.
In altri termini, selezionate n variabili di mercato, il prezzo di
ogni strumento contenuto nel portafoglio viene espresso come una
funzione lineare del fattore di rischio. Il valore del portafoglio è,
pertanto, la sommatoria del valore dei singoli strumenti :
Posta, quindi, l'ipotesi di normalità della distribuzione dei
rendimenti dei fattori di rischio (i) e di linearità delle relazioni fra
i prezzi delle posizioni e i fattori di mercato, si può assumere che
anche i rendimenti di un portafoglio siano distribuiti normalmente.
Ne consegue che le volatilità risultano proporzionali
  i  i
[6.9]
e le correlazioni invariate
   i , j
[6.10]
Analiticamente la volatilità del portafoglio è uguale a:
p 
n

i 1
2
i
 i2  2
 (
i
 i)( j j)  ij
[6.11]
ove  i  j rappresentano le singole sensibilità delle variazioni
delle posizioni a variazioni del fattori specifici di mercato.
In particolare, applicando tale formula al calcolo del VaR di un
portafoglio composto da diversi strumenti finanziari, avremo:
Introduzione al Value at Risk per i rischi di mercato 297
VAR p 
  VM       VM
i
i
j
i
i
j
  j     j  ij

1/ 2
[6.12]
cioè


VAR p  VAR 12  VAR 22  ....  2VAR 1 VAR 2 12  .....
1/ 2
[6.13]
dove
VAR p  Value at Risk del portafoglio
VARi  Value at Risk della posizione iesima.
6.1.2.2
L’intervallo di confidenza
La scelta dell’intervallo di confidenza esprime la probabilità di
possibili variazioni sfavorevoli dei fattori di mercato; il livello del
grado di protezione scelto rappresenta, quindi, una misura dello
scenario pessimistico (worst case scenario). Ad elevati intervalli di
confidenza si associa una misura delle perdite che raramente
dovrebbero eccedere il valore a rischio stimato. L'ipotesi di
distribuzione normale dei rendimenti consente di tradurre il fattore
α prescelto nel grado di confidenza della misura di rischio ottenuta
e viceversa8.
Posto che la funzione matematica che descrive l’andamento dei
rendimenti giornalieri s’identifica in letteratura nella curva di tipo
normale, in cui i casi estremi sono i più rari e i valori centrali sono i
più frequenti, analiticamente si ha:

f (x) 
1
2
  2  x  
1
e  2
 2


[6.14]
8
Si precisa, che la possibilità di associare intervalli di confidenza a multipli della deviazione
standard non riguarda esclusivamente la distribuzione normale.
298 Capitolo 6
dove f(x) rappresenta la funzione di densità,  e  indicano
rispettivamente la media e la deviazione standard della variabile
casuale x9.
La funzione di densità f(x) può essere utilizzata per stimare la
probabilità che la variabile considerata (x) assuma un valore
compreso in un dato intervallo. A tal fine è sufficiente ricorrere al
calcolo dell'integrale della funzione in corrispondenza
dell'intervallo desiderato.
Per rendere più semplice il calcolo dell’integrale si procede ad
una standardizzazione della variabile casuale. La standardizzazione
di una variabile casuale consiste nell’esprimere gli scarti (x-) in
unità di:
x 


[6.15]
tale che   N (0,1)
per cui x    
La media e la varianza della variabile casuale standardizzata
sono pertanto:
E ( x )  E ()    
[6.16]
V ( x )  V ( ) 2  2
Si può, quindi, calcolare la probabilità che la variabile casuale
standardizzata (x) assuma valori compresi in un certo intervallo.
Risulta, infatti, che:
9
Gli altri termini della relazione risultano essere valori costanti, essendo =3,14 ed e exp 2,718;
il fattore 1 (2) è una costante che permette di rendere l’area totale sottesa alla funzione f(x) pari
all’unità, mentre il numero e, la base del logaritmo Neperiano o naturale descrive l’andamento
campanulare e simmetrico della curva. La funzione di densità è simmetrica rispetto alla retta x=
cresce da 0 a 1
(2) per x che passa da 
a  decresce da 1
(2) a zero per x che passa
da  a  ; ha due flessi, ascendente il primo e discendente il secondo, rispettivamente nei punti
 e  .
Introduzione al Value at Risk per i rischi di mercato 299


il 66% della distribuzione delle frequenze è compreso in
valori di  = +1 ed 
il95% è compreso in valori di  = +2 ed  = -2.
Ciò equivale a dire che la probabilità, che una variabile casuale
assuma valori ricompresi intorno alla sua media, più o meno la
deviazione standard presa una volta, è del 68%; ovvero, la
deviazione standard presa una volta ci fornisce la misura del raggio
intorno alla media nel quale è atteso il 68% degli eventi.
Figura 6.1
E’ possibile pertanto definire il numero delle deviazioni
standard per cui l’area sottostante alla coda destra o sinistra sia pari
a c10.

c  Pr ob(X  q)   f ( x )dx
q
[6.17]
ove
10
Volendo stimare i movimenti attesi dei tassi di interesse con media 1% e volatilità 12%
compresi in un intervallo =+2 ed =-2, abbiamo
xmin=1%-2*12%=-23%
xmax=1%+2*12%=+25%
Ciò equivale a dire che per un dato intervallo di confidenza, ossia = -2; = +2, vi è una
probabilità del 95% che il valore atteso dei prezzi subisca una variazione minima del 23% e massima
del 25%, ed una probabilità del 5% che il prezzo possa assumere una variazione in valore assoluto
superiore alla percentuale stimata.
300 Capitolo 6
x = variabile casuale
q = probabilità sufficientemente piccola
Occorre a questo punto precisare che, pur considerando l'intera
gamma dei possibili rendimenti, se la finalità è quella di
determinare le perdite potenziali e dunque il valore a rischio della
posizione, va tenuto conto che ciascuna di questa è esposta
esclusivamente a metà degli eventi racchiusi nella distribuzione di
probabilità. E’ necessario, quindi, considerare rispettivamente la
sezione della coda destra, per le posizioni corte esposte al rischio di
un rialzo dei prezzi, e la sezione sinistra, per le posizioni lunghe
sensibili a una diminuzione dei prezzi. Ne consegue che il livello di
protezione associato a un certo multiplo della deviazione standard è
più elevato rispetto alle possibilità di considerare sia gli eventi
favorevoli che quelli sfavorevoli.
Scegliere di prendere 2 volte la deviazione standard significa
considerare il 95% degli eventi possibili intorno alla media. Poiché
il restante 5% si distribuisce equamente negli estremi della curva
solo nel 2,5% dei casi si manifestano eventi fortemente avversi.
I livelli di protezione corrispondenti ai diversi multipli di
deviazione standard sono riassunti nella tabella che segue.
Tabella 6.1
PERCENTILE
VALORE
99.99
99.9
99
97.72
97.5
95
90
-3.715
-3.090
-2.326
-2.000
-1.960
-1.645
-1.282
84.13
50
-1.000 0.000
La scelta dell’intervallo di confidenza 11 è funzione del grado di
avversione al rischio dell’investitore: una maggiore avversione
spinge a selezionare un multiplo della volatilità superiore in modo
da ottenere un maggior grado di protezione e, di converso, una
minore probabilità di realizzare una perdita superiore a quanto
11
In Risk Metrics viene utilizzato un intervallo di confidenza del 90% (1,282 volte la deviazione
standard) che lascia ai movimenti avversi una probabilità di verificarsi del 5%. Questa misura può
anche essere interpretata in un modo diverso ed attribuendogli un altro valore informativo: infatti, il
5% degli eventi non coperti implica che si dovrebbe verificare una forte perdita all’incirca ogni 20
giorni lavorativi; se si decidesse di coprire il 99% degli eventi probabili, bisognerebbe attendere in
media 100 giorni lavorativi per poter accertare la bontà della stima.
Introduzione al Value at Risk per i rischi di mercato 301
stimato con il VaR. Ne consegue che in mercati efficienti ciò si
riflette in un minor premio a rischio richiesto dagli investitori,
quindi, in una riduzione del costo dei mezzi propri.
6.1.2.3
L’orizzonte temporale
Per il calcolo del Valore a Rischio occorre definire l'orizzonte
temporale futuro lungo il quale si desidera misurare la perdita
potenziale.
Per la definizione dell’orizzonte temporale, occorre prendere in
considerazione, da un lato, i fattori che incidono sulla liquidabilità
dello strumento, ossia lo spessore, la profondità e la dimensione
del mercato nel quale lo strumento viene negoziato, dall’altro, le
strategie dell’operatore.
Il grado di liquidità di una posizione dipende dal tempo
necessario per una normale transazione, ossia dalla microstruttura
del mercato e dalla dimensione della transazione stessa, giacché
importi elevati rendono meno liquida la posizione. Posizioni
relativamente modeste in titoli benchmark sono facilmente
smobilizzabili; circostanze, invero, non replicabili qualora
l’importo della transazione assuma valori di gran lunga superiore ai
volumi medi giornalieri negoziati.
Per quanto riguarda le strategie, l’operatore può operare in
un’ottica speculativa e di investimento. Portafogli di trading
devono essere naturalmente valutati su un orizzonte giornaliero;
viceversa, per portafogli di investimento è necessario scegliere
holding period più lunghi.
Si discute se la scelta di un arco temporale prolungato soffra o
meno di una minore significatività di natura informativa dei dati.
L’ampiezza dell’arco temporale di previsione dipende dalla
frequenza con cui vengono aggiornate le stime. Orizzonti temporali
di tre mesi utilizzano stime della volatilità e della correlazione
storica di tre mesi da confrontare con la volatilità effettiva dei
successivi tre mesi.
Osservazioni prolungate nel tempo sono più efficaci ai fini delle
previsioni della volatilità. Si è dimostrato che la volatilità degli
strumenti finanziari, in particolare dei prezzi azionari, pur subendo
forti variazioni nel breve periodo, nel medio e lungo termine
302 Capitolo 6
tendono a ritornare al valore medio (mean reversion). Queste
affermazioni sono meno verificabili per i mercati dei tassi di
cambio e di interesse sui cui si riflettono le misure di politica
monetaria. Ne consegue che, assumendo campioni più ampi, le
stime risultano più corrette, contraddicendo affermazioni di natura
intuitiva, secondo le quali la maggiore ampiezza del campione
disperde le informazioni sui dati più recenti del mercato. D’altra
parte, è possibile ipotizzare orizzonti temporali di ampiezza diversa
del periodo di rilevazione del campione storico per ridurre l’errore
di campionamento.
Le valutazioni esposte devono trovare corretta applicazione al
mercato di riferimento, ossia non sono traslabili, ad esempio in
mercati come quello dei cambi ove assuma rilevanza preponderante
le condizioni più recenti ai fini di una previsione più efficace12.
E’ prassi comune che per posizioni aventi un unico fattore di
rischio riferiti ad orizzonti diversi, la volatilità per tempi più
prolungati venga ottenuta dalla volatilità giornaliera. Ciò e
possibile in relazione alle proprietà dei modelli di comportamento
del prezzo, secondo le quali, in un qualsiasi intervallo di lunghezza
T, la variazione del valore di una variabile che segue un processo di
Wiener, si distribuisce in modo normale con media nulla e
deviazione standard pari a T . La volatilità alla fine di un
intervallo T, è misurabile moltiplicando la volatilità giornaliera per
la T , ossia per il numero dei giorni compresi nell’holding period
selezionato.
 T  G T
6.1.2.4
[6.18]
Previsione della volatilità
Il modella delta, basato sulla sensibilità delle variazioni del
valore dello strumento finanziario al fattore di rischio di mercato,
presenta un vantaggio e al tempo stesso uno svantaggio: il primo, è
rappresentato dal fatto che i prezzi e i tassi storici sono facilmente
osservabili per tutti i mercati. Il secondo fa riferimento ai problemi
12
Sironi A. (1996), p. 168.
Introduzione al Value at Risk per i rischi di mercato 303
che si incontrano nel misurare le volatilità e le correlazioni sulla
base di andamenti passati, i quali potrebbero non rappresentare al
meglio i possibili andamenti futuri dei rendimenti, in particolare in
situazioni critiche di instabilità ed incertezza. Inoltre, utilizzando il
delta valuation method le posizioni in attività non lineari non
possono essere stimate se non introducendo nel modello fattori di
ordine superiore di correzione (delta, gamma, vega) e, comunque,
per piccoli movimenti dei tassi di cambiamento, quando le opzioni
sono lontane dalla scadenza o quando si trovano in posizioni out
the money.
In generale i modelli previsionali, compreso dunque il Risk
Metrics, presentano delle criticità per cui debbono essere affinati,
da un lato, e raffrontabili con metodologie diverse, dall'altro, al fine
di tener conto, anche di situazioni estremamente pessimistiche. Per
quanto concerne il primo aspetto la stima della volatilità è stata
effettuata in Risk Metrics introducendo il metodo delle medie
mobili esponenziali per attribuire alla volatilità dei fattori di
mercato una ponderazione non uniforme di .
Tradizionalmente, sono state impiegate medie mobili
caratterizzate dalla eguaglianza dei pesi, conseguendo risultati non
sempre soddisfacenti poiché tutti i punti della serie vengono
considerati con lo stesso fattore di ponderazione. Si osservano,
infatti, rapidi movimenti verso l’alto della media mobile quando
nella serie entrano valori molto elevati e allo stesso tempo rapide
discese, quando tali osservazioni escono dal calcolo della media;
gli adeguamenti, inoltre, della media mobile semplice alle
condizioni reali sono molto lenti e spesso distanti, in valore
assoluto, dai valori di osservazione
Per evitare questo problema si impiegano proprio le medie
mobili esponenziali nelle quali le ultime osservazioni della serie
storica (le più recenti) sono considerate, nel calcolo della medie
mobile, con un peso maggiore.
Le medie mobili esponenziali, ossia il metodo Exponentially
Weighted Moving Average (EWMA), forniscono due grandi
vantaggi: le stime della volatilità reagiscono più velocemente agli
shock del mercato (avendo gli ultimi dati più peso nella stima); le
stime decrescono, dopo una forte reazione di prezzo, gradualmente
304 Capitolo 6
al passare del tempo, seguendo la diminuzione di valore dei pesi di
ponderazione.
La media esponenziale, al contrario di quella semplice, non
rimane influenzata dai valori di picco per molto tempo e si adegua
molto velocemente.
Essa, infatti, attribuisce un peso maggiore alle osservazioni più
recenti; il peso assegnato ad ogni punto della serie storica dipende
da un valore chiamato decay factor o “discount coefficient”, il
quale indica il “grado di persistenza” delle osservazioni
campionarie passate. Essendo tale costante sempre compresa fra 0 e
1, si può affermare che (1-λ) indica la velocità di decadimento delle
osservazioni passate nella media. Maggiore è la costante λ,
maggiore è la ponderazione attribuita alle osservazioni passate e
dunque meno rapido è l’adeguamento della media alle condizioni
più recenti.
Ogni osservazione della serie storica (composta da n elementi)
che rientra nella media mobile esponenziale viene ponderata in
base alla seguente espressione:
w j  j (1  ) con 0    1, e j che va da zero a n-1
nella quale gli w j rappresentano la serie dei pesi (la somma dei
quali tende all’unità al crescere dei punti della serie), e  è il decay
factor. Nelle medie mobili semplici tutti gli w j sono eguali.
Il valore da attribuire a  dovrà essere scelto in modo
opportuno13: la sua misura dipenderà da quanto velocemente si
13
RiskMetrics Tm assume un unico e costante fattore di decadimento da applicare all'intera
matrice di covarianza (pari a = 0,94 per la stima VaR giornaliera e  = 0,97 per quella mensile).
Questa scelta appare un'arbitraria assunzione del modello, sebbene giustificabile in base alla mole di
dati sottostanti la gigantesca matrice di covarianza fornita, in quanto non vi sono le ragioni teoriche
per assumere che le varianze evolvano nel tempo nello stesso modo, in differenti paesi e su diverse
categorie di asset. L'ottimo (unico)  della matrice di RiskMetrics Tm è trovato con una procedura che
utilizza il criterio di minimizzazione dell’errore quadratico medio (RMSE - Root Mean Squared
Prediction Error) connesso alla previsione della volatilità; nella formula che segue, il valore è
funzione del decay factor e il valore  per una specifica serie di dati (per ogni fattore di rischio) viene
scelto come quello che rende minimo il RMSE:
RMSE=


1 T
2
 rt 12  ˆ 2t 1/ t ()
T t 1
Introduzione al Value at Risk per i rischi di mercato 305
muove la serie storica, ovvero dalla sua variabilità. Più i dati della
serie saranno maggiore è la ponderazione attribuita alle
osservazioni più recenti: il valore di  sarà allora più vicino allo
zero14.
E’ inoltre importante determinare la scelta del numero delle
osservazioni passate, per un dato valore del decay factor, affinchè
la somma dei w j tenda all’unità e, quindi, si possa utilizzare
correttamente il metodo esponenziale.
Per determinare questo valore di soglia (K) utilizziamo una
sommatoria dei valori dei pesi (tra K e infinito) e poniamola uguale
ad un fattore di tolleranza (FT) che dovrà essere sufficientemente
vicino allo zero, ovvero risolvendo per K:

FT  (1   )   J  (1   K )  K   K 1  K  2 .... 

JK
  (1   ) 1   K  
K
K 2

...  FT
[6.19]
  K  FTeK  log( FT ) / log(  )
Per un dato valore di  e di FT, il numero di giorni di cui si
necessita per il metodo E.W.M.A. è K. La relazione che lega il
fattore di tolleranza, il decay factor ed il numero di dati da
impiegare è mostrata nella seguente tabella.
Per esempio, fissando il fattore di tolleranza all’1% e stabilendo
un valore del decay factor pari a 0,92 il numero di dati storici
dove T è il numero di previsioni disponibile. Viene così individuato per ogni fattore di rischio i
del portafoglio un ottimo i; la somma dei i opportunamente pesati consente di ottenere il valore
uniforme da applicare a tutti i fattori di rischio della matrice di covarianza.
Vi è da dire che il documento tecnico di RiskMetrics Tm non fornisce la dimensione della precisa
riduzione dell'errore ottenuta utilizzando il criterio sopra descritto.
Uno dei motivi della scarsa performance dell'approccio RiskMetrics Tm è ascrivibile all'uso di un
unico fattore di decadimento per tutte le serie presenti nella matrice di covarianza. Il  ottimo per
ogni fattore di rischio di mercato presente nella matrice di covarianza basato sul criterio RMSE è
infatti sensibilmente diverso sia all'interno delle categorie di asset (i  stimati per gli indici azionari
delle principali 22 economie sembrano quelli con minore dispersione, con valori compresi tra 0,955 e
0,985 più dispersi, e quindi molto meno significativa la previsione ottenuta con il  rappresentativo
dell'intera matrice, risultano invece i  sulle valute e sui tassi ad un anno, con valori rispettivamente
compresi tra 0,92-0,99 e 0,85-0,99) sia tra categorie di asset.
14
Per valori piccoli di , i primi valori di
più grandi.
j
(quelli da assegnare ai dati più recenti) saranno
306 Capitolo 6
necessario al sistema E.W.M.A. per calcolare correttamente la
deviazione standard sarà pari a 55.
Tabella 6.2 Fattore di tolleranza
DECAY
FACTOR
0.00001
0.0001
0.001
0.01
0.85
71
57
43
28
0.86
76
61
46
31
0.87
83
66
50
33
0.88
90
72
54
36
0.89
99
79
59
40
0.90
109
87
66
44
0.91
122
98
73
49
0.92
138
110
83
63
0.93
159
127
95
63
0.94
186
149
112
74
0.95
224
180
135
90
0.96
282
226
169
113
0.97
378
302
227
151
0.98
570
456
342
228
0.99
1146
916
687
458
6.1.2.5 L’approccio delta-normal: mapping dei flussi e criticità
La mappatura dei flussi
Una volta definite le assunzioni distributive e quelle ad esse
correlate sulle funzioni di prezzo, un elemento critico per
l'implementazione dell'approccio delta-normal è individuabile
nell'esatta specificazione dei fattori di rischio sottostanti il
portafoglio. Infatti, accade sovente che le posizioni assunte da una
istituzione finanziaria abbiano un valore di mercato che risulta
funzione di più variabili di mercato. E’ necessario, allora, un
processo di mappatura dei fattori che influenzano il valore del
portafoglio, ovvero una scomposizione della posizione nelle
relative componenti elementari. Un esempio di mapping,
considerando
una
approssimazione
lineare
(approccio
delta-normaI), può essere fatto considerando un insieme di
posizioni in titoli a reddito fisso: la banca d'affari J.P.Morgan
Introduzione al Value at Risk per i rischi di mercato 307
adotta un sistema di buckets "disposti"15 su un numero di venti
scadenze la cui numerosità dipende dalla segmentazione e dal
grado di liquidità alle varie scadenze del mercato dei titoli. Il
criterio adottato per realizzare il mapping dipende dalla scelta del
fattore di rischio. Nel caso del rischio di interesse, i flussi del
portafoglio obbligazionario sono collocati su una griglia standard
di scadenze e, mediante interpolazione lineare o quadratica
vincolata a un set di condizioni, i flussi con scadenza non
coincidente con i vertici sono attribuiti tra due scadenze16
intermedie.
Il Value-at-Risk relativo alla scadenza j sarà: VaRj = k * (VMj *
MDj *rj * rj ), dove VMj è il valore di mercato del jesimo cash-flow,
MDj la relativa modified duration, rj il tasso d'interesse e rj la sua
volatilità. Il VaR del portafoglio sarà quindi il risultato
dell'interazione tra le volatilità di tasso relative alle varie scadenze
(rrj, rrk) e le correlazioni (jk) tra i tassi lungo i vertices della yield
curve, ossia:
VaR  k *
m
n
  (VM
j1 k 1
j
* MD j * rj * rj )(VM k * MDk * rk * rk ) *  jk
[6.20]
Si può verificare dalla 6.20 che il VaR dipende non solo dalle
variabilità originate da ciascun cash flow (modified duration *
volatilità del tasso) singolarmente preso, ma anche dai coefficienti
di correlazione jk, che, in questo caso, misurano le correlazioni
esistenti tra le variazioni dei tassi riferite ai diversi vertices e
l'effetto di diversificazione generato dalla composizione del
portafoglio.
Il metodo analizzato, soddisfa le esigenze di misurazione del
rischio di un portafoglio in base ad una univoca e determinata
selezione dei fattori di rischio, nei mercati rilevanti in cui opera una
banca. Si vuole però mettere in evidenza come uno degli elementi
critici
alla
base
dell'implementazione
dell'approccio
varianze-covarianze sia proprio quello della identificazione e della
15
Coerentemente con le disposizioni di vigilanza.
I nodi selezionati, denominati vertici, sono 14 e vanno da 1 mese a 30 anni e per ognuno di
essi J.P. Morgan fornisce le volatilità e le correlazioni.
16
308 Capitolo 6
mappatura esatta dei fattori di rischio sottostanti il portafoglio, in
particolare, nel caso in cui gli intermediari finanziari abbiano
portafogli ampi e globalmente diversificati. All'uopo, le principali
banche d'investimento statunitensi17 hanno scelto di ricondurre la
rischiosità delle posizioni detenute ad un insieme di fattori di
mercato (fattori di rischio) quali i tassi di interesse relativi alle
diverse scadenze (con la metodologia, precedentemente analizzata,
di suddivisione dei flussi in bucket rappresentativi delle diverse
scadenze18), i tassi di cambio, gli indici azionari e delle
commodities. La mappatura del portafoglio non è facile da
implementare in quanto comporta necessariamente un trade-off: nel
caso dei tassi di interesse, ad esempio, una specificazione molto
accurata di tutta la struttura a termine può fornire una
rappresentazione del portafoglio migliore. Il numero di
informazioni diviene, però, estremamente elevato, per cui risulta
arduo stimare e controllare la stabilità delle volatilità e delle
correlazioni sottostanti.
Viceversa, utilizzare un livello di aggregazione troppo sintetico,
stabilendo solo pochi buckets per descrivere l'intera curva dei tassi,
potrebbe invece limitare fortemente l'attendibilità della stima del
rischio del portafoglio. La soluzione al problema di una adeguata
"mappatura", con l’identificazione dei fattori di rischio
effettivamente rilevanti per il portafoglio detenuto, non ha un
algoritmo preciso su cui basarsi. In generale, si dovrebbero
aggregare strumenti i cui flussi, per ogni potenziale bucket,
mostrino volatilità analoghe ed elevati livelli di correlazione. Il
numero di buckets da considerare dipende quindi da quanto la
volatilità varia lungo la struttura a termine e dalle correlazioni tra i
differenti tassi. Al riguardo, nel caso estremo in cui le volatilità
siano uguali tra le diverse scadenze ed i differenti tassi risultino
perfettamente correlati non vi sarà la necessità di effettuare una
mappatura, in quanto il rischio del portafoglio sarà funzione
unicamente della volatilità del tasso e della modified duration del
portafoglio.
17
J.P. Morgan, Goldman Sachs, Salomon Smith Barney.
Impostazione condivisa anche nelle regole di vigilanza internazionale inerenti l'utilizzo del
maturity method per il rischio di tasso d'interesse nell'ambito del ed. metodo standardizzato; anche
per i ed. modelli interni vi è la previsione dì un requisito minimo di modellizzazione della yield curve
pari ad almeno 6 segmenti di maturità, cfr. Comitato di Basilea.
18
Introduzione al Value at Risk per i rischi di mercato 309
I punti di forza e di debolezza del Delta-normal
I punti di forza di questo modello si possono individuare nel
fatto che esso è indipendente dall’oggetto cui è applicato, consente,
quindi, di misurare, confrontare ed aggregare il rischio di prodotti
diversi. Esso fornisce, quindi, uno strumento utile a misurare la
variabilità dei rendimenti delle attività finanziarie, nel periodo di
riferimento, permettendo una corretta allocazione del capitale nella
fascia rischio-rendimento desiderata.
Al contrario, i punti di debolezza risiedono nella utilizzazione di
informazioni passate; le serie storiche dei prezzi non sono sempre
rappresentative dei rischi futuri. Dubbi vengono sollevati sulla
scelta della distribuzione normale delle variazioni dei rendimenti.
Infatti, l’ipotesi di distribuzione normale dei rendimenti delle
attività finanziarie, sebbene abbia fatto registrare molto spesso
opinioni discordanti, è in realtà un punto in comune a molti dei
modelli di analisi finanziaria sviluppati negli ultimi decenni. Il
motivo dei dissensi, da parte della comunità finanziaria, è dovuto al
fatto che questa ipotesi non trova conferma nelle verifiche
empiriche condotte su varie categorie di strumenti finanziari. Le
critiche più ricorrenti, che hanno portato a ricercare soluzioni
alternative alla distribuzione normale, sono rappresentate proprio
dai risultati di questi studi.
In particolare:


la distribuzione dei rendimenti delle attività finanziarie
mostra generalmente code più spesse (fat tails) nella
estrema destra e sinistra della distribuzione, rispetto ad una
curva normale teorica, ovvero, vi sono numerosi valori
cosiddetti outliers. Variazioni di prezzo lontane dal valore
medio hanno, dunque, maggior probabilità di verificarsi
rispetto a quanto implicitamente previsto con una
distribuzione normale. Questa caratteristica prende il nome
di curtosi (una curtosi positiva indica la presenza di code
spesse);
il picco intorno alla media della distribuzione dei
rendimenti è generalmente più elevato di quello tipico di
310 Capitolo 6

6.1.3
una distribuzione normale: questa caratteristica viene
chiamata leptocurtosi;
la distribuzione dei rendimenti risulta esser generalmente
non simmetrica intorno alla media, ovvero si riscontrano
più osservazioni nella metà sinistra della curva (quelle
inferiori alla media) rispetto al numero di osservazioni
rilevate nella parte destra (negative skewness). Al contrario,
una skewness positiva è indice di una distribuzione
asimmetrica verso destra, con un numero maggiore di
osservazioni superiori alla media.
Il VaR in opzioni e l’approccio delta-gamma: cenni
Il modello descritto presuppone un'approssimazione del primo
ordine nella sensitività ai fattori di rischio: questa stima, nel caso di
opzioni, può realizzare un buon fitting “locale" nelle immediate
vicinanze del punto di valutazione, ossia per piccoli cambiamenti
nel valore del sottostante, ma risulta inadeguata per ampi
movimenti dei prezzi. Poiché la metodologia VaR si propone di
quantificare, con una attendibile stima, il rischio di perdite
connesse a questi ampi movimenti avversi, non tener conto della
curvatura dei profili di payoff degli strumenti del tipo embedded
(ma anche semplicemente di titoli obbligazionari ad elevata
convessità) può dar luogo ad una rappresentazione fortemente
inadeguata del reale rischio cui la posizione è esposta, tanto
maggiore quanto più la curvatura è pronunciata. A questo scopo è
stato proposto19 l'utilizzo di una approssimazione delta-gamma del
valore di mercato del book contenente opzioni valutabili con lettere
greche rispettivamente per ogni asset sottostante e per ogni coppia
di asset sottostanti.
Combinando tutti i delta e i gamma, la variazione totale del
valore del portafoglio avrà la seguente approssimazione:
19
Cfr. Wilson T. (1997), p.75. L’autore è stato il primo a proporre un metodo di
approssimazione delta-gamma per le variazioni di valore del portafoglio. Per un approfondimento
Fallon J. (1996).
Introduzione al Value at Risk per i rischi di mercato 311
n
P()    j X j 
j1
1 n

2 j1
n

k 1
jk
X jX k
[6.21]
dove, i j rappresentano le sensitività (delta) ai cambiamenti X j
nei fattori dì rischio, e jk i vari gamma dei portafoglio; per j = k il
gamma sarà la variazione relativa del jesimo delta rispetto ad un
cambiamento nel fattore di rischio Xj. Se il prezzo degli asset è
funzione unicamente di un fattore di rischio, si potrebbero ignorare
i termini gamma per j  k (questa semplificazione è spesso
effettuata nella realtà operativa 20). Questo approccio non si
dimostra efficace in tutti i casi: ad esempio, per le opzioni molto
vicine alla scadenza e at-the-money il gamma tende ad essere
estremamente grande e quindi non significativo; un problema
simile si ha per le opzioni con barriera, quando l'asset sottostante è
prossimo alla barriera.
L'applicabilità
dell'approccio
delta-gamma
è
quindi
condizionato dalla data di scadenza dell'opzione rispetto
all'orizzonte temporale di calcolo del VaR: l'informazione fornita
dal delta-gamma sarà robusta quanto più l'orizzonte temporale è
minore del tempo a scadenza dell'opzione.
Il peso relativo dell'effetto gamma nello spiegare la variazione
del valore di mercato dello strumento è poi tanto maggiore quanto
più lungo è l'orizzonte temporale di riferimento. L'inclusione della
componente gamma nei calcoli comporta, inoltre, che la
distribuzione dei returns del portafoglio venga influenzata dai
quadrati di variabili random ipotizzate normali, i quali danno luogo
ad una asimmetria21 della distribuzione. In questo caso, l'ipotizzata
normalità condizionale e quindi la simmetria della distribuzione
viene meno, invalidando l'utilizzo dei quantili della distribuzione
normale standard. L’aggiunta di un secondo parametro per
correggere la non linearità del delta trasforma gli stessi momenti
dell'analisi statistica: ad esempio, la varianza dei returns di
20
Cfr. Wilson T. (1997),. Il prodotto dei termini gamma quando j  k può essere importante per
prodotti strutturati fortemente dipendenti dalle correlazioni di mercato come i differential swaps, le
choosers options e dovrebbe essere inserito ne valutazioni in quanto questi prodotti hanno un valore
della derivata seconda "incrociata" elevato.
21
Posizione gamma negativa (opzione venduta) implicherà asimmetria negativa e viceversa
312 Capitolo 6
un'opzione differisce dalla varianza 2 del relativo strumento
sottostante per un fattore (2 + 0,522).
L'importanza di un appropriato trattamento del rischio di
mercato delle opzioni è oggi evidenziata anche da esplicite
indicazioni degli organismi di vigilanza bancari internazionali, i
quali prevedono una distinzione nelle capacità di monitoraggio e di
gestione delle posizioni in derivati: queste devono essere
commisurate alla dimensione e complessità dell'esposizione
sopportata. In particolare, nell'ambito del metodo cd.
standardizzato è previsto uno specifico onere di capitale da
mantenere a fronte del "gamma impact” calcolato con il secondo
membro dell'espansione in serie di Taylor come: 1/2**(X2), dove
X2 rappresenta la variazione predefinita dell'under1ying
dell'opzione, che secondo le stime della vigilanza, è pari all'8% per
le opzioni su singole azioni, indici azionari e tassi di cambio ed al
15% per le commodities. Per le opzioni sui tassi la variazione da
applicare si deve invece basare su di una griglia temporale di pesi
per il rischio variabili in funzione della scadenza. Nonostante
l'approccio delta-gamma sia, tra i metodi analizzati, il più adeguato
a descrivere la relazione di non linearità tra la variazione del fattore
di rischio22 cui l’opzione è esposta e la variazione del valore di
mercato dell'opzione, esso non coglie un aspetto rilevante della
rischiosità connessa ad opzioni complesse (ma anche a semplici
combinazioni di opzioni plain vanilla, call e put). In particolare,
trascura la caratteristica della non monotonicità della relazione tra
il prezzo dell'underlying e valore della posizione "strutturata" in
opzioni. Questa caratteristica fa si che l'analisi della massima
perdite potenziale svolta, considerando forti variazioni dei prezzi,
porti a risultati non consistenti rispetto al reale profilo di rischio
della posizione: la non monotonicità implica perciò che le perdite
maggiori non si verifichino in corrispondenza di forti shocks dei
prezzi del sottostante. Ad esempio, la massima perdita di una
posizione short in una butterfly23, si avrà in corrispondenza di un
22
Oltre al delta ed al gamma per una descrizione completa della sensibilità del prezzo di
un’opzione, si dovrebbero considerare anche gli altri coefficienti di sensibilità e di conseguenza i
fattori di rischio a questi corrispondenti: la volatilità attesa del prezzo dell'attività sottostante, il
livello di variazione del tasso di interesse a breve.
23
La butterfly ha una struttura sintetica ottenibile con diversi mix di call e put: ossia vendendo
due call con diversi strike e acquistando due call con identico strike intermedio tra i primi due.
Introduzione al Value at Risk per i rischi di mercato 313
prezzo determinato24 e non di variazioni estreme dei prezzi. Tale
limite non consente l’estensione dell'approccio delta-gamma per
tutte le posizioni, favorendo la diffusione dei metodi di valutazione
“piena" (full valuation), ossia dei metodi di simulazione, anche
chiamati modelli “non parametrici”. I modelli rientranti in questa
categoria sono definiti tali in quanto, non formulando alcuna
ipotesi relativa alla forma funzionale della distribuzione dei
rendimenti dei fattori di mercato, non richiedono di stimare i
parametri di tale distribuzione25. In pratica tali modelli calcolano il
VaR non come prodotto della sensibilità della posizione/portafoglio
per la volatilità della variabile di mercato rilevante, ma
ricalcolando, anzitutto, l'intero valore di mercato della
posizione/portafoglio in base alle nuove condizioni risultanti dalle
variazioni stimate delle variabili di mercato che influenzano tale
valore.
In particolare, fra i modelli non parametrici si possono
individuare due principali approcci per la stima del VaR di un
portafoglio:


le Simulazioni storiche;
le Simulazioni MonteCarlo.
Nonostante le rilevanti differenze fra queste due categorie di
approcci, è possibile individuare alcune caratteristiche che li
accomunano:
a) Full valuation: diversamente dall’approccio varianzecovarianze, il quale si fonda sui coefficienti di sensibilità, i
modelli di simulazione si basano su una logica di
valutazione piena. Il valore di mercato delle
posizioni/portafogli di cui si intende stimare il VaR viene
rivalutato, mediante opportune formule di pricing, sulla
24
Questo prezzo, nel caso in esame, corrisponde allo strike delle due call acquistate.
In realtà, ciò è vero unicamente per le simulazioni storiche, le quali non richiedono
effettivamente di formulare alcuna ipotesi analitica circa le distribuzioni dei rendimenti. Essa non
risulta invece adatta per le simulazioni MonteCarlo, le quali richiedono di selezionare una
distribuzione analitica multivariata per i rendimenti dei fattori di mercato e di stimare i parametri di
tale distribuzione quali medie, varianze e covarianze.
25
314 Capitolo 6
base delle condizioni simulate dei fattori di mercato. Il
meccanismo di full-valuation consente di superare il
problema della non-linearità delle relazioni di pricing che
legano tra di loro le variazioni di prezzo degli strumenti in
portafoglio alle variazioni dei fattori di mercato, restituendo
variazioni del valore del portafoglio vere e non
approssimate. Tale caratteristica è tanto più desiderabile
quanto maggiore é la componente opzionale del portafoglio
di cui bisogna calcolare il Valore a Rischio.
b) Logica del percentile: nei modelli di simulazione il VaR è
stimato tagliando la distribuzione empirica di probabilità
delle variazioni di valore del portafoglio al percentile di
confidenza desiderato. Ad esempio, date 10.000 simulazioni
MonteCarlo dei fattori di mercato che generano 10.000
variazioni del valore del portafoglio in esame, il VaR al
99% è calcolato prendendo la 100-esima peggiore
osservazione. Analogamente si procede per le Simulazioni
storiche.
c) Ipotesi distribuzione normale: l’ultimo tratto comune ai
modelli di simulazione è l’assenza dell’ipotesi di normalità
della distribuzione dei rendimenti di mercato. Tale
caratteristica è auspicabile poiché, come abbiamo già detto,
numerosi studi empirici hanno mostrato come la
distribuzione effettiva dei rendimenti dei fattori di mercato
sia in realtà caratterizzata da code spesse e da un livello di
curtosi superiore a quello di una distribuzione normale.
6.1.4
Simulazioni storiche
La valutazione di un portafoglio/posizione attraverso questa
procedura di calcolo risulta molto semplice e prescinde da
qualunque ipotesi sul tipo di funzione di densità dei rendimenti e,
se effettuata direttamente sui prezzi delle attività, non richiede la
stima dei coefficienti di sensibilità ai fattori di rischio. Il primo
passo da compiere, nel caso del calcolo diretto sui prezzi e, quindi
di full valuation, consiste nel costruire un database dei prezzi, per
ogni istante del periodo di osservazione prescelto. Il secondo,
consiste nel rivalutare il portafoglio/posizione mantenendo ferme le
Introduzione al Value at Risk per i rischi di mercato 315
quote investite, per ogni istante temporale, in modo da pervenire
ad una serie storica dei valori dello stesso. Applicando, quindi, la
distribuzione storica al portafoglio analizzato, si ottiene una serie di
profit and loss, P&L (VM1 = VM1 – VM0), che successivamente
ordinata dal peggiore al migliore risultato (ossia dalla massima
perdita al massimo profitto), consente di costruire una distribuzione
empirica delle variazioni di valore del portafoglio. Poiché in questo
caso non vi è alcuna ipotesi circa la natura della distribuzione della
variabile di mercato, l’individuazione dell'intervallo di confidenza
desiderato non avviene sulla base di un multiplo della volatilità
storica,come nei metodi parametrici, ma individuando direttamente
lo specifico percentile, nel senso che la distribuzione dei P&L
storici viene "tagliata" al percentile corrispondente al livello di
confidenza prescelto, cui corrisponderà un valore di P&L che
rappresenta il VaR del portafoglio.
I pregi di tale approccio sono piuttosto evidenti: non prevede la
stima di altri indicatori intermedi (correlazioni e volatilità) almeno
nella versione di calcolo direttamente dai prezzi, cattura la struttura
delle correlazioni riflessa nelle variazioni congiunte dei fattori di
mercato, permettendo di superare il problema di instabilità delle
correlazioni. Inoltre, non fissando a priori nessun modello
distributivo, consente di superare i limiti imposti dall’ipotesi di
normalità dei rendimenti. L'unica ipotesi implicita è che i
rendimenti estratti dalla distribuzione storica siano in realtà estratti
da una distribuzione futura. Ne segue che la corrispondenza
biunivoca fra intervallo di confidenza desiderato e variazioni dei
fattori di mercato non risente di eventuali asimmetrie o leptocurtosi
delle distribuzioni dei rendimenti dei fattori di mercato. Se i
rendimenti dei fattori di mercato non sono distribuiti normalmente,
ma hanno un comportamento probabilistico stabile nel tempo, il
modello delle Simulazioni storiche fornisce, dunque, indicazioni
più precise rispetto ai modelli parametrici.
Nondimeno, effettuando una valutazione piena del
portafoglio/posizione, il metodo delle Simulazioni Storiche
permette di “catturare” anche variazioni di ordine superiore al
primo, come l’effetto gamma per i prodotti derivati, e le
componenti di convessità caratteristici di alcuni titoli strutturati.
Inoltre, la logica sottostante a tale metodo di simulazione risulta
316 Capitolo 6
facilmente comprensibile e comunicabile fra le varie business unit
di una banca. A fronte di questi pregi, però, occorre rilevare alcuni
limiti del metodo in questione. In generale, se è vero che il metodo
delle Simulazioni storiche è in grado di cogliere la distribuzione
effettiva dei rendimenti, e dunque l’eventuale presenza di “code
spesse”, esso condurrà, in presenza di una distribuzione
leptocurtica, a misure di VaR più elevate di quelle che si
otterrebbero con il metodo varianze-covarianze. Le Simulazioni
Storiche, inoltre, ipotizzano implicitamente la stabilità temporale
della distribuzione storica dei fattori di mercato, quindi che i dati
della serie siano indipendenti ed identicamente distribuiti. Ma,
nella realtà dei fatti, si riscontra, sovente che la distribuzione
congiunta non osservabile dei rendimenti dei fattori di mercato
cambia nel tempo; è eteroschedastica. In tal caso, i risultati del
modello delle Simulazioni storiche, avranno uno scarso significato
sia concettuale che operativo. I risultati raggiunti, inoltre, con tale
metodo hanno una forte dipendenza dall’intervallo temporale
prescelto, il quale può modificare in maniera sensibile i risultati
stessi.
Un altro problema relativo alla stima del VaR con questo tipo di
approccio è legato all’intervallo di confidenza – il livello di
probabilità p di perdita fissato – se scelto molto alto e avendo pochi
dati per l’analisi, può portare ad una stima non corretta del VaR.
Per esempio, scegliendo come probabilità il valore di 0,99 e avendo
una finestra temporale di 100 dati, il quantile corrispondente
verrebbe posizionato al 99-esimo elemento con un solo valore del
portafoglio al di là di tale limite, quindi sarebbe statisticamente
poco significativo.
E’ opportuno, infine, sottolineare le difficoltà spesso
riscontrabili nel provvedere ad un’accurata raccolta dei dati che tale
approccio richiede. E’ necessario, infatti, poter disporre di un
archivio storico dei prezzi dell’attività presenti in portafoglio
quanto più dettagliato ed aggiornato. Nella realtà operativa, si
dispone sovente di numero limitato di osservazioni storiche, che si
traduce tipicamente in una scarsa definizione delle code della
distribuzione empirica di probabilità. Le uniche variazioni dei
fattori di mercato che il modello considera possibili sono infatti
quelle verificatesi in passato, nell’orizzonte storico preso a
Introduzione al Value at Risk per i rischi di mercato 317
riferimento. Esiste, però, una relazione di trade-off riguardo alla
lunghezza ottimale della serie storica di riferimento: incrementare il
più possibile la lunghezza della serie storica di riferimento,
allontanandosi troppo nel tempo, non è consigliabile, perché
diviene più probabile che sia violata l’ipotesi di stabilità della
distribuzione; si rischia di estrarre dei dati da una distribuzione
ormai “obsoleta”.
Una possibile risposta a tale problema è data dall’approccio
ibrido.
L’approccio ibrido combina i pregi delle Simulazioni Storiche
(assenza di ipotesi esplicite circa la forma funzionale della
distribuzione dei rendimenti dei fattori di mercato, valutazione
piena, preservazione della struttura delle correlazioni) con i
vantaggi propri della tecnica delle medie mobili esponenziali per la
stima della volatilità illustrata con riferimento all’approccio
varianze-covarianze (elevato contenuto informativo connesso
all’utilizzo di un ampio campione storico e aggiornamento dei dati
connesso alla tecnica delle ponderazioni decrescenti)26.
6.1.5
Simulazione MonteCarlo
Le Simulazioni MonteCarlo27 rappresentano una delle più
sofisticate ed accurate metodologie di stima del VaR, ma sono
anche le più complesse e costose da implementare. Le simulazioni
MonteCarlo sono state originariamente utilizzate in finanza per il
pricing di strumenti complessi, quali le opzioni esotiche, per i quali non
26
L’approccio Ibrido è stato proposto da Boudoukh, Richardson e Whitelaw (1998). Esso
consente di utilizzare una serie storica relativamente lunga ma attribuisce ad ogni osservazione
passata una ponderazione tanto maggiore quanto più questa è recente, secondo una logica simile a
quella propria delle medie mobili esponenziali utilizzate, sovente, nell’approccio varianzecovarianze per la stima della volatilità storica. In tal modo, ciascuna osservazione non contribuisce
alla determinazione del VaR unicamente in funzione della propria intensità, ma anche in base alla
propria ponderazione, ossia in base alla relativa lontana/vicinanza temporale rispetto al momento
della valutazione.
27
L’origine del termine MonteCarlo risale agli anni ‘40, quando con tale locuzione venne
designato un piano di simulazioni sviluppato durante la sperimentazione della prima bomba atomica.
Il ricorso a tali simulazioni si rese necessario perché i problemi affrontati dal gruppo di fisici e
matematici avevano raggiunto un livello di sostanziale intrattabilità analitica. Essi si ispirarono, nella
scelta del nome MonteCarlo, all’aleatorietà dei guadagni tipica della casa da gioco del principato
monegasco. Attraverso la generazione dei numeri casuali, essi, determinarono i parametri delle
equazioni che descrivevano la dinamica delle esplosioni nucleari. Il termine MonteCarlo Method
viene, infatti, utilizzato, come sinonimo di simulazione stocastica.
318 Capitolo 6
è possibile ottenere una soluzione attraverso una formula chiusa o quasi
chiusa di valutazione e, quindi si rende necessario ricorrere ad un metodo
numerico che permetta di ottenere una soluzione approssimata
28
accettabile .
Con le simulazioni MonteCarlo si generano un ampio numero di
scenari (nell'ordine di alcune migliaia) in maniera random
basandosi su di una assunta distribuzione di probabilità congiunta
dei fattori di rischio di mercato (in genere si ipotizza una
distribuzione normale): le caratteristiche statistiche dei fattori di
rischio (volatilità e correlazioni29) sono determinate utilizzando i
dati storici di mercato. Una volta specificata questa distribuzione
congiunta, sono usate delle tecniche30 per generare il set di scenari
in base a dei correlati numeri random: in questo modo gli scenari
generati rifletteranno le caratteristiche statistiche derivate dai dati
storici. L'insieme degli scenari ottenuti costituiscono una
simulazione; la simulazione viene ripetuta numerose volte 31,
utilizzando ogni volta un diverso set di scenari random. Da ognuna
di queste simulazioni si estrae il percentile desiderato, il quale
rappresenterà la massima perdita probabile32 stimata per il
portafoglio, in corrispondenza di quel predeterminato livello di
confidenza. La media aritmetica dei percentili darà la misura VaR
cercata, caratterizzata da una deviazione standard che fornisce la
dimensione dell'errore di convergenza delle simulazioni.
Quest'ultimo potrà essere ridotto semplicemente utilizzando più
28
L’utilizzo della simulazione MonteCarlo per la valutazione del prezzo di un’opzione consiste
nel determinare dei possibili sentieri (path) per il prezzo del bene sottostante per ricavare il valore
dell’opzione come media attualizzata dei payoff, ipotizzando che si operi in un ambiente neutrale al
rischio, in mercati completi, in cui non esistono opportunità di arbitraggio, costi di transazione, e le
attività sono infinitamente divisibile e vendibili allo scoperto.
29
Le volatilità e le correlazioni possono essere predisposte per rappresentare uno scenario
economico specifico rispetto al quale si può implementare una analisi di stress. Lo stress testing è
un'altra tecnica simulativa per analisi di sensitività di portafogli rispetto a ipotizzate variazioni
estreme avverse di mercato e sarà affrontata nella sezione successiva.
30
Ad esempio il documento tecnico RiskMetric 1996 utilizza la decomposizione di Cholesky
della matrice di covarianza  tale che  =A’ A; viene poi generato un vettore Z = A’Y di variabili
random i cui elementi avranno una distribuzione normale multivariata e covarianza , ed Y è un
vettore di variabili standardizzate N ~ (0, 1) con matrice di covarianza identica I, così che var(Z) = A'
E(YY’) A = A’IA = A'A = .
31
Generalmente i "simulation paths" sono circa 10.000.
32
Quella in considerazione è solo una delle tipologie di simulazioni di MonteCarlo possibili:
qui la focalizzazione è sulle code estreme della distribuzione del portafoglio; altri tipi di simulazione
sono ad es. dirette al pricing di strumenti finanziari individuando il valore medio futuro dell'insieme
di strumenti detenuti. Altre ancora fanno ipotesi diverse sul tipo di distribuzione sottostante il vettore
Y.
Introduzione al Value at Risk per i rischi di mercato 319
scenari33 in quanto il suo valore è inversamente proporzionale alla
radice quadrata del numero degli scenari utilizzati ( 1 / n ): ad
esempio34, un VaR calcolato come media aritmetica degli
appropriati percentili di 50 simulazioni, ognuna costituita da un
differente set di 1500 scenari, ha un errore di convergenza
(deviazione standard) del 4%; per ridurre l'errore al 2% bisognerà
utilizzare 6000 scenari per ogni simulazione.
Oltre alla velocità di convergenza, la selezione stessa degli
scenari può comportare altri tipi di problemi: la specificata
distribuzione assunta per i fattori di rischio (ad es. la lognormale)
può riflettere in maniera non adeguata la vera distribuzione q dei
fattori di rischio stessi; essendo stimate da un limitato set di dati
storici, le volatilítà e le correlazioni possono essere
significativamente differenti dalle reali volatilità e le correlazioni di
q (il cosiddetto sampling error); i dati storici, dai quali sono
desunte le volatilità e correlazioni, possono non riflettere
perfettamente le condizioni del mercato correnti, poiché queste
sono non stazionarie (variano nel tempo).
Aumentando la dimensione delle serie storiche dei dati si riduce
l'errore di convergenza, ma aumenta l'errore dovuto alla non
stazionarietà della serie; d’altro canto, basando la stima unicamente
sui dati più recenti si ipotizza un miglioramento sulle
rappresentazioni della effettiva distribuzione dei fattori di rischio.
Il metodo MonteCarlo, pur consentendo una valutazione piena35
di strumenti finanziari con caratteristiche di payoff anche
abbastanza complesse36, non produce stime stabili in quanto sono
condizionate ogni volta dal risultato delle simulazioni. Il numero
delle simulazioni effettuabili, e quindi la possibile riduzione
dell'errore di convergenza, è influenzato, tra l'altro, dal
33
Non c'è un limite teorico al numero degli scenari utilizzabili: i vincoli reali sono dovuti alle
velocità di calcolo offerte dai computer e dalla necessità di conoscere le stime VaR in tempi brevi.
34
L'esempio è tratto da Holton C. (1998), p. 61.
35
Le variazioni del portafoglio sono determinate, con riferimento agli scenari utilizzati per
descrivere le variazioni dei fattori di mercato, mediante riprezzamento in base ad opportune formule
di pricing degli strumenti che caratterizzano il portafoglio.
36
Come le opzioni con barriera (barrier option tipo knock-in etc.) il cui valore dipende dalla
probabilità che il prezzo dell'asset sottostante superi o meno una predeterminata soglia: per questo
tipo di opzioni è importante l’intero sentiero temporale dei prezzi (sono path dependent) il quale si
presta ad essere simulato con le tecniche MonteCarlo.
320 Capitolo 6
dimensionamento del portafoglio sul quale le simulazioni sono
implementate.
La fase probabilmente più critica del metodo MonteCarlo è
quella della simulazione degli scenari evolutivi del risk factor
individuato. Essa necessita di ricorrere a un generatore di numeri
casuali o pseudo-casuali37. Il criterio più frequentemente utilizzato
è rappresentato dall’estrazione da una distribuzione uniforme con
valori compresi nell’intervallo fra zero e uno 38. Quando la
posizione di cui si intende stimare il Valore a Rischio è sensibile a
più risk factor, oppure si tratta, non più di una singola posizione,
ma di un intero portafoglio la stima del VaR richiede, inoltre, di
tenere in considerazione la struttura delle correlazioni fra i
rendimenti di tali fattori. Diversamente da quanto accade per il
metodo delle Simulazioni Storiche, infatti, il metodo MonteCarlo,
essendo fondato sulla generazione di un numero elevato di scenari
per ogni fattore di mercato, non è in grado di catturare
automaticamente tali correlazioni. Si dovrà procedere, quindi, come
segue:



Stima della matrice varianze-covarianze dei rendimenti dei
fattori di mercato ();
Scomposizione della stessa in due matrici simmetriche, A e
AT, con = A AT, dove A è una matrice triangolare con dei
valori nulli nel quadrante superiore destro e AT è la sua
trasposta, mediante la cosiddetta
“scomposizione di
Cholesky”;.
Generazione degli scenari relativi alle variazioni dei fattori
di mercato moltiplicando la matrice AT , la quale riflette le
correlazioni storiche fra i rendimenti dei fattori di mercato,
37
I numeri pseudo casuali permettono di “riempire” il dominio di riferimento in modo più
uniforme ed evitare così i fenomeni di concentrazione in alcune sotto-aree che sovente si
accompagnano all’utilizzo di numeri casuali..
38
I passi da compiere sono i seguenti:
-Estrazione di un numero U da una distribuzione uniforme [0,1].
-Determinazione dell’inversa della funzione di ripartizione- della distribuzione da cui si desidera
effettuare il campionamento.
-Calcolo del valore x di tale funzione f(x) corrispondente al numero U estratto.
-Ripetizione delle precedenti fasi un numero molto elevato di volte.
Introduzione al Value at Risk per i rischi di mercato 321


per un vettore di numeri casuali z. In pratica, tenendo in
considerazione la struttura delle correlazioni, si estrae,
mediante il ricorso a un generatore di numeri casuali, un
elevato numero di valori (solitamente 10.000) per ogni
fattore di mercato;
Calcolo della variazione del valore di mercato del
portafoglio in esame in corrispondenza di ognuno degli
scenari simulati costruendo in questo modo la distribuzione
empirica di probabilità delle variazioni del valore di
mercato del portafoglio.
Determinazione del VaR tagliando la distribuzione empirica
di probabilità dei valore di mercato del portafoglio in esame
in corrispondenza del percentile relativo al livello di
confidenza prescelto.
Il metodo descritto necessita, dunque, diversamente dalle
Simulazioni storiche, di stimare la matrice delle varianzecovarianze dei fattori di mercato; si ripresenta dunque il problema
della stabilità di tale matrice. Ma questo non è il solo svantaggio di
cui soffre tale metodo. Esso, essendo generalmente basato
sull’utilizzo di un numero particolarmente elevato di scenari, al fine
di stimare nel modo più accurato possibile la distribuzione empirica
di probabilità delle variazioni dei fattori di mercato, tende a fondare
le misure di VaR su variazioni che raramente rappresentano valori
estremi. Nondimeno, va ricordato che il metodo MonteCarlo, pur
essendo numericamente efficiente, se confrontato con altre
procedure numeriche, risulta comunque oneroso, in termini di
tempo e di risorse informatiche richieste, rispetto al modello
varianze-covarianze.
Non vanno taciuti, tuttavia, i vantaggi connessi al ricorso al
metodo MonteCarlo. Anzitutto, simulando l'evoluzione dei fattori
di mercato e ricalcolando il valore di mercato delle posizioni che
compongono l'intero portafoglio alle nuove condizioni di simulate,
permette di superare il problema della non linearità e/o non
monotonicità dei payoff delle posizioni. Esso, si presta, inoltre, ad
essere utilizzato con qualunque forma funzionale della
distribuzione dei rendimenti dei fattori di mercato lascia, quindi, il
Risk manager libero di scegliere la distribuzione ritenuta più idonea
322 Capitolo 6
a spiegare le variazioni dei fattori di mercato in esame. Infine, il
metodo MonteCarlo simulando, non solo il valore finale che ogni
singola variabile di mercato subisce nel corso del periodo
considerato, ma anche il percorso evolutivo di tale variabile nello
stesso periodo, offre il vantaggio di consentire di analizzare anche
il rischio connesso a particolari categorie di opzioni, le cosiddette
opzioni esotiche path dependent, il cui payoff dipende non solo dal
valore che le variabili di mercato assumono a scadenza ma anche
dal percorso evolutivo che le stesse seguono nel periodo oggetto di
simulazione.
6.1.6
L'analisi degli scenari (stress test)
Le prove di stress rappresentano un'ulteriore tecnica simulativa
raccomandata dagli organi di Vigilanza come integrativa e di
supporto alle stime di VaR prodotte dai modelli interni. La
necessità di affiancare le stime del rischio di mercato prodotte dai
modelli interni con prove di stress è legata ai limiti metodologici
che questi ultimi presentano, come , ad esempio, l'instabilità delle
correlazioni, l'ipotesi di distribuzione normale dei rendimenti,
empiricamente confutata dalla presenza di code più spesse (fat
tails) e da fenomeni di leptocurtosi e asimmetria negativa. I modelli
del Value-at-Risk tentano di misurare il rischio connesso ad eventi
estremi, ma sulla base delle ipotesi limitative descritte. In
considerazione di ciò, il Comitato di Basilea ha raccomandato
l'utilizzo continuo di prove di stress, da implementare mediante il
ricorso a tecniche di simulazione basate sulla costruzione di scenari
pessimistici di evoluzione dei mercati (crollo dei mercati azionari,
interventi strutturali sul mercato dei cambi, ecc.). Lo stress test
dovrebbe essere implementato in modo da riflettere periodi di
movimenti estremi di mercato. Il Comitato raccomanda, infatti, di
testare la robustezza del portafoglio rispetto a periodi particolari di
tensione dei mercati, quali il crash dei mercati azionari del 1987
(con un movimento negativo dell'indice S&P500 pari ad oltre 20
deviazioni standard), la crisi valutaria europea del 1992, la crisi dei
pesos messicani (18 deviazioni standard). Lo scenario dovrebbe
comunque essere costruito in funzione del particolare tipo di
esposizioni del portafoglio. Ad esempio, una banca italiana con un
Introduzione al Value at Risk per i rischi di mercato 323
consistente portafoglio di titoli di debito dovrebbe verificare gli
effetti sul portafoglio anche della caduta dei mercato
obbligazionario italiano del 15 agosto 1994 (10 deviazioni
standard). Questi periodi hanno in comune ampi ed inusuali
movimenti dei fattori di rischio sottostanti ai portafogli ad essi
esposti, spesso accoppiati a drastici cambiamenti (anche di segno)
nelle correlazioni e negli spread39 (in particolare, numerose
verifiche empiriche condotte su differenti mercati hanno
evidenziato come in periodi di stress i diversi mercati tendano ad
essere maggiormente correlati e le correlazioni stesse approssimano
i loro valori massimi40). All'uopo vi è una generale “regola del
pollice”41 (rule of thumb) che assegna ad ogni mercato finanziario
la probabilità che almeno una volta l'anno si registri un movimento
pari a 4 o più deviazioni standard, ed in ogni anno vi sarà almeno
un mercato che subirà un movimento giornaliero più grande di 10
deviazioni standard.
Per gli intermediari autorizzati all'uso dei risultati prodotti dai
modelli proprietari ai fini della determinazione del proporzionale
patrimonio di vigilanza, la metodologia di stress testing42, è
prevista, nelle intenzioni di vigilanza, al fine di includere il rischio
di mercato e gli aspetti di liquidità connessi ai low-probability
events incluse le varie componenti dei rischi di credito e operativo,
e quindi di valutare la capacità dell'intermediario di assorbire le
potenziali grandi perdite e identificare le azioni da adottare per
ridurre i rischi in questione. Le prove di stress dovrebbero essere
indirizzate anche ad identificare gli scenari capaci di cogliere i
rischi maggiori cui l'intermediario è esposto in base alle particolari
caratteristiche del proprio portafoglio: se le prove rivelano una
significativa vulnerabilità ad un identificato set di eventi, questa
deve essere gestita attivamente tramite un appropriato hedging o
con la riduzione della dimensione dell'esposizione.
39
Cfr. Dumbar N. (1998), pp 32-36. Una forte variazione degli spreads provocata dalla crisi
russa del 1998 ha portato ad una fortissima riduzione del valore del portafoglio del fondo Long Term
Capital Management (LTCM).
40
Cfr. Bookstaber R. (1997), pp. 103-104.
41
Cfr. Bookstaber R., op.cit..
42
Cfr. Basle Committee on Banldng Supervision (2001 a), op. cit, p. 46.
324 Capitolo 6
Numerose sono le motivazioni alla base della necessità di
un'integrazione delle stime VaR con i risultati delle prove di stress:
per la loro stessa natura, gli "stress events" sono improbabili, e i
dati usati per le stime VaR non incorporano molte informazioni
riguardo questi potenziali eventi, i quali risultano spesso “fuori del
campione” (outliers); il loro impatto sul valore del portafoglio,
infatti, giace frequentemente oltre il 99° percentile tipicamente
usato nelle stime VaR. In questa direzione, le prove di stress
potrebbero dare una misura della perdite che ci si può attendere nel
rimanente 1 % dei casi. Inoltre, le situazioni di "stress" dei mercati
si evolvono tipicamente su periodi più lunghi di quello giornaliero,
mentre è la distribuzione giornaliera dei rendimenti quella
generalmente usata per le stime VaR, le quali sono poi "scalate" per
la radice di T per raggiungere l'orizzonte temporale desiderato
(ipotesi questa valida in assenza di correlazione seriale). I modelli
VaR quindi necessitano, nelle previsioni degli organi di Vigilanza,
di uno strumento di integrazione affinché possano essere utilizzati
nella determinazione di un patrimonio adeguato a fronteggiare le
perdite inattese e a garantire la sopravvivenza dell'istituzione
finanziaria. Lo strumento di integrazione previsto si sostanzia nelle
prove di stress fin qui descritte che, tentando di cogliere il rischio
connesso agli eventi remoti presenti nelle code delle distribuzioni
dei rendimenti dei fattori di mercato, integrano, l'analisi statistica
alla base del VaR, con un forte elemento di soggettività nella
definizione degli scenari worst case, ossia proprio dove i rischi
sono più grandi e andrebbero in qualche modo analizzati in base ad
assunti parametrici e con una base di fondatezza statistica.
Le prove di stress, allo stato attuale, benché previste e validate
dagli organi di Vigilanza, non sono senza svantaggi come fonte di
informazioni: oltre alla già accennata soggettività (e quindi non
fondatezza sul piano statistico) esse rappresentano infatti solo un
limitato numero di scenari possibili, con la probabilità di ogni
scenario impossibile da stimare esattamente e con il rischio di non
individuare gli scenari con un'incidenza potenziale maggiore sul
valore del portafoglio e nello stesso tempo più plausibili di altri. In
questo senso, per portafogli ad elevato contenuto di opzionalità
embedded, spesso il worst case scenario, basato su movimenti
estremi di mercato, è inadatto a rappresentare le più grandi perdite
Introduzione al Value at Risk per i rischi di mercato 325
cui si è esposti, le quali possono invece situarsi in corrispondenza
di contenute variazioni di mercato.
6.1.7
I limiti dei metodi convenzionali
I metodi convenzionali di stima dei rischio di mercato descritti
finora sembrano fallire il loro scopo proprio su un punto critico:
l'identificazione dei rischi connessi ad eventi anche molto remoti,
che sono quelli verso i quali la Vigilanza si è ispirata nel
regolamentare sia i requisiti quantitativi dei modelli proprietari
delle istituzioni finanziarie che l'elevato fattore di moltiplicazione
da applicare alle stime prodotte dai modelli stessi.
Un limite comune ai modelli VaR analizzati è che essi si basano
tutti, in maniera più o meno accentuata, sulle ipotesi di normalità
dei rendimenti.
Le evidenze empiriche43, al contrario, mostrano che le
distribuzioni dei rendimenti dei fattori di mercato sono
caratterizzate da fat tails, ossia vi è una dispersione degli eventi
estremi nelle "code" delle distribuzioni più ampia di quanto
suggerito dalla distribuzione normale, da asimmetria negativa,
derivante dalla presenza di un maggior numero di osservazioni
nelle code sinistre delle distribuzioni rispetto alle code destre, e da
un addensarsi delle osservazioni nelle prossimità del valore medio.
Ignorando tali caratteristiche non si attribuisce la dovuta
importanza alle osservazioni che si concentrano sulle code della
distribuzione, contrariamente a quello che suggerirebbe un
prudente sistema di Risk Management 44.
43
In particolare, tra le numerose ricerche in merito, Cfr. Duffle D. e Pari J. (1997);gli autori
hanno misurato i momenti terzo e quarto delle variazioni giomaliere di 33 serie finanziarie sul
periodo 1986-1996, verificando la presenza di valori di skewness e kurtosis significativamente diversi
dai valori della normale.
44
Accettare l’assunzione di normalità, infatti, comporta che la probabilità di osservare un
evento a 4 deviazioni standard dal valore medio sia pari a circa 3 su 100.000 – circa una in 130 anni
(considerando 250 giorni lavorativi in un anno se ne hanno infatti circa 32.500 in 130 anni). In
pratica, però, questi movimenti di mercato insoliti si osservano nella maggior parte dei principali
mercati quasi ogni anno. Si consideri, ad esempio, il tasso di cambio della lira con il dollaro nel
periodo che va dal 9-feb-1973 al 22-ott-1996. La volatilità su base giornaliera è risultata pari allo
0,71%. Negli oltre 23 anni considerati, le variazioni giornaliere superiori a 4 deviazioni standard
dalla media, superiori cioè al 2,85%, sono state ben 27. Si è avuto in media 1,14 eventi a 4 deviazioni
standard ogni anno. Cfr., Barone E., Bragò A. (1996), Lavoro preparato per la Vª Tor Vergata
Financial Conference, Roma 28-30 Nov..
326 Capitolo 6
L'ipotesi di normalità caratterizza fortemente i modelli
parametrici, che derivano la distribuzione del valore del portafoglio
dalla normalità multivariata dei fattori di mercato ad esso
sottostanti. Il legame con la normalità di questi modelli è poi
rinforzato dalla creazione di intervalli di confidenza che
soggiacciono ad appropriati valori della normale standard.
I modelli di simulazione tipo MonteCarlo invece hanno una
minore dipendenza dagli assunti di normalità.Questi selezionano i
percentili corrispondenti agli intervalli di confidenza usuali
dell'analisi VaR in base alla tecnica del "taglio" delle distribuzioni
simulate agli appropriati livelli. Le simulazioni però richiedono che
venga definita una distribuzione sulla base della quale generare
numeri casuali ed è frequente che a tale scopo venga la
distribuzione normale anche se, in questo modo, si rinuncia a una
gran parte del valore aggiunto che la tecnica MonteCarlo può
offrire rispetto ai modelli parametrici.
Un secondo problema che coinvolge ambedue le tecniche
simulative analizzate ed i modelli parametrici è individuabile nella
dipendenza dall'utilizzo di input storici: in particolare i modelli
sono limitati dalla scarsa aderenza alla realtà delle ipotesi di
stazionarietà. Tutti i modelli del VaR, infatti, fondano le stime
prodotte in base alla considerazione della storia passata delle
variazioni dei risk factors45.
Critiche sono, quindi, le scelte inerenti il tipo di set di dati da
utilizzare e la frequenza di campionamento da considerare, in
quanto agiscono fortemente sulla sensitività del VaR. Set
alternativi possono produrre configurazioni di rischio molto
diverse: una serie giornaliera potrebbe comporsi di tutti i dati di
chiusura del mercato, oppure basarsi su dati intraday come i
massimi e i minimi registrati nel corso di ogni giornata di mercato
aperto. La misura di rischio ne sarà influenzata in misura maggiore
per livelli di volatilità elevati. Una volta scelto il set di
informazioni, il periodo di osservazione rappresenta un ulteriore
elemento che incide sul valore del VaR. Basilea in merito
suggerisce almeno un anno di dati giornalieri. Un numero limitato
di osservazioni storiche si traduce spesso in una scarsa definizione
45
Ossia sono backward-oriented.
Introduzione al Value at Risk per i rischi di mercato 327
delle code della distribuzione empirica di probabilità ed in una
scarsa rappresentazione degli eventi più rischiosi nel campione
prescelto, rispetto ad una loro teorica frequenza di lunghissimo
periodo. A fronte di questo si potrebbe aumentare la dimensione
del campione storico, ma questa scelta è limitata dal problemi già
visti di stabilità della distribuzione.
La frequenza di campionamento (sampling frequency) dovrebbe
essere sufficientemente elevata da consentire di ottenere un set di
dati statisticamente significativo. Questo problema è rilevante
specie se l'orizzonte temporale del VaR è superiore a quello
giornaliero poiché se, ad esempio, si stima il VaR su di un
orizzonte temporale decadale su periodi indipendenti l'uno dall'altro
(non-overlapping), si eviterà di introdurre un effetto artificiale di
autocorrelazione, ma il set di dati disponibile si ridurrà di una
fattore pari a 10, o pari rispettivamente a 22 per la stima mensile e
a 264 circa per quella annuale. Per questo si è diffusa la prassi
(consigliata anche dal Comitato di Basilea nell’"Amendment"), di
effettuare uno scaling delle stime VaR giornaliere per la T, dove
T è l'holding period di riferimento. In questo modo si può utilizzare
un campione di dati basato sulle variazioni giornaliere, e quindi un
numero di dati maggiore sul quale effettuare la stima. Il Comitato
di Basilea si è orientato in questa scelta anche per in considerazione
del fatto che il rischio di uno scenario di mercato estremo, rispetto
al quale le istituzioni finanziarie dovrebbero essere protette da un
adeguato grado di capitalizzazione, è accompagnato da problemi di
scarsa liquidità e dalla conseguente difficoltà di smobilizzare la
posizione, o il portafoglio di posizioni: questo può portare a perdite
più pesanti di quanto non accada in situazioni di normale liquidità,
anche in conseguenza dell'allargamento degli spread di denarolettera. A fronte di questo rischio vi è quindi un legame tra la scelta
dell'holding period e la liquidità delle posizioni: maggiore è il
tempo presumibile di smobilizzo, più lungo dovrà essere l'orizzonte
temporale da considerare. Lo scaling per la radice di T previsto da
Basilea è in generale coerente col fatto che, per quasi tutti i
portafogli, il VaR incrementa con la lunghezza del tempo, poiché la
volatilità assoluta aumenta al crescere dell'orizzonte temporale.
328 Capitolo 6
Purtroppo, unicamente sotto alcune condizioni 46, raramente
riscontrabili nella realtà empirica, questo scaling può essere
adeguato:



La relazione tra deviazioni standard e probabilità delle code
può essere fissata se i fattori di mercato mostrano una
distribuzione normale congiunta. Comunque, la normalità è,
come già visto, una semplificazione poco aderente alla
realtà fat-tailed, e le VaRiazioni giornaliere non sono
indipendenti nel tempo, ma è invece riscontrabile una
dipendenza seriale47. Le osservazioni giornaliere risultano
autocorrelate, e si registrano fenomeni di volatility
clustering;
La matrice delle correlazioni non risulta costante
nell'orizzonte temporale di riferimento;
Vi è un drift nei fattori di mercato. L'assunzione di media
pari a zero (nel caso dell'approccio varianze-covarianze) o
comunque implicitamente considerata fissata (come nel
caso delle Simulazioni storiche) può essere ragionevole solo
per periodi di tempo brevi (ad es. 1 giorno), ma è debole
sugli orizzonti periodali decadali prescritti dagli organi di
vigilanza.
La considerazione dell'operare congiunto dei fattori limitanti
analizzati condiziona la bontà dei risultati ottenibili dai diversi
modelli VaR in relazione al rischio insito nelle code estreme: le
stime VaR si dimostrano estremamente sensibili non solo alle
assunzioni di distribuzione, ed al tipo di dati che ne determinano le
diverse possibili implementazioni, ma anche alle ipotesi sulle
misure di correlazione da considerare. Le implicazioni di queste
discrepanze si riflettono nel dettato "prudenziale" di Basilea e sono
particolarmente rilevanti dato l'uso della metodologia VaR ai fini
della determinazione dell'adeguatezza patrimoniale.
La protezione da eventi estremi, fonti possibili di default
individuali e/o di una destabilizzazione sistemica (effetto domino)
46
47
Cfr. Iacono F. Skeie D, (1996).
Cfr. Sironi A. e Saita F. (1998) verificano una dipendenza seriale su diversi indici di mercato.
Introduzione al Value at Risk per i rischi di mercato 329
del sistema finanziario, e la loro accurata individuazione è uno dei
problemi più rilevanti dell'attività di Vigilanza, che è indirizzata a
rendere maggiormente consapevoli le banche, correlandone
proporzionalmente il livello di patrimonializzazione (secondo un
fattore, considerando una distribuzione normale standard, pari ad
almeno:  * 2,33* 10 * 3 = 22,1 deviazioni standard) alle stime di
rischiosità prodotte dai modelli proprietari. In contrasto, l'ottica
degli intermediari finanziari è sensibilmente diversa, ed è il frutto
della percezione di un trade-off tra il costo della protezione rispetto
ad eventi estremi (e connesso rischio di default) ed il costo di
operare con un livello di patrimonio da remunerare eccessivamente
elevato. Queste prospettive alternative possono essere parzialmente
riconciliate assicurando che i requisiti di capitale, a fronte dei rischi
sostenuti, siano determinati con la più efficiente metodologia
disponibile48.
I modelli "convenzionali" del valore a rischio finora trattati 49
falliscono nel fornire questa riconciliazione. Questi modelli sono
nati nelle istituzioni finanziarie più sofisticate, con l'obiettivo di
gestire il rischio di eventi riferibili ad un "normale" andamento
delle variabili fonti di rischio, e non con la finalità di definire un
qualche grado di adeguatezza patrimoniale, garanzia di solvibilità a
fronte di eventi estremi.
E' infatti vero che gli eventi estremi "non normali" sono
trascurati dai modelli del VaR, ma è nello stesso tempo vero che
tali eventi estremi non fanno parte della gestione corrente del
rischio rispetto alla quale tali modelli sono stati implementati
inizialmente. In questo senso, è identificabile uno scollamento
nell'azione degli organi di vigilanza, che da un lato "garantiscono"
l'uso dei modelli interni, dall'altro sottopongono l'utilizzo di questi
ad uno stringente set di condizioni di validazione moltiplicative dei
risultati prodotti (lo scaling per la radice dell'orizzonte temporale
decadale, il fattore di moltiplicazione pari almeno a tre,
l'integrazione con le prove di stress), in quanto ne riconoscono
esplicitamente l'inadeguatezza rispetto alle finalità dì una prudente
48
Ossia le diverse parti dovrebbero preferire una metodologia che garantisca, per un dato
margine di sicurezza, i requisiti di capitale più bassi, o che per un dato livello di capitale fornisca il
più ampio margine di sicurezza.
49
Identificabili peraltro negli stessi suggeriti nell"'Amendment" come base metodologica dei
modelli proprietari.
330 Capitolo 6
calibrazione dell'adeguatezza patrimoniale e di identificazione dei
grandi rischi (model risk).
Ciò che si intende porre in dubbio non sono le finalità degli
organi di Vigilanza, che si sostanziano tra l'altro in una spinta
all'adeguamento della struttura organizzativa, dei sistemi
informativi e dei controlli interni50 delle banche affinché siano
altamente affidabile nella gestione e controllo dei rischi, né
tantomeno il meccanismo "prudenziale" di supervisione che si è
sostituito all'approccio normativo precedente, quanto lo strumento
(i modelli interni) utilizzato per cogliere gli eventi estremi, rispetto
ai quali la Vigilanza ha predisposto tutto il set di condizioni di
validazione descritto. In questo contesto, si pone un problema di
carenza di incentivi per le istituzioni finanziarie a migliorare i
modelli VaR: infatti, nonostante un'istituzione finanziaria riesca a
sviluppare un modello VaR che più correttamente stimi gli eventi
di mercato con bassissima probabilità di accadimento, questa si
vedrà sempre applicare lo stesso elevato fattore di moltiplicazione
"minimo", a fronte di una stima VaR migliore (presumibilmente
più elevata di quella ottenibile con i metodi convenzionali).
Di fronte a questo meccanismo invariante, l’istituzione
finanziaria non avrà convenienza a migliorare il suo modello
proprietario, venendosi a creare, così, un effetto perverso che è
funzione del sistema stesso di incentivi risultante dagli elevati
livelli del fattore di moltiplicazione. Una proposta innovativa è da
collegarsi all'intenso sforzo di ricerca che negli ultimi tempi è stato
fatto per il miglioramento delle metodologie quantitative alla base
dei modelli VaR. Rispetto ai modelli convenzionali, a fronte dei
quali Basilea ha prescritto il set di condizioni di utilizzo, sono ora
disponibili applicazioni, come quelle fondate sui risultati di recenti
ricerche di applicazione dell'extreme value theory alla metodologia
del VaR, che più correttamente si focalizzano sulle code estreme
delle distribuzioni del rendimenti di mercato. La considerazione dei
miglioramenti nella stima VaR dovrebbe dunque riflettersi in una
diminuzione del fattore di moltiplicazione.
50
Cfr. Basel Committee on Banking Supervision (1998), Framework for Internal Control
System in Banking Organizations, September; Banca d'Italia (1998), Sistema dei controlli interni,
compiti del collegio sindacale, G.U. 20 ottobre.
Introduzione al Value at Risk per i rischi di mercato 331
6.1.8
La teoria dei valori estremi: cenni
Si è visto come i modelli più diffusi di stima del VaR siano
riferibili a due categorie principali: la prima categoria utilizza la
modellizzazione parametrica di una distribuzione condizionale
(usualmente la normale), facendo una previsione dell'intera
distribuzione dei rendimenti, dalla quale solo le code sono il
riferimento per il VaR. Questi modelli stimano i parametri
pesandoli sul centro della distribuzione, quindi con un riferimento
specifico ad eventi "comuni", mentre il VaR è una misura tipica
degli eventi estremi presenti nelle code delle distribuzioni. I limiti
maggiori dei modelli parametrici sono riscontrabili non solo
nell’ipotizzata normalità51, ma anche nelle tecniche utilizzate per
tenere conto della eteroschedasticità condizionale delle variazioni
dei fattori di mercato. Mentre le variazioni giornaliere sono
influenzate dal fenomeno della eteroschedasticità, la presenza di
questo effetto su di un holding period decadale (che è quello
previsto dalle autorità di vigilanza) è meno evidente; inoltre
l'effetto di eteroschedasticità è legato a variazioni nella volatilità di
breve termine, mentre gli eventi estremi, riferiti ad un intervallo di
confidenza pari o maggiore al 99%, sono molto più indipendenti 52
nel tempo. La seconda categoria di modelli, invece, non necessita
di una predeterminata forma parametrica per la distribuzione da
utilizzare, ma si basa su di un approccio non parametrico fondato
sulle Simulazioni storiche, nelle quali i pesi correnti del portafoglio
sono applicati alle serie di osservazioni storiche dei returns
registrati dai fattori di mercato sottostanti il portafoglio stesso.
Anche questa categoria di modelli non si dimostra robusta nella
stima dei percentili e delle probabilità inerenti gli eventi estremi a
causa dei problemi già visti, ed, in particolare, per la presenza,
nelle serie storiche, di poche osservazioni rappresentative dei tail
events, che rendono la stima discreta e con una varianza elevata.
Inoltre, la distribuzione empirica dei returns storici non può fornire
51
Contraddetta dalle evidenze empiriche. Anche ipotizzando altre distribuzioni dei fattori di
mercato, ad es. la Student-t o la lambda generalizzata, si dovrebbe comunque considerare la non
stazionarietà delle serie finanziarie.
52
Cfr. Danielsson J., De Vries C., Hartmann P. (1998), p. 101.
332 Capitolo 6
la probabilità di subire perdite più grandi di quelle presenti nella
finestra di dati utilizzata, la quale è assegnata pari a zero.
La conseguenza di quanto esposto si manifesta nella scarsa
attendibilità dei modelli VaR proprio dove sono più importanti. La
protezione dagli eventi estremi di mercato è infatti uno degli
obiettivi dell'attività di vigilanza bancaria, nel quale si riconoscono
anche le istituzioni finanziarie53. Un buon modello VaR dovrebbe
perciò correttamente rappresentare la probabilità di questi eventi
presenti nelle code delle distribuzioni, fornendone stime omogenee
e accurate dei percentili e delle correlate probabilità. A questo
scopo alcuni risultati sono ascrivibili ad un'area della statistica
conosciuta come "teoria dei valori estremi" (Extreme Value
Theory). Le caratteristiche di questo approccio includono:


un metodo di stima che è localizzato all'oggetto di interesse
(le code delle distribuzioni) piuttosto che all'intera funzione
di densità di probabilità;
una forma funzionale della coda della distribuzione che può
essere formulata a priori54.
In questo nuovo approccio le distribuzioni heavy-tailed possono
mostrare un comportamento nelle code, ad un primo ordine di
approssimazione, molto simile alla forma della coda della
distribuzione di Pareto. Così, se la distribuzione oggetto di analisi è
conosciuta essere heavy tailed, la probabilità delle perdite più
grandi potrà essere descritta da:
P{R<-r} = F(-r) a•r-
r
[6.22]
dove le probabilità di coda dipendono da due parametri, a e ,
rispettivamente una costante di scaling e un cosiddetto indice di
coda (tail index). L'evento estremo diverrà più probabile, e la coda
sarà più spessa, quanto più l'indice di coda  è minore. Gli
strumenti offerti dalla teoria dei valori estremi consentono di
53
Cfr. Focardi S. e Troiani M. (1997), p. 78. Gli autori presentano una ricerca condotta da The
Intertek Group su un campione internazionale di 80 banche: i risultati pongono in evidenza come la
protezione da eventi estremi, la risposta agli organi di vigilanza e l'ottimizzazione delle attività sono i
tre obiettivi principali di gestione del rischio.
54
Cfr Diebold F.X., Schuennann T. e Stroughair J.D. (1998).
Introduzione al Value at Risk per i rischi di mercato 333
stimare i parametri della coda. A differenza degli approcci
tradizionali alla stima del VaR, i risultati statistici basati sulla teoria
dei valori estremi forniscono la possibilità di strutturare una forma
parametrica alle code delle distribuzioni empiriche, dalla quale
stimare le probabilità ed i quantili relativi senza dover ricorrere ad
arbitrarietà nelle assunzioni sulle distribuzioni o sui pesi da
adottare. Un modello VaR può così essere costruito
semiparametricamente combinando la simulazione storica per
1"'interno" della distribuzione dei rendimenti (di un fattore di
mercato, di un portafoglio) insieme alla stima parametrica per le
code. Uno dei problemi rilevanti da risolvere, e che per lungo
tempo ha limitato le possibilità di implementazione di questo
metodo, riguarda la determinazione del punto d'inizio della coda,
oltre il quale si trovano le osservazioni estreme sulle quali stimare i
parametri della coda stessa. Recenti ricerche55 hanno individuato
una efficiente metodologia basata su un ricampionamento
bootstrap.
6.2 Gli utilizzi della metodologia del Value-at-Risk
A fronte di una comune definizione di rischio basata sul VaR,
sono stati analizzati i diversi approcci di misurazione allo stadio
attuale maggiormente implementati. Nonostante lo scopo principale
dei modelli proprietari delle istituzioni finanziarie sia quello di
gestire il rischio, sono emerse negli ultimi anni diverse finalità e
implicazioni operative nell'utilizzo dei risultati che scaturiscono da
questi modelli, insieme ad un'estensione del loro ambito di
applicazione: da una prima fase di applicazione, limitata ai rischi di
mercato del portafoglio di negoziazione, gli intermediari hanno
iniziato ad estendere l'utilizzo della metodologia al portafoglio
immobilizzato fino alla inclusione di tutte le poste di bilancio attive
e passive, stimando ogni tipologia di rischio. Ed è proprio la
versatilità di utilizzo delle stime VaR e la sua relativa facilità di
comprensione ad aver contribuito alla sua rapida diffusione ed
accettazione da parte degli intermediari finanziari, degli organismi
di vigilanza ed in diverse applicazioni nelle corporate. Le finalità
55
Cfr. Danielsson J. e. De Vries C. (1997).
334 Capitolo 6
principali nell'utilizzazione delle misure VaR sono riconducibili al
percorso logico di seguito analizzato, in ordine di progressività nel
loro livello di utilizzo all'interno delle istituzioni finanziarie.
a) Confronto e aggregazione fra tipologie di rischio ed
istituzioni differenti.
L'esposizione al rischio di mercato del portafoglio di un
intermediario è stata precedentemente definita nei termini di
volatilità dei sottostanti fattori di rischio e sensitività del
portafoglio stesso a questi fattori, i quali sono soggetti ad un
livello di specificazione tale che sia rappresentativo del
rischio in ogni singolo mercato. Ogni metodo è
profondamente associato con il suo specifico mercato e non
può essere applicato direttamente ad altri mercati. Ad
esempio, il rischio di tasso d'interesse di un titolo di stato
può essere misurato nella sua formulazione più semplice
dalla duration. Una approssimazione più corretta della
stima si ha mediante la determinazione dalla convessità o
dalla sensitività a shift non paralleli (ad es., con le key rate
durations di Ho56). Per il portafoglio azionario il rischio
sistemico può essere stimato mediante il beta. I rischi
associati ad una opzione, o ad un portafoglio di opzioni,
possono essere misurati dall'intero set delle "lettere greche",
ognuna espressione delle variazioni del prezzo rispetto a
cambiamenti nei parametri della formula di pricing. Anche
queste ultime misure di rischio non possono essere applicate
direttamente ad altri strumenti, in quanto costruite sulla base
di criteri metodologici fra loro differenziati, che rendono
non confrontabile l'importanza relativa dei rischi di mercato
assunti su mercati diversi. L'introduzione del VaR, come
rilevato all’inizio del capitolo, ha colmato questo divario di
raffronto: basandosi sul livello di esposizione delle singole
posizioni, individuabile con le misure di sensitività appena
descritte o tramite una rivalutazione delle posizioni alle
condizioni di mercato simulate57, e sulla volatilità di ogni
56
Cfr. Dattatreya R.E. e Peng S. Y. (1995). Gli Autori presentano un'estensiva applicazione
delle key rate duration nella valutazione della rischiosità di obbligazioni strutturate.
57
Cfr. Sironi A. e Saita F. (1998).
Introduzione al Value at Risk per i rischi di mercato 335
fattore di rischio. La misura di rischio VaR viene, pertanto,
calcolata in base a criteri metodologici omogenei (livello di
confidenza, holding period, etc.) che forniscono una
approssimazione unidimensionale dei rischi ai quali un
portafoglio di strumenti finanziari globalmente diversificato
è esposto.
Sintetizzando in un unico valore la massima perdita
probabile cui esposta la posizione, il VaR soddisfa due
importanti esigenze; consente infatti sia di confrontare fra
loro strumenti rischiosi diversi sia, soprattutto, di aggregare
rischi diversi agevolando il calcolo del rischio complessivo
di portafoglio. L'aggregazione dei rischi può essere
implementata con criteri diversi, dipendendo dal tipo di
modello (tra quelli già visti) adottato: con la matrice di
correlazione dei fattori di mercato, nel caso di un approccio
tipo RiskMetrics
scenari evolutivi se si utilizza uno dei metodi di
simulazione. Grazie a queste caratteristiche metodologiche,
si è realizzata una convergenza dell’industria
dell'intermediazione finanziaria e degli organismi di
Vigilanza verso una metrica comune, che consenta una
immediata percezione del profilo di rischio sopportato ed
una sua confrontabilità anche fra istituzioni finanziarie
diverse. Queste ultime, soprattutto investment bank
anglosassoni, negli anni recenti hanno iniziato a rivelare nei
reports annuali e trimestrali anche le loro stime di VaR
medio registrato nel periodo. Il diretto confronto delle stime
VaR tra le varie banche risulta comunque ridotto da alcune
discrezionalità nella scelta di parametri critici del calcolo.
Nei dati della tabella che segue, tratti da un recente articolo
di Hendricks e Hirtle58, sono descritti i VaR di alcune
grandi banche, i cui reports annuali sono sufficientemente
dettagliati da indicare holding period, percentili sottostanti
la stima e metodologia implementata.
58
Cfr. Hendricks D. e Hirtle B. (1997).
336 Capitolo 6
Tabella 6.3 - Misure di VaR annuale medio riportate da alcune
banche U.S.
BANCA
BankAmerica
Banker Trust
Chase Manhattan
Citicorp
J.P. Morgan
VaR annuale medio
giornaliero
( milioni $)
4259
39
24
45
21
Percentile
97.5
99.0
95.0
2
95.0
Come indicato nella tabella, tutte le stime sono basate su
di un holding period giornaliero, ed i percentili sono tutti
compresi tra il 95% e il 99%. Le divergenze in questi
parametri, così come su altri aspetti della stima, quali le
assunzioni sulle correlazioni, danno luogo a difficoltà nel
realizzare una diretta confrontabilità delle stime VaR.
Inoltre i VaR medi annuali potrebbero essere integrati con i
valori massimo e minimo del VaR registrati nel periodo
inerente il report e con la stessa volatilità del VaR, ma
anche con la media e la volatilità dei cambiamenti di valore
del portafoglio.
b) Determinazione dei limiti operativi
La predisposizione di adeguati modelli di misurazione
dell'esposizione al rischio del portafoglio e la
comunicazione del profilo di rischio all’interno
dell'istituzione, e nella reportistica verso l'esterno, è solo il
primo passo verso un adeguato processo interno integrato di
gestione dei rischi finanziari (risk management). Infatti, la
pura quantificazione della rischiosità delle posizioni gestite
in termini di perdita potenziale (risk measurement), per
quanto fornita da un modello accurato, è da considerarsi
unicamente come una prima fase logica di un processo più
ampio di gestione e di controllo delle posizioni a rischio. A
questo scopo, la struttura del modello interno ed i suoi
59
La stima è fatta sotto l'assunzione di un coefficiente di correlazione tra le categorie di asset
pari a 1. Assumendo una correlazione nulla si sarebbe ottenuta una stima pari a 18 mil.$.
60
Il livello di confidenza 2 è pari al 97.7 percentile ipotizzando una distribuzione normale.
Introduzione al Value at Risk per i rischi di mercato 337
output dovrebbero configurarsi, a sua volta, come un input
per un ulteriore livello di utilizzazione rispetto a specifiche
finalità gestionali. Queste sono individuabili: nella
fissazione di limiti all'operatività delle singole unità risktaking ai fini del controllo dell’esposizione. Fornire limiti
adeguati a supportare le scelte di risk taking consente
correttamente di misurare la redditività corretta dal rischio
in relazione al capitale assorbito, nell’ambito di un processo
sistematico di allocazione del capitale tra le varie unità
all'interno dell'istituzione finanziaria (capital allocation), al
fine di massimizzare la redditività, complessiva e di ogni
singola unità, rispetto ai rischi sostenuti (performance
measurement). Tale soluzione potrebbe produrre l’effetto di
una specializzazione di ogni operatore per ogni tipologia di
rischio, con una concentrazione dell’operatività sul proprio
core business, rendendo più affidabile il processo di
auditing. L’introduzione di un simile meccanismo non è di
facile attuazione, laddove le unità operano in prodotti
multirischio, rispetto ai quali si deve procedere alla
determinazione di ogni tipologie di rischio accessorio per
avviare operazioni di copertura interne. Si può intuire come
tali operazioni di hedging richiedano criteri oggettivi per la
determinazione del tasso di trasferimento di non sempre
facile realizzazione.
L'utilizzo dei limiti di assunzione dei rischi, in termini di
un denominatore comune, consente di sfruttare le proprietà
di aggregazione e confrontabilità del VaR con riferimento,
però, a un preciso orizzonte temporale in funzione della
propensione al rischio del management e degli azionisti.
La determinazione di un sistema di limiti standardizzato,
il suo continuo aggiornamento ed il connesso sistema di
reporting può essere molto difficile in relazione ad una forte
complessità dell'operatività della banca, ma è proprio in
relazione a questa operatività che esso diventa
maggiormente indispensabile. Il sistema dei limiti deve
comunque essere costruito secondo una logica gerarchica61,
61
Cfr. ABI (1996), p. 57.
338 Capitolo 6
che permetta l'aggregazione ai livelli superiori dei limiti
assunti dalle varie unità operative assoggettate ai limiti
stessi, tenendo presente che le misure VaR incorporano un
effetto di diversificazione del rischio dovuto alle
correlazioni. Considerare questo effetto porta ad una
impostazione della struttura gerarchica dei limiti tale che i
limiti di rischio al livello superiore potranno essere minori
della somma dei limiti di rischio delle unità ad esso
sottostanti.
Vi è però una differenza nel governo dei rischi tramite il
set dei limiti riferibile all'orizzonte temporale ed al livello
gerarchico considerato: nel medio termine (pianificazione
strategica) e a livello di alta direzione, possono essere
considerate stabili sia la propensione al rischio che il livello
del limiti; invece nel breve termine, e a livello di unità risktaking operative (specie all'interno dell'area finanza), la
revisione dinamica dei limiti è fondamentale per il governo
dei rischi finanziari e va monitorata frequentemente. In
questo senso, la singola unità risk-taking, sulla base del
VaR assegnato, del grado di sensibilità delle posizioni ai
fattori di rischio di mercato e del livello di volatilità di
questi ultimi, può determinare il limite di posizione
massima da assumere.
Eventuali variazioni nei livelli di volatilità generano
corrispondenti variazioni dei limiti62 di posizione
assumibili, dando luogo ad un adeguamento automatico dei
limiti operativi coerentemente con le condizioni di volatilità
dei singoli mercati (se la volatilità diminuisce, il limite
aumenta, e viceversa), favorendo una riallocazione
dinamica del capitale verso strumenti e mercati meno
volatili. A causa di questa relazione diretta volatilità-limite
di posizione, una scelta importante nel settare il sistema dei
limiti è da rilevarsi nella frequenza dell’aggiornamento
delle volatilità: l'eteroschedasticità dei rendimenti degli
strumenti finanziari comporta una modificazione della
volatilità nel tempo, così che una revisione istantanea dei
62
Cfr. Sironi A. e Saita F. (1998), p. 69; gli autori presentano un esempio dei limiti di
posizione su BTP decennali.
Introduzione al Value at Risk per i rischi di mercato 339
limiti di posizione, ogni qualvolta il livello di volatilità
muta, avrebbe la conseguenza di un'incertezza continua
sull'entità delle posizioni assumibili, con l'effetto di
mantenere le unità coinvolte sempre molto distanti dai limiti
massimi nominali; questa eventualità, sebbene "migliori" il
profilo di rischio, può portare però ad una strutturale
sottoutilizzazione (e quindi ad una minore remunerazione)
del VaR disponibile.
La soluzione adottata da molte banche internazionali, per
le esigenze dì una maggiore certezza operativa, si sostanzia
nell'estensione dell'orizzonte temporale (ad es., adottando
un aggiornamento mensile63) di revisione degli input di vo
latilità in un’ottica di compromesso tra la necessità di
tracking dei mercati e le esigenze rilevate.
Oltre alle variazioni della volatilità dei diversi fattori di
rischio, occorre tenere in considerazione anche l'impatto
delle correlazioni tra i diversi rischi, tanto più importante se
i limiti stessi sono stati definiti in base anche alle
correlazioni tra i rischi sostenuti dalle singole unità.In
questo caso, l'accentuarsi del grado di correlazione positiva
tra due mercati può far diminuire il limite di VaR massimo
assegnato alle due unità, proprio in conseguenza della
riduzione dei benefici derivanti dalla diversificazione del
rischio.
Le finalità esposte sono riconosciute dalle autorità di
Vigilanza, le quali, nel definire i requisiti qualitativi dei
modelli interni delle banche, ai fini della determinazione del
patrimonio di vigilanza, hanno indicato l'importanza
dell’interrelazione tra il sistema interno di misurazione dei
rischi ed i limiti di esposizione e di trading.
c) Misure di risk-adjusted performance e allocazione del
capitale.
Ulteriore finalità di tipo gestionale perseguibile con i
modelli Var è la costruzione di misure di performance
correte per il rischio attraverso la quantificazione del
63
L’intervallo minimo di revisione è comunque fissato dalle autorità di vigilanza, che
richiedono una revisione delle volatilità e correlazioni almeno trimestrale.
340 Capitolo 6
capitale a rischio e la sua allocazione alle aree di affari. Al
fine di consentire al top management di valutare la
performance in termini di rischio-rendimento occorre,
infatti, introdurre misure di Risk-Adjusted Performance
(RAPM) per determinare la contribuzione di ciascuna linea
di business alla creazione del valore complessivo. I metodi
utilizzati si focalizzano sul concetto di allocazione del
capitale, basandosi sul rapporto tra risultato reddituale e
relativo capitale economico a rischio, quantificato ex post,
sulla base dei rischi assunti, oppure ex ante, in sede di
pianificazione.
In generale, si può osservare come le opportunità di
investimento dipendono dal trade-off rischio rendimento,
ossia dalla capacità del business di originari profitti
crescenti rispetto al livello di capitale assorbito a fronte del
rischio associato. La performance di due o più attività
riproduce nei RAPM, di cui sono state fornite nozioni
introduttive nel capitolo 1, gli effetti della volatilità e delle
correlazioni sul livello di rendimento. Per poter apprezzare,
invero, il contributo di uno strumento finanziario alla
redditività del portafoglio e, quindi, valutare la sua
attrattività, occorre prendere in considerazione tre elementi
la rischiosità dello strumento, il grado di correlazione con il
rendimento del portafoglio e il premio offerto dallo
strumento rispetto al free risk.
La logica di tale approccio si racchiude su una semplice
intuizione, ossia, che la volatilità della distribuzione dei
rendimenti dei singoli strumenti contribuisce alla volatilità
complessiva di un portafoglio, che, non essendo
diversificabile, deve trovare copertura nella variabile
strategica mezzi propri. In prima approssimazione, è lecito
affermare che lo strumento piu appetibile, secondo
l’approccio del CAPM, potrebbe individuarsi in quella
attività che offre il maggior extrarendimento rispetto al
tasso free risk per unità di rischio complessiva. Posto che il
rendimento in eccesso di una singola transazione può essere
espressa da r’-rf, ove r’ indica il rendimento conseguito
dalla transazione ed rf il costo del capitale preso a prestito
Introduzione al Value at Risk per i rischi di mercato 341
dalla banca., si può assumere che il portafoglio attivo della
banca rappresenti una buona proxi del portafoglio ottimale
di mercato cui comparare l’opportunità di investimento
disponibile. Indichiamo tale portafoglio che massimizza il
rischio rendimento con M e formalizziamo il CAPM come
segue:
E (r r f )  E (r mr f )
[6.23]
ove rm identifica il mix delle attività bancarie.
La precedente relazione può essere riscritta:
cov( r ,r m)
E ( r r f ) 
E (r mr f )
 (r m)
ossia
E ( r r f ) 
E (r mr f ) cov( r ,r m)
 (r m)
 (r m)
[6.24]
ove
E(rm-rf)/(rm) = indice di Sharpe
Cov(r,rm)/(rm) = contribuzione marginale della attività
al portafoglio ottimale per cui
R ( EE )  E ( r r f ) 
E (r mr f ) cov( r ,r m)
 (r m)
 (r m)
[6.25]
La tangente al portafoglio ottimale M rappresenta la
market line, ove si colloca il set di opportunità che
forniscono il rendimento più alto per ogni livello di rischio.
Il valore di R(EE) esprime il di rendimento in eccesso e gli
asset che registrano il più elevato R( EE) sono quelle
maggiormente appetibili perché forniscono al portafoglio il
più alto rendimento rispetto alla medesima contribuzione di
rischio. Tale indicatore dipende quindi dalla misura dello
Sharpe ratio, di difficile utilizzazione operativa a causa
delle segmentazioni di mercato, delle differenti avversioni
342 Capitolo 6
al rischio per livelli di rischi diversi e non diversi. Tale
misura esprime anche le opportunità di investimento in
grado di creare valore per l’azionista. Esso offre
informazioni sulle relazioni rendimento rischio e
correlazione con il portafoglio della banca: il set di
investimenti da selezionare sono quelli che a parità di
rendimento e rischio presentano un basso grado di
correlazione con il portafoglio di mercato; d’altra parte,
attività che presentano rendimenti più bassi e rischi più
bassi, ma livelli di correlazione più elevati, non risultano
essere appetibili.
6.3 Utilizzo delle misure VaR: criticità
Nonostante la generale diffusione ed accettazione della
metodologia VaR presso tutte le maggiori banche (ed il crescente
utilizzo anche in applicazioni corporate), vi sono diversi elementi
che dovrebbero essere tenuti in considerazione per evitarne un
utilizzo acritico. La stesso Comitato di Basilea suggerisce di gestire
la "non robustezza" del VaR con l'aggiunta di stress testing e con
politiche dei limiti. Vengono di seguito analizzate le principali
criticità che emergono nell’utilizzo delle misure VaR.
Sensitività di implementazione. Mentre l’impianto teorico
sottostante la metodologia VaR è abbastanza diretto e consente lle
diverse Risk Unit di utilizzare un linguaggio comune, l’i
implementazione di questa ha generato divergenze in merito alla
congruità dei risultati. Vi sono stati numerosi studi tendenti a
confrontare la bontà dei diversi modelli VaR64 su portafogli dalle
caratteristiche molto differenti ed è stata notata una forte variabilità
delle stime VaR (identificabile nel model risk) in relazione ai
parametri, al periodo di osservazione del campione, alle assunzioni
64
Cfr. ad esempio Hendricks D., Hirtle B. (1997) e Beder S.T. (1995), pp. 12-24. Nel suo
studio, Hendricks confronta 12 modelli VaR su 1000 portafogli valutari scelti in maniera random
utilizzando nove criteri di valutazione della bontà delle performance. Dall’analisi risultano
scostamenti di entità poco rilevante, in relazione anche alla semplicità del portafoglio utilizzato.
Beder ha invece applicato modelli di simulazione del tipo Storiche e MonteCarlo, differenti per i data
set e le correlazioni utilizzate con riferimento a 3 portafogli ipotetici composti rispettivamente di
titoli di debito, opzioni, e una combinazione dei due precedenti. L'autrice ha ottenuto risultati VaR
differenti per un fattore pari a 14 sul portafoglio più complesso.
Introduzione al Value at Risk per i rischi di mercato 343
sulle correlazioni tra strumenti di classi di asset, alla tecnica di
mapping utilizzata. Il rischio di implementazione (implementation
risk) è più specifico: è riconducibile alle differenze nelle misure
VaR dovute, appunto, alle diverse modalità di implementazione
dello stesso modello sullo stesso portafoglio. Così il rischio di
implementazione può essere considerato "interno" al model risk65.
Un modello formale (tipo RiskMetric) non potrà mai fornire una
descrizione completa e valida per ogni situazione a causa della
varietà potenzialmente infinita di strumenti finanziari e delle
diverse tecniche istituzionali e statistiche di ogni mercato. Così un
modello sarà sempre incompleto ed implicherà delle decisioni di
implementazione che sono fonte di variazioni nell'output. Questa
fattispecie di rischio dovrebbe essere considerata al fine di evitare
un utilizzo acritico del modello VaR: una condizione necessaria
nell'uso di ogni modello dovrebbe quindi fare riferimento ad una
quantificazione e limitazione del rischio implementazione, al fine
di consentire una più consistente comparazione tra intermediari.
Diversità di orizzonti temporali di riferimento e problemi di
armonizzazione.
Il passaggio dalla semplice misurazione e
quantificazione dei rischi all’implementazione, comporta numerosi
problemi di tipo organizzativo e di selezione dell’unita temporale
cui la gestione del rischio deve fare riferimento, finalizzato, nel suo
stadio più evoluto, all'allocazione del capitale ed alla definizione di
limiti operativi per ogni unità di business.
Ogni unità infatti tende a misurare il VaR coerentemente con il
proprio orizzonte temporale di riferimento: le misure VaR per il
rischio di mercato hanno in genere un orizzonte giornaliero o
decadale. Di converso, le modellizzazioni del rischio di default o
del rischio di credito legate a variazioni nella matrice di transizione
delle probabilità di cambiamento dei rating66, utilizzano
tipicamente un periodo di osservazione annuale, poiché la
frequenza di default o di cambiamento del merito di credito, di un
emittente o di un affidato, hanno un più lungo orizzonte temporale
rispetto al rischio di mercato. Aggregare questi differenti rischi in
65
Cfr. Marshall C. e Siege M. (1997), p. 92.
Queste modellizzazioni sono riferite alle due principali metodologie di assessment del rischio
di credito, individuabili rispettivamente nel modello Credit Plus (Credit Swiss First Boston) e
CreditMetrics (J.P.Morgan).
66
344 Capitolo 6
una singola misura VaR riferita ad un unico orizzonte temporale,
persino assumendo che il rischio di credito e di mercato siano
indipendenti, può non fornire soddisfacenti indicazioni riguardo al
rischio globale cui l’intermediario è esposto. In particolare, le
ipotesi di indipendenza sono critiche: rischio di mercato e di credito
sono interrelati e dovrebbero essere valutati congiuntamente,
poiché una variazione di mercato ampia può influenzare il rischio
di credito di una posizione, così come una variazione nel merito di
credito di un emittente è correlata a variazioni nei valori di
mercato. Tuttavia, alcune istituzioni (ad es. Banker Trust) hanno
optato per un holding period annuale, per entrambe le aree dei
rischi di mercato e rischi di credito.
Tale scelta presuppone il cumulo dei rischi con orizzonte
temporale breve con quelli di lungo periodo, con effetti di
accentuazione del rischio dovuto alla non linearità delle posizioni
detenute. Una posizione in opzioni, come abbiamo già detto, è
caratterizzata dalla presenza di un effetto di secondo ordine nella
relazione tra fattore di rischio e valore di mercato per cui si
verrebbero a configurare situazioni anomale in presenza di uno
shock annuale.
L'armonizzazione dei diversi orizzonti temporali può avvenire in
modi diversi. Una prima modalità è quella, già vista, di scalare le
misure di volatilità giornaliera, tipiche dell'area finanza, mediante
la radice di T, valida sotto le ipotesi restrittive di indipendenza
seriale e le altre già analizzate.
Un'altra possibile soluzione è quella di calcolare la massima
perdita probabile sull'orizzonte di riferimento scelto per l'intera
istituzione (mensile, annuale) direttamente sulla base della serie
storica delle variazioni calcolate sull'orizzonte selezionato. Questo
evita la necessità di basarsi sull'ipotesi di indipendenza seriale, ma
si riduce la lunghezza, e quindi anche la significatività, della serie
storica proporzionalmente all'holding period ipotizzato, in quanto i
rendimenti vanno calcolati su periodi non-overlapping, al fine di
evitare di introdurre effetti di autocorrelazione. Ci si dovrebbe
basare quindi su serie storiche molto lunghe, purtroppo non sempre
disponibili.
Introduzione al Value at Risk per i rischi di mercato 345
La necessità di armonizzazione temporale delle misure VaR tra
le diverse unità della banca, pur apparendo in letteratura di difficile
soluzione., è oggetto di alcune riflessioni.
E' importante, prima di qualsiasi aggregazione, quantomeno
stabilire gli holding period corretti per ogni area, che dovrebbero
essere individuati in funzione:



della tempestività con la quale è possibile effettuare il markto-market delle posizioni assunte. I maggiori problemi si
hanno per il portafoglio di crediti immobilizzati, per i quali
non vi è una valutazione al mercato, ma sui quali
dovrebbero essere sviluppati meccanismi di valutazione
differenti dalla logica di contabilizzazione. Una banca potrà
avere una percezione dei rischi cui è esposta solo
monitorando di continuo l'insieme delle posizioni che
generano rischi;
della frequenza con la quale sono monitorate effettivamente
le posizioni di ogni unità;
dei tempi ritenuti necessari per lo smobilizzo delle
posizioni67 che sono funzione sia della liquidità del
mercato, che della dimensione relativa delle posizioni
assunte.
In particolare, il problema della esatta considerazione delle
differenze di liquidità tra diversi mercati è un'ulteriore elemento di
criticità delle misure VaR.
Infatti, qualora si assuma una posizione su due titoli simili per
tipologia, scadenza, e con identica misura di VaR, ma negoziati su
due differenti mercati con diverso grado di liquidità, si rimarrà
esposti al rischio in misura differente, che il VaR da solo non riesce
ad individuare. I due titoli, con analoghe misure di VaR, non
presentano lo stesso livello di rischio a causa dei differenti tempi e
costi dì smobilizzo a fronte di situazioni avverse dei mercati.
67
Un possibile orizzonte di riferimento per il portafoglio crediti può essere individuato nei
tempi necessari alla strutturazione di una operazione di securitization. In Italia i tempi di riferimento
di operazioni di questo tipo possono ammontare a diversi mesi poiché la rarità di questo tipo di
operazione non consente di avere a disposizione un sufficiente numero di parametri per la loro
valutazione.
346 Capitolo 6
Una soluzione intuitiva, in tal senso, si ravvisa nella scelta di
rapporto inverso tra liquidità della posizione ed holding period: ad
una maggiore illiquidità di una posizione, si fa corrispondere un
periodo di detenzione più lungo. E’ una scelta, però, che poggia su
ipotesi irrealistiche68, in particolare, nel caso di un movimento
avverso, anche protratto per più giorni, difficilmente la posizione è
lasciata immutata, ma viene almeno progressivamente ridotta
anche considerando costi di transazione non nulli (costi nulli
vengono invece ipotizzati nel caso di semplice aumento
dell'holding period). Il costo dell'esposizione che residua man
mano che la posizione viene liquidata e i costi dì transazione
all'uopo sostenuti sono però legati da una relazione di trade-off.
Infatti, lo smobilizzo tempestivo della posizione dà luogo ad una
minore esposizione residua, ma genera maggiori costi di
transazione dovuti all'allargamento degli spreads che si registrano
nei momenti di tensione dei mercati.
6.4 I modelli interni ai fini della Vigilanza
6.4.1
Introduzione
La regolamentazione finalizzata ad incentivare il contenimento
del rischio attraverso l’introduzione di livelli minimi di patrimonio
si riconduce, nella sua formulazione originaria, all’Accordo del
15/7/1998, realizzato dal Comitato di Basilea per la Vigilanza
Bancaria. L’estensione della regolamentazione ai trattamenti di
rischi di mercato si è avuta con la direttiva europea 93/6 per
l’adeguatezza del capitale (CAD) e nell’Emendamento all’Accordo
sul capitale del Gennaio 1996.
I rischi di mercato, in generale, comprendono sia il rischio
generico che il rischio specifico. Il primo si riferisce a cambiamenti
nel valore di mercato degli strumenti di bilancio e fuori bilancio
risultanti da movimenti dei prezzi di mercato, come i cambiamenti
nei tassi di interesse e delle valute, nei prezzi delle azioni o delle
commodities. Il rischio specifico si origina per effetto di variazioni
nel valore di mercato delle singole posizioni da attribuirsi alla
68
Cfr. Sironi A. e Marsella M. (1997), op. cit., p. 478.
Introduzione al Value at Risk per i rischi di mercato 347
solvibilità dell’emittente. L’Emendamento prevede che i rischi in
questione, possano essere misurati secondo due metodologie
alternative: il metodo cosiddetto standardizzato ed i modelli
interni. Il primo si basa sull’approccio del tipo building blocks,
secondo il quale i requisiti di capitale sono prima determinati
separatamente, mercato per mercato, con algoritmo standard per
ogni categoria di asset (tassi di interesse, azioni, valute, merci),
successivamente, sono sommati per determinare l’onere globale
relativo al rischio di mercato. Vi è da rilevare che gli organismi di
vigilanza riconoscono la possibilità di compensazione tra le
posizioni long e short, all’interno di una classe di asset, ma non tra
classi diverse. Questa scelta additiva sottende ad una visione molto
prudente del rischio da parte delle Autorità di Vigilanza, le quali
implicitamente assumono che ampi movimenti avversi di mercato
possono avvenire contemporaneamente in ogni classe di asset,
senza riconoscere peraltro i benefici della diversificazione dovuti
alle correlazioni tra le classi. Il metodo standardizzato utilizza,
inoltre, un sistema di ponderazioni che, benché basato
sull’esperienza storica e in funzione della volatilità dei rendimenti,
risulta invariato, non considerando l’evoluzione nel tempo delle
volatilità dei fattori di rischio.
L’introduzione di modelli proprietari per il controllo delle
esposizioni ai rischi di mercato, e la successiva conversione del
valore a rischio complessivo in requisito patrimoniale, rappresenta,
forse, l’innovazione più significativa nelle regole di vigilanza
prudenziale. Viene in tal modo ad instaurarsi, tra regulators ed
intermediari, una struttura contrattuale di delega, sottoposta a
condizioni che garantiscono la trasparenza e l’omogeneità di
trattamento tra i diversi delegati. Affinché il meccanismo di delega
funzioni, ossia influenzi e favorisca un comportamento degli
intermediari consono con gli obiettivi di vigilanza, la struttura del
contratto dovrebbe essere incentivante. Poiché lo scopo della
normativa di vigilanza è l’imposizione di dotazioni di capitale
continuamente proporzionale ai rischi assunti (conseguibile
unicamente tramite il monitoraggio continuo ed accurato degli
stessi), le nuove disposizioni costituiscono un incentivo generale
alla predisposizione di specifici sistemi di rilevazione e
modellizzazione dei rischi di mercato. Le Autorità di Vigilanza
348 Capitolo 6
hanno riconosciuto alle istituzioni finanziarie la possibilità di
utilizzare propri modelli interni di valutazione di rischio,
individuando nella metodologia di Value at Risk l’impianto
quantitativo fondante dell’implementazione di questi modelli.
Al fine, però, di conciliare l’esigenza di mantenere la flessibilità
e l’integrità delle diverse modellizzazioni del rischio adottate
autonomamente dagli intermediari con la necessità di assicurare la
coerenza, la trasparenza e l’omogeneità dei requisiti patrimoniali
tra banche che utilizzano modelli diversi, la regolamentazione
definisce una serie di standard qualitativi e quantitativi che i
modelli devono possedere per poter essere utilizzati nella
determinazione del requisito patrimoniale.
La Banca d’Italia, con l’Aggiornamento dell’11 febbraio 2000
alla circolare n.229 del 21 aprile 1999, ha recepito nella normativa
interna, le innovazioni introdotte nella regolamentazione
internazionale sui requisiti patrimoniali di vigilanza69. In
particolare, le principali modifiche inerenti i rischi di mercato
possono essere riassunte nei seguenti punti:




viene finalmente consentito alle banche, previo
riconoscimento (validazione) da parte delle Autorità di
Vigilanza, l’uso di modelli interni per il calcolo dei requisiti
patrimoniali sui rischi di mercato, in alternativa a modelli
standard troppo penalizzanti, al fine di incentivarle a dotarsi
di strumenti avanzati di misurazione e controllo dei rischi;
viene ampliata la metodologia standardizzata al fine di
considerare anche il rischio di posizione su merci e di
introdurre nuovi criteri per la valutazione delle opzioni;
viene previsto l’obbligo di applicare il metodo del valore
corrente per il calcolo del rischio di controparte su contratti
derivati su tassi di interesse e di cambio a partire da gennaio
2001.
Tralasciando, in questa sede, gli ultimi due punti, nella
circolare n. 229 è disciplinata la procedura per il
riconoscimento dei modelli interni da parte della Banca
69
Comitato di Basilea: Emendamento all’Accordo sul capitale per incorporarvi i rischi di
mercato del gennaio 1996. Unione Europea: direttiva 98/31/CE, direttiva 98/32/CE, direttiva
98/33/CE.
Introduzione al Value at Risk per i rischi di mercato 349
d’Italia per il calcolo dei requisiti patrimoniali sui rischi di
mercato70.
I modelli interni riconosciuti validi devono calcolare
l’esposizione quotidiana al rischio attraverso l’approccio del valore
a rischio, anche se la stessa Banca d’Italia richiede che le banche
continuino a misurare e controllare il rischio di mercato con
strumenti di misurazione di tipo tradizionale (ad esempio analisi di
sensitivity).
6.4.2
Procedura di riconoscimento
Le Autorità di Vigilanza riconoscono i modelli interni, quali
stimatori dei requisiti patrimoniali a fronte dei rischi di mercato,
subordinatamente alla verifica di specifici requisiti qualitativi di
tipo organizzativo e di requisiti quantitativi rappresentati dalle
condizioni minime di solidità e affidabilità statistica del modello
adottato. La procedura di riconoscimento, che comporta
un’approfondita analisi di tutti gli aspetti relativi al processo di
gestione dei rischi (operatività della banca sui mercati, assunzioni
statistiche del modello, sistemi informativi, modelli di pricing,
analisi delle performance aziendali su basi giornaliera, ecc.),
s’inquadra nell’attività di supervisione sulle banche, coerentemente
con l’approccio cartolare che negli ultimi anni ha privilegiato le
analisi e gli incontri settoriali. Nel concreto, è prevista una fase
preliminare di confronto con la banca, attraverso l’esame della
documentazione e lo svolgimento di incontri con i responsabili del
processo di gestione del rischio al fine di verificare la coerenza del
modello al dettato normativo e di richiedere alla banca tutte le
necessarie modifiche. Tale fase si conclude con la redazione di una
70
Tale disciplina normativa è suddivisa nelle seguenti sezioni:
Sezione I: “Disposizioni di carattere generale”.
Sezione II: “Procedura di riconoscimento”.
Sezione III: “Criteri per il riconoscimento del modello interno”.
Sezione IV: “Calcolo dei requisiti a fronte dei rischi di posizione su titoli, di cambio e di
posizione su merci”.
Sezione V: “Prove di stress”.
Banca d’Italia, (1999), Istruzioni di Vigilanza per le Banche, Circolare n. 229 del 21 aprile,
Titolo IV (Vigilanza regolamentare), Capitolo 3 (Requisiti patrimoniali sui rischi di mercato), Parte
Seconda (Modelli interni per il calcolo dei requisiti patrimoniali a fronte dei rischi di mercato).
350 Capitolo 6
relazione, nella quale si esprime un giudizio sulla idoneità della
banca a presentare la domanda per il riconoscimento del modello.
La normativa prevede che tale procedura si sviluppi sulla base di
tre fasi.
a) Presentazione della domanda di riconoscimento del
modello.
b) Esame del modello.
c) Comunicazione dell’esito della domanda.
L’attività di validazione svolta dall’Authority, in definitiva, si
sostanzia nel verificare la conformità del modello a specifici
requisiti qualitativi di tipo organizzativo e quantitativi, indicati
nella normativa di vigilanza71. I primi, in particolare, assumono nel
giudizio una rilevanza maggiore in quanto consentono,
immediatamente, di comprendere le reali intenzioni della banca di
dotarsi di un’efficace strumento di governo del rischio, che non sia
finalizzato esclusivamente alla misurazione, ma che concorra,
unitamente al management, alla creazione di valore per gli
azionisti. La normativa, più precisamente, stabilisce che la banca
possiede un sistema di gestione del rischio concettualmente
corretto, ed applicato in maniera esaustiva, quando sono soddisfatte
una serie di requisiti qualitativi. Da ciò si evince che la misurazione
del rischio rappresenta, nell’ottica della vigilanza, solo una prima
fase di un processo più complesso finalizzato, attraverso il
controllo ed il governo del rischio, all’assunzione, da parte del
management delle banche, di strategie di investimento consapevoli
del correlato profilo di rischio-rendimento.
6.4.3
Requisiti patrimoniali nell’ottica di Vigilanza
Le banche che utilizzano il modello interno devono soddisfare
un requisito patrimoniale corrispondente al maggiore tra i due
importi seguenti:
71
Per approfondimenti si veda l’appendice a questo capitolo.
Introduzione al Value at Risk per i rischi di mercato 351


la misura del valore a rischio (VaR) del giorno precedente;
la media delle misure del VaR giornaliero nei 60 giorni
operativi precedenti, moltiplicata per un fattore non
inferiore a 3 (hysteria factor) eventualmente maggiorata
sulla base dei risultati dei test retrospettivi 72.
Per poter calcolare, tramite il modello, il requisito patrimoniale a
fronte del rischio specifico su titoli di debito (rischio idiosincratico)
le banche devono dimostrare che il modello sia in grado di:



72





spiegare la variazione storica dei prezzi nel portafoglio (una
misura in grado di spiegare la variazione storica dei prezzi è
2
il valore della R di una regressione; in questo caso il
modello della banca dovrebbe essere in grado di spiegare
almeno il 90% della variazione storica dei prezzi o di
includere esplicitamente stime della variabilità dei residui
non catturati nei fattori della regressione)73;
riflettere la concentrazione del portafoglio (il modello
interno della banca deve risultare sensibile alle variazioni
nella composizione del portafoglio in modo da prevedere
requisiti patrimoniali crescenti all’aumentare della
concentrazione del portafoglio);
resistere a una situazione sfavorevole (il modello interno
della banca deve essere in grado di segnalare un rischio
crescente nel caso di situazione sfavorevole)74;
Il moltiplicatore hysteria factor intende ovviare ad alcune debolezze dei modelli VaR:
esistenza di fenomeni di fat tails, high peaks, leptocurtosi e asimmetrie delle distribuzioni
dei fattori di rischio;
andamenti futuri delle volatilità e correlazioni diverse da quelle riscontrate in passato;
calcolo del VaR solo sulle posizioni di fine giornata;
incapacità del modello di cogliere nella maniera appropriata eventi di marcato di natura
eccezionale (shock);
utilizzo di ipotesi semplificatrici per il pricing degli strumenti.
Per i modelli per i quali non è possibile calcolare un indice della bontà di stima le banche
definiscono, insieme alla Banca d’Italia, misure di valutazione alternative.
74
Tale risultato, può essere ottenuto incorporando nel periodo di stima del modello almeno un
intero ciclo economico e assicurando che il modello si sia rivelato accurato nella fase discendente del
ciclo. Alternativamente, il risultato può essere ottenuto attraverso una simulazione delle situazioni
storicamente o probabilisticamente peggiori.
73
352 Capitolo 6

essere convalidato da test retrospettivi volti a verificare che
il rischio specifico sia valutato in modo adeguato.
Inoltre, le banche devono dimostrare di essere in possesso di
metodologie idonee a valutare adeguatamente il rischio di evento e
di inadempimento per le posizioni in titoli di debito e in titoli di
capitale. Qualora la banca non sia in grado di fornire tale
dimostrazione, il requisito patrimoniale dovrà includere una
maggiorazione. Per la determinazione di tale maggiorazione viene
effettuato un calcolo analogo a quello utilizzato per il modello per
il rischio generale di mercato, nel caso in cui quest'ultimo non
abbia superato i test retrospettivi. In particolare, alla misura del
rischio specifico calcolata dalla banca sulla base del proprio
modello viene applicata una maggiorazione pari a 1 (che si
aggiunge al fattore moltiplicativo di 3)75.
75
Al momento, non sono conosciuti nell’industria bancaria nazionale e internazionale modelli
in grado di misurare, per le poste del portafoglio non immobilizzato, il rischio di evento e di default.
Pertanto ci si concentra sul solo rischio idiosincratico, dando quindi per scontato che il
riconoscimento di un modello che colga tale rischio sia comunque accompagnato dall’applicazione
della maggiorazione per il rischio di evento (fattore di maggiorazione pari a 1).
Per quanto riguarda il rischio specifico su titoli di capitale, nell’approccio Capital Asset Pricing
Model (CAPM) viene identificato come componente residuale, analiticamente:


Ri  R f   Rm  R f  ei
 2Ri     2Rm    2 ei 
dove:
Ri rappresenta il rendimento del titolo di capitale i-esimo.
Rf rappresenta il risk free rate (in genere il rendimento dei titoli di stato ad un anno).
 rappresenta il grado del rischio sistematico del titolo azionario i-esimo.
 (Rm - Rf ) rappresenta il premio al rischio.
ei rappresenta lo scarto.
2(Ri) rappresenta la volatilità del titolo azionario i-esimo (rischio complessivo)
2(ei) rappresenta la volatilità dello scarto (rischio specifico).
Quando invece si utilizza come fattore di rischio le variazioni di prezzo del singolo titolo la
componente individuale di rischio è incorporata nella misura di rischio. L’identificazione della
componente di rischio specifico rispetto al rischio generico avviene attraverso l’ausilio di un modello
CAPM, in base al quale
 2Ri     2Rm    2 ei 
Per quanto concerne invece il rischio specifico per i titoli di debito, questo è rappresentato dallo
spread risk. Tipicamente riguarda i titoli corporate con spread creditizio. Questa componente non è
stata ancora validata a causa di una serie di problemi:
- le quotazioni individuali dei titoli non sono sempre disponibili e spesso poco significative;
- necessario lavoro sui dati individuali per raggrupparli (per classi di rating, settore, ecc);
- problema di disomogeneità dei dati;
- la costruzione di curve di spread non è cosi immediata come per titoli government (non è
applicabile il bootstrapping), si rende quindi necessario utilizzare tecniche di interpolazione;
- difficoltà di individuare la natura del rischio (idiosincratico, di evento, di categoria, residuale);
- forte componente di rischio creditizio.
Introduzione al Value at Risk per i rischi di mercato 353
Analiticamente il requisito patrimoniale calcolato con il modello
interno è dato dalla seguente formula:
Ct  max VaRt -1   t * RSM t 1 ,  t *
1 60
1 60
VaR t -i   t *  RSM t i

60 i 1
60 i 1

[6.26]
dove:
Ct è il requisito patrimoniale al giorno t.
VaRt-i è il valore a rischio calcolato secondo il modello per il
portafoglio detenuto al giorno t-i.
t è il fattore moltiplicativo, non inferiore a 3 (eventualmente
aumentato a seguito del backtesting).
t rappresenta il fattore moltiplicativo, che varia in relazione
all'adeguatezza del modello interno a calcolare il rischio di evento
o di inadempimento. Tale fattore assume valore 0 oppure 1 a
seconda che la banca dimostri o meno di essere in grado di valutare
adeguatamente tale rischio. Al massimo, quindi, il fattore
moltiplicativo (t + t) può assumere un valore pari a 4.
RSMt-i è l'ammontare di capitale destinato alla copertura dei rischi
specifici degli strumenti finanziari sul portafoglio detenuto il
giorno t-i, calcolato secondo il modello interno.
Ai fini del calcolo della maggiorazione per il rischio specifico, il
fattore moltiplicativo può essere applicato dalla banca a due misure
alternative di valore a rischio (RSMt-i):


la parte di rischio specifico della misura del VaR che
dovrebbe essere isolata conformemente alle norme di
vigilanza76;
le misure del VaR di subportafogli di debito o di posizioni
in titoli di capitale che contengono un rischio specifico.
76
In particolare, per i titoli di capitale, il sistema di misurazione dovrebbe impiegare un fattore
di rischio distinto per ciascuno dei mercati mobiliari nei quali la banca detiene posizioni significative;
mentre per i titoli di debito, il modello dovrebbe incorporare i fattori di rischio relativi ai tassi
d’interesse di ciascuna valuta nella quale la banca detenga posizioni, iscritte in bilancio o fuori
bilancio, che costituiscano un’esposizione al rischio di tasso d’interesse.
354 Capitolo 6
Le banche che utilizzano la seconda opzione individuano la loro
struttura di subportafogli e la comunicano alla Banca d’Italia. La
banca che intende modificare tale struttura chiede l’autorizzazione
della Banca d’Italia, la quale si pronuncia entro i 30 giorni
successivi alla richiesta; il termine è sospeso nel caso di richiesta di
informazioni aggiuntive.
Le banche possono utilizzare una combinazione tra metodologia
standardizzata e modello interno a condizione che ciascuna
categoria generale di rischio sia valutata sulla base di un unico
approccio (modelli interni o metodo standardizzato) e che tutti gli
elementi del rischio di mercato siano misurati77. In particolare:





I coefficienti patrimoniali calcolati in base al metodo
standardizzato e ai modelli interni dovranno essere
aggregati mediante sommatoria semplice.
Le banche che usano modelli interni solo per alcune
categorie di rischio dovranno estendere quanto prima i loro
modelli a tutti i rischi di mercato cui sono esposte.
La banca che abbia adottato uno o più modelli interni non
può chiedere di tornare a utilizzare la metodologia
standardizzata per la misurazione dei rischi già valutati
mediante tali modelli.
Le banche possono chiedere alla Banca d'Italia di
modificare la combinazione dei due approcci solo nel senso
di un maggiore utilizzo del modello interno. Qualora la
Banca d'Italia non sollevi obiezioni alla modifica nei 60
giorni successivi alla comunicazione, la banca può
utilizzare la nuova combinazione per il calcolo dei requisiti
patrimoniali; il termine è sospeso nel caso di richiesta di
informazioni aggiuntive.
Nel caso in cui la banca adotti una combinazione che
preveda il calcolo del rischio specifico di posizione su titoli
secondo la metodologia standardizzata, il requisito
patrimoniale è definito dalla seguente formula78:
77
Per categoria generale di rischio si intende uno dei rischi per i quali è definito uno specifico
requisito patrimoniale.
78
Si ipotizzi che in data 14 giugno 2002 si abbia un portafoglio composto di azioni con i
seguenti valori di mercato di cui si intende calcolare il requisito patrimoniale per il rischio di
Introduzione al Value at Risk per i rischi di mercato 355
1 60


C  maxVaR t 1 , t *
 VaRt i   RSSt 1
60 i 1


dove:
[6.27]
Ct è il requisito patrimoniale al giorno t.
VaRt-i è il valore a rischio calcolato secondo il modello per il
portafoglio detenuto al giorno t-i.
t è il fattore moltiplicativo, non inferiore a 3.
RSSt-1 è l’ammontare supplementare di capitale per la
copertura dei rischi specifici degli strumenti finanziari sul
portafoglio detenuto il giorno t-i, calcolato secondo la
metodologia standardizzata.
Il calcolo del VaR deve essere effettuato su base giornaliera e
deve prevedere un intervallo di confidenza unilaterale del 99 per
cento ed un periodo di detenzione pari a 10 giorni79.
Inoltre, il periodo storico di osservazione, per il calcolo dei
parametri di volatilità e correlazioni, deve riferirsi ad almeno un
anno precedente, tranne nel caso in cui un aumento improvviso e
significativo delle volatilità dei prezzi giustifichi un periodo di
posizione generico. In particolare, in tale data i valori per le singole azioni e per il portafoglio
complessivo sono dati da:
MTM
Telecom SpA
BNL SpA
FIAT SpA
Portafoglio
840.379
816.385
807.855
2.464.619
VaR95%
VaR95%
14 giugno 2002
media ultimi 60 giorni
30.618
32.249
33.602
80.632
35.947
36.207
37.425
86.517
Max VaR99%,
(VaR95% * 2,33/1,645)
48.086
51.496
47.707
122.643
Il requisito patrimoniale per il rischio di posizione generico, calcolato sulla base del modello
interno, risulta essere quindi compreso 367.928 euro (fattore moltiplicativo pari a 3) e 490.570 euro
(fattore moltiplicativo pari a 4) a seconda del giudizio formulato dalla vigilanza sulla rispondenza del
modello ai requisiti qualitativi e quantitativi determinati. Il requisito patrimoniale per il rischio di
posizione specifico, determinato con la metodologia standard, è dato dalla seguente formula:
requisito di vigilanza = [|posizione lunghe| + |posizione corte|] * 8%
Nell’ipotesi analizzata è pari a 197.110 euro (2.464.619 * 8%).
Quindi il rischio di posizione complessivo (generico + specifico) è dato dalla somma dei due
valori.
79
La scelta di richiedere un holding period di 10 giorni è stata una scelta di compromesso. Si è
voluto mediare tra i diversi gradi di liquidità dei mercati su cui vengono negoziati i valori mobiliari.
Alcuni, quelli più liquidi, consentirebbero la chiusura delle posizioni anche prima di 10 giorni,
mentre per altri si pone esattamente il problema opposto.
356 Capitolo 6
osservazione più breve80. Per le banche che impiegano sistemi di
ponderazione, il periodo di osservazione può risalire ai 6 mesi
precedenti in termini di media ponderata (possibilità di applicare
fattori di decadimento in maniera di dare maggiore rilevanza ai dati
più recenti).
Le serie di dati utilizzate devono essere aggiornate con
frequenza almeno trimestrale. Le banche procedono ad
aggiornamenti più frequenti ogniqualvolta le condizioni di mercato
mutino in maniera sostanziale.
Per il calcolo del VaR, le banche possono utilizzare correlazioni
empiriche nell'ambito della stessa categoria di rischio e fra
categorie di rischio distinte. La Banca d'Italia accerta che il metodo
di misurazione delle correlazioni della banca sia corretto e
applicato in maniera esaustiva.
Per quanto riguarda le “analisi retrospettive” (c.d. backtesting)
la normativa richiede che venga effettuato un test che metta a
confronto il VaR, calcolato secondo il modello interno, con la
variazione effettiva del portafoglio, al fine di verificare che le
misure di rischio elaborate dalla banca al 99° percentile coprono
effettivamente il 99% dei risultati di negoziazione, ossia, in termini
statistici, che la percentuale osservata dei risultati economici il cui
valore è inferiore al VaR sia conforme al livello di confidenza del
99%. Peraltro, è richiesto espressamente dalla vigilanza, che il
risultato reddituale possa essere disaggregato per portafogli al fine
di consentire anche lo svolgimento di backtesting per fattori di
rischio. Il test cosi strutturato, però, pone a confronto due
grandezze tra loro disomogenee. Infatti, la misura di rischio
considerata esprime il rischio del portafoglio al tempo 0, mentre il
dato reddituale effettivo posto a confronto è calcolato tenendo
conto delle posizioni al tempo 1 e di altre componenti (quali
l’operatività intraday, ecc.). Il confronto è quindi alterato in quanto
la misura di rischio e la componente reddituale non sono stimati in
riferimento a due portafogli omogenei. Si rende quindi necessario
conciliare le caratteristiche del risultato reddituale gestionale con
80
Il periodo di un anno è ritenuto sufficientemente lungo da ricomprendere shock di mercato
significativi. Il problema, in genere evidenziato dalle banche, è che esso non rende il VaR abbastanza
sensibile ai dati più recenti.
Introduzione al Value at Risk per i rischi di mercato 357
quello utilizzabile ai fini della validazione 81. Stante la difficoltà di
riconciliazione dei due risultati reddituali, la stessa Autorità di
Vigilanza può richiedere di effettuare un secondo tipo di test
retrospettivo sulla base di variazioni ipotetiche del valore del
portafoglio, calcolate mantenendo invariate le posizioni di fine
giornata. Tale test valuta, in maniera più rigorosa dal punto di vista
statistico, la capacità previsionale del modello ponendo a confronto
due grandezze calcolate entrambi sulla stessa composizione di
portafoglio82. La formula per il calcolo dei requisiti patrimoniali
prevede un fattore moltiplicativo (hysteria factor) almeno pari a 3
da applicare al VaR stimato col modello interno. In funzione del
numero degli scostamenti83 – registrati nell’arco di 12 mesi – si
applica un diverso fattore di maggiorazione, riportati nella tabella
seguente, che si aggiunge al fattore moltiplicativo 3 84.
Tabella 6.4 - Fattori di maggiorazione.
Numero di scostamenti
meno di 5
5
6
7
8
9
10 o più
Fattore di maggiorazione
0,00
0,40
0,50
0,65
0,75
0,85
1,00
La banca deve notificare prontamente alla Banca d’Italia gli
scostamenti risultanti dal programma di test retrospettivi che hanno
81
In particolare, dal risultato reddituale gestionale vanno escluse le seguenti voci:
commissioni pagate;
costo del finanziamento;
operazioni aperte e chiuse nel corso della giornata (operatività intraday);
operazioni aperte nel corso della giornata;
cedole maturate (accrual);
tutte le componenti reddituali che non riguardano il trading book (operazioni di tesoreria che
riguardano il banking book, ecc.).
82
Sebbene del disposto normativo si legge che la vigilanza riconosca pari dignità ai due test
menzionati, in realtà sembrerebbe che attribuisca maggior rilevanza al test di secondo tipo anche se il
test con il reddito effettivo non va trascurato dal momento che mostra il rapporto tra il VaR (sulla
base del quale viene calcolato il requisito patrimoniale) e il reddito effettivamente realizzato dalla
banca quel giorno.
83
Si ha uno scostamento quando la variazione effettiva del valore del portafoglio supera il VaR
calcolato secondo il modello interno.
84
I risultati sono riferiti ad un periodo di osservazione pari a 250 giorni.
-
358 Capitolo 6
determinato l’aumento del fattore di maggiorazione; peraltro la
stessa banca può richiedere all’organo di vigilanza l’esonero dalla
correzione del fattore di moltiplicazione, qualora lo scostamento sia
imputabile a fattori eccezionali.
Quando il numero degli scostamenti risulta essere eccessivo, la
Banca d’Italia può imporre misure correttive al modello al fine di
ottenere una stima del rischio più attendibile. Qualora, nonostante
tali correttivi, il modello produca un numero di scostamenti
superiore a quello atteso, l’organo di vigilanza può revocare il
riconoscimento del modello interno.
La normativa prevede che la Banca d’Italia, pur in caso di
validazione del modello, possa indicare gli eventuali punti non
pienamente conformi con gli standard richiesti e fissare di
conseguenza un requisito patrimoniale aggiuntivo (ulteriore
rispetto all’hysteria factor e alla maggiorazione dovuta dall’esito
del backtesting). La regolamentazione è basata su un sistema di
incentivi, nel senso che tale ulteriore requisito, per il quale non è
stabilito alcun limite minimo o massimo, viene ridotto qualora la
banca abbia rimosso le criticità.
In definitiva, le tre aree che concorrono a determinare il giudizio
sul modello e, quindi, il requisito aggiuntivo sono:



organizzazione e processi di controllo del rischio;
modello di calcolo del rischio;
sistemi informativi.
Nella valutazione delle tre aree la vigilanza tiene conto
anche dell’affidabilità dell’attività di internal audit svolta
sull’intero processo di risk management85.
85
Oltre al requisito aggiuntivo possono essere attivati altri meccanismi compensativi di natura
procedurale-organizzativa che consentono di mantenere sotto controllo il processo di assunzione dei
rischi. Vi è una sorta di trade-off tra criteri quantitativi e qualitativi. Ad esempio eventuali punti
critici del sistema di misurazione dei rischi potrebbero essere ritenuti compensati da un più accurato e
rigoroso sistema di limiti operativi che scenda in profondità nella gestione della banca.
Introduzione al Value at Risk per i rischi di mercato 359
6.4.4
Per una vigilanza incentive-compatible nello sviluppo dei
modelli interni
Il fattore di moltiplicazione è calibrato dalle Autorità di Vigilanza
in funzione della bontà del modello interno valutata con i test
retrospettivi: minore è il numero di “eccezioni” realizzate più
vicino a tre sarà l’elemento moltiplicativo e, quindi minore, sarà il
conseguente requisito di patrimonializzazione. Si fa notare che
l’attuale schema di graduazione del fattore di moltiplicazione può
generare effetti perversi nel comportamento degli intermediari,
rispetto al miglioramento dei modelli proprietari di stima del
rischio. Il contratto implicito tra organo di controllo e soggetto
vigilato prevede, infatti, la possibilità di utilizzare i modelli solo se
questi dimostrano una adeguata capacità di stimare il rischio, in
caso contrario deve esistere un meccanismo di penalizzazione
credibile, disincentivante rispetto all’adozione di modelli
inadeguati. Questo meccanismo è individuato dall’attuale
normativa in una graduazione del fattore di moltiplicazione FM(v),
in funzione del numero v di violazioni realizzate rispetto al VaR
previsto nel modello interno. Il requisito di capitale (RCrm), a
fronte del rischio di mercato, è allora esprimibile come segue:
RCrmt 1  max VaR t ( T ,  ); FM ( v )
1 59
 VaR t 1 (T , )  RS t
60 i  0
[6.28]
dove FM(v) è il fattore di moltiplicazione, variabile tra 3 e 4 a
seconda della bontà del modello; VaR(T,) indica il VaR decadale
su un intervallo di confidenza (100-) con  = 1; infine RSt è un
onere di capitale addizionale a fronte del rischio specifico di
portafoglio86. Il requisito patrimoniale cui l’intermediario dovrà far
fronte su base giornaliera sarà così pari al maggiore tra le due
quantità in parentesi, ossia al massimo tra il requisito dedotto dal
86
Nel settembre 1997 l’Amendment è stato integrato per tener conto del rischio specifico di
strumenti legati ad azioni e tassi di interesse, consentendo alle banche che già soddisfano i requisiti
quali-quantitativi di calcolo del rischio generale di mercato, di utilizzare i modelli proprietari anche
per il calcolo del rischio specifico, sottoposti ad un ulteriore set di condizioni. Cfr. Basle Committee
on Banking Supervision di Basilea “Modifications to the Market Risk Amendment” Banca dei
Regolamenti Internazionale, settembre, 1997.
360 Capitolo 6
valore a rischio del giorno precedente e quello calcolato sulla
media del VaR degli ultimi 60 giorni, maggiorato del fattore
moltiplicativo FM(v). In questo modo, si ottempera sia all’esigenza
di considerare giorni di particolare rischiosità del portafoglio, sia a
quella di mantenere una stabilità dei requisiti patrimoniali, grazie
all’effetto della media. L’effetto dell’elevato fattore di
moltiplicazione FM(v), comunque, fa si che il requisito
patrimoniale venga calcolato essenzialmente in base al secondo
elemento in parentesi. FM(v), nelle previsioni di Amendment, varia
da un minimo assoluto di 3 ad un massimo di 487 (quest’ultimo
valore maggiorabile a discrezione delle singole Autorità di
Vigilanza nazionali). Il Comitato di Basilea ha sottolineato come il
fattore di add-on compreso tra 0 ed 1 fornisca un incentivo alla
costruzione di modelli VaR più accurati: minore è il numero delle
eccezioni realizzate (ossia il numero di volte nelle quali la perdita
effettiva realizzatasi sul portafoglio è maggiore di quanto previsto
nel modello VaR), più vicino a tre sarà l’elemento moltiplicativo e,
quindi, minore il conseguente requisito di patrimonializzazione. Si
vuole qui rilevare, tuttavia, come la struttura dell’incentivo sia
completamente dominata dalla componente fissa pari a tre, la quale
elimina qualsiasi vantaggio potenziale di raggiungere un grado di
precisione del modello tale che l’add-on sia pari a 0.
A tal fine potrebbe ritenersi utile individuare un valore di
indifferenza del fattore di moltiplicazione tra il VaR corrispondente
all’approssimazione normale e il VaR calcolato con un metodo più
sofisticato: questo valore indica il fattore di moltiplicazione Fm(i)
da applicare al metodo semiparametrico affinché i due metodi siano
indifferenti rispetto al requisito di capitale generato.
Posto.
RC rm( N )  VaR( N ) 10 FM ( v )
RC rm( V )  VaR( V ) 10 FM i( v )
[6.29]
87
Tale incremento dipende dai risultati dei test retrospettivi e dal conseguente posizionamento
sulle tre zone di classificazione dell’accuratezza del modello.
Introduzione al Value at Risk per i rischi di mercato 361
dove RCrm(N) rappresenta il requisito di capitale corrispondente
all’approssimazione normale ed RCrm (v) il requisito
corrispondente all’utilizzo di un metodo alternativo. Uguagliando
le due espressioni ed esprimendole in funzione di FMi(v) si ha
FMi(v)=FM(v)*VaR(N)/VaR(v)
[6.30]
ove il rapporto tra le due stime VaR fornisce il fattore di scala da
applicare all’FM(v) per ottenere il fattore di moltiplicazione di
indifferenza. Supponendo che VaR(N) sia eguale a 4,1 e VaR(v) a
5,4, FMi(v) è pari a 2,3 che è significativamente minore a 3. Nello
schema descritto, l’onere di capitale benchmark a fronte del rischio
di mercato è quello individuato con l’utilizzo della distribuzione
normale, ma il fattore di moltiplicazione minimo è in funzione
dell’utilizzo di metodi migliori della normale.
Secondo l’approccio di Vigilanza, ogni metodo di valutazione, per
quanto accurato, poiché comporta stime più elevate della massima
perdita probabile (in % anche non ampie) rispetto ad un modello
più approssimato, non risulta conveniente alla banca di
implementarlo ai fini dei requisiti patrimoniali. L’onere massimo
dell’imprecisione è solo del 33% rispetto all’onere minimo del
capitale, per cui è plausibile ipotizzare che l’intermediario
preferisca la comminazione di una pena da parte della vigilanza,
piuttosto che sopportare immediatamente un aggravio del livello di
patrimonio adeguato ai nuovi rischi stimati dal VaR.
Le considerazione esposte possono essere ulteriormente affinate
considerando l’avversione al rischio dell’organo di Vigilanza..
Riscrivendo il fattore di proporzionalità:
VaR( N )
VaR( V )
 VaR( N ) *VaR
a
[6.31]
(V )
dove l’esponente a, finora considerato implicitamente pari a 1,
esprime l’avversione al rischio dell’organo di Vigilanza. Per valori
di a maggiori di 1 si osserva una diminuzione dell’onere del
capitale rispetto a quello calcolato con shift semplice. Un livello
più elevato di a implica una minore avversione al rischio da parte
dell’organo di Vigilanza. Poiché il fattore Fm i(v) è minore del suo
362 Capitolo 6
valore di indifferenza, il requisito di capitale in corrispondenza di
metodologie VaR più esatte risulterà minore. Per una corretta
applicazione occorre stabilire una relazione funzionale tra il
numero di exceptions (ossia il numero di volte, nell’orizzonte
temporale di riferimento dei test retrospettivi, nelle quali la perdita
effettiva registrata sul portafoglio è maggiore rispetto alla massima
perdita probabile prevista nel modello proprietario) ed i valori
dell’esponente. L’individuazione di queste relazioni potrebbe
essere oggetto di un ulteriore approfondimento.
6.4.5
Prove di stress
La natura statistica del VaR e le approssimazioni semplificatrici
adottate dalle banche, nell’implementare i modelli di calcolo,
hanno convinto le Autorità di Vigilanza ad imporre, quale misura
di controllo del rischio complementare al VaR, un adeguato e
completo programma di prove di stress per il presidio di eventi e
fattori che potrebbero incidere gravemente sulla posizione della
banca. Tali prove, che vanno condotte periodicamente al fine di
cogliere i mutamenti nel profilo di rischio del portafoglio, devono
essere
comunicati
regolarmente
all’alta
direzione
e,
periodicamente, al consiglio di amministrazione. Gli scenari di
stress utilizzati, devono contemplare un’ampia gamma di fattori in
grado di generare perdite e guadagni straordinari nei portafogli di
negoziazione o di rendere particolarmente difficoltoso il controllo
dei rischi. Fra tali fattori rientrano eventi a bassa probabilità
concernenti tutte le principali fattispecie di rischio, ivi incluse le
varie componenti dei rischi di mercato, di credito e operativi. Gli
scenari di stress devono poter mettere in evidenza l'impatto di
questi eventi sulle posizioni con caratteristiche di prezzo sia lineari
che non lineari (ad esempio opzioni e strumenti con
comportamento analogo). Le prove di stress, devono essere di
natura sia quantitativa sia qualitativa e contemplare tanto il rischio
di mercato quanto gli effetti di liquidità generati da turbative di
mercato. La normativa individua due tipologie di prove di stress
a) Prove di stress definite dalla Banca d’Italia;
Introduzione al Value at Risk per i rischi di mercato 363






Prove che non richiedono simulazioni da parte delle
banche. Al fine di consentire alla Banca d’Italia di
valutare quanti giorni di perdite massime sarebbero
coperti da una data stima del valore a rischio, le banche
comunicano alla Banca d’Italia i dati sulle perdite più
elevate subite durante il periodo di segnalazione. Questi
dati vengono raffrontati con la copertura patrimoniale
derivante dal modello interno della banca in modo da
valutare la capacità del patrimonio di vigilanza di
assorbire ingenti perdite potenziali.
Prove che richiedono simulazioni da parte delle banche.
Le banche sottopongono i propri portafogli a vari
scenari di stress simulati e forniscono i relativi risultati
alla Banca d'Italia. Si tratta di prove volte ad
evidenziare le specificità dei singoli portafogli.
Un primo tipo di scenario, comprende periodi passati di
forte perturbazione tenendo conto sia degli ampi
movimenti di prezzo sia della forte riduzione della
liquidità che si è accompagnata a questi eventi
(historical scenarios).
Un secondo tipo di scenario misura la sensibilità
dell'esposizione ai rischi di mercato a determinate
variazioni nei parametri presuntivi di volatilità e
correlazione (historical volatility scenarios).
La normativa non prevede che le prove di stress
riguardino scenari standard, anche se ciò sarebbe utile
per confrontare i risultati nel tempo
b) Prove di stress condotte dalle singole banche
Al fine di cogliere le specificità del proprio portafoglio,
ciascuna banca deve individuare situazioni di stress che essa
considera massimamente sfavorevoli. Tali prove dovrebbero
essere effettuate sia a livello di portafoglio complessivo sia a
livello di singoli desk o per fattori di rischio. Le banche
forniscono alla Banca d'Italia una descrizione della
metodologia impiegata per definire e testare gli scenari di
stress e dei risultati ottenuti. Gli scenari dovrebbero descrivere
situazioni straordinarie di mercato ma al tempo stesso risultare
364 Capitolo 6
plausibili88. La selezione degli scenari deve tener conto del
profilo di rischio della banca e delle assunzioni semplificatrici
previste dal modello di calcolo del VaR.
I risultati dei test sono periodicamente riesaminati dall'alta
direzione della banca e devono trovare riflesso nelle linee
operative e nei limiti di esposizione fissati dall’alta direzione e
dal consiglio di amministrazione. Inoltre, se tali risultati
indicassero una particolare vulnerabilità di fronte ad una data
serie di circostanze, la banca sarebbe tenuta ad adottare idonee
misure per gestire adeguatamente i rischi.
Le banche devono combinare le prove di stress definite
dalla Banca d'Italia con quelle da loro elaborate in funzione
alle caratteristiche delle proprie posizioni aperte al rischio e
delle proprie aspettative circa l’evoluzione dei fattori di rischio
rilevanti.
88
Alcune delle tipologie più diffuse di prove di stress, anche a livello internazionale, sono quelle
di seguito riportate:
- movimenti paralleli della curva dei tassi d’interesse;
- cambiamenti di inclinazione della curva dei tassi;
- combinazione dei primi due scenari (cambiamento forma curve);
- cambiamenti delle correlazioni tra curve dei tassi diverse (per divisa);
- mutamenti della volatilità e del livello degli indici dei mercati azionari;
- mutamenti della volatilità e del valore dei principali tassi di cambio;
- mutamento delle correlazioni fra i principali fattori di rischio.
7
Introduzione alle metodologie
di misurazione del rischio di
credito
7.1 Dall’eliminazione alla gestione del rischio di credito – 7.2 Il rischio di
credito nella gestione bancaria – 7.3 Gli elementi caratterizzanti del rischio di
credito – 7.4 La probabilità di default – 7.4.1 La definizione dello stato di
insolvenza – 7.4.2 La scelta dell’orizzonte temporale di riferimento – 7.5 Il
tasso di perdita in caso di insolvenza – 7.5.1 Fattori che determinano il tasso
di perdita in caso di default – 7.5.2 Metodi di stima della LGD: cenni – 7.5.3
La distribuzione della LGD: la Beta – 7.5.4 Modello LossCalc di Moody’sKMV: cenni – 7.6 La valutazione dell’esposizione a rischio di default – 7.7 La
perdita attesa e inattesa della singola esposizione – 7.8 Limiti e problemi
dell’approccio binomiale. L’approccio multinomiale – 7.9 Dalla perdita della
singola esposizione alla perdita di portafoglio – 7.10 La distribuzione delle
perdite ed il capitale economico – Appendici al Cap. 7 – Appendice 7.A.
Probabilità di default e time horizon: aspetti formali – Appendice 7.B. La
distribuzione Beta – Appendice 7.C. Derivazione di ULMCi.
7.1 Dall’eliminazione alla gestione del rischio di credito
Il sistema bancario italiano si è storicamente caratterizzato per
un peculiare atteggiamento nelle modalità di assegnazione dei
giudizi di affidamento e nelle politiche dei prestiti, connotato da
due fondamentali linee.
La prima si può individuare nell’onerosa e spesso ingiustificata
richiesta di garanzie reali o personali ai soggetti richiedenti
l’affidamento. Secondo quest’approccio il ”buon” prenditore era
colui il quale fosse disposto ad offrire idonee malleverie, a
prescindere dalla sua solidità patrimoniale o dalla bontà del
progetto da finanziare.
408 Capitolo 7
La seconda si sviluppa con la prassi dei fidi multipli,
caratterizzati da un frazionamento spinto del portafoglio
commerciale.
I due approcci, pur comportando una forte inefficienza a livello
di sistema, hanno consentito alle banche di operare in condizioni di
relativa stabilità. Essi hanno anche fortemente sminuito la capacità
del management bancario italiano di valutare progetti e prenditori.
L’accrescimento della competitività nel mercato del credito, a
seguito dell’introduzione dell’euro, ha inciso negativamente su
questo sistema protetto, riducendo gli spread nei tassi attivi e nei
margini di profitto e spingendo le banche ad assumere un
atteggiamento più aggressivo. D’altra parte, la scarsa capacità del
management bancario di selezionare e di monitorare le linee di
credito ha, tuttavia, prodotto un forte deterioramento della qualità
con un aumento sensibile delle sofferenze.
Tali circostanze hanno indotto gli intermediari ad implementare
idonei modelli e procedure in grado di fronteggiare la maggiore
incertezza che caratterizza il mutato contesto competitivo del
mercato finanziario e del credito, consentendo di valutare in
maniera più accurata ed efficiente le condizioni di rischiosità degli
impieghi.
A questo processo evolutivo non sono ovviamente estranee le
Autorità di Vigilanza, che, a partire dalla fine degli anni novanta,
hanno avviato un processo di riforma fortemente innovativo degli
accordi esistenti, che consentirà una più sensibile misurazione e
allocazione del capitale rispetto all’effettivo rischio di credito,
riconoscendo a livello istituzionale la validità dei giudizi espressi
per mezzo di sistemi di rating. In prospettiva, gli intermediari
faranno ricorso a un sistema di valutazione del giudizio di
affidabilità espresso, non più in “forma argomentata” e con
modalità dicotomica, ma attraverso misure multidimensionali in
grado di catturare le diverse variabili che su queste incidono.
Sul piano organizzativo, il fenomeno delineato porterà le
istituzioni creditizie a dotarsi al loro interno di opportune entità
organizzative, quali sistemi di CRM (Credit Risk Management),
caratterizzate da un complesso delle risorse umane, tecniche e
informatiche, finalizzate alla misurazione e gestione del rischio di
credito ed alla allocazione efficiente del capitale d’impresa.
Il rischio di credito 409
La novità più importante di tale cambiamento, che da alcuni
viene definito epocale, sta forse nel mutato habitus mentale dei
credit manager nei confronti del rischio. Se in passato il rischio era
concepito come un fattore critico da individuare ed eliminare, oggi
è considerato come una variabile da misurare e gestire.
7.2 Il rischio di credito nella gestione bancaria
La letteratura sul rischio di credito è multidisciplinare, poiché si
avvale sia dell’economia aziendale, che di metodologie, tecniche e
strumenti quantitativi. L’analisi del rischio di credito può svolgersi,
come mostrato nella Fig. 7.1, lungo tre direttrici che individuano:
a) la delimitazione dell’oggetto e l’individuazione delle
variabili-chiave esplicative;
b) la valutazione dell’impatto sulla struttura organizzativa;
c) lo sviluppo e l’analisi dei modelli teorici di misurazione.
Con riferimento al punto sub a), la puntualizzazione può
apparire ridondante: ogni analisi richiede la preventiva
esplicitazione e delimitazione del proprio oggetto d’indagine, che
nel caso del rischio di credito assume particolari connotazioni. In
generale, si può affermare che tale oggetto di indagine dovrebbe
focalizzarsi sulle fonti di incertezza, che generano improvvise
variazioni nel corso del tempo del valore di mercato di un prestito.
Premesso che il rischio trae origine dall’impossibilità di
possedere una perfetta conoscenza delle cause che concorrono alla
determinazione del risultato di un fenomeno posticipato nel tempo,
le problematiche del rischio di credito derivano dalla difficoltà di
individuare la rischiosità di un soggetto e dalle asimmetrie
informative, che sono ampliate anche dalla valutazione dei costi
opportunità. Quest’ultimi si concretizzano in un mancato guadagno
per un finanziamento non concesso ad un soggetto ritenuto
erroneamente non affidabile. Il riconoscimento del livello di rischio
associato ad una controparte, inoltre, non si limita al solo momento
di erogazione del fido, ma deve essere monitorato nel tempo allo
scopo di individuare e valutare eventuali cambiamenti nelle sue
condizioni economico-patrimoniali.
410 Capitolo 7
Figura 7.1 - Le tre dimensioni dell’analisi del rischio di credito
Delimitazione dell’oggetto
di indagine
Modellizzazione
Impatto organizzativo
Approccio
gestionalefinanziario
Approccio
matematicostatistico
Con riferimento al punto sub b), osserviamo che ogni elemento
di innovazione nei modelli e nei paradigmi gestionali di un’impresa
deve avere un impatto diretto sul suo assetto organizzativo. Ancora
una volta, l’area della gestione del rischio di credito si caratterizza
come più critica e allo stesso tempo molto complessa. La
spiegazione più evidente è legata alla natura delle informazioni che
si collocano “a monte” dei processi di misurazione. Ai fini
dell’affidamento, gli analisti acquisiscono ed elaborano una serie di
informazioni prevalentemente ricercate all’interno della stessa
organizzazione bancaria nell’ambito dei rapporti di clientela. Se nel
lungo periodo la possibilità di elaborare delle serie storiche relative
ai propri affidati, con opportune operazioni di data mining, può
essere di grande ausilio per un corretto apprezzamento del rischio
del portafoglio commerciale, nel breve costituisce una vera e
propria sfida per le banche – specie quelle di piccole dimensioni –
che devono affrontare un radicale re-engineering dei processi. In
particolare, dovranno irrobustire il loro sistema informativo per far
fronte all’enorme onere di dati, sia in termini di volumi di carico,
che di elaborazione degli stessi. La scarsa frequenza del fenomeno
Il rischio di credito 411
del default non fa che aumentare le esigenze dimensionali dei data
warehouse bancari.
Il punto sub c), nonostante la sua preminenza nell’ambito delle
analisi sul rischio, appare abbastanza autoesplicante. I modelli per
la gestione del rischio di credito di portafogli commerciali sono
mutuati da quelli per la misurazione del rischio di mercato dei
portafogli di negoziazione. Come osservato, però, la natura del
rischio di credito, e in particolare dei dati in input ai processi di
misurazione, non permette un’immediata traslazione dei modelli di
mercato sulla valutazione dei fidi, anche in ragione della relativa
rarità del default rispetto agli eventi di perdita sui portafogli di
trading.
Come rilevato “a monte” di queste osservazioni, si può indagare
sul fenomeno avvalendosi di adeguati modelli organizzativogestionali supportati da robusti modelli di analisi quantitativa. Al
riguardo, la Figura 7.1 mostra che il problema di una chiara
percezione e formalizzazione del concetto di rischio è essenziale in
entrambi gli approcci, evidenziando un’area d’interposizione,
prodotta dalle interazioni tra i profili gestionali e le valutazioni
sulle problematiche di misurazione e viceversa.
L’analisi successiva s’incentrerà, in particolare, sullo studio dei
modelli di misurazione, pur nella consapevolezza che il rischio di
credito non deve essere concepito in modo autonomo e
completamente svincolato dalle altre forme di rischio.
In effetti, gli accademici e i supervisori prospettano un mondo
ideale in cui, secondo un approccio di tipo top-down, il
management è chiamato ad impostare le linee guida per la gestione
del rischio, che devono poi essere implementate attraverso un
processo integrale lungo tutte le aree d’affari. Tuttavia, la prassi, da
un lato, e lo stato dell’arte della letteratura concernente la
modellistica, dall’altro, pongono forti limitazioni a tale
impostazione. Allo stato attuale delle conoscenze non si dispone di
un modello in grado di affrontare la gestione del rischio su base
consolidata, integrando in un unico processo di valutazione
omogeneo e coerente tutte le tipologie di rischi finanziari (ed
eventualmente non finanziari) a tutti i livelli della struttura
organizzativa. La modellistica all’uopo esistente è di tipo settoriale,
412 Capitolo 7
in grado di valutare l’impatto congiunto di più fonti di incertezza
rispetto a specifici business o specifici strumenti finanziari1.
Una seconda considerazione è di ordine più squisitamente
didattico. Un’analisi puntuale dei modelli e delle procedure di
misurazione e gestione richiede, comunque, una individuazione e
una misurazione singola e congiunta delle diverse tipologie di
rischio, per poi valutarne l’impatto sulle performance e sulla
creazione di valore per l’impresa bancaria.
7.3 Gli elementi caratterizzanti del rischio di credito
Il valore di mercato di un titolo di credito, di qualunque natura
esso sia, può essere espresso come somma dei futuri flussi di cassa
cui il credito dà origine, scontati in base ad un dato tasso
d’interesse.
Più
formalmente,
indicando
con
F
=
{F1,F2,…,Fh,…,FT} il vettore degli importi promessi dal titolo, con
t = {t1,t2,…,th,…,tT} lo scadenziario previsto dal titolo e con i =
{i1,i2,…,ih,…,iT} il vettore dei tassi d’interesse applicati in fase di
valutazione, il valore del titolo (LV0) può essere così espresso:
LV0 (F, T, i)  F1 1  i1   F2 1  i2   ...  FT 1  iT 
1
T
  Ft 1  it 
t 1
2
T
t
[7.1]
In realtà, all’apparente semplicità che emerge nella derivazione
del valore di mercato del titolo, si contrappongono importanti
elementi di incertezza sulla futura determinazione delle variabili
prese in considerazione. Come è noto, il tasso di interesse richiesto
per gli investimenti soggetti a rischio di insolvenza è pari al tasso
delle attività prive di rischio, maggiorato di uno spread
direttamente proporzionale al rischio assunto. È evidente, quindi,
che una variazione dei tassi privi di rischio, ovvero del grado di
rischio associato ad una controparte, genera una corrispondente
1
Molto spesso questi modelli sono volti a fissare un sistema di limiti nell’assunzione di
esposizioni verso particolari strumenti derivati da parte delle imprese bancarie. Ad esempio, nel caso
degli swap si cerca di valutare il duplice impatto che può avere sia la variazione dei tassi di mercato
di riferimento sia il fallimento della controparte. Si valuta, cioè, l’intersezione tra rischio di tasso e
rischio di credito.
Il rischio di credito 413
variazione dei fattori di sconto, in funzione dei quali si procede
all’attualizzazione dei flussi di cassa. Inoltre, proprio perché
soggetto ad insolvenza, lo stesso vettore dei flussi di cassa può
subire delle variazioni sia in termini di importi, che della cadenza
temporale. Dalle fonti d’incertezza evidenziate se ne deduce che il
valore di mercato di un credito è soggetto ad improvvise variazioni
nel corso del tempo. In tali variazioni si concretizza il rischio di
credito.
In termini più formali il rischio di credito può essere definito
come:
“la possibilità che una variazione inattesa del merito creditizio
di una controparte nei confronti della quale esiste un’esposizione
generi una corrispondente variazione inattesa del valore di
mercato della posizione creditoria”2.
Da tale formulazione discende un importante corollario: il
concetto di rischio di credito non è circoscritto al solo evento
insolvenza (rischio di default), ma si estende anche all’ipotesi di
deterioramento del grado di solvibilità della controparte e al
conseguente alterarsi del valore di mercato dei suoi debiti (rischio
di spread).
Una trattazione del rischio di credito, ai fini di una sua corretta
misurazione, richiede l’analisi dei suoi “driver” fondamentali,
quali:
a) una distribuzione di probabilità sull’evoluzione futura del
merito creditizio del debitore;
b) il tasso di perdita in caso di insolvenza;
c) l’esposizione in caso di default.
7.4 La probabilità di default
7.4.1
La definizione dello stato di insolvenza
Una chiara ed esplicita definizione del concetto d’insolvenza è
essenziale per rimuovere le possibili ambiguità metodologiche.
Con il termine insolvenza si qualificano tutte le situazioni in cui il
2
Cfr. Sironi A. (2000), pp. 42 ss.
414 Capitolo 7
debitore possa essere sia inadempiente, che incapace di onorare le
proprie obbligazioni contrattuali.
La capacità del debitore di adempiere le obbligazioni assunte
dipende dall’andamento nel corso del tempo di una serie di
elementi, di natura endogena ed esogena all’impresa stessa. Tra i
primi, figurano la capacità dell’impresa di generare profitti, tali da
permettere il rimborso del debito alle scadenze stabilite e il normale
proseguimento della gestione. Tra i secondi, invece, va annoverato
l’andamento prospettico e congiunturale del mercato in cui
l’impresa opera. Attraverso l’assegnazione di una distribuzione di
probabilità si cerca di formalizzare l’incertezza sugli eventi futuri.
Al riguardo, si pone l’esigenza di individuare, su basi oggettive,
gli eventi che possono avere un potere segnaletico nei confronti
dell’insolvenza e, quindi, di valutare l’intensità del segnale in
funzione della probabilità di default. Ad esempio, atteso il valore
segnaletico dell’irregolarità dei pagamenti, è necessario fissare una
discriminazione tra ritardi che possono definirsi fisiologici e ritardi
patologici, che sono da ritenersi manifestazione di uno stato di
insolvenza del debitore. Dal punto di vista della modellistica, può
essere importante chiarire il legame che sussiste tra l’adempimento
e l’evento o gli eventi segnaletici. Ad esempio, si può ritenere che
l’inizio di un’azione legale, da parte di uno dei creditori nei
confronti dell’obbligato, sia espressione di uno stato di insolvenza
e, quindi, di inadempimento. In effetti, si potrebbe valutare l’ipotesi
che l’azione del creditore non sortisca effetti sul debitore, il quale
potrebbe essere in grado di onorare il debito; ciò equivale a ritenere
che l’inadempimento, in seguito all’azione giudiziaria, sia
semplicemente un evento probabile. Ovviamente, se, dato il
segnale S e l’evento inadempimento A, la dipendenza di A da S è di
tipo logico, allora è possibile ragionare esclusivamente sulla
probabilità di S per avere anche le informazioni sulla probabilità di
A; viceversa, se tra A ed S si assume una dipendenza stocastica,
allora si introduce un grado di difficoltà in più e diventa necessario
stimare P(A | S), ossia la probabilità condizionata di A, dato S. La
valutazione oggettiva di tali eventi3 ha consentito di passare
3
Sotto questo aspetto, come verrà approfondito nel secondo capitolo, le innovazioni maggiori
sono state introdotte nel Nuovo Accordo di Basilea che ha accolto due definizioni di default: di tipo
soggettivo e di tipo oggettivo.
Il rischio di credito 415
dall’impiego di approcci dicotomici, diretti alla previsione di uno
dei due soli stati entro cui l’obbligato può ricadere (solvibile/non
solvibile), all’impiego di approcci cardinali o ordinali, mirati
all’individuazione della posizione relativa del cliente all’interno di
una più o meno ampia scala qualitativa o quantitativa atta ad
esprimere la potenziale rischiosità.
L’approccio dicotomico è largamente basato sulle valutazioni
soggettive espresse congiuntamente da più specialisti,
relativamente ad alcuni aspetti dell’obbligato che costituiscono le
quattro C del credito:




la reputazione dell’obbligato (character);
la struttura finanziaria ed il leverage dell’impresa (capital);
la continuità del flusso di reddito (capacity);
la presenza di garanzie (collateral).
In una visione allargata, nell’approccio ordinale/cardinale alla
stima del merito creditizio si possono far confluire tutti i modelli o
sistemi, sviluppati nel corso degli ultimi due decenni, diretti alla
determinazione della rischiosità di una controparte. Naturalmente,
un’analisi esaustiva della letteratura sull’argomento è alquanto
ardua, se si tiene conto della vastità degli ambiti di riferimento. Ai
fini di una corretta esposizione, sembra preferibile adottare, quale
ottica interpretativa della letteratura esistente, l’indagine sugli spazi
di applicabilità dei sistemi di valutazione dei prenditori.
Una volta esplicitata la chiave di lettura della modellistica, è
bene ricordare il significato attribuito ai termini ordinali e cardinali,
nell’ambito delle due dimensioni minime entro cui si misura il
rischio di credito: probabilità dell’evento creditizio di riferimento e
perdita attesa. L’approccio ordinale raccoglie le metodologie dirette
all’assegnazione di un prenditore ad una classe qualitativa, dato che
condivide con questa una serie di caratteristiche predefinite;
l’approccio cardinale, invece, comprende quelle metodologie che
consentono di ottenere una stima quantitativa diretta della
grandezza di riferimento.
Focalizzando l’attenzione sui dati di input richiesti, per
un’effettiva implementazione dei sistemi, è possibile poi
416 Capitolo 7
distinguere tra modelli basati sui dati di bilancio (accountingbased) e modelli basati su quotazioni di mercato (market-based).
Modelli accounting-based
Prendendo in esame dapprima i modelli accounting-based, si
può affermare, nel privilegiare il carattere cronologico della
letteratura, che tali modelli impiegano essenzialmente metodologie
statistiche di analisi multivariata, in cui le variabili contabili di
riferimento vengono tra loro combinate in maniera tale da produrre
un valore numerico, che può essere a sua volta interpretato o come
la probabilità di default dell’obbligato o come un punteggio
(score4) utile ai fini dell’attribuzione dell’obbligato ad una classe in
base a dei range predefiniti5.
I più diffusi sono quelli basati:




sulle tecniche di analisi discriminante, volte a classificare le
imprese sane e insolventi e a confrontare l’indice ottenuto
dalla media ponderata degli indicatori selezionati rispetto a
un valore soglia;
sulle tecniche di analisi logistica, da cui si desume
direttamente una stima della probabilità di insolvenza, dati i
valori delle variabili selezionate;
sui modelli di duration, in cui si stima la probabilità di
default e la distanza temporale dal verificarsi l’evento;
sui sistemi esperti, ai quali appartengono gli alberi
decisionali e le reti neurali, che hanno contribuito a fornire
utili supporti sia alla valutazione che alla decisione di
affidamenti.
4
Il termine scoring viene utilizzato in senso lato, estendendosi a tutti i modelli che, a partire da
un insieme di dati di input, consentono di ottenere una valutazione numerica della rischiosità
dell’obbligato. Sotto tale profilo si collocano i modelli di scoring da cui si ottengono valutazioni
numeriche generiche, le analisi logit il cui output è interpretabile come la probabilità di default.
5
Vi sono naturalmente anche modelli di scoring univariati, i cui ratios chiave del potenziale
prenditore vengono confrontati con quelli di benchmark riferiti all’industria o gruppo, al fine di
ottenere uno score senza tuttavia adottare alcuna forma di confronto “trasversale” dei dati. Sebbene
questi siano stati i primi modelli statistici effettivamente impiegati per la previsione delle insolvenze,
possono ormai considerarsi superati. Il più noto lavoro condotto facendo uso dell’analisi univariata
viene generalmente riconosciuto in Beaver W. (1966), le cui conclusioni più interessanti sono
riassunte in Szego G. e Varetto F. (1999).
Il rischio di credito 417
Tali modelli, pur avendo una certa validità empirica, in
corrispondenza di diverse fasi del ciclo economico e di aree
geografiche, sono stati oggetto di alcune critiche.
In primo luogo, è stato rilevato come tali approcci, basandosi
sulle evidenze contabili, siano fondati sui dati raccolti ad intervalli
temporali discreti ed indicativi della storia passata (backward
looking), al contrario dei dati di mercato che invece sono
maggiormente reattivi nell’anticipare le variazioni delle aspettative
degli operatori (forward looking). In secondo luogo, le
formulazioni analitiche di tali approcci impiegano funzioni lineari
dei dati di base, che contrastano con una realtà la quale raramente
soddisfa questa proprietà. Infine, occorre rilevare come tali modelli
conservino ancora un certo margine di soggettività, in quanto non
sono basati su un modello teorico di riferimento che lega tra loro le
variabili chiave attraverso specifiche relazioni funzionali.
Modelli market-based
I modelli market-based si sviluppano nel corso degli anni ’90,
proprio in risposta a tali criticità. L’obiettivo è quello di definire
modelli di analisi del processo di default del prenditore, attraverso
due approcci fondamentali: strutturale, da un lato, e in forma
ridotta, dall’altro.
Nell’approccio strutturale, che prende avvio dai fondamentali
lavori di Black e Scholes (1973) e Merton (1974), l’evento default
viene ricondotto all’evoluzione della struttura patrimoniale
dell’impresa. Più specificatamente, le azioni di un’impresa possono
essere assimilate ad una opzione call scritta sul valore dell’attivo,
con prezzo di esercizio pari al valore del debito. La probabilità di
default viene ricavata attraverso il valore dell’attivo e della sua
volatilità e viene definita come probabilità che il valore degli asset
scenda sotto il valore nominale del debito. Il legame tra valore
degli asset e solvibilità dell’impresa, che caratterizza i modelli
strutturali, sebbene rappresenti un elemento particolarmente solido
su cui basare la stima della probabilità di default e del recovery
rate, è viziato da un forte limite, riguardante il flusso informativo
418 Capitolo 7
necessario alla stima dei parametri, realisticamente sostenibili solo
per le società dotate di una quotazione nei mercati finanziari6.
I modelli in forma ridotta, invece, cercano di dedurre le
proprietà del processo di default dal differenziale dei tassi che
esiste tra i titoli rischiosi e i titoli privi di rischio, sulla base
dell’assunto che tale differenziale rappresenti il compenso richiesto
dagli investitori per il rischio di insolvenza. Nell’ambito di tale
filone verrà brevemente analizzato, ai fini della stima delle
probabilità default, la struttura a termine degli spread creditizi .
Sebbene tali modelli richiedano un input molto più modesto
rispetto ai modelli strutturali, l’assenza di un legame endogeno alla
struttura dell’impresa ne indebolisce le implicazioni.
Il fondamento teorico dell’approccio basato sulla struttura a
termine degli spread creditizi è costituito dalla determinazione del
tasso di perdita attesa direttamente dalla struttura a termine degli
spread creditizi riferiti a un certo emittente, nell’ipotesi di
investitori neutrali al rischio.
Il punto di partenza di tale metodologia è quindi la costruzione
della curva dei rendimenti zero coupon riferiti a titoli risk free e a
titoli rischiosi appartenenti ad una classe di rating da cui derivare le
rispettive curve dei tassi forward.
Per cui: indicando con 0rt il tasso zero coupon bond valutato in 0
e cadente in t e 0ix,t il medesimo tasso calcolato in corrispondenza
della classe di rischio x, i corrispondenti tassi forward, relativi al
periodo t-1, t, vengono ricavati come segue:
t 1 r t 
(1  0 r t ) t
1 ;
(1  0 r t 1 ) t 1
t 1 i
x ,t 
(1  0 i x ,t ) t
(1  0 i x ,t 1 ) t 1
1
[7.2]
Ponendo la condizione di neutralità verso il rischio due
investimenti risultano equivalenti quando il montante investito nel
titolo free risk è equivalente al valore atteso del montante investito
nel titolo rischioso.
Affinché il valore atteso del rendimento del titolo rischioso sia
pari al rendimento certo del titolo risk free, posto che la differenza
6
Infatti, il valore e la volatilità degli asset, necessari per l'implementazione dei modelli
strutturali, non è direttamente osservabile, ma può essere approssimato attraverso i prezzi di mercato
dei titoli azionari.
Il rischio di credito 419
tra i due rendimenti dipenda dalla probabilità di perdita attesa
implicita nell’attività rischiosa, deve essere verificata la seguente
espressione:
(1  0 r t )  (1  0 i x,t )(1  El x,t )
[7.3]
dove ELx,1 indica il tasso di perdita attesa per la classe x nel
periodo 0,t. Tale espressione è valida anche per i tassi forward
uniperiodali, pertanto si ha:
(1 t 1 r t )  (1 t 1 i x ,t )(1 t 1 El x ,t )
[7.4]
per cui:
t 1
EL
1
x ,t
(1  t 1 r t )
(1  t 1 i x ,t )
[7.5]
Dal tasso di perdita attesa è ricavabile la probabilità default per
la classe x, poiché:
t 1
EL x ,t  t 1 p t *LGD 

t 1
p t (1  RR)
[7.6]
dove:
t-1pt =
probabilità default relativa al periodo compreso tra t-1 e t
RR = recovery rate
si ha :
t 1
p t
t 1
EL x ,t
1  RR
[7.7]
Da tale relazione possiamo desumere la probabilità marginale
che il titolo rischioso non vada in default, ovvero
420 Capitolo 7
st= 1-t-1pt
[7.8]
dove:
st = probabilità di sopravvivenza del titolo rischioso nel periodo t-1,
t
La probabilità cumulata di sopravvivenza al T-esimo periodo è
pertanto pari:
T
S T   (1  t 1 p t )
[7.9]
1
La probabilità di perdita cumulata per il titolo rischioso nel
periodo T-esimo è il complemento a 1 dell’espressione precedente
PT=1-ST
[7.10]
Il limite di tale approccio è nell’ipotesi di risk neutrale
dell’investitore, ossia nella mancanza di richiesta da parte del
mercato di un premio per un investimento in un titolo rischioso, per
cui la remunerazione richiesta dal mercato dipende dalla perdita
attesa e non piuttosto dalla variabilità della stessa, generando una
sovrastima del tasso di perdita attesa scontato dal mercato.
7.4.2
La scelta dell’orizzonte temporale di riferimento
In linea di massima si può osservare dall’esperienza empirica
che la probabilità di default aumenta con il crescere dell’orizzonte
temporale, ma con un’intensità diversa; pertanto, non è possibile
stabilire una linearità tra l’holding period considerato e il tasso di
insolvenza.
L’esperienza empirica7 su un campione di debitori bancari in
Italia dimostra che i tassi d’insolvenza sono più elevati nei primi
anni e si riducono nei successivi.
Per cui l’ipotesi di stimare i tassi annui costanti al valore del
primo anno genera una sovrastima della propensione all’insolvenza
7
Cfr Resti A.(2001), pp .32-36
Il rischio di credito 421
di lungo periodo, poiché non tiene conto di un possibile più
efficace monitoraggio da parte della banca nei confronti del cliente
con l’aumentare della durata del fido.
In generale, si osserva che la scelta dell’orizzonte temporale, in
un modello di misurazione del rischio, dovrebbe essere verificata
alla luce del grado di liquidità del mercato di riferimento, della
posizione di rischio assunta e del periodo di detenzione della
singola posizione.
L’assenza di un mercato secondario per il portafoglio
commerciale non consente di applicare tali criteri di tipo oggettivo
e soggettivo.
Ne consegue che appare ipotizzabile selezionare un holding
period pari alla durata del credito, ciò rende più complessa la stima
della distribuzione delle probabilità, data l’ampia differenziazione
delle scadenze delle singole posizioni e l’esistenza di numerose
posizioni contrattualmente prive di scadenza.
La soluzione generalmente adottata è di un anno, in
considerazione del tasso di rotazione del portafoglio. Soluzione
invero discutibile per le singole posizioni con vita residua superiore
all’anno, sulle quali non influisce l’eventuale rotazione del
portafoglio.
Tuttavia, tale assunzione è coerente con il tempo adottato per la
revisione degli affidamenti a vista e con il ciclo di budget delle
banche.
7.5 Il tasso di perdita in caso di insolvenza
7.5.1
Fattori che determinano il tasso di perdita in caso di
default
Il rischio di credito, a parità di probabilità di default (PD), si
presenta più elevato per quelle esposizioni in cui il tasso di perdita
in caso di default, detto Loss Given Default (LGD), è maggiore8.
Si definisce tasso di perdita in caso di insolvenza la frazione di
credito residuo che con certezza non sarà possibile recuperare
8
La letteratura parla a riguardo anche di “severity of loss”, ossia di serietà del danno, in caso di
insolvenza.
422 Capitolo 7
qualora abbia a verificarsi l’evento di default; specularmente il
tasso di recupero (RR) indica la frazione di credito recuperata.
Dalle ricerche condotte sull’argomento è emerso quanto segue:





la distribuzione dei tassi di recovery è caratterizzata da
frequenza elevata in corrispondenza sia di recovery alti,
intorno al 70%-80%, che di recovery bassi, circa il 20% o
30%. Se ne deduce una distribuzione bimodale, per cui la
media quale indicatore centrale è fuorviante;
i driver che incidono sul tasso di recupero sono
rappresentati principalmente dalla presenza o meno di
garanzie e dal livello di subordinazione del prestito nella
struttura del capitale del prenditore;
il tasso di recupero è fortemente influenzato dalla fase del
ciclo economico. Nel periodo di recessione il tasso di
recupero, secondo verifiche svolte nei mercati finanziari
statunitensi, può diventare pari circa a un terzo rispetto alla
media di lungo periodo;
il settore di appartenenza dell’obbligato può contribuire
notevolmente a spiegare il livello dei tassi di recupero:
settori a capital intensive sono caratterizzati da livelli di
recupero più elevati rispetto ai settori labour intensive;
la dimensione dell’esposizione sembra non avere un ruolo
rilevante nella spiegazione dei tassi di perdita.
Misura
Essendo i concetti di “tasso di perdita” e “tasso di recupero”
simmetrici, poichè il primo è il complemento ad 1 del secondo, si
può esprimere la Loss Given Default (LGD) come:
perdite
valore recuperato
1
 1  RR
esposizione
esposizione
RR  tasso di recupero
LGD 
[7.11]
Occorre evidenziare i problemi specifici che nascono dalla stima
della perdita e delle esposizioni al momento del default.
La perdita dipende:
Il rischio di credito 423





dall’ammontare nozionale del prestito (nel caso del
credito commerciale anche dalla forma tecnica del
prestito);
dal costo opportunità degli interessi non percepiti, dalla
presenza di collaterali,
dai costi amministrativi direttamente sostenuti nelle
procedure concorsuali e/o nelle procedure di recupero
crediti interne;
dalla stima del tempo richiesto per rendere liquide tali
attività (ossia del tempo che intercorre tra il passaggio in
default e il recupero, parziale o totale, dell’importo
prestato);
dalla individuazione dei tassi di sconto da applicare ai
flussi derivanti dal recupero.
Dal punto di vista della dinamica temporale, il default si ha in
corrispondenza del mancato pagamento degli interessi o della
cedola; le procedure di liquidazione per il recupero del credito in
genere hanno una durata di due o quattro anni dall’ultimo
pagamento.
Analisi dei driver
I driver che incidono sulla distribuzione della LGD e, quindi
sull’ eventuale bimodalità, sono:
 Tipologia di debito e grado di seniority;
 Fattori legati a settori industriali;
 Indicatori macroeconomici;
 Collaterali.
Tipologia di debito e grado di seniority
E’ verosimile ritenere che i fattori esplicativi più importanti
sulla distribuzione del RR sono dati dalla tipologia di debito e dal
grado di seniority.
Le distribuzioni del recovey rate per differenti classi di
seniority, fornite da Moody’s, per il periodo 1970-2002, sono di
tipo binomiale per livelli di seniority più elevati. Inoltre, i tassi di
424 Capitolo 7
recovery aumentano quando i creditori dell’impresa in default sono
in grado di monitorare l’andamento delll’attività imprenditoriale.
Circostanze entrambe verificabili nell’ambito degli affidamenti
erogati dalla banca.
Fattori legati ai settori industriali
Generalmente viene riconosciuto che il settore di appartenenza
del prenditore influisce sul livello della LGD dei bond, mentre
sussistono elementi di incertezza per l’area prestiti. In particolare,
le imprese appartenenti ai settori capital-intensive possono godere
di perdite minori. Al riguardo, si menzionano le stime di Altman e
Kishore (1996) e di Carty e Lieberman (1996), che confermano tale
dinamica dei tassi recovery per classi settoriali.
Indicatori macroeconomici
Il ricorso alle variabili macroeconomiche consente di
incorporare nelle stime della LGD gli effetti del ciclo economico.
Le verifiche empiriche hanno mostrato come il recovery rate si
riduca drasticamente nei periodi di recessione rispetto alla media di
lungo periodo. Studi condotti nel mercato dei bond statunitensi
(Moody’s) rilevano come il recovery rate sia stato mediamente del
40%, riducendosi drasticamente di circa 1/3 nella fase di
recessione. Circostanze invero non verificabili per titoli investment
grade, che per effetto del loro elevato standing creditizio riflettono
in misura minore l’andamento dell’economia.
I collaterali
Prima di affrontare i metodi di stima della LGD, una nota a parte
meritano i collaterali. Nel dettaglio, la presenza di garanzie, reali o
personali, incide notevolmente sulle prospettive di recupero degli
importi erogati; ciò dipende dal valore della garanzia rispetto
all’ammontare del credito e dal grado di liquidità e di efficacia del
collaterale.
Il tema degli strumenti finanziari per la protezione dal rischio di
credito è molto vasto, ma in questa sede ci limiteremo a darne una
prima introduzione di carattere descrittivo. È opportuno classificare
le diverse tipologie di protezione per poter, successivamente,
misurare l’impatto che queste hanno sul rischio dell’esposizione
Il rischio di credito 425
cui si riferiscono e su quello del portafoglio nel suo insieme.
Possiamo distinguere la famiglia di strumenti finanziari, che
forniscono al debitore una protezione dal rischio di credito, in tre
classi:



le garanzie reali e personali;
le clausole contrattuali (covenant);
i contratti finanziari ad hoc, c.d. derivati creditizi (credit
derivative).
Il creditore, mediante l’escussione delle garanzie reali o
personali in caso di default, ha la possibilità di recuperare gli
importi concessi al prenditore rivalendosi sul bene dato in garanzia
o sul patrimonio del garante. Con le covenants, invece, la banca
incide attraverso clausole contrattuali, fissate all’atto della stipula
del contratto di finanziamento, sull’andamento del rapporto
creditizio.9
I credit derivative, di cui si dirà diffusamente nei capitoli
successivi, a loro volta, operano in modo simile alle garanzie
personali, consentendo al creditore, attraverso il “provider”, di
coprirsi dal rischio di perdite sui crediti al verificarsi di determinati
eventi creditizi (collegabili all’insolvenza).
Due sono gli aspetti rilevanti che vanno messi in risalto ai fini
della misurazione del rischio in presenza di strumenti di protezione:


la valutazione delle garanzie e degli altri strumenti di
protezione;
la valutazione del default congiunto.
Per quanto concerne il primo aspetto, rilevanza assume il
trattamento delle garanzie. La loro valutazione è affrontata dal
Nuovo Accordo sul Capitale nell’ambito delle tecniche di
9
Ad, esempio, su alcune linee di credito la banca potrebbe riservarsi il diritto, sotto
predeterminate condizioni, di limitare l’utilizzo del fido; oppure di modificare le condizioni di tasso
al mutare dello standing creditizio del cliente. Gli effetti della mitigation si possono, pertanto,
manifestare, diversamente dagli altri strumenti, prima del verificarsi del default, attraverso il
controllo dell’EAD. L’analisi dei covenant può estendersi includendo non solo le clausole di
mitigazione, ma anche quelle svantaggiose per la banca, che comportino un’accentuazione del rischio
di una posizione, come nel caso di clausole (espresse o implicite) di postergazione del credito.
426 Capitolo 7
mitigazione del rischio di credito. Questo afferma il principio della
cd “PD substitution”, vale a dire la sostituzione della qualità
creditizia del garantito con quella del garante o del venditore di
protezione nel caso dei derivati. Sostanzialmente, si esclude la
possibilità di una correlazione fra i default del garante e del
garantito.
Viceversa, la verifica dei fattori comuni che generano un comovimento del rischio di insolvenza e di recupero è un problema
che va affrontato in tutta la sua complessità.10
Se il default del prenditore e il default del garante sono correlati
si affievoliscono gli effetti della garanzia a fronte di un aumento
della probabilità di default congiunto.
Come si dirà, un sistema semplice per valutare le correlazioni
consiste nel ricorrere al concetto di PD condizionata, ossia la
probabilità che dato il fallimento di un soggetto B, nel nostro caso
il garantito, si verifichi anche quello del soggetto G, il garante. In
termini formali tale probabilità è indicata come P(B|G).
Da un punto di vista economico, una correlazione positiva fra le
controparti di una garanzia riduce l’efficacia di quest’ultima. Ai
fini di una migliore comprensione introduciamo il concetto di joint
default probability (JDP), ossia di fallimento congiunto.
La JDP dipende dalla correlazione tra prenditore e garante,
usualmente, la correlazione tra gli eventi di default è positiva
quando entrambi i soggetti rispondono ai cambiamenti
macroeconomici. Se gli eventi di default sono indipendenti la JDP
è data dal prodotto delle PD stand alone; viceversa, per correlazioni
positive, JDP assume un valore più elevato, mentre configura valori
più bassi per correlazioni negative.
10
In uno scritto,. Resti A. (2002), p. 13, chiarisce tale concetto attraverso una esemplificazione
da cui si evince come la PD a lungo termine di un prenditore stimata nel 6% subisca variazione
positive nella fase negativa del ciclo economico, assumendo un valore del 10%, per decrescere al 2%
in un periodo di espansione dell’economia. In analogia, posto che entrambi gli scenari, di espansione
e di recessione, presentano analoghe probabilità di verificarsi, ipotizza che la LGD attesa pari al 50%,
subisca variazioni al 70% nella fase di recessione e al 30% in caso di espansione. La stima della
perdita attesa, come verrà successivamente analizzata, normalmente calcolata come il prodotto delle
medie non condizionate, nel caso degli scenari dovrà essere calcolata come media non condizionata
su tutti gli scenari, ossia ½*70%*10% + 1/2*30%*2% = 3,8%. Tale valore risulta più elevato di 80
centesimi rispetto al prodotto delle medie non condizionate , pari al 3%.
Il rischio di credito 427
7.5.2
Metodi di stima della LGD: cenni
Dal momento che l’incertezza nella LGD dipende da diversi
fattori, non sarebbe, perciò, scorretto modellarne solo alcuni per
catturare il rischio complessivo che ne deriva. Ad esempio, anche
se è di fondamentale importanza, ai fini del recupero, valutare
correttamente l’impatto delle garanzie, limitarsi a considerare
questo unico, ancorché importante fattore, può essere riduttivo.
Data una singola posizione, allora, piuttosto che fare ipotesi sul
valore delle diverse garanzie, si potrebbe fare un’ipotesi
direttamente sulla forma della distribuzione della variabile
stocastica LGD. Naturalmente i due approcci non sono in netto
contrasto poiché, assunto un certo andamento teorico della PDF
(probability density function), i parametri che in concreto la
caratterizzano dipenderanno a loro volta dai fattori su delineati:
seniority, garanzie, ecc. Con questo metodo si può tenere conto
anche dell’impatto della correlazione: invero, la distribuzione di
probabilità della LGD per un prestito non assistito da garanzia sarà
sicuramente diversa da quella di un prestito garantito; a sua volta
un prestito assistito da garanzia personale, in cui la PD del garante
è scarsamente correlata a quella del garantito, presenterà una
distribuzione diversa da quella di un prestito caratterizzato da
elevata probabilità di default congiunto.
Un primo problema da affrontare è pertanto la stima della LGD.
Al riguardo si possono individuare almeno tre metodologia di
stima:
 Market LGD
 Implied Market LGD
 Workout LGD
Market LGD. Il tasso di perdita in caso di insolvenza può essere
direttamente esplicitato dai prezzi di mercato dei titoli divenuti
insolventi. Utilizzata dalle agenzie di rating per le stime
periodicamente pubblicate, il vantaggio di tale metodologia
consiste nel fatto che i prezzi sono il risultato di transazioni di
mercato e, pertanto, svincolati da valutazioni soggettive. Inoltre, i
prezzi riflettono le aspettative degli investitori sul recovery,
opportunamente scontato e, quindi, includono le perdite sia sul
428 Capitolo 7
nozionale che sui mancati interessi, così come i costi di
ristrutturazione e l’incertezza sull’ammontare recuperato.
Implied market LGD. La LGD può essere stimata sulla base dei
prezzi dei titoli quotati, non già in default, adottando un idoneo
modello di pricing. Al riguardo si fa riferimento allo spread sul
tasso risk free, che è dato dal premio corrisposto agli investitori per
il rischio di default stimato sul titolo. Lo spread, invero, è funzione
della PD e della LGD (ed eventualmente di un premio per la
liquidità).
Workout LGD. Il tasso di perdita può essere stimato attraverso
l’individuazione dei cash flow (in termini di ammontare e di tempi)
del processo di liquidazione dell’impresa. I flussi vengono quindi
scontati, sebbene non appaia del tutto ovvio quale sia il tasso più
corretto da applicare. In linea di principio, il tasso più appropriato
dovrebbe essere quello di un’attività che contiene lo stesso livello
di rischio.
Alcune considerazioni sui modelli di stima
In generale ogni modello di stima dovrebbe distinguere le
osservazioni in funzione della tipologia del prestito e della fase del
ciclo economico.
Pertanto, l’analisi della LGD dovrebbe essere implementata
come segue: data la variabile LGD, vanno individuati una serie di
fattori, X1, X2, …, Xn, da cui questa dipende, cercando di indagare
in che modo ciascuno di questi possa impattare sulla stessa LGD.
Posto che X1 esprime il default del garante, è possibile valutare
l’eventualità che tale default possa avvenire congiuntamente a
quello del prenditore; oppure, posto che X2 indichi il livello
dell’esposizione su una linea di credito discrezionale, si può
analizzare il livello di indebitamento del prenditore in presenza del
default.
Se assumiamo che la LGD sia una variabile casuale distribuita
secondo una data PDF, il nostro problema può essere modellato in
questi termini:
LGD = f (a1, a2, a3, …, ar),
[7.12]
Il rischio di credito 429
dove f è una funzione di densità da selezionare sulla base di
opportune considerazioni teoriche e a1, a2, a3, …, ar esprimono i
parametri che caratterizzano negli specifici casi la densità (si pensi
a media e varianza nel caso di una densità Normale). Giova ripetere
che tali parametri dipendono dal modo in cui i fattori X1, X2 …, Xn
incidono sulla LGD .
Individuato il modello teorico per la f, i parametri a1, a2, a3, …,
ar andranno stimati empiricamente attraverso tecniche di
campionamento. A tal fine, sarà opportuno raggruppare i prenditori
in cluster omogenei in base, ad esempio, alla seniority/settore/ciclo,
ecc. (prestiti senior unsecured per il settore manifatturiero in fase di
recessione), per stimare per ogni segmento individuato la relativa
LGD coeteris paribus, maggiore sarà la granularità dei cluster e
maggiore sarà la precisione delle stime, ma anche il costo della loro
implementazione in sede operativa.
Se si stima la LGD come rapporto tra le perdite subite ed il
totale delle esposizioni in default, una valutazione corretta
dovrebbe contenere un numero sufficientemente elevato di
osservazioni per quella specifica cella della tabella con cui si
rappresentano dei cluster.
L’applicazione di un metodo di regressione semplice per
spiegare i dati riduce i problemi legati alla numerosità delle
osservazioni. Come è noto, in questi casi le variabili qualitative
vengono rappresentate attraverso opportune variabili dummy (si
pensi, ad esempio, alla rappresentazione delle caratteristiche
dell’operazione).
Per rendere più efficaci le stime si possono utilizzare tecniche di
regressione non lineare, ma ciò evidentemente tende a comportare
una maggiore complessità nei calcoli, che deve essere giustificata
da un adeguato beneficio in termini di accuratezza (maggiore) dei
risultati.
Quando la numerosità o la dimensione non consentono, ovvero
non giustificano il ricorso a cospicui database di serie storiche, può
diventare vantaggioso ricorrere a tecniche di simulazione basate
sulle reti neurali.
Emerge con chiarezza l’esistenza di un trade-off tra livello di
sofisticazione del modello adottato ed accuratezza delle stime. Un
modello particolarmente complesso, e quindi più ricco di parametri,
430 Capitolo 7
è in grado di spiegare meglio i dati ma può non essere altrettanto
efficiente in fase di implementazione o addirittura non applicabile a
specifiche realtà operative.
7.5.3
La distribuzione della LGD: la Beta
La determinazione dei parametri della distribuzione dei valori
regrediti si pone come un problema di statistica parametrica; ossia,
si tratta di individuare degli opportuni stimatori da cui inferire i
parametri in base all’osservazione delle serie storiche. In base ad
argomentazioni teoriche relative alla natura del prestito (forma
tecnica, presenza di collaterali, ecc.) è possibile stabilire un range
di oscillazione ragionevole per questi parametri.
Le 60 diverse famiglie di distribuzioni si caratterizzano
generalmente per avere delle forme tendenzialmente simili al
variare dei parametri da cui dipendono. Si pensi alla forma della
distribuzione normale che è più o meno decentrata rispetto allo zero
ed allungata a seconda dei valori di media e varianza. Nel nostro
caso, invece, è necessario ricorrere ad una distribuzione di
probabilità teorica molta generica, che riesca a catturare la
molteplicità di forme con cui si potrebbe presentare il tasso di
recupero per le diverse tipologie di prestiti.
Per poter ricondurre ad unitarietà popolazioni statistiche con
caratteristiche molto diverse si può utilizzare la funzione Beta. In
termini non rigorosi si può affermare che essa racchiude molte
distribuzioni in una. Variando opportunamente i suoi parametri, si
possono ottenere, infatti, andamenti della distribuzione
radicalmente diversi. Come si chiarirà meglio in seguito, essa
riesce anche a modellare con più coerenza il range di variabilità del
RR, che è [0,1] e non [-, +] come può accadere nel caso delle
funzioni normali. Per poter apprezzare i benefici dell’utilizzo della
Beta è necessario richiamare, in primis, la sua definizione formale
in termini probabilistici ed i suoi valori notevoli. La PDF della Beta
è definita come segue:
Il rischio di credito 431
X ~ Beta( ,  ) :
(   )  1
f X ( x; ,  ) 
x (1  x)  0  x  1
( )(  )
[7.13]
Rinviando all’appendice per gli aspetti formali, notiamo che la
funzione, diversamente da quanto accade per altre tipologie di
distribuzioni (per esempio la famiglia delle gaussiane), non
presenta tra i suoi parametri la media e la varianza. Queste sono
calcolabili rispettivamente come:
EX 

 

VX 
2
(   ) (    1)
[7.14]
Ciò posto riscriviamo la relazione in questi termini:
RR ~ Beta( ,  )
[7.15]
dove RR [0,1]
Ciò significa che il tasso di recupero è distribuito secondo una
Beta e che esso deve essere compreso nell’intervallo zero-uno,
essendo il valore “zero” rappresentativo della situazione in cui
viene perso l’intero ammontare del prestito in ipotesi di default, ed
“uno” il caso in cui è possibile recuperare tutto il (il 100% del)
credito nonostante il default,.
Come si mostra in appendice, al variare dei parametri  e , la
funzione può assumere forme molto diverse ed in alcuni casi
antitetiche. Ad esempio, accanto alla forma “a campana”, legata
all’ambiente delle distribuzioni normali, essa può assumere
l’opposta forma ad ‘U’. In questa ipotesi si parla anche di
bimodalità della distribuzione del tasso di recupero (o di perdita),
poiché, diversamente da quanto accade per le distribuzioni
unimodali, presenta due valori prevalenti, che si collocano o
coincidono con zero ed uno (recupero nullo e recupero totale).
Accade, allora, che il valore medio sia del tutto inadeguato a dare
432 Capitolo 7
una rappresentazione significativa della distribuzione; esso è,
all’opposto di quanto siamo abituati a pensare (avendo
istintivamente in mente una distribuzione normale o la definizione
stessa di valore atteso), un valore intorno al quale si concentra una
bassissima probabilità, essendo questa, al contrario, concentrata
sulla parte esterna della curva ad ‘U’.
L’utilizzo della funzione Beta richiede la stima dei relativi
parametri sulla base dell’analisi delle serie storiche.
7.5.4
Modello LossCalc di Moody’s-KMV: cenni
Un’applicazione molto articolata in tal senso è rappresenta dal
modello LossCalc di Moody’s-KMV. Tale modello presenta tra i
suoi punti di forza l’inclusione di fattori di stima legati al trend
economico, il che ne migliora l’affidabilità.
Esso, inoltre, riconoscendo l’importanza dell’orizzonte
temporale, produce due distinte stime: una su base immediata, il
cui uso è suggerito per le esposizioni inferiori all’anno, ed una su
base annuale, indicata per le altre maturità.
Venendo al dettaglio dei fattori usati da LossCalc, questi
possono essere distinti in quattro categorie:




tipologia di debito e grado di seniority;
indicatori della struttura finanziaria dell’impresa;
fattori legati ai settori industriali;
indicatori macroeconomici.
Tipologia di debito e grado di seniority – I fattori esplicativi più
importanti sono quelli inclusi nella prima categoria: essi sono dati
dalle medie su base storica dei tassi di recupero, suddivisi per
tipologia di debito e grado di seniority. Nonostante la loro
importanza, in termini relativi, essi pesano sul modello per meno
del 50%.
Indicatori della struttura finanziaria dell’impresa – Nell’
ambito della struttura del capitale dell’impresa viene considerato un
fattore tipico: il leverage, inteso come rapporto tra attività totali e
Il rischio di credito 433
passività totali. Si considera, poi, il grado di seniority del debito
rispetto alla specifica struttura finanziaria dell’impresa. Si noti che,
mentre nella categoria precedente la seniority del debito era
espressa in termini assoluti, qui è relativa al passivo dell’impresa,
per cui una certa classe di debito può avere una posizione elevata
nell’ambito di una data unità produttiva, anche se in termini
assoluti il livello di privilegi attribuito ai creditori non sia elevato.
Fattori legati ai settori industriali – Con riferimento alla terza
categoria vengono calcolate le medie mobili dei tassi di recupero
per 12 settori industriali. Moody’s mette in risalto come il settore
che presenta il tasso di recupero più basso in caso di default sia
quello bancario. La natura del business e la caratteristica
immaterialità dell’attivo della banca, fanno sì che, quando essa
fallisce, sia sempre “troppo tardi per i creditori”, ottenere una
soddisfazione parziale dei loro diritti attraverso le procedure di
enforcement.
Indicatori macroeconomici – Il ricorso alle variabili
macroeconomiche della quarta sezione consente di incorporare
nelle stime gli effetti del ciclo economico rendendo il modello
conditional. Gli indicatori macroeconomici considerati sono: il
Moody's Bankrupt Bond Index, un indice mensile che misura il
rendimento delle obbligazioni emesse da società sottoposte a
procedura fallimentare (anche non valutate da Moody's e non
americane purché denominate in dollari); la media dei tassi di
default registrati su un arco di 12 mesi per le imprese incluse da
Moody’s nello speculative grade; l’Index of Leading Economic
Indicators, prodotto dalla Conference Board Inc.
La media dei default rispetto allo speculative grade si è rivelata
scarsamente significativa per le stime su base immediata per cui, in
questo caso, non viene presa in considerazione.
Va notato che le diverse variabili illustrate presentano la
caratteristica di una bassa correlazione.
In generale le variabili utilizzate sono state presentate in base al
grado di significatività statistica. Pertanto variabili interessanti sul
piano dell’analisi teorica, come il rapporto EBIT/Vendite o
434 Capitolo 7
Passività correnti / Attività correnti, sono state escluse, poiché i test
hanno dimostrato che esse hanno un basso potere esplicativo.
Con riferimento alla stima della LGD è emerso come, mentre in
termini teorici possa essere semplice parlare di ammontare di
credito recuperato, nella pratica i lunghi tempi delle procedure
giudiziarie vanifichino la possibilità di stime empiriche basate su
serie storiche.
Anche la valutazione contabile basata sull’attualizzazione dei
cash flow post-default può essere troppo complessa da applicarsi su
larga scala.
Moody’s sceglie, perciò, di considerare la quotazione di mercato
fornita da alcuni broker di riferimento ad un mese dal default come
definizione di “recupero dello strumento soggetto al default”
In questo contesto Moody’s mette in risalto come le risultanze
del suo data base, unitamente ad una serie di studi effettuati,
mostrino un andamento non normale della LGD, ma modellizzabile
piuttosto con una densità di tipo Beta.
Figura 7.2 - Andamento della funzione di distrib.ne della LGD
Fonte: Moody’s-KMV
A questo punto va rilevato come Moody’s scelga di tenere
riservati i dettagli implementativi del proprio modello. Viene,
comunque, chiarito che la LGD è dapprima stimata in una versione
“normalizzata” attraverso una regressione lineare che usa come
Il rischio di credito 435
fattori esplicativi le 9 variabili su indicate. Una volta regrediti,
attraverso opportune tecniche econometriche, i valori vengono, poi,
ricondotti alla densità Beta attraverso una procedura qui riportata in
appendice.
Va ancora notato che, per migliorare il procedimento di fitting, i
9 fattori sono in alcuni casi trasformati prima di essere inseriti
nell’equazione di regressione, secondo una procedura non
esternata, che Moody’s definisce mini-modelling.
Anche se non vi è alcuna disclosure sui pesi che hanno i 9 fattori
nel modello di regressione, a livello aggregato, viene fornito il peso
per categoria. Con riferimento alle 4 categorie summenzionate,
l’influenza relativa sulla procedura di stima è rappresentata in
termini grafici nella figura che segue.
Figura 7.3 - Pesi dei driver nella procedura di stima della LGD
Fonte: Moody’s-KMV
7.6 La valutazione dell’esposizione a rischio di default
In generale si può osservare che l’esposizione del banking book
si origina o dall’erogazione di finanziamenti all’impresa /
individuo, o dall’acquisizione di varie tipologie di titoli emessi sul
mercato dall’impresa a copertura dei propri fabbisogni.
Ai fini della determinazione dell’esposizione a rischio assume
rilevanza il valore della stessa al momento del default, valore
436 Capitolo 7
determinabile sin dall’inizio per alcune tipologie di credito oppure
di incerta determinazione per altre in assenza di un importo definito
e di un piano di rimborso.
Possono essere assimilati al primo tipo: a) prestiti con
caratteristiche analoghe a zero coupon bond, in cui l’erogazione è
pari all’ammontare definito nel momento del perfezionamento del
contratto, b) prestiti “autoliquidantesi” concessi dalla banca al
cliente sotto la forma di sconto o anticipazione fissa, e infine c)
prestiti utilizzabili nel loro importo massimo.
Nella seconda categoria si riconducono tipicamente le forme di
finanziamento caratterizzate da una certa discrezionalità da parte
del debitore nelle modalità di utilizzo.
Le esposizioni si distinguono, inoltre, in quelle di natura
monetaria da quelle non monetarie rappresentate principalmente da
crediti di firma, ossia da posizioni fuori bilancio che generano un
impegno di cassa solo in ipotesi default dell’impresa affidata.
Pertanto, il rischio di tale operazione è solo potenziale anche se
potrebbe esser rilevante, qualora si manifestasse l’evento default.
Ai fini della stima dell’esposizione tale categoria può essere trattata
alla stregua di un prestito di importo certo.
L’innovazione finanziaria rende ancora più complessa la
quantificazione corretta del valore dell’esposizione a rischio. Nel
caso dei derivati la possibile manifestazione del rischio di credito è
collegata a un andamento sfavorevole del fattore di rischio di
mercato. Pertanto, la misura dell’esposizione è scomponibile in una
parte definita ”corrente”, coincidente con il valore di sostituzione, e
un’altra parte aleatoria, definita esposizione potenziale, legata alle
variazioni nel valore di mercato del contratto.
La figura 7.4 illustra per diverse tipologie di prodotti
l’andamento possibile dell’esposizione.
Un approfondimento merita di essere svolto sulle linee di credito
del banking book, i cui fattori fondamentali possono essere
individuati:


nel profilo di ammortamento del prestito;
nel tasso di utilizzazione del credito concesso.
Il rischio di credito 437
Figura 7.4 - Profilo temporale delle esposizioni per vari
prodotti finanziari
L’esposizione di tutte le forme tecniche caratterizzate da un
profilo di ammortamento è certo, poiché vengono pattuite, all’atto
dell’erogazione, le scadenze e gli importi da rimborsare, fatta
eccezione per i prestiti con possibilità di estinzione anticipata (ad
esempio i mutui). In quest’ultimo caso, il cliente può rimborsare
anticipatamente il prestito quando è in grado di rinegoziare la stessa
posizione sul mercato a tassi più bassi. Si ravvisa in questa ipotesi
la possibilità per il cliente di esercitare un’opzione call di tipo
americano venduta dalla banca. Più in particolare, nel mutuo con
opzione di rimborso l’attività sottostante è costituita dalla
successione delle rate non ancora scadute che possono essere
“riacquistate” dal mutuatario al prezzo di esercizio determinato dal
valore del debito residuo. Un altro “trigger” per l’estinzione
anticipata può essere rappresentato dall’“upgrading” del debitore,
che, anche in tal caso, avrà interesse ad esercitare il suo diritto ad
estinguere e a rinegoziare la propria posizione, per poter usufruire
di un tasso più favorevole che il suo nuovo standing creditizio
comporterà11. Per quanto concerne i metodi di valutazione per le
esposizioni a valore certo, si ritiene utile richiamare le metodologie
applicate nell’ambito dei principali modelli industriali. Al riguardo,
le principali tecniche applicate12 sono:

valore nominale dell’esposizione, corretto da una eventuale
percentuale di recupero conseguente al default
(Creditrisk+);
11
Si può consultare, con riguardo al caso dei mutui, “La valutazione delle opzioni implicite nei
mutui bancari” in Drago D. (2001).
12
Zazzara C. (2001), in Resti A. (a cura di), pp.81-89
438 Capitolo 7


attualizzazione dei flussi di cassa futuri dell’esposizione ai
tassi di interesse maggiorati di spread per il rischio di
insolvenza. Il valore mark-to-market dell’esposizione si
modifica in relazione alle variazioni intervenute nella
struttura dei tassi a termine foward a un anno relativi alle
emissioni obbligazionarie societarie per le varie classi di
rating13. In analogia a Creditrisk+, si utilizza, in caso di
default, il valore nominale dell’esposizione rettificato in
base a una percentuale di recupero (Credit Metrics);
attualizzazione dei flussi di cassa futuri condizionati al
verificarsi di un particolare evento in un contesto di
neutralità verso il rischio; il valore dell’esposizione si
determina, pertanto, come somma del valore attuale della
componente default risk e di quella rischiosa (Portafolio
Manager KMV).
Vanno, infine, considerate le linee di credito a vista o a valore
incerto, in cui il cliente attraverso il movimento del conto può
ripristinare l’ammontare di credito accordato. Più specificatamente,
il fattore effettivamente soggetto a rischio, comunemente definito
Adjusted Exposure (AE), è dato dal valore dell’utilizzato più una
frazione, UAD (Usage At Default), del margine ancora disponibile
pari alla differenza tra accordato e utilizzato. Secondo una logica
simile a quella della teoria dell’opzione, l’apertura di credito può,
pertanto, essere suddivisa in due parti: la componente rischiosa,
individuata come sopra, e quella non rischiosa.
La UAD si può assimilare a un diritto di opzione che viene
concesso dalla banca al prenditore a fronte di un premio, ossia ad
una commissione di impegno, che viene corrisposta dall’affidato.
In questo caso, l’unico limite è rappresentato dal massimale
concesso che opera come un “cap”.
La UAD rappresenta per l’affidato una sorta di assicurazione
contro l’eventualità di non poter più finanziare le proprie attività
13
I tassi di attualizzazione da applicare sono correlati negativamente alle classi di rating,
risultando naturalmente più bassi per quelle migliori, e positivamente agli orizzonti temporali,
assumendo valori più alti per le scadenze più lontane.
Il rischio di credito 439
Figura 7.5 I fattori a rischio dell’apertura di credito
Componente rischiosa:
Utilizzato + (Accordato-Utilizzato)UAD
APERTURA DI CREDITO
Componente non rischiosa:
(Accordato – Utilizzato) (1-UAD)
.La stima di tale variabile si presenta, tuttavia, complessa,
poiché differisce per ogni apertura di credito al variare delle
condizioni finanziarie dell’affidato. E’ perciò necessario fare
attente previsioni sul tasso d’utilizzo in caso di insolvenza, poiché
in genere all’approssimarsi della crisi di impresa il prenditore tende
ad accentuare il ricorso al prestito per sopraggiunta incapacità di
generare i normali flussi di cassa
Il metodo più semplice può essere implementato con le
informazioni relative all’effettivo grado di utilizzo delle linee di
credito disponibili presso ciascuna banca; la maggior parte delle
esposizioni sono revocabili per cui non è detto che raggiungono i
limiti indicati da Asarnow e Marker 14. Infine, ci sono forti
14
Asarnow E., Marker J. (1995) hanno elaborato una prima stima di tale variabile per i loan
commitments, generando una distribuzione dei valori dell’impegno di affidamento per ogni classe di
rating. .La seguente tabella mostra il grado di utilizzo medio dei Loan Commitments della Citybank
in funzione della classe di rating.
Classe di rating
Percentuale di
credito utilizzato(a)
Percentuale media di
utilizzo del credito*
(b)
Componente rischiosa =
= (a) + (b) [1-(a)]
AAA
0,1%
69.0%
69.03%
AA
1.6%
73.0%
73.43%
A
4.6%
71.0%
72.33%
BBB
20.0%
65.0%
72.00%
BB
46.8%
52.0%
74.46%
B
63.7%
48,0%
81.12%
CCC
75.0%
44.0%
86.00%
* normalmente non utilizzata in caso di default
440 Capitolo 7
difficoltà nel monitorare le variazioni della UAD al mutare delle
condizioni finanziarie dell’affidato anche in virtù che la relazione
banca/cliente non sia esclusiva e globale ma venga inficiata dalla
pratica diffusa dei fidi multipli.
7.7 La perdita attesa e inattesa della singola esposizione
Dopo aver individuato i driver del rischio di credito, è possibile
procedere ulteriormente nell’analisi per definire una prima misura
del rischio associato ad una data posizione debitoria e, quindi,
all’intero portafoglio. Si consideri una singola posizione debitoria
della quale sono noti i tre elementi caratterizzanti – PD, LGD, EAD
– introdotti in precedenza e riferiti ad un orizzonte temporale di un
anno. Nel breve periodo, è ragionevole accettare una visione
dicotomica dello stato di solvibilità del debitore corrispondente ai
due eventi default/non default. Da un punto di vista formale,
l’incertezza sul futuro merito creditizio del debitore può essere
modellizzata attraverso l’introduzione di una variabile casuale
Bernoulliana15, D, che assume valore 1 per l’evento di default con
probabilità PD e valore 0 per l’evento non default con probabilità
1-PD:
DBer (PD)
Nella figura 7.6 viene rappresentato l’istogramma della
Bernoulliana considerata.
Figura 7.6 – Istogramma della bernoulliana
1-PD
PD
D=0
D=1
D
Figura 1.1
15
La variabile casuale di Bernoulli viene spesso impiegata per trattare i fenomeni che danno
origine unicamente a due eventi tra loro incompatibili del tipo sucesso/insuccesso.
Il rischio di credito 441
Moltiplicando per LGD la variabile casuale D si ottiene una
nuova variabile casuale, trasformazione lineare della precedente,
che esprime la perdita della posizione debitoria nei due casi
esaminati, con le rispettive probabilità. Al termine del periodo
considerato, quindi, la perdita sarà pari a LGD con probabilità PD,
oppure 0 con probabilità 1-PD. Il valore atteso della variabile
casuale LGDD viene definito tasso di perdita atteso (Expected
Loss Rate, ELR) e rappresenta una misura indicativa della frazione
di credito che verrà persa, tenendo allo stesso tempo conto della
perdita in caso di insolvenza e della probabilità che questa si
verifichi:
ELR  LGDPD
[7.16]
Il prodotto fra il tasso di perdita e l’esposizione in caso di
insolvenza viene denominato perdita attesa (Expected Loss, EL) ed
esprime in termini assoluti l’ordine di grandezza della possibile
perdita:
EL  EAD  ELR
 EAD  LGD  PD
[7.17]
Con la definizione del concetto di perdita attesa si è introdotta
una prima forma di misurazione del livello di rischio associato ad
una singola posizione secondo l’approccio “default mode”, per il
quale la perdita si manifesta solo a seguito dell’insolvenza del
debitore. Per una corretta interpretazione di tali misure, tuttavia, è
importante soffermarsi ulteriormente sul procedimento impiegato
per ottenerla. La modellizzazione sull’esito di un credito, attraverso
una variabile casuale, rappresenta un’utile formalizzazione di un
evento futuro e, in quanto tale, incerto. In altri termini, lo stato
d’incertezza sugli accadimenti futuri viene espresso ricorrendo ad
una formalizzazione, seppure semplificata dei possibili eventi ed
associando a questi una misura del grado di fiducia che si ripone
nella loro verificabilità.
442 Capitolo 7
ESEMPIO: Calcolo dell’EL
Posto una esposizione a rischio è pari a 100.000 euro, una
PD ad un anno del 5 e una perdita in caso di insolvenza
del 40 del debito, il valore della perdita attesa (EL) si
calcola come segue:
ELR  0.40.05  0.02
EL  0.02100.000  2.000
La perdita attesa di una singola esposizione rappresenta una
misura espressa a priori, che tiene conto sia della dimensione della
perdita, sia della probabilità che questa si verifichi. In quanto media
ponderata in base alla probabilità dei due possibili risultati, la
perdita attesa è un valore intermedio tra questi. Si noti, tuttavia, che
al termine del periodo considerato la perdita effettiva sarà pari ad
uno solo dei due valori ipotizzati, cioè 0 oppure EADLGD, e
quindi diversa dalla perdita attesa. Da un punto di vista
probabilistico, la perdita attesa non è altro che una misura globale
di una distribuzione, che fornisce una prima indicazione di quanto
vicino ad un valore o all’altro la perdita tende a collocarsi, tenuto
conto delle rispettive probabilità. Facendo riferimento a una singola
posizione debitoria, quindi, ha senso considerare la perdita attesa
come una valida previsione della perdita effettiva solo su un
numero sufficientemente ampio di periodi. Su un orizzonte
temporale limitato, invece, occorre considerare non solo la perdita
attesa ma anche la sua variabilità, ossia quanto la perdita effettiva
può, in senso probabilistico, discostarsi dalla perdita attesa. Per il
tasso di perdita, la misura solitamente impiegata per determinare la
variabilità della distribuzione è lo scarto quadratico medio,
definibile come perdita inattesa (Unexpected Loss Rate, ULR), nel
nostro caso abbiamo:
ULR  ( EL  0) 2 (1  PD)  ( EL  EAD  LGD) 2 PD ,
[7.18]
Il rischio di credito 443
ossia la perdita inattesa è espressa come somma degli scarti al
quadrato della perdita dal valore atteso (EL), ponderati con le
relative probabilità. Sostituendo ad EL il suo valore si ha, perciò:
ULR  ( EAD  LGD  PD ) 2 (1  PD)  ( EAD  LGD  PD  EAD  LGD ) 2 PD
[7.19]
da cui con semplici calcoli si ha:
ULR  EAD 2  LGD 2  PD 2 (1  PD)  ( EAD 2  LGD 2 )  ( PD  1)2 PD 
 EAD  LGD PD 2  PD3  PD3  PD  2PD 2
[7.20]
La perdità inattesa è, dunque, pari a:
ULR  EAD  LGD PD  PD 2
[7.21]
Assumendo un’esposizione unitaria si può porre:
ULR  LGD PD  PD 2
[7.22]
Non sorprendentemente, il tasso di perdita inatteso aumenta al
crescere di LGD e di PD. Lo scarto quadratico medio, infatti, non è
altro che la radice della media del quadrato degli scarti dal valore
atteso, ponderati in base alle rispettive probabilità. Pertanto, al
crescere di LGD aumenta lo scarto della perdita dal suo valore
atteso. Allo stesso modo, al crescere di PD aumenta il peso
attribuito a tale scarto16. E’ evidente che quanto maggiore è ULR,
tanto maggiore è il grado d’incertezza, e quindi il rischio, associato
all’esposizione. Il prodotto tra il tasso di perdita e l’esposizione in
16
Il termine sotto il segno di radice è lo scarto quadratico medio di D:
Sqm( D )  Var( D )  ( 0  PD )2  ( 1  PD )  ( 1  PD )2  PD  PD  ( 1  PD ) Si può dimostrare che
Sqm(D), per PD[0,1], è inizialmente crescente, raggiunge un punto di massimo per PD = 0,5 e
diventa poi decrescente. Pertanto, si può affermare che al crescere di PD cresce anche Sqm(D) in
quanto nel contesto in esame il range entro cui oscilla PD è sempre molto basso e largamente al di
sotto di 0,5.
444 Capitolo 7
caso di default viene definito perdita inattesa (Unexpected Loss,
UL):
UL  EAD  ULR
[7.23]
 EAD  LGD  PD  (1  PD)
ed esprime in termini assoluti, anziché relativi, la variabilità
dell’esposizione.
ESEMPIO: Stima dell’ULR
L’importanza della variabilità della distribuzione come indicatore del
rischio può essere correttamente valutata confrontando distribuzioni simili.
Tralasciando per semplicità l’esposizione in caso di insolvenza, si
considerino due esposizioni, A e B, caratterizzate dai seguenti elementi di
rischio:
A:
B:
PDA=
PDB=
0.10
0.04
LGDA=
LGDB=
0.2
0.5
Si verifica facilmente che i due crediti hanno il medesimo tasso di
perdita atteso:
A:
B:
ELRA=
ELRB=
0.100.2=0.02
0.040.4=0.02
L’esposizione A è caratterizzata da una probabilità di default
particolarmente elevata e da un basso tasso di perdita in caso di insolvenza.
Viceversa, per l’esposizione B si ha una probabilità di default molto bassa
ma un alto tasso di perdita. Pertanto, ai fini di una corretta misurazione del
rischio, le due esposizioni, sebbene abbiano la stessa perdita attesa, non
possono essere considerate identiche.
Osservando la figura 7.7, infatti, si può notare come l’esposizione A
tenda ad essere più concentrata intorno al suo valore atteso di quanto invece
non avvenga per l’esposizione B. Tale impressione è confermata dalla
misurazione dei due scarti quadratici medi:
A:
ULRA=
0.2 0.10(1  0.10) =
0.06
Il rischio di credito 445
B:
ULRB=
0.5 0.041  0.04  =
0.0980
Se ne deduce, quindi, che il livello di incertezza sull’esito finale del
credito associato all’esposizione A è maggiore rispetto all’esposizione B.
Nella figura 7.7 viene rappresentata la relazione tra probabilità
di insolvenza e perdita attesa per le due esposizioni, rispettivamente
Ae B di cui all’esempio riportato sopra.
Figura 7.7 – Probabilità di insolvenza e tasso di perdita attesa
446 Capitolo 7
Graficamente, (fig. 7.8) con riferimento alla esemplificazione
sulla stima dell’ULR, in ipotesi di LGD costante, la relazione fra
probabilità di insolvenza e ULR può essere rappresentata per le due
esposizioni A e B come segue.
Figura 7.8 – Probabilità di insolvenza e tasso di perdita inatteso
Qualora si ipotizzi anche una volatilità del tasso di recupero, la
relazione precedente si modifica nel modo seguente:
ULRLGD  PD(1  PD)(1  LGD) 2  PD
2
LGD
[7.24]
Il rischio di credito 447
7.8 Limiti e problemi dell’approccio binomiale. L’approccio
multinomiale
L’approccio binomiale, secondo la logica default mode, si
muove solo su due possibili stati, per cui il fattore di rischio è
rappresentato da una variazione inattesa della probabilità di
insolvenza e da un eventuale possibile diminuzione del tasso di
recupero, trascurando il deterioramento del merito creditizio e il
diverso grado di rischio associato a una maggiore vita residua del
credito.
Si osserva, infatti, come nel caso di una durata del credito
inferiore a 1 anno, l’eventualità di deterioramento del merito
creditizio non assuma rilevanza, poiché la perdita sarà pari, in caso
di default, al completamento a 1 del tasso di recupero; viceversa, la
migrazione diventa un fenomeno non trascurabile nel caso di durata
del credito superiore all’anno.
Per ovviare a tale problema, si rende necessario: a)
implementare un sistema di rating al fine di assegnare ad ogni
obbligato ad una specifica classe secondo una scala ordinale, dalla
quale è desumibile il tasso di insolvenza atteso; b) costruire una
matrice di transizione pluriennale, da cui ottenere il tasso di
insolvenza di un prenditore appartenente alla stessa classe di merito
nell’orizzonte temporale considerato e valori differenti di tassi di
insolvenza in caso di migrazioni verso altre classi di rating.
Il fenomeno della migrazione verrà sviluppato procedendo alla
valutazione del processo a due stati di default, per poi,
successivamente, stimare il più completo rating process,
caratterizzato da un numero di stati maggiore di due (rispetto ai
quali il default è un caso particolare). Osserviamo preliminarmente
che, da un punto di vista statistico, le migrazioni creditizie possono
essere viste come esperimenti multinomiali17 Esse possono essere
analizzate ricorrendo alla teoria delle catene di Markov, cui si
rinvia18. Su queste basi uno strumento essenziale per lo studio del
17
Un esperimento multinomiale è un'estensione del concetto di esperimento binomiale
(stilizzato con il lancio di un moneta), utilizzato per modellare il default. L'esperimento multinomiale
(stilizzabile con il lancio di una “moneta a più facce”) consiste nell'esecuzione di n prove, ciascuna
delle quali può avere k possibili risultati. Con riferimento al nostro caso, siamo interessati a
modellare i k possibili rating che possono avere un prenditore o un'emissione in n anni.
18
Cfr. Baldi P. (1992).
448 Capitolo 7
processo di rating è dato dalla più volte citata matrice di
transizione o di migrazione. In questo contesto possiamo definirla
come una matrice. Q(t), il cui generico elemento pij(t) esprime, con
riferimento ad un orizzonte temporale t, la probabilità del borrower
o della facility19 di migrare dallo stato i allo stato j. La matrice di
transizione fornisce, pertanto, l'evoluzione del profilo di rating ad
un certo istante, senza alcuna indicazione, però, sulla dinamica
della migrazione. Per esempio, un prenditore che migri alla classe
C, partendo da A, potrebbe pervenirvi in modo diretto oppure
passando dal livello B o dal livello D, etc. Per avere un
rappresentazione dinamica della migrazione è necessario mettere a
confronto matrici relative a periodi diversi (e preferibilmente
contigui).
Quanto esposto può meglio essere formalizzato asserendo che,
essendo RT il processo di rating, con t = 0, ..., T, è:
L'espressione esprime la probabilità condizionata che, dato il
rating iniziale di ordine i rispetto ai K possibili, dopo t periodi
questo sia pari a j20.
Le matrici di transizione possono essere studiate in termini
teorici od empirici. Nel primo, caso ci possiamo chiedere quale
relazione esista tra matrici relative ad orizzonte temporali diversi,
in particolare, si può derivare per via teorica le matrici a t anni a
partire da quelle ad 1 anno. È, poi, possibile stimare le probabilità
sulla base di osservazioni empiriche relative alle frequenze storiche
delle migrazioni verso i diversi stati creditizi.
Con riferimento al primo punto si può mostrare che:
Q(t)= Qt
[7.25]
19
Come è ovvio, il giudizio sul merito creditizio può interessare il prenditore o le singole
esposizioni. Le considerazioni che svolgeremo in questa sezione si applicano indifferentemente
all'uno o all'altro dei casi. Di seguito, perciò, ci riferiremo genericamente alle migrazioni che
interessano i prenditori, restando sottinteso che, salvo quando diversamente specificato, l'analisi è
replicabile nel contesto del facility rating.
20
In un'applicazione pratica è necessario specificare l'unità temporale usata e l'istante di
rifermento. In questo contesto parliamo genericamente di “periodo t” per non appesantire
l'esposizione. Il lettore può supporre che i periodi siano annuali e che il rating faccia riferimento
all'inizio del periodo (inizio dell'anno).
Il rischio di credito 449
dove:
Q:= Q(1)
[7.26]
Rinviando all'appendice 7C per la dimostrazione formale della
7.25, ci limitiamo qui a fornire una giustificazione intuitiva. A tal
fine, ricordiamo preliminarmente che (secondo la teoria
assiomatica) la probabilità che si verifichi l'evento A e l'evento B,
sotto ipotesi di indipendenza, è data dal prodotto delle loro
probabilità individuali, ossia pApB, mentre quella che si verifichi o
l'uno l'altro degli eventi è data dalla somma della probabilità
individuali, pA + pB
Stante l'irrilevanza nella 7.25 dei periodi intermedi (siamo
interessati solo allo stato di partenza ed a quello di arrivo),
osserviamo che esistono varie alternative di migrazione da i a j nel
periodo considerato: più sono i periodi, più sono possibili diverse
combinazioni di percorsi per raggiungere un certo stato. Ad
esempio, con t = 2 e K= 3 i percorsi possibili per passare dallo stato
1 allo stato 3 sono, con ovvio significato dei simboli:
1 → 1 → 3, 1 → 2 → 3, 1 → 3 →3, 1 → 4 → 3
[7.27]
Ponendo pij:= pij(1), la probabilità che si pervenga allo stato
finale attraverso il primo percorso (ossia che si verifichi la pseudo-migrazione 1 → 1 e la migrazione 1 → 3) si ottiene dal prodotto di
p11p13; ne segue che la probabilità che si pervenga allo stato finale
attraverso uno qualsiasi dei percorsi possibili (ossia la probabilità
che si verifichi o il primo o il secondo o il terzo o il quarto
percorso) si ottiene sommando le probabilità dei singoli percorsi. Si
ha, quindi, che:
[7.28]
In base alla 7.25, la probabilità p13 di cui alla 7.26, deve
corrispondere all'elemento di posizione (1, 3) della matrice Q2.
Applicando il calcolo matriciale, si ha, infatti, che:
[7.29]
450 Capitolo 7
Le considerazioni sin qui svolte saranno oggetto di
un’applicazione. Nella figura 7.9 viene, all'uopo, rappresentata,
usando la metrica di Moody's, una matrice di transizione ad un
anno. Notiamo che tale tabella contiene anche una colonna
indicante la probabilità che l'impresa non venga più assoggettata al
rating, c.d.withdrawn rating (WR). Applicando la formule di cui
sopra, è possibile ricavare le matrici di transizione teoriche a due e
tre anni, di cui alle figure 7.10 e 7.11. A tal fine, posta pari a
la
matrice di migrazione ad 1 anno (figura 7.9), a meno delle colonne
“Def” e “WR”, le tabelle di cui alle figure 7.10 e 7.11 sono
ottenute, in applicazione della 7.25, calcolando Q2 Q3. Possiamo
provare a verificare la 7.26 e la 7.27 con riferimento alla tabella di
cui alla figura 7.10. Osserviamo che con la metrica usata la
probabilità p13 va intesa come la probabilità di migrare dopo due
anni dallo stato AAA a quello Aa2, in simboli p AAA,Aa2. Si rileva
come i percorsi possibili per tale transizione siano i seguenti 17:
Nel primo percorso, ad esempio, si ipotizza che la migrazione in
due anni da Aaa ad Aa2 avvenga migrando da Aaa ad Aaa il primo
anno e da Aaa ad Aa2 il secondo anno.
Posta la stabilità dei tassi di migrazione, essendo indipendenti, la
probabilità congiunta è data dal prodotto delle probabilità di
transizione annuali desunte dalla tabella di cui alla figura 7.9
pAaa,AaapAaa,Aa2 con riferimento a tutti i possibili percorsi si ha:
Il rischio di credito 451
Le probabilità dei singoli percorsi
Poiché l'intersezione degli eventi indicati nella prima colonna
della tabella è vuota, la probabilità del loro alternativo verificarsi
può essere calcolata sommando le loro probabilità individuali;
perciò in base alla seconda colonna della tabella si ha:
[7.30]
Sommando i valori della terza colonna della tabella, possiamo
risolvere:
452 Capitolo 7
Guardando attentamente alla probabilità p Aaa,Aa2,, si può notare
come questa possa intendersi come prodotto della riga 1 per la
colonna tre della matrice di migrazione Q. Ricordando la regola del
prodotto matriciale, tale probabilità deve anche corrispondere alla
cella (1,3) della matrice Q(2). Invero nella tabella di cui alla figura
7.10, possiamo notare come la probabilità di migrazione da Aaa a
Aa2 è proprio 5.56%, il che costituisce, peraltro, una
giustificazione logico-intuitiva della 7.25.
Tornando alla figura 7.9, possiamo notare anche come la stessa
migrazione di classe, ma con riferimento ad un orizzonte di un solo
anno, presenti un valore pari a 3.13% < 5.56%. Il che significa che
è più probabile subire un downgrading in 2 anni piuttosto che in 1.
Abbiamo così calcolato la probabilità teorica di migrare dallo
stato Aaa allo stato Aa2 in due anni. Per ottenere un'intera matrice
questi stessi calcoli, pur non brevi, andrebbero replicati tante volte
quante sono le celle della matrice (con la nostra ipotesi
semplificatrice 17X17=289). Se, poi, siamo interessati a valutare
un orizzonte temporale più lungo di due anni (tre, quattro etc.),
dobbiamo reiterare il procedimento relativo a due anni tante volte
quanti sono i periodi aggiuntivi (ad esempio, con tre anni la
procedura qui seguita andrebbe replicata 17X17X2=578 volte!).
Ovviamente è impensabile eseguire questi calcoli in modo per così
dire manuale; nei contesti operativi dovranno impiegarsi appositi
tool applicativi che consentano di produrre tali valori con
continuità ed efficienza21.
Venendo ora al problema della stima, indichiamo con n i(t) e
nij(t) rispettivamente il numero di imprese che si trova nello stato i
al tempo t e il numero di imprese nella classe i in t che passa a j in t
+ 1.
21
Nel nostro caso le tabelle di cui alle figure 7.10 e 7.11 sono state ricavate tramite un software
dedicato all'algebra matriciale, MatLab.
Il rischio di credito 453
La probabilità di transizione da i a j, entro il periodo t valutata
all'inizio del periodo, può essere stimata come:
[7.31]
Possiamo affinare i nostri calcoli raccogliendo le osservazioni
relative a più periodi. In tal caso, se il set di imprese/emissioni
sottoposte a rating fosse costante nel tempo, si potrebbe stimare la
probabilità di migrazione uniperiodale utilizzando semplicemente
la probabilità di transizione media osservata durante l'arco
multiperiodale considerato. Nella pratica, però, il rating può essere
sospeso, ossia l'agenzia di rating può non emettere più il giudizio di
merito per un dato prenditore (o un dato strumento finanziario). È,
allora, necessario definire dei criteri per trattare queste tipologie di
serie, che tendono ad essere la norma piuttosto che l'eccezione. In
genere si assume che l'assenza di rating debba essere considerata in
senso inferenziale come non informativa. Ne segue che il ritiro del
rating da parte dell'agenzia comporta l'esclusione dal computo della
probabilità di transizione delle relative osservazioni rispetto ai
periodi in cui non si è prodotto il rating.
Su questa base, se supponessimo che gli esperimenti
multinomiali con cui viene rappresentato il processo di rating siano
indipendenti, possiamo determinare lo stimatore di massima
verosimiglianza per la probabilità di migrazione come:
[7.32]
Dove, per quanto detto, andranno esclusi quei periodi per cui
non sussiste rating.
Il limite principale di un processo markoviano è la stabilità dei
tassi di migrazione, ossia la probabilità di default con cui un
soggetto, che si muove da una classe ad un’altra, risulti
indipendente dalla propria storia passata e costante e uguale per
tutti i soggetti classificati nella stessa classe. La stima della perdita
454 Capitolo 7
inattesa ULRj,t,relativa a un credito di rating j con vita residua pari
a t, potrebbe essere calcolata, con un’approccio semplificato, come
radice quadrata del prodotto tra tasso di migrazione (TM j,t) per gli
scarti al quadrato delle differenze tra la perdita attesa del credito di
classe i e vita residua t-1 e la perdita attesa di un credito di classe j
e scadenza t-1, in ipotesi di una LGD costante.
La formula dovrebbe essere modificata in relazione alla
possibilità che la perdita attesa associata ad ogni classe di rating
possa risultare superiore a quanto stimato per effetto della volatilità
della LGD. Invero, tale approccio prende in esame solo la perdita
originata dal default e non quella manifestatasi per effetto del
deterioramento del merito creditizio. A tal fine, si deve
approfondire la relazione che susissiste tra valore dell’esposizione e
rating assegnato. Al riguardo, soluzioni diverse sono prospettate
nei modelli industriali dei quali citiamo l’approccio di Credit
Metrics che sarà sviluppato nel capitolo successivo
Il rischio di credito 455
Figura 7.9
456 Capitolo 7
Figura 7.10
Figura 7.11
Il rischio di credito 457
458 Capitolo 7
7.9 Dalla perdita della singola esposizione alla perdita di
portafoglio
Nel paragrafo precedente sono stati introdotti gli elementi
fondamentali per la definizione del rischio di credito e si è visto
come questi vengano impiegati nella misurazione del livello di
rischio associato ad una singola esposizione. I concetti esposti
possono essere estesi e opportunamente integrati ai fini della
misurazione del rischio che caratterizza un intero portafoglio
crediti.
Si consideri ora un portafoglio composto da N esposizioni, per
ciascuna delle quali siano noti i tre elementi caratterizzanti, PDi,
LGDi, EADi, i=1,2,...,N. Così come per una singola esposizione,
una prima misura del rischio di portafoglio è data dalla perdita
attesa del portafoglio, facilmente ottenibile dalla somma delle
singole perdite attese:
N
EL   PDi  LGDi  EADi
i 1
[7.33]
N
  ELi
i 1
Avendo modellizzato il fenomeno della perdita in termini di una
variabile casuale, infatti, la perdita di portafoglio non è altro che la
somma delle singole perdite, essendo lineare ed additiva; il suo
valore atteso, quindi, è ottenuto semplicemente sommando i singoli
valori attesi. Il tasso di perdita atteso, cioè la frazione del valore del
portafoglio soggetta a rischio, si ottiene dividendo la perdita attesa
per la sommatoria delle esposizioni in caso di default:
ELR 
N
EL
N
 EAD
i 1
  wi  LGDi  PDi
[7.34]
i 1
i
dove wi  EAD  EAD i rappresenta il peso della singola
esposizione sull’intero portafoglio.
Il rischio di credito 459
La perdita attesa di portafoglio, intesa come misura del rischio
di un portafoglio crediti, presenta tuttavia un problema analogo a
quello della perdita attesa di una singola esposizione. In generale, il
valore atteso fornisce un’indicazione sintetica sull’andamento di
una distribuzione di probabilità; in altri termini, esso esprime una
misura orientativa del valore intorno al quale tende a localizzarsi
(ossia a concentrarsi) una distribuzione. Per un portafoglio crediti,
quindi, la perdita attesa rappresenta di certo un’utile informazione
della rischiosità sottostante, ma non è per sé sufficiente a fornire
una misura esaustiva della perdita del portafoglio stesso. Se
l’obiettivo è quello di misurare la possibile perdita futura associata
ad un portafoglio, in modo da adottare degli opportuni
provvedimenti cautelativi, la sola perdita attesa, presa
singolarmente, non è una misura idonea a soddisfare tale esigenza.
E’ importante individuare la corretta prospettiva entro cui il
concetto di perdita attesa deve essere giudicato. Con la misurazione
della perdita attesa si cerca di stimare a priori l’ordine di grandezza
della perdita che potrà derivare dal portafoglio. Tuttavia, la perdita
effettiva, in quanto somma di eventi incerti, si rivelerà a posteriori
sempre diversa dalla perdita attesa. Come visto per una singola
esposizione, quindi, nel quantificare il rischio di portafoglio crediti
diventa indispensabile selezionare una misura della variabilità della
perdita intorno al valore atteso. E’ necessario tenere conto della
perdita inattesa, ossia della possibilità che la perdita effettiva sia
superiore a quella attesa. Anche in questo caso, si può impiegare lo
scarto quadratico medio per misurare la rappresentatività del valore
atteso come indice sintetico della distribuzione. A livello di
portafoglio, infatti, subentra un ulteriore elemento di incertezza che
influisce sulla variabilità complessiva: la correlazione fra diverse
esposizioni. Quindi va valutata l’influenza che ogni esposizione
può manifestare sulla probabilità di default delle altre esposizioni
di cui si compone il portafoglio. Si consideri per semplicità un
portafoglio composto unicamente da due esposizioni A e B. Ai fini
di una corretta valutazione delle perdite cui il portafoglio è soggetto
non è sufficiente la conoscenza delle singole perdite inattese –cioè
ULA e ULB–, ma è necessario tener conto della variabile congiunta,
ossia del grado di influenza reciproca che può istaurarsi tra due
posizioni. L’indice solitamente impiegato per studiare il grado di
460 Capitolo 7
dipendenza reciproca sugli eventi di default di una coppia eventi di
default/non-default è il coefficiente di correlazione lineare: Corr
(DA, DB). La figura 7.12 può essere utile per comprendere
intuitivamente l’importanza della correlazione nella determinazione
della complessiva variabilità del portafoglio.
Figura 7. 12 – Alberi a cascata
Nella figura sono riportati più alberi “a cascata”, ciascuno dei
quali evidenzia una diversa forma di correlazione. Senza perdita di
Il rischio di credito 461
generalità nella figura si sottintende che gli eventi di default/non
default avvengano secondo una precisa successione: dapprima si
osserva l’esito dell’esposizione A e successivamente viene a
determinarsi, a seconda del tipo di correlazione esistente, l’esito
dell’esposizione B. Operando in questa ottica, attraverso la
correlazione si misura il modo in cui le probabilità di default di B si
modificano in funzione dell’esito di A. Si consideri come
benchmark il caso in cui la correlazione è nulla, Corr (D A, DB) = 0.
In assenza di correlazione, i due eventi sono tra loro indipendenti.
Le probabilità di default di A non alterano le probabilità di default
di B e viceversa. La presenza di correlazione, invece, fa sì che il
default o non default della prima esposizione modifichi le
probabilità di default dell’altra (come evidenziato dal segno di
collegamento più marcato). Una correlazione positiva, Corr (DA,
DB) > 0, implica che i due eventi tendono a muoversi nella stessa
direzione. Si ha una propensione al contemporaneo verificarsi degli
eventi di default o non default dei due crediti. In altri termini, il
default di A aumenta la probabilità di default di B, mentre il non
default di A aumenta la probabilità di non default di B. Al
contrario, una correlazione negativa, Corr (DA, DB) < 0, indica una
tendenza ad un movimento inverso dei due eventi: il default di una
esposizione riduce le probabilità di default dell’altra.
Da tali considerazioni emerge con chiarezza l’importanza della
correlazione nella misurazione della variabilità del portafoglio. Si
può dimostrare che per il semplice portafoglio considerato la
perdita inattesa, cioè lo scarto quadratico medio della distribuzione,
possa essere espressa come:
UL i  UL2A  UL2B  2  ULA  ULB  Corr  DA , DB 
[7.35]
dove ULi, per i = A,B, è la perdita inattesa della singola
esposizione.
Il tasso di perdita inatteso riferito all’intero portafoglio diventa:
ULP  wA2  UL2A  wB2  UL2B  2  wa  wB  ULA  ULB  Corr  DA , DB  [7.36]
462 Capitolo 7
Come può dedursi dalla espressioni appena ricavate, la
correlazione, in quanto misura della variabilità congiunta degli
eventi di default, diventa una componente della variabilità del
portafoglio. Proseguendo il ragionamento sviluppato in precedenza,
la presenza di una correlazione positiva aumenta la variabilità della
perdita in quanto vi è una tendenza ad uno spostamento congiunto
sull’esito delle due esposizioni. Al contrario, una correlazione
negativa riduce la variabilità del portafoglio poiché la tendenza al
movimento inverso tra le due esposizioni compensa le singole
variabilità.
Estendendo gli effetti della diversificazione su un portafoglio
caratterizzato da n titoli, si ha
UL P 
n
n
 w w
i 1 j 1
i
j
 i , j UL i UL j
[7.37]
ne consegue che il contributo di ciascun prestito sulla rischiosità
complessiva del portafoglio dipende dal livello della perdita attesa,
dal peso di ciascuna posizione sulla esposizione complessiva del
portafoglio e dalla correlazione tra la singola esposizione con le
altre del portafoglio.
La contribuzione marginale di un singolo prestito
Ai fini della politica dei prestiti in una logica di portafoglio è
interessante stimare il contributo marginale del singolo prestito sul
rischio complessivo di portafoglio (ULMCi)22, per verificarne vuoi
l’impatto sulla redditività attesa, vuoi l’effetto sul livello di
diversificazione e, quindi, sul grado di concentrazione. Definiamo
contribuzione di rischio marginale come l’incremento marginale di
rischio della singola esposizione sul rischio complessivo del
portafoglio . Analiticamente si deve calcolare la derivata parziale
della perdita attesa del portafoglio rispetto alla perdita attesa del
prestito i-esimo.
22
L’analisi si sviluppa secondo l’impostazione di Ong M.K., (1999), (p. 127), escludendo dalla
derivazione di ULC la ponderazione di w i, ed assumendo che la perdita inattesa sia espressa come
misura monetaria piuttosto che una percentuale dell’intero portafoglio.
Il rischio di credito 463
ULMC i 
 UL P 
UL i

 UL P2 
UL i
1
2
1
   UL P2 
2
 n n
  UL j UL k 
 1   j 1 k 1
 

UL i
 2UL P 
1
2
 UL P2 
UL i
n

UL j  ij
jk 

  j 1
UL P
[7.38]
Dalla formula si evince come il contributo marginale di ciascun
prestito alla volatilità del portafoglio dipenda dall’incidenza
percentuale della perdita attesa dei singoli prestiti caratterizzanti il
portafoglio. Volendo esprimere la volatilità del portafoglio in
termini di volatilità del prestito i-esimo, possiamo anche riscrivere
la formula del contributo marginale come segue:
n
UL P 
UL
j 1
UL i
P
n
UL I  ULMC i UL i
[7.39]
i 1
Se l’incidenza percentuale di ciascun prestito nel portafoglio
rimane costante risulta costante anche il contributo marginale della
volatilità di ciascun prestito sulla volatilità complessiva del
portafoglio
Posto che ULi/ULP sia costante, si ha che
n
UL P  ULMC i * UL i
[7.40]
i 1
La relazione esprime come la volatilità del portafoglio sia pari al
prodotto della sommatoria dei contributi marginali di ciascun
componente del portafoglio per la UL di ogni prestito.
Possiamo pertanto stimare il contributo totale della volatilità di
ciascun prestito (ULCi) come23:
23
Per un’analisi maggiormente dettagliata cfr. Ong M.K., (1999) pp.132-134.
464 Capitolo 7
n
ULC i  ULMC i *UL i 
24
UL
j 1
j
 ij
[7.41]
UL i
UL P
da cui si desume la proprietà che la sommatoria degli ULC i
equivale alla volatilità del portafoglio, essendo:
n
n
UL
n
 ULC  UL
i
i 1
i 1
j 1
i
j
UL 
UL P
n
n
i 1
j 1
 UL UL
 ij
i
j
 ij
UL P

UL2P
 UL P
UL P
[7.42]
Ne consegue che la contribuzione marginale è una misura di
rischio non diversificabile della singola posizione sull’intero
portafoglio.
Contribuzione marginale e correlazione di default
Assumendo che il portafoglio sia caratterizzato da n prestiti che
approssimativamente presentano le stesse caratteristiche e sono di
importo uguale (1/n), si ha che ij== costante (per tutti i  J).
Riscrivendo l’equazione 1.9.5 si ha:
n
UL P 
n
  cov i , j 
i 1 j 1
n
 var
i 1
n
 cov i , j
j ,i  j
[7.43]
da cui si dovrebbe ulteriormente derivare che:
n
UL
UL P 
i 1
2
i
2  cov i , j 
i, j j
n
UL
i 1
2
i
n
 2  UL i UL j 
i ,i  j
n(n  1)
 nUL  2
UL i   n   n(n  1)UL 2i 
2
2
2
i
24
Cfr Ong M.K. (1999) p. 127
[7.44]
Il rischio di credito 465
si ha , pertanto, che :
UL P  UL i n   (n 2 n)
1.21
Assumendo quindi l’ipotesi di crediti di analogo importo
possiamo riscrivere la contribuzione marginale del prestito i-esimo
(ULCi) come:
UL P 1
1
1
 UL i n   (n 2 n)  UL
  (1  )
n
n
n
n
i
ULC i 
[7.45]
che per valore di n elevati può essere ridotta:
ULC i  UL i 
[7.46]
Combinando la 1.9.9 e la 1.9.14, possiamo riscrivere:
n

UL
j 1
j
 i, j
UL P
[7.47]
dove  esprime la media ponderata delle correlazioni tra i
prestiti.
Dall’analisi svolta emerge quanto segue:


per il calcolo della perdita inattesa di un portafoglio
applicando la 7.46 si deve stimare [n(n-1)]/2 correlazioni;
circostanza invero di difficile soluzione essendo il
portafoglio caratterizzato da un numero elevatissimo di
posizioni25;
l’applicazione della 7.46 non prende in considerazione
prestiti di ammontare diversi e fattori di correlazione di
natura differente, non consentendo, quindi, di valutare la
concentrazione del portafoglio.
25
Un portafoglio commerciale di medie dimensioni include 2000 posizioni, rispettto alle quali
si deve procedere alla stima di 1.999.000 correlazioni, cfr. Ong, M.K. (1999), p. 142
466 Capitolo 7
Correlazioni e concentrazione del rischio e diversificazione
attraverso la stima dell’asset correlation
La correlazione, la concentrazione del rischio e la
diversificazione sono aspetti diversi di un unico problema. Per
minimizzare il calcolo del numero delle defaul correlation e
mettere in evidenza gli effetti del rischio di concentrazione occorre
individuare i fattori casuali comuni che sono alla base delle
correlazioni di default.
La presenza del rischio sistemico, quale l’appartenenza delle
imprese a settori produttivi o aree geografiche omogenee, non
consente di eliminare il rischio attraverso la diversificazione, ossia
la variabilità del tasso medio registrato dal portafoglio, mediante
selezioni di impieghi a bassa correlazione.
Si potrebbero inoltre considerare anche i fattori macroeconomici
(PIL, variazione tassi di interesse) per spiegare l’evoluzione del
merito creditizio delle imprese.
Una delle metodologie al riguardo utilizzate per la stima della
correlazione si basa sul modello di option pricing, secondo il quale
la probabilità congiunta di insolvenza di due imprese viene
determinata in funzione del grado di correlazione fra le variazioni
del valore di mercato delle loro attività, che può determinare
l’insolvenza di entrambe.
Si può pertanto raffigurare la distribuzione di probabilità di tutti
i possibili valori futuri, ad esempio, di due imprese e stimarne la
probabilità di default in ipotesi di scenari più sfavorevoli in cui il
valore dell’attivo sia inferiore a quello del debito. Si procede,
quindi, alla valutazione congiunta delle probabilità di default delle
due imprese, appartenenti allo stesso “cluster” geosettoriale, con le
stesse modalità analizzate nel paragrafo precedente. L’ipotesi di
correlazione e quindi il calcolo delle probabilità, associate ai
relativi eventi, richiede di analizzare i fattori dai quali dipendono le
variazioni degli attivi delle due imprese. Supponendo di
individuare due componenti, una macroeconomica e una
idiosincratica, le variazioni di valore risultano essere pari alla
media ponderata delle variazioni dei due fattori. Qualora si
attribuisca un peso pari a 100 al fattore macroeconomico, la
correlazione sarebbe positiva e pari a 1, viceversa, avrebbe valore
nullo se fosse pari a 100 il peso della componente idiosincratica.
Il rischio di credito 467
Solo in quest’ultimo caso, le probabilità associate all’evento
default sarebbero pari al prodotto delle probabilità di insolvenza
delle due imprese.
Ne consegue che una forte correlazione tra prenditori dello
stesso cluster sarebbe indice di una elevata presenza di fattori
macroeconomici, specularmente, segnali deboli di correlazione
sarebbero espressivi di una prevalenza di componenti
idiosincratiche.
Pertanto, occorre verificare per un’attenta politica della
diversificazione del portafoglio se, e in che misura, le imprese
appartenenti allo stesso cluster siano correlate tra insolvenze
all’interno dello stesso segmento e se, e in che misura, imprese
appartenenti a cluster diversi siano tra loro correlate in relazione a
singoli fattori macroeconomici.
Nel primo caso occorre accertare la presenza o meno di sensibili
escursioni del tasso di insolvenza medio; analiticamente, indicando
con σ2 la volatilità delle serie storiche dei tassi di decadimento, il
grado di correlazione medio tra i default dello stesso cluster è dato:

2
2
[ 7.48]
dove μ indica la probabilità di default di lungo periodo della
variabile binaria x che descrive il default dell’i-esimo prenditore
del cluster, ossia:

1
n
N
x
[ 7.49]
i
i 1
Al fine di stimare la correlazione media tra segmenti diversi
collocati tra aree geografiche o settori distinti, si deve stimare il
coefficiente di correlazione media di due imprese appartenenti a
cluster x e y:
 xy 

cov  x ,  y
 x   x 
2

y

 y

2
,
[ 7.50]
468 Capitolo 7
dove μx e μy sono le probabilità di insolvenza di lungo periodo
dei segmenti x e y.
7.10
La distribuzione delle perdite ed il capitale economico
Nella misurazione del rischio di un portafoglio crediti è di
fondamentale importanza la valutazione congiunta del valore atteso
delle perdite e della loro variabilità.
La prima misura rappresenta un indicatore dell’ordine di
grandezza della perdita. La seconda, invece, fornisce
un’indicazione sulla significatività del valore atteso come indice di
sintesi rappresentativo di una distribuzione. In altre parole,
calcolando la variabilità delle perdite intorno al valore atteso, si
cerca di determinare una misura dello stato di incertezza sull’esito
finale del portafoglio.
E’ necessario enfatizzare il ruolo della variabilità nella
misurazione del rischio di portafoglio. Dalla definizione di rischio,
esposta all’inizio del capitolo, può dedursi che il concetto di
rischiosità è strettamente connesso al verificarsi di un evento
inatteso. Quindi la perdita attesa non rappresenta la vera incognita
di un portafoglio di esposizioni.
Qualora un’istituzione finanziaria decida di concedere un
prestito ad una controparte, con la consapevolezza che questa potrà
subire un deterioramento della propria condizione di solvibilità, è
verosimile ritenere che tale ipotesi venga congruamente presa in
considerazione con la scelta di un appropriato tasso di interesse sul
prestito.
Paradossalmente, se la perdita di un portafoglio fosse nota a
priori con certezza, cioè con variabilità nulla, la banca non
dovrebbe fronteggiare alcun rischio in quanto tale perdita verrebbe
coperta e opportunamente ridistribuita fra le diverse controparti
caricando uno spread sul tasso del prestito.
Il rischio di credito, quindi, è più propriamente rappresentato
dalla perdita inattesa, ovvero dalla variabilità dell’evento dannoso
intorno al suo valore atteso.
Il rischio di credito 469
Figura 7. 13 – Distribuzione delle perdite
Ora, se si riconosce l’importanza della perdita inattesa nella
misurazione del rischio di un portafoglio crediti, occorre chiedersi
fino a che punto lo scarto quadratico medio fornisca un’adeguata
rappresentazione. Tale adeguatezza è a sua volta legata alla
asimmetria della distribuzione oggetto di valutazione. Nella Figura
7.13 la tipica distribuzione delle perdite di un portafoglio crediti
(dal tratto più marcato) viene confrontata con una distribuzione
simmetrica avente lo stesso valore atteso e scarto quadratico medio.
La distribuzione delle perdite è generalmente caratterizzata da una
notevole asimmetria positiva, cioè da una coda verso destra (long
tail). Ciò è dovuto alle specifiche caratteristiche del rischio di
credito. Da un lato, infatti, l’evento di default tende a verificarsi
con probabilità piuttosto ridotta, ma dando origine a perdite
consistenti. Dall’altro, l’evento di non-default, che si verifica con
un’alta probabilità, dà luogo ad una perdita nulla. Tale asimmetria
nei payoff e nelle probabilità genera la tipica asimmetria nella
distribuzione delle perdite di portafoglio. Lo scarto quadratico
medio viene definito come una misura simmetrica della variabilità,
in quanto non distingue fra scarti positivi e negativi rispetto al
valore atteso26. Per distribuzioni simmetriche, rispetto alle quali la
26
Lo scarto quadratico medio non è altro che la radice quadrata della varianza. Questa è data
dalla media, ponderata in base alle rispettive probabilità, del quadrato degli scarti tra i valori che la
distribuzione può assumere ed il valore atteso. Poiché nella varianza viene computato il quadrato
degli scarti, in modo da evitare che scarti positivi vengano compensati da scarti negativi, se ne
calcola la radice quadrata per esprimere la variabilità nella stessa unità di misura del fenomeno.
470 Capitolo 7
probabilità di avere scarti positivi è la stessa degli scarti negativi, lo
scarto quadratico medio fornisce un’indicazione di quanto più o
meno strette siano le code della distribuzione intorno al valore
atteso.
Figura 7. 14 – Distribuzione delle perdite: "il peso delle code”
Viceversa, per distribuzioni fortemente asimmetriche, quale la
distribuzione delle perdite di portafoglio, la variabilità è
principalmente imputabile agli scarti positivi, ovvero alla coda
lunga. Se ne deduce, allora, che per una corretta misurazione dello
stato di incertezza che caratterizza un portafoglio è necessario
valutare “il peso” della coda. Per superare tale problema si ricorre
alla scelta di opportuni intervalli di confidenza. Come è noto, per
distribuzioni continue, l’area sottostante al grafico su un dato
intervallo rappresenta la probabilità che la variabile casuale assuma
una determinazione compresa tra gli estremi dell’intervallo stesso.
Nota la distribuzione delle perdite ed assegnata una probabilità
arbitraria P%, si può calcolare il percentile LP% che caratterizza
l’intervallo di confidenza [0,LP%] rispetto al quale è possibile a
priori affermare che la perdita effettiva tende a collocarsi con
probabilità P%. Nella figura 7.14 viene tracciata la distribuzione
delle perdite. All’area al di sotto dell’intera curva, tratteggiata
diagonalmente, viene assegnato il valore di 100 (o, più
formalmente, di 1). L’area ombreggiata compresa tra 0 ed LP%,
invece, assume valore P%, dove P esprime la probabilità che la
perdita “cada” all’interno dell’intervallo [0,LP%]. Ad esempio, per
Il rischio di credito 471
la distribuzione tracciata nella Figura 7.14, viene determinato
l’ammontare di perdita L99% rispetto al quale è verosimile ritenere
che la perdita effettiva si mantenga al di sotto di esso con una
probabilità pari al 99%. Più in generale, assegnata la distribuzione
delle perdite ed indicando con P% la probabilità arbitrariamente
fissata che caratterizza l’intervallo di confidenza, il valore LP% così
ottenuto viene detto valore a rischio (Value at Risk, VaR) al P%.
La logica sottostante alla metodologia del VaR è quella di calcolare
la massima perdita che un portafoglio crediti può generare,
ricostruendo la distribuzione delle perdite, e di impiegare tale
distribuzione per verificare il danno subito nello scenario peggiore
che può determinarsi con un dato margine di probabilità. La
differenza tra il valore a rischio LP% e la perdita attesa EL viene
definita capitale economico (CE = LP% - EL) e rappresenta la
massima perdita inattesa che la banca può subire con probabilità
assegnata. Per cui, determinata la perdita attesa , ELp , la perdita
inattesa, ULp , ci si può domandare quale sia l’ammontare di
capitale economico,CE, tale che , per una dato livello di protezione
(z), risulti :
P  L p %  EL p  CE  z
[7.51]
Essendo il capitale economico un multiplo (k) dell’ULp, si ha:
CE = k*UNLp
[7.52]
La 7.51 può essere pertanto riscritta:
 L p %  El p

P
 k  z
 UL p

[7.53]
Nell’isolare la funzione di ripartizione delle perdite passate negli
impieghi di una classe di rating elevata, si osserva una forte
asimmetria a destra, da attribuire a una bassissima probabilità di
subire perdite elevate e una elevata probabilità di tassi prossimi allo
0.
472 Capitolo 7
Viceversa, in quei crediti di classe di rating peggiore la
distribuzione di probabilità dei tassi tende verso una normale,
riducendosi il grado di asimmetria. Questo consente, diversamente
dall’approccio in cui la stima della perdita non attesa è pari alla
deviazione massima rispetto al valore medio atteso, di ipotizzare
una forma funzionale della distribuzione del tipo beta27.
27
Tale distribuzione è caratterizzata da 2 parametri  e  che mostrano la concentrazione, in
termini di probabilità, della distribuzione dei tassi di perdita intorno al valore atteso e lo spessore
della coda di distribuzione che rappresenta la probabilità di ottenere tassi di perdita inattesa
significativamente più elevati di quelli attesi.
Il rischio di credito 473
Appendici al capitolo 7
Appendice 7.A - Probabilità di default e time horizon: aspetti
formali
Definiamo i seguenti eventi:
Dk = «fallimento dell’obbligato al k-mo anno»
Ek = «fallimento dell’obbligato entro k anni»
Determinare la probabilità dell’evento Ek, posto che P Ek è la
probabilità cumulata rispetto alle probabilità marginali P Dj ≤ k.
Per semplicità supponiamo che:
k (PDk  p)
[7.A.1]
e che:
(j  k )( D j  Dk )
[7.A.2]
Dalla 7.A.1 si desume che le probabilità marginali (quelle
relative ai singoli anni) sono costanti e dalla 7.A.2 che gli eventi Dk
sono indipendenti.
Procedendo per induzione, si determina il valore di P E1 e P E2.
Risulta:
PE1  PD1  p
[7.A.3]
PE2  P ( D1  D2 )  PD1  PD2  P ( D1  D2 )
[7.A.4]
474 Capitolo 7
Ricordando la 7.A.2 (indipendenza), si ha:
D1  D2  P ( D1  D2 )  P D1P D2  p 2
[7.A.5]
Perciò:
P E2  2 p  p 2  1  (1  p ) 2
[7.A.6]
Si calcoli il valore di P E3:
P E3  P ( D1  D2  D3 )  P ( E2  D3 ) 
 P E2  P D3  P ( E2  D3 )
[7.A.7]
Ancora una volta, sfruttando la 7.A.2, si ha:
P E3  P E2  P D3  P E2 P D3 
 P E2  P D3 (1  P E2 )
[7.A.8]
Usando la 7.A.7,
P E3  1  (1  p ) 2  p (1  p ) 2
[7.A.9]
Da cui, evidenziando (1  p ) 2 ,
P E3  1  (1  p)3
[7.A 10]
Osservando la 7.A.7 e la 7.A.10, otteniamo la probabilità
cumulata relativa ad un arbitrario numero n di anni:
pn  P En  1  (1  p ) n
[7.A.11]
Il limite della 7.A.11 è di considerare costante nel tempo le
probabilità marginali. Viceversa, è verosimile ipotizzare che le
probabilità tendano a modificarsi nel tempo e il passato si rifletta
sul futuro. L’evidenza empirica conferma come in Italia e non solo
Il rischio di credito 475
che le probabilità di insolvenza marginali28 tendono a diminuire nel
tempo. Ciò si può giustificare in base alla teoria delle asimmetrie
informative e della relazione con la clientela. Dal nostro punto di
vista, se il tasso di insolvenza non è costante nel tempo, la 7.A.11
va rivista, semplicemente sostituendo all’unica probabilità annuale
di insolvenza (p), le singole probabilità marginali. Indicando la
probabilità cumulata con ( p̂ n ) , si ha:
n
pn  1   (1  d k )
[7.A.12]
k 1
dove:
dk  P Dk
[7.A.13]
Dal momento che le probabilità marginali non sono più costanti,
ma disponiamo di una struttura di probabilità differenziate per le
diverse scadenze, si calcola la probabilità media come segue:
p :1  (1  p ) n  pn
[7.A.14]
p può essere determinato per via numerica risolvendo
l’equazione:
n
1  (1  p ) n  1   (1  d k )
[7.A.15]
k 1
28
I dati possono essere facilmente ricavati dalle serie storiche archiviati nei sistemi nformativi
aziendali delle singole banche o su base aggregata dagli organismi di vigilanza
476 Capitolo 7
Appendice 7.B - La distribuzione Beta
Ricordiamo che:
Beta( ,  ) :
(   )  1
f X ( x; ,  ) 
x (1  x)  0  x  1
( )(  )
X
[7. B.1]
dove  : R   R  rappresenta la c.d. funzione Gamma, definita
da:
( ) :

x
 1  x
e dx
[7. B.2]
0
È possibile dimostrare che se  è intero allora la Gamma si
riduce ad un fattoriale, ossia:
  N  ( )  ( 1)!
[7. B.3]
Infatti:

(1) 
e
x
dx  1
[7. B.4]
0
inoltre se  > 0 integrando per parti si ha:
(  1) 

x
  x 
 x
e dx   x e
0
Poiché  x e  x
0

   x 1e  x dx
[7. B.5]
0

0
 0 allora (  1)  ( )
[7. B.6]
Si dimostra che la media della distribuzione betaè eguale
1

0
 
   xf ( x; ;  )dx 
[7. B.7]
Il rischio di credito 477
e la varianza risulta essere:




         1
 2  x 2f x; ;  dx   2 
1
0
2
[7. B.8]
Nel nostro caso il tasso di recupero è distribuito secondo una
Beta ed è compreso nell’intervallo zero-uno: essendo il valore
“zero” rappresentativo del caso di insolvenza in cui la perdita è pari
all’intero valore del prestito ed “uno” il caso in cui è possibile,
nonostante il default, recuperare l’intero ammontare del credito.
La forma della distribuzione dipende pertanto da e
Assumendo che= si dimostra che la funzione è
simmetrica. I grafici possono essere numericamente generati, in
modo relativamente semplice, attraverso un foglio elettronico con
alcune accortezze29.
A titolo esemplificativo, ipotizziamo che:
=2, =2.
In tal caso, il grafico della Beta sull’intervallo [0,1] è quello
indicato nella figura che segue:
Distribuzione Beta
2
1,5
PDF(RR) 1
0,5
0
0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
1
RR: Tasso di recupero
29
Il lettore osservi che Microsoft Excel dispone la CDF (Cumulative Density Function) e la
gamma e non la PDF (Probability Density Function). Altri pacchetti più avanzati, quali Mathematica
o MatLab sono, invece, in grado di calcolare direttamente la PDF.
478 Capitolo 7
Il grafico appare simmetrico rispetto al valore medio atteso della
distribuzione . Dalla 7.B.8 risulta, infatti, che:
EX 

 

2
1

22 2
[7. B.9]
Con riferimento ai tassi di recupero, vi potrebbero essere molte
situazioni in cui i valori si concentrano intorno agli estremi. “zero”
ed “uno”, piuttosto che intorno al valor medio. Circostanza
verosimile, poiché in ipotesi di insolvenza del debitore il tasso di
recupero potrebbe essere nullo, viceversa, assumere valori pari
all’unità in ipotesi di solvibilità del prenditore. Pertanto un tasso di
recupero pari al valore medio, ossia il 50% , è scarsamente
rappresentativo del valore effettivo di realizzo del credito. Una
distribuzione beta, data la sua flessibilità, può pertanto individuare
una forma ad U, maggiormente rappresentativa dell’evoluzione del
tasso di recupero.
Ricorrendo a una semplificazione, si supponga che:
=0.1, =0.1
In tal caso, sulla base delle considerazioni svolte in precedenza,
è possibile disegnare il grafico della Beta indicato nella figura che
segue:
Distribuzione Beta
2
1,5
PDF(RR) 1
0,5
0
0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
RR: Tasso di recupero
1
Il rischio di credito 479
Anche in questo caso, da un punto di vista geometrico, il valore
medio è sempre del 50%
EX 

 

0.1
1

0.1  0.1 2
[7. B.10]
però, gli eventi si addensano nell’area in prossimità delle code 30.
In corrispondenza degli stessi intervalli indicati nelle
esemplificazione precedente, si dimostra come la probabilità di
stimare valori prossimi agli estremi sia pari circa al 44%, mentre la
probabilità che i valori attesi si addensano intorno al valore medio
sia solo dello 3,5%.
Una difficoltà, che si incontra nell’implementazioni operative
dei modelli che utilizzano la distribuzione Beta, è da attribuire ai
due parametri  e , che non sono direttamente osservabili su un
campione statistico. Diversamente, la distribuzione Normale è
completamente descritta attraverso la sua media e varianza; perciò
ai fini operativi si pone solo il problema di stimare la media e la
varianza campionarie per applicarle al modello teorico. Si rende,
allora, necessario anche per la Beta esprimere i suoi parametri sulla
base dei valori di media e varianza che caratterizzano la
popolazione statistica.
A tal fine possiamo considerare la 7.B.8 come un sistema da
risolversi rispetto alle incognite  e . Dopo opportuni calcoli si
ottiene:

   2  2 
,
2
1     2   2 1  


2


.

[7. B.11]
Dove  e 2 sono la media e la varianza.
30
Data la forma della distribuzione, il termine code può apparire poco indicato, ma viene usato
per ragioni di confronto con il grafico precedente.
480 Capitolo 7
Appendice 7.C Derivazione di ULMCi
Per calcolare la derivata parziale della perdita attesa del
portafoglio rispetto alla perdita attesa del prestito i-esimo, si
richiama la 7.C.1.
 UL P   UL P 
ULMC i 

UL i
UL i
2
1
2
1
   UL P2 
2
 n n
   UL j UL k 
 1   j 1 k 1
 

UL i
 2UL P 
1
2
 UL P2 
UL i

jk 
 
n
UL
j 1
j
 ij
[7.C.1]
UL P
Scriviamo:
n
n
n
n
n
n
k 1
j 1
UL jUL k  jk  UL jUL k  jk  UL iUL k  ik  UL jUL i 
j 1 k 1
j 1 k 1
j i k i
ji
[7.C.2]
si ha:
 n n
   UL j UL k 
 j 1 k 1
UL i
jk



n
n
k 1
j 1
UL k  ik  UL j 
n
n
j 1
j 1
  UL j  ij   UL j 
e, poiché  ij  
 n n
  UL j UL k 
 j 1 k 1
UL i
ji
jk
:


 2
n
UL
j 1
j
 ij
Quindi il contributo al margine è dato da:
ji
ji
[7.C.3]
Il rischio di credito 481
n
ULMC i 
UL
j 1
j
 ij
UL P
[7.C.4]
8
I Sistemi di Rating Interno
8.1 Il Rating: definizioni e concetti fondamentali – 8.2 Segmentazione del
portafoglio – 8.3 Implementazione del sistema di Rating – 8.3.1 La
metodologia – 8.3.2 Analisi del modulo statistico – 8.3.2.1 Raccolta e analisi
dei dati – 8.3.2.2 Estrazione del campione – 8.3.2.3 Modellizzazione – 8.3.3
Cenni sui moduli andamentali e qualitativi – 8.4 Dallo score al Rating: la
granularità del sistema – 8.5 Il processo di assegnazione e revisione del
giudizio – 8.6 Reporting e Monitoring – 8.7 Stabilità e consistenza dei Sistemi
di Rating
8.1 Il Rating: definizioni e concetti fondamentali
Il termine rating viene generalmente impiegato per descrivere il
processo di assegnazione di un giudizio sintetico sulle
caratteristiche qualitative e/o quantitative di una data unità
singolarmente considerata. In ambito creditizio il rating viene
utilizzato come sistema di segnalazione della rischiosità implicita
di un prenditore. Nell’accezioni proposti da Standard&Poor’s e
Moody’s, le più note agenzie attualmente operanti, il rating viene
così definito:
“Il rating di un’esposizione creditizia è il complessivo merito
creditizio di un obbligato, ovvero del merito creditizio di un
obbligato rispetto ad un titolo di credito o altra obbligazione
finanziaria, basata sui fattori di rischio primari” “…un’opinione
circa la futura abilità ed il vincolo legale di un emittente di far
fronte ai pagamenti periodici sul debito principale e sugli interessi
di un titolo a reddito fisso” 1.
Una definizione più articolata, in grado di cogliere anche una
prima descrizione del meccanismo sottostate al processo in
1
Traduzioni a cura dell’Autore, Standard&Poor’s, (1998).
482 Capitolo 8
questione, può essere rinvenuta in De Laurentis2, dove per rating si
intende:
“la classificazione di un prenditore o di una specifica
operazione in una tra più classi di rischio creditizio
predefinite in modo contiguo e ordinale, a cui saranno
collegati tassi attesi di insolvenza o di perdita diversi”.
È così già possibile pervenire all’individuazione di due fasi
concettualmente distinte del processo di rating:


la fase di rating assignment in cui l’obbligato o
l’operazione sono assegnati, attraverso una valutazione
qualitativa, alla classe ordinale di rating predefinita nel
sistema;
la fase di rating quantification in cui le classi di rating
vengono associate alle misure cardinali di rischio.
L’insieme delle definizioni proposte permette inoltre di
evidenziare, in breve, i molteplici aspetti che entrano nella
composizione di un sistema di rating. E’possibile individuare, in
linea generale, diverse fasi o momenti fortemente correlati tra loro
che caratterizzano un complessivo processo di assegnazione di un
giudizio sullo stato di solvibilità di un obbligato:




Individuazione e raccolta delle informazioni necessarie;
Elaborazione delle informazioni per mezzo di valutazioni
soggettive e/o oggettive;
Esplicitazione del rating assegnato alla controparte e/o
operazione;
Revisione periodica del giudizio.
È importante fin d’ora mettere in rilievo che non è possibile
identificare un Sistema di Rating ideale, cioè valido in assoluto ea
prescindere dalla singola situazione. Al contrario, l’architettura di
questo – cioè, la specificazione e l’implementazione delle diverse
2
Cfr. De Laurentis G. (2000).
I Sistemi di Rating Interno 483
componenti evidenziate – è legata in modo indissolubile alla
finalità che con il Rating si intende perseguire3.
Lo scopo primario di un Sistema di Rating Interno, è proprio
quello di pervenire ad una misurazione –come si vedrà, diretta o
indiretta – della perdita attesa connessa ad una specifica
esposizione. In definitiva, il livello di dettaglio assegnato alle
singole componenti e l’assetto effettivo del Sistema sono legati alle
finalità che attraverso il Rating si intendono perseguire, nonché al
grado di integrazione dei singoli stadi. La scelta delle componenti,
quindi, dipende da numerosi fattori, quali la natura del business
posto in essere dalla banca, l’efficienza dell’informazione
disponibile, la consistenza dei rating prodotti ed, in ultima analisi,
da una comparazione dei costi connessi al Sistema di Rating ed i
benefici che da questo si intendono ottenere. Una prima distinzione
tra Sistemi di Rating può essere rinvenuta tra il rating della
controparte (borrower rating) ed il rating dell’operazione (facility
rating) a seconda l’entità oggetto di valutazione. Nel primo caso il
rating mira ad apprezzare, sulla base del profilo del debitore, il
rischio ad esso connesso e quindi, ad individuare una probabilità di
default. Il rating dell’operazione, invece, include la contemporanea
stima, da un lato, della probabilità di default dell’impresa e
dall’altro del valore di liquidazione degli asset ed il grado di
seniority ad essi associati attraverso cui pervenire ad una
valutazione diretta della perdita attesa. Si va facendo strada anche
un’ulteriore distinzione identificabile come il rating della severity
of loss in cui il rating dell’operazione viene fatto discendere dalla
combinazione esplicita del rating della PD con il rating della LGD.
Sulla base dei criteri evidenziati, si può operare una successiva
distinzione. Se la classificazione è basata sulla misurazione diretta
della perdita attesa, prescindendo dalla quantificazione delle sue
componenti, il Sistema è focalizzato sulla singola operazione
(facility rating) e viene definito monodimensionale (onedimensional). Per contro, un sistema bidimensionale (two
3
Tale aspetto è stato enfatizzato da Treacy W. e Carey M. (2000), i quali hanno in più occasioni
sottolineato come “form follows function”. Ad esempio, una banca che utilizza il Rating
principalmente per identificare deterioramenti o problematiche nelle esposizioni può ritenere che un
numero di classi relativamente ristretto possa essere sufficiente. Viceversa, nel caso in cui il Rating
viene usato nella misurazione della redditività interna, allora può essere più utile una scala composta
da un numero relativamente elevato di classi.
484 Capitolo 8
dimensional) permette, da un lato, l’esplicitazione del rating
controparte attraverso la stima della PD e, dall’altro,
l’esplicitazione del rating dell’operazione attraverso l’expected loss
(EL). Un sistema più complesso, invece, permette di raggiungere
una misurazione indiretta della perdita attesa attraverso una stima
disgiunta della probabilità di default, da un lato, e del tasso di
perdita dall’altro. In definitiva un sistema one-dimensional
coincide, di fatto, con un facility rating. Un sistema twodimensional può essere ottenuto dalla combinazione di un
borrower rating e di un facility rating. In quest’ultimo caso, il
borrower rating stima la probabilità di default della controparte
mentre il facility rating, tipicamente composto di un numero di
classi identico al primo, associa all’operazione la perdita attesa
registrata in corrispondenza della classe di appartenenza della
controparte, fatto salvo un eventuale aggiustamento per tenere
conto delle garanzie migliori o peggiori della media4. In alternativa,
un Sistema two-dimensional può essere ottenuto dal prodotto degli
output di un borrower rating e un severity-of-loss rating. La scelta
tra Sistemi monodimensionali o bidimensionali deve essere
valutata intorno al trade-off che sussiste tra costi di
implementazione e mantenimento del Sistema da un lato e livello
di accuratezza desiderato dall’altro. In genere, i primi si prestano ad
essere impiegati per funzioni amministrative o di controllo,
ammesso che la natura del business primario della banca rimanga
stabile nel corso del tempo, mentre i secondi sono più adatti nei
casi in cui si intende impiegare l’output del modello nelle fasi di
pricing, di analisi della profittabilità e quale input dei credit risk
model. Occorre sottolineare, inoltre, che, nell’ambito dei Sistemi
bidimensionali, le metodologie che stimano esplicitamente la PD e
la LGD (Sistemi PD-LGD) presentano notevoli vantaggi, rispetto
alle metodologie che stimano la PD e successivamente la EL
(Sistemi PD-EL). Questi ultimi, infatti, prevedono tipicamente dei
limiti nell’assegnazione della classe di EL, una volta nota la classe
4
È bene sottolineare che un facility rating di un Sistema one-dimensional non coincide, di
norma, con un facility rating di un Sistema two-dimensional. L’unico elemento comune riguarda
l’oggetto di valutazione, ovvero la singola operazione. Ci si attende, tuttavia, che il primo valuta
contemporaneamente le caratteristiche del debitore e dell’operazione su un’unica scala mentre il
secondo si riferisce esplicitamente all’operazione (e quindi alle garanzie a questa connesse),
lasciando il compito di stimare la qualità creditizia dell’obbligato al borrower rating.
I Sistemi di Rating Interno 485
di PD5. È evidente, quindi, che possono sorgere delle distorsioni
nella stima della rischiosità dell’operazione nei casi in cui la perdita
in caso di insolvenza sia obiettivamente lontana dalla media.
Altresì, la stima separata della LGD permette di confrontare le
valutazioni effettuate dal Sistema con l’esperienza storica della
banca. Infine, si può sostenere che i Sistemi PD-LGD siano
maggiormente in linea con il quadro normativo che viene delineato
sulle recenti proposte di modifica dell’Accordo sui requisiti
patrimoniali.
Le informazioni da raccogliere ed utilizzare per l’effettiva
implementazione del Sistema di Rating Interno sono piuttosto
numerose ed eterogenee, comprendendo, a titolo indicativo, le
capacità di reddito e di cash flow storica e prospettica, la solidità
finanziaria dell’impresa, le garanzie offerte, la qualità del
management, la dimensione, nonché la rischiosità del settore e
paese di appartenenza6. In base alla natura delle informazioni
raccolte, gli approcci sono classificabili raccogliendo, da un lato,
quelli che utilizzano informazioni sia soggettive che oggettive e,
dall’altro, quelli che invece fanno uso esclusivamente di
informazioni oggettive 7. Non è possibile fissare a priori
l’importanza da attribuire alle due forme di informazione in esame
poiché il peso a queste assegnato dipende da diversi fattori e,
principalmente, dalla dimensione delle controparti. L’incidenza
delle informazioni soggettive è, in genere, proporzionale alle
dimensioni della controparte. È ragionevole attendersi, infatti, che
la complessità di un’impresa di grandi dimensioni non può essere
colta nella sua pienezza attraverso dati numerici ma necessiti di una
valutazione di fattori di natura soggettiva attraverso cui raggiungere
una visione più dettagliata e articolata della situazione patrimoniale
e finanziaria. Viceversa, la relativa semplicità strutturale di
controparti di piccole dimensioni può essere agevolmente colta
5
In altri termini, dopo aver stimato la classe di appartenenza dell’obbligato, le regole
tradizionalmente imposte a tali sistemi prevedono che nella successiva fase di definizione della classe
di perdita attesa, non ci si possa discostare di, ad esempio, una classe in più o in meno rispetto a
quella individuata in precedenza.
6
Nel paragrafo successivo verranno esaminate in dettaglio tali informazioni.
7
È bene notare che la distinzione tra informazioni di natura soggettiva/oggettiva non coincide
con la distinzione qualitativa/quantitativa. È possibile identificare, infatti, dati di natura qualitativa,
come ad esempio il settore industriale di appartenenza, ma che godono di una forma oggettiva. Cfr.
De Laurentis G. ( 2001).
486 Capitolo 8
mediante l’esame di dati numerici, o comunque qualitativi ma
oggettivizzabili, storici e correnti.
In funzione della metodologia adottata in sede di elaborazione e
sintesi delle informazioni è poi possibile distinguere fra statisticalbased process, basate su valutazione di tipo statistico, ed expert
judgement-based process, basati su un processo di analisi
qualitativa condotta da parte di esperti del merito creditizio.
Un altro elemento di distinzione nell’ambito di un Sistema di
Rating Interno riguarda il numero delle classi di cui questo si
compone.
Il vantaggio di una maggiore numerosità delle classi è quella di
addivenire ad una migliore graduazione del rischio. A tal riguardo è
possibile distinguere tra rating ad elevata granularità e rating
scarsamente granulari.
La scelta del numero di classi è funzionale all’uso a cui il
Sistema e destinato. Ad esempio, se il giudizio che scaturisce dal
Rating viene poi impiegato quale elemento primario nella fase di
pricing dell’esposizione, è evidente che un Sistema altamente
granulare è più adeguato.
Viceversa, se il Rating viene utilizzato come strumento di
definizione di limiti nella composizione del banking book, rispetto
a “fasce” di rischiosità, un sistema con poche classi può essere
sufficiente. In linea teorica, è poi possibile individuare una
relazione positiva tra granularità da un lato e dimensione
dell’istituto di credito e livello di concorrenzialità del mercato di
riferimento, dall’altro.
Da tali considerazioni discende un corollario: il numero di classi
dipende dal segmento di clientela dell’istituto. Per le grandi
imprese il maggior dettaglio nella graduazione del rischio
riguarderà le classi ricomprese nell’ambito dell’investment grade.
Per le imprese del middle market e le famiglie produttrici la
maggiore granularità riguarderà le classi caratterizzate da livelli di
rischio elevati.
Infine, per ciò che concerne l’orizzonte temporale di riferimento
di un Sistema di Rating, la letteratura sull’argomento è solita
distinguere tra due filosofie alternative adottate in sede di giudizio
I Sistemi di Rating Interno 487
Tabella 8.1
Criteri
Entità oggetto di
valutazione
Elementi oggetto di
misurazione
Tipo di informazioni
richieste
Modalità del processo
di sintesi
Numero di classi
Orizzonte temporale
Classificazioni
Borrower Rating
Facility Rating
One-dimensional
(EL)
Two-dimensional
(PD-EL) o (PD-LGD)
Informazioni Oggettive
Informazioni Soggettive
Statistical Based
Judgment Based
Alta Granularità
Point-in-Time
Bassa Granularità
Through-the-cycle
dei prenditori. Secondo la logica Point-in-Time il merito creditizio
della controparte è valutato facendo riferimento alle condizioni di
solvibilità correnti. In particolare, tale accezione non è circoscritta
alle sole condizioni attuali, bensì si estende alle condizioni
attualmente previste per il periodo relativo al finanziamento. Nella
logica Through-the-Cycle, invece, la rischiosità di un obbligato è
valutata su un orizzonte temporale ben più ampio, misurato in
genere rispetto al periodo di durata del prestito ovvero su un intero
ciclo economico. In quest’ultimo caso, oggetto di valutazione è
principalmente la capacità di sopravvivenza della controparte nella
fase peggiore del ciclo economico o in condizioni particolarmente
avverse del settore di appartenenza (stress scenario). In altri
termini, le condizioni di solvibilità del prenditore vengono valutate
come se questi si trovasse nella fase peggiore del ciclo. Ne
discende, allora, che variazioni della classe di rating possono in tal
caso verificarsi solo nell’ipotesi di shock strutturali che influenzano
le condizioni di lungo periodo dell’obbligato. La scelta tra la prima
filosofia o la seconda, anche in tal caso, viene a dipendere dallo
scopo a cui è preposto un Sistema di Rating. La logica
Through-the-Cycle è adottata prevalentemente dalle agenzie di
rating in vista degli elevati costi che questa richiede ed in virtù
della natura del servizio prestato8. Al contrario, l’impostazione
8
Come è stato già sottolineato in precedenza, infatti, il giudizio espresso dalle agenzie di rating
può essere considerato come un meccanismo di segnalazione della rischiosità di un titolo a favore
degli investitori privati i quali preferiscono di solito adottare delle strategie di portafoglio orientate al
lungo periodo (buy and hold).
488 Capitolo 8
Point-in-Time, più sensibile a variazioni del merito creditizio della
controparte nel breve e brevissimo periodo, meglio si presta a
rispondere a funzioni di reporting e monitoring della rischiosità del
portafoglio.
Nel corso dell’ultimo decennio si è assistito ad un rinnovato
interesse, da parte sia del mondo accademico che dell’industria
bancaria, alle tematiche connesse al rischio di credito. Tale
attenzione, motivata dalle esigenze di una più efficiente gestione ed
allocazione del capitale, anche in conseguenza delle consistenti
perdite causate dai più noti financial distress, ha condotto
all’introduzione di meglio articolate e complesse metodologie
statistico-matematiche di valutazione della rischiosità delle singole
controparti e di gestione del portafoglio. Non per ultimo,
l’argomento è stato ripreso dalle Autorità di Vigilanza nazionali ed
internazionali nella recente fase di revisione della normativa sui
requisiti patrimoniali delle istituzioni finanziarie.
L’approccio tradizionale adottato nella selezione della clientela,
meglio noto come “istruttoria fidi”, consente di pervenire
semplicemente ad una valutazione dicotomica della rischiosità
sottostante, dando origine ad un output esclusivamente in termini di
affidabilità/non affidabilità della singola controparte, senza
esprimere alcun giudizio sulla sua rischiosità relativa.
L’introduzione di metodologie più sofisticate permette una naturale
estensione del giudizio basata sulla classificazione della rischiosità
in più gruppi omogenei attraverso un’analisi approfondita
dell’informazione disponibile.
8.2 Segmentazione del portafoglio
Propedeutica a tali fasi è la ripartizione e la gestione della
clientela secondo classi di merito definite statisticamente. E’
evidente, che quanto più il sistema impiegato è attendibile nella
segmentazione della popolazione in classe di rischio, tanto minori
saranno i costi dovuti al fenomeno della selezione avversa e,
dunque, tanto maggiore la profittabilità del portafoglio crediti.
La segmentazione può avvenire, in relazione alla tipologia e alla
dimensione della controparte, in base a una o più variabili che il
sistema mette a disposizione in seguito alle scelte effettuate dalla
I Sistemi di Rating Interno 489
banca. Esempi di variabili sono: il fatturato, la natura dell’attività
svolta, la storicità del rapporto tra banca e cliente, il settore di
appartenenza, l’area geografica di attività e la forma giuridica.
Figura 8.1 Criteri per la segmentazione
CAUSE
DI
DEFAULT
FONTI
INFORMATIVE
SEGMENTAZIONE
DEL PORTAFOGLIO
CREDITI
ORGANIZZAZIONE
MARGINI
E
COSTII
L’obiettivo è quello di dividere l’universo dei prenditori,
esistenti e potenziali, in gruppi il più possibile omogenei. A tal fine
nell’ambito della individuazione dei criteri di segmentazione
occorre tenere in considerazione le cause di default, le fonte
informative, l’organizzazione all’interno della banca, i margini e i
costi generati dal rapporto .
Cause di default
Le cause di insolvenza presentano una casistica ampia e
differenziata a livello dimensionale e giuridico. A livello di impresa
il peggioramento del merito creditizio di un’ azienda, può
ricondursi a fattori macroeconomici o a fattori specifici
dell’impresa. Ad esempio, nel caso di un’azienda con mercati di
sbocco concentrati su paesi esteri, il default può essere causato da
un repentino rafforzamento del cambio o dal deteriorarsi delle
condizioni politiche del mercato di riferimento, che comportano un
brusco ridimensionamento dei flussi di cassa rispetto alle
aspettative dell’azienda stessa.
Nel caso delle persone fisiche, le cause del default si
riconducono alla stabilità delle fonti di reddito, presenti e future,
allo stile di vita; fattori questi che possono influenzare in modo
490 Capitolo 8
significativo la capacità di onorare gli impegni presi dal prenditore
nei confronti della banca.
Fonti informative
Un modello di valutazione del merito creditizio deve essere
supportato, infatti, da un set di informazioni quali-quantitative
omogenee per tutte le controparti analizzate, ma i dati
concretamente disponibili per i diversi segmenti di clientela
possono variare anche in modo determinante. Nel caso di società di
capitali, la valutazione del merito creditizio si avvale di
informazioni di bilancio, ma anche delle valutazioni del mercato e
dei giudizi espressi dalle agenzie di rating. Per le società di
dimensione minore, i dati contabili, talvolta imprecisi, poco
dettagliati e scarsamente affidabili, devono essere integrati con
fonti di informazione esogene (mercati, soggetti terzi, provider) con
informazioni sul titolare /soci (rapporto fra family risk e business
risk, informazioni sul patrimonio e proprietà immobiliare).
Nel caso dei finanziamenti a privati, non avendo a disposizione un
vero e proprio bilancio familiare il processo di valutazione si
muove su dati relativi alle fonti di reddito del prenditore, alla
proprietà immobiliare, al patrimonio, allo stile di vita.
Organizzazione
Strutture dedicate, orientate al presidio di specifici segmenti,
sono all’uopo costituiti all’interno di una banca in modo da creare
unità specialistiche che assistono il cliente in tutte le sue esigenze.
Pertanto i diversi strumenti di misurazione del merito creditizio
devono riflettere l’operatività dei centri preposti alla relazione di
clientela.
Costi di istruttoria
I costi di istruttoria variano il relazione alla dimensione della
clientela: sono alti per le imprese a fronte di esposizioni di importo
elevato; contenuti per le esposizioni minime delle imprese minori.
I Sistemi di Rating Interno 491
8.3 Implementazione del sistema di Rating
8.3.1 La metodologia
Per ciascun modulo, in corrispondenza di ogni segmento, in
relazione alle proprie peculiarità, viene applicato, in funzione della
metodologia adottata in sede di elaborazione e sintesi delle
informazioni, l’approccio oggettivo, cioè basato sull’impiego di
specifiche metodologie statistico-matematiche (statistical-based
process), o l’approccio soggettivo, cioè fondato su un giudizio
qualitativo espresso da analisti esperti (expert judgement-based
process). Di fatto, i Modelli di Rating effettivamente implementati
nella pratica delle Istituzioni Finanziarie non possono essere
ricondotti ad alcuno dei due estremi evidenziati. Bensì, nella
maggior parte dei casi si preferisce optare per l’adozione di sistemi
ibridi, cioè ottenuti dalla combinazione dei precedenti. In linea di
massima, i sistemi prevedono una prima fase costituita da una
valutazione oggettiva, effettuata per mezzo di un modello statistico,
ed una seconda fase, condotta al fine dell’introduzione
dell’intervento umano in cui l’output del modello viene approvato
o corretto da un analista esperto9. Quest’ultima metodologia è in
grado di superare i limiti insiti degli approcci completamente
oggettivi o soggettivi10. Naturalmente, l’influenza dei due metodi
di valutazione nel giudizio finale è diversa a seconda della
dimensione dell’esposizione e della controparte considerata in
funzione sia dei costi richiesti che della effettiva applicabilità
dell’uno o dell’altro metodo. È evidente, infatti, che, dato il
dispendio di risorse cui una attenta valutazione da parte di esperto
può dare origine, un maggiore approfondimento dell’analisi
soggettiva è riservato solo alle esposizioni di considerevole
ammontare. D’altro canto, l’applicazione di metodi statistici di
9
Si noti, tuttavia, che in genere i “gradi di libertà” di cui dispone l’analista per la correzione dei
risultati non vanno oltre una o due classi in più (upgrading) o in meno (downgrading) rispetto a
quelle individuate dal modello statistico (constrained expert judgement-based process).
10
Se da un lato i modelli di natura statistica non tengono conto nella debita considerazione delle
variabili di tipo qualitativo, nel senso che vi sono alcune variabili rilevanti ai fini del giudizio di
affidabilità, ma che mal si prestano ad una quantificazione e manipolazione numerica, dall’altro lato
il limite dei modelli soggettivi può essere rinvenuto nella possibilità di pervenire a valutazioni
diverse pur partendo dallo stesso set informativo iniziale. Cfr. Gaetano A., Poliaghi P. e Vandali W.
(2001).
492 Capitolo 8
scoring si presta più facilmente alla valutazione di realtà small
business, dove la numerosità e l’omogeneità della popolazione
considerata permettono una parametrizzazione dei modelli
consistente rispetto al loro uso11.
Le classificazioni basate sulla natura della informazioni
impiegate e dei metodi di elaborazione sono tra loro strettamente
connesse. Ci si attende, cioè, che l’informazione oggettiva sia
manipolata per mezzo di approcci statistico-matematici, mentre
quella soggettiva venga esaminata grazie all’intervento di analisti.
Il passaggio dall’oggettività alla soggettività del Sistema di Rating
è in funzione della dimensione della controparte. Ad esempio,
indicando con  il peso attribuito alla componente oggettiva (CO)
in una scala da 0 a 100 e con 1- il peso della componente
soggettiva (CS), il rating finale (R) può essere ottenuto dai singoli
punteggi ponderati, R= CO+(1-) CS. Il peso dei due fattori
varia, pertanto, nel continuum, al variare della dimensione della
controparte.
Nella prassi operativa si stanno affermando sitemi ibridi,
articolati su tre step:



modulo statistico
modulo andamentale
modulo qualitativo
Il peso dei tre score nel rating è una componente parametrica
definita in fase di impianto sulla base di una relazione del tipo
R=X*S (Statistico)+Y*S(andamentale)+Z*S(qualitativo) [8.1]
Dove S indica lo score rispettivamente per i singoli componenti
il Rating ed X,Y,Z rispettivamente i pesi.
L’analisi che segue s’incentra sullo scoring statistico con brevi
cenni alle altre sue tipologie di score.
11
L’utilizzo di sistemi di scoring puri, cioè scevri da qualunque intervento umano viene
solitamente riservato al settore retail.
I Sistemi di Rating Interno 493
8.3.2 Analisi del modulo statistico
Lo sviluppo del modello statistico, dopo aver selezionato i
segmenti, si articola in quattro fasi (figura n° 8.3)
1.
2.
3.
4.
raccolta e analisi dei dati
estrazione del campione
modellizzazione
analisi dei risultati
8.3.2.1 Raccolta e analisi dei dati
Il patrimonio informativo
È noto che la previsione delle insolvenze e la definizione di un
giudizio di affidabilità su un obbligato sono operazioni
particolarmente complesse a causa, da un lato, della numerosità dei
fattori che influiscono sullo stato di solvibilità e, dall’altro, delle
difficoltà nella modellizzazione di tali elementi e del modo in cui
questi interagiscono tra loro. In generale, i fattori di rischio (risk
factors) presi in esame in fase di assegnazione dipendono dal grado
di accuratezza che si intende raggiungere, e quindi, in ultima
analisi, dalle finalità riservate al Sistema di Rating. Occorre
sottolineare, inoltre, che i criteri selezionati, espressi in termini
formali, sebbene costituiscano una guida utile, risultano spesso
piuttosto scarni e poco articolati e quindi di non immediata
applicabilità al caso concreto. Molto spesso, quindi, l’attribuzione
della classe di rischiosità riflette la cultura creditizia interna della
banca piuttosto che una “griglia” di regole standardizzate.
Le indagini sugli ambienti entro cui si svolge l’analisi condotta
dal rater si spostano progressivamente dalle caratteristiche proprie
dell’impresa al contesto settoriale in cui questa opera, per poi
passare all’esame delle componenti strutturali di rischiosità del
paese di appartenenza.
Nel seguito, verranno brevemente descritti i singoli fattori
oggetto di analisi. Si premette che gli aspetti trattati e i criteri
adottati nella valutazione di questi possono essere concettualmente
separati in due gruppi. Da un lato, possono essere rinvenuti gli
elementi mirati alla stima della probabilità di default, ovvero diretti
494 Capitolo 8
Figura 8.2 – Analisi del modulo statistico
Classe rating
Percentuale di rischiosità
Monitoraggio modello
I Sistemi di Rating Interno 495
SEGMENTAZIONE
RACCOLTA ED ANALISI
DEI DATI
CAMPIONAMENTO DEI
GRUPPI DI IMPRESA
MODELLIZZAZIONE
ANALISI DEI RISULTATI
496 Capitolo 8
alla valutazione della capacità di reddito del prenditore intesa
quale capacità di generare flussi di cassa futuri, per il puntuale
adempimento delle obbligazioni assunte. Dall’altro, si trovano
quegli elementi funzionali alla definizione della effettiva severità
della perdita, e quindi finalizzati alla determinazione del valore di
liquidazione degli assets aziendali. Occorre sottolineare, tuttavia,
che il confine tra i due aggregati è alquanto labile, nel senso che
quasi mai è possibile riservare l’esame di un dato aspetto
unicamente alla stima della PD o della LGD. Nella maggior parte
dei casi, infatti, dallo stesso aspetto, oggetto di analisi, si ottengono
informazioni valide per entrambi gli scopi12.
Analisi quantitativa
Analisi Finanziaria. Il primo passo da compiere per la valutazione
delle caratteristiche proprie dell’obbligato, qualora si tratti di
un’impresa, è fondato sull’esame dei dati di bilancio. In generale,
l’analisi di bilancio consiste in un insieme di tecniche particolari
che, mediante confronti tra valori patrimoniali ed economici,
facilita l’interpretazione dei dati risultanti dal bilancio stesso. Tali
valutazioni possono essere attuate attraverso l’impiego di due
metodologie tra loro complementari: l’analisi per indici e l’analisi
per flussi. L’analisi di bilancio per indici (ratios analysis),
attraverso il calcolo di appositi rapporti o differenze tra valori o
classi di valori contenuti nel bilancio opportunamente riclassificato
consente di valutare la situazione patrimoniale, finanziaria ed
economica dell’impresa. In definitiva, tali confronti consentono di
accertare se l'azienda osservata è solida, ossia sufficientemente
12
Probabilmente, sarebbe più corretto affermare che, ai fini della stima della PD o della LGD,
ciò che cambia non è tanto il tipo di informazione considerata, ma il modo in cui questa viene
manipolata. Ad esempio, dall’analisi della situazione finanziaria viene presa in esame la struttura
finanziaria dell’impresa distinguendo tra attività e passività correnti o a lungo termine al fine di
dedurre la capacità dell’impresa di armonizzare l’orizzonte temporale delle fonti di finanziamento
con quello degli impieghi e quindi di minimizzare i costi del finanziamento. In tal caso vengono
impiegati indici di bilancio quali il current ratio o l’incidenza degli oneri finanziari sul risultato
d’esercizio. La stessa fonte di informazione – il Bilancio d’Esercizio – viene poi usata per la
determinazione dello stato di liquidità (e di liquidabilità) dell’impresa ai fini della stima della LGD.
Ancora, l’informazione sullo stato di competitività del settore in cui l’impresa opera può essere
impiegato tanto per la stima della PD quanto nella stima della LGD. Nel primo caso, infatti, si può
ragionevolmente sostenere che una forte competitività aumenti la verosimiglianza di un default
dell’impresa a seguito, ad esempio, di errori strategici. Allo stesso tempo, dalla stessa informazione si
può dedurre che, in caso di default, è possibile una più rapida liquidazione delle immobilizzazioni
dell’impresa.
I Sistemi di Rating Interno 497
capitalizzata, ha prodotto liquidità, per cui è in grado di
fronteggiare prontamente ed economicamente i propri impegni; è in
grado di rinnovarsi, e, quindi, è capace di recuperare
monetariamente gli investimenti in tempi ragionevolmente brevi;
ha una redditività soddisfacente, ossia remunera adeguatamente il
capitale ed è efficiente, poiché è in grado di utilizzare in modo
ottimale le risorse di cui dispone.
È evidente che ogni ratio non può essere considerata
singolarmente ma come elemento di un sistema più complesso, che
va esaminato nella sua interezza per non giungere ad
interpretazioni limitative. Infatti, ai fini di una corretta analisi,
ciascun indice deve essere valutato rispetto agli altri indici della
stessa azienda (dimensione aziendale), rispetto agli indici medi del
settore di appartenenza (dimensione settoriale) ed in termini di
reattività alle fluttuazioni del ciclo economico nonché di stabilità
(o, viceversa, di volatilità) nel corso del tempo (dimensione
temporale)13. È opportuno sottolineare che la bontà e la qualità
dell’analisi non è collegata alla quantità dei quozienti calcolati, che
peraltro può essere elevatissima. L’analisi di bilancio, infatti, può
essere condotta per una molteplicità di scopi. Una massa eccessiva
di dati, pertanto, può essere fuorviante o rendere molto più
complessa la formulazione delle conclusioni. Un ulteriore
strumento a disposizione dell’analista è rappresentato dal
rendiconto finanziario, un documento nel quale trova una esaustiva
rappresentazione l’attività finanziaria dell’impresa. La dinamica
finanziaria della gestione è studiata prevalentemente mediante
l’analisi dei flussi di capitale circolante netto e dei flussi di liquidità
immediata o di cassa.
Assumendo che l’oggetto di analisi sia la determinazione della
rischiosità relativa dell’impresa, è possibile impiegare diversi
metodi statistico-matematici per individuare quegli indici
maggiormente significativi a tale scopo. Può essere utile verificare
13
È chiaro che essendo l’azienda un organismo vitale ove sussistono forti interrelazioni tra le
diverse aree gestionali e funzionali, occorre procedere ad una valutazione della stessa nel suo
complesso. Altresì gli indici riscontrati nell'analisi della situazione economica, patrimoniale e
finanziaria dell'obbligato assumono una dimensione relativa rispetto al settore di appartenenza,
poiché i ratios eletti ai fini dell'assegnazione del rating sono comparati a quelli desunti come
benchmark dal relativo settore industriale. Infine, si tratta di analisi temporale o sequenziale poiché
non dovrà limitarsi ai dati di un solo esercizio, ma essere estesa ad un numero adeguato di esercizi (di
solito, almeno tre).
498 Capitolo 8
quali indici risultano maggiormente rappresentativi nella previsione
delle insolvenze.
La qualità dei dati di bilancio. Il rater dovrà esprimere un giudizio
sul grado di attendibilità o di credibilità e di espressività del
bilancio. Si tratta in sostanza di accertare la corrispondenza del
valore delle poste iscritte in bilancio con i corretti criteri di
valutazione e gli opportuni principi contabili. Tuttavia, poiché
l’analista esterno non dispone di un’ampia informativa al riguardo,
può essere accolta con particolare favore la certificazione rilasciata
da una società di revisione e l’assenza di eccezioni mosse dai
revisori stessi o dai sindaci.
Informazioni qualitative.
Le variabili di bilancio forniscono solo una rappresentazione della
situazione complessiva dell’impresa. Per migliorare le capacità
diagnostiche delle funzioni occore acquisire informazioni
sull’ambiente esterno, sull’organizzazione, sui problemi interni,
sulle principali decisioni chiave adottate dall’impresa.
Le variabili
Le variabili da utilizzare per alimentare i processi statistici sono
diversi a seconda del segmento del campione considerato e possono
essere distinte in due principali gruppi:


il primo comprende indicatori di bilancio relativi
principalmente alla situazione reddituale, alla struttura
finanziaria e alla liquidità, distinti ovviamente in base alla
natura dell’attività svolta;
il secondo è caratterizzato da indicatori che offrono una
prospettiva di analisi su variabili di bilancio, su aspetti
qualitativi, quantificabili e non, e da alcuni dati anagrafici
dei soggetti.
Controllo formale sulla base dei dati.
E’ essenziale compiere alcune operazioni preliminari, quali il
controllo delle inversione di segno (es. Perdite / patrimonio
negativo), individuazione degli outliers, ossia indicatori
economicamente corretti ma privi di significato che si collocano
I Sistemi di Rating Interno 499
agli estremi della distribuzione, verifica della monotonocità del
segnali economico e finanziario, per cui a partire da un certo
valore l’indicatore segnala la preferenza per uno dei gruppi della
società, prima di quel valore, e procedendo in direzione opposta, la
preferenza va un altro gruppo.
Riduzione degli indicatori da inserire nel modello
Sulla base dei test di valutazione, come le analisi fattoriali,
vengono isolati un numero ridotto di variabili ritenute più
significative.
Il periodo di riferimento
La scelta del periodo di distanza dell’evento default, su cui stimare
il modello, presenta alcune criticità. Si dimostra che stime su t-1
forniscono buone capacità diagnostiche, che vengono meno se
applicati a periodi di riferimento più ampi, t-2, t-3. Stime così
lontane hanno significato solo per individuare fragilità strutturali
che associate a debolezze economiche siano causa di insolvenza.
8.3.2.2 Estrazione del campione
Definizione dei gruppi di imprese
La definizione di imprese bad o anomale e di imprese sane o
good rappresentano scelte cruciali del modello. Nel primo caso,
occorre definire lo stato di default. Nell’ipotesi più restrittiva
l’anomalia viene definita strettamente come fallimento o come
evento connesso a una dichiarazione di una procedura concorsuale
prevista dalla normativa giuridica. Nel caso delle banche è utile
considerare non solo l’evento estremo ma anche i segnali del
processo di crisi aziendale in atto, quale le sofferenze, gli incagli
superiore a un certo periodo e le ristrutturazioni. Per quanto
concerne le imprese sane, se apparentemente presenta maggiore
possibilità di individuazione, di fatto, include un coacervo di
imprese che versano in situazioni molto diverse tra loro, ossia
imprese attive, ma anche controparti incagliate, in evidenza o exincagliate. Dal punto di vista statistico ed economico dovrebbero
essere escluse dal campione le imprese eccellenti e quelle
500 Capitolo 8
vulnerabili, al fine di isolare unità produttive rappresentative di
condizioni normali di gestione.
Composizione del campione
In teoria la numerosità del campione dovrebbe riflettere la
popolazione, ad esempio il 10% fallite e il 90% sane. Si preferisce,
per evitare sovrapposizioni delle distribuzioni di variabili, utilizzare
una numerosità di campioni paritetici, che pur violando il concetto
di casualità del campionamento, riduce i costi diretti e indiretti
degli errori.
8.3.2.3 Modellizzazione
Nell’approccio ordinale/cardinale alla stima del merito creditizio
possono essere fatti confluire tutti i modelli o sistemi diretti alla
determinazione della rischiosità di una controparte sviluppati nel
corso degli ultimi due decenni. Naturalmente, una classificazione
esaustiva della letteratura sull’argomento è alquanto ardua, se si
tiene conto della vastità della tematica. Ai fini di una corretta
esposizione, sembra preferibile adottare, quale ottica interpretativa
della letteratura esistente, la ragion d’essere originaria del presente
lavoro, ovvero l’indagine sugli spazi di applicabilità dei sistemi di
valutazione dei prenditori. Una volta esplicitata la chiave di lettura
della modellistica, è bene ricordare il significato attribuito ai
termini ordinale e cardinale nell’ambito delle due dimensioni
minime entro cui si misura il rischio di credito: probabilità
dell’evento creditizio di riferimento e perdita incorsa ovvero la
perdita attesa. L’approccio ordinale raccoglie le metodologie dirette
all’assegnazione di un prenditore ad una classe qualitativa, poiché
condivide con questa una serie di caratteristiche predefinite.
L’approccio cardinale, invece, comprende quelle metodologie che
consentono di ottenere una stima quantitativa diretta della
grandezza di riferimento (PD o ELR).
Focalizzando l’attenzione sui dati di input richiesti per una
effettiva implementazione dei sistemi, è possibile poi distinguere
tra modelli basati sui dati di bilancio (accounting-based) e modelli
basati sulle quotazioni di mercato (market-based). Prendendo in
esame dapprima i modelli accounting-based, anche in virtù di
I Sistemi di Rating Interno 501
considerazioni di carattere cronologico della letteratura, si può
affermare che tali modelli impiegano essenzialmente metodologie
statistiche di analisi multivariata in cui le variabili contabili di
riferimento vengono tra loro combinate e pensate in maniera tale da
produrre un valore numerico che può essere a sua volta interpretato
come la probabilità default dell’obbligato o un punteggio (score14)
utile ai fini dell’attribuzione dell’obbligato ad una classe in base a
dei range predefiniti15. Possono essere individuati almeno quattro
approcci metodologici di analisi multivariata di rischio di credito:




i modelli di probabilità lineare;
il modello logit;
il modello probit;
i modelli di analisi discriminante.
Tali modelli16 mostrano una certa validità empirica in
corrispondenza sia di diverse fasi del ciclo economico che di aree
geografiche, sono stati comunque oggetto di alcune critiche. In
primo luogo, è stato evidenziato come tali approcci, facendo
fondamento sulle risultanze contabili, sono di fatto basati su dati
raccolti ad intervalli temporali discreti e indicativi della storia
14
È utile anticipare che, trattandosi di un argomento che ha ricevuto un’attenzione diffusa solo
in tempi recenti, l’analisi dei modelli di Rating non beneficia di una terminologia omogenea. In
questa sede, il termine scoring viene utilizzato in senso lato, estendendolo a tutti i modelli che, a
partire da un insieme di dati di input, consenta di ottenere una valutazione numerica della rischiosità
dell’obbligato. In tale ottica, verranno considerati modelli di scoring non solo i modelli da cui si
ottengono valutazioni numeriche generiche ma anche le analisi logit, il cui output è interpretabile
come la probabilità di default. È in tal senso che in questa sede viene interpretata la definizione
proposta da De Laurentis G. (1998) in Sironi A. e Marsella M.:
“Lo scoring è […] una specifica tecnica di determinazione di una misura quantitativa di
affidabilità di un prenditore (più raramente di un’operazione) sulla base di variabili di input e
relazioni, rispettivamente, individuate e stimate su predefiniti campioni di debitori utilizzando
apposite metodologie statistiche”.
15
Vi sono, naturalmente, anche modelli di scoring univariati in cui i ratios chiave del potenziale
prenditore vengono confrontati con quelli di benchmark riferiti all’industria (o gruppo), al fine di
ottenere uno score senza tuttavia adottare alcuna forma di confronto “trasversale” dei dati. Sebbene
questi siano stati i primi modelli statistici effettivamente impiegati per la previsione delle insolvenze,
possono ormai considerarsi superati e vengono pertanto esclusi dalla presente rassegna. L’approccio
univariato alle previsione delle insolvente coincide sostanzialmente con l’analisi finanziaria illustrata
nel paragrafo precedente. Il più noto lavoro condotto facendo uso dell’analisi univariata viene
generalmente riconosciuto in Beaver W.(1966), le cui conclusioni più interessanti sono riassunte da
F. Varetto (1999) in Szego G. e Varetto F.
16
Per un approfondimento di tali modelli si rinvia a una letteratura specialistica in Szego G. e
Varetto F. (1999).
502 Capitolo 8
passata (bakward looking), al contrario dei dati di mercato che
invece sono maggiormente reattivi nell’anticipare le variazioni
delle aspettative degli operatori (forward looking). In secondo
luogo, le formulazioni analitiche di tali approcci impiegano
funzioni lineari dei dati di base che contrastano con una realtà che
raramente soddisfa questa proprietà. Infine, occorre rilevare come
tali modelli conservino ancora un certo margine di soggettività in
quanto non basati su un modello teorico di riferimento che lega tra
loro le variabili chiave attraverso specifiche relazioni funzionali.
I modelli market-based si sviluppano nel corso degli anni ‘90
proprio in risposta a tali criticità. L’obiettivo è quello di definire e
modellizzare, in termini analitici, il processo di default del
prenditore. In tale classe di modelli vengono solitamente
riconosciuti due approcci: strutturale da un lato ed in forma ridotta
dall’altro. Nell’approccio strutturale, che prende avvio dai
fondamentali lavori di Black e Scholes (1973) e Merton (1974),
l’evento di default viene ricondotto all’evoluzione della struttura
patrimoniale dell’impresa. L’impresa, cioè, cade in default quando
il valore degli assets, alla maturity del debito, scende al di sotto del
valore nominale di quest’ultimo. Sebbene il legame tra valore degli
assets e solvibilità dell’impresa, che caratterizza i modelli
strutturali, rappresenti un elemento particolarmente solido su cui
basare la stima della probabilità di default e del recovery rate, il
limite principale riguarda il flusso informativo necessario alla stima
dei parametri, realisticamente sostenibile solo per le società dotate
di una quotazione nei mercati finanziari17. I modelli in forma
ridotta, invece, cercano di dedurre le proprietà del processo di
default dal differenziale di tassi che sussiste tra i titoli rischiosi ed i
titoli privi di rischio, sulla base dell’assunto che tale differenziale
rappresenti il compenso richiesto dagli investitori per il rischio di
insolvenza. Sebbene tali modelli necessitino di un input molto più
modesto rispetto ai modelli strutturali, l’assenza di un legame
17
L’effettiva implementazione dei modelli strutturali, infatti, richiede la conoscenza del valore
degli assets e della volatilità del processo stocastico che ne governa l’evoluzione (o di variabili
direttamente connesse a questi ultimi). Tali dati, ovviamente, non sono direttamente osservabili ma
possono essere approssimati solo attraverso i prezzi di mercato dei titoli azionari.
I Sistemi di Rating Interno 503
endogeno alla
implicazioni18.
struttura
dell’impresa
ne
indebolisce
le
8.3.3 Cenni sui moduli andamentali e qualitativi
L’obiettivo fondamentale è di anticipare la manifestazione delle
insolvenze attraverso tempestiva acquisizione e analisi dei dati
rilevanti che qualificano l’andamento storico del rapporto banca
cliente, una preselezione dei casi critici (anomalie) ed un controllo
selettivo per classi di rischio.
Ciò comporta una rilevazione delle posizioni anomale, una
valutazione di tipo andamentale sull’evoluzione di queste ultime,
attraverso la storicizzazione delle stesse e dei dati analizzati;
l’attribuzione di un giudizio sintetico sul grado di rischio; una
classificazione dei soggetti analizzati all’interno di differenti classi
pass e/o fail; una misurazione del grado di affidabilità del cliente e
del grado di rischio a livello di singolo prodotto erogato.
La valutazione qualitativa si basa su un modulo costituito da una
serie di questionari creati ad hoc per raggruppamenti omogenei di
soggetti con il duplice obiettivo di una valutazione qualitativa del
soggetto e di archiviare informazioni supplementari sui diversi
prenditori ad integrazione del supporto informativo disponibile
all’interno di ciascuna banca.
Il questionario si articola in tre aree, una relativa all’analisi della
controparte, l’altra al settore di appartenenza e l’ultima al Paese di
operatività.
Il rating assegnato da agenzie esterne a livello di controparte,
qualora esista19, e di settore rappresenta un fondamentale input
nella valutazione interna effettuata dalla banca. Tale elemento,
infatti, può essere, eventualmente accompagnato da un sistema di
mapping, completamente sostitutivo del rating interno o costituire
il punto di partenza per ulteriori analisi20.
Qualora l’impresa oggetto di valutazione intrattenga rapporti
commerciali di rilievo verso paesi esteri, o svolga la propria attività
18
Da come descritto, i modelli in forma ridotta utilizzano i dati sulle quotazioni di mercato del
debito obbligazionario emesso da un’impresa.
19
In genere, infatti, tale tipo di informazione esiste solo quando l’impresa è di grandi
dimensioni. Viceversa, nella maggior parte dei casi, tale informazione è indisponibile.
20
Cfr. Basel Committee on Banking Supervision (2000).
504 Capitolo 8
all’estero21, l’assegnazione del rating richiede un’ulteriore fase
necessaria all’analisi del rischio Paese. In generale, tale fase è
finalizzata all’esame dell’ambiente politico, economico, sociale,
tecnologico e naturale dei paesi in cui l’impresa agisce o intende
agire. Gli aspetti menzionati possono essere fonte di incertezza
sotto numerosi punti di vista, in funzione del tipo di attività e di
rapporto intrattenuto. A titolo esemplificativo, nella valutazione si
può essere interessati a:





la conoscenza dell’atteggiamento della classe politica nei
confronti degli scambi internazionali, delle multinazionali,
dell’iniziativa privata, e così via;
all’eventualità di un cambiamento del quadro normativo,
tale da comportare un mutamento, sia positivo che negativo,
degli scenari;
la possibilità che si verifichino tensioni sociali e politiche
tali da condurre ad una nazionalizzazione o espropriazione
delle attività o ad un consolidamento del debito pubblico;
il sopravvenire di vincoli alla conversione valutaria o
dell'indisponibilità della valuta in cui è espresso il debito;
la possibilità che vi siano ampie fluttuazioni del tasso di
cambio22.
Generalmente il rating assegnato al Paese estero da un'agenzia
esterna funge da indicatore alla valutazione interna del rischio
Paese.
I punteggi associati alle diverse risposte vengono ponderate in
base ai pesi attribuiti agli argomenti e alle domande e concorrono al
calcolo dello score qualitativo che determina, insieme agli altri
settori intermedi, il rating della controparte non definitivo
21
In tal senso potrebbe essere utile fissare una soglia percentuale delle entrate o attività
localizzate al di fuori del mercato locale oltre la quale avvalersi anche del fattore rischio Paese.
22
È chiaro che un deprezzamento della moneta estera è uno svantaggio se l’impresa esporta la
sua produzione mentre è un vantaggio se l’impresa importa materie prime. Un ragionamento opposto,
poi, vale nel caso di un apprezzamento del tasso di cambio.
I Sistemi di Rating Interno 505
8.4 Dallo score al Rating: la granularità del sistema
Nei paragrafi precedenti sono stati illustrati i criteri e le
metodologie di che generalmente vengono seguite nella definizione
di un Sistema di Rating. È verosimile ritenere, tuttavia, che
nell’implementazione operativa di un framework di gestione
avanzata del rischio di credito, l’Istituzione Finanziaria, dopo aver
definito i principi-guida, realizzi Sistemi di Rating differenziati a
seconda del sub-portafoglio considerato. In altri termini, le
metodologie esposte vengono tra loro miscelate in funzione delle
caratteristiche
dello
specifico
segmento
considerato23.
Naturalmente, il raffinamento e l’accuratezza del Sistema per subportafoglio ha senso fino a quando l’ampiezza di quest’ultimo
giustifica l’impiego di risorse che comporta (analisi costi/benefici).
Una volta stabiliti i sub-portafogli di riferimento, occorre affrontare
due problemi tra loro consecutivi di grande importanza:


La definizione della numerosità e dell’ampiezza delle classi
ordinali di rating incluse in ciascun sub-portafoglio;
La creazione di una master scale, ovvero una scala di rating
singola che permetta di ricondurre ad unità le valutazioni
ottenute sui diversi segmenti, garantendo così la
confrontabilità del rischio implicito in giudizi di diversa
natura (ovvero, tra prenditori differentemente caratterizzati)
nonché la coerenza nella valutazione dei rischi complessivi.
Nel seguito del paragrafo, quindi, verranno affrontate tali
tematiche.
Numero ed ampiezza delle classi.
Una classe di rating raccoglie tutti i debitori accomunati da
caratteristiche di rischio omogenee, espresse in termini di
probabilità di default o perdita attesa. Nella definizione del numero
e dell’ampiezza di classi di cui si compone il sistema, il primo
23
Ad esempio, i subportafogli in questione potrebbero essere differenziati in base alla
dimensione dell’obbligato (retail, small business, middle market, corporate e large corporate),
dell’area geografica di operatività (Nord, Centro, Sud), del settore di appartenenza (Industria,
costruzioni, servizi).
506 Capitolo 8
passo da compiere consiste nella specificazione dell’evento di
default. È possibile adottare, infatti, diverse definizioni (o proxy) di
default ma in ogni caso questa condizione consiste in uno stato
definitivo dal quale, una volta raggiunto, non è più possibile
migrare verso altre classi (absorbing state)24.
Occorre premettere che, di fatto, non esiste un principio generale
che guidi l’Istituzione Finanziaria nella realizzazione della scala di
rating. Come già anticipato in precedenza25, la scelta del numero e
dell’ampiezza delle classi deve essere attentamente valutata in
relazione al caso concreto, ovvero alle funzionalità che si intendono
assegnare al Sistema e quindi, in ultima analisi, al livello di
dettaglio che si intende raggiungere nella graduazione del rischio,
al portafoglio esistente ed alle strategie sul profilo di rischio che la
banca intende adottare.
Può essere utile a tal fine suddividere la scala di rating in macroclassi, in riferimento ad una condizione più estesa dello stato di
salute del debitore e provvedere successivamente ad un’ulteriore
ripartizione delle macro-classi così individuate. La terminologia
impiegata in tal senso dalla letteratura sull’argomento dipende
dall’oggetto di riferimento.
In un’ottica focalizzata alla graduazione interna si distingue tra
Pass grades e Watch grades:


L’area Pass grades identifica le imprese sane. Vengono
incluse, quindi, le classi che comportano un’accettazione
del finanziamento (nel caso del primo rapporto) o
comunque dello standing creditizio dell’obbligato (nel caso
di un downgrading) senza dare origine all’eventuale
considerazione di procedure di rientro;
L’area Watch Grades, invece, identifica le imprese
problematiche. Poiché il Sistema di Rating deve comunque
conservare una funzionalità di monitoraggio sulle posizioni,
vengono incluse le classi che identificano i diversi gradi di
difficoltà che si riscontrano nelle procedure di rientro.
24
Per una sintesi delle diverse definizioni di default proposte e del dibattito attualmente in corso
presso le Istituzioni di Vigilanza nazionali ed internazionali si rinvia al paragrafo 3.10.
25
Cfr. Infra par. 3.2.
I Sistemi di Rating Interno 507
Naturalmente, il confine tra le due aree non sempre è ben
definito. In particolare, si è soliti sovrapporre l’ultima classe
dell’area Pass alla prima classe dell’area Watch. In genere tale
classe non dà origine alla concessione del finanziamento, ma viene
raggiunta solo a seguito di un downgrading26.
Dal punto di vista dell’Autorità di Vigilanza, soprattutto
statunitense, la “parte bassa” della scala viene identificata come
Regulatory grades e comprende tutte le posizioni che manifestano
difficoltà di rientro, così come definite dalle Autorità stesse. Per tali
classi sono previste specifiche norme in relazione alle riserve 27.
In assenza di una regola generale, che in qualche modo guidi
l’Istituzione Finanziaria nella identificazione del numero e
dell’ampiezza delle classi di cui si compone ciascuna area, può
essere d’aiuto, sviluppando le considerazioni di De Laurentis 28 ,
soffermarsi sull’esemplificazione delle scelte che diverse banche
potrebbero adottare in rapporto a differenti esigenze.
Nella figura 8.2 vengono rappresentate tre diverse scale di rating
associate a tre banche diverse, A, B e C, ipotizzando per semplicità
lo stesso numero di classi e valutandone soltanto l’ampiezza.
Figura 8.3 – Scale di Rating
La banca A opera prevalentemente nel segmento retail,
caratterizzato, come è noto, da una certa omogeneità della
26
Cfr. G. De Laurentis (2001) e A. Resti (2001).
Le Autorità statunitensi distinguono tra: Other Assets Especially Mentioned (OAEM),
Substandard, Doubtful e Loss, a cui sono rispettivamente associate specifici coefficienti di riserva.
Cfr. W. Tracey e M. Carey (1998).
28
Cfr. De Laurentis, (2001).
27
508 Capitolo 8
rischiosità dei prenditori. Per la banca A può essere opportuno
scegliere la stessa ampiezza per ogni classe, al fine di evitare una
eccessiva concentrazione dei prenditori nelle classi più rischiose
qualora adotti un scala come quella di B o di C. Per contro, le
banche B e C, operando prevalentemente nel settore corporate,
potrebbero essere specificatamente interessate ad un migliore
raffinamento nelle classi alte della scala, poiché operando in
mercati molto concorrenziali, l’esatta determinazione della
rischiosità del potenziale prenditore si traduce in un miglioramento
del pricing, agendo quindi su un fattore altamente strategico. Poi, la
scelta del numero di classi su cui effettuare un maggiore
raffinamento della valutazione di rischiosità potrebbe essere dettata
da esigenze organizzative o da motivazioni legate al costo del
raffinamento. Ad esempio, la banca C, essendo di grandi
dimensioni ed operante a livello nazionale ed internazionale,
potrebbe individuare delle economie di scala nell’utilizzo di classi
di piccola ampiezza. Viceversa, la banca C, operante ad un livello
più localizzato può trovare non conveniente il massiccio impiego di
risorse che la costruzione ed il mantenimento che un sistema di
rating così sofisticato comporta.
Master scale.
Una volta effettuate le scelte sulla segmentazione del portafoglio e
costruiti i differenti sotto-sistemi di rating, è necessario individuare
una metodologia che consenta di ricondurre ad unità le valutazioni
implicite in ciascuna scala. Tale esigenza, infatti, può essere
considerata imprescindibile allorquando si riconosca il rating come
primo passo verso una gestione avanzata del rischio. È solo su una
scala di valutazione comune, infatti, che è possibile seguire le
strategie della banca in relazione alle sue politiche di pricing e di
allocazione del capitale, nella misura della profittabilità, nella
determinazione delle riserve in rapporto al suo risk appetite.
In ragione della difformità tra i diversi Sistemi di Rating
implementati all’interno di un istituto, la realizzazione di un unico
metro di giudizio sulla rischiosità dei diversi assets della banca può
essere più o meno difficoltosa. Le uniche metodologie adatta alla
riconduzione delle singole scale in una scala unica può avvenire
I Sistemi di Rating Interno 509
solo attraverso le frequenze relative di default29. L’esperienza
storica sulle perdite in ciascuna classe di ogni scala, può essere
d’aiuto alla banca per valutare la rischiosità delle scale di diversa
dimensione quali-quantitativa. In assenza di dati storici sufficienti –
come si vedrà, problema comune alla maggior parte delle
istituzioni – è possibile fare riferimento al sistema del mapping,
ossia all’associazione delle classi di rating interno alle classi di
un’agenzia esterna e fare riferimento, quindi, alle probabilità di
default calcolate da quest’ultima.
8.5 Il processo di assegnazione e revisione del giudizio
L’implementazione ed il mantenimento di un Sistema di Rating
pervadono fortemente l’organizzazione dell’Istituzione Finanziaria.
In un’ottica allargata di gestione del rischio di credito si rivela
opportuno un reengineering dei processi di affidamento. È
verosimile ritenere, infatti, che i profondi cambiamenti prospettati
dalle scelte operate in merito a tale aspetto si rifletteranno sul
rapporto con la clientela e sul posizionamento della banca sul
mercato.
In un recente studio dell’ABI30 viene suggerita la creazione di
una unità autonoma di gestione del rischio al pari di quanto
realizzato da molte Istituzioni per la gestione del rischio di
mercato. Compito di tale unità, quindi, dovrebbe essere quello di
procedere all’approvazione ed al controllo dei rating proposti da
altri soggetti nonché, in taluni casi, ad una loro diretta definizione.
L’autonomia dell’unità in questione dovrebbe essere intesa
come indipendenza gerarchica e funzionale dall’Area Crediti.
Tuttavia, occorre rilevare che, se si considerano i costi che questa
unità implicherebbe, una simile soluzione si scontra con la
sostenibilità economica di una tale scelta31. Nella realtà operativa si
assiste spesso alla creazione di una unità di revisione dei rating
nell’ambito dell’Area Crediti ma distaccate dalle unità con potere
deliberante.
29
Cfr. Resti A. (2001).
Cfr. ABI, (2000).
31
Cfr. Treacy W.e Carey M. (2000).
30
510 Capitolo 8
In un modello organizzativo “classico” gli organi preposti al
funzionamento dei sistemi di rating sono così identificati32:



Gestori del rapporto (Relationship Managers o Loan
Officers), ovvero operatori che svolgono funzioni
commerciali, con compiti di istruttoria e, per taluni
segmenti di attività, anche poteri deliberativi di
assegnazione del rating;
Addetti fidi (Credit Staff) responsabili della concessione e
del rinnovo dei fidi;
Unità di revisione dei rating (Loan Rewiew Unit) con
funzioni di auditing o controllo.
La responsabilità primaria nell’assegnazione del rating viene a
dipendere essenzialmente dal business mix della banca. Nel
segmento del middle market e small business è lasciato un maggior
argine di libertà al gestore del rapporto. Tale soluzione viene
seguita dalle banche principalmente perché la descritta unità, in
virtù della funzione svolta, possiede un ricco patrimonio
informativo sulle controparti, il che incide positivamente sulla
contrazione dei costi e dei tempi di approvazione del
finanziamento. Il processo per l’assegnazione del rating alle
controparti large corporate è invece demandato agli addetti fidi. I
più elevati costi connessi ad una maggiore meticolosità
nell’assegnazione del rating possono essere coperti dai margini di
profitto più ampi. In taluni casi è prevista la cooperazione tra le due
unità per pervenire in un processo informale (pre-approval
process) all’attribuzione del rating. Occorre rilevare, poi, che
spesso le performance del Relationship Manager, e quindi la loro
remunerazione, sono valutate in funzione dei volumi e/o redditività
dell’Area Crediti creando un incentivo all’adozione di
comportamenti maggiormente orientati alla soddisfazione
economica personale piuttosto che agli interessi della banca. Tali
circostanze, infatti, potrebbero influenzate in maniera ottimistica la
proposizione o assegnazione del rating. L’assegnazione di un rating
migliore rispetto a quello reale da un lato evita l’avvio di indagini
32
Cfr. Treacy W. e Carey M. (2000).
I Sistemi di Rating Interno 511
integrative (non più di competenza del Relationship Manager)
allorquando la rischiosità eccede un livello predefinito, e dall’altro
accresce la profittabilità dell’operazione.
Il rating deve essere visto come un processo dinamico. Il merito
creditizio di un prenditore, infatti, può modificarsi nel corso del
tempo. È necessario, pertanto, verificare con periodicità la coerenza
dei giudizi assegnati al fine di individuare variazioni di rilievo in
grado di produrre modifiche sostanziali alla rischiosità
dell’obbligato. Soprattutto in un’ottica mark-to-market, una delle
più importanti finalità generalmente attribuite ad un Sistema di
Rating, infatti, è quello di monitorare le singole posizioni per
anticipare variazioni inattese del merito creditizio del portafoglio.
Tali aspetti si riflettono fortemente sul pricing dei prestiti (cioè
sulla rinegoziazione dei termini del finanziamento), sulla creazione
delle riserve e l’allocazione del capitale. Particolare importanza
assumono, quindi, i processi di revisione:



monitoraggio di chi ha elaborato e/o approvato il rating;
revisioni periodiche trimestrali o annuali dei crediti più
rischiosi;
le revisioni mirate o a campione da parte di loan review
unit.
Il primo ambito del processo di revisione (monitoring) può
anche non essere svolto in maniera continuativa. In genere esso
viene a basarsi sull’utilizzo di credit scoring model. Inoltre, ove si
renda necessario il passaggio di un obbligato ad una diversa classe
di rating, il processo di assegnazione deve ricalcare quello relativo
al momento dell’instaurarsi del rapporto.
Le revisioni periodiche sono svolte dagli operatori di linea o dal
credit staff che tentano di individuare le modalità per migliorare il
rischio delle posizioni watch grade.
Le unità di revisioni rischi sono invece unità indipendenti con
compiti diversificati. Tra gli altri svolgono funzioni consultive in
caso di difficoltà riscontrate nell’assegnazione del rating;
mantengono l’integrità del sistema di rating disciplinando i
comportamenti di operatori che emanano rating non accurati;
svolgono un processo di revisione a campione e, in caso di
512 Capitolo 8
scostamento di almeno due classi, chiedono un confronto con
coloro che hanno istruito e/o deliberato l’assegnazione.
8.6 Reporting e Monitoring
Un adeguato sistema di reportistica direzionale derivante da un
Sistema di Rating Interno attraverso un’aggregazione e
stratificazione del rischio, consente di descrivere il trend di
rischiosità del portafoglio crediti e rappresenta, quindi, un fattore
strategico di rilievo. Tradizionalmente il report sottoposto
all’attenzione dell’alta direzione e del consiglio di amministrazione
era incentrato sull’andamento delle partite anomale (incagli,
sofferenze); attraverso un Sistema di Rating è, invece, possibile
analizzare in dettaglio l’andamento delle distribuzioni di
esposizioni tra le varie classi di rating. Le esposizioni possono
essere considerate sia in termini di accordato, utilizzato e EAD
(esposizione al momento del default), sia in termini di esposizioni
nette cioè ottenute sottraendo ai valori anzidetti il valore atteso di
recupero per singole linee di credito associate ad un dato debitore.
Gli strumenti utilizzati al fine di identificare il mix di portafoglio
per classi di rating sono essenzialmente rappresentazioni grafiche,
ovvero tabulati. Per rendere l’analisi più analitica è possibile
incrociare i risultati del rapporto esposizione/classe di rating con
altri fattori quali ramo di attività dei prenditori, forma giuridica
dell’affidato, forma tecnica del finanziamento e quant’altro.
Nell’ipotesi in cui la reportistica debba alimentare il processo di
controllo delle performances allora è possibile combinare la
dimensione dell’esposizioni a rischio con quella riferita alle “aree
di risultato” (dipendenze o aree territoriali) e ai “centri di
responsabilità” (gestori del rapporto, unità organizzative).
Ai fini di una informativa di sintesi è possibile avvalersi di un
indicatore del rating medio ponderato, noto come WeightedAverage Risk Rating (WARR), espresso dalla seguente formula:
n
WARR  
ri e i
i 1 n
 ej
j 1
[8.2]
I Sistemi di Rating Interno 513
dove ri rappresenta la classe di rischio i-esima, ei l’esposizione
totale della classe i-esima ed il denominatore rappresenta
l’esposizione complessiva di portafoglio. L’indicatore così definito
esprime la classe media di rating del portafoglio, ponderando
ciascuna controparte in base alla rispettiva esposizione. Tale
algoritmo, pur consentendo di cogliere le modifiche intervenute nel
mix delle esposizioni rispetto ai rating assegnati, presenta un limite
poiché le probabilità di default e le perdite non crescono in misura
lineare rispetto alle classi di rating33.
Un altro indicatore di sintesi è rappresentato dal rapporto tra il
numero degli upgrade ed il numero dei downgrade:
n
 upgrade
i 1
[8.3]
m
 downgrade
j 1
ovviamente se il rapporto è superiore all’unità si ha un
miglioramento della qualità del portafoglio, mentre se è inferiore
all’unità si assiste ad un peggioramento dello stesso.
Un maggiore livello di analiticità può essere ottenuto mettendo a
confronto la differenza tra i notches – cioè il numero di classi su
cui è avvenuto lo spostamento della controparte – degli upgrades e
dei downgrades ed il numero totale dei debitori rated attraverso la
seguente espressione:
n
m
i 1
j 1
 upgrade  notches   downgrade  notches
credit quality drift 
numero dei debitori rated
[8.4]
Tale rappresentazione consente di individuare la consistenza
degli upgrade rispetto ai downgrade e l’intensità del movimento
netto rispetto al totale dei soggetti rated. Ove risultino disponibili i
tassi di perdita attesi per ogni classe di rating, ponderandoli con le
relative esposizioni, è possibile ottenere il tasso di perdita medio di
33
In termini non del tutto corretti, si potrebbe affermare che un aumento del WARR del 10% non
implica un aumento della perdita attesa o della probabilità di default media del portafoglio della
stessa misura.
514 Capitolo 8
portafoglio. Ad esempio, considerando un ipotetico portafoglio di
100 esposizioni, se vi sono stati 5 upgrade di due classi, 5 upgrade
di una classe e 10 downgrade di una classe, l’indicatore misura un
miglioramento medio del 5% del merito creditizio del portafoglio:
credit quality drift 
5  2  5  1  10  1
100
 5%
[8.5]
Occorre rilevare, tuttavia, come la misura così ottenuta sia
fortemente parziale rispetto alle variabili fondamentali del rischio
poiché non prende in considerazione l’esposizione associata alla
variazione del merito creditizio della singola controparte. Ad
esempio, un drift positivo del credit rating medio potrebbe essere
causato in larga misura da un upgrade di numerose piccole
controparti, pur in presenza di un pesante downgrade di una
controparte di grandi dimensioni.
8.7 Stabilità e consistenza dei Sistemi di Rating
Come si è visto, un Sistema di Rating permette l’assegnazione
di un obbligato ad una specifica classe, secondo una scala ordinale,
in base alla rischiosità di cui questo è portatore – espressa facendo
riferimento alla probabilità di default (PD) o al tasso di perdita
atteso (ELR). Il giudizio fornito dal Sistema rappresenta una
valutazione qualitativa del rischio creditizio del prenditore espressa
attraverso l’individuazione di una categoria che meglio lo
rappresenta. Tuttavia, il concreto utilizzo del giudizio così espresso
per le finalità generalmente riconosciute ad un Sistema di Rating
implica la trasformazione della classe qualitativa di merito
creditizio in un dato numerico idoneo a fornire una misura
quantitativa della probabilità di default o del tasso di perdita atteso.
Il passaggio da una misura ordinale ad una misura cardinale,
noto come rating quantification, viene solitamente riconosciuto
come una delle fasi più delicate nell’implementazione di un
Sistema di Rating Interno. I problemi principali di tale operazione
restano in larga misura legati alla enorme mole di dati richiesta per
ottenere stime significative delle variabili di rischio di credito
I Sistemi di Rating Interno 515
considerate. Assumendo che il processo di assegnazione soddisfi
una proprietà di coerenza (consistency) – sia, cioè, in grado di
classificare prenditori simili nella stessa classe e prenditori
differenti in classi diverse – il criterio di più immediato e
metodologicamente corretto per esplicitare la probabilità di default
da una classe di rating è quello di stimare la frequenza relativa dei
default della classe stessa (ovvero, del tasso medio di perdita).
Tuttavia, un’indagine più approfondita degli aspetti analitici di
tale metodologia rivela le sostanziali difficoltà che la rendono nella
maggior parte dei casi di fatto impraticabile. Il problema è quello di
stimare la probabilità di default implicita della i-esima classe, PDi.
L’evento creditizio di riferimento viene quindi formalizzato
assumendo che il fenomeno possa essere trattato in termini di una
distribuzione Bernoulliana, Bij(PD), che assume valore 1 quando la
j-esima impresa della classe i cade in default e valore 0 quando
questo non si verifica. Poiché il valore atteso di una Bernoulliana è
esattamente PD, lo stimatore della probabilità di default non è altro
che la media campionaria della classe:

PD 
B1 j  B2 j  ...  B N j j
Nj
[8.6]
dove Ni è il numero di obbligati appartenenti alla classe i-esima. La
probabilità di default stimata, quindi, non è altro che la frequenza
relativa delle insolvenze, ossia il rapporto tra i default di una classe
ed il numero di obbligati appartenenti alla stessa classe. Dalla
probabilità di default stimata è poi possibile impiegare la (8.6) per
passare alla deviazione standard della stima,  PD , la quale misura
il grado di affidabilità riposto nella stima ottenuta:
 PD 
 
 
PD1  PD 


Nj
[8.7]
516 Capitolo 8
Se si fissa la deviazione standard desiderata, la (8.7) può essere
risolta per ottenere il numero di osservazioni necessario a tale
scopo, data la probabilità di default:
 
 
PD1  PD 


Nj 
[8.8]
 PD
Una semplice analisi numerica dell’equazione (8.8) permette di
comprendere il carico informativo richiesto per ottenere delle stime
accettabili della probabilità di default. La tabella 8.2 contiene i
valori ottenuti applicando la (8.8) in corrispondenza di diversi
valori di PD e PD. Ad esempio, in corrispondenza di una
probabilità di default del 2% occorrono 8711 osservazioni per
raggiungere una deviazione desiderata pari allo 0,15%. Da tali
valori si intuisce, facilmente, come il numero di osservazioni
richiesto per una stima significativa delle probabilità di default
implicite in una classe di rating sia estremamente elevato, anche in
considerazione del numero di classi di cui si compone il
Sistema.Tale problema assume una rilevanza estrema allorquando
si considera che il numero di Istituzioni Finanziarie, tanto a livello
nazionale che internazionale, in grado di accedere a database
talmente ampi da soddisfare le necessità informative richieste è
veramente molto esiguo.
Tabella 8.2
PD
0,5%
1,0%
1,5%
2,0%
2,5%
3,0%
3,5%
4,0%
4,5%
5,0%
Deviazione Standard (obiettivo)
0,10%
0,15%
0,25%
4975
2211
796
9900
4400
1584
14775
6567
2364
19600
8711
3136
24375
10833
3900
29100
12933
4656
33775
15011
5404
38400
17067
6144
42975
19100
6876
47500
21111
7600
0,30%
553
1100
1642
2178
2708
3233
3753
4267
4775
5278
I Sistemi di Rating Interno 517
Una soluzione spesso prospettata per ovviare a tale
inconveniente è quella di individuare una relazione (mapping) tra le
classi di cui si compone il Sistema Interno e quelle di un’agenzia
esterna, per le quali sono disponibili frequenze relative di default,
calcolate su dati storici particolarmente ampi. Tale metodologia,
tuttavia, non è di immediata applicabilità come si potrebbe ritenere
in prima analisi. L’individuazione di un legame tra classi interne e
tassi di default esterni pone infatti due problemi rilevanti:


L’identificazione della classe sulla scala esterna che meglio
si adatta a rappresentare la classe di rating interna34;
La diversa natura dei Sistemi di Rating Interno rispetto ai
giudizi delle agenzie esterne.
La prima questione può essere fronteggiata ricorrendo a delle
valutazioni soggettive da parte dei rater sulle metodologie
attraverso cui si perviene all’assegnazione dei giudizi tanto
all’interno quanto all’esterno al fine di creare la più omogenea
armonizzazione tra le due scale. Una metodologia meno soggettiva,
invece, consiste nell’identificare una relazione tra le diverse classi
per mezzo di un processo di inferenza condotto sulla base degli
indici di bilancio risultanti dalle due valutazioni. In altri termini, gli
indici di bilancio di un gruppo di imprese classificate secondo la
scala interna viene confrontato con gli indici di un gruppo
classificato da un’agenzia esterna per ottenere delle indicazioni sui
corretti accoppiamenti35.
Una volta individuata la migliore associazione tra la scala
interna e quella esterna, occorre valutare con estrema attenzione la
diversa natura del giudizio assegnato dai Sistemi di Rating
considerati. In tale fase, infatti, diventa particolarmente rilevante la
diversa filosofia con cui vengono condotti i processi di
34
Naturalmente, la relazione non deve necessariamente essere del tipo one-to-one. Poiché
difficilmente le due scale avranno lo stesso numero di classi, in relazione al numero di classi di cui si
compone il sistema interno in rapporto a quello esterno, è possibile associare una o più classi interne
ad una classe esterna o viceversa una stessa classe interna a due classi esterne.
35
La “bontà teorica” della metodologia descritta, se non pone grossi problemi quando effettuata
da banche anglosassoni, lascia qualche dubbio se applicata al sistema italiana a causa delle forti
differenze normative, istituzionali e di definizione del default esistenti tra l’ambito operativo italiano
ed il mondo anglosassone. Cfr. ABI, (2000).
518 Capitolo 8
assegnazione del giudizio. Come è stato già evidenziato, con la
logica throught-the-cycle, impiegata dall’agenzie di rating esterne,
il giudizio di affidabilità dell’obbligato viene assegnato valutando
le capacità di reazione di questi in una fase avversa del ciclo.
Viceversa, nella logica point-in-time tipica dei Sistemi di Rating
Interno, la valutazione della controparte viene effettuata avendo
come riferimento prevalente le sue condizioni correnti. Questo
sfasamento nell’assegnazione dei giudizi può condurre a
significativi errori sulla stima della probabilità di default in
relazione alla fase del ciclo economico in cui viene effettuato il
mapping. Il problema in questione si presta ad essere esposto
mediante un semplice esempio numerico36. Si consideri una banca
il cui Sistema di Rating è caratterizzato da sei classi Pass, come
elencate nella tabella 8.3. La stessa tabella riporta, inoltre, le
probabilità di default associate a ciascuna classe, ma che la banca
non conosce a causa della mancanza di dati storici e che cerca di
inferire attraverso la metodologia del mapping. Si ipotizzi ora che
la banca debba classificare due prenditori, A e B. A causa della
natura Point-in-time del Sistema di Rating Interno della banca, la
Tabella 8.3
Fasi positive
Rating Interno
Probabilità di default
A
classe 4
1%
B
classe 5
3%
Fasi negative
Rating Interno
Probabilità di default
classe 5
2%
classe 6
6%
Rating esterno
Probabilità media
BB/Ba
1,50%
B+/B1
4,00%
classificazione effettuata dipenderà strettamente dalla fase del ciclo
economico. Nella tabella 8.3 vengono quindi riportate le
36
Cfr. W. Tracey e M. Carey, (1998).
I Sistemi di Rating Interno 519
valutazioni che la banca effettuerebbe in relazione ai diversi
momenti del ciclo economico nonché le relative probabilità di
default di A e B, comunque ignote alla banca. Si supponga che la
banca effettui il proprio esercizio di mapping in una fase positiva
del ciclo economico e quindi, in base al rating assegnato alle stesse
società da un’agenzia esterna, ravvisi una corrispondenza tra la
proprie classi 4 e 5 e, rispettivamente, le classi esterne BB/Ba e
B+/B1. L’ultima riga della tabella 8.3 riporta le probabilità di
default medie associate dalle agenzie di rating a tali classi.
Pertanto, qualora la banca conduca il proprio esercizio di mapping
in una fase positiva del ciclo si troverebbe a sovrastimare le
probabilità di default reali, assegnando una PD dell’1,5% e del 4%
alle proprie classi interne 4 e 5. Viceversa, qualora la stessa
procedura venisse condotta in una fase negativa del ciclo, la banca,
avendo assegnato i due prenditori alle classi 5 e 6, associerebbe a
queste le classi esterne BB/Ba e B+/B1, generando una sottostima
della effettiva probabilità di default.
Scarica