“ LA STIMA ECONOMICA IN EDILIZIA”

annuncio pubblicitario
PREPARAZIONE ESAMI DI STATO PRESSO LA
FACOLTA’ DI ARCHITETTURA DI ROMATRE
LARGO GIOVANNI BATTISTA MARZI ,10 – PONTE TESTACCIO
SEMINARIO 8 –AULA ERSOCH– 7 MAGGIO 2014 ore 16,30 -18,00
“ LA STIMA ECONOMICA IN EDILIZIA”
A CURA DEL
PROF. ARCH. ALBERTO D’AGOSTINO
________________________________________________
INTERVERRA’ PER GLI ASPETTI ETICO-GIURIDICO-ECONOMICI RIGUARDANTI
L’ESERCIZIO PROFESSIONALE:
IL PROF. ARCH. RAUL MASINI
SEGRETARIO DEL NUOVO “CONSIGLIO DI DISCIPLINA” DELL’ORDINE.
1
COPERTINA TESTO ADOTTATO
EDITRICE ESCULAPIO – BOLOGNA – ED. 2014
2
METODO DI STIMA DELLE AREE
EDIFICABILI
Procedimento sintetico diretto :
Nello studio del processo edilizio la Rendita rappresenta la differenza tra il
Reddito ritraibile dal prodotto finito (prezzo d’uso del fabbricato) ed il
rendimento del capitale investito nella costruzione del fabbricato stesso e nelle
opere di urbanizzazione primaria e secondaria necessarie per rendere il bene
realizzato accessibile e fruibile, quindi utile ed appetibile da parte del mercato.
Pertanto la rendita edilizia ∆R rappresenta la differenza tra il reddito netto
ritraibile dell’intero fabbricato Rn e l’interesse I ritraibile dall’uso alternativo
del capitale monetario C utilizzato per sostenere i costi di urbanizzazione Ku,
i costi tecnici di costruzione Kc, i vari oneri professionali Op, gli oneri finanziari
Of , più il prezzo d’uso di mercato della stessa area in relazione ad una sua
ipotetica destinazione agricola (rendita agricola “normale”).
Avremo pertanto:
R = Rn – (C ⋅ r)
dove:
C = Kc + Ku + Op + Of +
Bf
r'
posto:
Bf =
beneficio fondiario del terreno agricolo;
r'
=
saggio di rendimento del capitale fondiario ad uso agricolo (1,5 ÷
2,5 %);
r
=
saggio di interesse del capitale monetario atteso dall’investitore per
la trasformazione del bene suolo in bene edilizio (8 ÷ 12 %).
Possiamo allora esprimere le variabili socio-economiche ed urbanistiche che
influenzano il valore unitario delle aree edificabili con la seguente espressione:
f ( D, S , D r , C n , M , I c )
V = f ( K c , K u , O p , O f , R, r )
3
ove:
D
S
Dr
Cn
M
Ic
Kc
Ku
Op
Of
R
r
Densità demografica dell’insediamento;
Reddito medio annuo del potenziale acquirente;
Domanda abitativa reale;
Caratteristiche qualitative e di idoneità posizionale del contesto
urbano;
Caratteristiche geomorfologiche del sito che limitano l’offerta;
Indice di fabbricabilità imposto dalle destinazioni di PRG;
Costi tecnici di costruzione;
Costi di urbanizzazione primaria e secondaria;
Oneri professionali;
Oneri finanziari;
Rischi e incertezze dell’investimento;
Tasso di rendimento atteso dell’investimento immobiliare urbano.
L’esperienza concreta del mercato ci dice che la più logica formulazione del
discende dall’attribuire alla stessa una aliquota
valore dell’area Va
percentuale del valore del fabbricato che si andrà a realizzare.
Avremo quindi:
Va = Vm · K
con
K = <1
L’indice K è rappresentativo sia dell’apprezzamento che il mercato fa del bene
in funzione delle sue caratteristiche posizionali, sia dei vari indici di
fabbricabilità dettati dalla pianificazione urbanistica.
I valori di K sono direttamente proporzionali alla vicinanza dei posti di lavoro
dei potenziali fruitori del bene, nonché alla quantità e qualità delle
infrastrutture e servizi sociali della zona e sono nel contempo inversamente
proporzionali agli indici di fabbricazione, come conferma la intuitiva
considerazione che la maggior fruizione di spazio esterno, conseguenza di un
basso indice di fabbricazione, porta ad incidere maggiormente il fattore
rappresentativo dell’area.
L’indagine su diverse e diffuse operazioni di permuta a percentuale, indicano
indirettamente i valori di K tra il 15% e il 40% del valore o dei mc realizzati,
percentuali riguardanti l’arco della casistica che va dalle aree marginali a
quelle pregiate dei grandi centri urbani.
E’ appena il caso di sottolineare che le percentuali di permuta Kp non sono
equivalenti ai coefficienti K, in quanto Kp si riferisce ad aliquote del fabbricato
già realizzato, mentre K si riferisce al valore, al momento della stima, del
suolo non ancora trasformato.
4
Se vogliamo considerare che un fabbricato medio di circa 5.000 mc fuori terra
abbisogna di circa 2 anni per essere ultimato, al saggio del 7,26% 1 si ottiene
che:
K=
Kp
q2
= Kp ⋅ 0,8692
Ciò indica che in genere l’attesa di essere remunerati con permuta,
rispetto al pagamento diretto ed immediato dell’area di sedime, viene premiata
con circa un + 13%.
Altro procedimento sintetico di stima è ovviamente quello di comparare l’area
in esame con altre aree di simili caratteristiche posizionali e di pari indici di
fabbricabilità, di prezzo P noto.
Se gli indici sono diversi, a parità delle altre condizioni, si potrà individuare il
Va incognito in relazione ai diversi indici di fabbricabilità.
Avremo pertanto:
P
Va = P · I ⋅ I '
ove:
Va
è il valore da ricercare;
P
è il prezzo noto dell’area con indice I;
I'
è l’indice dell’area di cui si ricerca il valore;
Il detto procedimento tende a mettere in relazione fabbricati dalle medesime
caratteristiche costruttive in funzione dei loro volumi.
Come già precedentemente detto, in effetti occorre individuare il valore
dell’area in funzione del dato elementare riferentesi a mc costruibili per ogni
mq di suolo disponibile.
Posto in circa 80 il numero dei m3 che compongono ordinariamente un vano
urbanistico, si avrà:
I
Ic = 80v €/mc
ove:
Ic
è l’incidenza del valore dell’area in esame per mc edificabili;
Iv
è l’incidenza nota del valore del suolo a vano;
1 Tasso per finanziamento alle imprese come da D.M.T. del 20/09/2000
5
In pratica, però, i metodi sopra riportati, che si riferiscono a stime sintetiche
per comparazione ed omogeneizzazione delle grandezze tecniche, sono
difficilmente applicabili. Ciò è dovuto alla scarsità delle aree edificabili
disponibili, alla poca o nulla trasparenza del mercato fondiario urbano.
Addirittura la scarsità si trasforma in rarità o addirittura in unicità nelle zone
centrali o semicentrali della città, tale che il metodo sintetico di comparazione
risulta nei fatti non applicabile se non addirittura impossibile.
Di contro la rigidità della domanda, unita alla scarsità dell’offerta, agevola
forme di mercato praticamente di monopolio con prezzi richiesti
ingiustificatamente alti e non in linea quindi con le sperate rendite Urbane da
realizzazione.
Ciò premesso, risulta più attendibile in questo caso una stima analitica
indiretta di tutto il processo edilizio teso alla trasformazione del “bene area”
in un altro bene ad utilità maggiore: “bene edificio”.
Procedimento analitico (indiretto):
Il concetto fondamentale di tale procedimento risiede in una semplice
proposizione: supponendo la conoscenza del costo totale di costruzione di un
edificio più i vari oneri tributari, conoscendo altresì il prezzo cui potrà essere
ceduto l’immobile che si andrà a realizzare, avendo altresì stabilito in fase di
partenza il profitto che si vuole conseguire, conoscendo inoltre i tassi di
interesse praticati dagli Istituti di credito che dovranno anticipare i capitali
finanziari per la programmata intrapresa, prevedendo ancora il tempo di
realizzazione della trasformazione dell’area in fabbricato, è possibile
determinare la somma massima di convenienza che potrà impiegarsi per
l’acquisto dell’area.
In termini molto aggregati si potrà allora scrivere:
Va =
Vm − ( ∑ K c + P )
( 1 + r )n
ove:
Va
è il prezzo massimo cui si potrà pagare l’area edificabile;
Vm
è il più probabile valore di mercato ritraibile fra n anni dal fabbricato
che si andrà a realizzare;
6
Kc
è il totale dei costi (diretti e indiretti) da sostenere per la costruzione del
fabbricato;
P
profitto stabilito in partenza dal promotore quale remunerazione
dell’iniziativa, del rischio, delle innovazioni, del coordinamento dei fattori
della produzione, per la difesa della propria reputazione;
n
anni necessari
insediativo;
r
tasso di interesse atteso dal promotore/imprenditore quale compenso
per l’impiego nell’investimento dei propri capitali e della propria attività.
per
completare
il
ciclo
del
processo
produttivo
Come si può notare, l’esposizione del metodo indiretto (analitico) per la ricerca
del più probabile valore di un’area edificabile potrebbe ritenersi esaurito.
Purtuttavia i parametri posti in gioco risultano troppo aggregati e sono
inadeguati per la loro scarsa consistenza a rappresentare la generalità delle
situazioni che l’Esperto potrà trovarsi ad affrontare.
Il concetto posto alla base di tutto il ragionamento, si riallaccia all’essenza
economica dei fattori della produzione:
terra, lavoro, capitale, imprenditore; considerando l’area urbana come un
bene che fa parte del processo produttivo insediativo in veste di bene di
produzione dal quale, mediante l’erogazione di un determinato capitale e una
determinata quantità di lavoro equivalente al costo di trasformazione, può
ottenersi un edificio.
L’aspetto economico (criterio) della trasformazione è quello che ci
permette di approfondire la ricerca con dati sufficientemente disaggregati e
quindi più facilmente individuabili in fase di analisi.
Si può pertanto dire che in un mercato non perfetto, quale è l’attuale
mercato oligopolistico insediativo urbano che garantisce consentanei profitti, il
valore venale di un’area legalmente edificabile coincide con il suo valore di
trasformazione.
Avremo pertanto:
Vs = Vt =
Vm − ( K c + K u + K up + Ocs + O p + O f + Oa
+ Ps)
(1 + r ) n
ove:
Vs
Valore dell’area del sedime da urbanizzare;
7
Vt
Valore di trasformazione;
Vm
Valore probabile futuro di mercato del fabbricato che ci si ripromette di
realizzare;
Kc
Costo tecnico di costruzione dell’immobile
dell’impresa esecutrice delle opere;
Kup
Costi sostenuti per l’urbanizzazione primaria;
Kus
Costi sostenuti per l’urbanizzazione secondaria;
Oc
Oneri dovuti all’Ente locale per il “permesso di costruire”;
Op
Oneri professionali (rilievi, progettazione architettonica e strutturale,
Direzione Lavori architettonica e strutturale, progetto della sicurezza,
collaudo strutturale edilizio amministrativo contabile, pratiche presso il
Catasto fabbricati, consulenze tecniche, fiscali, legali);
Of
Oneri finanziari quali prezzo d’uso dei capitali monetari erogati dagli
Istituti di credito quale anticipazione;
Oass Oneri assicurativi
pertinenza del Kc);
(esclusi
quelli
comprensivo
previdenziali
ed
dell’utile
assicurativi
di
P
Profitto, al lordo dei tributi, conseguito dal promotore immobiliare attore
della ideazione e realizzazione dell’iniziativa insediativa;
r
Saggio di remunerazione industriale atteso dal promotore immobiliare
per l’attività di coordinamento dei fattori della produzione, per le
innovazioni apportate,
per gli investimenti effettuati, per i rischi
assunti, per il mantenimento della reputazione imprenditoriale ;
n
Numero di anni in cui, attuandosi l’operazione di trasformazione, il bene
non produce reddito.
Per quanto riguarda infine la scelta o meno per le singole componenti della
valutazione di valori attuali riferiti al momento della stima o di valori futuri
nell’arco temporale del processo edilizio si rileva come, in base al principio
della “permanenza delle condizioni”, principio appartenente alla dottrina
estimativa, si preferisca considerare prezzi e costi di trasformazione
all’attualità, non potendo entrare nel merito di una analisi finanziaria
dell’investimento.
8
Tale eventuale valutazione richiederebbe, tra l’altro, il ricorso ad una visione
di economia dinamica non propria dell’estimatore, non risultando peraltro
possibile identificare temporalmente i diversi flussi di cassa.
Entrando nel merito delle singole componenti che intervengono nella stima del
valore di trasformazione dell’area in esame vengono qui illustrate le
componenti delle valutazioni che si andranno a quantificare.



DETERMINAZIONE DI VM
Nella ricerca del futuro valore di mercato del fabbricato che si andrà a
realizzare si usano i criteri ed i metodi già illustrati nei capitoli precedenti (per
comparazione, per punti di merito, per capitalizzazione, ecc.) in base alla
consistenza delle grandezze in gioco.

DETERMINAZIONE DI KC
I costi ordinari di costruzione a nuovo con riferimento al momento della stima,
risultano da una valutazione sintetica diretta per comparazione con altri valori
noti su base unitaria (vano, mq, mc).
In genere il parametro più usato in questi casi è il mc urbanistico (vuoto per
pieno).

DETERMINAZIONE DI KUP
I costi per l’urbanizzazione primaria comprendente la realizzazione di strade
residenziali, spazi di sosta o parcheggi, fognature, rete idrica, rete di
distribuzione dell’energia elettrica e del gas, pubblica illuminazione, spazi di
verde attrezzato, sono stabiliti con deliberazione del Consiglio comunale in
base alle tabelle parametriche che la Regione definisce per classi di Comuni.

DETERMINAZIONE DI KUS
I costi per l’urbanizzazione secondaria comprendente la realizzazione, ove
previsto, di asili nido e scuole materne, scuole d’obbligo nonché strutture e
complessi per l’istruzione superiore all’obbligo, mercati di quartiere,
delegazioni comunali, chiese ed altri edifici religiosi, impianti sportivi di
quartiere, aree verdi di quartiere, centri sociali e attrezzature culturali e
sanitarie le quali ricomprendono le opere, le costruzioni e gli impianti destinati
allo smaltimento, al riciclaggio o alla distruzione dei rifiuti urbani, speciali,
pericolosi solidi e liquidi, alla bonifica di aree inquinate, sono stabiliti con
deliberazione del Consiglio comunale in base alle tabelle parametriche che la
Regione definisce per classi di Comuni.

DETERMINAZIONE DI OC
9
Riguarda la quota di contributo variabile dal 5% al 10% del costo di
costruzione. Essa è determinata all’atto del rilascio del “permesso di costruire”
o al momento di presentazione della D.I.A., con le modalità e garanzie stabilite
dal Comune ed è corrisposta in corso d’opera. Il costo di costruzione per i
nuovi edifici è determinato periodicamente dalle Regioni con riferimento ai
costi massimi ammissibili per l’edilizia agevolata.

DETERMINAZIONE DI OP
Con riferimento ad un apprezzamento sintetico dei costi di costruzione, gli
Oneri Professionali, comprese le consulenze legali, attuariali, fiscali etc. sono
individuati facendo riferimento alle tariffe legali dei vari organi professionali
che non sono più le minime inderogabili. Variano ordinariamente dal 6%
all’11% dei Kc + Kup + Kus.

DETERMINAZIONE DI OF
In merito agli oneri finanziari sostenuti dal promotore, gli stessi si
determinano sinteticamente per confronto diretto con interventi analoghi in
base ad una percentuale del costo complessivo di produzione (Kc + Kup + Kus +
Oc + Op), in ragione del 7-12% , oppure secondo i tassi finanziari correnti di
primari Istituti di credito per tutto il tempo impiegato per la trasformazione.
Occorre tener presente però che i costi di costruzione, nelle iniziative
prettamente private, non sempre vengono impiegati totalmente all’inizio della
trasformazione anche in considerazione che durante qualsiasi operazione
immobiliare il saldo negativo risulta mitigato dall’insorgenza di ricavi
contemporaneamente alla presenza di esborsi.

DETERMINAZIONE DI OASS
Sono costi di assicurazione generalizzata che non include le quote
previdenziali e assicurative degli Enti previdenziali di riferimento in quanto
queste sono ricomprese nel Kc.

DETERMINAZIONE DI P
Al promotore spetta il “profitto” quale remunerazione del rischio,
dell’introduzione di innovazioni, del coordinamento e gestione dei fattori
della produzione e per la conservazione e la difesa della propria
reputazione. Volendo quantificare il tutto, si può considerare di pagare uno
stipendio ad un dirigente d’azienda che svolge l’attività propria del promotore
aumentata di una percentuale K commisurata alla reputazione commerciale,
alla correntezza, all’impegno, alle difficoltà, al rischio dell’intrapresa, all’ansia
patita nell’attesa dei risultati ( il costo del batticuore ). In linea orientativa esso
varia dal 30% al 50% di ∑K, considerando anche i tempi di realizzazione e
commercializzazione dell’intrapresa.
10

DETERMINAZIONE DI “r”
E’ il saggio di remunerazione atteso dal promotore immobiliare sulla base di
quanto ordinariamente si rileva nel mercato dell’industria edilizia. E’ in genere
superiore di 4 o 6 punti percentuali rispetto al tasso che le Banche riservano
a primari clienti : (9%-13 %).

DETERMINAZIONE DI n
Si suppone una durata dell’operazione che vada dall’acquisto dell’area fino
all’ultimazione della vendita o dell’affitto dell’immobile. Se si tratta della stima
di un’area già urbanizzata, n riguarderà solo il tempo necessario alla
costruzione del solo fabbricato, altrimenti riguarderà i tempi dell’intero
processo produttivo insediativo.
*****
Discettando su P (profitto del promotore), alcuni Autori di tradizione
agronomica, tendono ad eguagliarlo a zero invocando gli effetti che
scaturiscono in regime di libera concorrenza.
Sappiamo però, come già ampiamente illustrato in precedenza, che quasi mai
il mercato è perfetto e a fortiori il mercato immobiliare urbano, in quanto si è
sempre verificata e sèguita a verificarsi una cronica esuberanza della richiesta
reale sull’offerta insediativa specie nei grandi agglomerati. Nelle analisi di
stima occorre tener presente allora che, contrariamente agli altri settori
merceologici, quello degli insediamenti abitativi e/o Industriali e/o Direzionali
opera con saggi di profitto più o meno alti a seconda della congiuntura
economica nazionale, dei diversi mercati, della qualità tipologica e delle
caratteristiche posizionali e comunque con profitti quasi mai nulli.
Per quanto sopra detto è giusto porre al numeratore della formula di
trasformazione la grandezza P che può variare dal 30 al 50% della somma di
tutti i costi di produzione, secondo le varie circostanze.
La sua assenza implicherebbe l’eguaglianza tra costo di costruzione e valore di
mercato, proprio dell’improbabile perfetto mercato immobiliare o proprio di un
investimento effettuato da un promotore marginale, circostanza che quasi mai
si verifica nel mercato immobiliare urbano.
Solo nel caso di interventi da parte di Enti pubblici può giustificarsi il
procedimento che utilizza il valore di trasformazione con profitto nullo, come
metodo per individuare il valore del bene pubblico.
11
L’Ente pubblico, infatti, essendo rappresentativo della collettività ed essendo
altresì portatore di interessi diffusi non ha, fra i suoi fini istituzionali, lo scopo
di conseguire un profitto attraverso le attività che svolge.
L’operatore pubblico è per sua natura un operatore marginale.
Quantificazione dei componenti il costo di
trasformazione.
Partiremo da KC, che rappresenta il costo tecnico sopportato dal costruttore
puro di non difficile determinazione sintetica e analitica, costo ricomprendente
la remunerazione dell’attività di direzione e di coordinamento che può essere
suddivisa: spese generali circa il 15%; utili pari a circa il 12 – 15%, per un
totale di 27 ÷ 30%.
Le spese generali rappresentano la remunerazione del lavoro delle persone ed
il prezzo d’uso del capitale fisso, mentre l’utile attiene alla remunerazione
all’imprenditore puro per il solo coordinamento dei fattori della produzione e a
volte per la sua stessa attività manuale e/o intellettuale svolta nell’ambito
della propria impresa.
Possiamo individuare allo stato che i costi di costruzione, riferiti a vano o a
mq, a seguito di statistiche di mercato effettuate nei contratti reali di appalto,
per la zona della provincia di Parma, risultano orientativamente dalla seguente
tabella:
COSTO COSTRUZIONE AL NUOVO
Valori in €
Edilizia Convenz. o Sovvenz.
(Economico-popolare)
Abitazioni Civili di buona qualità
Abitazioni Civili di alta qualità
Abitazioni Civili di lusso
Uffici Direzionali
Edilizia Alberghiera
Edilizia Industriale (capannoni)
Costo a
mc
v. x p.
Costo a
mq
sup. lorda
( 2010)
Parametri unitari
alloggio
mc
mq
Costo a vano
urbanistico
300,00
900,00
75
24
≅ 21.600,00
350,00
400,00
500,00
380,00
420,00
--
1.050,00
1.200,00
1.500,00
1.150,00
1.250,00
350,00
80
83
90
----
25
26
27
----
≅ 26.250,00
≅ 31.200,00
≅ 40.000,00
----
Si deve peraltro far presente che gli elementi unitari appartenenti ad un
fabbricato, da un punto di vista economico non sono tutti equivalenti.
12
Infatti facendo riferimento ai costi unitari medi dei vani, esisterà una diversità
con riferimento a quelli destinati ad uffici, box, posti macchina, magazzini e
laboratori, etc.
Al fine di applicare con coerenza il procedimento analitico precedentemente
riportato, basato sull’incidenza del valore del suolo a metro quadro di edificio
da realizzare, si dovranno necessariamente rendere omogenei il numero dei
vani virtuali, calcolandolo nella maniera per la quale dovrà risultare Vm = ∑Kmn
⋅ N, ove N non corrisponde al numero fisico dei mq o dei mc che costituiscono
l’intero fabbricato da realizzare ricomprendente ambienti di destinazione
diversa da quella eminentemente residenziale, o direzionale.
Con notevole approssimazione si dovrà procedere, nel calcolo del Vm, ad una
omogeneizzazione dei vari valori diversificati a seconda delle destinazioni
d’uso, valori che si andranno a calcolare ragguagliandoli alle unità fisiche
prese in esame del vano residenziale, ottenendo quindi un risultato omogeneo
espresso in unità base di misura unitaria (mc, mq, vani) virtuale.
Troveremo in media e con larga approssimazione che l’incidenza del suolo sul
valore di mercato dell’edificio, a seconda dell’indice di fabbricabilità, potrà
variare dal 15% al 40%.
Aumentando l’indice di fabbricabilità aumenterà ovviamente il valore unitario
del suolo.
Per quanto attiene ai costi totali di costruzione, essi sono distribuiti secondo le
singole categorie di opere riportate in percentuale sui costi unitari.
1°
LA SCELTA DEL TASSO DI
ATTUALIZZAZIONE2
----------Il presente capitolo, dedicato al tema dei tassi deve, riprendere dalle
argomentazioni già presentate con riguardo alla misurabilità del
rischio; e quindi alla possibilità od impossibilità di tenerne conto
nella scelta dei tassi. Come si è già detto, l’opinione prevalente a
2
(Tratto da "Il Metodo Reddiruale per la Valutazione delle Aziende" – Luigi Guatri Ed. EGEA 1996)
13
livello internazionale, ma non esclusiva, è che esistano possibilità
di misurazione del rischio.
In tal senso è tutta la dottrina anglosassone e gran parte di quella
europea, tuttavia con la rilevante eccezione di alcune correnti della
dottrina germanica.
La pratica, che non attribuisce troppa
importanza alla distinzione concettuale tra incertezza e rischio, non si
pone quasi neppure il problema: essa è per la misura del rischio e la
sua « traduzione » nei tassi. Da tale decisione preliminare discende
l’ovvia conseguenza che, se il rischio è giudicato misurabile,
l’eventualità negativa che i flussi attesi non si producano, o si
producano in entità diverse rispetto alle aspettative, si riflette sul
tasso. Nel caso opposto, il tasso è scelto guardando agli investimenti
«senza rischio»; e la variabilità si sconta nella misura attribuita ai
redditi attesi. È proprio su quest’ultima tesi che dobbiamo portare la
nostra attenzione, per sgombrare il campo da possibili equivoci. L’idea
di fondo è l’equivalenza teorica delle due formule:
W = Rce/r;
W = Rce/(r+s);
in cui:
W
Rce
r
s
è il « valore capitale »;
è il « reddito certo equivalente »;
è il tasso di capitalizzazione «senza rischio»;
è la maggiorazione del tasso per il rischio (che diminuisce il
« valore capitale »).
Secondo l’impostazione in esame, la stima di s, cioè in sostanza la
misura del rischio attraverso una serie di maggiorazioni e/o aggiunte
portate ad r, sarebbe impraticabile: ciò in quanto le diverse
«maggiorazioni» che lo esprimono sarebbero, se non pure invenzioni,
così approssimative ed incerte da renderle inattendibili. Tanto
varrebbe, allora, tradurre il reddito medio atteso, o meglio la fascia dei
redditi attesi, in un valore certo: il «reddito certo equivalente» è una
grandezza compresa nella fascia dei redditi attesi, per la quale i rischi
di ottenere risultati superiori ad essa e le possibilità di ottenere
risultati inferiori «si compensano perfettamente secondo le preferenze
consapevoli di rischio del soggetto interessato».
Pur riconoscendo l’impossibilità di tradurre in poche note i complessi
ragionamenti sulla pretesa preferibilità della via del «reddito certo
14
equivalente», non vediamo in qual modo essa possa consentire di
risolvere approssimazioni ed incertezze meglio di quanto possa la via
delle «maggiorazioni» del tasso senza rischio.
Si può al massimo e per brevità consentire che si abbiano gli stessi
problemi, o problemi analoghi; con una sostanziale differenza, però:
che sulla via delle maggiorazioni del tasso hanno da lungo tempo
lavorato teorici e pratici in tutto il mondo, elaborando soluzioni
ingegnose e sofisticate (dal CAPM in avanti) e soprattutto creando
un’ampia base sperimentale.
La via dell’«equivalente certo» non ha analoghi attributi. Essa,
almeno per ora, non ha perciò alcuna ragione per essere accolta; né
— a mio parere — rappresenta un concreto progresso sulla via della
migliore dimostrabilità dei metodi reddituali. Forse l’unico merito
potrebbe ravvisarsi nell’esplicitazione delle incertezze che, in ogni
modo, circondano questi calcoli.
Non si può peraltro disconoscere che uno stretto collegamento esiste
(anche se spesso non misurabile), tra “tasso” e “reddito atteso” con
riguardo all’aspetto del rischio. È intuitivo, ad esempio, che misure di
reddito prudenziali e pressochè certe (in quanto scelte in relazione a
scenari ispirati al pessimismo) si collegano a tassi contenuti; e
viceversa.
Del pari, misure di reddito puramente contabili e riduttive rispetto
alle reali performance (escludenti, ad esempio, una favorevole
dinamica dei beni immateriali, il formarsi di rilevanti plusvalenze su
beni materiali, ecc.) consentono talvolta l’adozione di tassi
particolarmente ridotti, che sarebbero inspiegabili in riferimento a
misure di risultato economico integrato.
Il tema della misura (per gli aspetti quantitativi) e della scelta (per gli
aspetti soggettivi) dei tassi sarà affrontato solo in alcuni aspetti.
Saranno cioè esaminati i concetti base, specie negli aspetti
controversi o sui quali comunque non vi sono ancora opinioni
definitive e di generale accettazione. Si rinvia ad altri testi per un
esame compiuto della materia.
A titolo di premessa, va ricordato che spesso l’elemento soggettivo
ricopre un peso non trascurabile nella definizione del tasso. Ciò nel
senso, come meglio risulterà in seguito, che la componente obiettiva e
dimostrabile soffre inevitabilmente di limitazioni, che si traducono
15
nell’assunzione, con varie modalità, di convenzioni semplificatrici o
basate sull’intuito, o comunque carenti di dimostrazione.
Talvolta
queste limitazioni sono così pesanti e complesse, che gli operatori
evitano semplicemente ogni dimostrazione, affidandosi a scelte
imitative, con criteri di pura soggettività e senza nessun’analisi a
supporto della decisione assunta. E appena il caso di sottolineare che
questo non raro atteggiamento è irrazionale e va stigmatizzato; eppure
esso è molto diffuso.
LA VALUTAZIONE QUANTITATIVA DEL TASSO:
La prima rilevante distinzione concettuale, con riguardo alla
valutazione quantitativa dei tassi, è tra i criteri del “tassoopportunità” e del “costo dei capitali”.
A) Il primo criterio ( tasso-opportunità) assume, com’è ben noto,
che la misura del tasso debba essere ragguagliata al rendimento
offerto da investimenti alternativi, a parità di rischio. Il criterio è
caratterizzato dall’assunzione dal punto di vista dell’investitore,
il quale giudicherà conveniente un certo tasso di rendimento
finché — a parità di rischi — non abbia la possibilità di trovare
un investimento più redditizio. Fondamentale caratteristica del
criterio è dunque la omogeneizzazione dei rendimenti rispetto al
rischio. Il fatto, in altri termini, che si abbiano investimenti
diversamente rischiosi esige che i differenziali di rischio siano
valutati e tradotti in una corrispondente variazione di tasso.
B) Il secondo criterio ( costo dei capitali ) ricerca invece un tasso
corrispondente ai «costi» del capitale proprio (equity), o al costo
medio ponderato (Wacc) dei mezzi investiti in una specifica
intrapresa [mezzi propri (equity) più mezzi attinenti al credito
(debit)]. La specifica intrapresa è quella oggetto di valutazione;
ma in talune circostanze può essere anche il soggetto che si
propone di effettuare l’acquisto di quell’intrapresa (tale ultima
ipotesi, oltre che applicata solo in particolari circostanze
concrete, è anche contestata in dottrina).
Mentre sul piano logico il concetto preferibile è il “tassoopportunità”, sul piano pratico esso presenta serie difficoltà di
calcolo e di dimostrazione. Ciò fa sì che il criterio del costo dei
capitali, che in modo più semplice può trovare riferimenti oggettivi ed
elementi di dimostrazione nel mercato, gli sia talvolta preferito nella
pratica di alcuni Paesi.
Sul tema corrono però, non di rado,
preconcetti che vanno sfatati ed imprecisioni che debbono essere
16
rettificate. Il criterio del “tasso-opportunità” si presenta secondo tre
possibili approcci, di diverso peso e di differente credibilità:
I.
II.
III.
l’approccio quantitativo;
l’approccio qualitativo (omissis);
l’approccio intuitivo o imitativo (sintetico-soggettivo).
Nella pratica americana, tali approcci si applicano al tasso di
attualizzazione (r’, con la nostra simbologia), destinato a riportare al
momento t0 della stima, una serie di flussi netti incerti e diversi tra
loro: f1, f2, ... fn che si prevedono ottenibili ai momenti t1, t2, ... tn,
della quale il valore capitale W0 rappresenta l’equivalente certo al
detto momento t0.
Attraverso appropriati correttivi, dal tasso d’attualizzazione si passa al
“tasso di capitalizzazione” (r con la nostra simbologia): esso, com’è
noto, va inteso come il divisore che, applicato alla grandezza
espressiva di un flusso medio annuale netto atteso e perciò per sua
natura incerto, determina l’equivalente probabile, teorico, incerto,
sperato, W0.
Nella pratica europea, viceversa, nella quale non sono usate formule
per il collegamento automatico tra r’ (attualizzazione) ed r
(capitalizzazione),
gli approcci suddetti si applicano anche
direttamente ad r (oltre che ad r’).
Le divergenze tra r ed r’ risultano quindi originate dalla differente
ampiezza dei periodi futuri di riferimento nonché dalla diversa
consistenza quantitativa dei flussi periodici presi in esame e perciò
dai differenti livelli di incertezza e rischio considerati.
L’approccio quantitativo – in tale approccio sia i teorici sia i
pratici si sono più volte cimentati, esprime il tentativo di fornire una
dimostrazione del modo come il tasso viene scelto: dimostrazione che
si vorrebbe analitica ed oggettiva.
Tutti i tentativi condotti assumono universalmente, come punto di
partenza, il principio che il tasso sia costituito da due componenti:
•
•
il compenso per il decorrere del tempo (componente finanziaria);
il compenso per il rischio (componente specifica).
Questo principio si traduce nella nota espressione concettuale:
17
r = r’+ s
in cui r’ è la remunerazione finanziaria di investimenti Rfree «senza
rischio», cioè legata solo al decorrere del tempo; s è la remunerazione
per il rischio specifico dell’investimento.
Il calcolo di « r » (variabile da un Paese all’altro, oltre che variabile nel
breve o lungo termine) non presenta sostanziali difficoltà. Sul piano
tecnico la scelta si orienta sempre verso investimenti a tasso fisso con
soggetti sicuramente solvibili (l’esempio classico è quello dei titoli di
Stato); e la preferenza va ai rendimenti di titoli a lungo termine
(durata da 10÷15 anni in avanti), in quanto più omogenei rispetto agli
investimenti nell’impresa. In periodi di forte variabilità dei tassi di
rendimento dei titoli pubblici, la scelta di una media riferita ad un
certo periodo (da 3 a 6 mesi) è spesso preferita ad una scelta puntuale
(riferita cioè al momento della stima).
Inflazione
Sul piano metodologico, un problema rilevante è se il «tasso senza
rischio» debba assumersi al netto od al lordo dell’inflazione.
La risposta logica è che ( «r» o «r’» ) debbano contenere entrambi
una misura d’inflazione (prevista e/o programmata) corrispondente a
quella contenuta nei flussi (di reddito o di cassa) che essi provvedono
ad attualizzare. La coerenza ed omogeneità, sotto il profilo
dell’inflazione, tra le due variabili impiegate nel calcolo, è essenziale. I
passaggi affrontati nelle applicazione procedurali, risultati nella
pratica, più idonei, sono:
1. costruzione realistica della distribuzione temporale e della
quantificazione dei flussi di cassa attesi;
2. determinazione del più idoneo tasso di attualizzazione.
Per l'elaborazione di questa analisi è necessario, per esempio,
conoscere i fattori che compongono la tabella del DCFA, quali:
− incassi a valori costanti, ottenibili, al momento della stima, dalla
eventuale
vendita
del
prodotto
considerato
ultimato
(valori
18
istantanei sotto il vincolo del Principio della permanenza delle
condizioni);
− costi a valori costanti, da erogarsi ipoteticamente al momento della
stima, suddivisi tra quelli di costruzione, oneri amministrativi
(urbanizzazione primaria, secondaria e contributo costo di
costruzione), oneri professionali, oneri di commercializzazione,
spese generali e profitto del promotore, etc. (valori istantanei sotto
il vincolo del principio della permanenza delle condizioni e
purtroppo non sempre singolarmente esplicitati);
Come si può notare, in questa fase il fattore “tempo” (attualizzazione)
non compare, in quanto si simula un costo di produzione ed un
prezzo di vendita all’attualità, entrambi non condizionati dalla
probabile anzi quasi sempre certa inflazione futura. È logico che nel
momento che si dovrà valutare il probabile valore reale futuro di un
bene economico, specie se immobile, attraverso l’operazione di
“sconto all’attualità” ad un tasso individuato:
r = r’ + s
si dovrà considerare, ceteris paribus, il tasso di attualizzazione al
lordo del tasso reale o programmato di inflazione, in quanto
trovandosi il tasso di sconto al denominatore della espressione
analitica di attualizzazione, l’ eventuale assenza della aliquota
inflattiva su base annua, corrisponderebbe ad aumentare
artificialmente ( aritmeticamente ) il valore attuale del bene economico
e tale circostanza, specie in presenza di inflazione sostenuta,
risulterebbe un immotivato paradosso.
Le vere difficoltà s’incontrano, poi, nella determinazione della
componente « s ». I tentativi di quantificazione di questa “componente”
sono generalmente ispirati dall’idea di variabilità dei flussi attesi.
L’approccio qualitativo - Una prima interpretazione concettuale
parte dall’osservazione che il rischio è una sorta di qualità dei flussi
attesi. Esso consisterebbe, appunto, nel vario grado di certezza, di
attendibilità, e di credibilità dei flussi prospettici quantitativamente
espressi. Per cui, date due intraprese A e B con redditi attesi eguali (e
per ipotesi anche identicamente distribuiti nel tempo), il loro valore
può essere sostanzialmente diverso se la loro qualità in termini di
rischio è pure molto diversa.
19
Se la probabilità di insolvenza che associamo ad A è del 90% e quella
che associamo a B è del 70%, si dovrà applicare al flusso reddituale di
B un tasso di attualizzazione (che trovasi al denominatore
dell’espressione generale di sconto), sensibilmente più elevato (e
proporzionale al coefficiente di probabilità di insolvenza), poiché la
sua “qualità” è peggiore rispetto a quella del reddito di A.
L’idea della qualità del reddito è però solo un espediente espositivo
(essa si contrappone dialetticamente alla quantità del reddito). Molto
più
preciso
concettualmente,
oltre
che
più
significativo
operativamente, è il richiamo alla variabilità del reddito atteso, o se
vogliamo alla probabilità di scostamento in definite misure rispetto
alle quantità attese e/o concordate.
L’approccio intuitivo o imitativo (detto anche sintetico-
soggettivo) rappresenta una soluzione frequente, specie nella pratica
meno esperta od accurata. Esso in sostanza non stima « s », bensì
direttamente « r » (anche se « s » è ottenibile per differenza,
sottraendo la componente « r ».
L’approccio si basa essenzialmente sulle conoscenze ed esperienze,
nonchè sulla sensibilità di chi conduce la valutazione, cui compete, di
fatto, di identificare, tra le varie alternative d’investimento a valore
noto, quelle giudicate equivalenti in termini di rischio. Se il loro
rendimento è x %, questo sarà il tasso scelto. Ciò significa essersi
convinti concettualmente ed intimamente, sulla certezza che
l’apprezzamento del rischio sia possibile solo sinteticamente,
comparando nell’insieme la situazione specifica con altre, delle quali
sono noti i prezzi e stimabili almeno approssimativamente rendimenti
e rischi. La conduzione di tali raffronti e l’attribuzione di misure ai
rischi degli investimenti alternativi avvengono peraltro in modo del
tutto informale; nel senso che non si esige alcuna dimostrazione né la
si potrebbe pretendere a livello scientifico; non è quindi possibile
nessun riscontro analitico delle decisioni assunte. Il procedimento è
quindi altamente empirico, pertanto sperimentale/applicativo e
perciò necessariamente sintetico: esso concede poco spazio alle
spiegazioni e/o motivazioni, che comunque non vanno quasi mai
aldilà
dell’aspetto
descrittivo
ancorchè
necessariamente
e
doverosamente dettagliate.
“Non possono, insomma contenere, come detto, una vera dimostrazione
della conclusione raggiunta, poiché l’equivalenza del rischio tra
l’azienda da valutare e le alternative d’investimento considerate è
20
affermata per intuito. Vale, in sostanza, più la credibilità e la reputazione
di chi fa la scelta che non la dimostrazione, sempre sommaria e
descrittiva, che egli può fornire”.
Proprio perciò l’approccio si presta ad errori e abusi, come accade per
tutto ciò che non deve essere dimostrato: qualsiasi scelta contenuta
nei limiti delle esperienze note è infatti possibile. Ne derivano due
pericoli:
•
•
la tendenza ad appiattire le scelte sui valori più frequenti, o
tipici. Spesso deriva da ciò un comportamento puramente
imitativo, nel senso che le perizie valutative si copiano l’un
l’altra; o derivano le scelte di tasso dalle indicazioni di testi
accreditati;
la tendenza, altrettanto negativa, a non fornire alcuna
spiegazione della scelta del tasso. Considerando perciò questa
scelta come un indimostrabile e discrezionale assunto di chi
compone la valutazione: il quale ne risponde grazie
all’autorevolezza, alla professionalità, ed alla reputazione che lo
contraddistingue.
Ciò nonostante, l’approccio sintetico/empirico/sperimentale da
alcuni considerato con freddezza “soggettivo”, riceve nella pratica
non poche adesioni. Questo si deve alla circostanza che i metodi
analitici esigono un impegno giudicato eccessivo rispetto ai risultati
giudicati modesti; o richiedono un massa di informazioni non
disponibili o inesistenti; oppure non ottengono una sufficiente
credibilità.
Ad esempio, i tassi di capitalizzazione più frequentemente
assunti negli ultimi anni nella esperienza di alcuni Paesi europei
sono contenuti nei seguenti limiti:
—per l’industria, dal 6 al 10%
(valori tipici: 7-8%);
—per il commercio, dall’8 al 15%
(valori tipici: 10-12%);
—per la banca ed il parabancario,
dal 6 all’8%;
—per le società immobiliari, dal
4% al 6%;
—per le assicurazioni, dal
5% al 7%
e così via;
[nel mondo americano si fa invece riferimento a tassi alquanto più elevati, anche perché di
solito ( e giustamente) non depurati dall’inflazione].
21
IL COSTO DEI CAPITALI
Come si è detto, il secondo rilevante criterio per la definizione e la
valutazione del tasso è rappresentato dal «costo dei capitali».
Questa espressione viene a volte riferita ai capitali dell’azienda oggetto
di valutazione; altre volte ai capitali dell’acquirente effettivo o
potenziale di quell’azienda. I due punti di vista sono concettualmente
molto lontani.
Il secondo (riferito al potenziale acquirente), a ben vedere, non
serve per valutazioni di capitale economico, ma per giudizi soggettivi
di convenienza ad investire. Come accade, ad esempio, se un
potenziale compratore attualizza i flussi derivabili da un’acquisizione
in base al costo dei capitali che egli dovrebbe impiegare: ciò alfine di
giudicare la convenienza dell’investimento ad un certo livello di prezzo
ottenibile. Esaminiamo dapprima questo caso. In proposito va
particolarmente sottolineato che esso, assumendo il costo del capitale
afferente allo specifico acquirente-investitore, non collega in alcun
modo il tasso ai rischi insiti nell’azienda oggetto di valutazione. Il
valore dell’azienda perciò, almeno apparentemente, non dipende più,
attraverso il tasso, dal rischio che la caratterizza.
Questo imprudente e a volte superficiale atteggiamento trova spesso una
possibile attenuazione e/o bilanciamento nelle manifestazioni prudenziali che
possono essere assunte nella stima dei redditi attesi (si depotenziano
empiricamente i “redditi attesi” anziché aumentare razionalmente il “tasso
di sconto” ). Ma tali prudenti manovre non riescono spesso ad annullare
totalmente, sul piano logico, i dubbi sollevati dal totale svincolamento del
tasso di attualizzazione e di capitalizzazione dai rischi che si accompagnano
ai flussi attesi per il futuro.
L’altra possibile interpretazione del criterio del costo dei capitali
investiti consiste nell’assumere non già il punto di vista del possibile
acquirente, bensì il punto di vista della stessa azienda oggetto di
valutazione. Il tasso di capitalizzazione diventa allora il costo atteso
dei mezzi finanziari per tale azienda. Qui la discussione attiene a ciò
si devono cioè
che deve intendersi per «mezzi finanziari»:
considerare e mediare congiuntamente il costo di capitali propri
22
(equity) e dei debiti onerosi (debit)?; oppure si devono considerare
solo i capitali propri?
La prima scelta ha senso quando oggetto diretto di valutazione,
attraverso il processo di attualizzazione o di capitalizzazione dei flussi,
non sia il capitale economico ma l’investimento complessivo;
fronteggiato quest’ultimo sia dal capitale proprio sia dai debiti onerosi
(tanto che per passare dal valore I al valore W, il primo deve essere
depurato dai debiti finanziari). Ovviamente, se il flusso da attualizzare
è al lordo degli interessi passivi, il tasso di attualizzazione è una
media ponderata tra il costo del capitale proprio (r) ed il costo dei
debiti (r); nella quale i « pesi » corrispondono alla entità del capitale
proprio e dei debiti al momento della valutazione. In tal caso la logica
che si applica nel calcolo e le formule nelle quali esso si traduce
corrispondono a quelle adottate per il calcolo del WACC (Weighted
Average Cost of Capita!).
Com’è noto la formula-base per la valutazione della componente s,
con riguardo al costo del capitale proprio, è:
s = β (rm — r)
in cui:
r = tasso degli investimenti senza rischio;
rm = indice espressivo del rendimento generale medio del
mercato azionario;
β
= coefficiente beta, che misura il rischio della specifica
azienda, espresso dalla volatilità del suo rendimento
rispetto a quello dell’intero mercato.
Il punto focale del metodo è il coefficiente beta (β), l’espressione
tipica del CAPM. Il CAPM stabilisce che la «maggiorazione per il
rischio azionario» vada moltiplicata per il beta di ogni specifica
società, per misurare così i cosiddetti rischi «non diversificabili».
Questi ultimi possono essere definiti partendo dall’assunto che
l’investimento in azioni di una qualsiasi società quotata genera due
tipi di rischio.
23
I°
Un primo tipo di rischio (endogeno) è legato all’andamento
tecnico-economico-commerciale della stessa società (come si
comporteranno i suoi prodotti: manterranno od accresceranno la
quota di mercato? Saranno o non saranno remunerativi? Quali
risultati deriveranno dalla ricerca in corso? e così via).
II°
Un secondo tipo di rischio (esogeno) è legato all’andamento
generale dell’economia, che si ripercuote variamente sui settori e sulle
singole aziende.
Il rischio del primo tipo può essere eliminato dai singoli investitori
tramite la diversificazione del portafoglio; il secondo non può essere
eliminato dalla diversificazione (ed è detto perciò rischio non
diversificabile). Il coefficiente beta ( β ) sarebbe, appunto, la misura
del rischio non diversificabile, che quindi non è riflesso dalla
maggiorazione (media) per il rischio azionario.
Valori di β > 1 corrispondono, com’è ben noto, ad alti rischi per il
titolo considerato, nel senso che esso eccede il rischio medio di
mercato; valori di β < 1 hanno ovviamente il significato opposto. Le
500 società americane comprese nell’indice Standard and Poor’s
hanno nell’insieme, per definizione, β = 1. Così come in qualsiasi
mercato il campione di società rappresentativo assume β = 1.
I valori dei coefficienti beta (β) sono oggetto di continui calcoli e
di pubblicazione da parte di Merchant Banks e altri operatori
specializzati, con riferimento a numerose aziende quotate ed a
settori di attività. In tal modo, anche se l’azienda oggetto di
stima non è quotata, è possibile il riferimento ai « β » di aziende
similari. Nel nostro Paese quest’ultima è spesso la via seguita.
24
STIMA DEL TASSO
3
Le tecniche descritte . . . per il calcolo del tasso di attualizzazione
(tasso di sconto) si applicano anche all’Italia, ma la minore
disponibilità di dati rende necessaria una spiegazione più dettagliata
delle seguenti voci:
•
•
Scelta del rapporto d’indebitamento ottimale (ai valori di
mercato);
Stima del costo del patrimonio netto degli azionisti.
Per sviluppare la struttura d’indebitamento ottimale ai valori di
mercato . . . è più pratico fare riferimento a una struttura di capitale
considerata "ottimale" sia per evitare il problema della circolarità nel
calcolo della valutazione (una componente della struttura di capitale
ai valori di mercato, il valore del patrimonio netto, è anche il risultato
del calcolo stesso), sia per evitare che l’attuale struttura di capitale
non sia coerente con le variazioni attese del mix di copertura
patrimoniale a causa della discontinuità nella politica di copertura.
Come è noto . . . le banche commerciali gestiscono in prevalenza il
credito a breve, e le linee di credito a revoca aperta sono lo strumento
di credito più diffuso. Dal 1987, per la prima volta in 50 anni, le
banche commerciali sono autorizzate ad effettuare merchant
banking, e ciò ha contribuito a normalizzare le carenze di capacità di
credito. Titoli privati convertibili e titoli a tassi fissi coesistono con
una grande varietà di titoli del Tesoro, municipali, degli enti pubblici
ed emissioni estere. La liquidità del mercato è molto varia. I mercati
azionari italiani sono tendenzialmente in crescita come fonte di
capitali, con Milano che si configura come borsa principale e altre
borse locali. Assieme ai titoli azionari, in queste borse sono trattati
titoli obbligazionari d’ogni tipo, industriali, governativi e CE e, ancora,
degli enti provinciali e municipali. Attualmente a Milano sul mercato
primario sono quotate circa 300 società. Per definire una struttura
patrimoniale "ottimale" deve essere prestata particolare attenzione a
prestiti collocati privatamente, prestiti in valuta straniera, leasing e
interessi di minoranza, tutte forme di credito molto diffuse in Italia;
3
Fonte: Mc Kinsey – il Valore dell'Impresa – Il Sole 24h
25
per fare ciò si utilizzerà la metodologia descritta . . .. Passività non
finanziarie, come i fondi per spese future (ad esempio, TFR), non
devono entrare nel calcolo del costo medio ponderato del capitale
perché non sono fonti di finanziamento ma passività operative.
Calcolare il Costo del Patrimonio Netto
Le fasi del processo di stima del Costo del Patrimonio Netto secondo il
CAPM (Capital Asset Pricing Model) sono tre:
1.
2.
3.
Determinare il Tasso Senza Rischio (Risk-Free Rate);
Determinare il Premio per il Rischio di Mercato (Market Risk
Prernium);
Stimare il Rischio Sistematico (o non diversificabile) (BETA).
Determinare il tasso senza rischio
Generalmente si raccomanda, in pratica, l’utilizzo del rendimento alla
scadenza (yield to maturity) di un titolo governativo a
dieci/quindici anni o, alternativamente, alla scadenza massima
disponibile. Problemi di liquidità e caratteristiche d’emissione possono
far aumentare eccessivamente tale rendimento, e una media
ragionata di diversi titoli può forse dare un rendimento più corretto.
Determinare il premio per il rischio di mercato
È senz’altro la componente del costo del patrimonio netto con il CAPM
più soggetta a discussione, ed è pari alla differenza tra il ritorno
atteso del portafoglio complessivo del mercato azionario di riferimento
(l’indice MIB è il più diffuso) e il tasso senza rischio appena
esaminato. Il premio consigliato per gli Stati Uniti è del sei per cento
(6%), pari alla media geometrica dell’indice di borsa dal 1926 (quasi
90 anni).
Dati con riferimenti così ampi sono raramente disponibili per altri
paesi, inclusa l’Italia. Dati di periodo più breve sono invece disponibili
per molti paesi. In Italia una stima può essere ottenuta calcolando la
differenza tra i ritorni annuali a media geometrica del Morgan Stanley
Capital Index per l’Italia (36 titoli) e i titoli governativi di lungo
periodo.
Dal 1960 la differenza è stata del 3,8 per cento. Nello stesso periodo
negli Stati Uniti la differenza è stata del 3,75 per cento, e per
26
determinare la media geometrica di lungo periodo si potrebbe
pertanto ipotizzare che questa correlazione sia stabile.
Per l’Italia si stima quindi in 6 punti percentuali (6%) il premio
per il rischio di mercato a lungo termine.
Anche se la qualità dei dati utilizzati per ottenere queste stime è
soddisfacente, una base di riferimento ristretta come quella del
mercato italiano potrebbe non riflettere accuratamente la media
effettiva di mercato, e potrebbe verificarsi un errore sia di sovrastima
che di sottostima. Le imprese multinazionali potrebbero essere
soggette a un più contenuto premio per il rischio, in quanto sia il
cashflow operativo che quello finanziario sono influenzati solo
parzialmente dalle condizioni locali dei mercati finanziari. Questo vale
particolarmente nel caso di grandi imprese appartenenti a un paese
con un’economia di piccole dimensioni, e ancor di più nel caso di
imprese globali. I premi per il rischio degli altri paesi variano in media
da 6 a 8 punti (6% - 8%) e, inoltre, i mercati finanziari delle nazioni
economicamente sviluppate diventano sempre più interrelati. In
conseguenza dell’estendersi del processo di globalizzazione, si
assisterà ad una sempre maggiore convergenza dei premi di mercato e
dei rendimenti "reali".
Stimare il rischio sistematico (beta)
Se la società è quotata in borsa, una stima del beta si può ottenere in
base all’Analisi del rischio dei titoli azionari" di Analysis F.A., che
calcola i beta storici di breve periodo di circa 280 titoli quotati alla
Borsa valori di Milano. Purtroppo il beta necessario per la valutazione
dovrebbe essere, come tutte le altre componenti del CAPM, previsivo e
di lungo periodo, e non semplicemente una media storica.
Soprattutto, se si prevede che la società subirà cambiamenti
strutturali, il beta storico può non essere più molto affidabile. Il
servizio internazionale BARRA World Equity Beta Book fornisce delle
buone stime del beta previsto per circa 3.000 titoli europei, ricavate
dalla combinazione di Financial Times, Actuaries World Index e
Morgan Stanley Capital International World Index.
Il beta da utilizzare è il cosiddetto local predicted beta, oppure il
world predicted beta se ad essere valutata è una società
multinazionale con il rischio sistematico influenzato da
significativi cashflow di tipo operativo o finanziario non generati
in Italia. Usare un beta mondiale e un premio per il rischio
27
internazionale oscillante tra il 6 e l’8 per cento può fornire, per
queste società, una stima migliore del costo del patrimonio
netto; in questo caso, però, il tasso senza rischio deve essere
locale, per coerenza con le attese inflazionistiche e la valuta
utilizzata (spesso quella locale).
In generale, se la società ha più di un tipo di titoli azionari quotati, è
opportuno utilizzare il beta del titolo che capitalizza maggiormente, in
quanto questo, generalmente, è il titolo più trattato. Azioni con poco
volume complessivo sono spesso con poco flottante e il loro beta,
comunque calcolato, è poco significativo.
***
28
LA SELEZIONE DEL TASSO DI
ATTUALIZZAZIONE NELLA STIMA DELLA
LOSS GIVEN DEFAULT:
(solo per chi vuole approfondire
autodidatticamente la materia)
UN’APPLICAZIONE COME
ESERCITAZIONE AL MERCATO
ITALIANO4
Di Lucia Gibilaro
Ricercatore di Economia degli Intermediari Finanziari Università degli
Studi di Bergamo – Facoltà di Economia Via dei Caniana 2 – 24127
Bergamo Tel +390352052675 - Fax +390352052549
e
Gianluca Mattarocci
Ricercatore di Economia degli Intermediari Finanziari Università degli
Studi di Roma “Tor Vergata” – Facoltà di Economia Via Columbia 2 –
00133 Roma Tel. +390672595930 – Fax +39062040219
Abstract
Alla luce degli avanzamenti gestionali e regolamentari sulla Loss
Given Default, il lavoro affronta il tema della scelta del tasso corretto
per la stima del valore attuale dei recuperi. Attraverso la rassegna
della letteratura disponibile sulla LGD, vengono analizzate e
confrontate le soluzioni adottate nella selezione del tasso di
attualizzazione, in particolare con riferimento alla loro variabilità:
1) tasso contrattuale,
4
Il lavoro e frutto di impegno comune e di un continuo scambio di idee tra i due autori. Le singole parti di esso sono attribuibili
come segue: l’introduzione, il paragrafo 2 e le conclusioni sono stati elaborati da Lucia Gibilaro mentre il paragrafo 3 e 4 da
Gianluca Mattarocci.
29
2) tasso risk free
3) tasso determinato con approcci monofattoriali.
Al fine di comprendere l’influenza dei vincoli esterni in un’ottica sia
statica sia dinamica, il lavoro approfondisce le finalità e le
metodologie sulla determinazione del tasso di attualizzazione nella
regolamentazione contabile e prudenziale. A fronte dei limiti degli
approcci riscontrati nella letteratura sia accademica sia operativa per
la misurazione del tasso di attualizzazione rispetto alla stima della
perdita economica dopo, sono esplicativi della variabilità della LGD 5.
1. Introduzione
Quando un debitore entra nello stato di insolvenza, il finanziatore
avvia il processo del recupero:
«l’eventuale perdita economica subita (d’ora in poi LGD), rappresenta,
per qualsiasi intermediario finanziario, una variabile chiave da saper
gestire. Essa, infatti, è determinante ai fini contabili, regolamentari,
gestionali. La LGD costituisce un importante strumento per la
misurazione dell’efficacia e dell’efficienza del processo del recupero
crediti ai fini di minimizzare gli esiziali effetti delle perdite economiche
subite. L’analisi della relazione tra caratteristiche del contratto e
livello della LGD risulta, inoltre, rilevante per la definizione di criteri
guida nella selezione delle forme tecniche e nell’identificazione di
garanzie idonee (Sironi, 2005)».
La definizione del valore della LGD può essere affrontata utilizzando
approcci differenti, basati su dati di mercato o dati interni, che
possono essere classificati in tre macrocategorie (Schuermann, 2001):
1) market LGD,
2) implied market LGD e
3) work-out LGD.
Tali approcci si differenziano significativamente in merito alle
assunzioni di base: in particolare, i primi due approcci assumendo
l’ipotesi dell’efficienza del mercato, rispettivamente dei defaultable
bonds e dei defaulted loans nel secondo caso, prevedono che esso
possa essere utilizzato come benchmark per la stima della LGD
corretta. Analisi internazionali hanno evidenziato le difficoltà relative
5
Loss Given Default (LGD) è una misura del rischio di recupero, una delle componenti del rischio di credito identificata
dall'accordo di Basilea II ed utilizzata per il calcolo del Capitale di vigilanza
30
alla stima della LGD con tali approcci soprattutto per le imprese di
minori dimensioni che non effettuano, solitamente, sollecitazioni
dirette del pubblico risparmio (Araten et al. 2004). La mancanza di
dati di mercato che possono essere ritenuti comparabili ai
finanziamenti concessi dagli intermediari italiani rende, quindi,
obbligata la scelta di utilizzare l’approccio della work-out LGD per
la valutazione del portafoglio crediti degli intermediari domestici.
Nell’ipotesi di stima della LGD sulla base di dati interni disponibili per
l’intermediario, il differimento
temporale dell’incasso dei flussi
positivi e la diversità delle attività relative all’investimento ante e post
default rendono necessarie l’identificazione e la selezione di un tasso
di attualizzazione coerente con il mutato rischio fronteggiato dal
finanziatore rispetto al momento dell’insolvenza. I recenti
avanzamenti della letteratura internazionale in tema di LGD
evidenziano la sua natura di variabile aleatoria e l’influenza su di essa
delle variabili sistemiche, favorendo lo sviluppo di modelli di
misurazione del Credit Var 6 caratterizzati da un unico fattore di
rischio sistemico per la modellizzazione della correlazione fra le LGD.
Le verifiche empiriche evidenziano la rilevanza non solo del ciclo
economico ma anche di altri fattori quali, ad esempio, il settore
economico e il tempo medio di recupero sulla variabilità della LGD:
l’introduzione di tali assunzioni costituisce un aspetto critico per la
selezione del tasso di attualizzazione, che deve essere assunto per
valutare il rendimento dell’investimento durante il processo del
recupero 7. Il lavoro presenta dapprima una rassegna della letteratura
sulla selezione del tasso di attualizzazione per la stima della LGD con
l’approccio del work-out evidenziando le caratteristiche dei differenti
approcci e i vincoli esterni che possono influenzare la scelta tra le
diverse metodologie (paragrafo 2). Alla luce delle proprietà del rischio
del recupero rilevate in letteratura, delle indicazioni regolamentari e
delle evidenze empiriche riscontrate nel confronto fra le ipotesi già
adottate in letteratura, il lavoro presenta, infine, un approccio di
determinazione del tasso di attualizzazione alternativo rispetto alle
proposte presentate in letteratura (paragrafo 3). Il contributo si
conclude con una verifica empirica su un database proprietario di un
intermediario finanziario italiano, finalizzata ad identificare l’impatto
delle diverse metodologie di stima presentate sulla variabilità della
LGD stimata per segmenti omogenei di clientela (paragrafo 4).
6
Per una rassegna sui modelli tradizionali di determinazione del capitale economico a fronte del
rischio di credito, si veda: Altman E.I., Resti A. e Sironi A. (2004).
7
Per una rassegna sulle verifiche empiriche concernenti le determinanti della LGD, si veda Basel
Committee on Banking Supervision (2005c).
31
2. Le scelte del tasso di attualizzazione per le stime
della LGD realizzate secondo l’approccio work-out
L’utilizzo dell’approccio work-out assicura la possibilità di ottenere
stime più corrette per la valutazione dei prestiti concessi da
intermediari finanziari italiani ma richiede la disponibilità di set
informativi molto dettagliati e rende necessaria la selezione del tasso
corretto per l’attualizzazione dei flussi futuri. L’analisi della
letteratura evidenzia la presenza di differenti soluzioni utilizzabili, che
sono state ricavate mutuando approcci ormai consolidati in finanza.
Gli indicatori proposti sono:
−
−
−
il tasso contrattuale applicato al cliente;
il tasso risk free;
il tasso di rendimento corretto per il rischio stimato con un
approccio monofattoriale.
Nel prosieguo del paragrafo vengono esaminati nel dettaglio i tre
approcci evidenziandone le principali caratteristiche e i limiti e
analizzando anche la rilevanza della scelta del tasso corretto per
l’attualizzazione dei flussi legati al processo di recupero. Il paragrafo
finale presenta i requisiti per la selezione del tasso di attualizzazione
previsti dalla regolamentazione contabile e prudenziale: in linea con
l’evoluzione delle metodologie di misurazione del rischio di credito, gli
IAS/IFRS e Basilea 2 dedicano particolare attenzione ai requisiti del
processo di selezione del tasso di attualizzazione.
2.1 L’approccio del tasso contrattuale
L’approccio del tasso contrattuale prevede che i flussi recuperati
dall’intermediario, dopo la manifestazione dello stato di insolvenza,
vengano attualizzati al tasso contrattuale definito all’inizio del
rapporto oppure all’ultimo tasso contrattuale rinegoziato con il
cliente. L’adozione di tale approccio può essere ritenuta ragionevole
soltanto se si ritiene che al manifestarsi dell’evento di insolvenza non
si modifichi il profilo di rischio dell’operazione. L’approccio del tasso
contrattuale rende necessaria la raccolta di un set informativo interno
completo poiché eventuali differenze nei contratti stipulati si
ripercuotono significativamente sull’andamento della capacità di
rinegoziare i tassi e, di conseguenza, sulla loro evoluzione temporale.
La scelta di utilizzare tassi medi o aggregati non rappresenta, quindi,
una soluzione ragionevole per stimare la LGD con tale approccio e
32
risulta necessario costruire un database informativo complesso
alimentato prevalentemente dai dati interni raccolti dallo
intermediario (Asarnow e Edwards, 1995).
La semplice analisi
dell’andamento dei tassi negoziali per tipologia di finanziamento
erogato evidenzia come la scelta di utilizzare tassi aggregati per la
realtà italiana non possa essere ritenuta corretta8(Grafico 1).
Grafico1 - L’andamento dei tassi contrattuali per tipologia di operazione
Elaborazione degli autori su dati Banca d’Italia
Il trend sottostante l’andamento dei singoli tassi è similare ma si
possono registrare significative differenze relativamente ai livelli dei
tassi di interesse nei singoli periodi considerati e all’andamento su
orizzonti temporali inferiori all’anno.
Il vincolo di utilizzare soltanto i tassi specifici in tali approcci lascia al
valutatore unicamente la possibilità di scegliere la data di riferimento
per il tasso da utilizzare: tasso contrattuale iniziale oppure ultimo
tasso contrattuale rinegoziato.
Nella scelta tra le due soluzioni un fattore determinante è
rappresentato dalla data di stipula del contratto perché tanto
8
La classificazione utilizzata replica la segmentazione utilizzata da Banca d’Italia per aggregare le
segnalazioni di vigilanza dei singoli intermediari.
33
maggiore è il tempo intercorso dalla data di stipula del contratto alla
data del manifestarsi dei singoli flussi in entrata, tanto minore è la
significatività dell’utilizzo del tasso iniziale nell’attualizzazione,
essendo le condizioni economiche potenzialmente molto differenti
rispetto alle condizioni vigenti al momento di stipula del contratto.
La significatività del risultato ottenuto con tale approccio diminuirà, a
parità di altre condizioni, all’aumentare del lag temporale tra la data
di riferimento del tasso contrattuale e le date relative ai flussi del
recupero e al crescere della frequenza dei rimborsi. La minore
capacità di identificare correttamente il valore della LGD, se il
processo di recupero si protrae nel tempo, è legata alla maggiore
probabilità che, al crescere della durata del periodo di rilevazione, le
condizioni economiche varino significativamente e i tassi applicati in
passato non rappresentino più una misura corretta del costo
opportunità sostenuto dall’intermediario a causa del mancato
recupero del credito.
Un processo di recupero che prevede flussi frequenti nel tempo rende
difficilmente applicabile la metodologia del tasso contrattuale perché il
tasso utilizzato per l’attualizzazione è fisso e calcolato sull’intera
durata del contratto.
L’applicazione di un tasso costante per l’analisi di un qualsiasi
investimento non rappresenta una soluzione corretta se l’orizzonte
temporale di calcolo del tasso non coincide con l’orizzonte temporale
dell’attualizzazione (Dallocchio e Salvi, 2004) e, soprattutto per
processi di recupero con flussi
dilazionati nel tempo, la probabilità che la durata del contratto non
coincida con l’intervallo di attualizzazione risulta elevata.
2.2 L’approccio del tasso risk free
La stima del valore attuale dei flussi legati al finanziamento erogato
può essere realizzata considerando i tassi medi di mercato per
operazioni di investimento con durata simile all’operazione
considerata. Le difficoltà legate all’identificazione del possibile
rendimento
dell’investimento
con
caratteristiche
simili
ai
finanziamenti concessi può spingere l’intermediario a scegliere di
utilizzare come tasso di attualizzazione il costo opportunità minimo
per il differimento temporale delle entrate, il tasso risk free.
L’applicabilità dell’approccio è, quindi, subordinata unicamente
all’identificazione del mercato di riferimento e della migliore proxy
disponibile per il rendimento dell’attività priva di rischio. L’analisi dei
34
tassi privi di rischio relativi al mercato italiano può essere realizzata
assumendo l’ipotesi, ormai consolidata in finanza, della presenza di
un rischio di default pressoché nullo per gli stati sovrani non
classificati come paesi in via di sviluppo (Damodaran, 1999) e
considerando l’andamento dei titoli emessi dallo stato italiano con
scadenza inferiore a 12 mesi. (Grafico 2)
Grafico 2 - L’andamento dei tassi risk free per le differenti scadenze temporali
Elaborazione degli autori su dati Datastream
L’andamento dei tassi di rendimento per le differenti tipologie di BOT
considerati evidenzia una sostanziale uniformità nel trend e nei livelli
dei rendimenti corrisposti soprattutto negli ultimi anni del
periodo considerato. La scelta del tasso free-risk adeguato per le
differenti scadenze di manifestazione dei flussi non dovrebbe, quindi,
influenzare eccessivamente la stima della LGD poiché le anomalie nel
trend periodale dei tassi per i diversi dei titoli di Stato risultano
soltanto temporanee e non persistenti. Il manifestarsi dell’evento di
default determina l’impossibilità di prevedere ex ante l’importo e le
date di manifestazione dei flussi legati al processo del recupero e
causa, di conseguenza, un aumento del rischio di variabilità dei flussi
di rimborso legati al finanziamento erogato. Anche nell’ipotesi che il
tasso free-risk rappresenti un valore corretto per l’attualizzazione dei
flussi futuri prima del manifestarsi del default, difficilmente è
possibile ritenere che l’utilizzo di tale tasso sia corretto anche quando
i flussi perdono la caratteristica di certezza. La scelta di stimare la
35
LGD con l’approccio del tasso privo di rischio può, quindi,
determinare una sottostima del fenomeno poiché il valore attuale dei
flussi generati dal processo del recupero verrebbe calcolato non
considerando il maggiore grado di incertezza che caratterizza i flussi
di recupero rispetto ai flussi di pagamento stabiliti contrattualmente.
2.3 L’approccio monofattoriale
L’ipotesi di utilizzare un tasso privo di rischio può portare a
sottostimare la perdita in caso di insolvenza poiché difficilmente gli
impieghi realizzati da un intermediario finanziario garantiscono un
rendimento non superiore al tasso free-risk, essendo caratterizzati da
un rischio di perdita non nullo. Una soluzione più attendibile prevede
l’utilizzazione di un tasso di attualizzazione corretto per il rischio
stimato utilizzando un modello con una formulazione simile al
classico CAPM (Sharpe, 1964). Il tasso è, quindi, calcolato come:
r = rf + β (rm − rf )
(1)
dove:
r
= tasso di attualizzazione stimato con il modello monofattoriale
rf
= tasso di interesse privo di rischio
rm = rendimento di un indice di mercato considerato come proxy
del portafoglio di mercato
β
= indice che misura il grado di variabilità del tasso stimato in
funzione della variazione del mercato.
L’approccio ipotizza la possibilità di identificare un indice
rappresentativo del rischio di mercato relativo a tutti i debitori
considerati nella stima della LGD. Le analisi realizzate con tali
approcci utilizzano solitamente come proxy dell’indice di mercato degli
indicatori relativi all’andamento medio dei defaulted bonds negoziati
nel mercato (Altman et al., 2002).
La stima del parametro β viene realizzata in finanza con una
regressione della serie storica del valore dell’attività finanziaria
rispetto alla serie storica dell’indice di mercato (Saita, 2006) e
presuppone la disponibilità di serie storiche sufficientemente lunghe e
continue (Damodaran, 1996). L’analisi dei dati disponibili sui processi
di recupero evidenzia un problema legato all’impossibilità di mutuare
tale approccio per l’indisponibilità di serie storiche sufficientemente
lunghe e, di conseguenza, la necessità di stimare tale parametro non
sui singoli finanziamenti concessi ma su aggregazioni di finanziamenti
36
con caratteristiche comuni, rinunciando ad alcune caratteristiche
specifiche di tale parametro. Il trattamento di aggregati di
operazioni similari permette, infatti, di aumentare l’orizzonte
temporale di osservazione prendendo in considerazione i rendimenti
di posizioni entrate in default e/o chiuse in date differenti ma è
fortemente influenzato dai criteri arbitrari definiti dal valutatore nello
identificazione delle categorie omogenee di considerazione i rendimenti di posizioni entrate in default e/o chiuse in date differenti ma
è fortemente influenzato dai criteri arbitrari definiti dal valutatore
nell’identificazione delle categorie omogenee di finanziamenti. Le
analisi condotte in letteratura dimostrano la presenza di una
relazione tra andamento del ciclo economico ed efficacia del processo
del recupero: tale risultato è giustificato in funzione della relazione tra
valore dei beni escussi durante il processo del recupero e andamento
del ciclo economico dopo il manifestarsi del default (Frye, 2000a). Nel
caso di indisponibilità di un indice di mercato rappresentativo dei
defaulted corporate bonds può essere, quindi, ritenuto ragionevole
utilizzare come proxy dell’andamento del processo del recupero un
indice sull’andamento generale dell’economia considerata. In formule:
dove:
r
rf
PIL
β
r = rf + β (PIL)
(2)
= tasso di attualizzazione stimato con il modello monofattoriale
= tasso di interesse privo di rischio
= Prodotto interno lordo
= indice che misura il grado di variabilità del tasso stimato in
funzione della variazione dell’andamento dell’economia
2.4 I vincoli esterni per la selezione del tasso di
attualizzazione
Nell’ambito del nuovo framework sull’adeguatezza patrimoniale (Basel
Committee on Banking Supervision, 2006), l’evento della recessione
economica e delle conseguenze sulla LGD è trattato prudenzialmente:
poiché le perdite possono superare il livello medio a ca sa, ad
esempio, del decadimento dei valori di realizzo delle garanzie,
l’intermediario finanziario deve innalzare il valore della LGD rispetto
al livello medio per riflettere tali scenari. Le raccomandazioni del
Comitato sulle determinanti della LGD e sulla sua possibile natura
stocastica
hanno
trovato
uno
specifico
approfondimento
37
opportunamente sulla determinazione del tasso di attualizzazione. In
particolare, il Comitato prevede che i flussi finanziari relativi ai
recuperi ed ai costi sostenuti debbano essere attualizzati secondo un
tasso coerente con un investimento che possiede le proprietà
seguenti:
− l’importo è pari all’EAD;
− l’orizzonte temporale è pari all’intervallo temporale che intercorre fra
la classificazione in default della controparte e la chiusura del processo
del recupero;
− se rilevante, il rischio non diversificabile deve trovare un’adeguata
copertura nello spread rispetto al tasso risk free.
Per adottare soluzioni compliant rispetto al principio enunciato e in
armonia anche con altri vincoli esterni, secondo il Comitato gli
intermediari finanziari possono ricorrere a:
− un tasso di attualizzazione adeguato rispetto al rischio del recupero
fronteggiato nel periodo di esposizione;
− una conversione in equivalenti certi dei flussi dei recuperi incassati e
dei costi sostenuti;
− un adeguamento sia del tasso di attualizzazione sia dei flussi dei
recuperi e dei costi in armonia con il principio enunciato.
Si ritiene che la prima alternativa sia la più rispondente ai requisiti
previsti dal paragrafo 468 del Nuovo Accordo e, quindi, idonea
rispetto alla finalità di calcolare una misura della LGD che rifletta la
perdita economica fronteggiata dall’intermediario finanziario. Il
Comitato non fornisce, però, indicazioni in merito al modello da
adottare per la determinazione del tasso di attualizzazione, ma
quest’ultimo deve essere coerente con il principio che la stima della
LGD rifletta il costo della detenzione delle attività in default,
riconoscendo un adeguato premio per il rischio (Basel Committee on
Banking Supervision, 2005b).
Nell’ambito del recepimento delle raccomandazioni del Comitato di
Basilea nella normativa secondaria domestica, l’autorità di vigilanza
ha previsto esplicitamente che il tasso di attualizzazione debba
riflettere sia il valore monetario del tempo sia il rischio insito nella
38
volatilità dei flussi di recupero mediante l’individuazione di un premio
al rischio adeguato (Banca d’Italia, 2006).
Venendo alla seconda alternativa, l’approccio suggerito dal Comitato
prevede la possibilità di misurare la LGD utilizzando come tasso di
attualizzazione il risk free rate soltanto dopo aver convertito i flussi
finanziari in entrata ed uscita in equivalenti certi attraverso
l’applicazione di coefficienti di conversione che tengano conto
dell’influenza dei fattori idiosincratici e macroeconomici (Basel
Committee on Banking Supervision, 2005c). Dal punto di vista
interpretativo, il tasso di attualizzazione applicato secondo tale
alternativa non rappresenterebbe il rendimento dell’esposizione post
default dell’intermediario finanziario da comparare con opportunità
alternative nelle quali investire il capitale economico, ma
esclusivamente il valore finanziario del tempo 9. L’ultima alternativa si
basa sulla combinazione delle proposte precedenti, pertanto ripropone
le medesime caratteristiche alla luce di una maggiore complessità
attesa nella modellizzazione. La selezione del tasso di attualizzazione
per la determinazione della perdita che registra l’intermediario
finanziario quando il merito creditizio della controparte si deteriora
(impairment) è uno degli aspetti centrali dello Ias 39 (International
Accounting Standards Committee, 2003) per le attività finanziarie
classificate nella categoria Loans and receivables . Prescindendo dalla
tipologia della valutazione del credito, analitica o collettiva,
l’intermediario finanziario deve determinare la perdita come differenza
fra il costo ammortizzato e il valore attuale dei flussi finanziari che
incasserà durante il processo del recupero (Faraci, 2005).
Nell’ambito della determinazione del valore attuale dei flussi
finanziari, lo Standard contabile prevede che l’intermediario utilizzi il
tasso effettivo originario (Gazzetta Ufficiale dell’Unione Europea,
2004). Attraverso l’applicazione del tasso effettivo originario alla
rilevazione del deterioramento, l’intermediario rileva la perdita
effettiva caratterizzante l’esposizione creditizia al momento della
valutazione; la metodologia valutativa sottintende:
− la coincidenza dell’orizzonte temporale con la scadenza
dell’esposizione e pertanto la neutralità rispetto a forme alternative di
investimento del capitale economico;
− la coincidenza del rendimento dell’operazione finanziaria ante e post
default (Arnaboldi e Saita,
9
Sulle problematiche relative alla selezione del tasso risk free, si veda il paragrafo 2.2.
39
2005).
3. Una proposta per la determinazione del tasso di
attualizzazione corretto per il rischio
I limiti evidenziati dalle alternative proposte in letteratura possono
rendere necessario lo studio di un approccio di misurazione del tasso
di attualizzazione più ragionevole rispetto all’approccio del risk free
rate e del contractual loan rate che definisca un valore all’interno di
questi due estremi. I problemi legati all’identificazione di alcuni
parametri rilevanti per la stima del tasso di attualizzazione e la scarsa
significatività degli indici sul mercato dei distressed bonds per la
valutazione del rischio dei singoli processi di recupero (Carey e Gordy,
2005), possono rendere l’approccio monofattoriale non adeguato e
creare i presupposti per lo sviluppo di modelli di valutazione più
complessi ma meno approssimativi, vale a dire i modelli plurifattoriali.
Assumendo come valore finanziario del tempo il rendimento derivante
dall’investimento del capitale al tasso risk free, lo sviluppo di un
approccio multifattoriale è subordinato alla preventiva individuazione
delle variabili che influiscono sul rischio dell’attività di recupero; in
base all’analisi della letteratura disponibile, i fattori che influenzano
la LGD possono essere classificati in quattro macrocategorie:
− caratteristiche del debitore;
− aspetti relativi al rapporto7;
− elementi distintivi del contratto;
− fattori macroeconomici.
La costruzione di un modello multi-fattoriale che consideri fattori
rilevanti per la determinazione dell’efficacia del processo di recupero
permetterebbe di ottenere stime della LGD scarsamente variabili per
segmenti di clientela e/o di contratti omogenei e, di conseguenza,
potenzialmente più utili per determinare il rischio futuro di un
determinato portafoglio clienti dell’intermediario. L’efficacia di tale
soluzione per ridurre la variabilità delle stime può essere dimostrata
matematicamente considerando la formula per il calcolo della LGD
(Riquadro 1).
Riquadro 1- La relazione tra tasso di attualizzazione e variabilità della LGD
40
Entrando nel dettaglio delle macrocategorie individuate attraverso
l’analisi della letteratura ed escludendo tutti gli aspetti relativi al
debitore, alla tipologia del contratto e alla presenza di garanzie reali
e/o personali (Araten M. et al., 2004), si possono identificare come
variabili rilevanti del rischio del recupero (banca d’Italia, 2001):
− il settore industriale di riferimento del debitore;
41
− il foro competente per il processo di recupero;
− la tipologia di azione di recupero avviata.
Le perdite in caso di insolvenza del cliente sono legate all’andamento
generale dell’economia e studi presentati in letteratura hanno
dimostrato che in fasi espansive (recessive) dell’economia il processo
del recupero risulta, a parità di altre condizioni, più (meno) efficace
(Altman et al., 2004). L’impatto del ciclo economico non è tuttavia
indipendente dal settore di appartenenza del debitore e, per alcuni
settori di attività, è possibile evidenziare differenze strutturali
nell’efficacia dei processi di recupero10.
La rilevanza del settore di appartenenza del cliente è stata indagata
verificando se le dinamiche di una proxy della LGD, stimata per il
paese Italia, siano differenti a seconda del settore considerato e se tali
differenze possano o meno giustificare una correzione nel tasso
utilizzato per il calcolo del valore attuale dei flussi del recupero
(Tabella 1).
Tabella 1 - Statistiche descrittive della LGD per le branche di attività
economica (1999-2003)
42
Fonte: Elaborazione degli autori su dati Banca d’Italia
Il confronto tra il valore medio per l’aggregato Italia e il valore relativo
ai singoli settori evidenzia significative differenze nella misura della
LGD che permettono di ipotizzare una relazione tra settore di attività
del debitore e efficacia del processo di recupero12.
L’analisi della variabilità del fenomeno negli anni considerati
evidenzia chiaramente un differente grado di aleatorietà del processo
di recupero a seconda del settore di attività considerato. Venendo al
foro competente, le analisi empiriche proposte in letteratura hanno
evidenziato anche per la realtà italiana la presenza di una relazione
tra la localizzazione geografica del foro e l’efficacia del processo.
Si veda tra gli altri Frye (2000).
Sulla metodologia per la
determinazione della proxy, si veda Gibilaro e Mattarocci (2006).
Si veda Carthy et al. (1998) e Warner (1977). Tale evidenza è
confermata dall’analisi condotta attraverso i dati disponibili e diffusi
dall’ISTAT (Tabella 2).
Tabella 2 - Incidenza costi dell’attività di recupero e durata del processo per area
geografica (1999-2003)
43
Fonte: elaborazione degli autori su dati ISTAT
L’analisi del rapporto tra costi ed esposizione iniziale per le singole
regioni evidenzia differenze significative nella convenienza di avviare il
processo del recupero a seconda del foro competente: lo studio
della variabilità del rapporto costi/esposizione permette di evidenziare
per alcune regioni (Trentino Alto Adige e Toscana) e per alcune
province (Bolzano e Trento) una variabilità del fenomeno
significativamente superiore rispetto al resto dell’Italia.
L’analisi dei dati ISTAT sui processi amministrativi svolti in Italia
permette di evidenziare, inoltre, la presenza di significative differenze
nelle singole regioni che potrebbero influenzare l’efficacia del processo
di recupero essendo la variabilità della durata del processo di
recupero per alcune regioni superiore all’anno (fino all’estremo di 982
giorni per la Valle d’Aosta).
L’efficacia del processo di recupero non può essere ritenuta
indipendente dalla tipologia di azione di recupero essendo la durata
media dei processi di recupero significativamente differente in
funzione della tipologia di canali attivati e delle attività potenzialmente
oggetto di escussione da parte dei creditori (Tabella 3).
Tabella 3 - Durata media dei diversi processi di recupero (numero di giorni)
44
Fonte: Elaborazione degli autori su dati ISTAT
La scelta adottata nella tipologia di recupero evidenzia significative
differenze soprattutto tra le operazioni giudiziali e stragiudiziali: ad
45
evidenza, il concordato stragiudiziale rappresenta la soluzione che
può permettere di ridurre al minimo la durata del processo ma espone
ad un rischio significativo che le attese sulla durata si discostino
significativamente dalla durata effettiva mentre le procedure che
prevedono la liquidazione dell’attivo o la chiusura per insufficienza
dell’attivo risultano essere le soluzioni che solitamente hanno una
durata prossima al valore medio stimato.
4. L’impatto del tasso di attualizzazione sulla variabilità
della LGD
4.1 Il campione
Il campione considerato è un database interno di un intermediario
italiano che si posiziona, per i propri segmenti di attività, tra i primi
dieci operatori del settore ed appartiene ad uno dei gruppi bancari più
importati del Nord Italia. Le operazioni considerate sono tutti i
finanziamenti entrati in default a partire dal 1984 e per i quali il
processo del recupero risulta concluso entro il 2005 (il numero
complessivo delle operazioni è pari circa 950). I dati raccolti sono
relativi a finanziamenti concessi soltanto a controparti italiane
diversificate per regione di appartenenza, settore di attività economica
e durata del rapporto tra debitore e intermediario, come evidenziato
dall’analisi delle statistiche descrittive del campione. (Figura 1)
Figura 1 – La classificazione delle operazioni di finanziamento analizzate
Fonte: Elaborazione degli autori su dati del database proprietario
I dati disponibili sono relativi a tutti gli aspetti del processo del
recupero (esposizione al momento del default, tipologia di attività di recupero avviate,
46
flussi in entrata e in uscita legati al processo del recupero, foro competente)
e alcune
caratteristiche del rapporto sottostante il recupero che possono
risultare rilevanti nel segmentare il portafoglio clienti (caratteristiche
del contratto, caratteristiche del cliente, caratteristiche del garante e
della garanzia se presenti).
4.2 La metodologia di analisi
L’analisi proposta considera diverse possibili specificazioni del tasso
di attualizzazione della LGD e verifica l’impatto delle singole scelte
sulla variabilità della stima della LGD. Nel dettaglio le formule
considerate per la stima della LGD nella stima sono:
Alla luce delle indicazioni normative e delle best practices, la validità
del modello di stima della LGD viene verificata considerando la
capacità di ottenere stime coerenti e poco variabili nel tempo al livello
sia del portafoglio complessivo sia di segmenti di clientela omogenei.
Alla luce delle indicazioni di Banca d’Italia (Banca d’Italia, 2006), sono
identificati i seguenti fattori di segmentazione:
1. le caratteristiche delle transazioni;
2. i profili caratterizzanti del debitore;
47
3. la struttura organizzativa e forma giuridica del cliente.
La validità e l’efficacia dei diversi approcci della stima per la LGD sono
state di conseguenza verificate considerando, oltre ai risultati ottenuti
sul portafoglio aggregato, anche le implicazioni che tali scelte
determinano sui segmenti di portafoglio con caratteristiche omogenee.
Il database considerato ha permesso di valorizzare i tre elementi
caratterizzanti la LGD, indicati da Banca d’Italia a proposito dei
requisiti per la stima del fattore di rischio, utilizzando, in alcuni casi,
variabili differenti per la costruzione dei segmenti di clientela
omogenei (Riquadro 2).
Riquadro 2 – Le segmentazione del portafoglio sulla base delle indicazioni Banca d’Italia e
dei dati disponibili nel database
Criterio di segmentazione
Variabili disponibili nel
database
Forma tecnica
Caratteristiche delle transazioni
Ammontare esposizione
Presenza garanzie
Profili caratterizzanti debitore
Residenza
Settore
Struttura organizzativa
Forma giuridica
Specificazione variabili
Distinzione in due macrocategorie
di contratti in funzione del rischio
assunto in base alle specifiche del
contratto
Classificazione in 4 portafogli
sulla base dei quartili della
distribuzione dell’EAD
Garanzia reale
Garanzia personale
Nord-Est NordOvest Centro
Sud
Pubblica Amministrazione
Società Finanziare
Società non Finanziarie
Privati
Società di persone
Società di capitali
4.3 I risultati
L’analisi delle differenze esistenti tra le statistiche descrittive delle
LGD calcolate con i diversi tassi di
attualizzazione permette di evidenziare le implicazioni sul livello e la
variabilità della LGD. (Tabella 4)
Tabella 4 – L’impatto del tasso di attualizzazione sulla LGD stimata per l‘intero
campione
48
Fonte: Elaborazione degli autori su dati del database proprietario
Le stime della LGD più variabili sono ottenute utilizzando tassi di
attualizzazione non dipendenti dalle caratteristiche del contratto
(tasso risk free e tasso monofattoriale calcolato utilizzando
l’andamento generale dell’economia) e i livelli minimi di variabilità del
valore stimato della LGD si riescono ad ottenere utilizzando come
tasso di attualizzazione il tasso contrattuale o un modello
multifattoriale funzione di alcune caratteristiche specifiche del
rapporto. La scelta del modello multifattoriale risulta preferibile
perché permette di ottenere una distribuzione della LGD meno
distorta in termini di grado di curtosi e di asimmetria e, di
conseguenza, considerabile nell’ambito della determinazione del
requisito patrimoniale non soltanto in modo deterministico 10 ma
anche in modo stocastico 11.
L’analisi dei diversi portafogli costruiti utilizzando i criteri di
segmentazione presentati nel precedente paragrafo evidenzia risultati
che supportano la tesi dell’esigenza di selezionare un tasso
multifattoriale per avere delle stime della LDG idonee ad essere
utilizzati a fini previsionali. (Tabella 5)
Tabella 5 – L’impatto del tasso di attualizzazione sulla LGD stimata per i diversi segmenti
di portafoglio
10
Basel Committee on Banking Supervision (2006), par. 272.
11
Per i vantaggi dei modelli stocastici rispetto ai modelli deterministici nella stima della LGD, si
veda Basel Committee on Banking Supervision (2005a).
49
Fonte: Elaborazione degli autori su dati del database proprietario
L’analisi dei portafogli costruiti sulla base dell’area geografica,
dell’esposizione e della natura delle garanzie evidenzia, infatti,
risultati coerenti con lo studio condotto sul portafoglio complessivo,
mostrando una deviazione standard minore per le LGD stimate con il
modello multifattoriale. I portafogli costruiti sulla base dei settori
economici evidenziano solo per alcuni segmenti di clientela (Pubbli- ca
Ammistrazione e Privati) una riduzione della variabilità della LGD nel
caso di adozione di modelli multifattoriali per l’attualizzazione dei
flussi del recupero. I portafogli costruiti sulla base della forma
giuridica e sulla base della forma tecnica presentano caratteristiche in
50
termini di variabilità della LGD non coerenti con i risultati ottenuti a
livello aggregato. Tale risultato può, tuttavia, essere in parte collegato
all’impossibilità definire criteri di segmentazione del portafoglio più
dettagliati che permettano di valorizzare in modo più dettagliato i
profili relativi alla struttura organizzativa e alla tipologia di contratto
sottoscritto.
5. Conclusioni
La letteratura disponibile pone particolare attenzione alla variabilità
della LGD rispetto al ciclo economico: l’analisi svolta ha evidenziato
che la selezione del tasso di attualizzazione nella prevalenza delle
verifiche empiriche disponibili non è, però, coerente con le proprietà
riscontrate. Gli approcci rilevabili in letteratura sono raggruppabili
nelle categorie del tasso contrattuale, del tasso risk free e del tasso
basato su un modello ad indice singolo. Attraverso un’analisi di
sistema, il lavoro ha dimostrato come l’assunzione di utilizzare il
tasso risk free per l’attualizzazione dei flussi di cassa sottovaluti
eccessivamente il rischio del processo di recupero mentre il tasso
contrattuale non rappresenta una misura corretta soprattutto per
processi di recupero lunghi o relativi a posizioni aperte in periodi non
recenti. Al manifestarsi dell’evento del default, il rischio
dell’operazione cambia significativamente poiché i flussi in entrata
non sono più generati dal rapporto contrattuale bensì dal processo del
recupero: il tasso contrattuale non può, quindi, essere considerato
coerente con il nuovo scenario. Tra gli approcci corretti per il rischio
potenzialmente adottabili anche alla luce delle indicazioni presenti nel
Nuovo Accordo, l’approccio monofattoriale potrebbe risultare
inefficace a causa della possibile influenza dei fattori idiosincratici
ulteriori rispetto al ciclo economico; un approccio plurifattoriale, una
volta identificata la relazione funzionale fra le variabili e verificata la
relazione ipotizzata su un campione sufficientemente ampio, risulta
potenzialmente in grado di ottenere migliori risultati. I fattori specifici
rivelanti per lo studio della variabilità del processo del recupero sono
stati individuati nel settore di appartenenza del debitore, il foro
competente e la tipologia dell’azione del recupero. L’applicazione di
tale approccio ad un campione di operazioni relative al mercato
italiano ha mostrato la validità di tale metodologia, evidenziando una
significativa riduzione della variabilità della stima rispetto agli
approcci proposti in letteratura al livello sia della base dati nel suo
complesso sia di segmenti omogenei di clientela.
Bibliografia
***
51
ACHARYA V.V., BHARATH S.T. e SRINIVASAN A. (2005), Does
industry-wide distress affect defaulted firms? Evidence from creditor
recoveries, London Business School working paper, Londra
ALTMAN E.I., BRADY B., RESTI A. e SIRONI A. (2002), The link
between default and recovery rates: implication for credit risk models
and procyclicality, BIS working paper, New York
ALTMAN E.I., RESTI A. e SIRONI A. (2004), “Default recovery rates in
credit risk modelling: a review of literature and empirical evidence”,
Economic Notes, vol. 33, pp. 183-208, Siena
ALTMAN E.I. e KISHORE V.M. (1996), “Almost everything you wanted
to know about recoveries on defaulted bonds”, Financial Analyst
Journal, vol. 52, pp. 57-64, Charlottesville
ARATEN M., JACOBS J.J. e VARSHNEY P. (2004), “Measuring LGD
on commercial loans: an 18-year internal study”, RMA Journal,
Maggio, pp. 28-35, New York
ARNABOLDI F. e SAITA F. (2005), “Le implicazioni degli IAS-IFRS per
il credit risk management nelle banche”, in MAZZEO R., PALOMBINI
E. e ZORZOLI S. (2005), IAS-IFRS e imprese bancarie, Bancaria
Editrice, Roma
ASARNOW E. e EDWARDS D. (1995), “Measuring loss on defaulted
bank loans: a 24-year study”, Journal of Commercial Lending, Vol. 77,
pp. 11-23, Philadelphia
BANCA D’ITALIA (2001), “Questionario sul recupero crediti: principali
risultati”, Bollettino di vigilanza, n.12, dicembre
BANCA D’ITALIA (2006), Nuove disposizioni di vigilanza prudenziale
per le banche, Circolare n. 263, dicembre.
BASEL COMMITTEE ON BAKING SUPERVISION (2005a), An
explanatory note on the Basel II IRB risk weight function, Basilea,
Luglio
BASEL COMMITTEE ON BANKING SUPERVISION (2005b), Guidance
on paragraph 468 of the framework document, luglio, Basilea
52
BASEL COMMITTEE ON BANKING SUPERVISION (2005c), Studies on
the validation of internal rating systems, BIS working paper n.14,
maggio Basilea
BASEL
COMMITTEE
ON
BANKING
SUPERVISION
(2006),
International convergence of capital measurement and capital
standards. A revised framework, giugno, Basilea
BERGER A.N. e UNDELL G.F. (1995), “Relationship lending and line
of credit in small firm finance”, Journal of Business, Vol. 61, pp. 351381, Chicago
CAREY M. e GORDY M. (2005), Unrecovering recoveries, Board of
Governors of the Federal Reserve System mimeo, Washington
CARTHY L.V., HAMILTON D.T., KEENAN S.C., MOSS A., MULVANEY
M., MARSHELLA T. e SUBHAS M.G. (1998), Bankrupt bank loan
recoveries, Moody’s Investor Service special report, New York
CARTY L.V e LIEBERMAN D. (1996), Default bank loan recoveries,
Moody’s Investors Service Special Report, New York
DALLOCCHIO M. e SALVI F. (2004), Finanza d’azienda, Egea, Milano.
DAMODARAN A. (1996), Manuale di valutazione finanziaria, McGraw
Hill, Milano
DAMODARAN A. (1999), Estimating risk free rates, Stern School of
Business working paper, New York.
DAVYDENKO S.A. e FRANKS J.R. (2004), Do bankruptcy codes
matter? A study of defaults in France, Germany and UK, London
Business School working paper, Londra
DE LAURENTIS G. e RIANI M. (2005), “Estimating LGD in leasing
industry: empirical evidence from multivariate model” in ALTMAN E.,
RESTI A. e SIRONI A. (2005), Recovery risk. The next challenge in
credit risk management, Risk books, Londra
EBERHART A. C., MOORE W.T. e ROENFELDT R.L. (1990), “Security
pricing and deviations from the absolute priority rule in bankruptcy
proceedings”, Journal of Finance, vol. 45, pp. 1457-1469, Philadelphia
53
FARACI F. (2005), “Le implicazioni degli IAS-IFRS per le politiche di
bilancio delle banche”, in MAZZEO R., PALOMBINI E. e ZORZOLI S.
(2005), IAS-IFRS e imprese bancarie, Bancaria Editrice, Roma
FRYE J. (2000), “Collateral damage”, Risk, vol. 13, pp. 28-29, Londra
FRYE J. (2000a), Depressing recoveries, Federal Reserve Bank of
Chicago working paper, Chicago
GAZZETTA UFFICIALE DELL’UNIONE EUROPEA (2004), Regolamento
(CE) n.2086/2004, L 363/1 del 19 dicembre, paragrafo 9 dell’allegato
GIBILARO L. e MATTAROCCI G. (2006), La selezione del tasso di
attualizzazione nella stima della loss given default, Newfin working
paper, n. 6, Milano
GRUNERT J. e WEBER M. (2005), Recovery rates of bank loans:
empirical evidence from Germany, University of Mannheim working
paper, Finanzwirtschaft, Bankbetriebslehre
HAMILTON D.T. e CARTHY L.V. (1999), Debt recoveries for corporate
bankruptcies, Moody’s Investors Service Special Comment, New York
INTERNATIONAL ACCOUNTING STANDARDS COMMITTEE (2003),
International accounting standard 39. Financial instruments:
recognition and management, dicembre, Londra
IZVORSKY I. (1997), Recovery ratios and survival times for corporate
bonds, IMF working paper, New York
LONGHOFER S.D. e SANTOS J.A.C. (1999), The importance of bank
seniority for relationship lending, Federal Reserve Bank of Cleveland
working paper, Cleveland
MACLACHLAN I. (2004), Choosing discount factor for estimating
economic LGD, Australia and New Zealand Banking Group Limited
research paper, Melbourne
SAITA F. (2006), “Il capital asset pricing model” in FABRIZI P.L.(a
cura di), L’economia del mercato mobiliare, Egea, Milano
SCHUERMANN T. (2001), What we know about loss given default,
Wharton University working paper, Philadelphia
54
SCHUERMANN T. (2004), What do we know about loss given default,
Wharton University working paper, Pennsylvania
SHARPE W. F. (1964), “Capital asset prices: a theory of market
equilibrium under conditions of risk”, Journal of Finance, vol. 19,
425-442, Philadelphia
SINGH M. (2003), Recovery rates from distressed debt - empirical
evidence from chapter 11filings, international litigation, and recent
sovereign debt restructurings, IMF working paper, Washington.
SIRONI A. (2005) (a cura di), Rischio e valore nelle banche, Egea,
Milano
TRUCK S., HARPAINTER S. e RACHEV S.T. (2005), A note on
forecasting aggregate recovery rates with macroeconomic variables,
University of Karlsruhe working paper, Karlsruhe
VAN DE CASTLE K. e KEISMAN D. (1999), “Recovering your money:
insights into losses from defaults”, Standard & Poor’s Credit Week,
Giugno, New York
WARNER J.B. (1977), “Bankruptcy costs: some evidence”, Journal of
Finance, vol. 32, pp. 337-347, Philadelphia
55
Scarica