Sei sulla pagina 1di 38

La stima dei parametri

Per limplementazione della procedura abbiamo bisogno di stimare e , cio il valore atteso e la matrice di covarianza della distribuzione dei fattori di rischio. Due possibilit:
(i) (unconditional): calcolo la media campionaria e la matrice di covarianza campionaria su un periodo lungo; (ii) (conditional): ipotizzo che i dati siano la realizzazione di una serie storica multivariata e stimo media e matrice di covarianza sulla base del modello ipotizzato (esempi: EWMA, GARCH);

Debolezze del metodo parametrico:


(i) la perdita linearizzata potrebbe essere diversa dalla perdita effettiva. Le soluzioni possibili sono due: unapprossimazione basata anche sulla derivata seconda della funzione che lega gli strumenti ai fattori di rischio (metodo Delta-Gamma); la full valuation, vale a dire la completa rivalutazione del portafoglio a seguito del cambiamento dei fattori di rischio; (ii) lassunzione di normalit poco realistica (problema delle code pesanti).

La curtosi
Per quanto riguarda il secondo problema, unutile misura della pesantezza delle code la curtosi. La curtosi di una v.c. X con E(X 4 ) < data da: k= E(X )4 . ( 2 )2

La curtosi di una v.c. normale sempre uguale a 3, a prescindere dai valori di e . Una v.c. X si dice leptocurtica se ha curtosi maggiore di 3. In questo caso ha le code pi pesanti ed pi appuntita. Per esempio, la curtosi della t di Student con p gradi di libert (tp ) data da ktp = 3(p 2)/(p 4). Per vericare se la distribuzione dei cambiamenti dei fattori di rischio leptocurtica, cio se le code sono pesanti, si pu calcolare la curtosi empirica; se molto maggiore di 3, il VaR normale ad alti livelli di condenza sottostimer le perdite.

La simulazione storica
Si applica loperatore di perdita alla distribuzione storica di n osservazioni dei cambiamenti dei fattori di rischio X t . Si ottiene cos una distribuzione di perdita composta da n osservazioni; sotto lipotesi che la distribuzione di perdita resti invariata nel periodo considerato, essa costituisce una stima consistente della vera distribuzione di perdita. Le misure di perdita sono calcolate sulla distribuzione empirica: il VaR il quantile di tale distribuzione. Il maggior pregio la facilit di implementazione (non richiesto il calcolo di stime, n ipotesi sulla volatilit o sulla struttura di dipendenza). Richiede per una notevole quantit di dati: se il periodo storico troppo breve, probabile che non contenga eventi estremi. Daltra parte, se troppo lungo, la composizione del portafoglio cambia e non stimiamo pi la stessa distribuzione di perdita.

Il metodo Monte Carlo


Si basa sulla simulazione di osservazioni dalla distirbuzione di probabilit dei fattori di rischio.
(i) Primo passo: scelta della distribuzione di X t e stima dei parametri. (ii) Secondo passo: simulazione di B osservazioni (1) (B) X t+1 , . . . , X t+1 da tale distribuzione. (iii) Terzo passo: applicazione delloperatore perdita a tali osservazioni. Si ottengono cos B osservazioni simulate (1) (B) dalla distribuzione di perdita Lt+1 , . . . , Lt+1 . (iv) Quarto passo: calcolo delle misure di rischio; come nella simulazione storica, il VaR il quantile empirico della distribuzione simulata.

Bench il metodo possa approssimare con precisione la distribuzione di X t , dipende ovviamente da tale distribuzione; inoltre il costo computazionale alto.

RiskMetrics
RiskMetrics (www.riskmetrics.com) un sistema, sviluppato e diffuso da JP Morgan nel 1996, costituito da un insieme di metodologie e dati per misurare il rischio di mercato. In particolare, RiskMetrics dettaglia:
(i) Il contesto concettuale sottostante le metodologie per il calcolo del rischio di mercato; (ii) le statistiche dei rendimenti degli strumenti nanziari; (iii) come modellare le esposizioni degli strumenti nanziari ai fattori di rischio; (iv) i data set di misure statistiche stimate e distribuite giornalmente da JP Morgan (in particolare volatilit e correlazioni).

Laccento posto pi sulla facilit di implementazione e interpretazione che sulla sosticazione delle procedure.

Stima della volatilit


Nel rischio di mercato si suppone per lo pi = 0. Nellapproccio unconditional la stima della varianza semplicemente la varianza campionaria: 2 t+1 = (1/T ) T rt+1i . 2 i=1 Nellapproccio conditional si suppone che la varianza sia time-varying; ci equivale a modicare il modello dei rendimenti come segue: rt = t , t = 1, . . . , T , N(0, 1).

Si ipotizza spesso che la varianza al tempo t + 1 dipenda dalla varianza al tempo t e dal quadrato del rendimento al tempo t: 2 t+1 = t2 + (1 )rt2 .

Il metodo EWMA
Per stimare la volatilit, nellapproccio standard RiskMetrics si utilizza lo stimatore denito Exponentially Weighted Moving Average (EWMA): la previsione della varianza al tempo t + 1 effettuata al tempo t data da t+1|t 2 = 1
+ 2 i1 rt+1i ,

+ i1 i=1 i=1

< 1.

(12)

E chiaro che in pratica la serie va troncata: prassi utilizzare 75 osservazioni, ovvero t+1|t = 2 1
T 2 i1 rt+1i ,

T i1 i=1 i=1

< 1,

(13)

dove T = 75. Tramite il parametro si pesano di pi le osservazioni pi recenti.

Il metodo EWMA
RiskMetrics ssa = 0.94. Oltre al fatto di essere frutto di una scelta poco corretta dal punto di vista metodologico (i parametri andrebbero stimati sulla base dei dati), numerose veriche empiriche hanno mostrato che il valore 0.94 per il parametro in generale troppo alto. Un vantaggio di questo stimatore che pu essere calcolato (approssimativamente) tramite una formula ricorsiva a mano a mano che si rendono disponibili ulteriori osservazioni: t+1|t = t|t1 + (1 )rt2 . 2 2 (14)

Teorema. La formula esatta (12) per il calcolo dello stimatore EWMA tende, per T , alla formula ricorsiva (14).

Il metodo EWMA

Anche la covarianza pu essere calcolata tramite una formula EWMA: 12,t+1|t = 1


T

T i1 i=1 i=1

i1 r1,t+1i r2,t+1i .

Tale formula pu a sua volta essere espressa in forma ricorsiva (in questo caso posto pari a 0.97): 12,t+1|t = 12,t|t1 + (1 )r1t r2t . Osservazione. Non garantito che la stima della matrice di covarianza ottenuta tramite lo stimatore EWMA applicato ad ogni elemento della matrice sia denita positiva.

Il metodo EWMA

Indichiamo con S E (di dimensione d d) lo stimatore EWMA della matrice di covarianza . Pu succedere che, per qualche vettore I d , si abbia S E < 0. R Ne segue che, se r = (r1 , . . . , rd ) il vettore dei rendimenti di p attivit nanziarie (dove E(r ) = e cov (r ) = ) e = (1 , . . . , d ) il vettore dei pesi (dove d i [0, 1] i, i=1 i = 1), il portafoglio r ha varianza stimata negativa. Da questo punto di vista preferibile lo stimatore campionario S (ottenuto con = 1), che, sotto lipotesi T > d, fornisce sempre una matrice denita positiva.

Modelli GARCH
Introdotti da R. Engle nel 1982, i modelli della famiglia ARCH (AutoRegressive Conditional Heteroskedasticity), poi estesi nella forma GARCH (Generalised AutoRegressive Conditional Heteroskedasticity) hanno avuto una notevole diffusione in ambito nanziario. Il processo generatore dei dati : rt = t t . I modelli ARCH(q) e GARCH(p, q) sono dati rispettivamente da:
q

t2

=+
i=1 q

2 i rti ; p 2 i rti + i=1 i=1 2 i ti .

t2 = +

Modelli GARCH

Lidea di base la seguente: osservando il graco dei rendimenti di unattivit nanziaria, generalmente si nota che la volatilit tende ad aggregarsi nel tempo. Periodi di relativa calma, in cui cio i rendimenti si muovono poco, e quindi la volatilit bassa, si alternano a periodi turbolenti, in cui i rendimenti si muovono molto. Ne segue che ha senso ipotizzare che la volatilit al tempo t dipenda dai rendimenti al tempo t 1, t 2, . . . , t q (modelli ARCH(q)) o, pi in generale, non solo dai rendimenti al tempo t 1, t 2, . . . , t q, ma anche dalla volatilit al tempo t 1, t 2, . . . , t p (modelli GARCH(p, q)).

Modelli GARCH
Nella forma pi usata, si ipotizza che il processo generatore dei dati sia del tipo GARCH(1, 1): rt = t t ,
2 2 t2 = + rt1 + t1 ,

dove t N(0, 1). I due problemi principali associati ai modelli GARCH sono i seguenti:
(i) stimare i parametri non banale perch la funzione di verosimiglianza va massimizzata numericamente; (ii) in ambito multivariato i modelli sono molto complicati perch il numero di parametri cresce esponenzialmente.

Modelli GARCH

Se si assume che la varianza dei rendimenti segua un processo del tipo GARCH, la distribuzione condizionata della v.c. rt |rt1 normale con media nulla e varianza t2 , ma la distribuzione non condizionata non normale: in particolare, si dimostra che la curtosi della distribuzione non condizionata maggiore di 3; dunque la distribuzione non condizionata di rt ha code pi pesanti della normale. Si noti che ponendo = 0 e = 1 si ottiene la formula ricorsiva per la volatilit EWMA. In particolare, la soluzione adottata da RiskMetrics si ottiene con = 0.94.

Volatilit implicita
In alcuni casi possibile fare ricorso alla cosiddetta volatilit implicita: ci accade per esempio con la formula di Black & Scholes. Nella formula di B&S, infatti, tutto noto eccetto Ct e/o . Tuttavia spesso disponibile un prezzo di mercato CtM ; se il mercato dellopzione in questione sufcientemente liquido, tale prezzo pu essere considerato attendibile, e si pu quindi, in linea di principio, invertire la formula di B&S in modo da ottenere una funzione del tipo = g(K , St , r , T t, Ct ) da cui ricavare . In pratica non si riesce ad invertire esplicitamente la formula di B&S (e dunque ad ottenere la funzione g in forma chiusa), tuttavia il problema facilmente risolvibile per via numerica tramite algoritmi iterativi che, senza determinare la funzione inversa, trovano il valore di corrispondente a CtM .

Volatilit implicita
La volatilit implicita generalmente considerata dai practitioner pi afdabile della volatilit storica; la ragione principale starebbe nel fatto che la volatilit implicita considerata, a differenza della volatilit storica, forward-looking. Lutilizzo della volatilit implicita non per privo di controindicazioni:
(i) connessa allutilizzo di un certo modello parametrico di pricing delle opzioni (la formula di B&S); se la formula non corretta, per esempio perch qualcuna delle ipotesi su cui si basa non rispettata, la volatilit implicita non uno stimatore appropriato della volatilit; (ii) si ritene che la volatilit implicita rietta pi rapidamente degli stimatori ottenuti tramite dati storici i cambiamenti di volatilit causati da mutate condizioni di mercato; ma se la volatilit non costante, allora certamente la formula di B&S non valida e quindi non ha senso ricavarne una volatilit implicita!

Volatilit implicita

(iii) se la formula di B&S valesse, le volatilit implicite ricavate da opzioni diverse sul medesimo sottostante dovrebbero essere identiche, il che in pratica non si verica e dunque qualche ipotesi della formula di B&S non rispettata. In conclusione, sembra opportuno ridimensionare limportanza della volatilit implicita; se la volatilit time-varying, preferibile costruire modelli a volatilit non costante, stimata sulla base di dati storici (GARCH, volatilit stocastica,...).

Backtesting
Se la distribuzione ipotizzata approssima bene la vera distribuzione dei rendimenti, ci si aspetta che il VaR calcolato preveda con precisione la frequenza delle perdite che eccedono il VaR. La pi semplice procedura per vericare lappropriatezza della misura di VaR consiste dunque nel contare il numero di violazioni, cio il numero di volte in cui la perdita osservata maggiore del VaR calcolato. Sia 1{rt >VaRt } (rt ) una variabile aleatoria denita come segue: Xt = 1{rt >VaRt } (rt ) =
def

1 se rt > VaRt ; 0 altrimenti.

Se il VaR al livello effettivamente il quantile della distribuzione dei rendimenti, la variabile aleatoria X assume valore 1 con probabilit 1 e 0 con probabilit .

Backtesting
Dunque, X ha distribuzione bernoulliana di parametro . Poich la somma di T variabili aleatorie bernoulliane indipendenti di parametro ha distribuzione binomiale di parametri (T , ), si ha che YT =
def T t=1 Xt

Bin(T , ).

Quindi ci si aspetta di osservare un numero di violazioni pari a E(YT ) = T . Per esempio, se = 0.05, in 4 settimane (20 giorni lavorativi) ci si aspetta di osservare T = 20 0.05 = 1 violazione. Si consideri la variabile aleatoria WT = YT T T (1 ) .

Backtesting

Per il teorema del limite centrale, WT N(0, 1). Allora per T sufcientemente grande si pu costruire il seguente test:
(i) si calcola la quantit wT = (yT T )/ T (1 ); (ii) ssato un livello di signicativit , si accetta lipotesi nulla H0 : al livello di condenza , il modello prevede correttamente la frequenza delle perdite se wT < z1 , dove z1 il quantile 1 della distribuzione normale standard. Altrimenti si riuta lipotesi nulla.

Esempio di backtesting
Per lazione Eni (febbraio 2006 - febbraio 2007), effettuando tutti i calcoli richiesti (utilizzando lo stimatore EWMA per la volatilit) si osservano 17 violazioni del VaR al 95%, con T = 260 e = 0.05. Dunque (17 260 0.05) w0.05 = = 1.1382. 0.05 0.95 260 Posto = 0.05, si trova z1 = 1.6449 e, poich 1.1382 < 1.6449, si accetta lipotesi nulla. Per quanto riguarda il VaR al 99% si ottengono invece 6 violazioni e z0.01 = 2.119. Essendo 2.119 > 1.6449, si riuta lipotesi nulla. Inne, per quanto riguarda il VaR al 99.5% si ottengono 5 violazioni e z0.01 = 3.253. Essendo 3.253 > 1.6449, si riuta lipotesi nulla.

Rischio di credito

Gli ingredienti di base per identicare la rischiosit di una singola controparte sono:
(i) la Probabilit di Default (PD); (ii) la Loss Given Default (LGD); (iii) la Exposure At Default (EAD).

Il primo accordo di Basilea (1988) prevedeva che il capitale di riserva fosse almeno pari all8% delle attivit ponderate in base al rischio. Come stabilita la ponderazione? 100% per tutti gli impieghi a clientela, 20% per i prestiti a banche, 0% per i prestiti allo Stato.

La normativa di vigilanza
Problema: un peso solo per tutta la clientela privati pu trasformarsi in un incentivo a prestare ai clienti pi rischiosi, che richiedono la stessa riserva di capitale dei clienti meno rischiosi, ma producono margini pi elevati. Da qui la necessit di un nuovo accordo (noto come Basilea 2); esso basato su una radicale riforma del criterio dell8%. In Basilea 2 ci sono due (tre) approcci alternativi:
(1) approccio standard: le banche che non hanno sistemi di rating interni useranno rating esterni, certicati dalle autorit di vigilanza; il capitale richiesto pari all8%, pesato come segue: da 20 a 150% per imprese o banche; da 0 a 150% per Stati sovrani; 100% per clientela priva di rating. (2) approccio dei rating interni, suddiviso in:

La normativa di vigilanza

(2a) approccio di base: la banca elabora un proprio sistema di rating (trasparente, documentato, vericabile, periodicamente revisionato) per misurare la PD; LGD ed EAD sono misurate con parametri ssati dalle autorit. (2b) approccio avanzato: anche LGD ed EAD sono stimate internamente dalla banca. Lo possono adottare solo le banche che siano in grado di dimostrare la correttezza, la coerenza, la trasparenza e lefcacia delle metodologie adottate, basate su dati storici sufcientemente numerosi.

Rating

I rating sono una misura del merito di credito di unazienda. Per le aziende pi grandi sono disponibili rating prodotti dalle agenzie (Moodys, S&P, Fitch). Soprattutto in Europa, tuttavia, la stragrande maggioranza delle controparti non ha un rating di agenzia, e dunque i rating sono calcolati internamente dalle banche; a tale scopo si utilizzano tecniche statistiche (analisi discriminante, regressione logistica,...) basate su variabili esplicative quantitative (principalmente tratte dai bilanci delle aziende) e qualitative (qualit del management, struttura dellazienda, situazione politica e sociale del Paese in cui lazienda ha sede).

Lo Z -score di Altman
Storicamente, la prima applicazione basata sullanalisi discriminante: Z-score (Altman 1968): Z = 1.2X1 + 1.4X2 + 3.3X3 + 0.6X4 + X5 , dove:
X1 : capitale circolante / totale attivo, X2 : utili non distribuiti / totale attivo, X3 : utili ante interessi e imposte / totale attivo, X4 : valore di mercato del patrimonio / valore contabile dei debiti a lungo termine, X5 : fatturato / totale attivo.

Soglia: 1.81; le imprese il cui score Z maggiore della soglia vengono classicate in bonis, le altre insolventi. Questi modelli hanno poi preso il nome di modelli di scoring.

Rating e PD
Esistono poi mappature (calcolate dalle agenzie di rating) che associano ai rating una PD; a grandi linee, tali mappature sono costruite come segue:
(i) per ciascuna classe di rating, si calcola il tasso medio di default su un periodo di tempo lungo; (ii) si stima una regressione lineare semplice fra il logaritmo del tasso medio di default appena calcolato (variabile dipendente) e il rating (variabile indipendente): log(D) = + R + , dove D il tasso di default medio e R il rating; (iii) inne, le PD corrispondenti a ciascuna classe di rating sono stimate sulla base della retta di regressione.

Perdita Bernoulliana
Un vettore casuale D = (D1 , . . . , DN ) detto statistica di perdita Bernoulliana se tutte le sue marginali sono Bernoulliane: Di Bin(1; i ). dove N il numero di controparti. La v.c. Di un indicatore dellevento default della controparte i: Di = 1 0 se la controparte fallisce se la controparte sopravvive

La probabilit di successo i la probabilit di default non condizionata, in quanto levento successo identicato con il fallimento.

Perdita di portafoglio
Quando si passa a trattare un portafoglio di N prestiti, necessario introdurre la perdita di portafoglio:
N N

Lptf =
i=1

Li =
i=1

EADi LGDi Di .

Si verica facilmente che, se EADi e LGDi sono costanti, la perdita attesa data da
N N

EL = E(Lptf ) =
i=1

E(Li ) =
i=1

EADi LGDi PDi .

Per analizzare il rischio non sufciente limitarsi alla perdita attesa; si calcola allora anche la perdita inattesa, denita come la deviazione standard della v.c. Lptf :
N

ULptf =

var (Lptf ) =
i,j=1

EADi EADj LGDi LGDj cov (Di , Dj ).

Perdita di portafoglio
La covarianza fra i default pu essere riscritta come segue: cov (Di , Dj ) = ij PDi (1 PDi )PDj (1 PDj ),

dove ij = corr (Di , Dj ) la correlazione fra i default (default correlation). Dunque (il quadrato della) perdita inattesa uguale a UL2 = var (Lptf ) = ptf
N

EADi EADj LGDi LGDj


i,j=1

PDi (1 PDi )PDj (1 PDj )ij .

Nel caso di due soli prestiti, con PD1 = 1 , PD2 = 2 , 12 = , LGD1 = LGD2 = EAD1 = EAD2 = 1, si ha UL2 = 1 (1 1 ) + 2 (1 2 ) + 2 ptf 1 (1 1 )2 (1 2 ).

Perdita di portafoglio
Consideriamo 3 casi:
(i) = 0; diversicazione perfetta. (ii) > 0; il default delluna incrementa la PD dellaltra. Infatti: P(D2 = 1|D1 = 1) = P(D2 = 1, D1 = 1) E(D1 D2 ) = = P(D1 = 1) 1 cov (D1 , D2 ) 1 2 + cov (D1 , D2 ) = = 2 + . 1 1

Dunque, il default delluna ha un impatto sullaltra attivit in portafoglio. In particolare, nel caso estremo = 1 e con 1 = 2 = , si ha ULptf = 2 (1 ), vale a dire che il portafoglio contiene il rischio di una sola controparte ma con intensit doppia; in questo caso il default di una controparte implica il default dellaltra con probabilit 1.

Perdita di portafoglio

(iii) < 0; speculare al caso (ii): il default delluna diminuisce la PD dellaltra. Oltre alla perdita attesa ed inattesa, laltra quantit centrale il Capitale a Rischio (CaR), dato dalla differenza fra il quantile , cio il VaR e la perdita attesa: CaR = VaR EL, dove VaR : P(Lptf VaR ) = .

Tenendo presente che qualsiasi modello realistico deve introdurre la dipendenza fra default, discutiamo brevemente i due casi in cui vige lindipendenza.

La distribuzione di perdita
1. Le v.c. Di sono iid. Ci equivale ad assumere che tutte le controparti abbiano la medesima PD: = P(Di = 1), i = 1, . . . , N. E immediato concludere che il numero di default nel portafoglio D = N Di , essendo la somma di i=1 N v.c. Bernoulliane indipendenti di parametro , ha distribuzione Bin(N, ) e dunque E(D) = N e var (D) = N(1 ). 2. Se invece si mantiene lipotesi di indipendenza ma si abbandona lipotesi di equidistribuzione, ammettendo che le controparti abbiano PD diverse i = P(Di = 1), la distribuzione di probabilit di D la cosiddetta distribuzione Poisson-Binomiale, la cui funzione di probabilit piuttosto complicata, ma di cui si possono calcolare facilmente il valore atteso e la varianza:

La distribuzione di perdita
N N

E(D) =
i=1

var (D) =
i=1

i (1 i )

Il graco successivo mostra la distribuzione di probabilit di D nel caso di indipendenza ed equidistribuzione con N = 1000, PD uniforme pari a 0.01 e correlazione nulla (punti rossi) e correlazione 0.005 (punti blu). I casi (1) e (2) sono poco plausibili: lipotesi di indipendenza dei default nel lungo periodo (indipendenza non condizionata) assai forte. Per costruire modelli di portafoglio realistici e stimabili su base empirica si distingue fra indipendenza non condizionata e condizionata.

La distribuzione di perdita

La distribuzione di perdita

La prima ipotesi poco sostenibile, in quanto i default tendono ad essere pi frequenti nei periodi di recessione. La seconda appare pi fondata, in quanto, una volta scontato linusso delle condizioni economiche generali ed eventualmente di altri fattori di rischio sistematico, i default dipendono solo dallo stato dellazienda (in particolare dalla sua situazione nanziaria), ed certamente ragionevole assumere che le performance, in quanto determinate da caratteristiche proprie ed esclusive di ciascuna azienda (qualit del management, mercato di riferimento, ecc.) siano indipendenti luna dallaltra.

Il ruolo della correlazione


Esattamente come la correlazione fra i rendimenti nel rischio di mercato, la correlazione fra i default = corr (Di , Dj ) essenziale nello studio della diversicazione di portafoglio. Si supponga che i = 1/N, i = 1, . . . , N, che la PD e la correlazione siano uniformi: formalmente, Li Bin(1; ), i = 1, . . . , N; cov (Li , Lj ) = (i, j = 1, . . . , N, i = j). La varianza di D = (1/N) var (D) = 1 N2 1 = 2 N
N N N N i=1 Di

data da:
N

var (Di ) +
i=1
i,j=1

cov (Di , Dj ) =

i=j

(1 ) +
i=1
i,j=1

(1 ) =

i=j

Il ruolo della correlazione


1 [N(1 ) + N(N 1)(1 )] = N2 (1 ) (N 1)(1 ) + = = N N (1 ) (1 ) = + (1 ) . N N = (15)

Il secondo addendo non pu essere ridotto aumentando le dimensioni del portafoglio. La quantit (1 ) rappresenta il rischio non diversicabile. In denitiva si ha che
N

lim (var (D)) = (1 ).

(16)

In altre parole, quando le controparti sono correlate, non si pu ridurre la varianza sotto una certa soglia.

Potrebbero piacerti anche