Il bootstrap esterno nella verifica di
radici unitarie in condizioni di eteroschedasticità
External Bootstrap for Unit Root Tests Under Heteroskedasticity
Isabella Procidano
Dipartimento di Statistica, Università Cà Foscari di Venezia, [email protected]
Silio Rigatti Luchini
Dipartimento di Scienze Statistiche, Università di Padova, [email protected]
Abstract: The aim of this paper is to test unit roots by external bootstrap in a model
with an heteroskedasticity disturbance term. It’ s proved by simulation that the bootstrap
test has rejects’ right proportion if the disturbance term’s variance is GARCH(1,1).
Parole chiave: External bootstrap, unit roots, time series.
1. Introduzione
Uno dei test più utilizzati per la verifica della presenza di radici unitarie nell’analisi
delle serie temporali è il test Dickey-Fuller (DF) (Fuller, 1976; Dickey e Fuller, 1979). I
percentili della coda di sinistra della distribuzione della statistica test sono stati tabulati
da Fuller (1976) e più recentemente da Mackinnon (1991).
Le ipotesi che sottostanno l’applicabilità del test DF sono l’incorrelazione e
l’omoschedasticità del termine di errore nel modello:
xt =  x t-1 + t
t=1,2,…T
La violazione alla prima ipotesi può essere affrontata utilizzando il test ADF
(Augmented Dickey-Fuller). Quella all’ipotesi di varianza costante, viceversa, non è
stata ancora adeguatamente trattata in letteratura. Il motivo è da ricercarsi nella presunta
robustezza asintotica del test per la verifica di radici unitarie (Phillips, 1987).
In questo lavoro si valutano, tramite simulazioni, gli effetti che l’eteroschedasticità
provoca sul livello effettivo del test DF in serie temporali di lunghezza finita e si
propone un test bootstrap robusto per la verifica di radici unitarie.
Le simulazioni sono state effettuate utilizzando il bootstrap esterno (Wu, 1986) che
risulta essere robusto rispetto all’eteroschedasticità, con riferimento a due distribuzioni
esterne: quella esemplificata da Mammen (1993), che si indicherà con ASI
(asimmetrica), e la uniforme U(-3, 3), che si denoterà SIM (simmetrica) (Basawa et
al., 1991; Li e Maddala, 1996). La tipologia di varianza considerata per il temine di
errore t è GARCH(1,1). Il metodo bootstrap esterno proposto per ricavare la regione di
accettazione sembra non avere precedenti in letteratura, nonostante i recenti contributi
sull’argomento (Seo, 1999). Simulazioni relative ad altre forme di eteroschedasticità si
trovano in Procidano e Rigatti (1999).
2. Disegno dell’esperimento
Sulla base di simulazioni, si valuta la performance del test DF in termini di correttezza
relativamente ai valori critici di Mackinnon (d’ora in avanti indicato impropriamente
test M) e a quelli ottenuti con il metodo bootstrap esterno (d’ora in avanti indicato come
test B).
Dato il modello
xt =  x t-1 + t
t=1,2,…T
t ~W.N.(0, 2),
il seguente sistema d’ipotesi da verificare1:
H0 :    ;
H :   
e fissato  il livello nominale del test, la procedura utilizzata per condurre
l’esperimento di simulazione è la seguente:
1- si genera una serie temporale xt da un modello AR(1) con parametro  ;
2- si calcola il valore della statistica = (α̑- 1) S-1 ( x 2t-1)1/2;
3- si genera una replicazione di xt mediante il bootstrap esterno2 e su questa si calcola il
valore della statistica che si indicherà con *
4- si ripete J volte il passo 3: si ottiene così una distribuzione empirica per *
5- si calcola il percentile corrispondente al livello del test : si è ottenuta in questo
modo l’estremo della regione di accettazione con il metodo bootstrap;
6- si registra se la statistica non appartiene: i) alla regione di accettazione di
Mackinnon; ii) alla regione di accettazione calcolata con il metodo Bootstrap
Esterno in base al punto 5;
7- si ripetono N volte i passi 1-2-3-4-5-6: si ottengono rispettivamente le proporzioni
di rigetto rispetto alla regione di Mackinnon  M e a quella calcolata con il
Bootstrap esterno  B .
Se al passo 1 si pone:
=1 : la procedura restituisce le stime di  M e  B ;
1 : si ottengono le stime della potenza del test.
Per ottenere stime sufficientemente accurate si è posto: J=1000 ed N=10000.
3. Risultati
Il comportamento del test DF è stato analizzato in serie temporali di lunghezza finita
generate con errori di tipo GARCH(1,1), dapprima distribuiti come una normale e poi
come una t con 5 gradi di libertà (Bollerslev, 19863 e 1987; Baillie e Myers, 1991),
secondo lo schema riportato nel precedente paragrafo, ponendo = 1 al passo 1 ossia:
xt  xt 1   t ,
x0  0 ,
con  t2 varianza del termine di disturbo definita come : 
Il test DF non considera forme di stazionarietà esplosiva (  1).
L’algoritmo impiegato per la costruzione della distribuzione empirica di *è riportato in Appendice.
3
Lee e Tse,1996, osservano che la simulazione di un meccanismo GARCH(1,1) risente della scelta dei
valori iniziali quando il parametro è prossimo a zero. Per ovviare a questo inconveniente si è deciso di
generare T+d realizzazioni di cui le prime d vengono scartate.
1
2
 t2  0  1 t21   2 t21 ,
 02  1,
0  0 .
L’esperimento di simulazione ricalca in parte quelli condotti da Lee e Tse (1996) per i
test di cointegrazione e da Kim e Schmidt (1993) per la verifica di radici unitarie.
Le quantità variabili sono state: i parametri del modello GARCH(1,1) e il numero delle
osservazioni.
Per entrambe le distribuzioni degli errori, i parametri sono stati fissati in modo tale da
considerare un modello GARCH dapprima quasi-integrato, successivamente quasi
degenere. I risultati evidenziano, nell’ipotesi di ditribuzione normale degli errori, una
distorsione del test M quando il processo GARCH diventa integrato e degenere. Per
valutare quale delle due aberrazioni parametriche sia responsabile della distorsione si è
considerato un processo GARCH perfettamente integrato (= 0,3; = 0,7) e sono
stati attribuiti a valori molto diversi (0,0001; 0,01; 1; 100). I risultati ottenuti
suggeriscono che è il grado di integrazione del processo GARCH piuttosto che il valore
di a determinare la distorsione del test M.
Nelle simulazioni in cui la distribuzione degli errori è rappresentata da una t con cinque
gradi di libertà, la distorsione del test M diventa importante anche quando il numero di
osservazione è elevato. Inoltre, quando il processo GARCH è quasi-integrato si hanno
distorsioni maggiori di quelle ottenute con la distribuzioni degli errori normale. Al
contrario le prestazioni del test B rimangono sempre molto buone.
4. Conclusioni
Alla luce delle simulazioni effettuate si è valutato che il test M presenta una chiara
tendenza a sovrarigettare l’ipotesi nulla indipendentemente dalla numerosità
campionaria considerata. La distorsione del test M appare legata positivamente al grado
di integrazione ed al valore del parametro 1 del modello GARCH(1,1).
Per lo stesso insieme di parametri del modello GARCH(1,1), si ha un incremento della
distorsione del test M quando la distribuzione degli errori anziché normale è di tipo t
con un numero limitato di gradi di libertà.
La distribuzione esterna ASI, tranne in pochi casi, permette di costruire un test che
rigetta con probabilità prefissata l’ipotesi nulla quando è vera.
Il test B con distribuzione esterna SIM in genere ha fornito prestazioni peggiori rispetto
allo stesso test con distribuzione esterna ASI, anche se la differenza in generale si riduce
al crescere del numero delle osservazioni.
Appendice
Per ottenere la distribuzione empirica della statistica test *si è utilizzato il seguente
algoritmo :
1. si generano sotto l’ipotesi nulla i residui del modello: ˆt  x t  xt 1 , t  1,2,..T;
2. si estraggono con reintroduzione T-1 elementi da una variabile casuale e* (nel nostro
caso ASI o SIM) tale che E(e*)=0¸ E(e*2)=1; si ottengono i valori et*¸ t=2¸….T;
3. si calcolano ricorsivamente:
1
ˆt
T
*
*
*
*
2
2
xt  xt 1 
1  htt
 et ; t  2,..., T; x1  x1 ; dove htt  xt 1

t 2
xt 1

;
4. si calcola

 *  ˆ *  1 S*1 t 2 xt*21
S*2  T  2
1
T
 x
T
t 2
*
t

1/ 2
dove ˆ * 
;

T
t 2
xt* xt*1

T
t 2
xt*21
 ;e
1
 ˆ * xt*1  ;
2
5. si ripetono J volte le istruzioni 2-3-4 in modo da ottenere una distribuzione empirica
per 
Riferimenti bibliografici
Baillie R. T., Myers R. J. (1991) Bivariate GARCH estimation of optimal commodity
futures hedge, Journ. of Appl. Econometrics, 6, 109-124.
Basawa I. V., Mallich A. K., McCormick W. P., Reeves J. H., Taylor R. L. (1991)
Bootstrap test of significance and sequential bootstrap estimation for unstable first
order autoregressive processes, Commun. Statist. Theory Meth., 20, 1015-1026.
Bollerslev T. (1986) Generalized autoregressive conditional heteroskedasticity, Journal
of Econometrics, 31, 307-327.
Bollerslev T. (1987) A conditionally heteroskedasticity time series model for
speculative prices and rates of return, The Review of Economics and Statistics, 542547.
Dickey D. A., Fuller W. A. (1979) Distribution of the estimators for autoregressive time
series with unit root, Journ. Amer. Stat. Assoc., 74, 427-431.
Fuller W. A. (1976) Introduction to statistical time series, Wiley, New York.
Kim K., Schmidt P. (1993) Unit root tests with conditional heteroskedasticity, Journ. of
Econometrics, 59, 287-300.
Lee T. H., Tse Y. (1996) Cointegration tests with conditional heteroskedasticity, Journ.
of Econometrics, 73, 401-410.
Li Y., Maddala G. S. (1996) Bootstrapping time series models (with coment),
Econometric Reviews, 15, 115-158.
Mackinnon J. C. (1991) Critical values for cointegration tests, in Engle R. F., Granger
C.W.J. (eds) Long Run Economic Relationships, Oxford University Press, 267-276.
Mammen E. (1993) Bootstrap and wild bootstrap for high dimensional linear models,
Ann. Stat., 21, 255-285.
Phillips P. C. B. (1987) Time series regression with unit roots, Econometrica, 55, 277301.
Procidano I., Rigatti Luchini S. (1999) Verifica di radici unitarie mediante bootstrap,
Atti del Convegno S.CO. 99, Venezia, 27-29 settembre 1999, 242-247.
Seo B. (1999) Distribution theory for unit root tests with conditional heteroskedasticity,
Journ. of Econometrics, 91, 113- 144.
Wu C. F. J. (1986) Jacknife, bootstrap, and other resampling methods in regression
analysis (with discussion), Ann. Stat., 14, 1261-1295.