X hits on this document

PDF document

BANCO DE LA REPÚBLICA - page 20 / 43

114 views

0 shares

0 downloads

0 comments

20 / 43

La primera red neuronal es de carácter autorregresivo, es decir, el conjunto X t está

conformado por los doce primeros rezagos de la primera diferencia del logaritmo del efectivo real

r e e s c a l a d o 2 2 , { * 1 , = t t L E F R X

L, LEFR

* t 12

}, en tanto que, la segunda o red ampliada,

adiciona, a su propia historia, el rezago de orden diez del cambio reescalado del logaritmo de la

i n f l a c i ó n a n u a l , { * 1 , = t t L E F R X

L, LEFR

* t 12

1 0 , t * L I N F

}.

La determinación de las variables inputs de la componente lineal o determinación del conjunto X t , en cada red, se lleva a cabo mediante la estrategia stepwise, propuesta por Swanson

y White (1995,1997a). Así, se parte de una regresión lineal cuya variable dependiente es LEFR

* t

y cuyas variables explicativas varían de acuerdo con el modelo considerado. En el primer caso, el conjunto de variables explicativas, o inputs de la componente lineal, considera los primeros doce

r e z a g o s d e * t L E F R . E n e l s e g u n d o , s e a d i c i o n a , a e s t e c o n j u n t o d e i n f o r m a c i ó n , l o s p r i m e r o s

d o c e r e z a g o s d e t L I N F .

Una vez definido, en cada modelo, el conjunto de variables input de la componente lineal, X t , se realiza el proceso de estimación de la red neuronal mediante el proceso de optimización

numérica Quasi-Newton de Broyden, Fletcher, Goldfarb y Shano23, ecuación (9), para las diferentes configuraciones del conjunto de información Zt , Zt X t , de la componente no lineal y para un

número de unidades ocultas o hidden units Q que varían desde uno hasta cuatro24.

22

Las variables son reescaladas en el intervalo (0,1). Así, la notación ‘*’ se utiliza para referirse a la

transformación

de

la diferencia

del

logaritmo

de

cada

serie,

es

decir:

* = t x

xt xt σ (xt )

; siendo

xt = ln(xt )ln(xt 1

).

23 Como lo sugieren Franses and Dick V. Dijk (2000) y Rech (2002), este es uno de los algoritmos más utilizados en el contexto de redes neuronales para solucionar el problema de minimización, planteado en la ecuación (2).

24 Como señala Franses y van Dijk (2000), la convergencia en el proceso de estimación no garantiza la obtención del mínimo global. Por consiguiente, se llevan a cabo múltiples estimaciones de cada una de las

diferentes redes utilizando distintos valores iniciales del vector de parámetros

Ψ . En particular, cada

arquitectura se estima para 30 valores iniciales diferentes del vector de parámetros. Tales valores iniciales son obtenidos aleatoriamente a partir de una distribución uniforme entre [-2,2] y los parámetros del término de

weight decay en la función objetivo

S(Ψ)

fueron fijados de la siguiente manera:

0 1 . 0 = φ r ,

0 0 0 1 . 0 = = γ β r r .

20

Document info
Document views114
Page views114
Page last viewedSat Dec 10 07:54:04 UTC 2016
Pages43
Paragraphs3606
Words13933

Comments