Ortogonalización óptima

July 4, 2017 | Autor: Al Oxa | Categoría: Mathematics, Econometrics, Statistics, Matemáticas, Estadistica, Econometría
Share Embed


Descripción

´ optima ´ Ortogonalizacion Alcides Oxa∗ Agosto 2015

Resumen ´ ´ utilizada en la prueba omnibus ´ En este documento se demuestra que la ortogonalizacion de ´ normalidad multivariante de Doornik-Hansen es optima en el sentido de que maximiza la suma de la traza de la matriz de correlaciones cruzadas entre variables a ortogonalizar y sus con´ ´ a la funcion ´ impulso respuesta y a la trapartes ortogonales. Se aplica esta ortogonalizacion ´ de la varianza del error de pronostico ´ descomposicion en un modelo de vectores autorregre´ al impulso generalizado de Pesaran y sivos, y se muestra que su performance se parece mas ´ v´ıa Cholesky. La ventaja de la ortogonalizacion ´ opti´ Shin que al impulso con ortogonalizacion ´ de proporcionar variables ortogonales, es invariante al orden de las mismas ma es que ademas ´ y la traza mencionada es maxima.

´ optima, ´ ´ de Cholesky, Funcion ´ impulso respuesPalabras clave: Ortogonalizacion Factorizacion ´ de la varianza del error de pronostico, ´ ta, Descomposicion Impulso generalizado.

´ JEL: C00, C10, C38. Clasificacion

´ Introduccion

I.

´ de la funcion ´ impulso respuesta (FIR) de un modelo de vectores autorregresivos La interpretacion ´ correlacionados, porque si un shock ocurre en una (VAR) se dificulta cuando los residuales estan ´ contemvariable, no se puede esperar que las otras permanezcan constantes por la correlacion ´ ´ de Cholesky a la matriz de covarianzas del ruido es habitualporanea entre ellas. La factorizacion ∗

[email protected]

1

´ mente utilizada para resolver este problema puesto que transforma a los residuales en otros sin ´ sin embargo este ´ ´ correlacion, metodo tiene el inconveniente de que los resultados dependen del ´ En general las variables se orden en que las variables del modelo aparecen en la especificacion. ´ ´ endogena”, ´ ´ de ordenan de la “menos endogena” a la “mas lo cual conduce a una configuracion dependencia recursiva, pero la misma suele a veces no ser satisfactoria, principalmente porque tal orden no siempre puede justificarse, y si se modifica el orden de las variables, los resultados pueden llegar a cambiar ostensiblemente en muchos casos. Una alternativa es la FIR generalizada propuesta por Pesaran y Shin (1997), donde la respuesta al impulso de un shock se concibe como el resultado de un experimento conceptual que compara ´ el comportamiento esperado de un conjunto de variables a lo largo del tiempo dada la informacion pasada y un vector de shocks, con el comportamiento esperado del mismo conjunto de variables ´ pasada solamente; de esta ´ en el mismo tiempo dada la informacion forma los resultados son ´ ´ invariantes al orden de las variables, sin embargo los shocks resultantes bajo esta optica no son ´ contemporanea. ´ ortogonales por lo que no resuelve el problema de la correlacion ´ ´ optima ´ ´ En este documento se presenta la ortogonalizacion como alternativa a la ortogonalizacion ´ de Cholesky en general, y al aplicar a la FIR de un VAR es tambien ´ una alternativa v´ıa factorizacion ´ optima ´ a los impulsos generalizados. Por tanto la principal ventaja de la ortogonalizacion es que ´ de la una vez aplicada a las innovaciones del modelo VAR, tanto la FIR como la descomposicion ´ varianza del error de pronostico (DVEP) que se obtienen son invariantes al orden de las variables, ´ los shocks siguen siendo ortogonales y los componentes de la varianza suman uno, lo ademas cual no es el caso del impulso generalizado. ´ se presenta la obtencion ´ de la ortogonalizacion ´ optima ´ En la siguiente seccion mediante una ´ lagrangiana; en la tercera seccion ´ se presentan aplicaciones de la ortogonalizacion ´ optima ´ funcion ´ a la FIR y a la DVEP de un modelo VAR y se comentan otras aplicaciones; en la cuarta seccion ´ con datos reales de la econom´ıa boliviana. se realiza una aplicacion

II.

´ de la ortogonalizacion ´ optima ´ Obtencion

´ optima ´ La ortogonalizacion de un conjunto de vectores linealmente independientes es hallar otro conjunto de vectores ortogonales en el mismo subespacio tal que a cada vector del conjunto

2

´ un vector del conjunto de ortogonales de tal forma que el inicial se le pueda asociar con solo ´ ´ m´ınimo posible, a cada nuevo vector hallado se podr´ıa denominar angulo entre ambos es lo mas ´ ortogonalizada de solo ´ uno de los vectores del conjunto inicial, aquel ´ entonces como la version ´ con el que su angulo es m´ınimo con respecto a los otros. Sea entonces un conjunto de vectores linealmente independientes y conocidos x1 , x2 , . . ., xp definidos en Rn con n ≥ p, se pretende ´ encontrar otro conjunto de vectores z1 , z2 , . . ., zp en Rn tal que el angulo θii entre parejas de ´ ´ vectores xi y zi sea m´ınimo, esto implica que el coseno de dicho angulo x0 z i cos θii = p 0 i p 0 xi xi z i z i tienda a uno, y que los vectores zi sean ortogonales entre s´ı, es decir z0i zj = 0 para i 6= j. Tal P conjunto de vectores se puede obtener optimizando la suma de los cosenos: pi=1 cos θii sujeto a ´ las restricciones de ortogonalidad; con el fin de simplificar el problema se realiza la normalizacion ´ dado x0i xi = 1, asimismo sera´ conveniente que z0i zi = 1 lo cual se incorpora como restriccion ´ compacta se ordenan los vectores en que zi es desconocido. Para operacionalizar de forma mas matrices   X = x1 x2 . . . xp ,

  Z = z1 z2 . . . zp .

´ De este modo la suma a maximizar es la traza de la matriz Z0 X y el lagrangiano es  1   L = tr Z0 X + tr Λ Ip − Z0 Z 2

(1)

donde Λ es una matriz p × p de multiplicadores de Lagrange1 , las restricciones son Z0 Z = Ip , ´ es decir que se optimizara´ sujeto a que los vectores zi sean ortonormales, sin embargo en esta ´ hay expresion

p(p−1) 2

restricciones repetidas (las de ortogonalidad) lo cual se da porque Z0 Z = Ip

´ es simetrica y por tanto fuera de la diagonal principal se tiene que z0i zj = z0j zi = 0 para i 6= j, ´ ´ sin embargo esto no es problema si se establece que la matriz de multiplicadores sea tambien ´ simetrica Λ0 = Λ. 1

(2)

´ por 12 es solo ´ por conveniencia para anular el 2 al derivar, si se la omite no hay problema porque La multiplicacion entonces el 2 se absorbera´ en Λ.

3

´ matricial las condiciones necesarias de primer orden de (1) Con las reglas usuales de derivacion son ∂L = X − ZΛ = 0 ∂Z

(3)

∂L = Ip − Z0 Z = 0 ∂Λ

(4)

donde 0 representa a vectores o matrices de ceros con las dimensiones apropiadas segun ´ sea el caso, resolviendo (3) para Λ utilizando (2) y (4) se obtiene Λ = Z0 X = X 0 Z

(5)

luego multiplicando (5) por s´ı mismo se tiene que X0 X = ΛΛ

(6)

´ con lo que se puede hallar Λ factorizando la matriz simetrica X0 X en dos matrices iguales y ´ ´ de la descomposicion ´ espectral de X0 X, escrisimetricas, tal cometido se puede lograr a traves biendo X0 X = VD2 V0 = VDV0 VDV0

(7)

donde D2 es una matriz diagonal que contiene los valores propios de X0 X en la diagonal principal, y V es una matriz cuyas columnas son los vectores propios asociados a los valores propios ´ respectivos, al ser X0 X simetrica y definida positiva entonces sus valores propios son reales y positivos, y V es ortogonal, luego D contiene en la diagonal principal las ra´ıces cuadradas de los valores propios que son los valores singulares de X; definiendo Λ = VDV0

(8)

´ se obtiene la matriz buscada que cumple (6), es decir se factoriza una matriz simetrica como el ´ producto de dos matrices iguales y simetricas, luego para obtener Z se resuelve (3) Z = XΛ−1

4

(9)

´ a donde la inversa existe puesto que inicialmente se definio´ X de rango completo. La expresion ´ (5) y (7) es optimizar dada la restriccion,   L = tr (Λ) = tr VDV0 = tr V0 VD = tr (D) es decir, la suma de los valores singulares de X. ´ suficiente sujeta a la restriccion ´ y al cumplimiento de la condicion ´ necesaria sera´ Para la condicion ´ de las primeras derivadas parciales respecto a Z util ´ la vectorizacion  vec

∂L ∂Z

 = vec (X) − vec (ZΛ)

(10)

´ de Z y la matriz hessiana2 se obtiene derivando3 (10) con respecto a la vectorizacion  ∂L    ∂vec ∂Z H= = −Λ ⊗ In = − Λ1/2 ⊗ In Λ1/2 ⊗ In ∂vec (Z)

(11)

´ puesto que Λ es definida positiva y entonces Λ1/2 = VD1/2 V0 , la forma cuadratica utilizando un vector a cualquiera de orden np × 1 y distinto de 0 es np    X b2i < 0 −a0 Λ1/2 ⊗ In Λ1/2 ⊗ In a = −b0 b = − i=1

  con b = Λ1/2 ⊗ In a, por lo tanto H es definida negativa evaluada en Λ con valores estaciona´ rios, luego tr(Z0 X) es un maximo sujeto a Z0 Z = Ip . ´ ´ optima ´ Vamos a ver ahora que esta ortonormalizacion es la que fue propuesta por Mao (1986) ´ ´ de valor singular4 , de hecho para la matriz X la misma es, basandose en la descomposicion ´ utilizando nuestra notacion, X = UDV0

(12)

donde U es n × p con los vectores propios de XX0 asociados a los valores propios distintos de ´ que las columnas de X estan ´ normalizadas, as´ı la matriz cero y U0 U = Ip , recordemos tambien 2

´ suficiente Siguiendo a Chiang y Wainwright (2006) no sera´ necesario el Hessiano orlado si se va a obtener la condicion ´ necesaria y la restriccion. ´ una vez que se haya satisfecho la condicion 3 ´ ´ abreviada pero util ´ con vectorizacion. ´ Vease Lutkepohl (2005) para una exposicion ¨ ´ de la diferenciacion 4 ´ optima ´ ´ a una matriz no Mao obtiene la ortonormalizacion para una matriz cuadrada, pero se puede aplicar tambien ´ de valor singular reducida. cuadrada utilizando la descomposicion

5

´ de vectores ortonormales optimos es Z = UV0

(13)

´ de la optimaliresolviendo (12) para U y reemplazando en (13) se obtiene (9). Una demostracion dad de Z se halla en Mao (1986).

III.

´ optima ´ Aplicaciones de la ortogonalizacion

´ optima ´ ´ de la traza de la La ortonormalizacion se puede utilizar en estad´ıstica como la optimizacion matriz de correlaciones cruzadas entre un conjunto de K variables correlacionadas y un conjunto de K variables que conforman una base ortogonal del primer conjunto de variables. Una forma ´ de obtenerla es aplicando una doble estandarizacion ´ a las variables originales que se quieren facil ´ univariante a las variables ortogonalizar, lo que consiste en realizar primero una estandarizacion ´ y luego se les aplica una estandarizacion ´ multivariante, este ´ en cuestion procedimiento de dos pasos conduce a obtener nuevas variables que presentan las siguientes propiedades.

´ incorrelacionadas entre s´ı. Las nuevas variables estan ´ entre una variable original y otra que puede denominarse su version ´ ortogoLa correlacion ´ nalizada es maxima sujeto a la ortogonalidad entre las nuevas variables. ´ ortogonalizada Las correlaciones de una variable original con las otras que no son su version tiende a ser m´ınimas.

´ ´ optima ´ Vamos a mostrar como se puede aplicar la ortogonalizacion a la FIR y a la DVEP en un mo´ estructural a partir de esta ´ ´ delo VAR, asimismo obtendremos una configuracion ortogonalizacion, para concretar, sea yt un vector K × 1 de variables que siguen un proceso VAR(p) estacionario cuya forma reducida es yt = c + Φ1 yt−1 + Φ2 yt−2 + . . . + Φp yt−p + ut

(14)

donde c es un vector K ×1 de constantes, Φi son matrices K ×K de coeficientes con i = 1, 2, . . . , p y ut es un vector K × 1 que sigue un proceso ruido blanco multivariante, es decir: E (ut ) = 0, P E (ut u0t ) = Σ y E (ut u0s ) = 0 para t 6= s. Si las ra´ıces de |IK − pi=1 Φi zi | = 0 caen fuera 6

´ media movil ´ infinita del c´ırculo unitario entonces el modelo VAR(p) es estable y tiene su version ´ funcion ´ impulso respuesta denominada tambien yt = µ + ut + Θ1 ut−1 + Θ2 ut−2 + . . . donde Θi =

Pp

j=1 Φj Θi−j

(15)

para i = 1, 2, . . . con Θ0 = Ik y Θ−1 = Θ−2 = . . . = 0. Para obtener

´ optima ´ los residuos ortogonalizados se aplica la ortonormalizacion utilizando el resultado en (6), ´ en este caso a la matriz de correlaciones del ruido P = ΛΛ, con Λ = VDλ V0 como en (7), la ´ con la matriz de covarianzas es relacion Σ = Du P Du = Du ΛΛDu = HH0

(16)

´ con Du que es una matriz diagonal que contiene en la diagonal principal las desviaciones estandar ´ entre los residuales originales ut y los residuales de las innovaciones y H = Du Λ, luego la relacion ortogonalizados εt es ut = Hεt

(17)

´ impulso respuesta con innovaciones optimamente ´ insertando (17) en (15) se obtiene la funcion ortogonales yt = µ + Ψ0 εt + Ψ1 εt−1 + Ψ2 εt−2 + . . .

(18)

´ ´ permite que las respuestas al impulso donde Ψi = Θi H, esta ortogonalizacion ∂yjt ∂yj,t+i = ψi,jk = ∂εk,t−i ∂εkt no cambien si se cambia el orden de las variables, lo cual se da porque λjk es invariante a cambios en el orden en que aparecen las variables. ´ optima ´ Comparando la FIR mediante ortogonalizacion con la de los impulsos generalizados vemos ´ que este ultimo no produce innovaciones ortogonales, la FIR generalizada para todos los shocks ´ ´ es, con nuestra notacion, Gh = Θh ΣD−1 u

(19)

yt = µ + G0 vt + G1 vt−1 + G2 vt−2 + . . .

(20)

utilizando (19) en (15) produce

7

donde vt = Du Σ−1 ut , los cuales no son ortogonales puesto que  E vt vt0 = Du Σ−1 Du .

´ optima, ´ Asimismo puede obtenerse la DVEP utilizando ortogonalizacion logrando as´ı invarianza ´ de la varianza ante cambios en el orden de las variables del sistema VAR, en la descomposicion ´ ´ para ello partamos de que el pronostico al horizonte h que minimiza el error cuadratico medio es ´ disponible en el tiempo t es la media de yt+h condicional al conjunto de informacion (21)

Et (yt+h ) = µ + Ψh εt + Ψh+1 εt−1 + Ψh+2 εt−2 + . . .

´ disponible en el tiempo t y se ha donde Et (.) = E (. | Ωt ) con Ωt como el conjunto de informacion ´ utilizado el hecho de que Et (εt+h−j ) = 0 para j < h, luego el error de pronostico es yt+h − Et (yt+h ) = Ψ0 εt+h + Ψ1 εt+h−1 + . . . + Ψh−1 εt+1

(22)

´ y obteniendo la matriz de covarianzas del error de pronostico para el horizonte h se tiene  Γh = E [yt+h − Et (yt+h )] [yt+h − Et (yt+h )]0 = Ψ0 Ψ00 + Ψ1 Ψ01 + . . . + Ψh−1 Ψ0h−1

(23)

lo cual se da por el hecho de que εt es ruido blanco estandarizado, entonces la varianza del error ´ ´ de pronostico al horizonte h de la j-esima variable se puede descomponer como

γh,jj

=

=

K X k=1 h−1 X i=0

2 ψ0,jk

+

2 ψi,j1 +

K X k=1 h−1 X

2 ψ1,jk

+ ... +

2 ψi,j2 + ... +

i=0

K X

k=1 h−1 X

2 ψh−1,jk

=

h−1 X K X

2 ψi,jk

i=0 k=1

2 ψi,jK

(24)

i=0

dividiendo entre la varianza se tiene que cada sumando de la parte derecha de (24) es Ph−1 i=0

wh,jk =

2 ψi,jk

γh,jj

´ de la varianza del error de pronostico ´ ´ lo cual es la proporcion (horizonte h) de la j-esima variable ´ ´ ´ tampoco var´ıa si se cambia el orden que se debe al shock en la k-esima variable, esta proporcion PK ´ se tiene que k=1 wh,jk = 1 lo cual no se da en el impulso generalizado. de las variables, ademas 8

´ estructural para el modelo VAR se puede obtener haciendo Q = H−1 , definienUna configuracion do Dq como una matriz diagonal K × K con elementos de la diagonal principal de Q y escribiendo yt = m + B0 yt + B1 yt−1 + B2 yt−2 + . . . + Bp yt−p + t

(25)

´ con B0 = Ik − D−1 forma B0 contiene ceros en la diagonal principal, Bi = D−1 q Q, de esta q QΦi , −1 ´ normalizados pero siguen siendo m = D−1 q Qc y t = Dq εt , por lo tanto los residuos ya no estan

´ ´ ortogonales. Se puede generalizar este resultado facilmente a un modelo VARX solamente inclu´ ´ yendo variables exogenas en la forma reducida; para un modelo de ecuaciones simultaneas se ´ optima ´ ´ de puede aplicar la ortogonalizacion a los residuales del modelo reducido, la identificacion ´ ´ los parametros estructurales que relacionan las variables endogenas con las predeterminadas se ´ desconocida en las relaciopuede realizar de las maneras usuales, pero para una configuracion ´ nes entre variables endogenas se puede utilizar el proceso descrito antes para la forma estructural del modelo VAR. ´ optima ´ Otro uso interesante de la ortogonalizacion es la realizada en la prueba de Doornik-Hansen ´ optima ´ de normalidad multivariante. La misma aplica la ortonormalizacion a un conjunto de varia´ bles a las que se quiere docimar la hipotesis de normalidad multivariante, as´ı entonces obtienendo las variables ortonormales como combinaciones lineales de las variables sobre las que se quie´ re probar la hipotesis, se utiliza el hecho de que si las variables originales son multinormales ´ lo seran, ´ ademas ´ seran ´ independientes por la inentonces las variables ortonormales tambien ´ entre ellas y puede aplicarseles ´ correlacion pruebas de normalidad univariantes a cada una, la ´ ´ matriz de variables ortonormales optimas utilizada en la prueba es, con nuestra notacion, e −1 VD−1 V0 Z = XD x λ e es una matriz que en columnas tiene a las variables centradas respecto a sus medias, donde X ´ Dx es diagonal con las desviaciones estandar de las variables en la diagonal principal, Dλ es e −1 y V son los vectores propios asociados a los valores diagonal con los valores singulares de XD x ´ de todo el singulares, luego Z son ortonormales, la similitud con (9) es evidente, la explicacion procedimiento se halla en Doornik y Hansen (1994). ´ optima ´ ´ Asimismo la ortogonalizacion es util de multicolinealidad, puesto ´ para estudiar el fenomeno que permite mediante las correlaciones cruzadas entre las variables originales y las ortogonaliza-

9

´ de la interdependencia lineal entre las variables, cuando las correlaciones das una representacion de la diagonal principal son altas entonces se puede interpretar a las variables correspondientes como las menos asociadas linealmente al resto del conjunto de variables y por ello las menos colineales, en cambio las correlaciones bajas de la diagonal principal nos mostrar´ıan lo contrario, ´ las mas ´ colineales. las variables involucradas seran

IV.

´ con datos reales Aplicacion

´ optima ´ Se aplica la ortogonalizacion a los residuales de un modelo VAR estimado con datos de ´ del ingreso y del consumo de la econom´ıa boliviana las tasas de crecimiento de la inversion, para el per´ıodo 1988 - 2013, los datos en niveles han sido obtenidos del INE y se encuentran en miles de bolivianos de 1990, luego las variables se han transformado en diferencias logar´ıtmicas para expresarlas como tasas de crecimiento y para que sean estacionarias. Los resultados de la ´ por m´ınimos cuadrados se encuentran en el Cuadro 15 y las inversas de las ra´ıces estimacion del polinomio caracter´ıstico del modelo VAR estimado caen dentro del c´ırculo unitario como se observa en la Figura 1.

C DLOG(INVERSION(-1)) DLOG(INGRESO(-1)) DLOG(CONSUMO(-1)) DLOG(INVERSION(-2)) DLOG(INGRESO(-2)) DLOG(CONSUMO(-2)) Adj. R-squared

´ del modelo VAR Cuadro 1: Estimacion DLOG(INVERSION) DLOG(INGRESO) -0,296309 0,004156 -0,613898 -0,067704 2,918549 0,182140 6,196148 1,020903 -0,400177 -0,032564 10,80180 0,658741 -9,703275 -0,780554 0,417958 0,213621

DLOG(CONSUMO) 0,002775 -0,017233 0,248738 0,535394 -0,000124 0,420585 -0,309996 0,393548

´ optima ´ ´ de la matriz de covaVamos a aplicar la ortogonalizacion como en (16) a la estimacion b =Λ bΛ b a la matriz de correlaciones ´ P rianzas de las innovaciones. Partiendo de la factorizacion b =V bD b λV b 0 que es la matriz de correlaciones cruzadas entre las de los residuales6 , se obtiene Λ ´ innovaciones correlacionadas y las optimamente ortogonalizadas, la misma que se presenta en 5

´ por simplicidad toda vez que se trata de un ejemplo, la estimacion ´ se ha El orden del rezago se ha elegido en 2 solo ´ de los realizado en EViews 8, y se cumplen los supuestos de normalidad, homoscedasticidad y no autocorrelacion residuales. 6 ´ por grados de libertad T − q en la matriz de covarianzas del ruido, donde T es el tamano ˜ Se ha utilizado la correccion ´ ´ de la muestra y q es la cantidad de parametros por ecuacion.

10

Figura 1: Inversas de las ra´ıces del polinomio caracter´ıstico 1.5

1.0

0.5

0.0

-0.5

-1.0

-1.5 -1.5

-1.0

-0.5

0.0

0.5

1.0

1.5

´ Cuadro 2: Correlaciones cruzadas entre residuales originales y optimamente ortogonales E1 E2 E3 U1 0,942241 0,086168 0,323663 U2 0,086168 0,889902 0,447939 U3 0,323663 0,447939 0,833423 el Cuadro 2 donde las no ortogonalizadas se representan por U y las ortogonalizadas por E, y se puede observar que en la diagonal principal las correlaciones son altas y fuera de la diagonal principal las correlaciones son bajas, as´ı se puede asociar cada variable ortogonal con cada residual ´ mas ´ elevada es la del residual de la no ortogonal, en el Cuadro 2 se muestra que la correlacion ´ de la inversion ´ con la que puede ser su version ´ ortogonalizada, justamente debido a la ecuacion ´ asimismo a la luz de este ´ ´ alta correlacion, resultado podr´ıa interpretarse a la tasa de la Inversion como la menos asociada linealmente a las otras dos variables. bi = Θ b iD b uΛ b para obtener las respuestas a los impulsos, vamos a comparar con Luego se calcula Ψ ´ ´ la obtenida por el metodo de Cholesky y con la generalizada. La FIR aplicando la ortogonalizacion v´ıa Cholesky se muestra en la Figura 2, en la Figura 3 se tiene a la FIR generalizada y en la Figura ´ optima. ´ 4 a la FIR con ortogonalizacion Se puede observar que tanto el impulso generalizado como ´ ´ el ortogonalizado optimo consideran respuestas contemporaneas no nulas en todas las variables, ´ de Cholesky, en todo caso las respuestas de la tasa de no as´ı la ortogonalizada con factorizacion ´ a shocks en la misma y en la tasas del ingreso son similares en las crecimiento de la inversion tres FIR, en cambio se nota que la respuesta ante un shock en el consumo es diferente en la FIR ´ generalizada y en la ortogonalizada optima, mientras que en el caso de Cholesky la respuesta de 11

´ a un shock en el consumo es nula contemporaneamente ´ la inversion y luego intermitente, tanto en ´ ´ la generalizada como en la optima se observa una respuesta positiva que decae de manera mas ´ irregular en la optima. ´ impulso respuesta con factorizacion ´ de Cholesky Figura 2: Funcion RESP UES TA DE D LOG(INVE RSION) A UN SHOC K D E U NA D ESVIAC ION ESTAN DA R

RESP UES TA DE D LOG(INGRE SO) A UN SHOC K D E U NA D ESVIAC ION ESTAN DA R

.12

.016

.08

.012

RES PUES TA DE D LOG(C ON SU MO) A UN SHOC K DE U NA D ESVIAC ION ESTAN DA R

.008

.008 .04

.004 .004

.00

.000

-.04

.000

-.004

-.08

-.008 1

2

3

4

5

6

7

8

9

10

-.004 1

2

3

4

DLOG(INVE RS ION)

5

6

7

8

DLOG(INGRE SO)

9

10

1

2

3

4

5

6

7

8

9

10

DLOG(CONS UM O)

´ tampoco difieren mucho, La respuesta del ingreso a shocks en la misma variable y en la inversion nuevamente es ante shocks en el consumo que hay diferencias, similarmente al anterior un shock ´ estandar ´ ´ en el consumo de una desviacion produce una respuesta positiva instantanea en el in´ suave en la generalizada. Finalmente se puede observar que la respuesta greso y decae algo mas ´ son similares en las tres FIR, pero la respuesta del consumo a shocks en el ingreso y la inversion ´ por Cholesky, y es mas ´ del consumo a su propio shock es menos fuerte segun ´ la ortogonalizacion ´ fuerte en la generalizada y la optima, en particular en la generalizada. ´ impulso respuesta generalizada Figura 3: Funcion RESP UES TA DE D LOG(INVE RSION) A UN SHOC K D E U NA D ESVIAC ION ESTAN DA R

RESP UES TA DE D LOG(INGRE SO) A UN SHOC K D E U NA D ESVIAC ION ESTAN DA R

.12

.016

.08

.012

RES PUES TA DE D LOG(C ON SU MO) A UN SHOC K DE U NA D ESVIAC ION ESTAN DA R

.008

.008 .04

.004 .004

.00

.000

-.04

.000

-.004

-.08

-.008 1

2

3

4

5

6

7

8

9

10

-.004 1

2

3

DLOG(INVE RS ION)

4

5

6

7

DLOG(INGRE SO)

8

9

10

1

2

3

4

5

6

7

8

9

10

DLOG(CONS UM O)

´ de la varianza del error de pronostico ´ ´ de Cholesky La descomposicion utilizando la factorizacion se presenta en la Figura 5, en tanto en la Figura 6 se muestra la DVEP con los residuales con ´ optima; ´ ´ ortogonalizacion es de destacar que la varianza del error de pronostico de la tasa de ´ es parecida en ambos casos pero con Cholesky es mayor la parte crecimiento de la inversion ´ del 40 % desde el 3er per´ıodo para adelante, mientras que en explicada por el ingreso, algo mas 12

´ impulso respuesta con ortogonalizacion ´ optima ´ Figura 4: Funcion RESP UES TA DE D LOG(INVE RSION) A UN SHOC K D E U NA D ESVIAC ION ESTAN DA R

RESP UES TA DE D LOG(INGRE SO) A UN SHOC K D E U NA D ESVIAC ION ESTAN DA R

.12

.016

.08

.012

RES PUES TA DE D LOG(C ON SU MO) A UN SHOC K DE U NA D ESVIAC ION ESTAN DA R

.008

.008 .04

.004 .004

.00

.000

-.04

.000

-.004

-.08

-.008 1

2

3

4

5

6

7

8

9

10

-.004 1

2

3

4

DLOG(INVE RS ION)

5

6

7

8

DLOG(INGRE SO)

9

10

1

2

3

4

5

6

7

8

9

10

DLOG(CONS UM O)

´ optima ´ ´ el mismo lapso con la ortogonalizacion se tiene algo menos del 40 % lo que da algo mas ´ ´ con Cholesky; en cuanto al ingreso, con de importancia al consumo en la optima en comparacion ´ ´ Cholesky la varianza se debe practicamente a s´ı misma, no as´ı en la optima donde el consumo ´ de participacion; ´ la mayor diferencia se encuentra sin embargo en la descompositiene algo mas ´ de la varianza de la tasa del consumo, la misma con Cholesky se debe en mayor medida al cion ´ ´ que ingreso de lejos, pero con la optima el consumo mismo cobra mayor importancia incluso mas el ingreso hasta antes del 4to per´ıodo. ´ de la varianza del error de pronostico ´ ´ de Cholesky Figura 5: Descomposicion con factorizacion DES COMPOSIC ION DE L A VAR IANZA D E DL OG(IN VER SION )

DE SCOMPOSIC ION DE L A VAR IANZA D E D LOG(IN GR ESO)

DE SCOMPOSIC ION DE L A VAR IANZA D E D L OG(C ONS UMO)

100

100

100

80

80

80

60

60

60

40

40

40

20

20

20

0

0 1

2

3

4

5

6

7

8

9

10

0 1

2

3

4

DLOG(INVE RS ION)

5

6

7

8

DLOG(INGRE SO)

9

10

1

2

3

4

5

6

7

8

9

10

DLOG(CONS UM O)

´ de la varianza del error de pronostico ´ ´ optima ´ Figura 6: Descomposicion con ortogonalizacion DE SCOMP OSICION DE LA V ARIAN ZA D E D LOG(IN VER SION )

DE SCOMP OSICION DE LA V ARIAN ZA D E DL OG(IN GRE SO)

DE SCOM POSICION DE LA VAR IA NZA D E D LOG(C ON SU MO)

100

100

100

80

80

80

60

60

60

40

40

40

20

20

20

0

0 01

02

03

04

05

06

07

08

09

10

0 01

02

03

DLOG(INVE RSI ON)

04

05

06

07

DLOG(INGRES O)

13

08

09

10

DLOG(CONSUMO)

01

02

03

04

05

06

07

08

09

10

M DLOG(INVERSION) DLOG(INGRESO) DLOG(CONSUMO) DLOG(INVERSION(-1)) DLOG(INGRESO(-1)) DLOG(CONSUMO(-1)) DLOG(INVERSION(-2)) DLOG(INGRESO(-2)) DLOG(CONSUMO(-2))

´ estructural Cuadro 3: Estimacion DLOG(INVERSION) DLOG(INGRESO) -0,307503 -0,001602 0,000000 -0,011827 -1,229412 0,000000 5,873984 0,811798 -0,595904 -0,060974 1,681391 0,014733 4,306360 0,659554 -0,439486 -0,037197 9,141157 0,445066 -8,841985 -0,643662

DLOG(CONSUMO) 0,008349 0,023557 0,338414 0,000000 0,020140 0,118348 0,043946 0,020323 -0,056797 0,182731

´ estructural del modelo VAR estimado Finalmente en el Cuadro 3 se presenta una configuracion ´ optima ´ ´ utilizando la ortogonalizacion en los residuales, las relaciones contemporaneas que se ´ validas ´ obtienen seran bajo el supuesto de que cada residual ortogonal es al menos una proxy ´ del residual original. adecuada de la parte sin relacion ´ sobresaliente en las FIR entre la ortogonalizacion ´ Podemos ver entonces que la diferencia mas ´ ´ por Cholesky se da en la importancia que adquiere la tasa de creoptima y la ortogonalizacion ´ cimiento del consumo en la optima, que es claramente mayor que en la de Cholesky, lo mismo ´ se da en la DVEP; con respecto a la FIR generalizada las diferencias con la optima no son tan ´ por la que tanto en la optima ´ ´ fuertes. La razon como en la generalizada el consumo tiene mas ´ importancia que en la de Cholesky se debe a que en esta ultima el tratamiento a las variables ´ ´ ´ recursiva que de alguna manera debe justificarse no es simetrico, se parte de una configuracion aunque no siempre las variables pueden darse para tal estructura, en cambio en la generalizada ´ y en la optima el tratamiento es igual para todas las variables, no obstante como ya se menciono´ ´ ´ ortogonalizadas. antes la ventaja de la optima es que las innovaciones estan

Referencias ´ ´ [1] Chiang, A., K. Wainwright, (2006). Metodos fundamentales de econom´ıa matematica, McGraw´ ´ Hill, Mexico D.F., Mexico. [2] Doornik, J., H. Hansen, (1994). “An Omnibus Test for Univariate and Multivariate Normality”. Noviembre.

14

[3] Lutkepohl, H., (2005). New Introduction to Multiple Time Series Analysis, Springer, Berl´ın, Ale¨ mania. [4] Mao, J., (1986). “Optimal orthonormalization of the strapdown matrix by using singular value decomposition”, Comp. & Maths. with Appls. Vol. 12A. No. 3, Pergamon Press Ltd. Junio. ˜ D., (2002). Analisis ´ ˜ [5] Pena, de datos multivariantes, McGraw-Hill, Madrid, Espana. [6] Pesaran, M., Y. Shin, (1997). “Generalized Impulse Response Analysis in Linear Multivariate Models”. Julio.

´ Anexo 1: Codigo en EViews 8 para calcular la FIR y la DVEP con orto´ optima ´ gonalizacion ´ ´ optima. ´ Se presenta el codigo en EViews 8 para calcular la FIR y la DVEP con ortogonalizacion ´ Cuando se ejecuta el programa, este pide que se ingrese un objeto VAR estimado, los shocks de la FIR que presenta se denominan como “Shock1”, “Shock2”, y as´ı sucesivamente, pero corres´ la descomposicion ´ de ponden a las variables del modelo VAR en el orden de la especificacion; varianza se presenta en una matriz denominada “descvar*”, donde las primeras K columnas son las respuestas de las K variables a un shock en la 1ra variable, las siguientes K columnas son las respuestas de las K variables a un shock en la 2da variable y as´ı sucesivamente.

if @uidialog("Caption","Ortogonalizaci´ on ´ optima","Edit",%var,"VAR") -1 then if @isobject(%var)=1 then if {%var}.@type"VAR" then @uiprompt("Error, el objeto no es un VAR") stop endif else @uiprompt("Error, ese objeto no existe") stop endif else

15

stop endif

%mat=@getnextname("_h") matrix {%mat}={%var}.@residcov call oo({%mat}) %dvar=@getnextname("_descvar") {%var}.impulse(10,g,imp=user,fname={%mat},matbyr={%dvar}) call dvep({%dvar})

subroutine local oo(matrix h) sym du=@makediagonal(@sqrt(@getmaindiagonal(h))) sym rho=@inverse(du)*h*@inverse(du) sym dl=@makediagonal(@sqrt(@eigenvalues(rho))) sym lambda=@eigenvectors(rho)*dl*@transpose(@eigenvectors(rho)) h=du*lambda endsub

subroutine local dvep(matrix dv) dv=@emult(dv,dv) !c=@columns(dv) for !i=2 to @rows(dv) rowvector fila=@subextract(dv,!i-1,1,!i-1,!c)+@subextract(dv,!i,1,!i,!c) rowplace(dv,fila,!i) next matrix isum=@einv(dv*@kronecker(@identity(@sqrt(!c)),@ones(@sqrt(!c),@sqrt(!c)))) dv=@emult(dv,isum)*100 endsub

16

Anexo 2: Datos utilizados Los datos en niveles son: ˜ ANO

INVERSION

INGRESO

CONSUMO

1988

1937450

14219987

11280822

1989

1644506

14758943

11482159

1990

1935324

15443136

11869886

1991

2502123

16256453

12264368

1992

2635304

16524115

12700433

1993

2633483

17229578

13122712

1994

2354272

18033729

13507684

1995

2644054

18877396

13905760

1996

3140810

19700704

14359906

1997

4090388

20676718

15139505

1998

5256560

21716623

15934817

1999

4270318

21809329

16375001

2000

3955281

22356265

16752142

2001

3264328

22732700

16964767

2002

3847377

23297736

17311639

2003

3353843

23929417

17637776

2004

2956582

24928062

18151035

2005

3750886

26030240

18755349

2006

3559962

27278913

19518921

2007

3953568

28524027

20332797

2008

5112492

30277826

21447627

2009

5310793

31294253

22235429

2010

5690356

32585680

23119867

2011

7028560

34271640

24313678

2012

6703368

36045688

25435993

2013

7781197 38487830 Fuente: INE

26932330

17

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.