MODELOS DE SERIES TEMPORALES EN FINANZAS(I): MODELOS ARIMA
Modelización Económica II
Referencias:Mills y Markellos (2008) "The Econometric Modelling of Financial
Time Series", Cambridge University Press.Aznar y Trívez (1993) "Métodos de Predicción en Economía II", Ariel.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 1 / 37
1 Introducción a las series temporales
Llamaremos serie temporal o proceso estocástico en tiempo discreto a una
sucesión de variables aleatiorias fYtg para t = �∞, ...,�2,�1, 0, 1, 2, ...,∞ (t
recoge el tiempo y toma valores discretos).
Box & Jenkins (1976) modelizó las series temporales mediante los modelos
ARIMA. El término signi�ca:
AR = Au torregresivos
I = Integrados
MA = Medias �moviles
La metodología Box-Jenkins recoge una serie de etapas y procedimientos para la
identi�cación, estimación, contraste y predicción de los modelos ARIMA con
datos de series temporales.Modelos ARIMA () Dr Javier Perote Peña [email protected] 2 / 37
1 Introducción a las series temporales
Una serie temporal Yt es estacionaria (en sentido débil) si existen susmomentos de primer y segundo orden y estos son constantes eindependientes de t, es decir,
a) E (Yt ) = µ 8 t,b) Var(Yt ) = E
�(Yt � µ)2
�= σ2 8 t
c) Cov(Yt ,Yt�s ) = E [(Yt � µ)(Yt�s � µ)] = γ(s) 8 t y 8s 6= 0.γ(s) es una función que depende de s pero no de t y se denomina funciónde autocovarianza (FAC).
Ejemplo: Un ruido blanco (εt ) es un proceso estocástico estacionario dadoque si E (εt ) = 0 8 t,Var(εt ) = σ2ε 8t y Cov(εt , εt�s ) = 0 8 t y 8s 6= 0.La propiedad de estacionariedad es muy importante porque si las series noson estacionarias la estimación MCO es sesgada, inconsistente y lasdesviaciones típicas de los estimadores no son válidas.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 3 / 37
1 Introducción a las series temporales
Una serie temporal estacionaria Yt se puede caracterizar por su estructura
completa de covarianzas (γ(s)), correlaciones (ρ(s)) o correlaciones
parciales (φ(s)).
Función de autocorrelación simple (FAS): ρ(s) = γ(s)γ(0)
8s = 1, 2, ...donde γ(0) = Var(Yt ).
Función de autocorrelación parcial (FAP):
φ(s) = Corr [YtYt�s j Yt�1,Yt�2, ...,Yt�s+1 ] 8s = 1, 2, ...
La representación grá�ca de la FAP y de la FAS se denominan
correlograma simple y parcial. Ambas son funciones simétricas y
comprendidas entre �1 y 1.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 4 / 37
1 Introducción a las series temporales
La etapa de identi�cación de la metodología Box-Jenkins trata de reconocerel proceso ARIMA que genera una serie temporal concreta en función de loscorrelogramas simple y parcial muestrales.
1
1 2 3 4 5 s6
−1
ρ(s)1
12
34
5
s6
−1
ρ(s)
Modelos ARIMA () Dr Javier Perote Peña [email protected] 5 / 37
2 Modelos AutorregresivosModelo AR(1)
Un proceso autorregresivo de primer orden, AR(1), se de�ne como
Yt = φ0 + φ1Yt�1 + εt
donde εt es una variable aleatoria ruido blanco: E (εt ) = 0 8t,Var(εt ) = σ2ε 8t y Cov(εt , εt�s ) = 0 8t y 8s 6= 0.Si jφ1 j < 1 el proceso AR(1) es estacionario. En tal caso se puededemostrar que:
a) E (Yt ) =φ01�φ1
8t,
b) Var(Yt ) = γ(0) = σ2ε1�φ21
8t
c) Cov(Yt ,Yt�s ) = γ(s) = φs1σ2ε1�φ21
= φs1γ(0) 8 t y 8s 6= 0.
Por tanto jφ1 j < 1 todas las autocorrelaciones simples son disntintas de cerosi bien decaen rápidamente hacia cero.
ρ(s) = φs1 8s = 1, 2, ...
Modelos ARIMA () Dr Javier Perote Peña [email protected] 6 / 37
2 Modelos Autorregresivos
Modelo AR(1)
Si jφ1 j < 1 sólo la primera autocorrelación parcial es distinta de cero.
φ(s) =
8<: φ1 si s = 1
0 8s > 1
1
1 2 3 4 5 s6
−1
ρ(s)1
−1
φ(s)
1 2 3 4 5 s6
Modelos ARIMA () Dr Javier Perote Peña [email protected] 7 / 37
2 Modelos Autorregresivos
Modelo AR(1)
Si jφ1 j � 1 el AR(1) tiene varianza "explosiva" (no estacionario en
varianza).
Por ejemplo, si φ1 = 1 el proceso resultante se denomina paseo aleatorio
(con deriva φ0): Yt = φ0 + Yt�1 + εt . Éste es un proceso integrado de
orden 1 o I(1) dado que su primera diferencia es estacionaria:
∆Yt = Yt � Yt�1 = φ0 + εt .
Estadísticamente este proceso es indistinguible de un AR(1) con φ1 = 0.99,
proceso muy próximo a la no estacionariedad que se caracteriza por la alta
persistencia de las correlaciones (lento decaimiento hacia cero de la FAS).
Modelos ARIMA () Dr Javier Perote Peña [email protected] 8 / 37
2 Modelos AutorregresivosModelo AR(1)
Correlograma de un proceso AR(1) próximo a la no estacionariedad.
1
1 2 3 4 5 6
−1
ρ(s)
7 98 10 11 12 s1514 16 17 1813
Modelos ARIMA () Dr Javier Perote Peña [email protected] 9 / 37
2 Modelos AutorregresivosGeneración de una serie de un proceso AR(1) estacionario con Eviews
Abrir EViews and crear un nuevo �chero con "File/New Work�le". En el rango de
la serie "work�le range" elegir "undated" y "500" observaciones. Una serie
estacionaria se crea como sigue:
1. smpl 1 1
genr yt=0 [genera Yt con el valor 0 para la observación 1]
2. smpl 1 500
genr ut=nrnd [genera una serie ruido blanco con varianza 1]
3. smpl 2 500
genr yt=0.5+0.4*yt(-1)+ut [genera Yt : proceso AR(1) con φ1 = 0.4]
Modelos ARIMA () Dr Javier Perote Peña [email protected] 10 / 37
2 Modelos AutorregresivosGeneración de una serie de un proceso AR(1) estacionario con Eviews
Notar que la media ( 0.51�0.4 = 0.83) y la varianza (
11�0.42 = 1.19) son constantes
en el tiempo.
3
2
1
0
1
2
3
4
5
100 200 300 400 500YT
Modelos ARIMA () Dr Javier Perote Peña [email protected] 11 / 37
2 Modelos AutorregresivosGeneración de una serie de un proceso AR(1) no estacionario con Eviews
Abrir EViews and crear un nuevo �chero con "File/New Work�le". En el rango de
la serie "work�le range" elegir "undated" y "500" observaciones. Una serie
estacionaria se crea como sigue:
1. smpl 1 1
genr yt=0 [genera Yt con el valor 0 para la observación 1]
2. smpl 1 500
genr ut=nrnd [genera una serie ruido blanco con varianza 1]
3. smpl 2 500
genr yt=0.5+1.4*yt(-1)+ut [genera Yt : proceso AR(1) con φ1 = 1.4]
Modelos ARIMA () Dr Javier Perote Peña [email protected] 12 / 37
2 Modelos AutorregresivosGeneración de una serie de un proceso AR(1) no estacionario con Eviews
2.0E+71
0.0E+00
2.0E+71
4.0E+71
6.0E+71
8.0E+71
1.0E+72
1.2E+72
1.4E+72
100 200 300 400 500
YT
Modelos ARIMA () Dr Javier Perote Peña [email protected] 13 / 37
2 Modelos Autorregresivos
El modelo AR(2)
Un proceso autorregresivo de segundo orden, AR(2), se de�ne como
Yt = φ0 + φ1Yt�1 + φ2Yt�2 + εt
donde εt es una variable aleatoria ruido blanco.
Un AR(2) se puede reescribir en función del operador de retardos, L (que
satisface LsYt = Yt�s ) y el correspondiente polinomio de retardos, Φ(L):
Yt � φ1Yt�1 � φ2Yt�2 = φ0 + εt
(1� φ1L� φ2L2)Yt = φ0 + εt
Φ(L)Yt = φ0 + εt
Modelos ARIMA () Dr Javier Perote Peña [email protected] 14 / 37
2 Modelos AutorregresivosEl modelo AR(2)
Un AR(2) es estacionario si las raíces del polinomio de retardos caenfuera del círculo unidad, es decir si jLi j > 1 8 i = 1, 2 donde Li son lasraíces que satisfacen 1� φ1L� φ2L
2 = 0.
Por ejemplo, para el caso del AR(1)
1� φ1L = 0) L� =��� 1φ1 ��� > 1, jφ1 j < 1.
Si el proceso AR(2) es estacionario E (Yt ) =φ0
1�φ1�φ28t y la estructura de
autocovarianzas se obtienen de la resolución del sistema de ecuaciones deYule-Walker.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 15 / 37
2 Modelos AutorregresivosEl modelo AR(2)
El sistema de Yule-Walker es recursivo: con las tres primeras ecuacionesse obtienen γ(0), γ(1) y γ(2).
γ(0) = φ1γ(1) + φ2γ(2) + σ2ε
γ(1) = φ1γ(0) + φ2γ(1)
γ(2) = φ1γ(1) + φ2γ(0)
El resto autocovarianzas se obtienen recursivamente de
γ(s) = φ1γ(s � 1) + φ2γ(s � 2)8s > 2.
Todas las autocorrelaciones simples son distintas de cero pero sólo las dosprimeras autocorrelaciones parciales son distintas de cero.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 16 / 37
2 Modelos AutorregresivosCorrelograma simple y parcial de un AR(2)
1
1 2 3 4 5 s6
−1
ρ(s)1
1 2 s
−1
φ(s)
Modelos ARIMA () Dr Javier Perote Peña [email protected] 17 / 37
2 Modelos AutorregresivosEl modelo AR(p)
El proceso autorregresivo de orden p o AR(p) se de�ne como:
Yt = φ0 + φ1Yt�1 + φ2Yt�2 + ...+ φpYt�p + εt
donde εt es una variable aleatoria ruido blanco.
Un AR(p) se puede reescribir en función del operador de retardos (L) y elcorrespondiente polinomio de retardos, Φ(L):
Yt � φ1Yt�1 � φ2Yt�2...� φpYt�p = φ0 + εt
(1� φ1L� φ2L2 � ...� φpL
p)Yt = φ0 + εt
Φ(L)Yt = φ0 + εt
Modelos ARIMA () Dr Javier Perote Peña [email protected] 18 / 37
2 Modelos AutorregresivosEl modelo AR(p)
Un AR(p) es estacionario si las raíces del polinomio de retardos caenfuera del círculo unidad, es decir si jLi j > 1 8 i = 1, 2 donde Li son lasraíces de 1� φ1L� φ2L
2...� φpLp = 0.
Si el proceso AR(p) es estacionario E (Yt ) =φ0
1�φ1�φ2�...�φp8t y las
autocovarianzas se obtienen del sistema de ecuaciones de Yule-Walker(con las p primeras ecuaciones se obtienen la varianza y las p primerascovarianzas).
γ(0) = φ1γ(1) + φ2γ(2) + � � �+ φpγ(p) + σ2ε
γ(s) = φ1γ(s � 1) + φ2γ(s � 2) � � �+ φpγ(s � p) 8s > 0.
Todas las autocorrelaciones simples son distintas de cero pero sólo las pprimeras autocorrelaciones parciales son distintas de cero.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 19 / 37
3 Modelos de medias móvilesEl modelo MA(1)
El modelo de medias móviles de orden 1 o MA(1) se expresa en función deruidos blancos (εt ) como
Yt = θ0 + εt � θ1εt�1.
Un MA(1) es siempre estacionario (combinación lineal de procesosestacionarios). En particular,
a) E (Yt ) = θ08t,
b) Var(Yt ) = γ(0) = σ2ε (1+ θ21) 8t
c) Cov(Yt ,Yt�s ) = γ(s) =��θ1σ2ε si s = 10 8s > 1 8 t.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 20 / 37
3 Modelos de medias móvilesEl modelo MA(1)
En un MA(1) sólo la primera autocorrelacion simple es distinta de cero pero
la FAP nunca se anula.
1
1
s
−1
ρ(s)1
1 2 3 4 5
s6
−1
φ(s)
Modelos ARIMA () Dr Javier Perote Peña [email protected] 21 / 37
3 Modelos de medias móvilesInvertibilidad de un MA(1)
Una serie temporal Yt es invertible si puede representarse como un proceso
AR estacionario (de orden in�nito). Esta propiedad se requiere para la
identi�cación de los procesos ARIMA según su FAS y FAP y para la
predicción de los procesos MA(q).
Si jθ1 j < 1 el proceso MA(1) es invertible.
Yt = εt + θ0� θ1(Yt�1� θ0+ θ1εt�2) = εt + θ0(1+ θ1)� θ1Yt�1� θ21εt�2
y sustituyendo recursivamente εt�i por el correspondiente proceso MA(1) se
obtiene
Yt = θ0∞
∑i=0
θi1 �∞
∑i=0
θi1Yt�i + εt = φ0 +∞
∑i=0
φiYt�i + εt .
Modelos ARIMA () Dr Javier Perote Peña [email protected] 22 / 37
3 Modelos de medias móvilesEl modelo MA(2)
El modelo de medias móviles de orden 2 o MA(2) se expresa como (εt ruidoblanco)
Yt = θ0 + εt � θ1εt�1 � θ1εt�2.
Un MA(2) es siempre estacionario y sus autocovarianzas:
a) E (Yt ) = θ08t,
b) Var(Yt ) = γ(0) = σ2ε (1+ θ21 + θ22) 8t
c) Cov(Yt ,Yt�s ) = γ(s) =
8<: (�θ1 + θ1θ2)σ2ε si s = 1
�θ1σ2ε si s = 20 8s > 2
8 t.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 23 / 37
3 Modelos de medias móvilesEl modelo MA(2)
En un MA(2) las dos primeras autocorrelaciones simples son distintas de
cero pero la FAP nunca se anula.
1
1
s
−1
ρ(s)1
1 2 3 4 5
s6
−1
φ(s)
2
Modelos ARIMA () Dr Javier Perote Peña [email protected] 24 / 37
3 Modelos de medias móvilesEl modelo MA(2)
Un modelo MA(2) se puede representar en función del operador de retardos,
L, y del polinomio de retardos, Θ(L):
Yt = θ0 + (1� θ1L� θ2L2)εt = θ0 +Θ(L)εt
Un MA(2) es invertible si las raíces del polinomio de retardos caen
fuera del círculo unidad, es decir si jLi j > 1 8 i = 1, 2 donde Li son lasraíces que satisfacen 1� φ1L� φ2L
2 = 0.
Por ejemplo, para el caso del MA(1)
1� θ1L = 0) L� =��� 1θ1 ��� > 1, jθ1 j < 1.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 25 / 37
3 Modelos de medias móvilesEl modelo MA(q)
El modelo de medias móviles de orden q, MA(q), se representa como (εt
ruido blanco)
Yt = θ0 + εt � θ1εt�1 � θ2εt�2 � ...� θq εt�q .
Alternativamente usando el operador de retardos se puede expresar como
Yt = θ0 + (1� θ1L� θ2L2 � ...� θqLq)εt = θ0 +Θ(L)εt .
El modelo MA(q) es siempre estacionario e invertible si las raíces de
Θ(L) = 0 caen fuera del círculo unidad.
La FAS de un MA(q) se anula a partir del orden del proceso (q), pero la
FAP nunca se anula.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 26 / 37
4 Modelos ARMAEl modelo ARMA(1,1)
Un proceso ARMA(1,1) es un proceso mixto entre un AR(1) y un MA(1)
que se representa como (εt ruido blanco)
Yt = ψ0 + φ1Yt�1 + ut � θ1ut�1.
Este proceso es estacionario si jφ1 j < 1 e invertible jθ1 j < 1.
Si el proceso es estacionario satisface:
a) E (Yt ) =θ01�φ1
8t,
b) Var(Yt ) = γ(0) = σ2ε(1+θ21�2φ1θ1)
1�φ218t
c) Cov(Yt ,Yt�s ) = γ(s) =
8<: σ2ε(1�φ1θ1)(φ1�θ1)
1�φ21si s = 1
φ1γ(s � 1) 8s > 18 t.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 27 / 37
4 Modelos ARMAEl modelo ARMA(1,1)
Por tanto la FAS y la FAP de un ARMA(1,1) tienen todas las
autocorrelaciones simples y parciales distintas de cero, si bien éstas decaen
exponencialmente hacia cero.
La primera autocorrelación simple depende tanto de la parte AR(1) como
MA(1), pero a partir de ésta el resto se comportan como las de un AR(1).
En cuanto a la FAP, la primera autocorrelación parcial depende de la
estructura AR(1) y MA(1) pero a partir de ésta el resto se comportan como
en un MA(1).
Los procesos AR(1) y MA(1) son casos particulares del ARMA(1,1) para
θ1 = 0 y φ1 = 0, respectivamente.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 28 / 37
4 Modelos ARMAEl modelo ARMA(p,q)
La forma general de un proceso ARMA(p,q) es la siguiente (εt ruido blanco):
Yt = ψ0 + φ1Yt�1 + ...+ φpYt�p + εt � θ1εt�1 � ...� θq εt�q
Φ(L)Yt = ψ0 +Θ(L)εt
Un ARMA(p,q) es estacionario e invertible cuando las raíces de
Φ(L) = 1� φ1L� φ2L2 � ...� φpL
p = 0 y
Θ(L) = 1� θ1L� θ2L2 � ...� θqLq = 0 caen fuera del cículo unidad.
La FAS y la FAP de un proceso ARMA(p,q) estacionario son todas distintas
de cero dado que a partir del orden q la FAS se comporta como en un AR(p)
y a partir del orden p la FAP se comporta como en un MA(q).
Casos particulares: ARMA(p,0)=AR(p) y ARMA(0,q)=MA(q).
Modelos ARIMA () Dr Javier Perote Peña [email protected] 29 / 37
5 Modelos ARIMA(p,d,q)
La mayor parte de las series económicas no son estacionarias dado que
suelen presentar tendencias y/o clusters de volatilidad.
Las series no estacionarias en media se convierten en estacionarias
diferenciándolas. Si Yt no es estacionaria pero la serie diferenciada d veces
sí lo es, entonces Yt sigue un proceso integrado de orden d o I(d). En
particular las series estacionarias son I(0).
Normalmente basta con aplicar una diferencia (Zt = ∆Yt = Yt � Yt�1), ocomo mucho dos (∆2Yt = ∆Zt = Zt � Zt�1), para transformar las serieseconómicas en estacionarias.
Si las series no son estacionarias en varianza normalmente se les suele
aplicar logartimos antes de diferenciarlas. Diferencias de logaritmos son
tasas de variación: ln(Yt )� ln(Yt�1) ' Yt�Yt�1Yt�1
.Modelos ARIMA () Dr Javier Perote Peña [email protected] 30 / 37
Ejemplos de series temporales no estacionarias
Los grá�cos de las series ofrecen una primera idea de la no estacionariedad. Porejemplo las �guras del índice S&P500 o del tipo de cambio £ /$ son claramenteno estacionarias en varianza (transformación logaritmica) y en media (primerasdiferencias).
200
400
600
800
1 ,00 0
1 ,20 0
1 ,40 0
1 ,60 0
9 2 9 4 9 6 9 8 0 0 0 2 0 4
SP500 (daily data) 26/4/1991 26/4/2006. 0bs 3913
.45
.50
.55
.60
.65
.70
.75
86 88 90 92 94 96 98 00 02 04 06
Exchange rate £/$. Daily data. Obs 5441
Modelos ARIMA () Dr Javier Perote Peña [email protected] 31 / 37
5 Modelos ARIMA(p,d,q)
Si Yt es I(d) entonces Zt = ∆dYt = (1� L)dYt es I(0), siendo L eloperador de retardos. Si además Zt se comporta como un ARMA(p,q)entonces Yt se denomina ARIMA(p,d,q). Dicho proceso se puederepresentar como:
Zt = ψ0 + φ1Zt�1 + ...+ φpZt�p + εt � θ1εt�1 � ...� θq εt�q .
Φ(L)Zt = ψ0 +Θ(L)εt ) Φ(L)(1� L)dYt = ψ0 +Θ(L)εt
Casos particulares: ARIMA(p,0,q)=ARMA(p,q), ARIMA(p,1,0)=ARI(p),ARIMA(0,1,q)=IMA(q), ARIMA(p,0,0)=AR(p), ARIMA(0,0,q)=MA(q),ARIMA(0,d,0)=I(d), ARIMA(0,1,0)="paseo aleatorio",ARIMA(0,0,0)="ruido blanco"...
Algunas extensiones: modelos ARIMA estacionales multiplicativos (con parteregular y estacional), modelos ARFIMA (de integración fraccional) yVectores Autorregresivos multivariantes (VAR).
Modelos ARIMA () Dr Javier Perote Peña [email protected] 32 / 37
6 Metodología Box-Jenkins
Box y Jenkins (1976) de�nieron una metodología de cuatro etapas paraseleccionar el proceso ARIMA subyacente a una serie temporal concreta conel propósito de estimar, contraster y predecir series temporales. Las cuatroetapas son las siguientes:
1) Identi�cación,2) Estimación3) Contraste4) Predicción
La metodología se puede aplicar solamente a procesos ARMA estacionarios(ARIMA antes de las correspondientes transformaciones para garantizarestacionariedad).
Modelos ARIMA () Dr Javier Perote Peña [email protected] 33 / 37
6 Box & Jenkins Methodology
1) Representar la serie y calcular la FAS y FAP muestrales y comprobar si las
series son estacionarias. Si lo son (correlaciones decrecen rápidamente) pasar
al paso 3, si no lo son (lento decrecimiento) continuar con el paso 2.
2) Tomar logaritmos de la serie si parece que no es estacionaria en varianza
(varianza no constante en el tiempo) y/o primeras diferencias si parece que
no es estacionaria en media (tiene tendencia o medias distintas por tramos).
3) Examinar la FAS y la FAP muestrales de la nueva serie transformada (si
siguiera sin ser estacionaria volver al paso 2 y aplicar una nueva diferencia) e
intentar identi�car el proceso ARMA teniendo en cuenta las correlaciones
simples y parciales signi�cativas (bandas de �uctuación).
4) Estimar el proceso que se ha especi�cado (máxima verosimilitud).Modelos ARIMA () Dr Javier Perote Peña [email protected] 34 / 37
6 Metodología Box-Jenkins
5) Contrastes de hipótesis:
Contraste de signi�catividad individual (o conjunta) de los parámetros
del modelo.
Contrastes sobre los residuos del modelo: comprobar que la FAS y la
FAP tienen un comportamiento de ruido blanco (ninguna correlacion
signi�cativa), contraste de normalidad (test de Jarque-Bera)...
Usar el criterios de información de Akaike y Schwarz (AIC, BIC)
además del R2 ajustado para decidir sobre la bondad de los ajustes de
posibles especi�caciones alternativas (normalmente de la inspección de
la FAS y FAC se pueden identi�car distintos modelos).
6) Si se deciden cambios en el modelo original volver estimar los nuevos
modelos en la etapa 4.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 35 / 37
7 Predicción bajo normalidad y varianza constante
Una vez que el modelo está correctamente especi�cado puede usarse para lapredicción.
Consideremos el caso más simple: Yt sigue un proceso AR(1),
Yt = φ0 + φ1Yt�1 + εt
por tanto el horizonte de predicción para Yt será un periodo extramuestralhacia adelante (T + 1) y el mejor predictor puntualbYT+1 = bE (YT+1) = bφ0 + bφ1YT(suponiendo que el modelo sigue siendo válido en T + 1, es decir,YT+1 = φ0 + φ1YT + uT+1, y E (uT+1) = 0).
Al nivel de con�anza del 95% (y asumiendo normalidad) un intervalo decon�anza para Yt+1 será bYT+1 � z α
2� bσY
donde z α2= 1.96 y bσY es la desviación típica muestral de Y .
En consecuencia Y se encontrará en dicho intervalo en T + 1 con unaprobabilidad del 95%.
Modelos ARIMA () Dr Javier Perote Peña [email protected] 36 / 37
8 Evaluación de las predicciones¿Es nuestro modelo adecuado para predecir la variable objeto de estudio?
Para evaluar la capacidad predictiva del modelo se puede proceder de la siguienteforma:
1 Separar la muestra en dos partes: (i) Periodo muestral (tamaño T ) y (ii)Periodo extramuestral (tamaño n), que usaremos para comparar nuestraspredicciones con los datos reales.
2 Repetir la estimación n veces usando una "ventana rodante" de tamaño �jo.
3 Medir el error de predicción en el periodo extramuestral usando algunamedida como el "error cuadrático medio" (ECM).
ECM =∑ni=1 e
2i
n
donde ei = bYT+i � YT+i es el error de predicción en el period T + i ,8i = 1, ..., n. Notemos que Yt+1,Yt+2, ...,Yt+n son los valores reales de laserie en el periodo extramuestral (que son conocidos).
4 Repetimos los pasos 1 a 3 para cada modelo cuya capacidad predictivaqueramos comparar. El modelo con mejor capacidad predictiva será aquelque presente un ECM menor.Modelos ARIMA () Dr Javier Perote Peña [email protected] 37 / 37