SlideShare ist ein Scribd-Unternehmen logo
1 von 40
Downloaden Sie, um offline zu lesen
Econometría II
Análisis de series temporales (I): Procesos estacionarios

              Miguel Jerez y Sonia Sotoca
          Universidad Complutense de Madrid




                                                 Febrero 2004


                                                   Ver. 1/16/2003, Pag. # 1
Índice:

  • Introducción
  • Conceptos básicos
  • Procesos elementales
  • Identificación
  • Anexo: Estudio de los procesos más
  comunes




                                    Ver. 1/16/2003, Pag. # 2
Introducción (I)

Diferencias entre el análisis de series temporales y la econometría estudiada
anteriormente:

    • Los datos están ordenados.

    • No consideramos, en principio, variables exógenas.

    • Se trata de construir un modelo sencillo que aproveche la inercia de los
    datos económicos para predecir utilizando la información pasada.

    • La econometría de series temporales contempla tres fases de análisis

         • identificación,

         • estimación (no lineal) y

         • diagnosis,

    que se recorren iterativamente.


                                                               Ver. 1/16/2003, Pag. # 3
Introducción (II): Ejemplos
                      700
                                                                                                 15
                      600
                                                                                                 10
                      500
  Miles de personas




                                                                               Puntos log x100
                                                                                                  5
                      400
                                                                                                  0
                      300
                                                                                                  -5
                      200
                                                                                                 -10
                      100
                                                                                                 -15
                        0
                            1950   1952     1954     1956     1958    1960                             1986   1988    1990     1992     1994    1996

                               Pasajeros de líneas aéreas, total mensual                                      Rendimientos (logx100) del índice NIKKEI


Número de pasajeros de líneas                                                Rendimientos del índice NIKKEI de la
aéreas. La serie muestra:                                                    Bolsa de Tokio. Los datos:
• un perfil creciente (tendencia),                                           • fluctúan establemente en torno a una
• fluctuaciones estacionales y                                               media nula,
• una variabilidad que crece a medida                                        • muestran períodos de alta y baja
que aumenta el nivel de la serie.                                            volatilidad
Los primeros y segundos momentos (media y varianza) de distintas series
temporales pueden comportarse de formas muy diferentes
Las series temporales de naturaleza similar (p. ej., financieras) a menudo
presentan rasgos comunes que son de gran utilidad para analizarlas
                                                                                                                                      Ver. 1/16/2003, Pag. # 4
Conceptos básicos (I): Definiciones
Proceso estocástico es un conjunto de variables aleatorias asociadas a
distintos instantes de tiempo.
Serie temporal, es un conjunto de observaciones o medidas realizadas
secuencialmente en intervalos predeterminados y de igual, o aproximadamente
igual, duración.


• La relación entre una serie temporal y el proceso estocástico que la genera es
la misma que hay entre una muestra y la variable aleatoria de la que procede.
• Las peculiaridades de una serie temporal (frente a una muestra) y de un
proceso estocástico (frente a una variable aleatoria) son:
    • las series temporales y los procesos estocásticos están referidos a
    instantes de tiempo concretos, y
    • los datos están ordenados desde el pasado hasta el presente.
• El objetivo del análisis de series temporales es inferir la forma del proceso
estocástico a partir de las series temporales que genera.

                                                                  Ver. 1/16/2003, Pag. # 5
Conceptos básicos (II): Hipótesis simplificatorias

• En ciencias sociales suele ser imposible obtener varias muestras de una serie
temporal, por lo que es necesario realizar una serie de supuestos simplificatorios.
• Los supuestos más comunes son:
    • Linealidad: El valor que toma hoy la serie (o el proceso) depende
    linealmente de: a) sus valores pasados y b) los valores presentes y pasados
    de otras series.
    • Estacionariedad (débil): La media y varianza incondicional de una serie (o
    proceso) son constantes, las autocovarianzas entre dos valores sólo
    dependen de la distancia temporal que los separa. Formalmente:
     ∀ t , k : E ( zt ) = µt = µz
              E [( zt − µt )2 ] = σt2 = σz
                                         2


              E [( zt − µt )( zt −k − µt −k )] = γt ,k = γ k
    • Normalidad: El proceso estocástico generador sigue un modelo normal de
    distribución de probabilidad (proceso “gaussiano”).


                                                                 Ver. 1/16/2003, Pag. # 6
Procesos elementales (I): Ruido blanco.
Un proceso de ruido blanco representa una variable que:
• oscila en torno a una media constante,
• con una volatilidad constante y
• cuyo pasado no contiene información útil para predecir valores futuros.
Podemos representar esta variable como zt = µz + at con:
                                      2                             γk
     E ( zt ) = µz   [E (at ) = 0 ] E ( z t ) = σz = γ0 = σa ρk =
                                                 2         2
                                                                       = 0 ; k ≥1
                                                                    γ0
                                              .4

                                              .3

La figura muestra el perfil de 500            .2

observaciones simuladas del proceso           .1

de ruido blanco:                              .0

                                              -.1
      zt = at ; at ∼ iid N(0,.01)             -.2

                                              -.3

                                              -.4
                                                     100    200     300        400      500

                                                              Ruido blanco

                                                                             Ver. 1/16/2003, Pag. # 7
Procesos elementales (II): AR(1).
Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyo
valor actual está relacionado con su valor anterior mediante un modelo de
regresión. Esto es:
       zt = c + φzt −1 + at ; φ < 1 (estacionariedad)
                                                      2
                       c           2      2          σa
con: E ( zt ) = µz =         E ( z t ) = σz = γ 0 =     2
                                                          ρk = φ k ; k ≥ 0
                     1−φ                            1−φ
 La figura muestra el perfil de dos series generadas por un AR(1) sin constante,
 con distintos valores del parámetro φ:
         .4                                       .6

         .3
                                                  .4
         .2
                                                  .2
         .1

         .0                                       .0

         -.1
                                                  -.2
         -.2
                                                  -.4
         -.3

         -.4                                      -.6
               100   200     300      400   500         100   200      300      400     500

                       AR(1) phi=.5                             AR(1), phi=.9


                                                                                Ver. 1/16/2003, Pag. # 8
Procesos elementales (III): MA(1).
Un proceso de medias móviles de primer orden, MA(1), representa una variable
cuyo valor actual está correlado con su valor anterior . Esto es:
     zt = µz + at − θat −1 ; θ < 1(invertibilidad)                 ⎧ −θ
                                                                   ⎪
                                                                   ⎪        si k = 1
                                                             ρ k = ⎪1 + θ 2
                         2
Con: E ( zt ) = µz E ( z t ) = σz = γ 0 = (1 + θ 2 )σa
                                2                    2
                                                                   ⎨
                                                                   ⎪
                                                                   ⎪ 0
                                                                   ⎪
                                                                   ⎩        si k > 1
La figura muestra el perfil de dos series generadas por un proceso MA(1) sin
constante, con distintos valores de θ :
         .4                                            .4

         .3                                            .3

         .2                                            .2

         .1                                            .1

         .0                                            .0

        -.1                                            -.1

        -.2                                            -.2

        -.3                                            -.3

        -.4                                            -.4
                 100    200      300       400   500             100   200      300        400     500

                         MA(1), theta=.5                                ma(1), theta=.9


                                                                                          Ver. 1/16/2003, Pag. # 9
Procesos elementales (IV): Paseo aleatorio.
Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y,
por tanto, imprevisibles. Esto es:

     y t = c + y t −1 + at

La figura muestra el perfil de dos series generadas por paseos aleatorios con
y sin deriva. Como puede observarse, la característica fundamental de este
proceso es la falta de afinidad de las series a una media estable:
        1                                                450

                                                         400
        0
                                                         350

        -1                                               300

                                                         250
        -2                                               200

                                                         150
        -3
                                                         100

        -4                                                50
               100      200       300        400   500         100      200       300        400   500

                     Paseo aleatorio sin deriva                      Paseo aleatorio con deriva




                                                                                         Ver. 1/16/2003, Pag. # 10
Identificación (I): Estadística descriptiva
                                                                          X
Para contrastar H0 : µX = 0 puede usarse el estadístico: t =                  ∼ t n−1
                                                                       σX / n H
                                                                                0
                                                        3                                    4
                                                                  n ⎛         ⎞
                                          1 n ⎛ Xi − X ⎞
                                                 ⎜     ⎟ CK = 1      ⎜ Xi − X ⎟
Coeficientes de asimetría y kurtosis: CA = ∑ ⎜         ⎟
                                                       ⎟
                                          n i =1 ⎜ σ X ⎠
                                                 ⎝     ⎟        ∑⎜
                                                              n i =1 ⎜ σ X ⎠
                                                                     ⎝
                                                                              ⎟
                                                                              ⎟
                                                                              ⎟


La hipótesis de normalidad puede contrastarse mediante el test de Jarque-Bera:
                    ⎛CA2 (CK − 3)2   ⎞
                                     ⎟ ∼ χ2
             JB = n ⎜
                    ⎜   +            ⎟
                                     ⎟
                    ⎜ 6
                    ⎝       24       ⎟
                                     ⎠H
                                          2

                                        0
60
                               Series: WNOISE
                               Sample 1 500
                                                         El histograma muestra el perfil de una
50
                               Observations 500
                                                         muestra del proceso:
40                             Mean           0.002643

30
                               Median
                               Maximum
                                              0.006559
                                              0.386147       zt = at ; at ∼ iid N(0,.01)
                               Minimum       -0.304903
                               Std. Dev.      0.102973
20                             Skewness      -0.046988   Obsérvese que los momentos
                               Kurtosis       3.393006
10                                                       muestrales se aproximan a los
                               Jarque-Bera   3.401768

 0
                               Probability   0.182522    teóricos y el test de Jarque-Bera no
     -0.25     0.00    0.25                              rechaza normalidad.

                                                                              Ver. 1/16/2003, Pag. # 11
Identificación (II): Función de autocorrelación simple
                                                                ρ
El coeficiente muestral de autocorrelación simple de orden k ( k ) se define como:
                  γk
                  ˆ              1 n
             ρk =      con: γ k = ∑ zt zt −k ; zt = zt − z , k = 1, 2,…
                            ˆ
                  γ´ 0
                  ˆ              n t =k +1
Para hacer inferencia sobre la función de autocorrelación simple (FAS o ACF)
pueden usarse los siguientes resultados:
• Para muestras suficientemente grandes s.e.(ρ k ) n−1 / 2               K
                                                                               1     2
• Si es cierto H0 : ρ1 = ρ2 = ρ3 = … = ρK = 0 entonces Q(K ) = n(n + 2) ∑                 2
                                                                                   ρ k ∼ χK −p
                                                                        k =1 n − k     H0
en donde: K es el número de retardos de la ACF
            p es el número de parámetros estimados, si la serie es de residuos.
                                         En la figura se muestra la función de
                                         autocorrelación simple de una muestra del
                                         proceso:
                                                 zt = at − .5at −1 ; at ∼ iid N(0,.01)
                                         ... como puede observarse su configuración se
                                         parece, sin coincidir exactamente, a la FAS
                                         teórica de un proceso MA(1)
                                                                          Ver. 1/16/2003, Pag. # 12
Identificación (III): Función de autocorrelación parcial
Los procesos MA tienen una FAS finita. Por tanto en este caso la FAS resulta
muy útil, tanto para detectar una estructura MA como para identificar su orden.
Un instrumento con propiedades análogas para procesos AR es el coeficiente
muestral de autocorrelación parcial de orden k (φ kk), que se define como el k-
ésimo coeficiente de una autorregresión de orden k estimada por MCO:
           ˆ       ˆ            ˆ
      z = φ z + φ z + … + φ z + ε ; k = 1, 2,…
                                         ˆ
       t    k 1 t −1   k 2 t −2   kk   t −k   kt

al gráfico de barras de los coeficientes φ kk frente a su correspondiente retardo se
le llama función de autocorrelación parcial (abreviadamente, FAP o PACF).

                                       En la figura se muestran las funciones de
                                       autocorrelación de una muestra del proceso:
                                              zt = .5zt −1 + at ; at ∼ iid N(0,.01)
                                       como puede observarse, la FAP identifica con
                                       claridad la naturaleza y el orden del proceso
                                       generador de los datos.


                                                                       Ver. 1/16/2003, Pag. # 13
Identificación (IV)
Ruido blanco: zt = at ; at ∼ iid N(0,.01)
 .4

 .3                                            Combinando
 .2                                            instrumentos gráficos
 .1
                                               y estadísticos pueden
 .0

 -.1
                                               reconocerse de forma
 -.2                                           aproximada las pautas
 -.3
                                               de autocorrelación
 -.4
       100   200     300      400   500        características de los
               Ruido blanco
                                               distintos procesos.
AR(1): zt = .5zt −1 + at ; at ∼ iid N(0,.01)   En análisis de series
 .4
                                               temporales, a este
 .3

 .2
                                               proceso de
 .1                                            especificación
 .0
                                               empírica se le llama
 -.1

 -.2
                                               “identificación”
 -.3

 -.4
       100   200     300      400   500

               AR(1) phi=.5



                                                    Ver. 1/16/2003, Pag. # 14
Identificación (V)
MA(1): zt = at − .5at −1 ; at ∼ iid N(0,.01)
.4

.3                                                         La identificación
.2                                                         puede estructurarse
.1

.0
                                                           como una secuencia
-.1                                                        de preguntas:
-.2

-.3                                                        • ¿Es estacionaria la
-.4
      100     200        300        400   500
                                                           serie?
                MA(1), theta=.5
                                                           • ¿Tiene una media
  Paseo aleatorio: y t = y t −1 + at ; at ∼ iid N(0,.01)   significativa?
 1
                                                           • ¿Es finita o infinita la
 0                                                         ACF?
-1
                                                           • ¿Es finita o infinita la
-2                                                         PACF?
-3


-4
      100      200       300        400   500

            Paseo aleatorio sin deriva



                                                                 Ver. 1/16/2003, Pag. # 15
Identificación (VI)
Combinando el análisis de la ACF y la PACF, la identificación de los procesos
estacionarios puede reducirse a decidir:
• ¿Cuál de las dos funciones es finita? para determinar la naturaleza del proceso
generador:
                                                 ACF

                                        Finita         Infinita
              PACF        Finita    Ruido blanco         AR
                         Infinita        MA            ARMA

• ¿A partir de qué retardo muere la ACF o PACF? para determinar el orden del
proceso.
Estas técnicas requieren usar estadísticos como la media, la varianza o la
covarianza muestrales, que sólo tienen sentido si el proceso es estacionario, esto
es, si los datos tienen una media y una varianza finitas y aproximadamente
constantes.

                                                                  Ver. 1/16/2003, Pag. # 16
A.1. Estudio de los procesos más comunes: AR(1)
                                            ACF                       PACF
 zt = c + φzt −1 + at ; φ < 1
                    c                       0 <φ <1
 E ( zt ) = µz =
                   1−φ                  1                        1
                             2
     2        2             σ
 E ( z t ) = σz = γ 0 =      a

                          1 − φ2
         γk
 ρk =       = φk ; k ≥ 0                               Retardo                                   Retardo

         γ0

Los procesos AR(1) se               -1                           -1

reconocen por una ACF
infinita y una PACF que            −1 < φ < 0
se anula a partir del
segundo retardo.                   1
                                                                 1


Si los datos tienen media,
es necesario especificar
un término constante.                                 Retardo                                     Retardo




                                   -1
                                                                 -1




                                                                             Ver. 1/16/2003, Pag. # 17
A.2. Estudio de los procesos más comunes: MA(1)
 zt = µz + at − θat −1 ; θ < 1       ACF                             PACF

 E ( zt ) = µz                            0 < θ <1
     2       2             2     2
                                     1                          1

 E ( z ) = σ = γ 0 = (1 + θ )σ
     t       z                   a

          ⎧ −θ
          ⎪
      γk ⎪         si k = 1
 ρk =   = ⎪1 + θ 2
          ⎨
      γ0 ⎪
                                                     Retardo                                      Retardo


          ⎪ 0
          ⎪        si k > 1
          ⎩
                                     -1                         -1


Los procesos MA(1) se
reconocen por una PACF
infinita y una ACF que se            −1 < θ < 0
anula a partir del segundo                                      1

retardo.                             1



Si los datos tienen media,
es necesario especificar
un término constante.                                 Retardo
                                                                                                 Retardo




                                                                -1
                                     -1




                                                                            Ver. 1/16/2003, Pag. # 18
A.3. Estudio de los procesos más comunes: AR(2)
 zt = c + φ1zt −1 + φ2 zt −2 + at          ACF                             PACF
 φ2 + φ1 < 1 ; φ2 − φ1 < 1 ; φ2 < 1        φ1 > 0 ; φ2 > 0
                       c
E ( zt ) = µz =
                                      1                                1

                  1 − φ1 − φ2
 ρk = φ1 ρk −1 + φ2 ρk −2 ; k ≥ 1
 con :                                                       Retardo                                     Retardo


        φ1                 φ12
 ρ1 =        ; ρ2 = φ2 +
      1 − φ2             1 − φ2       -1                               -1


Los procesos AR(2) se                      φ1 < 0 ; φ2 > 0
reconocen por una ACF                                                  1


infinita y una PACF que               1


se anula a partir del tercer
retardo.
                                                                                                         Retardo
Si los datos tienen media,
es necesario especificar                                     Retardo



un término constante.                                                  -1


                                      -1




                                                                                  Ver. 1/16/2003, Pag. # 19
A.4. Estudio de los procesos más comunes: AR(2)
                       ACF                              PACF
                      φ1 > 0 ; φ2 < 0
                  1                                1




                                         Retardo                                      Retardo




                  -1                               -1




                       φ1 < 0 ; φ2 < 0
                  1                                 1




                                         Retardo                                      Retardo




                  -1
                                                   -1




                                                               Ver. 1/16/2003, Pag. # 20
A.5. Estudio de los procesos más comunes: MA(2)
 zt = µz + at − θ1at −1 − θ2at −2                ACF                          ACF
θ2 + θ1 < 1 ; θ2 − θ1 < 1 ; θ2 < 1           θ1 > 0 ; θ2 > 0              θ1 < 0 ; θ2 < 0
E ( zt ) = µz                               1                            1

    2
E ( z t ) = σz = γ 0 = (1 + θ12 + θ22 )σa
             2                          2



          ⎧ −θ1 (1 − θ2 )
          ⎪
          ⎪
          ⎪                si k = 1
          ⎪ 1 + θ12 + θ2
                       2                                       Retardo                                     Retardo

          ⎪
          ⎪
      γ k ⎪ −θ2
          ⎪
 ρk =    =⎪
          ⎨               si k = 2
      γ 0 ⎪1 + θ12 + θ2
          ⎪
                       2
                                            -1                           -1
          ⎪
          ⎪
          ⎪
          ⎪     0         si k > 2
          ⎪
          ⎪                                 θ1 < 0 ; θ2 > 0              θ1 > 0 ; θ2 < 0
          ⎪
          ⎩
                                            1                            1
Los procesos MA(2) se
reconocen por una PACF
infinita (no se muestra aquí)
y una ACF que se anula a                                       Retardo                                     Retardo
partir del tercer retardo.
Si los datos tienen media,
es necesario especificar un                 -1                           -1
término constante.

                                                                                    Ver. 1/16/2003, Pag. # 21
Econometría II
Análisis de series temporales (II): Extensiones y metodología

               Miguel Jerez y Sonia Sotoca
           Universidad Complutense de Madrid




                                                   Marzo 2004

                                                    Ver. 23/3/2003, Pag. # 1
Índice

  • Propiedades típicas de las series económicas

  • Transformaciones de datos

  • Operadores retardo y diferencia

  • Procesos generalizados

  • Extensiones

  • Metodología



                                         Ver. 23/3/2003, Pag. # 2
Propiedades típicas de las series económicas
                       700

                       600
                                                                              Muchas series temporales económicas
                       500
                                                                              presentan:
   Miles de personas




                       400                                                    • tendencia,
                       300
                                                                              • estacionalidad,
                       200

                       100                                                    • una variabilidad que crece con su nivel y
                         0
                             1950   1952     1954     1956     1958    1960
                                                                              • componentes deterministas (valores
                                Pasajeros de líneas aéreas, total mensual
                                                                              atípicos, ...)

Sin embargo, los procesos ARMA describen variables puramente estocásticas,
no estacionales, con media y varianza constantes. Por tanto, para modelizar
series económicas es necesario definir:
• Transformaciones de datos diseñadas para estabilizar la media y la varianza
de las series.
• Extensiones de la familia de procesos ARMA, que permitan captar tenden-
cias y fluctuaciones estacionales.

                                                                                                         Ver. 23/3/2003, Pag. # 3
Transformaciones de datos (I): Box-Cox
Muchas series temporales muestran una variabilidad que cambia con su nivel.
Para eliminar esta característica se utiliza la transformación de Box-Cox:
                  ⎧ ( y + m )λ − 1
                  ⎪ t                           Cada transformación se caracteriza por un
                  ⎪
                  ⎪                si λ ≠ 0
     yt   λ ,m
                 =⎨       λ                     valor del parámetro λ. Además, puede
                  ⎪
                  ⎪ln( y + m )
                  ⎪
                  ⎪
                  ⎩     t          si λ = 0     aplicarse un cambio de origen (parámetro,
                                                m) cuando la transformación requiere
                                                valores positivos.
                                 λ>0
                                       λ=0      Para elegir la transformación adecuada
                                        λ<0     puede usarse el gráfico media-desviación
                                                típica muestral de varias submuestras. En
                                                la figura se muestran las configuraciones
 σ                                       λ =1
                                                correspondientes a diversos valores de λ.
                                                Las series económicas a menudo mues-
                                                tran una variabilidad que crece con la
                                                media de forma aproximadamente lineal.
                           µ
                                                En ese caso, la transformación adecuada
                                                es la logarítmica (λ=0)

                                                                      Ver. 23/3/2003, Pag. # 4
Transformaciones de datos (II): Ejemplo Box-Cox
                            700                                                                                                  650

                            600
                                                                                                                                 600
                            500
Miles de personas




                            400
                                                                                                                                 550
                            300
                                                                                                                                                                                                                                                 Como muestran
                            200
                                                                                                                                 500                                                                                                             los gráficos,
                            100

                                            0                                                                                    450
                                                                                                                                                                                                                                                 • la volatilidad
                                                       1950         1952         1954           1956             1958     1960                                      1950         1952            1954             1956            1958    1960
                                                                                                                                                                                                                                                 crece linealmente
                                                               Pasajeros de líneas aéreas, total mensual                                                                                                     LAIR
                                                                                                                                                                                                                                                 con el nivel de la
                                           3
                                                  S tandardized mean/s td. dev. plot of nº de pas ajeros de lineas aereas
                                                                                                                                                        3
                                                                                                                                                               S tandardized mean/s td. dev. plot of log nº de pas ajeros de lineas aereas       serie,

                                           2                                                                                                            2
                                                                                                                                                                                                                                                 • tras la
                                                                                                     J
                                                                                                             L
                                                                                                                  M
                                                                                                                                                                                                                            J
                                                                                                                                                                                                                                                 transformación, la
                                           1                                                                                                            1                                                                       L M
                                                                                                                                                                                                                                                 volatilidad es
                    S tandard deviations




                                                                                                                                 S tandard deviations




                                                                                                 I                                                                                                                      I

                                                                                            H                                                                                                            F    G
                                                                                                                                                                                                                    H
                                           0
                                                                                    F
                                                                                        G                                                               0                           B
                                                                                                                                                                                                     E
                                                                                                                                                                                                                                                 aproximadamente
                                                                                E
                                           -1
                                                                     A
                                                                      B C
                                                                            D
                                                                                                                                                        -1
                                                                                                                                                                                                 D
                                                                                                                                                                                                                                                 constante.
                                                                                                                                                                                A            C

                                           -2                                                                                                           -2



                                           -3                                                                                                           -3
                                             -3           -2           -1             0                  1            2      3                            -3             -2             -1             0                    1         2      3
                                                                                    Means                                                                                                            Means




                                                                                                                                                                                                                                                  Ver. 23/3/2003, Pag. # 5
Transformaciones de datos (III): Diferencias
A menudo la tendencia de una serie puede eliminarse diferenciando los datos.
Se dice que una serie es integrada de orden uno si su primera diferencia:
              zt = y t − y t −1
es estacionaria en media.
 La serie de la primera figura es una muestra del proceso estocástico
 y t = y t −1 + at ; at ∼ iid N(0,.01) . Por tanto, zt = y t − y t −1 será estacionaria.
          1                                                 .3

                                                            .2
          0

                                                            .1
         -1
                                                            .0
         -2
                                                            -.1

         -3
                                                            -.2

         -4                                                 -.3
                  100      200       300        400   500         100   200      300         400       500

                        Paseo aleatorio sin deriva                      Primera diferencia


Algunas series económicas necesitan una diferencia adicional para conseguir
una media incondicional estable. En ese caso se dice que son integradas de
segundo orden.
                                                                                                   Ver. 23/3/2003, Pag. # 6
Transformaciones de datos (IV): Interpretación
La primera diferencia del logaritmo de una serie es una tasa logarítmica en tanto
por uno, alternativa a la tasa porcentual, ya que si: y t = (1 + αt )y t −1 , resulta:
ln y t − ln y t −1 = ln(1 + αt ) αt Frente a la tasa de variación convencional, la tasa
logarítmica tiene la ventaja de ser aditiva, esto es:
                                          n                      n
                       ln y n − ln y 0 = ∑ (ln y t − ln y t −1 ) =∑ ln(1 + αt )
                                         t =1                   t =1

En el cuadro se presentan varias transformaciones comunes y su interpretación.

 Serie transformada                     Interpretación
  zt = y t − y t −1                     Cambio en el valor de yt
                                        Tasa logarítmica (en tanto por uno) de variación entre
  zt = ln y t − ln y t −1
                                        un período y el siguiente (indicador de “crecimiento”)
                                        Cambio en la tasa logarítmica de variación entre un
 w t = zt − zt −1 ; zt = y t − y t −1   período y el siguiente (indicador de “aceleración” en el
                                        crecimiento)
                                        Tasa logarítmica de variación acumulada en S
  zt = ln y t − ln y t −S               períodos. Indicador de crecimiento acumulado en un
                                        ciclo estacional


                                                                                  Ver. 23/3/2003, Pag. # 7
Operadores retardo y diferencia
A menudo resulta práctico representar los procesos estocásticos utilizando el
operador retardo, que se define de la siguiente manera:
    B / i ) Bzt = zt −1
        ii ) Bk = k ; k :constante
              −1
        iii ) B zt = zt +1
              0
        iv ) B zt = zt
        v ) zt = Bzt +1 = B 2 zt +2 = B 3 zt +3 = … = B l zt +l (l > 0)

El operador diferencia se define a partir del operador retardo como:
        ∇ / ∇y t = (1 − B )y t = y t − y t −1
En series estacionales de período S, a menudo se utiliza una variante de este
operador que se conoce como diferencia estacional:
        ∇S / ∇S y t = (1 − BS )y t = y t − y t −s


                                                                          Ver. 23/3/2003, Pag. # 8
Procesos generalizados (I): ARMA(p,q)
Los procesos definidos anteriormente pueden escribirse con órdenes generales:

• AR(p): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at

• MA(q): zt = µz + at − θ1at −1 − θ2at −2 − … − θq at −q

• ARMA(p,q): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at − θ1at −1 − θ2at −2 − … − θq at −q

... y expresarse en términos del operador retardo de la siguiente forma:

• AR(p): φp (B ) zt = c + at

• MA(q): zt = µz + θq (B ) at

• ARMA(p,q): φp (B ) zt = c + θq (B ) at

... en donde:

       φp (B ) = 1 − φ1B − φ2B 2 − … − φpB p (polinomio AR)

       θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q   (polinomio MA)


                                                                           Ver. 23/3/2003, Pag. # 9
Procesos generalizados (II): Estacionariedad
Estacionariedad: Se dice que un proceso estocástico es estacionario si todas
las raíces de la ecuación característica 1 − φ1B − φ2B 2 − … − φpB p = 0 están fuera del
círculo de radio unidad del plano complejo.
La condición de estacionariedad sólo afecta a la componente AR del proceso
ARIMA, ya que la componente MA siempre es estacionaria.
Cuando el polinomio AR tiene alguna raíz igual a uno, se dice que tiene “raíces
unitarias”.
Consecuencias del cumplimiento:
     • El proceso tiene media y varianza incondicionales finitas y estables.
     • El proceso puede escribirse en forma MA equivalente.
Consecuencias del no cumplimiento (raíces unitarias):
     • La varianza incondicional diverge a infinito.
     • Si tiene deriva, la media incondicional diverge a infinito.
     • El factor AR puede factorizarse separando las raíces unitarias de las raíces
     estacionarias.
Ejemplo. El proceso AR(2) no estacionario: (1 − 1.5B + .5B 2 )y t = at es equivalente
al proceso ARIMA(1,1,0): (1 − .5B )∇y t = at
                                                                      Ver. 23/3/2003, Pag. # 10
Procesos generalizados (III): Invertibilidad
Invertibilidad: Se dice que un proceso estocástico es invertible si todas las
raíces de la ecuación característica 1 − θ1B − θ2B 2 − … − θq B q = 0 están fuera del
círculo de radio unidad del plano complejo.
La condición de invertibilidad sólo afecta a la componente MA del proceso
ARIMA, ya que la componente AR siempre es invertible.
Consecuencias del cumplimiento:
     • El proceso puede escribirse en forma AR equivalente.
Consecuencias del no cumplimiento (raíces unitarias):
     • El proceso podría simplificarse, bien eliminando una diferencia, bien
     representando la tendencia de forma determinista.
Ejemplos.
El proceso ARIMA(2,2,1) no invertible: (1 − .5B + .7B 2 )∇2 y t = (1 − B )at es equivalente
al proceso ARIMA(2,1,0): (1 − .5B + .7B 2 )∇y t = at
Diferenciando el proceso de tendencia determinista: y t = β t + at se obtiene el
proceso ARIMA(0,1,1) no invertible: ∇y t = β + (1 − B )at

                                                                        Ver. 23/3/2003, Pag. # 11
Procesos generalizados (IV): ARIMA(p,d,q)
La tendencia estocástica de las series económicas puede captarse mediante
raíces AR unitarias. Por ello tiene interés generalizar la formulación del modelo
ARMA admitiendo en él este tipo de factores. Esta idea da lugar al modelo ARIMA
(p,d,q), que se define como:
                φp (B ) ∇ d y t λ,m = c + θq (B ) at
en donde: φ (B ) = 1 − φ B − φ B 2 − … − φ B p [polinomio AR(p)]
           p            1     2           p


                  θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q [polinomio MA(q)]
                  B / B ± k y t = y t ∓k ∇ ≡ 1 − B                       [operadores retardo y diferencia]
                             ⎧
                             ⎪            λ
                             ⎪ ( y t + m ) − 1 si λ ≠ 0
                             ⎪
                  y t λ,m   =⎨         λ                                 [transformación de datos (Box-Cox)]
                             ⎪
                             ⎪ln( y + m )
                             ⎪
                             ⎪
                             ⎩       t         si λ = 0

Si los polinomios AR y MA tienen sus raíces en o fuera del círculo de radio unidad,
el proceso ARIMA puede escribirse de las siguientes formas equivalentes:
                             θq (B )        φp (B )                                 φp (B )
   ∇ yt
     d    λ ,m
                 = µz +                at             (∇ y t
                                                        d      λ ,m
                                                                      − µz ) = at             ∇ d y t λ,m = c + at
                             φp (B )        θq (B )                                 θq (B )

                                                                                                   Ver. 23/3/2003, Pag. # 12
Procesos generalizados (V)
Representaciones alternativas: Cuando un proceso estocástico no tiene
raíces AR ni MA dentro del círculo de radio unidad, puede escribirse de forma
equivalente como AR(∞) o MA(∞):
Ejemplo 1. Un AR(1) no explosivo puede escribirse como: (1 − φB )zt = c + at
o, alternativamente, como un proceso media móvil infinito:
            c      1
   zt =        +       at = µz + (1 + φB + φ 2B 2 + …) at
          1 − φ 1 − φB
Ejemplo 2. Un MA(1) con raíces en o fuera del círculo de radio unidad puede
escribirse como: zt = µz + (1 − θB )at o, alternativamente, como:
      1        µ
          zt = z + at ; (1 + θB + θ 2B 2 + …) zt = c + at
   1 − θB     1− θ


   Esto quiere decir que el proceso ARIMA es una aproximación finita a los
   procesos estocásticos generales:
          • Forma “pi”: zt = c + π1zt −1 + π2 zt −2 + … + at
          • Forma “psi”: zt = µz + at + ψ1at −1 + ψ2at −2 + …

                                                                Ver. 23/3/2003, Pag. # 13
Extensiones (I): Estacionalidad
                     700

                     600
                                                                             Las series económicas a menudo muestran un
                                                                             comportamiento estacional, esto es, una pauta
                     500
 Miles de personas




                                                                             que se repite con una periodicidad fija, a
                     400
                                                                             menudo anual.
                     300

                     200
                                                                             El período estacional (S) se define como el
                                                                             número de observaciones necesarias para
                     100
                                                                             recorrer todo el ciclo estacional. Por ejemplo,
                       0
                            1950   1952     1954     1956     1958    1960   S=12 para datos mensuales, S=4 para datos
                               Pasajeros de líneas aéreas, total mensual
                                                                             trimestrales, etc.

Para captar este comportamiento, se define el modelo ARIMA(p,d,q)x(P,D,Q)S:
                           φp (B ) ΦP (B S )∇S ∇d y t λ,m = c + θq (B ) ΘQ (B S )at
                                             D


... que incluye tres nuevos factores:
                           ΦP (B S ) = 1 −Φ1B S −Φ2B 2⋅S − … − ΦP B P⋅S                  [polinomio AR(P)S]
                           ΘQ (B S ) = 1 −Θ1B S −Θ2B 2⋅S − … −ΘQ BQ⋅S                    [polinomio MA(Q)S]
                           ∇S ≡ 1 − B S     [operador diferencia estacional]
Este modelo admite relaciones entre un dato y el de S períodos atrás.

                                                                                                              Ver. 23/3/2003, Pag. # 14
Extensiones (II): Modelo RegARIMA
Uniendo las ideas anteriores con el análisis de regresión, resulta inmediato
formular el modelo RegARIMA (modelo de regresión con errores ARIMA) como:
           λy ,my
      yt            = ( x tλx ,mx )T β + εt
con: φp (B ) ΦP (B )∇S ∇ εt = θq (B ) ΘQ (B )at
                  S  D d                   S



De manera que los valores de la serie temporal se ponen en relación, no sólo
con su pasado, sino también con los valores contemporáneos de otras series,
que actúan como variables explicativas o “inputs”.
                       λ ,m
Las variables x t x x pueden ser series económicas o variables deterministas
diseñadas para modelizar:
• Efectos calendario, causados por irregularidades en la unidad de tiempo como
pueden ser: distinto número de días laborables y festivos o celebración de la
Semana Santa.
• Valores atípicos (outliers) debidos a fenómenos como, p.ej., el split del nominal
de una acción, cambios en tipos impositivo o fenómenos como inundaciones o
terremotos. En este caso se dice que el modelo es “de intervención”.

                                                                 Ver. 23/3/2003, Pag. # 15
Extensiones (III): Inputs de intervención
Impulsos. Producen un cambio en el nivel de una sola observación de la serie.
Pueden modelizarse mediante:
           ⎧ 1 si t = t *
           ⎪
        x =⎪
         i
           ⎨
         t
           ⎪ 0 si t ≠ t *
           ⎪
           ⎩
Impulsos compensados. Producen un cambio en el nivel de una observación,
seguido por un cambio de nivel compensatorio en la observación siguiente.
Pueden modelizarse mediante:
            ⎧ 1 si t = t *
            ⎪
            ⎪
            ⎪
            ⎪
       xt = ⎨−1 si t = t * + 1
        IC
            ⎪
            ⎪ 0 si t ≠ t * , t * + 1
            ⎪
            ⎪
            ⎩
Escalones. Producen un cambio en el nivel de todas las observaciones
posteriores a una fecha dada. Pueden modelizarse mediante:
           ⎧ 1 si t ≥ t *
           ⎪
        x =⎪
         E
           ⎨
         t
           ⎪ 0 si t < t *
           ⎪
           ⎩


                                                              Ver. 23/3/2003, Pag. # 16
Metodología (I)
                                            Definir los objetivos del análisis,
                                           estudiar la información disponible




                                                    Identificación:
                                             Seleccionar una especificación
                                                       tentativa



Los métodos de análisis de series
temporales combinan los modelos e                     Estimación
instrumentos anteriores en una                   (Métodos no lineales)

metodología sistemática para construir y
probar modelos

                                                       Diagnosis:
                                                   ¿Es válido el modelo
                                                      para los fines
                                                       Previstos?                 no


                                                       si


                                                 Utilización del modelo




                                                                    Ver. 23/3/2003, Pag. # 17
Metodología (II): Identificación

Parámetro        Instrumento de identificación       Observaciones

                                                     Se trata de conseguir que la variabilidad de los
                 • Gráfico media-desviación típica   datos sea independiente de su nivel. En series
m, λ
                 • Gráfico de la serie temporal      económicas es habitual λ=0, lo que supone
                                                     transformar logarítmicamente los datos.
                 • Gráfico de la serie temporal
d, orden de                                          Se trata de conseguir que los datos fluctúen en
diferenciación   • ACF (decrecimiento lento y        torno a una media aproximadamente estable
                 lineal)
                 • Media muestral de la serie        Si la media de la serie transformada es
Término          diferenciada                        significativa, el modelo debe incluir un término
constante
                 • Desviación típica de la media     constante

                                                     La PACF tiene p valores no nulos
p, orden del     • PACF de orden p
término AR                                           Un proceso AR finito y estacionario equivale a
                 • ACF infinita                      un MA(∞)

                                                     La ACF tiene q valores no nulos
q, orden del     • ACF de orden q
término MA                                           Un proceso MA finito e invertible equivale a un
                 • PACF infinita                     AR(∞)



                                                                                  Ver. 23/3/2003, Pag. # 18
Metodología (III): Diagnosis
Parámetro        Instrumento de identificación     Observaciones

                                                   • Una raíz próxima a uno en la parte AR indica que
                 • Raíces de los polinomios AR     conviene añadir una diferencia
                 y MA                              • Una raíz próxima a uno en la parte MA indica que
d, orden de                                        conviene quitar una diferencia
diferenciación
                                                   Si muestra rachas largas de residuos positivos o
                 • Gráfico de la serie de
                                                   negativos, puede ser necesaria una diferencia
                 residuos
                                                   adicional
                 • Media muestral de los
Término          residuos                          Si la media de los residuos es significativa, debe
constante                                          añadirse un término constante
                 • Desviación típica de la media
                 • Contrastes de significación
                                                   Permiten eliminar parámetros irrelevantes
                 de los parámetros estimados
                 • ACF y PACF residuales           Detectan pautas de autocorrelación no modelizadas
                                                   Contrasta la hipótesis conjunta de que todos los
                 • Test Q
                                                   coeficientes de autocorrelación son nulos
pyq
                 • Correlaciones elevadas entre
                                                   Puede ser un síntoma de sobreparametrización
                 parámetros estimados
                                                   Consiste en añadir parámetros AR y/o MA, para
                 • Sobreajuste                     comprobar si resultan significativos y mejoran la
                                                   calidad estadística del modelo

                                                                                 Ver. 23/3/2003, Pag. # 19

Weitere ähnliche Inhalte

Was ist angesagt?

Economía 1º Bachillerato - UD7. Magnitudes e indicadores económicos
Economía 1º Bachillerato - UD7. Magnitudes e indicadores económicosEconomía 1º Bachillerato - UD7. Magnitudes e indicadores económicos
Economía 1º Bachillerato - UD7. Magnitudes e indicadores económicosBea Hervella
 
Macromagnitudes actividades resueltas tema 8
Macromagnitudes actividades resueltas tema 8Macromagnitudes actividades resueltas tema 8
Macromagnitudes actividades resueltas tema 8majori18
 
Manual de uso de eviews vf
Manual de uso de eviews vfManual de uso de eviews vf
Manual de uso de eviews vfHector Argueta
 
Cap 3 el crecimiento y la acumulación 2012
Cap 3 el crecimiento y la acumulación 2012Cap 3 el crecimiento y la acumulación 2012
Cap 3 el crecimiento y la acumulación 2012NicolleC112
 
Lecture 9
Lecture 9Lecture 9
Lecture 9Tj Crew
 
Incidencia de los impuestos
Incidencia de los impuestosIncidencia de los impuestos
Incidencia de los impuestosNatali Sanchez
 
Pasar oligopoli
Pasar oligopoliPasar oligopoli
Pasar oligopoliDhanurista
 
Demanda de factores: Nota de clase
Demanda de factores: Nota de claseDemanda de factores: Nota de clase
Demanda de factores: Nota de claseMauro Gutierrez
 
Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)nicolasajzenman
 
Solución macroeconomía
Solución macroeconomíaSolución macroeconomía
Solución macroeconomíakemv
 
Dinámica del tipo de cambio y el overshooting de dornbush
Dinámica del tipo de cambio y el overshooting de dornbushDinámica del tipo de cambio y el overshooting de dornbush
Dinámica del tipo de cambio y el overshooting de dornbushPercy Cateriano Wieman
 
Modelos Probit Y Logit
Modelos Probit Y LogitModelos Probit Y Logit
Modelos Probit Y Logitingenierlaupt
 
Ec ppi-mankiw6-cap11
Ec ppi-mankiw6-cap11Ec ppi-mankiw6-cap11
Ec ppi-mankiw6-cap11soabgica
 
Unidad 8 los fallos de mercado
Unidad 8 los fallos de mercadoUnidad 8 los fallos de mercado
Unidad 8 los fallos de mercadoeconomia1bach
 

Was ist angesagt? (20)

Capítulo vii modelos logit y probit
Capítulo vii modelos logit y probitCapítulo vii modelos logit y probit
Capítulo vii modelos logit y probit
 
Economía 1º Bachillerato - UD7. Magnitudes e indicadores económicos
Economía 1º Bachillerato - UD7. Magnitudes e indicadores económicosEconomía 1º Bachillerato - UD7. Magnitudes e indicadores económicos
Economía 1º Bachillerato - UD7. Magnitudes e indicadores económicos
 
Macromagnitudes actividades resueltas tema 8
Macromagnitudes actividades resueltas tema 8Macromagnitudes actividades resueltas tema 8
Macromagnitudes actividades resueltas tema 8
 
Manual de uso de eviews vf
Manual de uso de eviews vfManual de uso de eviews vf
Manual de uso de eviews vf
 
Cap 3 el crecimiento y la acumulación 2012
Cap 3 el crecimiento y la acumulación 2012Cap 3 el crecimiento y la acumulación 2012
Cap 3 el crecimiento y la acumulación 2012
 
Oligopolio
OligopolioOligopolio
Oligopolio
 
El Multiplicador Keynesiano
El Multiplicador KeynesianoEl Multiplicador Keynesiano
El Multiplicador Keynesiano
 
Lecture 9
Lecture 9Lecture 9
Lecture 9
 
Incidencia de los impuestos
Incidencia de los impuestosIncidencia de los impuestos
Incidencia de los impuestos
 
Pasar oligopoli
Pasar oligopoliPasar oligopoli
Pasar oligopoli
 
Demanda de factores: Nota de clase
Demanda de factores: Nota de claseDemanda de factores: Nota de clase
Demanda de factores: Nota de clase
 
Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)
 
Fallos del mercado
Fallos del mercadoFallos del mercado
Fallos del mercado
 
Solución macroeconomía
Solución macroeconomíaSolución macroeconomía
Solución macroeconomía
 
Dinámica del tipo de cambio y el overshooting de dornbush
Dinámica del tipo de cambio y el overshooting de dornbushDinámica del tipo de cambio y el overshooting de dornbush
Dinámica del tipo de cambio y el overshooting de dornbush
 
Microeconomía Cap. 2 Teoría demanda
Microeconomía Cap. 2 Teoría demandaMicroeconomía Cap. 2 Teoría demanda
Microeconomía Cap. 2 Teoría demanda
 
Modelos Probit Y Logit
Modelos Probit Y LogitModelos Probit Y Logit
Modelos Probit Y Logit
 
Ec ppi-mankiw6-cap11
Ec ppi-mankiw6-cap11Ec ppi-mankiw6-cap11
Ec ppi-mankiw6-cap11
 
Modelo mundell y fleming
Modelo mundell y flemingModelo mundell y fleming
Modelo mundell y fleming
 
Unidad 8 los fallos de mercado
Unidad 8 los fallos de mercadoUnidad 8 los fallos de mercado
Unidad 8 los fallos de mercado
 

Ähnlich wie Análisis de series temporales estacionarias

Series1 - Analisis de series temporales
Series1 - Analisis de series temporalesSeries1 - Analisis de series temporales
Series1 - Analisis de series temporalesMiguel Jerez
 
Series2 - Analisis de series temporales
Series2 - Analisis de series temporalesSeries2 - Analisis de series temporales
Series2 - Analisis de series temporalesMiguel Jerez
 
Capítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempoCapítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempoElder Javier Nunes Pereira
 
Introducción al Analisis de Circuitos
Introducción al Analisis de CircuitosIntroducción al Analisis de Circuitos
Introducción al Analisis de CircuitosHéctor
 
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOSSERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOSluisiniallauj4
 
Pronósticos total 2013
Pronósticos total   2013Pronósticos total   2013
Pronósticos total 2013richardd zxd
 
Aplicación de la transformada de la Laplace
Aplicación de la transformada de la LaplaceAplicación de la transformada de la Laplace
Aplicación de la transformada de la Laplacekmjrl_unefa
 
Aplicaciones La Transformada De Laplace
Aplicaciones La Transformada De LaplaceAplicaciones La Transformada De Laplace
Aplicaciones La Transformada De LaplaceKJEP
 
Aplicaciones La Transformada De Laplace
Aplicaciones La Transformada De LaplaceAplicaciones La Transformada De Laplace
Aplicaciones La Transformada De Laplaceguest31b112
 
S_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptxS_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptxCrazyGamerSL
 
Econometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsEconometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsHugo Maul
 
Series de tiempo arima i
Series de tiempo arima iSeries de tiempo arima i
Series de tiempo arima iErick Aguilar
 
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIAS
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIASDERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIAS
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIASJaime Martínez Verdú
 
Lab 02 - Análisis de señales - UNTECS
Lab 02 - Análisis de señales - UNTECSLab 02 - Análisis de señales - UNTECS
Lab 02 - Análisis de señales - UNTECSIng. Electrónica xD
 
Metododelasfuerzas
MetododelasfuerzasMetododelasfuerzas
MetododelasfuerzasJose Yañez
 

Ähnlich wie Análisis de series temporales estacionarias (20)

Series1 - Analisis de series temporales
Series1 - Analisis de series temporalesSeries1 - Analisis de series temporales
Series1 - Analisis de series temporales
 
Series2 - Analisis de series temporales
Series2 - Analisis de series temporalesSeries2 - Analisis de series temporales
Series2 - Analisis de series temporales
 
Capítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempoCapítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempo
 
Introducción al Analisis de Circuitos
Introducción al Analisis de CircuitosIntroducción al Analisis de Circuitos
Introducción al Analisis de Circuitos
 
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOSSERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
 
Pronósticos total 2013
Pronósticos total   2013Pronósticos total   2013
Pronósticos total 2013
 
Aplicación de la transformada de la Laplace
Aplicación de la transformada de la LaplaceAplicación de la transformada de la Laplace
Aplicación de la transformada de la Laplace
 
Aplicaciones La Transformada De Laplace
Aplicaciones La Transformada De LaplaceAplicaciones La Transformada De Laplace
Aplicaciones La Transformada De Laplace
 
Aplicaciones La Transformada De Laplace
Aplicaciones La Transformada De LaplaceAplicaciones La Transformada De Laplace
Aplicaciones La Transformada De Laplace
 
S_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptxS_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptx
 
Series detiempo
Series detiempoSeries detiempo
Series detiempo
 
11 27 esp
11 27 esp11 27 esp
11 27 esp
 
Arima
ArimaArima
Arima
 
Econometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsEconometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades ols
 
Series de tiempo arima i
Series de tiempo arima iSeries de tiempo arima i
Series de tiempo arima i
 
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIAS
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIASDERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIAS
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES ORDINARIAS
 
Lab 02 - Análisis de señales - UNTECS
Lab 02 - Análisis de señales - UNTECSLab 02 - Análisis de señales - UNTECS
Lab 02 - Análisis de señales - UNTECS
 
Econometria.pptx
Econometria.pptxEconometria.pptx
Econometria.pptx
 
Econometria
EconometriaEconometria
Econometria
 
Metododelasfuerzas
MetododelasfuerzasMetododelasfuerzas
Metododelasfuerzas
 

Análisis de series temporales estacionarias

  • 1. Econometría II Análisis de series temporales (I): Procesos estacionarios Miguel Jerez y Sonia Sotoca Universidad Complutense de Madrid Febrero 2004 Ver. 1/16/2003, Pag. # 1
  • 2. Índice: • Introducción • Conceptos básicos • Procesos elementales • Identificación • Anexo: Estudio de los procesos más comunes Ver. 1/16/2003, Pag. # 2
  • 3. Introducción (I) Diferencias entre el análisis de series temporales y la econometría estudiada anteriormente: • Los datos están ordenados. • No consideramos, en principio, variables exógenas. • Se trata de construir un modelo sencillo que aproveche la inercia de los datos económicos para predecir utilizando la información pasada. • La econometría de series temporales contempla tres fases de análisis • identificación, • estimación (no lineal) y • diagnosis, que se recorren iterativamente. Ver. 1/16/2003, Pag. # 3
  • 4. Introducción (II): Ejemplos 700 15 600 10 500 Miles de personas Puntos log x100 5 400 0 300 -5 200 -10 100 -15 0 1950 1952 1954 1956 1958 1960 1986 1988 1990 1992 1994 1996 Pasajeros de líneas aéreas, total mensual Rendimientos (logx100) del índice NIKKEI Número de pasajeros de líneas Rendimientos del índice NIKKEI de la aéreas. La serie muestra: Bolsa de Tokio. Los datos: • un perfil creciente (tendencia), • fluctúan establemente en torno a una • fluctuaciones estacionales y media nula, • una variabilidad que crece a medida • muestran períodos de alta y baja que aumenta el nivel de la serie. volatilidad Los primeros y segundos momentos (media y varianza) de distintas series temporales pueden comportarse de formas muy diferentes Las series temporales de naturaleza similar (p. ej., financieras) a menudo presentan rasgos comunes que son de gran utilidad para analizarlas Ver. 1/16/2003, Pag. # 4
  • 5. Conceptos básicos (I): Definiciones Proceso estocástico es un conjunto de variables aleatorias asociadas a distintos instantes de tiempo. Serie temporal, es un conjunto de observaciones o medidas realizadas secuencialmente en intervalos predeterminados y de igual, o aproximadamente igual, duración. • La relación entre una serie temporal y el proceso estocástico que la genera es la misma que hay entre una muestra y la variable aleatoria de la que procede. • Las peculiaridades de una serie temporal (frente a una muestra) y de un proceso estocástico (frente a una variable aleatoria) son: • las series temporales y los procesos estocásticos están referidos a instantes de tiempo concretos, y • los datos están ordenados desde el pasado hasta el presente. • El objetivo del análisis de series temporales es inferir la forma del proceso estocástico a partir de las series temporales que genera. Ver. 1/16/2003, Pag. # 5
  • 6. Conceptos básicos (II): Hipótesis simplificatorias • En ciencias sociales suele ser imposible obtener varias muestras de una serie temporal, por lo que es necesario realizar una serie de supuestos simplificatorios. • Los supuestos más comunes son: • Linealidad: El valor que toma hoy la serie (o el proceso) depende linealmente de: a) sus valores pasados y b) los valores presentes y pasados de otras series. • Estacionariedad (débil): La media y varianza incondicional de una serie (o proceso) son constantes, las autocovarianzas entre dos valores sólo dependen de la distancia temporal que los separa. Formalmente: ∀ t , k : E ( zt ) = µt = µz E [( zt − µt )2 ] = σt2 = σz 2 E [( zt − µt )( zt −k − µt −k )] = γt ,k = γ k • Normalidad: El proceso estocástico generador sigue un modelo normal de distribución de probabilidad (proceso “gaussiano”). Ver. 1/16/2003, Pag. # 6
  • 7. Procesos elementales (I): Ruido blanco. Un proceso de ruido blanco representa una variable que: • oscila en torno a una media constante, • con una volatilidad constante y • cuyo pasado no contiene información útil para predecir valores futuros. Podemos representar esta variable como zt = µz + at con: 2 γk E ( zt ) = µz [E (at ) = 0 ] E ( z t ) = σz = γ0 = σa ρk = 2 2 = 0 ; k ≥1 γ0 .4 .3 La figura muestra el perfil de 500 .2 observaciones simuladas del proceso .1 de ruido blanco: .0 -.1 zt = at ; at ∼ iid N(0,.01) -.2 -.3 -.4 100 200 300 400 500 Ruido blanco Ver. 1/16/2003, Pag. # 7
  • 8. Procesos elementales (II): AR(1). Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyo valor actual está relacionado con su valor anterior mediante un modelo de regresión. Esto es: zt = c + φzt −1 + at ; φ < 1 (estacionariedad) 2 c 2 2 σa con: E ( zt ) = µz = E ( z t ) = σz = γ 0 = 2 ρk = φ k ; k ≥ 0 1−φ 1−φ La figura muestra el perfil de dos series generadas por un AR(1) sin constante, con distintos valores del parámetro φ: .4 .6 .3 .4 .2 .2 .1 .0 .0 -.1 -.2 -.2 -.4 -.3 -.4 -.6 100 200 300 400 500 100 200 300 400 500 AR(1) phi=.5 AR(1), phi=.9 Ver. 1/16/2003, Pag. # 8
  • 9. Procesos elementales (III): MA(1). Un proceso de medias móviles de primer orden, MA(1), representa una variable cuyo valor actual está correlado con su valor anterior . Esto es: zt = µz + at − θat −1 ; θ < 1(invertibilidad) ⎧ −θ ⎪ ⎪ si k = 1 ρ k = ⎪1 + θ 2 2 Con: E ( zt ) = µz E ( z t ) = σz = γ 0 = (1 + θ 2 )σa 2 2 ⎨ ⎪ ⎪ 0 ⎪ ⎩ si k > 1 La figura muestra el perfil de dos series generadas por un proceso MA(1) sin constante, con distintos valores de θ : .4 .4 .3 .3 .2 .2 .1 .1 .0 .0 -.1 -.1 -.2 -.2 -.3 -.3 -.4 -.4 100 200 300 400 500 100 200 300 400 500 MA(1), theta=.5 ma(1), theta=.9 Ver. 1/16/2003, Pag. # 9
  • 10. Procesos elementales (IV): Paseo aleatorio. Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y, por tanto, imprevisibles. Esto es: y t = c + y t −1 + at La figura muestra el perfil de dos series generadas por paseos aleatorios con y sin deriva. Como puede observarse, la característica fundamental de este proceso es la falta de afinidad de las series a una media estable: 1 450 400 0 350 -1 300 250 -2 200 150 -3 100 -4 50 100 200 300 400 500 100 200 300 400 500 Paseo aleatorio sin deriva Paseo aleatorio con deriva Ver. 1/16/2003, Pag. # 10
  • 11. Identificación (I): Estadística descriptiva X Para contrastar H0 : µX = 0 puede usarse el estadístico: t = ∼ t n−1 σX / n H 0 3 4 n ⎛ ⎞ 1 n ⎛ Xi − X ⎞ ⎜ ⎟ CK = 1 ⎜ Xi − X ⎟ Coeficientes de asimetría y kurtosis: CA = ∑ ⎜ ⎟ ⎟ n i =1 ⎜ σ X ⎠ ⎝ ⎟ ∑⎜ n i =1 ⎜ σ X ⎠ ⎝ ⎟ ⎟ ⎟ La hipótesis de normalidad puede contrastarse mediante el test de Jarque-Bera: ⎛CA2 (CK − 3)2 ⎞ ⎟ ∼ χ2 JB = n ⎜ ⎜ + ⎟ ⎟ ⎜ 6 ⎝ 24 ⎟ ⎠H 2 0 60 Series: WNOISE Sample 1 500 El histograma muestra el perfil de una 50 Observations 500 muestra del proceso: 40 Mean 0.002643 30 Median Maximum 0.006559 0.386147 zt = at ; at ∼ iid N(0,.01) Minimum -0.304903 Std. Dev. 0.102973 20 Skewness -0.046988 Obsérvese que los momentos Kurtosis 3.393006 10 muestrales se aproximan a los Jarque-Bera 3.401768 0 Probability 0.182522 teóricos y el test de Jarque-Bera no -0.25 0.00 0.25 rechaza normalidad. Ver. 1/16/2003, Pag. # 11
  • 12. Identificación (II): Función de autocorrelación simple ρ El coeficiente muestral de autocorrelación simple de orden k ( k ) se define como: γk ˆ 1 n ρk = con: γ k = ∑ zt zt −k ; zt = zt − z , k = 1, 2,… ˆ γ´ 0 ˆ n t =k +1 Para hacer inferencia sobre la función de autocorrelación simple (FAS o ACF) pueden usarse los siguientes resultados: • Para muestras suficientemente grandes s.e.(ρ k ) n−1 / 2 K 1 2 • Si es cierto H0 : ρ1 = ρ2 = ρ3 = … = ρK = 0 entonces Q(K ) = n(n + 2) ∑ 2 ρ k ∼ χK −p k =1 n − k H0 en donde: K es el número de retardos de la ACF p es el número de parámetros estimados, si la serie es de residuos. En la figura se muestra la función de autocorrelación simple de una muestra del proceso: zt = at − .5at −1 ; at ∼ iid N(0,.01) ... como puede observarse su configuración se parece, sin coincidir exactamente, a la FAS teórica de un proceso MA(1) Ver. 1/16/2003, Pag. # 12
  • 13. Identificación (III): Función de autocorrelación parcial Los procesos MA tienen una FAS finita. Por tanto en este caso la FAS resulta muy útil, tanto para detectar una estructura MA como para identificar su orden. Un instrumento con propiedades análogas para procesos AR es el coeficiente muestral de autocorrelación parcial de orden k (φ kk), que se define como el k- ésimo coeficiente de una autorregresión de orden k estimada por MCO: ˆ ˆ ˆ z = φ z + φ z + … + φ z + ε ; k = 1, 2,… ˆ t k 1 t −1 k 2 t −2 kk t −k kt al gráfico de barras de los coeficientes φ kk frente a su correspondiente retardo se le llama función de autocorrelación parcial (abreviadamente, FAP o PACF). En la figura se muestran las funciones de autocorrelación de una muestra del proceso: zt = .5zt −1 + at ; at ∼ iid N(0,.01) como puede observarse, la FAP identifica con claridad la naturaleza y el orden del proceso generador de los datos. Ver. 1/16/2003, Pag. # 13
  • 14. Identificación (IV) Ruido blanco: zt = at ; at ∼ iid N(0,.01) .4 .3 Combinando .2 instrumentos gráficos .1 y estadísticos pueden .0 -.1 reconocerse de forma -.2 aproximada las pautas -.3 de autocorrelación -.4 100 200 300 400 500 características de los Ruido blanco distintos procesos. AR(1): zt = .5zt −1 + at ; at ∼ iid N(0,.01) En análisis de series .4 temporales, a este .3 .2 proceso de .1 especificación .0 empírica se le llama -.1 -.2 “identificación” -.3 -.4 100 200 300 400 500 AR(1) phi=.5 Ver. 1/16/2003, Pag. # 14
  • 15. Identificación (V) MA(1): zt = at − .5at −1 ; at ∼ iid N(0,.01) .4 .3 La identificación .2 puede estructurarse .1 .0 como una secuencia -.1 de preguntas: -.2 -.3 • ¿Es estacionaria la -.4 100 200 300 400 500 serie? MA(1), theta=.5 • ¿Tiene una media Paseo aleatorio: y t = y t −1 + at ; at ∼ iid N(0,.01) significativa? 1 • ¿Es finita o infinita la 0 ACF? -1 • ¿Es finita o infinita la -2 PACF? -3 -4 100 200 300 400 500 Paseo aleatorio sin deriva Ver. 1/16/2003, Pag. # 15
  • 16. Identificación (VI) Combinando el análisis de la ACF y la PACF, la identificación de los procesos estacionarios puede reducirse a decidir: • ¿Cuál de las dos funciones es finita? para determinar la naturaleza del proceso generador: ACF Finita Infinita PACF Finita Ruido blanco AR Infinita MA ARMA • ¿A partir de qué retardo muere la ACF o PACF? para determinar el orden del proceso. Estas técnicas requieren usar estadísticos como la media, la varianza o la covarianza muestrales, que sólo tienen sentido si el proceso es estacionario, esto es, si los datos tienen una media y una varianza finitas y aproximadamente constantes. Ver. 1/16/2003, Pag. # 16
  • 17. A.1. Estudio de los procesos más comunes: AR(1) ACF PACF zt = c + φzt −1 + at ; φ < 1 c 0 <φ <1 E ( zt ) = µz = 1−φ 1 1 2 2 2 σ E ( z t ) = σz = γ 0 = a 1 − φ2 γk ρk = = φk ; k ≥ 0 Retardo Retardo γ0 Los procesos AR(1) se -1 -1 reconocen por una ACF infinita y una PACF que −1 < φ < 0 se anula a partir del segundo retardo. 1 1 Si los datos tienen media, es necesario especificar un término constante. Retardo Retardo -1 -1 Ver. 1/16/2003, Pag. # 17
  • 18. A.2. Estudio de los procesos más comunes: MA(1) zt = µz + at − θat −1 ; θ < 1 ACF PACF E ( zt ) = µz 0 < θ <1 2 2 2 2 1 1 E ( z ) = σ = γ 0 = (1 + θ )σ t z a ⎧ −θ ⎪ γk ⎪ si k = 1 ρk = = ⎪1 + θ 2 ⎨ γ0 ⎪ Retardo Retardo ⎪ 0 ⎪ si k > 1 ⎩ -1 -1 Los procesos MA(1) se reconocen por una PACF infinita y una ACF que se −1 < θ < 0 anula a partir del segundo 1 retardo. 1 Si los datos tienen media, es necesario especificar un término constante. Retardo Retardo -1 -1 Ver. 1/16/2003, Pag. # 18
  • 19. A.3. Estudio de los procesos más comunes: AR(2) zt = c + φ1zt −1 + φ2 zt −2 + at ACF PACF φ2 + φ1 < 1 ; φ2 − φ1 < 1 ; φ2 < 1 φ1 > 0 ; φ2 > 0 c E ( zt ) = µz = 1 1 1 − φ1 − φ2 ρk = φ1 ρk −1 + φ2 ρk −2 ; k ≥ 1 con : Retardo Retardo φ1 φ12 ρ1 = ; ρ2 = φ2 + 1 − φ2 1 − φ2 -1 -1 Los procesos AR(2) se φ1 < 0 ; φ2 > 0 reconocen por una ACF 1 infinita y una PACF que 1 se anula a partir del tercer retardo. Retardo Si los datos tienen media, es necesario especificar Retardo un término constante. -1 -1 Ver. 1/16/2003, Pag. # 19
  • 20. A.4. Estudio de los procesos más comunes: AR(2) ACF PACF φ1 > 0 ; φ2 < 0 1 1 Retardo Retardo -1 -1 φ1 < 0 ; φ2 < 0 1 1 Retardo Retardo -1 -1 Ver. 1/16/2003, Pag. # 20
  • 21. A.5. Estudio de los procesos más comunes: MA(2) zt = µz + at − θ1at −1 − θ2at −2 ACF ACF θ2 + θ1 < 1 ; θ2 − θ1 < 1 ; θ2 < 1 θ1 > 0 ; θ2 > 0 θ1 < 0 ; θ2 < 0 E ( zt ) = µz 1 1 2 E ( z t ) = σz = γ 0 = (1 + θ12 + θ22 )σa 2 2 ⎧ −θ1 (1 − θ2 ) ⎪ ⎪ ⎪ si k = 1 ⎪ 1 + θ12 + θ2 2 Retardo Retardo ⎪ ⎪ γ k ⎪ −θ2 ⎪ ρk = =⎪ ⎨ si k = 2 γ 0 ⎪1 + θ12 + θ2 ⎪ 2 -1 -1 ⎪ ⎪ ⎪ ⎪ 0 si k > 2 ⎪ ⎪ θ1 < 0 ; θ2 > 0 θ1 > 0 ; θ2 < 0 ⎪ ⎩ 1 1 Los procesos MA(2) se reconocen por una PACF infinita (no se muestra aquí) y una ACF que se anula a Retardo Retardo partir del tercer retardo. Si los datos tienen media, es necesario especificar un -1 -1 término constante. Ver. 1/16/2003, Pag. # 21
  • 22. Econometría II Análisis de series temporales (II): Extensiones y metodología Miguel Jerez y Sonia Sotoca Universidad Complutense de Madrid Marzo 2004 Ver. 23/3/2003, Pag. # 1
  • 23. Índice • Propiedades típicas de las series económicas • Transformaciones de datos • Operadores retardo y diferencia • Procesos generalizados • Extensiones • Metodología Ver. 23/3/2003, Pag. # 2
  • 24. Propiedades típicas de las series económicas 700 600 Muchas series temporales económicas 500 presentan: Miles de personas 400 • tendencia, 300 • estacionalidad, 200 100 • una variabilidad que crece con su nivel y 0 1950 1952 1954 1956 1958 1960 • componentes deterministas (valores Pasajeros de líneas aéreas, total mensual atípicos, ...) Sin embargo, los procesos ARMA describen variables puramente estocásticas, no estacionales, con media y varianza constantes. Por tanto, para modelizar series económicas es necesario definir: • Transformaciones de datos diseñadas para estabilizar la media y la varianza de las series. • Extensiones de la familia de procesos ARMA, que permitan captar tenden- cias y fluctuaciones estacionales. Ver. 23/3/2003, Pag. # 3
  • 25. Transformaciones de datos (I): Box-Cox Muchas series temporales muestran una variabilidad que cambia con su nivel. Para eliminar esta característica se utiliza la transformación de Box-Cox: ⎧ ( y + m )λ − 1 ⎪ t Cada transformación se caracteriza por un ⎪ ⎪ si λ ≠ 0 yt λ ,m =⎨ λ valor del parámetro λ. Además, puede ⎪ ⎪ln( y + m ) ⎪ ⎪ ⎩ t si λ = 0 aplicarse un cambio de origen (parámetro, m) cuando la transformación requiere valores positivos. λ>0 λ=0 Para elegir la transformación adecuada λ<0 puede usarse el gráfico media-desviación típica muestral de varias submuestras. En la figura se muestran las configuraciones σ λ =1 correspondientes a diversos valores de λ. Las series económicas a menudo mues- tran una variabilidad que crece con la media de forma aproximadamente lineal. µ En ese caso, la transformación adecuada es la logarítmica (λ=0) Ver. 23/3/2003, Pag. # 4
  • 26. Transformaciones de datos (II): Ejemplo Box-Cox 700 650 600 600 500 Miles de personas 400 550 300 Como muestran 200 500 los gráficos, 100 0 450 • la volatilidad 1950 1952 1954 1956 1958 1960 1950 1952 1954 1956 1958 1960 crece linealmente Pasajeros de líneas aéreas, total mensual LAIR con el nivel de la 3 S tandardized mean/s td. dev. plot of nº de pas ajeros de lineas aereas 3 S tandardized mean/s td. dev. plot of log nº de pas ajeros de lineas aereas serie, 2 2 • tras la J L M J transformación, la 1 1 L M volatilidad es S tandard deviations S tandard deviations I I H F G H 0 F G 0 B E aproximadamente E -1 A B C D -1 D constante. A C -2 -2 -3 -3 -3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3 Means Means Ver. 23/3/2003, Pag. # 5
  • 27. Transformaciones de datos (III): Diferencias A menudo la tendencia de una serie puede eliminarse diferenciando los datos. Se dice que una serie es integrada de orden uno si su primera diferencia: zt = y t − y t −1 es estacionaria en media. La serie de la primera figura es una muestra del proceso estocástico y t = y t −1 + at ; at ∼ iid N(0,.01) . Por tanto, zt = y t − y t −1 será estacionaria. 1 .3 .2 0 .1 -1 .0 -2 -.1 -3 -.2 -4 -.3 100 200 300 400 500 100 200 300 400 500 Paseo aleatorio sin deriva Primera diferencia Algunas series económicas necesitan una diferencia adicional para conseguir una media incondicional estable. En ese caso se dice que son integradas de segundo orden. Ver. 23/3/2003, Pag. # 6
  • 28. Transformaciones de datos (IV): Interpretación La primera diferencia del logaritmo de una serie es una tasa logarítmica en tanto por uno, alternativa a la tasa porcentual, ya que si: y t = (1 + αt )y t −1 , resulta: ln y t − ln y t −1 = ln(1 + αt ) αt Frente a la tasa de variación convencional, la tasa logarítmica tiene la ventaja de ser aditiva, esto es: n n ln y n − ln y 0 = ∑ (ln y t − ln y t −1 ) =∑ ln(1 + αt ) t =1 t =1 En el cuadro se presentan varias transformaciones comunes y su interpretación. Serie transformada Interpretación zt = y t − y t −1 Cambio en el valor de yt Tasa logarítmica (en tanto por uno) de variación entre zt = ln y t − ln y t −1 un período y el siguiente (indicador de “crecimiento”) Cambio en la tasa logarítmica de variación entre un w t = zt − zt −1 ; zt = y t − y t −1 período y el siguiente (indicador de “aceleración” en el crecimiento) Tasa logarítmica de variación acumulada en S zt = ln y t − ln y t −S períodos. Indicador de crecimiento acumulado en un ciclo estacional Ver. 23/3/2003, Pag. # 7
  • 29. Operadores retardo y diferencia A menudo resulta práctico representar los procesos estocásticos utilizando el operador retardo, que se define de la siguiente manera: B / i ) Bzt = zt −1 ii ) Bk = k ; k :constante −1 iii ) B zt = zt +1 0 iv ) B zt = zt v ) zt = Bzt +1 = B 2 zt +2 = B 3 zt +3 = … = B l zt +l (l > 0) El operador diferencia se define a partir del operador retardo como: ∇ / ∇y t = (1 − B )y t = y t − y t −1 En series estacionales de período S, a menudo se utiliza una variante de este operador que se conoce como diferencia estacional: ∇S / ∇S y t = (1 − BS )y t = y t − y t −s Ver. 23/3/2003, Pag. # 8
  • 30. Procesos generalizados (I): ARMA(p,q) Los procesos definidos anteriormente pueden escribirse con órdenes generales: • AR(p): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at • MA(q): zt = µz + at − θ1at −1 − θ2at −2 − … − θq at −q • ARMA(p,q): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at − θ1at −1 − θ2at −2 − … − θq at −q ... y expresarse en términos del operador retardo de la siguiente forma: • AR(p): φp (B ) zt = c + at • MA(q): zt = µz + θq (B ) at • ARMA(p,q): φp (B ) zt = c + θq (B ) at ... en donde: φp (B ) = 1 − φ1B − φ2B 2 − … − φpB p (polinomio AR) θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q (polinomio MA) Ver. 23/3/2003, Pag. # 9
  • 31. Procesos generalizados (II): Estacionariedad Estacionariedad: Se dice que un proceso estocástico es estacionario si todas las raíces de la ecuación característica 1 − φ1B − φ2B 2 − … − φpB p = 0 están fuera del círculo de radio unidad del plano complejo. La condición de estacionariedad sólo afecta a la componente AR del proceso ARIMA, ya que la componente MA siempre es estacionaria. Cuando el polinomio AR tiene alguna raíz igual a uno, se dice que tiene “raíces unitarias”. Consecuencias del cumplimiento: • El proceso tiene media y varianza incondicionales finitas y estables. • El proceso puede escribirse en forma MA equivalente. Consecuencias del no cumplimiento (raíces unitarias): • La varianza incondicional diverge a infinito. • Si tiene deriva, la media incondicional diverge a infinito. • El factor AR puede factorizarse separando las raíces unitarias de las raíces estacionarias. Ejemplo. El proceso AR(2) no estacionario: (1 − 1.5B + .5B 2 )y t = at es equivalente al proceso ARIMA(1,1,0): (1 − .5B )∇y t = at Ver. 23/3/2003, Pag. # 10
  • 32. Procesos generalizados (III): Invertibilidad Invertibilidad: Se dice que un proceso estocástico es invertible si todas las raíces de la ecuación característica 1 − θ1B − θ2B 2 − … − θq B q = 0 están fuera del círculo de radio unidad del plano complejo. La condición de invertibilidad sólo afecta a la componente MA del proceso ARIMA, ya que la componente AR siempre es invertible. Consecuencias del cumplimiento: • El proceso puede escribirse en forma AR equivalente. Consecuencias del no cumplimiento (raíces unitarias): • El proceso podría simplificarse, bien eliminando una diferencia, bien representando la tendencia de forma determinista. Ejemplos. El proceso ARIMA(2,2,1) no invertible: (1 − .5B + .7B 2 )∇2 y t = (1 − B )at es equivalente al proceso ARIMA(2,1,0): (1 − .5B + .7B 2 )∇y t = at Diferenciando el proceso de tendencia determinista: y t = β t + at se obtiene el proceso ARIMA(0,1,1) no invertible: ∇y t = β + (1 − B )at Ver. 23/3/2003, Pag. # 11
  • 33. Procesos generalizados (IV): ARIMA(p,d,q) La tendencia estocástica de las series económicas puede captarse mediante raíces AR unitarias. Por ello tiene interés generalizar la formulación del modelo ARMA admitiendo en él este tipo de factores. Esta idea da lugar al modelo ARIMA (p,d,q), que se define como: φp (B ) ∇ d y t λ,m = c + θq (B ) at en donde: φ (B ) = 1 − φ B − φ B 2 − … − φ B p [polinomio AR(p)] p 1 2 p θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q [polinomio MA(q)] B / B ± k y t = y t ∓k ∇ ≡ 1 − B [operadores retardo y diferencia] ⎧ ⎪ λ ⎪ ( y t + m ) − 1 si λ ≠ 0 ⎪ y t λ,m =⎨ λ [transformación de datos (Box-Cox)] ⎪ ⎪ln( y + m ) ⎪ ⎪ ⎩ t si λ = 0 Si los polinomios AR y MA tienen sus raíces en o fuera del círculo de radio unidad, el proceso ARIMA puede escribirse de las siguientes formas equivalentes: θq (B ) φp (B ) φp (B ) ∇ yt d λ ,m = µz + at (∇ y t d λ ,m − µz ) = at ∇ d y t λ,m = c + at φp (B ) θq (B ) θq (B ) Ver. 23/3/2003, Pag. # 12
  • 34. Procesos generalizados (V) Representaciones alternativas: Cuando un proceso estocástico no tiene raíces AR ni MA dentro del círculo de radio unidad, puede escribirse de forma equivalente como AR(∞) o MA(∞): Ejemplo 1. Un AR(1) no explosivo puede escribirse como: (1 − φB )zt = c + at o, alternativamente, como un proceso media móvil infinito: c 1 zt = + at = µz + (1 + φB + φ 2B 2 + …) at 1 − φ 1 − φB Ejemplo 2. Un MA(1) con raíces en o fuera del círculo de radio unidad puede escribirse como: zt = µz + (1 − θB )at o, alternativamente, como: 1 µ zt = z + at ; (1 + θB + θ 2B 2 + …) zt = c + at 1 − θB 1− θ Esto quiere decir que el proceso ARIMA es una aproximación finita a los procesos estocásticos generales: • Forma “pi”: zt = c + π1zt −1 + π2 zt −2 + … + at • Forma “psi”: zt = µz + at + ψ1at −1 + ψ2at −2 + … Ver. 23/3/2003, Pag. # 13
  • 35. Extensiones (I): Estacionalidad 700 600 Las series económicas a menudo muestran un comportamiento estacional, esto es, una pauta 500 Miles de personas que se repite con una periodicidad fija, a 400 menudo anual. 300 200 El período estacional (S) se define como el número de observaciones necesarias para 100 recorrer todo el ciclo estacional. Por ejemplo, 0 1950 1952 1954 1956 1958 1960 S=12 para datos mensuales, S=4 para datos Pasajeros de líneas aéreas, total mensual trimestrales, etc. Para captar este comportamiento, se define el modelo ARIMA(p,d,q)x(P,D,Q)S: φp (B ) ΦP (B S )∇S ∇d y t λ,m = c + θq (B ) ΘQ (B S )at D ... que incluye tres nuevos factores: ΦP (B S ) = 1 −Φ1B S −Φ2B 2⋅S − … − ΦP B P⋅S [polinomio AR(P)S] ΘQ (B S ) = 1 −Θ1B S −Θ2B 2⋅S − … −ΘQ BQ⋅S [polinomio MA(Q)S] ∇S ≡ 1 − B S [operador diferencia estacional] Este modelo admite relaciones entre un dato y el de S períodos atrás. Ver. 23/3/2003, Pag. # 14
  • 36. Extensiones (II): Modelo RegARIMA Uniendo las ideas anteriores con el análisis de regresión, resulta inmediato formular el modelo RegARIMA (modelo de regresión con errores ARIMA) como: λy ,my yt = ( x tλx ,mx )T β + εt con: φp (B ) ΦP (B )∇S ∇ εt = θq (B ) ΘQ (B )at S D d S De manera que los valores de la serie temporal se ponen en relación, no sólo con su pasado, sino también con los valores contemporáneos de otras series, que actúan como variables explicativas o “inputs”. λ ,m Las variables x t x x pueden ser series económicas o variables deterministas diseñadas para modelizar: • Efectos calendario, causados por irregularidades en la unidad de tiempo como pueden ser: distinto número de días laborables y festivos o celebración de la Semana Santa. • Valores atípicos (outliers) debidos a fenómenos como, p.ej., el split del nominal de una acción, cambios en tipos impositivo o fenómenos como inundaciones o terremotos. En este caso se dice que el modelo es “de intervención”. Ver. 23/3/2003, Pag. # 15
  • 37. Extensiones (III): Inputs de intervención Impulsos. Producen un cambio en el nivel de una sola observación de la serie. Pueden modelizarse mediante: ⎧ 1 si t = t * ⎪ x =⎪ i ⎨ t ⎪ 0 si t ≠ t * ⎪ ⎩ Impulsos compensados. Producen un cambio en el nivel de una observación, seguido por un cambio de nivel compensatorio en la observación siguiente. Pueden modelizarse mediante: ⎧ 1 si t = t * ⎪ ⎪ ⎪ ⎪ xt = ⎨−1 si t = t * + 1 IC ⎪ ⎪ 0 si t ≠ t * , t * + 1 ⎪ ⎪ ⎩ Escalones. Producen un cambio en el nivel de todas las observaciones posteriores a una fecha dada. Pueden modelizarse mediante: ⎧ 1 si t ≥ t * ⎪ x =⎪ E ⎨ t ⎪ 0 si t < t * ⎪ ⎩ Ver. 23/3/2003, Pag. # 16
  • 38. Metodología (I) Definir los objetivos del análisis, estudiar la información disponible Identificación: Seleccionar una especificación tentativa Los métodos de análisis de series temporales combinan los modelos e Estimación instrumentos anteriores en una (Métodos no lineales) metodología sistemática para construir y probar modelos Diagnosis: ¿Es válido el modelo para los fines Previstos? no si Utilización del modelo Ver. 23/3/2003, Pag. # 17
  • 39. Metodología (II): Identificación Parámetro Instrumento de identificación Observaciones Se trata de conseguir que la variabilidad de los • Gráfico media-desviación típica datos sea independiente de su nivel. En series m, λ • Gráfico de la serie temporal económicas es habitual λ=0, lo que supone transformar logarítmicamente los datos. • Gráfico de la serie temporal d, orden de Se trata de conseguir que los datos fluctúen en diferenciación • ACF (decrecimiento lento y torno a una media aproximadamente estable lineal) • Media muestral de la serie Si la media de la serie transformada es Término diferenciada significativa, el modelo debe incluir un término constante • Desviación típica de la media constante La PACF tiene p valores no nulos p, orden del • PACF de orden p término AR Un proceso AR finito y estacionario equivale a • ACF infinita un MA(∞) La ACF tiene q valores no nulos q, orden del • ACF de orden q término MA Un proceso MA finito e invertible equivale a un • PACF infinita AR(∞) Ver. 23/3/2003, Pag. # 18
  • 40. Metodología (III): Diagnosis Parámetro Instrumento de identificación Observaciones • Una raíz próxima a uno en la parte AR indica que • Raíces de los polinomios AR conviene añadir una diferencia y MA • Una raíz próxima a uno en la parte MA indica que d, orden de conviene quitar una diferencia diferenciación Si muestra rachas largas de residuos positivos o • Gráfico de la serie de negativos, puede ser necesaria una diferencia residuos adicional • Media muestral de los Término residuos Si la media de los residuos es significativa, debe constante añadirse un término constante • Desviación típica de la media • Contrastes de significación Permiten eliminar parámetros irrelevantes de los parámetros estimados • ACF y PACF residuales Detectan pautas de autocorrelación no modelizadas Contrasta la hipótesis conjunta de que todos los • Test Q coeficientes de autocorrelación son nulos pyq • Correlaciones elevadas entre Puede ser un síntoma de sobreparametrización parámetros estimados Consiste en añadir parámetros AR y/o MA, para • Sobreajuste comprobar si resultan significativos y mejoran la calidad estadística del modelo Ver. 23/3/2003, Pag. # 19