1. Errores comunes al estimar
modelos econométricos
Tratamiento de errores al estimar modelos
Sesión 9
25/Abril/2007
2. Recordando los supuestos del
modelo clásico
Extendiendo los supuestos:
1. E(ui|xi)=0 No existe un sesgo en la estimación de βi
2. E(u2
i|xi)=σ2
La varianza de ui es homoscedástica.
3. E(uhui)=0 Los errores no están relacionados.
4. Ui~N(0,s2
) Los errores siguen una distribución normal
5. Si xi es estocástica, las xi y ui no están correlacionadas.
6. El número de observaciones debe ser mayor que el número
de regresoras.
7. Debe existir variabilidad para los valores que toman las
regresoras.
8. No hay relación lineal exacta entre los regresores.
3. Profundizando en la multicolineidad
Tratando las violaciones a los supuestos 6,7 y 8
Sesión 9
2/Mayo/2007
4. ¿Qué sucede si las variables
independientes están relacionadas?
Relación lineal perfecta (determinística):
λ1x1+ λ2x2+ λ3x3+…+ λkxk=0
x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki
Si λ2 no es cero entonces existe una relación
exactamente lineal entre x2 y el resto de variables x.
Relación lineal imperfecta (estocástica):
λ1x1+ λ2x2+ λ3x3+…+ λkxk + v =0
x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki-1/λ2vi
La existencia de un error estocástico vi impide que x2
se relacione de forma perfecta con los demás
regresores.
¿Cuál es el efecto aislado de x1?
5. Consecuencias de la multicolineidad
Multicolineidad perfecta:
Los coeficientes son indeterminados.
Los errores estándar son infinitos.
Demostración:
( )( ) ( )( )
( )( ) ( )2
32
2
3
2
2
323
2
32
2
3322 ˆ
iiii
iiiiiii
ii
xxxx
xxxyxxy
b
uxbxby
∑∑∑
∑∑∑∑
−
⋅−⋅
=
++=
( )( ) ( )( )
( )( ) ( ) 0
0
:
22
2
22
2
22
2
2
22
2
2
2
2
2
23
=
−
⋅−⋅
=
=
∑∑∑
∑∑∑∑
iii
iiiiii
ii
xxx
xxyxxy
b
xxSuponga
λλ
λλλ
λ
6. Consecuencias de la multicolineidad
Multicolineidad imperfecta:
El valor de vi determina su importancia.
Dificultad para estimar coeficientes con errores
estándar pequeños.
Demostración:
( )( ) ( )( )
( )( ) ( )2
32
2
3
2
2
323
2
32
2
2211 ˆ
iiii
iiiiiii
ii
xxxx
xxxyxxy
b
uxbxby
∑∑∑
∑∑∑∑
−
⋅−⋅
=
++=
( )( ) ( )( )
( )( ) ( ) 0
0
:
22
2
222
2
22
2
2
22
22
2
2
2
2
23
≠
−+
+⋅−+⋅
=
+=
∑∑ ∑∑
∑∑ ∑∑ ∑∑
iiii
iiiiiiiii
iii
xvxx
xvyxyvxxy
b
vxxSuponga
λλ
λλλ
λ
7. Consecuencias prácticas
¿Es un problema real?
Aun bajo colineidad los coeficientes estimados por
OLS son insesgados.
La colineidad no destruye la característica de varianza
mínima.
La multicolineidad es un fenómeno muestral.
Consecuencias prácticas:
La estimación presenta grandes varianzas y
covarianzas lo que hace difícil la estimación precisa
de βi.
Puede generar R2
muy altos a pesar de la eficiencia
del modelo.
Los estimadores y errores estándar son sensibles a
cambios pequeños de información.
8. Detección de Multicolineidad
R2
elevado pero sus coeficientes poco
significativos.
Correlaciones entre parejas de regresores.
Tener cuidado que una alta correlación es una
condición suficiente pero no necesaria.
Regresiones auxiliares:
Regla de Klien: sugiere multicolineidad
cuando el R2
obtenido de las auxiliares es
mayor que el global.
Factores de tolerancia e índices de
condición.
9. ¿Qué hacer ante la presencia de
multicolineidad?
1. No hacer nada:
Muchas veces es un problema de los datos y no hay elección
para hacer algo más.
2. Información A priori:
Saber qué relacionar y qué no relacionar (ejemplo ingresos y
nivel socioeconómico).
3. Eliminar una de las variables colineales:
Tener cuidado de incurrir en sesgos de especificación.
4. Transformación de las variables.
Calcular diferencias.
Dividir dentro de una tercera variable (ejemplo población).
Estimaciones polinomiales.
5. Incluir datos adicionales.
Expandir la muestra permite mayor eficiencia.
11. Dos tipos de errores al realizar
estimaciones econométricas
Sesgo en la estimación de los coeficientes:
E(bi)=βi+ξi
El riesgo es afirmar que βi es igual a bi cuando existe
un valor que lo sesga sistemáticamente.
Sesgo en la estimación de la varianza del
modelo:
E(s2
)=σ2
(X´X)-1
Al momento de fallar en esta estimación puede
llegarse a concluir que un coeficiente no es (o sí es)
significativo cuando realmente no lo es.
12. Recordando: derivación de los
supuestos
¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]
[ ] IuuE
uEuEuE
uEuEuE
uEuEuE
uuE
XXXuuXXXbbE
TTT
T
T
⋅=′⋅
=′⋅
⋅′⋅⋅′⋅⋅′⋅⋅′=′−⋅− −−
2
2
2,1,
,2
2
11,2
,12,1
2
1
11
)(...)()(
............
)(...)()(
)(...)()(
)()()()(
σ
ββ
Varianza de los
Errores para
cada
observación.
Covarianza de
los errores entre
las observaciones
xi y xj.
Supuesto sobre el
valor esperado de
esta matriz.
13. Recordando: derivación de los
supuestos
¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]
=′⋅
⋅=′⋅
2
2
2
2
...00
............
0...0
0...0
σ
σ
σ
σ
uuE
IuuE
Supuestos
1. La varianza de
los errores para
cada observación
es constante.
2. No existe
relación entre los
errores.
Cuando estos dos supuestos se violan la
estimación de la matriz varianza
covarianza es sesgada y altera la
eficiencia global del modelo.
14. Ejemplo: supuesto 1
Fuente: Stock & Watson, 2006
VariableDependiente
Variable Independiente
La varianza de los errores debe ser constante para cada xi.
15. Heteroscedasticidad
E(u.
u´) ≠ σ2
A pesar que el estimador de β de mínimos
cuadrados sea insesgado las pruebas
estadísticas son erróneas.
¿Por qué pueden ser variables los errores?
Cambios en el comportamiento a lo largo de la
distribución.
Que existan distintas tecnologías para recopilar la
información.
Presencia de factores atípicos.
Incorrectas transformaciones de los datos.
16. ¿Cómo detectar la
Heteroscedasticidad?
Hipótesis de homoscedasticidad
Ho) Homoscedasticidad.
Hi) Heteroscedasticidad
¿Qué prueba utilizar?
Goldfeld Quandt
Breusch Pagan Godfrey
Prueba de White
Prueba general que no necesita identificar la
variable que causa heteroscedasticidad.
Prueba de heteroscedasticidad y de
especificación.
17. Pasos para realizar la prueba de
White
Tratamiento del error por medio de la prueba
de White
1. Estima el modelo original:
Y = β0 + β1x1 + β2x2 +ui
2. Realiza una regresión auxiliar:
e2
= β0 + β1x1 + β2x2 + β3x1
2
+ β4x2
2
+ β5x1x2 +ui
3. La prueba se distribuye con k grados de libertad en
la regresión auxiliar.
4. Valor obtenido χ2
= n*R2
(de la regresión auxiliar)
5. Si el valor obtenido (χ2
) excede al valor crítico se
rechaza Ho.
18. ¿Cómo corregir la
Heteroscedasticidad?
Tomar en cuenta lo siguiente:
Es un problema de eficiencia, no de estimación
insesgada de βi.
Un problema de especificación puede causar errores
heteroscedásticos.
Cualquier ajuste en la matriz varianza covarianza que
corrija la heteroscedasticidad sirve para realizar
inferencia estadística.
Corrección de White:
Los coeficientes son constantes pero la estimación de
las varianzas es ponderada por una matriz Ω.
Ejemplo
20. Recordando: derivación de los
supuestos
¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]
=′⋅
⋅=′⋅
2
2
2
2
...00
............
0...0
0...0
σ
σ
σ
σ
uuE
IuuE
Supuestos
1. La varianza de
los errores para
cada observación
es constante.
2. No existe
relación entre los
errores.
Cuando estos dos supuestos se violan la
estimación de la matriz varianza
covarianza es sesgada y altera la
eficiencia global del modelo.
21. Naturaleza de la autocorrelación
Es importante saber el tipo de datos que se
utiliza:
Corte transversal.
Series de tiempo.
Panel.
E(ui,uj)=0 Los errores no se encuentran
correlacionados uno con otro.
Cuando este supuesto se rompe existe
autocorrelación.
Tipos de auto correlación:
Espacial.
Serial.
22. ¿Por qué ocurre la autocorrelación?
Causas:
Sesgo de especificación.
Variables omitidas y redundantes.
Forma funcional del modelo.
Rezagos:
Variables independientes.
Variables dependientes.
Manipulación de los datos.
No estacionariedad.
23. ¿Cómo probar la presencia de
autocorrelación?
Suponga el siguiente modelo:
Para la autocorrelación serial se puede decir que el
término de error sigue un proceso autorregresivo AR(p).
Si se llegara a probar que ρ es distinta de cero,
entonces existe autocorrelación de los errores.
Si no se llegara a conseguir información estadística que
indique esto, entonces se puede decir que ui = εi,
distribuyéndose N(0,σ2
) y cuya cov(εi,εj)=0.
ijt
ii
uu
uxY
ερ
ββ
+⋅=
++= 10
24. ¿Cómo detectar la autocorrelación?
Método Gráfico:
Residuos de Ui vs el tiempo y vs Uj.
Permite generar una intuición de los problemas de
heteroscedasticidad y autocorrelación.
Prueba Durbin Watson:
Estadístico a estimar:
∑
∑
=
=
=
=
−−
= nt
t
t
nt
t
tt
u
uu
d
1
2
2
2
1
)ˆ(
)ˆˆ(
25. Método Durbin Watson
EstadísticoDurbin Watson:
Supuestos:
El modelo global debe incluir un intercepto.
Las variables explicativas son fijas.
Las perturbaciones del error se dan en un esquema
autorregresivo de primer orden.
El error está normalmente distribuido.
El modelo de regresión no incluye rezagos de las variables
dependientes.
No existen observaciones faltante (brincos en la serie).
∑
∑
=
=
=
=
−−
= nt
t
t
nt
t
tt
u
uu
d
1
2
2
2
1
)ˆ(
)ˆˆ(
26. Método Durbin Watson
Estadístico DW:
Regla de decisión:
ρ⋅−≈
⋅
−=
−
=
∑
∑
∑
∑
=
=
−
=
=
=
=
−
22
ˆ
ˆˆ
12
ˆ
)ˆˆ(
1
2
1
1
2
2
2
1
nt
t
t
tt
nt
t
t
nt
t
tt
u
uu
u
uu
d
2
Ho) No hay autocorrelaciónNo se rechaza Ho,
Con α de significancia.
du 4-dudL 4- dL
Zona de
Indecisión
Zona de
Indecisión
Rechazo
Ho
Rechazo
Ho
ρ=0ρ=1 ρ=2
27. Resumen de los pasos para prueba
DW.
Efectuar la estimación global por medio de
OLS.
Establecer la regla de decisión.
Tratamiento del área de indecisión: depende
del error α y β.
Calcular el valor d a partir de los datos.
Tomar una decisión justificada.
28. Prueba general Breusch Godfrey
(LM)
Esta prueba libera restricciones como:
Estimaciones cuyos regresores son estocásticos.
Esquemas autoregresivos de mayor orden.
Promedios móviles (tema de series de tiempo).
Suponga el siguiente modelo:
El término de error sigue un proceso autorregresivo
de orden p (AR(p)).
ippttt
ii
uuuu
uxY
ερρρ
ββ
+⋅+⋅+⋅=
++=
−−− 12211
10
...
29. Hipótesis de la prueba LM
Hipótesis de la prueba LM
Ho) ρ1= ρ2=…= ρp=0 (No hay
autocorrelación)
Hi) Al menos un ρ difiere (sí existe autoc.)
Al no rechazar Ho, no se puede probar
que exista autocorrelación serial.
No sólo prueba para procesos
autorregresivos de orden primero entre los
errores.
30. Pasos para realizar la prueba LM
Pasos:
1. Estimar el modelo general y guardar los errores.
2. Estimar el siguiente modelo:
ut=α+α1x1+α2x2+…αkxk+ρ1ut−1+…ρput−p+εt
3. El estadístico LM a estimar es el siguiente:
LM = (n-p)R2
~ χ2
p
4. Si el valor LM obtenido excede al valor c2 crítico con
p grados de libertad se rechaza Ho.
¿Cuál debe ser el p óptimo a estimar?
No existe mecanismo formal.
Experimentación utilizando los criterios de
información.
31. ¿Cómo corregir la autocorrelación?
1. Evaluar si se debe a una mala especificación
del modelo.
Incluir variables relevantes y cambiar las formas
funcionales pueden librar la autocorrelación.
2. Método Newey West para corregir los errores
estándar
Tal como la prueba white, este método corrige la
estimación de los errores estándar de forma tal que
sean consistentes con heteroscedasticidad y
autocorrelación (HAC)
Esta corrección es exclusiva para muestras
grandes.
32. ¿Cómo corregir la autocorrelación?
1. Regresión generalizada o de diferencias.
Corregir la estimación por el coeficiente ρ.
tT
ttttt
ttt
ttt
itt
ttt
xY
xxYY
uxY
uxY
uu
uxY
εββ
ερβρβρ
ρβρβρρ
ββ
ερ
ββ
++=
+⋅−+−=⋅−
⋅+⋅+⋅=⋅
++=
+⋅=
++=
−−
−−−
−−−
−
*
1
*
1
*
0
*
1101
11101
11101
11
10
)()1()(
33. Cómo ajustar la regresión
generalizada o de diferencias
1. ¿Es conocido el valor de ρ?
Si es conocido sólo se transforman las variables Y y X
calculando las diferencias.
Si no es conocido puede realizarse transformaciones para
las variables extremas: cuando ρ es igual a 1 (primera
diferencia) y cuando ρ es igual a -1.
Regla de Maddala: cuando el valor del estadístico d (DW)
es menor que el R2
entonces usar la primera diferencia
(suponer que ρ es igual a 1)
34. Cómo ajustar la regresión
generalizada o de diferencias
2. Estimación de la primera diferencia:
∆y=∆x+εt
Esta estimación se deriva del supuesto que r es igual a 1.
Tomar en cuenta que se asume que la regresión no tiene
constante.
Si el modelo se especifica con una constante, entonces esta
representa una tendencia a lo largo del tiempo.
3. Para probar si realmente r=1 se realiza la prueba
Berenblutt Webb, o el estadístico g:
∑
∑
= n
t
n
t
u
g
1
2
2
2
ˆ
ˆε
Donde ut son los residuos de la regresión
original y εt son los residuos de la regresión de
la primera diferencia.
35. Pasos para realizar la prueba Beremblutt Webb:
1. Estimación de la regresión general.
2. Estimación de la regresión con primera diferencia.
3. Planteamiento de hipótesis:
Ho) ρ=1
Hi) ρ≠1
4. Estimación del estadístico g.
5. Utilizar el estadísitco crítico d (Durbin Watson).
6. Se rechazará Ho si el valor obtenido excede al límite inferior
del estadístico d.
Tomar en cuenta que ahora el estadístico d=2 refleja ρ=0, pero la
hipótesis nula es que ρ=1 (ver el límite derecho únicamente).
Cómo ajustar la regresión
generalizada o de diferencias
36. Cómo ajustar la regresión
generalizada o de diferencias
Si el valor ρ es desconocido y distinto de 1entonces:
1. Se puede aproximar ρ = 1-d/2.
2. Se puede estimar a partir de los residuos:
Esquema AR(1) ut = ρut-1 + εt
3. Estimación de métodos iterativos (Chochrane Orcutt):
Permiten estimar los parámetros con esquemas autoregresivos de un
orden superior.
Asume un ρ inicial y reestima el parámetro ρ hasta que converga.
Cuidado al utilizar este método, ya que sus iteraciones no son más
que una imputación forzosa de la estimación del parámetro ρ.
37. Errores comunes al estimar
modelos econométricos
Tratamiento de errores al estimar modelos
Sesión 9
2/Mayo/2007