SlideShare ist ein Scribd-Unternehmen logo
1 von 37
Errores comunes al estimar
modelos econométricos
Tratamiento de errores al estimar modelos
Sesión 9
25/Abril/2007
Recordando los supuestos del
modelo clásico
 Extendiendo los supuestos:
1. E(ui|xi)=0 No existe un sesgo en la estimación de βi
2. E(u2
i|xi)=σ2
La varianza de ui es homoscedástica.
3. E(uhui)=0 Los errores no están relacionados.
4. Ui~N(0,s2
) Los errores siguen una distribución normal
5. Si xi es estocástica, las xi y ui no están correlacionadas.
6. El número de observaciones debe ser mayor que el número
de regresoras.
7. Debe existir variabilidad para los valores que toman las
regresoras.
8. No hay relación lineal exacta entre los regresores.
Profundizando en la multicolineidad
Tratando las violaciones a los supuestos 6,7 y 8
Sesión 9
2/Mayo/2007
¿Qué sucede si las variables
independientes están relacionadas?
 Relación lineal perfecta (determinística):
 λ1x1+ λ2x2+ λ3x3+…+ λkxk=0
 x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki
 Si λ2 no es cero entonces existe una relación
exactamente lineal entre x2 y el resto de variables x.
 Relación lineal imperfecta (estocástica):
 λ1x1+ λ2x2+ λ3x3+…+ λkxk + v =0
 x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki-1/λ2vi
 La existencia de un error estocástico vi impide que x2
se relacione de forma perfecta con los demás
regresores.
 ¿Cuál es el efecto aislado de x1?
Consecuencias de la multicolineidad
 Multicolineidad perfecta:
 Los coeficientes son indeterminados.
 Los errores estándar son infinitos.
 Demostración:
( )( ) ( )( )
( )( ) ( )2
32
2
3
2
2
323
2
32
2
3322 ˆ
iiii
iiiiiii
ii
xxxx
xxxyxxy
b
uxbxby
∑∑∑
∑∑∑∑
−
⋅−⋅
=
++=
( )( ) ( )( )
( )( ) ( ) 0
0
:
22
2
22
2
22
2
2
22
2
2
2
2
2
23
=
−
⋅−⋅
=
=
∑∑∑
∑∑∑∑
iii
iiiiii
ii
xxx
xxyxxy
b
xxSuponga
λλ
λλλ
λ
Consecuencias de la multicolineidad
 Multicolineidad imperfecta:
 El valor de vi determina su importancia.
 Dificultad para estimar coeficientes con errores
estándar pequeños.
 Demostración:
( )( ) ( )( )
( )( ) ( )2
32
2
3
2
2
323
2
32
2
2211 ˆ
iiii
iiiiiii
ii
xxxx
xxxyxxy
b
uxbxby
∑∑∑
∑∑∑∑
−
⋅−⋅
=
++=
( )( ) ( )( )
( )( ) ( ) 0
0
:
22
2
222
2
22
2
2
22
22
2
2
2
2
23
≠
−+
+⋅−+⋅
=
+=
∑∑ ∑∑
∑∑ ∑∑ ∑∑
iiii
iiiiiiiii
iii
xvxx
xvyxyvxxy
b
vxxSuponga
λλ
λλλ
λ
Consecuencias prácticas
 ¿Es un problema real?
 Aun bajo colineidad los coeficientes estimados por
OLS son insesgados.
 La colineidad no destruye la característica de varianza
mínima.
 La multicolineidad es un fenómeno muestral.
 Consecuencias prácticas:
 La estimación presenta grandes varianzas y
covarianzas lo que hace difícil la estimación precisa
de βi.
 Puede generar R2
muy altos a pesar de la eficiencia
del modelo.
 Los estimadores y errores estándar son sensibles a
cambios pequeños de información.
Detección de Multicolineidad
 R2
elevado pero sus coeficientes poco
significativos.
 Correlaciones entre parejas de regresores.
 Tener cuidado que una alta correlación es una
condición suficiente pero no necesaria.
 Regresiones auxiliares:
 Regla de Klien: sugiere multicolineidad
cuando el R2
obtenido de las auxiliares es
mayor que el global.
 Factores de tolerancia e índices de
condición.
¿Qué hacer ante la presencia de
multicolineidad?
1. No hacer nada:
 Muchas veces es un problema de los datos y no hay elección
para hacer algo más.
2. Información A priori:
 Saber qué relacionar y qué no relacionar (ejemplo ingresos y
nivel socioeconómico).
3. Eliminar una de las variables colineales:
 Tener cuidado de incurrir en sesgos de especificación.
4. Transformación de las variables.
 Calcular diferencias.
 Dividir dentro de una tercera variable (ejemplo población).
 Estimaciones polinomiales.
5. Incluir datos adicionales.
 Expandir la muestra permite mayor eficiencia.
Heteroscedasticidad
Tratando las violaciones a los supuestos 6,7 y 8
Sesión 9
2/Mayo/2007
Dos tipos de errores al realizar
estimaciones econométricas
 Sesgo en la estimación de los coeficientes:
 E(bi)=βi+ξi
 El riesgo es afirmar que βi es igual a bi cuando existe
un valor que lo sesga sistemáticamente.
 Sesgo en la estimación de la varianza del
modelo:
 E(s2
)=σ2
(X´X)-1
 Al momento de fallar en esta estimación puede
llegarse a concluir que un coeficiente no es (o sí es)
significativo cuando realmente no lo es.
Recordando: derivación de los
supuestos
 ¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]
[ ] IuuE
uEuEuE
uEuEuE
uEuEuE
uuE
XXXuuXXXbbE
TTT
T
T
⋅=′⋅














=′⋅
⋅′⋅⋅′⋅⋅′⋅⋅′=′−⋅− −−
2
2
2,1,
,2
2
11,2
,12,1
2
1
11
)(...)()(
............
)(...)()(
)(...)()(
)()()()(
σ
ββ
Varianza de los
Errores para
cada
observación.
Covarianza de
los errores entre
las observaciones
xi y xj.
Supuesto sobre el
valor esperado de
esta matriz.
Recordando: derivación de los
supuestos
 ¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]














=′⋅
⋅=′⋅
2
2
2
2
...00
............
0...0
0...0
σ
σ
σ
σ
uuE
IuuE
Supuestos
1. La varianza de
los errores para
cada observación
es constante.
2. No existe
relación entre los
errores.
Cuando estos dos supuestos se violan la
estimación de la matriz varianza
covarianza es sesgada y altera la
eficiencia global del modelo.
Ejemplo: supuesto 1
Fuente: Stock & Watson, 2006
VariableDependiente
Variable Independiente
La varianza de los errores debe ser constante para cada xi.
Heteroscedasticidad
 E(u.
u´) ≠ σ2
 A pesar que el estimador de β de mínimos
cuadrados sea insesgado las pruebas
estadísticas son erróneas.
 ¿Por qué pueden ser variables los errores?
 Cambios en el comportamiento a lo largo de la
distribución.
 Que existan distintas tecnologías para recopilar la
información.
 Presencia de factores atípicos.
 Incorrectas transformaciones de los datos.
¿Cómo detectar la
Heteroscedasticidad?
 Hipótesis de homoscedasticidad
 Ho) Homoscedasticidad.
 Hi) Heteroscedasticidad
 ¿Qué prueba utilizar?
 Goldfeld Quandt
 Breusch Pagan Godfrey
 Prueba de White
 Prueba general que no necesita identificar la
variable que causa heteroscedasticidad.
 Prueba de heteroscedasticidad y de
especificación.
Pasos para realizar la prueba de
White
 Tratamiento del error por medio de la prueba
de White
1. Estima el modelo original:
Y = β0 + β1x1 + β2x2 +ui
2. Realiza una regresión auxiliar:
e2
= β0 + β1x1 + β2x2 + β3x1
2
+ β4x2
2
+ β5x1x2 +ui
3. La prueba se distribuye con k grados de libertad en
la regresión auxiliar.
4. Valor obtenido χ2
= n*R2
(de la regresión auxiliar)
5. Si el valor obtenido (χ2
) excede al valor crítico se
rechaza Ho.
¿Cómo corregir la
Heteroscedasticidad?
 Tomar en cuenta lo siguiente:
 Es un problema de eficiencia, no de estimación
insesgada de βi.
 Un problema de especificación puede causar errores
heteroscedásticos.
 Cualquier ajuste en la matriz varianza covarianza que
corrija la heteroscedasticidad sirve para realizar
inferencia estadística.
 Corrección de White:
 Los coeficientes son constantes pero la estimación de
las varianzas es ponderada por una matriz Ω.
Ejemplo
Autocorrelación
Tratando las violaciones a los supuestos 6,7 y 8
Sesión 9
2/Mayo/2007
Recordando: derivación de los
supuestos
 ¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]














=′⋅
⋅=′⋅
2
2
2
2
...00
............
0...0
0...0
σ
σ
σ
σ
uuE
IuuE
Supuestos
1. La varianza de
los errores para
cada observación
es constante.
2. No existe
relación entre los
errores.
Cuando estos dos supuestos se violan la
estimación de la matriz varianza
covarianza es sesgada y altera la
eficiencia global del modelo.
Naturaleza de la autocorrelación
 Es importante saber el tipo de datos que se
utiliza:
 Corte transversal.
 Series de tiempo.
 Panel.
 E(ui,uj)=0 Los errores no se encuentran
correlacionados uno con otro.
 Cuando este supuesto se rompe existe
autocorrelación.
 Tipos de auto correlación:
 Espacial.
 Serial.
¿Por qué ocurre la autocorrelación?
 Causas:
 Sesgo de especificación.
 Variables omitidas y redundantes.
 Forma funcional del modelo.
 Rezagos:
 Variables independientes.
 Variables dependientes.
 Manipulación de los datos.
 No estacionariedad.
¿Cómo probar la presencia de
autocorrelación?
 Suponga el siguiente modelo:
 Para la autocorrelación serial se puede decir que el
término de error sigue un proceso autorregresivo AR(p).
 Si se llegara a probar que ρ es distinta de cero,
entonces existe autocorrelación de los errores.
 Si no se llegara a conseguir información estadística que
indique esto, entonces se puede decir que ui = εi,
distribuyéndose N(0,σ2
) y cuya cov(εi,εj)=0.
ijt
ii
uu
uxY
ερ
ββ
+⋅=
++= 10
¿Cómo detectar la autocorrelación?
 Método Gráfico:
 Residuos de Ui vs el tiempo y vs Uj.
 Permite generar una intuición de los problemas de
heteroscedasticidad y autocorrelación.
 Prueba Durbin Watson:
 Estadístico a estimar:
∑
∑
=
=
=
=
−−
= nt
t
t
nt
t
tt
u
uu
d
1
2
2
2
1
)ˆ(
)ˆˆ(
Método Durbin Watson
 EstadísticoDurbin Watson:
 Supuestos:
 El modelo global debe incluir un intercepto.
 Las variables explicativas son fijas.
 Las perturbaciones del error se dan en un esquema
autorregresivo de primer orden.
 El error está normalmente distribuido.
 El modelo de regresión no incluye rezagos de las variables
dependientes.
 No existen observaciones faltante (brincos en la serie).
∑
∑
=
=
=
=
−−
= nt
t
t
nt
t
tt
u
uu
d
1
2
2
2
1
)ˆ(
)ˆˆ(
Método Durbin Watson
 Estadístico DW:
 Regla de decisión:
ρ⋅−≈












⋅
−=
−
=
∑
∑
∑
∑
=
=
−
=
=
=
=
−
22
ˆ
ˆˆ
12
ˆ
)ˆˆ(
1
2
1
1
2
2
2
1
nt
t
t
tt
nt
t
t
nt
t
tt
u
uu
u
uu
d
2
Ho) No hay autocorrelaciónNo se rechaza Ho,
Con α de significancia.
du 4-dudL 4- dL
Zona de
Indecisión
Zona de
Indecisión
Rechazo
Ho
Rechazo
Ho
ρ=0ρ=1 ρ=2
Resumen de los pasos para prueba
DW.
 Efectuar la estimación global por medio de
OLS.
 Establecer la regla de decisión.
 Tratamiento del área de indecisión: depende
del error α y β.
 Calcular el valor d a partir de los datos.
 Tomar una decisión justificada.
Prueba general Breusch Godfrey
(LM)
 Esta prueba libera restricciones como:
 Estimaciones cuyos regresores son estocásticos.
 Esquemas autoregresivos de mayor orden.
 Promedios móviles (tema de series de tiempo).
 Suponga el siguiente modelo:
 El término de error sigue un proceso autorregresivo
de orden p (AR(p)).
ippttt
ii
uuuu
uxY
ερρρ
ββ
+⋅+⋅+⋅=
++=
−−− 12211
10
...
Hipótesis de la prueba LM
 Hipótesis de la prueba LM
 Ho) ρ1= ρ2=…= ρp=0 (No hay
autocorrelación)
 Hi) Al menos un ρ difiere (sí existe autoc.)
 Al no rechazar Ho, no se puede probar
que exista autocorrelación serial.
 No sólo prueba para procesos
autorregresivos de orden primero entre los
errores.
Pasos para realizar la prueba LM
Pasos:
1. Estimar el modelo general y guardar los errores.
2. Estimar el siguiente modelo:
ut=α+α1x1+α2x2+…αkxk+ρ1ut−1+…ρput−p+εt
3. El estadístico LM a estimar es el siguiente:
LM = (n-p)R2
~ χ2
p
4. Si el valor LM obtenido excede al valor c2 crítico con
p grados de libertad se rechaza Ho.
¿Cuál debe ser el p óptimo a estimar?
 No existe mecanismo formal.
 Experimentación utilizando los criterios de
información.
¿Cómo corregir la autocorrelación?
1. Evaluar si se debe a una mala especificación
del modelo.
 Incluir variables relevantes y cambiar las formas
funcionales pueden librar la autocorrelación.
2. Método Newey West para corregir los errores
estándar
 Tal como la prueba white, este método corrige la
estimación de los errores estándar de forma tal que
sean consistentes con heteroscedasticidad y
autocorrelación (HAC)
 Esta corrección es exclusiva para muestras
grandes.
¿Cómo corregir la autocorrelación?
1. Regresión generalizada o de diferencias.
Corregir la estimación por el coeficiente ρ.
tT
ttttt
ttt
ttt
itt
ttt
xY
xxYY
uxY
uxY
uu
uxY
εββ
ερβρβρ
ρβρβρρ
ββ
ερ
ββ
++=
+⋅−+−=⋅−
⋅+⋅+⋅=⋅
++=
+⋅=
++=
−−
−−−
−−−
−
*
1
*
1
*
0
*
1101
11101
11101
11
10
)()1()(
Cómo ajustar la regresión
generalizada o de diferencias
1. ¿Es conocido el valor de ρ?
 Si es conocido sólo se transforman las variables Y y X
calculando las diferencias.
 Si no es conocido puede realizarse transformaciones para
las variables extremas: cuando ρ es igual a 1 (primera
diferencia) y cuando ρ es igual a -1.
 Regla de Maddala: cuando el valor del estadístico d (DW)
es menor que el R2
entonces usar la primera diferencia
(suponer que ρ es igual a 1)
Cómo ajustar la regresión
generalizada o de diferencias
2. Estimación de la primera diferencia:
∆y=∆x+εt
 Esta estimación se deriva del supuesto que r es igual a 1.
 Tomar en cuenta que se asume que la regresión no tiene
constante.
 Si el modelo se especifica con una constante, entonces esta
representa una tendencia a lo largo del tiempo.
3. Para probar si realmente r=1 se realiza la prueba
Berenblutt Webb, o el estadístico g:
∑
∑
= n
t
n
t
u
g
1
2
2
2
ˆ
ˆε
Donde ut son los residuos de la regresión
original y εt son los residuos de la regresión de
la primera diferencia.
 Pasos para realizar la prueba Beremblutt Webb:
1. Estimación de la regresión general.
2. Estimación de la regresión con primera diferencia.
3. Planteamiento de hipótesis:
Ho) ρ=1
Hi) ρ≠1
4. Estimación del estadístico g.
5. Utilizar el estadísitco crítico d (Durbin Watson).
6. Se rechazará Ho si el valor obtenido excede al límite inferior
del estadístico d.
 Tomar en cuenta que ahora el estadístico d=2 refleja ρ=0, pero la
hipótesis nula es que ρ=1 (ver el límite derecho únicamente).
Cómo ajustar la regresión
generalizada o de diferencias
Cómo ajustar la regresión
generalizada o de diferencias
Si el valor ρ es desconocido y distinto de 1entonces:
1. Se puede aproximar ρ = 1-d/2.
2. Se puede estimar a partir de los residuos:
 Esquema AR(1) ut = ρut-1 + εt
3. Estimación de métodos iterativos (Chochrane Orcutt):
 Permiten estimar los parámetros con esquemas autoregresivos de un
orden superior.
 Asume un ρ inicial y reestima el parámetro ρ hasta que converga.
 Cuidado al utilizar este método, ya que sus iteraciones no son más
que una imputación forzosa de la estimación del parámetro ρ.
Errores comunes al estimar
modelos econométricos
Tratamiento de errores al estimar modelos
Sesión 9
2/Mayo/2007

Weitere ähnliche Inhalte

Was ist angesagt?

Clase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentalesClase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentalesNerys Ramírez Mordán
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con EviewsRodrigo Paniagua
 
Regresión lineal multiple autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguezRegresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple autores grillet montaño rodríguezthomas669
 
Multicolinealidad
MulticolinealidadMulticolinealidad
MulticolinealidadUTPL UTPL
 
Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Robinho Navarrete
 
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxYeferQuion
 
Optimizacion dinamica y teoria economica
Optimizacion dinamica y teoria economicaOptimizacion dinamica y teoria economica
Optimizacion dinamica y teoria economicaJose Matos
 
Ejemplos modelos econometricos
Ejemplos modelos econometricosEjemplos modelos econometricos
Ejemplos modelos econometricosSam Wilson
 
Heteroscedasticidad
HeteroscedasticidadHeteroscedasticidad
HeteroscedasticidadUTPL UTPL
 
Modulo 1 regresión y series temporales
Modulo 1  regresión y  series temporalesModulo 1  regresión y  series temporales
Modulo 1 regresión y series temporalesidea
 
Formas funcionales de los modelos de regresión
Formas funcionales de los modelos de regresiónFormas funcionales de los modelos de regresión
Formas funcionales de los modelos de regresiónchrisrgt1999
 
presentacion de econometria
presentacion de econometriapresentacion de econometria
presentacion de econometriaMaldoclaudia
 

Was ist angesagt? (20)

Clase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentalesClase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentales
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
 
Multicolinealidad
MulticolinealidadMulticolinealidad
Multicolinealidad
 
Regresión lineal multiple autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguezRegresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple autores grillet montaño rodríguez
 
Modelos VAR
Modelos VARModelos VAR
Modelos VAR
 
Multicolinealidad
MulticolinealidadMulticolinealidad
Multicolinealidad
 
Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011
 
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
 
Optimizacion dinamica y teoria economica
Optimizacion dinamica y teoria economicaOptimizacion dinamica y teoria economica
Optimizacion dinamica y teoria economica
 
Clase2 El modelo de regresión simple
Clase2 El modelo de regresión simpleClase2 El modelo de regresión simple
Clase2 El modelo de regresión simple
 
Ejemplos modelos econometricos
Ejemplos modelos econometricosEjemplos modelos econometricos
Ejemplos modelos econometricos
 
EJERCICIOS ECONOMETRIA 2
EJERCICIOS ECONOMETRIA 2EJERCICIOS ECONOMETRIA 2
EJERCICIOS ECONOMETRIA 2
 
Heteroscedasticidad
HeteroscedasticidadHeteroscedasticidad
Heteroscedasticidad
 
Ec360 tema04
Ec360 tema04Ec360 tema04
Ec360 tema04
 
Modulo 1 regresión y series temporales
Modulo 1  regresión y  series temporalesModulo 1  regresión y  series temporales
Modulo 1 regresión y series temporales
 
Formas funcionales de los modelos de regresión
Formas funcionales de los modelos de regresiónFormas funcionales de los modelos de regresión
Formas funcionales de los modelos de regresión
 
presentacion de econometria
presentacion de econometriapresentacion de econometria
presentacion de econometria
 
Clase5 Formas funcionales
Clase5 Formas funcionalesClase5 Formas funcionales
Clase5 Formas funcionales
 
Resueltos
ResueltosResueltos
Resueltos
 
Blanchard
BlanchardBlanchard
Blanchard
 

Ähnlich wie Sesión 9, errores comunes en las estimaciones

Clase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestosClase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestosHugo Maul
 
Endogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentalesEndogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentalesJavier816403
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfAnaParave1
 
que econometra
que econometra que econometra
que econometra rblanca
 
resolucion regresion lineal
resolucion regresion linealresolucion regresion lineal
resolucion regresion linealguardiandelcaos
 
Clase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltipleClase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltipleNerys Ramírez Mordán
 
Econometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsEconometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsHugo Maul
 
Clase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datosClase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datosNerys Ramírez Mordán
 
1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresionSociedadIncluyente
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simpleAnaMariaSfer
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simpleAnaMariaSfer
 
4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdfJoseFlores569854
 
Analisis de regresion multiple
Analisis de regresion multipleAnalisis de regresion multiple
Analisis de regresion multipleJhosepAlexFernndez
 
P4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multipleP4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multipleEvelyn Arrey
 
Desigualdades radmila, jose antonio y rogelio
Desigualdades   radmila, jose antonio y rogelioDesigualdades   radmila, jose antonio y rogelio
Desigualdades radmila, jose antonio y rogelioMiguel Rodrigues
 
Ajustes de curvas ff
Ajustes de curvas ffAjustes de curvas ff
Ajustes de curvas ffabel20113636
 

Ähnlich wie Sesión 9, errores comunes en las estimaciones (20)

Clase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestosClase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestos
 
Endogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentalesEndogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentales
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdf
 
que econometra
que econometra que econometra
que econometra
 
resolucion regresion lineal
resolucion regresion linealresolucion regresion lineal
resolucion regresion lineal
 
Clase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltipleClase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltiple
 
2. reg.lin.multiple
2. reg.lin.multiple2. reg.lin.multiple
2. reg.lin.multiple
 
Econometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsEconometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades ols
 
Clase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datosClase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datos
 
1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion
 
2015 word
2015 word2015 word
2015 word
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simple
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simple
 
4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf
 
T6
T6T6
T6
 
Analisis de regresion multiple
Analisis de regresion multipleAnalisis de regresion multiple
Analisis de regresion multiple
 
Trabajo
TrabajoTrabajo
Trabajo
 
P4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multipleP4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multiple
 
Desigualdades radmila, jose antonio y rogelio
Desigualdades   radmila, jose antonio y rogelioDesigualdades   radmila, jose antonio y rogelio
Desigualdades radmila, jose antonio y rogelio
 
Ajustes de curvas ff
Ajustes de curvas ffAjustes de curvas ff
Ajustes de curvas ff
 

Mehr von Hugo Maul

Econometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometríaEconometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometríaHugo Maul
 
Econometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaEconometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaHugo Maul
 
Clase 1, qué es econometría
Clase 1, qué es econometríaClase 1, qué es econometría
Clase 1, qué es econometríaHugo Maul
 
Clase 3, inferencia estadística
Clase 3, inferencia estadísticaClase 3, inferencia estadística
Clase 3, inferencia estadísticaHugo Maul
 
Clase 4, inferencia estadística copy
Clase 4, inferencia estadística   copyClase 4, inferencia estadística   copy
Clase 4, inferencia estadística copyHugo Maul
 
Clase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresiónClase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresiónHugo Maul
 
Clip 10 grabada ok
Clip 10 grabada okClip 10 grabada ok
Clip 10 grabada okHugo Maul
 
Clase 5, variables_binarias
Clase 5, variables_binariasClase 5, variables_binarias
Clase 5, variables_binariasHugo Maul
 
Presentación proyecto records
Presentación proyecto recordsPresentación proyecto records
Presentación proyecto recordsHugo Maul
 

Mehr von Hugo Maul (9)

Econometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometríaEconometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometría
 
Econometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaEconometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometría
 
Clase 1, qué es econometría
Clase 1, qué es econometríaClase 1, qué es econometría
Clase 1, qué es econometría
 
Clase 3, inferencia estadística
Clase 3, inferencia estadísticaClase 3, inferencia estadística
Clase 3, inferencia estadística
 
Clase 4, inferencia estadística copy
Clase 4, inferencia estadística   copyClase 4, inferencia estadística   copy
Clase 4, inferencia estadística copy
 
Clase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresiónClase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresión
 
Clip 10 grabada ok
Clip 10 grabada okClip 10 grabada ok
Clip 10 grabada ok
 
Clase 5, variables_binarias
Clase 5, variables_binariasClase 5, variables_binarias
Clase 5, variables_binarias
 
Presentación proyecto records
Presentación proyecto recordsPresentación proyecto records
Presentación proyecto records
 

Sesión 9, errores comunes en las estimaciones

  • 1. Errores comunes al estimar modelos econométricos Tratamiento de errores al estimar modelos Sesión 9 25/Abril/2007
  • 2. Recordando los supuestos del modelo clásico  Extendiendo los supuestos: 1. E(ui|xi)=0 No existe un sesgo en la estimación de βi 2. E(u2 i|xi)=σ2 La varianza de ui es homoscedástica. 3. E(uhui)=0 Los errores no están relacionados. 4. Ui~N(0,s2 ) Los errores siguen una distribución normal 5. Si xi es estocástica, las xi y ui no están correlacionadas. 6. El número de observaciones debe ser mayor que el número de regresoras. 7. Debe existir variabilidad para los valores que toman las regresoras. 8. No hay relación lineal exacta entre los regresores.
  • 3. Profundizando en la multicolineidad Tratando las violaciones a los supuestos 6,7 y 8 Sesión 9 2/Mayo/2007
  • 4. ¿Qué sucede si las variables independientes están relacionadas?  Relación lineal perfecta (determinística):  λ1x1+ λ2x2+ λ3x3+…+ λkxk=0  x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki  Si λ2 no es cero entonces existe una relación exactamente lineal entre x2 y el resto de variables x.  Relación lineal imperfecta (estocástica):  λ1x1+ λ2x2+ λ3x3+…+ λkxk + v =0  x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki-1/λ2vi  La existencia de un error estocástico vi impide que x2 se relacione de forma perfecta con los demás regresores.  ¿Cuál es el efecto aislado de x1?
  • 5. Consecuencias de la multicolineidad  Multicolineidad perfecta:  Los coeficientes son indeterminados.  Los errores estándar son infinitos.  Demostración: ( )( ) ( )( ) ( )( ) ( )2 32 2 3 2 2 323 2 32 2 3322 ˆ iiii iiiiiii ii xxxx xxxyxxy b uxbxby ∑∑∑ ∑∑∑∑ − ⋅−⋅ = ++= ( )( ) ( )( ) ( )( ) ( ) 0 0 : 22 2 22 2 22 2 2 22 2 2 2 2 2 23 = − ⋅−⋅ = = ∑∑∑ ∑∑∑∑ iii iiiiii ii xxx xxyxxy b xxSuponga λλ λλλ λ
  • 6. Consecuencias de la multicolineidad  Multicolineidad imperfecta:  El valor de vi determina su importancia.  Dificultad para estimar coeficientes con errores estándar pequeños.  Demostración: ( )( ) ( )( ) ( )( ) ( )2 32 2 3 2 2 323 2 32 2 2211 ˆ iiii iiiiiii ii xxxx xxxyxxy b uxbxby ∑∑∑ ∑∑∑∑ − ⋅−⋅ = ++= ( )( ) ( )( ) ( )( ) ( ) 0 0 : 22 2 222 2 22 2 2 22 22 2 2 2 2 23 ≠ −+ +⋅−+⋅ = += ∑∑ ∑∑ ∑∑ ∑∑ ∑∑ iiii iiiiiiiii iii xvxx xvyxyvxxy b vxxSuponga λλ λλλ λ
  • 7. Consecuencias prácticas  ¿Es un problema real?  Aun bajo colineidad los coeficientes estimados por OLS son insesgados.  La colineidad no destruye la característica de varianza mínima.  La multicolineidad es un fenómeno muestral.  Consecuencias prácticas:  La estimación presenta grandes varianzas y covarianzas lo que hace difícil la estimación precisa de βi.  Puede generar R2 muy altos a pesar de la eficiencia del modelo.  Los estimadores y errores estándar son sensibles a cambios pequeños de información.
  • 8. Detección de Multicolineidad  R2 elevado pero sus coeficientes poco significativos.  Correlaciones entre parejas de regresores.  Tener cuidado que una alta correlación es una condición suficiente pero no necesaria.  Regresiones auxiliares:  Regla de Klien: sugiere multicolineidad cuando el R2 obtenido de las auxiliares es mayor que el global.  Factores de tolerancia e índices de condición.
  • 9. ¿Qué hacer ante la presencia de multicolineidad? 1. No hacer nada:  Muchas veces es un problema de los datos y no hay elección para hacer algo más. 2. Información A priori:  Saber qué relacionar y qué no relacionar (ejemplo ingresos y nivel socioeconómico). 3. Eliminar una de las variables colineales:  Tener cuidado de incurrir en sesgos de especificación. 4. Transformación de las variables.  Calcular diferencias.  Dividir dentro de una tercera variable (ejemplo población).  Estimaciones polinomiales. 5. Incluir datos adicionales.  Expandir la muestra permite mayor eficiencia.
  • 10. Heteroscedasticidad Tratando las violaciones a los supuestos 6,7 y 8 Sesión 9 2/Mayo/2007
  • 11. Dos tipos de errores al realizar estimaciones econométricas  Sesgo en la estimación de los coeficientes:  E(bi)=βi+ξi  El riesgo es afirmar que βi es igual a bi cuando existe un valor que lo sesga sistemáticamente.  Sesgo en la estimación de la varianza del modelo:  E(s2 )=σ2 (X´X)-1  Al momento de fallar en esta estimación puede llegarse a concluir que un coeficiente no es (o sí es) significativo cuando realmente no lo es.
  • 12. Recordando: derivación de los supuestos  ¿Qué condiciones deben existir para poder inferir el valor de β? [ ] [ ] [ ] IuuE uEuEuE uEuEuE uEuEuE uuE XXXuuXXXbbE TTT T T ⋅=′⋅               =′⋅ ⋅′⋅⋅′⋅⋅′⋅⋅′=′−⋅− −− 2 2 2,1, ,2 2 11,2 ,12,1 2 1 11 )(...)()( ............ )(...)()( )(...)()( )()()()( σ ββ Varianza de los Errores para cada observación. Covarianza de los errores entre las observaciones xi y xj. Supuesto sobre el valor esperado de esta matriz.
  • 13. Recordando: derivación de los supuestos  ¿Qué condiciones deben existir para poder inferir el valor de β? [ ] [ ]               =′⋅ ⋅=′⋅ 2 2 2 2 ...00 ............ 0...0 0...0 σ σ σ σ uuE IuuE Supuestos 1. La varianza de los errores para cada observación es constante. 2. No existe relación entre los errores. Cuando estos dos supuestos se violan la estimación de la matriz varianza covarianza es sesgada y altera la eficiencia global del modelo.
  • 14. Ejemplo: supuesto 1 Fuente: Stock & Watson, 2006 VariableDependiente Variable Independiente La varianza de los errores debe ser constante para cada xi.
  • 15. Heteroscedasticidad  E(u. u´) ≠ σ2  A pesar que el estimador de β de mínimos cuadrados sea insesgado las pruebas estadísticas son erróneas.  ¿Por qué pueden ser variables los errores?  Cambios en el comportamiento a lo largo de la distribución.  Que existan distintas tecnologías para recopilar la información.  Presencia de factores atípicos.  Incorrectas transformaciones de los datos.
  • 16. ¿Cómo detectar la Heteroscedasticidad?  Hipótesis de homoscedasticidad  Ho) Homoscedasticidad.  Hi) Heteroscedasticidad  ¿Qué prueba utilizar?  Goldfeld Quandt  Breusch Pagan Godfrey  Prueba de White  Prueba general que no necesita identificar la variable que causa heteroscedasticidad.  Prueba de heteroscedasticidad y de especificación.
  • 17. Pasos para realizar la prueba de White  Tratamiento del error por medio de la prueba de White 1. Estima el modelo original: Y = β0 + β1x1 + β2x2 +ui 2. Realiza una regresión auxiliar: e2 = β0 + β1x1 + β2x2 + β3x1 2 + β4x2 2 + β5x1x2 +ui 3. La prueba se distribuye con k grados de libertad en la regresión auxiliar. 4. Valor obtenido χ2 = n*R2 (de la regresión auxiliar) 5. Si el valor obtenido (χ2 ) excede al valor crítico se rechaza Ho.
  • 18. ¿Cómo corregir la Heteroscedasticidad?  Tomar en cuenta lo siguiente:  Es un problema de eficiencia, no de estimación insesgada de βi.  Un problema de especificación puede causar errores heteroscedásticos.  Cualquier ajuste en la matriz varianza covarianza que corrija la heteroscedasticidad sirve para realizar inferencia estadística.  Corrección de White:  Los coeficientes son constantes pero la estimación de las varianzas es ponderada por una matriz Ω. Ejemplo
  • 19. Autocorrelación Tratando las violaciones a los supuestos 6,7 y 8 Sesión 9 2/Mayo/2007
  • 20. Recordando: derivación de los supuestos  ¿Qué condiciones deben existir para poder inferir el valor de β? [ ] [ ]               =′⋅ ⋅=′⋅ 2 2 2 2 ...00 ............ 0...0 0...0 σ σ σ σ uuE IuuE Supuestos 1. La varianza de los errores para cada observación es constante. 2. No existe relación entre los errores. Cuando estos dos supuestos se violan la estimación de la matriz varianza covarianza es sesgada y altera la eficiencia global del modelo.
  • 21. Naturaleza de la autocorrelación  Es importante saber el tipo de datos que se utiliza:  Corte transversal.  Series de tiempo.  Panel.  E(ui,uj)=0 Los errores no se encuentran correlacionados uno con otro.  Cuando este supuesto se rompe existe autocorrelación.  Tipos de auto correlación:  Espacial.  Serial.
  • 22. ¿Por qué ocurre la autocorrelación?  Causas:  Sesgo de especificación.  Variables omitidas y redundantes.  Forma funcional del modelo.  Rezagos:  Variables independientes.  Variables dependientes.  Manipulación de los datos.  No estacionariedad.
  • 23. ¿Cómo probar la presencia de autocorrelación?  Suponga el siguiente modelo:  Para la autocorrelación serial se puede decir que el término de error sigue un proceso autorregresivo AR(p).  Si se llegara a probar que ρ es distinta de cero, entonces existe autocorrelación de los errores.  Si no se llegara a conseguir información estadística que indique esto, entonces se puede decir que ui = εi, distribuyéndose N(0,σ2 ) y cuya cov(εi,εj)=0. ijt ii uu uxY ερ ββ +⋅= ++= 10
  • 24. ¿Cómo detectar la autocorrelación?  Método Gráfico:  Residuos de Ui vs el tiempo y vs Uj.  Permite generar una intuición de los problemas de heteroscedasticidad y autocorrelación.  Prueba Durbin Watson:  Estadístico a estimar: ∑ ∑ = = = = −− = nt t t nt t tt u uu d 1 2 2 2 1 )ˆ( )ˆˆ(
  • 25. Método Durbin Watson  EstadísticoDurbin Watson:  Supuestos:  El modelo global debe incluir un intercepto.  Las variables explicativas son fijas.  Las perturbaciones del error se dan en un esquema autorregresivo de primer orden.  El error está normalmente distribuido.  El modelo de regresión no incluye rezagos de las variables dependientes.  No existen observaciones faltante (brincos en la serie). ∑ ∑ = = = = −− = nt t t nt t tt u uu d 1 2 2 2 1 )ˆ( )ˆˆ(
  • 26. Método Durbin Watson  Estadístico DW:  Regla de decisión: ρ⋅−≈             ⋅ −= − = ∑ ∑ ∑ ∑ = = − = = = = − 22 ˆ ˆˆ 12 ˆ )ˆˆ( 1 2 1 1 2 2 2 1 nt t t tt nt t t nt t tt u uu u uu d 2 Ho) No hay autocorrelaciónNo se rechaza Ho, Con α de significancia. du 4-dudL 4- dL Zona de Indecisión Zona de Indecisión Rechazo Ho Rechazo Ho ρ=0ρ=1 ρ=2
  • 27. Resumen de los pasos para prueba DW.  Efectuar la estimación global por medio de OLS.  Establecer la regla de decisión.  Tratamiento del área de indecisión: depende del error α y β.  Calcular el valor d a partir de los datos.  Tomar una decisión justificada.
  • 28. Prueba general Breusch Godfrey (LM)  Esta prueba libera restricciones como:  Estimaciones cuyos regresores son estocásticos.  Esquemas autoregresivos de mayor orden.  Promedios móviles (tema de series de tiempo).  Suponga el siguiente modelo:  El término de error sigue un proceso autorregresivo de orden p (AR(p)). ippttt ii uuuu uxY ερρρ ββ +⋅+⋅+⋅= ++= −−− 12211 10 ...
  • 29. Hipótesis de la prueba LM  Hipótesis de la prueba LM  Ho) ρ1= ρ2=…= ρp=0 (No hay autocorrelación)  Hi) Al menos un ρ difiere (sí existe autoc.)  Al no rechazar Ho, no se puede probar que exista autocorrelación serial.  No sólo prueba para procesos autorregresivos de orden primero entre los errores.
  • 30. Pasos para realizar la prueba LM Pasos: 1. Estimar el modelo general y guardar los errores. 2. Estimar el siguiente modelo: ut=α+α1x1+α2x2+…αkxk+ρ1ut−1+…ρput−p+εt 3. El estadístico LM a estimar es el siguiente: LM = (n-p)R2 ~ χ2 p 4. Si el valor LM obtenido excede al valor c2 crítico con p grados de libertad se rechaza Ho. ¿Cuál debe ser el p óptimo a estimar?  No existe mecanismo formal.  Experimentación utilizando los criterios de información.
  • 31. ¿Cómo corregir la autocorrelación? 1. Evaluar si se debe a una mala especificación del modelo.  Incluir variables relevantes y cambiar las formas funcionales pueden librar la autocorrelación. 2. Método Newey West para corregir los errores estándar  Tal como la prueba white, este método corrige la estimación de los errores estándar de forma tal que sean consistentes con heteroscedasticidad y autocorrelación (HAC)  Esta corrección es exclusiva para muestras grandes.
  • 32. ¿Cómo corregir la autocorrelación? 1. Regresión generalizada o de diferencias. Corregir la estimación por el coeficiente ρ. tT ttttt ttt ttt itt ttt xY xxYY uxY uxY uu uxY εββ ερβρβρ ρβρβρρ ββ ερ ββ ++= +⋅−+−=⋅− ⋅+⋅+⋅=⋅ ++= +⋅= ++= −− −−− −−− − * 1 * 1 * 0 * 1101 11101 11101 11 10 )()1()(
  • 33. Cómo ajustar la regresión generalizada o de diferencias 1. ¿Es conocido el valor de ρ?  Si es conocido sólo se transforman las variables Y y X calculando las diferencias.  Si no es conocido puede realizarse transformaciones para las variables extremas: cuando ρ es igual a 1 (primera diferencia) y cuando ρ es igual a -1.  Regla de Maddala: cuando el valor del estadístico d (DW) es menor que el R2 entonces usar la primera diferencia (suponer que ρ es igual a 1)
  • 34. Cómo ajustar la regresión generalizada o de diferencias 2. Estimación de la primera diferencia: ∆y=∆x+εt  Esta estimación se deriva del supuesto que r es igual a 1.  Tomar en cuenta que se asume que la regresión no tiene constante.  Si el modelo se especifica con una constante, entonces esta representa una tendencia a lo largo del tiempo. 3. Para probar si realmente r=1 se realiza la prueba Berenblutt Webb, o el estadístico g: ∑ ∑ = n t n t u g 1 2 2 2 ˆ ˆε Donde ut son los residuos de la regresión original y εt son los residuos de la regresión de la primera diferencia.
  • 35.  Pasos para realizar la prueba Beremblutt Webb: 1. Estimación de la regresión general. 2. Estimación de la regresión con primera diferencia. 3. Planteamiento de hipótesis: Ho) ρ=1 Hi) ρ≠1 4. Estimación del estadístico g. 5. Utilizar el estadísitco crítico d (Durbin Watson). 6. Se rechazará Ho si el valor obtenido excede al límite inferior del estadístico d.  Tomar en cuenta que ahora el estadístico d=2 refleja ρ=0, pero la hipótesis nula es que ρ=1 (ver el límite derecho únicamente). Cómo ajustar la regresión generalizada o de diferencias
  • 36. Cómo ajustar la regresión generalizada o de diferencias Si el valor ρ es desconocido y distinto de 1entonces: 1. Se puede aproximar ρ = 1-d/2. 2. Se puede estimar a partir de los residuos:  Esquema AR(1) ut = ρut-1 + εt 3. Estimación de métodos iterativos (Chochrane Orcutt):  Permiten estimar los parámetros con esquemas autoregresivos de un orden superior.  Asume un ρ inicial y reestima el parámetro ρ hasta que converga.  Cuidado al utilizar este método, ya que sus iteraciones no son más que una imputación forzosa de la estimación del parámetro ρ.
  • 37. Errores comunes al estimar modelos econométricos Tratamiento de errores al estimar modelos Sesión 9 2/Mayo/2007