1) O documento discute o problema da autocorrelação nos termos de erro em modelos de regressão múltipla.
2) A autocorrelação ocorre quando os termos de erro de períodos diferentes estão correlacionados, violando um pressuposto do modelo de regressão.
3) Vários fatores podem causar autocorrelação, como inércia em séries temporais, variáveis omitidas, forma funcional incorreta do modelo, e defasagens.
1. Econometria
Tópico 6 – Regressão Múltipla
Quebra dos pressupostos: Autocorrelação
Ricardo Bruno N. dos Santos
Professor Adjunto da Faculdade de Economia
e do PPGE (Economia) UFPA
2. Lembre-se que os vídeos necessários para o
acompanhamento dessa apresentação são todos os
vídeos que iniciam por 08, e encontram-se dentro da
pasta Vídeos no mediafire.
Link do mediafire:
http://www.mediafire.com/?q1dbpxh1b4uxo
No Slideshare:
3. Quebra dos pressupostos: Autocorrelação
O que acontece se os termos de erros são
autocorrelacionados?
Natureza do problema de autocorrelação.
A autocorrelação pode ser definida como “correlação entre
integrantes de séries de observações ordenadas no tempo [
como as séries temporais] ou no espaço [como os dados de
corte transversal – cross section]. No contexto da regressão, o
modelo clássico de regressão linear pressupõe que essa
autocorrelação não existe nos termos de erro 𝑢𝑖 .
Simbolicamente
𝑐𝑜𝑣 𝑢𝑖, 𝑢𝑗 𝑥𝑖, 𝑥𝑗 = 𝐸 𝑢𝑖 𝑢𝑗 = 0 𝑖 ≠ 𝑗
4. Quebra dos pressupostos: Autocorrelação
Ou seja, o modelo clássico pressupõe que o termo de erro
relacionado a qualquer uma das observações não é
influenciado pelo termo de erro de qualquer outra
observação.
Porém o quando observa-se essa influencia podemos
representa-la como
𝐸 𝑢𝑖 𝑢𝑗 ≠ 0 𝑖 ≠ 𝑗
Como exemplo poderíamos citar os fenômenos que ocorrem
nas bolsas de valores, a presença de um novo polo de atração
em um município, etc.
Podemos verificar nas figuras a seguir alguns padrões, onde é
possível verificar a autocorrelação.
7. Quebra dos pressupostos: Autocorrelação
Por quais motivos podem ocorrer a autocorrelação serial?
Inércia – Uma das principais características das séries
temporais econômicas é a inércia ou lentidão. Como
sabemos, séries temporais como o PNB, índices de preços, a
produção, o emprego e o desemprego registram ciclos
(econômicos). Partindo do fundo da recessão, quando tem
início a recuperação econômica, a maioria dessas séries
começam a mover-se em um sentido ascendente. Nesse
movimento, o valor da série em um ponto do tempo é maior
que o anterior. Há um impulso embutido nele que continua
até que algo aconteça (um aumento nas taxas de juros, nos
impostos ou em ambos) para desacelerá-lo. Portanto, em
regressões que envolvem séries temporais, as observações
sucessivas tendem a ser interdependentes.
8. Quebra dos pressupostos: Autocorrelação
Viés de especificação – podemos iniciar com um modelo de
regressão que pode não ser o mais “adequado”. Depois de
averiguarmos se tal modelo atendem ou não nossas
expectativas, caso não atenda devemos verificar se a falta de
alguma variável está influenciando nos resíduos ao ponto de
causar os padrões que indicam a autocorrelação. Esse é o
caso do VIÉS DE ESPECIFICAÇÃO DA VARIÁVEL EXCLUÍDA.
Muitas vezes a inclusão de tais variáveis elimina o padrão de
correlação observado entre os resíduos. Por exemplo,
suponha o seguinte modelo de demanda:
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝛽4 𝑋4𝑡 + 𝑢 𝑡
Onde Y é a quantidade de carne bovina; X2 o preço da carne
bovina; X3 a renda do consumidor; X4 o preço da carne suína;
e t o tempo.
9. Quebra dos pressupostos: Autocorrelação
Agora suponha que o modelo seja especificado de forma
equivocada como abaixo:
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝑣 𝑡
Ou seja, estaríamos afirmando que o nosso erro na verdade
tem a característica de incorporar também o preço da carne
suína, logo:
𝑣 𝑡 = 𝛽4 𝑋4𝑡 + 𝑢 𝑡
E na medida que o preço da carne suína afeta o consumo da
carne bovina, o termo de erro, v, refletirá um padrão
sistemático, criando assim uma (falsa) autocorrelação.
10. Quebra dos pressupostos: Autocorrelação
Viés de especificação: forma funcional incorreta – Já foi
verificado em outras situações como a forma funcional pode
afetar os resíduos, permitindo que seus resultados se afastem
da reta de regressão.
O mesmo fenômeno pode também gerar autocorrelação em
nossa regressão. Imagine o modelo de Custo margina que
segue um comportamento polinomial de grau dois, então:
𝐶𝑢𝑠𝑡𝑜 𝑚𝑎𝑟𝑔𝑖𝑛𝑎𝑙𝑖 = 𝛽1 + 𝛽2 𝑃𝑟𝑜𝑑𝑢çã𝑜𝑖 + 𝛽3 𝑃𝑟𝑜𝑑𝑢çã𝑜𝑖
2
+ 𝑢𝑖
Mas ajustamos o modelo
𝐶𝑢𝑠𝑡𝑜 𝑚𝑎𝑟𝑔𝑖𝑛𝑎𝑙𝑖 = 𝛽1 + 𝛽2 𝑃𝑟𝑜𝑑𝑢çã𝑜𝑖 + 𝑣𝑖
Ou seja, teremos uma distância entre o que foi estimado e o
que é o verdadeiro comportamento do modelo
12. Quebra dos pressupostos: Autocorrelação
O fenômeno da teia de aranha - Esse aspecto está
relacionado a influência que o comportamento de uma
variável defasada causa e o tempo em que as alterações
provenientes desse impacto levam para afetar a variável
dependente.
Um exemplo a ser verificado é o impacto dos preços sobre os
produtos agrícolas. No início do plantio a safra deste ano, os
agricultores estão influenciados pelo preço vigente no ano
anterior, de modo que sua função oferta é:
𝑂𝑓𝑒𝑟𝑡𝑎 𝑡 = 𝛽1 + 𝛽2 𝑃𝑡−1 + 𝑢 𝑡
Imagine que, no final do período t, o preço 𝑃𝑡 é menor que
𝑃𝑡−1. Portanto, no período t+1, os agricultores podem decidir
produzir menos que em t.
13. Quebra dos pressupostos: Autocorrelação
Defasagens – Em uma regressão de despesas sobre a renda
cujos dados são séries temporais, verificamos
frequentemente que as despesas do período atual
dependem, dentre outras coisas, das despesas do período
anterior. Isto é,
𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑡 = 𝛽1 + 𝛽2 𝑟𝑒𝑛𝑑𝑎𝑖 + 𝛽3 𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑡−1 + 𝑢 𝑡
Uma regressão desse tipo é conhecida como autorregressão
ou modelo autorregresivo. Isso porque, uma das variáveis
explanatórias é o valor defasado da VARIÁVEL DEPENDENTE.
A lógica destes modelos é simples, pois os consumidores não
alteram facilmente os seus hábitos de consumo por motivos
psicológicos, tecnológicos ou institucionais. Agora se
negligenciarmos o termo defasado na equação o termo de
erro resultante refletirá um padrão sistemático decorrente da
influência do consumo anterior.
14. Quebra dos pressupostos: Autocorrelação
Manipulação e transformação dos dados – A manipulação de
dados em séries temporais surgirá da necessidade de se preencher
buracos nas séries. Por exemplo, se quisermos analisar o censo
demográfico do Brasil temos eles apenas para os anos de 1970, 80,
90, 2000 e 2010. E os anos entre esses períodos, como analisa-los.
Já no que se refere a transformação, devemos usar algumas
técnicas para permitir que as séries temporais se tornem
estacionárias ao logo do tempo.
Imagine o modelo
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡
O modelo acima pode ter um padrão nos resíduos não sistemático
que aparentemente não possuem influências determinísticas, mas
podem ter influências estocásticas. Quando essa influencias estão
presentes devemos eliminá-las, para fazer isso temos que
diferenciar a série.
15. Quebra dos pressupostos: Autocorrelação
A diferenciação da série ocorre pela subtração do modelo em
nível com o modelo defasado, o modelo defasado seria:
𝑌𝑡−1 = 𝛽1 + 𝛽2 𝑋𝑡−1 + 𝑢 𝑡−1
Se tivermos 𝑌𝑡 − 𝑌𝑡−1, teremos:
𝑌𝑡 − 𝑌𝑡−1 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡 − 𝛽1 − 𝛽2 𝑋𝑡−1 − 𝑢 𝑡−1
∆𝑌𝑡 = 𝛽2∆𝑋𝑡 + ∆𝑢 𝑡
Onde o ∆ é o operador de primeira diferença.
16. Quebra dos pressupostos: Autocorrelação
ESTIMATIVAS DE MQO NA PRESENÇA DE AUTOCORRELAÇÃO
O que acontece aos estimadores de MQO e suas variâncias se
introduzirmos autocorrelações nos termos de erro, supondo
que 𝐸(𝑢 𝑡 𝑢 𝑡+𝑠) ≠ 0 , mas mantivermos todas as outras
hipóteses do modelo clássico?
Vamos partir dessa visão tendo como base o modelo simples
onde:
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡
Como estamos supondo que o erro de hoje afeta o amanhã
𝐸(𝑢 𝑡 𝑢 𝑡+𝑠) ≠ 0, ou o de ontem afeta o hoje 𝐸(𝑢 𝑡 𝑢 𝑡−𝑠) ≠ 0,
poderíamos então estabelecer que:
𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 − 1 < 𝜌 < 1
17. Quebra dos pressupostos: Autocorrelação
O 𝜌 é conhecido como COEFICIENTE DE AUTOCOVARIÂNCIA e
𝜀𝑡 é o termo de erro estocástico, que segue as hipóteses
padrão de MQO, onde:
𝐸 𝜀𝑡 = 0
𝑣𝑎𝑟 𝜀𝑡 = 𝜎𝜀
2
𝑐𝑜𝑣 𝜀𝑡, 𝜀𝑡+𝑠 = 0 𝑠 ≠ 0
Quando o termo de erro 𝜀𝑡 possui todas as propriedades
acima apresentada ele é conhecido como RUÍDO BRANCO
(WHITE NOISE).
A regressão 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 é conhecida como esquema
AUTORREGRESSIVO DE PRIMEIRA ORDEM DE MARKOV, ou
simplesmente processo autorregressivo de primeira ordem,
designado por AR(1).
18. Quebra dos pressupostos: Autocorrelação
Caso tivéssemos um modelo onde:
𝑢 𝑡 = 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + 𝜀𝑡
Então teríamos um processo autorregressivo de segunda
ordem AR(2).
Podemos então representar a variância do processo AR(1)
como:
𝐸 𝑢 𝑡 = 𝜌𝐸 𝑢 𝑡−1 + 𝐸 𝜀𝑡
𝐸 𝑢 𝑡
2
= 𝑣𝑎𝑟 𝑢 𝑡
𝑣𝑎𝑟 𝑢 𝑡 = 𝐸 𝜌2 𝑢 𝑡−1
2
+ 𝐸 𝜀𝑡
2
+ 2𝜌𝐸 𝑢 𝑡−1 𝜀𝑡
𝑣𝑎𝑟 𝑢 𝑡 = 𝜌2 𝐸 𝑢 𝑡−1
2
+ 𝐸 𝜀𝑡
2
𝜎2 = 𝜌2 𝜎2 + 𝜎𝜀
2
𝜎2
=
𝜎𝜀
2
1 − 𝜌2
19. Quebra dos pressupostos: Autocorrelação
Já a covariância é dada por
𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡+𝑠 = 𝐸 𝑢 𝑡, 𝑢 𝑡−𝑠 =
𝜌 𝑠 𝜎𝜀
2
1 − 𝜌2
E
𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡−𝑠 = 𝜌 𝑠
Assim temos que 𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡+𝑠 representa a covariância
entre os termos de erro separados por s períodos e
𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡+𝑠 é a correlação entre os termos de erro
separados por s períodos. Note que, devido à propriedade de
simetria das covariâncias e correlações, 𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡−𝑠 =
𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡+𝑠 , e 𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡+𝑠 = 𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡−𝑠
20. Quebra dos pressupostos: Autocorrelação
O que definirá se teremos um processo estacionário ou não é
o valor de 𝜌. Vamos analisar a partir da equação abaixo:
𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡
Note que se o 𝜌 for igual a 1 teremos o resíduo passado
influenciando no resíduo presente. No entanto se ele for zero
então teremos um processo ESTACIONÁRIO (que é o
resultado ideal para os modelos de séries temporais), logo:
𝑢 𝑡 = 𝜀𝑡 - RUÍDO BRANCO
21. Quebra dos pressupostos: Autocorrelação
Voltando para o modelo de regressão verificamos que por MQO
podemos obter:
𝛽2 =
𝑥 𝑡 𝑦𝑡
𝑥 𝑡
2
E sua variância é dada por
𝑣𝑎𝑟 𝛽2 =
𝜎2
𝑥 𝑡
2
Sob a presença de um processo AR(1) teremos o seguinte
comportamento:
𝑣𝑎𝑟 𝛽2 𝐴𝑅 1
=
=
𝜎2
𝑥 𝑡
2 1 + 2𝜌
𝑥 𝑡 𝑥 𝑡−1
𝑥 𝑡
2 + 2𝜌2
𝑥 𝑡 𝑥 𝑡−2
𝑥 𝑡
2 +. . +2𝜌 𝑛−1
𝑥1 𝑥 𝑛
𝑥 𝑡
2
22. Quebra dos pressupostos: Autocorrelação
No caso desse estimador podemos verificar que sua variância
é determinada pela existência ou não da autocorrelação. Se
for diferente de zero então teremos uma variância que não
será mínima.
Com isso, não podemos concluir que o estimador seja
EFICIÊNTE, apesar de ainda ser linear e não tendencioso.
Porém, assim como o ocorrido com a heterocedasticidade, é
possível encontrar, quando conhecemos a variância, o
estimador de MQG, que por sua vez, será eficiente.
23. Quebra dos pressupostos:
Autocorrelação***
O ESTIMADOR MELNT NA PRESENÇA DE AUTOCORRELAÇÃO
Tendo ainda como referência o modelo de duas variáveis e
suponde um processo AR(1), podemos mostrar que o MELNT
pode ser obtido pela seguinte expressão:
𝛽2
𝑀𝑄𝐺
=
𝑡=2
𝑛
𝑥 𝑡 − 𝜌𝑥 𝑡−1 𝑦𝑡 − 𝜌𝑦𝑡−1
𝑡=2
𝑛
𝑥 𝑡 − 𝜌𝑥 𝑡−1
2
+ 𝐶
Onde C é um fator de correção que pode ser desconsiderado
na prática. A variância desse estimador é dada por:
𝑣𝑎𝑟 𝛽2
𝑀𝑄𝐺
=
𝜎2
𝑡=2
𝑛
𝑥 𝑡 − 𝜌𝑥 𝑡−1
2
+ 𝐷
Onde D também é um fator de correção.
24. Quebra dos pressupostos: Autocorrelação
Nesse caso, o estimador de 𝛽2
𝑀𝑄𝐺
é obtido por MQG. Ou seja,
é incorporada a natureza da autocorrelação para corrigir o
problema da autocorrelação.
25. Quebra dos pressupostos: Autocorrelação
CONSEQUÊNCIAS DO USO DOS MQO NA PRESENÇA DE
AUTOCORRELAÇÃO
Assim como na heterocedasticidade, os estimadores de MQO
ainda são lineares e não tendenciosos, porém tornam-se
ineficientes. Vamos então verificar as consequências de se
forçar a estimação dos betas ignorando o fenômeno da
autocorrelação.
Já verificamos que na presença da autocorrelação o
estimador de MQG é o mais adequado, tendo em vista que
esse estimador incorpora a influência que a autocorrelação
estabelece nos erros.
26. Quebra dos pressupostos: Autocorrelação
Quando não consideramos a autocorrelação a situação torna-
se potencialmente muito grave, pois além de não utilizarmos
𝛽2
𝑀𝑄𝐺
, ainda continuamos a utilizar a 𝑣𝑎𝑟 𝛽2 =
𝜎2
𝑥 𝑡
2. Ou
seja, estaremos incorrendo a erro pelas seguintes razões:
1) A variância residual 𝜎2 = 𝑢𝑖
2
/(𝑛 − 2) provavelmente
subestimará o verdadeiro 𝜎2.
2) Como resultado, seremos levados a superestimar 𝑅2
.
3) Mesmo que 𝜎2
não seja subestimado, a 𝑣𝑎𝑟 𝛽2 pode
subestimar a 𝑣𝑎𝑟 𝛽2 𝐴𝑅 1
, sua variância sob
autocorrelação (de primeira ordem), embora esta última
seja ineficiente em comparação com a 𝑣𝑎𝑟 𝛽2
𝑀𝑄𝐺
.
27. Quebra dos pressupostos: Autocorrelação
4) Por isso, os testes comuns de significância t e F deixa de ser
válidos e, se aplicados, provavelmente nos levarão a
conclusões extremamente equivocadas sobre a significância
estatística dos coeficientes de regressão.
Para demonstrarmos algumas dessas proposições, voltemos
ao modelo de duas variáveis. Já vimos que:
𝜎2 =
𝑢𝑖
2
𝑛 − 2
Nos fornece um estimador não tendencioso de 𝜎2, isto é,
𝐸 𝜎2
= 𝜎2
. Porém, se houver autocorrelação, dada por
AR(1), podemos demostrar que:
28. Quebra dos pressupostos: Autocorrelação
𝐸 𝜎2 =
𝜎2
𝑛 −
2
1 − 𝜌
− 2𝜌𝑟
𝑛 − 2
Em que 𝑟 = 𝑡=1
𝑛−1
𝑥 𝑡 𝑥 𝑡−1 / 𝑡=1
𝑛
𝑥 𝑡
2
, que pode ser
interpretado como o coeficiente de correlação (amostral)
entre os valores sucessivos dos X. Se 𝜌 e 𝑟 forem ambos
positivos (o que não é improvável para a maioria das séries
temporais econômicas), evidencia-se, pela equação acima,
que 𝐸 𝜎2
< 𝜎2
; a fórmula habitual da variância residual, em
média, subestimará o verdadeiro 𝜎2.
Em outras palavras, 𝜎2 terá um VIÉS descendente.
Desnecessário dizer que esse viés do 𝜎2 será transmitido à
𝑣𝑎𝑟 𝛽2 , porque, na prática, estimamos esta última por meio
da fórmula
𝜎2
𝑥 𝑡
2
29. Quebra dos pressupostos: Autocorrelação
No entanto, mesmo que 𝜎2 não seja subestimado, a 𝑣𝑎𝑟 𝛽2
é um estimador tendencioso da 𝑣𝑎𝑟 𝛽2 𝐴𝑅 1
, o que pode ser
facilmente visto comparando-se as duas equações quando
𝜌 = 1. Caso 𝜌 > 0 e os valores X forem positivamente
correlacionados, então:
𝑣𝑎𝑟 𝛽2 < 𝑣𝑎𝑟 𝛽2 𝐴𝑅 1
Ou seja, a variância de beta 2 calculado por MQO subestima
sua variância calculada sob AR(1). Se usarmos a 𝑣𝑎𝑟 𝛽2 ,
estaremos inflando a precisão ou exatidão (subestimaremos o
erro padrão) do estimador 𝛽2. Com isso podemos dizer que a
razão t 𝑡 = 𝛽2/𝑒𝑝( 𝛽2) estará sendo superestimado, ou seja,
rejeitaremos facilmente a hipótese nula.
30. Quebra dos pressupostos: Autocorrelação
Pelo gráfico abaixo podemos identificar que esse processo
diminui a área de aceitação da hipótese nula:
31. Quebra dos pressupostos: Autocorrelação
Exemplo: Relação entre salários e produtividade no setor
empresarial dos EUA, 1960-2005.
Neste exemplo será utilizada a Tabela 12.4
32. Quebra dos pressupostos: Autocorrelação
IDENTIFICAÇÃO DA AUTOCORRELAÇÃO: O TESTE DURBIN-
WATSON
É um dos mais conhecidos testes de detecção da
autocorrelação serial. Conhecido também como Estatística d
de Durbin-Watson, ele é definido como:
𝑑 =
𝑡=2
𝑡=𝑛
𝑢 𝑡 − 𝑢 𝑡−1
2
𝑡=1
𝑡=𝑛
𝑢 𝑡
2
Que é a razão da soma das diferenças elevadas ao quadrado,
entre resíduos sucessivos e a SQR. Perceba que, no
numerador da estatística d, o número de observações é n-1,
porque perde-se uma observação no cálculo das diferenças
sucessivas.
33. Quebra dos pressupostos: Autocorrelação
A principal vantagem da estatística d é que ela se baseia nos
resíduos estimados, que costumam ser calculados na análise
de regressão. Em razão dessa vantagem, agora se tornou
prática comum informar o d de Durbi-Watson com outras
medidas, como o 𝑅2
e o 𝑅2
ajustado, t e F. Embora
atualmente seja empregado como rotina, é importante estar
atento às hipóteses que fundamentam a estatística d:
1) O modelo de regressão inclui o termo de intercepto. Se
não estiver presente, como no caso da regressão que passa
pela origem, é essencial refazer a regressão, incluindo o
intercepto para obter a SQR.
2) As variáveis explanatórias, os X, são não estocásticas, ou
fixas, em amostras repetidas; (cont.)
34. Quebra dos pressupostos: Autocorrelação
3) Os termos de erro 𝑢 𝑡 são gerados pelo processo
autorregressivo de primeira ordem: 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 .
Portanto, não podem ser usados para detectar processos
autorregressivos de ordem mais elevada.
4) Pressupõe-se que o termo de erro 𝑢 𝑡 seja distribuído
NORMALMENTE.
5) O modelo de regressão não inclui os valores defasados da
variável dependente como uma das variáveis explanatórias. O
teste não pode ser aplicado a modelos do seguinte tipo:
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + ⋯ + 𝛽 𝑘 𝑋 𝑘𝑡 + 𝛾𝑌𝑡−1 + 𝑢 𝑡
Onde temos o valor defasado de Y em um período. Já vimos
anteriormente que esses modelos são conhecidos como
autorregressivos. (cont.)
35. Quebra dos pressupostos: Autocorrelação
6) Não faltam observações nos dados. Na regressão de
salários-produtividade para o período de 1959-1998, se por
alguma razão estivessem faltando observações para, por
exemplo, 1978 e 1982, a estatística d não faria a concessão
para essas observações faltantes.
36. Quebra dos pressupostos: Autocorrelação
Outra forma de representação a estatística d é:
𝑑 =
𝑢 𝑡
2
+ 𝑢 𝑡−1
2
− 2 𝑢 𝑡 𝑢 𝑡−1
𝑢 𝑡
2
Devemos ainda considerar que
𝑢 𝑡
2
≈ 𝑢 𝑡−1
2
Assim podemos reescrever a estatística d como:
𝑑 ≈ 2 1 −
𝑢 𝑡 𝑢 𝑡−1
𝑢 𝑡
2
37. Quebra dos pressupostos: Autocorrelação
Definindo:
𝜌 =
𝑢 𝑡 𝑢 𝑡−1
𝑢 𝑡
2
Então teremos:
𝑑 ≈ 2 1 − 𝜌
Assim como −1 ≤ 𝜌 ≤ 1 então teremos:
0 ≤ 𝑑 ≤ 4
Que são os limites de d, qualquer valor estimado deve ficar
dentro desse limite.
38. Quebra dos pressupostos: Autocorrelação
A estatística de Durbi-Watson é analisada considerando a
seguinte estrutura:
39. Quebra dos pressupostos: Autocorrelação
Há uma sistemática para se analisar o teste d. Verifique que
se 𝜌 = 0 (que reflete a ausência de autocorrelação) teremos
um 𝑑 = 2. Ou seja, o valor que temos como parâmetro para
indicar ausência de autocorrelação é o d=2.
Já o quanto mais próximo d estiver de zero maior a
possibilidade de termos autocorrelação na série.
Essa autocorrelação pode ser tanto positiva 𝜌 = 1 𝑒 𝑑 = 0,
como negativa 𝜌 = −1 𝑒 𝑑 = 4. Ou seja, o quanto mais nos
aproximamos de zero ou de quatro temos indícios de
autocorrelação, por conta disto, temos que tomar cuidado
com um intervalo de indeterminação presente na análise da
estatística d.
40. Quebra dos pressupostos: Autocorrelação
Podemos sistematizar então as seguintes etapas para a
realização do teste d:
1) Efetua-se a regressão por MQO, e obtemos os resíduos;
2) Calcula-se d da equação 𝑑 =
𝑢 𝑡
2+ 𝑢 𝑡−1
2 −2 𝑢 𝑡 𝑢 𝑡−1
𝑢 𝑡
2
3) Para um dado tamanho da amostra e número de variáveis
independentes, determinamos o valor 𝑑 𝐿 e 𝑑 𝑈 críticos;
4) Usamos a tabela abaixo para definir pela existência ou não
de autocorrelação:
41. Quebra dos pressupostos: Autocorrelação
Fazendo uso para o modelo de salários-produtividade vamos
calcular passo a passo o teste de Durbin-Watson:
Um teste geral de autocorrelação: O teste de Breusch-
Godfrey (BG)
Verificamos que apesar de sua simplicidade e praticidade, o
teste Durbin-Watson possui mais elementos contra que prós.
Com isso foi implementado o teste BG também conhecido
como teste LM. O Procedimento do teste é feito da seguinte
forma:
1º - Estima-se a regressão de interesse (esta pode ser com um
número irrestrito de variáveis), usaremos o exemplo da
regressão simples:
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡
42. Quebra dos pressupostos: Autocorrelação
Depois de estimada pegamos o resíduo da regressão e
rodamos uma equação desses resíduos contra o número de
defasagens do mesmo, ou seja, geramos, para os resíduos,
um processo autorregressivo de ordem p, AR(p), pressupondo
que os resíduos tenha um comportamento autorregressivo:
𝑢 𝑡 = 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + ⋯ + 𝜌 𝑝 𝑢 𝑡−𝑝 + 𝜀𝑡
Com isso testaremos a seguinte hipótese nula:
𝐻0: 𝜌1 = 𝜌2 = ⋯ = 𝜌 𝑝 = 0
Ou seja, a hipótese nula remete a inexistência de
autocorrelação nos resíduos. A conclusão nesse caso seria
pela NÃO EXISTÊNCIA DE AUCORRELAÇÃO SERIAL.
43. Quebra dos pressupostos: Autocorrelação
2º - Depois vamos para o segundo passo, que é rodar a
regressão auxiliar, que consiste em rodar o modelo dos
resíduos contra seus elementos defasados e a variável
independente do modelo:
𝑢 𝑡 = 𝛼1 + 𝛼2 𝑋𝑡 + 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + ⋯ + 𝜌 𝑝 𝑢 𝑡−𝑝 + 𝜀𝑡
3º - Depois de rodada a regressão auxiliar, obtemos o seu R2
e aplicamos a seguinte estatística para obter o teste BG:
𝑛 − 𝑝 𝑅2
~ 𝑝
2
Ou seja, iremos comparar o valor obtido pelo teste BG com
uma tabela qui-quadrado com os graus de liberdade
estabelecidos pelo número de defasagens no processo
autorregressivo dos resíduos.
44. Quebra dos pressupostos: Autocorrelação
A estatística BG possui algumas observações críticas:
1) Os regressores incluídos no modelo de regressão podem
conter valores defasados do regressando Y, ou seja,
𝑌𝑡−1, 𝑌𝑡−2. O que é uma restrição complicada no Dirbin-
Watson.
2) Como notado, o teste BG é aplicável mesmo que os
termos de erro sigam um processo de média móvel (MA)
de ordem p, ou seja, que os 𝑢𝑖 sejam gerados como
abaixo:
𝑢 𝑡 = 𝜀𝑡 + 1 𝜀𝑡−1 + 2 𝜀𝑡−2 + ⋯ + 𝑝 𝜀𝑡−𝑝
3) Se na equação 𝑢 𝑡 = 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + ⋯ + 𝜌 𝑝 𝑢 𝑡−𝑝 + 𝜀𝑡
tivermos apenas uma defasagem, p=1, teremos então apenas
uma autorregressão de primeira ordem, dessa forma o teste
BG passa a ter a denominação de teste M de Durbin.
45. Quebra dos pressupostos: Autocorrelação
4) Uma defasagem no teste BG , que é o valor de p, não pode
ser especificada de antemão. É inevitável fazer
experimentações com o valor de p. Às vezes, pode-se usar os
chamados CRITÉRIOS DE INFORMAÇÃO de AKAIKE e
SCHWARZ, para selecionar o número de defasagens. O
melhor modelo será aquele que apresentar o menor valor
para os dois critérios.
5) Dado os valores da variável X e os valores defasados de u, o
teste supõe que a variância de u seja homocedástica.
Vamos então verificar a aplicação do teste BG e o teste M de
Durbin Utilizando ainda o exemplo da produtividade hora e
remuneração média.
46. Quebra dos pressupostos: Autocorrelação
Medidas corretivas da autocorrelação
Basicamente, as medidas corretivas da autocorrelação
consiste em verificar 4 importantes pontos:
1) Tentar verificar se trata-se de um caso de autocorrelação
pura e não resultado da especificação equivocada do
modelo, ou até mesmo de ambas.
2) Se for autocorrelação pura, podemos usar a
transformação adequada do modelo orignial de modo
que, no modelo transformado não tenhamos o problema
de autocorrelação (pura). Como no caso de
heterocedasticidade, teremos de usar algum tipo de
método de mínimos quadrados generalizados (MQG).
47. Quebra dos pressupostos: Autocorrelação
3) Em amostras grandes, podemos usar o método Newey-
West para obter os erros padrão dos estimadores de MQO
que estão corrigidos para a autocorrelação. Esse método na
verdade é uma extensão do de erros padrão consistentes para
heterocedasticidade de White examinado no tópico anterior.
4) Em algumas situações podemos continuar a usar o método
dos MQO.
48. Quebra dos pressupostos: Autocorrelação
Especificação equivocada do modelo versus autocorrelação
pura.
Já verificamos antecipadamente o problema da forma
funcional, mas pelo teste BG verificamos que ainda persiste o
problema da autocorrelação, isso então é um forte indício da
existência de autocorrelação pura.
Dessa forma temos que passar a verificar outros
procedimentos até chegar a correção.
49. Quebra dos pressupostos: Autocorrelação
Correção da autocorrelação pura: o método dos MQG
Para verificar o processo de correção, vamos partir do modelo
de regressão linear simples onde:
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡
E vamos supor que os resíduos sigam um processo AR(1):
𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡
O que irá definir o método que utilizaremos é conhecer ou
não esse valor do rô.
50. Quebra dos pressupostos: Autocorrelação
QUANDO O É CONHECIDO
Se o coeficiente de autocorrelação de primeira ordem for
conhecido, o problema da autocorrelação pode ser resolvido
facilmente. Se a equação da regressão simples for verdadeira
no tempo t, também será verdadeira no tempo defasado em
um período, assim:
𝑌𝑡−1 = 𝛽1 + 𝛽2 𝑋𝑡−1 + 𝑢 𝑡−1
Multiplicando a última equação por e subtraindo da
regressão no tempo t teremos:
𝑌𝑡 − 𝜌𝑌𝑡−1 = 𝛽1 1 − 𝜌 + 𝛽2 𝑋𝑡 − 𝜌𝑋𝑡−1 + 𝑣 𝑡
Onde 𝑣 𝑡 = (𝑢 𝑡 − 𝜌𝑢 𝑡−1)
Assim teríamos
𝑌𝑡
∗
= 𝛽1
∗
+ 𝛽2
∗
𝑋𝑡
∗
+ 𝑣 𝑡
51. Quebra dos pressupostos: Autocorrelação
Uma vez que o erro da equação anterior satisfaz as usuais
hipóteses de MQO, podemos aplicar o MQO às variáveis
transformadas Y* e X* e obter os estimadores MELNT. Ou
seja, essa transformação nada mais é que o MQG.
A equação anterior é conhecida também como equação em
diferenças generalizadas, ou quase equação de diferenças.
52. Quebra dos pressupostos: Autocorrelação
QUANDO O NÃO É CONHECIDO
Dada a impossibilidade de conhecermos o rô, teremos que
encontrar novas formas de corrigir a autocorrelação no
modelo. A seguir veremos alguns métodos.
O método da primeira diferença. Um vez que −1 ≤ 𝜌 ≤ 1
podemos começar das duas posições extremas. Em um dos
extremos, =0, não há autocorrelação serial (de primeira
ordem) e no outro 𝜌 = ±1, há correlação serial positiva ou
negativa.
Assim, na equação de primeira diferenças teremos:
𝑌𝑡 − 𝑌𝑡−1 = 𝛽2 𝑋𝑡 − 𝑋𝑡−1 + (𝑢 𝑡 − 𝑢 𝑡−1)
∆𝑌𝑡 = 𝛽2∆𝑋𝑡 + 𝜀𝑡
53. Quebra dos pressupostos: Autocorrelação
Quando utilizar a primeira diferença? Madalla sugere que
esse processo seja utilizado quando a estatística de Durbin-
Watson for sempre menor que o R2, ou seja, 𝑑 < 𝑅2.
Esse é o caso da regressão de remuneração e produtividade,
pois o d=0,2176 e 𝑅2 = 0,9845.
No caso pelo desenvolvimento da própria diferença, não é
comum entrar a constante no modelo, porém, geralmente
nos testes de raízes unitárias poderemos inserir a constante
assim como a componente tendência.
Vamos agora verificar como fica o modelo com a inserção da
primeira diferença.
54. Quebra dos pressupostos: Autocorrelação
O teste de Berenblutt-Webb: Existe um pequeno problema
com a primeira diferença de variáveis, é que nessa situação
temos que ter a condição de que =1. O teste que verifica
essa hipótese é o teste de Berenblutt-Webb que será
denominado por estatística g.
Algebricamente podemos encontra-lo da seguinte forma:
𝑔 =
2
𝑛
𝑒𝑡
2
1
𝑛
𝑢 𝑡
2
Onde 𝑢 𝑡 são os resíduos de MQO da regressão original (na
forma de nível e 𝑒𝑡 são os resíduos de MQO da regressão de
primeiras diferenças. Lembre-se de que na forma de primeiras
diferenças não existe o intercepto.
55. Quebra dos pressupostos: Autocorrelação
Nos recorreremos novamente a tabela Durbin-Watson para
realizar esse teste e teremos como hipótese nula:
𝐻0: 𝜌 = 1
Vamos verificar de forma prática o teste g utilizando o
exemplo da remuneração média contra a produtividade.
56. Quebra dos pressupostos: Autocorrelação
FORMAS DE ENCONTRAR O .
Temos agora que verificar algumas formas possíveis de
encontrarmos o valor de rô. Vamos a algumas delas.
* com base na estatística Durbin-Watson: Caso estejamos
impossibilitados de usar a transformação das primeiras
diferenças, porque não está suficientemente próximo a 1,
podemos a partir do teste de Durbin-Watson encontrar esse
valor de . Para entender esse processo devemos lembrar
que:
𝑑 = 2(1 − 𝜌)
Assim podemos concluir que:
𝜌 ≈ 1 −
𝑑
2
Vamos verificar isso na equação de salários
57. Quebra dos pressupostos: Autocorrelação
** O estimado pelos resíduos: a partir da regressão dos
resíduos dada pelo processo AR(1), poderemos encontrar o
valor de . Ou seja, o valor do coeficiente angular do resíduo
defasado será uma proxy do rô.
𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝑣 𝑡
58. Quebra dos pressupostos: Autocorrelação
O Método de Newey-West para corrigir os erros padrão do
MQO.
Em vez de utilizarmos o MQG, podemos corrigir os erros-
padrão para autocorrelação por um procedimento
desenvolvido por Newey e West. Essa técnica é nada mais
nada menos que uma extensão dos erros-padrão consistentes
de White. Esses erros corrigidos são conhecidos como erros
padrão consistentes para heterocedasticidade e
autocorrelação (CHA), ou simplesmente erros-padrão de
Newey-West. Tal teste é válido apenas para grandes amostras
e pode não ser adequado para pequenas amostras.
Vamos ver no Gretl como estimar a regressão de salários
fazendo uso desse método.