1
División de Ciencias Sociales y Humanidades
Licenciatura en Economía
Algunas notas sobre autocorrelación y
heteroscedasticidad
UNIVERSIDAD AUTONOMA METROPOLITANAUNIDAD IZTAPALAPA
2
Introducción
3
A.1. Heteroscedasticidad
4
Naturaleza de la heteroscedasticidad
Un supuesto fundamental del MCRL es que la varianza de cada término de
error ui, condicional a los valores seleccionados de las variables explicativas,
es algún número constante σ2; éste es el supuesto de homoscedasticidad.
222
1 )(),...,|( ikii uEXXuEuE
para cada i2)( iuVar
En otras palabras, la heteroscedasticidad es la existencia de una varianza
no constante en las perturbaciones aleatorias de un modelo econométrico.
El supuesto de homocedasticidad o varianza de los errores constante, es
difícil de justificar en algunas situaciones.
…(1)
5
Causas frecuentes de heteroscedasticidad
Variables explicativas cuyo recorrido tiene una gran dispersión
respecto a su propia media.
Presencia de datos atípicos.
Omisión de variables relevantes en el modelo especificado.
Cambio de estructura.
Incorrecta transformación de los datos (uso de variables no
relativizadas).
Uso de una forma funcional incorrecta (por ejemplo, modelos
lineales frente a modelos log-lineales).
Asimetría en la distribución de una o más variables explicativas.
6
Efectos de la heteroscedasticidad sobre el MCRL
A. Incorrecta estimación de los parámetros.
El estimador de MCO sigue siendo lineal, insesgado y consistente pero deja
de ser eficiente (varianza mínima).
La homocedasticidad del termino de error no juega ningún papel relevante
en la insesgadez o la consistencia; propiedades que se alteran ante la
presencia de regresores estocásticos o por la omisión de variables
relevantes.
B. Cálculo incorrecto de las varianzas y parámetros ineficientes
La varianza del estimador de MCO, además de no ser mínima, no pueden
calcularse con la expresión utilizada en presencia de homocedasticidad:
12ˆvar
XXI T
u …(2)
7
Efectos de la heterocedasticidad sobre el MCRL
En otras palabras, hacer una regresión estándar por MCO e ignorar (o no
conocer) la existencia de la heteroscedasticidad, producirá una varianza de
.....sesgada.
En presencia de heteroscedastidad, el método de Mínimos Cuadrados
Generalizados (MCG) produce estimadores MELI; ya que ante la violación
del supuesto de varianza constante y la propiedad de varianza mínima, los
resultados de MCO sobreestiman consistentemente el verdadero error
estándar.
En virtud de lo anterior, las conclusiones o inferencias que obtengamos
serán sesgadas. Básicamente, nuestros cálculos de “t” ya no se distribuirán
como una “t” y el contraste “F” ya no se distribuirá como una “F”, es decir
dan resultados imprecisos.
8
Cómo se detecta la presencia de Heteroscedasticidad
Contrastes numéricos (paramétricos)
Prueba Breusch-Pagan-Godfrey
La idea es comprobar si se puede encontrar un conjunto de variables Z
(variables independientes) que sirvan para explicar la evolución de la
varianza de los residuos, estimada ésta a partir del cuadrado de los errores
del modelo inicial sobre el que se pretende comprobar si existe o no
heterocedasticidad.
imimiii
i ZZZkn
u
22110
22 ˆ
ˆ
Planteamiento de hipótesis
0: 210 mH
Ho: Varianza constante para todo i H1: Varianza no constante para todo i
0: 211 mH
Ho: Residuos homocedasticos H1: Residuos heteroscedasticos
…(3a)
9
Cómo se detecta la presencia de Heteroscedasticidad
Procedimiento general de Breusch-Pagan-Godfrey
1. Estime (3a) mediante MCO y obtenga los residuos
2. Obtenga el estimador de la varianza de los residuos
3. Construir la siguiente variable:
4. Hacer la regresión de pi sobre las variables Z como:
5. Obtener la SCE (Suma de Cuadrados Explicada) y definimos:}
6. Asumimos que se distribuye como con (m-1) gl
7. Si el valor de excede al valor crítico en el nivel de significancia
seleccionado, se rechaza la hipótesis de homoscedasticidad; de lo
contrario, no se rechaza.
Comando en stata: hettest y xttest3 (prueba modificada de Wald)
2
2
ˆ
ˆ
i
i
up
imimiii ZZZp 22110
…(3b)
…(3c)
2
SCE …(3d)
2
2
10
Cómo se detecta la presencia de Heteroscedasticidad
Prueba general de heteroscedasticidad de White
La prueba general de heteroscedasticidad, propuesta por White, no es
sensible al supuesto de normalidad. Consideremos el siguiente modelo de
regresión:
iikkiiii uXXXXY 3322110 …(4a)
Ho: Residuos homocedasticos
H1: Residuos heteroscedasticos
Planteamiento de hipótesis
11
Procedimiento general de White
1. Estime (4a) mediante MCO y obtenga los residuos
2. Efectúe la siguiente regresión (auxiliar):
3. Se establece el estadístico de prueba, considerando que el tamaño de la
muestra (n) multiplicado por R2 (obtenido de la regresión auxiliar), sigue
una distribución ji cuadrada con gl igual al número de regresoras (sin el
término constante) en la regresión auxiliar:
4. Si el valor ji cuadrada obtenido excede al valor ji cuadrada crítico con el
nivel de significancia seleccionado, la conclusión es que hay
heteroscedasticidad.
Comando en stata: imtest, white
iikikkiikk
kikkikkikii
XXXX
XXXXu
11211
22
11110
2ˆ
…(4b)
Cómo se detecta la presencia de Heteroscedasticidad
2
k
2 ~ Rn …(4c)
12
Soluciones al problema de Heteroscedasticidad
Cuando se conoce
El método más directo de corregir la heteroscedasticidad es con el de
Mínimos Cuadrados Ponderados, pues los estimadores obtenidos mediante
este método son MELI.
2
i
Cuando no se conoce
Empleamos el procedimiento de varianzas y errores estándar consistentes
con heteroscedasticidad de White.
La estimación de varianzas y errores estándar con la corrección de
heteroscedasticidad de White en forma simultánea con las varianzas y los
errores estándar de MCO usuales (errores estándar robustos); permite que
las inferencias estadísticas sean asintóticamente válidas (para muestras
grandes) sobre los verdaderos valores de los parámetros.
2
i
13
Soluciones al problema de Heteroscedasticidad
Genéricamente…
Si la varianza del error es proporcional a Xi, entonces la transformación de
raíz cuadrada puede solucionar el problema de varianza no constante:
La transformación logarítmica como
con gran frecuencia reduce la heteroscedasticidad cuando se compara con
la regresión:
i
ii
ii
i
X
uX
XX
Y 10
1 …(5)
iikkiii uXXXY lnlnlnln 22110
iikkiii uXXXY 22110
…(6)
…(7)
14
A.2. Autoccorelación
15
Naturaleza de la Autocorrelación
En los estudios de corte transversal, habitualmente, los datos se recopilan
con base en una muestra aleatoria de unidades transversales; de modo que
no existe razón para creer que el término de error de una unidad de
observación esté correlacionado con el término de error de otra unidad de
observación.
Si por casualidad se observa dicha correlación en unidades transversales,
ésta se conoce como autocorrelación espacial (correlación contemporánea).
En contraste, si trabajamos con datos de series de tiempo, las
observaciones siguen un ordenamiento natural respecto del tiempo, de
modo que es muy posible que las observaciones sucesivas muestren
intercorrelaciones
16
Naturaleza de la Autocorrelación
El MCRL supone que el término de error relacionado con una observación
cualquiera no recibe influencia del término de error relacionado con
cualquier otra observación. Esto es, el MCRL supone que no existe
autocorrelación (correlación contemporánea) en las perturbaciones ui.
Simbólicamente tenemos:
0)(),|,cov( jijiji uuEXXuu
ji con
Sin embargo, si existe tal dependencia, hay autocorrelación (correlación
contemporánea), esto es:
0)(),|,cov( jijiji uuEXXuu
ji con
…(8a)
…(8b)
17
Causas frecuentes de Autocorrelación
Omisión de variables relevantes. Las variables omitidas forman parte
del término de error; por tanto, si hay correlación entre distintas
observaciones de las variables omitidas, también habrá correlación entre
los distintos valores de los términos de error.
Sesgo de especificación (forma funcional incorrecta). Si usamos un
modelo inadecuado para describir las observaciones (v.gr. un modelo
lineal cuando en realidad se debería usar un modelo cuadrático),
notaremos que los residuos mantienen un comportamiento no aleatorio.
Transformación inadecuada de los datos. Algunas transformaciones
del modelo original podrían causar la aparición de autocorrelación en los
residuos del modelo transformado (incluso cuando el modelo original no
presentase problemas de autocorrelación).
18
Rezagos. Una modalidad de trabajo con series tiempo son los modelos
de regresión que incluyen no sólo valores actuales sino también valores
rezagados (pasados) de las variables explicativas y dependiente. La
inclusión u omisión de estas variables, retardos, se reflejara en el término
de error resultando en un patrón sistemático debido a la influencia de
dichas variables.
No estacionariedad. La existencia de tendencias o ciclos en los datos
(variables económicas no estacionarias alrededor de su media) impide
que el comportamiento de la variable endógena sea explicado por las
exógenas, siendo el término de error el que recoge ese ciclo o tendencia.
Causas frecuentes de Autocorrelación
19
Consecuencias de la Autocorrelación
Es importante aclarar que los supuestos de no autocorrelación y homocedasticidad
son necesarios para demostrar que los estimadores de MCO son insesgados y
consistentes.
No obstante, la estimación MCO deja de ser eficiente y la inferencia estadística se ve
afectada, debido a que se viola la propiedad de varianza mínima.
La matriz de varianza-covarianza de los residuos es subestimada. Como
resultado, es probable que se sobreestime R2.
Los intervalos de confianza pierden robustez, son sobreestimados
(autocorrelación negativa) o subestiman (autocorrelación positiva).
Las pruebas de significancia t y F usuales dejan de ser válidas y, de aplicarse, es
probable que conduzcan a conclusiones erróneas sobre la significancia estadística
de los coeficientes de regresión estimados.
Si la autocorrelación es positiva, se tiende a cometer error tipo I, si el tipo de
autocorrelación es negativa, se tiende a cometer error tipo II.
20
La prueba más conocida para detectar correlación serial es la de Durbin y
Watson, mejor conocida como estadístico d de Durbin-Watson, que se
define como
Cómo detectar la presencia de Autocorrelación
Contrastes numéricos (paramétricos)
Prueba de Durbin-Watson
nt
t
t
nt
t
tt
u
uu
d
1
2
2
2
1
ˆ
ˆˆ…(9)
La ecuación (9), es el cociente entre la suma de las diferencias al cuadrado
de residuos sucesivos sobre la SCR.
21
Cómo detectar la presencia de Autocorrelación
Supuestos del estadístico DW
El modelo de regresión incluye el término del intercepto.
Las variables explicativas son no estocásticas, es decir, son fijas en
muestreo repetido.
Las perturbaciones ut se generan mediante un esquema autorregresivo
de primer orden. Por tanto, no se pueden utilizar para detectar esquemas
autorregresivos de orden superior.
El término de error ut está normalmente distribuido.
El modelo de regresión no incluye valor(es) rezagado(s) de la variable
dependiente como una variable explicativa, en caso contrario la prueba
es inaplicable a modelos del siguiente tipo:
No hay observaciones faltantes en los datos.
tttkktttt uYXXXXY 13322110
22
H0: No hay autocorrelación de primer orden
H1: Existe autocorrelación de primer orden
Planteamiento de hipótesis
Cómo detectar la presencia de Autocorrelación
Regla de decisión
Comando de STATA: estat dwatson o dwstat
(primero deberá realizarse la regresión del modelo objetivo)
23
Prueba LM de Breusch – Godfrey
Cómo detectar la presencia de Autocorrelación
El estadístico, a diferencia del contraste de Durbin-Watson, es una prueba
para autocorrelación de orden superior porque permite:
Regresoras no estocásticas, como los valores rezagados de la regresada.
Esquemas autorregresivos de orden mayor, como el AR(1), AR(2), etc.
Promedios móviles simples o de orden superior de los términos de error.
Grosso modo, la prueba LM de Breusch-Godfrey consiste en estimar una
regresión auxiliar con MCO y en hacer un contraste sobre los parámetros de
esta regresión
H0: No hay autocorrelación de ningún orden
H1: Existe autocorrelación
Planteamiento de hipótesis
0: 210 pH
0: 211 pH
24
Procedimiento de Breusch – Godfrey
Cómo detectar la presencia de Autocorrelación
Estimar el modelo original (en niveles o logarítmico) mediante MCO y
obtenga los residuos .
Haga la regresión sobre la Xt original y , donde estas
últimas son los valores rezagados de los residuos estimados en el paso
1; y obtenga el R2 de la regresión auxiliar.
tu
ttkktttt uXXXXY 3322110
tu pttt uuu ˆ,,ˆ,ˆ 21
t
p
i
pttkkttt vuXXXu ˆˆˆ1
22110
Una desventaja de la prueba BG es que el valor de p, la longitud del rezago,
no puede especificarse a priori, lo que hace inevitable algún grado de
experimentación con el valor de p. Se recomienda utilizar los criterios de
información de Akaike y Schwarz para seleccionar la longitud del rezago.
25
Regla de decisión
Cómo detectar la presencia de Autocorrelación
Si el valor del estadístico excede el valor crítico ji cuadrada con el nivel de
significancia seleccionado, podemos rechazar la hipótesis nula, en cuyo
caso, por lo menos una ρ es significativamente diferente de cero.
El estadístico sigue una distribución ji cuadrada, según:
2
p
2 ~ Rpn
Comando de STATA: estat bgodfrey o bgodfrey
(primero deberá realizarse la regresión del modelo objetivo)
26
Soluciones al problema de Autocorrelación
Cuando se conoce ρ
Cuando no se conoce ρ
Utilizar el método de Mínimos Cuadrados Generalizados Factibles (MCGF)
en presencia de autocorrelación, AR(1), mediante la transformación de
Prais-Winsten
Utilizar el método de primeras diferencias, estimar mediante MCO, esto es:
122211111 ttkttkktttttt uuXXXXXXYY
tktkttt XXXY 2211
Comando de STATA: prais varlist, corc ssesearch
27
Cuando no se conoce ρ
Utilizar el método Newey-West para corregir los errores estándar de MCO.
Se trata de una generalización de los errores estándar consistentes con
heteroscedasticidad de White (consistentes con heteroscedasticidad y
autocorrelación).
Soluciones al problema de Autocorrelación
Comando de STATA: newey varlist, lag(#)