Prueba d de Durbin-Watson y Breusch - Pagan - Godfrey
-
Upload
sol-bigoni -
Category
Documents
-
view
57 -
download
2
description
Transcript of Prueba d de Durbin-Watson y Breusch - Pagan - Godfrey
-
DETECCIN DE LA AUTOCORRELACIN
PRUEBA DE DURBIN-WATSON
PRUEBA DE BREUSCH-GODFREY (BG)
INTEGRANTES:
WLADIMIR HEREDIA
CARLOS LPEZ
-
Prueba d de Durbin-Watson
-
El estadstico d de Durbin-Watson se define como:
= ( 1)
2==2
2=
=1
SUPUESTOS EN LOS CUALES SE BASA:
1. El modelo de regresin incluye el termino de intercepto.
2. Las variables X son no estocsticas.
3. Las perturbaciones se generan bajo el esquema autorregresivo de primer orden:
= 1 +
4. Distribucin normal del termino de error .
-
5. El modelo de regresin no incluye valor(es) rezagado(s) de la variable dependiente como una explicativa.
= 1 + 22 + 33 + + + 1 +
6. No hay observaciones faltantes en los datos.
No hay un valor crtico nico para rechazar o aceptar la Ho de que no hay correlacin serial de primer orden en la perturbaciones .
Se propone un limite inferior y un limite superior , cuando el valor cae por fuera de estos valores se puede decidir correlacin serial positiva o negativa.
-
Estos limites dependen del numero de observaciones n y del numero de variables explicativas, siendo los lmites de d 0 y 4.
Resolviendo la ecuacin del valor de d:
=
2 + 12 2 1
2
Como 2 y 1
2 difieren solo en una observacin, son aproximadamente iguales, entonces tenemos:
2(1 1
2 )
Definimos :
= 1
2
-
Reemplazando en la ecuacin anterior tenemos:
2(1 )
Sabemos que 1 1, esto implica que: 0 4.
Mecanismo para la prueba Durbin-Watson:
1. Correr la regresin por MCO y obtener sus residuos.
2. Calcular d.
3. Determinar los valores crticos y .
4. Reglas de decisin:
Ho: No hay autocorrelacin positiva.
Ho*: No hay autocorrelacin negativa.
-
Esta prueba tiene una gran desventaja, cuando cae en la zona de indecisin no se puede concluir si hay o no autocorrelacin.
En el caso de que el valor d estimado cae en la zona de indecisin, se propone la prueba d modificada:
Con el nivel de significancia ,
1. 0: = 0 frente a 1: > 0 si el valor estimado < rechace Ho. Correlacin positiva estadsticamente significativa.
2. 0: = 0 frente a 1: < 0 si el valor estimado (4 ) < rechace Ho. Autocorrelacin negativa estadsticamente significativa.
3. 0: = 0 frente a 1: 0 Rechace Ho en el nivel 2 si < o (4 ) < . Autocorrelacin positiva o negativa estadsticamente significativa.
-
Un estadstico d significativo no necesariamente indica autocorrelacin mas bien este puede indicar omisin de variables.
Si un modelo contiene valores rezagados de la regresada, el valor d a menudo se aproxima a 2 lo cual indicara que no hay autocorrelacin. (Prueba h)
Si los trminos del error no son NIID (normalmente distribuidos) esta prueba d no es tan confiable, sin embargo si la muestra es grande se puede utilizar esta prueba, por lo que se demuestra que:
(1 1
2) (0,1)
El estadstico d sigue una distribucin normal estandarizada, se deduce que:
(0,1)
-
Finalmente el problema mas grave de la prueba d es el supuesto de que las regresoras son no estocsticas(valores fijos en muestras repetidas), por lo tanto la prueba d no es valida en muestras finitas o pequeas y grandes.
Ejemplo:
Utilizamos 33 datos para un anlisis en el Ecuador se corre la siguiente regresin:
= 1 + 2 + 3 +
Donde:
= Logaritmo de las exportaciones con precios actuales de mercado.
= Logaritmo del PIB Real.
= Logaritmo del Tipo de Cambio Real.
-
Procedimiento:
1. Corremos la regresin y obtenemos sus residuos.
= 46,9428 + 2,7676 + 0,5368
2 = 0,692449
1 = 0,2345066
2. Calculamos d.
2(1 1
2 )
2(1 0,2345066
0,692449)
1,235963
3. Determinamos los valores crticos.
= 1,321 y = 1,577
-
4. Regla de Decisin:
Ho: No hay autocorrelacin positiva.
Ho*: No hay autocorrelacin negativa.
<
Conclusin:
Dado un nivel de significancia del 5%, existe evidencia estadstica suficiente para rechazar la Ho de que no existe autocorrelacin positiva, debido a que el d estimado es menor que el inferior.
-
Dependent Variable: LOG(X)
Method: Least Squares
Date: 04/07/14 Time: 21:19
Sample: 1980 2012
Included observations: 33 Variable Coefficient Std. Error t-Statistic Prob. LOG(Y) 2.767621 0.107001 25.86550 0.0000
LOG(TCR) 0.536795 0.108824 4.932679 0.0000
C -46.94278 2.851936 -16.45997 0.0000 R-squared 0.960321 Mean dependent var 22.48845
Adjusted R-squared 0.957676 S.D. dependent var 0.738483
S.E. of regression 0.151926 Akaike info criterion -0.844333
Sum squared resid 0.692449 Schwarz criterion -0.708287
Log likelihood 16.93150 Hannan-Quinn criter. -0.798558
F-statistic 363.0370 Durbin-Watson stat 1.209176
Prob(F-statistic) 0.000000
-
Prueba de Breusch-Godfrey (BG)
-
Generalidades
Es conocida tambien como prueba ML (se basa en el principio de multiplicador de Lagrange).
Es vlida asintticamente.
Evita algunas limitaciones que tiene la prueba de Durbin-Watson.
-
Caractersticas
Es una prueba ms general que la de Durbin-Watson ya que permite:
El uso regresoras no estocsticas.
Esquemas autorregresivos AR de orden mayor.
Esquemas MA (promedios mviles) de orden mayor de trminos de error con ruido blanco.
-
Ejemplo
Suponemos un modelo de 2 variables por simplicidad solamente.
= 1 + 2 + (1)
Supngase que sigue el siguiente esquema AR(p):
= 11 + 22 + + + (2)
Donde, es un trmino de error de ruido blanco
-
Ejemplo
La hiptesis nula 0 a ser probada es:
0 = 1 = 2 = = = 0
Es decir, no existe correlacin serial de ningn orden.
-
Pasos a seguir
1) Estmese (1) por MCO y obtngase
2) Hgase la siguiente regresin y obtenga su 2:
= 1 + 2 + 1 1 + 2 2 + + +
Con n observaciones debido a los rezagos.
Ntese que se introducen las regresoras originales( en este caso solo hay una). Se las introduce para permitir que las sean no estocsticas.
-
Pasos a seguir
3) Si el tamao de la muestra es grande, Breusch y Godfrey han demostrado que:
2~2
Con grados de libertad.
Si 2 > : Existe evidencia de autocorrelacin ya que al menos uno de los coeficientes es significativamente diferente de cero.
-
Puntos Prcticos sobre la Prueba BG
1) Los regresores incluidos en el modelo pueden ser valores rezagados de la variable dependiente: 1, 2, etc.
2) La prueba BG es aplicable an si el trmino de perturbacin sigue un proceso MA de orden p. Es decir que los tienen la forma:
= 11 + 22 + + +
-
Puntos Prcticos sobre la Prueba BG
3) Si = 1en la ecuacin (2) significando autocorrelacin de primer orden, entonces la prueba BG se conoce con el nombre de prueba M de Durbin.
4) Una desventaja de BG es que el valor de no puede especificarse a priori. Hay que experimentar y usar los criterios de informacin para encontrar la longitud del rezago.
-
Breusch-Godfrey Serial Correlation LM Test: F-statistic 4.128630 Prob. F(1,29) 0.0514
Obs*R-squared 4.112599 Prob. Chi-Square(1) 0.0426
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 04/07/14 Time: 23:41
Sample: 1980 2012
Included observations: 33
Presample missing value lagged residuals set to zero. Variable Coefficient Std. Error t-Statistic Prob. LOG(Y) -0.030659 0.102935 -0.297851 0.7679
LOG(TCR) -0.061808 0.107933 -0.572647 0.5713
C 1.028482 2.760728 0.372540 0.7122
RESID(-1) 0.367989 0.181106 2.031903 0.0514 R-squared 0.124624 Mean dependent var 8.17E-15
Adjusted R-squared 0.034068 S.D. dependent var 0.147102
S.E. of regression 0.144575 Akaike info criterion -0.916829
Sum squared resid 0.606153 Schwarz criterion -0.735434
Log likelihood 19.12768 Hannan-Quinn criter. -0.855795
F-statistic 1.376210 Durbin-Watson stat 1.673150
Prob(F-statistic) 0.269696
-
El Ejercicio con STATA:
H0: no serial correlation 1 6.988 1 0.0082 lags(p) chi2 df Prob > chi2 Breusch-Godfrey LM test for autocorrelation
. estat bgodfrey
_cons -46.94277 2.851926 -16.46 0.000 -52.76718 -41.11836 lnTCR .536796 .108824 4.93 0.000 .3145479 .7590442 lnY 2.767621 .1070001 25.87 0.000 2.549098 2.986144 lnX Coef. Std. Err. t P>|t| [95% Conf. Interval]
Total 17.451419 32 .545356845 Root MSE = .15193 Adj R-squared = 0.9577 Residual .692444227 30 .023081474 R-squared = 0.9603 Model 16.7589748 2 8.37948741 Prob > F = 0.0000 F( 2, 30) = 363.04 Source SS df MS Number of obs = 33
. regress lnX lnY lnTCR
delta: 1 unit time variable: tiempo, 1980 to 2012. tsset tiempo
. rename var8 tiempo