Post on 14-Mar-2020
( i' r'fTP v ... l. ... ,\).'
PImSEN'rACION
\ t:
,3472.4
El presente material ofrece los lineamientos generales presentados en las sesiones: 11 Estadisticas Exploratorias 11 y " Estimación Econométrica " durante el 11 CURSO SOBRE EL PAPEL DE LA SOCIOECONOMIA EN LA GENERACION DE TECNOLOGIA AGRICOLA ", realizado en CIAT, entre Septiembre 16 y Octubre 11 de 1991.
Se pretende ofrecer a los usuarios una copia de los acetatos que se proyectan, con el fin de que puedan registrar en ella explicaciones adicionales, comentarios, ejemplos o cualquier elemento que contribuya a la claridad del tema considerado. De esta manera, al ser un material para uso paralelo a una explicación, permite a quien vuelva sobre sus páginas recordar un concepto o reconsiderar un ejemplo en forma directa.
Debido a la diferencia entre participantes en téminos de conocimientos estadisticos, este manual debe plantear un bosquejo del tema; permitiendo detenerse o avanzar rápidamente según el grupo lo requiera. Por estas razones, no recomendamos su uso para alguien que no haya estado presente en las exposiciones. Los enunciados de los conceptos son muy generales y al no existir interacción con el expositor, no hay la posibilidad de hacer correciones, ampliaciones, o de ofrecer mayor claridad sobre puntos especificos.
Esta constituye la primera versión del material y está sujeta a revisión. si usted tiene sugerencias, nos seria de mucha utilidad conocerlas.
Deseamos agradecer la colaboración especial de Luis Roberto Sanint con respecto a la definición de temas, y a Marta Elena Carvajal en la transcripción.
SIGNIFICADO DEL TERMINO LINEAL
FORMAS FUNCIONALES MAS COMUNES
MODELO DE REGRESION LINEAL CON 2 VARIABLES
Objetivo del análisis de regresión
Bases conceptuales del método
Precisión de los estimadores de cuadrado mínimos
Calidad del ajuste
I
SUPUESTOS SOBRE LOS CUALES SE APOYA EL METODO DE
REGRESION POR MINIMOS CUADRADOS
VIOLACION DE LOS SUPUESTOS, DIAGNOSTICO,
IMPLICACIONES Y MEDIDAS REMEDIALES
SUPUESTO ADICIONAL: SUPUESTO DE NORMALIDAD
•
•
•
PRUEBAS DE HIPOTESIS
PREDICCION MEDIA
REGRESION LINEAL MULTIPLE
Objetivos del análisis
Calidad del ajuste
SUPUESTOS
2
VIOLACION DE LOS SUPUESTOS, DIAGNOSTICO,
IMPLICACIONES Y MEDIDAS REMEDIALES
,.
¿QUE ES ECONOMETRrA?
Literalmente, E'cOIlOlllctrÚJ significa "medición econ6mica". Si bien es cierto que la medición es una parte importante de la econometría, el campo de acción de esta disciplina es mucho más amplio, como puede verse en las siguientes citas.
La econometría, que es el resultado de cierla posición sobre el papel de la econom (a, consiste en la aplicación de la estadistica matemática a datos económicos, para dar apoyo empfrico a los modelos construidos por la economía matemática, y para obtener rcsu Itados numéricos I _
... la econometrfa puede ser definida como el análisis cuantitativo de fenómenos econ6m icos reales basados en los desarrollos simultáneos de la observación y la teoría, relacionados mediante métodos apropiados de inferencia1 _
La econometría puede definirse como la ciencia social en la cual las herramientas de la teoría económica, las matemáticas y la inferencÍll estadística se aplican al análisis de los fenómenos económ icos) .
La econometría se refiere a la determinación empírica de las leyes econ6micas 4 _
I Gcrhard Tintncr, ¡\fe/hodn/oJO' ofMa/hcma/ica/ Economícs and Econometrics, Tilo Univcrsity of Chicago I'res>, Chkago, 1968, p. 74.
11'. A. Samuchon, T. C. Koopman!, y J. R. N. Stone, "Repon of me Evaluativo Commitlce fOI
Econometrica." é:rOllomerrica, vol. 22, No. 2, abril 1954, pp. 141-146. 3 A!lIt", S. G()ldb~rl'cr, Ecolloltleuic Thcory, ¡ohn Wilcy & Sons, Ine., Ncw York, 1964, p. l. 4 11. Theíl. ¡'rille/files "f l:'crJt/CJlllttrics, John \Vítoy & 5orl$, Ine., Ncw York, 1971, p. 1,
3
------------- ------ - - -
(1)
(2)
(3)
(4)
(5)
f
METODOLOGIA DE LA ECONOMETRIA
Teor(a económica
-1-
Modelo cconométrico ,le la teoría
~ Recolección de cifras apropiadas
~
Estimación de los parámetros del modelo j
In fcrencía estad ística
t. Aceptar la teorfa si las cifras
(datos) SOI1 compatibles con la tcoría
Rechazar la teoría sí las cifras (datos) 110 SOIl compatibles con la teoría
~
Predicción l
Revisión de la leoría o teoría nueva
l Para la verificación, seguir
los pasos (2) a (5)
4
5
SIGNIFICADO DEL TERMINO LINEAL
Q
Relación lineal p
Linealidad en las variables:
y es una función lineal de X; se refiere a que la relación tiene la
representación geométrica de una recta.
Se dice que Y es una función lineal de X si X aparece con una potencia de
1 (o sea que términos como X2, ..rx: In(X) no aparecen ).
Además X no está multiplicada ni dividida por otra variable.
y = bo + b1 X
6
linealidad en los parámetros:
y es una función lineal en los parámetros, es decir en los BI pudiendo ser
o no lineal en X
En este sentido
1.
es lineal en las variables y en los parámetros.
1
Q
• •
/'
Relación curvilínea.
Es lineal en los parámetros y no lo es en la variable
3. Y = Bo + ~ X
No es lineal en los parámetros, y si lo es en la variable.
FORMAS FUNCIONALES MAS COMUNES
Existen modelos lineales en los parámetros que no lo son en las variables,
pero mediante algunas transformaciones pueden volverse lineales en ambos.
Algunos de ellos son:
Modelos log-Iog o modelos de elasticidad constante
y
'----------x Precio
(a)
In r
In Y. 'n/Jo -el In XI
'-----------111 X Precio
(b)
Modelos dI! cbsticidad constante.
exp = base de los logaritmos naturales = 2.718
9
In ( VI ) = In Bo + 8, In ( X¡) + U¡
8, = elasticidad de V con respecto a X
8, = cambio porcentual en Y asociado con un cambio porcentual en X
81 = (dy I y ) I ( dx Ix)
Características: Se supone que la elasticidad no cambia
80 = exp ( a.) resulta sesgado
10
Modelos semilogarítmicos
..... .r ... c:: o
'!::l !l ... o "'" e ....
¡-
L......---------x Tiempo
(a)
1" y
~
'"' e ::>
't) .;:: w ~ -t:.. ~ ~
L----------x Tirmpo
(b)
Modelo de crecimiento porcentual con!lantc
11
En ellos la variable X º la variable Y está expresada en términos
logarítmicos.
12
CASO 1
. correspondiente al modelo en variables originales:
VI = exp (ao) • exp (a, X;) . exp (U;)
-VI = A . exp(a 1 X;) . exp (UI) A = exp ( 0:0 )
VI = A. B". eU B = exp ( a, )
13
CARACTERlSTICAS
1X1 = Cambio relativo en Y / cambio absoluto en X
recibe el nombre de modelo de crecimiento constante ( por cada unidad X,
crece un porcentaje constante ).
Elasticidad de Y con respecto a X = IX 1 • X
14
CASO 2
CARACTERISTICAS
81 = Cambio absoluto en Y / cambio relativo en X
-elasticidad de Y con respecto a X = 81 / y
MODELOS INVERSOS O RECIPROCaS
,f! 1l 6 o 2' e 1;; O
U
y
CARACTERISTICAS
El valor 80 es la asíntota
Producción
elasticidad de Y con respecto a X = - ( xY )'1
15
ALGUNAS FUNCIONES DE USO COMUN y SUS ELASTICIDADES
Lineal
Cuadrática
Log-Iag
Semilog
Lag inverso
Inversa
Lag cuad.
Expon
Funciones
y = a + bx
y = a + bx + CX2
In y = a + b[ln x]
y = a + b[ln x]
In y = a + b j x
y=a+bjx
In y = a + b[ln x] + c[ln X]2
In y = a + bx
Elasticidades
e = bx j y
e = (b + 2cx) x j y
e = b
e = b j Y
e = -b j x
e = -b j xy
e = b + 2 c[ln x]
e = bx
16
17
MODELOS DE REGRESION LINEAL CON DOS VARIABLES
Existen varios métodos de estimación, pero el más usado es el de mínimos
cuadrados ordinarios por sus propiedades estadísticas y facilidad relativa
de cálculo.
YI = valor de la variable de respuesta (dependiente). Valor observable
x; = valor de la variable independiente. Valor observable
U¡ - perturbación estocástica o término de error estadístico. Valor no
observable
Variable que resume todas las variables omitidas
Bo ,B1 = parámetros desconocidos pero fijos llamados coeficientes de
regresión
BQ = intercepto. Refleja el valor promedio de Y, cuando X = O
81 = pendiente. Representa el cambio en Y por cada unidad de
incremento en X
y
(r)
A
11. U-______________ ~ __ -------------x
18
19
OBJETIVO DEL ANALlSIS DE REGRESION
Estimar la función de regresión poblacional
con base en la función de regresión muestral
donde el = error o residuo en la evaluación muestra!. Es análogo al
concepto de U1
20
BASES CONCEPTUALES DEL METODO
Hemos dicho que:
.A -'" YI = Bo + BI XI + el
A
YI == Y, + e,
Valor verdadero - valor estimado + error o residuo
error = valor verdadero - valor estimado
J' y )'
(ti)
(a) Hcgn:sióll de r sohre x; (n) regresión de .l; sobre y: ¡e) n:gresiún llrtogon:d,
DIFERENCIA ENTRE LA REGRESION DE y SOBRE X
Y
DE X SOBRE Y
y
15
• lO •
•
Regresión de le sobre 1
5 10 15 x
RecIas de regresión de )' sobre :c y :c sobre y.
21
22
Objetivo: encontrar un .. Valor estimado .. que minimice la suma de
cuadrados de los errores.
/' 2 81 = cov ( X, Y ) / S x
y
"
• •
I I I I I '. I I I ¡
FRM
L----::---!:------:':----:l:------x x, Xl X, X.
Criterio de los cuadrados mínimos
MODELO DE REGRESION A TRAVES DEL ORIGEN
el intercepto no aparece
En este caso
0'2 = E el2 I (N· 1 )
B, = E X¡ Y1 I E X¡2
Nota: E el no necesariamente = O
23
24
Una vez obtenidos los estimadores de los m[nimos cuadrados, puede
ajustarse la regresión que posee las siguientes propiedades :
1. La línea de regresión pasa por los valores X • e I Y
;::::-2. El valor promedio de Y estimado ( Y ) es igual al valor promedio de
y observado ( Y )
3. El promedio de los residuos es O
4. Los residuos no están correlacionados con el valor predicho de
'" Y¡ (Y¡)
5. Los residuos no están correlacionados con Xi
PRECISION DE LOS ESTIMADORES DE CUADRADOS MINIMOS
Estadísticament~, precisión está asociada con error eslandar.
Var ( Bo) = [ 02 III 2 ] I ( N Il (X¡ - X )2 )
Var ( B1 ) = 02 I Il ( X¡ - X )2
Si Y = BI X
a 2 = Il el2 I ( N - 1 )
Var ( B1 ) = a2 I Il X¡2
Nota: Il el puede ser diferente de O
25
MODELO GENERADOR DE lOS DATOS , 1500 + 200llXl + 3JEX2 + :500lEU DONDE U SE HA GENERADO CON RANNOR
ODS Xl X2 U Yl
1 20 60 -1.34286 5277 .14 2 30 110 -0.52040 7673.88 :5 40 80 0.39375 9858.12 4 50 100 0.51144 11953.43 5 60 70 -0.05042 13694.87 6 70 40 -0.02216 15613.35 7 80 80 -0.41586 17615.24 8 la 10 0.18234 3584.70 9 90 50 1.67943 20153.83
la 100 40 -2.47241 20871.1.28
11 120 30 -0.34063 25487.1.11 12 130 20 0.34550 27663.65
13 140 40 1.061.185 29940.65
14 150 50 -2.34187 30947.44 15 160 10 -0.89694 33260.92
16 170 40 -0.49987 35470.04 17 180 30 -1.87542 37027.37 18 190 20 0.94159 39842.48
19 200 40 -1.46312 41181.06
20 210 60 1.02777 43988.33 21 220 80 0.46616 45879.85 22 230 100 0.72639 48017.92 23 240 90 0.88455 50035.36
24 250 80 0.42881 51868.64
25 260 70 -1.65398 53213.81
26 270 30 -1.51764 55134.71
27 ?'l0 50 -2.70201 56839.40
28 290 40 0.33685 59721.05
29 300 20 0.89743 61829.23
MODEL: MODEll DEPENDENT VARIABLE. Yl
SOURCE
MODEL ERROR e TOTAL
ROOT MSE DfP MEAN C.V.
VARIABLE lJF
INTERCEP 1 Xl 1
DF SQUARES SQUARE
1 8877976146.5 8877976146.5 27 4026259.1395 149120.70887 28 8882002405.6
- 386.16151 R-SQUARf 32884.57189 ADJ R-SQ
1.17429
PARAMETER ESTIMATES
F VALUE
59535.501
0.9995 0.9995
PARAMETER STANDARD T FOR HO.
PROIl>F
0.0001
ESTIMATE ERROR PARAMETER=O PRoa > !TI
1623.889962 146.82076575 11. 060 0.0001
199.682770 0.81837544 243.999 0.0001
26
MODELO GENERADDR DE lOS DATOS : 1500 + 200-Xl + :S-X2 + 300-U DONDE U SE HA GENERADO CON RANNOR
MODEL. MODEL2 DEPENDENT VARIABLE, Yl
ANALYSIS OF VARIANCE
SUM OF MEAN SOURCE OF SQUARES SQUARE
MODEl 1 122022515.82 122022515.82 ERROR 27 8759979889.8 324443699.62 C TOTAL 28 8882002405.6
ROOT MSE 18012.32077 R-SIlUARE OEP MEAN 32884.57189 ADJ R-SIl C.V. 54.77438
PARAMETER ESTIMATES
F
0.0137 -0.0228
PARAMETER STANDARD T FOR HU. VARIABLE DF ESTIMATE
INTERCEP 1 36820 X2 1 -74.103927
MODEL. MODEU DEPENDENT VARIABLE. Yl
ERROR PARAMETER'O
7236.1669184 5.088 120.8344!l782 -0.613
ANAlYSIS OF VARIANCE
SUM OF MEAN
VALUE PROB>F
0.376 0.5448
PROB > I TI
0.0001 0.5448
SOURCE DF SIlUARES SIlUARE F VAlUE PROB>F
MODEL ERROR C TOTAL
ROOT MSE DEP MEAN C.V.
VARIAnlE OF
INTERCEP 1 Xl 1 X2 1
2 8878514361.6 443925718 0.8 33090.375 0.0001 26 3488044.0658 134155.54099 28 88820U2405.6
366.27250 R-SQUARE 32!l84.57189 ADJ R-SQ
1.11381
PARAMETER ESTIMATES
PARA METER STANDARD ESTIMATE ERROR
1329.819710 202.35703936 199.878589 0.78235791
4.960401 2.47652140
0.9996 0.9996
T FOR HO. PARAMETER'O
6.572 255.482
2.003
PROa > : TI
0.0001 0.0001 0.0557
21
R E S 1 D U A L
MODElO 1
PLor OF R~Xl. LEGEND. A = 1 085, B = 2 OBS, ETC.
---+---------+---- ._---+---------+---------+---------+---------+---1000 + +
A A A A A A A A A A
A A A o + A A A A A +
A A A A A A A
A A A A
-1000 + + ---+---------+---------+---------+---------+---------+---------+---
o
O + A
A
-1000 +
50 100 150
Xl INCLUIDA
200 250
PLor OF R~X2. LEGEND. A = 1 085, B = 2 085, Err.
A A A A A A A A A A
A B
300
+ ---+-----+-----+-----+-----+-----+-----+-----+-----+-----+-_.--+---
10 20 30 40 50 60 70 80 10 100 110
X2 EXCLUIDA
28 ..
R E S I D U A L
R E s 1 D U A L
MODELO 2
PLOT OF R~Xl. lEGEND: A = loas, B = 2 08S, ETC.
---+---------+---------+---------+---------+---------+---------+---50000 +
o + A A
A A A A A A A A A
A
A A A A A A A A A
A A A A A A A A
+
+ I I I I I
-50000 + + ---+---------+---------+---------+---------+---------+---------+---
O 50 100 150 200 250 300
Xl EXCLUIDA
PlOT OF R~X2. LEGEND: A = 1 Das, B = 2 OBS, ETC.
---+-----+-----+-----+-----+-----+-----+-----+-----+-----+-----+---50000 + +
I • I
A A A A A I A A A A 1
A A A I O + A A 8 A +
A A B A A A A
A A A A
-50000 + + ---+-----+-----+-----+-----+-----+-----+-----+-----+-----+~----+---
10 20 30 40 50 60
X2 INCLUIDA
70 80 90 100 110
29
R E S 1 D U A l
MODELO :3
PlOT OF R*Xl. LEGEND, A = 1 OBS, B = 2 08S, ETC.
---+---------+---------+---------+---------+---------+-----~---+---
1000 + +
A A A A
A A A A A A A A A A A
O + A A A + A A A
A A A A A
A A A
-1000 + + ---+---------+---------+---------+---------+---------+---------+---
o 50 100 150
Xl INCLUIDA
200 250
PLOT OF R*X2. lEGEND: A = 1 05S, B = 2 OBS, ETC.
300
---+-----+-----+-----+-----+-----+-----+-----+-----+-----+-----+---1000 + +
I R I A E I 5 A S I A A A 1 I A B C 8 D U A L
o +
-1000 +
A A
A A
A A A
A A A
A B
+ A
+ ---+-----+-----+-----+-----+-----+-----+-----+-----+-----+-----+---
10 20 30 40 50 60 70 80 90 100 110
X2 INCLUIDA
30
31
CALIDAD DEL AJUSTE
Se refiere a una medida que refleje en qué medida se ajusta la línea de
regresión muestral a los datos.
l'
t!¿ = Debido :J lo residual y,
FRM
I Y¡ - Y¡ = lvl.Ji
(r. - YI:: DcbiJo ~ la Ilpcsión
yr-------~~------~~------
o~------------------~-------------\ X,
Partición de los componentes Je vari:Jción de }: .
..... desviación = YI - Y = (YI - Y ) + '" -(Y - Y)
error regresión
( no explicada) (explicada)
suma total de cuadrados = suma de cuadrados de los residuos
+ suma de cuadrados explicada por la regresión
32
Al porcentaje de la variación total explicado por la regresión se le considera
un indicador de la bondad o calidad de! ajuste.
Se le designa por R2 y recibe el nombre de coeficiente de determinación.
Características
ajuste perfecto
no hay relación entre la variable dependiente y las
explicatorias
2. R2 está numéricamente relacionada con r (coeficiente de
correlación) pero conceptualmente son diferentes.
R2 = (coeficiente de correlación)2
3. /\.
R2 = B 2 S 2/ S2 1 x y
R2 = 1 - 1: el2
/ 1: ( YI _ Y )2
33
Algunas consideraciones adicionales sobre r ( coeficiente de correlación)
1. -1:s:r:s:1
2. Correlación ( x, y) = correlación ( y. x)
3. Independencia de origen y escala. esto es:
z = a + bx
w=c+dy
r (z, w) = r ( x, y )
Si a, e son constantes y b, d > O
4. r es una medida de asociación lineal entre las variables x, y. No tiene
sentido utilizarlo para medir relaciones no lineales.
5. Si x es independiente de y estadisticamente entonces r( x, y) = O
pero si r ( x, y) = O N.Q implica independencia necesariamente, pues
puede tratarse de una relación no lineal entre ellas.
6. No implica causalidad
34
SUPUESTOS SOBRE LOS CUALES SE APOYA EL METODO DE REGRESION POR MINIMOS CUADRADOS
SUPUESTO 1 y
0Media
1...-__ -'-___ ...I..-____ I...-__ --1. _______ ,r
XI Xl '\J X.
Distribución condicional de las pCllurbJdones !J"
E (U¡) = O
Para cada valor de X se presenta una población de Y distribuida al rededor
de su valor medio.
Las distancias de estos valores de Y al promedio son los U¡. Por estar
localizados encima y debajo de él, se espera que el promedio de los
U1 sea = O
35
SUPUESTO 2 ct
Cov ( U1 , U¡) = O para ¡ =1= J
No hay correlación entre las perturbaciones U¡ • U¡
En caso de que las perturbaciones sigan un patrón sistemático hay violación
del supuesto.
36
SUPUESTO 3
f (11)
IIOll\osccdastic ¡dad, f(ul
)'
X,
/ ilo .¡. a, ,1,
Heteroscedastlcidad.
Para cada X se presentan perturbaciones que tienen promedio = O
(supuesto 1), y una varianza que debe ser la misma para todos los valores
de X ( Supuesto 3 )
Técnicamente, este supuesto recibe el nombre de Homoscedasticidad. Si
no se cumple, se dice que hay Heieroscedasticidad.
37
SUPUESTO 4
Cov ( U1 , X¡) = O
La perturbación U, y la variable X no están correlacionadas
Si lo están, no es posible establecer efecto individual sobre Y
Este supuesto se cumple automáticamente si X es una variable no aleatoria
y se cumple el supuesto 1
SI X es aleatoria, la validez de este supuesto permite aplicar todos los
resultados de la teoría de regresión.
38
TEOREMA DE GAUSS-MARKOV
Dados los supuestos del modelo de regresión lineal, los estimadores de
cuadrados mínimos, en la clase de los estimadores lineales insesgados
tienen varianza mínima. Es decir son los mejores estimadores lineales
insesgados. (M ELI)
VAlIDACION DE SUPUESTOS
No encontrar suficiente evidencia para rechazarlos
METODOS
gráficos
análiticos
40
Los métodos gráficos sugieren formas particulares de incumplimiento del
supuesto. los análiticos evalúan su importancia.
41
SUPUESTO 1
INCORRECTA ESPECIFICACION
CAUSA 1. Se excluyen variables relevantes
Varia ble no Incluida en
el modelo
Variable importante. La" pendiente" de la gráfica de la importancia de la
variable excluida.
Ilariable no IncluId .. en
el In odelo
Variable no importante
42
Efecto: Hay sesgo en 81 proporcional a la importancia de las variables
excluidas.
CAUSA 2. Se incluyen variables irrevelantes
Efecto: No hay sesgo, pero la varianza se incrementa (ineficiencia) por lo
tanto la potencia de las pruebas de hipótesis se reduce o puede llegar a la
incapacidad de aplicarlas.
43
CAUSA 3. Están las variables adecuadas, pero la forma funcional no lo es .
'. • • • • • • •
• •
• • • •• • • • • • • . '. . ' . . . ~ . " ...
• • • • '* ••• • • •
Producción
Sesgo de especificación, fonna funcional incoH~cla
El patrón de los residuos orienta sobre la forma funcional adecuada.
MEDIDAS CORRECTIVAS
Busque mejorar el modelo o plantear otro.
SUPUESTO 2
La perturbación de una observación no debe afectar la de otra.
+ fI¡
• • • • • • • • • • • ' ..
••• • •
• •• • • • ••• • • •• • • • • • ' .. ~V¿-------• ..f.O·.!:-·---~-+ fI¡ -{Ji ------....t,!f-,.,..------- + al •• •• ., • • •• •• o.' . '. • • · :. • • •
(al
+u,
. .. ' . . . ' '. • • •••• •••• • • ------~.~.~.~.~.~ • .!._-------+ -,,/ . "/ .' .e: '. ~ '. '.
le)
• • • • •• . '. • • .. ' •
44
Patrones de correlación entre las perturbaciones. (a) Correlación serÍJI positivn. (b) ('orre
lación serial negativa. (e) Correlación cero.
45
CAUSAS DE AUTOCORRELACION
Impulso o tendencias en los datos principalmente si se trata de series
de tiempo.
Costumbre que se están liberando o adoptando
Violaciones al supuesto 1
Hacer regresiones con datos calculados
46
EFECTOS
Los estimadores son ineficientes, es decir ya no tienen varianza
mínima.
La varianza es subestimada, lo mismo que las varianzas de los
estimadores, por lo tanto la inferencia que se haga puede ser no
válida.
Los estimadores son insesgados pero se vuelven muy sensibles a
fluctuaciones muestrales.
r
, !
• • •
• A...tu:.1 )'
}'j = h S4~2 + 0.J051X,
)~ = I + OJtf,
verdadera FRP
METODO GRAFICO PARA EL DIAGNOSTICO
",
• .... . , .' ,
•• •• . -. ,,-o f-,~,;-----;'.,-----.l--- Tiempo
u,
41 -:'.e •• •• e. .: ....
o r-'t-t'-----1"f--\-f---Ti'mpo
lb'
AutocorrcJación (a) positiva y (b) negativa.
METODO ANALlTICO
Prueba de Durbin-Watson d
47
",
exige:
48
Mínimo número de observaciones: 15
Considerar siempre el intercepto aunque la regresión deba pasar
por el origen
Los valores de X deben ser fijos en muestras repetidas o no ser
estocásticas
Parte del supuesto de que la estructura de autocorrelación es
o sea un esquema AUTORREGRESIVO DE PRIMER ORDEN (AR1)
El modelo no incluye valores rezagados de Y como variable
independiente.
49
CALCULO Y USO DE " d u
1. Haga el análisis de regresión y obtenga el
2. 11 n
Calcule d y con K= número de observaciones calcular los valores
críticos.
lId)
I .. ~- 1 I " "- ,
" " Rechace "0 IZona dc I
/ ' I I -I / ' ¡lona de 1 Hcch;.¡ce II~ 1
l' ' I :indecisióri Evídr...ncia l' \ l' d ".' , I
/ " rtn eCjS10~ Evidt>uci:J de ~uloco- I I I 1 : de autoc~. ndac¡ón I I I
I '1 positiva I / I l' I I l' ~ , " 1 ," 1
" I ,A' t ",,"'- I I
-" ... O J, d,.
\ I ' , r rn:ladún
\ 1 negativa l' ' I
AceptCJlo.JI~ o ambas I ' I I " I
1
J " ,1 I '1, I I I " I ..... ___ I
.. - riv leyenda
~ -d, • 119 : No autocoltcbdún pO$ith:t .
. 11;: No autocorrdaciún nC'tativa.
d
PRUEBA DE RACHAS
1. Haga el análisis de regresión y obtenga el
2. Construya la siguiente tabla
+ (t - 1)
-(t - 1)
+ t - t
n1 : número de veces en que el residuo en t-1, y t era positivo
50
n2 : número de veces en que e) residuo en t-1 era positivo y en t negativo
n3 : número de veces en que el residuo en t-1 era negativo y en t positivo
n4 : número de veces en que el residuo en H y t era negativo
Se hace una prueba X2 de independencia para la tabla anterior.
51
MEDIDAS REMEDlALES
1. Método de las primeras diferencias
Calcular
hacer la regresión:
la cual D..Q tiene intercepto
SOLO es útil si r = 1
2. Ecuación de diferencias generalizadas
d = Durbin - Watson
K = número de coeficientes, incluyendo el intercepto
N = número total de observaciones
PASOS
1. Los primeros valores de X, Y se multiplican por J 1 - r
2. Calcule
y = YI - r YI•1
X = X¡ - r X¡.1
y = Bo ( 1 - r) + B1 X + el
52
53
Estimado de r por el método de Cochrane-Orcutt
Se supone AR1
con este valor se hace la ecuación de deficiencia generalizada y se
generan nuevos valores e. Con ellos se vuelve a calcular r y
nuevamente la ecuación de diferencia generalizada.
El proceso iterativo termina cuando el valor de r se estabilice.
54
Nota 1
Si hay razones para pensar que la correlación no es de primer orden, sino
de orden 2, S .... n, el proceso puede adaptarse al orden supuesto.
( Calcular DWn hacer n-esimas diferencias)
55
Nota 2
Usualmente algunos casos dan ecuaciones con R2 altos si se hacen las
regresiones con valores originales y al hacerlos con las diferencias R2
disminuye.
No olvidar que el primero está construido sobre una base falsa, y que el
segundo puede ser más real.
En resumen:
R2 alto y d = O en valores originales
R2 bajo y d = 2 en diferencias
= > R2 en valores originales es espureo
OTROS PATRONES DE AUTOCORRELACION
AUTOCOH RElACION
XX.
D!-:.:.!x'-_...iI.,,-;;-__ ---'XL __ 'TiempQ x •
x • •
I-----.,,------Ticmpo
(r!
.,<
rauoJle~ de 3utocort.:IJci(ln
U. ,
• X
X X
"
X X
• X
o r-::-::;---------·Tiempo x x •
u. ,
" x • o 1---:.:'x ..... ______ x!L __ 'Tiempo
" x" "
(d)
( .. )
56
57
SUPUESTO 3
Heterogeneidad de varianza
Ahono y
L_-=:E:.:.:fI:..::O:.:.:IC;..:S ___ y
Causas
1. Los datos son así
2. los procesos de medición o colección mejoran
58
EFECTO
Los estimadores se mantienen insesgados, consistentes, pero aunque el
tamaño de muestra aumente son ineficientes ( varianza alta ).
La estimación de 02 es falsa y por lo tanto la de B! resulta subestimada.
Esto significa" falsos significativos ", e intervalos de confianza equivocados.
59
METODOS GRAFICOS PARA EL DIAGNOSTICO
O
tt ........ '. • . ... .. .. .. '. .... . • • .' e " .' ." .' . . . .. ' .' ...
L-------r
, ,"
t.Jl
,-- ....... ./' -.- ,
/" ... .. ' la ••• • lo.·. " /" . --,' .. '\
O
• • •
""--------------- r Ih)
, ."
, ... // ~ .. :\ • t/ " •• \
h 0, '°°°' " . " •• • • • •
• •
, ,." •
• •• ..... · -.. :7" e • • • • • • • ••••••• . . '" .
•• lo ••• •
• •••• •• • lo •••• . .. . ' ••• o~~~-----------y
( )
" • • ' . • • " • • •
"0' \" ".\ l~oJWc-__________________ L!~"~!.JL_--r
V oL------------y
(,[1 (e)
Patron~s hipotéticos d~ !c~idllos estimados ~I cuadrado.
u. y
• • • • • • • • • • • • O • • .<
• • • • • • • • • •
.< (lI¡ (h)
(<1) Residuos hctcroccJásticos: (h) un <.:aso de observación atípica.
ANALlTICOS
PRUEBA DE PARK
, r"
t' • • • •••••• ' .. ' .. ' .. '. ." . . .. . ti • • • • • • .. . ' .' .. ' .'.
, ( ..
• • • • • •• • • . ' . • . . '
n '---------x ""'--------x iú)
.".,.-- ....... ,,/ '.- '" / " ... ' ."
/ ......... "
()
la. . ., . . . .. "
/• t. • '.\ • • • • l. • • .\ • •• . . . \
60
\.:...!...!.L. _____ X
O (e)
• •• L:·:.tJL _______ .....l.!·~·!...l_ X -'------------x O
(¡) ) O
Dingrama de los residuos estimados al cuadrado, contra X.
In e2 - ct + B In X¡ + Vi
Si B =1= O hay heteroscedasticidad
61
Correlación de rango de Spearman
r1 = 1 - 6 ABS ( 1J dl2
/ N (N2 - 1) )
di = rango X¡ - rango el
N = número de individuos
Calcular t., = (r.'¡ N - 2 ) / ,¡ 1 - r/
con N-2 grados de libertad
Si este valor de t., > t entonces hay heteroscedasticidad
Pruebas de BartleH, Cochran y Hartley
MEDIDAS REMEDIALES
v
Mínimos cuadrados ponderados
r
,} , t
/lit , I , r , I , , ,
rr T
I I I I I
I I 1 I I I I I 1
"----'-------''-------L-------.r
62
Minimiza la importancia de las observaciones extremas
ponderandolas por el enverso de su varianza
Transformacion logaritmica ( log-Iog )
Reduce considerablemente el problema debido a los cambios de
escala que realiza.
Uso de deflactores
Calcular variables, dividiendo las originales por alguna medida de
JI tamaño JI.
Puede ser convertir los valores en unidad de área, por persona, por
unidad de producción, etc.
SUPUESTO 4
Falla frecuentemente en el caso de sistemas de ecuaciones produciendo
estimadores sesgados e inconsistentes o sea, que el sesgo no desaparece
aún cuando el tamaño de muestra crezca indefinidamente.
65
SUPUESTO ADICIONAL: SUPUESTO DE NORMALIDAD:
Antes:
U = O, varianza constante, perturbaciones no correlacionadas
Si el objetivo es estimación puntual : suficiente
Si lo es hacer inferencias y obtener intervalos de confianza entonces el
supuesto adiciona!
es de gran importancia
En estas condiciones los estimadores de mínimos cuadrados son:
insesgados
tienen varianza mínima (eficientes), sean los estimadores lineales
o no
66
Si aumenta el tamaño de la muestra convergen al valor poblacional
(consistentes)
y como siempre: -;;2 == íl e¡2 / ( N - 2 )
.: 67
Bajo el supuesto adicional de normalidad de los errores podemos establecer
la formulación general siguiente:
t«/2 = valor de t para nivel de signíficancia a/2 y N-2 grados de libertad
'" Pr [-t«/2 s: B, - B, s:. t«/2] = 1 - a
"" es (B, )
• •
PRUEBAS DE HIPOTESIS DE REGRESION LINEAL SIMPLE
8ajo el supuesto de normalidad, la variable
A .A.
t = ( 8 1 - BI ) / Es ( 8 1 )
sigue una distribución t con N-2 grados de libertad
La anteior constituye una prueba de hipótesis sobre los coeficientes de
regresión.
69
Si en una regresión lineal simple, B1 = O esto es :
La variable explicatoria no tiene influencia lineal en Y y toda la variación de
y se explica por los errores aleatorios U, , se espera que
se. debida a la regresión
grados de libertad = 1
s.e. residuos
grados de libertad = N-2
Además, si B1 =1= O, parte de la variación puede atribuirse a X, por lo tanto la
igualdad no se cumple.
Por lo tanto, la comparación de estos valores habla de la significancia de la
regresión.
suma de cuadrados explicada por la regresión F = ----------------
suma de cuadrados de residuos I ( N-2 )
sigue una distribución F con 1 y N-2 grados de libertad
NOTA: El cuadrado de t con N-K grados de libertad es un valor F con 1 y
N-K grados de libertad. Por lo tanto, en una regresión lineal simple estos
dos valores son un solo concepto.
70
PREDICCION MEDIA
Si a X se le asigna un valor, con la ayuda de los coeficientes de regresión
podemos hacer una predicción puntual del valor de Y.
El valor medio de una predicción es
y su varianza
regidos por una distribución" t " con N-2 grados de libertad.
Con estos elementos la construcción de intervalos de confianza es directa.
y
1i0
150
130
110-
90
70
Intervalo de confianza / para un }' prom.:dio /
/
/
---/'"
/ /
/' Intcr .. ;¡Jo de confianza paJa un y individual
o o':-L-L--J..----'-----'----'--"'---!--:...---.:..--"'---...L---J..-x I>U HO 100 1 :t) 1 ~O 1<>0 t I MI :UO ::0 :-10 :W
X
IlllcfYaltl! (handa5l d.: confianza pala el promedio de Y y para un Y irr~Uyidual
71
REGRESION LINEAL MULTIPLE
Generalizando lo visto anteriormente
Bo - intercepto
BI = coeficientes parciales de regresión
mide el cambio en el valor de Y por cambio de una unidad en X¡
manteniendo las demás constantes.
-!!!!! =
73
ESTIMACION
OBJETIVOS
Encontrar los valores de los parámetros desconocidos de tal manera que la
suma de residuos al cuadrado sea tan pequeña como sea posible.
Bajo este enfoque, las fórmulas de cálculo y las propiedades de los
estimadores son una extensión del caso de la regresión lineal simple.
74
CALIDAD DEL AJUSTE
Constituye básicamente una extensión del caso de la regresión lineal simple.
R2 o coeficiente de determinación múltiple representa la proporción de la
variabilidad de Y explicada conjuntamente por todas las X¡
R o coeficiente de correlación múltiple dará una medida de asociación lineal
entre Y y el conjunto de las X¡
R es un concepto de poca importancia, no asr R2
OBSERVACION
R2 es una función no decreciente del número de variables explicatorias, por
lo tanto suele calcularse el valor
R2 = 1 - [ :E el2
/ ( N-K) / :E ( YI - Y )2 / ( N - 1 ) ]
K = número de parámet,us incluyendo intercepto
N = número de datos
76
NOTAS ADICIONALES SOBRE R2
Si se requiere comparar R2 de un modelo lineal (original) con el de uno
linealizado (transformado) calcular así:
. RZ
o = 1 _ }.; ( y _ y )2 / }.; ( y _ y )2
para el transformado:
Generar los valores W y aplicar la transformación inversa para restituirlo a las
unidades originales. Con estos valores calcular R21
77
SUPUESTOS
Los mismos que en el caso de regresión lineal simple ( 1 a 4) Y el supuesto
de normalidad de U¡
SUPUESTO 5
No colinealidad
o sea:
no existe relación lineal exacta entre las variables explicatorias
No existen LI! ~ .... L., + O
tales que
Si la única forma posible es que L1 = ~ = ..... = L., = O
entonces son linealmente independientes.
Nota: Se refiere solo a relación lineal
78
VIOLACION DEL SUPUESTO
Si la colinealidad es perfecta los estimadores son indeterminados ( O/O ) Y
sus varianzas indefinidas ( (X2 / O = =)
Si la colinealidad es alta, los estimadores pueden obtenerse, pero la varianza
de ellos aumenta proporcionalmente al grado de colinealidad.
Esto causa dificultades para la estimación de intervalos de coanfianza y
pruebas de hipótesis.
Los coeficientes de regresión y sus errores estándar se vuelven muy
sensibles a pequeños cambios.
En presencia de multícolinealidad alta, se vuelve casi imposible separar los
efectos de las variables.
79
Si el objeto de la regresión es la predicción, la multicolínearidad, no es
problema serio, pues mientras más alto sea R2 mejor es la predicción,
siempre y cuando haya argumentos sólidos para pensar que esa situación
persiste en el futuro.
Si el objeto es la estimación de parámetros confiables, entonces si es
problema grave.
80
METODOS PARA DETECTARLA
1. Valor alto de R2
Ninguno o muy pocos coeficientes significativos (según prueba de t)
Aunque valores bajos de correlación ( X¡ X¡ )
NOTA: Si hay solo dos variables explicatorias, la correlación entre
Xl y X2 si sirve como indicador de colinealidad.
Si hay más de dos variables explicatorias, la correlación no es una
buena guia para detectar multicolinearidad.
81
MEDIDAS REMEDIALES
A veces se utiliza como solución, la eliminación de variables que estén
causando problemas. Esta solución a veces es peor que la enfermedad,
pues puede caerse en sesgo de espicífícación y con ello en estimaciones
sesgadas de los coeficientes.
Hay otras soluciones:
Regresión con componentes ortogonales y regresión de borde, que suelen
mitigar el efecto del problema.
82
INFERENCIA ESTADISTICA EN REGRESION LINEAL MULTIPLE
Por extensión del caso de la regresión lineal simple pueden construirse
intervalos de confianza y efectuarse pruebas de hipótesis.
El número de grados de libertad = N - K
La prueba F, mencionada anteriormente constituye una forma de verificar
significancia global
su nueva formulación es
F = (N - K ) s. de c. explicada / ( k-1 ) s. de c. de residuos
y tiene una distribución F con K-1 y N-K grados de libertad
K = número de parámetros a estimar, incluido el intercepto
83
RELACION ENTRE F, R2 Y t
F == O
F tiende a infinito
Si R2 aumenta F aumenta
F prueba global de la regresión de una prueba para R2
. R2 aumenta al incluir una variable si ella tiene un valor de t (en valor
absoluto) mayor que 1
84
R2
I i
BI
1. signifL todos significo Si los signos son correctos
posiblemente ya terminó su
, trabajo. i
2. signifi. algunos signif. Frecuentemente, sobre todo si
el número de variables es
grande. Se eliminan? Cuáles
eliminar?
3. signifi. ninguno Frecuente. Posible multicoli-
nearidad.
4: no todos signif. Escaso. Suelo presentarse si
las correlaciones (YI X¡ ) son
bajas y correl (X¡, )<)) < O
5. no algunos Buscar eliminar las variables
no significativas y revisar qué
puede faltar por incluir .
6. no I ninguno No insista
85
RESUMEN SOBRE VIOtACION DE SUPUESTOS
I Violación de supuesto
I Efecto
I 1. Incorrecta especificación
Omisión Sesgo
Inclusión de variables !
irrelevantes !
Ineficiencia ~~
2. COY ( U¡, Uj ) == O Ineficiencia, inestabilidad
Subestimación de las varianzas
3. Homoscedasticidad Ineficiencia, estimación falsa de
las varianzas
4. Cov ( U¡, ~) = O Sesgo
Inconsistencia
:
i
5. Colinearidad Varianza alta
!I Sensibilidad
BEHAR, G. R., 1990, Métodos para la validación de los supuestos del modelo de regresión. En Memorias del I Simposio de Estadística-Análisis de Regresión. Mayo 3i-Junio 2 de 1990. Universidad Nacional de Colombia.
DRAPER, N.A. And H. SMITH, 1981. "Applied regression Analysis" John Wiley and sonso New York.
FLURY B. And H. RIEDWYL, 1988, Multivariate Statistics, a practical approach. Chapman and Hall. London-New York. 126 pp.
GUJARATI, D., 1981. Econometría Básica Me Graw-Hil/ Latinoamericana S.A. Bogotá, Colombia.
HABER A, A.P. RUNYON, 1972. Estadística General. Fondo Educativo Interamericano S.A. Bogotá. 371 pp.
MADDALA, G.S., 1985. Econometría Mc Graw-HiII Latinoamericana SA Bogotá, Colombia.
PINDYCK A.S. y D.L. RUBINFELD, 1976. Econometric Models and Economic Forecasts. Mc Graw-Hill Koga Kusha Ud. Tokyo, Japón.
SHAO, S.P., 1975. Estadística para economistas y administradores de empresas. Henero Hermanos, SUCS., S.A. Mexico. 786 pp.
STEEL A.G.D., J.H. TORRIE, 1985. Bioestadística: Principios y Procedimientos 2a Ed., 1 a en español, Mc Graw-Hill Latinoamericana S.A. Bogotá, Colombia. 622 pp.
1.
).
, 1.
5.
6.
l.
9.
JI.
12.
13.
IILHlllNl I!l~ LlI UlI UGllllf I(IIS
flBRnlln!'1St. n.p.l. fln¡j n. S. LOllTfll.119711. On il .... ew lest 101 ,lUloconrlalion in leiJ\I squares re!jrI'Hiun. OIl't>1EIIIIKn. 5U. 55-6U.
ADJlflllflHSL n.r.s. flnd J. KOEnJS. 119711. Nl'UO p\lill!clur ~ 01 11isIUlhanc.e~ in legreBiun anaJ!.Iii~. J. Ilnn ~lilll~1. IlHOL (¡b. ¡ ,. 7-1.
Illl. M. '-1. II tJlj-ll. nll dllproui!lltl!ion lo 111t: I/uli UI~II¡{nIIIU(1 1I1l
poule! uf Ihe [Juloin-U!ohon. Slalislil5. UIUHlIlIlKll, 71. 253-261.
nHH·l!\'A. r. l1977L n nole on a helero¡eÚil,tn n¡¡ji]"L düiijihll o f [LOllUme I1 íu. 6. 30 5- 3 70.
flNUflEUlS. D.f. GNflNflOESIKflN n. Anó urnflNEIl. J. L. 119731. "Method~ tO! aHe'oll1g mulliuariate nOllllalillj" In: P. Il. vnICt, .. tnIO •• r~ .4 •••• ; •. -._; ..... ,.... .... _ ..... ,~ ....... "1 nr~ .. "",,,,,,,~;,,, n .. ·_...,,, t>.IIIJUI'uHnll tu. I....-HJltlUOfIOl~ 01101':1).'> llL f1l.aU~flHl. rle~3~
New York. Y5-11 tí. ANS[UHElL F.J. And J.W. TUKEV. (1967/. Topin in inuestiqalíon or
lineal leltlliofH. rilled tlll lile method or leosl sQuares. J. /10(/. Sto(is{ SOL 0-29. 1-29. Oi1Cu"ion 20)-52.
ANS[IlH!lE. / .• J. Ilnd J W. IUKE .... J ItJ63J. [Hamillill,Ofl1 ilud ani.llll~j~ nf resj¡luoh. le(/mornel';ts 5. 1-11-1 oU.
IIN~l.lJHUl. 1.,1. r 19611. EllilfllÍfl<ltiofl of I é\ltJUdl~. I'IOC ¡ ourlh Belkl!.'!) ~IJI!lII. tv1.111l S\i1!isl. 1'1 oh. 1. 1- ,,(,.
IlNSUJM(JE. r.J. l' 9(31. '1iIOllh~ in ~lilU~Utl)! '.l!1ij¡¡J~I~· flm. .ri ...... ; ..... "" ....... .." ..... , 1" '), )«JU)Ut..rO'fLf, jf LI.
!:!flN!lfMt!f; 11. 114111 l. I'-le1tlOtls for (IH?lKlIllj ilHUfllptlOllS in retJle~\iO/l mOI!els. UIOI'-HIII? J. 23, -11 Y··12.'
UllfllHJ. 119371. "Prner \Ies uf suftitíenclj and st¿¡ti~li(ill lesls·. ProL n. ~oc. n. I GO, 2GB-2U2.
U 1111 N f. ll. (l. I I 9 7') 1. .. l' r n o tl tJ i!i t ti p J Illli n 9 Hl e 1Il(1 ¡j ~ () fl ¡j o r ti e I \1011\11(5·'. Ilppl. Statlsl. 2~. )'i lIJB.
UECKMIlN, 11. J. Ilnu TIlUS'íEl 1197·11. lite dhlrilJUllUn 01 illl
14.
15.
0(,1)(6 I 7.
10.
19.
20.
" L l.
22.
n. , . l. -..
2b.
n. 28.
29.
'í I}.
31,
32.
33.
34.
35.
~!hl,rflnf ,llIllpllfi7Prj rp~it1IlAI A/1I1 Ihp pllprl\ nI 1II11filfinn _ - -:::1 -"---- .. -;:-- ._-._-- --.- ... - _ .. __ .. _. -,..------:1 ... ~ ~.·I.~ ..... f ... y ..... ~""'" ... "'............. I n .............. _ c ...... ;"". n .............. t::n .no "lli 1(1 trlU tfJ.1lt' I t'yr e,'HtJfJ. t,J. 11111&: •• )tOU3ct. J1)')Vl.. Ü". , 'j~-L.U l.
BEIINKEN. U.W. lIild N.B. Uflflf'EfI 11972/. lIe~iúufll~ dUÓ thelf LI o r i íl U (e p u tt l' r Il \. Te ( 11110 lile Ir in I ·1. I nI - I I 1.
U!:NNlIL 0.,"1. 119ón. Use 01 IIalu¡.lIle-Slllílll test jl¡ elliHlIlIIllIg ¡ andornness of residuols. Hellon.26 No. 3-·t, ,- 3.
[lEIH]. fl.f(. flnd (.~ .. JfIflOUf 11 9821. ~o(jel S¡H'f.ilicaliofl le<¡!: a slllIulluneous dpproa(h .• Joulnal 01 p(oflomellin. ;;'U. 'j'j-lIt.
U[II~NULUI. l./. IInd b.1. WlUU 119731. 1I IH'IIJ tl'\t IUI ilulu(Ollelaliof) errOls in lile linear lelJ1esS;OJl. /Vludel J. flolj. I¡tolíst. 'oc U-3S. 33-50.
BESU'I U.l1.: E. KIJII: fLE. WElSII f 19001 "flegleHioll Uíogllo~lru' Jo/m llJiley and Sonso New Yor k. .
BtLKEl. P.J. 11978/. Usinq residual, lobuslly 1: Tes! 10i hete!OHedastIClly. nOIl Ilneanly. The anflills al ~lall>!I[~. b. 266-291.
BI[fIEN'i.1I.119821. fes! of mOllel \Ileli!icolion Hl Ule ab,ellle 01 i:llternatíLJe llypollleH'S pi:lper plesenled al 1932 >"01111 flmer;cfln SUfllmE'r1-1eE'linq 01 lilE' [conolllellletl;( soc.ielll.
OJflJ¡.t r ,tnco. 'tl",.:.;.-"..I ....... 0 ..... " ......... ..... ~,,' f ........ _.";r~.,. ... OLV¡"'I. u. 11'1 JO'. )tUtftllOI t;:')tlfUOlt:' OllU ti UII10lUí H't:'U
Bela-tliltlilblps . 1lJileq . .... ew '-(¡.lile !J IJ H. 'J • L P . I 1 95:; r. "ü 11 n o I mili i I Y a n dIe s h o 11 tI ilt í '1 fH e \.
B l!l'.lETn IV. U .. 1ll 511J - 355. !lU:\. 1d..P. Illld lIHI U.B. 119641.1111 il/lillys;s 01 I,ijmllJllllilllolls
.1. HOIJ )!aUst. SOr. !J. 20. nBEUStJL loS. Hno n.n. FfH,H:-" 119791. fl ,l¡U¡llp te;~ :Oi
hl!II~IIIHPrld,t1r ily dnd (uel!illenl L10! lalioll. (I0I1UIII('111( (l . .. P. 1.'07 I?<)·I.
I:lIIEUS( 11, 1.5. Hnr! Pf!GIl .... IUl. 11 nUI. "Ihl' ld910nge lI1ull í(lIIPI~ \{!'.,t OJlrl il~ ilpp!j(olioJl' lo moúel ~pecilirolioll ni ~fonUlllel"l\ flel'lE'1l' 01 Pfonorni( \ttJd;!~s. ·n.239-.'55.
!:IIlUltlN, fU.: UUflBlo..¡ el. Ilnd HlflN'> J.H. 11975!. "le(!lIlillue" ilii ! P \ (ing Ihp (om t dl)( 'j 1) f 11r>IJI e~)IOf1 He!;:! jif)mhip~ l.!Loer limE''' luoilh !liHu~~ionl. Jaulnol of lile floyol stati~li(ill s (J (f e t Ij S e 1. Il. 5 '(. 1·1 9 - 1 92.
lJIWWN. "-LB. {Ind FUIl'i'(fm n.B. 1 J 9741. "/loIJUsI Ipsl IUI lile eqllüllly 01 u¡Híall(e~". J. 11m. 'ilal. fl~sol. bY. )0+ 3/J (.
(UIIHllfIlS. J.~. W,). UH'ElIlNU, B. KU1N[R Ilnrt p.n. TUKE'/ 111J!J"'S1. 'jI aphícill Melltod~ lor doto Hnalysis. UUHUUI y pi ess. boston N.n. UIIlN. "<. N. 11I1IJ 1.1<. MIlK I t9fHI. lleleloHeuilstl1 '!IH)f in a
liueal IUllctiolliJllelatiollship. BIUHElIlIKIl 71. 212-.'1'). UlfIllEIlJlL S. I1l1lj n. I'llllf 11977U unP1l' p\swn ill"!"J\'~ lJl;
_ .. ¡¡ .•.•• ,-" 'O"¡I '''''-1 '['" '011" "-ll' "o'" t:H uqJJt: . t.J 11 U'lIt: o JU) ). I~t: ,t 1\.
ClHlfUlNII, tllS, !lNU KlE M1l119751. '/1 gropllllalleclIllIque 101 eIlIHHICiIH! ~I útlelplots utílh ¡HOllíng \tolilin". I 1.'<' 11 11 Cl/llP 11 i, 'i. 17.<1·17-.15·1.
CUlIIIIIIN, \lI.u. II'HII.'llre dl~\IIUulí!J1l uf Ihr lilllJl'\¡ 01 d ,el Uf eslilllateó U6liilf1lflS as a Ittlctiun of Ilteil lolal". flnn F.lJllpníl ~ l Vllr!. 11. .. 17-52
UIOK. n.tI. IInrJ UlEI\IIEllu 11'}U'I1. Úl(lfjllUSUl> 101 twtelul('{ja\lilÍlu in !'?(jl e~~IOIl. [JIUI-1I:.lfllkll, 7U, 1-1 U.
COUK. n.u. filió ' .. l, T'Ifll II 9USI. fle~iúuats in llunllnE'iJl ¡eíl/essiuil. flIU~E7fll/(fL 72,23-29.
LOI!. tUL 1¡'),¡íJl. It!?llle\~ioll me!tw(J,. note, Uli ~rrllll' Ll\pell\ .' l' ,,·t:'!pc· .... •• " .. ·~j¡í~·I, In (',,,,.',''' (,,~'" t,,,,, ,-rt i..'H J' '{ c_.,n u' eYIC).>IUII fJIIUI'1}) u.tl. )\(J( ')( JUl.l'Uf. lJI ''fu. J. LV) r ';J
lti.
H.
.....
.JO.
0) 40.
-11.
-I2.
.-r /:1.: ,1
+1.
45.
..; f¡.
47.
49.
·.0 ..,,, .
50.
52.
54.
55.
C~ JU.
r:rlll .. I! 1.1 ROl! l!! \NF) ,_ f I Q711. no I.~~f. ~t~I.i.~nf:~ f:,:I.~I~I.':.I.~~ ~ ............... • ........ ..-t ..... l .. nlnt..ÁrTOlvn Cn C'nn en.t IfUIII ,elIUUQI). OIUI"'I(fnll',n JU, JO-'-J':1""1.
COll, O.R. And LJ. SNHl IIlJ6BJ. A general d!!finítion of resi¡Juo/s. .l. BOl] Statí~tic SOCo EJ-30. 2-.0-265. lIí:!Cuníun ¿(¡'j-275.
",or'HT"'o n n n~-' nrn"r" .. r r '19'2) "Tn'ls "or d"partuI'e u nUUlI11"fU. 0.0, fllfU rt.nlL)UI'Ij r • .). \ f • 1(;;> , e
110111 norrnallty. Empírical resuJls for Ihe Lli~lr¡bulions of b2 dll ..¡ b, U/OMOnIKA 60,613-622.
OflN 1 [L, C. find UJO(}[] II 98U 1 "F i t t.ing EqlJ<)UI)f\) 1.0 Q.)l (l" .John IIIfle'l dial $Ofl$. New York.
nEMI'SH L 11.1'.; r,nSKIHíl![[N M. !19UII. "Nelll lool~ 101 ii''>I¡JU,¡1 illialtj,ís". lile annills of slalíslío. Poi!) No. 5, íj·15-9SCJ.
Oll/UN,.J. /lnd M/lSSfY r.J. .Ir. 119f¡9J '/nllorluction lo st<Íli~tical analt¡sis 3th ed. MeGraUJ llill. NewVollé.
OAArEn, N.A. flnd W.E. LfllllllENCE 1197UI. Anote on r85ídutlIs in turo dimemioll>. Te(hflometri(~, 19,394-398 .
ORArEIl, N.R. Rnó 11. 'iMITH 11931 J. "Applíed I et],es~ion analy~is" John Wílelj lIn(j son ... New YOI k.
UlJllBlN, d. 119701. TestilHj fOI seliol tnnelotíon lfI leo~t squole regresslOll wllen sorne of reglession dIe lagdJed dependen! IIo/iobles. EconomelricfI, 30, 410-<121.
DIJIlUIN. ,1. Ilnú G.S. IlIIlHUN 1I 9501. fe~ling 101' senal (,Urre/alion In leosl s(juores regression. 1. íllílMEHlIKfl, 37, -l09 ..J2lJ.
DlJfHlIN, J. ¡linO). ílu allelllalille lo Ihe IJOl/nrts test for lestínl] fo! sellill correlllllon lea~t ~q[liJles leljleHlolI. Ecunolllelrico 30. -122-,129.
OUR01N, J. finó /J.S. WIlTSflN '1951 J. Test fOI sen.]1 (OITeldtilJll in leas\ SQlHne~ ler¡ression 11. BIOtv1EHIIKfI, 33, lS(}-1f3.
oun~~~.:_,~',,_ .. JI~~.d ,_~.~; .1!J.~12~~J~~ ~~_~~~?¡'!:. ,,!es'!~';.~Ar"~\'IV~eIJ~1 tUfft:IOliUJI Uf ft:'Ol-t >qUOft') ftylt:).)tUII tilo utUI'<llln 1\.11, JO,
1- J O. Tlllnn'*,i I I ftll:tl\ ........ , ~ .... _ ",,~ ... ; .... I " ............... t ..... ; ..... ""' .............. __ ,,.._,; ..... "" uunOJ¡', {j. "':JU:1J. le~l ¡Uf ~t:'IIOI LU,lelollon JII ft:tjle~);JUII
ilnallJSIS IJd~e¡J on lile períorlgrom 01 leasl squdles resíUUdls. DIOHEfIllKfl 56. t 15.
HLfNOHIG, J.!!. f I 9731. lje joínt di~hibutioo ot lile sf¡lIIdilrdizerJ leasl H¡Uil/eS resirlui1ls from il generBI linear regreHion. J. flm slotist HHOC 60, 1J41-CJ-l3.
ENGLf 11902). "fluloreylessilJe condítional heleroscedilsticity wilh estirnales of lile uariilnce 01 united kingdorn íntlatíoo'. Economelticil 50,907-1lJ07.
EPPS. U1J. fiad l'-1.L EPrS 119771. Tlw robll!.ln¡¡u ot ~Ilm¡;. ,. • _ ""'" ,,-4 ...... -..-4 ,. "" .... ,. ~ ,... ",' ...... , .... ., "" ~ ...... t -.. ,¡. :,...... ._ .... ...f ~, ..... , ;".,.. ... '" ., ..... ~ .. -.. ~ ,~ ...... 1 t tlll U a I u 1 t:' ) t I U I o U tUL U J I t: I a ti u JI \JII U U t: l t: fU') l e u o ~ t HA ty IJIllen uoth prolJlellls ole ¡lIesent. [(onomellíca, 47, ",110 1 f n LU':1-LIH.
t!!!l!:!J!!Of!!E!l, fl.W. {i 9791. 1: fllOUjJIIlIJ lest fOI rniss[lecificotíOIl5. Econornelríco, 47, 20C) 21 u.
HUEIl, 1'.1. ¡ 19741. "fírJplmul lechniQlles in statistícol data d(¡,illl~¡S-t()ol> fUI eHlrilttillt¡ ill!OIIll<llioll 110m !Ialu". lechnofJIetllC'í.. I tí. 2n7-29!J.
FIll/UEN, .J . .J. (19(51. 'lile probnbilítt) plol cotrelolian coell¡cíenl tesis 101 nOlrnillillj". Tf>(llnl)n¡l~lr![ $ 17,111-1! 7,
rlc'rl~I') ll(\ •• OI(', "r,""" ........... , ....... , .... < 'l,.~ .,:", .. ;J, ••• ; ........ fi ...... . rf">LULIl, B.I1. ":1JUI lile tIlUIlIt::llt:> UJ trlt: Ul>HuHJfIUn ftl'
normal snfTlples 01 r;lea..".tH!H 01 úeih111ure 110m flOllllillítlJ". Proc. floy SOCo n, 13U-1 JO.
S7.
58.
59.
60.
61.
C:~ UL.
63.
64.
65.
68.
69.
7U.
71.
72.
73.
74,
75.
llJ.
77.
16.
-'0 , 'j,
30.
GllLE, UUl. Hnó f'r!EGIBON, O. 119031. fin eBpert ~t¡stell1 for rEíji eSSiUii ail¡;lysis. Cüm¡.;ul Er ,tiEílte anu s til fi511c s: Prar. 1 ~ tll. SymposiulI1 on tilp interface edited by Ilemer. Silther.
. olld W¡IIdll,oll. 5prínQer llerlog. N.Y. lilllPIN, J.S. flnd U.M. HIIWKINS (1984/ lhe use 01 I ['(Uniue
re~iduol~ in rl1ecldng model fiI in lineol regression. fino stoti\t 39. 94-1U5.
liflHlSlllL 1'.5. ¡ 19721. "11 ~tlJúy uf metiloús 101 (')lIlllLHirHl senreríJl L'(lri¡)JIU~S" J. 11m Sto!. Ih~ot. 67. 3-l2-3-l/J.
GIBBONS J.D. 119711. '''Jomporomelric slo!i5tiO inlereflce' McIJrolll-llíll. NeUJ Vor K.
GNflNIIOE~IK/lN. B. 119771. "~fethoós fOf slolís!icol oflolySIs of <,nn~~~',!íualí,a~e dal,~'~,Jn~t1fl Wilgl:!-'_!'i7~ "'ot~:... ~ .. "'_". ~" .. _ UUUrn[l. L~U •.. f l'1rOI, lt:)lflly tU' IIIUltlfJllltllH.'t"
Ilf~t"tQ~"rji!~~f~ltq. ,Joun1ill of [collornelrit,>!L 227-23ó. úOlUFtlU. 5.""1. Ilrril n.E. QUrlNOI. f 19691. "'ju/m' ¡ ... ~h fur
!lolllo5.k[>úa~li(illj' Jau/. Hm. ,In!. Ouor. fiU. '>30 4t. GOlUHlU. S.M. find n.E. UUflNUr. 11972J. "Non lineor melhods of
Econolllelrícs' Norfh-I!olland PubJiHhíng [o. N.Y. úOlllII(lWUII. L BOl!. '1 n. Hiló ~1ll~~FllBT, n. I 19l.l21 "Ul:í?lihooÓ
I <lllo test. willÓ lest. dlld KUI\N-lUlKER les! in lineal fIlodels wilh ineQuolity consfl(Jinls on Ihe regreHion pOlllmelen". hOllometlicil. 50. 63-80.
GllflVIllLl. r. 1197úl. "TheorlJ ¡¡lit! ilPIJlic¡¡lioll uf Ihe lineol fIlod!'I". UUlrtlllllj Pllgs. HilBiltlruHetls.
GnrfN J" 'l w 'lf "Tn··1· 11rl [J~¡I"ftUI" "'U¡"1 ., ",,· .. ~,,:O" 'le e ,.rl. I ';' f. 1 1:"") t '-j e u r.: t f tI Ilt.tJI t''\}1 tI
Ulilhout l/\iIH} r eplicil!ioll' lE'lhllulIlelriB [101. 13 No. 'j. 6U<J-bl'i.
GUNST. fU. Hnrl IU, /v1f1')US I 19UOI "Ilegr e~sioll !llllllysis alió il~ tllJplico!iun·. "-1fHcel UeHer. New York.
IIflNNJlN. f. 11tj571. Ip\!illQ fOI serial lIllleluliolJ in leasl s [IU,H es I e(jr e <;SI Ufl. U I U 1'-1 (111 1 KIl H. 57-66.
IIEUflVfl1. 11. JIlld !U. 1l0f]~U"i 1197UI. Independl!lI! stf:'DWISe I esiduül5 101 le~tiflg 11Oflloredoslicily. J. 11m 5ttllhl IlHOL ó5,I'j7)-15UI.
IlOl1GlíN U.c. IlfHJ IlIELSUI n. f J 9i'!l1 "lile 1101 lIlolri!! in r!'gte~sioll onu IlNULlfl" l/lE' IlIl1!'ri(on Slolisticiafl 32, 17-22. I!O[KING, B.n. '19731. "Misspe(ilíLillion in lIegressioll'. 11m SIn\. 2:11 I 1, 39-·lU. IlUflNfi. G.J. Ilnó UULlIl 1197·11. On 1111' lesling uf reQtession
disturoallcE's fOI no/malilu. J. 11m ~1!1lisl Ilsso[. 69.530-335. IMIlN, fU. 1198ll. "Gropln fOI tlH' with IhE' lillidofs tes! fOI NU!!1Ii11 I1l1rJ PHJ!OIlPllliíll Ui~!r¡¡JIl!iufls·. lile 11m ~!llli\titlilll. lIof. 36 Nu.,.'. 1119·11,'. INIBllIl;/l11J1l f-.f.ll, 11 Y?J11. "lcorl'lllletli( "1o(j\;'I' .. ¡{'(lnIHlue'\
illlll illlplllillllOll;·. f'1I~1l1i1l' 11011. '.ellJ .11'1 SPIJ. JIlI!N~ON. 11. 1111" IL !111f.jllflN 11 '.I!l2t. 'lIpplie!l Hullíl'tlllo!e
s!n!i'i!iciJl illlillusis' f'1"1l!lle-llilll. Npw Jerset¡. KElE.JIlIf't, 11.11. llilfJ UntES. LE. 119721. "IntlorjrjlliOll lO
P,lOIlOillPllit s. [JlinLíplr:, anu ilppliLaliufls·'. t"?U' )'ork. IldlPPt !I0ll/,
Ktl--/ü, M.l. r 19021. n t¡o'mó' t""I lar 11l:·¡"nncr::-do,tidly. "'1olliJSIl Unillp'/ si!y WOI kinr¡ papel No. 5 /tl2 .
Vflr,lvrn n j J l,n t t n .. ,"" ..... "" .. , ....... 4"""~ .... _ ..... ~ -. ...... , 1#' .. >
hUC.¡"th[fI. u. f r ';j(l, i. TI nutt:' ou 'l'UOt"lJIJLllnj (j \t:")\ tUI
helf:'!n(f~'li)~li(íllI .• lrlillJ1il! 01 p(Plloraetl¡(';. 1 l. Illi-ll2-ll1115fJ'.1I.[l!. flnrJ ~(l[f!::'r'. S. 1197:'1. ltn: u~e of p.:JlIi;~1
31.
62.
8 l.
64.
35.
B6.
87.
88.
89.
90.
91.
oyG3) @
94.
95.
96.
97.
98.
99.
1 UD.
11] 1.
re~idlJill ploh in regression (JIHlltpi~. Te(hIlOrnelrit~. Uo!. 1~. 3. 7BI-79IL
lEflM[B. U. 11983!. 'Let', take Ihe con out of econometrií," flmeri( éln !:conomic reUJeUl, 73, 31--13.
lIllltfOIlS.ll.I/I. 119691. "On Ihe Kolrno!]orol.-Smlrnol' lest fOI
Ilí)!!!I"!!!llj w!th me.J!! ']llIJ ll!lf!!lnre IJnk !Hll!ln " , .JIJIJr!l1'l! I]f 'he 'lmeri(on stolíslícol oHocialíon 62. 399 402.
lUnNl Y. '.tII. flnd (iUllfnc,[, LlI. I 19B51'lJst:' of Ihe cOITelalion loelliuenl IJIlth normal probilbllílll plol s, Ihe IlmencaIl ~1<1t!~II(ldn 3lJ. 75 79.
lO'l'N[ 'l. n.M. II'J('91. Un (011 on ')nelr~ I¡enel ól Iletiliull 01 re)ltludls, .Lltn!j ~IJtí~I ~()C U-ji, 111) ¡ti!.
~1flli[, fU. 11 IJU21. 'fin 00 jetille !Jrophi( al 11Iellrods lor lesling , llOlrnéllitlJ. OistnhutlOllol ilssurnplions, llslIlg prolJabilillJ
plols", lhe Am. SIa!. 56, 116-120. MIIlKl1I11L11. J.F. Illld nflrl. n,f]. 11973I.·ún tests tor
Illtlllil!tl! iilte nor rnalittj" J. Am. ':ltdl. f1s~o(. 6A, 176- 179. MnOOllJ. IUI. I f 9801. Test for uflilHlIiate (lnd fTlUltillilriate
1l00mil1i11l. lIand boük of stalislc.s. L101 1. 11'.11. Klir;j¡naíah 1:.dl. flrn~lenhlm: Norlh I/alland. n!J 320.
MIIIlTINE2 .• 1. f]nll Il. 1(jl[llfIU 119011. fl test 101 úeporlure lrom normdlll'l tldsell un lile lJiweíght estirnillO! 01 s(dle, IlIOf'.lIl1lIKIl. 63.331-333.
Mil Rff"l , P,II.P. 119701 "On ilstjmtoli(allu o¡Jtllnal test, of (omposite tllJl1otlle~e~·. OIOHErlllKfl 57. 47-')5.
NEl\ON, L.). 11Y811. "n \imple test lur normdlily JOUlnalol OUlllil'j technolofl'J. flol. 13. No. l. 7tr 77.
lIJfl, 11. I (jI]) l. Nelll Tests for nOlllldllllJ. BIIJHllIlIKIl. 711, 297-299.
POGflN y Hflll 119A51. flesidllals OflillljSIS. LomrntJllttilllOIlS stallstí( s. [( onolllelrÍ( s flellíem Nell l YOI ¡:,
PUGON IlIt. IlflU IUI. flnd 10lUrOl P.K. 1191l11'lhse~sIlHl IIH' lldlidlJility 01 ínrldtlOllS·. flusttaliall NatlOllal ll¡¡ilJenlly UJllil:lIlt¡ papen in econam,(s and e(onomelri(~ ..... 0. 1l..t9.
PEflflSON. E. S. 119 JO 1. "/l furlher del1elupmPIlt o f les I s 01 1I00tlldlltll' OIIlMUIIIKIl 22.239.
PE/lfIStlN, LS. flnd flflllftE'r'. 11.0. 1I9701.'!Jiolllelfl~o loble$ tar slatisticíoll\" [Inl. 1. )1(1. Ed. Camhridge unll1eniltl Pr€'H.
PIlIUIPS. {j.lI.Il. ¡¡nI! IHlnliE'/, A.e. {19741 "fl simple le,1 for ~erjal conelaliun in flegreHion allall1sis" Joumal of Ihe Americon Stt1ti~ti((Jf tlssotiolion 69. 935-939.
PIlEGlllON. [JAflYL IllJB3l. "Cornent(jno~ al ortitulo de PAGflN V 1I11L.l119(l'S1 235- 339.
PUnEn. J. 119671 [JllhollOI mal bases 01 en 11/ <,pa( es JflÚ Illel/ u~e fOI inllPstítlillinQ Ihe normalily ane ¡¡afiaíiCe oí reslduals. J. flrn ~ atisf f1SS0c. 62. 1l/22-1 l/3o,
IlflM SE \' .• 1.0. 11969/ lest fo! specifi(aliull e!Jors in (lil~si(ill IIne,H leilSl-,qtJdles I!~ljlessíon antllr¡SIS, J. lIuy \lJt!<.t ~o( B-31,350-';71.
nflHHY .• LU, 11 9U31 "(ornelll[Hi()~ di ¡llllUllo de PlthllN Y flflll
n 11 i'J (11 l ." 11, 11. I I oJ!H l. O 11 I e s 1 s iJ P P 1I e d \u I l' SI' 1 u d h. ,111 '> 11. 79, )-19 35-1.
RilO. LH. 119731, "llllP.cJr) totis tical inl el eíll e onú Ih " r p I í ( (J t ion ~. <'" d. [(1. II f 1I e IJ . .... e w l' () r k .
S e 11 o I l, I L I I \) 'í f) 1. . ¡ 11 e ti n illlp í s n ( ti J lId 11 ( El" .j () 1111 111 iI e lJ BIl d 'Oll~. :"PliJ ','011:.
104,
105,
1 U6.
, 07.
108.
109.
11 U.
I I 1.
, 12.
113.
I 15.
117.
I I O.
1 19.
120.
121.
122.
, 23.
125.
SEII~I,~~ .•. s,n. \ 19711. "linear rnodels" John Wiley and ~uns, NeUJ T Uf ".
SEBE!! r.;.fU f 1 Q77t,'Unel'll Regression anolysis ", John Uf;ley ilIHI <;nn~."Ptl' 'r o 11' ,
SEN, 1'.1(, IlgOll. IrwiHiollcE' p'lmiples 101 leculsiue IPsf(juill~. IInn <¡Ialís!. 10.307-312.
SlfflPlllíJ, S,). I1nd rRIlN( 111. 11.';. t 19721, "fin <lIllJlOHtrlltlte <l!lOfljs" ul I.,}liartc!' tE'~1 IUI 1l0IlTlilliltj". J. 11m ~Iill. IIH!H.57, 21~} 21b.
S//IlPI/Il1. S.S. IInd WIlK, /-.1.0. t 1965/.'lIn anoltph (Jf l'OnOI1U' /p<;f ffJ! 11l1!lIlillitll Irnlllnlpfp ,,¡¡mnle«t", I-llnM~lIllkn '1)
~ ... , ---"':) .---("_.- --···r'-~ . --- '-"'.<- --,
5tjl 611. SHIlPIIlU. )S llnd ilIILK. "'1.11. flNU (IIEN. tU. "9¡,BI. 'H
(ornparatil1e stutlq of uarious lesh ror lIurmalilq', JourrHlI 01 Ihe <1meritan \Ioti~li(al Jssotialion. 63. 13·-I)-137}
SlIllLlNGTON, LR. 119791. Testing lack 01 lit Ifl reglesslon J.1IllIlOUt re(llication. (anJ. Sla1ísl 7, 137-1-15.
SNEE. n.u, f 1977/. llolidalion of regression model~: Hrlhod~ (lIlÓ eHumllles. rNhno!lletli(~. 19. -115-420. le(hnolllrtlt(~. 1~. 450-·D7,
SNEE, n.o. 1197!:, "note un lile use af residuals for '::'Hdmilllllll fhe d'iurf!¡JlíOIl5 oí (Ollalitlllet? analgsis. -
Sapflf"'S. "'HU!. 11;17--11. 'Eur ~lati~lj(~ tOI g!lndl.llPH al tit <lllrJ
~OH)t? (ornp;:n 1 ~ ni",;" vnüi nü~ '01 oín~i ii un ;: ti t, ') iiLÜ: iHsutiatiun·. oí!. 73U-73 7.
'iZ0E1HI. J. Il97!)!. n (Ioss of pürmIletlH lest 101 lJete/flHeda~tility ¡nlineol ecoJlomj( /IIoúel~, hUflOmel!i!<1. 16,1311 /327.
lllEIL. H. 11 9651.'1111' aflt]ly~is of UístUl biHH es ill ¡leyl eS\lOfl analtjsis" Joulllal of lile ameliLilll slatislital f1ssociüliol1. 60.1U67-1079.
111 E Il, 11. l' 9 7 1 l. PI í Il ( í pie s o f E ( o no lJl e 1I i ( s " Jo h n W í I e lJ ¡) Il tJ \ons. NeUJ ','01 k.
HIEllo 11. Rlld r-.flGflfl 119611. "iestíng Ihe indepelldellly 01 leqlp.s<;wfl r1isturuillHes" J. 11m Slo\. aHOC, 56, 7Q'7., BOb.
ll1UIlSO'/, .).[" 11 YU2). His~DetificéltiOIl. hE'lel OSleÚiHU¡ ¡tll illlll Ihe tllow ,lIld Goldfelu-Ullanttll lelO!. lile leuiew ui ecol1omics ilnó 'ituli~li(s.lIll[I, 31--1 321.
\JAN IJUllUEN UE UIIIJYN L~. IIIHilll. "fltlllllUJiltiup ~111ll Ip.~t: T!teollJ onu pme lite" GIi ffirl's s lo Ii~ litol 1ll01lug10I'II« onu Cllunes".
WElSUEt1G, S. Ilnd !:lINGllnN (. 119751. "nn OPIHoHimole onQllJ~i~ or OiJl ¡UIlU' 11'\1 Inl non-nOllllolity ~ui'otJle 101 lila I I¡inf' (,JI(fJlolton '. re(llfJ(lI!Jf~lli(, 1101. 17 'lo. 1 1)3- 1 )--1,
LttESUUJUI\KV. G.U. 119761 "MultilJle retlre\"ioll anu ,jllall-lSIS n! L/ll! iÚIH,e". Jolm llJile~ onu ~on~, Neu' VO! k.
1lI11 1 l!.. 11. 1111f1 Id .. !. HLlIlJÑfIlU 11l/BUI ~Ulll(> ~íl!lIplf' tp\t 1111 non Iltlllllfllíllj in thp lineor 1!'(\reBiofl rnudel. JUU!lIol 01 trlP !1l11l?ri[ali ~1¡ltidÍLill iHHJeia ion 75. 16-21l.
litlt .. :. -'.n. qnó (i""fl .... 'IVr:~.K""" 119001. t"t1!J",,'!l'~ f!1""1'~~1 1JI1'Iho¡J~ Inr lile iJfltlllJ,is 01 (J¡¡\¡j. IlIU"1[lflIKII 'i', 1-1,. ,
11'1\/tI1 ,. { ,. n-''l'l T ........ ~ ....... ... 1' ; •••• ; .. ;" •• .-, ""##,.."'., ~ ............ 4, ..... 1 ... ~ UJUUU, r. ,. (t ':j t JI. flit= fJ't: Uf IlrUfl1tUU(J1 er It"l ') ·jll''': f ~:)IUljnl,} II}
ti t f ¡ n!l p n 11 il I in n" ! n 11 ill n. 1 PI h n n 111 P 1I i f ~, 1 ':i, fj 7 7 I} 1.)5, 2'¡')Kl~ÚJ rJ.-fl!~d P~fl.·J¡Ú!Ñ5iüN ií973i' iJ-n a zelu Il?siÚUi11s SUIIl il! refJle~,ioll. 11m 'ltutt\\ 21,·13 .J4.