Muestras Pequeñas en Econometría
Al presentar el MBR, decíamos que: “debía disponerse de una información suficientemente amplia sobre el conjunto de variables observables implicadas en el modelo. Como requisito mínimo para que pueda determinarse una solución, se exige que el número de datos sea superior al número de parámetros del modelo (n>k), a efectos operativos, se necesita un mínimo de alrededor de quince datos para tener alguna garantía en el proceso de estimación de los modelos más habituales de tres o cuatro parámetros”.
La existencia de muestras pequeñas no supone un auténtico incumplimiento de una hipótesis básica, a diferencia de lo que ocurre en los restantes casos considerados en próximos apartados.
- Causas: Inexistencia de series largas (es frecuente en algunos estudios concretos).
- Consecuencias:
- La existencia de muestras pequeñas (por concretar, podemos pensar en inferiores a los 15 datos), produce estimaciones que, aunque insesgadas y eficientes relativamente a cualquier otro método de estimación lineal (estimadores insesgados y eficientes), presentan varianzas comparativamente elevadas respecto a las que se obtendrían con tamaños muestrales superiores.
- Los intervalos de predicción (intervalos de confianza) resultan demasiado amplios y los contrastes de significación estadística no son conclusivos al respecto. En otras palabras, cuando se trabaja con reducidos grados de libertad (por ejemplo, menos de diez), es posible que algunos o todos los parámetros resulten no significativos, sea ésta o no la conclusión correcta.
- Detección:
- k = 2-3 → n ≥ 15
- k = 4-6 → n ≥ 18
- Solución:
- Aumentar nº de observaciones. Desgraciadamente, el problema de las pequeñas muestras es raro que pueda resolverse mediante una búsqueda estadística que permita aumentar su tamaño, e incluso ello introduce problemas adicionales de heterogeneidad de datos. Como consecuencia, a muestras pequeñas suelen corresponder modelos relativamente simples (con pocas variables explicativas) y con errores de predicción en ocasiones no demasiado satisfactorios.
Principio de ‘parquedad’ o ‘parsimonia’ (disminuir nº variables). En este sentido, el Principio de ‘parquedad’ o ‘parsimonia’ (disminuir nº variables), es consustancial con la construcción de modelos, aunque solo fuera por razones de limitaciones en el número de datos: debe buscarse el modelo que con el mínimo número de variables consiga un grado de eficacia explicativa comparable con otros más complejos.
Errores de Especificación en Modelos de Regresión
El MRBL supone el comportamiento de una variable endógena (y) que puede ser explicado mediante una RELACION LINEAL de otras K variables exógenas más un término de error o perturbación aleatoria (u) que recoge el efecto conjunto de otras variables no directamente explicitadas en el modelo, cuyo efecto individual no resulta relevante.
Una especificación errónea en el modelo, puede deberse fundamentalmente a tres causas:
a) Omisión de Variables Relevantes o Significativas (R2)
- Causas: Se debe a que se omiten variables que son relevantes para el modelo.
- Consecuencias:
- La omisión de variables relevantes produce estimadores sesgados e inconsistentes (no representativos).
- Residuos superiores.
- Acumulación de errores que pueden generar problemas de autocorrelación. Es decir, puede notarse su efecto de una manera sistemática sobre los residuos del modelo que pueden mostrar una cierta ley de evolución, sintomática de una autocorrelación provocada por una mala especificación.
- Adicionalmente, la exclusión de variables relevantes puede conducir al modelo a incumplir otras hipótesis básicas. Así puede aparentar un cambio de estructuras por un simple cambio de nivel en alguna variable olvidada.
- Detección: El problema se ve mediante el contraste de significación conjunta del modelo: R2-adjusted (
)
- Soluciones: Re-especificación → nueva especificación de variables explicativas, considerando alguna otra variable explicativa que pueda interesar más al modelo considerado.
b) Inclusión de Variables No Relevantes (T-Student y Colinealidad)
- Causas: Se produce cuando se introducen en el modelo variables exógenas que no son relevantes y que pueden, además, relacionarse entre ellas.
- Consecuencias:
- Los estimadores de las variables correctamente incluidas son insesgados y consistentes. Sin embargo, las varianzas estimadas son también aquí superiores a las que les corresponderían.
- Correlación entre exógenas.
- Contrastes no concluyentes.
- Se pueden presentar problemas de pérdida de grados de libertad, y problemas de multicolinealidad.
- Detección del problema:
- Mediante el contraste de significación individual t-student.
- Y el contraste de colinealidad (que se verá posteriormente).
- Solución: Aunque resultan más graves las consecuencias de omisión de variables relevantes, las habituales restricciones propias de muestras pequeñas (entre otras razones) exigen del econométra un adecuado equilibrio para no caer en la inclusión de variables no significativas: Eliminar variables no relevantes (y que estén muy correlacionadas) y Volver a especificar el modelo.
c) Forma Funcional Mal Especificada
- Causas:
- Relaciones no lineales entre variables.
- Aunque teóricamente caben todo tipo de relaciones, la práctica econométrica se reduce en su casi totalidad a modelos directamente lineales o, en todo caso, a relaciones lineales entre los logaritmos o las tasas de cambio.
- Consecuencias:
- Una especificación funcional equivocada puede provocar sesgos en la estimación y desajustes en la utilización de contrastes.
- Al menos en determinados casos, la aceptación de relaciones lineales en lugar de otras más complejas, puede asemejarse al problema de omisión de variables relevantes (al omitir ciertos elementos para linealizarlo).
- Detección: Test de Ramsey para contrastar el cumplimiento de la hipótesis de:
- Forma funcional correcta.
- Independencia entre regresores y perturbación aleatoria.
- Homocedasticidad.
- Solución:
- Por ejemplo, utilizar logaritmos (ln) si se trata de relaciones exponenciales.
- La transformación de variables sobrepasa el problema de la correcta especificación del modelo, teniendo implicaciones importantes en el tratamiento de la heteroscedasticidad e incluso sobre la hipótesis de normalidad.
Regresores Estocásticos
- Incumplimiento: Nuestra cuarta hipótesis al plantear el modelo básico de regresión lineal era el carácter no estocástico de las variables explicativas (es decir, de las variables que actúan como regresores, ya que el regresando yi siempre es una variable aleatoria).
- Causas: Existen diversas razones, incluso, por las que las variables explicativas de un modelo de regresión deben ser consideradas necesariamente como estocásticas:
- Cuando en el modelo intervienen variables endógenas desplazadas (yi–1), que por definición tienen un comportamiento aleatorio. Así, en el modelo: yi = bixi + b2 yi – 1 + ui Donde yi es aleatoria por depender de la perturbación aleatoria ui: y i – 1 = bixi – 1 + b2 yi – 2 + ui – 1
- Justificación: La existencia de variables desfasadas queda justificada con cierto carácter general por alguna o varias de las siguientes causas:
- Desfases de información que hacen que las decisiones se tomen sobre los últimos datos disponibles (no actuales) de las variables explicativas.
- Desfase del propio proceso en la toma de decisiones, que lleva a que, aun contando con información actual, la decisión se adopte en fechas posteriores, por el tiempo consumido en el proceso de estudio y puesta en marcha operativa de la decisión.
- Retardos en la ejecución de la decisión una vez adoptada esta.
- Efectos distribuidos en el tiempo de las medidas adoptadas en un momento dado, lo que hace que la situación actual solo sea explicable en función de valores anteriores de otras variables, adecuadamente ponderados.
- Incidencia en decisiones actuales de la evolución experimentada en periodos anteriores por ciertas variables explicativas, evolución que se toma como indicativa de las perspectivas de futuro.
- Incidencia de los cambios temporales de evolución en ciertos procesos de ajuste hacia valores considerados como óptimos o deseados.
- Problemas y solución: La existencia de endógenas desplazadas puede introducir complicaciones en la estimación de parámetros y el la acumulación de errores (en el caso de que sea regresor estocástico). Para poder introducir endógenas desplazadas como explicativas en el modelo sin que suponga un problema de regresor estocástico, debe realizarse la “prueba de dependencia”.
- Variables Latentes. Asimismo, en el caso de que se admitan errores en las variables del modelo, como consecuencia de una inadecuada medición de las mismas, tendremos un modelo de regresión definido en términos de variables no observables y* = X*b + u. cuando los datos disponibles son los incluidos en las matrices X e y tales que los errores de medición vengan dados por XE e yE: y = y* + yE; X = X* + XE. Como consecuencia, el modelo a estimar será, en definitiva: y = Xb + (u +yE – bXE). La matriz X deberá necesariamente tratarse como estocástica.
- Consecuencias: Carácter insesgado de los estimadores pero dependientes.
- Solución: Ante tal situación, la solución general es buscar otros estimadores distintos de los del modelo básico de regresión, que gocen de mejores propiedades. Una alternativa sería la utilización de VARIABLES INSTRUMENTALES. P.ej. Premultiplicar a la expresión del ^b por una nueva matriz de variables (Z’) independientes de u: Z’ y = Z’ Xb + Z’ u INCONVENIENTE: Encontrar variable Z incorrelacionada con u, pero, a la vez, altamente correlacionada con X.
Modelos Econométricos y Estructuras Cambiantes
Una de las hipótesis básicas es la de la constancia de los parámetros del modelo de regresión (bj fijos), es decir, la existencia de una estructura única, válida para todo el periodo de observación, y que suponemos mantenida para el horizonte de predicción.
Existen, no obstante, múltiples motivos para que tal hipótesis de constancia estructural pueda ser rechazada en determinadas ocasiones. El caso más evidente es aquel que corresponde a un cambio profundo del sistema que el modelo trata de representar:
- Cuando se trabaja con series temporales:
- Es habitual encontrarse con cambios institucionales (impuestos, etc.) y del contexto socioeconómico (preferencias, etc.) que transforman la estructura interna de funcionamiento de los fenómenos.
- Pero incluso las propias limitaciones del proceso de modelización pueden inducir ciertos cambios de estructura. En particular:
- (1) una especificación errónea, bien sea por omisión de variable relevante o por la adopción de una forma funcional incorrecta,
- (2) autocorrelación, o
- (3) heteroscedasticidad, etc.
- Cuando los datos son de corte transversal, puede resultar en ocasiones irreal el suponer estructuras iguales de comportamiento para diferentes sujetos.
Contrastes para Determinar Cambio de Estructura
Entre los diversos contrastes disponibles para contrastar la existencia de un posible cambio estructural en el modelo, el más difundido es el propuesto por Gregory Chow (1960).
a) Test de Chow (1960)
- Supongamos, a tal efecto, que dividimos la muestra de observaciones disponibles en dos submuestras tales que en ambas el número de datos sea superior al de parámetros del modelo (n>k).
- Sea, por ejemplo,
y supongamos conocido a priori el punto de corte de la muestra para el que queremos contrastar el posible cambio de estructura. Quedan así definidas las tres posibles regresiones, según se estimen los parámetros con
o
datos:
Para contrastar la hipótesis nula de ausencia de cambio estructural
Partimos de la distribución F para el contraste de subconjuntos de parámetros
El contraste a aplicar es el siguiente
|
|
En el caso de que el punto sobre el que se quiera contrastar el posible cambio de estructura no permita disponer de dos submuestras suficientemente amplias (n2 F:
La interpretación es similar a la anterior.
Limitaciones del Test de Chow:
- Punto de corte fijado ‘a priori’ (inconveniente. Dinámica de prueba tras prueba): La separación de los datos debe hacerse sobre un punto de corte que debe conocerse a priori. En caso de no disponer de información sobre el posible punto (o puntos) de cambio de estructura, cabe el realizar diferentes pruebas para cortes alternativos.
- El contraste pierde potencia según el punto de corte se acerque hacia un extremo de la muestra.
- El contraste parece sensible también a la existencia de heteroscedasticidad, que debe, por ello, ser detectada y corregida con anterioridad al contraste de cambio estructural.
Consecuencias de No Corrección del Cambio de Estructura
Respecto a las consecuencias de un cambio estructural no considerado, éstas pueden ser realmente graves.
- Es inmediato que al mezclar indebidamente dos (o más) estructuras diferentes, los parámetros estimados serán sesgados e inconsistentes con respecto al modelo adecuado para explicar el comportamiento de cada submuestra.
- La propia heterogeneidad de los datos indebidamente mezclados tendrán un efecto de incrementar la varianza de los residuos y, por tanto, la de los estimadores de los parámetros.
En resumen, pues, la mezcla de dos estructuras diferentes, dará lugar, en relación con cada una de las estructuras componentes, a estimadores sesgados, inconsistentes, ineficientes y con errores en la aplicación de los contrastes de significación.
Soluciones Alternativas al Cambio de Estructura
- Si la última submuestra es suficientemente grande, trabajar solo con ella.
- Trabajar con regresiones cambiantes (“switching regression”)
- Incluir variables ficticias en la regresión total.
- Considerar comportamiento aleatorio en los bj (modelos de regresión adaptativo, convergencia aleatoria,…).
Media No Nula
a) Causas
La existencia de una media no nula para la perturbación aleatoria puede admitirse fácilmente como efecto de la omisión de variables relevantes.
b) Consecuencias
- En este caso, no solo la media teórica puede no ser nula (media no nula), sino que además será variable al depender de las variaciones de aquellas incidencias que han sido indebidamente excluidas del modelo (media no constante).
- Los estimadores serán sesgados e inconsistentes.
Caso de media no nula pero constante.
donde el único cambio apreciable se da en el término independiente. En definitiva, una media no nula, aunque constante, solo incide sobre el valor estimado para el término independiente.
Por otra parte, si los efectos no parecen generalmente preocupantes, el incumplimiento de la hipótesis de media nula es prácticamente imposible de contrastar, ya que nuestras estimaciones de las perturbaciones, los residuos, tienen media nula por definición, siempre que el modelo incluya -como es habitual- un término independiente.
Matriz de Covarianzas No Escalar
Al admitir conjuntamente como hipótesis básicas de comportamiento de las perturbaciones, la constancia de la varianza (Homocedasticidad) y la nulidad de las covarianzas (ausencia de autocorrelación), ya vimos como la matriz de varianzas-covarianzas
se reduce a escalar
, dado que:
Cov (u) = E(u´u)=
=
=s2In. Es decir, solo en el caso de Homocedasticidad y ausencia de autocorrelación, una matriz de n x n elementos, reduce su información a un único valor s2:
Modelos con Autocorrelación
a) Incumplimiento de la hipótesis
- Existencia de autocorrelación entre las perturbaciones aleatorias.
- Analíticamente, aparecerá cuando alguno de los elementos fuera de la diagonal principal de la matriz de covarianzas (del término estocástico) es distinto de cero: Covarianzas de la perturbación aleatoria NO NULAS → los errores están correlacionados → ¿Es cometida la DISTORSION del error por el Proceso o por el Término de Error?
Estadísticamente, esta situación proviene del hecho de que el término de error del modelo tiene correlación consigo mismo a través del tiempo [cov (uiuj) ≠ 0 cuando i≠j]
Donde:
Siendo
coefiente de correlación entre
y
Estando -1
1
B) Causas
Puede deberse a muy diferentes causas tales como:
- Inercia intrínseca de los hechos económicos. La inercia propia de los acontecimientos económicos y sociales en general, que hace que se mantengan los efectos de acciones pasadas sobre situaciones actuales, siendo probable el que se mantengan los motivos de un error de un determinado signo sobre periodos posteriores.
- Especificación errónea. Por ejemplo, mediante la omisión de una variable relevante que presente a su vez autocorrelación entre sus propios valores, y que traslada esta al término de error al incluirse su efecto dentro de la perturbación aleatoria.
- Posibles cambios de estructura, que provocan errores sistemáticos de infra o supervaloración por periodos y, por tanto, una autocorrelación positiva de los residuos en cada subperiodo.
- Datos de corte transversal. Pueden darse ciertos efectos de proximidad que provoquen autocorrelación entre las perturbaciones.
- Por tratamiento de datos (Alisados). El propio manejo previo de datos (como el alisado de series) puede incorporar un cierto patrón artificial en la conducta del término de error.
c) Consecuencias
Las consecuencias generales por existencia de autocorrelación son, de nuevo, las propias de una matriz no escalar de las perturbaciones, es decir:
- Ineficiencia en los estimadores de los parámetros.
- Sesgo sistemático en el cálculo de sus varianzas muestrales.
- Y por derivación: incorrecta aplicación de contrastes de significación.
d) Detección
La detección y medición de una posible autocorrelación puede hacerse a través de diferentes contrastes:
Contraste de Durbin-Watson
- Contraste válido para modelos tipo
- Establecido para contrastar la hipótesis alternativa de existencia de un proceso autorregresivo de primer orden, AR(1): ut=rut-1+et respecto a la básica H0: ρ=0, se parte del cálculo del estadístico d (a partir de los residuos ordinarios de la regresión):
Toma el nombre de los dos estadísticos que lo propusieron en 1950 y 1951. Dubrin J. y Watson G.S
Como: -1 r
. ρ= 1 (autocorrelación positiva perfecta) –> d = 0
. ρ=-1 (autocorrelación negativa perfecta) –> d = 4
. ρ= 0 (Ausencia de autocorrelación –> d = 2
* La distribución de d queda definida: d i d d s
H0 : ρ = 0
H1 : ρ > 0 ó ρ
Existen unas tablas correspondientes para un número de datos ‘n’ y un número de variables ‘k’.
Aplicación práctica del contraste d (Durbin-Watson):
Contraste h de Durbin
Se utiliza cuando aparecen Endógenas Desplazadas en el modelo: modelos tipo
Contraste Wallis
Es una extensión inmediata del contraste DW, que se utilizará cuando:
- Trabajemos con datos trimestrales, y
- Sea un proceso AR(4), pero con un único parámetro no nulo en ui – 4: ui= r4 ut-4 + ei Se justifica por la posible correlación serial entre trimestres iguales de años sucesivos, por ejemplo, por la omisión de vbe relevante.
- El estadístico es (parecido a D-W, pero con AR(4)):
e) Solución al incumplimiento de autocorrelación: Estimación de Modelos con Autocorrelación
Conocidas ya las consecuencias de la existencia de autocorrelación y los contrastes para detectarla, podemos pasar ahora al campo de las posibles actuaciones para solucionarla.
Podemos hablar de soluciones locales o específicas y soluciones generales:
Soluciones Específicas
- Transformamos el modelo, reespecificando con un AR (1), introduciendo ρ en el modelo.
- El procedimiento será distinto dependiendo de si ρ es conocida o no.
Supongamos que sigue un proceso AR(1): Yt= b1 + b2Xt +ut ; Yt-1=b1+b2Xt-1 + ut-1Multiplicamos ambos miembros porρ: ρyt-1 =ρb1+ρb2Xt-1+ρut-1
Restando las dos últimas expresiones: (yt – ρyt-1)=b1(1-ρ)+b2(Xt-ρXt-1)+et Por lo que el modelo Yt=b1+b2Xt+ut se transforma en: b1*= b1(1-ρ)
yt*=b1*+b2*Xt*+et donde yt* = (yt – ρyt-1) Xt* = (Xt-ρXt-1)
Así, satisface todos los supuestos de MCO. Es decir, utilizar la ecuación con vbes transformadas es igual que aplicar MCG.
1. ρ conocida 2. ρ desconocida. Aplicar procedimientos conocidos como estimadores MCG en ‘dos etapas’ 1ª etapa: se ensaya un valor ρ y 2ª etapa. Se estima el valor de b. De entre los procedimientos más difundidos cuando ρ es desconocida:
a) Cochrane-Orcutt
1º) Estimar el modelo por MCO, utilizando los residuos calculados para estimar a su vez el valor de ρ en ei= ρei-1+ei 2º) Transformar el modelo original a partir del valor estimado de
ρ: yi* = b1(1-^ρ)+b2X2i* +… + bkXki*+et con yi*= yi – ^ρyi-1 xji*= xji – ^ρxji-1 El proceso a seguir es de carácter iterativo y consiste en: Y estimar este modelo transformado por MCO los parámetros. El procedimiento se sigue repitiendo nuevamente el proceso completo con los nuevos residuos, nuevo ^ρ, nueva transformación y nuevos b, hasta que la diferencia entre dos estimaciones consecutivas de ρ difieran en menos de 0.005
b) Hildreth-Lu
- Hildreth, G. Y Lu, J. Y., proponen un proceso de búsqueda a partir de valores iniciales alternativos de ρ.
- Para cada valor se calcula el modelo transformado y se selecciona, entre todos, aquel que presente una menor suma de cuadrados de residuos (SCR= e´e, menor).
- El proceso puede aplicarse en áreas de búsqueda cada vez más delimitadas, en forma tal que si al principio se han considerado valores de ρ desde 0,1 a 0,9, con intervalos de 0.1, ahora, si el mínimo se ha producido en 0.7, pueden ensayarse valores de ρ más ajustados, por ejemplo, 0,61 y 0,76 y así sucesivamente.
c) Propuesta de Durbin
Trabajar con modelo trasnformado yi* = b1(1-ρ)+ρyi-1+b2X2i -ρb2x2i-1+…+bkXki – ρbkxki-1 +et
- Estimación por MCO, aceptando ^ρ como el coeficiente de yi-1
- Con el valor de ρ, trasnformar el modelo y aplicar MCO al modelo con vbes transformadas, para obtener los mejores ^b.
Solucion General
- Naturalmente, la forma más directa de corregir la autocorrelación es eliminar las posibles causas de que la autocorrelación se produzca. En particular, puesto que una especificación errónea del modelo puede provocar tales efectos, deben ensayarse nuevas variables explicativas e incluso reconsiderar la forma funcional.
- Por tanto, se aplicará el método de MCG, estimando el modelo nuevamente con los estimadores
^b (W)= (X’W-1X)-1 X’W-1y
- En estos casos, se ha de incluir la matriz W, que conseguirá hacer el modelo correcto sin autocorrelación: La matriz V de covarianzas de las perturbaciones, será por tanto:
1 ρ ρ2 … ρn – 1
ρ 1 ρ … ρn – 2
V = s2W = su2 ….
ρn – 1ρn – 2 ρn – 3… 1
Ahora, podemos calcular la verdadera expresión de s2 (bMCO), en el Mod.de Regres Simple, y compararla con la correspondiente al caso de ausencia de autocorrelación.
Modelos con Heterocedasticidad
a) Incumplimiento de hipótesis
Se produce cuando las varianzas de la diagonal principal de la matriz de varianzas-covarianzas de las perturbaciones aleatorias son NO CONSTANTES (distintas entre ellas)
b) Causas
Razones por las que puede aparecer Heterocedasticidad en las perturbaciones aleatorias:
- A valores mayores de la variable, puede crecer la dispersión absoluta, e incluso la relativa.
- Especificación errónea del modelo (omisión de variable relevante). Una variable relevante omitida, puede ser motivo de un comportamiento distinto del término de error de unos periodos a otros. Una variación aleatoria en los coeficientes del modelo, equivale a admitir que la variable dependiente tiene una varianza distinta para cada observación.
- Cambio de estructura.
c) Consecuencias
Las consecuencias de la heterocedasticidad ya han sido comentadas en el apartado anterior, dado que suponen un caso particular de matriz de covarianzas no escalar.
- El estimador MCO continúa siendo lineal e insesgado, pero ya no de mínima varianza (ya no es óptimo).
- Las varianzas de los estimadores serán grandes, por lo que los contrastes de hipótesis serán poco fiables, ya que el intervalo de confianza será muy amplio.
d) Detección
Vistas las consecuencias, el problema inmediato será cómo detectar la existencia de posible heterocedasticidad. Pues bien, al respecto responderemos con varias técnicas, agrupadas en dos grupos
- Métodos no paramétricos: naturaleza del problema, método gráfico, contraste de picos y Coeficiente de Spearman.
- Métodos paramétricos: Contraste F de Foldfield y Quant, Contraste F de Breush y Pagan, Contrastte de Glesjer, COntraste de White.
- Naturaleza del problema
- Método gráfico: Pueden usarse dos vías posibles:
absolutos conjuntamente con valores de alguna variable explicativa o de la propia endógena. Si en este gráfico existe una tendencia clara en el comportamiento o es relativamente frecuente el detectar máximos relativos para valores crecientes de xj o yj, tendremos también un indicio de heterocedasticidad e incluso una pista sobre qué variable es la que la provoca.
Contraste de Goldfeld y Quandt
– Se ordenan los valores de la variable exógena seleccionada, xrj, en forma CRECIENTE, de tal manera que para todo i ri xrj (esta ordenación puede corresponder casi plenamente a los datos originarios en el caso frecuente en series temporales de variables crecientes en el tiempo). – Eliminar ‘p’ observaciones centrales de la muestra (p=8 para n=30, p=16 para n=60-90…) y siempre garantizando que: (n-p)/2 > k. – Estimar el modelo por MCO para las dos submuestras: – (n-p)/2 primeras y (n-p)/2 últimas observaciones. – Calcular el cociente entre la SCR de las dos regresiones que, en caso de homocedasticidad, se distribuye con una F con los mismos g.l. en numerador y denominador ((n-p)/2-k = (n-p-2)/2): F = e’2e2/e’1e1 – Si F es elevado y mayor al valor crítico de tablas para esos g.l., querrá decir que los residuos de la 2ª submuestra son mayores, por lo que rechazará la hipótesis de Homocedasticidad, y viceversa. Como hemos visto, la heterocedasticidad no destruye las propiedades de insesgadez y consistencia de los estimadores MCO, pero, no obstante, dejan de ser eficientes, ni siquiera asintóticamente (es decir, en muestras grandes). Esta falta de eficiencia resta credibilidad a los contrastes corrientes de prueba de hipótesis. Por tanto, es necesario tratar la heterocedasticidad. Ante esto, el procedimiento será distinto, en función de: A) s2i CONOCIDA – El método más directo de corregir la heterocedasticidad es utilizando el método de Mínimos Cuadrados Generalizados (MCG), ya que los estimadores serán ELIO.
– Se obtendrá la matriz W: Su inversa es la que utilizaremos en el estimador MCG: es decir, W-1 = Matriz cuyos elementos diagonales son los inversos de las varianzas correspondientes de los términos de perturbación estocástica. B) s2i CONOCIDA – Es el caso más frecuente. – El problema será obtener estimadores Consistentes de las varianzas y covarianzas de los estimadores MCO. – Existen varias posibilidades (TRANSFORMACIONES), según distintos supuestos: . De proporcionalida . Logarítmica . Box-Cox TEMA 5. ESTIMADOR MCG (AITKEN), SU DISTRIBUCIÓN Y PROPIEDADES
A) Hipótesis periféricas, o esféricas: consideran implícitamente Homocedasticidad y Ausencia de Autocorrelación en el término aleatorio. Los estimadores Mínimo Cuadráticos Generalizados (MCG ó AITKEN), son los mejores estimadores lineales, insesgados (ELIO) del MBR, cuando aparecen problemas de heteroscedasticidad y / o Autocorrelación. Para admitir la presencia de estos fenómenos:
Cov(u)= E(uu’) = s2W Donde: s2 àparámetro desconocido W: Matriz simétrica Semidefinida Positiva (de orden n) A. C. Aitken fue un matemático inglés que propuso por primera vez este tipo de enfoque hacia 1934. Si W = I àPerturbaciones esféricas (MBR, como caso particular) B) OBTENCION ^bMCG – Obtener el estimador ^bMCG es inmediato, suponiendo que la perturbación estocástica está normalmente distribuida con media nula y matriz de covarianzas s2W , es decir: u –> N ( 0, s2W ) – Considerando esta distribución, podremos obtener los estimadores MCG, por el método de Máxima Verosimilitud, siendo la función:
– Tomando logarítmos:
– Aplicando Máximo-verosimilitud (Maximizando esta func). Condición de Máximo:
– Pero, Maximizar esa función es lo mismo que Minimizar los Residuos: Consideramos la última parte de la función anterior:
Condición de Mínimo:
– Suponiendo que X tiene rango pleno => La matriz (X’W-1X) es NO SINGULAR Es decir, | X’W-1X|#0, el estimador podremos considerarlo como: ^b (W)= (X’W-1X)-1 X’W-1y (Estimador MCG que depende de la matriz W) Recordemos: CASO PARTICULAR Si W=I ^b (W)= (X’W-1X)-1 X’W-1y Por tanto, en este caso: