Econometría: Conceptos Clave y Aplicaciones Prácticas

Econometría: Conceptos Clave y Aplicaciones Prácticas

T.1. 4) El fin fundamental de la econometría es efectuar predicciones

Falso. Si bien la predicción es uno de los objetivos de la econometría, su fin fundamental es el estudio y la predicción de fenómenos económicos. El proceso econométrico se compone de las siguientes fases:

  1. Fase previa: Planteamiento del problema económico.
  2. Fase 1. Especificación: Formulación del modelo matemático. Ejemplo: y = xβ + ε.
  3. Fase 2. Estimación: Cálculo de los parámetros del modelo. Ejemplo: βMCO = (x’x)-1x’y.
  4. Fase 3. Verificación o contrastación: Evaluación de la fiabilidad de las estimaciones mediante contrastes de hipótesis, intervalos de confianza y el coeficiente de determinación (R2).
  5. Fase 4. Predicción: Evaluación de los resultados futuros. Ejemplo: ei = Yi – Ŷi.

T.1. 3) Los fines de la econometría son la cuantificación de las relaciones económicas y el análisis estructural

Falso. La econometría es una ciencia social que tiene como objetivo estudiar y predecir fenómenos económicos utilizando la teoría económica, la estadística y las matemáticas. Las fases de la econometría son las mismas que se han descrito en el punto anterior.

T.1. 2) El coeficiente de determinación junto con los contrastes de hipótesis juegan un papel fundamental en el diseño de los modelos econométricos

Dudoso. Todas las fases del proceso econométrico son fundamentales. A continuación, se detalla cada una de ellas:

  1. Fase previa: Se estudia y plantea el problema económico, identificando las variables relevantes (x1, x2, …).
  2. Fase 1. Especificación: Se formula el modelo matemático. Ejemplo: y = xβ + ε o yi = β0 + β1xi1 + β2x2i + … + βkXki + εi. Para la muestra, se utiliza el método de Mínimos Cuadrados Ordinarios (MCO): Min ∑ei2 → βMCO = (x’x)-1x’y.
  3. Fase 2. Estimación: Se calculan los parámetros del modelo. Ejemplo: Ŷ = xβ o Ŷi = β0 + β1xi1 + β2x2i + … + βkXki + εi.
  4. Fase 3. Verificación o contrastación: Se evalúa la fiabilidad de las estimaciones mediante contrastes de hipótesis, intervalos de confianza y el coeficiente de determinación (R2).
  5. Fase 4. Predicción: Se evalúan los resultados futuros. Ejemplo: ei = Yi – Ŷi.

T.2. 3) La hipótesis de normalidad de las perturbaciones aleatorias es esencial para estimar los parámetros del modelo y para realizar inferencia a partir de diversas hipótesis teóricas

Dudoso. A continuación, se detallan las hipótesis básicas sobre las perturbaciones aleatorias (ε) y sobre las variables X e Y:

  • Hipótesis básicas sobre ε (H.B.ε):
    1. E(ε) = 0: Necesaria para calcular βMCO.
    2. Homocedasticidad (regularidad en el comportamiento) y no autocorrelación (la acción de una variable no afecta a la otra): Var(εi) = E(εi)2 = σe2; Cov(εi, εj) = E(εi, εj) = 0Var(ε) = E(εε’) = σe2IN. Necesaria para calcular βMCO.
    3. ε ~ N(0, σe2IN): Necesaria para la inferencia.
  • Hipótesis básicas sobre X e Y (H.B. X.Y.):
    1. ε e Y son números.
    2. Y = xβ + ε → Xβ es la parte sistemática y ε es la variable aleatoria.
    3. X es determinista: E(x) = x.
    4. El rango de x debe ser completo para evitar problemas de multicolinealidad.
    5. N > K + 1.

T.2. 5) La propiedad de la línea de regresión muestra que ∑ei = 0, es cierta tanto si el modelo tiene término independiente como si carece de él

Falso. La propiedad ∑ei = 0 solo se cumple si el modelo tiene término independiente.

  • Con término independiente: yi = β0 + β1xi1 + ei. La gráfica puede cortar por cualquier punto. x’y = (x’x)β. En forma matricial: [∑yi, ∑YiXi] = [N, ∑Xi; ∑Xi, ∑Xi2] 0, β1]. Desarrollando la primera forma: ∑yi = ∑(Nβ0 + βiXi). Sabemos que Ŷi = β0 + β1Xi → ∑Ŷi = ∑(β0 + β1Xi) → ∑Ŷi = Nβ0 + β1∑Xi). Además, ei = Yi – Ŷi → ∑ei = ∑Yi – ∑Ŷi → ∑ei = 0*.
  • Sin término independiente: yi = β1xi1 + ei. La gráfica está obligada a pasar por el punto 0. x’y = x’xβ → ∑YiXi = ∑Xi2β1. Se incumple que ∑ei = 0. Desarrollando: Ŷi = β1Xi; ei = Yi – Ŷi; ∑ei = ∑Yi – ∑Ŷi; ∑ei = ∑β1Xi + ∑ei – ∑β1 → ∑ei ≠ 0. En el Tema 5 se incumple que E(ε) = 0 y ∑ei = 0.

T.2. 6) Cuanto mayor sea la dispersión de los valores de la variable explicativa, menor será la varianza de los estimadores

Verdadero. En el Modelo de Regresión Lineal Simple (MRLS) Yi = β0 + β1Xi + ei, sin desviaciones, Var(β) = σe2(x’x)-1 → Var(β) = σe2 [N, ∑Xi; ∑Xi, ∑Xi2]-1. Con desviaciones, Var(β) = σe2(x’x)-1 → Var(β) = σe2(∑xi2)-1 → Var(β) = σe2 (1/∑xi2). Por lo tanto, cuanto mayor sea ∑xi2 = ∑(Xi – X̄)2, menor será Var(β). La variable exógena debe tener una mayor dispersión para una mejor estimación de β.

T.2. 7) El término de perturbación aleatoria ε representa a aquellas variables poco significativas del modelo

Dudoso. Yi (variable explicada) = β0 + β1xi1 + β2x2i (variables exógenas) + ei (variable aleatoria). El término de perturbación aleatoria recoge varios factores:

  1. Es una ciencia social.
  2. Los modelos lineales pueden no ser una especificación adecuada.
  3. El modelo es una simplificación y puede omitir variables poco importantes.
  4. Puede haber errores en la recogida de datos, como que la gente mienta.

T.2. 8) La hipótesis de normalidad del término de perturbación aleatoria es esencial para la estimación MCO

Falso. Es esencial para la inferencia, no para la estimación MCO. Las hipótesis básicas sobre ε y sobre X e Y son las mismas que se han detallado en el punto T.2. 3).

T.2. 9) En el modelo de regresión lineal, las estimaciones obtenidas para la matriz de varianza y covarianza del estimador MCO de β no dependen de la muestra

Falso. Var(β) = σe2(x’x) = [Var(β0), Cov(β0, β1), …; Var(β1), …, Var(βk)]. Además, σe2 = (e’e / (N – K – 1)) depende de N. También Var(β0) = ∑(β0 – β̄0)2 / N depende de N.

T.2. 4) La predicción en el MRLG requiere el conocimiento previo de los valores futuros de las perturbaciones aleatorias

Falso. Las perturbaciones aleatorias son siempre desconocidas. Y = xβ + ε; Yp = P’β + εp; σε2 = σ̂ε2.

T.2. 5) Cuando existe relación lineal entre dos o más regresores, la varianza de los residuos es anormalmente grande, lo que provoca que no se rechacen las hipótesis nulas sobre la significatividad de los coeficientes

Falso. Si hay relación entre dos o más regresores, existe un problema de multicolinealidad. El rango de x no es completo y el determinante de (x’x) es igual a 0. e = y – ŷ; e = y – xβ. No se puede calcular Var(e). β = (x’x)-1X’Y → (x’x)’ = matriz adjunta / (x’x)’ = algo / 0 = error.

T.2. 2) En un modelo econométrico de la producción Cobb-Douglas, al transformar las variables en términos de sus logaritmos, la interpretación tradicional de los coeficientes se ve modificada

Verdadero. Si se trabaja con logaritmos con la variable endógena y exógena, la interpretación de βi es la variación porcentual de la producción cuando varía un 1% el factor trabajo. P = aLβ1Kβ2 → ln(P) = ln(a) + β1ln(L) + β2ln(K) + εi.

T.2. 2) Cuando se transforma el modelo econométrico pasando los datos originales de las variables a sus tasas de variación, la interpretación tradicional de los coeficientes se ve modificada y R2 es menor

Falso. No cambia si r’ = r; r’2 = r2 = R2. Se trata de cambios de origen y escala. En el MRLS se cumple que R2 = r, donde r = [Cov(x, y) / √(V(x)V(y))], que mide la relación entre -1 y 1. X’i = (Xi – a) / b → X̄’i = (X̄i – a) / b. r’ = [Cov(x’, y) / √(V(x’)V(y))] → r’ = ∑(x’i – x̄’)(Yi – Ȳ) / N / √[(∑(x’i – x̄’)2 / N)(∑(Yi – Ȳ)2 / N)]. Desarrollando, se obtiene que r’ = r.

T.2. 5) El teorema de Gauss-Markov nos garantiza que no puede haber ningún estimador de menor varianza que el mínimo cuadrático

Falso. El teorema de Markov dice que, de todos los estimadores lineales e insesgados, el MCO es el que tiene menor varianza: Var(β) = σe2(x’x)-1. Se puede relacionar con βMR = βMCO + (x’x)-1R'(R(x’x)-1R’)-1(r – RβMCO). Condición 3: Var(β̃MCR) < Var(βMCO). β̃MCR es lineal e insesgado si Rβ = r, pero no es óptimo, mientras que βMCO es lineal, insesgado y óptimo (ELIO).

T.2. 4) (x’x) = 0, supone que la ordenada en el origen es 0

Falso. Las hipótesis básicas de X e Y establecen en el punto 4 que el rango de x debe ser completo por columnas. Las columnas de la matriz x son linealmente independientes y no existe relación lineal entre las variables explicativas. (x’x) ≠ 0. Si es igual a 0, hay un problema de multicolinealidad. β = (x’x)-1x’y → (x’x) = matriz adjuntat / x’x = algo / 0 = error. No existe, lo que se denomina multicolinealidad estricta. Si (x’x) es próximo a 0, β es inestable (multicolinealidad aproximada).

T.2. 5) En un modelo de RLG, la inclusión de variables irrelevantes no aumenta el R2

Falso. Cuantas más variables exógenas se introduzcan, mayor será el R2 o, al menos, no empeorará. También puede aparecer un problema de multicolinealidad al introducir muchas variables, si una es combinación de la otra. Ejemplo: Yi (notas) = β0 + β1X1i (horas) + β2X2i + β3X3i (minutos) + εi.

T.2. 1) El R2 aumenta si en un modelo de regresión lineal simple, a la variable exógena la multiplicamos por 100

Falso. El R2 no se ve afectado por cambios de escala en las variables.

T.2. 1) La calidad del ajuste de un modelo estimado a partir de los datos de series temporales originales de las variables, suele ser mayor que la resultante de la estimación con las mismas variables pero transformadas en tasas de variación

Falso. Es igual que la pregunta T.2. 2) sobre cambios de origen y escala. r2 = r’2 = R2.

T.2. 10) Se quiere estimar un modelo que explique el volumen de ventas de una empresa Vt en función de los gastos que realiza en publicidad y promoción de ventas Gt, de la forma: Vt = β0 + β1G1 + εt. Para estimar con mayor precisión el parámetro de posición β, y si pudiéramos elegir la muestra en diferentes periodos, la decisión correcta supondría elegir un periodo de tiempo en el cual los gastos en publicidad hubieran variado mucho, en lugar de un periodo de tiempo en el cual los gastos de publicidad se hubieran mantenido relativamente constantes

Verdadero. Vt = β0 + β1Gt + ei. Sin desviaciones, Var(β) = σ̂e2(x’x)-1 → Var(β) = σ̂e2 [N, ∑Gt; ∑Gt, ∑Gt2]-1. Con desviaciones, Var(β) = σ̂e2(x’x)-1 → Var(β) = σ̂e2(∑Gt2)-1 → Var(β) = σ̂e2 (1/∑Gt2). Cuanto mayor sea ∑Gt2 = ∑(Gt – Ḡ)2, menor será Var(β). La variable exógena debe tener una mayor dispersión para una mejor estimación de β.

T.2. 18) Si aceptamos la H0: Rβ = r, entonces βMCO = β̃MCR

Falso. Faltaría la estimación Rβ̂ = r.

T.2. 4) La predicción en el MRLG requiere el conocimiento previo de los valores futuros de las perturbaciones aleatorias

Falso. Las perturbaciones aleatorias son siempre desconocidas. Y = xβ + ε; Yp = P’β + εp; σε2 = σ̂ε2.

T.2. 5) Cuando existe relación lineal entre dos o más regresores, la varianza de los residuos es anormalmente grande, lo que provoca que no se rechacen las hipótesis nulas sobre la significatividad de los coeficientes

Falso. Si hay relación entre dos o más regresores, existe un problema de multicolinealidad. El rango de x no es completo y el determinante de (x’x) es igual a 0. e = y – ŷ; e = y – xβ. No se puede calcular Var(e). β = (x’x)-1X’Y → (x’x)’ = matriz adjunta / (x’x)’ = algo / 0 = error.

T.2. 4) La suma de los productos de los errores de ajuste por la variable dependiente ajustada es nula, porque las perturbaciones aleatorias tienen valor esperado = 0

Falso. Hasta»nul» es verdadero, después de la frase es falso. Conclusión 1: x’e = 0; x’y = x’xβ; e = y – ŷ; ŷ = xβ; e = y – yβ; y = xβ + e; x'(xβ + e) = x’xβ; x’xβ + x’e = x’xβ → x’e = 0. Conclusión 3: ŷ’e = 0; ŷ = xβ; ŷ’ = β’x’ → β’x’e = 0 → x’e = 0 → C.Q.D. Esto es cierto, pero no depende de que E(ε) = 0.

T.2. 2) La comprobación del supuesto de que la varianza de las perturbaciones aleatorias es constante, se lleva a cabo mediante la prueba de Jarque-Bera aplicada a los residuos

Falso. La prueba de Jarque-Bera se lleva a cabo para el contraste de normalidad H0: e ~ N. También se necesita llevar a cabo otras hipótesis básicas de ε (variable aleatoria): 1) E(ε) = 0; 2) Homocedasticidad y no autocorrelación; 3) Inferencia H0: e ~ N, e ~ N(0, σe2IN).

T.2. 4) En un modelo donde se han impuesto restricciones a priori sobre sus parámetros, los estimadores siguen siendo lineales, insesgados y óptimos

Falso. β̃MCR = βMCO + (x’x)-1R'(x’x, R’)-1(r – RβMCO). β̃MCR es lineal e insesgado si Rβ = r, pero no es óptimo porque no siempre es insesgado. βMCO es lineal, insesgado (E(βMCO) = β) y óptimo: de entre todos los estimadores lineales e insesgados, βMCO es el que tiene menor varianza.

T.2. 1) La transformación logarítmica de los datos originales siempre aumenta la calidad del ajuste del modelo

Falso. En un modelo econométrico lineal, al pasar a lineal se cometen más errores. En un modelo no lineal, se puede linealizar tomando logaritmos. Y = xβ + e. Es una ciencia social, trabajamos con modelos lineales, pero puede que no lo sean.

T.2. 4) En un modelo con restricciones sobre sus parámetros, los estimadores son sesgados

Falso. β̃MCR = βMCO + (x’x)-1R'(x’x, R’)-1(r – RβMCO). Propiedad 1: E(β̃MCR) = β si y solo si Rβ = r (insesgado). El modelo será sesgado si E(β̃MCR) ≠ β si y solo si Rβ ≠ r.

T.2. 3) El incumplimiento de la hipótesis del MRLG referente a que las perturbaciones aleatorias tienen un valor esperado de 0 llevaría a que los estimadores serían sesgados

Verdadero. E(ε) ≠ 0. E(β) = β. β = (x’x)-1X’Y. Y = xβ + ε → β = (x’x)-1X'(xβ + ε) → β = β + (x’x)-1X’ε → E(β) = E(β) + E((x’x)-1X’ε). Si X no es determinista, nos quedaríamos aquí y sería distinto de 0. Si fuera 0, seguiríamos: E(β) = β; E(β) = β + (x’x)-1X’E(ε) ≠ 0. E(β) = β + algo (sesgado). Si fuera 0, sería insesgado.

T.2. 4) La suma de los productos de los errores de ajuste por la variable dependiente ajustada es nula, porque las perturbaciones aleatorias tienen valor esperado = 0

Falso. Hasta»nul» es verdadero, después de la frase es falso. Conclusión 1: x’e = 0; x’y = x’xβ; e = y – ŷ; ŷ = xβ; e = y – yβ; y = xβ + e; x'(xβ + e) = x’xβ; x’xβ + x’e = x’xβ → x’e = 0. Conclusión 3: ŷ’e = 0; ŷ = xβ; ŷ’ = β’x’ → β’x’e = 0 → x’e = 0 → C.Q.D. Esto es cierto, pero no depende de que E(ε) = 0.

T.3. 1) El R2 en un modelo con observaciones originales y sin término independiente puede ser menor que 0

Verdadero. Yi = βixi + εi. R2 < 0 es cierto porque no hay término independiente.

T.3. 2) El intervalo de confianza de la predicción del verdadero valor es más amplio que el del valor medio por contener más fuentes de variación

Verdadero. MRLG: IC(Yp) (verdadero valor) = p ± tα/2σe(1 + P'(x’x)-1P)1/2]. 1 + algo es mayor que ICE(Yp) = [Ŷp ± tα/2σe(P'(x’x)-1P)1/2]. MRLS: IC(Yp) = [Ŷp ± tα/2σ̂e√(1 + 1/N + (xp – x̄) / ∑xi2)]; ICE(Yp) = [Ŷp ± tα/2σ̂e√(1/N + (xp – x̄) / ∑xi2)].

T.3. 4) Cuando la predicción en el MRLG se centra en el verdadero valor, el intervalo de confianza es de una amplitud mayor que si se centrase en el valor medio

Verdadero. MRLG: IC(Yp) (verdadero valor) = p ± tα/2σe(1 + P'(x’x)-1P)1/2]. 1 + algo es mayor que ICE(Yp) = [Ŷp ± tα/2σe(P'(x’x)-1P)1/2)].

T.3. 4) La varianza del verdadero valor de la predicción es mayor que la del valor esperado de la predicción ya que incorpora más fuentes de variabilidad

Verdadero. IC(Yp) = [Yp ± tα/2σ̂e(1 + P'(x’x)-1P)1/2]. E(ep) = 0. Var(ep) = σ̂e2(1 + P'(x’x))-1P. IC(Yp) = [Yp ± tα/2σ̂e(P'(x’x)-1P)1/2]. Var(ep) = (σ̂e2(P'(x’x))-1P).

T.3. 1) Para un nivel de significación dado, los intervalos de confianza de los parámetros del modelo reducen su dimensión si R2 crece

Verdadero. Si disminuye la amplitud del intervalo, ocurre que: 1) aumenta α y disminuye 1 – α; 2) disminuye tα/2 y aumenta N; 3) disminuye K; 4) aumenta R2 = SCE / SCT = 1 – (∑ei2 / SCT), por lo que disminuye ∑ei2. IC(βi) = [β̂i ± tα/2σ̂e2]. Var(βi) = σ̂e2(x’x)-1. Si disminuye ∑ei2 / (N – K – 1), entonces R2 aumenta. Ocurre lo mismo en los intervalos de las presiones tanto en el MRLG como en el MRLS.

T.3. 16) El contraste de hipótesis conjunta también puede obtenerse con el t-Student

Dudoso. Depende de las restricciones. Si son dos, sí se puede; si no, no.

T.3. 17) La t-Student es el único estadístico que podemos utilizar para efectuar contrastes individuales en el marco del MRLG

Falso. Se pueden utilizar también los estadísticos F, como se explica en la pregunta T.3. 4).

T.3. 1) La amplitud del intervalo de confianza en la predicción mediante el MRLS, depende del alejamiento de la observación de la variable exógena respecto de su valor medio y del número de observaciones muéstrales empleadas para la estimación

Verdadero. IC(Yp) = [Ŷp ± tα/2, N-K-1σe2√(1 + 1/N + (xp – x̄) / ∑xi2)]; ICE(Yp) = [Ŷp ± tα/2σ̂e√(1/N + (xp – x̄) / ∑xi2)]. Si aumenta N, disminuye tα/2. Si aumenta N, disminuye σe2 (raíz de σe2 = e’e / (N – K – 1)). Si aumenta N, disminuye 1/N. ∑xi2 = ∑xi / N.

T.3. 4) En el modelo de regresión lineal, si deseamos contrastar la H0: β1 = 0, podemos emplear el estadístico: FK, N-K-1 = (R2/K) / (1-R2/(n-N-K1))

Verdadero, aunque el más idóneo sería el t-Student con un contraste de hipótesis de un único parámetro/variable. MRLS: yi = β0 + β1xi1 + ei; H0: β1 = 0. MRLG: yi = β0 + β1xi1 + β2x2i + ei; H0: β1 = β2 = 0. Contrastes H0: A) Contraste de hipótesis individual: i) Combinación lineal: tα/2, N-K-1 ~ (Rβ – r) / √(σ̂e2R(x’x)-1R’) (SÍ se puede usar en MRLS, NO en MRLG); ii) Único parámetro: tα/2, N-K-1 ~ (β̂1 – β1) / σ̂β1 (SÍ se puede usar en MRLS, NO en MRLG). B) Contraste de hipótesis conjunta: Fα, n-k-1 ~ [(Rβ – r)'(R(x’x)-1R’)-1(Rβ – r)] / q / (σe2 ó SCR / (N – K – 1)) (SÍ se puede usar en MRLS, SÍ en MRLG). C) Contraste de hipótesis de significatividad global: Fα, n-k-1 ~ (R2/K) / (1 – R2 / (N – K – 1)) (SÍ se puede usar en MRLS, SÍ en MRLG).

T.4. 11) La obtención de los estimadores por MCO descansa sobre un determinado supuesto acerca del tipo de distribución seguida por el término error del modelo econométrico

Falso. Es igual que la pregunta T.2. 8), pero en vez de»descans» dice»se apoy».

T.4. 12) El estimador MCO de σ̂2 es lineal e insesgado

Verdadero. Estimación σ̂e2 = (e’e / (N – K – 1)). E(σ̂e2) = σe2. Entonces, σ̂e2 sí es insesgado y lineal.

T.4. 13) El estimador de MCR, βMCR, del modelo con restricciones es insesgado

Falso o dudoso. Solo si cumple determinadas condiciones, como Rβ = r, sería insesgado. E(βMCR) = β.

T.4. 15) La única

diferencia entre βmco y βmcr es que cuando se cumple la restricción βmcr es más eficiente. Verdadero. Ya que βmco es óptimo y βmcr no lo es.

T.4 19) La matriz de varianza y covarianza del vector de estimadores MCR, es inferior a la matriz de varianzas y covarianzas del vector de estimadores MCO, solo si este último satisface las restricciones establecidas en la Ho. Falso, siempre va a ser menor.  Var (β̴mcr)

T.4 20) El estimador βmcr es insesgado y óptimo. Falso,  no es óptimo Definición: de entre todas las estimaciones lineales e insesgadas es aquel q tiene el menor o la menor varianza solo el ^βmco y será insesgado si cumple la condición Rβ=r -> E(β̴mcr)= β;  ¿Lineal? Si, son los dos.

T.4. 3) La prueba de cambio estructura de Chow es un caso especial del contraste de hipótesis conjunta cuando la muestra se segmenta en dos tramos.  Verdadero ya q restricciones q>1 Ej. Consumo cuando la crisis y en la postcrisis. En un modelo no restringido tendrán cada una su modelo  Crisis: Yi= α1+β1Xi + Ei   Postguerra: Yi= α2+β2Xi + Ei   , y en un modelo restringido se podrá estudiar las dos juntas  . Yi= α+β1Xi + Ei   con F ˷ (e˜’e˜-e’e)/(q)/(e’e)/(N-K-1)  Ho: α1=α2 , β1=β2   o con variables ficticias  Yi= α1+ (α2-α1) Fci + β1Xi +(β2-β1) FciXi + Ei   ->    Yi= β0 + β1Fci +β2Xi + β3FciXi + Ei    Ho: β1=0 ; β3=0

T.4  2)  La estabilidad de un modelo especificado para una muestra dada, solo se puede comprobar mediante la prueba de Chow. Falso, tb se puede utilizar el método restringido con variables ficticias

T. 4.1. 3) Es equivalente estimar los coef. De un modelo sujeto a una restricción mediante MCR, aplicando la técnica de los multiplicadores de lagrange, q incluir la restricción en el modelo y luego aplicar mco para obtener restricciones. Verdadero,  β˜mcr = ^βmco + (x’x)^-1 R’ (x’x,R’)^-1(r-R^βmco)  ->  Min e˜’e˜  Langranjiao  s.a. Rβ˜=r   Modelo no restringido: Yi= βo + β1x1i + β2x2i + Ei    Ho:Rβ =r   ->  Modelo restringido :   Yi= βo + β2x2i + Ei    β˜o= (media Y – ^β1mediax2)    β˜2= (Cov (x,Y)/ Var (X1))  -> mismas formulas que MCO.

T.4 2) Un modelo restringido procedente del lineal general presenta un R^2 mayor y una varianza de los estimadores menor.  Dudoso, hasta la y falso luego verdadero.  Modelo no restringido: Yi= βo + β1x1i + β2x2i + Ei ;  Modelo restringido :   Yi= βo + β2x2i + Ei   R2 > R2   ∑ei^2   1) β˜mcr =β  2) β˜mcr =^βmco   1 y 2 solo si Rβ=r   3) Var (β˜mcr)  (^βmco) esto se produce siempre  

T.4 5) La prueba de estabilidad de Chow, se puede aplicar para contrastar la nulidad de los parámetros en un modelo no restringido. Falso, se puede aplicar a los parámetros en un modelo restringido el test de Chow.

T.4. 3) La estimación de un modelo restringido siempre genera un ajuste peor que el del modelo no restringido. Falso.  Modelo no restringido (^βmco ): Yi= βo + β1x1i + β2x2i + Ei ; Ho: β2=0  ; Modelo restringido (β˜mcr) :   Yi= βo + β2x2i + Ei   R2 > R2   ∑e’e

T.4. 5) La prueba de estabilidad de Chow solo es aplicable en modelos de series temporales, falso temporales y datos de sección cruzada

T.4. 2) La comprobación del supuesto de que el MRLG es correcto, se lleva a cabo estimando el modelo restringido y observando q presenta un R^2 mayor. Falso, xq el no restringido tiene más variables, x ello será mejor. Modelo no restringido: Yi= βo + β1x1i + β2x2i + Ei ;  Modelo restringido :   Yi= βo + β2x2i + Ei   R2 > R2   ∑ei^2


T.4. 5) Cuando la prueba de estabilidad estructural de Chow se aplica a modelos con datos de sección cruzada, genera rdo no concluyentes. Falso, son concluyentes. ya que se pueden ordenar o no y a través se puede corregir el modelo con variables ficticias. Ej:  Nota Yi: βo + β1 Sexoi + Ei  Sexo: variable para explicar nota de los alumnos.

T.4. 1)Si en el grafico de residuos se detecta q los primeros residuos son negativos y luego pasan a ser positivos, debe reformularse el modelo dividiendo la muestra en dos partes y estimando dos modelos separados. Dudoso. En un modelo no restringido tendrán cada una su modelo  Ej: Crisis: Yi= α1+β1Xi + Ei   (Ni): e1’e1   Postguerra: Yi= α2+β2Xi + Ei   (N2): e2’e2  , y en un modelo restringido. Yi= α+βXi + Ei -> e˜¡e˜  ;   Test Chow: con F ˷ (e˜’e˜-(e1’e1 + e2’e2)/(k+1)/( e1’e1 + e2’e2)/(N1+N2-2(K+1)   Ho: α1=α2 , β1=β2   o con variables ficticias  Yi= α1+ (α2-α1) VFi + β1Xi +(β2-β1) VFiXi + Ei   ->    Yi= β0 + β1VFi +β2Xi + β3VFiXi + Ei    Ho: β1=0 ; β3=0  las v. ficticias sirven para v. atípicos, cambio estructural, series estacionales..

T.4. 2) La prueba de Chow permite conocer si es preciso incluir nuevas variables exógenas en el modelo a fin de reducir la varianza residual. Verdadero. Hay que dibujar y si hay cambio estructural -> efectos: 1) ↑∑ei^2 -> ↑ Var(ei) = ↑∑ei^2/N  2) ↓R^2=1-↑∑ei^2/SCT  3) ↑ℴe^2=↑∑ei^2/N-K-1  4)↑^Var (^β) = ↑ℴe^(x’x)^- = matriz (^var (^βo) ; ↑ ^Var (^β1))   5) Ho:β1=0   t α/2 ˷  ↓(^β1-β1)/ ↑^ℴ^β1 tiende a no rechazar Ho. Introduciendo la v. ficticia se revierte la secuencia.

T.4. 2) La prueba de Chow es equivalente a una prueba q examina adecuación de ciertas restricciones impuestas a un modelo. Verdadero. Yi= α1+ (α2-α1) VFi + β1Xi +(β2-β1) VFiXi + Ei   ->    Yi= β0 + β1VFi +β2Xi + β3VFiXi + Ei    Ho: β1=0 ; β3=0  las v. ficticias sirven para v. atípicos, cambio estructural, series estacionales..

T.4. 3) Si el gráfico de residuos presenta una primera parte de valores con signo negativos y los siguiente con positivo, ese perfil es un claro ejemplo de q una de las hipótesis del MRLG no se cumple. Dudoso. El cambio de estructura si los valores estan dentro del rango si la cumplirá, pero si los valores están fuera del rango no cumplirá la 3 condición E˷N (0,ℴe^2 * IN) no cumple H.B.E. o también pueden tener problemas de heterocedasticidad y no cumpliría la hipótesis MRLG.

T.5. 14) Si hay algún valor excesivamente grande o pequeño de la variable dependiente, esto afectara al modelo de regresión. Verdadero, ya que habrá un valor atípico y estará mal especificado el modelo. Que provocara unos efectos: 1) ↑∑ei^2 -> ↑ Var(ei) = ↑∑ei^2/N  2) ↓R^2=1-↑∑ei^2/SCT  3) ↑ℴe^2=↑∑ei^2/N-K-1  4)↑^Var (^β) = ↑ℴe^(x’x)^- = matriz (^var (^βo) ; ↑ ^Var (^β1))   5) Ho:β1=0   t α/2 ˷  ↓(^β1-β1)/ ↑^ℴ^β1 tiende a no rechazar Ho.

T.5. 3) La prueba de cambio de estructural Chow no es posible aplicarla cuando el modelo emplea datos de sección cruzada. Falso, si se puede aplicar.

T.5. 4) Cuando un modelo contiene entre sus regresores alguna variable medida con error, entonces los estimadores son insesgados. Falso, no son insesgados, Hipotesis básica E: 4) X es determinista, SI X no es determinista no es insesgado.   Ej: Vt= βo + β1 P t + β2 Renta t +β3 GP t + εt.  ->  ^β = (x’x)^-1 X’ Y ,  Y= xβ+E  -> ^β = (x’x)^-1 X’*( xβ+E)  ->   ^β = β + (x’x)^-1 X’*E  -> E^β =E(β) + E((x’x)^-1 X’*E)  -> E(^β) = β + algo 

T.5. 5) Cuando un modelo contiene una variable irrelevante, los estimadores para los coef. De las otras variables son sesgados. Verdadero, valor modelo Y=X1β1 + E   – Mal especificado: Y=Xiβ1 + X2β2 + E  ->  ^Y=Xi^β1 + X2^β2   ->  E(^β1)= β1  ;  E(^β2)= β2  ->  Ho: β2= 0  No rechazo  

T.5. 1) Cuando R^2  es bajo (menor 25%), para un nivel de significación del 95% se tiende a rechazar la Ho de q los coef. Individuales de un modelo son 0, en más ocasiones que el si R^2 fuese alto. Falso, 1) ↓R^2  2) ↑∑ei^2 = ↑ Var (ei)  3) ↑ ^ℴe^2 = ↑ ∑ei^2/N-K-1   4) ↑ ^Var (^β)=↑^ℴe^2 (x’x)^-1   5) Ho:β1=0  t α/2, N-K-1 ˷ (^β1-β1)/ ↑^ℴ^β1  -> provoca que este en la región de no rechazo Ho.

T.5. 5) Si el modelo está mal especificado, la varianza de los residuos es anormalmente grande, lo q provoca q no se rechacen las HO sobre significatividad de los regresores. Verdadero.  Modelo mal especificado, efectos: 1) ↑∑ei^2 -> ↑ Var(ei) = ↑∑ei^2/N  2) ↓R^2=1-↑∑ei^2/SCT  3) ↑ℴe^2=↑∑ei^2/N-K-1  4)↑^Var (^β) = ↑ℴe^(x’x)^- = matriz (^var (^βo) ; ↑ ^Var (^β1))   5) Ho:β1=0   t α/2 ˷  ↓(^β1-β1)/ ↑^ℴ^β1  tiende a no rechazar Ho. Introduciendo la v. ficticia se revierte la secuencia, corrigiendo la mala especificación del modelo

T.5 1) Las variables ficticias permiten captar la influencia que los gustos del consumidor tienen en la demanda de un bien. Verdadero, al ser le econometría una ciencia social, el comportamiento de las personas.  Falso, las variables ficticias se introducen en el modelo xq a veces existen factores de suma importancia q no pueden ser captados por las variables exógenas, la variable dependiente no queda bien explicada. Los factores q suelen reflejar son: valores atípicos/anómalos (consumo cuando España gana el mundial o las canciones de navidad) , cambios estructurales (las visualizaciones de serie tv) y series estacionales (consumidores de helados en el tiempo)

T.5. 3) Cuando se aplican las pruebas de contraste de hipótesis acerca de la nulidad de los parámetros en un modelo no restringido, tienden a no rechazar en más ocasiones la Ho q cuando se aplican en un modelo restringido. Falso, tiende a rechazar Ho.  1) ↓∑ei^2 -> ↓ Var(ei) = ↓∑ei^2/N   2) ↑R^2=1-↓∑ei^2/SCT  3) ↓ℴe^2=↓∑ei^2/N-K-1  4)↓^Var (^β) = ↓ℴe^(x’x)^- = matriz (^var (^βo) ; ↓ ^Var (^β1))   5) Ho:β1=0   t α/2 ˷  ↑(^β1-β1)/ ↓^ℴ^β1  tiende a rechazar Ho.

T.5. 1)Si en el gráfico de residuos se detecta q hay 2 residuos seguidos, q tienen valores cercanos a 3 veces la dev. Típica de los residuos debe formularse el modelo con más v. exógenas. Verdadero, se debe de introducir v. ficticias en las v. exógenas ya que hay datos atípicos. efectos: 1) ↑∑ei^2 -> ↑ Var(ei) = ↑∑ei^2/N  2) ↓R^2=1-↑∑ei^2/SCT  3) ↑ℴe^2=↑∑ei^2/N-K-1  4)↑^Var (^β) = ↑ℴe^(x’x)^- = matriz (^var (^βo) ; ↑ ^Var (^β1))   5) Ho:β1=0   t α/2 ˷  ↓(^β1-β1)/ ↑^ℴ^β1  tiende a no rechazar Ho. Introduciendo la v. ficticia se revierte la secuencia.

T.5 5) El incumplimiento del supuesto de que la matiz x tenga rango completo x columnas, lleva a  los contrastes no puedan ser aplicados. Verdadero. Debido a que si el rango de x es completo tengo problemas de multicolinealidad,  el rango de x no es completo el determinante (x’x)=0  como  ^β = (x’x)^-1 X’ Y  -> (x’x)’ = matriz adj / (x’x)’ = algo / 0 = error  ; ^y =x^β error  e=error

T.5. 4) La inclusión de variables irrelevantes en el modelo induce multicolinealidad. Verdadero, lo q no induce es heterocedasticidad

T.5. 5) La contrastación de un cambio estructural puede efectuarse con lo métodos Chow o mediante el diseño de variables ficticias.  Verdadero

T.5. 6) La inclusión de variables irrelevantes en el modelo induce heterocedasticidad. Falso, no la induce

T.5. 7) El análisis de los residuos de un MLG facilita el diseño de las v. Ficticias más adecuadas. Verdadero

T.5. 8) La autocorrelación puede eliminarse mediante la introducción de v. ficticias introducidas. Verdadero.

T.5. 9) La introducción de v. ficticias en un modelo está condicionada por la existencia de fenómenos anómalos  incluyen en la v. endógena. Verdadero

T.5. 10) Las v. ficticias contribuyen a reducir la varianza residual, pero pueden reducir heterocedasticidad y multicolinealidad. Falso, heterocedasticidad no la induce.

T.5. 3) Cuando los estimadores de las v. exógenasquedan divididos por mil, las estimaciones de los coef. quedan multiplicadas por mil. Dudoso, falso. Cambios de origen y escala.  X’i = (a *Xi)    -> media X’i = (a* media Xi ) ;  ^βo = media y – ^β1 * media x  esto se mantiene ^βo = media y – (1/a) * ^β1 * a media x  = media y – ^β1* media x= ^βo ;    ^β1= Cov (x) / raíz V(x) = ∑(xi-media x)* (yi-mediax) / N / ∑ (xi-media x)^2 / N  -> se cambia xi y media de x rdo = β1’ = 1/a ^β1     r = Cov (x,y) / raíz V(x)V (y) -> r^2 = R^2  ;

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.