Y 3
M.A.S (Muestreo Aleatorio Simple): Otorga la misma probabilidad a todas las posibles muestras de tamaño n (elementos de la muestra independientes); cada elemento de la población tiene la misma probabilidad de ser elegido; cada elemento de la muestra tiene la misma distribución de probabilidad que la población de la que procede; el estadístico varianza muestral en M.A.S es un estimador asintóticamente (según el tamaño muestral se va haciendo mayor) insesgado de la varianza poblacional; las características teóricas de una M.A.S indican que disponemos de elementos muestrales que son variables aleatorias con una distribución de probabilidad idéntica a la poblacional; dada una M.A.S, si el tamaño muestral es suficientemente grande, es posible calcular la distribución de la media muestral cualquiera que sea la distribución de la población, si se aproxima a una normal por el TCL (Teorema Central del Límite); en una M.A.S (con reemplazamiento) los elementos muestrales son independientes unos de otros; de una población se obtiene una M.A.S y se construye un estadístico estimador, si es una variable aleatoria porque está compuesta por elementos de una M.A.S. Antes de recoger los datos, ¿es posible que en una Muestra Aleatoria Simple, cada uno de los elementos que la componen (x….) sean variables aleatorias con la misma distribución de probabilidad que la población de donde provienen? Sí, debido al tipo de muestreo. Cada elemento muestral sigue la distribución de probabilidad de la población de partida. En el M.A.S, cada uno de los elementos muestrales se distribuyen igual que la población en inferencia estadística y para cualquier tipo de muestreo, los elementos muestrales siempre se distribuyen como la población. En una M.A.S. (con reemplazamiento) los elementos muestrales son independientes unos de otros. De una población se obtiene una M.A.S. y se construye un estadístico estimador, ¿este estimador es una variable aleatoria? Sí, ya que está compuesta por elementos de una muestra aleatoria simple. La esperanza de la media muestral, en una M.A.S. (con reemplazamiento), es la media poblacional, Siempre, debido al tipo de muestreo.
MEDIA: La media de una M.A.S en general se comporta como una V.A (Variable Aleatoria) normal, solo se puede aplicar el conocimiento normal en muestras grandes; la media de una M.A.S, en general se comporta como una V.A normal, solo se puede aplicar el comportamiento normal en muestras grandes.
VARIANZA MUESTRAL: Elija la afirmación correcta sobre la varianza muestral, como estimador de (varianza poblacional): Resulta equivalente a la cuasivarianza muestral, sólo en muestras grandes. Es un estimador insesgado de la varianza poblacional, sólo en muestras grandes.
INFERENCIA: Caracterizar una población a través del estudio de un subconjunto representativo de ella; la inferencia se ocupa de proyectar información de una encuesta a toda una población, obteniendo características generales de la población en base al estudio de un subconjunto de dicha población (muestra). En la inferencia estadística, se extraen datos (M.A.S), se calculan estimadores, se analizan propiedades, se realizan tanto en estimaciones puntuales como por intervalos… todo esto permite proponer valores posibles sobre alguna característica poblacional.
CONSISTENCIA: ¿Cuál debería ser el error cometido por un estimador consistente al estimar el parámetro poblacional si el tamaño muestral es tan grande que prácticamente coincide con el poblacional? El error debería ser 0 (nulo). Un estimador es consistente a medida que aumentamos el tamaño muestral, el estimador se acerca al parámetro desconocido. Un estimador tomado a partir de una muestra grande será consistente si su varianza vale cero y, además, es insesgado. La consistencia hace referencia a que el estimador se aproxima al valor del parámetro al crecer el tamaño de la muestra. Propiedad de la Consistencia (el disponer de mas información muestral nos debería llevar a tener mejores resultados en las estimaciones).
INSESGADEZ: Un estimador es insesgado si su esperanza coincide con el parámetro desconocido. Entre dos estimadores insesgados es preferible el que tenga menor error cuadrático medio. Un estimador insesgado es el que cuyo valor medio o esperanza en el muestreo coincide con el parámetro desconocido. Un estimador asintóticamente insesgado es aquel que pudiendo ser sesgado para muestras pequeñas se convierte en insesgado para muestras grandes. Un estimador asintóticamente insesgado tiene necesariamente la esperanza igual al parámetro para tamaños muestrales grandes.
EFICIENCIA: La eficiencia hace referencia a la varianza del estimador.
ESTIMADOR Y ESTIMACION: La primera es una variable aleatoria función de los elementos de la muestra, mientras que la segunda es un valor concreto obtenido gracias a los valores de la muestra.
METODO DE LOS MOMENTOS: Se basa en el conocimiento indirecto de la distribución poblacional a partir de los momentos poblacionales (iguala momentos poblacionales a muestrales). La información poblacional que utiliza el MM son los momentos poblacionales.
METODO DE MÁXIMA VEROSIMILITUD (MV): El estimador de MV es aquel conjunto / valor del parámetro que hace máxima a la función de verosimilitud. Sirve para aceptar que habitualmente sucede lo mas posible. Los estimadores obtenidos por este método tienen, en general, adecuadas propiedades asintóticas (cuando el tamaño muestral es suficientemente grande). El MV busca el estimador que hace máxima la verosimilitud de la muestra. Nos permite obtener estimadores con buenas propiedades asintóticas. Para obtener estimadores de los parámetros poblacionales se utilizan los métodos de estimación por Momentos y de Máxima Verosimilitud. ¿Cuál de ellos se basa en buscar el valor del parámetro que hace máxima la probabilidad de lo que ha ocurrido? Método de Máxima Verosimilitud. Los estimadores de máxima verosimilitud consiguen sus mejores propiedades en muestras grandes. La información poblacional que utiliza el MV es la función de probabilidad poblacional.
MM y MV: Los dos coinciden si la población es B(1,p).
ERROR CUADRATICO MEDIO (ECM): Sin duda es mucho mas importante que el estimador tenga pequeña varianza a que sea sesgado…no es cierto ya que el ECM penaliza mucho mas la falta de consistencia que de eficiencia.
P.VALOR: Es la probabilidad de obtener una discrepancia mayor o igual que la observada en la muestra cuando Ho (Hipótesis Nula) es cierta. Es la probabilidad de que por puro azar se obtenga una muestra “más extraña” que la obtenida. Es la probabilidad de una región crítica que comenzase exactamente en el valor del estadístico obtenido de la muestra, supuesta Ho cierta. Cuanto menor sea «p» menor es la credibilidad de Ho. Respecto del contraste, conocido “p” se sabe todo sobre el resultado del experimento ya que permite valorar la evidencia aportada por la muestra. Sobre si el contraste es significativo (rechazo de H): Es significativo si “p” menor que nivel de significación.
DISCREPANCIA: Es función muestral y del parámetro que permite comparación entre hipótesis y estimación puntual. Su función de probabilidad debe ser conocida cuando se supone que la hipótesis nula es cierta.
Sobre si el contraste, elegir la afirmación falsa: Rechazar una hipótesis prueba que es falsa. Sobre la decisión sobre rechazo o aceptación de Ho elegir la afirmación falsa: Depende de si la muestra es previa o posterior al propio contraste. Al contrastar una hipótesis se puede aceptar o rechazar: pero al no rechazar la hipótesis podemos estar cometiendo un error de tipo II ya que la hipótesis puede ser falsa. ¿Es indiferente hacer un c.unilateral hacia la izquierda que a la derecha? No, ya que depende tanto del objetivo buscado como de la información muestral disponible.
INTERVALO: Una vez calculado el intervalo de confianza de una parámetro poblacional si tuviéramos que seleccionar un solo valor del interval (ninguna de las anteriores). En la estimación por intervalo de un parámetro poblacional desconocido, al aplicar un nivel de confianza del 100% la longitud del intervalo es máxima. En la estimación por intervalo de µ en una población N(µ;s) con varianza conocida cuanto menor sea la dispersión de la población mayor será la precisión. En un intervalo de confianza la precisión y la seguridad (confianza) varían en sentido contrario (supuesta la no variación en el resto de elementos del problema). A priori (antes de obtener la muestra concreta), ¿por qué los extremos de cualquier intervalo de confianza son aleatorios? Porque en los extremos del intervalo intervienen estimadores. En la estimación por intervalo de un parámetro poblacional desconocido, al aplicar un nivel de confianza del 100% La longitud del intervalo es máxima. ¿Porque los extremos de los intervalos de confianza son V.A? porque la base informativa sobre la que se construyen el intervalo de confianza es una M.A.S
Una vez fijado el error de estimación es posible determinar el tamaño muestral para un nivel de confianza concreto. ¿Es posible reducir el E. de estimación aumentando el tamaño muestral? Si, si hay una relación directa que es posible usar en los dos sentidos
Elija la afirmación correcta respecto a la estimación por intervalo de la media de una variable aleatoria N(µ;s) con varianza desconocida La función pivote correspondiente siempre sigue una distribución t-Student.
Elija la afirmación correcta respecto a la estimación por intervalo de la media de una variable aleatoria N( µ;s) con varianza conocida Al aumentar el tamaño de la muestra se reduce el error absoluto de la estimación.
Elija la afirmación correcta respecto a la estimación por intervalo de la media de una población normal, supuesto que se toma una M.A.S. con n grande: Cuanto mayor sea la varianza muestral más imprecisa será la estimación.
En la estimación por intervalo de un parámetro poblacional desconocido, en general, al disminuir el nivel de significación: Aumenta la amplitud o tamaño del intervalo.
En un intervalo de confianza, podremos definir el nivel de confianza como: La probabilidad a priori o la confianza a posteriori de que el intervalo contenga el verdadero valor del parámetro.
AMPLITUD, LONGITUD: Si, al estimar la media de una población con un intervalo de confianza, aumentamos el tamaño muestral sucede que Aumenta la precisión del intervalo. Se construye un intervalo de confianza al 95% para la media de una población normal con desviación típica 2, utilizando una muestra aleatoria de 16 elementos. La longitud de dicho intervalo sera mayor si aumentamos la confianza al 99%. ¿Cuál debe ser la amplitud del intervalo de confianza para que tengamos una confianza del 100% de que el parámetro poblacional desconocido esté dentro del intervalo? La amplitud debe ser infinita.
PRECISION: En la estimación por intervalo de µ en una población N(µ;s), para mejorar la precisión, manteniendo fijo el nivel de confianza, hay que tomar una muestra mayor. La precisión de un intervalo está vinculada a la amplitud del mismo. ¿Cómo podemos ganar precisión en un estudio? Aumentando el tamaño muestral
NO SE HACE EL ESTUDIO:
Pablo y Javier se presentan a la alcaldía de Villanueva de Arriba. Dos días antes de las elecciones se hace una encuesta que otorga, con un 99% de confianza, un porcentaje de voto para Pablo del 52%, con un error de ± 3%. ¿Qué resultado anticipa el estudio?
La estimación de beneficios que realiza una empresa para el ejercicio actual es, en millones de €, (-0,5;+5.7), con un nivel de confianza del 95%. Este resultado permite anticipar que:
Pablo y Javier se presentan a la alcaldía de Valdemanco. Antes de las elecciones se hace una encuesta que otorga una estimación puntual de voto para Pablo del 68% y un intervalo asociado de [0,48 ; 0,88] con un 99,99% de confianza. ¿Qué resultado anticipa el estudio?
CONTRASTE O HIPOTESIS: Conjeturas sobre algún aspecto concreto de la realidad. Cualquier afirmación, verdadera o falsa, sobre alguna característica desconocida de la población: siempre se acepta, provisionalmente, una hipótesis como verdadera: Siempre es cierto, se acepta provisionalmente la hipótesis nula. Una hipótesis simple en un contraste de hipótesis paramétrico es una hipótesis que se refiere a un solo valor del parámetro (un solo punto del espacio paramétrico). Es probar o testear la coherencia entre predicciones teóricas (hipótesis) y datos observados (muestra) sobre la población.
HIPOTESIS NULA: Es la que contrastamos y debe ser fácil de identificar y comprobar. La hipótesis nula nunca se considera probada, sólo puede ser rechazada por los datos (información muestral).
HIPOTESIS ALTERNATIVA: No debería ser aceptada sin una gran evidencia a favor.
H.NULA y H.ALTERNATIVA: Mutuamente excluyentes y complementarias. La especificación apropiada de la hipótesis nula y alternativa depende de la naturaleza propia del problema en cuestión.
REGIÓN CRÍTICA: Constituida por el conjunto de muestras para las cuales se rechaza la hipótesis nula. ¿Que ocurre con nuestra creencia a priori cuando la información muestral cae en la región critica? Que nuestra creencia sobre el valor del parámetro no es correcta
ERROR TIPO I: Consiste en rechazar la hipótesis nula cuando es verdadera.
ERROR TIPO II: Consiste en rechazar la hipótesis alternativa cuando es verdadera
POTENCIA DEL CONTRASTE: Complementario a la probabilidad del error tipo II.
NIVEL DE SIGNIFICACION: Es probabilidad del error tipo I. Indica la importancia o significado que el investigador atribuye a las consecuencias asociadas rechazando incorrectamente la hipótesis nula.