Diferencias entre Pruebas Paramétricas y No Paramétricas
Las diferencias fundamentales radican en las condiciones o supuestos exigibles a la población y en la población que se analiza. Si la distribución poblacional es desconocida y no es normal, o cuando las varianzas son distintas y la variable no es cuantitativa, se utilizan pruebas no paramétricas, que son más flexibles. Si se conoce el modelo probabilístico de la población, pero se desconoce algún parámetro, se emplean pruebas paramétricas.
Comparación en el Estadístico U del Test Chi-Cuadrado de Bondad de Ajuste
Se comparan las frecuencias observadas en la recogida de información y las frecuencias esperadas, es decir, las frecuencias que se darían bajo la hipótesis nula. La hipótesis nula se rechaza si existe evidencia empírica suficiente para considerar que las diferencias entre estas frecuencias no se deben al azar.
Importancia de Estimadores Insesgados y Eficientes
Un estimador
es insesgado si su valor esperado coincide con el valor del parámetro que se pretende estimar. Esto significa que los errores de estimación tienen un promedio nulo. Entre todos los estimadores insesgados de θ, es conveniente elegir aquel con menor varianza, ya que será más eficiente (menor dispersión).
Significado del Nivel de Confianza
El nivel de confianza es la probabilidad de que el intervalo propuesto contenga el verdadero valor del parámetro que se busca estimar.
Distribución de Poisson y Binomial: Diferencias y Similitudes
Ambas distribuciones son de carácter discreto. Sin embargo, la distribución binomial se define sobre la realización de *n* pruebas independientes de Bernoulli, mientras que la distribución de Poisson se define sobre el proceso de Poisson. En una prueba de Bernoulli, hay dos posibles resultados, con una probabilidad *p* de éxito. En el proceso de Poisson, se observa un fenómeno discreto sobre un intervalo continuo (generalmente el tiempo). La probabilidad de que ocurra un suceso en un intervalo pequeño es proporcional a la amplitud del intervalo, y la probabilidad de que ocurra en dos intervalos disjuntos es 0.
Errores Tipo I y Tipo II en un Contraste de Hipótesis
En la Teoría de la Decisión, considerando una hipótesis nula (que puede ser cierta o falsa) y la posibilidad de rechazarla o no, se pueden cometer dos tipos de errores:
- Error Tipo I: Se comete al rechazar la hipótesis nula cuando esta es verdadera.
- Error Tipo II: Se comete al no rechazar la hipótesis nula cuando la hipótesis alternativa es verdadera (y por tanto, la nula es falsa).
Consistencia de un Estimador
Un estimador
de un parámetro θ es consistente cuando converge en probabilidad hacia θ. Esto se expresa matemáticamente como: P(|
– θ|≤E)=1.
Definición de Estadístico
Un estadístico es cualquier función de las variables aleatorias en una muestra genérica. Sus valores se obtienen a partir de las diferentes muestras específicas de tamaño *n*. Un ejemplo común es la media muestral:
=
Valores Esperados en la Prueba de Chi-Cuadrado
Se aconseja que los valores esperados sean superiores a 5 al realizar una prueba de Chi-cuadrado porque, si *n·p* ≤ 5, cada una de las observaciones no se aproximaría a una distribución normal y, por lo tanto, el estadístico U no se aproximaría a una distribución Chi-cuadrado.
Muestra Aleatoria: Definición y Ejemplo
Una muestra aleatoria es una muestra representativa desde el punto de vista estadístico. Incluye todos los posibles valores que puede tomar una muestra, sin particularizar ninguno. La forma de seleccionar la muestra permite conocer la distribución de probabilidad de la muestra genérica. Puede ser con o sin reposición. Un ejemplo es una variable aleatoria n-dimensional, donde las variables que la componen tienen la misma distribución.
Teorema Central del Límite
El Teorema Central del Límite establece que la suma de un conjunto de variables aleatorias independientes, cualquiera que sea su distribución, se aproxima a una distribución normal a medida que el tamaño de la muestra crece.
Hipótesis Nula y Alternativa
La hipótesis nula (denotada como
) es la que se pretende contrastar y la que se rechazará o aceptará como conclusión del test. La hipótesis alternativa (denotada como
) es la afirmación que se contrapone a la hipótesis nula. Ambas pueden ser simples o compuestas.
Variables Aleatorias Discretas y Continuas
Una variable aleatoria es una función real que asigna valores numéricos a cada uno de los sucesos de un experimento determinado. A cada valor de la variable se le asigna una probabilidad. Las variables discretas toman valores aislados (por ejemplo, el número de hijos). Las variables continuas toman infinitos valores dentro de un intervalo (por ejemplo, el peso de las personas o las ventas de una empresa).
Error de Estimación
El error de estimación es la diferencia entre el estimador utilizado y el valor que se quiere estimar (por ejemplo, la diferencia entre la media muestral y la media poblacional). Mide la precisión y la fiabilidad de la estimación.
Error de Muestreo
El error de muestreo se refiere a la dispersión del estimador utilizado.
Contraste de Máxima Verosimilitud
El contraste de máxima verosimilitud implica que, de todas las regiones críticas posibles, se debe elegir aquella que maximice la curva de potencia.
Pasos para Resolver un Problema de Prueba de Hipótesis
- Plantear las hipótesis (nula y alternativa).
- Especificar el nivel de significación (α).
- Determinar la región crítica y el punto crítico.
- Identificar el estadístico o función de decisión.
- Comparar el valor del estadístico con la región crítica o el punto crítico.
- Establecer una conclusión estadística.
- Establecer una conclusión no estadística (en el contexto del problema).
Teorema de Neyman-Pearson
El Teorema de Neyman-Pearson puede aplicarse a cada valor del parámetro incluido en la hipótesis alternativa, obteniendo así la mejor región crítica para cada uno de ellos. Sin embargo, esto no es práctico. Por lo tanto, se busca una única región crítica para los diferentes valores, a través de la región crítica uniformemente más potente (UMP). Una región crítica será UMP si es independiente del valor de θ. Este teorema es útil para obtener la región crítica en una prueba de hipótesis, incluso cuando ambas hipótesis son compuestas.