Distribuciones Discretas y Estimación Estadística

Distribuciones Discretas

Variable Aleatoria Discreta

Una variable aleatoria es discreta si su recorrido es un conjunto discreto. Sus propiedades se recogen en la función de cuantía.

Función de Probabilidad

Es una función que asocia a cada punto de su espacio muestral x la probabilidad de que este lo asuma. En concreto, si el espacio muestral E de la variable aleatoria x consta de los puntos x1, x2, x3… xk, la función de probabilidad p asociada a x es P(xi) = Pi, donde Pi es la probabilidad del suceso x = xi. Por definición de probabilidad:

Σki=1 P(xi) = 1

Propiedades

  • f(x) ≥ 0 para todo x.
  • El área total encerrado bajo la curva es = 1.
  • -∞ f(x)dx = 1.
  • Pr(a ≤ x ≤ b) = ∫ba f(x)dx = F(b) – F(a)

Distribución Geométrica

Es cualquiera de las dos distribuciones de probabilidad discreta siguientes:

  • La distribución de probabilidad del número x del ensayo de Bernoulli necesario para obtener un éxito, contenido en el conjunto (0, 1, 2, 3…).
  • La distribución de probabilidad del número Y = x – 1 de fallos antes del primer éxito, contenido en el conjunto (1, 2, 3…).

Distribución Binomial Negativa

Es una distribución de probabilidad discreta que incluye a la distribución de Pascal. El número de experimentos de Bernoulli de parámetro (θ) independientes realizados hasta la consecución del k-ésimo éxito es una variable aleatoria que tiene una distribución binomial negativa con parámetros k y (θ). La distribución geométrica es el caso concreto de la binomial negativa cuando k = 1.

Inferencia Estadística

Estimación Puntual

Consiste en la estimación del valor del parámetro mediante un solo valor, obtenido de una fórmula determinada. El estimador debe ser eficiente, insesgado y estable en el muestreo. El problema consiste en que, seleccionada una muestra x1…xn, encontrar el estadístico T(x1…xn) que mejor estime el parámetro (θ). Una vez observada la muestra con valores x1…xn, se obtiene la estimación puntual de (θ): (T1(x1…xn)) = (θ). Hay dos métodos para obtener la estimación puntual de un parámetro: método de los momentos y método de la máxima verosimilitud.

Estimación por Intervalos

Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado en una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:

Intervalo de Confianza

Es una expresión del tipo 1 θ2) o θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Ese intervalo contiene el parámetro estimado con una determinada certeza o nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial.

Variabilidad del Parámetro

Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinde de este aspecto. Habitualmente se usa como una medida de esta variabilidad la desviación típica poblacional y se denota (símbolo raíz).

Error de Estimación

Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza, y si se quiere mantener o disminuir el error, más observaciones deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión, se suele llamar E según la fórmula E = θ2 – θ1.

Límite de Confianza

Es la probabilidad de que el verdadero valor del parámetro estimado se sitúe en el intervalo de confianza. El nivel de confianza se denota por (1 – α), aunque habitualmente suele expresarse con un porcentaje ((1 – α)100%).

Nivel de Confianza

Se indica por (1 – α) u habitualmente se da en porcentaje (1 – α)%. Una vez extraída la muestra, el intervalo de confianza estaría definido al igual que la media poblacional y solo se sabe si contiene al verdadero valor del parámetro o no, lo que sí conlleva una probabilidad es que si repetimos el proceso con muchas medias muestrales podríamos afirmar que el (1 – α)% de los intervalos así construidos contendría al verdadero valor del parámetro. Los valores que se suelen utilizar son: 95%, 99% y 99,9%.

Error Admisible

El error máximo admisible es una decisión del investigador. Se puede leer de dos modos distintos según se estime la proporción o la media poblacional. Cuando se estima la proporción, el error máximo admisible asume valores entre 0 y 1. En consecuencia, este se puede leer en términos de porcentaje de error asociado a la estimación. Sin embargo, cuando se estima la media poblacional, el valor del error máximo admisible depende de la unidad de medida de la variable en estudio.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.