Conceptos Fundamentales de Probabilidad
Tipos de Experimentos
- Experimentos Deterministas: Son aquellos en los que se puede predecir el resultado antes de realizarlos.
- Experimentos Aleatorios: Son aquellos en los que no se puede predecir el resultado, ya que dependen del azar.
Tipos de Sucesos
En el contexto de los experimentos aleatorios, se definen los siguientes tipos de sucesos:
- Sucesos Incompatibles: No tienen ningún elemento en común. No pueden ocurrir al mismo tiempo.
- Sucesos Compatibles: Tienen algún elemento en común. Pueden ocurrir al mismo tiempo.
- Sucesos Independientes: La ocurrencia de uno no afecta la probabilidad de ocurrencia del otro.
- Sucesos Dependientes: La ocurrencia de uno afecta la probabilidad de ocurrencia del otro.
- Sucesos con Reemplazamiento: Después de cada extracción, el elemento se devuelve al espacio muestral.
- Sucesos sin Reemplazamiento: Después de cada extracción, el elemento no se devuelve al espacio muestral.
- Sucesos Mutuamente Excluyentes: No pueden ocurrir simultáneamente. Son sinónimos de sucesos incompatibles.
- Sucesos No Excluyentes: Es posible que ocurran simultáneamente.
- Sucesos Elementales: Son los sucesos individuales que forman parte del espacio muestral.
- Suceso Compuesto: Cualquier subconjunto del espacio muestral, formado por varios sucesos elementales.
- Suceso Seguro: Es el suceso que siempre ocurre, coincide con el espacio muestral.
- Suceso Imposible: Es el suceso que nunca ocurre, no tiene ningún elemento.
- Suceso Contrario (Complementario): Es el suceso que ocurre cuando no ocurre un suceso dado ‘A’. Se denota como 1 – P(A).
Operaciones con Sucesos y sus Probabilidades
Unión de Sucesos
- Probabilidad de la Unión de Sucesos Incompatibles: Si A y B son incompatibles (A ∩ B = ∅), entonces P(A ∪ B) = P(A) + P(B).
- Probabilidad de la Unión de Sucesos Compatibles: Si A y B son compatibles (A ∩ B ≠ ∅), entonces P(A ∪ B) = P(A) + P(B) – P(A ∩ B).
Intersección de Sucesos
- Probabilidad de la Intersección de Sucesos Independientes: Si A y B son independientes, entonces P(A ∩ B) = P(A) * P(B).
- Probabilidad de la Intersección de Sucesos Dependientes: Si A y B son dependientes, entonces P(A ∩ B) = P(A) * P(B|A), donde P(B|A) es la probabilidad de B dado que ha ocurrido A.
Teoremas y Leyes Importantes
- Teorema de la Probabilidad Total: P(B) = P(A1) * P(B|A1) + P(A2) * P(B|A2) + … + P(An) * P(B|An), donde A1, A2, …, An son sucesos mutuamente excluyentes y exhaustivos.
- Ley de Laplace: P(A) = (Número de casos favorables a A) / (Número de casos posibles). Se aplica cuando todos los sucesos elementales son equiprobables.
- Teorema de Bayes: P(A|B) = [P(B|A) * P(A)] / P(B). Permite calcular la probabilidad condicional de un suceso A dado que ha ocurrido B.
Variables Aleatorias
Una variable aleatoria es una función que asocia un número real a cada elemento del espacio muestral de un experimento aleatorio.
Tipos de Variables Aleatorias
- Variable Aleatoria Discreta: Puede tomar un número finito o infinito numerable de valores.
- Variable Aleatoria Continua: Puede tomar cualquier valor dentro de un intervalo o una colección de intervalos (ejemplos: peso, tiempo, temperatura).
Variables Aleatorias Discretas
Función de Probabilidad (o Función de Cuantía): Solo existe para variables discretas. Es la función que asigna a cada valor posible de la variable su probabilidad. P(X = xi) = p(xi).
Función de Distribución: Es una función continua a trozos (función en escalera). F(x) = ∑P(X = xi) = ∑ p(xi).
Esperanza (Media): E[X] = ∑xi*pi
Propiedades de la Esperanza:
- E(c) = c, donde c es una constante.
- E[aX + b] = aE[X] + b, donde a y b son constantes.
- E[X + Y] = E[X] + E[Y].
Varianza: µ2 = E[(X − µX )]2 = ∑xi2*pi- µ2
Propiedades de la Varianza:
- V(X) = E[X2] − (E[X])2
- V(aX) = a2V(X), donde a es una constante.
- V(b) = 0, donde b es una constante.
- V(aX + b) = a2V(X), donde a y b son constantes.
Variables Aleatorias Continuas
Función de Densidad (f(x)): Solo para variables continuas. Representa la densidad de probabilidad en un intervalo infinitesimal. Es el análogo a la función de probabilidad en variables discretas.
Distribuciones de Probabilidad
1. Distribución Dicotómica (Bernoulli)
Modeliza situaciones en las que:
- Se realiza una prueba.
- Solo hay dos resultados posibles: A (éxito) y à (fracaso).
- P(A) = p y P(Ã) = q = 1 – p.
La variable aleatoria X representa el número de éxitos (resultados A) obtenidos. X ~ D(p).
Función de cuantía:
- P(X=0) = q = 1-p
- P(X=1) = p
Media: μ = p
Varianza: σ2 = p * q
2. Distribución Binomial
Modeliza situaciones en las que:
- Se realizan ‘n’ pruebas independientes.
- Cada prueba tiene dos resultados posibles: A (éxito) y à (fracaso).
- P(A) = p y P(Ã) = q = 1 – p en todas las pruebas.
- Las pruebas se realizan en las mismas condiciones (con reemplazamiento si son extracciones).
La variable aleatoria X representa el número de éxitos (resultados A) en las ‘n’ pruebas. X ~ B(n, p).
Esperanza: E[X] = n * p
Varianza: Var(X) = n * p * q
3. Distribución Hipergeométrica
Modeliza situaciones en las que:
- Hay una población de N individuos, con Np individuos de tipo A y Nq individuos de tipo à (p + q = 1).
- Se realizan ‘n’ extracciones sin reemplazamiento.
- La probabilidad de extraer un individuo A depende de los resultados anteriores.
La variable aleatoria X representa el número de individuos de tipo A obtenidos en las ‘n’ extracciones. X ~ H(N, n, p).
Esperanza: E[X] = n * p
Varianza: Var(X) = n * p * q * (N – n) / (N – 1). El término (N – n) / (N – 1) se llama factor corrector de poblaciones finitas.
4. Distribución Multinomial
Es una generalización de la distribución binomial. Se aplica cuando cada prueba puede tener más de dos resultados posibles, y las pruebas son independientes.
5. Distribución Geométrica
La variable aleatoria X representa el número de ensayos hasta obtener el primer éxito.
6. Distribución Binomial Negativa
La variable aleatoria X representa el número de ensayos hasta obtener ‘r’ éxitos.
7. Distribución Normal
Es una de las distribuciones más importantes en estadística. Sus características principales son:
- Es simétrica respecto a su media (μ).
- Los puntos de inflexión de la curva se encuentran en μ ± σ (desviación típica).
- La curva se extiende a ambos lados de la media y su forma depende de la desviación típica (σ).
- El área total bajo la curva y el eje de abscisas es igual a 1 (representa la probabilidad total).
Tipificación: Para comparar valores de diferentes distribuciones normales, se utiliza la tipificación: Z = (X – μ) / σ. Esto transforma cualquier distribución normal en una distribución normal estándar.
Distribución Normal Estándar (N(0, 1)):
- Media: 0
- Varianza: 1
- Desviación típica: 1
Importante:
- Aproximadamente el 68% de los datos se encuentran en el intervalo [μ – σ, μ + σ].
- Aproximadamente el 95.4% de los datos se encuentran en el intervalo [μ – 2σ, μ + 2σ].
- Aproximadamente el 99.7% de los datos se encuentran en el intervalo [μ – 3σ, μ + 3σ].