Conceptos Básicos de Probabilidad
Aleatoriedad: Imposibilidad de predecir. Existe una forma de describir el comportamiento de la población en estudio gracias a la distribución de probabilidades, que distribuye probabilidades entre los valores y describe el comportamiento esperado de la variable. La variable aleatoria cuantifica los resultados posibles de un experimento aleatorio.
Experimento Aleatorio
Cualquier ensayo o prueba que pueda repetirse un gran número de veces en condiciones homogéneas, presentando en cada prueba un resultado bien definido imposible de predecir, se denomina experimento aleatorio. Decimos experimento aleatorio y no experimentos a secas para enfatizar que interviene el azar. En un experimento determinístico, cada vez que se repite se obtiene el mismo resultado.
Espacio Muestral
Cualquiera de los resultados posibles de un experimento aleatorio se llama punto muestra o suceso elemental. El conjunto formado por todos los resultados posibles de un experimento aleatorio constituye el espacio muestral de dicho experimento. El subconjunto formado por uno o más resultados posibles de un experimento aleatorio se conoce como suceso o evento aleatorio. Para definir los espacios muestrales se utiliza el diagrama de árbol.
Sucesos Aleatorios Mutuamente Excluyentes
Los sucesos aleatorios que no tienen puntos muestra en común, se llaman sucesos mutuamente excluyentes y no pueden ocurrir al mismo tiempo, la presencia de uno excluye automáticamente la presencia del otro.
Probabilidad
La probabilidad es la posibilidad de que ocurra un evento específico. Es una proporción o fracción cuyo valor se encuentra entre 0 y 1. Se observa que un evento que no tiene posibilidad de ocurrir (suceso imposible) tiene probabilidad 0, mientras que un suceso que ocurrirá con seguridad (suceso seguro) tiene probabilidad 1.
La probabilidad clásica o a priori es la que se llega por un procedimiento deductivo sin hacer el experimento. Se basa en el conocimiento previo, porque la lógica se considera suficiente para dar todas las respuestas.
P(a)= n/N
Probabilidad empírica o a posteriori, se basa en datos observados. La probabilidad empírica se toma como la frecuencia relativa de ocurrencia de un suceso cuando el número de observaciones es grande.
La objeción lógica fundamental que se hace a la definición clásica se refiere al concepto de «igualmente posibles», ya que resulta difícil determinar fuera del campo de los juegos al azar, cuándo se puede considerar que los resultados son igualmente posibles. Para resolver estas dificultades es que se buscó la forma empírica de definir la probabilidad.
Probabilidad subjetiva: Los dos anteriores se calculan en forma objetiva, ya sea mediante un conocimiento previo o a partir de datos reales. Esta se basa en una combinación de la experiencia de una persona, su opinión personal y el análisis de una situación específica. En general representan las corazonadas que tiene muchos y sus presentimientos, los que varían con el tiempo de una persona a otra.
Probabilidad de Dos o Más Sucesos Aleatorios
Regla de la Suma
Para referirse a la unión de dos sucesos se utiliza la notación (A o B) o (A U B).
La unión de A y B es un suceso que contiene a todos los puntos muestra que pertenecen a A o B, o a ambos.
La intersección de dos sucesos (A y B) o (A Ʌ B) contiene puntos muestras que pertenecen simultáneamente a A y B.
Sucesos mutuamente excluyentes ocurren si no tienen puntos muestra en común P(A Ʌ B) = 0
Si A y B pueden presentarse simultáneamente: P(A o B) = P(A) + P (B) – P (AB)
Si A y B no puede presentarse simultáneamente: P(A o B)= P(A) + P (B)
Para 3 sucesos:
P(A o B o C) = P(A) + P (B) + P(C) – P (AB) – P (AC) – P (BC) + P (ABC)
P (A o B o C)= P(A) + P (B) + P(C)
Si A es un suceso aleatorio y Ä el suceso contrario, A y Ä son mutuamente excluyentes. Resulta: P(A) + P (Ä)=1
De donde P(A) = 1 – P (Ä)
Probabilidad Condicional
Supongamos que un suceso A con probabilidad P (A). Si obtenemos una nueva información y vemos que ha ocurrido un suceso relacionado representado por B, quisiéramos aprovechar esta información para calcular una nueva probabilidad del suceso A. Esta nueva probabilidad se denomina probabilidad condicional y se escribe P (A/B).
P(A/B): la probabilidad del suceso A tal que B ya ha ocurrido.
P (A/B) = P (A ɅB) / P (B) à P (A ɅB) = P (A/B) x P (B)
P (B/A) = P (A ɅB) / P (A) à P (A Ʌ B) = P (B/A) x P (A)
Con P (B) y P(A) distinto de 0
Regla de la Multiplicación
Sirve para calcular la chance de la intersección de 2 sucesos.
Son compuestos o conjuntos si ocurren al mismo tiempo, y puede ser independientes (si la aparición de uno no afecta la aparición del otro) o dependientes (si la ocurrencia de uno de ellos afecta la probabilidad del otro)
Si son dependientes: P (AB) es lo mismo que P(A Ʌ B) = P(A/B) x P (B) = P (B/A) x P(A)
Si son independientes: P(A/B) = P(A) y P (B/A) = P (B) à P (AB) = P(A) x P (B)
Teorema de Bayes
Permite encontrar probabilidades condicionales. Encontrar la probabilidad de una causa específica cuando se observa un efecto particular es su fundamental objetivo.
Suponiendo que hay “n” causas posibles de A mutuamente excluyentes que podría determinar el evento B (efecto). Entonces ocurrido B la probabilidad de que haya sido generado por la causa de A es:
P (Ai/B) = P (Ai Ʌ B) / P (B) = P (Ai) x P (B/Ai) / Σ P (Ai) x P (B/Ai)
Modelo: Es la representación simplificada del comportamiento de algunos fenómenos aleatorios. Expresión matemática que representa algún fenómeno aleatorio en particular. Para variable aleatoria esta expresión se conoce como distribución de probabilidad.
Distribución de probabilidad Variable aleatoria discreta Función de probabilidad P (x)
D. Binomial puntual
D. Binomial
D. Hipergeométrica
D. de Poisson
Variable aleatoria continua Función de densidad de prob. F(x)
D. Normal
D. Chi-cuadrado
D. F de Snedecor
D. T. de Student
Definición de Variable Aleatoria
Los experimentos aleatorios dan como resultado sucesos elementales.
Una variable aleatoria se define al asignar un valor numérico a cada suceso elemental de un experimento aleatorio.
Variable aleatoria discreta: conjunto de valores posible que puede asumir en un conjunto finito o infinito numerable.
Una distribución de probabilidad es la enumeración de todos los valores posibles que puede asumir una variable aleatoria junto con sus probabilidades.
Esperanza o promedio: E(x) = µ = Σ Xi . p (xi)
Varianza o dispersión: V(x) = σ2 = E(x2) – [E(x)]2
Desviación: σ = √σ2
Distribución de Bernoulli o Binomial Puntual (n = 1)
El resultado de un experimento aleatorio en una repetición aislada, es uno de dos sucesos mutuamente excluyentes.
La probabilidad asociada a cada uno de ellos es:
P(A) = P y P (Ä) = 1-p = q p+q = 1 A=1 Ä=0
La función de probabilidad de la variable aleatoria discreta X es:
P(X=x) px . q 1-x
X= 0;1
E(x) = p (momento natural de orden 1)
V(x)= p.q (momento centrado de orden 2)
σ(x)= √p.q
Distribución Binomial
A partir de las experiencias en las que ocurre uno de los resultados posibles: A y Ä y ante “n” repeticiones se define el número de veces que ocurre el resultado A en las “n” repeticiones.
a) A y Ä= éxito y fracaso
b) La probabilidad permanece constante p (p=P(A))
c) Las repeticiones son independientes
Para “n” pruebas, la probabilidad de que ocurra X veces un suceso A con probabilidad P =
P(x) = (xn) . px . (1-p) n-x
E(x) = n . p
V(x) = n . p . (1-p) = n.p.q
σ (x) = √σ 2
0 ≤ X ≤ n
Condición de función de probabilidad:
a) p(x) ≥ 0
b) Σ ( ) . px . qn-x = (p+q)n = 1 (condición de cierre)
Características:
Si p=q= ½ (distribución simétrica)
Si p
Si p > ½ (distribución asimétrica a la izquierda)
La distribución binomial se utiliza en esquema dicotómico:
a) Población es finita y extracciones con reposición (conocemos el tamaño)
b) Población infinita y extracciones con o sin reposición (es tan grande que se toman como independientes)
c) Población finita de tamaño grande y extracciones sin reposición
Distribución límite: cuando “n” tiende a ∞ y el p cercano a ½, la distribución binomial tiende a la distribución normal (n > 30)
Distribución Hipergeométrica
Son “n” repeticiones sin reposición, X veces se da el suceso A y (n-x) el suceso Ä
P(x) = N1 N2
x n-x
N
n
E(x) = n . p
V(x) = n.p.q.(N-n)
N-1
P= N1 / N y q= N-N1 / N = N2 /N
Distribución de Poisson
Se observan sucesos discretos en un intervalo continuo.
- La probabilidad de observar exactamente un éxito en el intervalo es constante.
- La probabilidad de observar más de un éxito en un intervalo es 0.
- La probabilidad de observar un éxito en cualquier intervalo es estadísticamente independiente de la de cualquier otro intervalo.
P(X=x) = e–λ . λ x
X!
λ = Esperanza del número de éxitos.
X = Es el número de éxitos por unidad. Varía de 0 a infinito.
e = Constante matemática = 2.71828 aprox.
P (X=x) = probabilidad de x éxito dado un valor λ
Variable Aleatoria Continua
Los valores son representados por intervalos en el eje real X.
Es continua cuando el rango o recorrido de la misma es un conjunto infinito no numerable.
La representación gráfica se realiza a través de un histograma con su correspondiente polígono de frecuencia relativa. En probabilidad continua no puedo representar el valor con bastones en un punto, mientras con las discretas si podíamos.
La integral definida representa un área.
Función de densidad = f(x)
f(x) ≥ 0
∫ f(x) dx = 1 (condición de cierre)
P(c≤X≤d) = ∫ f(x) dx
Distribución Normal
- Se aproxima a las distribuciones de frecuencia observadas de muchas medidas.
- Se puede usar para aproximar las probabilidades Binomiales, de Poisson, etc. Cuando sus parámetros alcanzan determinados valores.
- La distribución normal es una buena aproximación de las distribuciones de una variable suma de otras variables aleatorias independientes.
La función de densidad normal es simétrica con respecto a su promedio, campanular y está determinada por su promedio y su desviación estándar. Encierra un área = 1. El punto en el que cambia la curvatura se llama punto de inflexión.
La distancia de la media a la proyección del punto de inflexión sobre el eje horizontal es una desviación estándar.
Mientras los valores se encuentren más alejados del promedio la probabilidad de encontrar esos valores es decreciente.
La probabilidad de que una variable aleatoria tenga un valor entre dos puntos cualesquiera es igual al área bajo la curva entre esos dos puntos.
Si la desviación estándar es muy pequeña indica que los valores se encuentran en torno del valor medio y el promedio es muy significativo. Si la desviación estándar es muy grande indica que los valores están muy dispersos y el promedio no es significativo.
Al cambiar la media µ mientras se mantiene la desviación estándar σ, se corre la distribución a la izquierda o a la derecha sin alterar la forma. Mientras que al cambiar el valor de σ conservando el mismo valor de la mediaµ, la curva cambia su forma haciéndose más o menos achatada según sea el valor de σ.
[µ-σ; µ+σ] (Que contiene el 68% de las observaciones)
[µ-2σ; µ+2σ] (Que contiene el 95% de las observaciones)
[µ-3σ; µ+3σ] (Que contiene el 99% de las observaciones)
N (0;1)= promedio 0 y desvío 1
Z = X – µ
σ
La distribución normal estándar es aquella cuya variable aleatoria Z siempre tiene µ= 0 y σ =1
Los sucesos son equivalentes y se buscan en la tabla.