Conceptos Clave de Probabilidad y Estadística: Fórmulas y Demostraciones
1. Condición Necesaria y Suficiente de Independencia
Dados los sucesos 𝐴 y 𝐵, 𝐴 es independiente de 𝐵 si y solo si 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵).
Demostración:
Parte 1: Si 𝐴 y 𝐵 son independientes, por la definición de independencia se cumple 𝑃(𝐴|𝐵) = 𝑃(𝐴). Por otro lado, por la definición de probabilidad condicional, se tiene 𝑃(𝐴|𝐵) = 𝑃(𝐴 ∩ 𝐵) / 𝑃(𝐵). Combinando ambas expresiones para 𝑃(𝐴|𝐵), se obtiene 𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵) / 𝑃(𝐵). Despejando en la expresión anterior resulta 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵).
Parte 2: Si se cumple la condición 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵), podemos despejar del modo siguiente: 𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵) / 𝑃(𝐵). El miembro de la derecha en la expresión anterior es la probabilidad condicional, 𝑃(𝐴|𝐵). Por tanto, tenemos que 𝑃(𝐴) = 𝑃(𝐴|𝐵), y por tanto 𝐴 y B son independientes.
2. Teorema de la Probabilidad Total
Dada una partición (𝐴1, . . . , 𝐴𝑛) del espacio muestral E, y dado un suceso B, se cumple: 𝑃(𝐵) = ∑𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖) para 𝑖=1 hasta 𝑛.
Demostración:
Por la definición de partición, el espacio muestral 𝐸 se puede descomponer como la unión de los elementos de la partición (los cuales son disjuntos dos a dos), del modo siguiente: 𝐸 = ⋃𝐴𝑖 para 𝑖=1 hasta 𝑛. Como el suceso B también es un subconjunto de 𝐸, se puede descomponer como la unión de las partes de 𝐵 que están en común con los elementos de la partición (las cuales son disjuntas dos a dos). Por tanto: 𝐵 = ⋃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛. Al ser los sucesos anteriores disjuntos, por el tercer axioma de Kolmogorov se tiene 𝑃(𝐵) = 𝑃 (⋃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛) = ∑𝑃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛. Por otra parte, por la definición de probabilidad condicional se tiene 𝑃(𝐵|𝐴𝑖) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐴𝑖). Y despejando, resulta 𝑃(𝐵 ∩ 𝐴𝑖) = 𝑃(𝐵|𝐴𝑖)𝑃(𝐴𝑖), que al sustituirse en la expresión de 𝑃(𝐵) más arriba, da lugar al resultado: 𝑃(𝐵) = ∑𝑃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛 = ∑𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖) para 𝑖=1 hasta 𝑛.
3. Teorema de Bayes
Dada una partición (𝐴1, . . . , 𝐴𝑛) del espacio muestral E, y dado un suceso B, se cumple (si P(B)>0): 𝑃(𝐴𝑖 |𝐵) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖) / 𝑃(𝐵).
Demostración:
Por la definición de probabilidad condicional, se tiene 𝑃(𝐴𝑖 |𝐵) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐵). Por otra parte, también por la definición de probabilidad condicional, se tiene 𝑃(𝐵|𝐴𝑖 ) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐴𝑖 ). Y despejando en esta última expresión resulta 𝑃(𝐵 ∩ 𝐴𝑖) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ). Sustituyendo en la expresión inicial se obtiene 𝑃(𝐴𝑖 |𝐵) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐵) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) / 𝑃(𝐵).
Deducciones y Fórmulas Importantes en Estadística
Deducción de la Fórmula Abreviada de la Varianza
𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2) − μ 2
Demostración:
Se utilizan la expansión del cuadrado de la diferencia y las propiedades de la esperanza (𝐸(𝑋) = 𝜇 es una constante): 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 − μ) 2 = 𝐸(𝑋 2 − 2μ𝑋 + μ 2) = 𝐸(𝑋 2) − 𝐸(2μ𝑋) + 𝐸(𝜇 2) = 𝐸(𝑋 2) − 2μ𝐸(𝑋) + 𝜇 2 = 𝐸(𝑋 2) − 2μ 2 + 𝜇 2 = 𝐸(𝑋 2) − μ 2.
Deducción de la Esperanza y la Varianza de la Distribución de Bernoulli
𝐸(𝑋) = 𝑝 ; 𝑉𝑎𝑟(𝑋) = 𝑝(1 − 𝑝) = 𝑝𝑞
Demostración:
La esperanza se obtiene directamente: 𝐸(𝑋) = 1 𝑝 + 0 (1 − 𝑝) = 𝑝. Para la varianza utilizamos la fórmula abreviada: 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2) − [𝐸(𝑋)] 2. Tenemos: 𝐸(𝑋 2) = 1 2𝑝 + 0 2(1 − 𝑝) = 𝑝. Por tanto, como 𝐸(𝑋) = 𝑝, se obtiene: 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2) − [𝐸(𝑋)] 2 = 𝑝 − 𝑝 2 = 𝑝(1 − 𝑝) = 𝑝q.
1. Fórmula Abreviada de la Covarianza
𝐶𝑜𝑣(𝑋,𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌).
Demostración:
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))] = 𝐸[𝑋𝑌 − 𝑌𝐸(𝑋) − 𝑋𝐸(𝑌) + 𝐸(𝑋)𝐸(𝑌)] = 𝐸(𝑋𝑌) − 𝐸(𝑌)𝐸(𝑋) − 𝐸(𝑋)𝐸(𝑌) + 𝐸(𝑋)𝐸(𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌).
2. Varianza de la Suma de Variables Aleatorias Independientes
Si X e Y son variables aleatorias independientes, entonces: 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌).
Demostración:
En general: 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝐸[𝑋 + 𝑌 − 𝐸(𝑋 + 𝑌)]2 = 𝐸[(𝑋 − 𝐸(𝑋))2 + (𝑌 − 𝐸(𝑌))2 + 2(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))] = 𝐸[𝑋 − 𝐸(𝑋)]2 + 𝐸[𝑌 − 𝐸(𝑌)]2 + 2𝐸[(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))] = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝐶𝑜𝑣(𝑋, 𝑌). Pero en el caso particular de que X e Y sean independientes, se cumple 𝐶𝑜𝑣(𝑋, 𝑌) = 0, y por tanto: 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌).
Descomposición Sesgo-Varianza del Error Cuadrático Medio
Teorema: Dado un estimador T para el parámetro 𝜃, se cumple lo siguiente: 𝐸𝐶𝑀𝑇 (𝜃) = 𝐵𝑇 2 (𝜃) + 𝑉𝑎𝑟(𝑇).
Demostración:
Dada la descomposición 𝑇 − 𝜃 = (𝑇 − 𝐸(𝑇)) + (𝐸(𝑇) − 𝜃) = (𝑇 − 𝐸(𝑇)) + 𝐵𝑇(𝜃), elevando al cuadrado y aplicando la identidad (𝑎 + 𝑏) 2 = 𝑎 2 + 𝑏 2 + 2𝑎𝑏 se obtiene (𝑇 − 𝜃) 2 = [(𝑇 − 𝐸(𝑇)) + 𝐵𝑇 (𝜃)] 2 = [𝑇 − 𝐸(𝑇)] 2 + 𝐵 2 𝑇 (𝜃) + 2𝐵𝑇 (𝜃)(𝑇 − 𝐸(𝑇)).
Tomando esperanzas 𝐸𝐶𝑀𝑇 (𝜃) = 𝐸[𝑇 − 𝜃] 2 = 𝐸[𝑇 − 𝐸(𝑇)] 2 + 𝐵𝑇 2 (𝜃) + 2𝐵𝑇(𝜃)𝐸[𝑇 − 𝐸(𝑇)]. Como 𝐸[𝑇 − 𝐸(𝑇)] 2 = 𝑉𝑎𝑟(𝑇) y 𝐸[𝑇 − 𝐸(𝑇)] = 𝐸(𝑇) − 𝐸(𝑇) = 0, se deduce 𝐸𝐶𝑀 (𝜃) = 𝑉𝑎𝑟(𝑇) + 𝐵𝑇 2 (𝜃) + 0.
Intervalos de Confianza y Tamaño de Muestra
A. Intervalo de Confianza para la Media de una Población Normal con Varianza Conocida
Objetivo: Obtener un intervalo de confianza para μ con nivel de confianza 1 − α.
Discrepancia: 𝑑𝑋̄ = (𝑋 − 𝜇) / (𝜎⁄√𝑛) ~𝑁(0,1)
En la práctica, la construcción se hace en 2 pasos:
a) Obtener k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 𝑃(−𝑘 ≤ 𝑁(0,1) ≤ 𝑘) = 1 − 𝛼.
b) Aplicar la fórmula: (𝑋 − 𝑘 𝜎 / √𝑛 , 𝑋 + 𝑘 𝜎 / √𝑛 ).
Teoría (deducción matemática de la fórmula anterior):
Tenemos k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo: 𝑃 (−𝑘 ≤ (𝑋 − 𝜇) / (𝜎⁄√𝑛) ≤ 𝑘) = 1 − 𝛼. Despejando μ en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 (−𝑘 ≤ (𝑋−𝜇) / (𝜎⁄√𝑛) ≤ 𝑘) = 𝑃 (−𝑘 𝜎 / √𝑛 ≤ 𝑋 − 𝜇 ≤ 𝑘 𝜎 / √𝑛 )= 𝑃 (−𝑘 𝜎 / √𝑛 ≤ −𝑋 + 𝜇 ≤ 𝑘 𝜎 / √𝑛 ) = 𝑃 (𝑋 − 𝑘 𝜎 / √𝑛 ≤ 𝜇 ≤ 𝑋 + 𝑘 𝜎 / √𝑛 ).
B. Intervalo de Confianza para la Media de una Población Normal con Varianza Desconocida
Objetivo: Obtener un intervalo de confianza para μ con nivel de confianza 1 − α.
Discrepancia: 𝑑𝑋̄ = (𝑋 − 𝜇) / (𝑆⁄√𝑛) ~𝑡𝑛−1
En la práctica, la construcción se hace en 2 pasos:
a) Obtener k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 𝑃(−𝑘 ≤ 𝑡𝑛−1 ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo, 𝑃(|𝑡𝑛−1 | > 𝑘) = 𝛼.
b) Aplicar la fórmula: (𝑋 − 𝑘 𝑆 / √𝑛 , 𝑋 + 𝑘 𝑆 / √𝑛 ).
Teoría (deducción matemática de la fórmula anterior):
Tenemos k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo: 𝑃 (−𝑘 ≤ (𝑋 − 𝜇) / (𝑆⁄√𝑛) ≤ 𝑘) = 1 − 𝛼. Despejando μ en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 (−𝑘 ≤ (𝑋−𝜇) / (𝑆⁄√𝑛) ≤ 𝑘) = 𝑃 (−𝑘 𝑆 / √𝑛 ≤ 𝑋 − 𝜇 ≤ 𝑘 𝑆 / √𝑛 )= 𝑃 (−𝑘 𝑆 / √𝑛 ≤ −𝑋 + 𝜇 ≤ 𝑘 𝑆 / √𝑛 ) = 𝑃 (𝑋 − 𝑘 𝑆 / √𝑛 ≤ 𝜇 ≤ 𝑋 + 𝑘 𝑆 / √𝑛 ).
C. Intervalo de Confianza para la Proporción en Muestras Grandes
Objetivo: Obtener un intervalo de confianza para 𝑝 con nivel de confianza 1 − α.
Discrepancia: 𝑑𝑝̂ = (𝑝̂− 𝑝) / √ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) → 𝑁(0,1)
En la práctica, la construcción se hace en 2 pasos:
a) Obtener k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 𝑃(−𝑘 ≤ 𝑁(0,1) ≤ 𝑘) = 1 − 𝛼.
b) Aplicar la fórmula: (𝑝̂− 𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) , 𝑝̂+ 𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ).
Teoría (deducción matemática de la fórmula anterior):
Tenemos k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo: 𝑃 ( −𝑘 ≤ (𝑝̂− 𝑝) / √ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ≤ 𝑘 ) = 1 − 𝛼. Despejando 𝑝 en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 ( −𝑘 ≤ (𝑝̂− 𝑝) / √ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ≤ 𝑘 ) = 𝑃 (−𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ≤ 𝑝̂− 𝑝 ≤ 𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ) =𝑃 (−𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ≤ −𝑝̂+ 𝑝 ≤ 𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ) = 𝑃 (𝑝̂− 𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ≤ 𝑝 ≤ 𝑝̂+ 𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ).
D. Intervalo de Confianza para la Varianza de una Población Normal
Objetivo: Obtener un intervalo de confianza para 𝜎 2 con nivel de confianza 1 − α.
Discrepancia: 𝑑𝑆 2 = (𝑛 − 1)𝑆 2 / 𝜎 2 ~𝜒𝑛−1 2
En la práctica, la construcción se hace en 2 pasos:
a) Obtener k1 y k2 tales que 𝑃(𝑘1 ≤ 𝑑𝑆 2 ≤ 𝑘2) = 𝑃(𝑘1 ≤ 𝜒𝑛−1 2 ≤ 𝑘2) = 1 − 𝛼 y en particular 𝑃(𝜒𝑛−1 2 < 𝑘1 ) = 𝛼 / 2, 𝑃(𝜒𝑛−1 2 > 𝑘2 ) = 𝛼 / 2.
b) Aplicar la fórmula: ( (𝑛 − 1)𝑆 2 / 𝑘2 , (𝑛 − 1)𝑆 2 / 𝑘1 ).
Teoría (deducción matemática de la fórmula anterior):
Tenemos k1 y k2 tales que 𝑃(𝑘1 ≤ 𝑑𝑆 2 ≤ 𝑘2) = 1 − 𝛼, o lo que es lo mismo: 𝑃 (𝑘1 ≤ (𝑛 − 1)𝑆 2 / 𝜎 2 ≤ 𝑘2) = 1 − 𝛼. Despejando 𝜎 2 en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 (𝑘1 ≤ (𝑛−1)𝑆 2 / 𝜎2 ≤ 𝑘2) = 𝑃 ( 1 / 𝑘2 ≤ 𝜎 2 / (𝑛−1)𝑆 2 ≤ 1 / 𝑘1 ) = 𝑃 ( (𝑛−1)𝑆 2 / 𝑘2 ≤ 𝜎 2 ≤ (𝑛−1)𝑆 2 / 𝑘1 ).
E. Tamaño de Muestra para Estimar la Media de una Población Normal con Varianza Conocida
Objetivo: Estimar μ con un nivel de confianza 1 − α y un margen de error 𝜀.
Discrepancia: 𝑑𝑋̄ = (𝑋 − 𝜇) / (𝜎⁄√𝑛) ~𝑁(0,1)
Deducción de la fórmula:
El intervalo de confianza para μ tiene la forma [𝑋̅ ± 𝜀], siendo 𝜀 = 𝑘 𝜎 / √n el margen de error. Elevando al cuadrado obtenemos 𝜀 2 = 𝑘 2 𝜎 2 / 𝑛. Despejando n en la expresión anterior se obtiene la formula 𝑛 = 𝑘 2𝜎 2 / 𝜀 2.
F. Tamaño de Muestra para Estimar la Proporción
Objetivo: Estimar 𝑝 con un nivel de confianza 1 − α y un margen de error 𝜀.
Discrepancia: 𝑑𝑝̂ = (𝑝̂−𝑝) / √ 𝑝(1−𝑝) / 𝑛 → 𝑁(0,1) (en muestras grandes)
Deducción de la fórmula:
El intervalo de confianza (no factible) para 𝑝 tiene la forma [𝑝̂± 𝜀], donde 𝜀 = 𝑘√ 𝑝(1−𝑝) / 𝑛 es el margen de error. Elevando al cuadrado se obtiene 𝜀 2 = 𝑘 2 𝑝(1 − 𝑝) / 𝑛. Despejando 𝑛 en la expresión anterior se obtiene la fórmula 𝑛 = 𝑘 2𝑝(1 − 𝑝) / 𝜀 2.