Conceptos Clave de Probabilidad y Estadística: Fórmulas y Demostraciones

Conceptos Clave de Probabilidad y Estadística: Fórmulas y Demostraciones

1. Condición Necesaria y Suficiente de Independencia

Dados los sucesos 𝐴 y 𝐵, 𝐴 es independiente de 𝐵 si y solo si 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵).

Demostración:

Parte 1: Si 𝐴 y 𝐵 son independientes, por la definición de independencia se cumple 𝑃(𝐴|𝐵) = 𝑃(𝐴). Por otro lado, por la definición de probabilidad condicional, se tiene 𝑃(𝐴|𝐵) = 𝑃(𝐴 ∩ 𝐵) / 𝑃(𝐵). Combinando ambas expresiones para 𝑃(𝐴|𝐵), se obtiene 𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵) / 𝑃(𝐵). Despejando en la expresión anterior resulta 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵).

Parte 2: Si se cumple la condición 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵), podemos despejar del modo siguiente: 𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵) / 𝑃(𝐵). El miembro de la derecha en la expresión anterior es la probabilidad condicional, 𝑃(𝐴|𝐵). Por tanto, tenemos que 𝑃(𝐴) = 𝑃(𝐴|𝐵), y por tanto 𝐴 y B son independientes.

2. Teorema de la Probabilidad Total

Dada una partición (𝐴1, . . . , 𝐴𝑛) del espacio muestral E, y dado un suceso B, se cumple: 𝑃(𝐵) = ∑𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖) para 𝑖=1 hasta 𝑛.

Demostración:

Por la definición de partición, el espacio muestral 𝐸 se puede descomponer como la unión de los elementos de la partición (los cuales son disjuntos dos a dos), del modo siguiente: 𝐸 = ⋃𝐴𝑖 para 𝑖=1 hasta 𝑛. Como el suceso B también es un subconjunto de 𝐸, se puede descomponer como la unión de las partes de 𝐵 que están en común con los elementos de la partición (las cuales son disjuntas dos a dos). Por tanto: 𝐵 = ⋃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛. Al ser los sucesos anteriores disjuntos, por el tercer axioma de Kolmogorov se tiene 𝑃(𝐵) = 𝑃 (⋃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛) = ∑𝑃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛. Por otra parte, por la definición de probabilidad condicional se tiene 𝑃(𝐵|𝐴𝑖) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐴𝑖). Y despejando, resulta 𝑃(𝐵 ∩ 𝐴𝑖) = 𝑃(𝐵|𝐴𝑖)𝑃(𝐴𝑖), que al sustituirse en la expresión de 𝑃(𝐵) más arriba, da lugar al resultado: 𝑃(𝐵) = ∑𝑃(𝐵 ∩ 𝐴𝑖) para 𝑖=1 hasta 𝑛 = ∑𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖) para 𝑖=1 hasta 𝑛.

3. Teorema de Bayes

Dada una partición (𝐴1, . . . , 𝐴𝑛) del espacio muestral E, y dado un suceso B, se cumple (si P(B)>0): 𝑃(𝐴𝑖 |𝐵) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖) / 𝑃(𝐵).

Demostración:

Por la definición de probabilidad condicional, se tiene 𝑃(𝐴𝑖 |𝐵) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐵). Por otra parte, también por la definición de probabilidad condicional, se tiene 𝑃(𝐵|𝐴𝑖 ) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐴𝑖 ). Y despejando en esta última expresión resulta 𝑃(𝐵 ∩ 𝐴𝑖) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ). Sustituyendo en la expresión inicial se obtiene 𝑃(𝐴𝑖 |𝐵) = 𝑃(𝐵 ∩ 𝐴𝑖) / 𝑃(𝐵) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) / 𝑃(𝐵).

Deducciones y Fórmulas Importantes en Estadística

Deducción de la Fórmula Abreviada de la Varianza

𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2) − μ 2

Demostración:

Se utilizan la expansión del cuadrado de la diferencia y las propiedades de la esperanza (𝐸(𝑋) = 𝜇 es una constante): 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 − μ) 2 = 𝐸(𝑋 2 − 2μ𝑋 + μ 2) = 𝐸(𝑋 2) − 𝐸(2μ𝑋) + 𝐸(𝜇 2) = 𝐸(𝑋 2) − 2μ𝐸(𝑋) + 𝜇 2 = 𝐸(𝑋 2) − 2μ 2 + 𝜇 2 = 𝐸(𝑋 2) − μ 2.

Deducción de la Esperanza y la Varianza de la Distribución de Bernoulli

𝐸(𝑋) = 𝑝 ; 𝑉𝑎𝑟(𝑋) = 𝑝(1 − 𝑝) = 𝑝𝑞

Demostración:

La esperanza se obtiene directamente: 𝐸(𝑋) = 1 𝑝 + 0 (1 − 𝑝) = 𝑝. Para la varianza utilizamos la fórmula abreviada: 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2) − [𝐸(𝑋)] 2. Tenemos: 𝐸(𝑋 2) = 1 2𝑝 + 0 2(1 − 𝑝) = 𝑝. Por tanto, como 𝐸(𝑋) = 𝑝, se obtiene: 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2) − [𝐸(𝑋)] 2 = 𝑝 − 𝑝 2 = 𝑝(1 − 𝑝) = 𝑝q.

1. Fórmula Abreviada de la Covarianza

𝐶𝑜𝑣(𝑋,𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌).

Demostración:

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))] = 𝐸[𝑋𝑌 − 𝑌𝐸(𝑋) − 𝑋𝐸(𝑌) + 𝐸(𝑋)𝐸(𝑌)] = 𝐸(𝑋𝑌) − 𝐸(𝑌)𝐸(𝑋) − 𝐸(𝑋)𝐸(𝑌) + 𝐸(𝑋)𝐸(𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌).

2. Varianza de la Suma de Variables Aleatorias Independientes

Si X e Y son variables aleatorias independientes, entonces: 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌).

Demostración:

En general: 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝐸[𝑋 + 𝑌 − 𝐸(𝑋 + 𝑌)]2 = 𝐸[(𝑋 − 𝐸(𝑋))2 + (𝑌 − 𝐸(𝑌))2 + 2(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))] = 𝐸[𝑋 − 𝐸(𝑋)]2 + 𝐸[𝑌 − 𝐸(𝑌)]2 + 2𝐸[(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))] = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝐶𝑜𝑣(𝑋, 𝑌). Pero en el caso particular de que X e Y sean independientes, se cumple 𝐶𝑜𝑣(𝑋, 𝑌) = 0, y por tanto: 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌).

Descomposición Sesgo-Varianza del Error Cuadrático Medio

Teorema: Dado un estimador T para el parámetro 𝜃, se cumple lo siguiente: 𝐸𝐶𝑀𝑇 (𝜃) = 𝐵𝑇 2 (𝜃) + 𝑉𝑎𝑟(𝑇).

Demostración:

Dada la descomposición 𝑇 − 𝜃 = (𝑇 − 𝐸(𝑇)) + (𝐸(𝑇) − 𝜃) = (𝑇 − 𝐸(𝑇)) + 𝐵𝑇(𝜃), elevando al cuadrado y aplicando la identidad (𝑎 + 𝑏) 2 = 𝑎 2 + 𝑏 2 + 2𝑎𝑏 se obtiene (𝑇 − 𝜃) 2 = [(𝑇 − 𝐸(𝑇)) + 𝐵𝑇 (𝜃)] 2 = [𝑇 − 𝐸(𝑇)] 2 + 𝐵 2 𝑇 (𝜃) + 2𝐵𝑇 (𝜃)(𝑇 − 𝐸(𝑇)).

Tomando esperanzas 𝐸𝐶𝑀𝑇 (𝜃) = 𝐸[𝑇 − 𝜃] 2 = 𝐸[𝑇 − 𝐸(𝑇)] 2 + 𝐵𝑇 2 (𝜃) + 2𝐵𝑇(𝜃)𝐸[𝑇 − 𝐸(𝑇)]. Como 𝐸[𝑇 − 𝐸(𝑇)] 2 = 𝑉𝑎𝑟(𝑇) y 𝐸[𝑇 − 𝐸(𝑇)] = 𝐸(𝑇) − 𝐸(𝑇) = 0, se deduce 𝐸𝐶𝑀 (𝜃) = 𝑉𝑎𝑟(𝑇) + 𝐵𝑇 2 (𝜃) + 0.

Intervalos de Confianza y Tamaño de Muestra

A. Intervalo de Confianza para la Media de una Población Normal con Varianza Conocida

Objetivo: Obtener un intervalo de confianza para μ con nivel de confianza 1 − α.

Discrepancia: 𝑑𝑋̄ = (𝑋 − 𝜇) / (𝜎⁄√𝑛) ~𝑁(0,1)

En la práctica, la construcción se hace en 2 pasos:

a) Obtener k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 𝑃(−𝑘 ≤ 𝑁(0,1) ≤ 𝑘) = 1 − 𝛼.

b) Aplicar la fórmula: (𝑋 − 𝑘 𝜎 / √𝑛 , 𝑋 + 𝑘 𝜎 / √𝑛 ).

Teoría (deducción matemática de la fórmula anterior):

Tenemos k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo: 𝑃 (−𝑘 ≤ (𝑋 − 𝜇) / (𝜎⁄√𝑛) ≤ 𝑘) = 1 − 𝛼. Despejando μ en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 (−𝑘 ≤ (𝑋−𝜇) / (𝜎⁄√𝑛) ≤ 𝑘) = 𝑃 (−𝑘 𝜎 / √𝑛 ≤ 𝑋 − 𝜇 ≤ 𝑘 𝜎 / √𝑛 )= 𝑃 (−𝑘 𝜎 / √𝑛 ≤ −𝑋 + 𝜇 ≤ 𝑘 𝜎 / √𝑛 ) = 𝑃 (𝑋 − 𝑘 𝜎 / √𝑛 ≤ 𝜇 ≤ 𝑋 + 𝑘 𝜎 / √𝑛 ).

B. Intervalo de Confianza para la Media de una Población Normal con Varianza Desconocida

Objetivo: Obtener un intervalo de confianza para μ con nivel de confianza 1 − α.

Discrepancia: 𝑑𝑋̄ = (𝑋 − 𝜇) / (𝑆⁄√𝑛) ~𝑡𝑛−1

En la práctica, la construcción se hace en 2 pasos:

a) Obtener k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 𝑃(−𝑘 ≤ 𝑡𝑛−1 ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo, 𝑃(|𝑡𝑛−1 | > 𝑘) = 𝛼.

b) Aplicar la fórmula: (𝑋 − 𝑘 𝑆 / √𝑛 , 𝑋 + 𝑘 𝑆 / √𝑛 ).

Teoría (deducción matemática de la fórmula anterior):

Tenemos k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo: 𝑃 (−𝑘 ≤ (𝑋 − 𝜇) / (𝑆⁄√𝑛) ≤ 𝑘) = 1 − 𝛼. Despejando μ en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 (−𝑘 ≤ (𝑋−𝜇) / (𝑆⁄√𝑛) ≤ 𝑘) = 𝑃 (−𝑘 𝑆 / √𝑛 ≤ 𝑋 − 𝜇 ≤ 𝑘 𝑆 / √𝑛 )= 𝑃 (−𝑘 𝑆 / √𝑛 ≤ −𝑋 + 𝜇 ≤ 𝑘 𝑆 / √𝑛 ) = 𝑃 (𝑋 − 𝑘 𝑆 / √𝑛 ≤ 𝜇 ≤ 𝑋 + 𝑘 𝑆 / √𝑛 ).

C. Intervalo de Confianza para la Proporción en Muestras Grandes

Objetivo: Obtener un intervalo de confianza para 𝑝 con nivel de confianza 1 − α.

Discrepancia: 𝑑𝑝̂ = (𝑝̂− 𝑝) / √ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) → 𝑁(0,1)

En la práctica, la construcción se hace en 2 pasos:

a) Obtener k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 𝑃(−𝑘 ≤ 𝑁(0,1) ≤ 𝑘) = 1 − 𝛼.

b) Aplicar la fórmula: (𝑝̂− 𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) , 𝑝̂+ 𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ).

Teoría (deducción matemática de la fórmula anterior):

Tenemos k tal que 𝑃(−𝑘 ≤ 𝑑𝑋̄ ≤ 𝑘) = 1 − 𝛼, o lo que es lo mismo: 𝑃 ( −𝑘 ≤ (𝑝̂− 𝑝) / √ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ≤ 𝑘 ) = 1 − 𝛼. Despejando 𝑝 en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 ( −𝑘 ≤ (𝑝̂− 𝑝) / √ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ≤ 𝑘 ) = 𝑃 (−𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ≤ 𝑝̂− 𝑝 ≤ 𝑘√ 𝑝̂(1 − 𝑝̂) / (𝑛 − 1) ) =𝑃 (−𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ≤ −𝑝̂+ 𝑝 ≤ 𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ) = 𝑃 (𝑝̂− 𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ≤ 𝑝 ≤ 𝑝̂+ 𝑘√ 𝑝̂(1−𝑝̂) / (𝑛−1) ).

D. Intervalo de Confianza para la Varianza de una Población Normal

Objetivo: Obtener un intervalo de confianza para 𝜎 2 con nivel de confianza 1 − α.

Discrepancia: 𝑑𝑆 2 = (𝑛 − 1)𝑆 2 / 𝜎 2 ~𝜒𝑛−1 2

En la práctica, la construcción se hace en 2 pasos:

a) Obtener k1 y k2 tales que 𝑃(𝑘1 ≤ 𝑑𝑆 2 ≤ 𝑘2) = 𝑃(𝑘1 ≤ 𝜒𝑛−1 2 ≤ 𝑘2) = 1 − 𝛼 y en particular 𝑃(𝜒𝑛−1 2 < 𝑘1 ) = 𝛼 / 2, 𝑃(𝜒𝑛−1 2 > 𝑘2 ) = 𝛼 / 2.

b) Aplicar la fórmula: ( (𝑛 − 1)𝑆 2 / 𝑘2 , (𝑛 − 1)𝑆 2 / 𝑘1 ).

Teoría (deducción matemática de la fórmula anterior):

Tenemos k1 y k2 tales que 𝑃(𝑘1 ≤ 𝑑𝑆 2 ≤ 𝑘2) = 1 − 𝛼, o lo que es lo mismo: 𝑃 (𝑘1 ≤ (𝑛 − 1)𝑆 2 / 𝜎 2 ≤ 𝑘2) = 1 − 𝛼. Despejando 𝜎 2 en la expresión entre paréntesis obtenemos 1 − 𝛼 = 𝑃 (𝑘1 ≤ (𝑛−1)𝑆 2 / 𝜎2 ≤ 𝑘2) = 𝑃 ( 1 / 𝑘2 ≤ 𝜎 2 / (𝑛−1)𝑆 2 ≤ 1 / 𝑘1 ) = 𝑃 ( (𝑛−1)𝑆 2 / 𝑘2 ≤ 𝜎 2 ≤ (𝑛−1)𝑆 2 / 𝑘1 ).

E. Tamaño de Muestra para Estimar la Media de una Población Normal con Varianza Conocida

Objetivo: Estimar μ con un nivel de confianza 1 − α y un margen de error 𝜀.

Discrepancia: 𝑑𝑋̄ = (𝑋 − 𝜇) / (𝜎⁄√𝑛) ~𝑁(0,1)

Deducción de la fórmula:

El intervalo de confianza para μ tiene la forma [𝑋̅ ± 𝜀], siendo 𝜀 = 𝑘 𝜎 / √n el margen de error. Elevando al cuadrado obtenemos 𝜀 2 = 𝑘 2 𝜎 2 / 𝑛. Despejando n en la expresión anterior se obtiene la formula 𝑛 = 𝑘 2𝜎 2 / 𝜀 2.

F. Tamaño de Muestra para Estimar la Proporción

Objetivo: Estimar 𝑝 con un nivel de confianza 1 − α y un margen de error 𝜀.

Discrepancia: 𝑑𝑝̂ = (𝑝̂−𝑝) / √ 𝑝(1−𝑝) / 𝑛 → 𝑁(0,1) (en muestras grandes)

Deducción de la fórmula:

El intervalo de confianza (no factible) para 𝑝 tiene la forma [𝑝̂± 𝜀], donde 𝜀 = 𝑘√ 𝑝(1−𝑝) / 𝑛 es el margen de error. Elevando al cuadrado se obtiene 𝜀 2 = 𝑘 2 𝑝(1 − 𝑝) / 𝑛. Despejando 𝑛 en la expresión anterior se obtiene la fórmula 𝑛 = 𝑘 2𝑝(1 − 𝑝) / 𝜀 2.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.