Distribuciones de Probabilidad
Distribución Uniforme
No tiene propiedad aditiva.
- Función de distribución: (x – a) / (b – a)
- Función de densidad: 1 / (b – a)
Teorema de Chebyshev
(Correctas):
- Permite calcular la probabilidad de un intervalo simétrico, tanto interior como exteriormente, conociendo la media y la varianza de la variable aleatoria (V.A), siempre que estas sean finitas.
Distribución T-Student
- No depende de la desviación típica.
- No tiene propiedad aditiva.
Distribución Normal
- La frecuencia de los valores tiene un máximo en la media, independientemente de los valores de la media y la varianza.
- La distribución es simétrica respecto a la media.
- La media, la mediana y la moda son iguales.
- Cumple la propiedad aditiva.
Distribución de Poisson
(También llamada «de los sucesos raros»).
- La esperanza y la varianza son iguales.
- Si los valores de una V.A. discreta siguen una distribución de Poisson: la media es igual a la varianza.
De las siguientes distribuciones, las que derivan de la distribución Normal son: t-Student y X2 (Chi-cuadrado).
Tipificación
Se caracteriza por tener esperanza = 0 y varianza = 1.
Distribución Binomial
- No cumple la propiedad aditiva/reproductiva.
- (Correctas):
- Cada resultado puede ser calificado como éxito o fracaso.
- La probabilidad de los sucesos es constante de ensayo en ensayo.
- Cada suceso es independiente del resto.
Teoremas y Conceptos de Probabilidad
Teorema Central del Límite (TCL)
- Hace referencia a la convergencia en distribución hacia el modelo normal.
- Necesita para su aplicación una suma numerosa de V.A. independientes.
- Permite, bajo ciertas condiciones, aproximar la Binomial a la Normal.
- Se aplica cuando el número de variables es superior o igual a 100 para que la suma de las mismas converja a una distribución normal.
- Es posible aplicar el TCL en una suma de V.A independientes con E y V conocidas, pero desconociendo la distribución de probabilidad de cada una de las variables: siempre que, aun desconociendo la distribución de cada una, sean iguales.
- Exige: trabajar con variables aleatorias independientes e idénticamente distribuidas y manejar un número suficientemente elevado de variables aleatorias.
- Exige conocer la Esperanza (E) y la Varianza (V).
Teorema de Linderberg-Lévy
Condiciones:
- Las V.A. deben ser independientes.
- Todas las V.A. deben tener la misma esperanza.
- La varianza de todas las variables aleatorias debe ser la misma.
Definiciones de Probabilidad
- Definición Subjetiva: Basada en la opinión de un experto. Ejemplo: Un economista estima la probabilidad de una coyuntura favorable en 0.3.
- Definición Frecuentista: Basada en la frecuencia relativa de un evento. Ejemplo: En un control, el 25% de los vehículos superan el límite de velocidad.
- Probabilidad Clásica (Laplace): Número de casos favorables dividido por el número total de casos, bajo el supuesto de equiprobabilidad.
Relaciones entre Sucesos
- Sean A y B, la relación es cierta cuando P(A) + P(B) – P(A∩B): cuando los sucesos son compatibles (la ocurrencia de uno no excluye la del otro).
- Sean A y B sucesos distintos del imposible: A y B pueden ser dependientes y compatibles.
- Sean A y B, siendo A el conjunto vacío y B el suceso complementario de A: A y B son independientes e incompatibles.
- Sean A y B, sucesos dependientes: P(A∩B) = P(B|A) · P(A).
- Sean A y B independientes estadísticamente: P(A∩B) = P(A) · P(B).
- Sean A y B, sucesos disjuntos del espacio muestral, distintos del suceso imposible: P(A∪B) = P(A) + P(B).
- Sean A y B mutuamente excluyentes: su probabilidad conjunta es 0.
Conceptos Adicionales de Probabilidad
- Probabilidad de la intersección entre dos sucesos independientes (incorrecto): No es igual a la multiplicación de las probabilidades de los sucesos P(A) · P(B)=1.
- La probabilidad es una medida del grado de incertidumbre: Si la probabilidad de un suceso es 0, sabemos con certeza que el fenómeno no ocurrirá.
- Sucesos Colectivamente Exhaustivos: Si la unión de varios sucesos cubre totalmente el espacio muestral.
- Suceso Aleatorio: Es un subconjunto del espacio muestral.
- Distribución de probabilidad (correcta): La probabilidad de cada suceso debe estar entre 0 y 1, inclusive, y la suma de las probabilidades de todos los sucesos debe ser 1.
- Sucesos Independientes Estadísticamente: Si la probabilidad de ocurrencia de un suceso A no se ve afectada por la ocurrencia del suceso B.
- El Complementario de la Unión de dos sucesos es la intersección de los sucesos complementarios.
- La Unión de dos Sucesos se define como el suceso formado por los elementos comunes y no comunes.
- Si un suceso S1 está contenido en otro S, se verifica que P(S1) ≤ P(S).
Variables Aleatorias (V.A.)
- Variable Aleatoria (V.A.): Expresa la caracterización cuantitativa de los resultados de un espacio muestral. Es una función que asigna un número real a cada resultado. Modela un fenómeno aleatorio. Puede tomar infinitos valores. Puede ser discreta o continua.
- Función de Densidad: De una V.A. continua (V.A.C.) siempre es no negativa. Puede ser mayor que uno para algún valor de la variable. Es la derivada de la función de distribución.
- Esperanza de una V.A.: Si existe, es un número real.
- Función de Distribución: Es monótona no decreciente. En V.A. discretas (V.A.D.) presenta discontinuidades en puntos concretos. En V.A.C. es la integral de la función de densidad.
- Si el espacio muestral de un fenómeno aleatorio es un intervalo de la recta real, y X es una V.A.: X es una V.A.C.
- Si la función de distribución no crece para un valor de la variable: La probabilidad de dicho valor es 0.
- V.A.D. (Correcta): Ejemplo: El número de personas que comen en un comedor universitario. (Incorrectas): Tiempo, porcentaje, factura.
- V.A.C. (Correcta): Ejemplo: El tiempo de duración de un componente, la anchura de una pieza, el peso de un producto. Es la integral de la función de densidad.
- Función de distribución de una V.A.D: P(a ≤ X ≤ b) = F(b) – F(a-), donde F(a-) es el límite por la izquierda de la función de distribución en el punto a. La expresión correcta, asumiendo que ‘a’ es un punto de discontinuidad, sería P(a ≤ X ≤ b) = F(b) – F(a-) + P(X=a), o simplemente F(b) – F(a-) si se entiende que F(a) incluye la probabilidad de X=a.
Medidas Estadísticas
Moda
- Es el valor con mayor frecuencia.
- Es única si la distribución es unimodal. Si la distribución es simétrica y unimodal, la moda coincide con la media y la mediana.
Coeficiente de Variación de Pearson (Cv)
Se utiliza para comparar la variación relativa entre diferentes conjuntos de datos, incluso si tienen diferentes unidades o medias. Mide la dispersión relativa.
Media Aritmética
- (Correcta) Es el valor que minimiza las distancias cuadráticas respecto al resto de valores de la variable.
- (Falsas) No siempre toma el mismo valor que la mediana. No es una medida de dispersión. No es el valor con mayor frecuencia absoluta.
Media Geométrica
- Se usa para promediar índices, tasas y porcentajes.
- El índice de media geométrica ponderada se calcula como el producto de los valores de la variable elevados a sus correspondientes ponderaciones y todo ello elevado a la inversa del sumatorio de las ponderaciones.
- Relación entre medias: H ≤ G ≤ X (Armónica ≤ Geométrica ≤ Aritmética)
Coeficiente de Correlación Lineal (r)
- Puede ser negativo.
- Está acotado entre -1 y +1.
- Indica la fuerza y la dirección de la relación lineal entre dos variables.
- Tiene el mismo signo que la covarianza.
- Es adimensional.
- Es invariante ante cambios de origen o de escala.
- No es 1 si los coeficientes de regresión lineal (b y b’) son ambos 1. Será 1 solo si la relación lineal es perfecta y positiva.
Coeficiente de Correlación y Covarianza
El coeficiente de correlación es la medida preferida de relación lineal entre variables, ya que es una medida estandarizada (adimensional).
Coeficiente de Determinación (r2)
No le afectan los cambios de escala ni de origen. Representa la proporción de la varianza total de la variable dependiente que es explicada por el modelo de regresión.
Medidas Estandarizadas o Adimensionales
Son aquellas que no dependen de las unidades de medida. Incluyen todos los coeficientes (como el de correlación) y la variable tipificada.
Covarianza
- Si es 0, las variables son linealmente independientes (incorreladas).
- Si dos variables son independientes, la covarianza es 0.
Varianza Residual (S2e)
S2e = S2y – S2r
Donde:
- S2e: Varianza residual (varianza no explicada por el modelo).
- S2y: Varianza total de la variable dependiente.
- S2r: Varianza explicada o debida a la regresión.
En regresión lineal, la varianza de la variable dependiente puede descomponerse en la suma de la varianza de regresión y la varianza residual.
Varianza (S2)
- Es una medida de dispersión.
- Es la mejor medida de dispersión cuadrática.
- Es la media de las desviaciones cuadráticas de los valores de la variable respecto a la media.
- Siempre es ≥ 0.
- Es la medida cuadrática de dispersión óptima.
- Es el momento de orden 2 respecto a la media.
- Le afectan los cambios de escala, pero no los de origen.
- Si Y = a + b·X, entonces S2y = b2 · S2x
Identidades y Relaciones entre Variables Aleatorias
- VAR(X+Y) = V(X) + V(Y) solo si X e Y son independientes.
- Si X1 = 2, X2 = 8, V(X1) = 9, V(X2) = 8, y definimos Y = X1 – X2, entonces V(Y) = V(X1) + V(X2) = 9 + 8 = 17.
- Si una variable estadística tiene media = 3, desviación típica = 2 y mediana = 4, y se define la variable Y = 2X + 1, entonces: Media(Y) = 2 * 3 + 1 = 7, Mediana(Y) = 2 * 4 + 1 = 9, y Varianza(Y) = 22 * 22 = 16.
Esperanza
- La esperanza no siempre existe.
- La esperanza de una constante es la constante.
- La esperanza del producto de V.A. independientes es el producto de las esperanzas.
- La esperanza de una suma de variables aleatorias es la suma de las esperanzas.
Medidas de Dispersión
- Cuanto mayor sea la dispersión, menos representativa será la media.
- La dispersión respecto a la mediana *no* es siempre menor o igual que la dispersión respecto a la media. La dispersión cuadrática mínima se da respecto a la media.
Frecuencias Bidimensionales
- Se pueden dar para variables cualitativas.
- Se pueden obtener si una variable es continua y la otra discreta.
- Las dos variables serán independientes estadísticamente si cada una de las frecuencias relativas conjuntas es igual al producto de las frecuencias relativas marginales.
Regresión Lineal
Recta de Regresión
En una recta de regresión C = 1.1 + 0.56R, donde C es el consumo y R es la renta: Si la renta se incrementa en una unidad, el consumo se incrementará en 0.56 unidades.
Índices de Asimetría y Curtosis
Si el índice de asimetría = 0.5 y el de curtosis = 0.1: La distribución es asimétrica por la derecha (sesgo positivo) y más apuntada que la normal (leptocúrtica).
Series Temporales
- Definición: Un conjunto de medidas ordenadas en el tiempo de una cierta cantidad de interés.
- Componente Estacional: Refleja comportamientos que se repiten periódicamente con una periodicidad inferior al año.
- Componente Tendencia: Recoge movimientos suaves y regulares que reflejan la evolución a largo plazo.
- Componente Ciclo: Recoge movimientos alrededor de la tendencia, de larga duración, que generalmente se repiten de forma periódica y de amplitud superior a un año.
- Componente Irregular: Recoge movimientos esporádicos, sin periodicidad. Es la parte impredecible de la serie.
Números Índice
- Ponderaciones en Índices Complejos Ponderados: Permiten corregir la diferente importancia de los índices simples.
- Deflactar: Dividir una serie de valores nominales (corrientes) por un índice de precios (como el IPC) para obtener valores reales (constantes).
- Índice de Precios al Consumo (IPC): Es un índice de Laspeyres de precios.
- Números Índice: Cuantifican la variación a lo largo del tiempo de una variable.
Tipos de Índices
- Laspeyres: Lp = ∑ (Pit · Qi0) / (∑ Pi0 · Qi0). Es la media aritmética ponderada de los índices de precios, utilizando como ponderaciones el valor (precio por cantidad) del año base.
- Paasche: Utiliza ponderaciones del año actual (t). Una formulación común es: Pp = ∑ (Pit · Qit) / (∑ Pi0 · Qit)
- Fisher: Es la media geométrica de los índices de Laspeyres y Paasche.