Definición de Momentos, Varianza y sus Propiedades
Momentos
Los momentos son valores deducidos de las distribuciones de frecuencias que forman parte de muchas características asociadas a estas distribuciones. Caracterizan a las distribuciones de frecuencia en el sentido de que las distribuciones serán lo más parecidas cuanto mayor número de momentos tengan iguales. Sirven para descubrir algún aspecto o propiedad de la variable. Son sucesos independientes. La probabilidad de que salga un momento no depende del anterior. La probabilidad es constante para todo el experimento.
Varianza
La varianza es una medida de la dispersión de la distribución de probabilidad de x alrededor de su media. Si la varianza es cercana a cero, los valores están cerca de la media.
Propiedades de la Varianza
- La Var[x] ≥ 0
- La varianza se puede expresar como Var[x] = a2 – a12 = E[x2] – E[x]2
- La varianza de una constante es 0.
- Sea x una variable aleatoria cuya varianza existe y a y b unas constantes cualesquiera, entonces σ2(ax + b) = a2σ2 = a2Var[x]
Medidas de Dispersión Relativas y Absolutas
Las medidas de dispersión informan de la representatividad de las medidas de tendencia central.
- Medidas de dispersión absolutas: Miden la variabilidad en la misma unidad que la variable en estudio (kg, m, €…).
- Medidas de dispersión relativas: Son valores sin dimensión por ser cocientes de magnitudes medidas en las mismas unidades.
Medidas de Forma
Cuantifican características observables en la forma de la representación gráfica que nos proporcionan más información sobre el fenómeno en estudio.
Coeficiente de Asimetría (Fisher)
g1 = m3 / s3
Cuando la distribución es simétrica coincide con la media, la mediana y la moda. Se basa en distribuciones simétricas, por cada observación a la derecha de la media hay otra a igual distancia a la izquierda.
- Distribución simétrica: g1 = 0
- Distribución asimétrica a la izquierda: g2 < 0
- Distribución asimétrica a la derecha: g1 > 0
Coeficiente de Curtosis o Apuntamiento
g2 = (m4 / s4) – 3
El perfil de apuntamiento como referencia es el de la campana de Gauss o curva normal. La mayor frecuencia de observaciones próximas a la media da lugar a una representación más apuntada. La menor frecuencia de observaciones próximas a la media da lugar a una representación más aplanada.
- Apuntamiento normal: mesocúrtica g2 = 0
- Más aplanada que la normal: platicúrtica g2 < 0
- Más apuntada que la normal: leptocúrtica g2 > 0
Coeficiente de Correlación Lineal
Puede definirse como: rxy = sxy / (sxsy)
Este coeficiente varía entre -1 y 1 (-1 ≤ rxy ≤ 1) indicando objetivamente el grado de variación conjunta que tienen las variables x e y:
- Si se acerca a 1: grado de asociación positiva fuerte
- Si se acerca a -1: grado de asociación negativa fuerte
- Si se acerca a 0: grado de asociación nulo
Enlace de Series de Números Índices y Deflación de Series Económicas
Definición de Número Índice Sintético y Elemental
- Índice elemental: Considerando la evolución temporal de una magnitud g, se denomina índice elemental de la magnitud simple g en el periodo (t) respecto al periodo base al cociente.
- Índice sintético: Los índices sintéticos nos permiten estudiar la evolución conjunta de los precios de varios productos.
Enlace de Series de Números Índices
El enlace de series de números índices es un proceso que hace que todos los números índices de los distintos periodos se unan en una misma serie con la misma base, para así facilitar las comparaciones.
Supongamos:
- Una serie de números índices construida en base t1.
- Una serie de números índices construida en base t2.
- El valor del índice t2 con respecto a t1.
Si se quiere una única serie con base en t2 se modifica la primera serie a través de la expresión:
Ejemplo de tabla Datos de ejemplo |
Deflación de Series Económicas
La deflación de series económicas es un procedimiento utilizado para proceder a la homogeneización de los resultados de los análisis de crecimiento o decrecimiento de una sucesión de valores expresados en unidades monetarias corrientes de cada año, para posibilitar la comparación. El proceso consiste en dividir los valores de la serie económica por un índice de precios adecuado (deflactor).
Componentes de una Serie Cronológica y Tipos de Modelo
- Tendencia secular (ϯ(t)): Movimiento de la serie a largo plazo, es decir, refleja el comportamiento general de la serie.
- Variación estacional (E(t)): Representa fluctuaciones de la serie en periodos de tiempo que se repiten con una periodicidad conocida, inferiores al año.
- Variación cíclica (C(t)): Representa el comportamiento de la serie de carácter periódico, con periodos de duración distintos desconocida en general superior a 1 año.
- Variación aleatoria (ɛ(t)) o irregular residual: Es una fluctuación impredecible que ocurre aleatoriamente en distintos instantes de tiempo.
Tipos de Modelo
- Modelo aditivo: Las observaciones se generan como suma de los 4 componentes: Y(t) = ϯ(t) + E(t) + C(t) + ɛ(t). La variación irregular ɛ(t) es independiente de los demás componentes. Cada componente se expresa en la misma unidad que las observaciones.
- Modelo multiplicativo:
- Modelo multiplicativo puro: Las observaciones se generan por el producto de los 4 componentes: Y(t) = ϯ(t) * E(t) * C(t) * ɛ(t). Aquí no se cumple la hipótesis de la independencia de la variación irregular respecto de los demás. La tendencia secular (ϯ(t)) se expresa en la misma unidad que las observaciones y los demás componentes en tantos por 1.
- Modelo multiplicativo mixto: Y(t) = ϯ(t) * E(t) * C(t) + ɛ(t). Sí cumple la independencia de la variación irregular.
En qué Consiste el Proceso de Desestacionalización de una Serie Cronológica
El componente estacional indica el aumento o disminución que se ha experimentado en un periodo estacional. Distorsiona el verdadero movimiento de la serie y por ello es aconsejable su eliminación. Se mide con un índice adimensional, el índice de variación estacional, que viene expresado en porcentaje y mide la oscilación o fluctuación del valor de la serie respecto al valor de la tendencia media del año.
Este proceso de eliminación se realiza dividiendo los valores originales de la serie por los correspondientes IVE expresados en tanto por 1, obteniendo así la serie desestacionalizada.
Método multiplicativo: En los modelos aditivos se hace restando a la observación el dato original el IVE.
Definición Axiomática de Probabilidad
Se llama probabilidad a una ley que asocia a cada suceso A un número real entre 0 y 1, que llamaremos probabilidad de A y representamos P[A].
La probabilidad debe cumplir los siguientes axiomas:
- P(A) ≥ 0, para cualquier suceso A del espacio muestral.
- P(Ω) = 1
- Sean (n) sucesos incompatibles, entonces la probabilidad de la unión de los sucesos es igual a la suma de las probabilidades de cada uno de ellos.
Consecuencias o Propiedades de los Axiomas
- P(ᾱ) = 1 – P(A)
- P(Ø) = 1 – P(Ω) = 0
- Si A ⊆ B : P(A) ≤ P(B)
- Probabilidad de la unión de sucesos compatibles: P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
Sucesos Dependientes e Independientes, Compatibles e Incompatibles
Dos sucesos son independientes si la realización de uno no modifica la probabilidad de realización del otro. A y B son independientes si: P[A/B] = P[A] y P[B/A] = P[B]. En caso contrario, serán dependientes.
Dos sucesos son incompatibles si no pueden ocurrir a la vez, es decir, si A ∩ B = Ø. Dos sucesos son incompatibles si: P[A ∩ B] = 0
Dos sucesos son compatibles si: P[A ∩ B] ≠ 0
Covarianza
La covarianza nos da una medida de la variabilidad conjunta y, por tanto, de la asociación o relación entre las variables x e y. El signo de la covarianza indica en qué sentido varían conjuntamente las variables.
- Si la covarianza es positiva, las dos variables cambian, en general, en el mismo sentido (si una variable aumenta de valor, la otra también aumenta; análogamente, si una disminuye, la otra hará lo mismo). En este caso, decimos que la relación entre las variables es positiva o directa.
- Si la covarianza es negativa, las dos variables cambian, en general, en sentidos opuestos (si una aumenta, la otra disminuye). En este caso, decimos que la relación entre las variables es negativa o inversa.
Varianza de una Variable Aleatoria Unidimensional Continua
La varianza es una medida de la dispersión de la distribución de probabilidad de x alrededor de su media. Valores pequeños de la varianza indican que la función de densidad se concentra alrededor de la media o que los valores con mayores probabilidades se sitúan cerca de la media. La raíz cuadrada positiva de la varianza recibe el nombre de desviación típica y viene medida en las mismas unidades que la variable aleatoria de interés x.
En el caso de variable aleatoria continua: σ2(x) = Var(x) = -∞∫∞(xi – E[x])2 f(x)dx
Propiedades
- Var[x] ≥ 0
- La varianza se puede expresar como Var(x) = a2 – a1 = E[x2] – E[x]2
- La varianza de una constante es 0.
- Sea x una variable aleatoria cuya varianza existe y a y b unas constantes cualesquiera: σ2(ax + b) = a2σ2(x) = a2 Var(x)
Función de Distribución: Definición y Propiedades
Caso Discreto
Función de distribución: Se define la función de distribución F[x] como la probabilidad de que la variable aleatoria x tome valores inferiores o iguales a un valor xi, es decir, F[x] = P[x ≤ x]
La variable aleatoria discreta toma un conjunto de valores aislados, por lo tanto, su función de distribución es una función escalonada.
Propiedades
- 0 ≤ F[x] ≤ 1
- F(x) es una función no decreciente.
- F(x) es continua a la derecha.
- Si a < b, entonces F[a] ≤ F[b]
Caso Continuo
Función de distribución: Se define la función de distribución F[xi], i = 1, 2, …, n, como la función que asocia a cada valor de la variable aleatoria la probabilidad acumulada hasta ese valor.
La variable aleatoria continua toma un conjunto continuo de valores, por lo tanto, su función de distribución es una función continua.
Propiedades
- P[a < x ≤ b] = F(b) – F(a)
- P[x > b] = 1 – F(b)
- P[x < a] = F(a)
- La función de distribución vale 0 para todo valor anterior al menor valor de la variable aleatoria.
- La función de distribución vale 1 para todo valor de la variable posterior al mayor valor de la variable aleatoria.
- La función de distribución es creciente.
Distribución Binomial
Función de cuantía, significado de la variable, características estocásticas y significado de los parámetros. Deducir la media y la varianza.
Propiedades
Función de la cuantía: P[x=x] = (nx) px (1-p)n-x
Significado de la Variable y sus Parámetros
Se considera un experimento aleatorio con 2 resultados:
- Éxito (A) con probabilidad: P(A) = p
- Fracaso (Ā) con probabilidad: P(Ā) = 1 – p
Se le asocia una variable discreta: x -> b (n, p); siendo (n): número de veces que se realiza el experimento; p = probabilidad de éxito.
Propiedades Estocásticas
- Media: E[x] = np
- Varianza: Var[x] = np(1 – p) = npq
Propiedades de Aditividad o Reproductividad
Sean x e y dos variables aleatorias independientes con distribuciones de probabilidad: x → b(n, p) e y → b(m, p), entonces, x + y → b(n + m, p)
Distribución de Poisson
Función de cuantía, significado de la variable, características estocásticas y significado de los parámetros.
Función de la Cuantía
P[x = x] = (e-λ * λx) / x!
Significado de la Variable
La variable aleatoria x asociada a la distribución de Poisson suele representar el número de sucesos aleatorios independientes que ocurren con velocidad constante en el tiempo, siendo (λ) el promedio de ocurrencias del suceso por unidad de tiempo.
Propiedades Estocásticas
- E[x] = Var[x] = λ = (n * p)
Propiedad de Aditividad o Reproductividad
Sean x e y dos variables aleatorias independientes con distribuciones de probabilidad x → P(λ1) e y → P(λ2), entonces, x + y → P(λ1 + λ2)
Medidas de Dispersión y Concentración (Relación)
Cuando la concentración es 0, también lo es la dispersión, y cuando la concentración es máxima, no se corresponde con una dispersión nula ni máxima. Las medidas de dispersión se refieren a la variabilidad, mayor o menor homogeneidad de los valores de una variable y la concentración se refiere a cómo se reparte una magnitud económica entre un conjunto o colectivo de individuos. No hay relación entre las medidas de ambas características, por lo que no debe usarse como indicativas de las otras.
Aproximación de una Binomial a una Poisson
Una variable aleatoria x → b(n, p) se puede aproximar por una distribución de Poisson cuando (n) es muy grande y (p) es muy pequeño, o próximo a 0. Esta propiedad sirve para caracterizar a una gran cantidad de fenómenos que siguen una distribución de Poisson, son fenómenos con una pequeña probabilidad de éxito que son observados en un número elevado de ocasiones.
En la práctica será válido utilizar la aproximación b(n, p) ≈ P(np) cuando n > 50 y p ≤ 0,1