Introducción a la Estadística
Conceptos Básicos
a) Población
Es la recolección completa de todas las observaciones de interés para el investigador.
b) Parámetro
Es una medida descriptiva de la población total de todas las observaciones de interés para el investigador (varianza, moda, mediana, desviación estándar, media muestral y media población).
c) Muestra
Es una parte representativa de la población que se selecciona para ser estudiada, ya que la población es demasiado grande para analizarla en su totalidad.
d) Estadístico
Elemento que describe una muestra que sirve como una afirmación del parámetro de una población correspondiente.
e) Variables
Es una característica de la población que se está analizando en un estudio (ej: número de personas que se tinturan el pelo).
f) Sesgo Muestral
Es la tendencia a favorecer la selección de ciertos elementos de muestra en lugar de otros (ej: todos los africanos son deportistas).
g) Mediciones en escalas nominales
Son las que clasifican las observaciones en categorías con un orden significativo.
h) Medidas en escalas de razón
Medidas numéricas en las cuales es un valor fijo en cualquier escala y la diferencia entre valores es importante.
i) Variable aleatoria continua
Temperatura, peso, estatura.
j) Distribución de probabilidades
Es un despliegue de todos los posibles resultados de un experimento junto a las probabilidades de cada resultado.
k) Valor esperado
Es la medida ponderada de todos los posibles resultados en los cuales los pesos son las probabilidades respectivas.
l) Varianza de una distribución de probabilidad
Es el promedio de desviaciones al cuadrado con respecto a la media.
Distribución Normal
Es la más importante de todas, es la más usada. Se conoce como la campana de Gauss.
La desviación estándar mide cuan alejados o concentrados están las observaciones en torno al promedio (x).
Normal Estándar
X = 0
G = 1
Determinar:
a) ¿Qué porcentaje de clientes miden menos de 65 pulgadas?.
x ≤ 65 67
x: número de pulgadas de la estatura de los clientes.
P(x ≤ 65)= P(x-67 ≤ 65-67)
2 2
P(z ≤ -1)= 0,8413
El 84,13% de los clientes de Toppwear mide menos de 65 pulgadas.
b) Entre 65 y 69 pulgadas.
P(65 ≤ x ≤ 69)
P(65-67 ≤ z ≤ 69-67)
2 2 u=67
P(-1 ≤ z ≤ 1) G=2
∅(1) – ∅(-1)
0,8413-0,1587= 0,6826
c) Mayor que 69.
P(x ≥ 69)= 1-P(x≤69)
1-P(x-67 ≤ 69-67)= 1-∅(-1)= 1-0,8413= 0,1564
2 2
Tipos de Distribución
Distribuciones de Probabilidad
a) Binomial:
Cada ensayo en una distribución termina en sólo uno de los resultados mutuamente excluyentes. Uno de los cuales se identifica como un éxito y el otro como un fracaso.
b) Poisson:
Mide la probabilidad de un evento aleatorio sobre algún tiempo ò espacio.
La probabilidad de ocurrencia del evento es constante, para dos intervalos de tiempo ò espacio.
La ocurrencia del evento en un intervalo es independiente de la ocurrencia del otro intervalo cualquiera.
Distribución Exponencial (continua)
– αt
P(X≤x)= 1-℮
t: es el lapso de tiempo.
℮: 2,7188
a: es la tasa promedio de ocurrencia.
Distribución Uniforme
Las probabilidades son las mismas para todos los posibles resultados.
E(x)= u= a+b
2
2 2
G= (a+b)
12
Estadística
Sirve para ver lo que le pasa a la población a través de una muestra.
Información
Censo.
Población: todo.
Muestra: una parte representativa de la población.
a) Estadística Diferencial
Es la diferencia que involucra el uso de un estadístico para sacar una conclusión o inferencia sobre el parámetro correspondiente.
b) Error de Muestreo
Es la diferencia entre el parámetro poblacional y el estadístico de la muestra, utilizándolo para estimar el parámetro.
c) Estimador
Proceso ene l cual se obtiene la estimación.
d) Estimación
Es el resultado numérico del estimador.
Los estimadores deben ser:
a) Insesgados
Un estimador es insesgado si la media
de la distribución muestral es igual al parámetro correspondiente.
b) Eficiente: dado todo estimador insesgado el estimador más eficiente es aquél que tenga varianza más pequeña.
c) Consistente: un estimador es consistente si a medida que aumenta el valor del estadístico se aproxima al parámetro.
d) Suficiente: un estimador es suficiente si utiliza toda la información sobre el parámetro contenido en la muestra, es decir, si ningún otro estimador puede proporcionar más información sobre los datos.