Estimación puntual
Añadir p. 154 + capítulo 6 de inferencia estadística
La media poblacional \(\mu\) se define como
\[ \mu = \dfrac{\sum_{i=1}^{N}x_{i}}{N} \]
donde \(x_{i}\) es el valor de la variable aleatoria para el individuo \(i\). En la práctica, utilizamos el estimador \(\hat{X}\), una aproximación a \(\mu\):
\[ \hat{X}_{n} = \dfrac{\sum_{i=1}^{n}X_{i}}{n} \]
Se utiliza una letra mayúscula (\(X\)) porque a medida que cambia la \(n\), \(X\) también lo hace, y por tanto se convierte en una variable aleatoria.
Puesto que solamente tenemos acceso a una muestra en la mayor parte de los casos, la fórmula queda así:
\[ \hat{x}_{n} = \dfrac{\sum_{i=1}^{n}x_{i}}{n} \]
La ley de los grandes números nos dice que a medida que \(n \to \infty\), la media estimada se aproxima a la media poblacional, o \(\hat{X}_{n} \to \mu\).
En el caso de la varianza poblacional, aunque el cálculo se haría con
\[ \sigma^{2} = \dfrac{\sum^{N}_{i=1}(x_{i} - \mu)^{2}}{N} \]
en el estimador se utiliza \(n-1\) para no infraestimar el valor real:
\[ s^{2} = \dfrac{\sum^{n}_{i=1}(x_{i} - \hat{x})^{2}}{n-1} \]
Función de verosimilitud
Dada una función de probabilidad \(f(x;\theta)\), su función de verosimilitud (likelihood) sería \(L(\theta; x)\). En \(f\) el parámetro \(\theta\) es fijo y lo que varía es la muestra.
En \(L\) ocurre lo contrario - fijamos \(x\) para encontrar la variabilidad de \(\theta\).