Estimación puntual

Añadir p. 154 + capítulo 6 de inferencia estadística

La media poblacional \(\mu\) se define como

\[ \mu = \dfrac{\sum_{i=1}^{N}x_{i}}{N} \]

donde \(x_{i}\) es el valor de la variable aleatoria para el individuo \(i\). En la práctica, utilizamos el estimador \(\hat{X}\), una aproximación a \(\mu\):

\[ \hat{X}_{n} = \dfrac{\sum_{i=1}^{n}X_{i}}{n} \]

Se utiliza una letra mayúscula (\(X\)) porque a medida que cambia la \(n\), \(X\) también lo hace, y por tanto se convierte en una variable aleatoria.

Puesto que solamente tenemos acceso a una muestra en la mayor parte de los casos, la fórmula queda así:

\[ \hat{x}_{n} = \dfrac{\sum_{i=1}^{n}x_{i}}{n} \]

La ley de los grandes números nos dice que a medida que \(n \to \infty\), la media estimada se aproxima a la media poblacional, o \(\hat{X}_{n} \to \mu\).

En el caso de la varianza poblacional, aunque el cálculo se haría con

\[ \sigma^{2} = \dfrac{\sum^{N}_{i=1}(x_{i} - \mu)^{2}}{N} \]

en el estimador se utiliza \(n-1\) para no infraestimar el valor real:

\[ s^{2} = \dfrac{\sum^{n}_{i=1}(x_{i} - \hat{x})^{2}}{n-1} \]

Función de verosimilitud

Dada una función de probabilidad \(f(x;\theta)\), su función de verosimilitud (likelihood) sería \(L(\theta; x)\). En \(f\) el parámetro \(\theta\) es fijo y lo que varía es la muestra.

En \(L\) ocurre lo contrario - fijamos \(x\) para encontrar la variabilidad de \(\theta\).