Sección : Estimación puntual
Previo : Estimadores y estimaciones
Siguiente : Intervalos de dispersión


Calidades de un estimador


Para una muestra de tamaño $ n$ de la ley de Bernoulli de parámetro desconocido $ p$, la frecuencia empírica es un estimador de $ p$. Además es una variable aleatoria que toma sus valores en $ [0,1]$. Si $ n$ es grande, de acuerdo con la Ley de los Grandes Números, ella toma, con una probabilidad fuerte, valores cercanos a $ p$. Cualesquiera que sean el modelo y el parámetro a estimar, que el estimador tome valores cercanos al parámetro, al menos para muestras grandes, es la calidad principal que esperamos del estimador. Con todo rigor, debemos considerar una sucesión de estimadores $ (T_n)$, donde para todo $ n$ $ T_n$ es una variable aleatoria que depende de la muestra $ (X_1,\ldots,X_n)$. Por abuso del lenguaje, llamamos ''estimador'' a esta sucesión.

Definición 1.2   Decimos que el estimador $ (T_n)$ es consistente (o convergente), si para todo $ \varepsilon >0$:

$\displaystyle \lim_{n\rightarrow\infty}P[ \vert T_n-\theta\vert>\varepsilon ] = 0\;.
$


En consecuencia un estimador consistente se aleja del parámetro con una probabilidad débil, si el tamaño de la muestra es lo suficientemente grande.

El ejemplo básico de un estimador consistente es la media empírica. Denotaremos por $ \overline{X}_n$ la media empírica de la muestra $ (X_1,\ldots,X_n)$:

$\displaystyle \overline{X}_n = \frac{X_1+\cdots+X_n}{n}\;.
$


La Ley de los Grandes Números afirma que $ \overline{X}_n$ es un estimador consistente de la esperanza de $ X$. Si el parámetro $ \theta$ se expresa como una función continua de $ \overline{X}_n$, entonces la imagen de $ \overline{X}_n$ por esta función es un estimador consistente de $ \theta$, según afirma la siguiente proposición.

Proposición 1.3   Sean $ (T_n)$ un estimador consistente del parámetro $ \theta$, y $ \phi$ una función de $ \mathbb {R}$ en $ \mathbb {R}$ continua en el punto $ \theta$. Entonces $ (\phi(T_n))$ es un estimador consistente de $ \phi(\theta)$.


Consideremos por ejemplo como modelo la ley uniforme sobre $ [0,\theta]$, donde el parámetro $ \theta$ es desconocido. La media empírica $ \overline{X}_n$ es un estimador consistente de la esperanza de la ley, que es $ \theta/2$. Por tanto $ T_n=2\overline{X}_n$ es un estimador consistente de $ \theta$.

Pero hay otras esperanzas que se pueden calcular. Por ejemplo si $ X$ sigue la ley uniforme sobre $ [0,\theta]$, entonces $ \mathbb {E}[\log(X)]$ vale $ \log(\theta)-1$. Según la Ley de los Grandes Números, $ (\log(X_1)+\cdots+\log(X_n))/n$ es un estimador consistente de $ \log(\theta)-1$. Por lo tanto el estimador $ T'_n$ que damos a continuación, es también un estimador consistente de $ \theta$:

$\displaystyle T'_n = \exp\Big(\frac{\log(X_1)+\cdots+\log(X_n)}{n}+1\Big)\;.
$



La noción de consistencia no da ninguna seguridad práctica de que los valores que toma un estimador estarán efectivamente en un radio fijo alrededor del verdadero valor del parámetro, para un tamaño de muestra dado. La calidad de los estimadores se cuantifica con la noción de error cuadrático.

Definición 1.4   Se llama error cuadrático medio de $ T_n$ con respecto a $ \theta$ a la cantidad:

$\displaystyle EQ(T_n,\theta) = \mathbb {E}[(T_n-\theta)^2]\;.
$


El error cuadrático está ligado a la consistencia por la siguiente proposición.

Proposición 1.5   Si el error cuadrático de $ T_n$ con respecto a $ \theta$ tiende a 0 cuando $ n$ tiende a infinito, entonces $ (T_n)$ es un estimador consistente de $ \theta$.


Demostración: Si $ \vert T_n-\theta\vert>\varepsilon$, entonces $ (T_n-\theta)^2>\varepsilon^2$. Por lo tanto:

$\displaystyle \mathbb {E}[(T_n-\theta)^2] > \varepsilon^2
\mathbb {P}[\vert T_n-\theta\vert>\varepsilon]\;.
$

Si $ \mathbb {E}[(T_n-\theta)^2]$ tiende a 0, lo mismo pasa con $ \mathbb {P}[\vert T_n-\theta\vert>\varepsilon]$. $ \square$

Si se dispone de dos estimadores para el mismo parámetro $ \theta$, diremos que uno es mejor que el otro si su error cuadrático con respecto a $ \theta$ es menor. En el ejemplo de más arriba, el error cuadrático de $ T_n$ vale $ \theta^2/(3 n)$, el error cuadrático de $ T'_n$ es equivalente a $ \theta^2/n$ cuando $ n$ tiende a infinito. Por lo tanto $ T_n$ es mejor que $ T'_n$.

Aún para un estimador consistente, puede suceder que los valores que toma estén desplazados, en promedio, con respecto al verdadero valor del parámetro. Decimos entonces que el estimador es sesgado.

Definición 1.6   Se llama sesgo del estimador $ T_n$ con respecto a $ \theta$ a la cantidad:

$\displaystyle B(T_n,\theta) = \mathbb {E}[T_n-\theta]\;.
$

El estimador se dice sin sesgo o insesgado si $ B(T_n,\theta)=0$. Decimos que es asintóticamente insesgado, si $ B(T_n,\theta)$ tiende a 0 cuando $ n$ tiende a infinito.

Proposición 1.7   El error cuadrático de $ T_n$ con respecto a $ \theta$ es la suma de la varianza de $ T_n$ y del cuadrado del sesgo.


Demostración: Por la linealidad de la esperanza tenemos:

$\displaystyle EQ(T_n,\theta)$ $\displaystyle =$ $\displaystyle \mathbb {E}[(T_n-\theta)^2]$  
  $\displaystyle =$ $\displaystyle \mathbb {E}[(T_n-\mathbb {E}[T_n]+\mathbb {E}[T_n]-\theta)^2]$  
  $\displaystyle =$ $\displaystyle \mathbb {E}[(T_n-\mathbb {E}[T_n])^2] + (\mathbb {E}[T_n]-\theta)^2 +
2(\mathbb {E}[T_n]-\theta)(\mathbb {E}[T_n-\mathbb {E}[T_n]])$  
  $\displaystyle =$ $\displaystyle Var[T_n] + (B(T_n,\theta))^2 + 0\;.$  

$ \square$

Cuando un estimador es insesgado, el error cuadrático es igual a la varianza. El criterio siguiente, consecuencia inmediata de la proposiciones 1.5 y 1.7, es frecuentemente utilizado para demostrar que un estimador es consistente.

Proposición 1.8   Si un estimador es insesgado o asintóticamente insesgado y si su varianza tiende a 0, entonces es consistente.


Cuando el sesgo puede ser calculado explícitamente, evidentemente tendremos interés en usarlo para corregir y mejorar al estimador. Retomemos el ejemplo de la ley uniforme sobre $ [0,\theta]$. Un estimador natural de $ \theta$ es el valor más grande de la muestra:

$\displaystyle T''_n = \max\{X_1,\ldots,X_n\}\;.
$


Como todos los valores $ X_i$ son inferiores a $ \theta$, el estimador $ X_i$ subestima sistemáticamente a $ \theta$. Se demuestra que su esperanza es $ n\theta/(n\!+\!1)$ y por tanto su sesgo vale $ -\theta/(n\!+\!1)$. Podemos corregir el sesgo introduciendo:

$\displaystyle T'''_n = \frac{n+1}{n} T''_n\;.
$

Este nuevo estimador es insesgado y es mejor que $ T''_n$.

En la tabla que sigue, agrupamos los 4 ejemplos de estimadores del parámetro $ \theta$ para la ley uniforme $ {\cal U}(0,\theta)$ que hemos introducido hasta ahora. El mejor entre los cuatro es $ T'''_n$.

Estimador
Sesgo
Error cuadrático
$ T_n$
0
$ \theta^2/(3 n)$
$ T'_n$ $ \sim \theta/(2 n)$ $ \sim \theta^2/n$
$ T''_n$ $ \sim -\theta/n$ $ \sim 2\theta^2/n^2$
$ T'''_n$
0
$ \sim \theta^2/n^2$


Sección : Estimación puntual
Previo : Estimadores y estimaciones
Siguiente : Intervalos de dispersión