Sección : Tests Estadísticos
Previo : Función potencia
Siguiente : Índice

Ejercicios

NB: En los ejercicios que siguen, los valores propuestos para los tamaños de las muestras así como para los parámetros de las leyes, son solamente indicativos. Pueden ser variados en función de la potencia de cálculo disponible.

Ejercicio 1   Para cada una de las siguientes leyes ($ P$) :
$ \bullet$
ley binomial $ {\cal B}(15,0.5)$, $ {\cal
B}(15,0.9)$, $ {\cal B}(150,0.05)$.
$ \bullet$
ley de Poisson $ {\cal P}(1)$, $ {\cal P}(5)$.
$ \bullet$
ley geométrica $ {\cal G}(0.5)$, $ {\cal G}(0.2)$. $ {\cal G}(0.1)$.
$ \bullet$
ley exponencial $ {\cal
E}(1)$, $ {\cal E}(0.5)$, $ {\cal E}(0.1)$.
$ \bullet$
ley normal $ {\cal N}(1,9)$, $ {\cal N}(1,25)$, $ {\cal N}(-10,100)$.
$ \bullet$
ley gamma $ {\cal G}(10,0.04)$, $ {\cal G}(10,0.1)$, $ {\cal G}(5,0.02)$.
$ \bullet$
ley de chi-cuadrado $ {\cal X}^2(1)$, $ {\cal X}^2(3)$.
$ \bullet$
ley de Student $ {\cal T}(1)$, $ {\cal
T}(10)$.
$ \bullet$
ley de Fisher $ {\cal F}(1,1)$, $ {\cal
F}(10,1)$, $ {\cal F}(1,10)$.
  1. Representar gráficamente el diagrama de barras (leyes discretas) o la densidad (leyes continuas).
  2. Un estadígrafo de test $ T$ toma el valor $ 10$. ¿Que decisión toma usted con umbral $ \alpha=0.05$ para un test unilateral a la derecha, si la ley de $ T$ bajo $ {\cal H}_0$ es $ P$?.
  3. Para el mismo test, calcular el p-valor correspondiente a $ T=10$.
  4. Retomar los incisos precedentes para el test bilateral de umbral $ \alpha=0.05$.

Ejercicio 2   Para las leyes $ P$ que siguen:
$ \bullet$
leyes binomiales $ {\cal B}(15,p)$, $ p$ varía de 0 a 1.
$ \bullet$
leyes de Poisson $ {\cal P}(\lambda)$, $ \lambda $ varía de 5 a 10.
$ \bullet$
leyes geométricas $ {\cal G}(p)$, $ p$ varía de $ 0.1$ a 1.
$ \bullet$
leyes exponenciales $ {\cal E}(\lambda)$, $ \lambda $ varía de $ 0.1$ a $ 1$.
$ \bullet$
ley normal $ {\cal N}(\mu,1)$, $ \mu$ varía de 5 a 10.
$ \bullet$
ley normal $ {\cal
N}(0,\sigma^2)$, $ \sigma^2$ varía de 10 a 100.
$ \bullet$
ley gamma $ {\cal
G}(a,1)$, $ a$ varía de 1 a 10.
$ \bullet$
ley de chi-cuadrado $ {\cal X}^2(n)$, $ n$ varía de 1 a 10.
$ \bullet$
ley de Fisher $ {\cal F}(1,n)$, $ n$ varía de 1 a 10.
$ \bullet$
ley de Fisher $ {\cal F}(n,1)$, $ n$ varía de 1 a 10.
  1. Para el test unilateral a la derecha basado en un estadígrafo $ T$ de ley $ P$, calcular el p-valor correspondiente al valor $ T=10$, para valores del parámetro comprendidos en el intervalo indicado.
  2. Representar gráficamente estos p-valores.

Ejercicio 3   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley de Bernoulli de parámetro $ p$, y se pone $ S=X_1+\cdots+X_n$. Para $ n=10$ y después $ n=100$ :
  1. Establecer la región de rechazo para un test bilateral de umbral $ \alpha=0.05$ de la hipótesis $ {\cal H}_0\,:\,p=0.5$.
  2. Calcular la probabilidad de rechazo bajo $ {\cal H}_0$.
  3. Simular $ 1000$ muestras de tamaño $ n$ de la ley de Bernoulli de parámetro $ 0.5$. Aplicar el test a cada una y contar el número de rechazos. Deducir un estimado de la probabilidad de rechazo.
  4. Retomar las mismas operaciones para $ 1000$ muestras de tamaño $ n$ de la ley de Bernoulli de parámetro 0.51.
  5. Retomar las mismas operaciones para $ 1000$ muestras de tamaño $ n$ de la ley de Bernoulli de parámetro $ 0.6$.

Ejercicio 4   Se consideran los siguientes algoritmos:
a)
 
$ T\longleftarrow 0$
Repetir $ n$ veces
      Si ($ 0.4\leq$ Random $ \leq 0.9$) entonces $ T\longleftarrow T+1$
      finSi
finRepetir  

b)
 
$ T\longleftarrow 0$
Repetir $ n$ veces
      $ X\longleftarrow$ Random ; $ Y\longleftarrow$ Random
      Si ($ X<Y$) entonces $ T\longleftarrow T+1$
      finSi
finRepetir  

c)
 
$ T\longleftarrow 0$
Repetir $ n$ veces
      $ X\longleftarrow$ Random ; $ Y\longleftarrow$ Random
      Si ($ X^2+Y^2<1$) entonces $ T\longleftarrow T+1$
      finSi
finRepetir  

d)
 
$ T\longleftarrow 0$
Repetir $ n$ veces
      $ X\longleftarrow$ Random ; $ Y\longleftarrow$ Random ; $ Z\longleftarrow$ Random
      Si ($ X<Y$ y $ X<Z$) entonces $ T\longleftarrow T+1$
      finSi
finRepetir  

La hipótesis $ {\cal H}_0$ es que las llamadas sucesivas de Random son variables aleatorias independientes, de ley $ {\cal U}(0,1)$.
  1. Mostrar que bajo la hipótesis $ {\cal H}_0$, $ T$ sigue una ley binomial $ {\cal B}(n,p)$, y determinar el valor de $ p$ para cada uno de los algoritmos.
  2. Determinar la regla de decisión del test bilateral basado sobre $ T$, al umbral $ \alpha=0.05$.
  3. Determinar la regla de decisión del mismo test, reemplazando la ley binomial por su aproximación normal.
  4. Para $ n=10^3, 10^4, 10^5$, ejecutar los algoritmos, y calcular el p-valor correspondiente al valor tomado por $ T$ para los tests de la pregunta precedente.

Ejercicio 5   Se considera el siguiente algoritmo.  
$ T\longleftarrow 0$
Repetir $ n$ veces
      MientrasQue Random $ >p$
            $ T\longleftarrow T+1$
      finMientrasQue
finRepetir  

La hipótesis $ {\cal H}_0$ es que las llamadas sucesivas de Random son variables aleatorias independientes de ley $ {\cal U}(0,1)$. Bajo esta hipótesis, se mostrará, o se admitirá que a la salida del algoritmo, $ T$, sigue la ley binomial negativa $ {\cal BN}(n,p)$. Para $ n=5,\, 10,\, 100$ y $ p=0.1,\, 0.5,\,0.9$ :
  1. Calcular un intervalo de dispersión simétrico para la ley $ {\cal BN}(n,p)$, de nivel 0.95.
  2. Deducir un test bilateral de umbral 0.05 para $ {\cal H}_0$, usando $ T$ como estadígrafo de test.
  3. Ejecutar el algoritmo $ 1000$ veces. Representar en el mismo gráfico el diagrama de barras de los $ 1000$ valores de $ T$ así obtenidos, y el de la ley $ {\cal BN}(n,p)$.
  4. Aplicar el test a los $ 1000$ valores y contar el número de rechazos. Deducir de aquí un estimado de la probabilidad de rechazo.
  5. Para cada uno de los $ 1000$ valores, calcular el p-valor relativo a la ley $ {\cal BN}(n,p)$.

Ejercicio 6   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P$. Se considera la hipótesis $ {\cal H}_0\,:\, P={\cal U}(0,1)$. Para hacer un test sobre el valor del cuantil de $ P$ en $ u$, se emplea el estadígrafo:

$\displaystyle T_u = \sum_{i=1}^n \mathbb {I}_{(-\infty,u]}(X_i)\;,
$

que sigue la ley binomial $ {\cal B}(n,u)$ bajo $ {\cal H}_0$. Para $ u=0.25,\, 0.5,\, 0.75$ y las siguientes leyes $ P$:
$ \bullet$
leyes uniformes $ {\cal U}(0,0.9)$, $ {\cal U}(0,1)$, $ {\cal U}(0,1.1)$.
$ \bullet$
leyes beta $ {\cal
B}(0.9,1.1)$, $ {\cal B}(1.1,1.1)$, $ {\cal U}(1.1,0.9)$.
  1. Simular $ 1000$ muestras de tamaño $ 100$ de la ley $ P$ y calcular para cada una el valor que toma $ T_u$.
  2. Aplicar el test de umbral $ \alpha=0.05$ y contar el número de rechazos.
  3. Representar en un mismo gráfico el diagrama de barras de los $ 1000$ valores de $ T_u$ y el de la ley binomial $ {\cal
B}(100,u)$.

Ejercicio 7   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P_0$ e $ (Y_1,\ldots,Y_n)$ una muestra de la ley $ P_1$, independiente de la precedente. Se considera la hipótesis $ {\cal
H}_0\,:\,P_0=P_1$. El test de los signos está basado en el estadígrafo:

$\displaystyle T=\sum_{i=1}^n \mathbb {I}_{X_i<Y_i}\;,
$

que sigue la ley binomial $ {\cal B}(n,1/2)$ bajo $ {\cal H}_0$. Se supone que $ P_0$ es la ley uniforme $ {\cal U}(0,1)$ y se consideran las leyes $ P_1$ que siguen:
$ \bullet$
leyes uniformes $ {\cal U}(0,0.9)$, $ {\cal U}(0,1)$, $ {\cal U}(0,1.1)$.
$ \bullet$
leyes beta $ {\cal
B}(0.9,1.1)$, $ {\cal B}(1.1,1.1)$, $ {\cal B}(1.1,0.9)$.
  1. Simular $ 1000$ muestras de tamaño $ 100$ de la ley $ P_0$ y de la ley $ P_1$. Calcular para cada uno el valor que toma $ T$.
  2. Aplicar el test con umbral $ \alpha=0.05$ y contar el número de rechazos.
  3. Representar en un mismo gráfico el diagrama de barras de los $ 1000$ valores de $ T$ y el de la ley binomial $ {\cal
B}(100,0.5)$.

Ejercicio 8   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley continua $ P$ y $ \widehat{F}$ su función de distribución empírica. Sea $ T=\sqrt{n}D_{KS}(F_0,\widehat{F})$ el estadígrafo del test de Kolmogorov-Smirnov para la hipótesis $ {\cal
H}_0\,:\,P=P_0$. Para los siguientes pares de leyes $ (P_0,P_1)$:

\begin{displaymath}
\begin{array}{\vert c\vert ccccc\vert}
\hline
P_0&{\cal U...
...l X}^2(30)&{\cal T}(10)&{\cal T}(30)\\
\hline
\end{array}
\end{displaymath}

  1. Simular $ 1000$ muestras de tamaño $ 100$ de la ley $ P_1$. Calcular para cada una el valor que toma $ T$.
  2. Aplicar el test de umbral $ \alpha=0.05$ y contar el número de rechazos.
  3. Calcular el p-valor correspondiente a cada uno de los $ 1000$ valores de $ T$.
  4. Representar en un mismo gráfico la función de distribución empírica de los $ 1000$ valores de $ T$ y la función de distribución teórica del estadígrafo $ T$ bajo $ {\cal H}_0$.
  5. Aplicar el test de Kolmogorov-Smirnov a estas dos funciones de distribución.

Ejercicio 9   Para las siguientes leyes de probabilidad $ P_0$:
$ \bullet$
Leyes binomiales $ {\cal B}(4,0.5)\,,\;{\cal
B}(4,0.2)\,,\;{\cal B}(4,0.8)\,. $
$ \bullet$
Leyes definidas en $ \{0,\ldots,4\}$ por los siguientes valores:

\begin{displaymath}
\begin{array}{\vert ccccc\vert}
\hline
0&1&2&3&4\\
\hl...
...0.1\\
0.9&0.025&0.025&0.025&0.025\\
\hline
\end{array}
\end{displaymath}

  1. Simular $ 1000$ muestras de tamaño $ 200$ de la ley $ P_0$. Para cada una de las $ 1000$ muestras, calcular la distancia de chi-cuadrado de su distribución empírica $ \widehat{P}$ con respecto a la ley teórica $ P_0$, a continuación el valor que toma el estadígrafo de test $ T=nD_{{\cal
X}^2}(P_0,\widehat{P})$.
  2. Aplicar el test de chi-cuadrado de umbral $ \alpha=0.05$ y contar el número de rechazos.
  3. Calcular el p-valor correspondiente a cada uno de los $ 1000$ valores tomados por $ T$.
  4. Representar en un mismo gráfico la función de distribución empírica de los $ 1000$ valores tomados por $ T$ y la función de distribución la ley de chi-cuadrado $ {\cal
X}^2(4)$.
  5. Aplicar el test de Kolmogorov-Smirnov a estas dos funciones de distribución.

Ejercicio 10   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P$ definida sobre $ \{0,\ldots,4\}$. Se desea utilizar el test de chi-cuadrado para hacer un test sobre la hipótesis $ {\cal H}_0\,:\,P={\cal
B}(4,0.5)$. Para $ p=0.49,\, 0.499,\, 0.501,\, 0.51$ :
  1. Simular $ 1000$ muestras de tamaño $ 200$ de la ley binomial $ {\cal B}(4,p)$. Para cada una de las $ 1000$ muestras, calcular la distancia de chi-cuadrado de su distribución empírica $ \widehat{P}$ con respecto a la ley teórica $ {\cal B}(4,0.5)$, y a continuación calcular el valor que toma el estadígrafo de test $ T=nD_{{\cal X}^2}({\cal
B}(4,0.5),\widehat{P})$.
  2. Aplicar el test con umbral $ \alpha=0.05$ y contar el número de rechazos.
  3. Calcular el p-valor correspondiente a cada uno de los $ 1000$ valores que toma $ T$.
  4. Representar en un mismo gráfico la función de distribución empírica de los $ 1000$ valores que toma $ T$ y la función de distribución de la ley de chi-cuadrado $ {\cal
X}^2(4)$.
  5. Aplicar el test de Kolmogorov-Smirnov a estas dos funciones de distribución.
  6. Para cada una de las $ 1000$ muestras, calcular el valor que toma el estimador $ \widehat{p} = \sum
X_i/800$, y el valor que toma el estadígrafo de test $ T'=nD_{{\cal X}^2}({\cal B}(4,\widehat{p}),\widehat{P})$.
  7. Aplicar el test con umbral $ \alpha=0.05$ y contar el número de rechazos.
  8. Calcular el p-valor correspondiente a cada uno de los $ 1000$ valores que toma $ T$.
  9. Representar en un mismo gráfico la función de distribución empírica de los $ 1000$ valores de $ T'$ y la función de distribución de la ley de chi-cuadrado $ {\cal X}^2(3)$.
  10. Aplicar el test de Kolmogorov-Smirnov a estas dos funciones de distribución.

Ejercicio 11   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P$ definida sobre $ \mathbb {N}$. Se desea utilizar el test de chi-cuadrado para hacer un test sobre la hipótesis $ {\cal H}_0\,:\,P={\cal P}(1)$ (ley de Poisson). Para $ \lambda=0.9, 1, 1.1$ :
  1. Determinar el mayor entero $ k$, tal que la probabilidad del intervalo $ [k,+\infty)$ para la ley $ {\cal P}(1)$ sea mayor que $ 0.05$.
  2. Simular $ 1000$ muestras de tamaño $ 100$ de la ley de Poisson $ {\cal P}(\lambda)$. Para cada una de las $ 1000$ muestras, calcular la distancia de chi-cuadrado de su distribución empírica $ \widehat{P}$ sobre el conjunto $ \{\{0\},\ldots,\{k\!-\!1\},[k,+\infty)\}$ con respecto a la ley teórica. Calcular después el valor que toma el estadígrafo de test $ T=nD_{{\cal
X}^2}(P_0,\widehat{P})$, donde $ P_0$ es la ley sobre el mismo conjunto que se deduce de la ley de Poisson $ {\cal P}(1)$.
  3. Aplicar el test de umbral $ \alpha=0.05$ y contar el número de rechazos.
  4. Calcular el p-valor correspondiente a cada uno de los $ 1000$ valores que toma $ T$.
  5. Representar en un mismo gráfico la función de distribución empírica de los $ 1000$ valores de $ T$ y la función de distribución de la ley de chi-cuadrado $ {\cal X}^2(k)$.
  6. Aplicar el test de Kolmogorov-Smirnov a estas dos funciones de distribución.
  7. Para cada una de las $ 1000$ muestras, calcular el valor que toma el estimador $ \widehat{\lambda} = \sum X_i/100$ y el valor que toma el estadígrafo de test $ T'=nD_{{\cal X}^2}(P'_0,\widehat{P})$, donde $ P'_0$ es la ley que se deduce de la ley de Poisson $ {\cal
P}(\widehat{\lambda})$ a partir del reagrupamiento del punto $ 2$.
  8. Aplicar el test de umbral $ \alpha=0.05$ y contar el número de rechazos.
  9. Calcular el p-valor correspondiente a cada uno de los $ 1000$ valores de $ T$.
  10. Representar en un mismo gráfico la función de distribución empírica de los $ 1000$ valores de $ T'$ y la función de distribución de la ley de chi-cuadrado $ {\cal X}^2(k\!-\!1)$.
  11. Aplicar el test de Kolmogorov-Smirnov a estas dos funciones de distribución.

Ejercicio 12   Se considera una muestra de $ n$ tríos sucesivos de llamadas de Random. Para cada trío hay $ 6$ ordenamientos posibles. Bajo la hipótesis $ {\cal H}_0$ que las llamadas de Random son independientes y de una misma ley, los 6 ordenamientos son equiprobables.
  1. Simular $ 1000$ muestras de tamaño $ 100$ de tríos de llamadas de Random y calcular para cada una de las muestras la distribución empírica de los 6 ordenamientos.
  2. Calcular para cada muestra el valor que toma el estadígrafo $ T$ del test de chi-cuadrado, aplicar el test y contar el número de rechazos.
  3. Representar en un mismo gráfico la función de distribución empírica de los $ 1000$ valores de $ T$ y la función de distribución de la ley de chi-cuadrado $ {\cal
X}^2(5)$.
  4. Retomar el ejercicio con 4-tuplas de llamadas de Random (24 ordenamientos posibles) y muestras de tamaño $ 200$.

Ejercicio 13   Simular dos muestras independientes, $ (X_i)$ y $ (U_i)$, de la ley binomial $ {\cal B}(5,0.3)$ de tamaño $ 1000$. Sea $ \rho$ un número real comprendido estrictamente entre 0 y $ 1$. Sea $ E=(E_i)$ una muestra de la ley de Bernoulli de parámetro $ \rho$. Se construye la muestra $ Y$ de la siguiente manera: para $ i=1,\ldots,1000$, si $ E_i=0$ entonces $ Y_i=U_i$, si no, $ Y_i=X_i$. Repetir los cálculos que siguen para $ \rho = 0.01,
0.1, 0.5, 0.9, 0.99$.
  1. Calcular la tabla de contingencia del par $ (X,Y)$.
  2. Calcular la tabla de los perfiles-linea y de los perfiles-columnas.
  3. Calcular la distancia de chi-cuadrado de contingencia del par $ (X,Y)$ y hacer un test de la independencia de las dos distribuciones, con umbral $ \alpha=0.05$.

Ejercicio 14   Simular dos muestras independientes, $ M=(M_i)$ y $ U=(U_i)$, de tamaño $ 1000$ de la ley de Bernoulli $ {\cal B}(1,0.1)$. Sea $ \rho$ un número real comprendido estrictamente entre 0 y $ 1$. Sea $ E=(E_i)$ una muestra de la ley de Bernoulli de parámetro $ \rho$. Se construye la muestra $ S$ de la siguiente manera : para $ i=1,\ldots,1000$, si $ E_i=0$ entonces $ S_i=M_i$, si no, $ S_i=U_i$. Repetir los cálculos que siguen para $ \rho = 0.01,
0.1, 0.5, 0.9, 0.99$.
  1. Calcular la tabla de contingencia del par $ (S,M)$.
  2. Utilizar el test de chi-cuadrado de contingencia para hacer un test de la dependencia de $ M$ y $ S$.
  3. Utilizar el test de proporciones para hacer un test de la dependencia de $ M$ y $ S$.
  4. Retomar los cálculos precedentes para la siguiente regla de simulación: si $ E_i=0$ entonces $ S_i=M_i$, si no, $ S_i=1-M_i$.

Ejercicio 15   Sea $ (X_1,\ldots,X_{10})$ una muestra de la ley $ P_0$ e $ (Y_1,\ldots,Y_{10})$ una muestra de la ley $ P_1$, independiente de la precedente. Se desea utilizar el test de Wilcoxon para la hipótesis $ {\cal
H}_0\,:\,P_0=P_1$. Para los pares $ (P_0,P_1)$ que siguen:

\begin{displaymath}
\begin{array}{\vert c\vert ccccc\vert}
\hline
P_0&{\cal U...
...l X}^2(30)&{\cal T}(10)&{\cal T}(30)\\
\hline
\end{array}
\end{displaymath}

  1. Calcular explícitamente la ley del estadígrafo de Wilcoxon $ W_x$ para $ n_x=n_y=10$.
  2. Simular $ 1000$ muestras de tamaño $ 10$ de la ley $ P_0$, lo mismo para la ley $ P_1$ y calcular para cada uno de los $ 1000$ pares el valor que toma $ W_x$.
  3. Aplicar el test con umbral $ \alpha=0.05$ y contar el número de rechazos.
  4. Representar en un mismo gráfico el diagrama de barras de los $ 1000$ valores de $ W_x$ y el de la ley teórica.
  5. Utilizar el test de chi-cuadrado para comprobar como se adaptan la distribución empírica y la teórica.

Ejercicio 16   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P$, de esperanza $ \mu$ y de varianza $ \sigma^2$. Para todo $ i=1,\ldots,n$ denotamos $ Y_i=(X_i-\mu)/\sigma$. Sea $ P'$ la ley común de las $ Y_i$. La hipótesis a comprobar es $ {\cal H}_0\,:\,P'={\cal N}(0,1)$. Para las siguientes leyes $ P$:
$ \bullet$
Leyes binomiales $ {\cal B}(30,0.5)\,,\;{\cal
B}(30,0.1)\,,\;{\cal B}(30,0.9) \,,\;{\cal B}(100,0.1)\,,\;{\cal
B}(100,0.9)\;. $
$ \bullet$
Leyes de Poisson $ {\cal
P}(30)\,,\;{\cal P}(100)\,. $
$ \bullet$
Leyes de Student $ {\cal T}(10)\,,\;{\cal T}(30)\,,\;{\cal T}(100)\,. $
$ \bullet$
Leyes Gamma $ {\cal G} (10,1)\,,\;{\cal G}
(30,1)\,,\; {\cal G} (100,1)\,. $
  1. Simular $ 100$ muestras de tamaño $ 1000$ de la ley $ P$, transformarlas restando la esperanza $ \mu$ y dividiendo por la desviación estándar $ \sigma$.
  2. Para cada una de las $ 100$ muestras, aplicar el test de Kolmogorov-Smirnov con umbral $ \alpha=0.05$ y contar el número de rechazos.
  3. Para una partición del intervalo $ [-3,+3]$ en $ 10$ clases de longitudes iguales, aplicar el test de chi-cuadrado con umbral $ \alpha=0.05$ y contar el número de rechazos.
  4. Retomar los puntos precedentes reemplazando $ Y_i=(X_i-\mu)/\sigma$ por $ Z_i=(X_i-\overline X)/\sqrt{S^2}$, donde $ \overline{X}$ y $ S^2$ denotan la media y la varianza empíricas, respectivamente, de la muestra.

Ejercicio 17   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ {\cal
N}(\mu,\sigma^2)$, $ \overline{X}$ y $ S^2$ denotan su media y su varianza empíricas respectivamente. Denotamos:

$\displaystyle T_1 = \sqrt{n}\frac{\overline{X}-\mu}{\sigma}\quad,\quad
T_2 = \...
...frac{\overline{X}-\mu}{\sqrt{S^2}}\quad,\quad
T_3 = n\frac{S^2}{\sigma^2}\;.
$

Para $ (\mu,\sigma^2) = (0,1), (10,1), (10,100)$ :
  1. Simular $ 1000$ muestras de tamaño $ 10$ de la ley $ {\cal
N}(\mu,\sigma^2)$ y calcular los valores que toman $ T_1$, $ T_2$ y $ T_3$.
  2. Representar en un mismo gráfico:
    1. la función de distribución empírica de los valores de $ T_1$ y la de la ley normal $ {\cal
N}(0,1)$,
    2. la función de distribución empírica de los valores de $ T_2$ y la de la ley de Student $ {\cal T}(9)$,
    3. la función de distribución empírica de los valores de $ T_3$ y la de la ley de chi-cuadrado $ {\cal X}^2(9)$.
  3. Utilizar el test de Kolmogorov-Smirnov para hacer un test del ajuste entre las distribuciones empíricas y teóricas.

Ejercicio 18    
  1. Para $ n=10, 100, 1000$ y $ (\mu,\sigma^2)= (0.1,1),
(0.01,1)$, simular una muestra de tamaño $ n$ de la ley $ {\cal
N}(\mu,\sigma^2)$, y hacer un test de la hipótesis $ {\cal
H}_0\,:\,\mu=0$ con umbral $ \alpha=0.05$, suponiendo primero que $ \sigma$ es conocida y después suponiendo que es desconocida.
  2. Para $ (\mu,\sigma^2)= (0.1,1),
(0.01,1)$ :
    1. Suponiendo $ \sigma$ conocida, determinar el tamaño $ n^*$ de la muestra a partir del cual la probabilidad de rechazo de $ {\cal H}_0$ es mayor o igual que $ 0.5$.
    2. Simular $ 1000$ muestras de tamaño $ n^*$ de la ley $ {\cal
N}(\mu,\sigma^2)$, hacer para cada una un test de la hipótesis $ {\cal H}_0$ de umbral $ \alpha=0.05$ y contar el número de rechazos.
  3. Para $ n=10, 100, 1000$ y $ (\mu,\sigma^2)= (0,1.21)$ y después $ (0,4)$, simular una muestra de tamaño $ n$ de la ley $ {\cal
N}(\mu,\sigma^2)$, y hacer un test de la hipótesis $ {\cal
H}'_0\,:\,\sigma^2=1$, con umbral $ \alpha=0.05$.
  4. Para $ (\mu,\sigma^2)= (0,1.21),\, (0,4)$ :
    1. Determinar el tamaño $ n^*$ de la muestra a partir del cual la probabilidad de rechazo de $ {\cal H}'_0$ es mayor o igual que $ 0.5$.
    2. Simular 1000 muestras de tamaño $ n^*$ de la ley $ {\cal
N}(\mu,\sigma^2)$, hacer un test para cada una de ellas de la hipótesis $ {\cal H}'_0$ con umbral $ \alpha=0.05$ y contar el número de rechazos.

Ejercicio 19   Para $ n=10, 20$ y $ \mu=0.01, 0.1, 1$ :
  1. Simular $ 1000$ veces dos muestras de tamaño $ n$, una de la ley $ {\cal
N}(0,1)$ y otra de la ley $ {\cal N}(\mu,1)$. Calcular para cada par de muestras el valor que toman los estadígrafos de Fisher y Student.
  2. Representar en un mismo gráfico la función de distribución empírica de los valores que toman el estadígrafo de Fisher, y la función de distribución de la ley $ {\cal F}(n\!-\!1,n\!-\!1)$.
  3. Utilizar el test de Kolmogorov-Smirnov para hacer un test sobre el ajuste de las dos funciones de distribución.
  4. Para los $ 1000$ pares de muestras, aplicar el test de Student y contar el número de rechazos.
  5. Representar en un mismo gráfico la función de distribución empírica de los valores que toma el estadígrafo de Student, y la de la ley $ {\cal T}(n\!-\!1)$.
  6. Utilizar el test de Kolmogorov-Smirnov para hacer un test del ajuste de las dos funciones de distribución.

Ejercicio 20    
  1. Para $ h=1,2,3$, simular una muestra $ X^{(h)}$ de tamaño $ 1000$ de la ley normal $ {\cal N}(h,1)$. Calcular las $ 3$ medias y las $ 3$ varianzas empíricas.
  2. Calcular las varianzas inter-clases e intra-clases así como la varianza de la muestra global.
  3. Calcular el valor que toma el estadígrafo del test ANOVA y el p-valor correspondiente.
  4. Retomar los mismos cálculos con $ 3$ muestras de tamaño $ 1000$ de las leyes
    $ {\cal
N}(0.1,1)$, $ {\cal N}(0.2,1)$ y $ {\cal N}(0.3,1)$.
  5. Retomar los mismos cálculos con $ 3$ muestras de tamaño $ 1000$ de las leyes
    $ {\cal N}(10,1000)$, $ {\cal N}(20,1000)$ y $ {\cal N}(30,1000)$.

Ejercicio 21   Sean $ X$ e $ U$ dos variables aleatoria independientes de ley $ {\cal
N}(0,1)$. Sea $ \rho$ un número real comprendido estrictamente entre $ -1$ y $ 1$, e $ Y=\rho X + \sqrt{1-\rho^2} U$.
  1. Mostrar que la covarianza de $ X$ e $ Y$ es $ \rho$.
  2. Para los valores de $ \rho$ comprendidos entre $ -0.5$ y $ 0.5$ con paso de $ 0.1$ : simular dos muestras $ (X_i)$ y $ (U_i)$ de tamaño $ 1000$ de la ley $ {\cal
N}(0,1)$, y calcular la muestra $ Y$ definida por $ Y_i=\rho X_i + \sqrt{1-\rho^2} U_i$.
  3. Calcular el coeficiente de correlación lineal empírico de $ (X_i)$ y $ (Y_i)$ y aplicar el test de correlación.
  4. Representar la nube de los puntos de coordenadas $ (X_i,Y_i)$.
  5. Retomar los mismos cálculos reemplazando la ley normal $ {\cal
N}(0,1)$ por la ley uniforme $ {\cal U}(0,\sqrt{12})$.

Ejercicio 22   Para $ (a,b)= (0.1,2),\, (0.1,10),\, (1,1)$ :
Simular una muestra $ E=(e_i)$ de tamaño $ 100$ de la ley normal $ {\cal
N}(0,1)$. Para todo $ i=1,\ldots,10$, sea $ x_i=i$ e $ Y_i=ai+b+E_i$ ; se denotan por $ x$ e $ Y$ las muestras correspondientes.
  1. Calcular los coeficientes $ \widehat{a}$ y $ \widehat{b}$ de la recta de regresión lineal de $ Y$ sobre $ x$. Representar en un mismo gráfico los puntos de coordenadas $ (x_i,Y_i)$, la recta de regresión lineal y la recta de ecuación $ y=ax+b$.
  2. Hacer un test de la hipótesis $ {\cal H}_0\,:\,a=0$ con umbral $ \alpha=0.05$.
  3. Hacer los mismos cálculos para una muestra $ E$ de tamaño $ 100$ de la ley normal $ {\cal N}(0,0.1)$.
  4. Hacer los mismos cálculos para una muestra $ E$ de tamaño $ 100$ de la ley uniforme $ {\cal U}(0,1)$.
  5. Hacer los mismos cálculos para una muestra $ e$ de tamaño $ 100$ de la ley $ {\cal
N}(0,100)$.
  6. Rehacer el ejercicio reemplazando el tamaño de las muestras por 10.

Ejercicio 23   Para $ (a,b)= (0.1,2),\, (0.1,10),\, (1,1)$ :
Simular dos muestras $ x=(x_i)$ y $ E=(E_i)$, de tamaño $ 100$ de la ley normal $ {\cal
N}(0,1)$. Para todo $ i=1,\ldots,100$, sea $ Y_i=ax_i+b+E_i$ y $ Y$ la muestra correspondiente.
  1. Calcular los coeficientes $ \widehat{a}$ y $ \widehat{b}$ de la recta de regresión lineal de $ Y$ sobre $ x$. Representar en el mismo gráfico los puntos de coordenadas $ (x_i,y_i)$, la recta de regresión lineal y la recta de ecuación $ y=ax+b$.
  2. Hacer un test de la hipótesis $ {\cal H}_0\,:\,a=0$ con umbral $ \alpha=0.05$.
  3. Hacer los mismos cálculos para una muestra $ x$ de tamaño $ 100$ de la ley normal $ {\cal N}(0,10)$ y una muestra $ E$ de tamaño $ 100$ de la ley normal $ {\cal
N}(0,1)$.
  4. Hacer los mismos cálculos para una muestra $ x$ de tamaño 100 de la ley normal $ {\cal N}(0,0.1)$ y una muestra $ E$ de tamaño $ 100$ de la ley normal $ {\cal
N}(0,1)$.
  5. Volver a hacer los incisos precedentes reemplazando el tamaño de las muestras por $ 10$.

Ejercicio 24   Sea $ (X_1,\ldots,X_n)$ una muestra de tamaño $ n=30$ de la ley $ P$. Se desea hacer un test con umbral $ \alpha=0.05$ :

$\displaystyle {\cal H}_0\;:\;P={\cal U}(0,1)$   contra$\displaystyle \quad {\cal
H}_1\;:\;P={\cal B}(2,1)\;.
$

Se consideran los tests que planteamos a continuación:
a)
Test del cociente de verosimilitud. El estadígrafo del test es $ T_a=-\sum \log(X_i)$. El sigue la ley $ {\cal G}(n,1)$ bajo $ {\cal H}_0$ y la ley $ {\cal G}(n,2)$ bajo $ {\cal H}_1$.
b)
Test de la mediana. El estadígrafo del test es $ T_b=\sum \mathbb {I}_{[0,1/2]}(X_i)$. El sigue la ley $ {\cal B}(n,1/2)$ bajo $ {\cal H}_0$ y la ley $ {\cal B}(n,1/4)$ bajo $ {\cal H}_1$.
c)
Test sobre el valor de la media empírica. El estadígrafo del test es $ T_c=\overline{X}$. Su ley es aproximadamente normal, de parámetros $ (\frac{1}{2},\frac{1}{12
n})$ bajo $ {\cal H}_0$ y $ (\frac{2}{3}, \frac{1}{18 n})$ bajo $ {\cal H}_1$.
d)
Test de Kolmogorov-Smirnov.
e)
Test de chi-cuadrado. Se considerará una división del intervalo $ [0\,,1]$ en 10 clases de igual longitud.
  1. Para los tres primeros tests, calcular la regla de decisión y la potencia del test.
  2. Simular $ 1000$ muestras de tamaño $ 30$ de la ley beta $ {\cal B}(2,1)$.
    1. Aplicar los $ 5$ tests a cada una de las $ 1000$ muestras y contar el número de rechazos. Deducir a partir de esto una estimación de la potencia de cada test.
    2. Proponer una clasificación de los $ 5$ tests en orden decreciente de la potencia.

Ejercicio 25   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P_\theta$ de esperanza $ \theta$. Se considera la hipótesis $ {\cal H}_0\,:\,\theta=\theta_0$, el estadígrafo de test $ T=n\overline{X}$ y los tres tests, bilateral y unilaterales a la izquierda y a la derecha, de la hipótesis $ {\cal H}_0$ con umbral $ \alpha=0.05$. Para $ n=10$ y después para $ n=20$, representar en un mismo gráfico las funciones potencia de los tres tests en función de $ \theta$ en los siguientes casos:
  1. La ley $ P_\theta$ es la ley de Bernoulli de parámetro $ \theta$ ($ T$ sigue la ley binomial $ {\cal B}(n,\theta)$), $ \theta_0=0.5$.
  2. La ley $ P_\theta$ es la ley de Poisson de parámetro $ \theta$ ($ T$ sigue la ley de Poisson $ {\cal
P}(n\theta)$), $ \theta_0=1$.
  3. La ley $ P_\theta$ es la ley geométrica de parámetro $ 1/\theta$ ($ T\!-\!n$ sigue la ley binomial negativa $ {\cal BN}(n,1/\theta)$), $ \theta_0=2$.
  4. La ley $ P_\theta$ es la ley exponencial de parámetro $ 1/\theta$ ($ T$ sigue la ley gamma $ {\cal G}(n,1/\theta)$), $ \theta_0=1$.
  5. La ley $ P_\theta$ es la ley normal $ {\cal N}(\theta,1)$ ($ T$ sigue la ley normal $ {\cal N}(n\theta,n)$), $ \theta_0=0$.




Sección : Tests Estadísticos
Previo : Función potencia
Siguiente : Índice