Download 7.3 Apéndice 5 El curso de Estadística

Document related concepts
no text concepts found
Transcript
Unidad 5
EL TEOREMA DEL LÍMITE CENTRAL
5.1 Estadígrafos
poblacionales
como
estimadores
de
parámetros
Estadígrafos ó Estadísticos
En este capítulo se tratarán funciones de las variables X1, X2, ... , Xn observadas en una
muestra aleatoria seleccionada de una población bajo estudio. Las variables son
independientes y tienen una distribución común. Con mucha frecuencia se utilizan
ciertas funciones de v.a. observadas en una muestra para estimar o tomar decisiones con
respecto de parámetros poblacionales desconocidos. Por ejemplo, supongamos que se
desea estimar la media de una población
. Si obtenemos una muestra aleatoria de n
observaciones, x1, x2, ... , xn, resulta adecuado estimar
muestra:
a través de la media de la
La bondad de la estimación del comportamiento de las v.a. X1, X2, ... , Xn y el efecto de
este comportamiento sobre
. Nótese que la v.a.
es una
función de (solamente) las v.a. X1, X2, ... , Xn y el tamaño (constante) n de la muestra.
Por lo tanto la v.a.
representa un estadígrafo ó estadístico.
Una definición más formal sería: “Un estadístico (estadígrafo) es una función de las
variables que se pueden observar en una muestra y de las constantes conocidas. Los
estadísticos se utilizan para hacer inferencias (estimaciones o decisiones) con respecto a
parámetros poblacionales desconocidos”.
Como el estadístico es una función de variables aleatorias observadas en una muestra
aleatoria, un estadístico en sí, es una variable aleatoria.
Por lo anteriormente expuesto, deduciremos su distribución de probabilidad, la cual la
llamamos Distribución Muestral del estadístico.
Debe quedar claro que la forma de distribución muestral teórica de un estadístico
dependerá de la distribución de las variables aleatorias observadas en la muestra.
5.2 Muestreo Aleatorio Simple
La teoría del muestreo tiene por objetivo, el estudio de las relaciones existentes entre la
distribución de un carácter en dicha población y las distribuciones de dicho carácter en
todas sus muestras.
Las ventajas de estudiar una población a partir de sus muestras son principalmente:
Coste reducido:
Si los datos que buscamos los podemos obtener a partir de una pequeña parte del
total de la población, los gastos de recogida y tratamiento de los datos serán
menores. Por ejemplo, cuando se realizan encuestas previas a una elección, es
más barato preguntar a 4.000 personas su intención de voto, que a 30.000.000;
Mayor rapidez:
Estamos acostumbrados a ver cómo con los resultados del escrutinio de las
primeras mesas electorales, se obtiene una aproximación bastante buena del
resultado final de unas elecciones, muchas horas antes de que el recuento final
de votos haya finalizado;
Más posibilidades:
Para hacer cierto tipo de estudios, por ejemplo el de duración de cierto tipo de
bombillas, no es posible en la práctica destruirlas todas para conocer su vida
media, ya que no quedaría nada que vender. Es mejor destruir sólo una pequeña
parte de ellas y sacar conclusiones sobre las demás.
De este modo se ve que al hacer estadística inferencial debemos enfrentarnos con dos
problemas:
 Elección de la muestra (muestreo), que es a lo que nos dedicaremos en este
capítulo.
 Extrapolación de las conclusiones obtenidas sobre la muestra, al resto de la
población (inferencia).
El tipo de muestreo más importante es el muestreo aleatorio, en el que todos los
elementos de la población tienen la misma probabilidad de ser extraídos.
Muestreo aleatorio
Consideremos una población finita, de la que deseamos extraer una muestra. Cuando el
proceso de extracción es tal que garantiza a cada uno de los elementos de la población la
misma oportunidad de ser incluidos en dicha muestra, denominamos al proceso de
selección muestreo aleatorio.
El muestreo aleatorio se puede plantear bajo dos puntos de vista:
Sin reposición de los elementos;
Con reposición.
Muestreo aleatorio sin reposición
Consideremos una población E formada por N elementos. Si observamos un elemento
particular,
circunstancia:
, en un muestreo aleatorio sin reposición se da la siguiente
La probabilidad de que e sea elegido en primer lugar es
;
Si no ha sido elegido en primer lugar (lo que ocurre con una probabilidad de
), la
probabilidad de que sea elegido en el segundo intento es de
. en el (i+1)-ésimo
intento, la población consta de N-i elementos, con lo cual si e no ha sido seleccionado
previamente, la probabilidad de que lo sea en este momento es de
Si consideramos una muestra de
mismos tiene importancia, la
.
elementos, donde el orden en la elección de los
probabilidad de elección de una muestra
cualquiera es
lo que corresponde en el sentido de la definición de probabilidad de Laplace a un caso
posible entre las VN,n posibles n-uplas de N elementos de la población.
Si el orden no interviene, la probabilidad de que una muestra
sea elegida es la suma de las probabilidades de elegir una cualquiera de sus n-uplas,
tantas veces como permutaciones en el orden de sus elementos sea posible, es decir
Muestreo aleatorio con reposición
Sobre una población E de tamaño N podemos realizar extracciones de n elementos, pero
de modo que cada vez el elemento extraído es repuesto al total de la población. De esta
forma un elemento puede ser extraído varias veces. Si el orden en la extracción de la
muestra interviene, la probabilidad de una cualquiera de ellas, formada por n elementos
es:
Si el orden no interviene, la probabilidad de una muestra cualquiera, será la suma de la
anterior, repitiéndola tantas veces como manera de combinar sus elementos sea posible.
Es decir,
sea n1 el número de veces que se repite cierto elemento e1 en la muestra;
sea n2 el número de veces que se repite cierto elemento e2;
sea nk el número de veces que se repite cierto elemento ek,
de modo que
. Entonces la probabilidad de obtener la muestra
es
es decir,
Muestreo aleatorio Simple
El Muestreo Aleatorio Simple es aquel en que cada uno de los elementos de la
población tiene la misma probabilidad de ser elegido, y en las que la selección de un
nuevo elemento no afecta las probabilidades de elección de cualquier otro elemento. De
forma más general, se puede considerar que una muestra aleatoria simple es aquella en
la que todas las posibles muestras extraídas tienen la misma probabilidad de ser
elegidas.
Además todos las observaciones de la v.a. son independientes, es decir
5.3 El teorema del Límite Central
Si se saca una muestra de una población que es normal,
tiene una distribución
muestral que es Normal. ¿Pero que podemos decir de la distribución de
si los Xi no
están distribuidos normalmente?.
El Teorema del Límite Central nos mostrará que
tendrá una distribución
aproximadamente normal si el tamaño de la muestra es grande.
Matemáticamente lo podemos definir de la siguiente manera:
Sean X1,X2, ... ,Xn variables aleatorias independientes e idénticamente distribuidas con
E(Xi) =
Un =
y V(Xi) =
(
√(
-
< ∞. Definimos
)
/n)
en donde
entonces la función de distribución Un converge a una función de distribución normal
estándar cuando n→∞.
Ejemplo
Los tiempos de espera para los clientes que pasan por una caja registradora a la salida de
una tienda de menudeo son variables aleatorias independientes con una media de 1.5
minutos y una varianza de 1.0. Aproxime la probabilidad de que se pueda atender a 100
clientes en menos de 2 horas.
Solución
Si Xi denota el tiempo de espera para el i-ésimo cliente, entonces se desea calcular
P(
Xi ≤ 120 )
=P(
=P(
≤ 120/100)
≤ 1.20)
Así la probabilidad de que se pueda atender a 100 clientes en menos de 2 horas es
aproximadamente 0.0013. Esta pequeña probabilidad indica que es prácticamente
imposible despachar a 100 clientes en menos de 2 horas.
Resumiendo, el Teorema del Límite Central establece que cuando el tamaño de la
muestra se incrementa, la distribución de muestreo de la media (así como de otras
estadísticas muestrales) se aproxima en cuanto a su forma a la distribución normal,
independientemente de la distribución de la población de la que fue tomada la
muestra.
Para efectos prácticos, puede suponerse que la distribución de muestreo de la media
tiene una distribución aproximadamente normal, incluso en las poblaciones o procesos
menos normales, siempre que el tamaño de la muestra sea n ≤ 30.
Ejemplo
Un auditor toma una muestra aleatoria de tamaño n =36 de una población de 1000
cuentas por cobrar. El valor medio de las cuentas por cobrar para la población es =
$260.00, con la desviación estándar de la población = $45.00. ¿Cuál es la probabilidad
deque la media muestral sea inferior a $250.00?
Solución
Figura: En la figura aparece la curva de
probabilidad. La distribución de muestreo es
descrita por la media y el error estándar.
E(
σ
) = = 260.00 (como se estableció)
= ( σ /√n ) = ( 45.0 / √36 ) = ( 45.0 / 6 ) = 7.50
Por lo tanto,
P( < 250.0 | = 260.0 , σ = 7.50 ) = P( z < -1.33 )
P( z < -1.33 ) = 0.0918 (valor tabulado).
5.4 Ley de los grandes números
Convergencia en Probabilidad
Recordemos que si X es una v.a. continua y X1,X2, ... , Xn son v.a. independientes e
idénticamente distribuidas, que tienen la misma probabilidad que X.
=>
Y=
y
Xi
tiene
=E[y]=E[
z=
Xi ] = n
Xi / n =
E[z]=
es una v.a.
V(Y) = n σ2
V(Z) = σ2 / n
Recordemos que la desigualdad de Tchebysheff
P(|X-
| ≥ K σ/√n ) ≤ 1 / k2
Si tomamos
=>
P(|
sea ε = K σ/√n
como la v.a.
-
| ≥ K σ/√n ) ≤ 1 / k2
=>
k = ε √n / σ
P(|
-
| ≥ ε ) ≤ ( σ2 / ε2 n )
Para ε > 0
Límn→∞ P( |
-
|>ε )=0
Si se cumple esta igualdad, decimos que
converge con probabilidad a
.
Al hecho de que
sea consistente con , o que converja en probabilidad a , suele
designarse como la Ley de los Grandes Números. Esta es la justificación teórica del
procedimiento de promediar las mediciones utilizado por muchos investigadores para
obtener mayor precisión en las medidas.
Por ejemplo, un investigador puede calcular el promedio de varias mediciones del peso
de un animal para obtener una estimación más exacta de dicho peso. Su consideración,
es que el promedio de muchos pesos obtenidos independientemente debe estar bastante
próximo del peso real, con una alta probabilidad.
Ejemplo
A una población de cuatro mecanógrafas se les pidió que escribieran la misma página de
un manuscrito. Los errores cometidos por cada mecanógrafa fueron:
Mecanógrafa
A
B
C
D
No. de Errores
3
2
1
4
Solución
Cuando se dispone de la información de una población se puede calcular la media de
ella, entonces
x
=(
Xi ) / N
y la desviación estándar
Por lo tanto
x
= ( 3 + 2 + 1 + 4 ) / 4 = 2.5 errores
σx = 1.12 errores ( aplicando la fórmula anterior)
Si se promediara la totalidad de las 16 medias muestrales obtenidas de las 16 posibles
muestras (Nn = 42 = 16), si se realizara muestreo con reposición, la media de estos
valores (
) sería igual a 2.5, que es la media de la población
x.
Por otra parte, si el muestreo se hubiera realizado sin reposición debería haber seis
muestras posibles de dos mecanógrafas:
N! / [ n! ( N – n )! ] = 4! / [ 2! * 2! ] = 6
A continuación se presentan las posibles muestras
1. Total 16 muestras de n =2 y N =4, muestreo con reposición
Muestra Mecanógrafa Resultados de Media
la muestra
muestral
1
A, A
3,3
3
2
A, B
3,2
2.5
3
A, C
3,1
2
4
A, D
3,4
3.5
5
B, A
2,3
2.5
6
B, B
2,2
2
7
B, C
2,1
1.5
8
B, D
2,4
3
9
C, A
1,3
2
10
C, B
1,2
1.5
11
C, C
1,1
1
12
C, D
1,4
2.5
13
D, A
4,3
3.5
14
D, B
4,2
3
15
D, C
4,1
2.5
16
D, D
4,4
4
i
=2.5= x
2. Total 6 muestras posibles de n =2, N =4, muestreo sin reposición
Muestra Mecanógrafa Resultados de Media
la muestra
muestral
1
C, D
1,4
2.5
2
A, B
3,2
2.5
3
A, C
3,1
2
4
A, D
3,4
3.5
5
B, C
2,1
1.5
6
B, D
2,4
3
=2.5=
i
x
En este pequeño ejemplo, aunque se puede observar gran fluctuación en la media
muestral, dependiendo de las mecanógrafas que se seleccionaron, no hay tanta
fluctuación como en la población real en sí. El hecho de que las medias muestrales sean
menos variables que los datos de población, se deriva directamente de la Ley de los
Grandes Números.
5.5 Distribuciones muestrales basados en normalidad
Se ha mencionado que muchos fenómenos observados en la realidad tienen
distribuciones de frecuencias relativas que se pueden representar en forma adecuada
mediante el modelo de una distribución de probabilidad normal. Es por esto que se
establece la distribución muestral del estadístico
Sea
una muestra aleatoria de tamaño n de una distribución normal con
media
y varianza
. entonces
Tiene una distribución normal con media
y varianza
/ n, es decir
Figura: Función de densidad de una v.a.
con respecto a una v.a. X que
tiene función de densidad de probabilidad Normal Estándar.
Ejemplo
Una máquina embotelladora puede regularse de tal manera que llene un promedio de
onzas por botella. Se ha observado que la cantidad de contenido que suministra la
máquina presenta una distribución normal con σ = 1.0 onza. De la producción de la
máquina cierto día, se obtiene una muestra aleatoria de n = 9 botellas llenas (todas
fueron llenadas con las mismas posiciones de control operativo) y se miden las onzas
del contenido de cada una. Determinar la probabilidad de la media real
posiciones del control.
Solución
para tales
Si X1, X2, ... , X9 representan las onzas de contenido a observarse, se deduce que Xi
presenta una distribución normal con una media
... , 9. por tanto,
desea calcular
P( |
-
y una varianza
tiene una distribución normal con media
| ≤ 0.3 ) = P( -0.3 ≤ (
-
y
=1 para i = 1, 2,
X
=
/n = 1/9. Se
) ≤ 0.3 )
ya que (
) / (σ / √n ) representa una distribución normal estándar. Aplicando los
valores tabulados, se tiene
P ( - 0.9 ≤ Z ≤ 0.9 ) = 1 – 2 P( Z > 0.9)
= 1 – 2 (0.1841)
= 0.6318
Por tanto la probabilidad es solo de 0.63 de que la media muestral diste a lo más en 0.3
de onza de la población real.
Distribución Ji – Cuadrado (
Sean
)
una muestra aleatoria de tamaño n de una distribución normal
con media
y varianza
. Entonces Zi = ( Xi ) / σ son v.a. normales estándar e
independientes, i = 1, 2, ...,n, y la suma de los cuadrados de variables aleatorias
normales estándares e independientes tiene una distribución Ji-cuadrado con n grados de
libertad.
Bajo las condiciones anteriormente expuestas, para cuestiones más prácticas se suele
trabajar con la siguiente fórmula:
= ( n – 1 ) S2 /
Ejemplo
Continuando con el ejemplo anterior, se supone que las onzas del contenido que vacía la
máquina embotelladora tiene una distribución normal con
=1. Supóngase que se
desea obtener una muestra aleatoria de 10 botellas y medir el contenido en cada botella.
Si se utilizan estas 10 observaciones para calcular S2, podría ser útil especificar un
intervalo de valores que incluyeran a S2 con una alta probabilidad. Encuentre los
números b1 y b2 tales que
P( b1 ≤ S2 ≤ b2) = 0.90
Solución
Ya que
= 1, en consecuencia (n – 1) S2 /
= (n – 1) S2 tiene una distribución
con (n – 1) grados de libertad. Por tanto, utilizando los valores tabulados de esta función
podemos encontrar dos números , a1 y a2, tales que
P( a1 ≤ (n – 1) S2 ≤ a2) = 0.90
Un método para hacerlo es encontrar el valor a2 que limita un área de 0.05 de la cola
derecha y un valor a1 que limita un área de 0.05 de la cola izquierda (0.95 de área a la
derecha). Ya que hay 9 grados de libertad, la tabla nos da a2 = 16.919 y a1 = 3.325.
Así debemos tener
a1 = (n – 1)b1 /
a2 = (n – 1)b2 /
= (n – 1)b1 = 9 b1
= (n – 1)b2 = 9 b2
o sea
b1 = 3.325 / 9= 0.369
y
b2 = 16.919 / 9 = 1.880
de donde se deduce que si se desea tener un intervalo que incluya a S2 con una
probabilidad de 0.90, uno de tales intervalos es ( 0.369, 1.880). Obsérvese que este
intervalo es bastante grande.
Distribución t de Student
La distribución -Student se construye como un cociente entre una normal y la raíz de
una
independientes. De modo preciso, llamamos distribución t-Student con n grados
de libertad,
a la de una v.a. T,
donde
,
v.a. independientes
. Este tipo de distribuciones aparece cuando tenemos n+1
y nos interesa la distribución de
La función de densidad de
es
Figura: Función de densidad de una de Student
La distribución de Student tiene propiedades parecidas a
:
Es de media cero, y simétrica con respecto a la misma;
Es algo más dispersa que la normal, pero la varianza decrece hasta 1 cuando el número
de grados de libertad aumenta;
Figura: Comparación entre las funciones de densidad de
y
.
Para un número alto de grados de libertad se puede aproximar la distribución de Student
por la normal, es decir,
Figura: Cuando aumentan los grados de libertad, la distribución de
Student se aproxima a la distribución normal estandarizada.
Para calcular
en lugar de considerar una primitiva de esa función y determinar la integral definida,
buscaremos el resultado aproximado en una tabla de la distribución
4, al final del libro.
. Véase la tabla
La distribución F de Snedecor
Otra de la distribuciones importantes asociadas a la normal es la que se define como
cociente de distribuciones
independientes.
independientes. Decimos entonces que la variable
Sean
e
v.a.
sigue una distribución de probabilidad de Snedecor, con (n,m) grados de libertad.
Obsérvese que
.
La forma más habitual en que nos encontraremos esta distribución será en el caso en
que tengamos n+m v.a. independientes
y así
De esta ley de probabilidad lo que más nos interesa es su función de distribución:
y para ello, como en todas las distribuciones asociadas a la normal, disponemos de una
tabla (la número 6) donde encontrar aproximaciones a esas cantidades
Figura: Función de densidad de
.
Es claro que la distribución de Snedecor no es simétrica, pues sólo tienen densidad de
probabilidad distinta de cero, los punto de
. Otra propiedad interesante de la
distribución de Snedecor es:
5.6 Generación de Números Seudo Aleatorios
Existen varios métodos para la generación de números seudo aleatorios, el más utilizado
es el Método de Montecarlo, también llamado Método de la Transformada Inversa, el
cual lo analizaremos a continuación.
Método de Montecarlo
El método de Montecarlo es una técnica para obtener muestras aleatorias simples de
una v.a. X, de la que conocemos su ley de probabilidad (a partir de su función de
distribución F). Con este método, el modo de elegir aleatoriamente un valor de X
siguiendo usando su ley de probabilidad es:
1. Usando una tabla de números aleatorios se toma un valor u de una v.a.
.
2. Si X es continua tomar como observación de X, la cantidad x=F-1(u). En el
caso en que X sea discreta se toma x como el percentil
de X, es decir el
valor más pequeño que verifica que
.
Este proceso se debe repetir n veces para obtener una muestra de tamaño n.
Ejemplo
Si queremos extraer n =10 muestras de una distribución
podemos recurrir a una
tabla de números aleatorios de k =5 cifras, en las que observamos las cantidades (por
ejemplo)
A partir de ellas podemos obtener una muestra de
distribución normal:
Números aleatorios
Muestra
usando una tabla de la
Muestra
xi = F-1(ui)
ti
76.293
0.76
0.71
31.776
0.32(=1-0.68)
-0.47
50.803
0.51
0.03
71.153
0.71
0.55
20.271
0.20(=1-0.80)
-0.84
33.717
0.34(=1-0.66)
-0.41
17.979
0.18(=1-0.82)
-0.92
52.125
0.52
0.05
41.330
0.41(=1-0.59)
-0.23
95.141
0.95
1.65
Obsérvese que como era de esperar, las observaciones xi tienden a agruparse alrededor
de la esperanza matemática de
que el valor medio de la muestra sea necesariamente
. Por otra parte, esto no implica
. Sin embargo sabemos que
su dispersión con respecto al valor central es pequeña, lo que implica que
probablemente el valor medio estará muy próximo a 0, como se puede calcular:
Obsérvese que si el problema fuese el inverso, donde únicamente conociésemos las
observaciones xi y que el mecanismo que generó esos datos hubiese sido una
distribución normal de parámetros desconocidos, con obtenida hubiésemos tenido una
buena aproximación del ``parámetro desconocido''
.
Unidad 6
ESTIMACIÓN PUNTUAL Y DE INTERVALOS
6.1 Estimaciones puntuales más eficientes, insesgados y de
máxima verosimilitud
Sea X una v.a. cuya función de probabilidad (o densidad de probabilidad si es continua)
depende de unos parámetros
desconocidos.
Representamos mediante
una muestra aleatoria simple de la variable.
Denotamos mediante fc a la función de densidad conjunta de la muestra, que por estar
formada por observaciones independientes, puede factorizarse del siguiente modo:
Se denomina estimador de un parámetro
, a cualquier v.a.
que se exprese en
función de la muestra aleatoria y que tenga por objetivo aproximar el valor de
,
Obsérvese que el estimador no es un valor concreto sino una variable aleatoria, ya que
aunque depende unívocamente de los valores de la muestra observados (Xi=xi), la
elección de la muestra es un proceso aleatorio. Una vez que la muestra ha sido elegida,
se denomina estimación el valor numérico que toma el estimador sobre esa muestra.
Ejemplo
Consideremos una v.a. de la que sólo conocemos que su ley de distribución es normal,
Para muestras aleatorias de tamaño n=3,
un posible estimador del parámetro
es
Si al realizar un muestreo aleatorio simple obtenemos
Intuitivamente, las características que serían deseables para esta nueva variable aleatoria
(que usaremos para estimar el parámetro desconocido) deben ser:
Consistencia
Cuando el tamaño de la muestra crece arbitrariamente, el valor estimado se aproxima al
parámetro desconocido.
El estimador
Límn→∞ P( |
es un estimador consistente de
|≤ε )=1
nn
si para cualquier número positivo ε,
Ö su forma equivalente
Límn→∞ P( |
n
-
|>ε )=0
La notación n se utiliza por el hecho de expresar que el estimador de
se calcula
mediante una muestra de tamaño n. Por ejemplo,
dos
2 es el promedio de
observaciones, mientras que 100 es el promedio de las 100 observaciones contenidas
en una muestra de tamaño n = 100.
Insesgado (Carencia de sesgo)
El valor medio que se obtiene de la estimación para diferentes muestras debe ser el
valor del parámetro.
Se dice que un estimador de un parámetro
Eficiencia
es insesgado si:
Al estimador, al ser v.a., no puede exigírsele que para una muestra cualquiera se
obtenga como estimación el valor exacto del parámetro. Sin embargo podemos pedirle
que su dispersión con respecto al valor central (varianza) sea tan pequeña como sea
posible.
Sea
es el estimador del parámetro
densidad de probabilidad f(x),
Si V( ) = I ( ), al estimador
de la población X, la cual tiene función de
se le denomina eficiente, donde
I( ) = (1 / n) E [ - ( ∂2 ln f(x)) / ( ∂
2
)]
Suficiencia
El estimador debería aprovechar toda la información existente en la muestra.
A continuación vamos a enunciar de modo más preciso y estudiar cada una de esas
características.
Estimadores de Máxima Verosimilitud
Sea X una v.a. con función de probabilidad
Las muestras aleatorias simples de tamaño n,
probabilidad conjunta
tienen por distribución de
Esta función que depende de n +1 cantidades podemos considerarla de dos maneras:
Fijando , es una función de las n cantidades xi. Esto es la función de probabilidad o
densidad.
Fijados los xi como consecuencia de los resultados de elegir una muestra mediante un
experimento aleatorio, es únicamente función de . A esta función de
la
denominamos función de verosimilitud.
En este punto podemos plantearnos el que dado una muestra sobre la que se ha
observado los valores xi, una posible estimación del parámetro es aquella que maximiza
la función de verosimilitud.
Figura: La función de verosimilitud se obtiene a partir de la función de densidad,
intercambiando los papeles entre parámetro y estimador. En una función de
verosimilitud consideramos que las observaciones x1, ..., xn, están fijadas, y se
representa la gráfica con el valor de los valores que tomaría la función de densidad
para todos los posibles valores del parámetro . El estimador máximo verosímil
del parámetro buscado,
, es aquel que maximiza su función de verosimilitud,
.
Como es lo mismo maximizar una función que su logaritmo (al ser este una función
estrictamente creciente), este máximo puede calcularse derivando con respecto a
la
función de verosimilitud ( bien su logaritmo) y tomando como estimador máximo
verosímil al que haga la derivada nula:
De modo más preciso, se define el estimador máximo verosímil como la v.a.
Los estimadores de máxima verosimilitud tienen ciertas propiedades en general que a
continuación enunciamos:
1. Son consistentes;
2. Son invariantes frente a transformaciones biunívocas, es decir, si
máximo verosímil de
y
es una función biunívoca de
estimador máximo verosímil de
3. Si es un estimador suficiente de
de la muestra a través de ;
es el estimador
, entonces
es el
.
, su estimador máximo verosímil,
es función
4. Son asintóticamente normales;
5. Son asintóticamente eficientes, es decir, entre todos los estimadores consistentes de
un parámetro , los de máxima verosimilitud son los de varianza mínima.
6. No siempre son insesgados.
Es decir, la técnica llamada método de máxima posibilidad ó verosimilitud selecciona
como estimaciones aquellos valores de los parámetros que maximizan la verosimilitud
(función de probabilidad conjunta o la función de densidad conjunta) de la muestra
observada.
Ejemplo
Sea x1,x2, ... ,xn una muestra aleatoria de observaciones de una distribución uniforme
con función de densidad de probabilidad f(x) = 1/ , 0 ≤ x ≤ , i = 1, 2, ... , n.
Determine el estimador de máxima verosimilitud de .
En este caso la verosimilitud está dado por
L = f(x1,x2, ... ,xn) = f(x1) f(x2) ... f(xn)
= (1 / )(1 / ) ... (1 /
= (1 / n)
)
Nótese que L es una función monótona decreciente de y por lo tanto dL/ d no se
hará igual a cero para ningún valor del intervalo 0 <
< ∞. Sin embargo, L crece
cuando decrece y que debe ser igual o mayor que el máximo valor observado en el
conjunto . Por lo tanto el valor de
que maximiza L es la mayor observación en la
muestra. Es decir que
= X(n) = máx (X1, ... , Xn).
Algunos estimadores fundamentales
Vamos a estudiar las propiedades de ciertos estimadores que por su importancia en las
aplicaciones resultan fundamentales: estimadores de la esperanza matemática y varianza
de una distribución de probabilidad.
Estimador de la esperanza matemática
Consideremos las muestras de tamaño n,
, de un carácter sobre una
población que viene expresado a través de una v.a. Xque posee momentos de primer y
segundo orden, es decir, existen
y
:
El estimador media muestral que denotaremos normalmente como
verifica:
(en lugar de
es
Por tanto es un estimador insesgado. Si además sabemos que X se distribuye como una
v.a. Normal, es sencillo comprobar que coincide con el estimador de máxima
verosimilitud (figura superior):
Proposición :
Demostración: La función de densidad de una observación cualquiera de la muestra es:
Por tanto la distribución conjunta de la muestra es
Para unos valores
fijados, la función de verosimilitud es
(en principio escribimos también el otro parámetro desconocido,
, aunque no nos
interesamos en su estimación por el momento). La expresión de la función de
verosimilitud es algo engorrosa. Por ello es preferible trabajar con su logaritmo:
El máximo de la función de verosimilitud se alcanza donde lo hace su logaritmo
(monotonía), por tanto derivando con respecto a
e igualando a cero se llega a:
Es decir, el estimador máximo verosímil de la media poblacional, , coincide con la
media muestral
como queríamos demostrar:
Figura: El estimador de máxima verosimilitud de
una variable aleatoria Normal es la media muestral.
Figura: La distribución del estimador muestral
parámetro poblacional
para
del
, tiene por valor esperado al
mismo (insesgado), y su dispersión disminuye a
medida que aumenta el número de observaciones
Estimador de la varianza
A la hora de elegir un estimador de
estimador más natural:
, podemos comenzar con el
Podemos comprobar que cuando el carácter que se estudia sobre la población es
Normal, en realidad este es el estimador máximo verosímil para la varianza. Sin
embargo se comprueba también su falta de sesgo, lo que hace mas adecuado que se
utilice como estimador de la varianza al siguiente concepto: cuasi varianza muestral
Proposición:
Demostración: Recuperamos el logaritmo de la función de verosimilitud escrita en la
relación anterior, donde en esta ocasión el primer parámetro ya fue obtenido por el
método de máxima verosimilitud (y vimos que era la media muestral) y tratamos de
maximizarla con respecto al segundo parámetro:
Derivando con respecto a
e igualando a 0se obtiene el estimador máximo verosímil:
Despejando de esta ecuación se obtiene que el estimador máximo verosímil coincide
con la varianza muestral,
Proposición:
no es
El
valor
esperado
del
estimador
, y por tanto el estimador máximo verosímil para la varianza no es insesgado.
Más aún,
Demostración
Comenzamos escribiendo
Por otro lado
Luego
Cuasivarianza muestral
Para tener un estimador insesgado de la varianza introducimos la cuasivarianza
muestral
que se define como
Es inmediato comprobar que realmente este estimador es insesgado
Esa esperanza puede ser calculada de un modo más directo, ya que la distribución del
estimador
es conocida:
luego
Es consecuencia de las relaciones anteriores que la distribución de la cuasivarianza
muestral es tal que
Figura: Función de densidad del estadístico que relaciona
,
y los grados de libertad de la muestra (n-1). La falta de
simetría del mismo hace que su valor esperado (n-1) se desplace
a la derecha de la moda (asimetría positiva).
6.2 Intervalos de Confianza para proporciones, medias, varianzas
y cocientes de varianzas.
Intervalo para una proporción
Sean
. Si queremos estimar el parámetro p, la manera más
natural de hacerlo consiste en definir la suma de estas, lo que nos proporciona una
distribución Binomial:
y tomar como estimador suyo a la v.a.
Es decir, tomamos como estimación de p la proporción de éxitos obtenidos en las n
pruebas,
.
La distribución del número de éxitos es binomial, y puede ser aproximada a la normal
cuando el tamaño de la muestra n es grande, y p no es una cantidad muy cercana a cero
o uno:
El estimador no es más que un cambio de escala de X, por tanto
Esta expresión presenta dificultades para el cálculo, siendo más cómodo sustituirla por
la siguiente aproximación:
Para encontrar el intervalo de confianza al nivel de significación
el intervalo que hace que la distribución de
para p se considera
deje la probabilidad
del mismo. Es decir, se considera el intervalo cuyos extremos son los cuantiles
. Así se puede afirmar con una confianza de
Esto se resume en la siguiente expresión:
con una confianza de
Figura: Intervalo de confianza para una proporción.
que:
fuera
y
Ejemplo
Se quiere estimar el resultado de un referéndum mediante un sondeo. Para ello se
realiza un muestreo aleatorio simple con n=100 personas y se obtienen 35% que votarán
a favor y 65% que votarán en contra (suponemos que no hay indecisos para simplificar
el problema). Con un nivel de significación del 5%, calcule un intervalo de confianza
para el verdadero resultado de las elecciones.
Solución:
Dada una persona cualquiera (i) de la población, el resultado de su voto es una variable
Bernulli:
El parámetro a estimar en un intervalo de confianza con
es p, y tenemos
sobre una muestra de tamaño n =100, la siguiente estimación puntual de p:
Sabemos que
En la práctica el error que se comete no es muy grande si tomamos algo más simple
como
Así el intervalo de confianza buscado lo calculamos como se indica:
Por tanto, tenemos con esa muestra un error aproximado de 9,3 puntos al nivel de
confianza del 95%.
En la siguiente Figura podemos observar gráficamente la interpretación del cálculo
realizado.
Figura: Región a partir de la cual se realiza una estimación
confidencial para una proporción, con una confianza del
95%.
Intervalo para la media si se conoce la varianza
Este caso que planteamos es más a nivel teórico que práctico: difícilmente vamos a
poder conocer con exactitud
mientras que es desconocido. Sin embargo nos
aproxima del modo más simple a la estimación confidencial de medias.
Para estimar , el estadístico que mejor nos va a ayudar es
ley de distribución:
, del que conocemos su
Esa ley de distribución depende de (desconocida). Lo más conveniente es hacer que la
ley de distribución no dependa de ningún parámetro desconocido, para ello
estandarizamos:
Este es el modo en que se hará siempre la estimación puntual:
se buscará una relación en la que intervengan el parámetro desconocido junto con su
estimador y de modo que estos se distribuyan según una ley de probabilidad que es bien
conocida y a ser posible tabulada.
De este modo, fijado
, consideramos la v.a.
y tomamos un
intervalo que contenga una masa de probabilidad de
. Este intervalo lo queremos
tan pequeño como sea posible. Por ello lo mejor es tomarlo simétrico con respecto a la
media (0), ya que allí es donde se acumula más masa.
Figura: La distribución
probabilidad es
difieren en el signo.
y el intervalo más pequeño posible cuya
. Por simetría, los cuantiles
y
sólo
Así las dos colas de la distribución (zonas más alejadas de la media) se repartirán a
partes iguales el resto de la masa de probabilidad, .
Vamos a precisar cómo calcular el intervalo de confianza: Región de aceptación
Sea
el percentil
la cantidad
Sea
de Z, es decir, aquel valor de
que deja por debajo de sí
de la masa de probabilidad de Z, es decir:
el percentil
, es decir,
Es útil considerar en este punto la simetría de la distribución normal, y observar que los
percentiles anteriores son los mismos aunque con el signo cambiado:
El intervalo alrededor del origen que contiene la mayor parte de la masa (
intervalo siguiente:
lo que habitualmente escribiremos como:
) es el
De este modo podemos afirmar que existe una probabilidad de
una muestra aleatoria de la variable en estudio, ocurra:
de que al extraer
De este modo un intervalo de confianza al nivel
para la esperanza de una normal
de varianza conocida es el comprendido entre los valores
La forma habitual de escribir este intervalo está inspirada en la Figura de abajo:
Como se dijo anteriormente:
forma de expresar el intervalo
Figura: Intervalo de confianza para la media.
, lo que nos permite utilizar esta otra
Intervalo para la media cuando se desconoce la varianza de la población
Como hemos mencionado, los casos anteriores se presentarán poco en la práctica, ya
que lo usual es que sobre una población quizás podamos conocer si se distribuye
normalmente, pero el valor exacto de los parámetros y
nuestro interés en buscar intervalos de confianza para ellos.
no son conocidos. De ahí
El problema que tenemos en este caso es más complicado que el anterior, pues no es tan
sencillo eliminar los dos parámetros a la vez. Para ello nos vamos a ayudar de lo
siguiente:
Como se analizó en la Unidad 5. El Teorema del Límite Central, en el tema 5.5
Distribuciones muestrales basados en la normalidad, se tiene una variable t con v grados
de libertad.
La única diferencia entre el intervalo de confianza para la media cuando no se conoce la
varianza es que se debe estimar este parámetro por medio de su estimador s.
Ejemplo
Se quiere estimar un intervalo de confianza al nivel de significación
para la
altura media de los individuos de una ciudad. En principio sólo sabemos que la
distribución de las alturas es una v.a. X de distribución normal. Para ello se toma una
muestra de n=25 personas y se obtiene
Solución:
En primer lugar, en estadística inferencial, los estadísticos para medir la dispersión más
convenientes son los insesgados. Por ello vamos a dejar de lado la desviación típica
muestral, para utilizar la cuasidesviación típica:
Si queremos estimar un intervalo de confianza para
estadístico
, es conveniente utilizar el
y tomar como intervalo de confianza aquella región en la que
es decir,
o dicho de forma más precisa: Con un nivel de confianza del
media poblacional está en el intervalo siguiente:
podemos decir que la
Figura: Cálculo del intervalo de confianza para la media usando para ello la
distribución t de Student y la función de verosimilitud asociada, está tiene su máximo en
, ya que esta estimación puntual de
es la máximo verosímil.
Intervalo de confianza para la varianza
Para estimar un intervalo de confianza para la varianza, nos ayudaremos de la siguiente
propiedad de la distribución
:
Consideremos dos cuantiles de esta distribución que nos dejen una probabilidad
en la “zona central” de la distribución:
Figura: Cuantiles de la distribución
.
Entonces un intervalo de confianza al nivel
para la varianza de una distribución
normal (cuyos parámetros desconocemos) lo obtenemos teniendo en cuenta que existe
una probabilidad
de que:
Por tanto el intervalo que buscamos es
Ejemplo
En un ejemplo anterior se estudiaba la altura de los individuos de una ciudad,
obteniéndose en una muestra de tamaño 25 los siguientes valores:
Calcular un intervalo de confianza con
individuos de la ciudad.
para la varianza
de la altura de los
Solución:
Para estimar un intervalo de confianza para
nos resulta útil es:
(varianza poblacional) el estadístico que
Entonces el intervalo de confianza que buscamos lo obtenemos mediante
Figura: Percentiles del 2,5% y del 97,5% para la distribución
Por tanto, para el valor poblacional de la desviación típica tenemos que
.
con una confianza del 95%, que por supuesto contiene a las estimaciones puntuales
y
calculados sobre la muestra.
6.3 Intervalos de Predicción
A diferencia de lo que ocurre con un intervalo de confianza, el cual tiene que ver con la
estimación de un valor de la población, un intervalo de predicción sirve para estimar un
valor individual, y es por lo tanto un intervalo de probabilidad.
Daría la impresión que es posible elaborar un intervalo de predicción mediante el uso
del error estándar del estimador. No obstante, tal intervalo estaría incompleto, porque el
error estándar del estimador no incluye la incertidumbre asociada con el hecho de que
la posición de que la línea de regresión basada en datos muestrales incluye errores de
muestreo y por lo general no es idéntica a la línea de regresión de la población.
El error estándar completo para un intervalo de predicción se llama error estándar de
pronóstico, e incluye la incertidumbre asociada con la dispersión vertical alrededor de
la línea de regresión más la incertidumbre asociada con la posición del mismo valor de
la línea de regresión.
La fórmula básica para el error estándar del pronóstico es
S2X1(siguiente) = S2X1 .X2 + S2
1 .X2
La versión de cálculo de la fórmula del error estándar del pronóstico es
Finalmente, el intervalo de predicción para un valor individual de la variables
dependiente, con n-2 grados de libertad, es
± t SX(siguiente)
Unidad 7
PRUEBA DE HIPÓTESIS
7.1 Hipótesis estadísticas simples y compuestas
Pueden presentarse en la práctica, situaciones en las que exista una teoría preconcebida
relativa a la característica de la población sometida a estudio. Tal sería el caso, por
ejemplo si pensamos que un tratamiento nuevo puede tener un porcentaje de mejoría
mayor que otro estándar, o cuando nos planteamos si los niños de las distintas
comunidades españolas tienen la misma altura.
Este tipo de circunstancias son las que nos llevan al estudio de la parcela de la
Estadística Inferencial que se recoge bajo el título genérico de Contraste de Hipótesis.
Implica, en cualquier investigación, la existencia de dos teorías o hipótesis implícitas,
que denominaremos hipótesis nula e hipótesis alternativa, que de alguna manera
reflejarán esa idea a priori que tenemos y que pretendemos contrastar con la ``realidad''.
De la misma manera aparecen, implícitamente, diferentes tipos de errores que podemos
cometer durante el procedimiento. No podemos olvidar que, habitualmente, el estudio y
las conclusiones que obtengamos para una población cualquiera, se habrán apoyado
exclusivamente en el análisis de sólo una parte de ésta. De la probabilidad con la que
estemos dispuestos a asumir estos errores, dependerá, por ejemplo, el tamaño de la
muestra requerida.
Desarrollamos en este capítulo los contrastes de hipótesis para los parámetros más
usuales que venimos estudiando en los capítulos anteriores: medias, varianzas y
proporciones, para una o dos poblaciones. Los contrastes desarrollados en este capítulo
se apoyan en que los datos de partida siguen una distribución normal.
Los contrastes de hipótesis se realizan:
 Suponiendo a priori que la ley de distribución de la población es conocida.
 Se extrae una muestra aleatoria de dicha población.
 Si la distribución de la muestra es “diferente” de la distribución de probabilidad
que hemos asignado a priori a la población, concluimos que probablemente sea
errónea la suposición inicial.
Ejemplo
Supongamos que debemos realizar un estudio sobre la altura media de los habitantes de
cierto pueblo de Ecuador. Antes de tomar una muestra, lo lógico es hacer la siguiente
suposición a priori, (hipótesis que se desea contrastar y que denotamos H0 ):
Al obtener una muestra de tamaño n =8, podríamos encontrarnos ante uno de los
siguientes casos:
a. Muestra = {1,50 ;1,52; 1,48; 1,55; 1,60; 1,49; 1,55; 1,63}
b. Muestra = {1,65; 1,80; 1,73; 1,52; 1,75; 1,65; 1,75; 1,78}
Intuitivamente, en el caso a sería lógico suponer que excepto que la muestra obtenida
sobre los habitantes del pueblo sea muy poco representativa, la hipótesis H0 debe ser
rechazada. En el caso b tal vez no podamos afirmar con rotundidad que la hipótesis H0
sea cierta, sin embargo no podríamos descartarla y la admitimos por una cuestión de
simplicidad.
Este ejemplo sirve como introducción de los siguientes conceptos: En un contraste de
hipótesis (también denominado prueba de hipótesis o Contraste de significación) se
decide si cierta hipótesis H0 que denominamos hipótesis nula puede ser rechazada o no
a la vista de los datos suministrados por una muestra de la población. Para realizar el
contraste es necesario establecer previamente una hipótesis alternativa (H1 ó Ha) que
será admitida cuando H0 sea rechazada. Normalmente H1es la negación de H0, aunque
esto no es necesariamente así.
La decisión de rechazar o no la hipótesis nula está al fin y al cabo basado en la elección
de una muestra tomada al azar, y por tanto es posible cometer decisiones erróneas. Los
errores que se pueden cometer se clasifican como sigue:
Error de tipo I:
Es el error que consiste en rechazar H0 cuando es cierta. La probabilidad de cometer
este error es lo que se denomina nivel de significación. Se denota con la letra
Error de tipo II:
Es el error que consiste en no rechazar H0 cuando es falsa. La probabilidad de
cometer este error la denotamos con la letra
Elementos de una prueba estadística:




Hipótesis nula, H0
Hipótesis alterna H1
Estadístico de la prueba
Región de rechazo
En este tema hemos estudiado dos de los cuatro elementos, para el siguiente tema se
estudiarán los dos restantes.
7.2 Regiones de aceptación y rechazo de una prueba de hipótesis
Las parte funcionales de una prueba estadística son el estadístico de prueba y la región
de rechazo asociada. El estadístico de la prueba (como estimador) es una función de las
mediciones muestrales en el cual se fundamenta la decisión estadística.
La región de rechazo (RR) especifica los valores del estadístico de la prueba para los
cuales se rechaza la hipótesis nula. Si en una muestra particular el valor calculado del
estadístico de la prueba se lo localiza en la región de rechazo, se rechaza la hipótesis
nula H0 y se acepta la hipótesis alterna H1. Si el valor del estadístico de la prueba no cae
en la región de rechazo RR, aceptamos H0.
El procedimiento general consiste en definir un estadístico T relacionado con la
hipótesis que deseamos contrastar. A éste lo denominamos estadístico de la prueba. A
continuación suponiendo que H0 es verdadera se calcula un intervalo de denominado
intervalo de aceptación de la hipótesis nula,
muestra T=Texp el criterio a seguir sea:
de manera que al calcular sobre la
El intervalo de aceptación o más precisamente, de no rechazo de la hipótesis nula, se
establece fijando una cantidad
suficientemente pequeña denominada nivel de
significación, de modo que la probabilidad de que el estadístico del contraste tome un
valor fuera del mismo -- región crítica--
cuando la hipótesis nula es cierta sea inferior o al
como sigue:
; Esto se ha de entender
Si H0 es correcta el criterio de rechazo sólo se equivoca con probabilidad , que es la
probabilidad de que una muestra dé un valor del estadístico del contraste extraño
(fuera del intervalo de aceptación).
Ejemplo
En una encuesta política del candidato A se seleccionan n=15 votantes. Se desea probar
H0: p = 0.5 frente a la hipótesis alternativa H1: p < 0.5. el estadístico de prueba es T, el
número de votantes en la muestra a favor del candidato A. Calcular
si establecemos
RR = {t  2} como la región de rechazo.
Solución
= P(error tipo I) = P( rechazar H0 cuando es verdadera H0)
= P(de que el estadístico de la prueba se localice en RR cuando es verdadera H0)
= P(T  2 cuando p = 0.5)
Considerando que T es una variable Binomial con n=15 y p=0.5, se tiene
= 0.004 (utilizando la tabla de probabilidades para la v.a. binomial)
Por tanto vemos que si se decide utilizar la región de rechazo RR= {t  2}, se asumen
un riesgo muy pequeño de concluir que el candidato A perderá las elecciones si, en
realidad, es ganador.
Observaciones:
1. Nótese que la hipótesis nula H0 contiene el valor investigado ó por probar del
parámetro en cuestión.
2. La hipótesis alterna trata de probar que el porcentaje no es como el candidato
piensa sino que es inferior. Esta hipótesis pudo haber sido diferente si quisieran
probar que porcentaje es mayor, esta se transformaría en p>0.5. Si solamente se
hubiera querido demostrar que no es cierto este porcentaje la hipótesis alterna
quedaría p  0.5.
3. El valor del estadístico siempre es calculado por medio de los valores obtenidos
de la muestra.
4. La región de rechazo RR se la establece de acuerdo a ciertas condiciones
preestablecidas cono son el nivel de significancia, y del valor obtenido de las
tablas de probabilidades.
7.3 Potencia de una prueba y curvas OC
Potencia de la prueba
Recuerde que la bondad de una prueba se mide por
y , las probabilidades de los
errores de tipo I y II, en donde se fija de antemano para determinar la región de
rechazo. Un concepto relacionado pero más útil para evaluar el funcionamiento de una
prueba se denomina poder ( ó potencia) de la prueba. Básicamente el poder de una
prueba es la probabilidad de que la prueba rechace la hipótesis nula.
Supongamos que T es un estadístico de la prueba y RR la región de rechazo para la
prueba de una hipótesis referente al valor de una parámetro . Entonces, el poder
denotado por k(), es la probabilidad de que la prueba rechace H0 cuando el valor real
del parámetro es . Es decir,
k() = P(de que T esté en RR cuando el valor del parámetro es  )
Supóngase que se desea probar la hipótesis nula H0:  = 0 y que 1 es un valor
particular de  es cogido para H1. El poder de la prueba para  = 0, k(0), es igual a la
probabilidad de rechazar H0 cuando es verdadera H0. Es decir,
k(0) = , la probabilidad de un error tipo I.
Para cualquier valor de  para H1, el poder de una prueba se mide su capacidad para
detectar que la hipótesis nula es falsa. Es decir, para  = 1
k(1) = P(rechazar H0 cuando  = 1)
Dado que
= P(aceptar H0 cuando  = 1)
tenemos que el poder de la prueba para 1 y la probabilidad de un error tipo II se
relaciona como sigue:
k(1) = 1 A continuación ilustraremos dos ejemplos de curvas de poder o potencia
Figura: típica curva de poder o potencia
para la prueba
H0:  = 0 frente a la alternativa H1:   0
Figura: curva de poder ideal para la prueba
H0:  = 0 frente a la alternativa H1:   0
Curvas OC
Cuando el nivel de significancia y el tamaño de muestra se mantienen constantes, la
probabilidad de error tipo II disminuye a medida que el valor alternativo específico de la
media se aleja del valor de la hipótesis nula y aumenta a medida que
Una curva característica OC, describe gráficamente la probabilidad de aceptar la
hipótesis nula dados diversos valores alternativos de la media de la población.
La siguiente curva OC es aplicable a cualquier prueba de cola inferior de una media
hipotética al nivel de significancia de 5% basada en el uso de la distribución normal de
probabilidad.
Figura: curva de poder ideal para la prueba
H0:  = 0 frente a la alternativa H1:   0
Nótese que es aplicable a cualquier prueba de este tipo, porque los valores del eje
horizontal han sido enunciados en unidades del error estándar de la media. Para
cualesquiera valores a la izquierda de 0, la probabilidad de aceptación indica la
probabilidad del error tipo II. A la derecha de 0, las probabilidades indican la
aceptación correcta de la hipótesis nula. Tal como lo indican las líneas punteadas,
cuando  = 0, la probabilidad de aceptar la hipótesis nula es 1 o, en este caso, 1 –
0.05 = 0.95.
En los siguientes temas desarrollaremos algunos ejemplos de cómo aplicar las curvas
OC y la potencia de la prueba.
7.4 Pruebas de hipótesis relativas a medias, varianzas,
proporciones y cocientes de dos varianzas
en este tema se desarrollará un procedimiento para la prueba basada en el estimador
que tiene aproximadamente una distribución normal con media θ y varianza σ2θ.
,
Los estimadores referidos en la unidad anterior como
, con muestras grandes
utilizados para estimar una media poblacional μ y proporción poblacional p,
respectivamente, satisfacen estos requerimientos.
Junto con ellos, también lo hacen los estimadores para la comparación de dos medias
(μ1 – μ2) y la comparación de parámetros binomiales (p1 – p2).
Dentro del desarrollo de este tema se puede encontrar un resumen detallado de las
pruebas de hipótesis para la media, la varianza y las proporciones.
Contrastes para la media
Test de dos colas con varianza conocida
Suponemos que
donde
es conocido y queremos contrastar si es
posible que (desconocida) sea en realidad cierto valor
fijado. Esto es un supuesto
teórico que nunca se dará en la realidad pero servirá para introducir la teoría sobre
contrastes.
El test se escribe entonces como:
Como hemos mencionado anteriormente, la técnica para hacer el contraste consiste en
suponer que H0 es cierta, y averiguar con esta hipótesis quien es la distribución del
estadístico del contraste que este caso es lógico que deba estar muy relacionado con .
Si al obtener una muestra concreta se tiene que
se debe rechazar H0. Veamos esto con más detalle:
es un valor muy alejado de
,
Para poder acceder a las probabilidades de la normal, hemos normalizado (ya que los
valores para hacer la normalización son conocidos). Si H0 es cierta, entonces esperamos
que el valor zexp obtenido sobre la muestra
esté cercano a cero con una gran probabilidad. Esto se expresa fijando un nivel de
significación
, y tomando como región crítica , a los valores que son muy
extremados y con probabilidad en total, o sea,
Entonces la región crítica consiste en
Luego rechazaremos la hipótesis nula si
aceptando en consecuencia la hipótesis alternativa
Figura: La región de rechazo de la hipótesis nula es la sombreada. Se rechaza H0
cuando el estadístico zexp toma un valor comprendido en la zona sombreada de la
gráfica pequeña,
, o equivalentemente, cuando el estadístico
en la zona roja de la gráfica grande,
.
toma un valor
Test de una cola con varianza conocida
Consideremos un contraste de hipótesis donde ahora la hipótesis alternativa es
compuesta:
Bajo la hipótesis nula la distribución de la media muestral es
y como región crítica consideraremos aquella formada por los valores extremadamente
bajos de Zexp, con probabilidad , es decir
Entonces la región de aceptación, o de modo más correcto, de no rechazo de la hipótesis
nula es
Figura: Se rechaza la hipótesis nula, cuando uno de los estadístico Z o
valor en la zona roja de sus gráficas respectivas.
toma un
Es evidente que si en el contraste de significación (primer gráfico), hubiésemos tomado
como hipótesis alternativa su contraria, es decir
por simetría con respecto al caso anterior, la región donde no se rechaza la hipótesis
nula es (véase la figura de abajo y contrástese con la anterior):
Figura: Regiones de aceptación y rechazo para el test unilateral contrario.
Test de dos colas con varianza desconocida
Sea
donde ni
ni
son conocidos y queremos realizar el contraste
Al no conocer
va a ser necesario estimarlo a partir de su estimador insesgado: la
cuasivarianza muestral,
. Por ello la distribución del estimador del contraste será una
de Student, que ha perdido un grado de libertad, según el teorema de Cochran (no
evaluado en el curso presente), y la definición de la distribución de Student:
Consideramos como región crítica
, a las observaciones de Texp extremas
o sea
Observación
Para dar una forma homogénea a todos los contrastes de hipótesis es costumbre
denominar al valor del estadístico del contraste calculado sobre la muestra como valor
experimental y a los extremos de la región crítica, como valores teóricos. Definiendo
entonces
el resultado del contraste es el siguiente:
Figura: Región crítica para el contraste bilateral de una media.
tn-1 t
t T
Tests de una cola con varianza desconocido
Si realizamos el contraste
por analogía con el contraste bilateral, definiremos
y el criterio para contrastar al nivel de significación
es:
Figura: Región crítica para uno de los contrastes unilaterales de una media.
Para el contraste contrario,
definimos Texp y Tteo como anteriormente y el criterio a aplicar es:
Figura: Región crítica para el contrastes unilateral de una media contrario al
anterior.
Ejemplo
Conocemos que las alturas X de los individuos de una ciudad, se distribuyen de modo
normal. Deseamos contrastar con un nivel de significación de  = 0.05 si la altura
media es diferente de 174 cm. Para ello nos basamos en un estudio en el que con una
muestra de n=25 personas se obtuvo:
Solución:
El contraste que se plantea es:
La técnica a utilizar consiste en suponer que H0 es cierta y ver si el valor que toma el
estadístico
es ``razonable" o no bajo esta hipótesis, para el nivel de significación dado.
Aceptaremos la hipótesis alternativa (y en consecuencia se rechazará la hipótesis nula)
si no lo es, es decir, si
Para ello procedemos al cálculo de Texp:
Luego, aunque podamos pensar que ciertamente el verdadero valor de
no es 174, no
hay una evidencia suficiente para rechazar esta hipótesis al nivel de confianza del
Es decir, no se rechaza H0.
.
Figura: El valor de Texp no está en la región crítica
(aunque ha quedado muy cerca), por tanto al no ser
la evidencia en contra de H0 suficientemente
significativa, ésta hipótesis no se rechaza.
Ejemplo
Consideramos el mismo ejemplo de antes. Visto que no hemos podido rechazar el que la
altura media de la población sea igual a 174 cm, deseamos realizar el contraste sobre si
la altura media es menor de 174 cm.
Solución:
Ahora el contraste es
Para realizar este contraste, consideramos el caso límite y observamos si la hipótesis
nula debe ser rechazada o no. Este es:
De nuevo la técnica a utilizar consiste en suponer que H0' es cierta y ver si el valor que
toma el estadístico
es aceptable bajo esta hipótesis, con un nivel de confianza del
. Se aceptará la
hipótesis alternativa (y en consecuencia se rechazará la hipótesis nula) si
Recordamos que el valor de Texp obtenido fue de
Texp=-1'959< t24,0'05= -t24,0'95 = -1'71
Por ello hemos de aceptar la hipótesis alternativa
Figura: El valor te Texp está en la región crítica, por
tanto existe una evidencia significativa en contra de
H0, y a favor de H1.
Es importante observar este hecho curioso: Mientras que en el ejemplo anterior no
existía una evidencia significativa para decir que
cm, el ``simple hecho" de
plantearnos un contraste que parece el mismo pero en versión unilateral nos conduce a
rechazar de modo significativo que
y aceptamos que
cm. Es por ello
que podemos decir que no sólo H0' es rechazada, sino también H0. Es en este sentido en
el que los tests con H0 y H0' los consideramos equivalentes:
Contrastes de una proporción
Supongamos que poseemos una sucesión de observaciones independientes, de modo
que cada una de ellas se comporta como una distribución de Bernoulli de parámetro p:
La v.a. X, definida como el número de éxitos obtenidos en una muestra de tamaño n es
por definición una v.a. de distribución binomial:
La proporción muestral (estimador del verdadero parámetro p a partir de la muestra) es
Nos interesamos en el contraste de significación de
frente a otras hipótesis alternativas. Para ello nos basamos en un estadístico (de
contraste) que ya fue considerado anteriormente en la construcción de intervalos de
confianza para proporciones y que sigue una distribución aproximadamente normal para
tamaños muestrales suficientemente grandes:
Si la hipótesis H0 es cierta se tiene
Contraste bilateral o de dos colas
Para el contraste
extraemos una muestra y observamos el valor
siendo el criterio de
figura:
nilateral o rechazo de la
Figura: Contraste bilateral de una
nilateral.
Contrastes Unilaterales o de una cola
Consideremos un contraste del tipo
. Entonces se define
nilatera nula el que refleja la siguiente
La figura siguiente expresa el criterio de aceptación o rechazo a seguir:
Figura: Contraste unilateral cuando
Para el test unilateral contrario, se tiene la expresión simétrica:
Luego
Figura: Contraste unilateral cuando se tiene
Contrastes sobre la diferencia de proporciones
Supongamos que tenemos dos muestras independientes tomadas sobre dos poblaciones,
en la que estudiamos una variable de tipo dicotómico (Bernoulli):
Si X1 y X2 contabilizan en cada caso el número de éxitos en cada muestra se tiene que
cada una de ellas se distribuye como una variable aleatoria binomial:
de modo que los estimadores de las proporciones en cada población tienen
distribuciones que de un modo aproximado son normales (cuando n1 y n2 son bastante
grandes)
El contraste que nos interesa realizar es el de si la diferencia entre las proporciones en
cada población es una cantidad conocida
Si H0 fuese cierta se tendría que
Desafortunadamente ni p1 ni p2 son conocidos de antemano y utilizamos sus
estimadores, lo que da lugar a un error que es pequeño cuando los tamaños muestrales
son importantes:
Contraste bilateral
El contraste bilateral sobre la diferencia de proporciones es
Entonces se define
y se rechaza la hipótesis nula si
o si
Contrastes unilaterales
En el contraste
se rechazará H0 si
. Para el test contrario
se rechaza H0 si
.
Contrastes para la varianza
Consideremos que el carácter que estudiamos sobre la población sea una v.a. normal
cuya media y varianza son desconocidas. Vamos a contrastar la hipótesis
frente a otras hipótesis alternativas que podrán dar lugar a contrastes bilaterales o
unilaterales. La técnica consiste en observar que el siguiente estadístico experimental
que utiliza el estimador insesgado de la varianza, posee una distribución
grados de libertad:
, con n-1
Entonces construimos las regiones críticas que correspondan a las hipótesis alternativas
que se formulen en cada caso atendiendo a la ley de distribución
.
Contraste bilateral
Cuando el contraste a realizar es
definimos
y el criterio que suministra el contraste es el expresado en la siguiente figura:
Figura: Contraste bilateral de una varianza.
Contrastes unilaterales
Para un contraste de significación al nivel
del tipo
se tiene que el resultado del mismo es el que refleja la siguiente figura:
Figura:
Contraste
.
unilateral
del
tipo
Para el contraste contrario tenemos la formulación análoga:
calculamos el extremo inferior de la región crítica en una tabla de la distribución
El gráfico queda de la siguiente manera:
Figura: Contraste unilateral del tipo
.
Tabla: Estadísticos asociados a una muestra aleatoria simple,
procedente de una población normal.
X1, X2, ...,
Contrastes de la razón de varianzas
Consideramos dos muestras independientes de dos poblaciones que se distribuyen
normalmente (cuyas medias y varianzas son desconocidas). Vamos a abordar cuestiones
relacionadas con saber si las varianzas de ambas poblaciones son las mismas, o si la
razón (cociente) entre ambas es una cantidad conocida, R. La igualdad entre las dos
varianzas puede escribirse
o bien, la existencia de una diferencia entre
ambas ( ), del modo
. Este modo de escribir la diferencia entre varianzas
(que era el adecuado para las medias) no es sin embargo fácil de utilizar para las
varianzas, de modo que nos será más fácil sacarle partido a las expresiones de las
relaciones entre varianzas como
Por ejemplo, si R =1 tenemos que ambas varianzas son iguales.
Consideramos entonces la hipótesis nula
la cual vamos a contrastar teniendo en cuenta que:
Por tanto el estadístico del contraste que nos conviene tiene una distribución conocida
cuando H0 es cierta --véase la definición de la distribución de Snedecor:
Contraste bilateral
El contraste bilateral para el cociente de varianzas se escribe como:
Habida cuenta que la distribución de Snedecor no es simétrica sino que sólo toma
valores positivos, se rechazará la hipótesis nula cuando el el valor que tome el
estadístico del contraste al aplicarlo sobre una muestra sea muy cercano a cero, o bien,
muy grande. Es decir, se define el estadístico experimental y los límites de la región
crítica como:
y el criterio de aceptación o rechazo es:
Una cuestión que conviene observar es que
dada la no simetría de F. A la hora de usar una tabla de la distribución
podemos tal vez encontrar que no está tabulada para los valores pequeños, pero si
para
. Una regla que es de bastante utilidad para estos casos es la siguiente
Contrastes unilaterales
El primer contraste unilateral que consideramos es:
para el cual se tiene
El tests unilateral opuesto es:
y entonces
Ejemplo
Se desea comparar la actividad motora espontánea de un grupo de 25 ratas control y
otro de 36 ratas desnutridas. Se midió el número de veces que pasaban delante de una
célula fotoeléctrica durante 24 horas. Los datos obtenidos fueron los siguientes:
Ratas de control
n1=25
Ratas desnutridas n2=36
¿Se observan diferencias significativas entre el grupo control y el grupo desnutrido?
Solución:
En primer lugar, por tratarse de un problema de inferencia estadística, nos serán más
útiles las cuasivarianzas que las varianzas. Por ello calculamos:
El contraste que debemos realizar está basado en el de la de Student para la diferencia
de medias de dos poblaciones. Para ello conocemos dos estadísticos posibles, según que
las varianzas poblacionales de ambos grupos de ratas puedan ser supuestas iguales
(homocedasticidad) o distintas (heterocedasticidad). Para ello realizamos previamente el
contraste:
Suponiendo H0 cierta, tenemos que el estadístico del contraste conveniente es
ya que así no es necesario calcular el extremo inferior para la región donde no se
rechaza H0. En este caso:
Como
, no podemos concluir (al menos al nivel de significación
que H0 deba ser rechazada.
)
Figura: No hay evidencia significativa para rechazar
la homocedasticidad. El estadístico del contraste ha
sido elegido de modo que el numerador de Fexp sea
mayor que el denominador, es decir, Fexp>1.
Por lo tanto no rechazamos la hipótesis de homocedasticidad (que las dos son iguales)
de ambas poblaciones, y pasamos a contrastar la igualdad de las medias
utilizando el estadístico más sencillo (el que no necesita aproximar los grados de
libertad mediante la fórmula de Welch). Para ello calculamos en primer lugar la
cuasivarianza muestral ponderada:
y posteriormente
Como
concluimos que se ha de rechazar la hipótesis de igualdad de las
medias, y por tanto aceptamos que las medias son diferentes. Además, como se aprecia
en la figura siguiente, la evidencia a favor de la hipótesis alternativa es muy alta, y se
puede afirmar que con gran probabilidad la media poblacional de las ratas de control es
mayor que la de las ratas desnutridas.
Figura: Hay una gran evidencia en contra de la hipótesis de que
ambas medias poblacionales coincidan, y a favor de que la de la
primera población es mayor que la de la segunda.
7.5 Contrastes para la diferencia de medias apareadas
Las muestras apareadas aparecen como distintas observaciones realizadas sobre los
mismos individuos. Un ejemplo de observaciones apareadas consiste en considerar a un
conjunto de n personas a las que se le aplica un tratamiento médico y se mide por
ejemplo el nivel de insulina en la sangre antes (X) y después del mismo (Y)
Paciente xi
yi
di
1
150 120 30
2
180 130 50
...
...
...
...
n
140 90
50
No es posible considerar a X e Y como variables independientes ya que va a existir una
dependencia clara entre las dos variables. Si queremos contrastar el que los pacientes
han experimentado o no una mejoría con el tratamiento, llamemos di a la diferencia
entre las observaciones antes y después del tratamiento
di = xi-yi
Supongamos que la v.a. que define la diferencia entre el antes y después del tratamiento
es una v.a. d que se distribuye normalmente, pero cuyas media y varianza son
desconocidas
Si queremos contrastar la hipótesis de que el tratamiento ha producido cierto efecto
en el caso en que H0 fuese cierta tendríamos que el estadístico de contraste que nos
conviene es
donde es la media muestral de las diferencias diy
es la cuasivarianza muestral de
las mismas. El tipo de contraste sería entonces del mismo tipo que el realizado para la
media con varianza desconocida.
Contraste bilateral
Consideramos el contraste de tipo
Entonces se define
y se rechaza la hipótesis nula cuando
Contrastes unilaterales
Si el contraste es
ó
.
entonces se rechaza H0 si
se rechaza H0 si
. Para el test contrario
.
Observación
No supone ninguna dificultad el haber realizado el contraste con
entonces el estadístico del contraste es
conocida, ya que
y el tratamiento sería análogo.
Prueba de signo para un experimento aparejado
Prueba del signo para comparar dos poblaciones en un experimento aparejado (o
de Wilcoxon de rangos con signo)
Hipótesis:
H0: Las distribuciones poblacionales para las X y las Y son idénticas
H1: Las dos distribuciones difieren en ubicación (dos colas) o bien, H1: la
distribución de frecuencias relativas de la población para las X está desfasada
hacia la derecha de la distribución de las Y (una cola)
Estadístico de la prueba:
1) Para una prueba de dos colas, utilice T = mín(T’ , T--) en donde T’ = suma de los
trangos de las diferencias positivas y T-- = suma de los rangos de las diferencias
negativas.
2) Para la prueba de una cola (para detectar la alternativa de una cola dada
anteriormente) utilice la suma de los rangos T-- de las diferencias negativas.
Región de rechazo:
1) Para la prueba de dos colas, rechace H0 si T  T0’ en donde T0 es el valor crítico
dado en la tabla de valores críticos de T en la prueba de Wilcoxon.
2) Para la prueba de una cola, rechace H0 si T -  T0’
Observación:
Para detectar un desplazamiento de la distribución de las Y hacia la derecha de la
distribución de las X, utilice la suma de los rangos T+, la suma de los rangos de las
diferencias positivas y rechace H0 si T+  T0.
Ejemplo
Pruebe la hipótesis nula de que no hay diferencias entre las distribuciones poblacionales
de la densidad de los pasteles para un experimento de diferencias aparejadas. Se utilizan
6 pares de pasteles, uno preparado con la mezcla A y el otro con la mezcla B. ¿Qué se
puede decir del nivel de significancia alcanzado?
Solución
Los datos originales y las diferencias (en onzas por pulgada cúbica) para los seis pares
de pasteles se muestran en la tabla siguiente:
A
B
Diferencia: A – B
Rango
0.135
0.129
0.006
3
0.102
0.120
-0.018
5
0.108
0.112
-0.004
1.5
0.141
0.152
-0.011
4
0.131
0.135
-0.004
1.5
0.144
0.163
-0.019
6
Como en el caso de otras pruebas no para métricas, la hipótesis nula que debe probarse
es que las distribuciones de frecuencias de las dos poblaciones de densidades de los
pasteles son idénticas. La hipótesis alternativa, que implica una prueba de dos colas, es
que las distribuciones difieren en ubicación.
Realizaremos nuestra prueba utilizando  = 0.10, porque la cantidad de datos es
pequeña. De la tabla de valores críticos de T en la prueba de Wilcoxon, vemos que el
valor crítico de T para una prueba de dos colas y  = 0.10, es T0 = 2. por tanto
rechazaremos H0 si T  2.
Dado que hay solamente una diferencia positiva que tiene el rango 3, T+ = 3y T-- = 18, y
por lo tanto no hay evidencia suficiente para indicar una diferencia ente las
distribuciones de frecuencias de las dos poblaciones de las densidades de las
poblaciones de los pasteles. Ya que no es posible rechazar H0 para  = 0.10, solamente
podemos afirmar que el valor p > 0.10.
7.6 Tablas de Contingencia
Un problema común en el análisis de datos enumerativo se refiere a la independencia de
dos métodos de clasificación de eventos observados. Por ejemplo, podríamos clasificar
una muestra de individuos según el sexo y según su opinión con respecto a una cuestión
política para probar la hipótesis de que las opiniones con respecto a esta cuestión son
independientes del sexo, o podríamos clasificar a los pacientes que padecen cierta
enfermedad según el tipo de medicamento y según el porcentaje de recuperación para
ver si el porcentaje de recuperación depende del tipo de medicamento. El cada uno de
estos ejemplos queremos investigar la dependencia (o contingencia) entre dos criterios
de clasificación.
Supóngase que queremos clasificar los defectos encontrados en los muebles producidos
en cierta planta manufacturera, según (1) el tipo de defecto y (2) el turno de producción.
Se registró un número total de n = 309 muebles defectuosos y se clasificaron los
defectos como uno de cuatro tipos, A, B, C, o D. Al mismo tiempo se identificó cada
mueble según el turno de producción en el que se les fabricó. Se presentan estos datos
en la siguiente tabla conocida como Tabla de Contingencia:
Turno de
Producción
1
2
3
Total
Tipo de defecto
A
B
C
D
15(22.51) 21(20.99) 45(38.94) 13(11.56)
26(22.99) 31(21.44) 34(39.77) 5(11.81)
33(28.50) 17(26.57) 49(49.29) 20(14.63)
74
69
128
38
Total
94
96
119
309
Los números ente paréntesis son las estimaciones de las frecuencias esperadas de las
celdas. El objetivo es probar la hipótesis nula de que el tipo de defecto es independiente
del turno de producción, frente a la alternativa de que las dos categorías son
dependientes. Es decir, queremos probar H0: la clasificación por columnas es
independiente de la clasificación por renglones.
Sea pA igual a la probabilidad incondicional de que un efecto sea del tipo A. Asimismo,
se definen pB, pC, y pD como las probabilidades de observar los otros tres tipos de
defectos. Entonces estas probabilidades, que llamaremos probabilidades de columna de
la tabla anterior, satisfacen la condición: pA + pB + pC + pD = 1
De igual manera sea pi (i = 1,2 o 3) igual a la probabilidad de renglón de que un defecto
provenga del turno i, en donde
p1 + p2 + p3 = 1
La hipótesis nula especifica solamente que la probabilidad cada celda será igual al
producto de sus respectivas probabilidades de renglón y de columna, lo que implica la
independencia de las dos clasificaciones.
Tenemos que estimarlas probabilidades de columna y de renglón para poder estimar las
frecuencias esperadas de las celdas.
Como hemos observado, se pueden utilizar las estimaciones de las frecuencias
esperadas de las celdas en lugar de los E(ni) en la expresión de X2, y X2 todavía tendrá
una distribución que se puede aproximar por una distribución de probabilidad 2 en un
muestreo repetitivo.
Sea nij la frecuencia observada en el renglón i y la columna j de la tabla de contingencia,
y sea pij la probabilidad de que una observación caiga en esta celda.
pij es simplemente la frecuencia relativa observada para esta celda, es decir
ij
= nij / n,
i =1,...,r; j = 1,...,c
Asimismo, al considerar el renglón i como una sola celda, la probabilidad para el
renglón i está dada por pi y por lo tanto
ij
= ri / n
donde r denota el número de observaciones en el renglón i) es el estimador de máxima
verosimilitud de pi.
Análogamente la probabilidad para la columna es cj/n, en donde cj denota el número de
observaciones en la columna j.
El valor esperado de la frecuencia de celda observada nij para una tabla de contingencia,
es igual al producto de sus respectivos totales de renglón y de columna, dividido entre la
frecuencia total. Es decir,
( nij ) = rij / n
Finalmente se construye el estadístico de la prueba por medio de las frecuencias
esperadas y observadas
X2 =
[nij - (nij)]2 / (nij)
El único obstáculo restante es la determinación del número apropiado de grados de
libertad asociados con el estadístico de la prueba. Para ello se establece una regla que
trataremos de justificar. Los grados de libertad asociados con una tabla de contingencia
que tiene r renglones y c columnas siempre son iguales a (r – 1) (c – 1). Para el ejemplo
planteado compararemos X2 con el valor crítico de una 2 con (r-1)(c-1) = (3-1)(4-1) = 6
grados de libertad.
X2 =
[nij - (nij)]2 / (nij) = (15 – 22.51)2/ 22.51 + (26 – 22.99)2/22.99 +
...+ (20 - 14.63)2/14.63 = 19.17
Por lo tanto si utilizamos  = 0.05, rechazaremos la hipótesis nula de que las dos
clasificaciones son independientes si X2 > 12. 592. Dado que el valor del estadístico de
la prueba, X2 = 19.17, es mayor que el valor crítico de 2, rechazamos la hipótesis nula
a nivel de significancia de  = 0.05.El valor p asociado se da por valor p = P(2 >
19.17).
Una tabla de contingencia es un arreglo rectangular en el que se expresan los efectos de
un factor horizontal A y un factor vertical B, sobre los elementos de una misma
población.
A tiene c niveles, B tiene r niveles
Factor B
Nivel
1
2
...
r
1
X11
X21
...
Xr1
Factor A
2
X12
X22
...
Xr2
X.1
X.2
...
...
...
...
...
c
X1c
X2c
...
Xrc
X.c
X1.
X2.
...
Xr.
n
Xij es el número de elementos bajo el nivel i de A y la columna j de B
La idea es verificar si el factor A y el B son independientes por medio de un contraste
de hipótesis como se muestra en el ejemplo anterior.
7.7 Ajuste de curva: la prueba no paramétrica KS y la prueba
Ji-cuadrado
El estadístico
y su distribución
Sea X una v.a. cuyo rango son los valores
probabilidad de cada valor;
, de modo que pi es la
Este tipo de v.a. puede corresponder a variables ya estudiadas como es el caso de la
distribución Binomial
pero nosotros vamos a usarla para v.a. más generales. Supongamos que el resultado de
un experimento aleatorio es una clase c1, c2, ..., ck(ci,
), que puede
representar valores cualitativos, discretos o bien intervalos para variables continuas. Sea
pi la probabilidad de que el resultado del experimento sea la clase ci. Vamos a
considerar contrastes cuyo objetivo es comprobar si ciertos valores pi0, propuestos para
las cantidades pi son correctas o no, en función de los resultados experimentales
Mediante muestreo aleatorio simple, se toma una muestra de tamaño n y se obtienen a
partir de ella unas frecuencias observadas de cada clase que representamos mediante
,
, ...,
Clase Frec. Abs.
ci
c1
c2
...
...
ck
Supongamos que la hipótesis nula es cierta. Al ser pi =pi0 la proporción de elementos de
la clase ci en la población, el número de individuos de que presentan esta modalidad al
tomar una muestra de tamaño n, es una v.a. de distribución binomial,
tanto la frecuencia esperada de individuos de esa clase es
. Por
Obsérvese que a diferencia de las cantidades
, que son las frecuencias que realmente
se obtienen en una muestra, las frecuencias esperadas no tienen por que ser números
enteros. De cualquier modo, bajo la suposición de que H0 es cierta cabe esperar que las
diferencias entre las cantidades
y
sea pequeña.
Pearson propuso el estadístico
el cual, siguiendo la línea de razonamiento anterior debe tomar valores pequeños si H0
es cierta. Si al tomar una muestra, su valor es grande eso pone en evidencia que la
hipótesis inicial es probablemente falsa. Para decidir cuando los valores de
son
grandes es necesario conocer su ley de probabilidad. Se tiene entonces el siguiente
resultado
Como sólo son los valores grandes de
crítica es
los que nos llevan a rechazar H0, la región
, tal como se muestra en la siguiente figura:
Figura: Región crítica (sombreada) para un contraste con el estadístico
.
es decir,
Observación
A pesar de que el contraste parece ser bilateral la forma de , nos indica que el
contraste es unilateral: Sólo podemos saber si existe desajuste entre los esperado y lo
observado, pero no podemos contrastar hipótesis alternativas del tipo ``pi mayor que
cierto valor''.
Observación
Obsérvese que en realidad
no es una variable aleatoria continua: Los posibles
resultados de la muestra se resumen en las cantidades
toman valores discretos. Luego las cantidades
,
, ...,
, que únicamente
sólo puede tomar un número finito de valores distintos (aunque sean cantidades con
decimales). Por tanto su distribución no es continua. Luego al realizar la aproximación
mencionada hay que precisar en qué condiciones el error cometido es pequeño. De
modo aproximado podemos enunciar el siguiente criterio que recuerda al de la
aproximación binomial por la distribución normal:
1.
n>30;
2.
para todo
.
Sin embargo esta regla resulta demasiado estricta a la hora de aplicarla en la práctica. Se
utiliza entonces una regla más flexible y que no sacrifica demasiada precisión con
respecto a la anterior:
1.
Para ninguna clase ocurre que
2.
ellos.
para casi todos los
, salvo a lo sumo un
de
Si a pesar de todo, estas condiciones no son verificadas, es necesario agrupar las clases
que tengan menos elementos con sus adyacentes.
Observación
El lector puede considerar los contrastes con el estadístico
como una generalización
del contraste de proporciones. Para ello le invitamos a estudiar el siguiente ejemplo.
Ejemplo
Se desea saber si cierta enfermedad afecta del mismo modo a los hombres que a las
mujeres. Para ello se considera una muestra de n=618 individuos que padecen la
enfermedad, y se observa que 341 son hombres y el resto son mujeres. ¿Qué
conclusiones se obtiene de ello?
Solución:
El contraste a realizar se puede plantear de dos formas que después veremos que son
equivalentes:
Contraste de una proporción: Si p es el porcentaje de hombres en la población de
enfermos, podemos considerar el contraste:
De la muestra obtenemos la siguiente estimación puntual del porcentaje de enfermos de
sexo masculino:
Para ver si esto es un valor ``coherente'' con la hipótesis nula, calculemos la
significatividad del contraste:
Por otro lado,
Como el contraste es de tipo bilateral, la significatividad del contraste es (buscando en
la tabla de la distribución normal):
Lo que nos indica que se ha de rechazar la hipótesis nula y aceptar la hipótesis
alternativa, es decir, afirmamos que existe una evidencia significativa a favor de la
hipótesis de que la enfermedad no afecta por igual a hombres y mujeres.
Contraste con el estadístico
: En este caso planteamos el contraste:
Para resolverlo escribimos en una tabla los frecuencias muestrales observadas de
hombres y mujeres, junto a los valores esperados en el caso de que la hipótesis nula
fuese cierta:
frecuencias
frecuencias
observadas
esperadas
diferencia
Hombres
341
9
322/309
Mujeres
277
-9
(-32)2/309
0
6,63
618
Consideremos entonces el estadístico
618
donde:
k =2 es el número de modalidades posibles que toma la variable sexo: hombres y
mujeres;
p =0 es el número de parámetros estimados;
h =1 es el números de restricciones impuestas a los valores esperados. Sólo hay una
(que es habitual), que consiste en que el número esperado de enfermos entre hombres y
mujeres es 60.
El estadístico calculado sobre la muestra ofrece el valor experimental:
que es el percentil 99 de la distribución
del contraste es del 1%<5%.
. De nuevo se obtiene que la significatividad
En conclusión, con los dos métodos llegamos a que hay una fuerte evidencia en contra
de que hay el mismo porcentaje de hombres y mujeres que padecen la enfermedad. La
ventaja de la última forma de plantear el contraste (diferencia entre frecuencias
observadas y esperadas) es que la técnica se puede aplicar a casos más generales que
variables dicotómicas, como se verá más adelante.
Observación
Hay una fórmula alternativa para el cálculo de
cuando realizamos cálculos:
Demostración
cuya expresión es más fácil de utilizar
Distribuciones con parámetros desconocidos
Supongamos que la distribución de X que queremos contrastar no especifica ciertos
valores de r parámetros
Estimémoslos a partir de la muestra, y consideremos las cantidades
Entonces el contraste consiste en
Contraste de una distribución binomial
Queremos contrastar
Las cantidades pi son desconocidas, aunque tienen una forma en la que sólo dependen
del único parámetro que debe ser estimado a partir de la muestra (r=1): Realizando esta
estimación
tenemos todas las cantidades pi,
y la distribución del estadístico
es aproximadamente
.
Contraste de una distribución normal
Si queremos contrastar si una v.a. X se distribuye normalmente
podemos realizar el contraste correspondiente mediante la técnica del estadístico
tomando una muestra, estimando los parámetros mediante y
, y agrupando las
observaciones (continuas) en un número finito, k, de intervalos. No rechazaremos
entonces la normalidad de X si las probabilidades esperadas de los intervalos no son
muy diferentes de las obtenidas sobre la muestra, es decir,
Intervalo
- e1
e1 - e2
e2 - e3
...
...
...
...
...
Distribuciones de parámetros conocidos
Deseamos contrastar si la v.a. X sigue una ley de distribución
donde todos los pi están fijados (hipótesis H0). Entonces por lo mencionado
anteriormente, el contraste consiste en:
En este contraste se comete cierto error de aproximación y por tanto será tanto mejor
cuanto mayor sea n.
Ejemplo
Dadas dos parejas de genes Aa y Bb, la descendencia del cruce efectuado según las
leyes de Mendel, debe estar compuesto del siguiente modo:
Leyes de Mendel
Frecuencias
Fenotipo relativas
AB
9/16
Ab
3/16
aB
3/16
ab
1/16
Elegidos 300 individuos al azar de cierta población se observa la siguiente distribución
de frecuencias:
Frecuencias
Fenotipo observadas
AB
165
Ab
47
aB
67
ab
21
Total
300
¿Se puede aceptar que se cumplen las leyes de Mendel sobre los individuos de dicha
población?
Solución:
El contraste a realizar es:
Para ello vamos a representar en una sola tabla las frecuencias observadas, junto con las
que serían de esperar en el caso de que H0 fuese cierta:
Fenotipo
AB
165
161,33
Ab
47
42,27
aB
67
85,91
ab
21
23,52
Total
300 300
313,03
Bajo la hipótesis de que H0 sea cierta, se tiene que:
ya que 4 son los posibles fenotipos, no se ha estimado ningún parámetro (la distribución
según las leyes de Mendel es conocida), y sobre las cantidades Ei existe solamente una
restricción, que es:
Por otro lado,
.
que según la tabla de la distribución
es aproximadamente el percentil 99,5 de la
distribución
. Por tanto la significatividad del contraste es del
, lo que
nos conduce a rechazar la hipótesis de que la población de la que la muestra ha sido
extraída sigue las leyes de Mendel.
Al mismo resultado llegamos sin calcular con precisión la significatividad del contraste,
sino considerando que el valor teórico máximo que admitimos para el estadístico
experimental con un nivel de significación del 5% es el percentil 95 de
y claramente ocurre que
, es decir,
, por lo que se rechaza la hipótesis nula.
Obsérvese también que el que se haya rechazado la hipótesis nula significa que hay
diferencia estadísticamente significativa entre las frecuencias observadas y las
esperadas, aunque a primera vista no lo hubiésemos percibido en el gráfico de la Figura
siguiente:
Figura: Aunque aparentan ser aproximadamente iguales las
frecuencias observadas y esperadas, existe diferencia estadísticamente
significativa entre ellas.
Unidad 8
REGRESIÓN LINEAL Y ANÁLISIS DE VARIANZA
8.1 El modelo de Regresión Lineal es estimado usando el
Método de los Mínimos Cuadrados
un procedimiento para estimar los parámetros de cualquier modelo lineal es el método
de los mínimos cuadrados, que se puede ilustrar sencillamente aplicándolo para ajustar
una línea recta a través de un conjunto de puntos que representan los datos. Supóngase
que se desea ajustar el modelo
E(Y) = 0 + 1 x
Al conjunto de datos mostrados en la siguiente figura
Figura: Ajuste de una línea recta a través de un conjunto de
puntos
(Nótese que la variable independiente x podría ser w2 o bien (w)1/2 o aún ln w, y así
sucesivamente, para alguna otra variable independiente w).
Es decir se postula que Y = 0 + 1x +  en donde  es una v.a. Si 0 y 1 son
estimadores de los parámetros 0 y 1, entonces Ŷ = 0 + 1x es obviamente un
estimador de E(Y).
El procedimiento de los mínimos cuadrados para ajustar una recta a través de un
conjunto de n puntos es similar al método de que podríamos utilizar para ajustar una
recta a simple vista; es decir, se pretende que las desviaciones sean “pequeñas” en cierto
sentido. Una manera conveniente de lograr esto, es minimizar la suma de los cuadrados
de las desviaciones verticales de la recta ajustada, por lo tanto si
ŷ=
0
+
1x
es el valor que se predice del i-ésimo valor de y (cuando x = xi), entonces la desviación
del valor observado de y a partir de la recta ŷ (llamada a veces el error) es
yi – ŷi
y la suma de los cuadrados de las desviaciones que deben minimizar es
SCE =
(yi – ŷi)2 =
[yi – (
0
+
1x)]
2
La cantidad SCE se llama suma de los cuadrados de los errores por motivos que serán
obvios en seguida.
Si se tiene un mínimo este ocurrirá para los valores de
ecuaciones,
SCE / 
SCE / 
=0
1=0
0
0
y
1
que satisfagan las
Ecuaciones de
Mínimos Cuadrados
Al obtener los valores de las derivadas parciales de SCE con respecto a
1,respectivamente, y al igualarlas a cero, se obtienen las ecuaciones
SCE / 
0
=-2(
yi - n
SCE / 
1
=-2(
xi yi -
0
-
0
1
0
y
xi) = 0
xi -
1
xi2) = 0
nótese que las ecuaciones de mínimos cuadrados son lineales en 0 y 1, y por lo tanto
se pueden resolver simultáneamente. Puede verificarse que las soluciones son
Además se puede demostrar que la resolución simultánea de las dos ecuaciones de los
mínimos cuadrados produce valores de 0 y 1 que minimizan SCE.
Ejemplo
Aplicar el método de los mínimos cuadrados para ajustar una línea recta a través de los
n=5 datos contenidos en la siguiente tabla:
x
-2
-1
0
1
2
y
0
0
1
1
3
Solución Empezaremos por construir la tabla para calcular los coeficientes de las
ecuaciones de los mínimos cuadrados. Entonces se tiene:
xi
-2
-1
0
1
2
yi
0
0
1
1
3
xi yi
0
0
0
1
6
xi= 0
yi = 5
xi yi = 7
De esta obtenemos los estimadores de
0
y
xi2
4
1
0
1
4
xi2 = 10
1
y la recta ajustada es
ŷ = 1 + 0.7 x y
se muestran los cinco puntos y la recta ajustada en la siguiente figura
Figura: representación de los puntos y la recta de los
mínimos cuadrados para el ejemplo.
8.2 La distribución del error del modelo
Como lo habíamos notado en el anterior tema, en el modelo de regresión lineal cuando
este es estimado por medio del método de los mínimos cuadrados, observamos una
diferencia entre el valor observado de y, y el valor obtenido por medio del modelo
construido (el que se predice), es decir
 = Error = yi – ŷi
Esta diferencia es denominada el error del modelo y se lo denota por .
Estudiemos ahora las propiedades de este error en el muestreo repetitivo.
Primero obsérvese que tanto Y como Ŷ son variables aleatorias distribuidas
normalmente y que el error es función lineal de Y y Ŷ. Entonces concluimos que el error
tiene una distribución normal porque es una función lineal de variables aleatorias
distribuidas normalmente.
Al aplicar fórmulas para encontrar el valor esperado y la varianza de una función lineal
de variables aleatorias, obtenemos
E() = E(Y - Ŷ) = E(Y) – E(Ŷ)
Como E(Y) = E(Ŷ),
E() = 0.
También,
V() = V(Y - Ŷ) = V(Y ) + V(Ŷ) – 2 Cov(Y, Ŷ)
Como se predice un valor futuro, Y, que no se utilizó en el cálculo de Ŷ, sigue que Y y Ŷ
son independientes y por lo tanto que la covarianza de Y y Ŷ es igual a cero.
Entonces
V()
= V(Y ) + V(Ŷ)
Por lo tanto el error  tiene una distribución de probabilidad normal con media cero y
varianza σ2
8.3 Tabla de Análisis de Varianza e Inferencias relativas al
Modelo
Los métodos que se presentaron en el tema anterior se pueden adaptar para aplicar el
Análisis de Varianza. Ilustraremos el método estableciendo un modelo lineal para los
datos que se obtuvieron mediante un diseño completamente aleatorio con k = 2
tratamientos.
Sea Yij la variable aleatoria obtenida en la j-ésima observación del i-ésimo tratamiento, i
= 1, 2. Definamos una variable ficticia, o indicadora de x de la manera siguiente:
X
=
⌠1,
si i = 2
0, si no
Obsérvese que x es cero si se toma la observación de la población 1 y que x es 1 si se
toma la observación de la población 2. Si utilizamos x como una variable independiente
en un modelo lineal, puede utilizarse el modelo de Yij como
Yij = 0 + 1 x + ij
En donde ij es un error aleatorio con distribución normal con E(ij) = 0, y V(ij) = . En
este modelo
μ1 = E(Y1 j) = 0
μ2 = E(Y2 j) = 0 + 1
Por lo tanto 1 = μ1 + μ2 y una prueba de la hipótesis μ2 - μ1 = 0 es equivalente a la
prueba de que 1 = 0. Por intuición se indica que 0 = 1 y 1 = 2 - 1 son estimadores
adecuados de 0 y 1. Se puede demostrar que realmente estos son los estimadores por
mínimos cuadrados que se obtienen ajustando el modelo lineal formulado antes.
Ejemplo
En la tabla siguiente se dan los valores codificados de la medición de elasticidad de un
plástico, producido mediante dos procesos diferentes, para muestras
A
6.1
7.1
7.8
6.9
7.6
8.2
B
9.1
8.2
8.6
6.9
7.5
7.9
De tamaño seis extraídas aleatoriamente de cada uno de los dos procesos. ¿Presentan los
datos evidencia suficiente para indicar una diferencia en la elasticidad media de los
procesos?
Solución Aunque en este ejercicio se podría utilizar la t de Student como el estadístico
de la prueba, aplicaremos la prueba F del análisis de varianza, ya que es más general y
se la puede utilizar para comparar más de dos medias.
Las tres sumas de cuadrados de las desviaciones deseadas son
Puede comprobarse que la SCE es la suma ponderada de los cuadrados de las
desviaciones para las dos muestras. También obsérvese que SC Total = SCT + SCE.
Los cuadrados medios para el tratamiento y el error son, respectivamente
CMT =
SCT / 1
=
CME =
SCE / (2n1 – 2) =
1.6875
5.8617 / 10 = 5.8617
Para probar la hipótesis nula μ1 = μ2, se calcula el estadístico de prueba
F = CMT / CME =
1.6875 / 0.58617 =
2.88
El valor crítico del estadístico F para α = 0.05 es 4.96. Aunque el cuadrado medio de
los tratamientos es casi tres veces mayor que el cuadrado medio del error, no es
suficientemente grande para rechazar la hipótesis nula. Por consiguiente, al nivel de
significancia α = 0.05 no hay suficiente evidencia estadística que indique una diferencia
entre μ1 y μ2. El nivel de significancia obtenido se indica mediante el valor p = P(F >
2.88) que según la tabla para la v.a. F, es tal que p > 0.10.
Observación
El propósito de este ejemplo era explicar los cálculos implicados en un análisis de
varianza sencillo. La prueba F para comparar dos medias es equivalente a la prueba t de
student, porque un estadístico F con un grado de libertad en el numerador es igual a t2.
Puede verificarse fácilmente que el cuadrado de t0.025 = 2.228 (que se utilizaría como
una prueba de dos colas con α = 0.05 y v = 10 grados de libertad) es igual a F0.05 = 4.96.
Si se hubiere utilizado la prueba t para el ejemplo anterior, habríamos obtenido t = 1.6967, que satisface la relación t2 =(-1.6967)2 = 2.88 = F.
8.4 Coeficientes de Correlación y Determinación
Los modelos estudiados en las secciones anteriores son útiles en dos situaciones
prácticas muy diferentes:
Primera: el investigador puede controlar completamente la variable x, podría variar de
un experimento a otro, pero se encuentra prácticamente en un completo control del
investigador. El modelo lineal
Y = 0 + 1 x + 
Implica que
E(Y) = 0 + 1 x
Segunda: la variable x puede ser un valor observado de una v.a. X. Si se pudiera
establecer una relación funcional, entonces se podría predecir a futuro el valor de la v.a.
dependiente. Para esta situación utilizamos el modelo
Y = 0 + 1 x + 
Lo que implica que
E(Y | X = x) = 0 + 1 x
Es decir, suponemos que la esperanza condicional de Y para un valor fijo de X es una
función lineal del valor de x. En general, suponemos que el vector variables aleatorio,
(X, Y), tiene distribución normal bivariable, en tal caso se puede demostrar que
E(Y | X = x) = 0 + 1 x
La teoría estadística para hacer inferencias acerca de los parámetros 0 y 1 es
exactamente la misma para ambos casos, pero deben recordarse siempre las diferencias
en la interpretación del modelo.
Para el caso (X, Y) el investigador puede estar interesado únicamente en saber si X y Y
son v.a. independientes. Si (X, Y) tiene una distribución normal bivariable, entonces la
prueba de la independencia equivale a probar que el coeficiente de correlación ρ es
igual a cero. Recuérdese que ρ es positivo si X y Y tienden a aumentar y que ρ es
negativo si Y decrece cuando X crece.
Sea (X1, Y1), (X2, Y2),..., (Xn, Yn) una muestra aleatoria de una población normal
bivariada. El estimador de máxima verosimilitud de ρ está dado por el coeficiente de
correlación muestral
o bien, una expresión equivalente
Nótese que el numerador de r es exactamente igual al numerador del estimador de 1,
como ambos denominadores de r y 1 son no negativos, se sigue que r y 0 tienen el
mismo signo.
Parecería lógico utilizar r como un estadístico de prueba para probar hipótesis acerca de
π, pero se presentan dificultades ya que es difícil obtener la distribución para r. Se
puede superar este problema en muestras bastantes grandes al utilizar el hecho de que
(1/2) ln[(1 + r) / (1 – r)] tiene aproximadamente una distribución normal con media
(1/2) ln[(1 + ρ) / (1 – ρ)] y varianza 1 / (n – 3). Por lo tanto para probar la hipótesis H0:
ρ = ρ0, podemos utilizar una prueba z en la cual
La forma de la región de rechazo depende de la hipótesis alternativa, si α es la
probabilidad deseada de un error tipo I. Las diferentes alternativas de mayor interés y
las regiones de rechazo correspondientes son
H1: ρ > ρ0.
H1: ρ < ρ0.
H1: ρ ≠ ρ0.
RR: z > zα.
RR: z < zα.
RR: | z | > zα/2.
El Coeficiente de Determinación R2 se define como
Además el coeficiente de determinación R2 se lo puede obtener de la siguiente manera
R2 = SC Regresión / SC Total
El R2 cambia con el modelo a diferencia del ρxy el cual no cambia con el modelo.
Cuando el R2 es el coeficiente de determinación del modelo y = 0 + 1xi + εi; εi ~ N(o,
σ2). Tómese la raíz positiva si 1 es positivo y la raíz negativa si 1 es negativo.
En cada modelo hay un R2, ya que cambia de acuerdo al modelo.
Ejemplo
Los datos en la siguiente tabla representan una muestra de los resultados de un examen
de aprovechamiento en matemáticas y de las calificaciones de cálculo para diez
estudiantes seleccionados independientemente, de primer año. Con esta evidencia, ¿se
concluiría que los resultados del examen de aprovechamiento en matemáticas y las
calificaciones de cálculo son independientes? Utilice α = 0.05. obtener el
correspondiente nivel de significación alcanzado.
Estudiante
1
2
3
4
5
6
7
8
9
10
Resultado de la prueba Calificación final de
de aprovechamiento
cálculo
de matemáticas
39
43
21
64
57
47
28
75
34
52
65
78
52
82
92
89
73
98
56
75
Solución
Al denotar por x los resultados del examen de aprovechamiento y por y las
calificaciones de cálculo, tenemos que
xi = 460
yi = 760
xi2 = 23.637
yi2 = 59.816
xi yi = 36.854
Así
proponemos como hipótesis nula que X y Y son independientes, o bien, al suponer que
(X, Y) tiene una distribución normal bivariable, probamos H0: ρ = 0 frente a H1: ρ ≠ 0. El
valor del estadístico de la prueba es
Ya que zα/2 = z .025 = 1.96, el valor observado del estadístico de la prueba cae en la
región de rechazo, por lo tanto, los datos sugieren firmemente que los resultados del
examen de aprovechamiento y las calificaciones de cálculo son dependientes. Nótese
que α = 0.05 es la probabilidad de que nuestro estadístico de prueba caiga en la región
de rechazo cuando es verdadera H0. Por lo tanto, se confía bastante en que hemos
tomado una decisión correcta.
Como se aplica una prueba de dos colas, el valor p = 2 P(Z > 3.231). De los valores
obtenidos de la tabla de probabilidades de la normal, sigue que P(Z > 3.231) < P(Z >
3.00) = 0.001. Por lo tanto, el valor p < 2 (0.001) = 0.002 y para cualquier valor de α
mayor que 0.002 (lo que incluye α = 0.05, como se utilizó al inicio de este análisis)
concluiremos que π ≠ 0.
Coeficiente de correlación
El coeficiente de correlación lineal de la población, ρ, se relaciona con la covarianza y
se define como
ρ = Cov(X1, X2) / σ1 σ2
donde σ1 y σ2 son las desviaciones estándar de X1 y X2 respectivamente.
Coeficiente de Determinación R2 se define como
8.5 Potencia de Explicación del Modelo
La potencia de explicación del modelo se la simboliza como R2*100%
Si Y = X b; (b es el vector de los estimadores de los β’s)
Entonces b = (XT X) –1 XT Y
Se puede probar que
1. SC Total
= yT y – n
2
2. SC Reg
= bT XT y – n
3. SC Error
= yT y – bT XT y
2
yT y = y12 + y22 + ... + yn2
eT e = (y1 –
2
1)
+ ... + (yn –
2
n)
Existe la matriz de Varianzas y Covarianzas de los estimadores
Σ = [cov(bi, bj)];
i, j = 1, ..., p-1
(Donde p representa el número de parámetros β que se deben estimar)
Σ = MC Error (XT X)-1
En la tabla ANOVA se tiene que F = MC Reg / MC Error ~ Fα (p-1, n-p)
H0: β1 = β2 = ... = βp-1 = 0
vs
H1: ┐H0
Con (1 – α) 100% de confianza rechace Ho a favor de H1 si
F > Fα (p-1, n-p)
Para determinar cual de los βi no es cero, se realizan intervalos de confianza de la
siguiente manera
bk – Sbk t α/2 ≤ βk ≤ bk + Sbk t α/2 (un intervalo de confianza de (1 – β)100% de confianza
para βk)
Para contraste de hipótesis
H0: βk = 0
vs
H1: ┐H0
Rechazar H0 en favor de H1 si | bk – Sbk | > t α/2 (n – p)
8.6 Modelos Lineales para Regresión Múltiple y Polinómica
Si el modelo de regresión lineal expresa a E(Y) como una función lineal de y
solamente entonces el modelo se denomina modelo de regresión lineal simple. Si hay
más de una variable independiente de interés, digamos x1, x2,..., xk, y si el modelo es de
E(Y) es
E(Y) = β0 + β1 x1 +...+ βk xk
El modelo se conoce como modelo lineal de regresión múltiple. Ya que se consideran
como constantes conocidas, supuestamente son medidas sin error en un experimento.
Por ejemplo, si se considera que la producción y es una función de la v.a. T, la
temperatura de un proceso químico, podría suponerse x1 = T y x2 = eT y como modelo
E(Y) = β0 + β1 T +...+ βk eT.
O bien, si y es una función de dos variables x1 y x2, pudiese elegirse una aproximación
mediante un plano a la respuesta media real, aplicando el modelo lineal E(Y) = β0 + β1
x1 + β2 x2. Por lo tanto, E(Y) es una función lineal de β0, β1 y β2 que representa un plano
en el espacio y, x1, x2. De manera similar,
E(Y) = β0 + β1 x + β2 x2
Es un modelo estadístico lineal, en donde E(Y) es una función polinomial de segundo
grado de la variable independiente x, con x1 = x y x2 = x2. Este modelo sería apropiado
para una respuesta que traza el segmento de una parábola en la región de
experimentación.
El modelo estadístico lineal que relaciona una respuesta aleatoria Y con un conjunto de
variables independientes x1, x2,..., xk tiene la forma
Y = β0 + β1 x1 +...+ βk xk + ε
En donde β0, β1,..., βk son parámetros desconocidos, ε es una v.a. y x1, x2,..., xk son
constantes conocidas. Supondremos que E(ε) = 0 y por lo tanto que
E(Y) = β0 + β1 x1 +...+ βk xk
Obsérvese la interpretación física del modelo lineal Y. Decimos que Y es igual a un
valor esperado, β0 + β1 x1 +...+ βk xk (una función de las variables independientes x1,
x2,..., xk), más un error aleatorio ε. Desde un punto de vista práctico, ε, traduce nuestra
incapacidad de tener un modelo exacto de la realidad. En una experimentación repetida
Y fluctúa alrededor de E(Y) en una manera aleatoria porque no hemos podido incluir en
nuestro modelo toda la gran cantidad de variables que afectan a Y. Afortunadamente, el
efecto neto de estas variables indeterminadas, y que la mayoría de las veces son
desconocidas, hacen que Y varíe de manera que puede calcularse adecuadamente
mediante la suposición de un comportamiento aleatorio.
8.7 Análisis de Varianza
El procedimiento del Análisis de Varianza trata de analizar la variación de una
respuesta y de asignar porciones (componentes) de esta variación a cada una de las
variables de un conjunto de variables independientes desconocidas.
El objetivo del análisis de varianza es identificar variables independientes importantes
en un estudio y determinar como interactúan y afectan a la respuesta.
Se recordará que la variabilidad de un conjunto de n mediciones es proporcional a la
suma de los cuadrados de las desviaciones
(yi – i)2, y que esta cantidad se utiliza
para calcular la varianza de la muestra. El análisis de varianza divide la suma de los
cuadrados de las desviaciones llamadas suma total de los cuadrados de las
desviaciones, en partes, cada una de las cuales se atribuye a una de las variables
independientes en el experimento, más un residuo que se asocia con el error aleatorio.
Si se utiliza un modelo lineal multivariado para la respuesta como el sugerido en el tema
anterior, la porción de la suma total de los cuadrados de las desviaciones asignadas al
error se designaría como SCE.
Se puede detectar cuando una variable está muy relacionada con la respuesta,
comparándola estimación de 2 de una variable independiente particular, con la
estimación obtenida a partir de SCE aplicando una prueba F. Si la estimación para la
variable independiente es significativamente mayor, la prueba F rechazará la hipótesis
de que la variable independiente no tiene efecto y generará evidencia que indique una
relación con la respuesta.
Tabla de análisis de varianza para un diseño completamente aleatorizado
La siguiente es la tabla de análisis de varianza
Fuente
Tratamientos
Error
Total
g.l.
k–1
n–k
n-1
SC
SCT
SCE
SC Total
CM
CMT
CME
F
CMT / CME
g.l. representan los grados de libertad;
k es el número de tratamientos;
n es el número de observaciones;
SCT es la suma cuadrática del tratamiento y está dada por
SCE es la suma cuadrática del error, la cual está dada por
SC Total es la suma cuadrática del total, está dada por
CMT es la división entre la SC Tratamiento para sus grados de libertad (SCT / k-1);
CME es la división de la SCE para sus grados de libertad (SCE / n-k);
Por último se obtiene el estadístico F que es la división entre CMT y CME, los grados
de libertad son en el numerador los g.l. de la SCT y en el denominador los g.l. de la
SCE.
Ejemplo
En la tabla siguiente se dan los valores codificados de la medición de elasticidad de un
plástico, producido mediante dos procesos diferentes,
A
6.1
7.1
7.8
6.9
7.6
8.2
B
9.1
8.2
8.6
6.9
7.5
7.9
para muestras de tamaño seis extraídas aleatoriamente de cada uno de los dos procesos.
¿Presentan los datos evidencia suficiente para indicar una diferencia en la elasticidad
media de los procesos?
Solución
Aunque en este ejercicio se podría utilizar la t de Student como el estadístico de la
prueba, aplicaremos la prueba F del análisis de varianza, ya que es más general y se la
puede utilizar para comparar más de dos medias.
Las tres sumas de cuadrados de las desviaciones deseadas son
Puede comprobarse que la SCE es la suma ponderada de los cuadrados de las
desviaciones para las dos muestras. También obsérvese que SC Total = SCT + SCE.
Los cuadrados medios para el tratamiento y el error son, respectivamente
CMT =
SCT / 1
=
CME =
SCE / (2n1 – 2) =
1.6875
5.8617 / 10 = .58617
Para probar la hipótesis nula μ1 = μ2, se calcula el estadístico de prueba
F = CMT / CME =
1.6875 / 0.58617 =
2.88
El valor crítico del estadístico F para α = 0.05 es 4.96. Aunque el cuadrado medio de
los tratamientos es casi tres veces mayor que el cuadrado medio del error, no es
suficientemente grande para rechazar la hipótesis nula. Por consiguiente, al nivel de
significancia α = 0.05 no hay suficiente evidencia estadística que indique una diferencia
entre μ1 y μ2. El nivel de significancia obtenido se indica mediante el valor p = P(F >
2.88) que según la tabla para la v.a. F, es tal que p > 0.10.
Observación
El propósito de este ejemplo era explicar los cálculos implicados en un análisis de
varianza sencillo. La prueba F para comparar dos medias es equivalente a la prueba t de
student, porque un estadístico F con un grado de libertad en el numerador es igual a t2.
Puede verificarse fácilmente que el cuadrado de t0.025 = 2.228 (que se utilizaría como
una prueba de dos colas con α = 0.05 y v = 10 grados de libertad) es igual a F0.05 = 4.96.
Si se hubiere utilizado la prueba t para el ejemplo anterior, habríamos obtenido t = 1.6967, que satisface la relación t2 =(-1.6967)2 = 2.88 = F.
8.7.1 Modelos que involucran variables cuantitativas
Los modelos que involucran variables cuntitativas son los que se han estado analizando
a lo largo de la unidad, es decir, estos modelos no se pueden analizar cuando se tiene el
tipo de variable cualitativa, para el cual existe otro tipo de investigación, el cual no es
objeto de estudio en este curso.
Todos los ejemplos que se encuentran en la presente unidad pertenecen a estos tipos de
modelos.
8.7.2 Modelos para un diseño Experimental de dos factores
Los modelos para un diseño bifactorial o de dos factores es el mismo que se estudió en
la unidad 7 tema 6, y en la unidad 8 tema 4. En ambos casos se presentan ejemplos
ilustrativos que ayudarán a entender mejor la aplicación de estos modelos.
8.7.3 Principios de Confiabilidad
Si Y denota la duración de un componente y F(y) es la función de distribución de Y,
entonces a P(Y > y) = 1 – F(y) se le denomina la Confiabilidad del componente.
Ejemplo
Supongamos que un sistema consta de cuatro componentes con funciones de
confiabilidad idénticas, 1 – F(y), que funcionan como se indica en el siguiente diagrama
Figura: Diagrama de componentes
El sistema funciona cuando opera una cadena intacta de componentes entre A y B. Si
los cuatro componentes funcionan independientemente, encuentre la confiabilidad del
sistema, en términos de F(y).
Solución
Observando el diagrama podemos ver que para que el sistema funcione deben trabajar a
la vez C1 y C2 y C3 ó C1 y C2 y C4 dado que no funciona C3, lo que equivale a:
Cs
= P(funcione C1 ) * P(funcione C2 ) * P(funcione C3) + [P(funcione C1 ) *
P(funcione C2 ) * P(funcione C4)] * [P(no funcione C3)]
Cs
= (1 – F(y)) * (1 – F(y)) * (1 – F(y)) + [(1 – F(y)) * (1 – F(y)) * (1 – F(y))] * [1 (1 – F(y))]
= [(1 – F(y))]3 + [(1 – F(y))]3 * [1 – 1 + F(y)]
= [1 – F(y)]3 + (1 – F(y))3 F(y)
= [1 – F(y)]3 [1 + F(y)]
Unidad 9
CONTROL ESTADÍSTICO DE PROCESOS
9.1 Diseños Experimentales para el Mejoramiento en la
Calidad de un Producto
Para iniciar este tema diremos que calidad, es la aptitud que tiene un producto (bien o
servicio) para satisfacer las necesidades para lo que fue creado.
Los objetos sobre los cuales se hacen las mediciones se denominan unidades
experimentales.
Las variables experimentales independientes se denominan factores.
Un factor cuantitativo es un factor que puede tomar valores correspondientes a los
puntos de una recta real. Los factores que no son cuantitativos se denominan
cualitativos.
Al grado de intensidad de un factor se le llama nivel.
Un tratamiento es una combinación específica de un factor o de factores.
Pasos para aplicar un diseño de experimentos
1. Se seleccionan los factores que deben incluirse en el experimento y se especifica
el (los) parámetro (s) poblacional (es) de interés.
2. Se decide cuanta información conviene utilizar acerca de el (los) parámetro (s)
de interés. (Por ejemplo, ¿con que exactitud se desea estimar los parámetros?)
3. Se seleccionan los tratamientos [combinación de niveles de factor(es) que deben
utilizarse en el experimento y se decide el número de unidades experimentales
que deben asignarse a cada uno.
4. Se decide como deben aplicarse los tratamientos a las unidades experimentales.
Un diseño aleatorizado de bloques que contiene b bloques y p tratamientos, consiste en
b bloques de p unidades experimentales cada uno. Se asignan aleatoriamente los
tratamientos a las unidades en cada bloque, y cada tratamiento aparece exactamente una
sola vez en cada bloque.
En la unidad 8 tema 3 encontramos un ejemplo que demuestra la aplicación del tema.
9.2 Cartas de Control de Calidad
Iniciaremos el tema señalando que calidad es el conjunto de características y
aditamentos que le da a un bien (producto o servicio) la capacidad cumplir con los fines
para lo que fue creado.
El control estadístico de procesos se refiere a la aplicación de los métodos del control
estadístico de calidad a la vigilancia de procesos.
Especificación es la determinación de los parámetros sobre los cuales se manejará el
proceso. Estos pueden determinarse desde el diseño mismo del producto o mediante la
observación de resultados muestrales a lo largo de un periodo durante el cual se
considera al proceso que está bajo control (condiciones estables).
Existen dos tipos de causas de variación en un proceso. Las causas comunes de
variación se deben a factores inherentes al diseño del sistema, y reflejan el monto
usual de variación por esperar. Las causas especiales o atribuibles de variación se
deben a factores inusuales que no forman parte ni del diseño del proceso ni del
proceso mismo.
Un proceso estable es aquel donde solo causas comunes de variación afectan a la
calidad de la producción. Cuando un proceso no es estable, la mejora puede alcanzarse
identificando y corrigiendo las causas especiales.
Los límites de control son los valores máximo y mínimo que se considera son los
límites dentro de los cuales el proceso se encuentra estable.
Una gráfica de Control es un diagrama de series de tiempo que incluye los límites de
control inferior y superior que identifican el rango de variación susceptible de
adjudicarse a causas comunes.
Figura: Zonas para una gráfica de
carta de control
LC (línea central) equivale al valor medio de los datos obtenidos μ
LCS (límite de control superior) es el valor obtenido de μ + 3σ
LCI (límite de control inferior) es el valor obtenido de μ - 3σ
Recordemos que:
 P (μ - 3σ ≤ x ≤ μ + 3σ ) = 0.99
 P (μ - 2σ ≤ x ≤ μ + 2σ ) = 0.95
 P (μ + σ ≤ x ≤ μ + σ ) = 0.68
Al realizar el contraste de hipótesis en el proceso, aparecen las siguientes hipótesis:
hipótesis nula, es que el proceso está estable y que solamente existen causas comunes de
variación. La hipótesis alterna, es que el proceso incluye variaciones por causas
especiales. El resultado del control estadístico de procesos se presenta en la siguiente
tabla
Continuación del proceso
Decisión
Ajuste del proceso
Condición del Proceso
H0 cierta: Estable
H0 falsa: Inestable
Decisión correcta
Error tipo II:
Permitir la
continuación de un
proceso inestable.
Error tipo I: Ajuste Decisión correcta
de un proceso
estable
Cuando el proceso está fuera de control?
Existen ocho pruebas para detectar la variación por causas especiales.
Prueba 1: un punto fuera
de la zona A
Prueba 2: Nueve puntos
seguidos al mismo lado
de la línea central
Prueba 3: Seis puntos
seguidos crecientes o
decrecientes
Prueba 4: Catorce punto
seguidos en alternancia
arriba y abajo
Prueba 5: Dos de tres
puntos en la zona A o
más allá (a uno de los
lados de la línea central)
Prueba 6: Cuatro de cinco
puntos seguidos en la
zona B o más allá (a uno
de los lados ...)
Prueba 7: Quince puntos
seguidos en la zona C (a
ambos lados de la línea
central)
Prueba 8: Ocho puntos
seguidos más allá de las
zonas C (a ambos lados
de la línea central)
En la siguiente tabla se muestra un resumen las fórmulas para las cartas de control más
usuales
Carta
R
p
Distribución
supuesta
Normal
Normal
Binomial
c
Poisson
Línea
central
Línea superior
Línea inferior
+ A2
D4
- A2
D3
+3
-3
-3
+3
Como podemos ver existen cartas de control para la media
proporción p, y para la cantidad c.
, para el rango R, la
es el promedio de las medias obtenidas de los valores observados
A2, D3 y D4 son valore obtenidos de la tabla de factores para gráficas de control para
ajustar los valores obtenidos en la formación de los límites de control.
Ejemplo
En la tabla siguiente se presentan los pesos, en onzas, de una secuencia de 15 muestras
de subgrupos racionales de papas fritas, con n = 4 para cada muestra. Se reportan
asimismo las medias, desviaciones estándar y rangos muestrales. Supongamos las
especificaciones de empaque establecen un peso medio por paquete de μ = 15.0 oz. y
una desviación estándar de σ = 0.1 oz. Con base en estos valores paramétricos,
determine
Muestra
No.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Pesos de paquetes (oz)
15,01 14,98 15,16 14,8
15,09 15,14 15,08 15,03
15,04
15,1
14,93 15,13
14,9
15,03 14,94 14,92
15,04 15,05 15,08 14,98
14,96 14,081 14,96 14,91
15,01
15,1
14,9 15,03
14,71 14,92 14,77 14,95
14,81
14,8
14,64 14,95
15,03 14,89 14,99 15,03
15,16 14,91 14,95 14,83
14,92 15,05 15,01 15,02
15,06 15,03 14,95 15,02
14,99 15,14 15,04 15,11
14,94 15,08
14,9 15,17
14,99
15,09
15,05
14,95
15,04
14,73
15,01
14,84
14,80
14,99
14,96
15,00
15,02
15,07
15,02
s R
0,148 0,36
0,045 0,11
0,088 0,20
0,057 0,13
0,042 0,10
0,432 0,88
0,083 0,20
0,116 0,24
0,127 0,31
0,066 0,14
0,141 0,33
0,056 0,13
0,047 0,11
0,068 0,15
0,125 0,27
a) la línea central y los límites de control inferior y superior de la gráfica
b) Elabore la gráfica de la carta de control para
c) Se sale de control el proceso?. Si así fuese, Que prueba incumple?
.
d) Suponga que no se tienen las especificaciones, cuales serían las límites superior,
inferior y la línea central?
Solución
a.- dado que tenemos las especificaciones del producto entonces obtenemos los límites
de control por medio de ellos
línea central = μ
Límite superior
Límite inferior
= 15.0 oz.
= μ + 3 σ /√n = 15.0 + 3 * 0.1 / √4 =15.15 oz.
= μ - 3 σ /√n = 15.0 - 3 * 0.1 / √4 =14.85 oz.
b.Figura: carta de control para la media
c.- como podemos observar en el gráfico, el procesos se sale de control en las muestras
# 8 y # 9.
1. Los puntos 8 y 9 rebasan los límites de control (prueba 1)
2. Dos de tres puntos caen en la zona A o más allá (prueba 5)
d.- Si no tuviésemos las especificaciones se deberán calcular los valores utilizando las
fórmulas de la tabla para cartas de control más comunes.
Línea central =
=
=
Límite Superior
Límite Inferior
14.84
=
=
∑ / k= 224.72 / 15 = 14.98
∑s/k
= 1.28 / 15
= 0.08551
9.3 Muestreo de Aceptación
+ 3 ( / C4 √n)
- 3 ( / C4 √n)
= 14.98 + 0.14= 15.12.
= 14.98 - 0.14
=
En este tema analizaremos el muestreo de aceptación el cual nos dará un apoyo al
momento de tomar una decisión sobre la aceptación o rechazo de un lote enviado por el
proveedor, dentro de este estudio el ítem que se inspecciona se calificará como
conforme o no conforme.
Dentro de las ventajas del muestreo de aceptación tenemos las siguientes:
1. Si la inspección es destructiva, no es factible revisar el 100% de los ítem.
2. El muestreo es más económico (en tiempo y dinero), además evita el daño por
manipulación.
3. El muestreo reduce los errores de inspección por fatiga del inspector.
4. El muestreo obliga al proveedor a mejorar su producción ya que el lote entero
puede ser rechazado.
las desventajas del muestreo de aceptación tenemos las siguientes:
1. Existe el riesgo de aceptar un lote malo o rechazar un lote bueno (riesgo del
Productor).
2. Se obtiene menos información del producto que al analizar todo el lote.
3. La selección y adopción de un plan de muestreo requiere mas tiempo y esfuerzo
en planificar y documentar.
En el muestreo de aceptación existen dos riesgos:
 El riesgo del productor, es el error cometido al rechazar un lote bueno
 El riesgo del consumidor, es el error cometido al aceptar un lote malo
El nivel aceptable de calidad (AQL) está asociado con el riesgo del productor e indica
el porcentaje mínimo de ítem no conformes que puede haber en un lote para que este
pueda ser considerado como bueno.
El nivel límite de calidad (LQL) esta es la definición numérica de un lote pobre,
asociado con el riesgo del consumidor.
Figura: Efecto del tamaño de muestra en la curva OC, (a) si se modifica el
tamaño de muestra, (b) modifica el número de aceptación
La curva característica de operación (OC) estudiada en la unidad de contraste de
hipótesis vuelve a ser objeto de estudio, la construimos obteniendo la probabilidad de
aceptar un lote dado una proporción de no conformidades. Para este objeto utilizaremos
la v.a. Hipergeométrica, cuando se desea analizar lotes de mayor tamaño se utiliza la
v.a. Poisson
Tipos de planes de muestreo de aceptación
Plan simple de muestreo: la información obtenida de una muestra es usada para tomar
una decisión para aceptar o rechazar el lote. Los parámetros son n tamaño de muestra y
c número de aceptación.
Se selecciona una muestra de tamaño n y el número de ítem defectuosos o no conformes
se compara con c. Si el número de defectuosos es menor o igual a c entonces el lote es
aceptado, en caso contrario el lote es rechazado.
Plan doble de muestre: en este plan se requieren de los siguientes parámetros:
 Tamaño de la primera muestra
(n1)
 Número de aceptación para la primera muestra (c1)
 Número de rechazo para la primera muestra (r1)
 Tamaño de la primera muestra (n2)
 Número de aceptación para la primera muestra (c2)
 Número de rechazo para la primera muestra(r2)
Se selecciona una muestra de tamaño n1 y se detectan el número de defectuosos en el
lote, si denotamos el número de defectuosos por d1, entonces decidimos:
Si d1 ≤ c1 => acepta el lote
Si d1 > r1 => rechace el lote
Si r1 < d1 < c1 => tome una nueva muestra
Al momento de tomar la nueva muestra se determinan n2, c2, r2 con una condicionante
que r2 = c2 + 1, y la prueba queda de la siguiente manera:
Si d1 + d2 ≤ c2 => acepta el lote
Si d1 + d2 > r2 => rechace el lote
Cuando d2 es el número de defectuosos en el segundo grupo muestreado.
Por ejemplo si se tiene una población de tamaño N = 5000, se realiza un plan de
muestreo doble con los siguientes parámetros:
n1 = 40
c1 = 1
r1 = 4
n2 = 60
c2 = 5
r2 = 6
Plan múltiple de muestreo: en este tipo de plan de muestreo se procede de la misma
manera que en el doble, incrementándose el número de parámetros de acuerdo a las
etapas que se deseen realizar.