Download pps
Document related concepts
Transcript
Distribuciones en el muestreo, EMV Tema 6 Ignacio Cascos Depto. Estadística, Universidad Carlos III 1 Descripción breve del tema 1. 2. Introducción y conceptos básicos Propiedades de los estimadores 3. Distribución de un estimador en el muestreo 4. 5. 6. Sesgo, Varianza, Error Cuadrático Medio y Consistencia Distribución de la media en el muestreo Distribución de la varianza en el muestreo Distribuciones en el muestreo de poblaciones normales Método de Máxima Verosimilitud Propiedades de los EMVs Inferencia a partir de los EMVs Ignacio Cascos Introducción a los intervalos de confianza y contrastes de hipótesis Depto. Estadística, Universidad Carlos III 2 Objetivos Entender estimación como pilar fundamental de la Estadística. Habituarse a manejar las distribuciones que aparecen asociadas a ciertos estimadores. Encontrar el EMV de un parámetro tanto de una distribución discreta como continua. Conocer la distribución asintótica de un EMV. Entender las ideas básicas de contrastes de hipótesis e intervalos de confianza a partir del método de Máxima Verosimilitud. Ignacio Cascos Depto. Estadística, Universidad Carlos III 3 Descripción breve del tema 1. 2. Introducción y conceptos básicos Propiedades de los estimadores 3. Distribución de un estimador en el muestreo 4. 5. 6. Sesgo, Varianza, Error Cuadrático Medio y Consistencia Distribución de la media en el muestreo Distribución de la varianza en el muestreo Distribuciones en el muestreo de poblaciones normales Método de Máxima Verosimilitud Propiedades de los EMVs Inferencia a partir de los EMVs Ignacio Cascos Introducción a los intervalos de confianza y contrastes de hipótesis Depto. Estadística, Universidad Carlos III 4 Introducción La Inferencia Estadística es el proceso de predicción que nos permite obtener conclusiones sobre el comportamiento de una población a partir de los datos de una muestra. Hemos visto distribuciones de probabilidad que dependen de uno o varios parámetros, ahora veremos cómo estimar dichos parámetros. Ignacio Cascos Depto. Estadística, Universidad Carlos III 5 Conceptos básicos Una muestra aleatoria son n variables aleatorias independientes y con la misma distribución X1,X2,…,Xn Un estadístico es cualquier transformación (función) de las observaciones de una muestra aleatoria. Es, por tanto, una variable aleatoria f (X1,X2,…,Xn). Ignacio Cascos Depto. Estadística, Universidad Carlos III 6 Conceptos básicos Un estimador de un parámetro q es cualquier función de la muestra qˆ f ( X1 , X 2 ,, X n ) que conduce a la obtención de valores aproximados de q. Se trata de un estadístico que sirve para estimar q. Ignacio Cascos Depto. Estadística, Universidad Carlos III 7 Descripción breve del tema 1. 2. Introducción y conceptos básicos Propiedades de los estimadores 3. Distribución de un estimador en el muestreo 4. 5. 6. Sesgo, Varianza, Error Cuadrático Medio y Consistencia Distribución de la media en el muestreo Distribución de la varianza en el muestreo Distribuciones en el muestreo de poblaciones normales Método de Máxima Verosimilitud Propiedades de los EMVs Inferencia a partir de los EMVs Ignacio Cascos Introducción a los intervalos de confianza y contrastes de hipótesis Depto. Estadística, Universidad Carlos III 8 Propiedades de los estimadores Sesgo. Un estimador de un parámetro q es insegado o centrado si E[qˆ] q A la diferencia sesgo E[qˆ] q se le llama sesgo del estimador. Ignacio Cascos Depto. Estadística, Universidad Carlos III 9 Propiedades de los estimadores Varianza de un estimador. De los estimadores centrados, el mejor es aquel cuyos valores están más concentrados en torno al verdadero valor del parámetro, el que tenga menor varianza. Llamamos eficiencia o precisión de un estimador al inverso de su varianza Eficiencia [qˆ] Ignacio Cascos 1 Var[qˆ] Depto. Estadística, Universidad Carlos III 10 Propiedades de los estimadores El error estándar de un estimador es su desviación típica qˆ Var[qˆ] Si la desviación típica depende del parámetro q, la sustitución de q por su estimación da lugar al error estándar estimado ˆqˆ Ignacio Cascos Depto. Estadística, Universidad Carlos III 11 Propiedades de los estimadores Dados dos estimadores de un mismo parámetro, su eficiencia relativa se define como ˆ ] Var[qˆ ] Eficiencia [ q 2 1 ER [qˆ2 ;qˆ1 ] Eficiencia [qˆ1 ] Var[qˆ2 ] Ignacio Cascos Depto. Estadística, Universidad Carlos III 12 Propiedades de los estimadores Error Cuadrático Medio. El ECM nos permite comparar estimadores centrados con otros que tienen sesgo y estimadores sesgados entre ellos ECM[qˆ] E[(qˆ q ) 2 ] Propiedad. 2 ˆ ˆ ˆ ECM[q ] Var[q ] (sesgo [q ]) Ignacio Cascos Depto. Estadística, Universidad Carlos III 13 Propiedades de un estimador Consistencia. Decimos que un estimador es consistente cuando se aproxima al auténtico valor del parámetro a medida que el tamaño de la muestra crece. Es lo mínimo que se le exige a un estimador. Ignacio Cascos Depto. Estadística, Universidad Carlos III 14 Descripción breve del tema 1. 2. Introducción y conceptos básicos Propiedades de los estimadores 3. Distribución de un estimador en el muestreo 4. 5. 6. Sesgo, Varianza, Error Cuadrático Medio y Consistencia Distribución de la media en el muestreo Distribución de la varianza en el muestreo Distribuciones en el muestreo de poblaciones normales Método de Máxima Verosimilitud Propiedades de los EMVs Inferencia a partir de los EMVs Ignacio Cascos Introducción a los intervalos de confianza y contrastes de hipótesis Depto. Estadística, Universidad Carlos III 15 Distribución de la media en el muestreo La media muestral X1 X 2 X n X n es un estimador natural de la media poblacional m. Es centrado y su varianza es 2/n, donde es la desviación típica de X. Ignacio Cascos Depto. Estadística, Universidad Carlos III 16 Distribución de la media en el muestreo Por el TCL, sabemos que para cualquier distribución de X, con tal que n sea suficientemente grande X m N(0,1) n Ignacio Cascos Depto. Estadística, Universidad Carlos III 17 Distribución de la media en el muestreo Distribución de una proporción en el muestreo. Llamamos p a la proporción poblacional de elementos que presentan cierta característica. La v.a. X que toma valor 1 si el elemento presenta la característica y 0 si no, sigue distribución de Bernoulli de parámetro p. nº elementos con la caracterís tica en muestra i 1 X i pˆ X tamaño muestra n p(1 p) E[ pˆ ] p ; Var[ pˆ ] n Si n>30 y np(1p)>5, podemos aplicar la aproximación del TCL n Ignacio Cascos Depto. Estadística, Universidad Carlos III 18 Varianza en el muestreo La varianza muestral es un estimador sesgado de la varianza poblacional X n S 2 i 1 X 2 i n Alternativamente tenemos la cuasivarianza muestral que es insesgado X n Sˆ 2 Ignacio Cascos i 1 X 2 i n 1 Depto. Estadística, Universidad Carlos III 19 Poblaciones normales Distribución de la varianza. Si la muestra procede de una población normal, 2 ˆ (n 1) S 2 nS 2 2 ~ 2 n 1 Tenemos entonces Var[S2] = 2(n1)4/n2 Ignacio Cascos Depto. Estadística, Universidad Carlos III 20 Poblaciones normales Distribución de la media con varianza desconocida. Si la muestra procede de una población normal y la varianza es desconocida, podemos reemplazarla por la (cuasi)varianza muestral y obtenemos X m X m ~ t n 1 2 2 ˆ S S n 1 n Ignacio Cascos Depto. Estadística, Universidad Carlos III 21 Poblaciones normales Cociente de varianzas. Si tenemos dos muestras independientes procedentes de distribuciones normales de tal modo que la muestra de X tiene tamaño n y la de Y tamaño m, entonces la distribución del cociente de sus varianzas 2 nS Sˆ 2 muestrales cumple X X (n 1) X2 X2 2 ~ Fn 1,m 1 2 mS Y Sˆ Y 2 2 (m 1) Y Y Ignacio Cascos Depto. Estadística, Universidad Carlos III 22 Descripción breve del tema 1. 2. Introducción y conceptos básicos Propiedades de los estimadores 3. Distribución de un estimador en el muestreo 4. 5. 6. Sesgo, Varianza, Error Cuadrático Medio y Consistencia Distribución de la media en el muestreo Distribución de la varianza en el muestreo Distribuciones en el muestreo de poblaciones normales Método de Máxima Verosimilitud Propiedades de los EMVs Inferencia a partir de los EMVs Ignacio Cascos Introducción a los intervalos de confianza y contrastes de hipótesis Depto. Estadística, Universidad Carlos III 23 Método de Máxima Verosimilitud Partimos de una muestra aleatoria simple X1,X2, ...,Xn que procede de una distribución conocida dependiente de un parámetro (o parámetros) y queremos estimar el valor de estos parámetros. La estimación de dichos parámetros será el valor que maximiza la función de verosimilitud (función de densidad o de probabilidad conjunta) Ignacio Cascos Depto. Estadística, Universidad Carlos III 24 Método de Máxima Verosimilitud Los datos procedentes de las n observaciones son (x1,x2,...,xn) = x. El parámetro que deseamos estimar es q. Si partimos de una variable aleatoria X discreta, la función de verosimilitud será la probabilidad conjunta de la muestra, l (q | x) P( X 1 x1 , X 2 x2 ,, X n xn | q ) P( X 1 x1 | q ) P( X 2 x2 | q ) P( X n xn | q ) i 1 p X ( xi | q ) n Ignacio Cascos Depto. Estadística, Universidad Carlos III 25 Método de Máxima Verosimilitud Si partimos de una variable aleatoria X continua, la función de verosimilitud será la función de densidad conjunta de la muestra, l (q | x) f ( x1 , x2 ,, xn | q ) i 1 f X ( xi | q ) n La función soporte es el logaritmo de la función de verosimilitud, L(q |x) = ln l(q |x) Ignacio Cascos Depto. Estadística, Universidad Carlos III 26 Método de Máxima Verosimilitud Nuestro objetivo es buscar el parámetro q que maximiza la probabilidad de aparición de los valores observados x L(q | x) Resolvemos 0 para hallar qˆ q L2 (q | x) ˆ qˆ y comprobamo s 0 , entonces q MV 2 q q qˆ Ignacio Cascos Depto. Estadística, Universidad Carlos III 27 Descripción breve del tema 1. 2. Introducción y conceptos básicos Propiedades de los estimadores 3. Distribución de un estimador en el muestreo 4. 5. 6. Sesgo, Varianza, Error Cuadrático Medio y Consistencia Distribución de la media en el muestreo Distribución de la varianza en el muestreo Distribuciones en el muestreo de poblaciones normales Método de Máxima Verosimilitud Propiedades de los EMVs Inferencia a partir de los EMVs Ignacio Cascos Introducción a los intervalos de confianza y contrastes de hipótesis Depto. Estadística, Universidad Carlos III 28 Propiedades de los EMVs Bajo ciertas condiciones generales (rango de la variable conocido y no depende de ningún parámetro) los EMVs son: 1. Asintóticamente centrados E[qˆMV ] n q 2. Asintóticamente normales qˆMV N(q , qˆ ) MV Ignacio Cascos Depto. Estadística, Universidad Carlos III 29 Propiedades de los EMVs 3. Asintóticamente de varianza mínima 1 2 ˆ ) L ( q MV Var[qˆMV ] 2 q 4. Invariantes frente a transformaciones biunívocas. Si g es inyectiva y qˆMV es EMV de q , entonces g (qˆMV ) es EMV de g (q ). Ignacio Cascos Depto. Estadística, Universidad Carlos III 30 Descripción breve del tema 1. 2. Introducción y conceptos básicos Propiedades de los estimadores 3. Distribución de un estimador en el muestreo 4. 5. 6. Sesgo, Varianza, Error Cuadrático Medio y Consistencia Distribución de la media en el muestreo Distribución de la varianza en el muestreo Distribuciones en el muestreo de poblaciones normales Método de Máxima Verosimilitud Propiedades de los EMVs Inferencia a partir de los EMVs Ignacio Cascos Introducción a los intervalos de confianza y contrastes de hipótesis Depto. Estadística, Universidad Carlos III 31 Inferencia a partir de los EMVs Intervalos de confianza. Conocemos la distribución aproximada de un EMV. Supuesta una muestra aleatoria simple X1,X2, ...,Xn podemos construir un intervalo que contenga el verdadero valor del parámetro con una probabilidad fija 1a. Para los datos x1,x2,...,xn dicho intervalo se convierte en un IC con nivel de confianza 1a Ignacio Cascos Depto. Estadística, Universidad Carlos III 32 Intervalos de Confianza Asintóticamente la distribución de un EMV es Normal 1/ 2 2 2 qˆMV Nq , L(qˆMV ) q si P(Z za / 2 ) 1 a / 2 para Z ~ N(0,1) , ˆ q q MV entonces P za / 2 2 2 ˆ L(q MV ) q Ignacio Cascos Depto. Estadística, Universidad Carlos III 1/ 2 za / 2 1 a 33 Intervalos de Confianza Finalmente obtenemos 2 L (qˆMV ) ˆ Pq MV q 2 1/ 2 za / 2 q qˆMV 1/ 2 2 L (qˆMV ) q 2 za / 2 1 a Donde la amplitud del intervalo depende de la varianza del EMV, y en consecuencia del tamaño de la muestra. Ignacio Cascos Depto. Estadística, Universidad Carlos III 34 Inferencia a partir de los EMVs Contrastes de Hipótesis. El conocimiento de la distribución asintótica de los EMVs nos puede servir para contrastar la veracidad de ciertas hipótesis (conjeturas) sobre el parámetro q qˆMV q L(qˆ 2 MV Ignacio Cascos ) q 2 1 / 2 Depto. Estadística, Universidad Carlos III ~ N(0,1) 35