Download pps

Document related concepts

Estimador wikipedia , lookup

Error cuadrático medio wikipedia , lookup

Eficiencia (estadística) wikipedia , lookup

Máxima verosimilitud wikipedia , lookup

Distribución normal wikipedia , lookup

Transcript
Distribuciones en el
muestreo, EMV
Tema 6
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
1
Descripción breve del tema
1.
2.
Introducción y conceptos básicos
Propiedades de los estimadores

3.
Distribución de un estimador en el muestreo



4.
5.
6.
Sesgo, Varianza, Error Cuadrático Medio y Consistencia
Distribución de la media en el muestreo
Distribución de la varianza en el muestreo
Distribuciones en el muestreo de poblaciones normales
Método de Máxima Verosimilitud
Propiedades de los EMVs
Inferencia a partir de los EMVs

Ignacio Cascos
Introducción a los intervalos de confianza y contrastes de hipótesis
Depto. Estadística, Universidad Carlos III
2
Objetivos





Entender estimación como pilar fundamental de la
Estadística.
Habituarse a manejar las distribuciones que aparecen
asociadas a ciertos estimadores.
Encontrar el EMV de un parámetro tanto de una
distribución discreta como continua.
Conocer la distribución asintótica de un EMV.
Entender las ideas básicas de contrastes de hipótesis
e intervalos de confianza a partir del método de
Máxima Verosimilitud.
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
3
Descripción breve del tema
1.
2.
Introducción y conceptos básicos
Propiedades de los estimadores

3.
Distribución de un estimador en el muestreo



4.
5.
6.
Sesgo, Varianza, Error Cuadrático Medio y Consistencia
Distribución de la media en el muestreo
Distribución de la varianza en el muestreo
Distribuciones en el muestreo de poblaciones normales
Método de Máxima Verosimilitud
Propiedades de los EMVs
Inferencia a partir de los EMVs

Ignacio Cascos
Introducción a los intervalos de confianza y contrastes de hipótesis
Depto. Estadística, Universidad Carlos III
4
Introducción
La Inferencia Estadística es el proceso de
predicción que nos permite obtener conclusiones
sobre el comportamiento de una población a
partir de los datos de una muestra.
Hemos visto distribuciones de probabilidad que
dependen de uno o varios parámetros, ahora
veremos cómo estimar dichos parámetros.
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
5
Conceptos básicos

Una muestra aleatoria son n variables
aleatorias independientes y con la misma
distribución X1,X2,…,Xn

Un estadístico es cualquier transformación
(función) de las observaciones de una muestra
aleatoria. Es, por tanto, una variable aleatoria
f (X1,X2,…,Xn).
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
6
Conceptos básicos

Un estimador de un parámetro q es cualquier
función de la muestra
qˆ  f ( X1 , X 2 ,, X n )
que conduce a la obtención de valores
aproximados de q.
Se trata de un estadístico que sirve para
estimar q.
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
7
Descripción breve del tema
1.
2.
Introducción y conceptos básicos
Propiedades de los estimadores

3.
Distribución de un estimador en el muestreo



4.
5.
6.
Sesgo, Varianza, Error Cuadrático Medio y Consistencia
Distribución de la media en el muestreo
Distribución de la varianza en el muestreo
Distribuciones en el muestreo de poblaciones normales
Método de Máxima Verosimilitud
Propiedades de los EMVs
Inferencia a partir de los EMVs

Ignacio Cascos
Introducción a los intervalos de confianza y contrastes de hipótesis
Depto. Estadística, Universidad Carlos III
8
Propiedades de los estimadores

Sesgo. Un estimador de un parámetro q es
insegado o centrado si
E[qˆ]  q
A la diferencia
sesgo  E[qˆ]  q
se le llama sesgo del estimador.
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
9
Propiedades de los estimadores

Varianza de un estimador. De los estimadores
centrados, el mejor es aquel cuyos valores
están más concentrados en torno al verdadero
valor del parámetro, el que tenga menor
varianza. Llamamos eficiencia o precisión de
un estimador al inverso de su varianza
Eficiencia [qˆ] 
Ignacio Cascos
1
Var[qˆ]
Depto. Estadística, Universidad Carlos III
10
Propiedades de los estimadores

El error estándar de un estimador es su
desviación típica
 qˆ  Var[qˆ]

Si la desviación típica depende del parámetro
q, la sustitución de q por su estimación da
lugar al error estándar estimado
ˆqˆ
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
11
Propiedades de los estimadores

Dados dos estimadores de un mismo
parámetro, su eficiencia relativa se define
como
ˆ ] Var[qˆ ]
Eficiencia
[
q
2
1
ER [qˆ2 ;qˆ1 ] 

Eficiencia [qˆ1 ] Var[qˆ2 ]
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
12
Propiedades de los estimadores

Error Cuadrático Medio. El ECM nos permite
comparar estimadores centrados con otros que
tienen sesgo y estimadores sesgados entre
ellos
ECM[qˆ]  E[(qˆ  q ) 2 ]

Propiedad.
2
ˆ
ˆ
ˆ
ECM[q ]  Var[q ]  (sesgo [q ])
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
13
Propiedades de un estimador

Consistencia. Decimos que un estimador es
consistente cuando se aproxima al auténtico
valor del parámetro a medida que el tamaño
de la muestra crece.
Es lo mínimo que se le exige a un estimador.
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
14
Descripción breve del tema
1.
2.
Introducción y conceptos básicos
Propiedades de los estimadores

3.
Distribución de un estimador en el muestreo



4.
5.
6.
Sesgo, Varianza, Error Cuadrático Medio y Consistencia
Distribución de la media en el muestreo
Distribución de la varianza en el muestreo
Distribuciones en el muestreo de poblaciones normales
Método de Máxima Verosimilitud
Propiedades de los EMVs
Inferencia a partir de los EMVs

Ignacio Cascos
Introducción a los intervalos de confianza y contrastes de hipótesis
Depto. Estadística, Universidad Carlos III
15
Distribución de la media en el muestreo

La media muestral
X1  X 2    X n
X
n
es un estimador natural de la media
poblacional m.
Es centrado y su varianza es 2/n, donde  es
la desviación típica de X.
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
16
Distribución de la media en el muestreo
Por el TCL, sabemos que para cualquier
distribución de X, con tal que n sea
suficientemente grande
X m
 N(0,1)
 n
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
17
Distribución de la media en el muestreo
Distribución de una proporción en el muestreo.
Llamamos p a la proporción poblacional de elementos
que presentan cierta característica. La v.a. X que toma
valor 1 si el elemento presenta la característica y 0 si no,
sigue distribución de Bernoulli de parámetro p.

nº elementos con la caracterís tica en muestra i 1 X i
pˆ 

X
tamaño muestra
n
p(1  p)
E[ pˆ ]  p ; Var[ pˆ ] 
n
Si n>30 y np(1p)>5, podemos aplicar la aproximación del TCL
n
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
18
Varianza en el muestreo

La varianza muestral es un estimador sesgado
de la varianza poblacional
X


n
S

2
i 1
X
2
i
n
Alternativamente tenemos la cuasivarianza
muestral que es insesgado
 X
n
Sˆ 2 
Ignacio Cascos
i 1
X
2
i
n 1
Depto. Estadística, Universidad Carlos III
19
Poblaciones normales

Distribución de la varianza. Si la muestra
procede de una población normal,
2
ˆ
(n  1) S

2

nS

2
2
~
2
n 1
Tenemos entonces
Var[S2] = 2(n1)4/n2
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
20
Poblaciones normales

Distribución de la media con varianza
desconocida. Si la muestra procede de una
población normal y la varianza es
desconocida, podemos reemplazarla por la
(cuasi)varianza muestral y obtenemos
X m
X m

~ t n 1
2
2
ˆ
S
S
n 1
n
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
21
Poblaciones normales

Cociente de varianzas. Si tenemos dos muestras
independientes procedentes de distribuciones
normales de tal modo que la muestra de X
tiene tamaño n y la de Y tamaño m, entonces la
distribución del cociente de sus varianzas
2
nS
Sˆ 2
muestrales cumple
X
X
(n  1) X2
 X2
 2
~ Fn 1,m 1
2
mS Y
Sˆ Y
2
2

(m  1) Y
Y
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
22
Descripción breve del tema
1.
2.
Introducción y conceptos básicos
Propiedades de los estimadores

3.
Distribución de un estimador en el muestreo



4.
5.
6.
Sesgo, Varianza, Error Cuadrático Medio y Consistencia
Distribución de la media en el muestreo
Distribución de la varianza en el muestreo
Distribuciones en el muestreo de poblaciones normales
Método de Máxima Verosimilitud
Propiedades de los EMVs
Inferencia a partir de los EMVs

Ignacio Cascos
Introducción a los intervalos de confianza y contrastes de hipótesis
Depto. Estadística, Universidad Carlos III
23
Método de Máxima Verosimilitud
Partimos de una muestra aleatoria simple X1,X2,
...,Xn que procede de una distribución conocida
dependiente de un parámetro (o parámetros) y
queremos estimar el valor de estos parámetros.
La estimación de dichos parámetros será el valor
que maximiza la función de verosimilitud
(función de densidad o de probabilidad conjunta)
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
24
Método de Máxima Verosimilitud
Los datos procedentes de las n observaciones son
(x1,x2,...,xn) = x. El parámetro que deseamos estimar es q.
Si partimos de una variable aleatoria X
discreta, la función de verosimilitud será la
probabilidad conjunta de la muestra,
l (q | x)  P( X 1  x1 , X 2  x2 ,, X n  xn | q )
 P( X 1  x1 | q ) P( X 2  x2 | q )  P( X n  xn | q )

 i 1 p X ( xi | q )
n
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
25
Método de Máxima Verosimilitud

Si partimos de una variable aleatoria X
continua, la función de verosimilitud será la
función de densidad conjunta de la muestra,
l (q | x)  f ( x1 , x2 ,, xn | q )  i 1 f X ( xi | q )
n

La función soporte es el logaritmo de la
función de verosimilitud,
L(q |x) = ln l(q |x)
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
26
Método de Máxima Verosimilitud
Nuestro objetivo es buscar el parámetro q que
maximiza la probabilidad de aparición de los
valores observados x
L(q | x)
Resolvemos
 0 para hallar qˆ
q
L2 (q | x)
ˆ  qˆ
y comprobamo s

0
,
entonces
q
MV
2
q
q qˆ
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
27
Descripción breve del tema
1.
2.
Introducción y conceptos básicos
Propiedades de los estimadores

3.
Distribución de un estimador en el muestreo



4.
5.
6.
Sesgo, Varianza, Error Cuadrático Medio y Consistencia
Distribución de la media en el muestreo
Distribución de la varianza en el muestreo
Distribuciones en el muestreo de poblaciones normales
Método de Máxima Verosimilitud
Propiedades de los EMVs
Inferencia a partir de los EMVs

Ignacio Cascos
Introducción a los intervalos de confianza y contrastes de hipótesis
Depto. Estadística, Universidad Carlos III
28
Propiedades de los EMVs
Bajo ciertas condiciones generales (rango de la
variable conocido y no depende de ningún
parámetro) los EMVs son:
1. Asintóticamente centrados
E[qˆMV ] n
q

2. Asintóticamente normales
qˆMV  N(q ,  qˆ )
MV
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
29
Propiedades de los EMVs
3. Asintóticamente de varianza mínima
1
2
ˆ )


L
(
q
MV 
Var[qˆMV ]   
2


q


4. Invariantes frente a transformaciones
biunívocas.
Si g es inyectiva y qˆMV es EMV de q ,
entonces g (qˆMV ) es EMV de g (q ).
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
30
Descripción breve del tema
1.
2.
Introducción y conceptos básicos
Propiedades de los estimadores

3.
Distribución de un estimador en el muestreo



4.
5.
6.
Sesgo, Varianza, Error Cuadrático Medio y Consistencia
Distribución de la media en el muestreo
Distribución de la varianza en el muestreo
Distribuciones en el muestreo de poblaciones normales
Método de Máxima Verosimilitud
Propiedades de los EMVs
Inferencia a partir de los EMVs

Ignacio Cascos
Introducción a los intervalos de confianza y contrastes de hipótesis
Depto. Estadística, Universidad Carlos III
31
Inferencia a partir de los EMVs

Intervalos de confianza. Conocemos la
distribución aproximada de un EMV.
Supuesta una muestra aleatoria simple X1,X2,
...,Xn podemos construir un intervalo que
contenga el verdadero valor del parámetro con
una probabilidad fija 1a.
Para los datos x1,x2,...,xn dicho intervalo se
convierte en un IC con nivel de confianza 1a
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
32
Intervalos de Confianza

Asintóticamente la distribución de un EMV es
Normal
1/ 2
2
2


qˆMV  Nq ,   L(qˆMV ) q




si P(Z  za / 2 )  1  a / 2 para Z ~ N(0,1) ,

ˆ q
q
MV
entonces P  za / 2 
2
2

ˆ
  L(q MV ) q


Ignacio Cascos
Depto. Estadística, Universidad Carlos III

1/ 2

 za / 2   1  a


33
Intervalos de Confianza
Finalmente obtenemos

 2 L (qˆMV )

ˆ
Pq MV   q 2


1/ 2

za / 2  q  qˆMV  

1/ 2
 2 L (qˆMV )
q 2
za / 2   1  a

Donde la amplitud del intervalo depende de la
varianza del EMV, y en consecuencia del tamaño
de la muestra.
Ignacio Cascos
Depto. Estadística, Universidad Carlos III
34
Inferencia a partir de los EMVs

Contrastes de Hipótesis. El conocimiento de la
distribución asintótica de los EMVs nos puede
servir para contrastar la veracidad de ciertas
hipótesis (conjeturas) sobre el parámetro q
qˆMV  q
  L(qˆ
2
MV
Ignacio Cascos
) q

2 1 / 2
Depto. Estadística, Universidad Carlos III
~ N(0,1)
35