Download TEMA 3 ESTIMACIÓN PUNTUAL

Document related concepts
no text concepts found
Transcript
TEMA 3 ESTIMACIÓN PUNTUAL
ESQUEMA
3.1.- Planteamiento del problema: La Estimación Puntual.
3.2.- Propiedades de los estimadores.
3.2.1.- Insesgadez.
3.2.2.- Eficiencia. La cota de Cramér-Rao. EIMV.
3.2.3.- Consistencia.
3.2.4.- Sufuciencia. Criterio de Factorización.
3.3.- Métodos de obtención de estimadores.
3.3.1.- El método de los momentos. Propiedades.
3.3.2.- El método de la máxima verosimilitud. Propiedades.
3.1.- Planteamiento del problema: La Estimación Puntual.
Recordemos que a la hora de estudiar un fenómeno aleatorio básicamente
podemos encontrarnos con dos problemas:
Puede resultar que desconozcamos el modelo de probabilidad al que se ajusta la
v.a. que estemos estudiando. (inferencia no paramétrica)
O bien conozcamos el modelo de probabilidad, pero desconozcamos el parámetro
(o parámetros) que lo definen. (inferencia paramétrica)
Este segundo problema va ha ser el objeto de nuestro estudio en los próximos
temas. Este primer tema dedicado a la inferencia estadística lo dedicaremos a la Estimación
Puntual.
Básicamente estudiaremos la forma en que debemos hacer uso de la información
muestral para determinar el valor de los parámetros que determinan un modelo de
probabilidad.
Por ejemplo, en un proceso industrial de llenado de paquetes de detergentes,
sabemos que esta variable se ajusta a una distribución Normal, y debido a la larga
experiencia podemos afirmar que en términos medios cada paquete es llenado con 5 Kgr. de
detergente, pero desconocemos la regularidad del proceso (la desviación típica). Con el fin
de determinar este valor desconocido debemos seleccionar una muestra y en función de los
valores obtenidos asignar un valor a este parámetro.
términos:
Desde un punto de vista teórico el problema lo vamos a plantear en los siguientes
Sea ξ una v.a. que tiene asociada una función de distribución F que depende de
un parámetro θ. Supongamos que conocemos la forma funcional de F a falta de este
parámetro. A partir de ahora nombraremos la función de distribución como F(x;θ) ó Fθ para
hacer referencia a que desconocemos el valor de este parámetro.
Definición.- El conjunto de todos los valores admisibles de los parámetros de
una función de distribución se llama espacio paramétrico. Este conjunto lo simbolizaremos
por Θ.
Para cada posible valor que tome θ tendremos una función de distribución
distinta. El conjunto {Fθ ; θεΘ} se llama familia de distribuciones de ξ
GARCÍA CÓRDOBA
1
TEMA 3 ESTIMACIÓN PUNTUAL
Ejemplo:
Si ξ≈B(3;p) tendremos que el espacio paramétrico es el intervalo Θ = [0,1]. Y la
familia de distribuciones será {B(3;p) ; 0≤p≤1}
Definición.- Sea (ξ1, ξ2 , . . . ,ξn) una m.a.s. de F(x;θ). Un estadístico
θ* = f (ξ1, ξ2 , . . . ,ξn)
se dice que es un estimador puntual de θ si θ* aplica Rn en Θ.
Obsérvese que el estimador no es un valor concreto sino una variable aleatoria,
ya que aunque depende unívocamente de los valores de la muestra observados (ξi = xi), la
elección de la muestra es un proceso aleatorio.
Una vez que la muestra ha sido elegida, se denomina estimación el valor
numérico que toma el estimador sobre esa muestra.
Un estimador es siempre una función de los valores muéstrales cuyo resultado
debe ser siempre un posible valor del parámetro.
Por ejemplo, con el fin de estimar la proporción de éxitos p (desconocido) en un
experimento que se repite 3 veces (modelo B(3;p)) tomamos una muestra de tamaño 4,
pongamos (2,5,1,2), es decir, en estas cuatro realizaciones hemos obtenido cuatro valores
diferentes para p, que son 0,2; 0,5; 0,1 y 0,2. ¿Qué valor asignamos a p?
Podemos pensar, y en principio es lo más coherente, tomar la media: p*=0,25.
Pero otra alternativa podría ser la media geométrica p*=0,21 o quizás el mínimo valor
muestral p*=0,1. Todas estas funciones (estadísticos) nos dan siempre valores aceptables
para p. En cambio si tomamos la suma de todos los valores muéstrales p*=1 (que también
es un estadístico=función de la muestra) este no será un estimador pues no siempre da
valores posibles para p.
Todo esto indica dos cosas:
No todos los estadísticos son estimadores.
No todos los estimadores asignan el mismo valor al parámetro desconocido.
Al ser desconocido el valor real del parámetro no podemos a priori indicar el
estimador que nos ofrezca el valor más próximo al parámetro, y por tanto, nunca sabremos
exactamente cual es el error que estamos cometiendo al realizar nuestra predicción.
Claro que, si que será posible estudiar los estimadores como v.a. y buscar
propiedades que hagan a unos más deseables que a otros.
3.2.- Propiedades de los estimadores.Como hemos visto en el apartado anterior, el método del selección de
estimadores mediante el ECM no es útil en todos los casos pues éste depende en ocasiones
del parámetro desconocido.
Con el fin de seleccionar el mejor o los mejores estimadores de un parámetro
vamos a presentar algunas propiedades que en principio parezca aceptable exigir a un
estimador para que realice su función de estimar un valor desconocido.
Vamos a presentar las cuatro propiedades más importantes:
GARCÍA CÓRDOBA
2
TEMA 3 ESTIMACIÓN PUNTUAL
3.2.1. Propiedad de insesgadez:
Hemos dicho en el apartado anterior que al realizar una estimación de θ
mediante un determinado estimador θ* unas veces cometeremos errores por exceso y otras
por defecto. El error es una v.a. θ*-θ. La primera propiedad que vamos a requerir de un
estimador es que en términos medios el error que se cometa al estimar un parámetro sea
cero
Definición.- Sea ξ una v.a. y Fθ su función de distribución. Diremos que θ* es un
estimador insesgado de θ, si se verifica que:
E[θ*] = θ.
A la diferencia entre la esperanza matemática del estimador de un parámetro y el
parámetro a estimar se llama sesgo del estimador que escribiremos como b(θ):
b(θ) = E[θ*] - θ
Si el sesgo de un estimador es positivo, este tenderá a sobreestimar el valor del
parámetro, mientras que si el sesgo es negativo, el estimador tenderá a infravalorar el valor
a estimar.
Ejemplo:
Consideremos los tres estimadores de la media de una población normal que
presentamos en el apartado anterior. Sabemos que:
E[μ*]
= nμ/(n-1) su sesgo será b(μ) = nμ/(n-1) - μ = μ/(n-1)
E[μ**]
= μ su sesgo será b(μ) = μ - μ = 0
Estimador Insesgado.
E[μ***] = nμ/(n+1) su sesgo será b(μ) = nμ/(n+1) - μ = - μ/(n+1)
El primero de estos estimadores tiene un sesgo positivo, y tenderá a
sobreestimar la media de la población, mientras que el segundo tiene sesgo negativo y
tenderá a asignar a la media valores inferiores a su valor real. Frente a éstos, el estimador
μ** es un estimador insesgado.
Gráficamente, las funciones de densidad de cada uno de estos estimadores será:
0,5
0,4
0,3
0,2
0,1
0
-1
GARCÍA CÓRDOBA
0
1
2
3
3
4
5
TEMA 3 ESTIMACIÓN PUNTUAL
3.2.1.1.- El estimador de mínimo error cuadrático medio.
Supongamos que estamos estudiando una v.a. ξ que sabemos que se ajusta a un
modelo probabilístico con función de distribución F conocida que depende de un parámetro θ
desconocido. Con el fin de estimar el valor de este parámetro consideramos el estimador θ*.
θ* es una v.a. función de la m.a.s. Como tal v.a. podrá tomar diversos valores
dependiendo de la muestra seleccionada. El error que cometemos al estimar θ mediante θ*
será la diferencia θ*-θ. Unas veces esta diferencia será positiva (cometiendo un error por
exceso) y otras veces la diferencia será negativa (cometiendo un error por defecto).
Por tanto la diferencia θ*-θ será también una v.a. que nos informa del error que
estamos cometiendo al realizar la estimación. Con el fin de obtener una medida global de
este error vamos a eliminar el signo de los errores considerando la diferencia al cuadrado
(θ*-θ)2 (error cuadrático).
De esta manera podemos obtener una medida del error medio que estamos
cometiendo al realizar la estimación mediante la esperanza matemática del error cuadrático.
Definimos así:
Definición.- Se llama error cuadrático medio del estimador a:
ECM(θ*) = E[ (θ*-θ)2 ]
Si el error cuadrático medio es un número pequeño, podríamos asegurar que
error que estamos cometiendo en la estimación es pequeño (en media), e inversamente, si
el ECM es un número grande, cabe esperar que la estimación que realicemos no sea muy
precisa.
A partir de esta idea vamos a deducir las propiedades más importantes que debe
cumplir un estimador para ser considerado aceptable.
Vamos ahora a encontrar otra expresión para el ECM de un estimador:
ECM(θ*) = E[ (θ*-θ)2 ] = E[ ( { θ*- E[θ*] } - { θ -E[θ*] } ) 2 ] =
= E[ ( θ*- E[θ*] ) 2 ] + E[ ( θ -E[θ*] ) 2 ] - 2 E[( θ*- E[θ*] )( θ -E[θ*] ) ] =
= Var (θ*) + ( θ -E[θ*] )
2
= Var (θ*) + ( θ -E[θ*] )
2
- 2( θ -E[θ*] ) E[( θ*- E[θ*] ) ] =
De esta manera podemos observar que el error cuadrático medio que cometemos
al realizar una estimación es la suma de dos contribuciones positivas.
En primer lugar el tamaño del error vendrá determinado por la varianza del
estimador, es decir, por su precisión. Si el estimador tiene poca capacidad de variación para
los distintas muestras que podamos tomar esto contribuirá de forma positiva a la obtención
de un error más pequeño.
En segundo lugar el tamaño del error vendrá determinado por la diferencia entre
el valor medio que tome el estimador y el parámetro desconocido. Así, por ejemplo, si para
los distintos valores muéstrales la media del estimador coincide con θ habremos obtenido un
buen estimador.
Observamos finalmente que las propiedades que nos van a permitir medir la
calidad de un estimador están en función de sus dos primeros momentos: la media y la
varianza de un estimador.
GARCÍA CÓRDOBA
4
TEMA 3 ESTIMACIÓN PUNTUAL
Estas no van a ser las únicas propiedades que observemos sobre la calidad de los
distintos estimadores, pero quizás sí las más importantes.
Ejemplo:
Supongamos que estamos estudiando un fenómeno aleatorio que suponemos que
se ajusta a una v.a. ξ, Normal N(μ;3). Con el fin de determinar el valor medio desconocido
de la población se toma una m.a.s. de tamaño n y se plantean tres posibles estimadores:
μ*
= ∑ξi / (n-1)
μ**
= ∑ξi / n = la media muestral
μ*** = ∑ξi / (n+1)
Con el fin de saber cual de ellos es mejor se calcula el ECM de cada uno de ellos,
para lo cual necesitamos saber cuales son sus dos primeros momentos:
E[μ*]
= nμ/(n-1)
Var(μ*)
= 30 n/(n-1)2
E[μ**]
= μ
Var(μ**)
= 30 / n
Var(μ***) = 30 n/(n+1)2
E[μ***] = nμ/(n+1)
De tal forma que:
ECM(μ*) = 30 n/(n-1)2 + (μ- nμ/(n-1))2 = (30n+μ2)/(n-1)2
ECM(μ**) = 30 /n + (μ- μ)2 = 30/n
ECM(μ***) = 30 n/(n+1)2 + (μ- nμ/(n+1))2 = (30n+μ2)/(n+1)2
Como podemos observar, el error cuadrático medio queda en función de dos
valores: El tamaño muestral y el valor desconocido del parámetro. Veamos esto en una
gráfica (tomando n=3):
2,5
ECM[µ*]
ERROR CUADRATICO MEDIO
2
ECM[µ***]
1,5
ECM[µ**]
1
0,5
-11
-10
-9
-8
-7
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
7
8
9
10
11
VALOR CONJETURABLE PARA LA MEDIA POBLACIONAL
Observando la gráfica, deducimos sin ningún problema que el estimador μ* es el
peor de los tres. Ahora bien dependiendo del valor del parámetro desconocido μ unas veces
GARCÍA CÓRDOBA
5
TEMA 3 ESTIMACIÓN PUNTUAL
será mejor μ** y otras μ***. Claro esto nos lleva a una situación difícil pues este valor es
desconocido. Esta situación hace disminuir la aplicación universal de este método para
determinar la calidad de un estimador.
El error cuadrático medio depende en ciertos casos del parámetro desconocido
En los tres casos el ECM disminuye conforme aumenta el tamaño muestral (algo
que comentaremos mas adelante)
15
ERROR CUADRATICO MEDIO
µ*
10
µ**
5
µ***
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
TAMAÑO MUESTRAL
3.2.2. Propiedad de eficiencia:
Una vez que tengamos dos estimadores insesgados de un parámetro para
determinar cuál de los dos es más adecuado debemos fijarnos en su varianza. Entre los dos
elegiremos a aquel que presente una menor variación entorno al valor medio, ya que será un
estimador más preciso.
Definición.- Sea ξ una v.a. y Fθ su función de distribución. Sean θ* y θ** dos
estimadores insesgados de θ, Se dice que θ* es más eficiente que θ** si:
Var(θ*) < Var(θ**)
En este sentido hablaremos de la eficiencia relativa como:
eficiencia relativa = Var(θ*) / Var(θ**)
Definición.- Sea ξ una v.a. y Fθ su función de distribución. Si θ* es un estimador
insesgado de θ, y no hay ningún otro que tenga menor varianza, entonces se dice que θ* es
el estimador insesgado de mínima varianza de θ.
Ejemplo:
Estas dos primeras propiedades las podemos relacionar con el ECM de un
estimador. Como vimos en el apartado correspondiente:
ECM(θ*) = Var (θ*) + ( θ -E[θ*] )
2
= Var (θ*) + b(θ*)
2
De tal forma que entre todos los estimadores insesgados aquel que presente una varianza
mínima será el que presente un error cuadrático mínimo (¿podemos encontrar un estimador
sesgado con menor ECM?).
GARCÍA CÓRDOBA
6
TEMA 3 ESTIMACIÓN PUNTUAL
El problema de obtener estimadores de varianza mínima está solucionado por el
siguiente resultado:
Proposición.- (Cota de Cramér-Rao)
Sea ξ una v.a. y f(x;θ) su función de densidad. Tomemos una m.a.s. de tamaño n
y sea θ* un estimador de θ. Entonces:
Var( θ* ) ≥
[ 1 + b′(θ) ]2
⎡ ∂ ln f (x; θ) ⎤
nE⎢
⎥⎦
∂θ
⎣
2
Siendo b´(θ) la primera derivada del sesgo del estimador.
Sin demostración.
La Cota de Cramér-Rao (CCR) permite determinar el valor mínimo que puede
alcanzar la varianza de un estimador de un parámetro desconocido. Si la varianza de un
estimador coincide con la cota sabremos que de la clase de estimadores con ese sesgo
(quizás insesgados) ninguno tendrá menor varianza.
esta cota.
Por otra parte no podemos asegurar la existencia de un estimador que alcance
Ejemplo:
La media muestral en poblaciones normales.
3.2.3. Propiedad de Consistencia.-
Las dos propiedades anteriores tienen vigencia independientemente de cual sea
el tamaño muestral. Este factor, el tamaño de la muestra, debe también ayudarnos a
determinar la calidad de un buen estimador. Así, parece lógico exigir a un estimador que al
aumentar el tamaño de la muestra su precisión aumente.
Definición.- Sea ξ una v.a. y Fθ su función de distribución. Si θ*n es un
estimador de θ para una muestra de tamaño n. Diremos que θ*n es un estimador
consistente si la sucesión de estimadores {θ*n} converge en probabilidad a θ. Es decir, si:
lim P(| θ
*
n→∞
n
- θ | ≥ ε) = 0
De esta manera un estimador será inconsistente si al utilizar toda la población
como muestra (teóricamente una muestra infinita), el estimador no daría el resultado
correcto.
Una caracterización de los estimadores consistentes que resulta más simple de
aplicar en la práctica es la siguiente:
Proposición.- Sea ξ una v.a. y Fθ su función de distribución. Sea θ*n es un
estimador de θ para una muestra de tamaño n. Si se verifica que:
GARCÍA CÓRDOBA
7
lim E [ θ
*
n→∞
TEMA 3 ESTIMACIÓN PUNTUAL
n
]= θ
lim Var [ θ
*
n→∞
n
]= 0
Entonces θ* es un estimador consistente.
Sin demostración.
De esta manera, un estimador consistente será aquel que, a medida que la
muestra se hace más grande, el valor esperado del estimador tiende hacia el verdadero
valor del parámetro (se vuelve insesgado), y la varianza del estimador se hace despreciable
(la varianza tiende a cero).
Gráficamente, podemos observar que le ocurre a la media muestral de una
población N(0,1) al aumentar el tamaño muestral. Hemos simulado m.a.s. de tamaños de 1
a 1.000 y hemos calculado a cada una de las muestras su media aritmética. Gráficamente el
resultado es el siguiente:
0,6
0,4
MEDIA MUESTRAL
0,2
0
-0,2
-0,4
-0,6
0
200
400
600
800
1000
TAMAÑO MUESTRAL
Ejemplo:
Como ejemplos de estimadores consistentes μ* μ** μ***
3.2.4. Propiedad de Suficiencia.Definición.- Se dice que un estimador es suficiente si incluye toda la
información que la muestra puede suministrar sobre el parámetro desconocido.
Esta definición de estimador suficiente no es muy formal y tampoco operativa.
Hay definiciones más formales pero no entraremos en ellas.
estimador:
Si veremos un procedimiento más operativo para determinar la suficiencia de un
GARCÍA CÓRDOBA
8
TEMA 3 ESTIMACIÓN PUNTUAL
Proposición.- (Criterio de factorización de Fisher-Neyman)
Si un estimador θ* de θ es suficiente si la función de densidad de la m.a.s.
(función de Verosimilitud) L(ξ;θ) se puede descomponer en el producto de dos funciones,
una de ellas g(θ*,θ) dependiente del parámetro y de la muestra a través de θ*, y otra, h(ξ)
no dependiente de θ.
L(ξ;θ) = g(θ*,θ) h(ξ)
Este criterio es el habitualmente utilizado para la búsqueda de estimadores
suficientes. Ahora bien, si no somos capaces de descomponer la función de verosimiltud
como indica el criterio de factorización no podemos afirmar que el estimador en cuestión no
sea eficiente.
Otras propiedades.Estas cuatro propiedades sobre los estimadores no son ni mucho menos las
únicas, aunque quizás sí las más importantes. Sería otro objetivo presentar exhaustivamente
las propiedades deseables de un estimador. No obstante podríamos haber hablado de
propiedades como: invarianza, robustez y propiedades asintóticas.
3.3.- Métodos de obtención de estimadores.Hemos estudiado en el apartado anterior las diversas propiedades que debe
cumplir un estimador para poder considerarlo adecuado para predecir un valor desconocido
de la población. Como ya comentamos, al existir una infinidad de estimadores de un
parámetro, sería desmesurado buscar entre esta infinidad aquél que mejores propiedades
tenga.
Para solucionar este problema la Estadística ha desarrollado métodos
matemáticos que permiten obtener estimadores aceptables, esto es, que cumplen
determinadas propiedades. En este apartado estudiaremos dos de estos métodos: El método
de los momentos y el método de la máxima verosimilitud.
3.3.1.- El método de los momentos.
El método de los momentos está sustentado por la siguiente idea: Si una muestra
representa perfectamente a una población, los momentos muéstrales y poblacionales deben
coincidir.
La forma de operar para obtener estimadores mediante este método es la de
plantear un sistema de ecuaciones en la que el término independiente sea el momento
muestral
E[ξ] =
ξ
En el caso de que se desconozcan más de un parámetro de la población se
presentarán tantas ecuaciones como parámetros se desconozcan, igualando siempre los
primeros momentos poblacionales a los muéstrales.
Si desconocemos dos parámetros plantearemos el sistema:
E[ξ] =
ξ
Var(ξ) = s2
GARCÍA CÓRDOBA
9
TEMA 3 ESTIMACIÓN PUNTUAL
Propiedades de los estimadores obtenidos por el método de los
momentos.
Insesgadez:
No tienen porqué ser insesgados aunque si lo son asintóticamente.
Consistencia:
Son consistentes
Normalidad:
Son asintóticamente normales.
3.3.2.- El método de la máxima verosimilitud.
Fue, en la década de 1.920, R.A. Fisher (1.890-1.962) quien desarrollo el método
de la máxima verosimiltud como técnica para la obtención de estimadores que cumplieran
(quizás no todas) las propiedades presentadas anteriormente.
La filosofía que sustenta el método es muy simple, pero su ejecución y la
traducción de ésta a fórmulas estadística es un poco más compleja. Intentaremos realizar
esta transición mediante un sencillo ejemplo.
El método de la máxima verosimilitud consiste en elegir (entre todos los
estimadores del parámetro desconocido) aquel estimador que haga máxima la probabilidad
de haber obtenido la muestra que hemos encontrado.
Debemos elegir como parámetro aquel que hace máxima la probabilidad de
observar lo que en realidad hemos visto.
Para explicar este galimatías pondremos un ejemplo.
Ejemplo: Estimación de una proporción.
Tengo aquí 5 papeletas, unas llevan marcada una cruz u otras un asterisco y
desconocemos la proporción (p) de cruces (+) (esto es, cuantas hay de cada clase).
Antes de nada veamos que posibilidades pueden plantearse:
a) 5 + 0 *
aquí p=1
b) 4 + 1 *
aquí p=0,8
c) 3 + 2 *
aquí p=0,6
d) 2 + 3 *
aquí p=0,4
e) 1 + 4 *
aquí p=0,2
f) 0 + 5 *
aquí p=0
Tomaremos una muestra de tamaño 3, independientes e identicamentes
distribuidas (e.d. cada vez que realizo una extracción devuelvo la papeleta a la urna
(independientes) y las mezclo muy bien antes de cada extracción (idénticamente
distribuidas))
Supongamos que las tres extracciones sucesivas han sido (+,*,*)
El objetivo del método es determinar el valor de p (la proporción) que haga
máxima la probabilidad de haber seleccionado esta muestra y no otra.
Para empezar la muestra ya nos hace imposible (con probabilidad cero)
determinadas proporciones. Este es el caso de las situaciones a) y f). Es más de forma lógica
podemos aventurarnos a indicar cuál de las anteriores opciones es más coherente con la
muestra elegida. Parece que lo normal sería que la composición de la urna fuera d) ya que la
GARCÍA CÓRDOBA
10
TEMA 3 ESTIMACIÓN PUNTUAL
proporción de cruces que tenemos en este caso es la más parecida a la proporción que
encontramos en nuestra muestra.
maximizar:
En este caso el método de la máxima verosimilitud nos indica que debemos
Máx (en θ) P(obtener una muestra determinada)
en nuestro ejemplo
Máx (en p) P(obtener (+,*,*))
debido a la independencia
Máx (en p) P(+)P(*)P(*) = Max (en p) p(1-p)(1-p)
el valor de p que hace máxima esta función es p=1/3=0,33
Por tanto y tal y como habíamos aventurado la composición que ustedes
desconocen (y no van a conocer, así es la realidad) será la que se corresponda con el valor
más próximo a 1/3, en este caso d).
siguiente:
El planteamiento operativo del método de estimación máximo-verosímil es el
Tenemos una v.a. ξ con función de densidad f(x;θ) (o f.p.p. P(ξ=x;θ)) siendo θ el
parámetro desconocido de la población. Tomamos una m.a.s. de ξ de tamaño n.
Definición.- A la función de densidad conjunta ( o f.p.p. conjunta) de la muestra
la llamaremos función de verosimilitud que denotaremos como L(x1,...,xn;θ) o de forma
abreviada como L(x:θ).
Como estamos siempre trabajando con muestras independientes resulta que la
función de verosimilitud es igual al producto de las funciones de densidad (o f.p.p.):
L(x:θ) = L(x1,...,xn;θ) = f(x1;θ) . . . f(xn;θ)
El método de la máxima verosimilitud consiste en elegir, de entre los posibles
valores del parámetro desconocido, aquel que hace máxima la función de verosimiltud.
Definición.- El valor de θ que maximice la función de verosimiltud se llama
estimación máximo-verosimil, y a su forma funcional θ* estimador máximo-verosimil
L(x;θ*) = máx (en θ) L(x;θ)
En general, la función de verosimiltud es complicada, y con el fin de simplificar el
cálculo del máximo, se calcula el máximo al logaritmo (función monótona creciente) de la
función de verosimilitud.
L(x;θ*) = máx (en θ) ln L(x;θ)
No siempre se puede obtener el estimador máximo-verosímil por el método
analítico que hemos expuesto, en cuyo caso se procese de forma directa partiendo del
fundamento del método: lo sucedido es lo más probable que puede suceder. Como ejemplo
de esta situación el caso de la distribución uniforme.
Otras veces es necesario recurrir a métodos numéricos para determinar este
valor máximo.
Propiedades de los estimadores máximo verosímiles.
La razón por la que este método es útil para la obtención de estimadores es
debido a que los estimadores así obtenidos cumplen una serie de propiedades que los hacen
deseables:
GARCÍA CÓRDOBA
11
TEMA 3 ESTIMACIÓN PUNTUAL
Insesgadez:
Los estimadores máximo verosímiles no tienen porque ser insesgados (aunque si
lo son asintóticamente)
Eficiencia:
Si existe un estimador de mínima varianza, este es el obtenido por el método de
la máxima verosimilitud.
Consistencia:
Los estimadores máximo verosímiles son consistentes
Normalidad:
Los estimadores máximo verosímiles son asintóticamente normales
Suficiencia:
El estimador máximo verosímil no tiene porque ser suficiente, pero si un
parámetro tiene un estimador consistente, el estimador máximo verosímil es función de
éste.
BIBLIOGRAFÍA:
**García Córdoba, Palacios Sánchez, Ruiz Marín: “Probabilidad e Inferencia Estadística: Una
Introducción”. Ed. Horacio Escarabajal.
Durá Peiró: "Fundamentos de Estadística" Ed: Ariel
Escuder, R. "Introducción a la Teoría de la Probabilidad" Ed: tirant to blanch economía.
Evans J.R y Olson D.L. “Statistics, Data análisis and decisión modeling” Prentice Hall.
Fernández Abascal: "Cálculo de Probabilidades y Estadística" Ed: Ariel.
Gutiérrez Jaímez R. y otros.: "Curso Básico de Probabilidad" Ed: Pirámide.
Llopis Perez J. "La estadística: una orquesta hecha instrumento" Ed: Ariel Ciencia.
Martín Pliego F.J. Montero Lorenzo J.M. Riuz-Maya Pérez L. "Problemas de Probabilidad" Ed:
AC.
Martín Pliego, Ruiz Maya: "Estadística: I Probabilidad . II Inferencia Estadística" Ed: AC.
**Newbold P. "Estadística para los Negocios y la Economía" Ed: Prentice Hall
**Novales A., “Estadística y Econometría” Ed: Mc Graw Hill.
Problemas:
Murgui, J.S. "Estadística para la Economía y Administración de Empresas" Ed: Purchades.
Ruiz Maya: "Problemas de Estadística" Ed:AC
Sarabia Alegría J.M. : "Curso Práctico de Estadística" Ed: Cívitas.
Serret Moreno-Gil J.: "Manual de Estadística Universitaria" Ed. ESIC.
Tussel F. Garín A: "Problemas de Probabilidad e Inferencia Estadística" Ed:Tebar Flores.
** Palacios González y otros. “Ejercicios resueltos de inferencia estadística…”. Delta
** Sierra, Miguel Ángel. “Ejercicios resueltos de estadística”. Ed. Ceura
Para saber más o comprobar dudas:
http://thales.cica.es/rd/Recursos/rd99/ed99-0018-04/ed99-0018-04.html
www.uv.es/~mperea/T13_APD.ppt
http://www.ugr.es/~jsalinas/activi/C10.pdf
http://matematicasbachiller.com/temario/estadistica/es%20II/tema_03/indice.html
http://halweb.uc3m.es/esp/Personal/personas/amalonso/esp/e1tema3.pdf
GARCÍA CÓRDOBA
12