Download Estadística

Document related concepts
no text concepts found
Transcript
Estadística
Hasta ahora hemos supuesto que conocemos o
podemos calcular la función/densidad de
probabilidad (distribución) de las variables
aleatorias.
En general, esto no es así. Más bien se tiene una
“muestra experimental” (conjunto de variables
aleatorias) que provienen de una distribución
desconocida.
Uno de los objetivos de la estadística es inferir
información sobre la distribución desconocida a
partir de los datos (muestra) que tenemos.
Estadística
Si hay un ingrediente aleatorio en el experimento
y se mide una variable x, entonces es de esperar
que al repetir N veces el experimento se tengan
resultados.
En general estas N variables aleatorias siguen
una distribución conjunta (=población):
Estadística
Generalmente se considera que las variables
son obtenidas
independientemente de la misma población. De
esta forma:
con
Estadística
Como hemos visto las distribuciones dependen
de parámetros como el valor medio o la varianza,
por mencionar un par de ejemplos.
Supongamos que queremos estimar alguno de
esos parámetros a partir de los datos que
tenemos. Para ello utilizaremos los llamados
estimadores
Estimadores:
a) sesgados
b) no sesgados
Estadística
Como hemos visto las distribuciones dependen
de parámetros como el valor medio o la varianza,
por mencionar un par de ejemplos.
Supongamos que queremos estimar alguno de
esos parámetros a partir de los datos que
tenemos. Para ello utilizaremos los llamados
estimadores
Estimadores:
a) sesgados
b) no sesgados
Estadística
El sesgo se define como la diferencia:
donde a es el valor “verdadero”.
Si b=0 se dice que el estimador es no sesgado.
Un par de ejemplos de estimadores no sesgados:
Estadística
Antes de estudiar los estimadores, necesitamos
del resultado “Ley de los grandes números”:
Sea
una muestra aleatoria de
una distribución con valor medio
y sea
Entonces, cuando
Estadística
Estimador
del valor medio:
Valor medio de la muestra como estimador
del valor medio
de la población
Y la varianza/error del estimador
De modo que
Estadística
Entonces necesitamos un estimador para la
varianza
Sea
y vemos que
Estadística
Pero el valor de
no se conoce!
Entonces se sustituye
por
:
Sin embargo, si utilizamos s2 como estimador de
la varianza, éste es sesgado:
Estadística
Se puede obtener inmediatamente el estimador
no sesgado multiplicando por N/(N-1). De esta
forma el estimador no sesgado para la varianza
viene dado por:
Estadística
Finalmente, el estimador para la desviación
standard viene dado por:
Estadística
Estadística
Estadística
Pruebas de hipótesis estadística
Problema de tomar una decisión (aceptar,
rechazar) basándonos en los datos experimentales
Existen diferentes pruebas: Student t-test,
Neymann-Pearson test, Fisher's F-test.
Aquí el problema que nos interesa es una “prueba
de bondad de un ajuste” (goodness of fit)
Estadística
Información preliminar
Gamma distribution
Sea Y una variable aleatoria dada por
donde
con
sigue una distribución Gaussiana
y
Estadística
Entonces Y sigue una distribución
(caso particular de la distribución Gama) con n
grados de libertad:
con
y
Estadística
Generalización: se puede mostrar que la suma de
variables aleatorias Xi de la forma:
donde Xi sigue una distribución normal
, está dada por una distribución
de libertad:
con n grados
Estadística
Información preliminar:
Cuantil: sea X una variable aleatoria cuya
función de distribución cumulativa es F.
Para cada valor p
valor más pequeño
Así,
orden
p
, se define el
tal que
es el llamado cuantil de X de
Estadística
Nos interesa saber si nuestro modelo teórico
describe correctamente (estadísticamente
hablando) los datos experimentales (puede ser
un experimento numérico).
La hipótesis H0 a verificar (llamada hipótesis nula)
es
H0 : nuestro modelo es correcto, desde un punto
de vista estadístico.
Más que aceptar una hipótesis se habla de ''no
rechazar la hipótesis''
Estadística
Consideramos la hipótesis:
H0: F(x) = F0(x)
donde F0 representa nuestro modelo teórico y F el
resultado observado.
Existen varias pruebas, aquí sólo veremos la
llamada
-test
Esta prueba de bondad considera la suma de las
variables estandarizadas:
donde Ni es el valor observado y fi el valor teórico
Detalles:
Estadística
Sea la hipótesis nula:
Consideremos una muestra de tamaño n de la
variable aleatoria X, dividida en k clases
(exhaustivas y mutuamente excluyentes). Sea
el número de observaciones en la i-ésima clase
Como sabemos
podemos obtener la
probabilidad
de obtener una observación en
la i-ésima clase.
Detalles:
Estadística
Sea la hipótesis nula:
Consideremos una muestra de tamaño n de la
variable aleatoria X, dividida en k clases
(exhaustivas y mutuamente excluyentes). Sea
el número de observaciones en la i-ésima clase
Como sabemos
podemos obtener la
probabilidad
de obtener una observación en
la i-ésima clase.
Estadística
De modo que
Sea
las realizaciones de la i-ésima clase
(i=1,2,...,k), de modo que:
De esta forma la probabilidad de la muestra
“agrupada” está dada por la distribución
multinomial:
Estadística
Tomemos el caso simple: k=2 y consideremos la
variable aleatoria
Para n grande, sabemos que Y se aproxima a una
distribución Gaussiana/Normal.
También sabemos que la suma de variables
aleatorias con distribución Gaussiana sigue una
distribución
(en este caso con n-1 grados de libertad)
Estadística
Consideremos entonces el cuadrado:
Estadística
En general tenemos
Estadística
Regresando a nuestro problema, se puede
mostrar que la variable
sigue una distribución , con k-1 grados de
libertad (en un histograma, k es el número de clases).
Estadística
Ahora fijemos el criterio para no rechazar la
hipótesis. Para ello hacemos uso de la función
cumulativa de la distribución
Estadística
Así, el criterio para no rechazar la hipótesis nula
es comparar el valor de Y con el
cuantil de la distribución .
El valor del quantil
consultarse en tablas.
puede
Estadística
Resumiendo, si se satisface que
Entonces la hipótesis no se puede rechazar (no
hay razones estadísticas para rechazar el
modelo). Se acostumbra a imponer un valor de
significancia de