Download 2007 - Departamento de Cómputo Científico y Estadística

Document related concepts

Estimador wikipedia , lookup

Inferencia bayesiana wikipedia , lookup

Método delta wikipedia , lookup

Estimador insesgado de varianza mínima wikipedia , lookup

Clasificador bayesiano ingenuo wikipedia , lookup

Transcript
UNIVERSIDAD SIMÓN BOLÍVAR
Vicerrectorado Académico
1 .Departamento: CÓMPUTO CIENTÍFICO Y ESTADÍSTICA (CO6512)
2. Asignatura: INFERENCIA ESTADÍSTICA I
3. Código de la asignatura: CO6311
No. de unidades-crédito: 4
No. de horas semanales: Teoría 4
Práctica 0 Laboratorio 0
4. Fecha de entrada en vigencia de este programa: Marzo 2007
5. OBJETIVO GENERAL: El objetivo de este curso es el de presentar los elementos más relevantes
de la Inferencia Estadística siguiendo las dos escuelas principales del pensamiento estadístico: la
escuela frecuentista (clásica) y la escuela Bayesiana, mostrando los paralelos existentes entre los
resultados que se obtienen de ambas metodologías
6. CONTENIDOS:
1. Preliminares: Introducción a la inferencia estadística. Repaso de Probabilidades en el enfoque
clásico. Probabilidad condicional. Teorema de Bayes. Semejanzas y diferencias entre enfoque
Clásico y enfoque Bayesiano. Probabilidad a Priori y Probabilidad a Posteriori. Cálculo de
eventos condicionados. Versión condicional del teorema de Bayes. Duración 1½ semanas.
2. Estimación: Parámetros Poblacionales. Definición de Inferencia Estadística y Estimación de
parámetros. Estimador. Tipos de Estimación: Puntual y por Intervalos. Métodos para
conseguir estimadores puntuales en el enfoque Clásico y Bayesiano. Momentos, Máxima
Verosimilitud, Mínima Varianza. Distribución Previa y a Posteriori. Previas Conjugadas.
Previas no conjugadas. Estimador de Bayes. Función de pérdida. Duración 2½ semanas.
3. Propiedades de un buen estimador: Insesgadez, Suficiencia, Teorema de Factorización de
Fisher-Neyman. Suficiencia Minimal. Cota de Cramer-Rao. Teorema de Lehmann-Scheffé.
Consistencia. Eficiencia. Familia Exponencial. Distribuciones de localización y escala. Casos
uniparamétricos y multiparamétricos. Duración 3 semanas.
6. CONTENIDOS (continuación):
4. Estimación por intervalos de confianza: Métodos de construcción de intervalos de confianza:
Pivotal y general de Neyman. Intervalos de confianza para la media y la varianza, casos
normal y no-normales. Intervalos de credibilidad. Duración 2 semanas.
5. Prueba de Hipótesis: Errores tipo I y II y función de potencia. Región de rechazo. Teorema de
Neyman Pearson. Pruebas de Hipótesis casos normal y no-normales. Regiones de más alta
densidad posterior. Duración 3 semanas.
7. ESTRATEGIAS METODOLÓGICAS, DIDACTICAS O DE DESARROLLO DE
LA ASIGNATURA:
1.
2.
3.
4.
5.
Clases magistrales
Trabajos en grupo
Sesiones de Ejercicios y/o Problemas
Sesiones de discusión, pregunta-respuesta
Simulaciones computarizadas
8. ESTRATEGIAS DE EVALUACIÓN:
1.
2.
3.
4.
Pruebas escritas
Informes de Proyectos
Ejercicios, tareas y/o asignaciones para fuera del aula
Participación activa de los estudiantes en el desarrollo de clases
9. FUENTES DE INFORMACIÓN:
1. Degroot, M. (2002) Probability and Statistics. 3ª ed. Addison Wesley.
2. Mukhopadhyay, Nitis. (2000) Probability and Statistical Inferenc. Marcel Dekker, Inc.
3. Casas Sánchez, José M. Inferencia Estadística. Editorial Universitaria Ramon Areces.
4. Migon, H.S y Gamerman, D. (1998) Statistical Inference: An Integrated Approach. Arnold,
London.
5. Berger, J.O. (1985) Statistical Decision Theory and Bayesian Analysis. Springer-Verlag,
6. Casella, G. y Berger, R.L. (2002) Statistical Inference. 2ª ed. Duxbury Advanced Sciences,
7. Lehman, E.L. & Romano, J.P. (2005) Testing Statistical Hypothesis. 3ª ed. Springer.
8. Lehman, E.L. y Casella, G. (1998) Theory of Point Estimation. 2ª ed. Springer
9. Silvey, S.D. (1975) Statistical Inference. Chapman and Hall.
10. CRONOGRAMA DE ACTIVIDADES:
1. Semana 1: Preliminares: Introducción a la inferencia estadística. Repaso de Probabilidades
en el enfoque clásico. Probabilidad condicional. Teorema de Bayes. Semejanzas y diferencias
entre enfoque Clásico y enfoque Bayesiano. Probabilidad a Priori y Probabilidad a
Posteriori.
2. Semana 2: Probabilidad a Priori y Probabilidad a Posteriori (continuación). Cálculo de
eventos condicionados. Versión condicional del teorema de Bayes. Estimación: Parámetros
Poblacionales. Definición de Inferencia Estadística y Estimación de parámetros. Estimador.
Tipos de Estimación: Puntual y por Intervalos.
3. Semana 3: Métodos para conseguir estimadores puntuales en el enfoque Clásico y
Bayesiano. Momentos, Máxima Verosimilitud, Mínima Varianza.
4. Semana 4: Distribución Previa y a Posteriori. Previas Conjugadas. Previas no conjugadas.
Estimador de Bayes. Función de pérdida. Asignación de Proyecto I.
5. Semana 5: Propiedades de un buen estimador: Insesgadez, Suficiencia, Teorema de
Factorización de Fisher-Neyman. Suficiencia Minimal. Cota de Cramer-Rao.
6. Semana 6: Teorema de Lehmann-Scheffé. Consistencia. Eficiencia. Primer examen parcial.
7. Semana 7: Familia Exponencial. Distribuciones de localización y escala. Casos
uniparamétricos y multiparamétricos. Entrega de Proyecto I.
8. Semana 8: Estimación por intervalos de confianza: Métodos de construcción de intervalos
de confianza: Pivotal y general de Neyman. Intervalos de confianza para la media y la
varianza, caso normal.
9. Semana 9: Intervalos de confianza para la media y la varianza casos no-normales. Intervalos
de credibilidad. Asignación de Proyecto II.
10. Semana 10: Prueba de Hipótesis: Errores tipo I y II y función de potencia. Región de
rechazo. Teorema de Neyman Pearson.
11. Semana 11: Pruebas de Hipótesis caso normal y no-normales. Regiones de más alta
densidad posterior. Segundo examen parcial.
12. Semana 12: Entrega de Proyecto II. Entrega de notas y revisión.