Download Presentación_Parte 1 - Departamento Académico de Estadística

Document related concepts
no text concepts found
Transcript
Desarrollo e impacto de la
Estadística Bayesiana
Eduardo Gutiérrez Peña
Departamento de Probabilidad y Estadística
Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas
Universidad Nacional Autónoma de México
Día Mundial de la Estadística 2015
23 de octubre de 2015
ITAM
Introducción
La Estadística Bayesiana se basa en la idea intuitiva de que la probabilidad
cuantifica el grado de creencia sobre la ocurrencia de un evento incierto
Esta noción se puede formalizar a través de la teoría de la decisión, la cual
implica, entre otras cosas, que la probabilidad debe interpretarse de manera
subjetiva
La Estadística Bayesiana debe su nombre a su uso sistemático del llamado
teorema de Bayes, un resultado simple de la teoría de la probabilidad pero
con implicaciones muy importantes en las ciencias debido a que permite
acumular de manera natural y coherente la evidencia sobre una hipótesis
El teorema de Bayes apareció por primera vez hace unos 250 años en una
publicación póstuma de Thomas Bayes presentada por Richard Price a la
Royal Society del Reino Unido
El resultado fue redescubierto una década después por Pierre-Simon
Laplace, quien se refería a él como el de la “probabilidad de las causas”
Autores posteriores se han referido a este resultado como el de la
“probabilidad inversa” ya que relaciona causas y efectos de tal manera que,
al entender los efectos, uno puede aprender (en un sentido probabilístico)
sobre las posibles causas
El teorema de Bayes nos dice cómo una persona debe actualizar su estado
de información sobre los eventos de interés o hipótesis (las causas) ante la
presencia de nueva evidencia (las observaciones de los efectos)
Gestación
Como muchas otras cosas, el concepto moderno de azar y su estudio
sistemático comenzaron en el Renacimiento
En 1654, el Chevalier de Meré le plantea a Blaise Pascal el siguiente
problema:
¿Cómo dividir las apuestas en un juego de azar que acaba prematuramente
si uno de los jugadores lleva la ventaja?
Este problema había confundido a los matemáticos desde que un monje
llamado Luca Paccioli lo había planteado 200 años antes
Pascal discutió el problema con Pierre de Fermat, un abogado que también
era un matemático brillante
1713: Jacob Bernoulli describe la
Ley de los Grandes Números
Este resultado se considera el origen de la teoría moderna de la
Probabilidad y es la base del enfoque frecuentista de la Estadística
1730s: Abraham de Moivre descubre la estructura de la
Distribución Normal
(campana de Gauss)
1738: Daniel Bernoulli sienta la bases de la
Teoría de la Decisión
e introduce la idea de aversión al riesgo
1750s: Thomas Bayes estudia el concepto de
Probabilidad Inversa
y demuestra una versión del teorema que lleva su nombre
El trabajo de Bayes conduce a la interpretación subjetiva de la
probabilidad y es la base del enfoque bayesiano de la Estadística
Infancia y Pubertad
Laplace fue el primero en aplicar el teorema de Bayes de
manera sistemática al análisis de datos, principalmente en
astronomía
Hasta ese momento, la teoría de la probabilidad permitía
asignar probabilidades a (y de esta manera predecir) los
efectos dadas las causas
Sin embargo, en las ciencias generalmente es tan o más relevante aprender
sobre las causas habiendo observado los efectos (i.e. inferir las causas)
Durante la primera mitad del Siglo XX, gracias a las contribuciones de
personajes como Frank Ramsey, Bruno de Finetti y Leonard J. Savage, se
realizaron avances importantes que eventualmente permitieron consolidar
el enfoque bayesiano de la estadística y producir, entre otras cosas, una
teoría formal de inferencia estadística a través de la Teoría de la Decisión
Ejemplo de juguete
¿Cómo debe una persona actualizar sus creencias (juicios,
estado de información) ante la presencia de nueva evidencia?
Tenemos:
Dos enfermedades:
E1=“Infección estomacal”, E2=“Apendicitis”
Un síntoma:
S=“Dolor abdominal”
Se sabe que:
Pr(S | E1) = 0.3 y Pr(S | E2) = 0.6
Se piensa que:
Pr(E1) = 0.8
y
Pr(E2) = 0.2
Se recibe a un paciente y se observa que presenta el síntoma S.
¿Cómo cambian nuestros juicios a la luz de esta evidencia?
Se desea calcular:
Pr(E1 | S)
y
Pr(E2 | S)
La respuesta: Teorema de Bayes
Pr(E i | S) =
Pr(Ei )Pr(S | Ei )
Pr(E1)Pr(S | E1) + Pr(E2 )Pr(S | E2 )
En este caso:
Pr(E1 | S) = 0.66
y
Pr(E2 | S) = 0.34
El Teorema de Bayes es la clave del proceso de aprendizaje...
La vida real
En un contexto más general, al analizar datos provenientes de experimentos
científicos, los estadísticos utilizan modelos más sofisticados que involucran
observaciones de variables aleatorias X cuyo comportamiento depende de
parámetros desconocidos θ
Dicha relación se describe a través de una ley de probabilidad p(x | θ ) y
las hipótesis se definen en términos de los valores de θ
Cualquier información que se tenga sobre el valor de θ antes de realizar el
experimento se describe a través de una distribución de probabilidad p(θ)
(llamada distribución inicial o a priori)
El Teorema de Bayes nos permite encontrar la distribución final
(o a posteriori )
p( θ | x) α p(θ) p(x | θ ),
misma que incorpora la evidencia dada por los resultados del experimento
(i.e. las observaciones de X)