Download Tema 1-probabilidad

Document related concepts
no text concepts found
Transcript
Bioestadı́stica
Probabilidad 1
Probabilidad
Introducción a la probabilidad
La población es el conjunto de elementos en los que se desea investigar la ocurrencia de una caracterı́stica o propiedad.
Son experimentos aleatorios: “Lanzamiento de un dado y apuntar el resultad”. “Número de perros
que visitan el Hospital al dı́a”. “Número de gatos infectados en una granja”.
Por ejemplo analizar la velocidad con la que la moneda cae al suelo no es un experimento aleatorio.
Un suceso aleatorio es cada uno de los posibles resultados de un experimento aleatorio. Que “salga
3” al lanzar un dado, es un suceso aleatorio. Que “salga par” es otro suceso aleatorio.
El Espacio Muestral es el conjunto de todos los sucesos aleatorios.
La probabilidad es una medida de la incertidumbre de un suceso aleatorio.
Ejemplo
Se vacunan 12 perros contra la rabia, y queremos analizar cuántos perros podrı́an tener una reacción
a dicha vacuna.
La población es el conjunto de los 12 perros. El experimento aleatorio el proceso de vacunar a dichos
perros y analizar su reacción. Un suceso aleatorio es “que haya 3 perros con reacción”, otro por ejemplo
es “que no haya ningún perro con reacción”.
El espacio muestral es {0,1,2,3,4,5,6,7,8,9,10,11,12}.
Objetivo: una medida que nos de la posibilidad de que ocurra alguno de estos sucesos.
Definición de probabilidad
“Definición Clásica” En una población con N elementos, queremos analizar los que tienen una caracterı́stica A. Entonces la probabilidad de la caracterı́stica A (o bien, probabilidad de que ocurra A)
es:
casos favorables a A
p(A) =
.
casos posibles en total
“Definición Frecuentista”: La probabilidad de que ocurra A es la frecuencia relativa de los elementos
con la caracterı́stica A.
“Definición Axiomática”: La probabilidad es una medida de la incertidumbre de los sucesos, y tiene
las siguientes propiedades:
1. La probabilidad (frecuencia relativa) de un suceso es un valor entre 0 y 1
0 ≤ p(A) ≤ 1.
2. La probabilidad (frecuencia relativa) del suceso seguro E, que ocurre siempre, es 1
p(E) = 1.
3. Si A y B son caracterı́sticas mutuamente excluyentes (no pueden darse a la vez), la probabilidad
de que ocurra o bien A, o bien B es la probabilidad de la suma de A y B y se verifica (es la unión
de dos sucesos, que llamaremos suma):
p(A + B) = p(A) + p(B).
C. Ferreira
Bioestadı́stica
Probabilidad 2
4. AB representa la intersección de los sucesos A y B (que ocurran a la vez). Si A y B son cualesquiera
(no mutuamente excluyentes), se tiene
p(A + B) = p(A) + p(B) − p(AB).
5. Si AC es la caracterı́stica contraria a A (se dice suceso complementario), se tiene
p(AC ) = 1 − p(A).
Ejemplo
Analizamos el experimento de lanzar un dado. Calculamos algunas probabilidades:
Probabilidad de que salga el número 2: p(2) = 1/6.
Probabilidad de que salga un número par: p(par) = 1/2.
Probabilidad de que salgan 2 ó 3: p(2 + 3) = 1/3.
Probabilidad de que salga un número de 1 a 6: p(1 + 2 + 3 + 4 + 5 + 6) = 1.
Probabilidad que salga el contrario a 4: p(4C ) = 5/6.
Estimación de probabilidades en la práctica
No tiene sentido hablar de probabilidades sin definir previamente la población a la que nos referimos
y los sucesos que vamos a considerar. Estas probabilidades se determinan:
1. Estudiando la frecuencia relativa al repetir el experimento en las mismas condiciones.
2. Encontrando, a partir de la naturaleza del experimento, relaciones que liguen a sus probabilidades
elementales. Como por ejemplo en el caso de equiprobabilidad.
3. Combinando la experimentación con la teorı́a sobre la naturaleza del experimento. Este es el método más frecuente en la práctica, y consiste en la utilización de los modelos de distribución de
probabilidad más importantes.
Ejemplo (equiprobabilidad)
En un hospital se estudian 40 perros con parvovirosis canina. De los cuales 25 presentan anorexia.
¿Cuál es la probabilidad de que un perro presente anorexia? 25/40, un 62.5 % ¿Cuál es la probabilidad
de que un perro no presente anorexia? 1 − 25/40, un 37.5 %.
Definición de variable aleatoria
Una variable aleatoria es una variable matemática (X) cuyos valores son los resultados de un experimento aleatorio, y por tanto vienen determinados por el azar. Los valores que toma una variable aleatoria
son numéricos:
Si el resultado del experimento es numérico, por ejemplo, el peso de un gato, la variable aleatoria
“peso” tomará los valores que coinciden con el experimento (es decir, el peso).
Si el resultado del experimento no es numérico, por ejemplo, lanzar una moneda, entonces se asignan
valores numéricos: 0, si sale cara, y 1, si sale cruz.
El conjunto de todos los valores de una variable aleatoria con sus probabilidades constituye un modelo
de distribución de probabilidad.
Veremos que las variables aleatorias pueden ser discretas, si toman valores discretos (0,1,2,...) y continuas, si toman valores en un intervalo real.
C. Ferreira
Bioestadı́stica
Probabilidad 3
Caracterı́sticas que resumen una variable aleatoria
1. Medidas de centralización.
Media µ o valor esperado de la variable aleatoria, que se obtiene promediando todos los valores con
su probabilidad.
Mediana, M e, que es el valor que divide la probabilidad total en dos partes iguales. Deja el 50 % a
cada lado.
Moda, que es el valor más probable.
2. Medida de dispersión.
La varianza σ 2 , y la desviación tı́pica σ, que miden la dispersión con respecto a la media.
3. Percentiles.
El percentil p de una variable aleatoria es el valor de X que deja el p % por debajo de él (≤) y el
(100 − p) % por encima. La Mediana es el percentil 50. Los cuartiles 1, 2 y 3, son los percentiles 25,
50, 75.
Por ejemplo, el percentil 64 si hablamos de peso, indica que el 64 % de la población tiene un peso
inferior o igual a éste valor, y el 36 % un peso superior.
Variable aleatoria discreta
Una variable aleatoria es discreta cuando toma un conjunto de valores discretos (0,1,2,...). Puede ser
finita o infinita:
- Número de perros infectados en un conjunto de N perros: X = {0, 1, 2, 3, ...N }. Es finita.
- Número de pequeños animales que visitan en un dı́a al hospital: X = {0, 1, 2, 3, 4, ...}. Es infinita.
Función de probabilidad
La función de probabilidad nos da la probabilidad de todos los posibles valores de la variable aleatoria.
Como es una variable discreta, podemos calcular la probabilidad de cada valor puntual posible de la
variable aleatoria. Son probabilidades puntuales o masas.
p(X = xi ).
Nota: La suma de todas las probabilidades tiene que ser 1.
Distribución acumulativa
La función de distribución acumulativa es importante. Nos da la probabilidad de que la variable
aleatoria tome un valor menor o igual que uno dado.
F (x0 ) = P (X ≤ x0 ).
Nota: La distribución acumulativa en el último valor (el mayor). tiene que ser 1
Ejemplo
Analizar la distribución de probabilidad de la variable aleatoria que describe los posibles resultados
obtenidos al lanzar una moneda.
X={resultados de lanzar una moneda}={salir cara, salir cruz}={0,1} Espacio Muestral
Función de probabilidad: p(X = 0) = 1/2, p(X = 1) = 1/2.
Función de distribución acumulativa: F (0) = p(X ≤ 0) = 1/2, F (1) = p(X ≤ 1) = 1.
C. Ferreira
Bioestadı́stica
Probabilidad 4
Distribución Binomial B(n, p)
Condiciones
Realizamos un número finito de ensayos para analizar una propiedad dicotómica (infectado-no
infectado, sano-enfermo,...)
n es el número de ensayos independientes
p es la probabilidad de éxito en cada ensayo
Diremos que X es una variable aleatoria con distribución Binomial B(n, p) si X representa el número
de éxitos en los n ensayos.
Ejemplos: número de infectados, número de piezas defectuosas,...
- Valores que puede tomar la variable X.
Lógicamente, el número de éxitos en n ensayos estará en el conjunto: X = {0, 1, 2, 3, ..., n}.
- Función de probabilidad
La probabilidad de tener m éxitos en n ensayos es:
p(X = m) =
n!
pm (1 − p)n−m .
m!(n − m)!
Nota: La suma de todas las probabilidades tiene que ser 1.
- Distribución acumulativa
La probabilidad de tener hasta m éxitos en n ensayos es:
p(X ≤ m) =
m
∑
k=0
n!
pk (1 − p)n−k = p(0) + p(1) + · · · + p(m).
k!(n − k)!
Nota: La distribución acumulativa en n (probabilidad de tener hasta n éxitos) será 1.
- Caracterı́sticas
La media y desviación para esta variable aleatoria son:
µ = np,
σ=
√
np(1 − p).
Ejemplo
Sabemos que la probabilidad de que un perro muera a causa de cierta vacuna contra la rabia es de
0.02. Si administramos la vacuna a 5 perros, ¿cuál es la probabilidad de que no muera ninguno?, ¿cuál
es la probabilidad de que no mueran más de 2?
Se define la variable X= número de perros que fallecen por la vacuna = B(5, 0.02). Probabilidad de
5! 0
p (1 − 0.02)5 = 0.94 Probabilidad de que no mueran más de 2
que no muera ninguno es p(X = 0) = 0!5!
es p(X ≤ 2) = p(0) + p(1) + p(2) = 0.99.
Distribución de Poisson P(λ)
Condiciones:
Una serie de ocurrencias (eventos) independientes.
λ es el número promedio de ocurrencias por unidad de tiempo o de espacio.
C. Ferreira
Bioestadı́stica
Probabilidad 5
Diremos que X es una variable aleatoria con distribución Poisson P (λ) si X representa el número de
eventos independientes que ocurren de forma constante por unidad de tiempo o espacio.
Ejemplos: número de bacterias en un cultivo, número de visitas al hospital, número de ventas en una
terminal,...
- Valores que puede tomar la variable X
Lógicamente, el número de eventos independientes que ocurren de forma constante por unidad de
tiempo o espacio puede llegar a ser infinito X = {0, 1, 2, 3, 4, ...}.
- Función de probabilidad
La probabilidad de que ocurran m eventos independientes de forma constante en tiempo o espacio
es
λm
p(X = m) = e−λ
.
m!
Nota: La suma de todas las probabilidades tiene que ser 1.
- Distribución acumulativa
La probabilidad de que ocurran hasta m eventos independientes de forma constante en tiempo o
espacio es:
m
∑
λk
p(X ≤ m) =
e−λ
= p(0) + p(1) + · · · + p(m).
k!
k=0
Nota: La distribución acumulativa en ∞ será 1.
- Caracterı́sticas
La media y desviación para esta variable aleatoria son:
µ = σ = λ.
Ejemplo
El promedio de visitas por hora al hospital es de 1.4 ¿Cuál es la probabilidad de no haya ninguna
visita a la hora?, ¿y de que haya más de 2 visitas?
Se define la variable X = número de visitas por hora =P(1.4).
Probabilidad de que no haya ninguna visita:
P (0) = e−1.4
1.40
= 0.25.
0!
Probabilidad de que haya más de dos visitas:
P (X ≤ 2) = p(0) + p(1) + p(2) =
2
∑
k=0
e−1.4
1.4k
= 0.83.
k!
Variable aleatoria continua
Una variable aleatoria es continua cuando puede tomar cualquier valor en un intervalo
El peso de un animal es continua.
El tiempo de duración de un anestésico es continua.
Es importante entender que no es posible conocer el valor exacto de una variable continua, ya que
medir su valor supone leerlo dentro de un intervalo. Ası́ medir una estatura de 1.72cm no es exacto, sino
que observaremos que está en el intervalo (1.71, 1.73). Este principio caracteriza a las variables aleatorias
continuas. Y da lugar a la definición de función de densidad.
C. Ferreira
Bioestadı́stica
Probabilidad 6
Función de densidad
Es una función positiva f (x) ≥ 0, y no nos da la probabilidad, como en el caso discreto, sino un
medio para obtener probabilidades. Las probabilidades se obtienen a través de integrales de la función
de densidad (el área bajo la curva):
∫ x1
p(x0 ≤ X ≤ x1 ) = área bajo la curva densidad entre x0 y x1 =
f (x)dx.
x0
Nota: el área total bajo la curva densidad tiene que ser 1 (es la probabilidad total).
Nota: la probabilidad de un valor puntual será 0 (no hay área)
Función de distribución acumulativa
Nos da la probabilidad de que la variable aleatoria tome un valor menor o igual que uno dado.
∫ x0
F (x0 ) = P (X ≤ x0 ) = área que deja a la izquierda dex0 bajo la curva densidad =
f (x)dx.
−∞
Nota: La distribución acumulativa en el último valor (∞) tiene que ser 1.
Ejemplo
Supongamos f (x) la función de densidad que describe el peso de recién nacidos. La probabilidad de
que el peso esté entre 2.5kg y 3kg nos la da:
∫ 3
p(2.5 ≤ X ≤ 3) = F (3) − F (2.5) =
f (x)dx.
2.5
Y la probabilidad de tener un peso superior a 4kg:
∫
∞
p(X ≥ 4) = 1 − p(X ≤ 4) = 1 − F (4) =
f (x)dx.
4
Distribución Normal N (µ, σ)
El la más importante de las variables aleatorias continuas. No sólo porque representa la mayorı́a de las
distribuciones de variables fı́sicas, sino porque es la piedra angular en la inferencia estadı́stica. Ejemplos:
peso, volumen, tamaño.
- La variable X toma valores en intervalos reales.
- Función de densidad
Ahora no tenemos probabilidades puntuales, sino densidad dada por:
f (x) =
−(x−µ)2
1
√ e 2σ2 .
σ 2π
- Función de distribución
A través de la que calcularemos probabilidades:
∫a
p(X ≤ a)=área bajo la curva densidad a la izda de a= −∞ f (x)dx.
∫b
p(a ≤ X ≤ b)=área bajo la curva densidad entre los puntos a y b= a f (x)dx.
∫∞
p(X ≥ b)=área bajo la curva densidad a la drcha de b= b f (x)dx.
C. Ferreira
Bioestadı́stica
Probabilidad 7
- Caracterı́sticas
La distribución es perfectamente simétrica, centrada en la media µ, que coincide con la mediana
y la moda. Su desviación es µ y tiene puntos de inflexión en µ ± σ. Se verifica que el 95.5 % de la
distribución se encuentra entre µ − 2σ y µ + 2σ. El 99.7 % de la distribución se encuentra entre y
µ − 3σ y µ + 3σ.
- Distribución Normal Estándar Z ∼ N (0, 1)
Es la distribución normal con media 0 y desviación 1. Toda distribución normal puede transformarse
en una estándar, a través de la siguiente transformación:
Z=
X −µ
.
σ
Donde X es una distribución N (µ, σ), y Z es una distribución N (0, 1).
Ejemplo
Supongamos que la talla (cm) de una población de arenques, sigue una distribución normalN (21.5, 6.5).
Expresar la probabilidad de que un individuo de la población sobrepase los 25cm. Y que su talla esté comprendida entre 15 y 30cm. Realizar la transformación también a una normal estándar.
p(X ≥ 25) = 1 − p(X ≤ 25) = F (25) = p(Z ≥ 0.538) = 1 − p(Z ≤ 0.538) = FZ (0.538).
p(15 ≤ X ≤ 30) = F (30) − F (15) = p(−1 ≤ Z ≤ 1.3) = FZ (1.3) − FZ (−1).
Relación entre las distribuciones Normal, Binomial y Poisson
Analicemos tres relaciones interesantes:
1. Binomial-Poisson
Para valores grandes de n y pequeños de la probabilidad p, la distribución binomial B(n, p) se puede
aproximar por una poisson P(λ), de la siguiente forma:
B(n, p) ∼
= P(λ = np).
En la práctica, esta aproximación es buena cuando np > 1 y p < 0.1.
2. Binomial-Normal
Para valores grandes de n y con la probabilidad p no muy cercana a 0 ó a 1, la distribución binomial
B(n, p) se puede aproximar por una normal N (µ, σ) como sigue:
B(n, p) ∼
= N (np,
√
np(1 − p)).
En la práctica, esta aproximación se utiliza para np(1 − p) > 5.
3. Poisson-Normal
Para valores grandes de λ la distribución poisson P(λ) se puede aproximar por una normal N (µ, σ):
√
P(λ) ∼
= N (λ, λ).
En la práctica, la aproximación es buena cuando λ > 5.
C. Ferreira
Bioestadı́stica
Probabilidad 8
Ejemplo
Supongamos que la probabilidad de que una persona desarrolle la gripe a causa de cierta vacuna
contra esta enfermedad es de 0.01. Si administramos esta vacuna a 300 personas, ¿cuál es la probabilidad
de que no desarrollen la enfermedad más de 4 personas?
En este caso la variable que describe el número de personas que desarrollan la enfermedad, es una
distribución binomial B(300, 0.01). Como 300*0.01=3>1 podemos aproximar por una distribución poisson
P(3). Vamos a comparar resultados:
p(X ≤ 4) = p(0) + p(1) + p(2) + p(3) + p(4) =
4
∑
k=0
300!
0.01k (1 − 0.01)300−k = 0.81611.
k!(300 − k)!
p(X ≤ 4) = p(0) + p(1) + p(2) + p(3) + p(4) =
4
∑
k=0
e3
3k
= 0.81526.
k!
Otras distribuciones continuas
Hay una serie de variables aleatorias continuas, que tienen importancia a la hora de hacer inferencia
estadı́stica. Estas, son funciones de distribuciones normales estandarizadas:
Distribución Chi Cuadrado
La distribución chi-cuadrado χ2n con n grados de libertad es la suma de n normales estándar al
cuadrado:
χ2n = Z12 + · · · + Zn2 .
Es una distribución asimétrica con media µ = n, y varianza σ 2 = 2n. Esta distribución es adecuada
en test no paramétricos.
Distribución F de Fisher
La distribución F de Fisher con n y m grados de libertad es el cociente de dos chi-cuadrado:
Fn,m =
χ2n
n
χ2m
m
.
Esta distribución es adecuada para realizar inferencias sobre la varianza.
Distribución t de Student La distribución t de Student con n grados de libertad es el cociente de
una normal estándar y una chi-cuadrado:
Z
tn = √ .
χ2n
n
Esta distribución es adecuada en comparación de medias. Se aproxima a la normal estándar para
valores grandes de n.
C. Ferreira
Bioestadı́stica
Probabilidad 9
Probabilidad condicional
Nuevo espacio de probabilidades
Supongamos que nos interesa analizar la ocurrencia de sucesos, pero bajo la condición de que ocurre
(necesariamente) un suceso dado B, con probabilidad positiva. Definimos un nuevo espacio de probabilidades, en el cuál se consideran únicamente los casos en los que ocurre el suceso B.
Probabilidad de un suceso A condicionada a otro B:
p(AB)
p(A|B) =
p(B)
Las tablas de contingencia, son útiles para el cálculo de probabilidades condicionales. En éstas se
representan las observaciones para caracterı́sticas cruzadas:
se cumple B
no se cumple B
se cumple A
x1
x3
total A
no se cumple A
x2
x4
total no A
total B
total no B
total
De este modo, tenemos las siguientes probabilidades:
total A
p(A) =
,
total
total B
p(B) =
,
total
x1
p(A|B) = total ,
p(B)
x1
p(B|A) = total .
p(A)
Ejemplo
En la elaboración de 1800 jamones, se han utilizado 800 piezas con grasa y 1000 con poca grasa.
Además, de los 1100 jamones con calificación de óptimo, 500 de ellos tienen poca grasa.
óptimo
no óptimo
grasa
600
200
800
no grasa
500
500
1000
1100
700
1800
1. ¿Cuál es la probabilidad de que un jamón esté elaborado con poca grasa?
1000
1800
= 0.5555, 55 %.
2. ¿Cuál es la probabilidad de que un jamón elaborado con grasa sea calificado de óptimo?
75 %.
3. ¿Cuál es la probabilidad de que un jamón sea óptimo y con grasa?
600
1800
600
800
= 0.75,
= 0.333, 33 %.
Independencia de sucesos
Es un concepto muy importante. Dos sucesos van a ser independientes, cuando la ocurrencia de uno
no está ligada en absoluto a la ocurrencia del otro.
Por tanto, A y B serán independientes si la probabilidad condicionada es la misma que sin condicionar:
p(AB)
p(BA)
p(A|B) =
= p(A), p(B|A) =
= p(B)
p(B)
p(A)
De las igualdades anteriores se deduce un cálculo de probabilidad muy importante. Si A y B son
sucesos independientes, entonces
p(AB) = p(A)p(B) = p(BA)
Pero ¡mucho cuidado con esto!, la probabilidad conjunta es el producto de probabilidades si tenemos
la seguridad de que son sucesos independientes.
C. Ferreira
Bioestadı́stica
Probabilidad 10
Ejemplo
Siguiendo con el ejemplo de los jamones anterior, nos preguntamos si son independientes los sucesos
tener calificación de óptimo y tener grasa.
Si son independientes, la probabilidad de tener calificación de óptimo será la misma, sin depender de
la grasa:
p(óptimo|grasa) = 0.75 ̸= 0.61 = p(óptimo)
Luego no son sucesos independientes. Además, comprobamos que no se verifica el resultado teórico anterior:
p(óptimocdotgrasa) = 0.333 ̸= p(óptimo)p(grasa) = 0.27
Teorema de Bayes
Introducción al Teorema de Bayes. Inversión de condiciones
Analizar los sı́ntomas asociados a una enfermedad, es relativamente fácil, si se dispone de los medios
claro. Se trata de hacer un estudio con pacientes con dicha enfermedad y apuntar los sı́ntomas. Si realizamos el estudio un número indefinido de veces, la frecuencia relativa de cada uno de los sı́ntomas es la
probabilidad de cada sı́ntoma asociado a la enfermedad. Es una probabilidad condicionada:
p(sı́ntoma|enfermedad) =
p(sı́ntoma · enfermedad)
p(enfermedad)
O bien, dada una causa, analizamos la probabilidad del efecto que produce:
p(efecto|causa) =
p(efecto · causa)
p(causa)
Sin embargo, nuestra información es el sı́ntoma, y no la causa. La fiebre puede estar causada por más
enfermedades (causas) que la gripe, y es al médico a quién corresponde decidir cuál es la causa más
probable que la origine.
Esta va a ser la idea del teorema de Bayes, “darle la vuelta a la situación”, y por tanto, decidir,
cuando se tiene fiebre, cuál es la probabilidad de que sea debido a gripe, a infección, a un virus,...
La primera aproximación al teorema es la Fórmula de inversión de condiciones. Supongamos conocida
la p(A|B) (que es la p(efecto|causa)). Entonces, la fórmula que invierte condiciones es:
p(B|A) =
p(A|B) · p(B)
p(A)
p(causa|efecto) =
p(efecto|causa)p(causa)
p(efecto)
Lógicamente, aquı́ necesitamos una información “extra”, que es la probabilidad del sı́ntoma, o efecto.
Ejemplo
Tenemos 100 gatos, de los cuales 40 tienen hipertiroidismo felino (HF ). Analizamos en ellos dos
sı́ntomas: “alteración en el pelo” (AP ) que se da en 34 gatos, de los cuáles 24 desarrollan la enfermedad y
“pérdida de peso” (P P ) que la presentan 38 gatos, de los cuales 30 desarrollan la enfermedad. Analicemos
la información:
Directa: dada la enfermedad, ¿cuál es la probabilidad de los sı́ntomas?
p(AP |HF ) =
24
p(AP · HF )
=
= 0.6,
p(HF )
40
p(P P |HF ) =
p(P P · HF )
30
=
= 0.75
p(HF )
40
Inversa: dado el sı́ntoma, ¿cuál es la probabilidad de enfermedad?
p(HF |AP ) =
0.6 · 0.4
p(P P |HF ) · p(HF )
0.75 · 0.4
p(AP |HF ) · p(HF )
=
= 0.71, p(HF |P P ) =
=
= 0.79
p(AP )
34
p(P P )
0.38
C. Ferreira
Bioestadı́stica
Probabilidad 11
Teorema de Bayes
Situación: tenemos un efecto (sı́ntoma). Y reunimos todas las posibles causas (enfermedades) que
pueden originar dicho sı́ntoma. Las causas las suponemos excluyentes, es decir, no pueden ser dos a la
vez. Queremos analizar la probabilidad de que, para ese sı́ntoma, se de una enfermedad determinada.
Información de la que disponemos:
Un sı́ntoma S.
n causas posibles excluyentes: C1 , C2 , . . . , Cn , Ci ∩ Cj = ϕ, i ̸= j.
Conocemos la probabilidad de cada causa: p(Ci ), i = 1, . . . , n.
Las causas llenan el espacio de posibilidades de dicho sı́ntoma:
∑n
i=1
p(Ci ) = 1.
Conocemos también la probabilidad condicionada de que dada una causa se produzca el sı́ntoma:
p(S|Ci ), i = 1, . . . , n.
El Teorema de Bayes, nos da la probabilidad de que, dado el sı́ntoma, la enfermedad sea una determinada:
p(Ck |S) =
p(S|Ck ) · p(Ck )
.
p(S|C1 ) · p(C1 ) + p(S|C2 ) · p(C2 ) + p(S|C3 ) · p(C3 ) + · · · + p(S|Cn ) · p(Cn )
Observemos que el denominador es la probabilidad de que se produzca el sı́ntoma:
p(S|C1 ) · p(C1 ) + p(S|C2 ) · p(C2 ) + p(S|C3 ) · p(C3 ) + · · · + p(S|Cn ) · p(Cn ).
Ejemplo
Los envases de tetrabrick son producidos en grandes bobinas. Una misma bobina contiene varios
rollos con secuencias de envases, y cada rollo recibe una numeración (1 a 5) que permite identificar
en qué posición de la bobina fue producido un determinado envase. Cada rollo procesa el 20 % de los
artı́culos, y la probabilidad de que se produzca un envase defectuoso varı́a según el rollo: del r1 , 0.005,
del r2 , 0.002, del r3 , 0.001, del r4 , 0.002 y del r5 , 0.005. ¿Cuál es la probabilidad de que un envase sea
defectuoso?, si un envase es defectuoso ¿con qué probabilidad pertenece a alguno de los cinco rollos?
Las causas son los rollos: p(ri ) = 0.2, i = 1, . . . , 5
Las probabilidades condicionales, de que sea defectuoso debido a un rollo u otro:
p(defectuoso|r1 ) = p(defectuoso|r5 ) = 0.005,
p(defectuoso|r2 ) = p(defectuoso|r4 ) = 0.002
p(defectuoso|r3 ) = 0.001.
El Teorema de Bayes:
p(rk |defectuoso) =
p(defectuoso|rk ) · p(rk )
p(defectuoso|r1 ) · p(r1 ) + · · · + p(defectuoso|rn ) · p(rn )
Por tanto:
p(r1 |defectuoso) = p(r5 |defectuoso) = 0.33, 33 %
p(r2 |defectuoso) = p(r4 |defectuoso) = 0.13, 13 %
p(r3 |defectuoso) = 0.06, 6 %
C. Ferreira