Download Tema 2. Probabilidad - Departamento de Estadística e Investigación

Document related concepts
no text concepts found
Transcript
Estadística y metodología de la investigación
Curso 2012-2013
Pedro Faraldo, Beatriz Pateiro
Tema 2. Probabilidad
1. Introducción
1
2. Experimento aleatorio. Sucesos y espacio muestral
2
3. Operaciones con sucesos
3.1. Suceso complementario . . . . . . . . .
3.2. Unión de sucesos . . . . . . . . . . . .
3.3. Intersección de sucesos . . . . . . . . .
3.3.1. Sucesos incompatibles . . . . .
3.4. Suceso diferencia . . . . . . . . . . . .
3.5. Leyes de De Morgan . . . . . . . . . .
3.6. Conjunto exhaustivo. Conjunto completo
.
.
.
.
.
.
.
2
2
3
3
4
4
4
5
4. Asignación de probabilidad
4.1. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Sucesos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
8
5. Resultados importantes
5.1. Teorema de las Probabilidades Totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
9
10
6. Aplicaciones en Ciencias de la Salud
6.1. Frecuencia de una enfermedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. Validez de pruebas diagnósticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
10
10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 Introducción
En este tema estudiaremos los conceptos fundamentales de la Teoría de la Probabilidad, ilustrándolos desde la
perspectiva de la Teoría de Conjuntos. Comenzaremos describiendo datos obtenidos de experimentos aleatorios,
que son aquellos en los que interviene el azar, y analizando los sucesos que pueden surgir, a través de operaciones
básicas como la unión o la intersección.
El principal objetivo de un experimento aleatorio suele ser determinar con qué probabilidad ocurre cada uno de
los sucesos que lo forman. Las leyes de probabilidad que veremos son fundamentales en el campo de ciencias de
la salud, en la evaluación de pruebas diagnósticas. Ya que las pruebas diagnósticas no son infalibles es importante
conocer probabilidad de la presencia o ausencia de una enfermedad en un paciente a partir de los resultados
(positivos o negativos) de pruebas o de los síntomas (presentes o ausentes) que se manifiestan.
Trabajaremos en este capítulo con el siguiente ejemplo, que nos servirá para entender los conceptos y resultados
que presentaremos a lo largo del tema.
1
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
Ejemplo 1: Se considera una familia formada por una madre, un padre y dos hijos y se definen los siguientes
sucesos:
A1 ={la madre tiene la enfermedad E}
A2 ={el padre tiene la enfermedad E}
A3 ={el primer hijo tiene la enfermedad E}
A4 ={el segundo hijo tiene la enfermedad E}
B ={al menos un hijo tiene la enfermedad E}
C ={al menos uno de los padres tiene la enfermedad E}
D ={al menos un miembro de la familia tiene la enfermedad E}
2 Experimento aleatorio. Sucesos y espacio muestral
Debemos distinguir entre experimentos deterministas, en los que existe una relación de causa-efecto, y experimentos
aleatorios.
Experimento aleatorio: es aquel experimento que, repetido sucesivas veces en condiciones idénticas, produce
resultados diferentes e imprevisibles.
Experimento determinista: es aquel experimento que repetido sucesivamente en condiciones idénticas siempre produce los mismos resultados. Un experimento determinista puede volverse aleatorio si se introduce
un error asociado (por ejemplo, un error de medida).
Para el estudio de los experimentos aleatorios, debemos definir el concepto de espacio muestral y de suceso.
Suceso elemental: es cada uno de los posibles resultados de un experimento aleatorio.
Espacio muestral: es el conjunto de todos los sucesos elementales. Se denotará por Ω.
Suceso: es cualquier subconjunto del espacio muestral Ω. En particular, Ω se denomina suceso seguro,
mientras que ∅ (el conjunto vacío) es el suceso imposible.
Al conjunto formado por todos los sucesos asociados a un experimento aleatorio lo denotamos por A.
3 Operaciones con sucesos
A partir de los sucesos elementales de un experimento, se pueden definir otros sucesos derivados a través del
suceso complementario, la unión o la intersección de sucesos.
3.1
Suceso complementario
Sea un suceso A ∈ A. El sucesos complementario de A es el que ocurre cuando no ocurre A y se denota por
A = Ω − A. En la Figura 1, el suceso A está señalado en color verde, mientras que A es el conjunto de rayas.
En el ejemplo, el complementario de A1 se denota por A1 y significa que la madre no tiene la enfermedad E.
Del mismo modo, A2 indica que el padre no tiene la enfermedad E.
Pedro Faraldo, Beatriz Pateiro
Página 2 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
Figura 1: Suceso complementario.
3.2
Unión de sucesos
Consideremos A, B ∈ A dos sucesos. El suceso unión se denota por A ∪ B y es lo que ocurre cuando sucede A
o sucede B.
La unión de sucesos es conmutativa (A ∪ B = B ∪ A). Además, si consideramos ∅, el suceso imposible, tenemos
A ∪ ∅ = A. Además, A ∪ A = Ω. La unión de los sucesos A y B está representada en la Figura 2.
Figura 2: Unión e Intersección de sucesos.
3.3
Intersección de sucesos
Sean A, B ∈ A dos sucesos. El suceso intersección se denota como A ∩ B, y es lo que ocurre cuando sucede A
y también sucede B.
La intersección de sucesos es conmutativa (A ∩ B = B ∩ A). Si consideramos el suceso seguro Ω, tenemos que
A ∩ Ω = A. Además, A ∩ A = ∅. La intersección de A y B la representamos en la Figura 2.
En el ejemplo. ¿qué significa A1 ∪ A2? ¿y qué significa A1 ∩ A2? A1 ∪ A2 es la unión de los sucesos A1 (la
madre tiene la enfermedad E) y A2 (el padre tiene la enfermedad E). Por tanto A1 ∪ A2 es el suceso en que el
padre o la madre (o ambos) padecen la enfermedad E. También se podría enunciar como:
A1 ∪ A2 = {al menos uno de los padres tiene la enfermedad E}
Pedro Faraldo, Beatriz Pateiro
Página 3 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
A1 ∩ A2 es la intersección de A1 con A2 y representa la situación en que los dos sucesos se dan a la vez:
A1 ∩ A2 = {el padre y la madre tienen la enfermedad E}
¿Qué significan A3 ∪ B y A3 ∩ B? En este caso, debemos tener en cuenta que A3 ⊂ B. Es decir, A3 está contenido
en B, ya que el suceso en que el primer hijo tiene la enfermedad E es un caso particular de B: al menos un hijo
tiene la enfermedad E. Por tanto: A3 ∪ B = B y A3 ∩ B = A3.
3.3.1
Sucesos incompatibles
Sean A, B ∈ A dos sucesos. Se dice que son incompatibles si A ∩ B = ∅. Un ejemplo de sucesos incompatibles
se representa en la Figura 3.
En el ejemplo que hemos planteado, ¿son A3 y A4 incompatibles? Sabemos que dos sucesos son incompatibles
cuando su intersección es vacía, o equivalentemente, cuando no pueden darse a la vez. En el caso de los sucesos
A3 y A4, la intersección es posible, dado que puede haber familias donde el primer hijo y el segundo hijo tengan
la enfermedad E.
3.4
Suceso diferencia
Sean A, B ∈ A dos sucesos. El suceso diferencia se define como el que ocurre si sucede A y no sucede B y se
denota por A\B = A ∩ B. En la Figura 3 se representa el suceso diferencia entre A y B. Se puede observar que
el suceso complementario se define como la diferencia Ω\A.
Figura 3: Diferencia de sucesos y sucesos incompatibles.
3.5
Leyes de De Morgan
Las Leyes de De Morgan (Augustus De Morgan, 1806-1871) permiten intercambiar la unión y la intersección a
través del complementario, y serán útiles en el cálculo de probabilidades de sucesos.
1. Primera Ley de De Morgan (Figura 4):
A ∪ B = A ∩ B,
Pedro Faraldo, Beatriz Pateiro
para A, B ∈ A.
Página 4 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
2. Segunda Ley de De Morgan (Figura 5):
A ∩ B = A ∪ B,
para A, B ∈ A.
Figura 4: Primera Ley de De Morgan: complementario de la unión como intersección de complementarios.
Figura 5: Segunda Ley de De Morgan: complementario de la intersección como unión de complementarios.
Sobre el ejemplo, se pueden hacer distintas representaciones de los sucesos, escribiendo unos en función de
otros. Por ejemplo, para expresar C en términos de A1, A2, A3 y A4, el suceso C (al menos uno de los padres
tiene la enfermedad E), podemos escribirlo como C = A1 ∪ A2, como se ha visto en la interpretación de la unión.
Por otro lado, el suceso D (al menos un miembro de la familia tiene la enfermedad E) se puede escribir como
la unión de B (al menos un hijo tiene la enfermedad E) y C (al menos uno de los padres tiene la enfermedad
E): D = B ∪ C . Para el complementario de B tendríamos que, como D = B ∪ C , al igual que en el apartado
anterior, por las leyes de Morgan: D = B ∩ C .
3.6
Conjunto exhaustivo. Conjunto completo
Para la aplicación de los resultados que introduciremos en las siguientes secciones, es importante considerar dos
tipos de conjuntos de sucesos: los conjuntos exhaustivos y, dentro de estos, los conjuntos completos.
Conjunto exhaustivo de sucesos: un conjunto de sucesos {A1 , . . . , An : Ai ∈ A} es un conjunto exhaustivo
de sucesos si ∪ni=1 Ai = Ω, es decir, si su unión cubre el espacio muestral.
Pedro Faraldo, Beatriz Pateiro
Página 5 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
Conjunto completo de sucesos: un conjunto de sucesos {A1 , . . . , An : Ai ∈ A} es completo si es exhaustivo
y además Ai ∩ Aj = ∅, para todo i = j. En la Figura 8, los conjuntos {A1 , A2 , A3 , A4 } son un conjunto
exhaustivo, que además es completo, ya que sus intersecciones son vacías.
4 Asignación de probabilidad
En el estudio de experimentos aleatorios no es sólo importante conocer los posibles resultados sino también saber
con qué probabilidad ocurre cada uno de ellos. Es por ello que, una vez definidos los posibles sucesos se les debe
asignar una probabilidad. En este curso, introduciremos la definición frecuentista y la asignación de Laplace, que
serán las que consideraremos desde el punto de vista práctico.
Probabilidad. Definición de Laplace (método clásico). Supongamos que Ω tiene un número finito de sucesos
y que todos los sucesos ω ∈ Ω tienen la misma probabilidad. La probabilidad del suceso A, que denotaremos
por P(A), se calcula como el cociente entre casos favorables y casos posibles.
Probabilidad. Definición frecuentista. Si repetimos n veces un experimento aleatorio y nA es el número de
veces que ocurre el suceso A, la frecuencia relativa de este suceso se define como f r(A) = nA /n, donde
0 ≤ f r(A) ≤ 1. Al hacer n grande, esta frecuencia se estabiliza, y se define la probabilidad del suceso A
como el límite de las frecuencias.
Además, se verifican las siguientes propiedades:
La probabilidad del vacío es nula: P(∅) = 0
La probabilidad del complementario se obtiene como: P(A) = 1 − P(A)
Para dos sucesos cualesquiera, la probabilidad de la unión es:
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Continuando con el ejemplo, supongamos que en un 10 % de las familias de una determinada población, la
madre tiene la enfermedad E y también en un 10 % de las familias el padre padece dicha enfermedad. El padre
y la madre tienen la enfermedad en un 2 % de las familias.
4.1
Probabilidad condicionada
La probabilidad de un suceso A condicionada a un suceso B es la probilidad de que ocurra A sabiendo que B
sí ha ocurrido. Esta situación se puede ilustrar en experimentos aleatorios que se realizan en dos o más fases:
sabiendo lo sucedido en una de las fases, la probabilidad de los sucesos en la otra fase es una probabilidad
condicionada.
Sean A, B ∈ A dos sucesos con P(B) > 0. Formalmente, se define la probabilidad del suceso A condicionada al
suceso B como:
P(A ∩ B)
P(A|B) =
P(B)
P(A ∩ Ω)
= P(A), ya que P(Ω) = 1.
P(Ω)
En la Figura 6, podemos ver que la probabilidad condicionada va a depender de la intersección entre los sucesos
A y B. Así, en el primer gráfico vemos que la ocurrencia de B no aporta información sobre el suceso A, pero esta
información va en aumento cuanto mayor es la intersección entre ambos sucesos, P(A ∩ B).
Si B = Ω, lo que tendremos es P(A|Ω) =
Pedro Faraldo, Beatriz Pateiro
Página 6 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
Figura 6: Probabilidad condicionada (I).
Sin embargo, en la Figura 7, podemos ver que se hace necesario tener en cuenta también la probabilidad del
suceso que condiciona P(B), ya que aunque la intersección es la misma, en el segundo estamos considerando un
suceso B más probable.
Figura 7: Probabilidad condicionada (II).
Como aplicación de la probabilidad condicionada, podemos calcular cuál es la probabilidad de que el padre
tenga la enfermedad E si la madre la padece.
Observa que el espacio muestral se reduce ahora a las familias donde la madre padece E. Debemos calcular la
Pedro Faraldo, Beatriz Pateiro
Página 7 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
siguiente probabilidad condicionada:
P(A2|A1) =
P(A1 ∩ A2)
0 02
P(A2 ∩ A1)
=
= = 0 2.
P(A1)
P(A1)
01
En un 20 % de las familias donde la madre sufre la enfermedad E, también el padre la sufre.
¿Cuál es la probabilidad de que el padre tenga la enfermedad E si la madre no la tiene? Partimos en este
caso de que la madre no padece la enfermedad E. Debemos calcular la siguiente probabilidad condicionada:
P(A2|A1) =
P(A2 ∩ A1)
,
P(A1)
(1)
donde P(A1) = 1 − P(A1) = 1 − 0 1 = 0 9 y P(A2 ∩ A1) la podemos obtener de:
P(A1|A2) =
P(A1 ∩ A2)
⇒ P(A1 ∩ A2) = P(A1|A2) · P(A2) = 0 8 · 0 1 = 0 08
P(A2)
ya que tenemos
P(A1|A2) = 1 − P(A1|A2) = 1 −
0 02
P(A1 ∩ A2)
= 1 − = 1 − 0 2 = 0 8.
P(A2)
01
Substituyendo en (1), calculamos:
P(A2|A1) =
4.2
0 08
= 0 089.
0 9
Sucesos independientes
Los sucesos A y B son independientes si P(A ∩ B) = P(A)P(B). Esto es equivalente a decir que P(A|B) = P(A),
si P(B) = 0. Además, si A y B son independientes, entonces los siguientes pares también lo son: A y B; A y B;
A y B.
En el ejemplo que hemos planteado, ¿son independientes A1 y A2? Por la definición de independencia, A1 y
A2 son independientes si la probabilidad de su intersección es igual al producto de sus probabilidades. Es decir:
P(A1 ∩ A2) = P(A1) · P(A2). Tenemos la siguiente información:
P(A1) = 0 1,
P(A2) = 0 1,
P(A1 ∩ A2) = 0 02.
En este caso, podemos comprobar que:
P(A1 ∩ A2) = 0 02 = P(A1) · P(A2) = 0 1 · 0 1 = 0 01.
Por tanto, A1 y A2 no son independientes.
Supongamos que la probabilidad de que cada hijo tenga la enfermedad E es 0’2, mientras que en un 10 % de
Pedro Faraldo, Beatriz Pateiro
Página 8 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
las familias ambos hijos tienen la enfermedad E. ¿Cuál es la probabilidad de que en una familia al menos un hijo
tenga la enfermedad E?
La probabilidad de que al menos un hijo tenga la enfermedad E sería:
P(B) = P(A3 ∪ A4) = P(A3) + P(A4) − P(A3 ∩ A4).
Como tenemos las probabilidades: P(A3) = P(A4) = 0 2 y P(A3 ∩ A4) = 0 1 (ambos hijos tienen la enfermedad
E), la probabilidad de que al menos un hijo tenga la enfermedad E sería:
P(B) = 0 2 + 0 2 − 0 1 = 0 3.
Podemos concluir que en un 30 % de las familias, al menos un hijo tiene la enfermedad E.
5 Resultados importantes
5.1
Teorema de las Probabilidades Totales
Si {A1 , . . . , An } es un conjunto completo de sucesos, con P(Ai ) > 0, para todo i = 1, . . . , n y B ∈ A es un
suceso cualquiera, entonces:
n
P(B|Ai )P(Ai )
P(B) =
i=1
Una representación gráfica del resultado podemos verla en la Figura 8, donde podemos ver que el suceso B puede
representarse como unión de cada una de sus intersecciones con los Ai . Como los Ai son disjuntos, la probabilidad
de B puede escribirse como suma de las probabilidades de las intersecciones P(B ∩ Ai ), y como P(Ai ) > 0 la
probabilidad de cada intersección puede obtenerse a partir de la probabilidad condicionada P(B|Ai ).
Figura 8: Teorema de las Probabilidades Totales.
El Teorema de Probabilidades Totales se aplica para conocer la probabilidad de un suceso, cuando tenemos
definido un conjunto completo de sucesos. Sin embargo, puede ocurrir que conozcamos la probabilidad del suceso
B y que nos interese, a partir de ella, obtener información sobre los sucesos que forman el conjunto completo, es
decir, obtener P(Ai |B). Para ello utilizamos el Teorema de Bayes.
Pedro Faraldo, Beatriz Pateiro
Página 9 de 12
Estadística y metodología de la investigación. Grado en Enfermería
5.2
Tema 2
Teorema de Bayes
Si {A1 , . . . , An } es un conjunto completo de sucesos, con P(Ai ) > 0, para todo i = 1, . . . , n y B ∈ A es un
suceso con P(B) > 0, entonces:
P(Aj |B) =
P(B|Aj )P(Aj )
P(Aj ∩ B)
= n
P(B)
i=1 P(B|Ai )P(Ai )
6 Aplicaciones en Ciencias de la Salud
6.1
Frecuencia de una enfermedad
En el ámbito de la Epidemiología, es fundamental medir la frecuencia de una enfermedad y su relación con
los supuestos factores determinantes así como la frecuencia de otros eventos como la curación, la aplicación de
tratamientos, etc. Los conceptos estudiados en este tema se pueden relacionar con dos medidas de frecuencia de
una enfermedad: la prevalencia y la incidencia.
Prevalencia. Se define como el número de casos de una enfermedad en una población y en un momento dado.
Existen dos tipos de prevalencia: prevalencia puntual y prevalencia de período.
Prevalencia puntual: número de individuos que presenta la enfermedad en un momento dado / número total
de individuos de la población en ese momento o edad.
Prevalencia de período: frecuencia (relativa) de una enfermedad, durante el período de tiempo definido.
Es una proporción que expresa la probabilidad de que un individuo sea un caso (es decir, presente la
enfermedad) en cualquier momento de un determinado período de tiempo. Se calcula como: número de
casos identificados durante el período/número total de individuos de la población.
La prevalencia es una proporción (valores entre 0 y 1) y no tiene dimensiones. Se obtiene como aplicación
inmediata de la regla de Laplace que vimos para la asignación de probabilidad (casos favorables: enfermos; casos
posibles: población total).
Incidencia. La incidencia de una enfermedad es la probabilidad de que un individuo que no ha padecido la
enfermedad la desarrolle en un período de tiempo especificado. Se calcula como: número de casos nuevos de la
enfermedad / número de personas en riesgo de desarrollar la enfermedad por el tiempo que cada una de ellas
permanece en riesgo.
La incidencia expresa la fuerza que tiene una efermedad para cambiar el estado de salud de una población
al estado de enfermedad por unidad de tiempo, en relación a la población susceptible en ese momento. Es un
índice dinámico que requiere seguimiento en el tiempo de la población de interés. Al igual que la prevalencia,
es una proporción y no tiene dimensiones. Su valor depende del tiempo de seguimiento y suele calcularse sobre
una cohorte fija (un grupo de individuos, no permitiendo nuevas entradas en la población durante el período de
seguimiento).
6.2
Validez de pruebas diagnósticas
Al realizar pruebas diagnósticas aumenta la probabilidad de diagnosticar a un enfermo, pero también aumenta la
probabilidad de considerar como enfermo a uno sano. Es evidente que una buena prueba diagnóstica es la que
ofrece resultados positivos en enfermos y negativos en sanos. El caso más sencillo que se nos puede plantear es
el de una prueba dicotómica, que clasifica a cada paciente como sano o enfermo en función de que el resultado
de la prueba sea positivo o negativo.
Pedro Faraldo, Beatriz Pateiro
Página 10 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Tema 2
Sensibilidad: Es la probabilidad de clasificar correctamente a un individuo enfermo, es decir, la probabilidad
de que para un sujeto enfermo se obtenga en la prueba un resultado positivo. La sensibilidad es, por lo
tanto, la capacidad del test para detectar la enfermedad.
P(+|E) = Sensibilidad.
Especificidad: Es la probabilidad de clasificar correctamente a un individuo sano, es decir, la probabilidad
de que para un sujeto sano se obtenga un resultado negativo. En otras palabras, se puede definir la
especificidad como la capacidad para detectar a los sanos o capacidad de descartar a un enfermo.
P(−|S) = Especif icidad.
Falsos positivos: Se produce un falso positivo cuando el individuo está sano pero el resultado de la prueba
es positivo. La probabilidad del falso positivo es:
P(+|S) = 1 − Especif icidad.
Falso negativo: Se produce un falso negativo cuando el individuo está enfermo pero la prueba no detecta
la enfermedad. La probabilidad del falso negativo es:
P(−|E) = 1 − Sensibilidad.
La capacidad discriminatoria de una prueba diagnóstica, se puede medir a través de su exactitud o probabilidad
de clasificación correcta:
Exactitud = p · P(+|E) + (1 − p) · P(−|S),
donde p = P(E). El inconveniente de esta medida es que está influencia por el valor de la prevalencia de la
enfermedad p.
Valores predictivos de pruebas diagnósticas. Los conceptos de sensibilidad y especificidad permiten, por lo tanto,
valorar la validez de una prueba diagnóstica. Sin embargo, carecen de utilidad en la práctica clínica. Tanto la
sensibilidad como la especificidad proporcionan información acerca de la probabilidad de obtener un resultado
concreto (positivo o negativo) en función de la verdadera condición del individuo con respecto a la enfermedad.
Sin embargo, cuando a un paciente se le realiza alguna prueba, el médico carece de información a priori acerca
de su verdadero diagnóstico, y más bien la pregunta se plantea en sentido contrario: ante un resultado positivo
(negativo) en la prueba, ¿cuál es la probabilidad de que el paciente esté realmente enfermo (sano)?.
Valor predictivo positivo: Es la probabilidad de padecer la enfermedad si se obtiene un resultado positivo
en el test.
V P+ = P(E|+).
Valor predictivo negativo: Es la probabilidad de que un sujeto con un resultado negativo en la prueba esté
realmente sano.
V P− = P(S|−).
Eficacia: La eficacia de una prueba se define como la suma de sus valores predictivos y mide cómo la
prueba diagnóstica predice el estado de salud/enfermedad:
Ef icacia = V P+ + V P− .
Cuanto más se acerca a 2, mayor es la efectividad.
Pedro Faraldo, Beatriz Pateiro
Página 11 de 12
Estadística y metodología de la investigación. Grado en Enfermería
Resultado prueba
Positivo
Negativo
Tema 2
Diagnóstico verdadero
Enfermo (E)
Sano (S)
Verdaderos positivos (VP)
Falsos positivos (FP)
P(+|E)
P(+|S)
Sensibilidad
Falsos negativos (FN)
Verdaderos negativos (VN)
P(−|E)
P(−|S)
Especificidad
Cuadro 1: Relación entre el resultado de una prueba diagnóstica y la presencia o ausencia de una enfermedad.
Pedro Faraldo, Beatriz Pateiro
Página 12 de 12