Download Metodología de la investigación

Document related concepts
no text concepts found
Transcript
Metodología de la investigación
Epidemiología como ilustración
http://www.fisterra.com/mbe/investiga/index.asp
Objetivos
• Introducir la metodología científica desde el
punto de vista estadístico
• Revisar algunos conceptos estadísticos
básicos
• Llevar las ideas metodológicas a nuestros
campos de trabajo habituales
Elementos básicos en el diseño de un estudio
•
La investigación se debe entender como el proceso dedicado a responder a una pregunta. Dicha
respuesta lo que pretender es aclarar la incertidumbre de nuestro conocimiento.
•
Se define como un proceso sistemático, organizado y objetivo destinado a responder a una
pregunta.
"sistemático"
•
–
–
–
•
a partir de la formulación de una hipótesis u objetivo de trabajo
se recogen unos datos según un plan preestablecido
que, una vez analizados e interpretados, modificarán o añadirán nuevos conocimientos a los ya existentes
El método científico
–
–
–
–
de la observación de una realidad,
se elabora una hipótesis explicativa,
se contrastan las hipótesis y
dicha hipótesis se acepta se realizan proposiciones que forman la teoría científica.
•
La definición del objetivo es el eje en torno al cual se construye la
estructura del estudio.
– Si este objetivo no está claramente definido será difícil tomar
decisiones sobre
• el tipo de estudio más apropiado
• la selección de la muestra
• el tamaño muestral,
• las variables a medir y
• el análisis estadístico a realizar.
•
El problema a investigar debe entenderse como la incertidumbre
sobre algún hecho o fenómeno que el investigador desea resolver
realizando mediciones en los sujetos del estudio.
Tipos de estudios epidemiológicos
• Estudios experimentales (ensayos clínicos, ensayos
de campo, ensayos comunitarios)
– se produce una manipulación de una exposición
determinada en un grupo de individuos que se compara con
otro grupo en el que no se intervino, o al que se expone a
otra intervención.
• Cuando el experimento no es posible
– se diseñan estudios no experimentales que simulan de
alguna forma el experimento que no se ha podido realizar
(estudios ecológicos, estudios de prevalencia, estudios de
casos y controles, estudios de cohortes o de seguimiento)
Sesgos
•
•
•
En el sesgo de selección los grupos no son comparables debido a como fueron
seleccionados los pacientes (elección inadecuada del grupo control, elección
inadecuada del espacio muestral, pérdidas de seguimiento y supervivencia
selectiva),
en el sesgo de información los grupos no son comparables debido a como se
obtuvieron los datos (instrumento de medida no adecuado, diagnóstico incorrecto,
omisiones, imprecisiones, vigilancia desigual en expuestos y no expuestos, errores
de clasificación, errores en los cuestionarios o procedimientos…) y
en el sesgo de confusión existe una mezcla de efectos debido a una tercera o más
variables.
–
–
Esta variable está asociada con la exposición a estudio e independientemente de la
exposición es un factor de riesgo para la enfermedad.
La confusión puede ser controlada en el diseño del estudio y en el análisis del mismo con lo
cual nuestro estudio podría ser válido. La presencia de sesgos de selección e información
podrían ser cuantificados en algunas ocasiones pero invalidarían el estudio (8).
•
•
•
•
•
Las dificultades que presentan los médicos para entender el lenguaje y/o
metodología de los estadísticos y epidemiólogos radica fundamentalmente y entre
otras razones en que ambos trabajan en escenarios diferentes.
Los clínicos y los epidemiólogos/estadísticos deben de resolver problemas
diferentes.
El clínico trabaja con un paciente que conoce por nombre y •
apellidos, sabe sus antecedentes y hasta conoce a su
familia,
•
El clínico desea realizar un diagnóstico concreto a un
paciente determinado
•
El clínico quiere concretar la causa de la enfermedad.
•
•
El clínico desea conocer la mejor terapéutica.
•
El clínico desea conocer el pronóstico de un paciente
determinado.
•
los estadísticos estudian a los pacientes de
cien en cien o de mil en mil y siempre le dicen
al clínico que tiene pocos pacientes.
el estadístico le habla de curvas ROC, valores
predictivos, sensibilidad, especificidad....
el estadístico le calcula un OR (odds ratio) un
RR (riesgo relativo), 95% intervalos de
confianza y gradientes biológicos controlando
eso sí por confusión con técnicas de regresión
múltiple.
el estadístico le calcula reducciones relativas
de riesgo, reducciones absolutas y número
necesario de pacientes a tratar para prevenir
un evento.
el estadístico le habla de Kaplan-Meier, de
asunción de riesgos proporcionales y de
regresiones de Cox.
• En las fases de una investigación clinico-epidemiológica la
colaboración del bioestadístico con los profesionales
sanitarios:
– selección de la variable respuesta,
– definición de los criterios de selección de la población de
estudio,
– elección de la técnica de selección de los sujetos,
– cálculo del número de sujetos necesarios,
– selección de las variables que deben ser medidas,
– estimación de la magnitud del efecto o respuesta observada,
– control de factores de confusión e interpretación de los
resultados.
Medidas de frecuencia de enfermedad
•
Proporción: es un cociente en el que el numerador está incluido en el denominador.
–
•
Por ejemplo, si en una población de 25.000 habitantes se diagnostican 1.500 pacientes con
diabetes, la proporción de diabetes en esa población es de 1.500/25.000 = 0.06 (6%). El
valor de una proporción puede variar así de 0 a 1, y suele expresarse como un porcentaje.
Razón(Odds): En este cociente el numerador no forma parte del denominador.
–
–
En el ejemplo anterior, la razón entre la población con diabetes y la población no diabética es
de 1.500/23.500 = 3/47 =0,064. En el ejemplo, la odds de diabetes es de 0,06, es decir, en el
área de estudio por cada 1/0,064 = 16,7 pacientes no diabéticos hay 1 que sí lo es.
El valor de una odds puede ir de 0 a infinito. El valor 0 corresponde al caso en que la
enfermedad nunca ocurre, mientras que el valor infinito correspondería teóricamente a una
enfermedad que esté siempre presente.
•
•
•
Tasa: El concepto de tasa es similar al de una proporción, con la diferencia de que las tasas llevan
incorporado el concepto de tiempo.
El numerador lo constituye la frecuencia absoluta de casos del problema a estudiar. A su vez, el
denominador está constituido por la suma de los períodos individuales de riesgo a los que han
estado expuestos los sujetos susceptibles de la población a estudio.
De su cálculo se desprende la velocidad con que se produce el cambio de una situación clínica a
otra
Prevalencia
•
La prevalencia (P) cuantifica la proporción de individuos de una población que padecen una
enfermedad en un momento o periodo de tiempo determinado. Su cálculo se estima mediante la
expresión:
•
•
•
prevalencia de periodo, calculada como la proporción de personas que han presentado la
enfermedad en algún momento a lo largo de un periodo de tiempo determinado
prevalencia de vida, que trata de estimar la probabilidad de que un individuo desarrolle una
enfermedad en algún momento a lo largo de su existencia.
Incidencia
•
•
•
•
La incidencia se define como el número de casos nuevos de una enfermedad que se desarrollan
en una población durante un período de tiempo determinado.
La incidencia acumulada ( IA) es la proporción de individuos sanos que desarrollan la
enfermedad a lo largo de un período de tiempo concreto. Se calcula según:
La incidencia acumulada proporciona una estimación de la probabilidad o el riesgo de que un
individuo libre de una determinada enfermedad la desarrolle durante un período especificado de
tiempo.
es imprescindible que se acompañe del periodo de observación para poder ser interpretada.
•
La incidencia acumulada asume que la población entera a riesgo al principio del estudio ha sido
seguida durante todo un período de tiempo determinado para observar si se desarrollaba la
enfermedad objeto del estudio. Sin embargo, en la realidad lo que sucede es que:
–
–
–
1. Las personas objeto de la investigación entran en el estudio en diferentes momentos en el tiempo.
2. El seguimiento de dichos sujetos objeto de la investigación no es uniforme ya que de algunos no se
obtiene toda la información.
3. Por otra parte, algunos pacientes abandonan el estudio y sólo proporcionan un seguimiento limitado a un
período corto de tiempo.
•
tasa de incidencia o densidad de incidencia (DI). Se calcula como el cociente entre el número de
casos nuevos de una enfermedad ocurridos durante el periodo de seguimiento y la suma de todos
los tiempos individuales de observación:
•
El total de personas-tiempo de observación (suma de los tiempos individuales de observación) es
la suma de los períodos de tiempo en riesgo de contraer la enfermedad correspondiente a cada
uno de los individuos de la población.
La suma de los períodos de tiempo del denominador se mide preferentemente en años y se
conoce como tiempo en riesgo.
El tiempo en riesgo para cada individuo objeto de estudio es el tiempo durante el cual permanece
en la población de estudio y se encuentra libre de la enfermedad, y por lo tanto en riesgo de
contraerla.
La densidad de incidencia no es por lo tanto una proporción, sino una tasa, ya que el denominador
incorpora la dimensión tiempo. Su valor no puede ser inferior a cero pero no tiene límite superior.
•
•
•
Selección de medidas de incidencia
•
•
La incidencia acumulada se utilizará generalmente cuando la enfermedad tenga un periodo de
latencia corto, recurriéndose a la densidad de incidencia en el caso de enfermedades crónicas y
con un periodo de latencia mayor.
En cualquier caso, debe tenerse en cuenta que la utilización de la densidad de incidencia como
medida de frecuencia de una enfermedad está sujeta a las siguientes condiciones:
–
–
–
•
1. El riesgo de contraer la enfermedad es constante durante todo el periodo de seguimiento. Si esto no se
cumple y, por ejemplo, se estudia una enfermedad con un periodo de incubación muy largo, el periodo de
observación debe dividirse en varios subperiodos.
2. La tasa de incidencia entre los casos que completan o no el seguimiento es similar. En caso contrario se
obtendría un resultado sesgado.
3. El denominador es adecuado a la historia de la enfermedad.
Además, en el cálculo de cualquier medida de incidencia han de tenerse en consideración otros
aspectos.
–
–
no deben incluirse en el denominador casos prevalentes o sujetos que no estén en condiciones de padecer la
enfermedad a estudio. El denominador sólo debe incluir a aquellas personas en riesgo de contraer la
enfermedad.
es importante aclarar, cuando la enfermedad pueda ser recurrente, si el numerador se refiere a casos nuevos
o a episodios de una misma patología.
Prevalencia vs incidencia
•
•
Se asume que las circunstancias de la población son estables, (la incidencia de la enfermedad
haya permanecido constante a lo largo del tiempo, así como su duración), entonces la prevalencia
tampoco variará.
Así, si el número de casos prevalentes no cambia, el número de casos nuevos de la enfermedad
ha de compensar a aquellos individuos que dejan de padecerla:
–
Nº de casos nuevos de la enfermedad = Nº de casos que se curan o fallecen
•
Gente que contrae la enfermedad
•
Enfermos que se curan o fallecen
D es la duración de la enfermedad
Cuando la prevalencia es pequeña
Nociones de probabilidad
•
La probabilidad de ocurrencia de un determinado suceso podría definirse como la proporción de
veces que ocurriría dicho suceso si se repitiese un experimento o una observación en un número
grande de ocasiones bajo condiciones similares.
•
Por definición, entonces, la probabilidad se mide por un número entre cero y uno: si un suceso no
ocurre nunca, su probabilidad asociada es cero, mientras que si ocurriese siempre su probabilidad
sería igual a uno.
•
Así, las probabilidades suelen venir expresadas como decimales, fracciones o porcentajes.
•
Así, a partir de una población con N elementos, de los cuales k presentan una característica A, se
estimará la probabilidad de la característica A como P(A) = k/N.
Propiedades básicas
A y B mutuamente excluyentes
A y B no mutuamente excluyentes
Probabilidades condicionadas
Sucesos independientes
B1, B2,...,Bk mutuamente excluyentes,
Teorema de las Probabilidades Totales
•
•
•
•
Consideremos como ejemplo un caso clínico en el que una gestante se somete a la prueba de
sobrecarga oral con 50 gramos de glucosa para explorar la presencia de diabetes gestacional,
obteniéndose un resultado positivo.
Es sabido que dicho test presenta unos valores aproximados de sensibilidad y especificidad en
torno al 80% y al 87%, respectivamente.
Si se conoce además que la prevalencia de diabetes gestacional en la población de procedencia
es aproximadamente de un 3%, por medio del teorema de Bayes podemos conocer la
probabilidad de que el diagnóstico sea correcto o, equivalentemente, el valor predictivo positivo:
Se puede concluir por lo tanto que, a pesar de obtener un resultado positivo en la prueba,
existe sólo una probabilidad de un 15,9% de que la paciente padezca diabetes gestacional.
Estadística descriptiva de los datos
•
Poblaciones y muestras
•
Cuando se realiza un estudio de investigación, se pretende generalmente inferir o generalizar
resultados de una muestra a una población. Se estudia en particular a un reducido número de
individuos a los que tenemos acceso con la idea de poder generalizar los hallazgos a la población
de la cual esa muestra procede. Este proceso de inferencia se efectúa por medio de métodos
estadísticos basados en la probabilidad.
•
La población representa el conjunto grande de individuos que deseamos estudiar y generalmente
suele ser inaccesible. Es, en definitiva, un colectivo homogéneo que reúne unas características
determinadas.
•
La muestra es el conjunto menor de individuos (subconjunto de la población accesible y limitado
sobre el que realizamos las mediciones o el experimento con la idea de obtener conclusiones
generalizables a la población ).
El individuo es cada uno de los componentes de la población y la muestra.
La muestra debe ser representativa de la población y con ello queremos decir que cualquier
individuo de la población en estudio debe haber tenido la misma probabilidad de ser elegido.
•
•
•
Las razones para estudiar muestras en lugar de poblaciones son diversas y entre ellas podemos
señalar:
–
–
–
–
–
1. Ahorrar tiempo. Estudiar a menos individuos es evidente que lleva menos tiempo.
2. Como consecuencia del punto anterior ahorraremos costes.
3. Estudiar la totalidad de los pacientes o personas con una característica determinada en muchas
ocasiones puede ser una tarea inaccesible o imposible de realizar.
4. Aumentar la calidad del estudio. Al disponer de más tiempo y recursos, las observaciones y mediciones
realizadas a un reducido número de individuos pueden ser más exactas y plurales que si las tuviésemos que
realizar a una población.
5. La selección de muestras específicas nos permitirá reducir la heterogeneidad de una población al indicar
los criterios de inclusión y/o exclusión.
•
Tipos de datos
•
Lo que estudiamos en cada individuo de la muestra son las variables (edad, sexo, peso, talla, tensión arterial
sistólica, etcétera). Los datos son los valores que toma la variable en cada caso. Lo que vamos a realizar es medir,
es decir, asignar valores a las variables incluidas en el estudio. Deberemos además concretar la escala de medida
que aplicaremos a cada variable.
•
1. Variables cuantitativas. Son las variables que pueden medirse, cuantificarse o expresarse numéricamente. Las
variables cuantitativas pueden ser de dos tipos:
–
–
•
Variables cuantitativas continuas, si admiten tomar cualquier valor dentro de un rango numérico determinado (edad, peso,
talla).
Variables cuantitativas discretas, si no admiten todos los valores intermedios en un rango. Suelen tomar solamente
valores enteros (número de hijos, número de partos, número de hermanos, etc).
2. Variables cualitativas. Este tipo de variables representan una cualidad o atributo que clasifica a cada caso en
una de varias categorías.
–
–
Escalas nominales: ésta es una forma de observar o medir en la que los datos se ajustan por categorías que no
mantienen una relación de orden entre sí (color de los ojos, sexo, profesión, presencia o ausencia de un factor de riesgo o
enfermedad, etcétera).
Escalas ordinales: en las escalas utilizadas, existe un cierto orden o jerarquía entre las categorías (grados de disnea,
estadiaje de un tumor, etcétera).
•
Estadística descriptiva
•
Medidas de tendencia central
–
–
–
•
La media
la mediana. Es la observación equidistante de los extremos.
la moda, el valor de la variable que presenta una mayor frecuencia.
Medidas de dispersión
–
–
–
–
la varianza (S2): la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la
distribución.
La desviación típica (S) es la raíz cuadrada de la varianza.
La amplitud es la diferencia entre el valor mayor y el menor de la distribución.
coeficiente de variación (CV). se calcula dividiendo la desviación típica muestral por la media y multiplicando el cociente
por 100.
•
•
Cuando los datos se distribuyen de forma simétrica, se usan para describir esa variable su media y desviación típica.
En el caso de distribuciones asimétricas, la mediana y la amplitud son medidas más adecuadas. En este caso, se
suelen utilizar además los cuartiles y percentiles.
•
El percentil es el valor de la variable que indica el porcentaje de una distribución que es igual o menor a esa cifra.
La distribución normal
Normal standard
•
•
•
•
•
•
1. Tiene una única moda, que coincide con su media y su mediana.
2. La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre y es
teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
3. Es simétrica con respecto a su media . Según esto, para este tipo de variables existe una
probabilidad de un 50% de observar un dato mayor que la media, y un 50% de observar un dato
menor.
4. La distancia entre la línea trazada en la media y el punto de inflexión de la curva es igual a una
desviación típica (). Cuanto mayor sea , más aplanada será la curva de la densidad.
5. El área bajo la curva comprendido entre los valores situados aproximadamente a dos
desviaciones estándar de la media es igual a 0.95. En concreto, existe un 95% de posibilidades
de observar un valor comprendido en el intervalo .
6. La forma de la campana de Gauss depende de
–
–
La media indica la posición de la campana, de modo que para diferentes valores de la gráfica es desplazada
a lo largo del eje horizontal.
la desviación estándar determina el grado de apuntamiento de la curva. Cuanto mayor sea el valor de , más
se dispersarán los datos en torno a la media y la curva será más plana. Un valor pequeño de este parámetro
indica, por tanto, una gran probabilidad de obtener datos cercanos al valor medio de la distribución.
• Intervalos de confianza
• Teorema del límite central: la media
muestral sigue una distribución normal
95% de los valores
medios muestrales
•
Contrastes de Normalidad
•
La verificación de la hipótesis de normalidad resulta esencial para poder aplicar muchos de los
procedimientos estadísticos que habitualmente se manejan.
Si se dispone de una muestra de tamaño n, de una característica X, se define el coeficiente de
asimetría de Fisher como:
•
•
distribución es simétrica (g=0), asimétrica hacia la izquierda (g <0) o hacia la derecha (g >0)
El coeficiente de aplastamiento o curtosis de Fisher, dado por:
permite clasificar una distribución de frecuencias en mesocúrtica (tan aplanada como una normal, (g=0) ),
leptocúrtica (más apuntada que una normal, (g>0)) o platicúrtica (más aplanada que una normal, (g<0) ).
•
•
gráficos de probabilidad normal
La idea básica consiste en enfrentar, en un mismo gráfico, los datos que han sido observados
frente a los datos teóricos que se obtendrían de una distribución gaussiana. Si la distribución de
la variable coincide con la normal, los puntos se concentrarán en torno a una línea recta, aunque
conviene tener en cuenta que siempre tenderá a observarse mayor variabilidad en los extremos
(Figura 4a, datos del peso).
Factores de riesgo
1. Predicción: La presencia de un factor de riesgo significa un riesgo aumentado de presentar en un
futuro una enfermedad, en comparación con personas no expuestas.
2. Causalidad: La presencia de un factor de riesgo no es necesariamente causal. El aumento de
incidencias de una enfermedad entre un grupo expuesto en relación a un grupo no expuesto, se
asume como factor de riesgo, sin embargo esta asociación puede ser debida a una tercera
variable. La presencia de esta o estas terceras variables se conocen como variables de confusión.
Ejemplo: infarto de miocardio, ejercicio, edad.
3. Diagnóstico: La presencia de un factor de riesgo aumenta la probabilidad de que se presente una
enfermedad. Este conocimiento se utiliza en el proceso diagnóstico ya que las pruebas
diagnósticas tienen un valor predictivo positivo más elevado, en pacientes con mayor prevalencia
de enfermedad. El conocimiento de los factores de riesgo se utiliza también para mejorar la
eficiencia de los programas de cribaje, mediante la selección de subgrupos de pacientes con
riesgo aumentado.
4. Prevención: Si un factor de riesgo se conoce asociado con la presencia de una enfermedad, su
eliminación reducirá la probabilidad de su presencia. Este es el objetivo de la prevención primaria.
La cuantificación del grado de riesgo:
•
•
1. Riesgo Absoluto: Mide la incidencia del daño en la población total.
2.Riesgo Relativo: Compara la frecuencia con que ocurre el daño entre los que tienen el factor
de riesgo y los que no lo tienen (Tabla 1).
–
En los estudios de casos y controles, dado que la incidencia es desconocida, el método de estimación del
riesgo relativo es diferente y se estima calculando el Odds ratio.
•
•
3.Fracción Atribuible y Riesgo Atribuible
La Fracción atribuible: Estima la proporción de la enfermedad entre los expuestos que puede ser
atribuible al hecho de estar expuestos. Esta medida la podemos calcular:
–
–
1. en el grupo de expuestos y
2. en la población.
•
La fracción atribuible en el grupo expuesto (fracción etiológica, o porcentaje de riesgo atribuible en
los expuestos), establece el grado de influencia que tiene la exposición en la presencia de
enfermedad entre los expuestos. Su cálculo se realiza:
•
El Riesgo Atribuible en los expuestos se calcula: RAe = Ie – Io
•
Su cálculo esta determinado por la diferencia entre la incidencia de expuestos y no expuestos. La
diferencia entre ambos valores da el valor del riesgo de enfermedad en la cohorte expuesta, que
se debe exclusivamente a la exposición.
•
La Fracción Atribuible en la Población (FAP), muestra la proporción en que el daño podría ser
reducido si los factores de riesgo causales desapareciesen de la población total.
•
•
It = Incidencia en la población total
Io = Incidencia en los no expuestos
•
Si la prevalencia de la exposición en la población es disponible él calculo también se puede
realizar del siguiente modo con esta fórmula alternativa:
•
Pt = Prevalencia de la exposición (o factor de riesgo) en la población.
•
La fracción atribuible en la población total es una medida de asociación influenciada por la
prevalencia del factor de riesgo en la población total.
Intervalos de confianza para la estimación del riesgo.
Cuando calculamos el Riesgo Relativo debemos expresar sí dicho riesgo es diferente de 1. Si al construir el 95%
intervalo de confianza el intervalo no incluye el valor 1 concluimos que el riesgo es estadísticamente significativo
p<0.05. Si el 99% intervalo de confianza no incluye el valor 1, el riesgo relativo es significativo p<0.01.
•
Si el riesgo relativo fuese menor de 1 y su intervalo de confianza también, estaríamos ante la presencia de un factor
de protección.
•
El cálculo de dicho 95% IC para el riesgo relativo se realiza del siguiente modo:
•
(RR) ±exp [1.96 Error Estándar del Ln RR)
•
donde:
•
-RR es la estimación puntual del riesgo relativo
•
-exp es la base del logaritmo natural elevada a la cantidad entre paréntesis
•
•
- a,b,c y d representan los valores numéricos de la tabla de 2 x 2
•
El cálculo del 95% IC para el OR en un estudio de casos y controles seria:
•
donde:
•
*
•
•
•
•
•
•
OR es la estimación puntual del Odds ratio
*
exp es la base del logaritmo natural elevada a la cantidad entre paréntesis.
*
a,b,c y d representan los valores numéricos de la tabla de 2 x 2
El cálculo del intervalo de confianza del riesgo relativo y del odds ratio es fundamental al realizar
el análisis de cualquier estudio. Dicho cálculo nos indica no solo la dirección del efecto, sino la
significancia estadística, si el intervalo no engloba el valor 1 y la precisión del intervalo que está
directamente relacionada con el tamaño muestral del estudio.
Determinación de factores pronósticos
•
La actividad clínica diaria esta fundamentada en tres elementos: el juicio diagnóstico, el pronóstico
y el tratamiento.
•
Estas tres actividades están basadas en estudios probabilísticos.
•
Tras el diagnóstico de una enfermedad se precisa conocer el pronóstico de la misma.
•
La determinación de un pronóstico es estimar las probabilidades de los diversos modos de
evolución; es predecir la evolución de una enfermedad en un paciente determinado.
•
El conocimiento del pronóstico es una variable fundamental ya que en muchos casos decidirá el
tratamiento.
•
Por otra parte las actividades terapéuticas y preventivas pueden modificar él pronostico de una
enfermedad.
•
La historia natural de una enfermedad es la evolución sin intervención médica. El curso clínico
describe la evolución de la enfermedad que se encuentra bajo atención médica.
Diferencia entre riesgo y pronóstico
•
Los factores de riesgo son los que condicionan la probabilidad de presentar una enfermedad determinada. Dichos
factores pueden estar presentes en población sana y aumentan el riesgo de tener la enfermedad. La identificación
de los factores de riesgo son imprescindibles para la prevención primaria.
•
Los factores pronósticos son aquellos que predicen el curso clínico de un padecimiento una vez que la enfermedad
esta presente. La identificación de estos factores son de gran interés para la prevención secundaria y terciaria.
•
Para la estimación del riesgo el suceso final que se busca es la presencia de una enfermedad específica. Para la
estimación del pronóstico la variable final como elemento de interés para estudio puede ser: la muerte, la recurrencia
del proceso, la invalidez, las complicaciones.
•
Existen a su vez marcadores de riesgo que son características de las personas que no son modificables (edad,
sexo, estado socio-económico,…) y que determinan la probabilidad de presentar una enfermedad. Los marcadores
de pronóstico son a su vez características no modificables del sujeto que tienen una probabilidad determinada de
afectar el curso clínico de la enfermedad.
•
Hay factores de riesgo (edad, HTA,...) que cuando aparece la enfermedad (cardiopatía isquémica) a su vez son
factores pronósticos para la presencia o no de muerte por dicha enfermedad (2), Tabla 1.
•
En la práctica clínica diaria es preciso tener un conocimiento del pronostico de un problema determinado para tomar
decisiones respecto a exploraciones continuadas, ingresos hospitalarios, tratamientos específicos, que no
modificando el pronóstico no podrían objetivamente ser justificados. Por otra parte se precisa conocer el curso
clínico de la enfermedad para informar al paciente de su futuro.
Parámetros de interés pronóstico
Los parámetros de interés pronóstico dependen de la enfermedad que se estudie pero los de uso más frecuente son:
•
•
•
•
•
1. Tasa de supervivencia a los cinco años.
Porcentaje de pacientes que sobreviven cinco años a partir de algún momento en el curso de la enfermedad.
2. Tasa de letalidad.
Porcentaje de pacientes con una enfermedad que mueren a causa de ella.
•
•
3. Tasa de respuesta.
Porcentaje de pacientes que muestran alguna señal de mejoría después de una intervención.
•
•
4. Tasa de remisiones.
Porcentaje de pacientes que entran en una fase en la que la enfermedad deja de ser detectable.
•
•
5. Tasa de recurrencia.
Porcentaje de pacientes que vuelven a tener la enfermedad después de un período libre de ella.
Determinación de los factores pronósticos.
•
1. Experiencia personal:
–
Consultar a otro compañero de trabajo.
–
Consultar a un "experto" o especialista en el tema.
•
2. Hacer una revisión de la literatura.
•
3. Realización de estudios:
–
Revisión de casos.
–
Estudios de casos y controles
–
Estudios de cohortes
–
Ensayos clínicos.
Experiencia personal.
•
La experiencia personal, ya sea la de uno mismo o la de un experto, sin duda es muy valorable en todo el proceso
clínico asistencial, sin embargo tiene limitaciones en relación con:
•
1. Sesgos de selección de pacientes: El sesgo de selección viene determinado por la dificultad de haber tenido
contacto con todos los tipos de pacientes de una determinada enfermedad. El lugar de trabajo condiciona la
patología que sé diagnóstica y se trata.
•
2. Sesgos de información: El sesgo de información nos lleva a valorar los factores acompañantes de pacientes
que han presentado un excelente pronóstico o un fatal pronóstico.
•
3. Falta de precisión: La falta de precisión viene determinada por el tamaño muestral de la casuística que si es
reducida puede estar afectada por el azar.
Revisión de la literatura
•
La revisión de la literatura es siempre recomendable. Un artículo aisladamente puede estar
sesgado o limitado en sus conclusiones, es por ello aconsejable revisar la literatura buscando: a)
artículos de revisión b) estudios de metanálisis.
•
Los artículos de revisión discuten la información sobre el tema teniendo en cuenta aspectos
metodológicos, concordancias y divergencias sobre diferentes trabajos que nos permitirán una
información actualizada sobre el tema (9).
•
El metanálisis ha sido definido por Jenicek como "una integración estructurada, con una revisión
cualitativa y cuantitativa de los resultados de diversos estudios independientes acerca de un
mismo tópico". El metanálisis desplazó de la literatura médica a la revisión por un experto.
Realización de estudios
Existen diferentes diseños de investigación para conocer la historia natural y el curso clínico de la
enfermedad:
•
Revisión de casos:
–
Permiten reconstruir retrospectivamente el curso clínico de una enfermedad.
–
En estos estudios los sesgos de selección son muy frecuentes y no es aconsejable utilizarlos para hacer
inferencias sobre el pronóstico.
–
Estos estudios aunque son muy útiles para formular hipótesis, no sirven para evaluar o testar la presencia de
una asociación estadística.
–
La presencia de una asociación puede ser un hecho fortuito. La gran limitación de este tipo de estudios es en
definitiva la ausencia de un grupo control.
•
Estudio de casos y controles:
–
Todos los pacientes en el estudio, tienen la enfermedad de interés.
–
En este tipo de estudios los casos son pacientes que han fallecido en un período determinado de tiempo o
presentaron la complicación de interés o la recurrencia.
–
Los controles son pacientes que no han fallecido o no han tenido el evento de interés.
–
El objetivo del estudio se centra en determinar que variables están asociadas con el hecho de pertenecer a
uno u otro grupo.
–
La estimación del efecto se determina por medio del calculo del odds ratio OR.
•
Estudio de cohortes:
–
Estos estudios describen paso a paso la historia natural o el curso clínico de la enfermedad y calculan el
riesgo relativo debido a un determinado factor pronóstico.
–
Los integrantes de la cohorte de pacientes son todos los individuos afectados por la enfermedad.
–
Tras el seguimiento de la cohorte durante un tiempo, se estudia la supervivencia, la presencia de
complicaciones, la recurrencia.., en relación con diferentes variables de exposición.
–
Este tipo de estudio es el ideal para determinar factores pronósticos.
•
Ensayos clínicos:
–
Este tipo de estudios permiten estudiar las modificaciones del curso clínico de la enfermedad
como respuesta a nuevas intervenciones terapéuticas.
–
Los datos proporcionados por los estudios clínicos se expresan en múltiples ocasiones en
términos de supervivencia.
Este término no queda limitado a los términos de vida o muerte, sino a situaciones en las
que se mide el tiempo que transcurre hasta que sucede el evento de interés, como puede
ser tiempo de recurrencia, tiempo que dura la eficacia de una intervención, tiempo de un
aprendizaje determinado etc.
Por tanto, la supervivencia es una medida de tiempo a una respuesta, fallo, muerte, recaída
o desarrollo de una determinada enfermedad o evento.
–
–
•
La estimación de la supervivencia de una cohorte de pacientes se determina por
técnicas paramétricas (distribución exponencial, Weibul, lognormal) o no
parametricas (Kaplan-Meier, logrank, regresión de Cox). El método Kaplan-Meier
calcula la supervivencia cada vez que un paciente muere (o se produce el evento de
interés).
Errores frecuentes en el estudio del curso clínico
Los errores más frecuentes en los estudios sobre el curso clínico de enfermedades, vienen
determinados por los sesgos (estimaciones equivocadas del riesgo)
•
a) Sesgo de selección: Este tipo de sesgo puede presentarse en cualquiera de los diseños
previamente señalados y es muy frecuente.
–
–
•
Los pacientes que acuden a centros hospitalarios, los candidatos a cirugía, son diferentes de los que no
ingresan o no se operan por razones diferentes.
Por tanto las conclusiones que se deriven del estudio de un grupo de ellos, no son representativas de todos
los pacientes que tengan la enfermedad.
b) Sesgo por perdidas de seguimiento: Las pérdidas de seguimiento son frecuentes e los
estudios de cohortes y ensayos clínicos.
–
–
Si las perdidas son aleatorias y no se asocian con el evento de interés no se produce un sesgo.
Debe ser un objetivo prioritario reducir al mínimo las perdidas con un cuidadoso seguimiento de todos los
pacientes ya que de lo contrario pueden tener un efecto impredecible e invalidar las conclusiones del estudio.
•
c) Sesgo por errores de medición: Se produce una estimación equivocada del riesgo por errores
en la medición, siendo las fuentes más frecuentes de sesgo:
–
–
–
–
–
•
un instrumento no adecuado de medida,
un diagnóstico incorrecto,
omisiones, imprecisiones,
vigilancia desigual en expuestos y no expuestos,
procedimientos de encuesta no validos, encuestadores no entrenados o conocedores de las hipótesis del
estudio.
Este tipo de sesgos pueden reducirse si se tienen en cuenta los siguientes conceptos básicos:
–
–
–
a) los observadores (encargados de la medición o evaluación) deben ser ciegos al tipo de tratamiento que
recibe el enfermo,
b) las mediciones del proceso de interés han de desarrollarse en condiciones similares en ambos grupos con
el mismo instrumento de medida y en los mismos momentos de seguimiento, y
c) los criterios diagnósticos que señalen la presencia del evento de interés deben estar claramente definidos.
Número necesario de pacientes a tratar para reducir un evento
•
NNT: el número de pacientes a tratar de manera experimental a fin de evitar que uno de ellos
desarrolle un resultado negativo.
–
Cuanto más reducido es NNT el efecto de la magnitud del tratamiento es mayor.
Tipos de estudios clínico epidemiológicos
•
•
•
•
Experimentales y No experimentales.
En los estudios experimentales se produce una manipulación de una exposición determinada en
un grupo de individuos que se compara con otro grupo en el que no se intervino, o al que se
expone a otra intervención.
Cuando el experimento no es posible se diseñan estudios no experimentales que simulan de
alguna forma el experimento que no se ha podido realizar.
Si ha existido manipulación pero no aleatorización se habla de estudios Cuasi-experimentales.
ESTUDIOS DESCRIPTIVOS.
•
•
•
•
Estos estudios describen la frecuencia y las características más importantes de un problema de
salud.
administradores sanitarios: identificar los grupos de población más vulnerables y distribuir los
recursos según dichas necesidades
epidemiólogos y los clínicos: primer paso en la investigación de los determinantes de la
enfermedad y la identificación de los factores de riesgo.
Estudios ecológicos:
–
–
–
–
–
Estos estudios no utilizan la información del individuo de una forma aislada sino que utilizan datos agregados
de toda la población.
Describen la enfermedad en la población en relación a variables de interés como puede ser la edad, la
utilización de servicios, el consumo de alimentos, de bebidas alcohólicas, de tabaco, la renta per cápita…
Su gran ventaja reside en que se realizan muy rápidamente, prácticamente sin coste y con información que
suele estar disponible. Datamining
La principal limitación de estos estudios es que no pueden determinar si existe una asociación entre una
exposición y una enfermedad a nivel individual. La falacia ecológica consiste precisamente en obtener
conclusiones inadecuadas a nivel individual basados en datos poblacionales.
Otra gran limitación de los estudios ecológicos es la incapacidad para controlar por variables potencialmente
confusoras. La asociación o correlación que encontremos entre dos variables puede ser debida a una tercera
variable que a su vez esté asociada con la enfermedad y la exposición objeto de estudio.
•
Series de casos:
–
–
–
–
–
Estos estudios describen la experiencia de un paciente o un grupo de pacientes con un diagnóstico similar.
En estos estudios frecuentemente se describe una característica de una enfermedad o de un paciente, que
sirven para generar nuevas hipótesis.
Muchas veces documentan la presencia de nuevas enfermedades o efectos adversos y en este sentido sirven
para mantener una vigilancia epidemiológica.
Estos estudios aunque son muy útiles para formular hipótesis, no sirven para evaluar o testar la presencia de
una asociación estadística.
La presencia de una asociación puede ser un hecho fortuito. La gran limitación de este tipo de estudios es en
definitiva la ausencia de un grupo control.
•
Estudios transversales:
–
–
–
–
•
•
•
•
•
•
Este tipo de estudios denominados también de prevalencia, estudian simultáneamente la exposición y la
enfermedad en una población bien definida en un momento determinado.
Esta medición simultánea no permite conocer la secuencia temporal de los acontecimientos y no es por tanto
posible determinar si la exposición precedió a la enfermedad o viceversa.
Los estudios transversales se utilizan fundamentalmente para conocer la prevalencia de una enfermedad o de
un factor de riesgo.
Esta información es de gran utilidad para valorar el estado de salud de una comunidad y determinar sus
necesidades. Así mismo sirven como todos los estudios descriptivos para formular hipótesis etiológicas.
La realización de este tipo de estudios requiere definir claramente:
1. La población de referencia sobre la que se desea extrapolar los resultados.
2. La población susceptible de ser incluida en nuestra muestra delimitando claramente los que
pueden ser incluidos en dicho estudio.
3. La selección y definición de variables por las que se va a caracterizar el proceso.
4. Las escalas de medida a utilizar.
5. La definición de "caso"
ESTUDIOS ANALÍTICOS.
•
Estudio de casos y controles:
–
–
–
Este tipo de estudio identifica a personas con una enfermedad (u otra variable de interés) que
estudiemos y los compara con un grupo control apropiado que no tenga la enfermedad.
La relación entre uno o varios factores relacionados con la enfermedad se examina comparando la
frecuencia de exposición a éste u otros factores entre los casos y los controles.
tenemos
•
•
•
•
casos expuestos (a),
casos no expuestos (c),
controles expuestos (b) y
controles no expuestos (d).
•
En este estudio la frecuencia de exposición a la causa entre los casos (a/c) se compara con
la frecuencia de exposición en una muestra que represente a los individuos en los que el
efecto no se ha producido y entre los que la frecuencia de exposición es (b/d).
•
Si la frecuencia de exposición a la causa es mayor en el grupo de casos de la enfermedad que en
los controles, podemos decir que hay una asociación entre la causa y el efecto.
•
•
•
la selección de los casos debe:
1. Establecer de forma clara y explícita la definición de la enfermedad y los criterios de inclusión.
2. Los casos deben ser incidentes ya que los casos prevalentes:
•
•
1. Cambian sus hábitos en relación con la exposición.
2. Los casos prevalentes pueden ser los sobrevivientes de casos incidentes y la supervivencia puede estar
relacionada con la exposición.
•
La selección del grupo control debe tener en cuenta:
•
1. La función del grupo control es estimar la proporción de exposición esperada en un grupo que no tiene la
enfermedad.
2. Los controles deben ser representativos de la población de donde provienen los casos. Los casos y los
controles no deben entenderse como dos grupos representativos de dos poblaciones distintas, sino como dos
grupos que proceden de una misma población.
•
•
Los controles deben ser comparables a los casos en el sentido de haber tenido la misma probabilidad de haber
estado expuestos.
•
Estudio de cohortes (o de seguimiento):
–
–
–
•
•
En este tipo de estudio los individuos son identificados en función de la presencia o ausencia de exposición a
un determinado factor.
En este momento todos están libres de la enfermedad de interés y son seguidos durante un período de tiempo
para observar la frecuencia de aparición del fenómeno que nos interesa.
Si al finalizar el período de observación la incidencia de la enfermedad es mayor en el grupo de expuestos,
podremos concluir que existe una asociación estadística entre la exposición a la variable y la incidencia de la
enfermedad.
La cuantificación de esta asociación la podemos calcular construyendo una razón entre la
incidencia del fenómeno en los expuestos a la variable (le) y la incidencia del fenómeno en los no
expuestos (lo). Esta razón entre incidencias se conoce como riesgo relativo y su cálculo se estima
como:
Los estudios de cohortes pueden ser prospectivos y retrospectivos dependiendo de la relación
temporal entre el inicio del estudio y la presencia de la enfermedad.
–
–
En los retrospectivos tanto la exposición como la enfermedad ya han sucedido cuando el estudio se inició.
En los prospectivos la exposición pudo haber ocurrido o no, pero desde luego lo que aún no ha sucedido es la
presencia de la enfermedad. Por tanto se requiere un período de seguimiento en el futuro para determinar la
frecuencia de la misma.
ESTUDIOS EXPERIMENTALES.
•
•
•
•
•
•
En los estudios experimentales el investigador manipula las condiciones de la investigación.
Este tipo de estudios se utilizan para evaluar la eficacia de diferentes terapias, de actividades
preventivas o para la evaluación de actividades de planificación y programación sanitarias.
en los estudios experimentales es el investigador el que decide la exposición.
El gran control que se tiene sobre el diseño facilita la interpretación de las asociaciones como
causales .
Los estudios experimentales pueden ser considerados:
1. Terapéuticos (o prevención secundaria)
–
•
se realizan con pacientes con una enfermedad determinada y determinan la capacidad de un agente o un
procedimiento para disminuir síntomas, para prevenir la recurrencia o para reducir el riesgo de muerte por
dicha enfermedad.
2. Los preventivos (o prevención primaria)
–
evalúan si una agente o procedimiento reduce el riesgo de desarrollar una enfermedad. Por ello los estudios
experimentales preventivos se realizan entre individuos sanos que están a riesgo de desarrollar una
enfermedad. Esta intervención puede ser sobre una base individual o comunitaria a toda una población
determinada.
•
•
•
•
•
•
•
•
•
Ensayo clínico: Es el estudio experimental más frecuente. Los sujetos son pacientes y evalúa uno o más
tratamientos para una enfermedad o proceso. La validez de este estudio radica fundamentalmente en que el proceso
aleatorio haga los grupos comparables en las variables más relevantes en relación al problema a estudiar. El diseño
del estudio debe contemplar básicamente:
1. La ética y justificación del ensayo.
2. La población susceptible de ser estudiada.
3. La selección de los pacientes con su consentimiento a participar.
4. El proceso de aleatorización.
5. La descripción minuciosa de la intervención.
6. El seguimiento exhaustivo que contemple las pérdidas y los no cumplidores.
7. La medición de la variable final.
8. La comparación de los resultados en los grupos de intervención y control.
•
Ensayos de campo: Tratan con sujetos que aún no han adquirido la enfermedad o con aquéllos que estén en
riesgo de adquirirla y estudian factores preventivos de enfermedades como pueden ser la administración de vacunas
o el seguimiento de dietas.
•
Ensayos comunitarios: Incluyen intervenciones sobre bases comunitarias amplias. Este tipo de diseños suelen ser
cuasiexperimentales (existe manipulación pero no aleatorización), en los que una o varias comunidades recibirán la
intervención, mientras que otras servirán como control.
SESGOS. LA PRECISIÓN Y VALIDEZ DE UN ESTUDIO.
•
La carencia de error aleatorio se conoce como precisión y se corresponde con la reducción del error debido al
azar.
–
–
•
La carencia del error sistemático se conoce como validez. Esta validez tiene dos componentes:
–
–
•
Para reducir este error el elemento más importante del que disponemos es incrementar el tamaño de la muestra y con
ello aumentamos la precisión.
Los intervalos de confianza y el error estándar se reducen al aumentar el tamaño muestral.
La validez interna, que es la validez de las inferencias a los sujetos reales del estudio y
la validez externa o generalización en tanto se aplica a individuos que están fuera de la población del estudio. La validez
interna que es la que implica validez de inferencia para los propios sujetos de estudio. Se ve amenazada por varios tipos
de sesgos.
Entendemos por sesgos los errores sistemáticos en un estudio epidemiológico que producen una estimación
incorrecta de asociación entre la exposición y la enfermedad.
–
–
–
1. Los grupos del estudio no son comparables debido a como fueron seleccionados los pacientes (sesgos en la
selección).
2. Los grupos de pacientes del estudio no son comparables debido a como se obtuvieron los datos (sesgos en la
información).
3. Los autores no han recogido información (o la han obtenido pero no la han utilizado) sobre un factor que se relaciona
a la vez con la exposición y con el efecto estudiados (factor de confusión).
SESGO DE SELECCIÓN
•
•
•
•
•
Este sesgo hace referencia a cualquier error que se deriva del proceso de identificación de la población a estudiar.
La distorsión resulta de la forma en que los sujetos han sido seleccionados. Estos sesgos se pueden cometer:
1. Al seleccionar el grupo control.
2. Al seleccionar el espacio muestral donde se realizará el estudio.
3. Por pérdidas en el seguimiento.
4. Por la presencia de una supervivencia selectiva.
•
Los sesgos de selección pueden presentarse también en los estudios de casos y controles, cuando el procedimiento
utilizado para identificar el status de enfermedad (sesgo diagnóstico) varía o se modifica con el status exposición.
Este sesgo se llama "sesgo de detección".
•
Los sesgos de selección son un problema fundamental en los estudios de casos y controles y en los estudios de
cohortes retrospectivos donde la exposición y el resultado final ya han ocurrido en el momento que los individuos
son seleccionados para el estudio.
Los sesgos de selección son poco probables en los estudios de cohortes prospectivos porque la exposición se
determina antes de la presencia de enfermedad de interés.
En los estudios de casos y controles para evitar sesgos de selección, se recomienda al menos teóricamente, ya que
desde el punto de vista práctico es muy costoso, utilizar dos grupos control.
•
•
SESGO DE INFORMACIÓN U OBSERVACIÓN.
•
•
•
•
•
•
•
Este sesgo incluye cualquier error sistemático en la medida de información sobre la exposición a estudiar o los
resultados. Los sesgos de observación o información se derivan de las diferencias sistemáticas en las que los datos
sobre exposición o resultado final, se obtienen de los diferentes grupos. Las fuentes de sesgo de información más
frecuentes son:
1. Instrumento de medida no adecuado.
2. Criterios diagnósticos incorrectos.
3. Omisiones.
4. Imprecisiones en la información.
5. Errores en la clasificación.
6. Errores introducidos por los cuestionarios o las encuestadoras.
•
Los errores de clasificación son una consecuencia directa del sesgo de información. Esta clasificación puede ser
"diferencial" si el error de clasificación es independiente para ambos grupos o "no diferencial" si el error de
clasificación es igual para ambos grupos de estudio, produciéndose una dilución del efecto con una subestimación
del mismo.
•
Los encuestadores pueden introducir errores de clasificación "diferencial" si conocen las hipótesis del estudio y la
condición del entrevistado. Este tipo de problema se puede controlar por medio de:
•
•
•
•
•
1. Desconocimiento del entrevistado.
2. Desconocimiento de las hipótesis de estudio.
3. Utilización de cuestionarios estructurados.
4. Tiempos de ejecución de la entrevista definitiva.
5. Utilización de pocos entrevistadores.
Determinación del tamaño muestral
•
A. Estudios para determinar parámetros
•
Con estos estudios pretendemos hacer inferencias a valores poblacionales (proporciones, medias)
a partir de una muestra.
•
A.1. Estimar una proporción:
Significación estadística
•
•
•
•
•
A pesar de las limitaciones de la estadística, el término "estadísticamente significativo" invade la
literatura médica y se percibe como una etiqueta que indicase "garantía de calidad".
El considerar el término significativo implica utilizar términos comparativos de dos hipótesis.
Los test de hipótesis son test de significación estadística que cuantifican hasta que punto la
variabilidad de la muestra puede ser responsable de los resultados de un estudio en particular.
La Ho (hipótesis nula) representa la afirmación de que no hay asociación entre las dos variables
estudiadas y la Ha (hipótesis alternativa) afirma que hay algún grado de relación o asociación
entre las dos variables.
El mecanismo de los diferentes test se realiza siempre de la siguiente forma:
–
–
–
En primer lugar se mira la magnitud de la diferencia que hay entre los grupos a comparar (A y B).
Si esta magnitud o valor absoluto es mayor que un error estándar definido multiplicado por una seguridad
definida, concluimos que la diferencia es significativa entre A y B.
Por tanto aceptamos la hipótesis alternativa y rechazamos la hipótesis nula.
•
El proceso de aceptación o rechazo de la hipótesis lleva implícito un riesgo que se cuantifica con el valor de la "p",
que es la probabilidad de aceptar la hipótesis alternativa como cierta, cuando la cierta podría ser la hipótesis nula.
•
El valor de "p" que indica que la asociación es estadísticamente significativa ha sido arbitrariamente seleccionado y
por consenso se considera en 0.05. Una seguridad del 95% lleva implícito una p < de 0.05 y una seguridad del 99%
lleva implícita una p < 0.01.
Cuando rechazamos la Ho (hipótesis nula) y aceptamos la Ha (hipótesis alternativa) como probablemente cierta
afirmando que hay una asociación, o que hay diferencia, estamos diciendo en otras palabras que es muy poco
probable que el azar fuese responsable de dicha asociación.
Del mismo modo si la p>0.05 decimos que el azar no puede ser excluido como explicación de dicho hallazgo y no
rechazamos la Ho (hipótesis nula) que afirma que ambas variables no están asociadas o correlacionadas (4).
•
•
•
•
•
•
Cuanto más grande sea la diferencia entre las dos variables, más fácil es demostrar que la diferencia es
significativa. Por el contrario si la diferencia entre ambas variables es pequeña, las posibilidades de detectar
diferencias entre las mismas se dificulta.
Cuanto más grande sea el tamaño muestral más fácil es detectar diferencias.
Pequeñas diferencias se pueden detectar con grandes tamaños muestrales y grandes diferencias entre variables
necesitan muchos menos pacientes o individuos a ser estudiados.
Cualquier diferencia puede ser estadísticamente significativa si se dispone del suficiente número de pacientes.
•
Error de tipo I (a)
•
La probabilidad de rechazar la hipótesis nula cuando en realidad es verdadera (error de tipo I) se le denomina nivel
de significación y es la "p". ( error alfa).
•
La significación estadística es por tanto una condición resultante del rechazo de una hipótesis nula mediante la
aplicación de una prueba estadística de significación. El nivel de significación es el riesgo o la probabilidad que
voluntariamente asume el investigador de equivocarse al rechazar la hipótesis nula, cuando en realidad es cierta.
Este riesgo se establece normalmente en 0.05 ó 0.01.
•
El proceso de poner a prueba una hipótesis involucra una toma de decisiones para rechazar o no la hipótesis nula.
Aunque los valores de la "p" son los de una variable continua, se utiliza para forzar una decisión cualitativa, tomando
partido por una u otra hipótesis. Si p < 0.05 se considera significativo, en cuyo caso se rechaza la hipótesis nula y
no significativo si p> 0.05 en cuyo caso no se rechaza. Una "p" pequeña significa que la probabilidad de que los
resultados obtenidos se deban al azar es pequeña. Los sinónimos de la expresión estadísticamente significativos se
muestran en la Tabla 1.
•
Error de tipo II (b)
•
El error de tipo II consiste en aceptar la hipótesis nula cuando es falsa y esto se conoce como el error de tipo II o
Beta (b ) (falso negativo) (6) (Tabla 2).
•
Recomendaciones para disminuir el error de tipo I:
•
* Disponer de una teoría que guíe la investigación, evitando el "salir de pesca" con el ordenador buscando
asociaciones entre variables.
* Disminuir el número de test estadísticos llevados a cabo en el estudio.
* Depurar la base de datos para evitar errores de valores extremos que puedan producir hallazgos significativos.
* Utilizar valores de alfa más reducidos (0.01 ó 0.001).
* Reproducir el estudio. Si al reproducir el estudio se obtienen resultados similares, estaremos más seguros de no
estar cometiendo el error de tipo I.
•
•
•
•
•
•
•
•
•
•
Recomendaciones para disminuir el error de tipo II:
* Incrementar el tamaño de la muestra.
* Estimar el poder estadístico del estudio.
* Incrementar el tamaño del efecto a detectar.
* Incrementar el valor de alfa.
* Utilizar test paramétricos (más potentes) en lugar de test no paramétricos.
Poder estadístico
•
•
•
•
•
En algunas ocasiones, los resultados de un estudio no son significativos. Se habla entonces de
“estudios negativos”.
No obstante, la ausencia de significación estadística no implica necesariamente que no exista
relación entre el factor de estudio y la respuesta.
Puede ocurrir, que aún existiendo tal asociación o una diferencia clínicamente relevante, el estudio
haya sido incapaz de detectarla como estadísticamente significativa. En estudios de este tipo se
concluirá que no existen diferencias cuando realmente sí las hay. Este error se conoce como error
de tipo II.
La probabilidad de cometer un error de este tipo suele denotarse por β y su complementario, 1β, es lo que se conoce como poder estadístico o potencia estadística.
En definitiva, el poder estadístico representa la probabilidad de rechazar la hipótesis nula cuando
es realmente falsa. Es decir, representa la capacidad de un test para detectar como
estadísticamente significativas diferencias o asociaciones de una magnitud determinada.
•
Factores que influyen en el poder estadístico de un estudio.
•
El tamaño del efecto a detectar, es decir, la magnitud mínima de la diferencia o asociación entre
los grupos que se considera clínicamente relevante.
La variabilidad de la respuesta estudiada. Así, cuanto mayor sea la variabilidad en la respuesta,
más difícil será detectar diferencias entre los grupos que se comparan y menor será el poder
estadístico de la investigación. De ahí que sea recomendable estudiar grupos lo más homogéneos
posibles.
El tamaño de la muestra a estudiar. Cuanto mayor sea el tamaño muestral, mayor será la potencia
estadística de un estudio.
El nivel de significación estadística. Si se disminuye el valor de también se disminuye el poder de
la prueba. Es decir, si disminuimos la probabilidad de cometer un error de tipo I aumentamos
simultáneamente la probabilidad de un error de tipo II, por lo que se trata de encontrar un punto de
“equilibrio” entre ambas.
•
•
•
•
Cálculo del poder estadístico de un estudio.
•
A la hora de diseñar una investigación, es importante determinar si dicho estudio alcanzará una
precisión suficiente. En anteriores trabajos se ha mostrado cómo calcular el tamaño muestral
necesario para alcanzar un determinado poder estadístico en diferentes tipos de diseño.
Generalmente, se suele trabajar con un poder en torno al 80% o al 90%. Con frecuencia, sin
embargo, las condiciones en las que se lleva a cabo una investigación son diferentes de las que
se habían previsto en un principio. En consecuencia, y a la vista de hallazgos no significativos, es
recomendable evaluar de nuevo a posteriori su potencia con el fin de discernir si el estudio carece
del poder necesario para detectar una diferencia relevante o bien si realmente puede no existir tal
diferencia.
•
•
En la Tabla 2 se muestran las fórmulas necesarias para el cálculo del poder estadístico en función
de la naturaleza de la investigación. Estas fórmulas permiten obtener un valor a partir del cual se
puede determinar el poder asociado recurriendo a las tablas de la distribución normal.
Curvas ROC
•
Generalmente, la exactitud diagnóstica se expresa como sensibilidad y especificidad
diagnósticas.
•
Cuando se utiliza una prueba dicotómica (una cuyos resultados se puedan interpretar
directamente como positivos o negativos),
•
la sensibilidad es la probabilidad de clasificar correctamente a un individuo cuyo estado real sea
el definido como positivo respecto a la condición que estudia la prueba, razón por la que también
es denominada fracción de verdaderos positivos (FVP).
•
La especificidad es la probabilidad de clasificar correctamente a un individuo cuyo estado real
sea el definido como negativo. Es igual al resultado de restar a uno la fracción de falsos positivos
(FFP).
•
•
•
•
supongamos que, tanto para la población sana como para la enferma, la variable de decisión que
representa el resultado de la prueba diagnóstica se distribuye normalmente, con media y
desviación típica conocidas.
En la figura 1 se muestran las funciones de densidad de probabilidad para ambas variables, que
mostrarán un determinado nivel de solapamiento.
Si consideramos un valor arbitrario del resultado de la prueba, x –al que, en adelante, aludiremos
como valor de corte–, la FVP (sensibilidad) y la FFP (1-especificidad) se corresponderán
respectivamente con el área a la derecha de ese punto bajo la función de densidad de
probabilidad de la población enferma (áreas clara y oscura) y de la población sana (área oscura).
La curva ROC se obtiene representando, para cada posible elección de valor de corte, la FVP en
ordenadas y la FFP en abscisas (figura 2).
•
•
•
•
Mediante esta representación de los pares (1-especificidad, sensibilidad) obtenidos al considerar
todos los posibles valores de corte de la prueba, la curva ROC nos proporciona una
representación global de la exactitud diagnóstica.
La curva ROC es necesariamente creciente, propiedad que refleja el compromiso existente entre
sensibilidad y especificidad: si se modifica el valor de corte para obtener mayor sensibilidad, sólo
puede hacerse a expensas de disminuir al mismo tiempo la especificidad.
Si la prueba no permitiera discriminar entre grupos, la curva ROC sería la diagonal que une los
vértices inferior izquierdo y superior derecho.
La exactitud de la prueba aumenta a medida que la curva se desplaza desde la diagonal hacia el
vértice superior izquierdo. Si la discriminación fuera perfecta (100% de sensibilidad y 100% de
especificidad) pasaría por dicho punto.
• Cálculo de la curva ROC
•
•
métodos no paramétricos. Se caracterizan por no hacer ninguna suposición sobre la distribución de los resultados de
la prueba diagnóstica.
El más simple de estos métodos es el que suele conocerse como empírico, que consiste simplemente en
representar todos los pares (FFP, FVP) – es decir todos los pares (1-especificidad, sensibilidad) – para todos los
posibles valores de corte que se puedan considerar con la muestra particular de que dispongamos. Desde un punto
de vista técnico, este método sustituye las funciones de distribución teóricas por una estimación no paramétrica de
ellas, a saber, la función de distribución empírica construida a partir de los datos.
•
En la figura 4 se representa la curva ROC obtenida por el método empírico para un conjunto de datos obtenidos en
un grupo de pacientes investigados con el fin de establecer un diagnóstico de anemia ferropénica mediante la
determinación del volumen corpuscular medio (ver apartado a) del apéndice). El verdadero diagnóstico se establece
empleando como gold standard el examen de la médula ósea.
•
•
La representación obtenida por este método tiene forma aproximadamente en escalera.
En la figura 5 se presenta un ejemplo de la aplicación de este método a un conjunto de datos procedente de la
clasificación en cinco categorías de imágenes obtenidas por tomografía computerizada (ver apartado b) del
apéndice).
•
estimaciones no paramétricas suavizadas de las funciones de densidad de las dos distribuciones de resultados de la
prueba empleando generalmente estimadores de tipo núcleo. A partir de dichas densidades se obtiene directamente
la curva ROC que será suave.
•
•
•
•
•
•
Los métodos paramétricos se basan en postular un determinado tipo de distribución para la
variable de decisión en las dos poblaciones que se trata de distinguir.
El modelo más frecuentemente utilizado es el binormal, que supone la normalidad de las variables
tanto en la población sana como en la enferma
El problema ahora se reduce a estimar los parámetros de cada distribución por un método
estadísticamente adecuado, en general el método de máxima verosimilitud.
Se obtiene así una curva ROC suave, pero puede ocurrir una sustancial falta de ajuste si los
supuestos distribucionales resultan ser erróneos.
Por ello, si se va a emplear este método debe previamente someterse la hipótesis sobre la
naturaleza de las distribuciones a un contraste de significación. También es recomendable
emplear una transformación de la variable inicial que logre que los datos sean más compatibles
con las distribuciones asumidas, aunque este juicio sólo pueda basarse en un examen en gran
medida visual y por lo tanto esté expuesto a interpretaciones subjetivas.
Metodo semiparamétrico: primero se agrupan los datos en categorías ordenadas y después se
aplica un algoritmo paramétrico para crear una curva ROC suave.
•
ANÁLISIS ESTADÍSTICO DE LAS CURVAS ROC
•
Área bajo la curva (ABC)
•
Como observamos más arriba, la mayor exactitud diagnóstica de una prueba se traduce en un desplazamiento
"hacia arriba y a la izquierda" de la curva ROC.
la exactitud máxima correspondería a un valor de ABC de 1 y la mínima a uno de 0.5 (si fuera menor de 0.5 debería
invertirse el criterio de positividad de la prueba).
•
•
En términos probabilísticos, si XE y XS son las dos variables aleatorias que representan los valores de la prueba en
las poblaciones enferma y sana, respectivamente, puede probarse que el ABC de la "verdadera" curva ROC
(intuitivamente, aquella que obtendríamos si el tamaño de la muestra fuera infinito y la escala de medida continua)
es precisamente , o, en palabras, la probabilidad de que, si se eligen al azar un paciente enfermo y otro sano, sea
mayor el valor de la prueba en aquél que en éste.
•
Cuando la curva ROC se genera por el método empírico, el área calculada coincide con el valor del estadístico de
suma de rangos de Wilcoxon, W. En general, se suelen dar intervalos de confianza del ABC construidos de la
manera estándar, v. g. al nivel de confianza del 95% intervalos de extremos W ± 1.96*EE(W), siendo EE(W) una
estimación del error estándar de W.
•
Cuando se ajusta un modelo como el binormal empleando técnicas estadísticas se obtienen, además de
estimaciones de los parámetros que definen la curva ROC, estimaciones del ABC y de su error estándar, que
pueden emplearse para construir intervalos de confianza y efectuar contrastes de significación como en el caso no
paramétrico.
•
Área parcial
•
Puede que clínicamente sólo nos interesen los puntos de la curva ROC que aseguren altos valores de sensibilidad o
especificidad. Un caso típico es el de las mamografías en programas de detección precoz del cáncer, donde debe
asegurarse una alta sensibilidad de la prueba. Se han propuesto índices de área parcial que pueden ser empleados
para evaluar la exactitud restringida a los puntos de operación de interés de la curva ROC.
•
Comparación de dos pruebas
•
En principio, al comparar dos pruebas preferiremos la que tenga mayor ABC, por ser la de mayor exactitud
diagnóstica de las dos.
Tambien podemos enunciar este problema como un contraste de la hipótesis nula de igualdad de las dos ABC, que
denotaremos por ABCA y ABCB, frente a una alternativa bilateral. El contraste debido a Hanley y McNeil 15, que
podemos considerar representativo de los desarrollados en esta situación, utiliza como estadístico del contraste
•
•
siendo ABC el área observada, EE el error estándar del ABC y r la correlación entre ABCA y ABCB. Al nivel de
significación a se rechaza la hipótesis nula cuando |z| > za /2, siendo za /2 el cuantil de orden 1-a /2 de una
distribución normal estándar, v. g. si a = 0.05 es za /2 = 1.96.
•
No obstante, hagamos notar que la comparación entre dos pruebas no debe reposar
exclusivamente en contrastes como el anterior. Pueden existir dos pruebas con sendas curvas
ROC muy distintas de forma, hecho que puede tener importantes implicaciones prácticas, y que,
sin embargo, sean prácticamente iguales respecto a su ABC (figura 6).
•
Elección del valor de corte
•
El empleo en la práctica médica de una prueba diagnóstica exige la elección de un valor de corte.
Para ello es imprescindible un conocimiento detallado de los riesgos y beneficios de las decisiones
médicas derivadas del resultado de la prueba. Un enfoque sencillo, que utiliza la razón de costes
de un resultado falso positivo frente a un falso negativo, requiere calcular el coeficiente
•
donde P es la prevalencia de la enfermedad. El valor de corte óptimo se determina hallando el
punto de la curva ROC (que supondremos suave) con la siguiente propiedad: la tangente a la
curva en ese punto tiene pendiente m.
Técnicas de regresión: Regresión Lineal Simple
•
analizar la relación entre dos variables cuantitativas.
•
Los dos objetivos fundamentales de este análisis
–
–
•
determinar si dichas variables están asociadas y en qué sentido se da dicha asociación (es decir, si los
valores de una de las variables tienden a aumentar –o disminuir- al aumentar los valores de la otra); y
estudiar si los valores de una variable pueden ser utilizados para predecir el valor de la otra.
el estudio de la correlación es insuficiente para obtener una respuesta a la segunda cuestión: se
limita a indicar la fuerza de la asociación mediante un único número, tratando las variables de
modo simétrico, mientras que nosotros estaríamos interesados en modelizar dicha relación y usar
una de las variables para explicar la otra.
•
La recta de regresión.
•
Consideremos una variable aleatoria respuesta (o dependiente) Y, que supondremos relacionada
con otra variable (no necesariamente aleatoria) que llamaremos explicativa, predictora o
independiente y que se denotará por X.
A partir de una muestra de n individuos para los que se dispone de los valores de ambas
variables, {(Xi,Yi),i = 1,...n}, se puede visualizar gráficamente la relación existente entre ambas
mediante un gráfico de dispersión, en el que los valores de la variable X se disponen en el eje
horizontal y los de Y en el vertical.
El problema que subyace a la metodología de la regresión lineal simple es el de encontrar una
recta que ajuste a la nube de puntos del diagrama así dibujado, y que pueda ser utilizada para
predecir los valores de Y a partir de los de X.
La ecuación general de la recta de regresión será entonces de la forma: Y = a + bX .
•
•
•
•
El problema radica en encontrar aquella recta que mejor ajuste a los datos. Tradicionalmente se
ha recurrido para ello al método de mínimos cuadrados, que elige como recta de regresión a
aquella que minimiza las distancias verticales de las observaciones a la recta. Más
concretamente, se pretende encontrar a y b tales que:
El modelo subyacente
•
Interpretación de los coeficientes de regresión y la tabla ANOVA.
•
En la ecuación general de la recta de regresión, b es la pendiente de la recta y a el valor de la
variable dependiente Y para el que X = 0.
nos indicará una relación directa entre ellas (a mayor valor de la variable explicativa, el valor
de la variable dependiente Y aumentará),
delatará una relación de tipo inverso,
nos indica que no existe una relación lineal clara entre ambas variables.
•
•
•
•
intervalos de confianza para ambos valores, construidos bajo la hipótesis de normalidad de los
residuos, mediante las expresiones:
denota al cuantil de orden ß de una distribución t de Student con n-2 grados de libertad.
•
De igual forma, podemos limitar esta incertidumbre realizando un test para contrastar la hipótesis
de que b=0 mediante el cociente
•
•
y comparando éste con la distribución t de Student con n-2 grados de libertad.
El hecho de que el test no resulte significativo indicará la ausencia de una relación clara de tipo
lineal entre las variables, aunque pueda existir una asociación que no sea captada a través de una
recta.
•
Generalmente un análisis de regresión suele ser expresado por una tabla de análisis de la
varianza en la que se refleja toda esta información. La proporción de variabilidad explicada por el
modelo coincide aquí con el cuadrado del coeficiente de correlación lineal de Pearson, que recibe
el nombre de coeficiente de determinación, y que se persigue sea próximo a 1.
•
A partir de esta información puede elaborarse un contraste para verificar la utilidad del modelo. En
el caso de regresión lineal simple, el estadístico de contraste se reduce a:
•
que se comparará con el cuantil correspondiente a una distribución F de Snedecor con
parámetros 1 y n-1. El test resultante será equivalente al test t para contrastar H0:b=0.
•
Hipótesis del modelo.
•
Una vez ajustado el modelo, y antes de usarlo para realizar nuevas predicciones, conviene
asegurarse de que no se violan las hipótesis sobre las que se soporta:
–
–
–
–
•
•
independencia de las observaciones muestrales,
normalidad de los valores de la variable dependiente Y para cada valor de la variable explicativa,
homocedasticidad (i.e., la variabilidad de Y es la misma para todos los valores de X) y
relación lineal entre las dos variables.
La información más relevante la aportan los residuos. Así, bajo las suposiciones anteriores, los
residuos habrán de tener una distribución normal de media cero y varianza constante.
El modo más sencillo de comprobar si esto se verifica es obteniendo una impresión visual a partir
de un gráfico de los residuos frente a la variable dependiente Y.
•
Predicción.
•
Cuando se verifican las hipótesis sobre las que se asienta el modelo, la recta de regresión puede
ser utilizada para predecir el valor medio de la variable Y para cada valor concreto de X.
Calculando la esperanza matemática en ambos lados de la ecuación (1) se obtendrá:
•
de modo que la línea de regresión proporciona un estimador del valor medio de Y para cada valor
de X.
Como tal estimador, debemos considerar la incertidumbre asociada a esta recta, que puede ser
reflejada mediante regiones de confianza que contienen a la recta.
•
•
En la Figura 5 se muestra, superpuesta al diagrama de dispersión, la recta de regresión en el
ejemplo de la tensión sistólica que estamos manejando, así como una región de confianza para la
misma, que contendrá a la verdadera relación entre tensión sistólica y edad con una seguridad del
95%.