Download Diapositiva 1

Document related concepts

Muestra estadística wikipedia , lookup

Parámetro estadístico wikipedia , lookup

Estadísticos de orden wikipedia , lookup

Intervalo de confianza wikipedia , lookup

Distribución uniforme continua wikipedia , lookup

Transcript
INTRODUCCION A LA
EPIDEMIOLOGIA
Dra. Adriana Mimbacas
2009

Qué es la epidemiología?

Propósitos y usos de la epidemiología

Estrategias usadas en epidemiología

Qué es enfermedad?
características variables vs. discretas

Qué son factores de riesgo?

Como podemos acceder a la causalidad
QUE ES EPIDEMIOLOGIA?
Qué significa la palabra?

....ciencia que estudia la distribución y determinantes
de las enfermedades (y/o las características
relacionadas con la salud) en las poblaciones
humanas

Ciencia
.......set de métodos y aproximaciones que son
únicas que forman una disciplina para generar
conocimiento
.......conjunto de conocimientos generados por la
disciplina
QUE ES EPIDEMIOLOGIA?
....ciencia que estudia la distribución y determinantes de
las enfermedades (y/o las características relacionadas con
la salud) en las poblaciones humanas




Distribución: gente, lugar, tiempo
Determinantes: causal vs. factores de riesgo
asociados
Enfermedad: qué entendemos por enfermedad
Población: que es una población?

Conjunto de individuos que comparten características
similares (puede ser amplia: diabéticos o restringida:
nefropatía diabética)
PROPOSITOS (O USOS)-1
Entender la etiología, patogénesis e historia
natural de la enfermedad (tanto con la clínica
como con investigaciones) elucidando las causas
de la enfermedad
Provee información que conduce, con bases
científicas a:
1.
2.



El diagnóstico
Manejo clínico
Prevención de la enfermedad
PROPOSITOS (O USOS)-2
a)
b)
c)
d)
e)
f)
g)
Valorar la magnitud y propósito del problema
Clasificación y diagnóstico
Identificación de factores de riesgo
Identificar cadenas de eventos que conducen a la
enfermedad
Determinar causas
estudios longitudinales
estudios experimentales (de intervención)
Prevención (primaria y secundaria)
Idear y evaluar estrategias de Salud Pública
ESTRATEGIAS DE LA EPIDEMIOLOGIA








Describir ocurrencia (y variaciones) de la enfermedad
(y factores de riesgo) en las poblaciones
- prevalencia e incidencia
Clasificar enfermedades e identificación de sus estados
preclínicos
- estudios longitudinales
Definir criterios diagnósticos
Identificar factores de riesgo
Describir la historia natural de la enfermedad
Inferir causalidad
Determinar si la intervención es posible y efectiva
(estudios experimentales, ensayos clínicos)
Definir estrategias para la prevención (1a., 2ria.)
EJEMPLOS DE CÓMO LA EPIDEMIOLGIA
CONTRIBUYE A LA CLINICA Y A LA SALUD
PUBLICA




Criterios diagnósticos para la diabetes
Identificar diferencias entre los diferentes tipos de
diabetes
Identificar factores de riesgo (ej. obesidad, actividad
física, peso al nacer en T2)
Establecimiento de la importancia de la genética y
estilo de vida como factores en el desarrollo de la
diabetes
QUE ES ENFERMEDAD?





Síndrome clínico discreto
Enfermedad subclínica (no diagnosticada)
Enfermedad asintomática
Como definimos enfermedad?
Como podemos definir criterios diagnósticos?
LA DEFINICION SIEMPRE VA A DEPENDER DE
LO QUE NOSOTROS QUERAMOS ESTUDIAR, LA
VAMOS A DEFINIR CADA UNO
COMO ESTUDIAR?

HERRAMIENTA: ESTADÍSTICA
RUIDOS
SEÑALES
•DISMINUYE RUIDOS
•ENCUENTRA SEÑALES
El método científico

Trabajamos con MUESTRAS, representativas de la
población a la que pertenecen




En estos sistemas (muestras) estudiamos
VARIABLES
A estas variables las DESCRIBIMOS (Cuidado!!!
Describir NO es Definir)
Buscamos ASOCIACIONES entre variables
Finalmente, tratamos de saber si las asociaciones que
hallamos son CAUSALES
Trabajamos con MUESTRAS, representativas de la población a la que pertenecen
MUESTRA 1
POBLACION ?
MUESTRA 2
MUESTRA 3
INFERENCIA ESTADISTICA

Trabajamos con MUESTRAS, representativas de la
población a la que pertenecen
En estos sistemas (muestras) estudiamos VARIABLES
DETERMINISTAS
VARIABLES
ALEATORIAS
DETERMINISTAS:

dependen de la mecánica clásica
ej: tiempo que demora un lápiz en caer
ALEATORIAS:
 asumen valores con cierta probabilidad (se
pone en juego el azar)
Ej.: luz apagada, movimiento de estudiantes
El estudiante a mi derecha es F o M?
Probabilidad
¿Cuál es la probabilidad de sacar un tres tirando
una única vez un dado?
Probabilidad
¿Cuál es la probabilidad de sacar un tres tirando
una única vez un dado?
Casos “favorables” = 1
Casos “posibles”= 6
Probabilidad = 1/6 = 0.166 ó 16.6%
PROBABILIDAD
CASOS FAVORABLES
CASOS POSIBLES
Ej: cuál es la prob. de obtener un 3 tirando un dado: 1 en 6
Casos favorables = 1
Casos posibles = 6
 la probabilidad oscila entre 0 y 1
Siendo 0 la probabilidad imposible y 1 la probabilidad de suceso cierto
No sirve si el dado está “cargado”= en ciencia mal muestreo

El problema surge cuando no tenemos un
número limitado de eventos
 por esta razón siempre vamos a obtener una
frecuencia relativa
 Depende del número de observaciones que
haga
Tiro 1 moneda 10 veces: obtengo 6 caras



La frecuencia relativa será 6/10 = 60%
No puedo llegar al 55% en 10 tiradas (no hay
media tirada)
1
0.5
0
1 2 3
n
A medida que aumenta el n oscila y se acerca a 0.5
Probabilidad de un suceso = al límite de la
frecuencia relativa cuando n tiende a infinito
p = lim FR
n ∞
Teoría frecuentista de la probabilidad



Es la probabilidad puntual de un suceso en el
cual el n debe ser infinito
Pero, la mayoría de las veces no lo
necesitamos o es imposible por lo que
trabajamos con rangos
Pero... Al trabajar con rangos debemos tener en
cuenta que hay un cierto margen de error
POR ESO..


La estadística nos ayuda a evitar
errores aleatorios pero no
sistemáticos
Los errores sistemáticos solo se
relacionan con el “pensar”
Variables aleatorias

Cualitativas



Nominales
Ordinales
Cuantitativas


Continuas
Discretas
Variables aleatorias
cualitativas
CONTINUAS: cuando entre dos
valores puede haber otro
• Ej: altura
DISCRETAS: no cualquier valor
tiene lógica
•Ej: número de hijos
Otra forma de clasificación de las
variables...


Nominales: no existe ordenamiento jerárquico, sexo,
estado civil, raza
Ordinales: hay ordenamiento jerárquico,



severidad: nula, leve, moderada, severa
Interválicas (distancias iguales entre sus valores pero
“cero” arbitrario): inteligencia (escala CI)
Proporcionales (cero “relevante”): peso, glucemia
Variables aleatorias
Siempre una variable cuantitativa puede ser
convertida en una cualitativa.
Para ello debemos determinar un “punto de
corte”  Arbitrariedad

Variables dependientes: Como su palabra lo
dice, son características de la realidad que se
ven determinadas o que dependen del valor
que asuman otros fenómenos o variables
independientes.

Variables independientes: Los cambios en los
valores de este tipo de variables determinan
cambios en los valores de otra (variable
dependiente).
Ejemplo: años de educación y salario, suponemos que
al aumentar los años de educación correlativamente
aumentan los salarios de las personas, de modo que
“años de educación” es la variable independiente o
explicativa, ya que ella me está explicando en cierta
medida el cambio en el “salario” de las personas, el
cual sería la variable dependiente.
Descripción de variables aleatorias



Describir una variable es dar de ella una medida
Variables cualitativas
 Proporción
Variables cuantitativas
 Medidas de Posición
 Media
 Mediana
 Modo
 Medidas de Dispersión
 Rango
 Varianza
 Desvío Estándar
Variables cualitativas
Proporción
Proporción
a / a + no a
7% de diabéticos
= 7 / 7 + 93 = 0.07
≠
razón
a/b
Nº de autos / nº de habitantes
Mujeres/hombres
La proporción oscila entre 0 y 1, la razón puede ser un
valor cualquiera.
El descriptor de una variable es la proporción
PREVALENCIA

Número de individuos que existen en
determinado momento
Momento del estudio
tiempo
Ej: estudio de Prevalencia en Diabetes: 8/100 (Ferrero y García, 2004)
INCIDENCIA


Nuevos casos que aparecen en un determinado
tiempo.
Ej.: cuantos nuevos individuos fueron
diagnosticados como diabéticos en el año 2006
La incidencia es bastante difícil de medir si se hace por
un periodo de muchos años por lo cual se utiliza la
densidad de incidencia
Densidad de Incidencia
X
X
1997
1998
1999
2000
2001
Densidad de Incidencia
X
X
1997
1998
Dos eventos
1999
Cinco personas
2000
2001
Densidad de Incidencia
X
X
1997
1998
Dos eventos
1999
2000
Cinco personas
2 eventos / 11 persona-años
2001
DESCRIBIR VARIABLES
Variables cuantitativas
Medidas de Posición
 Media
 Mediana
 Modo
 Medidas de Dispersión
 Rango
 Varianza
 Desvío Estándar

MEDIA
ES EL VALOR CENTRAL DE UN
CONJUNTO DE OBSERVACIONES
MUESTRALES
X = X1 + X2 + X3 + ....XN / N
X=ΣX/N
Ejemplo






Notas de estudiantes en 2 muestras diferentes
Muestra 1: 5, 5, 5, 5, 5, 5
Muestra 2: 1, 9, 1, 9, 1, 9 (mejores notas en materias con razonamiento)
Qué media presentan ambas muestras?
Es suficiente para describir la variable?
Señal o ruido?
Qué muestra elijo?

Depende de lo que se pretenda

Si deseo que realice una lectura diaria y
resumen, que muestra elijo?

Si quiero que piense aunque a veces se
equivoque?
MEDIANA
Consideramos una variable discreta X
cuyas observaciones en una tabla
estadística han sido ordenadas de
menor a mayor.
Llamaremos mediana, Med al primer valor
de la variable que deja por debajo de sí al
50% de las observaciones
Si n es el número de observaciones, la
mediana corresponderá a la observación
[n/2]+1
si n es impar --> Med será la observación central
de los valores, una vez que estos han sido
ordenados en orden creciente o decreciente.
si n es par --> Med será el promedio aritmético de
las dos observaciones centrales



En una distribución asimétrica la
mediana es diferente de la media.
En el caso de la mediana, los
extremos “no tironean”
Ej: si graficamos
Nº de
personas/total
Ingreso anual U$S
4, 5, 6, 7, 8000
Media = 1604
Mediana = 6
El ingreso promedio es alto pero la
proporción de la gente que gana eso es
muy poca

La Mediana es una definición topográfica,
divide a la muestra en la mitad por lo cual no
tiene una fórmula matemática para su
resolución (se necesita una encuesta).
altura
50 %
mediana
50 %
Cuartiles: la mitad de la mediana
25 %
25 %
mediana 25%
25 %
Quintiles: si se divide cada 20%
Tercilos: 33%
Percentilo: cada 1%
CUANTILOS
CUARTIL INF. = PERCENTIL 25
MEDIANA = PERCENTIL 50
CUARTIL SUP. = PERCENTIL 75
MODO
Es la variación que más veces se repite,
Es aquel valor cuya frecuencia absoluta es
mayor.
No tiene porque ser única.
El número de días necesarios por 10 equipos de trabajadores
para terminar 10 instalaciones de iguales características han
sido: 21, 32, 15, 59, 60, 61, 64, 60, 71, y 80 días.
Calcular la media, mediana, moda
15, 21, 32, 59, 60, 60,61, 64, 71, 80.
el número de observaciones es par
los dos valores que se encuentran
en el medio son 60 y 60. Si
realizamos el cálculo de la media
de estos dos valores nos dará a su
vez 60, que es el valor de la
mediana.
La moda: el valor de la variable que presenta una mayor frecuencia es 60
ASIMETRIA

Estas 2 poblaciones tienen igual media
pero claramente se distribuyen en forma
diferente
DESCRIBIR VARIABLES
Variables cuantitativas


Medidas de Posición
 Media
 Mediana
 Modo
Medidas de Dispersión
 Rango
 Varianza
 Desvío Estándar
RANGO

Es la diferencia entre el dato mayor menos el dato
menor de un conjunto de datos.

Su obtención es sumamente sencilla, sin embargo
se considera que no es una medida muy
significativa, su aplicación es más útil en la
llamada estadística no paramétrica.



Existen casos en que se observaba que las muestras
tienen diferente dispersión, aunque su media y
mediana son iguales, por lo que una forma de marcar
su diferencia es a través del rango.
muestra A (0, 45, 50, 55, 100), el dato menor es 0 y
el dato mayor es 100, por lo que sus valores se
encuentran en un rango de:
 Rango = 100 – 0 =100
Muestra B (47, 49.5, 50, 51.5, 52), el dato menor es
47 y el dato mayor es igual a 52 por lo que su rango
correspondiente es igual a: Rango = 52 – 47= 5
DESVENTAJA = no es muy preciso
Seleccionar los test estadísticos apropiados
lo “Simple” a veces es lo mejor
Desenlace (Outcome Variable)
Predictor
Variable
Dicotomica
(Tratamiento A
vs B)
Dicotomica
Continua
(muerte o
(HbA1c)
vida)
Chi-square
t test
test
Use tables for t
test
Use tables for
chi-square
test
VARIANZA
ES EL GRADO EN QUE LOS VALORES
DE LA DISTRIBUCION SE APARTAN
DE LA MEDIA
Σ (XI – X)2
S2 =
N -1
Análisis de varianza ANOVA,




es una colección de modelos estadísticos y sus
procedimientos asociados.
Sirve para comparar si los valores de un conjunto de
datos numéricos son significativamente distintos a los
valores de otro o más conjuntos de datos.
El procedimiento para comparar estos valores está
basado en la varianza global observada en los grupos
de datos numéricos a comparar.
Típicamente, el análisis de varianza se utiliza para
asociar una probabilidad a la conclusión que la media
de un grupo de puntuaciones es distinta de la media
de otro grupo de puntuaciones.





El ANOVA parte de algunos supuestos que han
de cumplirse:
La variable dependiente debe medirse al
menos a nivel de intervalo.
Independencia de las observaciones.
La distribución de la variable dependiente debe
ser normal.
Homocedasticidad: homogeneidad de las
varianzas


Del mismo modo que el contraste χ2 generalizaba el
contraste de dos proporciones, es necesario definir un
nuevo contraste de hipótesis que sea aplicable en
aquellas situaciones en las que el número de medias
se quieren comparar sea superior a dos.
Es por ello por lo que el Análisis de la Varianza,
ANOVA surge como una generalización del contraste
para dos medias de la t de Student, cuando el número
de muestras a contrastar es mayor que dos.
DESVIO ESTANDAR
DETERMINA LA VARIABILIDAD QUE
EXISTE ENTRE LAS POBLACIONES
ANALIZADAS
S = √ Σ (XI – X)2 / N -1
DISTRIBUCION NORMAL



aproximadamente las 2/3 partes de las
mediciones (68%) estén dentro de una
desviación estándar en más o en menos del
promedio (X ± 1DS),
95% dentro de 2 desvíos,
99% dentro de 3 desvíos.
1S
1S
X
1S
68 %
2S
2S
95 %
3S
3S
99%
Ejemplo: En una muestra de una población el
promedio de la altura es de 1.56 cm; la desviación
estándar de la muestra es 6 cm.
1 ds (68%): 1.56 ± 6 = entre 1.50 y 1.62
2 ds (95%): 1.56 ± (2 x 6) = entre 1.44 y 1.68
3 ds(99%): 1.56 ± (3 x 6) = entre 1.38 y 1.74
Descripción e inferencia (I)
Descripta la variable en nuestra muestra,
¿nos interesa conocer algo sobre la población a la
que pertenece?
¿Por qué?
DATOS
ESTIMADORES
Son los valores que se computan a partir de los datos de
la muestra (se simbolizan con letras del alfabeto
castellano)

PARAMETROS
Son los datos de la población de la cual se ha tomado la
muestra (se simbolizan con letras del alfabeto griego)

POBLACION: conjunto de todos los casos
MUESTRA: parte representativa de la pobl.
m
s2
s
p
X
S2
S
p
PARAMETROS
ESTIMADORES
Descripción e inferencia (II)
¿Podemos conocer el valor de un PARAMETRO
a partir de un ESTIMADOR?
NO PODEMOS CONOCER SU VALOR PUNTUAL,
pero sí un intervalo numérico donde tenemos cierta
Probabilidad de hallarlo...
Concepto de Intervalo de Confianza.

En el contexto de estimar un parámetro
poblacional, un intervalo de confianza es un
rango de valores (calculado en una muestra) en
el cual se encuentra el verdadero valor del
parámetro, con una probabilidad determinada.
INTERVALO DE CONFIANZA

IC 95% de la proporción =
valor de la proporción  (1.96 * ES prop)
Valor de z que indica el 95%  2DS
ES de la proporción =  proporción (1 – prop) / n
IC95% media = X  (1.96 * ESX)
ESX = S /  n
Descripción e inferencia (III)
Intervalo de confianza del 95%
Intervalo numérico en el podemos hallar el valor del
Parámetro con una probabilidad del 95%.
Se calcula a partir del estimador
Ej: dos poblaciones 1) 7% de diabéticos
2) 8 % de diabéticos
Son poblaciones iguales?
Para saberlo debo calcular el intervalo de confianza



El IC disminuye cuanto mayor sea nuestro N
Mejorar el IC mejora la presunción de nuestra
hipótesis
Pero….
Aumentar el N no necesariamente aumenta la
exactitud
Balanza trabada en 3 kg.
PRECISA : SIEMPRE PESA LO MISMO
INEXACTA: ES IMOSIBLE QUE EL LIBRO Y EL DISKETTE PESEN IGUAL

Hay que tener cuidado con los sesgos que se
introducen

Se debe ser exacto y preciso en la selección
de la muestra

imprecisión + inexactitud = Error total
Si aumento el N puedo mejorar el IC pero
No es lo mismo tener una diferencia estadíst. significativa
Que una clínicamente relevante
No toda p < 0.05 es interesante
No es lo mismo no tener evidencia de diferencia que tener
evidencia de no diferencia ⇒ hay que ver que es relevante
Calculemos....
En una muestra de 1329 individuos, la mortalidad por una
forma rara de neumonía fue 26%. Calcule el IC 95% para
esta proporción.
Valores de glucemia en dos grupos de pacientes:
Grupo A: Media= 108 DS= 11 N= 234
Grupo B: Media= 133 DS=14 N=312
¿Pertenecen ambas muestras a la misma población desde el
punto de vista de sus glucemias?
Ej: prop = a / a+ b (neumonía 26%)
prop = 0.26
N = 1329
IC 95% = 0.26  (1.96 *
 0.26 * 0.74 / 1329)
IC 95% = 0.26  (1.96 * 0.012)
IC 95% = 0.26  0.023
O sea hay 95% de probabilidad que este entre 24 y 28 %
Es decir, en una muestra de 1329 individuos encontré una
mortalidad del 25%, si hubiese tomado 100 muestras de 1329
individuos c/u provenientes de la misma población, en 95 de
ellas la proporción hubiese estado entre el 24 y 28%
Valores de glucemia en dos grupos de pacientes:
Grupo A: Media= 108 DS= 11 N= 234
Grupo B: Media= 133 DS=14 N=312
¿Pertenecen ambas muestras a la misma población desde el
punto de vista de sus glucemias?
IC95% media = X  (1.96 * ESX)
A = 108  (1.96 * DS / n)
B = 133  (1.96 * DS / n)
A = 108  (1.96 *11/  234)
A = 133  (1.96 *13/  312)
IC 95% está entre 106.59 – 109.40 IC 95% está entre 134.55 – 131.44
Los intervalos no se superponen ⇒no son la misma población
O sea que tienen una probabilidad < 0.05 de compartir la misma m,
Hay diferencias significativas entre las 2 poblaciones
Confianza...
¿Puede que el valor del PARAMETRO no se
encuentre dentro del IC que yo he calculado?
Hay un 5% de individuos que quedan afuera, por lo que estoy
cometiendo un error  o de tipo 1 (está o existe pero no está)
Confianza = 1 - 


La probabilidad de que el verdadero valor del
parámetro se encuentre en el intervalo
construido se denomina nivel de confianza, y
se denota 1- 
La probabilidad de equivocarnos se llama
nivel de significancia y se simboliza .
Generalmente se construyen intervalos con
confianza 1-  = 95% (o significancia =5%).
Menos frecuentes son los intervalos con =10%
o =1%.
ELEMENTOS EN LA ESTIMACIÓN DEL
TAMAÑO MUESTRAL

Un conjunto de variables deberán ser
consideradas en esta estimación:
Error alfa
Corresponde a "la probabilidad de rechazar la hipótesis
nula cuando esta es verdadera“
. El investigador deberá establecer hasta qué punto estará
dispuesto a aceptar que los hallazgos de interés
pudieran ser justificados por variaciones explicables
por el azar.
Convencionalmente, se considera en estudios clínicos un
error alfa aceptable de 5% o menor, aunque más
precisamente inferior a 5%.
Ello significa que si bien los resultados pudieran ser
explicados por el azar en 5 o menos de cada 100 veces
que se repitiera la experiencia, se decidirá
interpretarlos, en tales circunstancias, como no
atribuibles al azar, es decir, "significativos".
La elección de un error alfa más pequeño (por
ejemplo 1%) proporciona mayor probabilidad
que los resultados de interés correspondan a
una situación real. Sin embargo, aumenta el
riesgo de atribuir al azar hallazgos que no
debieran ser interpretados de tal modo (puesto
que sólo sería "significativo" un valor de "p"
igual o menor a 0,01 (1%)).
Error beta

es la probabilidad de no detectar un hallazgo como importante
y atribuirlo al azar.

Habitualmente se le define como "la probabilidad de no
rechazar la hipótesis nula cuando esta es falsa".

En estudios clínicos se considera apropiado un nivel de error
beta de 20%. Naturalmente, se puede utilizar un nivel menor.
Como sea, el poder del estudio, es decir la probabilidad de
rechazar la hipótesis nula cuando es falsa, es igual a 100
menos el error beta. Esto significa que habitualmente se
trabaja con un poder de 80%.

Es importante destacar que la reducción del error beta
invariablemente va acompañada de aumento del error alfa,
para un mismo tamaño muestral.

Una reducción de ambos errores sólo es posible
aumentando el tamaño de la muestra. Así, la muestra
por grupo para detectar una diferencia de 15% entre
los valores de 20% y 35% con error alfa de 5% y beta
de 20% es de 151 casos; si bajamos el error beta a
10% y lo demás no varía, se necesitan 198 casos por
grupo; si sólo rebajamos el error alfa a 1% los casos
deben ser 219, y si simultáneamente deseamos dejar
los errores en 10% y 1%, respectivamente, se
requerirán 275 casos por grupo.
Hipótesis uni o bilateral

Un aspecto muy importante a considerar es si el
tamaño de la muestra se está estimando para la
verificación de una hipótesis uni o bilateral.

Esto se refiere a que si al comparar dos grupos la
hipótesis es que los resultados diferirán sin poder
predecir de seguro cuál grupo resulta mejor o más
favorable (bilateral, porque A puede ser mejor que B o
viceversa),

o definitivamente se postula que, específicamente,
uno de los grupos dará mejores resultados.


si se realiza un ensayo clínico controlado para probar
un nuevo tratamiento, comparándolo con aquel
generalmente aceptado, sólo es éticamente aceptable
que el investigador, aunque tenga sus esperanzas
puestas en que el nuevo tratamiento es mejor, no sabe
si ello es así y por tanto la hipótesis debe contemplar
la posibilidad que el nuevo tratamiento resulte
comparable o aun inferior al generalmente utilizado.
Se entiende que si el investigador está
razonablemente convencido que el nuevo tratamiento
es mejor, simplemente no puede someter al grupo
control a una terapia que considera inferior, menos
efectiva.



Puesto que una prueba de hipótesis bilateral es más
exigente que una unilateral, podría alguien a
posteriori y en vista de un resultado insuficiente para
una prueba bilateral, pero suficiente para una
unilateral, verse tentado a cambiar la hipótesis, sin
embargo esto no es aceptable.
¿En que casos sería razonable utilizar hipótesis
unilaterales?
En algunas situaciones, como por ejemplo en un
estudio de balance donde se compara dos grupos de
niños, en que el mayor aporte de líquidos a un grupo
se espera tenga como efecto un aumento del volumen
de orina, si ello no se verifica, se interpretará como
retención
Dos secretagogos
Variación de
HbA1c
Droga A
N=1324
Droga B
N=2101
-20%
+0.5%
p
0.0001
Dos secretagogos
Droga A
N=1324
Droga B
N=2101
Variación de
HbA1c
-20%
+0.5%
Reserva
funcional
pancreática
Normal
Nula
p
0.0001
Dos secretagogos
Droga A
N=1324
Droga B
p
N=2101 ERROR ALEATORIO
Variación de
HbA1c
-20%
+0.5%
Reserva
funcional
pancreática
Normal
Nula
0.0001
SESGO
Es cierto
Resultado del Ho
estudio
Ho
correcto
H1
H1
correcto
Beta
Yo concluyo
Error alfa = falso positivo
Error beta: falsos negativos
alfa
ANALISIS GENETICO
Conjuntos de observaciones
POBLACIÓN
MUESTRA
REALIZADA AL
AZAR
NUMERO GRANDE
ASOCIACION
≠ CAUSALIDAD
Se ha observado que los
pacientes a quienes se
les diagnostica HIV
compran mas CD de
música
HIV
Compra de CD
La asociación puede mostrar relación con un marcador pero no ser la causa
Asociación
Variable 1
Variable 2
Descripción
Descripción
Asociación
Causalidad
Preguntas frente a una asociación...




¿Es casual?
¿Puede explicarse por un sesgo?
¿Es fuerte?
¿Tiene impacto?
El método científico
VARIABLES
DESCRIPCION
ASOCIACION
CAUSALIDAD