Download muestra cada variable -dar

Document related concepts

Distribución t de Student wikipedia , lookup

Estadístico muestral wikipedia , lookup

Parámetro estadístico wikipedia , lookup

Distribución normal wikipedia , lookup

Prueba t de Student wikipedia , lookup

Transcript
1.Introducción a la Bioestadística.
Idea de la asignatura: razonar fenómenos globales a partir del estudio de casos
particulares.
Muestreo, datos descriptivos, probabilidad, inferencia estadística, relaciones causa –
efecto.
2. Procedimientos descriptivos.
1. Tablas. Distribuciones cuantitativas y cualitativas. Frecuencias absolutas
(acumuladas), relativas (acumuladas).
2. Medidas de posición central. Media, moda, mediana (datos pares, impares).
3. Medidas de posición no central. Percentil (Cuartil, decil, quintil) j(n +1) / 100.
4. Medidas de dispersión. Rango o recorrido, rango intercuartílico, desviación media,
varianza muestral, desviación típica, coeficiente de variación (homogeneidad), error
estándar de la media.
5. Medidas de forma: asimetría, curtosis (leptocúrtica, mesocúrtica, platicúrtica).
Relación con los percentiles y con los gráficos. La asimetría y curtosis “significativa”
(dato / error típico > 2).
6. Diagramas: histograma, sectores, tallos y hojas, boxplot (outlier normal 1,5 RI;
outlier extremo 3 RI).
3. Probabilidad y variables aleatorias.
1. Definición y conceptos asociados a probabilidad.
2. Propiedades de la probabilidad: unión e intersección; contraria, resta de
probabilidades, probabilidad condicionada, independencia, sucesos disjuntos o
incompatibles. Las tablas “dobles” y las propiedades.
3. Probabilidad total y fórmula de Bayes. Ejemplos tipo.
4. Odds y factor Bayes. Priori “por cada no enfermo, cuantos enfermos hay”; posteriori
“por cada mujer no enferma, cuántas enfermas hay”. FB>1, incidencia. FB < 1, defensa.
5. Variable aleatoria. Definición, tabla, función de distribución, media o esperanza,
varianza y desviación típica.
6. Variables discretas. Binomial y Poisson (fórmula, aplicación, esperanza, varianza).
7. Variables continuas; la normal. El paso de punto a probabilidad y probabilidad a
punto. La tipificación. Relación entre variables aleatorias. El teorema central del límite.
4. Intervalos de confianza y contrastes de hipótesis.
1. El contraste de hipótesis. Hipótesis nula y alternativa. El caso bilateral, unilateral
derecho y unilateral izquierdo en su contexto.
2. Conceptos básicos. Error de tipo 1 o significación. Especificidad. Error de tipo 2.
Potencia o sensibilidad. El pvalor.
3. Intervalos de confianza. Nivel de confianza y error de confianza. Relación entre
intervalos de confianza, pvalor y contrastes de hipótesis.
4. El caso de la media poblacional en una distribución normal (variable cuantitativa).
5. El caso de la proporción poblacional (variable cualitativa dicotómica).
6. El caso de la mediana y de la lambda (menos usados).
5. Datos categóricos: comparación de proporciones.
1. Comparar una distribución observada con una esperada: test de Jicuadrado de
Pearson (idea, tipo de sangre en una población).
2. Medir la existencia de relación (hipótesis nula, independencia) entre dos variables
cualitativas: test de Jicuadrado de Pearson (a partir de una tabla de contingencia,
frecuencia esperada mayor de 5).
2.1 Si alguna frecuencia es menor de 5, se puede “reducir” la tabla.
2.2 Si la tabla es 2 x 2, se puede usar el intervalo de confianza para la diferencia
de proporciones.
2.3 Si la tabla es 2 x 2 y alguna frecuencia esperada es menor de 5, se aplica el
test de Fisher (se puede hacer siempre).
2.4Si los datos están emparejados mediante una variable dicotómica, se usa el
test de McNemar. La tabla será siempre 2 x 2.
3. Medir la existencia de relación entre dos variables cualitativas ordinales; test de
tendencia lineal (se puede usar la U de Mann Whitney).
6. Variable cuantitativas: comparación de la media entre grupos.
1. Previo: comprobar la normalidad de la variable de referencia (test paramétricos y
no paramétricos). Opciones: Kolmogorov Smirnov, Shapiro Wilk, Asimetría, Curtosis.
La opción de la transformación logarítmica.
2. Casos paramétricos.
2.1 Comparar una media con un valor de referencia (contraste, intervalo).
2.2 Comparar dos muestras independientes.
2.2.1 Varianzas iguales (Levene); contraste, intervalo.
2.2.2 Varianzas distintas (Levene); contraste, intervalo. Test de Welch.
2.3 Comparar dos muestras dependientes (contraste, intervalo).
3. Casos no paramétricos. No existe la opción de intervalo.
3.1 Comparar una media con un valor de referencia (Wilcoxon).
3.2 Comparar dos muestras independientes (U Mann Whitney, varias
metodologías).
3.3 Comparar dos muestras dependientes (Wilcoxon).
7. Estimación del tamaño muestral.
1. Objeto del tema, relación entre tamaño muestral, intervalo y errores de un test.
2. Una muestra: media, proporción.
3. Dos muestras: diferencia de medias y diferencia de proporciones.
Javier Otazu Ojer.
Academia Mecarapid.