Download lógica fórmula
Document related concepts
Transcript
1.Introducción a la Bioestadística. Idea de la asignatura: razonar fenómenos globales a partir del estudio de casos particulares.. Muestreo, datos descriptivos, probabilidad, inferencia estadística, relaciones causa – efecto. 2. Procedimientos descriptivos. 1. Tablas. Distribuciones cuantitativas y cualitativas. Frecuencias absolutas (acumuladas), relativas (acumuladas). 2. Medidas de posición central. Media, moda, mediana (datos pares, impares). 3. Medidas de posición no central. Percentil (Cuartil, decil, quintil) j(n +1) / 100. 4. Medidas de dispersión. Rango o recorrido, rango intercuartílico, desviación media, varianza muestral, desviación típica, coeficiente de variación (homogeneidad), error estándar de la media. 5. Medidas de forma: asimetría, curtosis (leptocúrtica, mesocúrtica, platicúrtica). Relación con los percentiles y con los gráficos. La asimetría y curtosis “significativa” (dato / error típico > 2). 6. Diagramas: histograma, sectores, tallos y hojas, boxplot (outlier normal 1,5 RI; outlier extremo 3 RI). 3. Probabilidad y variables aleatorias. 1. Definición y conceptos asociados a probabilidad. 2. Propiedades de la probabilidad: unión e intersección; contraria, resta de probabilidades, probabilidad condicionada, independencia, sucesos disjuntos o incompatibles. Las tablas “dobles” y las propiedades. 3. Probabilidad total y fórmula de Bayes. Ejemplos tipo. 4. Odds y factor Bayes. Priori “por cada no enfermo, cuantos enfermos hay”; posteriori “por cada mujer no enferma, cuántas enfermas hay”. FB>1, incidencia. FB < 1, defensa. 5. Variable aleatoria. Definición, tabla, función de distribución, media o esperanza, varianza y desviación típica. 6. Variables discretas. Binomial y Poisson (fórmula, aplicación, esperanza, varianza). 7. Variables continuas; la normal. El paso de punto a probabilidad y probabilidad a punto. La tipificación. Relación entre variables aleatorias. El teorema central del límite. 4. Intervalos de confianza y contrastes de hipótesis. 1. El contraste de hipótesis. Hipótesis nula y alternativa. El caso bilateral, unilateral derecho y unilateral izquierdo en su contexto. 2. Conceptos básicos. Error de tipo 1 o significación. Especificidad. Error de tipo 2. Potencia o sensibilidad. El pvalor. 3. Intervalos de confianza. Nivel de confianza y error de confianza. Relación entre intervalos de confianza, pvalor y contrastes de hipótesis. 4. El caso de la media poblacional en una distribución normal (variable cuantitativa). 5. El caso de la proporción poblacional (variable cualitativa dicotómica). 6. El caso de la mediana y de la lambda (menos usados). 5. Datos categóricos: comparación de proporciones. 1. Comparar una distribución observada con una esperada: test de Jicuadrado de Pearson (idea, tipo de sangre en una población). 2. Medir la existencia de relación (hipótesis nula, independencia) entre dos variables cualitativas: test de Jicuadrado de Pearson (a partir de una tabla de contingencia, frecuencia esperada mayor de 5). 2.1 Si alguna frecuencia es menor de 5, se puede “reducir” la tabla. 2.2 Si la tabla es 2 x 2, se puede usar el intervalo de confianza para la diferencia de proporciones. 2.3 Si la tabla es 2 x 2 y alguna frecuencia esperada es menor de 5, se aplica el test de Fisher (se puede hacer siempre). 2.4Si los datos están emparejados mediante una variable dicotómica, se usa el test de McNemar. La tabla será siempre 2 x 2. 3. Medir la existencia de relación entre dos variables cualitativas ordinales; test de tendencia lineal (se puede usar la U de Mann Whitney). 6. Variable cuantitativas: comparación de la media entre grupos. 1. Previo: comprobar la normalidad de la variable de referencia (test paramétricos y no paramétricos). Opciones: Kolmogorov Smirnov, Shapiro Wilk, Asimetría, Curtosis. La opción de la transformación logarítmica. 2. Casos paramétricos. 2.1 Comparar una media con un valor de referencia (contraste, intervalo). 2.2 Comparar dos muestras independientes. 2.2.1 Varianzas iguales (Levene); contraste, intervalo. 2.2.2 Varianzas distintas (Levene); contraste, intervalo. Test de Welch. 2.3 Comparar dos muestras dependientes (contraste, intervalo). 3. Casos no paramétricos. No existe la opción de intervalo. 3.1 Comparar una media con un valor de referencia (Wilcoxon). 3.2 Comparar dos muestras independientes (U Mann Whitney, varias metodologías). 3.3 Comparar dos muestras dependientes (Wilcoxon). 7. Estimación del tamaño muestral. 1. Objeto del tema, relación entre tamaño muestral, intervalo y errores de un test. 2. Una muestra: media, proporción. 3. Dos muestras: diferencia de medias y diferencia de proporciones. 8. Comparación de más de dos medias, ANOVA. (Causa – efecto). 1. Aplicación del ANOVA; relación cualitativa cuantitativa e hipótesis nula. 2. Supuestos del ANOVA; normalidad (residuos), homogeneidad de varianzas (Levene), independencia de la muestra (rachas) 3. Casos paramétricos. Una variable cualitativa o factor (k niveles), una variable cuantitativa. Contrastes a priori; no ortogonales (ajuste de Bonferroni), ortogonales (lógica). Tabla ANOVA; cálculo de las sumas de cuadrados (entregrupos, intragrupos y total con sus grados de libertad), estadística de contraste e interpretación. Contrastes a posteriori (sólo si rechazo el contraste general), comparaciones 2 a 2 (Bonferroni), test de Scheffé (ordenador), test de Student Newman Keuls. 4. Caso no paramétrico. Test de Kruskal Wallis. 9. ANOVA AVANZADO, modelos lineales generalizados y medidas repetidas. (Causa – efecto). 1. Se repiten los supuestos previos de aplicación del ANOVA. 2. El caso de 2 factores (dieta, ejercicio) y una variable cuantitativa (peso). 2.1 Estudio de la interacción (sí, estudios segmentados; no; tabla ANOVA). 2.2 Caso paramétrico; tabla ANOVA. Cálculo de las sumas de cuadrados (factor uno, factor dos, interacción, error y total con sus grados de libertad), estadístico de contraste e interpretación. 2.3 Caso no paramétrico; test de Kruskal Wallis por rangos. 3. El caso de medidas repetidas (efecto de varias dietas en la misma persona para el peso). 3.1 Caso paramétrico, tabla ANOVA. Cálculo de las sumas de cuadrados (factor principal, factor secundario, error y total con sus grados de libertad), estadístico de contraste e interpretación. 3.2 Caso no paramétrico, test de Friedmann. 4. Recopilación de los casos que se pueden estudiar mediante los análisis ANOVA. Javier Otazu Ojer. Academia Mecarapid.