Download lógica fórmula

Document related concepts

Análisis de la varianza wikipedia , lookup

Prueba de los rangos con signo de Wilcoxon wikipedia , lookup

Estadístico muestral wikipedia , lookup

Prueba t de Student wikipedia , lookup

Distribución t de Student wikipedia , lookup

Transcript
1.Introducción a la Bioestadística.
Idea de la asignatura: razonar fenómenos globales a partir del estudio de casos
particulares..
Muestreo, datos descriptivos, probabilidad, inferencia estadística, relaciones causa –
efecto.
2. Procedimientos descriptivos.
1. Tablas. Distribuciones cuantitativas y cualitativas. Frecuencias absolutas
(acumuladas), relativas (acumuladas).
2. Medidas de posición central. Media, moda, mediana (datos pares, impares).
3. Medidas de posición no central. Percentil (Cuartil, decil, quintil) j(n +1) / 100.
4. Medidas de dispersión. Rango o recorrido, rango intercuartílico, desviación media,
varianza muestral, desviación típica, coeficiente de variación (homogeneidad), error
estándar de la media.
5. Medidas de forma: asimetría, curtosis (leptocúrtica, mesocúrtica, platicúrtica).
Relación con los percentiles y con los gráficos. La asimetría y curtosis “significativa”
(dato / error típico > 2).
6. Diagramas: histograma, sectores, tallos y hojas, boxplot (outlier normal 1,5 RI;
outlier extremo 3 RI).
3. Probabilidad y variables aleatorias.
1. Definición y conceptos asociados a probabilidad.
2. Propiedades de la probabilidad: unión e intersección; contraria, resta de
probabilidades, probabilidad condicionada, independencia, sucesos disjuntos o
incompatibles. Las tablas “dobles” y las propiedades.
3. Probabilidad total y fórmula de Bayes. Ejemplos tipo.
4. Odds y factor Bayes. Priori “por cada no enfermo, cuantos enfermos hay”; posteriori
“por cada mujer no enferma, cuántas enfermas hay”. FB>1, incidencia. FB < 1, defensa.
5. Variable aleatoria. Definición, tabla, función de distribución, media o esperanza,
varianza y desviación típica.
6. Variables discretas. Binomial y Poisson (fórmula, aplicación, esperanza, varianza).
7. Variables continuas; la normal. El paso de punto a probabilidad y probabilidad a
punto. La tipificación. Relación entre variables aleatorias. El teorema central del límite.
4. Intervalos de confianza y contrastes de hipótesis.
1. El contraste de hipótesis. Hipótesis nula y alternativa. El caso bilateral, unilateral
derecho y unilateral izquierdo en su contexto.
2. Conceptos básicos. Error de tipo 1 o significación. Especificidad. Error de tipo 2.
Potencia o sensibilidad. El pvalor.
3. Intervalos de confianza. Nivel de confianza y error de confianza. Relación entre
intervalos de confianza, pvalor y contrastes de hipótesis.
4. El caso de la media poblacional en una distribución normal (variable cuantitativa).
5. El caso de la proporción poblacional (variable cualitativa dicotómica).
6. El caso de la mediana y de la lambda (menos usados).
5. Datos categóricos: comparación de proporciones.
1. Comparar una distribución observada con una esperada: test de Jicuadrado de
Pearson (idea, tipo de sangre en una población).
2. Medir la existencia de relación (hipótesis nula, independencia) entre dos variables
cualitativas: test de Jicuadrado de Pearson (a partir de una tabla de contingencia,
frecuencia esperada mayor de 5).
2.1 Si alguna frecuencia es menor de 5, se puede “reducir” la tabla.
2.2 Si la tabla es 2 x 2, se puede usar el intervalo de confianza para la diferencia
de proporciones.
2.3 Si la tabla es 2 x 2 y alguna frecuencia esperada es menor de 5, se aplica el
test de Fisher (se puede hacer siempre).
2.4Si los datos están emparejados mediante una variable dicotómica, se usa el
test de McNemar. La tabla será siempre 2 x 2.
3. Medir la existencia de relación entre dos variables cualitativas ordinales; test de
tendencia lineal (se puede usar la U de Mann Whitney).
6. Variable cuantitativas: comparación de la media entre grupos.
1. Previo: comprobar la normalidad de la variable de referencia (test paramétricos y
no paramétricos). Opciones: Kolmogorov Smirnov, Shapiro Wilk, Asimetría, Curtosis.
La opción de la transformación logarítmica.
2. Casos paramétricos.
2.1 Comparar una media con un valor de referencia (contraste, intervalo).
2.2 Comparar dos muestras independientes.
2.2.1 Varianzas iguales (Levene); contraste, intervalo.
2.2.2 Varianzas distintas (Levene); contraste, intervalo. Test de Welch.
2.3 Comparar dos muestras dependientes (contraste, intervalo).
3. Casos no paramétricos. No existe la opción de intervalo.
3.1 Comparar una media con un valor de referencia (Wilcoxon).
3.2 Comparar dos muestras independientes (U Mann Whitney, varias
metodologías).
3.3 Comparar dos muestras dependientes (Wilcoxon).
7. Estimación del tamaño muestral.
1. Objeto del tema, relación entre tamaño muestral, intervalo y errores de un test.
2. Una muestra: media, proporción.
3. Dos muestras: diferencia de medias y diferencia de proporciones.
8. Comparación de más de dos medias, ANOVA. (Causa – efecto).
1. Aplicación del ANOVA; relación cualitativa cuantitativa e hipótesis nula.
2. Supuestos del ANOVA; normalidad (residuos), homogeneidad de varianzas
(Levene), independencia de la muestra (rachas)
3. Casos paramétricos.
Una variable cualitativa o factor (k niveles), una variable cuantitativa.
Contrastes a priori; no ortogonales (ajuste de Bonferroni), ortogonales (lógica).
Tabla ANOVA; cálculo de las sumas de cuadrados (entregrupos, intragrupos y
total con sus grados de libertad), estadística de contraste e interpretación.
Contrastes a posteriori (sólo si rechazo el contraste general), comparaciones 2 a
2 (Bonferroni), test de Scheffé (ordenador), test de Student Newman Keuls.
4. Caso no paramétrico.
Test de Kruskal Wallis.
9. ANOVA AVANZADO, modelos lineales generalizados y medidas
repetidas. (Causa – efecto).
1. Se repiten los supuestos previos de aplicación del ANOVA.
2. El caso de 2 factores (dieta, ejercicio) y una variable cuantitativa (peso).
2.1 Estudio de la interacción (sí, estudios segmentados; no; tabla ANOVA).
2.2 Caso paramétrico; tabla ANOVA.
Cálculo de las sumas de cuadrados (factor uno, factor dos, interacción, error y
total con sus grados de libertad), estadístico de contraste e interpretación.
2.3 Caso no paramétrico; test de Kruskal Wallis por rangos.
3. El caso de medidas repetidas (efecto de varias dietas en la misma persona para el
peso).
3.1 Caso paramétrico, tabla ANOVA.
Cálculo de las sumas de cuadrados (factor principal, factor secundario, error y
total con sus grados de libertad), estadístico de contraste e interpretación.
3.2 Caso no paramétrico, test de Friedmann.
4. Recopilación de los casos que se pueden estudiar mediante los análisis ANOVA.
Javier Otazu Ojer.
Academia Mecarapid.