Download EAETAREA4_-1
Document related concepts
no text concepts found
Transcript
ESTADÍSTICA APLICADA A LA EDUCACIÓN 2 Pruebas no paramétricas MARIANA TORRES MERINO MATRICULA : 111239 PEDAGOGÍA SANDRA SANCHEZ INVESTIGA Y EXPLICA LO SIGUIENTE: 1. PRUEBAS NO PARAMÉTRICAS SEGÚN MANÁ WHITNEY En estadística la prueba U de Mann-Whitney (también llamada de Mann-WhitneyWilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-MannWhitney) es una prueba no paramétrica aplicada a dos muestras independientes. Es, de hecho, la versión no paramétrica de la habitual prueba t de Student. Fue propuesto inicialmente en 1945 por Frank Wilcoxon para muestras de igual tamaños y extendido a muestras de tamaño arbitrario como en otros sentidos por Henry B. Mann y D. R. Whitney en 1947. La prueba de Mann-Whitney se usa para comprobar la heterogeneidad de dos muestras ordinales. El planteamiento de partida es: 1. Las observaciones de ambos grupos son independientes. 2. Las observaciones son variables ordinales o continuas. 3. Bajo la hipótesis nula, la distribución de partida de ambos grupos es la misma. 4. Bajo la hipótesis alternativa, los valores de una de las muestras tienden a exceder a los de la otra: P(X > Y) + 0.05 P(X = Y) > 0.05. Para calcular el estadístico U se asigna a cada uno de los valores de las dos muestras su rango para construir Donde n1 y n2 son los tamaños respectivos de cada muestra; R1 y R2 es la suma de los rangos de las observaciones de las muestras 1 y 2 respectivamente. El estadístico U se define como el mínimo de U1 y U2. Los cálculos tienen que tener en cuenta la presencia de observaciones idénticas a la hora de ordenarlas. No obstante, si su número es pequeño, se puede ignorar esa circunstancia. Distribución del estadístico. La prueba calcula el llamado estadístico U, cuya distribución para muestras con más de 20 observaciones se aproxima bastante bien a la distribución normal. La aproximación a la normal, z, cuando tenemos muestras lo suficientemente grandes viene dada por la expresión: Donde mU y sU son la media y la desviación estándar de U si la hipótesis nula es cierta, y vienen dadas por las siguientes fórmulas: Esta prueba estadística es útil cuando las mediciones se pueden ordenar en escala ordinal (es decir, cuando los valores tienden a una variable continua, pero no tienen una distribución normal) y resulta aplicable cuando las muestras son independientes. 2. LOS RANGOS DE WILCOXON La prueba de los rangos con signo de Wilcoxon es una prueba no paramétrica para comparar el rango medio de dos muestras relacionadas y determinar si existen diferencias entre ellas. Se utiliza como alternativa a la prueba t de Student cuando no se puede suponer la normalidad de dichas muestras. Debe su nombre a Frank Wilcoxon, que la publicó en 1945.1 Es una prueba no paramétrica de comparación de dos muestras relacionadas y por lo tanto no necesita una distribución específica. Usa más bien el nivel ordinal de la variable dependiente. Se utiliza para comparar dos mediciones relacionadas y determinar si la diferencia entre ellas se debe al azar o no (en este último caso, que la diferencia sea estadísticamente significativa). Se utiliza cuando la variable subyacente es continua pero no se presupone ningún tipo de distribución particular. Suponga que se dispone de n pares de observaciones, denominadas {\displaystyle (x_{i},y_{i})}. El objetivo del test es comprobar si puede dictaminar que los valores {\displaystyle x_{i}}e {\displaystyle y_{i}} son o no iguales. 1. Si {\displaystyle z_{i}=y_{i}-x_{i}} entonces los valores {\displaystyle z_{i}} son independientes. 2. Los valores {\displaystyle z_{i}} tienen una misma distribución continua y simétrica respecto a una mediana común {\displaystyle \theta }. La hipótesis nula es {\displaystyle H_{0}}: {\displaystyle \theta =0}. Retrotrayendo dicha hipótesis a los valores {\displaystyle x_{i},y_{i}} originales, ésta vendría a decir que son en cierto sentido del mismo tamaño. Para verificar la hipótesis, en primer lugar, se ordenan los valores absolutos {\displaystyle |z_{1}|,\dots ,|z_{n}|} y se les asigna su rango {\displaystyle R_{i}}. Entonces, el estadístico de la prueba de los signos de Wilcoxon, {\displaystyle W^{+}}, es {\displaystyle W^{+}=\sum _{z_{i}>0}R_{i},} es decir, la suma de los rangos {\displaystyle R_{i}} correspondientes a los valores positivos de {\displaystyle z_{i}}. La distribución del estadístico {\displaystyle W^{+}} puede consultarse en tablas para determinar si se acepta o no la hipótesis nula. En ocasiones, esta prueba se usa para comparar las diferencias entre dos muestras de datos tomados antes y después del tratamiento, cuyo valor central se espera que sea cero. Las diferencias iguales a cero son eliminadas y el valor absoluto de las desviaciones con respecto al valor central son ordenadas de menor a mayor. A los datos idénticos se les asigna el lugar medio en la serie. La suma de los rangos se hace por separado para los signos positivos y los negativos. S representa la menor de esas dos sumas. Comparamos S con el valor proporcionado por las tablas estadísticas al efecto para determinar si rechazamos o no la hipótesis nula, según el nivel de significación elegido. 3. SIGNO También se puede utilizar la prueba de signo para probar la hipótesis nula para observaciones pareadas. Aquí se reemplaza cada diferencia, di, con un signo más o menos dependiendo si la diferencia ajustada, d i-d0, es positiva o negativa. A lo largo de esta sección suponemos que las poblaciones son simétricas. Sin embargo, aun si las poblaciones son asimétricas se puede llevar a cabo el mismo procedimiento de prueba, pero las hipótesis se refieren a las medianas poblacionales en lugar de las medias. Se puede notar que la prueba de signo utiliza sólo los signos más y menos de las diferencias entre las observaciones y 0 en el caso de una muestra, o los signos más y menos de las diferencias entre los pares de observaciones en el caso de la muestra pareada, pero no toma en consideración la magnitud de estas diferencias. Una prueba que utiliza dirección y magnitud, propuesta en 1945 por Frank Wilcoxon, se llama ahora comúnmente prueba de rango con signo de Wilcoxon. Esta prueba se aplica en el caso de una distribución continua simétrica. Bajo esta condición se puede probar la hipótesis nula = 0. Primero se resta 0 de cada valor muestral y se descarta todas las diferencias iguales a cero. Se asigna un rango de 1 a la diferencia absoluta más pequeña, un rango de 2 a la siguiente más pequeña, y así sucesivamente. Cuando el valor absoluto de dos o más diferencias es el mismo, se asigna a cada uno el promedio de los rangos que se asignaría si las diferencias se distinguieron. Por ejemplo, si la quinta y sexta diferencia son iguales en valor absoluto, a cada una se le asignaría un rango de 5.5. Si la hipótesis = 0 es verdadera, el total de los rangos que corresponden a las diferencias positivas debe ser casi igual al total de los rangos que corresponden a las diferencias negativas. Se representan esos totales como w+ y w-, respectivamente. Se designa el menor de w+ y w- con w. Al seleccionar muestras repetidas esperaríamos que variarán w+ y w-, y por tanto w. De esta manera se puede considerar a w+ y w-, y w como valores de las correspondiente variables aleatorias W +, W-, y W. La hipótesis nula puede rechazar a favor de la alternativa < 0 = 0 se sólo si w es pequeña y w- es grande. Del mismo modo, la alternativa > 0 se puede aceptar sólo si w es grande y w- es pequeña. Para una alternativa bilateral se puede rechazar H 0a favor de H1 si w o w- y por tanto w son suficientemente pequeñas. No importa cuál hipótesis alternativa puede ser, rechazar la hipótesis nula cuando el valor de la estadística apropiada W +, W -, o W es suficientemente pequeño. 4. FICHIER 5. CORRELACION RANGO-ORDEN Es una medida de asociación lineal que utiliza los rangos, números de orden de cada grupo de sujetos y compara dichos rangos. Existen dos métodos para calcular el coeficiente de correlación de los rangos uno señalado por spearman y el otro por Kendall. El r de spearman llamado también rho spearman es más fácil de calcular que el Kendall. El coeficiente de correlación de spearman es exactamente el mismo que el coeficiente de correlación de Pearson calculado sobre el rango de observaciones. 1. correlaciones: con esta opción se obtienen los estadísticos: ● Coeficiente de correlación de Pearson: es una medida de asociación lineal adecuada para variables medidas en escala de intervalo *. ● Coeficiente de correlación de Spearman: mide el grado de correspondencia que existe entre los rangos que se asignan a los valores de las variables analizadas. Por ello, este coeficiente se puede calcular con datos ordinales, y se define: , siendo di la diferencia entre los rangos correspondientes a la observación i-ésima. El coeficiente toma valores entre -1 y +1. Un valor cercano a 0 indica que las variables apenas están relacionadas. El cuadro Ordinal recoge una serie de estadísticos basados en el número de concordancias y discordancias que aparecen al comparar las puntuaciones asignadas a los mismos casos según dos criterios (o jueces) diferentes. Así, por ejemplo, si criterio y recoge las puntuaciones asignadas a los casos según el primer según el segundo, para la obtención de concordancias y discordancias que aparecen entre los dos criterios, se procede de la siguiente forma: ● se ordenan los pares de puntuaciones de acuerdo con el orden natural de las puntuaciones asignadas según el primer criterio, ● se compara cada valor de . con cada uno de los que le siguen, y se registra una concordancia (+1) cuando los dos valores siguen el orden natural, una discordancia (-1) cuando el orden está invertido y un empate (0) cuando coinciden ambas puntuaciones. ● se calculan C total de las concordancias, D total de las discordancias y E el número total de empates. El número total de comparaciones es incluyendo empates. 1. Gamma: El estadístico Gamma se define como Este análisis excluye los casos que presentan la misma puntuación en las dos variables (empates). 2. Tau-b de Kendall. Este coeficiente incluye los empates contemplando por separado los que aparecen en la variable variable y los que aparecen en la . Se define como 3. Tau-c de Kendall. Este estadístico se define como menor número de casos no empatados que presentan siendo k el o 4. d de Somers: A diferencia de los anteriores este estadístico considera que las variables pueden ser simétricas o dependientes. En el primer caso, el estadístico d de Somers coincide con la Tau-b de Kendall. En el segundo supuesto, se diferencia del estadístico Gamma en que incluye los empates de la variable que considera dependiente. Si la variable dependiente es Todas estas medidas toman valores entre -1 y +1, y alcanza los valores extremos cuando existe concordancia o discordancia perfecta. Valores próximos a 0 indican ausencia de asociación. NOTA: LA FUENTE DE INFORMACION ES LIBRE. Bibliografía: http://www.monografias.com/trabajos106/prueba-u-mann-whitney-dos-muestrasindependientes/prueba-u-mann-whitney-dos-muestras-independientes.shtml http://ccu.mx/antologias/pedagogia/7/Estadistica%20aplicada%20a%20la%20educacion%20 II.pdf http://www.ub.edu/aplica_infor/spss/cap3-5.htm