Download EAETAREA4_-1

Document related concepts
no text concepts found
Transcript
ESTADÍSTICA APLICADA A LA
EDUCACIÓN 2
Pruebas no paramétricas
MARIANA TORRES MERINO
MATRICULA : 111239
PEDAGOGÍA
SANDRA SANCHEZ
INVESTIGA Y EXPLICA LO SIGUIENTE:
1. PRUEBAS NO PARAMÉTRICAS SEGÚN MANÁ WHITNEY
En estadística la prueba U de Mann-Whitney (también llamada de Mann-WhitneyWilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-MannWhitney) es una prueba no paramétrica aplicada a dos muestras independientes.
Es, de hecho, la versión no paramétrica de la habitual prueba t de Student. Fue
propuesto inicialmente en 1945 por Frank Wilcoxon para muestras de igual tamaños
y extendido a muestras de tamaño arbitrario como en otros sentidos por Henry B.
Mann y D. R. Whitney en 1947. La prueba de Mann-Whitney se usa para comprobar
la heterogeneidad de dos muestras ordinales. El planteamiento de partida es:
1. Las observaciones de ambos grupos son independientes.
2. Las observaciones son variables ordinales o continuas.
3. Bajo la hipótesis nula, la distribución de partida de ambos grupos es la
misma.
4. Bajo la hipótesis alternativa, los valores de una de las muestras
tienden a exceder a los de la otra: P(X > Y) + 0.05 P(X = Y) > 0.05.
Para calcular el estadístico U se asigna a cada uno de los valores de las dos
muestras su rango para construir
Donde n1 y n2 son los tamaños respectivos de cada muestra; R1 y R2 es la suma
de los rangos de las observaciones de las muestras 1 y 2 respectivamente.
El estadístico U se define como el mínimo de U1 y U2.
Los cálculos tienen que tener en cuenta la presencia de observaciones idénticas a la
hora de ordenarlas. No obstante, si su número es pequeño, se puede ignorar esa
circunstancia.
Distribución del estadístico.
La prueba calcula el llamado estadístico U, cuya distribución para muestras con más
de 20 observaciones se aproxima bastante bien a la distribución normal.
La aproximación a la normal, z, cuando tenemos muestras lo suficientemente
grandes viene dada por la expresión:
Donde mU y sU son la media y la desviación estándar de U si la hipótesis nula es
cierta, y vienen dadas por las siguientes fórmulas:
Esta prueba estadística es útil cuando las mediciones se pueden ordenar en escala
ordinal (es decir, cuando los valores tienden a una variable continua, pero no tienen
una distribución normal) y resulta aplicable cuando las muestras son
independientes.
2. LOS RANGOS DE WILCOXON
La prueba de los rangos con signo de Wilcoxon es una prueba no paramétrica para
comparar el rango medio de dos muestras relacionadas y determinar si existen
diferencias entre ellas. Se utiliza como alternativa a la prueba t de Student cuando
no se puede suponer la normalidad de dichas muestras. Debe su nombre a Frank
Wilcoxon, que la publicó en 1945.1 Es una prueba no paramétrica de comparación
de dos muestras relacionadas y por lo tanto no necesita una distribución específica.
Usa más bien el nivel ordinal de la variable dependiente. Se utiliza para comparar
dos mediciones relacionadas y determinar si la diferencia entre ellas se debe al azar
o no (en este último caso, que la diferencia sea estadísticamente significativa). Se
utiliza cuando la variable subyacente es continua pero no se presupone ningún tipo
de distribución particular. Suponga que se dispone de n pares de observaciones,
denominadas {\displaystyle (x_{i},y_{i})}. El objetivo del test es comprobar si puede
dictaminar que los valores {\displaystyle x_{i}}e {\displaystyle y_{i}} son o no iguales.
1. Si {\displaystyle z_{i}=y_{i}-x_{i}} entonces los valores {\displaystyle
z_{i}} son independientes.
2. Los valores {\displaystyle z_{i}} tienen una misma distribución continua
y simétrica respecto a una mediana común {\displaystyle \theta }.
La hipótesis nula es {\displaystyle H_{0}}: {\displaystyle \theta =0}. Retrotrayendo
dicha hipótesis a los valores {\displaystyle x_{i},y_{i}} originales, ésta vendría a decir
que son en cierto sentido del mismo tamaño. Para verificar la hipótesis, en primer
lugar, se ordenan los valores absolutos {\displaystyle |z_{1}|,\dots ,|z_{n}|} y se les
asigna su rango {\displaystyle R_{i}}. Entonces, el estadístico de la prueba de los
signos de Wilcoxon, {\displaystyle W^{+}}, es {\displaystyle W^{+}=\sum
_{z_{i}>0}R_{i},} es decir, la suma de los rangos {\displaystyle R_{i}}
correspondientes a los valores positivos de {\displaystyle z_{i}}. La distribución del
estadístico {\displaystyle W^{+}} puede consultarse en tablas para determinar si se
acepta o no la hipótesis nula. En ocasiones, esta prueba se usa para comparar las
diferencias entre dos muestras de datos tomados antes y después del tratamiento,
cuyo valor central se espera que sea cero. Las diferencias iguales a cero son
eliminadas y el valor absoluto de las desviaciones con respecto al valor central son
ordenadas de menor a mayor. A los datos idénticos se les asigna el lugar medio en
la serie. La suma de los rangos se hace por separado para los signos positivos y los
negativos. S representa la menor de esas dos sumas. Comparamos S con el valor
proporcionado por las tablas estadísticas al efecto para determinar si rechazamos o
no la hipótesis nula, según el nivel de significación elegido.
3. SIGNO
También se puede utilizar la prueba de signo para probar la hipótesis nula
para observaciones pareadas. Aquí se reemplaza cada diferencia,
di, con un signo más o menos dependiendo si la diferencia ajustada, d i-d0, es
positiva o negativa. A lo largo de esta sección suponemos que las poblaciones son
simétricas. Sin embargo, aun si las poblaciones son asimétricas se puede llevar a
cabo el mismo procedimiento de prueba, pero las hipótesis se refieren a las
medianas poblacionales en lugar de las medias. Se puede notar que la prueba de
signo utiliza sólo los signos más y menos de las diferencias entre las observaciones
y
0 en el caso de una muestra, o los signos más y menos de las diferencias entre
los pares de observaciones en el caso de la muestra pareada, pero no toma en
consideración la magnitud de estas diferencias. Una prueba que utiliza dirección y
magnitud, propuesta en 1945 por Frank Wilcoxon, se llama ahora comúnmente
prueba de rango con signo de Wilcoxon. Esta prueba se aplica en el caso de una
distribución continua simétrica. Bajo esta condición se puede probar la hipótesis
nula
= 0. Primero se resta
0 de cada valor muestral y se descarta todas las
diferencias iguales a cero. Se asigna un rango de 1 a la diferencia absoluta más
pequeña, un rango de 2 a la siguiente más pequeña, y así sucesivamente. Cuando
el valor absoluto de dos o más diferencias es el mismo, se asigna a cada uno el
promedio de los rangos que se asignaría si las diferencias se distinguieron. Por
ejemplo, si la quinta y sexta diferencia son iguales en valor absoluto, a cada una se
le asignaría un rango de 5.5. Si la hipótesis
= 0 es verdadera, el total de los
rangos que corresponden a las diferencias positivas debe ser casi igual al total de
los rangos que corresponden a las diferencias negativas. Se representan esos
totales como w+ y w-, respectivamente. Se designa el menor de w+ y w- con w.
Al seleccionar muestras repetidas esperaríamos que variarán w+ y w-, y por tanto w.
De esta manera se puede considerar a w+ y w-, y w como valores de las
correspondiente variables aleatorias W +, W-, y W. La hipótesis nula
puede rechazar a favor de la alternativa
<
0
=
0
se
sólo si w es pequeña y w- es
grande. Del mismo modo, la alternativa
> 0 se puede aceptar sólo si w es
grande y w- es pequeña. Para una alternativa bilateral se puede rechazar H 0a favor
de H1 si w o w- y por tanto w son suficientemente pequeñas. No importa cuál
hipótesis alternativa puede ser, rechazar la hipótesis nula cuando el valor de la
estadística apropiada W +, W -, o W es suficientemente pequeño.
4. FICHIER
5. CORRELACION RANGO-ORDEN
Es una medida de asociación lineal que utiliza los rangos, números de orden de
cada grupo de sujetos y compara dichos rangos. Existen dos métodos para calcular
el coeficiente de correlación de los rangos uno señalado por spearman y el otro por
Kendall. El r de spearman llamado también rho spearman es más fácil de calcular
que el Kendall. El coeficiente de correlación de spearman es exactamente el mismo
que el coeficiente de correlación de Pearson calculado sobre el rango de
observaciones.
1.
correlaciones: con esta opción se obtienen los estadísticos:
●
Coeficiente de correlación de Pearson: es una medida de asociación lineal
adecuada para variables medidas en escala de intervalo *.
●
Coeficiente de correlación de Spearman: mide el grado de correspondencia
que existe entre los rangos que se asignan a los valores de las variables
analizadas. Por ello, este coeficiente se puede calcular con datos ordinales, y
se define:
, siendo di la diferencia entre los
rangos correspondientes a la observación i-ésima. El coeficiente toma valores
entre -1 y +1. Un valor cercano a 0 indica que las variables apenas están
relacionadas.
El cuadro Ordinal recoge una serie de estadísticos basados en el número de
concordancias y discordancias que aparecen al comparar las puntuaciones
asignadas a los mismos casos según dos criterios (o jueces) diferentes. Así, por
ejemplo, si
criterio y
recoge las puntuaciones asignadas a los casos según el primer
según el segundo, para la obtención de concordancias y discordancias
que aparecen entre los dos criterios, se procede de la siguiente forma:
●
se ordenan los pares de puntuaciones de acuerdo con el orden natural de las
puntuaciones asignadas según el primer criterio,
●
se compara cada valor de
.
con cada uno de los que le siguen, y se
registra una concordancia (+1) cuando los dos valores siguen el orden
natural, una discordancia (-1) cuando el orden está invertido y un empate (0)
cuando coinciden ambas puntuaciones.
●
se calculan C total de las concordancias, D total de las discordancias y E el
número total de empates.
El número total de comparaciones es
incluyendo empates.
1. Gamma: El estadístico Gamma se define como
Este análisis excluye los
casos que presentan la misma puntuación en las dos variables (empates).
2. Tau-b de Kendall. Este coeficiente incluye los empates contemplando por
separado los que aparecen en la variable
variable
y los que aparecen en la
.
Se define como
3. Tau-c de Kendall. Este estadístico se define como
menor número de casos no empatados que presentan
siendo k el
o
4. d de Somers: A diferencia de los anteriores este estadístico considera que las
variables pueden ser simétricas o dependientes. En el primer caso, el estadístico d
de Somers coincide con la Tau-b de Kendall. En el segundo supuesto, se diferencia
del estadístico Gamma en que incluye los empates de la variable que considera
dependiente. Si la variable dependiente es
Todas estas medidas toman valores entre -1 y +1, y alcanza los valores extremos
cuando existe concordancia o discordancia perfecta. Valores próximos a 0 indican
ausencia de asociación.
NOTA: LA FUENTE DE INFORMACION ES LIBRE.
Bibliografía:
http://www.monografias.com/trabajos106/prueba-u-mann-whitney-dos-muestrasindependientes/prueba-u-mann-whitney-dos-muestras-independientes.shtml
http://ccu.mx/antologias/pedagogia/7/Estadistica%20aplicada%20a%20la%20educacion%20
II.pdf
http://www.ub.edu/aplica_infor/spss/cap3-5.htm