SlideShare una empresa de Scribd logo
1
Anova un factor y Kruskal-Wallis
Introducción
El análisis de la varianza (Anova) se debe al estadístico-genético Sir Ronald Aylmer Fisher (1890-1962),
autor del libro "Statistics Methods for Research Workers" publicado en 1925 y pionero de la aplicación
de métodos estadísticos en el diseño de experimentos, introduciendo el concepto de aleatorización.
El Anova se puede utilizar en las situaciones en las que nos interesa analizar una respuesta cuantitativa,
llamada habitualmente variable dependiente, medida bajo ciertas condiciones experimentales
identificadas por una o más variables categóricas (por ejemplo tratamiento, sexo), llamadas variables
independientes. Cuando hay una sola variable que proporciona condiciones experimentales distintas, el
análisis recibe el nombre de Anova de un factor.
Entre las pruebas de comparación múltiples a posteriori, que se utilizan a continuación de las técnicas
del Anova, se encuentra la prueba HSD de Tukey. John Tukey es, asímismo, conocido por introducir la
transformación rápida de Fourier, aunque trabajó en muchas áreas incluyendo sobre todo la filosofía de
la estadística.
Cuando el análisis de la varianza no es aplicable debido a incumplimientos de las suposiciones del modelo,
es necesario aplicar la prueba de Kruskal-Wallis para el contraste de k medianas. Esta prueba es una
ampliación de la prueba de Mann-Whitney-Wilcoxon para dos medianas.
La prueba de Kruskal-Wallis fue propuesta por William Henry Kruskal (1919- ) y W. Allen Wallis (1912-
1998) en el artículo "Use of ranks in one-criterion variance analysis" publicado en el “Journal of
American Statistics Association” en 1952.
R. A. Fisher John Tukey
William H. Kruskal W. Allen Wallis
2
Fórmulas básicas
En el análisis de la varianza, la variación en la respuesta se divide en la variación entre los diferentes
niveles del factor (los diferentes tratamientos) y la variación entre individuos dentro de cada nivel.
Suponiendo que las medias de los grupos son iguales, la variación entre grupos es comparable a la
variación entre individuos. Si la primera es mucho mayor que la segunda, puede indicar que las medias en
realidad no son iguales.
El objetivo principal del Anova es contrastar si existen diferencias entre las diferentes medias de los
niveles de las variables (factores). Cuando sólo hay dos medias, el Anova es equivalente a la prueba t-
Student para el contraste de dos medias.
La variación observada en la respuesta se asume que es debida al efecto de las variables categóricas,
aunque también se asume que existe cierto error aleatorio independiente que explica la variación
residual. Se asume también que dicho error aleatorio sigue una distribución normal con media 0 y
varianza constante. Estas asunciones son análogas a las exigidas para la prueba t-Student para
contrastar la igualdad de dos medias, donde se asumía normalidad de la respuesta en cada grupo e
igualdad de varianzas (contrastada mediante la F-Snedecor).
Para estudiar la validez del modelo es necesario confirmar estas hipótesis mediante el estudio de los
residuos (valores predichos - valores observados): normalidad, tendencias, etc. y la realización de un
contraste de homocedasticidad (homogeneidad de varianzas entre los grupos).
Para el estudio de la normalidad de los errores, se puede recurrir al estudio de la normalidad de cada
grupo (al igual que en la prueba t-Student) pero no es recomendable, debido a que puede requerir un
gran número de pruebas. La solución utilizada habitualmente es el estudio del gráfico de dispersión
entre los residuos y los valores predichos. Este gráfico permite estudiar la simetría, si existen
patrones de comportamiento, la independencia entre observaciones y tendencias en general. Si se
observa algún comportamiento de los mencionados, el modelo no es válido y se debe cambiar de modelo,
de técnica estadística o transformar las variables.
Uno de los posibles contrastes para la homocedasticidad es la prueba de Barlett propuesta por Barlett
en 1937. Esta prueba presupone que los datos provienen de variables con distribución normal. Otra
alternativa menos sensible a la falta de normalidad y por este motivo recomendada por diversos autores
es la prueba de Levene propuesta por Levene en 1960.
En general, el Anova es un procedimiento muy robusto que ofrece buenas aproximaciones en el caso que
las premisas del modelo no se cumplan rigurosamente.
Muchas veces interesa saber qué medias difieren entre sí después de realizar el Anova. Para realizar
contrastes a posterior es necesario ajustar el error alfa, y para este objetivo existen diferentes
métodos, siendo la corrección de Tukey propuesta por el matemático John Tukey (1915-2000) la más
habitual de todas ellas.
Los contrastes de comparaciones múltiples (o comparaciones a posteriori) proporcionan información
detallada sobre las diferencias entre las medias dos a dos. Para este objetivo una primera intuición nos
llevaría a realizar los correspondientes pruebas t-Student (o pruebas de Mann-Whitney-Wilcoxon para
medianas) entre todas las posibles parejas de grupos. El problema reside en la repetición de múltiples
contrastes. Si se tienen 5 medias, se necesitaría realizar 10 comparaciones 2 a 2 y cada una de ellas
tendría un error alfa o de tipo I (probabilidad de rechazar la hipótesis nula cuando en realidad es
3
cierta) del 5%. Se puede comprobar que al realizar 10 contrastes al 5%, la probabilidad de rechazar al
menos una de las hipótesis nulas es aproximadamente del 40%. De manera que con un 40% de
probabilidades se llegaría a alguna conclusión falsa.
Existen diversos métodos para ajustar este tipo de error y conseguir que efectivamente el error
conjunto no sea superior al 5%. La primera aproximación es debida a Fisher, quien propuso que sólo se
han de comparar las diferencias entre medias 2 a 2 si el precedente Anova ha resultado significativo.
Estas comparaciones a posteriori se realizan sin corrección alguna. Este método es conocido cómo LSD
(“Least Significant Difference”). El método de Bonferroni es extremadamente conservador pero no
depende de la muestra, sólo del número de comparaciones. Consiste en substituir el error alfa por α/nc
siendo nc el número de comparaciones. En el método de Sidak se sustituye α por 1 - ( 1 - α) 1/nc
, siendo
uno de los más utilizados cuando sólo nos interesa contrastar si algunas de las diferencias son
significativas. Existen otros métodos para controlar el error de cada comparación debidos a Scheffé
(1953) y el método HSD (“Honestly Signifficant Difference”) de Tukey (1953). Cuando todas las
diferencias que se quieren estudiar son contra un mismo grupo control, es habitual realizar el ajuste de
Dunnett (1955). También existen métodos de comparación de grupos de medias que permiten detectar
grupos homogéneos de medias cómo el ajuste de Duncan y el de SNK (“Student-Newman-Keuls”), que
son adecuados cuando los grupos son balanceados y el interés reside en obtener una comparación global.
En general, el método más conveniente es: después de realizar un Anova realizar el ajuste de Tukey y si
se quiere contrastar todos los grupos con un control realizar el de Dunnett.
Cuando una comparación a posteriori no es significativa, la conclusión es: no ha sido posible rechazar la
hipótesis nula, no que sea cierta. Por este motivo, es posible encontrar un modelo Anova significativo y
que al mismo tiempo no haya diferencias entre medias dos a dos. Muchas veces esta situación es debida
a tamaños de muestra reducidos.
En el caso de que no se cumplan las suposiciones del análisis de la varianza, es necesario aplicar la
prueba de Kruskal-Wallis para el contraste de k medianas, que generaliza a la prueba de Mann-
Whitney-Wilcoxon para dos medianas.
Cuando se compara medianas a través de la prueba de Kruskal-Wallis, las comparaciones 2 a 2 no suelen
estar implementadas en los paquetes estadísticos, aunque se puede utilizar el método de Dunn por su
sencillez de aplicación.
Anova de un factor
La prueba Anova nos permite comparar las medias de r grupos, siendo r mayor o igual a 2. El modelo
Anova presupone que las varianzas de los grupos son iguales y que los residuos o errores son aleatorios,
independientes e idénticamente distribuidos siguiendo una ley normal con media 0 y desviación
constante. La hipótesis nula de la prueba Anova de un factor es:
H0: Las medias de los k grupos son todas iguales
H1: Al menos una de las medias es diferente
Esta prueba se basa en la comparación de las sumas de cuadrados medias debidas a la variabilidad entre
grupos y la debida a la variabilidad intra grupos (dentro de los grupos). Ambas sumas son estimaciones
independientes de la variabilidad global, de manera que, si el cociente entre la primera y la segunda es
grande, se tendrá mayor probabilidad de rechazar la hipótesis nula. Este cociente sigue una
distribución F con r - 1 y n - r grados de libertad.
4
Cálculo de la suma de cuadrados
Las sumas de cuadrados son un paso previo para el cálculo del Anova. Si se denotan por r al número de
grupos, por nj el número de individuos en cada grupo j = 1,…,r, j.x la media de cada grupo y ..x la media
global. La suma de cuadrados entre grupos SCE, la suma de cuadrados dentro de grupos SDE y la suma
de cuadrados total SCT se calculan del siguiente modo:
( )∑=
−=
r
1j
2
..j.j xxnSCE
( ) ∑ ∑∑∑∑ = === =
−=−=
r
1j
r
1j
2
j.j
n
1i
2
ij
r
1j
n
1i
2
j.ij xnxxxSCD
jj
( )∑∑= =
−=
r
1j
n
1i
2
..ij
j
xxSCT
Utilizando la siguiente igualdad que permite expresar las desviaciones entre los datos observados xij y
la media total (“grand mean”) ..x como suma de las desviaciones de la media del grupo j.x y la media
total más las desviaciones entre los datos observados y la media del grupo, de forma que:
( ) ( )j.ij..j...ij xxxxxx −+−=−
se puede demostrar que SCT = SCE + SCD y por tanto la variabilidad de los datos (dada por SCT) se
expresa como la suma de la variabilidad debida a los grupos (a las medias) o variabilidad explicada
(dada por SCE) más la variabilidad dentro de los grupos (variabilidad residual) o variabilidad no
explicada (dada por SCD).
Cálculo de los grados de libertad
Los grados de libertad entre grupos GLE, dentro de los grupos GLD y total GLT se calculan de la
manera siguiente:
GLE = r - 1
GLD = n - r
GLT = n - 1
Cálculo de los cuadrados medios
El cuadrado medio entre grupos CME y el cuadrado medio dentro de grupos se calculan de la manera
siguiente:
GLE
SCE
CME =
GLD
SCD
CMD =
Estadístico de contraste F
El estadístico de contraste para realizar la prueba Anova se construye de la forma siguiente:
CMD
CME
F =
que se distribuye según una F-Snedecor con GLE grados de libertad del numerador y GLD grados de
libertad del denominador.
5
Cálculo del coeficiente de determinación
Una medida relativa de la variabilidad explicada por los grupos es el cociente:
SCT
SCE
R 2
=
que se denomina coeficiente de determinación , este coeficiente estará entre cero y uno. Queda claro
que cuanto más próximo esté de uno, más variabilidad explica el modelo, y por tanto menos variabilidad
no explicada o residual.
Tabla del Anova
La información anterior se suele disponer en forma de tabla:
Suma de Cuadrados G.L. Cuadrado Medio F-valor p-valor
Entre Grupos SCE GLE CME F p
Dentro Grupos SCD GLD CMD
Total SCT GLT
Kruskal-Wallis
La prueba de Kruskal-Wallis es el método más adecuado para comparar poblaciones cuyas distribuciones
no son normales. Incluso cuando las poblaciones son normales, este contraste funciona muy bien.
También es adecuado cuando las desviaciones típicas de los diferentes grupos no son iguales entre sí,
sin embargo, el Anova de un factor es muy robusto y sólo se ve afectado cuando las desviaciones típicas
difieren en gran magnitud.
La hipótesis nula de la prueba de Kruskal-Wallis es:
H0: Las k medianas son todas iguales
H1: Al menos una de las medianas es diferente
Cálculo de los rangos para cada observación
Para cada observación se le asigna el rango según el orden que ocupa la observación en el conjunto total
de los datos, asignando el rango medio en caso de empates.
Cálculo de la suma de rangos Rm
Para cada grupo m = 1,…,r, siendo r el número de grupos, se define Rm como la suma de rangos de cada
grupo m
Cálculo del valor medio de los rangos E[Rm] y de los rangos medios –
Rm
El valor medio de los rangos E[Rm] se calcula como:
[ ] ( )
2
1nn
RE m
m
+
=
y el rango medio mR como:
m
m
m
n
R
R =
Estadístico de contraste H’
El estadístico de contraste de Kruskal-Wallis H’ se calcula como:
6
( )
[ ][ ]
( )
nn
dd
1
RER
n
1
1nn
12
'H
3
k
1j
j
3
j
r
1m
2
mm
m
−
−
−
−
+
=
∑
∑
=
=
siendo dj el número de empates en j = 1,…,k siendo k el número de valores distintos de la variable
respuesta, que sigue una distribución Chi-Cuadrado con r - 1 grados de libertad.
7
Ejemplos
Anova de un factor
Se tienen los siguientes datos experimentales, correspondientes a 40 individuos de los que se ha
recogido información de dos variables: la variable explicativa Status es nominal y la variable respuesta
Fc2 es cuantitativa. Los datos se presentan de forma que en las filas hay varios individuos para
facilitar la lectura:
Fc2 Status Fc2 Status Fc2 Status Fc2 Status
155 1 144 1 126 2 120 3
154 1 136 1 160 2 126 3
148 1 134 1 136 2 116 3
132 1 142 1 158 2 142 3
126 1 138 1 142 2 144 3
132 1 140 1 134 2 112 3
156 1 136 1 148 2 116 3
138 1 165 2 146 2 120 3
158 1 148 2 126 3 122 3
144 1 128 2 128 3 132 3
Calcular la prueba Anova de comparación de medias para los datos anteriores.
Cálculo de la suma de cuadrados
Las sumas de cuadrados son un paso previo para el cálculo del Anova. Si se denotan por r al número de
grupos, por nj el número de individuos en cada grupo j = 1,…,r, j.x la media de cada grupo y ..x la media
global. La suma de cuadrados entre grupos SCE, la suma de cuadrados dentro de grupos SDE y la suma
de cuadrados total SCT se calculan del siguiente modo:
( ) ( ) ( )
( ) 2467.26707.1373333.12512
7.1376364.144117.1379412.14117xxnSCE
2
22
r
1j
2
..j.j
=−⋅
+−⋅+−⋅=−= ∑=
( )
( ) 1533.420885.7611217653303333.125126364.144119412.14117765330
xnxxxSCD
222
r
1j
r
1j
2
j.j
n
1i
2
ij
r
1j
n
1i
2
j.ij
jj
=−=⋅+⋅+⋅−
=−=−= ∑ ∑∑∑∑ = === =
( ) 4.6878SCDSCExxSCT
r
1j
n
1i
2
..ij
j
=+=−= ∑∑= =
Cálculo de los grados de libertad
Los grados de libertad entre grupos GLE, dentro de los grupos GLD y total GLT se calculan de la
manera siguiente:
GLE = r - 1 = 2
GLD = n - r = 40 - 3 = 37
GLT = n – 1 = 40 - 1 = 39
8
Cálculo de los cuadrados medios
El cuadrado medio entre grupos CME y el cuadrado medio dentro de grupos se calculan de la manera
siguiente:
1234.1335
GLE
SCE
CME ==
7339.113
GLD
SCD
CMD ==
Estadístico de contraste F
El estadístico de contraste para realizar la prueba Anova se construye de la forma siguiente:
7390.11
CMD
CME
F ==
que se distribuye según una F-Snedecor con GLE = 2 grados de libertad del numerador y GLD = 37
grados de libertad del denominador, que tiene asociado un p-valor de 0.0001
Cálculo del coeficiente de determinación
Una medida relativa de la variabilidad explicada por los grupos es el cociente:
%39
SCT
SCE
R 2
==
con lo que se tendría, al igual que en modelos de regresión, que el modelo Anova, o más específicamente,
la variable que forma los grupos, explica un 39% de la variabilidad de la variable respuesta.
Kruskal-Wallis
Se tienen los siguientes datos experimentales, correspondientes a 22 individuos de los que se ha
recogido información de dos variables: una variable explicativa Exp nominal y otra variable respuesta
Rta cuantitativa. Los datos se presentan de forma que en las filas hay varios individuos para facilitar la
lectura:
Rta Exp Rta Exp
15 1 28 2
15 1 28 2
25 1 28 2
25 1 35 2
25 1 43 2
33 1 13 3
43 1 15 3
15 2 25 3
16 2 25 3
16 2 35 3
25 2
28 2
Calcular la prueba de Kruskal-Wallis de comparación de medianas para los datos anteriores.
Cálculo de los rangos para cada observación
Para cada observación se le asigna el rango según el orden que ocupa la observación en el conjunto total
de los datos, asignando el rango medio en caso de empates:
9
Rta Exp Rango (Rta) Rta Exp Rango (Rta)
15 1 3.5 28 2 15.5
15 1 3.5 28 2 15.5
25 1 10.5 28 2 15.5
25 1 10.5 35 2 19.5
25 1 10.5 43 2 21.5
33 1 18 13 3 1
43 1 21.5 15 3 3.5
15 2 3.5 25 3 10.5
16 2 6.5 25 3 10.5
16 2 6.5 35 3 19.5
25 2 10.5
28 2 15.5
Cálculo de la suma de rangos Rm
Para cada grupo m = 1,…,r, siendo r el número de grupos, se define Rm como la suma de rangos de cada
grupo m, que para los datos del ejemplo resultan ser:
00.785.21185.105.105.105.35.3rangosR
1grupo
1 =++++++== ∑
00.1305.215.195.155.155.155.155.105.65.65.3rangosR
2grupo
2 =+++++++++== ∑
00.455.195.105.105.31rangosR
3grupo
3 =++++== ∑
Cálculo del valor medio de los rangos E[Rm] y de los rangos medios mR
El valor medio de los rangos E[Rm] se calcula como:
[ ] ( )
2
1nn
RE m
m
+
=
y el rango medio mR como:
m
m
m
n
R
R =
Para los datos del ejemplo resultan ser:
[ ] ( ) ( ) 50.80
2
1227
2
1nn
RE 1
1 =
+⋅
=
+
=
[ ] ( ) ( ) 50.115
2
12210
2
1nn
RE 2
2 =
+⋅
=
+
=
[ ] ( ) ( ) 50.57
2
1225
2
1nn
RE 3
3 =
+⋅
=
+
=
14.11
n
R
R
1
1
1 ==
00.13
n
R
R
2
2
2 ==
00.9
n
R
R
3
3
3 ==
10
Estadístico de contraste H’
El estadístico de contraste H’ se calcula como:
( )
[ ][ ]
( )
nn
dd
1
RER
n
1
1nn
12
'H
3
k
1j
j
3
j
r
1m
2
mm
m
−
−
−
−
+
=
∑
∑
=
=
siendo dj el número de empates en j = 1,…,k siendo k el número de valores distintos de la variable
respuesta, que para los datos del ejemplo resulta ser:
( ) ( ) ( ) ( ) ( ) ( ) ( ) 348222244662244dd 333333
k
1j
j
3
j =−+−+−+−+−+−=−∑=
con lo que:
[ ] [ ] [ ]
3398.1
2222
348
1
5.5745
5
1
115130
10
1
5.8078
7
1
2322
12
'H
3
222
=
−
−






−+−+−
⋅
=
que sigue una distribución Chi-Cuadrado con r –1 = 2 grados de libertad, que tiene asociada un p-valor
de 0.5118

Más contenido relacionado

PPTX
Coeficiente de correlacion
PPT
Estadistica
PPTX
Inferential statistics powerpoint
PPTX
INFERENTIAL TECHNIQUES. Inferential Stat. pt 3
DOCX
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
PPTX
Estimación e intervalos de confianza
PDF
Distribuciones de probabilidad continua .pdf
PDF
Socioestadistica - 5. tamaño muestra (a) - Jorge Canales Fuster
Coeficiente de correlacion
Estadistica
Inferential statistics powerpoint
INFERENTIAL TECHNIQUES. Inferential Stat. pt 3
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
Estimación e intervalos de confianza
Distribuciones de probabilidad continua .pdf
Socioestadistica - 5. tamaño muestra (a) - Jorge Canales Fuster

La actualidad más candente (9)

PPTX
CORRELACION DE PEARSON
PDF
Determinacion del tamaño de la muestra parte 1
PPTX
Significance test
PPTX
Presentacion de correlacion de pearson y sperman
PPTX
2.2 metodo de biseccion
PPT
La Hipotesis
PPTX
Medidas de Dispersion
DOCX
Proporcion poblacional
PPTX
Correlacion lineal 2019
CORRELACION DE PEARSON
Determinacion del tamaño de la muestra parte 1
Significance test
Presentacion de correlacion de pearson y sperman
2.2 metodo de biseccion
La Hipotesis
Medidas de Dispersion
Proporcion poblacional
Correlacion lineal 2019
Publicidad

Similar a Anova un factor-lectura (20)

PPTX
trabajo de investigacion de analisis.pptx
DOC
Analisis de varianza.doc
DOCX
Experimentos con un solo factor
PPTX
PPTX
362652536-Analisis-de-Varianza-Diapositiva.pptx
PDF
07_Anova_kruskal_friedman.pdf
PDF
analisis_de_varianza_2012 proceso estadística
PDF
Analisis de varianza_2012
PPTX
diapositivas presentacion de estadistica aplicada a la ing listo.pptx
DOCX
Formulario Contrastes y Comparaciones de Medias
PPTX
Análisis de ANOVA juniora alexander velaña chamgo
PPTX
Pruebatstudent Estadistica, probabilidad.pptx
PPTX
Análisis de la varianza
PPT
S2 1 Intro Anva
PPTX
ANOVA, Definicion y ejemplos de su uso.pptx
PPTX
Análisis funcional
PDF
Análisis anova
DOCX
Analisis de varianza alternativas1
PDF
Tstudent2 130311164752-phpapp01
 
trabajo de investigacion de analisis.pptx
Analisis de varianza.doc
Experimentos con un solo factor
362652536-Analisis-de-Varianza-Diapositiva.pptx
07_Anova_kruskal_friedman.pdf
analisis_de_varianza_2012 proceso estadística
Analisis de varianza_2012
diapositivas presentacion de estadistica aplicada a la ing listo.pptx
Formulario Contrastes y Comparaciones de Medias
Análisis de ANOVA juniora alexander velaña chamgo
Pruebatstudent Estadistica, probabilidad.pptx
Análisis de la varianza
S2 1 Intro Anva
ANOVA, Definicion y ejemplos de su uso.pptx
Análisis funcional
Análisis anova
Analisis de varianza alternativas1
Tstudent2 130311164752-phpapp01
 
Publicidad

Anova un factor-lectura

  • 1. 1 Anova un factor y Kruskal-Wallis Introducción El análisis de la varianza (Anova) se debe al estadístico-genético Sir Ronald Aylmer Fisher (1890-1962), autor del libro "Statistics Methods for Research Workers" publicado en 1925 y pionero de la aplicación de métodos estadísticos en el diseño de experimentos, introduciendo el concepto de aleatorización. El Anova se puede utilizar en las situaciones en las que nos interesa analizar una respuesta cuantitativa, llamada habitualmente variable dependiente, medida bajo ciertas condiciones experimentales identificadas por una o más variables categóricas (por ejemplo tratamiento, sexo), llamadas variables independientes. Cuando hay una sola variable que proporciona condiciones experimentales distintas, el análisis recibe el nombre de Anova de un factor. Entre las pruebas de comparación múltiples a posteriori, que se utilizan a continuación de las técnicas del Anova, se encuentra la prueba HSD de Tukey. John Tukey es, asímismo, conocido por introducir la transformación rápida de Fourier, aunque trabajó en muchas áreas incluyendo sobre todo la filosofía de la estadística. Cuando el análisis de la varianza no es aplicable debido a incumplimientos de las suposiciones del modelo, es necesario aplicar la prueba de Kruskal-Wallis para el contraste de k medianas. Esta prueba es una ampliación de la prueba de Mann-Whitney-Wilcoxon para dos medianas. La prueba de Kruskal-Wallis fue propuesta por William Henry Kruskal (1919- ) y W. Allen Wallis (1912- 1998) en el artículo "Use of ranks in one-criterion variance analysis" publicado en el “Journal of American Statistics Association” en 1952. R. A. Fisher John Tukey William H. Kruskal W. Allen Wallis
  • 2. 2 Fórmulas básicas En el análisis de la varianza, la variación en la respuesta se divide en la variación entre los diferentes niveles del factor (los diferentes tratamientos) y la variación entre individuos dentro de cada nivel. Suponiendo que las medias de los grupos son iguales, la variación entre grupos es comparable a la variación entre individuos. Si la primera es mucho mayor que la segunda, puede indicar que las medias en realidad no son iguales. El objetivo principal del Anova es contrastar si existen diferencias entre las diferentes medias de los niveles de las variables (factores). Cuando sólo hay dos medias, el Anova es equivalente a la prueba t- Student para el contraste de dos medias. La variación observada en la respuesta se asume que es debida al efecto de las variables categóricas, aunque también se asume que existe cierto error aleatorio independiente que explica la variación residual. Se asume también que dicho error aleatorio sigue una distribución normal con media 0 y varianza constante. Estas asunciones son análogas a las exigidas para la prueba t-Student para contrastar la igualdad de dos medias, donde se asumía normalidad de la respuesta en cada grupo e igualdad de varianzas (contrastada mediante la F-Snedecor). Para estudiar la validez del modelo es necesario confirmar estas hipótesis mediante el estudio de los residuos (valores predichos - valores observados): normalidad, tendencias, etc. y la realización de un contraste de homocedasticidad (homogeneidad de varianzas entre los grupos). Para el estudio de la normalidad de los errores, se puede recurrir al estudio de la normalidad de cada grupo (al igual que en la prueba t-Student) pero no es recomendable, debido a que puede requerir un gran número de pruebas. La solución utilizada habitualmente es el estudio del gráfico de dispersión entre los residuos y los valores predichos. Este gráfico permite estudiar la simetría, si existen patrones de comportamiento, la independencia entre observaciones y tendencias en general. Si se observa algún comportamiento de los mencionados, el modelo no es válido y se debe cambiar de modelo, de técnica estadística o transformar las variables. Uno de los posibles contrastes para la homocedasticidad es la prueba de Barlett propuesta por Barlett en 1937. Esta prueba presupone que los datos provienen de variables con distribución normal. Otra alternativa menos sensible a la falta de normalidad y por este motivo recomendada por diversos autores es la prueba de Levene propuesta por Levene en 1960. En general, el Anova es un procedimiento muy robusto que ofrece buenas aproximaciones en el caso que las premisas del modelo no se cumplan rigurosamente. Muchas veces interesa saber qué medias difieren entre sí después de realizar el Anova. Para realizar contrastes a posterior es necesario ajustar el error alfa, y para este objetivo existen diferentes métodos, siendo la corrección de Tukey propuesta por el matemático John Tukey (1915-2000) la más habitual de todas ellas. Los contrastes de comparaciones múltiples (o comparaciones a posteriori) proporcionan información detallada sobre las diferencias entre las medias dos a dos. Para este objetivo una primera intuición nos llevaría a realizar los correspondientes pruebas t-Student (o pruebas de Mann-Whitney-Wilcoxon para medianas) entre todas las posibles parejas de grupos. El problema reside en la repetición de múltiples contrastes. Si se tienen 5 medias, se necesitaría realizar 10 comparaciones 2 a 2 y cada una de ellas tendría un error alfa o de tipo I (probabilidad de rechazar la hipótesis nula cuando en realidad es
  • 3. 3 cierta) del 5%. Se puede comprobar que al realizar 10 contrastes al 5%, la probabilidad de rechazar al menos una de las hipótesis nulas es aproximadamente del 40%. De manera que con un 40% de probabilidades se llegaría a alguna conclusión falsa. Existen diversos métodos para ajustar este tipo de error y conseguir que efectivamente el error conjunto no sea superior al 5%. La primera aproximación es debida a Fisher, quien propuso que sólo se han de comparar las diferencias entre medias 2 a 2 si el precedente Anova ha resultado significativo. Estas comparaciones a posteriori se realizan sin corrección alguna. Este método es conocido cómo LSD (“Least Significant Difference”). El método de Bonferroni es extremadamente conservador pero no depende de la muestra, sólo del número de comparaciones. Consiste en substituir el error alfa por α/nc siendo nc el número de comparaciones. En el método de Sidak se sustituye α por 1 - ( 1 - α) 1/nc , siendo uno de los más utilizados cuando sólo nos interesa contrastar si algunas de las diferencias son significativas. Existen otros métodos para controlar el error de cada comparación debidos a Scheffé (1953) y el método HSD (“Honestly Signifficant Difference”) de Tukey (1953). Cuando todas las diferencias que se quieren estudiar son contra un mismo grupo control, es habitual realizar el ajuste de Dunnett (1955). También existen métodos de comparación de grupos de medias que permiten detectar grupos homogéneos de medias cómo el ajuste de Duncan y el de SNK (“Student-Newman-Keuls”), que son adecuados cuando los grupos son balanceados y el interés reside en obtener una comparación global. En general, el método más conveniente es: después de realizar un Anova realizar el ajuste de Tukey y si se quiere contrastar todos los grupos con un control realizar el de Dunnett. Cuando una comparación a posteriori no es significativa, la conclusión es: no ha sido posible rechazar la hipótesis nula, no que sea cierta. Por este motivo, es posible encontrar un modelo Anova significativo y que al mismo tiempo no haya diferencias entre medias dos a dos. Muchas veces esta situación es debida a tamaños de muestra reducidos. En el caso de que no se cumplan las suposiciones del análisis de la varianza, es necesario aplicar la prueba de Kruskal-Wallis para el contraste de k medianas, que generaliza a la prueba de Mann- Whitney-Wilcoxon para dos medianas. Cuando se compara medianas a través de la prueba de Kruskal-Wallis, las comparaciones 2 a 2 no suelen estar implementadas en los paquetes estadísticos, aunque se puede utilizar el método de Dunn por su sencillez de aplicación. Anova de un factor La prueba Anova nos permite comparar las medias de r grupos, siendo r mayor o igual a 2. El modelo Anova presupone que las varianzas de los grupos son iguales y que los residuos o errores son aleatorios, independientes e idénticamente distribuidos siguiendo una ley normal con media 0 y desviación constante. La hipótesis nula de la prueba Anova de un factor es: H0: Las medias de los k grupos son todas iguales H1: Al menos una de las medias es diferente Esta prueba se basa en la comparación de las sumas de cuadrados medias debidas a la variabilidad entre grupos y la debida a la variabilidad intra grupos (dentro de los grupos). Ambas sumas son estimaciones independientes de la variabilidad global, de manera que, si el cociente entre la primera y la segunda es grande, se tendrá mayor probabilidad de rechazar la hipótesis nula. Este cociente sigue una distribución F con r - 1 y n - r grados de libertad.
  • 4. 4 Cálculo de la suma de cuadrados Las sumas de cuadrados son un paso previo para el cálculo del Anova. Si se denotan por r al número de grupos, por nj el número de individuos en cada grupo j = 1,…,r, j.x la media de cada grupo y ..x la media global. La suma de cuadrados entre grupos SCE, la suma de cuadrados dentro de grupos SDE y la suma de cuadrados total SCT se calculan del siguiente modo: ( )∑= −= r 1j 2 ..j.j xxnSCE ( ) ∑ ∑∑∑∑ = === = −=−= r 1j r 1j 2 j.j n 1i 2 ij r 1j n 1i 2 j.ij xnxxxSCD jj ( )∑∑= = −= r 1j n 1i 2 ..ij j xxSCT Utilizando la siguiente igualdad que permite expresar las desviaciones entre los datos observados xij y la media total (“grand mean”) ..x como suma de las desviaciones de la media del grupo j.x y la media total más las desviaciones entre los datos observados y la media del grupo, de forma que: ( ) ( )j.ij..j...ij xxxxxx −+−=− se puede demostrar que SCT = SCE + SCD y por tanto la variabilidad de los datos (dada por SCT) se expresa como la suma de la variabilidad debida a los grupos (a las medias) o variabilidad explicada (dada por SCE) más la variabilidad dentro de los grupos (variabilidad residual) o variabilidad no explicada (dada por SCD). Cálculo de los grados de libertad Los grados de libertad entre grupos GLE, dentro de los grupos GLD y total GLT se calculan de la manera siguiente: GLE = r - 1 GLD = n - r GLT = n - 1 Cálculo de los cuadrados medios El cuadrado medio entre grupos CME y el cuadrado medio dentro de grupos se calculan de la manera siguiente: GLE SCE CME = GLD SCD CMD = Estadístico de contraste F El estadístico de contraste para realizar la prueba Anova se construye de la forma siguiente: CMD CME F = que se distribuye según una F-Snedecor con GLE grados de libertad del numerador y GLD grados de libertad del denominador.
  • 5. 5 Cálculo del coeficiente de determinación Una medida relativa de la variabilidad explicada por los grupos es el cociente: SCT SCE R 2 = que se denomina coeficiente de determinación , este coeficiente estará entre cero y uno. Queda claro que cuanto más próximo esté de uno, más variabilidad explica el modelo, y por tanto menos variabilidad no explicada o residual. Tabla del Anova La información anterior se suele disponer en forma de tabla: Suma de Cuadrados G.L. Cuadrado Medio F-valor p-valor Entre Grupos SCE GLE CME F p Dentro Grupos SCD GLD CMD Total SCT GLT Kruskal-Wallis La prueba de Kruskal-Wallis es el método más adecuado para comparar poblaciones cuyas distribuciones no son normales. Incluso cuando las poblaciones son normales, este contraste funciona muy bien. También es adecuado cuando las desviaciones típicas de los diferentes grupos no son iguales entre sí, sin embargo, el Anova de un factor es muy robusto y sólo se ve afectado cuando las desviaciones típicas difieren en gran magnitud. La hipótesis nula de la prueba de Kruskal-Wallis es: H0: Las k medianas son todas iguales H1: Al menos una de las medianas es diferente Cálculo de los rangos para cada observación Para cada observación se le asigna el rango según el orden que ocupa la observación en el conjunto total de los datos, asignando el rango medio en caso de empates. Cálculo de la suma de rangos Rm Para cada grupo m = 1,…,r, siendo r el número de grupos, se define Rm como la suma de rangos de cada grupo m Cálculo del valor medio de los rangos E[Rm] y de los rangos medios – Rm El valor medio de los rangos E[Rm] se calcula como: [ ] ( ) 2 1nn RE m m + = y el rango medio mR como: m m m n R R = Estadístico de contraste H’ El estadístico de contraste de Kruskal-Wallis H’ se calcula como:
  • 6. 6 ( ) [ ][ ] ( ) nn dd 1 RER n 1 1nn 12 'H 3 k 1j j 3 j r 1m 2 mm m − − − − + = ∑ ∑ = = siendo dj el número de empates en j = 1,…,k siendo k el número de valores distintos de la variable respuesta, que sigue una distribución Chi-Cuadrado con r - 1 grados de libertad.
  • 7. 7 Ejemplos Anova de un factor Se tienen los siguientes datos experimentales, correspondientes a 40 individuos de los que se ha recogido información de dos variables: la variable explicativa Status es nominal y la variable respuesta Fc2 es cuantitativa. Los datos se presentan de forma que en las filas hay varios individuos para facilitar la lectura: Fc2 Status Fc2 Status Fc2 Status Fc2 Status 155 1 144 1 126 2 120 3 154 1 136 1 160 2 126 3 148 1 134 1 136 2 116 3 132 1 142 1 158 2 142 3 126 1 138 1 142 2 144 3 132 1 140 1 134 2 112 3 156 1 136 1 148 2 116 3 138 1 165 2 146 2 120 3 158 1 148 2 126 3 122 3 144 1 128 2 128 3 132 3 Calcular la prueba Anova de comparación de medias para los datos anteriores. Cálculo de la suma de cuadrados Las sumas de cuadrados son un paso previo para el cálculo del Anova. Si se denotan por r al número de grupos, por nj el número de individuos en cada grupo j = 1,…,r, j.x la media de cada grupo y ..x la media global. La suma de cuadrados entre grupos SCE, la suma de cuadrados dentro de grupos SDE y la suma de cuadrados total SCT se calculan del siguiente modo: ( ) ( ) ( ) ( ) 2467.26707.1373333.12512 7.1376364.144117.1379412.14117xxnSCE 2 22 r 1j 2 ..j.j =−⋅ +−⋅+−⋅=−= ∑= ( ) ( ) 1533.420885.7611217653303333.125126364.144119412.14117765330 xnxxxSCD 222 r 1j r 1j 2 j.j n 1i 2 ij r 1j n 1i 2 j.ij jj =−=⋅+⋅+⋅− =−=−= ∑ ∑∑∑∑ = === = ( ) 4.6878SCDSCExxSCT r 1j n 1i 2 ..ij j =+=−= ∑∑= = Cálculo de los grados de libertad Los grados de libertad entre grupos GLE, dentro de los grupos GLD y total GLT se calculan de la manera siguiente: GLE = r - 1 = 2 GLD = n - r = 40 - 3 = 37 GLT = n – 1 = 40 - 1 = 39
  • 8. 8 Cálculo de los cuadrados medios El cuadrado medio entre grupos CME y el cuadrado medio dentro de grupos se calculan de la manera siguiente: 1234.1335 GLE SCE CME == 7339.113 GLD SCD CMD == Estadístico de contraste F El estadístico de contraste para realizar la prueba Anova se construye de la forma siguiente: 7390.11 CMD CME F == que se distribuye según una F-Snedecor con GLE = 2 grados de libertad del numerador y GLD = 37 grados de libertad del denominador, que tiene asociado un p-valor de 0.0001 Cálculo del coeficiente de determinación Una medida relativa de la variabilidad explicada por los grupos es el cociente: %39 SCT SCE R 2 == con lo que se tendría, al igual que en modelos de regresión, que el modelo Anova, o más específicamente, la variable que forma los grupos, explica un 39% de la variabilidad de la variable respuesta. Kruskal-Wallis Se tienen los siguientes datos experimentales, correspondientes a 22 individuos de los que se ha recogido información de dos variables: una variable explicativa Exp nominal y otra variable respuesta Rta cuantitativa. Los datos se presentan de forma que en las filas hay varios individuos para facilitar la lectura: Rta Exp Rta Exp 15 1 28 2 15 1 28 2 25 1 28 2 25 1 35 2 25 1 43 2 33 1 13 3 43 1 15 3 15 2 25 3 16 2 25 3 16 2 35 3 25 2 28 2 Calcular la prueba de Kruskal-Wallis de comparación de medianas para los datos anteriores. Cálculo de los rangos para cada observación Para cada observación se le asigna el rango según el orden que ocupa la observación en el conjunto total de los datos, asignando el rango medio en caso de empates:
  • 9. 9 Rta Exp Rango (Rta) Rta Exp Rango (Rta) 15 1 3.5 28 2 15.5 15 1 3.5 28 2 15.5 25 1 10.5 28 2 15.5 25 1 10.5 35 2 19.5 25 1 10.5 43 2 21.5 33 1 18 13 3 1 43 1 21.5 15 3 3.5 15 2 3.5 25 3 10.5 16 2 6.5 25 3 10.5 16 2 6.5 35 3 19.5 25 2 10.5 28 2 15.5 Cálculo de la suma de rangos Rm Para cada grupo m = 1,…,r, siendo r el número de grupos, se define Rm como la suma de rangos de cada grupo m, que para los datos del ejemplo resultan ser: 00.785.21185.105.105.105.35.3rangosR 1grupo 1 =++++++== ∑ 00.1305.215.195.155.155.155.155.105.65.65.3rangosR 2grupo 2 =+++++++++== ∑ 00.455.195.105.105.31rangosR 3grupo 3 =++++== ∑ Cálculo del valor medio de los rangos E[Rm] y de los rangos medios mR El valor medio de los rangos E[Rm] se calcula como: [ ] ( ) 2 1nn RE m m + = y el rango medio mR como: m m m n R R = Para los datos del ejemplo resultan ser: [ ] ( ) ( ) 50.80 2 1227 2 1nn RE 1 1 = +⋅ = + = [ ] ( ) ( ) 50.115 2 12210 2 1nn RE 2 2 = +⋅ = + = [ ] ( ) ( ) 50.57 2 1225 2 1nn RE 3 3 = +⋅ = + = 14.11 n R R 1 1 1 == 00.13 n R R 2 2 2 == 00.9 n R R 3 3 3 ==
  • 10. 10 Estadístico de contraste H’ El estadístico de contraste H’ se calcula como: ( ) [ ][ ] ( ) nn dd 1 RER n 1 1nn 12 'H 3 k 1j j 3 j r 1m 2 mm m − − − − + = ∑ ∑ = = siendo dj el número de empates en j = 1,…,k siendo k el número de valores distintos de la variable respuesta, que para los datos del ejemplo resulta ser: ( ) ( ) ( ) ( ) ( ) ( ) ( ) 348222244662244dd 333333 k 1j j 3 j =−+−+−+−+−+−=−∑= con lo que: [ ] [ ] [ ] 3398.1 2222 348 1 5.5745 5 1 115130 10 1 5.8078 7 1 2322 12 'H 3 222 = − −       −+−+− ⋅ = que sigue una distribución Chi-Cuadrado con r –1 = 2 grados de libertad, que tiene asociada un p-valor de 0.5118