ANOVA de un factor

¿Qué es el ANOVA de un factor?

El análisis de varianza (ANOVA) de un factor es un método estadístico para examinar las diferencias en las medias de tres o más grupos.

¿Cómo se usa el ANOVA de un factor?

Usualmente, el ANOVA de un factor se emplea cuando tenemos una única variable o factor independiente y el objetivo es investigar si las variaciones o diferentes niveles de ese factor tienen un efecto medible sobre una variable dependiente.

¿Qué limitaciones hay que tener en cuenta?

El ANOVA de un factor sólo puede utilizarse cuando se investiga un solo factor y una sola variable dependiente. Cuando se comparan las medias de tres o más grupos, puede indicar si al menos un par de medias es significativamente diferente, pero no puede indicar qué par. También requiere que la variable dependiente esté distribuida de manera normal en cada uno de los grupos y que la variabilidad dentro de cada grupo sea similar en todos los grupos.

El ANOVA de un factor es una prueba para las diferencias entre medias grupales

El ANOVA de un factor es un método estadístico para probar la hipótesis nula (H0) de que tres o más medias poblacionales son iguales frente a la hipótesis alternativa (Ha) de que al menos una de las medias es diferente. Usando la notación formal de las hipótesis estadísticas con k medias, escribiríamos:

$ H_0:\mu_1=\mu_2=\cdots=\mu_k $

$ H_a:\mathrm{no\mathrm{\ }todas\ las\ medias\ son\ iguales} $

Aquí $\mu_i$ es la media del i-ésimo nivel del factor.

Ahora, puede pensarse, de acuerdo, pero ¿en qué situaciones necesitaría determinar si las medias de múltiples poblaciones son iguales o diferentes? Un caso común es sospechar que una variable independiente de un proceso sea un factor determinante para un resultado importante de dicho proceso. Por ejemplo, se puede sospechar que hay diferentes lotes de producción, operadores o partidas de materias primas que están afectando el rendimiento (una métrica o medida de calidad) de un proceso productivo.

Para probar la sospecha, se puede ejecutar el proceso usando tres o más variaciones (o niveles) de esta variable independiente (o factor) y después tomar una muestra de observaciones de los resultados de cada ejecución. Si se encuentra diferencias al comparar las medias de cada grupo de observaciones usando el ANOVA, entonces, suponiendo que se haya hecho todo correctamente, se tendrá evidencia de que la sospecha era correcta: ¡el factor que estaba investigando parece tener influencia sobre el resultado!

Ejemplo de ANOVA de un factor

Vamos a ver un ejemplo de ANOVA de un factor en más detalle. Imagine que trabaja para una empresa que fabrica un gel adhesivo que se vende en tarros pequeños. La viscosidad del gel es importante: si es demasiado espeso resulta difícil de aplicar, pero si es demasiado líquido la adherencia se ve afectada. Recientemente, ha recibido comentarios de algunos clientes insatisfechos, se han quejado de que la viscosidad del adhesivo no es tan consistente como antes. Su jefe le pide que investigue el asunto.

Decide que sería buena idea empezar examinando la viscosidad media de los cinco lotes de producción más recientes. Si encuentra diferencias entre los lotes, esto confirmaría que el problema es real. También le ayudaría a empezar a formular hipótesis sobre los factores que podrían estar causando inconsistencias entre lotes.

Para medir la viscosidad, emplea un instrumento que hace girar un rotor sumergido en el tarro del adhesivo. Esta prueba produce una medida llamada resistencia a la torsión. Hace la prueba con cinco tarros escogidos al azar de cada uno de los cinco lotes más recientes. Obtiene la medición de la resistencia a la torsión de cada tarro y representa los datos en un gráfico.

Figura 1: Representación de las mediciones de resistencia a la torsión por lote

Al examinar el gráfico, observa que las mediciones de resistencia a la torsión de los tarros del lote 3 tienden a ser más bajas que las de las muestras tomadas de otros lotes. Cuando calcula la media de todas las medidas, observa que la resistencia a la torsión media del lote 3 es 26.77: es mucho más baja que los otros cuatro lotes, que tienen medias en torno a 30.

Tabla 1: Mediciones medias de resistencia a la torsión en las pruebas realizadas en cinco lotes de adhesivo

N.º de loteNMedia
1529.65
2530.43
3526.77
4530.42
5529.37

La tabla de ANOVA

Usualmente, los resultados del ANOVA se muestran en una tabla de ANOVA. Una tabla de ANOVA incluye:

  • Fuente: las fuentes de variación incluyendo el factor examinado (en nuestro caso, el lote), el error y el total.
  • GL: grados de libertad de cada fuente de variación.
  • Suma de cuadrados: la suma de los cuadrados (SC) de cada fuente de variación junto con el total de todas las fuentes.
  • Media de los cuadrados: la suma de los cuadrados dividida por los correspondientes grados de libertad asociados.
  • Razón F: la media de los cuadrados del factor (lote) dividida por la media de los cuadrados del error.
  • Prob > F: el valor p.

Tabla 2: Tabla de ANOVA con resultados de las mediciones de resistencia a la torsión

FuenteGrados de libertadSuma de cuadradosMedia de los cuadradosRazón FProb > F
Lote445.2511.316.900.0012
Error2032.801.64  
Total2478.05   

A continuación explicaremos cómo se obtienen los componentes de esta tabla. Un elemento clave de la tabla en el que nos centraremos por ahora es el valor p. El valor p se usa para evaluar la validez de la hipótesis nula de que todas las medias son iguales. En nuestro ejemplo, el valor p (Prob > F) es 0.0012. Este valor p pequeño puede tomarse como evidencia de que no todas las medias son iguales. Nuestras muestras aportan evidencia de que hay una diferencia en el valor medio de resistencia a la torsión entre uno o más de los cinco lotes.

¿Qué es el valor p?

El valor p es una medida de probabilidad empleada para hacer pruebas de hipótesis. El objetivo de una prueba de hipótesis es determinar si hay evidencias suficientes para apoyar una hipótesis concreta sobre los datos. Recuerde que con ANOVA, formulamos dos hipótesis: la hipótesis nula de que todas las medias son iguales y la hipótesis alternativa de que no todas las medias son iguales.

Dado que se están examinando muestras aleatorias tomadas de poblaciones completas, hay un riesgo de que las medias de nuestras muestras no sean representativas de las medias de las poblaciones completas. El valor p aporta una manera de cuantificar ese riesgo. Es la probabilidad de que cualquier variabilidad en las medias de las muestras de los datos sea resultado del mero azar. Más específicamente, es la probabilidad de observar varianzas en las medias muestrales al menos tan grandes como las que se han medido, cuando en realidad la hipótesis nula es cierta (las medias de las poblaciones completas en realidad son iguales).

Un valor p pequeño nos empuja a rechazar la hipótesis nula. Un umbral típico para rechazar la hipótesis nula es 0.05. Esto es, si el valor p es inferior a 0.05, rechazaría la hipótesis nula en favor de la hipótesis alternativa: que al menos una media es diferente al resto.

Basándose en estos resultados, decide retener el lote 3 y seguir investigando. En el informe, puede escribir lo siguiente: Se ha medido la resistencia a la torsión de cinco tarros del producto de cada uno de los cinco lotes de producción más recientes. El análisis ANOVA reveló que las observaciones apoyan una diferencia en la resistencia a la torsión media entre lotes (p = 0.0012). Al representar los datos, vemos que el lote 3 tiene una resistencia a la torsión media inferior (26.77) comparado con los otros cuatro lotes. Vamos a retener el lote 3 para seguir investigando.

Recuerde, una prueba ANOVA no le dirá qué media o medias difieren de las demás, y a diferencia de nuestro ejemplo, esto no siempre es obvio al representar los datos. Una manera de responder a preguntas sobre los tipos específicos de diferencias es usar una prueba de comparación múltiple. Por ejemplo, para comparar las medias grupales con la media general, puede usar un análisis de medias (ANOM). Para comparar pares de medias individuales, puede utilizar la prueba de comparaciones múltiples de Tukey-Kramer.

Cálculo del ANOVA de un factor

Ahora, vamos a ver nuestro ejemplo de la medición de la resistencia a la torsión en más detalle. Como recordará, teníamos cinco lotes de material. De cada lote, escogimos cinco tarros al azar para examinarlos. Esto se llama "diseño con un factor". El factor (lote) tiene cinco niveles. Cada nivel se replica (prueba) cinco veces. Los resultados de la prueba se indican a continuación.

Tabla 3: Medición de la resistencia a la torsión por lote

 Lote 1Lote 2Lote 3Lote 4Lote 5
Tarro 129.3930.6327.1631.0329.67
Tarro 231.5132.1026.6330.9829.32
Tarro 330.8830.1125.3128.9526.87
Tarro 427.6329.6327.6631.4531.59
Tarro 528.8529.6827.1029.7029.41
Media29.6530.4326.7730.4229.37

Para explorar los cálculos que dieron lugar a la tabla de ANOVA de arriba (Tabla 2), vamos a empezar por establecer las siguientes definiciones:

$n_i$ = Número de observaciones por tratamiento $i$ (en nuestro ejemplo, lote $i$)

$N$ = Número total de observaciones

$Y_{ij}$ = La j-ésima observación del i-ésimo tratamiento

$\overline{Y}_i$ = La media de la muestra del i-ésimo tratamiento

$\overline{\overline{Y}}$ = La media de todas las observaciones (media global)

Suma de cuadrados

Con estas definiciones en mente, vamos a ver la columna de suma de los cuadrados de la tabla de ANOVA. La suma de cuadrados nos permite cuantificar la variabilidad de un conjunto de datos centrándonos en la diferencia entre cada punto de datos y la media de todos los puntos de datos del conjunto. La fórmula a continuación divide la variabilidad global en dos partes: la variabilidad debida al modelo o a los niveles del factor, y la variabilidad debida a errores aleatorios.

$$ \sum_{i=1}^{a}\sum_{j=1}^{n_i}(Y_{ij}-\overline{\overline{Y}})^2\;=\;\sum_{i=1}^{a}n_i(\overline{Y}_i-\overline{\overline{Y}})^2+\sum_{i=1}^{a}\sum_{j=1}^{n_i}(Y_{ij}-\overline{Y}_i)^2 $$

$$ SC(Total)\;     =     \;SC(Factor)\;     +     \;SC(Error) $$

Aunque esta ecuación puede parecer complicada, centrarse en cada elemento individualmente hace que sea mucho más fácil de entender. La Tabla 4 a continuación enumera todos los componentes de la fórmula y los convierte en los términos cuadrados que dan lugar a la suma de cuadrados. La primera columna de datos ($Y_{ij}$) contiene las medidas de resistencia a la torsión que recopilamos anteriormente en la Tabla 3.

Otra manera de ver las fuentes de variabilidad es la variación entre grupos y la variación dentro de los grupos.

Recuerde que en nuestra tabla de ANOVA anterior (Tabla 2), la columna Fuente incluye dos fuentes de variación: factor (en nuestro ejemplo, lote) y error. Otra manera de pensar en estas dos fuentes es como variación entre grupos (que corresponde a la variación debida al factor de tratamiento) y la variación dentro de grupos (que corresponde a la variación debida al azar o a errores). Así que si usamos esta terminología, nuestra fórmula de suma de cuadrados esencialmente calcula la suma de la variación debida a diferencias entre grupos (el efecto del tratamiento) y la variación debida a diferencias dentro de cada grupo (diferencias sin explicación debidas al azar).

Tabla 4: Cálculo de la suma de cuadrados

Lote$Y_{ij} $$\overline{Y}_i $$\overline{\overline{Y}}$
$\overline{Y}_i-\overline{\overline{Y}}$$Y_{ij}-\overline{\overline{Y}}$$Y_{ij}-\overline{Y}_i $$(\overline{Y}_i-\overline{\overline{Y}})^2 $$(Y_{ij}-\overline{Y}_i)^2 $$(Y_{ij}-\overline{\overline{Y}})^2 $
129.3929.6529.330.320.06-0.260.100.070.00
131.5129.6529.330.322.181.860.103.464.75
130.8829.6529.330.321.551.230.101.512.40
127.6329.6529.330.32-1.70-2.020.104.082.89
128.8529.6529.330.32-0.48-0.800.100.640.23
230.6330.4329.331.101.300.201.210.041.69
232.1030.4329.331.102.771.671.212.797.68
230.1130.4329.331.100.78-0.321.210.100.61
229.6330.4329.331.100.30-0.801.210.640.09
229.6830.4329.331.100.35-0.751.210.560.12
327.1626.7729.33-2.56-2.170.396.550.154.71
326.6326.7729.33-2.56-2.70-0.146.550.027.29
325.3126.7729.33-2.56-4.02-1.466.552.1416.16
327.6626.7729.33-2.56-1.670.896.550.792.79
327.1026.7729.33-2.56-2.230.336.550.114.97
431.0330.4229.331.091.700.611.190.372.89
430.9830.4229.331.091.650.561.190.312.72
428.9530.4229.331.09-0.38-1.471.192.160.14
431.4530.4229.331.092.121.031.191.064.49
429.7030.4229.331.090.37-0.721.190.520.14
529.6729.3729.330.040.340.300.000.090.12
529.3229.3729.330.04-0.01-0.050.000.000.00
526.8729.3729.330.04-2.46-2.500.006.266.05
531.5929.3729.330.042.262.220.004.935.11
529.4129.3729.330.040.080.040.000.000.01
Suma de cuadrados      SC (Factor) = 45.25SC (Error) = 32.80SC (Total) = 78.05

Grados de libertad (GL)

Cada suma de cuadrados lleva asociada una cantidad llamada grados de libertad (GL). Los grados de libertad indican el número de datos independientes utilizados para calcular cada suma de cuadrados. En un diseño de un factor con un factor de k niveles (en nuestro ejemplo, cinco lotes) y un total de N observaciones (cinco tarros por lote, 25 en total), los grados de libertad se calculan del siguiente modo:

Tabla 5: Cómo determinar los grados de libertad

 Fórmula de los grados de libertad (GL)Grados de libertad calculados 
SC (Factor)k - 15 - 1 = 4
SC (Error)N - k25 - 5 = 20
SC (Total)N - 125 - 1 = 24

Media de los cuadrados (MC) y razón F

Dividimos cada suma de los cuadrados por los grados de libertad correspondientes para obtener medias de los cuadrados. Cuando la hipótesis nula es verdadera (esto es, las medias son iguales), tanto MC (Factor) como MC (Error) son estimaciones de la variación del error y tienen aproximadamente el mismo tamaño. Su razón, o la razón F, estaría cerca de uno. Cuando la hipótesis nula no es verdadera, MC (Factor) es mayor que MC (Error) y la razón es mayor que 1. En nuestro ejemplo de pruebas con adhesivo, la razón F calculada, 6.90, aporta una evidencia significativa en contra de la hipótesis nula de que las medias son iguales.

Tabla 6: Cómo calcular la media de los cuadrados y la razón F

 Suma de cuadrados (SC)Grados de libertad (GL)Media de los cuadradosRazón F
SC (Factor)45.25445.25/4 = 11.3111.31/1.64 = 6.90
SC (Error)32.802032.80/20 = 1.64 

La razón de MC (Factor) y MC (Error), esto es, la razón F, tiene una distribución F. La distribución F es la distribución de valores F que esperaríamos observar cuando la hipótesis nula es verdadera (esto es, las medias son iguales). Las distribuciones F tienen diferentes formas en función de dos parámetros, llamados los grados de libertad del numerador y el denominador. En una prueba ANOVA, el numerador es MC (Factor), así que los grados de libertad están asociados al MC (Factor). El denominador es el MC (Error), así que los grados de libertad del denominador están asociados al MC (Error).

Si la razón F que ha calculado excede el valor esperado de la distribución F correspondiente, asumiendo que el valor p sea lo suficientemente pequeño, rechazaría la hipótesis nula de que las medias son iguales. En este caso, el valor p es la probabilidad de observar un valor mayor que la razón F de la distribución F cuando en realidad la hipótesis nula es verdadera.

Figura 2: Distribución F

Back to Top