Universidad Politécnica de Puebla
Asignatura: PROBABILIDAD Y ESTADÍSTICA
Profesora: María Elibeth Morales Illescas
INGENIERÍA MECATRÓNICA 2-C
Alumno: Calixto Perez Jesús Antonio
Matrícula: 241403097
Introducción
El Análisis de Varianza (ANOVA) es una técnica estadística que permite comparar las
medias de tres o más grupos para determinar si existen diferencias significativas entre ellos.
Aunque su nombre sugiere un enfoque en la varianza, el objetivo principal es analizar las
medias de los grupos al evaluar la variabilidad dentro de cada grupo y entre los diferentes
grupos.
El ANOVA se utiliza comúnmente en situaciones donde se desea evaluar el efecto de una o
más variables independientes (factores) en una variable dependiente continua. Por ejemplo,
en un estudio que analiza el rendimiento académico de estudiantes sometidos a diferentes
métodos de enseñanza, el ANOVA puede ayudar a determinar si las diferencias observadas
en las calificaciones son estadísticamente significativas o si se deben al azar.
Una de las variantes más utilizadas es el ANOVA de una vía, que examina el impacto de un
solo factor en la variable dependiente. Este método es especialmente útil cuando se comparan
múltiples grupos o categorías y se busca identificar si al menos uno de ellos difiere
significativamente de los demás.
Para que los resultados del ANOVA sean válidos, es importante que se cumplan ciertos
supuestos, como la normalidad de los datos, la homogeneidad de las varianzas y la
independencia de las observaciones. Si estos supuestos no se cumplen, los resultados pueden
no ser fiables, por lo que podrían requerirse métodos alternativos o transformaciones de los
datos.
• ANOVA
El ANOVA es un método estadístico que permite determinar si existen diferencias
significativas entre las medias de varios grupos. A diferencia de pruebas que comparan dos
grupos (como el t-test), el ANOVA es especialmente útil cuando se tiene más de dos grupos
a comparar. Su funcionamiento se basa en la partición de la variabilidad total en dos
componentes principales:
Variabilidad entre grupos: Representa las diferencias entre las medias de cada grupo y la
media general del conjunto de datos.
Variabilidad dentro de los grupos: Refleja la dispersión de los datos alrededor de la media
de cada grupo, es decir, las variaciones que se deben al azar o a factores no controlados.
La razón entre estas dos fuentes de variabilidad se expresa en el estadístico F. Si la
variabilidad entre grupos es significativamente mayor que la interna, se concluye que existen
diferencias reales entre los grupos y que al menos uno difiere de los demás de forma
estadísticamente significativa.
Para que el ANOVA produzca resultados válidos, es fundamental que se cumplan ciertos
supuestos:
Normalidad: Los datos en cada grupo deben aproximarse a una distribución normal.
Homogeneidad de varianzas: Las varianzas entre los grupos deben ser similares.
Independencia: Las observaciones deben ser independientes entre sí.
El incumplimiento de estos supuestos puede afectar la fiabilidad de la prueba, por lo que en
algunos casos se recurre a transformaciones de datos o a métodos no paramétricos
alternativos.
• Elementos del ANOVA
El análisis de varianza se compone de diversos elementos clave que permiten entender y
cuantificar la variabilidad en los datos:
Fuente de variación: Se clasifica en “entre grupos” y “dentro de los grupos”. La variabilidad
entre grupos se asocia a las diferencias reales en las medias, mientras que la variabilidad
interna representa el error experimental o la variación aleatoria.
Suma de cuadrados (SS): Es una medida que cuantifica la variación total en los datos. Se
desglosa en:
• SS entre grupos (SSTr o SSB): Mide la variabilidad debida a las diferencias entre
las medias de los grupos.
• SS dentro de los grupos (SSE o SSW): Representa la variabilidad dentro de cada
grupo.
Grados de libertad (df): Cada fuente de variación tiene asociados unos grados de libertad
que dependen del número de grupos y del número total de observaciones. Para los “entre
grupos”, los grados de libertad son 𝒌 − 𝟏 (donde k es el número de grupos) y para los “dentro
de los grupos” son 𝑵 − 𝑲 (donde N es el número total de observaciones).
Cuadrados medios (MS): Se obtiene dividiendo la suma de cuadrados entre los
correspondientes grados de libertad. Así, el cuadrado medio entre grupos (𝑀𝑆𝐸𝑁𝑇𝑅𝐸 ) y el
cuadrado medio dentro de los grupos (𝑀𝑆𝐷𝐸𝑁𝑇𝑅𝑂 ) permiten construir la razón F.
Estadístico F: Es la razón entre el cuadrado medio entre grupos y el cuadrado medio dentro
de los grupos:
𝑀𝑆𝐸𝑁𝑇𝑅𝐸
𝐹=
𝑀𝑆𝐷𝐸𝑁𝑇𝑅𝑂
Un valor de F elevado indica que la variabilidad entre grupos es mayor en relación con la
variabilidad interna, lo que sugiere diferencias significativas entre las medias.
Nivel de significancia (p-valor): El p-valor asociado al estadístico F se utiliza para
determinar si las diferencias observadas son estadísticamente significativas. Generalmente,
se utiliza un nivel de significancia de 0.05. Si el p-valor es menor que este umbral, se
rechaza la hipótesis nula de que las medias son iguales.
• Construcción e Interpretación de la Tabla ANOVA
Esta tabla representa el análisis de varianza (ANOVA) y muestra cómo se descomponen las
fuentes de variabilidad en un experimento. Se divide en tres filas principales: Factor,
Error y Total, cada una con diferentes cálculos.
Columnas de la Tabla
Fuente de variación
Factor: Representa la variabilidad entre los grupos o tratamientos analizados.
Error: Representa la variabilidad dentro de los grupos, es decir, las diferencias individuales
dentro de cada grupo.
Total: Es la variabilidad total de los datos, combinando la variabilidad entre y dentro de los
grupos.
SSF (Suma de cuadrados del factor): Se calcula como la suma de las diferencias entre la
media de cada grupo (𝑌𝑖 ) y la media general (Y), ponderada por el tamaño del grupo (𝑁𝑖 ).
SSE (Suma de cuadrados del error): Se obtiene sumando la variación de cada observación
individual (𝑌𝑖𝑗 ) con respecto a la media de su grupo (𝑦).
SST (Suma de cuadrados del error): Se obtiene sumando la variación de cada observación
individual (𝑌𝑖𝑗 ) con respecto a la media de su grupo (𝑦).
Se cumple la relación:
𝑆𝑆𝑇 = 𝑆𝑆𝐹 + 𝑆𝑆𝐸
Grados de libertad (df, Degrees of Freedom)
• Factor: k−1 , donde k es el número de grupos.
• Error: N−k, donde N es el total de observaciones.
• Total: N−1, que es la cantidad total de observaciones menos uno.
Cuadrado medio (MS, Mean Square)
• MS_F (Cuadrado medio del factor): Se obtiene dividiendo SSF entre sus grados de
libertad (k−1).
𝑆𝑆𝐹
𝑀𝑆𝐹 =
𝐾−1
• MS_E (Cuadrado medio del error): Se obtiene dividiendo SSE entre sus grados de
libertad (N−k).
𝑆𝑆𝐹
𝑀𝑆𝐸 =
𝑁−1
• Estadístico F
• Se calcula dividiendo el cuadrado medio del factor (MSEFMSE_FMSEF) entre el
cuadrado medio del error (MSEEMSE_EMSEE).
𝑀𝑆𝐸𝑁𝑇𝑅𝐸
𝐹=
𝑀𝑆𝐷𝐸𝑁𝑇𝑅𝑂
Interpretación
Si el estadístico F es grande y el p-valor (derivado de la tabla F) es menor a 0.05, se
concluye que al menos un grupo es significativamente diferente de los demás.
Si el p-valor es mayor a 0.05, no hay evidencia suficiente para decir que hay diferencias
significativas entre los grupos.
Esta tabla es clave para el ANOVA y se usa en experimentos donde se comparan múltiples
grupos, como en estudios científicos, control de calidad y pruebas industriales.
Conclusión
El ANOVA es una herramienta fundamental en el análisis de datos experimentales, ya que
permite evaluar diferencias entre múltiples grupos de manera eficiente. Su correcta
aplicación facilita la toma de decisiones en diversos campos como la industria, la
investigación científica y la ingeniería. El dominio de este método es esencial para
optimizar procesos y realizar estudios estadísticamente válidos.
Bibliografía
• Montgomery, D. C. (2017). Design and Analysis of Experiments (9a ed.). Wiley.
• Navarro, D. J. (2015). Learning Statistics with R: A Tutorial for Psychology
Students and Other Beginners. CreateSpace.
• Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2019). Multivariate
data analysis (8th ed.). Cengage Learning.
• Wackerly, D. D., Mendenhall, W., & Scheaffer, R. L. (2014). Mathematical
statistics with applications (7th ed.). Cengage Learning.