UNIVERSIDAD NACIONAL AGRARIA DE LA SELVA
FACULTAD DE INGENIERÍA EN INDUSTRIAS ALIMENTARIAS
ANÁLISIS ESTADÍSTICO Y SUS ELEMENTOS CLAVE
CURSO : METODOS ESTADISTICOS
DOCENTE : Dr. ROLDAN CARBAJAL, Williams Vicente
ESTUDIANTE : Panduro, Valle Alexis.
SEMESTRE : 2025 – I
TINGO MARÍA – PERÚ
2025
RESUMEN
Esta monografía aborda conceptos fundamentales del análisis estadístico-aplicados a la
investigación cuantitativa, tales como el coeficiente de variación, el valor F crítico, el p-
valor y la amplitud estandarizada de Tukey. Se explican su origen, utilidad,
interpretación y métodos de cálculo, resaltando su papel en la comparación de
tratamientos, validación de hipótesis y análisis de significancia. Además, se describen
los elementos estadísticos básicos, como la media aritmética, la desviación estándar, la
varianza y otros indicadores de dispersión. Se interpreta también el significado
contextual de siglas frecuentes en análisis estadístico, como A (grupo experimental o
media ajustada) y C (grupo de control o constante). Con apoyo en ejemplos prácticos,
esta monografía busca facilitar la comprensión del uso correcto de estos recursos en
estudios experimentales y observacionales, contribuyendo a una toma de decisiones más
objetiva y respaldada científicamente.
Palabras clave: Coeficiente de variación, valor F crítico, p-valor, prueba de Tukey,
ANOVA, medidas de dispersión, media aritmética, desviación estándar, varianza,
comparación de grupos, significancia estadística, elementos estadísticos, letras A y C en
estadística.
I. INTRODUCCIÓN
El análisis estadístico constituye una base esencial para la toma de decisiones en
investigación científica, ya que permite describir, interpretar y comparar datos de forma
objetiva (Zegarra Casas & Ruiz Nuñez, 2025). Herramientas como el coeficiente de
variación, el valor F crítico, el p-valor y la prueba de comparación múltiple de Tukey
permiten no solo evaluar la variabilidad de los datos, sino también determinar si existen
diferencias significativas entre tratamientos o grupos (Dean & Voss, 1999).
En estudios experimentales u observacionales, estas pruebas ayudan a identificar
patrones, validar hipótesis y mejorar el rigor metodológico. Para interpretar
adecuadamente estos procedimientos, es indispensable comprender también los
elementos estadísticos básicos, como la media aritmética, la desviación estándar y la
varianza (Zegarra Casas & Ruiz Nuñez, 2025).
Asimismo, en muchos estudios estadísticos se emplean abreviaciones como A y C, que
pueden referirse a tratamientos, grupos experimentales, controles o constantes, según el
contexto del análisis.
La presente monografía tiene como finalidad abordar y explicar de forma clara estos
conceptos y su aplicación, con ejemplos prácticos que permitan al lector fortalecer su
comprensión del análisis estadístico.
II. REVISIÓN DE LITERATURA
2.1 Medidas de Tendencia Central y Dispersión
2.1.1 Media Aritmética: Definición, fórmula y ejemplos.
Según , (Moore, McCabe, & Craig, 2009) la media aritmética o promedio simple ( X )
muestra el valor central de los datos constituyendo ser la medida de ubicación que más
se utiliza. En general, es calculada sumando los valores de interés y dividiendo entre el
número de valores sumados.
Entre sus propiedades más relevantes se encuentran las siguientes: si multiplicamos o
dividimos todas las observaciones por un mismo número, la media también se
multiplicará o dividirá por ese número (Rondero & Font, 2015). De igual manera, si le
sumamos un mismo número a todas las observaciones, la media aumentará en dicha
cantidad. Estas propiedades permiten entender cómo se comporta la media ante
modificaciones en los datos(Rondero & Font, 2015).
En cuanto a sus ventajas, la media aritmética se expresa en las mismas unidades que la
variable, lo que facilita su interpretación. Además, al ser calculada a partir de todos los
valores de la distribución, es una medida que representa adecuadamente el conjunto
completo de datos(Rondero & Font, 2015). De hecho, se considera el centro de
gravedad de la distribución, ya que incorpora todos los valores observados. Otra de sus
ventajas es que la media es única, lo que significa que, para un conjunto de datos
determinado, siempre existirá un solo valor de media(González, 1968).
Sin embargo, una de las principales desventajas de la media aritmética es su sensibilidad
a los valores extremos o atípicos (muy grandes o pequeños), los cuales pueden influir
significativamente en su valor, distorsionando la percepción general de la distribución
de los datos. Esto puede resultar en una representación poco precisa del conjunto de
datos cuando existe una gran variabilidad o presencia de valores extremos(Caro, 2017).
II.1.1.1 Formulas
Datos no agrupados
La media aritmética (X ), de una cantidad finita de números (X1, X2, X3…Xn), es igual
a la suma de todos ellos dividida entre el número de sumandos (n). Simbólicamente se
expresa.
+ x2 +¿… …… .+x
X =x 1 n
¿
n
Datos Agrupados
La fórmula correspondiente para su cálculo es la siguiente:
+f 2 x 2+¿ …… ….+ f xn
X =f i x 1 n
¿
n
2.1.2 Varianza y Desviación Estándar: Cálculo y significado de la dispersión
de los datos.
La varianza σ² es un estadístico fundamental que se estiman a partir de una o varias
muestras extraídas de una población (Cervantes-Hernández, 2008). De acuerdo
(Cervantes-Hernández, 2008) , la i la varianza es clasificada como una medida de
dispersión. Estas medidas forman parte de la estructura matemática de muchas
funciones estadísticas univariadas, multivariadas y bayesianas, lo que resalta su
importancia en el análisis de datos.
A pesar de su relevancia, en ocasiones estos conceptos no son completamente
comprendidos debido a una falta de claridad conceptual. Muchos textos estadísticos los
abordan solo desde un enfoque matemático, sin una explicación filosófica o práctica que
ayude a interpretar su significado y utilidad. En este contexto, (Aroca, García, & López,
2009) propone no solo definir estas funciones, sino también explicar su aplicabilidad en
el análisis de datos
Formula:
n
2
∑ ( X i− X )
σ 2= i
n
En esta ecuación 2, la varianza (representada como σ² para poblaciones) se define como
el promedio de las distancias al cuadrado de cada valor individual X i respecto a la
media X . Esta distancia, conocida como desviación, se expresa en el numerador de la
fórmula como ¿La razón por la que esta desviación se eleva al cuadrado es porque la
varianza, por definición, debe ser siempre positiva así se evita que desviaciones
positivas y negativas se cancelen entre sí al sumar.
Este procedimiento, conocido como análisis de las desviaciones (Dagnino, 2014),
consiste en calcular cada una de estas desviaciones cuadradas, sumarlas y luego dividir
el resultado entre el número total de datos N, obteniendo así el promedio de las
desviaciones cuadráticas. Esta media cuadrática proporciona una medida del grado de
dispersión general de los datos respecto a su centro (la media). De esta forma, la
ecuación 2 no solo cuantifica la variabilidad interna del conjunto de datos, sino que,
gracias a su estructura matemática, permite interpretar la distribución de los datos de
forma más completa y fundamentada.
2.2 El Coeficiente de Variación (CV)
El Coeficiente de Variación (CV) es una medida estadística relativa que expresa el
grado de dispersión de un conjunto de datos en relación con su media (Gutiérrez, Chica,
& Pérez, 2023) . A diferencia de la varianza o la desviación estándar, que se expresan
en las mismas unidades de las observaciones, el CV es adimensional y se expresa como
un porcentaje, lo cual facilita la comparación entre variables de diferente escala o
magnitud (Hernández, Cervantes, & Rondón, 2012) .
Matemáticamente, el Coeficiente de Variación se calcula dividiendo la desviación
estándar (σ) entre la media X , y multiplicando el resultado por 100:
CV = ( σX ) x 100
Este indicador es útil para evaluar la uniformidad o estabilidad de un conjunto de datos.
Un CV bajo indica poca dispersión respecto a la media, lo cual sugiere homogeneidad
en los datos. En cambio, un CV alto refleja una gran variabilidad, lo que implica menor
consistencia en las observaciones.
El CV se utiliza ampliamente en investigaciones científicas, estudios experimentales y
análisis comparativos, especialmente cuando se requiere analizar conjuntos de datos con
diferentes unidades o escalas, permitiendo interpretar la variabilidad en términos
relativos
2.2.1 Uso del CV para comparar la dispersión relativa entre variables.
Según (Piqueras et al., 2000) el CV se emplea principalmente para evaluar la dispersión
relativa, es decir, el grado de variabilidad de los datos respecto a su media. Este enfoque
resulta especialmente útil cuando se comparan variables con magnitudes diferentes. Por
ejemplo, si se desea comparar la uniformidad en el contenido de humedad y el
contenido de proteína en una serie de muestras, el CV permite determinar cuál de estas
variables presenta mayor variabilidad relativa, independientemente de sus escalas de
medición.
Un CV menor indica que los datos están más agrupados alrededor de la media (menor
dispersión relativa), mientras que un CV mayor indica una mayor dispersión. De este
modo, el CV es una herramienta útil para identificar estabilidad, consistencia o
precisión en mediciones repetidas, y para tomar decisiones fundamentadas en
experimentación o control de calidad.
2.3 El Valor F Crítico y el Análisis de Varianza (ANOVA)
2.3.1 Definición del análisis de varianza (ANOVA).
El Análisis de la Varianza (ANOVA) es una técnica estadística utilizada para comparar
las medias de dos o más grupos con el fin de determinar si existen diferencias
significativas entre ellos. A diferencia de una simple comparación de promedios,
ANOVA toma en cuenta la variabilidad de los datos dentro y entre los grupos, lo que
permite realizar inferencias más precisas y confiables (Piqueras et al., 2000).
Esta herramienta resulta especialmente útil en contextos donde el investigador desea
saber si diferentes condiciones, tratamientos o categorías producen efectos distintos
sobre una variable cuantitativa. Por ejemplo, puede emplearse para evaluar si distintos
niveles de ingreso afectan el consumo de un producto, si el rendimiento académico varía
entre estudiantes de diferentes grados, o si hay diferencias en los resultados de análisis
químicos de distintas muestras(Montes, 2004) .
La importancia del ANOVA radica en que no solo considera las medias, sino también la
dispersión de los datos. Esto es esencial porque dos grupos pueden tener medias
distintas, pero si las observaciones individuales se solapan mucho, la diferencia puede
no ser significativa desde el punto de vista estadístico. ANOVA permite detectar si las
diferencias observadas son suficientemente grandes como para atribuirlas al efecto del
grupo (tratamiento o condición), en lugar de al azar(Sirait, 2001).
Al realizar el ANOVA, (Terrádez & Juan, 2003) lo que hacemos es asumir supuestos
en los que queramos analizar distintas situaciones o alternativas de actuación y donde de
alguna forma podemos intervenir en la realización del experimento.
Para estudiar sus efectos, en el contexto ANOVA y ANCOVA nos encontraremos la
mayoría de las veces ante datos experimentales (controlables y/o repetibles en mayor o
menor grado)
Ejemplo: Pretendemos medir la influencia que tiene en la venta de un producto de
alimentación, la posición en que se exhibe al público dentro del establecimiento. Las
posiciones establecidas son:
- ALTA: por encima de los ojos.
- MEDIA: nivel de los ojos.
- BAJA: por debajo del nivel de los ojos.
Para la realización del experimento se han seleccionado 12 autoservicios de
dimensiones similares. Los autoservicios se agrupan en tres conjuntos de cuatro
elementos cada uno, procediendo de forma aleatoria en su asignación. Con ello
suponemos que los tres conjuntos son de características similares, colocándose el
producto en cada uno de ellos, de una de las formas anteriormente descritas y
registrando sus ventas durante veinte días. Las ventas resultantes, en unidades, quedan
recogidas en el cuadro I. Se pretende responder a las siguientes preguntas:
1º. ¿Tiene alguna influencia el posicionamiento del producto en la venta del mismo? 2º.
¿Qué posicionamiento es más eficaz?
3º. ¿Son estadísticamente significativas las diferencias obtenidas?
2.3.2Introducción al valor F y cómo se utiliza para comparar medias entre
grupos.
El valor F es el estadístico principal utilizado en el Análisis de la Varianza (ANOVA).
Su función es determinar si existen diferencias estadísticamente significativas entre las
medias de dos o más grupos. Este valor se obtiene al comparar la variabilidad entre los
grupos con la variabilidad dentro de los grupos. Si la variabilidad entre grupos es mucho
mayor que la variabilidad dentro de los grupos es probable que al menos una de las
medias difiera significativamente de las demás.
El valor F se calcula como el cociente entre dos estimaciones de varianza:
MSdentro
F=
MSentre
Donde:
MSentre: es el cuadrado medio entre los grupos, que representa la variabilidad
explicada por los tratamientos o categorías.
MSdentroMS: es el cuadrado medio dentro de los grupos, que representa la
variabilidad no explicada (aleatoria o residual).
Una vez calculado el valor F, se compara con un valor crítico de la distribución F
(obtenido de tablas estadísticas según los grados de libertad y el nivel de significancia
elegido, generalmente 0.05). Si el valor F calculado es mayor que el valor F crítico, se
rechaza la hipótesis nula de igualdad entre medias, concluyéndose que hay diferencias
significativas.
Este procedimiento fue desarrollado por Sir Ronald A. Fisher (R. A. Fisher, 1970) y se
exlica bien en su libro Statistical Methods for Research Workers , este sr.es
considerado el padre del análisis de varianza, quien introdujo la distribución F como
parte de la inferencia estadística moderna.
2.3.3 Fisher (1925): Origen y desarrollo del valor F en la estadística.
En el artículo de (Canal, 2000) se explica como el SR. Ronald A. Fisher (1890–1962)
ocupa un lugar preeminente en la historia de la estadística: su artículo de 1922, “On the
Mathematical Foundations of Theoretical Statistics”, marca la tercera gran revolución
de la inferencia paramétrica, tras Laplace (1774) y Gauss–Laplace (1809–1812) (Hald,
1998). A diferencia de sus predecesores, Fisher tomó apenas veinte años y una serie de
publicaciones para desarrollar el fundamento de la inferencia moderna, y tan solo medio
siglo le bastó a la comunidad estadística para entender y aplicar sus ideas.
La disciplina estadística, nacida de la confluencia de la aritmética política (censos,
registros vitales) y la teoría de la probabilidad, había ido madurando a lo largo del siglo
XIX con aportes de Poisson, Bravais, Bienaymé, Cauchy y Chebyshev. En 1900, Karl
Pearson publicó en Philosophical Magazine su “epifanía estadística” (el χ²) bajo la
influencia del darwinismo de Galton, fundando la revista Biometrika y estableciendo la
biometría como disciplina. Pero fue Fisher quien, a través de su noción de máxima
verosimilitud, la clara distinción entre parámetros poblacionales y estadísticos
muestrales, y la introducción de conceptos como “hipótesis nula”, “nivel de
significancia” y “aleatorización”, elevó la estadística a disciplina científica autónoma.
En el diseño experimental, Fisher formalizó los principios de aleatorización, replicación
y bloqueos, y desarrolló el análisis de la varianza (ANOVA), separando la variabilidad
“entre tratamientos” de la “variabilidad residual” mediante la distribución F. Fisher
también corrigió el uso de los grados de libertad en la χ² de Pearson, mostrando que si
los parámetros poblacionales se estiman por máxima verosimilitud, su distribución
límite difiere de la propuesta por Pearson (Fisher, 1922).
Más allá de sus aportes técnicos, Fisher creó un nuevo vocabulario parámetro,
estadístico, verosimilitud, ancilaridad, diseño factorial, confusión y estableció las bases
filosóficas de la estadística como un método inductivo para “reducir datos” a unos
pocos parámetros significativos (Hald, 1998). En contraste con la biometría de muestras
grandes, Fisher centró su interés en datos experimentales y muestras pequeñas, lo que
dio lugar a controvertidas pero fructíferas discusiones con Pearson y, más tarde, con el
enfoque de Neyman–Pearson (Infante-Gil, 2007).
Su influencia alcanzó todo el siglo XX: desde la estadística agronómica en Rothamsted
(1919–1933) hasta la fundación del Department of Statistics en Iowa State (por
Snedecor, con quien Fisher mantuvo estrechos lazos) y su propio trabajo en el CSIRO
de Adelaide. Fisher no solo escribió cerca de 300 artículos y seis libros, sino que
también actuó como editor de Biometrika y miembro fundador del Institute of
Mathematical Statistics, promoviendo la simbiosis entre teoría estadística y práctica
científica. Sus métodos de máxima verosimilitud, ANOVA, ANCOVA y diseño de
experimentos siguen siendo pilares de la estadística moderna, confirmando la visión de
Fisher: la estadística debe su existencia y permanente crecimiento a su confrontación
con datos reales más que a meros problemas teóricos(R. Fisher, contribución a la
Ciencia Estadıstica, Girón, de Málaga, & Villegas).
2.4 El p-Valor en las Pruebas de Hipótesis
2. 4.1Definición de p-valor y su relación con la hipótesis nula.
El p-valor es la probabilidad, bajo la suposición de que la hipótesis nula (H₀) es
verdadera, de obtener un estadístico igual o más extremo que el observado en los datos
muestrales. En otras palabras, cuantifica cuán compatible es la evidencia empírica con
H₀: valores pequeños del p-valor indican que los datos son poco plausibles bajo H₀ y,
por tanto, constituyen evidencia en su contra (C. R. Fisher, 1995)
Su relación con H₀ se articula así:
1. Formulación de H₀ y H₁: Se establece una hipótesis nula (por ejemplo, no hay
diferencia entre medias) y una hipótesis alternativa H₁ (por ejemplo, sí hay
diferencia).
2. Cálculo del p-valor: Se determina la distribución del estadístico de prueba
asumiendo que H₀ es cierta y se calcula la probabilidad de observar un valor tan
extremo (o más) que el realmente obtenido (Neyman & Pearson, 2017).
3. Decisión estadística: Si el p-valor es menor que el nivel de significancia
predefinido (α, comúnmente 0.05), se rechaza H₀; en caso contrario, no se
dispone de evidencia suficiente para rechazarla (Wackerly, 2008)
De este modo, el p-valor no mide la probabilidad de que H₀ sea verdadera, sino la
compatibilidad de los datos con H₀, sirviendo como criterio objetivo para la toma de
decisiones en pruebas de hipótesis.
2.5 La Prueba de Tukey (HSD)
La prueba de comparaciones múltiples de Tukey, también conocida como Tukey’s
Honest Significant Difference (HSD), es un método post-hoc que se aplica tras un
ANOVA significativo para identificar qué pares de medias difieren entre sí.
Según (Tukey, 1949) , la esencia de este procedimiento es calcular una diferencia
mínima significativa HSD tal que, para dos medias: X i , X j ,
X i −X j , > HSD
Entonces se considera que esas dos medias difieren estadísticamente con un nivel de
confianza global preestablecido (por ejemplo, α = 0.05).
HSD=q α ,kk , dfren
√ MSE
n
q α ,kk , dfren: res es el valor crítico de la distribución studentizada de rangos (q) para nivel
de significancia α, k
MSE es el Mean Square Error (error cuadrático medio) del ANOVA.
n es el número de observaciones por grupo (o el promedio si varía).
2.6 Interpretación de Letras (A, B, C) en Pruebas Post-Hoc
2.5.3 Uso de letras para indicar diferencias significativas entre grupos en la
prueba de Tukey.
Tras aplicar la prueba de Tukey HSD, es habitual representar sus resultados mediante
agrupaciones alfabéticas, asignando a cada tratamiento o nivel un conjunto de letras en
forma de superíndice o subíndice. El criterio es el siguiente (Dean & Voss, 1999;
Tukey, 1949)
Mismos literales (por ejemplo, A, AB): los tratamientos que comparten al menos
una letra no difieren significativamente entre sí al nivel de confianza establecido
(p.ej. α = 0.05).
Letras distintas (por ejemplo, A vs. B): los tratamientos que no comparten
ninguna letra sí presentan una diferencia estadísticamente significativa.
Este sistema de letras facilita la interpretación de tablas y gráficos porque, de un solo
vistazo, el lector puede identificar qué grupos se comportan de manera estadísticamente
equivalente y cuáles se distinguen entre sí. La familia de error global permanece
controlada, ya que las agrupaciones derivan del mismo procedimiento de comparación
múltiple que ajusta por el número de contrastes realizados.
III. CONCLUSIÓN
En conclusión, las medidas descriptivas como la media y la varianza constituyen el pilar
sobre el cual se edifican todas las pruebas inferenciales; el coeficiente de variación (CV)
extiende esta base al ofrecer una medida relativa de dispersión comparativa (Triola,
2019). El Análisis de la Varianza (ANOVA), a través del valor F y el p-valor, permite
decidir si las diferencias observadas entre medias de varios grupos son atribuibles a
efecto de la variable de estudio o al azar (David, 1999; Dean & Voss, 1999) . Cuando
ANOVA detecta diferencias globales, la prueba de Tukey HSD identifica con precisión
qué pares de medias difieren, controlando el error tipo I en las comparaciones múltiples
(Tukey, 1949). Finalmente, el genio de Ronald A. Fisher no sólo formalizó estos
métodos y conceptos incluyendo aleatorización y niveles de significancia, sino que
también cimentó la estadística como disciplina autónoma y rigurosa (R. A. Fisher,
1970).
IV. BIBLIOGRAFÍA
Aroca, P. R., García, C. L., & López, J. J. G. (2009). Estadística descriptiva e
inferencial. Revista el auge de la estadística en el siglo XX, 22, 165-176.
Canal, S. Y. (2000). La estadística una ciencia del siglo XX. RA Fisher: El Genio.
Revista Colombiana de Estadística, 23(2), 1-14.
Caro, F. (2017). Estadística. CA Villamil, Entrevistador.
Cervantes-Hernández, P. (2008). Media, varianza y desviación estándar. Ciencia y Mar,
12(34), 29-36.
Dagnino, J. (2014). Análisis de varianza. Revista chilena de anestesia, 43(4), 306-310.
David, H. A. (1999). A History of Mathematical Statistics from 1750 to 1930: JSTOR.
Dean, A., & Voss, D. (1999). Design and analysis of experiments: Springer.
Fisher, C. R. (1995). Toward an appreciation of hydrothennal-vent animals: their
environment, physiological ecology, and tissue stable isotope values.
Geophysical Monograph Series, 91, 297-316.
Fisher, R., contribución a la Ciencia Estadıstica, S., Girón, F. J., de Málaga, U., &
Villegas, M. A. G. 1 Algunos aspectos biográficos de RA Fisher.
Fisher, R. A. (1970). Statistical methods for research workers Breakthroughs in
statistics: Methodology and distribution (pp. 66-70): Springer.
González, E. R. (1968). Estadística general: Universidad Central de Venezuela.
Gutiérrez, J., Chica, E., & Pérez, J. F. (2023). Análisis de varianza y coeficiente de
variación como criterios de repetibilidad de una estufa de cocción basada en
gasificación de pellets. Revista UIS ingenierías, 22(3), 115-134.
Hernández, D. C., Cervantes, A. M., & Rondón, P. P. (2012). Desviación del coeficiente
de variación de diferentes tipos de emisores obturados y las tendencias de la
ecuación que describe el comportamiento hidráulico de un emisor. Revista
Ciencias Técnicas Agropecuarias, 21, 6-9.
Infante-Gil, S. (2007). Ronald Aylmer Fisher y la agronomía. Revista Fitotecnia
Mexicana, 30(3), 205-205.
Montes, F. (2004). Análisis de la varianza ANOVA. Universitat de València.
Moore, D. S., McCabe, G. P., & Craig, B. A. (2009). Introduction to the Practice of
Statistics (Vol. 4): WH Freeman New York.
Neyman, J., & Pearson, E. (2017). On the problem of the most efficient tests of
statistical.
Piqueras, R., Jaqueti, J., Alvarado, A., Hernández, R., Agustino, A., & Navarro, F.
(2000). ¿ Se ven alterados significativamente nuestros cálculos del coeficiente
de variación (CV) debido al error introducido por el redondeo? Rev. diagn. biol,
213-216.
Rondero, C., & Font, V. (2015). Articulación de la complejidad matemática de la media
aritmética. Enseñanza de las ciencias: revista de investigación y experiencias
didácticas, 29-49.
Sirait, A. M. (2001). Analisis Varians (ANOVA) dalam Penelitian Kesehatan. Media
Penelitian dan Pengembangan Kesehatan, 11(2).
Terrádez, M., & Juan, A. A. (2003). Análisis de la varianza (ANOVA). Catalunya:
Universidad Oberta de Catalunya.
Tukey, J. W. (1949). Comparing individual means in the analysis of variance.
Biometrics, 99-114.
Wackerly, D. D. (2008). Mathematical statistics with applications: Thomson
Brooks/Cole.
Zegarra Casas, P., & Ruiz Nuñez, J. R. (2025). Sílabo de Estadística y Probabilidades.