Universidad de las Fuerzas Armadas ESPE
Sede Latacunga
Nombre:
Rubio Benalcázar Néstor Ariel
Tonato Cajamarca Matias Alexander
Fecha:
27/02/2025
Asignatura:
Estadística
NRC:
2143
Cuestionario
Responda las siguientes preguntas seleccionando la opción correcta. Justificar su respuesta.
1. ¿Cuál es el propósito principal de la regresión lineal simple?
a) Minimizar la varianza de la variable dependiente.
b) Establecer una relación entre dos variables cuantitativas mediante una ecuación lineal.
c) Predecir valores de la variable independiente en función de la dependiente.
d) Maximizar la correlación entre dos variables.
Justificación: La regresión lineal simple busca modelar la relación entre una variable dependiente y una variable
independiente mediante una línea recta.
2. ¿Qué representa el coeficiente de correlación de Pearson (r)?
a) La proporción de variabilidad explicada por el modelo.
b) El grado de asociación lineal entre dos variables.
c) La pendiente de la ecuación de regresión.
d) La variabilidad residual del modelo.
Justificación: El coeficiente de Pearson mide la fuerza y dirección de la relación lineal entre dos variables, con
valores entre -1 y 1.
3. Si el coeficiente de determinación (R2) es igual a 0.85, ¿qué interpretación es correcta?
a) El 85 % de la variabilidad de la variable dependiente es explicada por el modelo de regresión.
b) La correlación entre las variables es del 85 %.
c) La variable dependiente no tiene relación con la independiente.
d) El error estándar de estimación es del 85 %.
Justificación: R² indica la proporción de la variabilidad en la variable dependiente que es explicada por el modelo de
regresión.
4. En regresión lineal, el método de los mínimos cuadrados busca minimizar:
1
a) La suma de los valores predichos.
b) La diferencia entre los coeficientes de la regresión.
c) La suma de los errores al cuadrado.
d) La varianza de la variable independiente.
Justificación: Este método ajusta la línea de regresión minimizando la suma de los cuadrados de las diferencias entre
los valores observados y los predichos.
5. ¿Cuál de los siguientes es un supuesto de los errores aleatorios en regresión lineal?
a) Deben seguir una distribución exponencial.
b) Deben tener una media de cero.
c) Deben depender de la variable independiente.
d) Deben aumentar conforme aumenta la variable dependiente.
Justificación: Los errores aleatorios deben tener una media de cero para que el modelo sea insesgado.
6. En una regresión múltiple, ¿qué representa el coeficiente βj?
a) El cambio esperado en Y cuando Xj aumenta en una unidad, manteniendo las demás varia-
bles constantes.
b) La correlación entre Xj y Y .
c) El coeficiente de determinación del modelo.
d) El intercepto de la ecuación de regresión.
Justificación: En regresión múltiple, βj representa el efecto de Xj sobre Y, controlando por las demás variables.
7. ¿Cómo se interpreta un coeficiente de regresión (β1) en regresión simple?
a) Como el valor estimado de la variable dependiente cuando la independiente es cero.
b) Como la tasa de cambio de la variable dependiente por unidad de cambio en la independiente.
c) Como el error estándar del modelo.
d) Como el coeficiente de correlación.
Justificación: β₁ indica cuánto cambia Y en promedio por cada aumento de una unidad en X.
8. ¿Cuál es la fórmula del error estándar de estimación en regresión lineal simple?
qΣ
a) se = (Y − Ŷ )2 /(n − 2)
Σ
b) se = (Y − Yˆ )/n
Σ
c) se = (X − X̄ )2/n
√Σ
d ) se = (X − X̄)2/(n − 1)
Justificación: El error estándar de estimación mide la dispersión de los residuos alrededor de la línea de regresión.
9. ¿Qué significa que un coeficiente de regresión no sea significativo en una prueba t?
a) Que el modelo es inválido.
b) Que la variable independiente no tiene un efecto significativo sobre la variable dependiente.
c) Que el modelo es incorrecto.
d) Que R2 es muy bajo.
2
Justificación: Si el coeficiente no es significativo, no hay evidencia suficiente para afirmar que la variable
independiente afecta a la dependiente.
10. ¿Qué indica la homocedasticidad en un modelo de regresión?
a) Que los residuos tienen varianza constante.
b) Que los residuos siguen una distribución normal.
c) Que la relación entre variables es cuadrática.
d) Que los coeficientes de regresión son estadísticamente significativos.
Justificación: La homocedasticidad implica que la varianza de los errores es constante en todos los niveles de la
variable independiente
11 ¿Cuál es la prueba estadística utilizada para evaluar la significancia global de un modelo de
regresión?
a) Prueba t.
b) Prueba F .
c) Prueba χ2.
d) Prueba de Kolmogorov-Smirnov.
Justificación: La prueba F evalúa si al menos uno de los coeficientes de regresión es significativo, es decir, si el
modelo en conjunto es útil.
12. ¿Cuál es el propósito de la prueba Durbin-Watson?
e) Detectar la multicolinealidad.
f) Evaluar la independencia de los errores.
g) Medir la heterocedasticidad.
h) Evaluar la normalidad de los errores.
Justificación: Esta prueba detecta autocorrelación en los residuos, lo que viola el supuesto de independencia.
13. Si un modelo de regresión tiene R2 = 0.99, ¿qué significa?
a. Que la regresión es perfecta.
b. Que el modelo explica el 99 % de la variabilidad de la variable dependiente.
c. Que el modelo es inadecuado.
d. Que la correlación es negativa.
Justificación: Un R² cercano a 1 indica que el modelo explica casi toda la variabilidad de Y.
14. ¿Cómo se puede mejorar un modelo de regresión con un bajo R2?
a. Agregando variables relevantes.
b. Eliminando todas las variables.
c. Aumentando el tamaño de la muestra sin cambiar el modelo.
d. Asegurando que los datos sean normales
Justificación: Incluir variables adicionales que tengan relación con la variable dependiente puede mejorar la
capacidad explicativa del modelo.
3
Universidad de las Fuerzas Armadas ESPE-Sede Latacunga
Ingeniería en Software
Asignatura: Estadística
Profesor: Ing. Marcelo Román V.
Integrantes: Matias Tonato, Ariel Rubio, Danny Chicaiza
Fecha:15/02/2025
Grupo: 6
Ejercicio 1- Regresión Lineal Simple
Excel:
RStudio:
# Cargar librerías necesarias
library(ggplot2)
# 1. Ingresar los datos
datos <- [Link](
Tiempo = c(27, 41, 35, 19, 15, 57, 80, 62, 52, 57),
Eficiencia = c(45, 19, 39, 49, 31, 64, 46, 72, 77, 68)
)
# 2. Crear el diagrama de dispersión
ggplot(datos, aes(x = Tiempo, y = Eficiencia)) +
geom_point(color = "blue", size = 3) +
labs(title = "Diagrama de Dispersión", x = "Tiempo de extracción
(min)", y = "Eficiencia de extracción (%)") +
theme_minimal()
# 3. Ajustar una regresión lineal
modelo <- lm(Eficiencia ~ Tiempo, data = datos)
summary(modelo) # Muestra estadísticas del modelo
# 4. Predecir la eficiencia para x = 35
prediccion <- predict(modelo, newdata = [Link](Tiempo = 35))
print(paste("Predicción para x = 35 min:", round(prediccion, 2),
"%"))
# 5. Graficar la recta de regresión con intervalos de confianza y
predicción
ggplot(datos, aes(x = Tiempo, y = Eficiencia)) +
geom_point(color = "blue", size = 3) + # Puntos de datos
geom_smooth(method = "lm", color = "red", se = TRUE, level = 0.95)
+ # Recta de regresión con IC del 95%
labs(title = "Regresión Lineal con Intervalos de Confianza",
x = "Tiempo de extracción (min)",
y = "Eficiencia de extracción (%)") +
theme_minimal()
# 6. Validar el modelo
par(mfrow = c(2, 2)) # Divide la pantalla en 4 gráficos
plot(modelo) # Diagnóstico de residuos
SPSS:
Ejercicio 2- Regresión Lineal Simple
Excel:
RStudio:
# 📌 1. Cargar los datos
fuerza <- c(1, 2, 3, 4, 5, 6)
elongacion <- c(14, 33, 40, 63, 76, 85)
datos <- [Link](fuerza, elongacion)
# 📌 2. Graficar diagrama de dispersión
library(ggplot2)
ggplot(datos, aes(x = fuerza, y = elongacion)) +
geom_point(color = "blue", size = 3) +
labs(title = "Diagrama de Dispersión: Fuerza vs Elongación", x =
"Fuerza (miles de libras)", y = "Elongación (milésimas de pulgada)")
+
theme_minimal()
# 📌 3. Ajustar el modelo de regresión lineal
modelo <- lm(elongacion ~ fuerza, data = datos)
summary(modelo) # Mostrar resultados de la regresión
# 📌 4. Predecir la elongación para x = 3.5
nueva_fuerza <- [Link](fuerza = 3.5)
prediccion <- predict(modelo, nueva_fuerza, interval = "confidence")
print(prediccion) # Mostrar predicción con intervalo de confianza
# 📌 5. Graficar la recta de regresión con intervalos de confianza
ggplot(datos, aes(x = fuerza, y = elongacion)) +
geom_point(color = "blue", size = 3) +
geom_smooth(method = "lm", color = "red", fill = "lightgray",
level = 0.95) +
labs(title = "Recta de Regresión con Intervalos de Confianza", x =
"Fuerza (miles de libras)", y = "Elongación (milésimas de pulgada)")
+
theme_minimal()
# 📌 6. Validar el modelo con análisis de residuos
par(mfrow = c(2, 2)) # Dividir la pantalla en 4 gráficos
plot(modelo) # Diagnóstico del modelo
SPSS:
Ejercicio 3- Regresión Lineal Simple
Excel:
RStudio:
# 📌 1. Cargar los datos
semanas <- c(2, 9, 5, 13, 23, 15)
autos <- c(7, 1, 12, 21, 14, 21)
datos <- [Link](semanas, autos)
# 📌 2. Graficar diagrama de dispersión
library(ggplot2)
ggplot(datos, aes(x = semanas, y = autos)) +
geom_point(color = "blue", size = 3) +
labs(title = "Diagrama de Dispersión: Experiencia vs Autos
Inspeccionados",
x = "Semanas de Experiencia", y = "Número de Autos
Inspeccionados") +
theme_minimal()
# 📌 3. Ajustar el modelo de regresión lineal
modelo <- lm(autos ~ semanas, data = datos)
summary(modelo) # Mostrar resultados de la regresión
# 📌 4. Predecir el número de autos inspeccionados para x = 8
semanas
nueva_experiencia <- [Link](semanas = 8)
prediccion <- predict(modelo, nueva_experiencia, interval =
"confidence")
print(prediccion) # Mostrar predicción con intervalo de confianza
# 📌 5. Graficar la recta de regresión con intervalos de confianza
ggplot(datos, aes(x = semanas, y = autos)) +
geom_point(color = "blue", size = 3) +
geom_smooth(method = "lm", color = "red", fill = "lightgray",
level = 0.95) +
labs(title = "Recta de Regresión con Intervalos de Confianza",
x = "Semanas de Experiencia", y = "Número de Autos
Inspeccionados") +
theme_minimal()
# 📌 6. Validar el modelo con análisis de residuos
par(mfrow = c(2, 2)) # Dividir la pantalla en 4 gráficos
plot(modelo) # Diagnóstico del modelo
SPSS:
Ejercicio 4- Regresión Lineal Simple
Excel:
RStudio:
# 1. Ingresar los datos
x <- c(1, 2, 3, 4, 5) # Número de trabajos
y <- c(2, 5, 4, 9, 10) # Tiempo de CPU
# 2. Ajuste de la regresión lineal (mínimos cuadrados)
modelo <- lm(y ~ x)
summary(modelo) # Muestra los resultados del modelo
# 3. Predicción para x = 3.5
prediccion <- predict(modelo, newdata = [Link](x = 3.5))
cat("Predicción para x = 3.5:", prediccion, "\n")
# 4. Graficar los datos, la recta de regresión y los intervalos de
confianza y predicción
# Graficar los datos y la recta de regresión
plot(x, y, main = "Diagrama de dispersión con recta de regresión",
xlab = "Número de Trabajos (x)", ylab = "Tiempo de CPU (y)",
pch = 19, col = "blue")
abline(modelo, col = "red")
# Añadir intervalos de confianza y predicción
intervalos <- predict(modelo, interval = "confidence", level = 0.95)
lines(x, intervalos[, 2], col = "green", lty = 2) # Intervalo
superior de confianza
lines(x, intervalos[, 3], col = "green", lty = 2) # Intervalo
inferior de confianza
predicciones <- predict(modelo, interval = "prediction", level =
0.95)
lines(x, predicciones[, 2], col = "orange", lty = 2) # Intervalo
superior de predicción
lines(x, predicciones[, 3], col = "orange", lty = 2) # Intervalo
inferior de predicción
# 5. Validación del modelo
# Graficar los residuos
residuos <- residuals(modelo)
plot(x, residuos, main = "Residuos del modelo", xlab = "Número de
Trabajos (x)",
ylab = "Residuos", pch = 19, col = "blue")
abline(h = 0, col = "red") # Línea horizontal en 0
# Ver el valor de R²
cat("Valor de R²:", summary(modelo)$[Link], "\n")
SPSS:
Ejercicio 5- Regresión Lineal Simple
Excel:
RStudio:
# 1. Ingresar los datos
x <- c(42, 50, 48, 31, 44, 55, 12, 14, 11, 7, 12, 13) # Humedad (x)
y <- c(35, 43, 62, 36, 39, 48, 8, 9, 16, 9, 10, 11) # Contenido de
agua (y)
# 2. Graficar los datos: Diagrama de dispersión
plot(x, y, main = "Diagrama de dispersión: Humedad vs Contenido de
agua",
xlab = "Humedad (%)", ylab = "Contenido de agua",
pch = 19, col = "blue")
# 3. Ajuste de la regresión lineal (mínimos cuadrados)
modelo <- lm(y ~ x)
summary(modelo) # Muestra los resultados del modelo
# 4. Graficar la recta de regresión
abline(modelo, col = "red") # Recta de regresión
# 5. Agregar intervalos de confianza y de predicción
intervalos_confianza <- predict(modelo, interval = "confidence",
level = 0.95)
lines(x, intervalos_confianza[, 2], col = "green", lty = 2) #
Intervalo superior de confianza
lines(x, intervalos_confianza[, 3], col = "green", lty = 2) #
Intervalo inferior de confianza
intervalos_prediccion <- predict(modelo, interval = "prediction",
level = 0.95)
lines(x, intervalos_prediccion[, 2], col = "orange", lty = 2) #
Intervalo superior de predicción
lines(x, intervalos_prediccion[, 3], col = "orange", lty = 2) #
Intervalo inferior de predicción
# 6. Validación del modelo: Residuos
residuos <- residuals(modelo)
plot(x, residuos, main = "Residuos del modelo", xlab = "Humedad
(%)",
ylab = "Residuos", pch = 19, col = "blue")
abline(h = 0, col = "red") # Línea horizontal en 0
# 7. Ver el valor de R²
cat("Valor de R²:", summary(modelo)$[Link], "\n")
# 8. Estimar el contenido de agua para x = 25
prediccion_25 <- predict(modelo, newdata = [Link](x = 25))
cat("Predicción para x = 25 (Humedad = 25%):", prediccion_25, "\n")
SPSS:
Ejercicio 6- Regresión Lineal Simple
Excel:
RStudio:
# Datos
escuelas <- c(1, 2, 3, 4, 5, 6, 7, 8)
API <- c(588, 659, 710, 657, 669, 641, 557, 743)
AM <- c(58, 22, 14, 30, 11, 26, 39, 6)
# a) Diagrama de dispersión
plot(AM, API,
xlab = "Porcentaje de estudiantes en actitud matemática (AM)",
ylab = "API",
main = "Gráfico de dispersión de AM vs API",
pch = 19,
col = "blue")
# b) Ajuste de la línea de regresión de mínimos cuadrados
modelo <- lm(API ~ AM) # Ajuste de la recta de regresión
abline(modelo, col = "red") # Añadir la recta al gráfico
# Ver los coeficientes de la recta
summary(modelo)
# c) Estimación del API cuando AM = 25 (por ejemplo)
AM_nuevo <- 25
API_estimado <- predict(modelo, newdata = [Link](AM = AM_nuevo))
API_estimado # Imprimir la estimación
# d) Intervalos de Confianza y de Predicción
# Intervalo de confianza
confianza <- predict(modelo, newdata = [Link](AM = AM_nuevo),
interval = "confidence", level = 0.95)
confianza # Imprimir el intervalo de confianza
# Intervalo de predicción
prediccion <- predict(modelo, newdata = [Link](AM = AM_nuevo),
interval = "prediction", level = 0.95)
prediccion # Imprimir el intervalo de predicción
# e) Validación del modelo de regresión
# Ver el resumen del modelo de regresión
summary(modelo)
# Ver la matriz de correlación entre las variables
cor(AM, API)
# Ver el valor de R-squared
cat("R-squared: ", summary(modelo)$[Link])
SPSS:
Ejercicio 7- Regresión Lineal Simple
Excel:
RStudio:
# Paso 1: Introducir los datos
ozono <- c(0.8, 1.3, 1.7, 2.2, 2.7, 2.9)
no3 <- c(2.44, 5.21, 6.07, 8.98, 10.82, 12.16)
# Paso 2: Graficar los datos
plot(ozono, no3,
main = "Relación entre Ozono y Nitrato de Sodio",
xlab = "Concentración de Ozono (ppm)",
ylab = "Cantidad de Nitrato de Sodio (microgramos)",
pch = 19, col = "blue")
# Paso 3: Ajustar la recta de regresión lineal
modelo <- lm(no3 ~ ozono)
# Mostrar la ecuación de la recta de regresión
summary(modelo)
# Añadir la recta de regresión al gráfico
abline(modelo, col = "red")
# Paso 4: Calcular R-cuadrado (coeficiente de determinación)
r_squared <- summary(modelo)$[Link]
cat("El valor de R^2 es:", r_squared, "\n")
# Paso 5: Hacer predicciones para x = 2.5 (ejemplo)
prediccion <- predict(modelo, newdata = [Link](ozono = 2.5))
cat("La predicción para ozono = 2.5 es:", prediccion, "\n")
SPSS:
Ejercicio 8- Regresión Lineal Simple
Excel:
RStudio:
# Datos
temperatura <- c(96.3, 97.4, 98.9, 99.0, 98.0, 96.8, 98.4, 98.4,
98.8, 98.8, 99.2, 99.3)
frecuencia <- c(70, 68, 80, 75, 79, 75, 74, 84, 73, 84, 66, 68)
# Calcular el coeficiente de correlación
correlacion <- cor(temperatura, frecuencia)
print(paste("Coeficiente de correlación (r):", correlacion))
# Realizar la prueba de hipótesis
prueba_correlacion <- [Link](temperatura, frecuencia)
print(prueba_correlacion)